Category: Inteligência Artificial

Canva integra agente de IA para virar plataforma de trabalho completa

Canva integra agente de IA para virar plataforma de trabalho completa

Canva IA 2.0 marca a maior reformulação da plataforma desde 2013 (imagem: divulgação)

Resumo

O Canva anunciou o Canva IA 2.0, com sistema mais “agêntico” e interface conversacional para gerar peças completas por comando em texto ou voz.
A novidade usa a chamada orquestração autônoma para preservar contexto entre interações, com aplicação automática de padrões de marca.
A plataforma também integou conectores com Slack, Google Drive e Gmail, e um modo offline, que permite sincronizar o material posteriormente.

O Canva anunciou nesta quinta-feira (16/04) o Canva IA 2.0. A novidade é a adoção de um sistema mais agêntico, com interface conversacional. Agora, o usuário conseguirá gerar peças completas a partir de comandos em texto ou voz.

Na prática, a plataforma está expandindo seu formato, até então restrito a um site de design. Essa reformulação posiciona o Canva como um ambiente integrado de trabalho e, segundo a empresa, trata-se da maior mudança desde que a suíte de criatividade foi criada, em 2013.

Vale lembrar que a plataforma adota inteligência artificial em todas as ferramentas desde o ano passado, mas agora permitirá criar peças editáveis a partir de linguagem natural — experiência mais próxima da interação com chatbots.

Além disso, o Canva revelou a chamada “orquestração autônoma”, que combina ferramentas da plataforma para entregar resultados maiores, como campanhas publicitárias completas. A IA também passa a manter contexto entre interações e aplicar padrões de marca automaticamente.

Chatbot do Canva permite criar projetos completos por texto ou voz (imagem: divulgação)

Integração com outros serviços

Outro eixo da atualização é a integração com plataformas externas. O Canva IA 2.0 incorpora conectores com serviços como Slack, Google Drive e Gmail, permitindo transformar conteúdos — como e-mails ou reuniões — em materiais prontos dentro do editor. Há ainda funções de automação, como tarefas agendadas e geração de conteúdo em segundo plano.

A empresa também incluiu um modo offline, que permite trabalhar sem conexão e sincronizar alterações posteriormente, além de funções de edição por objetos (que altera apenas partes específicas do design) e busca na web.

Foco no Brasil

O Canva destaca o Brasil como um de seus principais mercados. De acordo com a companhia, o país lidera globalmente a produção de vídeos na plataforma, registrando 1,5 bilhão de designs criados nos últimos 12 meses. No total, usuários brasileiros já produziram 6,9 bilhões de peças na ferramenta.

O Canva IA 2.0 começa a ser liberado hoje em fase de testes, inicialmente para um grupo restrito — o primeiro milhão de usuários com acesso —, com expansão gradual nas próximas semanas.
Canva integra agente de IA para virar plataforma de trabalho completa

Canva integra agente de IA para virar plataforma de trabalho completa
Fonte: Tecnoblog

Google lança aplicativo nativo do Gemini para Mac

Google lança aplicativo nativo do Gemini para Mac

Gemini substituiu Google Assistente em smartphones (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Google lançou o aplicativo nativo do Gemini para macOS.
A novidade traz integração de tela e atalho para abrir uma barra de chat flutuante.
O app exige macOS 15 (Sequoia) ou versões superiores e usa compartilhamento de janela para extrair informações do que está na tela.

O Google lançou o aplicativo nativo do Gemini para macOS nesta quarta-feira (15/04). A nova experiência permite que usuários interajam com a IA sem a necessidade de abrir o navegador, integrando o assistente ao fluxo de trabalho no computador.

O software traz recursos como o compartilhamento de janela e o atalho Option + Space, que ativa uma barra de chat flutuante em qualquer parte do sistema. Para rodar o app, é preciso possuir um Mac com macOS 15 (Sequoia) ou versões superiores.

Segundo a empresa, esta primeira versão é o “alicerce” para um assistente de desktop mais proativo e pessoal que será desenvolvido nos próximos meses. Em fevereiro, a empresa lançou um agente autônomo para Android em mercados específicos.

Aplicativo já está disponível para download (imagem: divulgação)

O que o Gemini para Mac entrega?

O uso realmente lembra um sistema em fase beta. A versão desktop tem como diferencial a capacidade de entender o conteúdo que o usuário está visualizando com o compartilhamento de tela, mas não espere por um agente autônomo de IA.

Com a ferramenta, é possível solicitar resumos de arquivos locais ou análises de conteúdo visual sem precisar copiar e colar o texto. Para os usuários do sistema da gigante de Cupertino, a interface deve lembrar uma versão “aprimorada” do Spotlight da Apple, segundo o The Verge.

Gemini para macOS permite interagir com conteúdo no computador (imagem: divulgação/Google)

Para utilizar o compartilhamento de tela, o usuário precisa conceder permissões de acessibilidade ao sistema nas configurações do Mac. Uma vez autorizado, o assistente consegue extrair informações diretamente do que está aberto na tela para responder perguntas ou gerar insights.

Além disso, o plicativo preserva as funções encontradas na versão web:

Upload de arquivos: envio de fotos, documentos ou arquivos diretamente do Google Drive.

Geração de mídia: criação de imagens e vídeos sem sair da janela atual.

Histórico: acesso a conversas anteriores vinculadas à conta Google.

A plataforma nativa traz o histórico de conversas sincronizado com a conta Google, permitindo retomar chats iniciados em outros dispositivos.

Disputa de assistentes em desktop

O movimento do Google intensifica a concorrência com empresas como OpenAI (ChatGPT), Anthropic (Claude) e Perplexity pelo domínio da IA no desktop.

No entanto, de acordo com o The Verge, os aplicativos do ChatGPT e do Claude para Mac ainda possuem uma vantagem: eles oferecem recursos que permitem à IA realizar tarefas diretamente no computador.

Google lança aplicativo nativo do Gemini para Mac

Google lança aplicativo nativo do Gemini para Mac
Fonte: Tecnoblog

Microsoft remove Copilot do Bloco de Notas, mas IA ainda está lá

Microsoft remove Copilot do Bloco de Notas, mas IA ainda está lá

Copilot no Bloco de Notas (imagem: Emerson Alecrim/Tecnoblog)

Resumo

Microsoft prometeu reduzir a presença do Copilot no Windows 11 em março de 2026;
Bloco de Notas, na versão 11.2512.28.0 para Windows Insider, remove nome e ícone do Copilot;
mas os recursos de IA continuam no editor de texto, como as funções de reescrever e resumir textos.

Recentemente, a Microsoft prometeu diminuir a presença do Copilot no Windows 11. A promessa começou a ser cumprida: o Bloco de Notas (Notepad) para participantes do programa de testes Windows Insider já não menciona esse nome. Mas a tecnologia de IA ainda está por lá.

Vale contextualizar desde já. No Windows 11, o Bloco de Notas deixou de ser o editor de texto “basicão” que aparece no Windows 10 e versões anteriores do sistema operacional. Entre os aprimoramentos que a Microsoft implementou estão recursos de IA que começaram a ser introduzidos no Notepad em 2024.

Os recursos de inteligência artificial do Bloco de Notas ajudam você a reescrever ou resumir textos, por exemplo. E qual o problema disso? Há quem entenda que a Microsoft deve preservar a natureza simplista do Notepad para não deixá-lo pesado ou complexo.

Mas, no entendimento de muitos usuários, o problema não está no Bloco de Notas em si, mas na percepção de que a Microsoft está colocando o Copilot em todo canto do Windows 11, de modo exagerado.

Foi então que, em março de 2026, a companhia prometeu melhorar a experiência do usuário com o Windows 11 em vários aspectos, o que inclui remover o “excesso de Copilot” do sistema. Aparentemente, essa promessa começou a ser cumprida a partir do Bloco de Notas.

Bloco de Notas sem Copilot, mas com IA (imagem: reprodução/Windows Central)

Bloco de Notas sem Copilot, mas com IA

O Windows Central notou que, na versão 11.2512.28.0 do Bloco de Notas para participantes do programa Windows Insider, o editor de texto não tem referências ao Copilot. Porém, os recursos de IA ainda estão disponíveis ali.

Sendo preciso, o botão que permite reescrever ou resumir textos ainda está na barra superior do Notepad, mas teve o ícone do Copilot removido. Em seu lugar está o ícone de uma caneta.

Além disso, o menu Configurações não exibe mais uma área com o nome “Recursos de IA” para permitir ativar ou desativar o Copilot. Agora, essa opção é descrita como “Recursos Avançados”.

Isso significa que a Microsoft não está reduzindo a implementação de recursos de inteligência artificial no Windows 11 neste momento, mas controlando o “marketing” em torno do Copilot.

Se é uma estratégia eficiente para melhorar a imagem do Windows 11, eu não sei. Mas acho coerente não eliminar as funções de IA: como os recursos já foram apresentados, convém mantê-los se não há problemas técnicos impeditivos, como queda no desempenho.
Microsoft remove Copilot do Bloco de Notas, mas IA ainda está lá

Microsoft remove Copilot do Bloco de Notas, mas IA ainda está lá
Fonte: Tecnoblog

Novo modelo do Claude é tão poderoso que será restrito até que o mundo se prepare

Novo modelo do Claude é tão poderoso que será restrito até que o mundo se prepare

Claude Mythos Preivew é nova Inteligência Artificial da Anthropic, ainda restrita a consórcio de big techs por alto potencial para evoluir ciberataques (imagem: divulgação/Anthropic)

Resumo

A Anthropic anunciou o modelo Claude Mythos Preview em 07/04.
A empresa restringiu o acesso ao consórcio Project Glasswing. O motivo foi a capacidade do modelo de identificar vulnerabilidades e apoiar ciberataques.
A Anthropic afirmou que o Mythos encontrou brechas nos maiores sistemas operacionais e navegadores.
O consórcio inclui a Apple, o Google, a Amazon Web Services e a Cisco. O objetivo é reforçar tecnologias de cibersegurança antes de ampliar o acesso.

A Anthropic, empresa por trás do Claude, anunciou nesta terça-feira (07/04) seu novo modelo Mythos, que inicialmente está em beta e terá acesso restrito a um consórcio de empresas de tecnologia. O motivo, segundo seus desenvolvedores, é o alto poderio para identificar vulnerabilidades e contribuir para possíveis ciberataques.

O Mythos foi capaz de encontrar brechas de segurança “em todos os maiores sistemas operacionais e todos os maiores navegadores quando instruído por usuário a fazer isso”, segundo a companhia, o que acendeu um novo sinal de alerta no Vale do Silício.

A empresa limitou o acesso da nova ferramenta aos integrantes do chamado Project Glasswing, que inclui nomes como Apple, Google, Amazon Web Services, Cisco, entre outros. O objetivo é reforçar as tecnologias atuais de cibersegurança antes de oferecer a novidade em maior escala.

Vale lembrar que as ameaças virtuais envolvendo uso de inteligência artificial têm sido uma preocupação recorrente das big techs. Recentemente, a OpenAI divulgou um documento alertando sobre o crescente risco de segurança devido aos modelos de IA mais recente. Antes disso, a própria Anthropic já havia alertado sobre a situação em novembro de 2025.

Mythos é avançado demais para ser lançado

A posição da Anthropic chama atenção. A novidade vem em meio à crescente preocupação com o uso de IA em ciberataques, levantada pela própria empresa, além de outros players do mercado, como a OpenAI. Com o Project Glasswing, a ideia é reforçar as tecnologias de cibersegurança oferecidas para o público em diferentes plataformas.

O anúncio, inclusive, veio apenas após um vazamento de informações sobre o projeto, chamado internamente de “Capybara”. Segundo o The New York Times, foi a partir disso que a empresa decidiu pela divulgação da novidade, destacando o motivo por trás da cautela extrema. Até o momento, a Anthropic não revelou muitos detalhes de seu funcionamento, limitando a informação à restrição de uso pelas big techs.

Em novembro de 2025, a desenvolvedora da Claude AI registrou o primeiro ciberataque com uso de IA, demonstrando a capacidade da tecnologia de orquestrar toda a estratégia para derrubar sistemas de segurança online.

Ciberataques com Inteligência Artificial acendem alerta de desenvolvedoras (Imagem: DC Studio/Freepik)

De acordo com levantamento feito pela empresa de cibersegurança CrowdStrike, o papel da inteligência artificial nesses ataques vai além: desde a detecção de vulnerabilidades até a automação dessas ações, passando também pela customização de golpes e mesmo na identificação dos melhores alvos a serem explorados. Por fora, vale ainda a preocupação com a capacidade de desenvolver novas técnicas graças ao aprendizado de máquina cada vez mais acelerado.

Alerta vai além do novo modelo da Anthropic

Enquanto a Anthropic anunciou a Claude Mythos como solução dentro do consórcio Project Glasswing, a OpenAI sugeriu um canal direto com desenvolvedores de tecnologia para levantar sugestões e facilitar o acesso aos serviços de Inteligência Artificial da empresa com esse objetivo, incluindo a disponibilização de créditos de IA para utilizar as ferramentas mais recentes do ChatGPT – algo que também foi anunciado pela dona da Claude.

A preocupação também não é uma novidade no segmento. A OpenAI também travou a chegada do GPT-2 ao mercado, ainda em 2019, alegando que seria perigoso entregar a tecnologia de IA generativa em meio às preocupações com desinformação e produção massiva de propaganda. A atualização do ChatGPT foi disponibilizada progressivamente até o final daquele ano.
Novo modelo do Claude é tão poderoso que será restrito até que o mundo se prepare

Novo modelo do Claude é tão poderoso que será restrito até que o mundo se prepare
Fonte: Tecnoblog

Google surpreende ao aumentar espaço e manter preço do One AI Pro

Google surpreende ao aumentar espaço e manter preço do One AI Pro

Google One AI Pro dobra capacidade máxima de armazenamento para assinantes (foto: Thássius Veloso/Tecnoblog)

Resumo

O Google One AI Pro oferece mais que o dobro de armazenamento agora: 5 TB; preço fica em  R$ 48,49 nos dois primeiros meses, depois R$ 96,99 mensais;
O plano inclui 1.000 créditos de IA para serviços como Flow e Whisk com o modelo Veo 3.1;
Outras opções para Inteligência Artificial incluem o Google One AI Plus com 200 GB e 200 créditos, e o Google One Ultra com 30 TB e 25 mil créditos.

O Google One AI Pro, assinatura para armazenamento extra na nuvem, recebeu um reajuste de espaço e agora oferece até 5 TB para os clientes. A novidade já está disponível no Brasil e sai a partir de R$ 48,49 em período promocional nos dois primeiros meses; depois, o valor volta aos R$ 96,99 originais. Esse é mais que o dobro de espaço oferecido no plano até então, que permitia guardar arquivos até 2 TB.

Agora, usuários interessados em uma quantidade menor de armazenamento podem optar pelo Google One Premium, com os mesmos 2 TB e mensalidade de R$ 49,99. Vale lembrar que os planos de IA começam em R$ 12,49 (One IA Plus de 200 GB), em preço promocional pelos seis primeiros meses.

O anúncio foi feito pelo Google nesta quarta-feira (01/04), conforme repercutiu o site especializado 9to5 Google, e logo em seguida o plano foi revisto no Brasil.

Com a novidade, agora são três opções de assinatura voltadas para o uso de inteligência artificial: Plus, Pro e Ultra. Enquanto os dois primeiros ficam em 200 GB e 5 TB, o plano mais alto permite até 30 TB de arquivos armazenados, entre fotos, documentos, emails e recursos premium de IA. Entre os serviços oferecidos pelo Google estão Gemini, NotebookLM, Flow, Whisk, entre outros.

Por que ter um plano específico de inteligência artificial?

As assinaturas oferecidas pelo Google para usuários profissionais das IAs têm, além do armazenamento extra, outras vantagens específicas. Entre elas estão a oferta de créditos de IA, que podem ser usados para acessar mais funções dentro dos serviços Flow e Whisk, voltados para criação de imagens e vídeos a partir do modelo Veo 3.1.

O plano One AI Plus, por exemplo, permite usar até 200 créditos mensais, enquanto o Google One AI Pro disponibiliza mil créditos para os usuários. Na opção Ultra, que custa elevados R$ 1.209,99 por mês, são 25 mil créditos. Este é claramente um plano mais adequado para empresas ligadas à criatividade, e não é o mais indicado para usuários que trabalham com a ferramenta de forma independente.

Recursos como o Gemini Live podem ser explorados com mais armazenamento disponível via Google One AI (imagem: divulgação)

Quem busca apenas expandir o armazenamento em serviços básicos do Google, por exemplo, pode recorrer aos planos One básicos, como o Lite, o Básico e o Padrão, com 30 GB, 100 GB e 200 GB, respectivamente. A opção Premium, por sua vez, tem 2 TB e também cobre recursos de IA.

Preços do Google One

Vamos considerar abaixo os principais planos do Google One oferecidos no Brasil, incluindo o Padrão, o AI Plus, o Premium e o AI Pro, já com os reajustes anunciados.

PadrãoAI PlusPremiumAI ProPreçoR$ 14,99R$ 12,50 (6 primeiros meses) / R$ 24,99 (padrão)R$ 49,99R$ 48,49 (2 primeiros meses) / R$ 96,99 (padrão)Armazenamento200 GB200 GB2 TB5 TBGmail, Docs, Sheets e maisSimSimSimSimCréditos de IANão200 créditos200 créditos1.000 créditosTabela elaborada pelo Tecnoblog com base em dados oficiais

Google surpreende ao aumentar espaço e manter preço do One AI Pro

Google surpreende ao aumentar espaço e manter preço do One AI Pro
Fonte: Tecnoblog

iFood aposta em IA e melhora busca por itens específicos

iFood aposta em IA e melhora busca por itens específicos

iFood usa inteligência artificial para tornar buscas mais precisas no app (Imagem: Vitor Pádua/Tecnoblog)

Resumo

O iFood atualizou o sistema de busca com inteligência artificial, reduzindo em 20% o tempo médio entre pesquisa e pedido.
A busca agora reconhece termos mais específicos, exibindo resultados alinhados à intenção do cliente, com suporte a mais de 20 modelos de IA.
A taxa de conversão aumentou mais de 10% entre fevereiro de 2025 e fevereiro de 2026, com filtros dinâmicos adaptando-se ao tipo de busca.

O iFood anuncia nesta sexta-feira (27) mudanças no sistema de busca do app, com o objetivo de tornar a navegação mais eficiente para os clientes. A empresa passou a usar inteligência artificial para refinar os resultados e facilitar a localização de itens dentro do aplicativo.

O iFood revelou ao Tecnoblog que o tempo médio entre a pesquisa e a finalização de um pedido caiu cerca de 20%, porém sem informar os números absolutos. A novidade já está disponível para todos os clientes da plataforma, tanto no Android quanto no iPhone.

O que muda na busca do iFood?

A principal alteração está na forma como o sistema interpreta os termos digitados. Antes focado em buscas mais genéricas, o app agora reconhece pedidos mais específicos, exibindo resultados alinhados à intenção do cliente.

Na prática, os clientes que antes pesquisavam por “pizza” agora podem buscar por “pizza de calabresa com queijo” ou “pizza pequena”. Os exemplos compartilhados conosco incluem “fralda infantil XG” (em vez de apenas “fralda”), “Coca-Cola Zero 2L” e “picolé diet”.

A mudança é sustentada por mais de 20 modelos de inteligência artificial, que priorizam a exibição direta de produtos, e não apenas de estabelecimentos.

Como a IA impacta os pedidos?

Nova busca do iFood destaca produtos específicos e usa filtros dinâmicos (imagem: divulgação/iFood)

Além disso, o iFood implementou filtros dinâmicos, que se adaptam ao tipo de busca. Ao procurar por pizza, por exemplo, o cliente pode filtrar rapidamente por sabor, tamanho ou promoções. Já em buscas por hambúrguer, surgem opções relacionadas a tipos de proteína. Em produtos como fraldas, os filtros priorizam tamanho e marca.

O avanço está ligado ao uso de modelos de busca semântica e de intenção, capazes de interpretar com mais precisão o que o cliente deseja encontrar. Além de simplificar a jornada de compra, a empresa afirma que a mudança também amplia a visibilidade dos produtos oferecidos por parceiros.

Os efeitos da nova busca já aparecem em indicadores internos. A taxa de conversão — clientes que pesquisam e concluem a compra — cresceu mais de 10% na comparação entre fevereiro de 2025 e fevereiro de 2026.

iFood aposta em IA e melhora busca por itens específicos

iFood aposta em IA e melhora busca por itens específicos
Fonte: Tecnoblog

Pedir para IA agir como especialista prejudica respostas, mostra estudo

Pedir para IA agir como especialista prejudica respostas, mostra estudo

IAs têm resultados piores em programação quando devem agir como programadores (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Estudo da Universidade do Sul da Califórnia mostra que pedir para IA assumir papéis reduz a precisão em tarefas exatas como programação e matemática.
Modelos de linguagem que seguem instruções, como o Llama e o Qwen, perdem precisão quando instruídos a atuar como “especialistas”.
Abordagem ainda funciona para segurança e estilo de escrita, mas o estudo sugere uso mais estratégico de personas conforme o tipo de tarefa.

Um dos truques mais populares na hora de interagir com ferramentas de inteligência artificial é o de pedir para que o modelo assuma o papel de um especialista. A técnica, no entanto, pode ter o efeito oposto ao desejado na hora de escrever códigos em alguns modelos de IA.

Um novo estudo de pesquisadores da Universidade do Sul da Califórnia (USC), nos EUA, revela que adotar esse tipo de persona no prompt piora o desempenho de grandes modelos de linguagem (LLMs) em tarefas exatas, como aquelas que envolvem programação e matemática.

A pesquisa, publicada no arXiv, repositório de estudos ainda não revisados por pares, concluiu que o impacto das instruções de interpretação de papéis depende do tipo de tarefa. Enquanto a técnica funciona bem para alinhar o modelo a regras de segurança ou estilos de escrita, comandos genéricos como “você é um desenvolvedor full-stack sênior” prejudicam a capacidade de a IA de resgatar fatos do banco de dados de treinamento.

Dificuldade em memorizar os fatos

Os pesquisadores utilizaram um teste padronizado usado pela indústria para avaliar a precisão dos modelos de linguagem, o MMLU. O estudo colocou à prova seis modelos, divididos entre arquiteturas focadas em seguir instruções — como o Llama 3.1 da Meta, o Mistral e o Qwen da Alibaba — e modelos destilados para raciocínio, como variantes do DeepSeek R1. Vale pontuar que os modelos utilizados na pesquisa foram lançados entre 2024 e o início de 2025.

Ao responder questões de múltipla escolha com a instrução prévia de atuar como um “especialista”, a IA atingiu precisão geral de 68%, abaixo do resultado sem nenhuma interpretação, no qual marcou 71,6%. Aqueles modelos que foram otimizados pelos fabricantes para obedecer “prompts de sistema” — como o Llama e o Qwen — são os que mais sofrem perda de precisão.

Segundo o estudo, quando o usuário insere a exigência de uma persona no comando, a IA ativa um “modo de seguimento de instruções” que consome recursos de processamento que, de outra forma, seriam dedicados à lembrança de dados factuais corretos. Já nos modelos de raciocínio pesado, como o DeepSeek-R1, a persona não fez muita diferença.

Em entrevista ao The Register, Zizhao Hu, doutorando da USC e coautor do artigo, afirmou que a descoberta se aplica diretamente ao desenvolvimento de software, mas fornecer detalhes e regras específicas sobre a arquitetura do projeto ou preferências de interface ainda é útil. Isso porque esses aspectos são de estruturação e formatação, áreas em que a IA responde bem a instruções de alinhamento.

Quando a tática funciona?

IA ainda pode receber instruções com “roleplay” (ilustração: Vitor Pádua/Tecnoblog)

Apesar de falhar em tarefas que exigem precisão, a técnica ainda tem utilidade comprovada no que o estudo chama de “tarefas dependentes de alinhamento”. Pedir para a IA atuar como um “Monitor de Segurança”, por exemplo, aumentou as taxas de recusa a ataques em 17,7. Além da segurança, o método se provou eficaz para adaptar tons de escrita, seguir regras rígidas de formatação, simular múltiplos agentes e gerar dados sintéticos.

Para as tarefas exatas, a equipe da USC — composta por Hu, Mohammad Rostami e Jesse Thomason — propôs uma técnica batizada de PRISM (Persona Routing via Intent-based Self-Modeling). O método ativa a persona apenas quando ela melhora respostas textuais e de estrutura, mas desliga o filtro e volta ao modelo base na hora de gerar saídas que dependem de conhecimento pré-treinado.

Pedir para IA agir como especialista prejudica respostas, mostra estudo

Pedir para IA agir como especialista prejudica respostas, mostra estudo
Fonte: Tecnoblog

OpenAI decide acabar com o Sora, ferramenta que gera vídeos por IA

OpenAI decide acabar com o Sora, ferramenta que gera vídeos por IA

Sora será descontinuado pela OpenAI (imagem: reprodução/OpenAI)

Resumo

OpenAI decidiu descontinuar o Sora e suas APIs para focar em outros projetos, sobretudo de robótica;
ferramenta de IA foi anunciada em 2024 para permitir a criação de vídeos a partir de instruções digitadas;
cronograma de descontinuação do Sora ainda será divulgado pela OpenAI.

Em um anúncio repentino e surpreendente, a OpenAI anunciou a decisão de encerrar o Sora, ferramenta de inteligência artificial que gera vídeos a partir das instruções digitadas pelo usuário. As APIs que permitem que desenvolvedores integrem o Sora a seus aplicativos também serão descontinuadas.

A OpenAI anunciou o Sora em fevereiro de 2024, mas somente em setembro de 2025, com o lançamento do Sora 2, é que a ferramenta conquistou um público expressivo, não só por conta dos aprimoramentos trazidos com essa versão (vide o vídeo mais abaixo), mas também devido ao lançamento de um app móvel cuja dinâmica de funcionamento lembra a do TikTok.

Mas eis que, por meio do X, a OpenAI revelou que está dando adeus ao Sora:

Estamos nos despedindo do aplicativo do Sora. A todos que criaram com o Sora, compartilharam e construíram uma comunidade em torno dele: obrigado. O que vocês criaram com o Sora foi importante, e sabemos que esta notícia é desapontadora.

Em breve, compartilharemos mais informações, incluindo cronogramas [de descontinuação] para o aplicativo e a API, além de detalhes sobre como preservar seu trabalho.

Por que o Sora vai ser descontinuado pela OpenAI?

A veículos como o VentureBeat, a OpenAI informou apenas que decidiu encerrar o Sora para se concentrar no desenvolvimento de outros projetos, principalmente no campo da robótica:

Decidimos descontinuar o Sora no aplicativo para consumidores e na API. À medida que nos concentramos e a demanda por computação aumenta, a equipe de pesquisa do Sora continua focada em pesquisas de simulação do mundo real para avançar na robótica, ajudando as pessoas a resolver tarefas físicas do mundo real.

OpenAI

Parece ter sido uma decisão tomada abruptamente, pois não havia nada sugerindo uma descontinuação. Era o contrário: rumores recentes indicavam que o Sora seria integrado ao ChatGPT.

A decisão teve outro efeito: pôs fim à parceria da OpenAI com a Disney firmada para permitir aos usuários do Sora criar vídeos usando mais de 200 personagens de franquias como Marvel, Pixar e Star Wars.

No momento, segue sendo possível usar o Sora. Como a própria OpenAI informou em seu comunicado, o cronograma de descontinuação ainda será divulgado.
OpenAI decide acabar com o Sora, ferramenta que gera vídeos por IA

OpenAI decide acabar com o Sora, ferramenta que gera vídeos por IA
Fonte: Tecnoblog

Claude agora pode controlar seu Mac pelo iPhone

Claude agora pode controlar seu Mac pelo iPhone

Novidade ainda é restrita ao ecossistema Apple (imagem: reprodução/Anthropic)

Resumo

Anthropic atualiza ferramentas Claude Cowork e Claude Code com controle remoto de Mac.
IA agora pode executar ações no macOS e automatizar tarefas complexas mesmo à distância.
Por enquanto, funcionalidade é restrita ao ecossistema Apple e chega em preview para assinantes pagos.

A Anthropic anunciou uma atualização de peso para as ferramentas Claude Cowork e Claude Code. A inteligência artificial da empresa agora consegue assumir o controle de um Mac remotamente para executar tarefas. O recurso permite que a IA aponte, clique, digite e até navegue pela interface do macOS, concluindo tarefas mesmo longe do computador.

A novidade funciona integrada ao Dispatch, outra funcionalidade recente que viabiliza a atribuição de processos entre diferentes aparelhos. Segundo a Anthropic, o sistema funciona da seguinte maneira: um usuário pode solicitar uma tarefa complexa ao Claude pelo aplicativo para iPhone; em seguida, a IA executa os comandos necessários no Mac que ficou em casa ou no escritório.

O modelo foi desenhado para atuar como um assistente. Em uma das demonstrações publicadas no YouTube, a IA recebe a instrução para exportar uma apresentação de vendas no formato PDF e anexá-la a um convite de reunião. A partir daí, o Claude realiza os cliques na interface do sistema de forma independente.

Como o Claude navega pelos aplicativos?

Para interagir com o sistema, o Claude prioriza integrações diretas com ferramentas como Slack ou Google Agenda. Quando essas pontes não existem, a IA passa a interpretar e controlar a tela. Ela rola páginas, clica em botões, abre arquivos e usa o navegador como um humano. O único requisito técnico é que o aplicativo desktop do Claude esteja aberto no macOS.

Apesar do avanço, a desenvolvedora é transparente quanto às atuais limitações. A Anthropic ressalta que o uso de computadores por modelos de IA ainda está em um estágio inicial e a ferramenta pode cometer erros de execução ou necessitar de uma segunda tentativa para finalizar comandos difíceis.

Para reduzir riscos, a IA sempre solicitará o aval do usuário antes de acessar um aplicativo novo ou instalar ferramentas. A companhia também implementou um sistema de verificação automático focado em detectar e neutralizar atividades perigosas. Outra recomendação oficial é evitar expor o recurso a dados sensíveis ou confidenciais, pelo menos neste período inicial.

A novidade já está disponível em formato de pré-visualização (preview) para assinantes dos planos pagos Claude Pro e Claude Max.

Claude solicita permissão do usuário para acessar novos aplicativos (imagem: reprodução/Anthropic)

Recurso segue tendência do OpenClaw

A nova funcionalidade do Claude segue uma tendência do mercado de agentes autônomos, esbarrando em comparações com o OpenClaw. O projeto de código aberto viralizou no início de 2026 por se conectar a aplicativos de mensagens, como WhatsApp e Telegram, utilizando um sistema baseado em plugins (“skills”) para automação e gerenciamento de arquivos.

Mas, aqui, há uma diferença no ecossistema. Enquanto o OpenClaw é multiplataforma (suportando macOS, Windows e Linux) e altamente personalizável, a versão da Anthropic aposta em um ambiente mais restritivo e controlado, rodando, até o momento, apenas nos computadores da Apple.

A atualização reforça a lista de melhorias da Anthropic, que também liberou recentemente uma ferramenta oficial de importação de memória. Ela permite transferir históricos de conversas de outras IAs concorrentes, eliminando a necessidade de começar do zero após migrar de serviço.
Claude agora pode controlar seu Mac pelo iPhone

Claude agora pode controlar seu Mac pelo iPhone
Fonte: Tecnoblog

Estúdio admite uso de IA após descoberta de jogador e pede desculpas

Estúdio admite uso de IA após descoberta de jogador e pede desculpas

Usuário apontou inconsistências visuais em objetos de Crimson Desert (imagem: divulgação)

Resumo

O estúdio Pearl Abyss admitiu o uso de IA em elementos visuais de Crimson Desert e pediu desculpas pelo erro.
A desenvolvedora iniciou uma auditoria para substituir conteúdos gerados por IA e prometeu atualizações futuras.
O uso de IA em jogos tem gerado polêmica e estúdios menores já destacam projetos sem IA para valorizar o trabalho manual.

Desde o lançamento na última quinta-feira (19/03), Crimson Desert tem chamado atenção pela qualidade gráfica. A recepção, porém, ganhou um ponto de tensão após um jogador identificar indícios de uso de inteligência artificial no jogo.

No Reddit, o usuário publicou evidências do que classificou como “estranho”, apontando inconsistências visuais em alguns objetos de arte no game. “Parece arte de IA de alguns anos atrás”, escreveu.

A repercussão levou o estúdio a se pronunciar oficialmente: a empresa confirmou o uso da tecnologia e pediu desculpas.

O que o estúdio explicou sobre o caso?

Found this AI Painting. byu/Rex_Spy inCrimsonDesert

Em comunicado, a desenvolvedora Pearl Abyss reconheceu que utilizou ferramentas de IA generativa na criação de alguns elementos visuais em fases iniciais do projeto. Segundo a empresa, esses conteúdos tinham caráter experimental e serviram para acelerar a definição de estilo e ambientação.

De acordo com o estúdio, os materiais gerados por IA deveriam ter sido substituídos após revisão das equipes de arte e desenvolvimento. Ainda assim, parte desse material acabou sendo incluída na versão final do jogo por engano. No Steam, Crimson Desert é vendido por R$ 349,99.

Além disso, a desenvolvedora afirma que a presença desses conteúdos não está alinhada aos seus padrões internos e assume responsabilidade pelo ocorrido. “Deveríamos ter divulgado claramente o nosso uso de IA”, escreve. “Pedimos sinceras desculpas por essas falhas”.

Imagem compartilhada pelo usuário mostra inconsistências (imagem: reprodução/Reddit/Rex_Spy)

Uso de IA tem sido comum

O uso de IA nos jogos virou um tema polêmico. Muitos estúdios menores, inclusive, passaram a destacar seus projetos como livres de IA, reforçando a valorização do trabalho manual.

Também não é o primeiro caso do tipo: no ano passado, uma polêmica muito parecida ocorreu em torno de The Alters, que usou IA para traduções e texto. Grandes empresas têm investido na tecnologia para otimizar processos, mas parte da comunidade e desenvolvedores independentes é contra.

No caso de Crimson Desert, a desenvolvedora informou que iniciou uma auditoria completa para identificar e substituir os conteúdos afetados. Atualizações com correções devem ser lançadas em patches futuros, enquanto processos internos passam por revisão para evitar episódios semelhantes.
Estúdio admite uso de IA após descoberta de jogador e pede desculpas

Estúdio admite uso de IA após descoberta de jogador e pede desculpas
Fonte: Tecnoblog