Category: Inteligência Artificial

iFood aposta em IA e melhora busca por itens específicos

iFood aposta em IA e melhora busca por itens específicos

iFood usa inteligência artificial para tornar buscas mais precisas no app (Imagem: Vitor Pádua/Tecnoblog)

Resumo

O iFood atualizou o sistema de busca com inteligência artificial, reduzindo em 20% o tempo médio entre pesquisa e pedido.
A busca agora reconhece termos mais específicos, exibindo resultados alinhados à intenção do cliente, com suporte a mais de 20 modelos de IA.
A taxa de conversão aumentou mais de 10% entre fevereiro de 2025 e fevereiro de 2026, com filtros dinâmicos adaptando-se ao tipo de busca.

O iFood anuncia nesta sexta-feira (27) mudanças no sistema de busca do app, com o objetivo de tornar a navegação mais eficiente para os clientes. A empresa passou a usar inteligência artificial para refinar os resultados e facilitar a localização de itens dentro do aplicativo.

O iFood revelou ao Tecnoblog que o tempo médio entre a pesquisa e a finalização de um pedido caiu cerca de 20%, porém sem informar os números absolutos. A novidade já está disponível para todos os clientes da plataforma, tanto no Android quanto no iPhone.

O que muda na busca do iFood?

A principal alteração está na forma como o sistema interpreta os termos digitados. Antes focado em buscas mais genéricas, o app agora reconhece pedidos mais específicos, exibindo resultados alinhados à intenção do cliente.

Na prática, os clientes que antes pesquisavam por “pizza” agora podem buscar por “pizza de calabresa com queijo” ou “pizza pequena”. Os exemplos compartilhados conosco incluem “fralda infantil XG” (em vez de apenas “fralda”), “Coca-Cola Zero 2L” e “picolé diet”.

A mudança é sustentada por mais de 20 modelos de inteligência artificial, que priorizam a exibição direta de produtos, e não apenas de estabelecimentos.

Como a IA impacta os pedidos?

Nova busca do iFood destaca produtos específicos e usa filtros dinâmicos (imagem: divulgação/iFood)

Além disso, o iFood implementou filtros dinâmicos, que se adaptam ao tipo de busca. Ao procurar por pizza, por exemplo, o cliente pode filtrar rapidamente por sabor, tamanho ou promoções. Já em buscas por hambúrguer, surgem opções relacionadas a tipos de proteína. Em produtos como fraldas, os filtros priorizam tamanho e marca.

O avanço está ligado ao uso de modelos de busca semântica e de intenção, capazes de interpretar com mais precisão o que o cliente deseja encontrar. Além de simplificar a jornada de compra, a empresa afirma que a mudança também amplia a visibilidade dos produtos oferecidos por parceiros.

Os efeitos da nova busca já aparecem em indicadores internos. A taxa de conversão — clientes que pesquisam e concluem a compra — cresceu mais de 10% na comparação entre fevereiro de 2025 e fevereiro de 2026.

iFood aposta em IA e melhora busca por itens específicos

iFood aposta em IA e melhora busca por itens específicos
Fonte: Tecnoblog

Pedir para IA agir como especialista prejudica respostas, mostra estudo

Pedir para IA agir como especialista prejudica respostas, mostra estudo

IAs têm resultados piores em programação quando devem agir como programadores (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Estudo da Universidade do Sul da Califórnia mostra que pedir para IA assumir papéis reduz a precisão em tarefas exatas como programação e matemática.
Modelos de linguagem que seguem instruções, como o Llama e o Qwen, perdem precisão quando instruídos a atuar como “especialistas”.
Abordagem ainda funciona para segurança e estilo de escrita, mas o estudo sugere uso mais estratégico de personas conforme o tipo de tarefa.

Um dos truques mais populares na hora de interagir com ferramentas de inteligência artificial é o de pedir para que o modelo assuma o papel de um especialista. A técnica, no entanto, pode ter o efeito oposto ao desejado na hora de escrever códigos em alguns modelos de IA.

Um novo estudo de pesquisadores da Universidade do Sul da Califórnia (USC), nos EUA, revela que adotar esse tipo de persona no prompt piora o desempenho de grandes modelos de linguagem (LLMs) em tarefas exatas, como aquelas que envolvem programação e matemática.

A pesquisa, publicada no arXiv, repositório de estudos ainda não revisados por pares, concluiu que o impacto das instruções de interpretação de papéis depende do tipo de tarefa. Enquanto a técnica funciona bem para alinhar o modelo a regras de segurança ou estilos de escrita, comandos genéricos como “você é um desenvolvedor full-stack sênior” prejudicam a capacidade de a IA de resgatar fatos do banco de dados de treinamento.

Dificuldade em memorizar os fatos

Os pesquisadores utilizaram um teste padronizado usado pela indústria para avaliar a precisão dos modelos de linguagem, o MMLU. O estudo colocou à prova seis modelos, divididos entre arquiteturas focadas em seguir instruções — como o Llama 3.1 da Meta, o Mistral e o Qwen da Alibaba — e modelos destilados para raciocínio, como variantes do DeepSeek R1. Vale pontuar que os modelos utilizados na pesquisa foram lançados entre 2024 e o início de 2025.

Ao responder questões de múltipla escolha com a instrução prévia de atuar como um “especialista”, a IA atingiu precisão geral de 68%, abaixo do resultado sem nenhuma interpretação, no qual marcou 71,6%. Aqueles modelos que foram otimizados pelos fabricantes para obedecer “prompts de sistema” — como o Llama e o Qwen — são os que mais sofrem perda de precisão.

Segundo o estudo, quando o usuário insere a exigência de uma persona no comando, a IA ativa um “modo de seguimento de instruções” que consome recursos de processamento que, de outra forma, seriam dedicados à lembrança de dados factuais corretos. Já nos modelos de raciocínio pesado, como o DeepSeek-R1, a persona não fez muita diferença.

Em entrevista ao The Register, Zizhao Hu, doutorando da USC e coautor do artigo, afirmou que a descoberta se aplica diretamente ao desenvolvimento de software, mas fornecer detalhes e regras específicas sobre a arquitetura do projeto ou preferências de interface ainda é útil. Isso porque esses aspectos são de estruturação e formatação, áreas em que a IA responde bem a instruções de alinhamento.

Quando a tática funciona?

IA ainda pode receber instruções com “roleplay” (ilustração: Vitor Pádua/Tecnoblog)

Apesar de falhar em tarefas que exigem precisão, a técnica ainda tem utilidade comprovada no que o estudo chama de “tarefas dependentes de alinhamento”. Pedir para a IA atuar como um “Monitor de Segurança”, por exemplo, aumentou as taxas de recusa a ataques em 17,7. Além da segurança, o método se provou eficaz para adaptar tons de escrita, seguir regras rígidas de formatação, simular múltiplos agentes e gerar dados sintéticos.

Para as tarefas exatas, a equipe da USC — composta por Hu, Mohammad Rostami e Jesse Thomason — propôs uma técnica batizada de PRISM (Persona Routing via Intent-based Self-Modeling). O método ativa a persona apenas quando ela melhora respostas textuais e de estrutura, mas desliga o filtro e volta ao modelo base na hora de gerar saídas que dependem de conhecimento pré-treinado.

Pedir para IA agir como especialista prejudica respostas, mostra estudo

Pedir para IA agir como especialista prejudica respostas, mostra estudo
Fonte: Tecnoblog

OpenAI decide acabar com o Sora, ferramenta que gera vídeos por IA

OpenAI decide acabar com o Sora, ferramenta que gera vídeos por IA

Sora será descontinuado pela OpenAI (imagem: reprodução/OpenAI)

Resumo

OpenAI decidiu descontinuar o Sora e suas APIs para focar em outros projetos, sobretudo de robótica;
ferramenta de IA foi anunciada em 2024 para permitir a criação de vídeos a partir de instruções digitadas;
cronograma de descontinuação do Sora ainda será divulgado pela OpenAI.

Em um anúncio repentino e surpreendente, a OpenAI anunciou a decisão de encerrar o Sora, ferramenta de inteligência artificial que gera vídeos a partir das instruções digitadas pelo usuário. As APIs que permitem que desenvolvedores integrem o Sora a seus aplicativos também serão descontinuadas.

A OpenAI anunciou o Sora em fevereiro de 2024, mas somente em setembro de 2025, com o lançamento do Sora 2, é que a ferramenta conquistou um público expressivo, não só por conta dos aprimoramentos trazidos com essa versão (vide o vídeo mais abaixo), mas também devido ao lançamento de um app móvel cuja dinâmica de funcionamento lembra a do TikTok.

Mas eis que, por meio do X, a OpenAI revelou que está dando adeus ao Sora:

Estamos nos despedindo do aplicativo do Sora. A todos que criaram com o Sora, compartilharam e construíram uma comunidade em torno dele: obrigado. O que vocês criaram com o Sora foi importante, e sabemos que esta notícia é desapontadora.

Em breve, compartilharemos mais informações, incluindo cronogramas [de descontinuação] para o aplicativo e a API, além de detalhes sobre como preservar seu trabalho.

Por que o Sora vai ser descontinuado pela OpenAI?

A veículos como o VentureBeat, a OpenAI informou apenas que decidiu encerrar o Sora para se concentrar no desenvolvimento de outros projetos, principalmente no campo da robótica:

Decidimos descontinuar o Sora no aplicativo para consumidores e na API. À medida que nos concentramos e a demanda por computação aumenta, a equipe de pesquisa do Sora continua focada em pesquisas de simulação do mundo real para avançar na robótica, ajudando as pessoas a resolver tarefas físicas do mundo real.

OpenAI

Parece ter sido uma decisão tomada abruptamente, pois não havia nada sugerindo uma descontinuação. Era o contrário: rumores recentes indicavam que o Sora seria integrado ao ChatGPT.

A decisão teve outro efeito: pôs fim à parceria da OpenAI com a Disney firmada para permitir aos usuários do Sora criar vídeos usando mais de 200 personagens de franquias como Marvel, Pixar e Star Wars.

No momento, segue sendo possível usar o Sora. Como a própria OpenAI informou em seu comunicado, o cronograma de descontinuação ainda será divulgado.
OpenAI decide acabar com o Sora, ferramenta que gera vídeos por IA

OpenAI decide acabar com o Sora, ferramenta que gera vídeos por IA
Fonte: Tecnoblog

Claude agora pode controlar seu Mac pelo iPhone

Claude agora pode controlar seu Mac pelo iPhone

Novidade ainda é restrita ao ecossistema Apple (imagem: reprodução/Anthropic)

Resumo

Anthropic atualiza ferramentas Claude Cowork e Claude Code com controle remoto de Mac.
IA agora pode executar ações no macOS e automatizar tarefas complexas mesmo à distância.
Por enquanto, funcionalidade é restrita ao ecossistema Apple e chega em preview para assinantes pagos.

A Anthropic anunciou uma atualização de peso para as ferramentas Claude Cowork e Claude Code. A inteligência artificial da empresa agora consegue assumir o controle de um Mac remotamente para executar tarefas. O recurso permite que a IA aponte, clique, digite e até navegue pela interface do macOS, concluindo tarefas mesmo longe do computador.

A novidade funciona integrada ao Dispatch, outra funcionalidade recente que viabiliza a atribuição de processos entre diferentes aparelhos. Segundo a Anthropic, o sistema funciona da seguinte maneira: um usuário pode solicitar uma tarefa complexa ao Claude pelo aplicativo para iPhone; em seguida, a IA executa os comandos necessários no Mac que ficou em casa ou no escritório.

O modelo foi desenhado para atuar como um assistente. Em uma das demonstrações publicadas no YouTube, a IA recebe a instrução para exportar uma apresentação de vendas no formato PDF e anexá-la a um convite de reunião. A partir daí, o Claude realiza os cliques na interface do sistema de forma independente.

Como o Claude navega pelos aplicativos?

Para interagir com o sistema, o Claude prioriza integrações diretas com ferramentas como Slack ou Google Agenda. Quando essas pontes não existem, a IA passa a interpretar e controlar a tela. Ela rola páginas, clica em botões, abre arquivos e usa o navegador como um humano. O único requisito técnico é que o aplicativo desktop do Claude esteja aberto no macOS.

Apesar do avanço, a desenvolvedora é transparente quanto às atuais limitações. A Anthropic ressalta que o uso de computadores por modelos de IA ainda está em um estágio inicial e a ferramenta pode cometer erros de execução ou necessitar de uma segunda tentativa para finalizar comandos difíceis.

Para reduzir riscos, a IA sempre solicitará o aval do usuário antes de acessar um aplicativo novo ou instalar ferramentas. A companhia também implementou um sistema de verificação automático focado em detectar e neutralizar atividades perigosas. Outra recomendação oficial é evitar expor o recurso a dados sensíveis ou confidenciais, pelo menos neste período inicial.

A novidade já está disponível em formato de pré-visualização (preview) para assinantes dos planos pagos Claude Pro e Claude Max.

Claude solicita permissão do usuário para acessar novos aplicativos (imagem: reprodução/Anthropic)

Recurso segue tendência do OpenClaw

A nova funcionalidade do Claude segue uma tendência do mercado de agentes autônomos, esbarrando em comparações com o OpenClaw. O projeto de código aberto viralizou no início de 2026 por se conectar a aplicativos de mensagens, como WhatsApp e Telegram, utilizando um sistema baseado em plugins (“skills”) para automação e gerenciamento de arquivos.

Mas, aqui, há uma diferença no ecossistema. Enquanto o OpenClaw é multiplataforma (suportando macOS, Windows e Linux) e altamente personalizável, a versão da Anthropic aposta em um ambiente mais restritivo e controlado, rodando, até o momento, apenas nos computadores da Apple.

A atualização reforça a lista de melhorias da Anthropic, que também liberou recentemente uma ferramenta oficial de importação de memória. Ela permite transferir históricos de conversas de outras IAs concorrentes, eliminando a necessidade de começar do zero após migrar de serviço.
Claude agora pode controlar seu Mac pelo iPhone

Claude agora pode controlar seu Mac pelo iPhone
Fonte: Tecnoblog

Estúdio admite uso de IA após descoberta de jogador e pede desculpas

Estúdio admite uso de IA após descoberta de jogador e pede desculpas

Usuário apontou inconsistências visuais em objetos de Crimson Desert (imagem: divulgação)

Resumo

O estúdio Pearl Abyss admitiu o uso de IA em elementos visuais de Crimson Desert e pediu desculpas pelo erro.
A desenvolvedora iniciou uma auditoria para substituir conteúdos gerados por IA e prometeu atualizações futuras.
O uso de IA em jogos tem gerado polêmica e estúdios menores já destacam projetos sem IA para valorizar o trabalho manual.

Desde o lançamento na última quinta-feira (19/03), Crimson Desert tem chamado atenção pela qualidade gráfica. A recepção, porém, ganhou um ponto de tensão após um jogador identificar indícios de uso de inteligência artificial no jogo.

No Reddit, o usuário publicou evidências do que classificou como “estranho”, apontando inconsistências visuais em alguns objetos de arte no game. “Parece arte de IA de alguns anos atrás”, escreveu.

A repercussão levou o estúdio a se pronunciar oficialmente: a empresa confirmou o uso da tecnologia e pediu desculpas.

O que o estúdio explicou sobre o caso?

Found this AI Painting. byu/Rex_Spy inCrimsonDesert

Em comunicado, a desenvolvedora Pearl Abyss reconheceu que utilizou ferramentas de IA generativa na criação de alguns elementos visuais em fases iniciais do projeto. Segundo a empresa, esses conteúdos tinham caráter experimental e serviram para acelerar a definição de estilo e ambientação.

De acordo com o estúdio, os materiais gerados por IA deveriam ter sido substituídos após revisão das equipes de arte e desenvolvimento. Ainda assim, parte desse material acabou sendo incluída na versão final do jogo por engano. No Steam, Crimson Desert é vendido por R$ 349,99.

Além disso, a desenvolvedora afirma que a presença desses conteúdos não está alinhada aos seus padrões internos e assume responsabilidade pelo ocorrido. “Deveríamos ter divulgado claramente o nosso uso de IA”, escreve. “Pedimos sinceras desculpas por essas falhas”.

Imagem compartilhada pelo usuário mostra inconsistências (imagem: reprodução/Reddit/Rex_Spy)

Uso de IA tem sido comum

O uso de IA nos jogos virou um tema polêmico. Muitos estúdios menores, inclusive, passaram a destacar seus projetos como livres de IA, reforçando a valorização do trabalho manual.

Também não é o primeiro caso do tipo: no ano passado, uma polêmica muito parecida ocorreu em torno de The Alters, que usou IA para traduções e texto. Grandes empresas têm investido na tecnologia para otimizar processos, mas parte da comunidade e desenvolvedores independentes é contra.

No caso de Crimson Desert, a desenvolvedora informou que iniciou uma auditoria completa para identificar e substituir os conteúdos afetados. Atualizações com correções devem ser lançadas em patches futuros, enquanto processos internos passam por revisão para evitar episódios semelhantes.
Estúdio admite uso de IA após descoberta de jogador e pede desculpas

Estúdio admite uso de IA após descoberta de jogador e pede desculpas
Fonte: Tecnoblog

Claude ganha “lousa” para dar explicações com desenhos e diagramas

Claude ganha “lousa” para dar explicações com desenhos e diagramas

Recursos gráficos estão disponíveis para todos os usuários (imagem: divulgação)

Resumo

O Claude, da Anthropic, agora gera tabelas, gráficos e diagramas usando HTML e SVG, disponível para todos os usuários.
A ferramenta visual pode ser ativada por pedido do usuário ou quando o Claude julgar necessário, oferecendo explicações visuais detalhadas.
O anúncio da “lousa” do Claude ocorreu dois dias após a OpenAI lançar recurso semelhante para o ChatGPT.

O chatbot de inteligência artificial Claude, da Anthropic, ganhou uma ferramenta para gerar tabelas, gráficos, diagramas e outros elementos visuais como parte de suas respostas. A novidade está disponível para todos os usuários, sejam assinantes de planos pagos ou não.

A Anthropic diz que o recurso não é um gerador de imagens. Em vez disso, o Claude usa códigos HTML e gráficos vetoriais em SVG para dar explicações visuais. Para a empresa, é como se o robô tivesse ganhado uma lousa.

Como funciona a ferramenta visual do Claude?

O recurso de geração de diagramas pode entrar em cena a partir de um pedido explícito do usuário ou quando o Claude julgar que uma demonstração visual é mais adequada na hora de dar uma resposta.

No vídeo de apresentação da ferramenta, a Anthropic mostra instruções de construção, simulações de luz e sombra, linhas do tempo e fluxogramas de decisão como demonstrações do que é possível fazer.

A CNET, por exemplo, conseguiu que o Claude fornecesse instruções visuais sobre como trocar um pneu. Por aqui, eu abri o chatbot para testar a ferramenta e ele já saiu com uma demonstração interativa de juros compostos.

Também pedi para mostrar o que é o esquema tático 4-2-3-1 no futebol e ele cumpriu a tarefa com sucesso. Parece bobo, mas geradores de imagem costumam erram, colocando jogadores a mais ou a menos.

Claude gera gráfico em HTML e SVG, diferente de uma imagem comum (imagem: Giovanni Santa Rosa/Tecnoblog)

ChatGPT recebeu recurso parecido

O anúncio da “lousa” do Claude foi feito na quinta-feira (12/03), dois dias após a OpenAI lançar uma ferramenta semelhante para o ChatGPT. O chatbot concorrente agora consegue explicar conceitos de ciências e matemática usando recursos visuais — alguns exemplos são o Teorema de Pitágoras e a Lei de Ohm.

O Claude conseguiu atrair a atenção de usuários do ChatGPT nas últimas semanas, após as duas empresas se envolverem em polêmicas com o Departamento de Defesa dos Estados Unidos. A Anthropic, inclusive, criou uma ferramenta para importar memórias e configurações de outros chatbots.

Com informações do Engadget e da CNET
Claude ganha “lousa” para dar explicações com desenhos e diagramas

Claude ganha “lousa” para dar explicações com desenhos e diagramas
Fonte: Tecnoblog

Nvidia pode lançar plataforma aberta para agentes de IA

Nvidia pode lançar plataforma aberta para agentes de IA

Nvidia estaria investindo em plataforma de agentes de IA (imagem: Vitor Pádua/Tecnoblog)

Resumo

Nvidia pode lançar uma plataforma de criação e gerenciamento de agentes de IA de código aberto.
Segundo a revista Wired, o projeto, chamado NemoClaw, pode ser anunciado já neste mês.
O NemoClaw permitiria executar tarefas autônomas com segurança e privacidade, funcionando mesmo fora do ecossistema da Nvidia.

A Nvidia quer uma plataforma para criação e gerenciamento de agentes de inteligência artificial para chamar de sua. O anúncio do sistema, chamado internamente de NemoClaw e desenvolvido em código aberto, pode ocorrer durante a conferência anual de desenvolvedores da fabricante, marcada para começar no dia 16 de março em San Jose, na Califórnia.

Segundo a revista Wired, a gigante dos chips já começou a apresentar o produto a empresas de software corporativo. A proposta é que a plataforma permita que companhias enviem agentes autônomos para executar tarefas do dia a dia, e que funcione mesmo fora de ecossistemas com hardware da própria Nvidia.

A empresa teria entrado em contato com possíveis parceiras para contribuições ao projeto, entre elas Salesforce, Cisco, Google, Adobe e CrowdStrike. Ainda não está claro se as empresas fecharam acordos.

Mais um “claw”

O investimento no NemoClaw ocorre durante uma alta nas notícias sobre agentes autônomos (os “claws”), que, diferente de chatbots comuns como o ChatGPT, Gemini e Claude, devem executar tarefas sem supervisão humana.

A tecnologia virou tendência especialmente após o hype em cima do assistente OpenClaw e do projeto Moltbook, uma “rede social de robôs” que viralizou nos últimos meses por permitir essa autonomia.

Vale lembrar que, mesmo com a divulgação de problemas graves de segurança, líderes dos projetos, como Peter Steinberger, criador do OpenClaw, e Matt Schlicht e Ben Parr, fundadores do Moltbook, já estão em outras big techs — OpenAI e Meta, respectivamente.

Essa última, aliás, havia pedido para que os funcionários evitassem a tecnologia de Steinberger, após uma funcionária da divisão de segurança relatar que o agente saiu do controle.

Para contornar esse receio e atrair o mercado, a Nvidia planeja oferecer ferramentas robustas de segurança e privacidade integradas nativamente à nova plataforma, diz a Wired.

Mudança de estratégia

Jensen Huang, CEO da Nvidia (imagem: divulgação/Nvidia)

Segundo a revista, o NemoClaw é mais um passo da Nvidia na adoção de modelos de IA de código aberto. Até então, a estratégia de software da fabricante centrava-se quase inteiramente no CUDA (Compute Unified Device Architecture), sistema proprietário desenvolvido para manter os desenvolvedores dentro do ecossistema das próprias GPUs da empresa.

Abraçar o modelo aberto seria uma manobra para garantir a relevância da empresa na infraestrutura de IA, mesmo que aumente a disputa pelo domínio do hardware.

Nvidia pode lançar plataforma aberta para agentes de IA

Nvidia pode lançar plataforma aberta para agentes de IA
Fonte: Tecnoblog

YouTube exibe anúncios de 30 segundos nas TVs sem opção de pular

YouTube exibe anúncios de 30 segundos nas TVs sem opção de pular

YouTube agora pode exibir anúncios de até 30 segundos em TVs (ilustração: Vitor Pádua/Tecnoblog)

Resumo

YouTube agora exibe anúncios de 30 segundos sem opção de pular em smart TVs.
Plataforma levou formato de publicidade mais longa às TVs para incentivar assinaturas do YouTube Premium.
Estratégia busca aumentar a receita e aproveitar o crescimento do consumo de vídeos em televisores.

O YouTube está exibindo anúncios de até 30 segundos sem a opção de pular nas smart TVs. Não se trata de um bug: a plataforma levou o formato de publicidade para os televisores conectados, ampliando a pressão para que os usuários assinem o YouTube Premium — única forma oficial de não ver as propagandas.

A mudança foi anunciada pelo próprio Google no começo deste mês. Nos últimos anos, a empresa vem adotando diferentes estratégias para reforçar seu modelo baseado em anúncios. Entre elas estão ações contra bloqueadores de propaganda e restrições a aplicativos de terceiros que reproduzem vídeos da plataforma.

Publicidade direcionada

Segundo a empresa, a mudança foi pensada especificamente para a experiência em telas grandes, como televisores conectados. Nesse formato, os anúncios são exibidos integralmente antes ou durante o vídeo, sem permitir que o usuário avance ou os ignore.

No comunicado, voltado aos anunciantes, a plataforma explica: “A IA do Google otimiza dinamicamente entre anúncios Bumper de 6 segundos, anúncios padrão de 15 segundos e anúncios exclusivos para CTV de 30 segundos que não podem ser pulados, garantindo que sua campanha alcance o público certo na hora certa”.

O sistema utiliza inteligência artificial para escolher automaticamente entre diferentes formatos de publicidade. A seleção considera fatores como público-alvo e momento da exibição para determinar qual tipo de anúncio será mostrado.

Além do formato de 30 segundos, também podem ser exibidos anúncios mais curtos, como os chamados “bumpers”, de seis segundos, ou versões padrão de 15 segundos.

A empresa afirma ainda que a tecnologia busca aumentar a eficiência das campanhas ao combinar diferentes formatos de publicidade de forma automática.

Formato de publicidade do YouTube foi pensado para televisores conectados (imagem: divulgação)

Estratégia visa aumento de receita

A introdução desse novo formato ocorre em meio a outras mudanças recentes na forma como o YouTube lida com anúncios. Usuários já relataram, por exemplo, a exibição de banners publicitários no aplicativo móvel que não podiam ser fechados imediatamente.

Além disso, algumas contas que utilizam bloqueadores de anúncios passaram a ter acesso limitado a recursos como comentários ou descrições de vídeos.

Essas medidas fazem parte da estratégia da plataforma para fortalecer suas fontes de receita, seja por meio da publicidade ou da assinatura do YouTube Premium.

Segundo a empresa, o crescimento do consumo de vídeos em televisores também tem influenciado essas decisões. Em outro trecho do comunicado, a companhia afirma: “Estamos tornando ainda mais fácil alcançar os milhões de espectadores que assistem ao YouTube na sala de estar — incluindo os espectadores que fizeram do YouTube o serviço de streaming nº 1 nos EUA por três anos consecutivos”.
YouTube exibe anúncios de 30 segundos nas TVs sem opção de pular

YouTube exibe anúncios de 30 segundos nas TVs sem opção de pular
Fonte: Tecnoblog

GPT-5.4 chega com capacidade nativa de usar computadores

GPT-5.4 chega com capacidade nativa de usar computadores

ChatGPT começou a liberar acesso ao GPT-5.4, mas só para quem paga (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O GPT-5.4 da OpenAI executa tarefas em programas de computador capturando imagens da tela e enviando comandos de mouse e teclado. Ele também escreve códigos e conecta-se a APIs.
Disponível no ChatGPT para assinantes dos planos Plus, Team e Pro, o GPT-5.4 oferece um plano de raciocínio antes de executar tarefas. Ele também está no Codex e via API.
A OpenAI está em disputa com a Anthropic, com desentendimentos públicos e diferenças em parcerias, como a colaboração da OpenAI com o Departamento de Defesa dos EUA.

A OpenAI anunciou nesta quinta-feira (05/02) o modelo de inteligência artificial GPT-5.4. Pela primeira vez, um modelo da companhia vem com capacidade nativa de uso de computadores, o que significa que ele consegue executar tarefas em diferentes programas.

Para conseguir isso, o agente captura imagens da tela, entende as interfaces e envia comandos de mouse e teclado. Assim, ele pode resolver tarefas envolvendo, por exemplo, planilhas, documentos e apresentações.

Outra solução é escrever códigos para lidar com as tarefas — o GPT-5.4 também faz isso. A IA conta ainda com a capacidade de escolher a ferramenta certa para cada ocasião e, se for necessário, fazer a conexão com APIs.

Segundo a empresa, o GPT-5.4 é um modelo de raciocínio, o que significa que ele leva um tempo extra até chegar a uma resposta. Isso pode ser útil para agentes de IA, que receberiam um passo a passo com instruções mais precisas.

Como usar o GPT-5.4?

O GPT-5.4 já está disponível no ChatGPT para assinantes dos planos Plus, Team e Pro — usuários que não pagam vão ter que esperar, por enquanto. Ele aparece com a denominação GPT-5.4 Thinking. Ele também será oferecido na ferramenta de programação Codex e via API.

No chatbot, a interação é um pouco mais detalhada do que o habitual. O GPT-5.4 oferece primeiro um plano de raciocínio, descrevendo o que pretende fazer para chegar à resposta desejada. O usuário, então, pode fazer alterações no raciocínio, evitando ter que esperar uma resposta e não receber o resultado desejado.

O modelo também recebeu melhorias nos recursos para buscar e reunir informações de diversas fontes e, como em toda atualização, a promessa é que as respostas sejam mais factuais e haja menos alucinações.

OpenAI está em disputa com a Anthropic

Em dezembro de 2025, a OpenAI lançou o GPT-5.2 em tempo recorde. Na ocasião, rumores indicavam que a companhia estava trabalhando em “código vermelho” para barrar o crescimento do Gemini 3, que despontava como um competidor relevante para o ChatGPT.

Existem alguns paralelos possíveis entre aquele episódio e o lançamento desta quinta. O contexto, porém, é bem diferente.

Desta vez, a OpenAI está em uma briga com a Anthropic, e os motivos são diversos. As primeiras semanas tiveram provocações, como o comercial que satirizava as propagandas no ChatGPT. Depois, em um evento na Índia, Sam Altman, da OpenAI, e Dario Amodei, da Anthropic, se recusaram a dar as mãos durante uma foto com líderes do setor e o primeiro-ministro do país, Narendra Modi.

Os capítulos mais recentes, porém, são de outra ordem de importância. A OpenAI anunciou uma parceria com o Departamento de Defesa dos Estados Unidos, enquanto a Anthropic se recusou a fornecer ferramentas de IA para vigilância doméstica ou armas autônomas.

A discordância pública entre as companhias fez alguns usuários deixarem o ChatGPT como forma de protesto — não deve ser um movimento relevante em termos de quantidade, mas faz barulho nas redes sociais. O Claude, da Anthropic, recebeu de braços abertos os insatisfeitos.

Com informações da OpenAI e CNET
GPT-5.4 chega com capacidade nativa de usar computadores

GPT-5.4 chega com capacidade nativa de usar computadores
Fonte: Tecnoblog

Microsoft quer que o Copilot sincronize suas senhas

Microsoft quer que o Copilot sincronize suas senhas

Copilot para Windows quer facilitar o login nos sites (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Microsoft atualizou o Copilot para sincronizar senhas e dados de formulários.
O recurso é opcional, desativado por padrão, e requer consentimento do usuário.
Por enquanto, a novidade está disponível apenas para os participantes do programa de testes Windows Insider.

A Microsoft começou a liberar uma atualização para o aplicativo Copilot no Windows que permite à inteligência artificial sincronizar suas senhas e dados de formulários. A novidade, por enquanto distribuída apenas para os participantes do programa de testes Windows Insider, deve facilitar o login em sites acessados diretamente pela interface do assistente, eliminando a chateação de digitar a mesma credencial várias vezes.

Colocar um gerenciador de senhas dentro de um aplicativo de IA, no entanto, levanta debates sobre segurança. Mas calma: o modelo de linguagem não deve “ler” a sua senha. Conforme apontado pelo portal XDA Developers, o recurso apenas importa o banco de dados de preenchimento automático que você já usa no seu navegador principal.

Dessa forma, as credenciais são gerenciadas pelo sistema interno, sem que a inteligência artificial utilize esses dados sensíveis para gerar respostas ou processar comandos de texto.

É seguro confiar senhas a uma IA?

Do ponto de vista da segurança cibernética, a proximidade entre o seu cofre de senhas e um chatbot exige cautela. Especialistas alertam para o risco de que agentes maliciosos possam, eventualmente, enganar a inteligência artificial por meio de engenharia social, forçando a ferramenta a revelar dados de acesso pessoais ou corporativos.

Ciente da polêmica, a Microsoft confirmou no blog oficial do Windows Insider que a sincronização é um recurso opcional. A ferramenta vem desativada por padrão e exige o consentimento explícito do usuário nas configurações para funcionar.

Ainda assim, para quem prefere manter uma muralha entre a navegação assistida por IA e as credenciais bancárias e de redes sociais, o uso de gerenciadores de senhas dedicados e independentes continua sendo a principal recomendação.

Copilot ganha navegador embutido

Novo painel lateral do Copilot abre links sem sair do app (imagem: reprodução/Microsoft)

Embora as senhas sejam o assunto do momento, a versão 146.0.3856.39 do aplicativo traz outras mudanças importantes. A principal delas é o novo painel lateral. Agora, ao clicar em um link fornecido pelo Copilot, a página é carregada ali mesmo, ao lado do bate-papo, em vez de abrir uma nova aba no Microsoft Edge.

Além de manter tudo na mesma tela, a Microsoft ampliou a leitura de contexto da IA. O Copilot agora consegue analisar os dados de todas as abas abertas dentro de uma conversa específica. Isso permite, por exemplo, pedir para a ferramenta cruzar e resumir informações de três sites diferentes de uma só vez. O app também salva essas abas no histórico para você retomar a pesquisa de onde parou.

A atualização promete ser mais rápida e traz ainda recursos da versão web, como os modos “Podcasts” e “Estudar e Aprender” (Study and Learn). Ainda não há previsão de quando a versão será liberada para todos os usuários.
Microsoft quer que o Copilot sincronize suas senhas

Microsoft quer que o Copilot sincronize suas senhas
Fonte: Tecnoblog