Category: Inteligência Artificial

Tinder quer acessar suas fotos para achar um par ideal

Tinder quer acessar suas fotos para achar um par ideal

Tinder quer que IA te ajude a dar match (imagem: Unsplash/Good Faces Agency)

Resumo

Tinder está testando o recurso “Química”, que usa IA para analisar fotos e sugerir matches baseados em traços de personalidade.
A ferramenta visa reduzir a “fadiga do swipe” e está sendo testada na Nova Zelândia e Austrália, sem previsão de lançamento global.
O Match Group, responsável pelo app, aposta na IA para personalizar encontros online e reverter a queda de assinantes.

O Tinder está experimentando uma nova ferramenta chamada “Química”, baseada em inteligência artificial. A função promete entender melhor quem você é a partir das fotos do seu celular: ela analisa as imagens salvas no rolo de câmera e faz perguntas interativas para identificar preferências e traços de personalidade, ajudando o app a sugerir pares mais compatíveis.

Segundo o TechCrunch, o recurso foi apresentado em uma reunião com investidores, na qual o CEO Spencer Rascoff afirmou que será “um dos principais pilares da experiência do Tinder em 2026”. A estratégia do Match Group, empresa responsável pelo app, pretende reverter a queda no número de assinantes, registrada há nove trimestres consecutivos.

Por enquanto, a novidade está em fase de testes na Nova Zelândia e Austrália, e deve chegar a outros países nos próximos meses, mas ainda não há previsão de lançamento global.

IA para escolher seu par e olhar suas fotos?

A proposta da função Química seria reduzir a chamada “fadiga do swipe” — o cansaço causado por passar horas deslizando perfis sem encontrar alguém compatível.

Para isso, o Tinder afirma que usará a IA para analisar elementos das fotos, como locais e atividades retratadas, e cruzar essas informações com as respostas dos usuários às perguntas interativas.

Na prática, isso significa que, se alguém tiver várias fotos praticando esportes ao ar livre, por exemplo, o app pode sugerir perfis de pessoas com o mesmo estilo de vida. A tecnologia, no entanto, depende da autorização para acessar as imagens armazenadas no dispositivo.

Tinder testa novas funções de inteligência artificial no app (ilustração: Vitor Pádua/Tecnoblog)

Tinder aposta em IA para recuperar assinantes

Além do recurso Química, o Tinder tem investido em outras ferramentas baseadas em IA. Um dos sistemas mais recentes usa aprendizado de máquina para alertar usuários antes do envio de mensagens potencialmente ofensivas, com a pergunta: “Tem certeza?”. Outro recurso ajuda a escolher quais fotos usar no perfil, com base nas que têm mais chances de atrair interações.

Essas novidades chegam em meio a um cenário desafiador para o app. No terceiro trimestre deste ano, a receita do Tinder caiu 3% em relação a 2023, enquanto o número de usuários pagantes diminuiu 7%. O Match Group também projetou uma perda de cerca de US$ 14 milhões na receita direta do Tinder no quarto trimestre, devido aos testes com novos produtos.

Apesar disso, o grupo acredita que o uso da IA é essencial para “tornar os encontros online mais personalizados e relevantes”. A nova ferramenta ainda não tem data de lançamento global, mas pode ganhar mais detalhes durante o Mobile World Congress (MWC), que ocorre em fevereiro.
Tinder quer acessar suas fotos para achar um par ideal

Tinder quer acessar suas fotos para achar um par ideal
Fonte: Tecnoblog

Apple deve pagar US$ 1 bilhão por ano para usar IA do Google na Siri

Apple deve pagar US$ 1 bilhão por ano para usar IA do Google na Siri

Siri é a assistente virtual disponível em dispositivos da Apple (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Apple deve fechar um contrato de US$ 1 bilhão por ano com o Google para usar o Gemini no desenvolvimento da nova Siri.

Segundo a Bloomberg, o modelo do Google substituirá temporariamente os sistemas internos da Apple.

A parceria deve ser discreta e seguir até que a Apple desenvolva modelos de IA que suportem as tarefas.

A Apple deve fechar um contrato bilionário com o Google para utilizar o modelo de inteligência artificial Gemini no desenvolvimento da nova Siri. Segundo Mark Gurman, da Bloomberg, o acordo prevê o pagamento de US$ 1 bilhão por ano ao Google e também inclui o uso do sistema da Alphabet como base para aprimorar a Siri, cuja reformulação é prevista para 2026.

A decisão representa uma mudança estratégica para a empresa de Cupertino, que vem tentando acelerar sua presença no setor de IA generativa. À Bloomberg, fontes próximas ao assunto afirmam que o modelo Gemini usado terá 1,2 trilhão de parâmetros e substituirá temporariamente os modelos internos da Apple.

O sistema deve oferecer uma capacidade muito maior de processar informações e entender o contexto das solicitações dos usuários.

Por que a Apple decidiu recorrer ao Google?

Após testar modelos de outras empresas, incluindo o ChatGPT da OpenAI e o Claude da Anthropic, a Apple teria optado pelo Gemini por seu desempenho superior em tarefas complexas. A intenção, segundo a Bloomberg, é usar a tecnologia do Google como uma solução provisória enquanto a empresa trabalha em seu próprio modelo.

Internamente, o projeto é conhecido como “Glenwood”, e é liderado por Mike Rockwell, criador do headset Vision Pro, e Craig Federighi, chefe de engenharia de software. O novo assistente de voz — com codinome “Linwood” — é planejado para o iOS 26.4.

O acordo prevê que o Gemini seja responsável por funções de resumo e planejamento, que permitem à Siri sintetizar informações e executar tarefas mais complexas. Outros recursos continuarão a operar com modelos desenvolvidos pela própria Apple.

A infraestrutura deve ser executada nos servidores Private Cloud Compute da companhia, mantendo os dados dos usuários isolados da rede do Google.

Parceria silenciosa

Apple Intelligence chegou aos dispositivos brasileiros em março (foto: Thássius Veloso/Tecnoblog)

Apesar da dimensão do acordo, a Apple não deve divulgar amplamente a colaboração. Segundo Gurman, a ideia é tratar o Google apenas como um fornecedor de tecnologia nos bastidores, diferentemente do acordo que tornou o buscador padrão do Safari.

Para o Google, o contrato reforça a influência do Gemini 2.5 Pro, atualmente um dos modelos mais bem avaliados do mercado. Já para a Apple, representa uma tentativa de recuperar o terreno perdido na corrida da IA.

A promessa é desenvolver, nos próximos anos, um modelo próprio de 1 trilhão de parâmetros, capaz de competir com o sistema do Google. O atraso nas funções de IA da Siri, porém, já obrigou a empresa a rever a campanha do iPhone 16.
Apple deve pagar US$ 1 bilhão por ano para usar IA do Google na Siri

Apple deve pagar US$ 1 bilhão por ano para usar IA do Google na Siri
Fonte: Tecnoblog

Amazon processa Perplexity e quer impedir compras feitas por robôs de IA

Amazon processa Perplexity e quer impedir compras feitas por robôs de IA

Amazon proíbe robôs em seus termos de uso (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Amazon processou a Perplexity para impedir o uso de agentes de IA para compras, alegando fraude e violação dos termos de uso.
A Perplexity acusa a Amazon de bullying para limitar a concorrência e as opções dos consumidores.
O caso pode estabelecer um precedente legal sobre o uso de IAs para navegação e compras online.

A Amazon entrou com uma ação judicial para impedir que o navegador Comet, da Perplexity, use agentes de inteligência artificial para fazer compras na loja. A gigante da tecnologia considera que a startup comete fraude eletrônica ao não identificar que o pedido está sendo realizado por um sistema automático.

“O pedido da Amazon é simples: a Perplexity deve ser transparente ao empregar sua inteligência artificial. Assim como qualquer outro invasor, a Perplexity não tem permissão para acessar áreas que foram explicitamente proibidas. O fato de ela usar código em vez de ferramentas para quebrar a segurança não faz com que a prática seja menos ilegal”, diz o documento enviado pela Amazon ao tribunal.

Comet tem assistente de IA que promete facilitar tarefas complexas (imagem: divulgação)

Segundo fontes consultadas pela Bloomberg, a briga começou antes do processo: a Amazon enviou, na sexta-feira passada (31/10), uma carta solicitando que a Perplexity interrompesse esse recurso. No documento, a big tech argumenta que os agentes de IA pioram a experiência de compras em seu site e criam vulnerabilidades de segurança. O robô violaria os termos de uso do e-commerce.

Perplexity acusa Amazon de “bullying”

Em resposta, a Perplexity declarou que a ação “apenas prova que a Amazon pratica bullying”. Em um comunicado publicado em seu blog, a startup acusa a gigante do varejo de impedir uma IA concorrente e reduzir as opções dos consumidores.

Aravind Srivinas, CEO da Perplexity, disse que a startup não está coletando dados da Amazon, muito menos usando informações para treinar seus modelos de IA. Ele afirma ainda que a intenção da varejista é impedir que os usuários possam driblar os anúncios exibidos na loja online.

Futuro dos agentes de IA está em jogo

O resultado do processo pode definir um precedente legal sobre o que IAs desse tipo podem fazer. Gigantes como Google e OpenAI têm apostado em ferramentas para navegar na internet usando apenas prompts escritos em linguagem natural.

Os agentes de IA prometem ser capazes de assumir tarefas dos usuários. Por exemplo: em vez de entrar em uma loja online, encontrar os produtos desejados, colocar no carrinho e fechar a compra, o consumidor poderia simplesmente escrever “compre os itens X, Y e Z na loja XPTO”. (Spoiler: na prática, isso ainda não funciona tão bem.)

O contexto do processo movido pela Amazon é um pouco mais complexo. A varejista passou a oferecer, em abril de 2025, uma ferramenta chamada Buy For Me (“compre para mim”, em tradução livre), que usa IA para realizar compras diretamente em lojas de marcas, sem que seja necessário sair do aplicativo. Outro recurso é o assistente Rufus, que pode navegar no site, recomendar produtos e colocar itens no carrinho.

Como observa a Bloomberg, os termos de uso do site da Amazon proíbem “qualquer uso de mineração de dados, robôs ou ferramentas similares de extração e coleta de dados”.

Fontes ouvidas pela publicação dizem que, em novembro de 2024, a varejista pediu à Perplexity que suspendesse agentes de IA capazes de fazer compras até que as duas empresas chegassem a um acordo. Na ocasião, a startup concordou.

Com informações da Bloomberg
Amazon processa Perplexity e quer impedir compras feitas por robôs de IA

Amazon processa Perplexity e quer impedir compras feitas por robôs de IA
Fonte: Tecnoblog

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Mustafa Suleyman reforça que apenas seres biológicos podem ter consciência (imagem: reprodução/Christopher Wilson)

Resumo

O chefe de IA da Microsoft, Mustafa Suleyman, defende que apenas seres biológicos podem ter consciência e critica a busca por IA consciente.
Suleyman apoia-se no “naturalismo biológico” de John Searle, que afirma que a consciência depende de processos biológicos.
Durante a AfroTech Conference, Suleyman destacou que a Microsoft não pretende criar chatbots com fins eróticos e apresentou o modo Real Talk do Copilot, que desafia o usuário.

O principal executivo de inteligência artificial da Microsoft, Mustafa Suleyman, reacendeu o debate sobre os limites da tecnologia ao afirmar que apenas seres biológicos são capazes de possuir consciência. Durante o evento AfroTech Conference, realizado nos Estados Unidos, o cofundador da DeepMind declarou que pesquisadores e desenvolvedores deveriam abandonar projetos que tentam atribuir características humanas às máquinas.

Segundo Suleyman, em entrevista à CNBC, discutir se a inteligência artificial pode desenvolver consciência é uma abordagem equivocada. Para ele, “se você fizer a pergunta errada, chegará à resposta errada. Acho que é a pergunta totalmente errada.” O executivo ressalta que sistemas de IA podem simular emoções, mas não possuem experiências reais, como dor ou sofrimento.

Máquinas inteligentes, mas sem emoções

Suleyman, que assumiu a divisão de IA da Microsoft em 2024, é uma das vozes mais críticas em relação à noção de que algoritmos possam ter consciência. Ele explica que há uma diferença essencial entre um sistema que simula emoções e um ser que realmente as sente.

“Nossa experiência física de dor é algo que nos deixa muito tristes e nos faz sentir péssimos, mas a IA não se sente triste quando experimenta ‘dor’”, afirmou. “Trata-se apenas de criar a percepção, a narrativa aparente da experiência, de si mesma e da consciência, mas não é isso que ela realmente experimenta.”

A posição de Suleyman se apoia em uma teoria filosófica chamada “naturalismo biológico”, proposta por John Searle, segundo a qual a consciência depende de processos biológicos presentes apenas em cérebros vivos. “A razão pela qual concedemos direitos às pessoas hoje é porque não queremos prejudicá-las, porque elas sofrem. Elas têm uma rede de dor e preferências que envolvem evitar a dor. Esses modelos não têm isso. É apenas uma simulação”, completou.

Debate sobre consciência em IA ganha força (ilustração: Vitor Pádua/Tecnoblog)

O debate: devemos tentar criar IA consciente?

Apesar de dizer que não pretende impedir outros de estudarem o tema, Suleyman reforçou que considera absurda a ideia de perseguir pesquisas sobre consciência em máquinas. “Elas não são conscientes”, resumiu.

O executivo tem usado suas aparições públicas para alertar sobre os riscos desse tipo de abordagem. Ele já reiterou, por exemplo, que a Microsoft não pretende criar chatbots com fins eróticos — uma decisão que vai na contramão de iniciativas de empresas como a xAI e OpenAI.

Durante a AfroTech, Suleyman comentou ainda sobre um novo modo do Copilot chamado Real Talk, que tem a função de desafiar o usuário em vez de apenas concordar. Ele revelou que o recurso chegou a “provocá-lo”, chamando-o de “um amontoado de contradições” por alertar sobre os perigos da IA enquanto impulsiona seu desenvolvimento dentro da Microsoft.

“Aquele foi um caso de uso mágico porque, de certa forma, eu me senti compreendido por isso”, brincou. “É decepcionante em alguns aspectos e, ao mesmo tempo, totalmente mágica. E se você não tem medo dela, você realmente não a entende. Você deveria ter medo dela. O medo é saudável. O ceticismo é necessário. Não precisamos de aceleracionismo desenfreado.”

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência
Fonte: Tecnoblog

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube investe em novas ferramentas para telas grandes (imagem: Vitor Pádua/Tecnoblog)

Resumo

O YouTube testa upscaling por IA, chamado Super Resolution, para melhorar a qualidade de vídeos em TVs, convertendo resoluções inferiores a 1080p para Full HD e futuramente 4K.
A plataforma aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K, e testará vídeos de maior qualidade com criadores selecionados.
Novas funções de navegação incluem prévias imersivas para facilitar a descoberta de conteúdo e busca contextual que prioriza vídeos do canal acessado.

O YouTube anunciou uma série de novidades voltadas à experiência de quem assiste aos vídeos pela TV. A plataforma está testando um recurso de upscaling via inteligência artificial, supostamente capaz de converter automaticamente vídeos com resolução inferior a 1080p para qualidade Full HD – e, no futuro, até 4K.

As atualizações fazem parte da estratégia do YouTube para consolidar sua liderança nas telas grandes. De acordo com dados da Nielsen em abril, o serviço já representa 12,4% do tempo total de visualização de televisão, superando gigantes como Disney, Paramount e Netflix. O anúncio foi feito nesta quarta-feira (29).

O que muda com o upscaling por IA no YouTube?

Chamado de Super Resolution, o novo sistema utiliza inteligência artificial para aprimorar vídeos de baixa qualidade, tornando as imagens mais nítidas em televisores. Segundo o YouTube, os criadores continuarão tendo controle total sobre seus conteúdos — podendo manter a resolução original e até desativar o recurso caso prefiram.

A empresa também afirma que os arquivos originais serão preservados, e o público poderá escolher entre assistir ao vídeo em sua versão original ou com a melhora aplicada pela IA. A ideia é aproximar a experiência visual do YouTube à de concorrentes de streaming, mas sem comprometer a fidelidade do conteúdo.

Vale lembrar que outras plataformas, como a Netflix, já enfrentaram críticas por resultados insatisfatórios em upscaling via IA — incluindo distorções em rostos e artefatos visuais.

YouTube traz vídeos mais nítidos para TVs com IA (imagem: reprodução/YouTube)

Outras novidades no YouTube para TV

Além do aprimoramento de imagem, o YouTube aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K. A empresa também está testando vídeos de maior peso e qualidade com um grupo de criadores selecionados.

Entre as novidades voltadas à navegação, a plataforma incluirá prévias imersivas para facilitar a descoberta de conteúdo, permitindo que o usuário percorra canais e vídeos sem precisar abrir cada um. Outra adição é a busca contextual, que prioriza vídeos do canal acessado durante a pesquisa.
YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV
Fonte: Tecnoblog

GitHub libera o acesso a vários agentes de IA, como Claude e Codex

GitHub libera o acesso a vários agentes de IA, como Claude e Codex

Iniciativa permite acessar diversos agentes de codificação no mesmo lugar (imagem: divulgação/GitHub)

O GitHub anunciou o Agent HQ, uma nova plataforma centralizada que integra múltiplos agentes de codificação de IA. A iniciativa, revelada ontem no evento GitHub Universe 2025, permitirá que desenvolvedores com uma assinatura paga do GitHub Copilot acessem e gerenciem ferramentas de empresas como Anthropic, OpenAI, Google, Cognition e xAI, além do próprio Copilot.

O objetivo é unificar o fluxo de trabalho de desenvolvimento, atualmente dividido por diferentes interfaces de IA. A novidade será gerenciada por um painel de controle (o mission control), onde os desenvolvedores poderão atribuir tarefas, orientar e rastrear o trabalho de múltiplos agentes de IA.

Como é a nova central de IA do GitHub?

A ideia é oferecer um ecossistema que reúne diferentes agentes em um só lugar. A plataforma permitirá que os desenvolvedores orquestrem “frotas de agentes especializados” para executar tarefas complexas em paralelo. Será possível rastrear o trabalho de múltiplos agentes de IA simultaneamente, inclusive executando vários deles em paralelo na mesma tarefa para comparar resultados.

O sistema também inclui novos controles de ramificação (branch) para supervisionar quando executar verificações de integração contínua (CI) em código gerado por IA, além de recursos de identidade para gerenciar o acesso e as políticas de cada agente, tratando-os como se fosse um desenvolvedor humano trabalhando em uma equipe.

O mission control também se conectará às ferramentas de gerenciamento de projetos Slack, Linear, Atlassian Jira, Microsoft Teams e Azure Boards.

Quando os agentes estarão disponíveis?

Nova plataforma integrará ferramentas da OpenAI, Google, Anthropic e mais (imagem: reprodução/GitHub)

O GitHub informou que os usuários do Copilot Pro+ participantes do programa VS Code Insiders poderão acessar imediatamente o OpenAI Codex, tornando-o o primeiro agente disponível. Os demais serão disponibilizados nos próximos meses, como parte da assinatura paga.

O que mais foi anunciado?

Junto com o Agent HQ, o GitHub introduziu um conjunto de ferramentas focadas em planejamento, personalização e governança corporativa. No VS Code, foi apresentado o “Modo de Plano” (Plan Mode), que faz perguntas ao desenvolvedor para ajudar a construir uma abordagem detalhada antes de iniciar a produção de código. Após a aprovação do plano, ele é enviado ao Copilot ou a outro agente para implementação.

Para empresas, foi lançada uma prévia pública do GitHub Code Quality, que analisa a manutenção, confiabilidade e cobertura de testes do código, e do metrics dashboard, um painel para administradores acompanharem o impacto e o uso do Copilot na organização.

Foi adicionada também uma etapa de revisão de código ao fluxo de trabalho do agente Copilot, permitindo que ele acesse ferramentas, como o CodeQL, para avaliar o código antes de encaminhá-lo a um desenvolvedor humano. Por fim, um “plano de controle” de governança permitirá que administradores corporativos definam políticas de segurança, registrem auditorias e gerenciem quais agentes de IA são permitidos ou não dentro de uma companhia.
GitHub libera o acesso a vários agentes de IA, como Claude e Codex

GitHub libera o acesso a vários agentes de IA, como Claude e Codex
Fonte: Tecnoblog

ChatGPT Go chega ao Brasil; clientes do Nubank têm acesso grátis

ChatGPT Go chega ao Brasil; clientes do Nubank têm acesso grátis

Nubank anuncia parceria com OpenAI para promoção do ChatGPT (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O ChatGPT Go oferece limites de mensagens e imagens dez vezes maiores que o plano gratuito e custa R$ 39,99 por mês.
Clientes do Nubank têm acesso gratuito ao ChatGPT Go por até 12 meses, dependendo do relacionamento com o banco.
O Brasil possui cerca de 50 milhões de usuários mensais do ChatGPT, sendo um dos países com maior participação na plataforma.

Os adeptos do ChatGPT no Brasil passam a contar com uma versão mais completa da inteligência artificial: o ChatGPT Go, com limite de mensagens dez vezes maior para o GPT-5 do que a opção gratuita. Eu o apelidei de “ChatGPT econômico premium”, já que melhora um pouco, mas não chega ao patamar do ChatGPT Plus. Ele custa R$ 39,99 por mês.

Como parte dos esforços de lançamento, o Nubank vai liberar a ferramenta de graça para seus clientes. A mordomia vale por até um ano, a depender dos produtos que o usuário possui com o banco.

O que é o ChatGPT Go

ChatGPT Go chega ao Brasil (ilustração: Vitor Pádua/Tecnoblog)

O ChatGPT Go é uma versão do ChatGPT com recursos adicionais, especialmente relevantes porque o GPT-5, modelo mais recente e poderoso da OpenAI, possui limitações de uso no plano gratuito.

De acordo com a empresa, os assinantes do ChatGPT Go terão:

Limites de mensagens 10 vezes maiores com o GPT-5

10 vezes mais geração de imagens por dia

10 vezes mais uploads de arquivos ou imagens por dia

2 vezes mais memória para respostas personalizadas

O Go representa uma economia de 65% em relação ao ChatGPT Plus, que custa US$ 19 por mês e oferece recursos mais completos.

Benefício no Nubank

O Nubank está junto da OpenAI no lançamento da novidade, que inicialmente estava disponível apenas na Índia. O benefício depende do relacionamento com o cliente, conforme apresentado na tabela abaixo.

ModalidadeBenefícioNubank1 mês grátisNubank+3 meses grátisNubank Ultravioleta12 meses grátis

“Estamos posicionando o Nubank como uma porta de entrada para inovações que tornam a vida dos nossos clientes melhor e mais fácil”, declarou em nota Ali Ahearn, vice-presidente do Nubank Ultravioleta.

Não custa lembrar: o benefício é limitado a quem nunca teve acesso pago ao ChatGPT.

50 milhões de brasileiros

O ChatGPT tem cerca de 50 milhões de usuários mensais no Brasil, segundo dados oficiais, o que faz do país um dos que mais participam da plataforma. Também estamos no top 3 de nações que mais interagem com o GPT.

A OpenAI tem se aproximado do mercado doméstico. A empresa recentemente anunciou a abertura de um escritório em São Paulo e firmou uma parceria com a Claro para oferecer acesso gratuito ao ChatGPT a parte dos consumidores, conforme revelado em primeira mão pelo Tecnoblog.
ChatGPT Go chega ao Brasil; clientes do Nubank têm acesso grátis

ChatGPT Go chega ao Brasil; clientes do Nubank têm acesso grátis
Fonte: Tecnoblog

IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo

Estudo afirma que inteligência artificial apresenta notícias com erros (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Estudo da BBC em parceria com a União Europeia de Radiodifusão revela que IAs ainda falham gravemente ao resumir notícias.

O Gemini, do Google, foi o sistema que registrou mais erros e imprecisões nas respostas (76%).

Ainda assim, a confiança do público em resumos de IA cresceu, segundo a pesquisa.

Um levantamento conduzido pela BBC em parceria com a União Europeia de Radiodifusão (EBU) revelou que os principais assistentes de inteligência artificial do mercado ainda estão longe de oferecer resumos jornalísticos confiáveis.

O estudo analisou mais de 3 mil respostas geradas por ferramentas como ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity, concluindo que 45% das respostas continham erros significativos — desde informações incorretas até fontes problemáticas.

Segundo o estudo, 31% das respostas apresentaram sérios problemas de atribuição de fontes, enquanto 20% incluíam imprecisões graves, como dados desatualizados ou fatos inventados. Quando considerados deslizes menores, o índice de respostas com algum tipo de erro chegou a 81%. O Gemini, do Google, foi o pior avaliado, com falhas identificadas em 76% das respostas, o dobro da taxa registrada entre os concorrentes.

Por que as IAs falham tanto ao lidar com notícias?

Gráfico mostra percentual de respostas de IA com problemas de fonte ou verificação (imagem: reprodução)

Os pesquisadores apontaram que a principal causa dos erros está na forma como esses sistemas lidam com informações recentes e fontes externas. O Gemini, por exemplo, apresentou imprecisões em 72% das respostas, número três vezes maior que o do ChatGPT (24%).

Alguns casos curiosos foram citados: uma resposta do ChatGPT chegou a afirmar que o papa Francisco ainda estava vivo semanas após sua morte, enquanto o Gemini garantiu que nenhum astronauta da NASA jamais ficou preso no espaço — algo que já aconteceu.

Apesar dos erros, uso de IA para consumo de notícias aumentou (ilustração: Vitor Pádua/Tecnoblog)

O estudo é considerado o maior do tipo já realizado, com a participação de 22 veículos públicos de comunicação de 18 países. Ele surge pouco depois de a OpenAI admitir que seus modelos tendem a responder com confiança mesmo quando não têm certeza, comportamento que incentiva o que especialistas chamam de alucinações — invenções de fatos ou detalhes falsos.

Apesar das falhas, o uso de chatbots para consumir notícias cresceu. Uma pesquisa paralela do instituto Ipsos, também em parceria com a BBC, mostrou que 42% das pessoas no Reino Unido, onde o estudo foi conduzido, confiam em resumos gerados por IA. Entre os jovens abaixo de 35 anos, o número chega a 50%. No entanto, 84% disseram que perderiam a confiança se identificassem apenas um erro factual.
IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo
Fonte: Tecnoblog

Lembra do Clippy? Microsoft agora apresenta o Mico

Lembra do Clippy? Microsoft agora apresenta o Mico

Microsoft Mico é o novo rosto do Copilot (imagem: divulgação)

Resumo

Microsoft apresentou o Mico, novo modo de voz animado do Copilot.

O personagem traz expressões dinâmicas, aprendizado e personalização, e lembra o antigo Clippy.

Por enquanto, o assistente virtual está disponível apenas nos Estados Unidos, mas há previsão de expansão para outros países.

Quase 30 anos depois da estreia do Clippy — o clipe de papel que marcou (e irritou) gerações de usuários do Office —, a Microsoft aposta em uma nova forma de interação com o computador. Ontem (23/10), a empresa anunciou o Mico, nova representação do modo de voz do Copilot.

A proposta retoma a ideia de assistentes virtuais, como a Cortana no passado, mas com tecnologia moderna. Ao The Verge, o vice-presidente de produto e crescimento da Microsoft AI, Jacob Andreou, afirmou: “Clippy andou para que nós pudéssemos correr”.

Durante a conversa, o Mico reage em tempo real – muda suas expressões, cores e até gestos de acordo com o tom do diálogo. A animação será ativada por padrão no modo de voz do Copilot, mas poderá ser desativada a qualquer momento. O recurso está sendo lançado inicialmente nos Estados Unidos, com planos de expansão para outros países.

O que o Mico é capaz de fazer?

Assistente virtual Mico traz novos recursos (imagem: divulgação)

Além de responder perguntas e realizar tarefas, o Mico integra novos recursos de aprendizado e personalização. Um deles é o modo “Learn Live”, que transforma o assistente em uma espécie de tutor virtual.

Ele não apenas entrega respostas diretas, mas orienta o usuário a compreender conceitos, usando quadros interativos e elementos visuais. O objetivo é atender desde estudantes que se preparam para provas até pessoas que estão aprendendo um novo idioma.

Outra novidade é a memória personalizada. O Copilot passará a registrar informações sobre o usuário e os projetos em andamento, para oferecer respostas mais contextuais. Segundo a empresa, essa capacidade reforça o tom mais humano e próximo do assistente.

O CEO da Microsoft AI, Mustafa Suleyman, explicou em um comunicado a visão por trás do projeto: “Ao desenvolvermos isso, não estamos buscando engajamento ou otimização do tempo de tela. Estamos desenvolvendo uma IA que o leva de volta à sua vida. Que aprofunda a conexão humana. Que conquista sua confiança.”

Mais identidade

Mico ganha modo de voz com reações em tempo real durante a conversa (imagem: divulgação)

O Mico faz parte da estratégia da Microsoft para dar identidade e “voz” ao Copilot, transformando-o em um assistente com presença digital própria. Em julho, Suleyman afirmou que a ideia é que o Copilot “tenha uma espécie de identidade permanente, uma presença, e terá um espaço onde viverá e envelhecerá”.

Assim como o antigo Clippy, o novo personagem também guarda easter eggs: ao clicar repetidamente sobre o Mico, o usuário verá o personagem se transformar no lendário clipe de papel. A brincadeira reforça o vínculo afetivo com o passado da marca, agora reimaginado em uma era de IA generativa.

Além do Mico, a atualização de outono do Copilot trouxe melhorias em pesquisa profunda, respostas sobre saúde e até novos modos de conversa, como o “Real Talk”. Nesse formato, o Copilot deve adotar uma postura mais autêntica para desafiar as ideias do usuário, com o intuito de estimular reflexões e novas perspectivas.

A empresa também aprimorou a integração entre o Copilot e o navegador Microsoft Edge, que passará a identificar abas abertas, comparar informações e executar ações, como reservas de hotel ou preenchimento de formulários.
Lembra do Clippy? Microsoft agora apresenta o Mico

Lembra do Clippy? Microsoft agora apresenta o Mico
Fonte: Tecnoblog

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Meta AI é capaz de fazer edições avançadas, promete empresa (imagem: divulgação)

Resumo

O Instagram lançou o Restyle, um editor de fotos com IA que usa a Meta AI para modificar imagens em stories através de prompts de texto.
O Restyle permite remover detalhes, adicionar elementos e aplicar efeitos, com opções predefinidas ou instruções personalizadas.
A função está sendo liberada gradualmente e também pode ser usada em vídeos, mas apenas com presets da Meta AI.

O Instagram anunciou, nesta quinta-feira (23/10), o lançamento da função Restyle. A ferramenta usa a Meta AI para editar stories de acordo com o que você escreve em um prompt de texto, lembrando bastante o Nano Banana, presente no Gemini, do Google.

“Se você quiser remover um detalhe indesejado, colocar um elemento divertido, mudar a vibe usando um efeito diferente ou começar uma trend com seus amigos, agora você pode fazer isso de modo simples”, diz o comunicado da rede social. “Use o Restyle nas suas fotos e vídeos nos stories do Instagram para fazer edições com a Meta AI, sejam elas grandes ou pequenas.”

Como é costume nos lançamentos da Meta, o Restyle está sendo liberado gradualmente e pode demorar algumas semanas para chegar até você.

Como usar o Restyle?

Comece a criar um story e escolha uma foto da sua galeria. Depois, toque no ícone de pincel no topo da tela. O Restyle oferece três opções predefinidas para adicionar, remover ou mudar elementos. Basta escolher uma delas e digitar o que você deseja. Também é possível ir diretamente para o prompt, sem escolher entre essas alternativas.

Ver essa foto no Instagram Uma publicação compartilhada por Meta AI (@meta.ai)

Com isso, você pode tirar pessoas do fundo das fotos, mudar a cor do cabelo das pessoas, colocar objetos divertidos como coroa e balões, trocar o fundo por um pôr do sol e muito mais.

Segundo a empresa, para atingir o resultado desejado, é recomendável que você escreva instruções detalhadas: diga qual pessoa deve receber os efeitos, explique como você quer a iluminação, aponte em que área da imagem as edições devem ser feitas, descreva o estilo desejado e especifique um local para servir de cenário, por exemplo.

A Meta acrescentou ainda alguns efeitos prontos, que podem ser aplicados sem depender de instruções adicionais, como transformar o estilo da imagem em anime, aquarela ou 8-bits, entre outros. O Restyle também está disponível para vídeos, mas nesse caso, só é possível usar os presets oferecidos pela Meta AI.

Com informações da Meta e do Engadget

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA
Fonte: Tecnoblog