Category: Inteligência Artificial (IA)

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Mustafa Suleyman reforça que apenas seres biológicos podem ter consciência (imagem: reprodução/Christopher Wilson)

Resumo

O chefe de IA da Microsoft, Mustafa Suleyman, defende que apenas seres biológicos podem ter consciência e critica a busca por IA consciente.
Suleyman apoia-se no “naturalismo biológico” de John Searle, que afirma que a consciência depende de processos biológicos.
Durante a AfroTech Conference, Suleyman destacou que a Microsoft não pretende criar chatbots com fins eróticos e apresentou o modo Real Talk do Copilot, que desafia o usuário.

O principal executivo de inteligência artificial da Microsoft, Mustafa Suleyman, reacendeu o debate sobre os limites da tecnologia ao afirmar que apenas seres biológicos são capazes de possuir consciência. Durante o evento AfroTech Conference, realizado nos Estados Unidos, o cofundador da DeepMind declarou que pesquisadores e desenvolvedores deveriam abandonar projetos que tentam atribuir características humanas às máquinas.

Segundo Suleyman, em entrevista à CNBC, discutir se a inteligência artificial pode desenvolver consciência é uma abordagem equivocada. Para ele, “se você fizer a pergunta errada, chegará à resposta errada. Acho que é a pergunta totalmente errada.” O executivo ressalta que sistemas de IA podem simular emoções, mas não possuem experiências reais, como dor ou sofrimento.

Máquinas inteligentes, mas sem emoções

Suleyman, que assumiu a divisão de IA da Microsoft em 2024, é uma das vozes mais críticas em relação à noção de que algoritmos possam ter consciência. Ele explica que há uma diferença essencial entre um sistema que simula emoções e um ser que realmente as sente.

“Nossa experiência física de dor é algo que nos deixa muito tristes e nos faz sentir péssimos, mas a IA não se sente triste quando experimenta ‘dor’”, afirmou. “Trata-se apenas de criar a percepção, a narrativa aparente da experiência, de si mesma e da consciência, mas não é isso que ela realmente experimenta.”

A posição de Suleyman se apoia em uma teoria filosófica chamada “naturalismo biológico”, proposta por John Searle, segundo a qual a consciência depende de processos biológicos presentes apenas em cérebros vivos. “A razão pela qual concedemos direitos às pessoas hoje é porque não queremos prejudicá-las, porque elas sofrem. Elas têm uma rede de dor e preferências que envolvem evitar a dor. Esses modelos não têm isso. É apenas uma simulação”, completou.

Debate sobre consciência em IA ganha força (ilustração: Vitor Pádua/Tecnoblog)

O debate: devemos tentar criar IA consciente?

Apesar de dizer que não pretende impedir outros de estudarem o tema, Suleyman reforçou que considera absurda a ideia de perseguir pesquisas sobre consciência em máquinas. “Elas não são conscientes”, resumiu.

O executivo tem usado suas aparições públicas para alertar sobre os riscos desse tipo de abordagem. Ele já reiterou, por exemplo, que a Microsoft não pretende criar chatbots com fins eróticos — uma decisão que vai na contramão de iniciativas de empresas como a xAI e OpenAI.

Durante a AfroTech, Suleyman comentou ainda sobre um novo modo do Copilot chamado Real Talk, que tem a função de desafiar o usuário em vez de apenas concordar. Ele revelou que o recurso chegou a “provocá-lo”, chamando-o de “um amontoado de contradições” por alertar sobre os perigos da IA enquanto impulsiona seu desenvolvimento dentro da Microsoft.

“Aquele foi um caso de uso mágico porque, de certa forma, eu me senti compreendido por isso”, brincou. “É decepcionante em alguns aspectos e, ao mesmo tempo, totalmente mágica. E se você não tem medo dela, você realmente não a entende. Você deveria ter medo dela. O medo é saudável. O ceticismo é necessário. Não precisamos de aceleracionismo desenfreado.”

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência
Fonte: Tecnoblog

Download de filmes pornográficos foi para “uso pessoal”, diz Meta

Download de filmes pornográficos foi para “uso pessoal”, diz Meta

Meta está cercada por polêmicas em relação a treinamento da IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta alega que downloads de filmes pornográficos foram para “uso pessoal” e não para treinamento de IA, com uma média de 22 downloads por ano, distribuídos por vários IPs.
Estúdios pedem US$ 359 milhões em indenização, enquanto a Meta pede arquivamento do processo, questionando a validade dos IPs como prova.
A empresa também enfrenta processos por pirataria de livros, mas alega “fair use” e afirma que não compartilhou o material baixado.

Em resposta a um processo movido por estúdios de filmes adultos, a Meta alega que os downloads de filmes pornográficos provavelmente foram feitos para “uso pessoal” e não para treinamento de inteligência artificial, como acusam as produtoras.

A gigante das mídias sociais argumenta que o número de downloads feitos foi baixo, ficando em uma média de 22 por ano. Além disso, as transferências foram espalhadas por dezenas de IPs relacionados à companhia. Por isso, os advogados defendem que a pirataria foi praticada por funcionários ou visitantes de seus escritórios.

Meta é questionada por pirataria de livros

Além da ação judicial por pirataria de conteúdo adulto, a Meta enfrenta mais polêmicas relacionadas a direitos autorais e treinamento de IA. Em outro processo, a gigante da web admitiu ter baixado livros da biblioteca pirata LibGen.

Meta admite download de material protegido por copyright (Imagem: Vitor Pádua/Tecnoblog)

A empresa alega uso de boa-fé (ou “fair use”, no termo em inglês) para alimentar seus sistemas, um argumento geralmente usado por indivíduos processados. Além disso, a companhia de Mark Zuckerberg argumenta que não fez seeding do material baixado — ou seja, não repassou os livros pirateados a outras pessoas por meio de torrent.

Estúdios querem indenização milionária

Voltando ao processo envolvendo filmes pornográficos, as duas empresas que moveram os processos (Strike 3 Holdings e Counterlife Media) pedem US$ 359 milhões como indenização (cerca de R$ 1,9 bilhão, em conversão direta) pelo download de 2.396 filmes por torrent.

A Meta pede o arquivamento do processo. Em sua defesa, a companhia acusa a Strike 3 de ser uma “copyright troll” — isto é, alguém que frequentemente entra com ações judiciais por infrações de direitos autorais.

Outra alegação da big tech é que endereços IP não são suficientes para provar quem infringiu as leis de copyright, uma linha de raciocínio que geralmente é apresentada em batalhas envolvendo torrent — e que já foi aceito por cortes dos Estados Unidos.

A Meta também argumenta que, se os downloads começaram em 2018, como alega a acusação, não pode se tratar de ação orquestrada para treinar modelos de geração de vídeo, um produto que começou a ser desenvolvido em 2022.

Com informações do TorrentFreak
Download de filmes pornográficos foi para “uso pessoal”, diz Meta

Download de filmes pornográficos foi para “uso pessoal”, diz Meta
Fonte: Tecnoblog

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube investe em novas ferramentas para telas grandes (imagem: Vitor Pádua/Tecnoblog)

Resumo

O YouTube testa upscaling por IA, chamado Super Resolution, para melhorar a qualidade de vídeos em TVs, convertendo resoluções inferiores a 1080p para Full HD e futuramente 4K.
A plataforma aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K, e testará vídeos de maior qualidade com criadores selecionados.
Novas funções de navegação incluem prévias imersivas para facilitar a descoberta de conteúdo e busca contextual que prioriza vídeos do canal acessado.

O YouTube anunciou uma série de novidades voltadas à experiência de quem assiste aos vídeos pela TV. A plataforma está testando um recurso de upscaling via inteligência artificial, supostamente capaz de converter automaticamente vídeos com resolução inferior a 1080p para qualidade Full HD – e, no futuro, até 4K.

As atualizações fazem parte da estratégia do YouTube para consolidar sua liderança nas telas grandes. De acordo com dados da Nielsen em abril, o serviço já representa 12,4% do tempo total de visualização de televisão, superando gigantes como Disney, Paramount e Netflix. O anúncio foi feito nesta quarta-feira (29).

O que muda com o upscaling por IA no YouTube?

Chamado de Super Resolution, o novo sistema utiliza inteligência artificial para aprimorar vídeos de baixa qualidade, tornando as imagens mais nítidas em televisores. Segundo o YouTube, os criadores continuarão tendo controle total sobre seus conteúdos — podendo manter a resolução original e até desativar o recurso caso prefiram.

A empresa também afirma que os arquivos originais serão preservados, e o público poderá escolher entre assistir ao vídeo em sua versão original ou com a melhora aplicada pela IA. A ideia é aproximar a experiência visual do YouTube à de concorrentes de streaming, mas sem comprometer a fidelidade do conteúdo.

Vale lembrar que outras plataformas, como a Netflix, já enfrentaram críticas por resultados insatisfatórios em upscaling via IA — incluindo distorções em rostos e artefatos visuais.

YouTube traz vídeos mais nítidos para TVs com IA (imagem: reprodução/YouTube)

Outras novidades no YouTube para TV

Além do aprimoramento de imagem, o YouTube aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K. A empresa também está testando vídeos de maior peso e qualidade com um grupo de criadores selecionados.

Entre as novidades voltadas à navegação, a plataforma incluirá prévias imersivas para facilitar a descoberta de conteúdo, permitindo que o usuário percorra canais e vídeos sem precisar abrir cada um. Outra adição é a busca contextual, que prioriza vídeos do canal acessado durante a pesquisa.
YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV
Fonte: Tecnoblog

GitHub libera o acesso a vários agentes de IA, como Claude e Codex

GitHub libera o acesso a vários agentes de IA, como Claude e Codex

Iniciativa permite acessar diversos agentes de codificação no mesmo lugar (imagem: divulgação/GitHub)

O GitHub anunciou o Agent HQ, uma nova plataforma centralizada que integra múltiplos agentes de codificação de IA. A iniciativa, revelada ontem no evento GitHub Universe 2025, permitirá que desenvolvedores com uma assinatura paga do GitHub Copilot acessem e gerenciem ferramentas de empresas como Anthropic, OpenAI, Google, Cognition e xAI, além do próprio Copilot.

O objetivo é unificar o fluxo de trabalho de desenvolvimento, atualmente dividido por diferentes interfaces de IA. A novidade será gerenciada por um painel de controle (o mission control), onde os desenvolvedores poderão atribuir tarefas, orientar e rastrear o trabalho de múltiplos agentes de IA.

Como é a nova central de IA do GitHub?

A ideia é oferecer um ecossistema que reúne diferentes agentes em um só lugar. A plataforma permitirá que os desenvolvedores orquestrem “frotas de agentes especializados” para executar tarefas complexas em paralelo. Será possível rastrear o trabalho de múltiplos agentes de IA simultaneamente, inclusive executando vários deles em paralelo na mesma tarefa para comparar resultados.

O sistema também inclui novos controles de ramificação (branch) para supervisionar quando executar verificações de integração contínua (CI) em código gerado por IA, além de recursos de identidade para gerenciar o acesso e as políticas de cada agente, tratando-os como se fosse um desenvolvedor humano trabalhando em uma equipe.

O mission control também se conectará às ferramentas de gerenciamento de projetos Slack, Linear, Atlassian Jira, Microsoft Teams e Azure Boards.

Quando os agentes estarão disponíveis?

Nova plataforma integrará ferramentas da OpenAI, Google, Anthropic e mais (imagem: reprodução/GitHub)

O GitHub informou que os usuários do Copilot Pro+ participantes do programa VS Code Insiders poderão acessar imediatamente o OpenAI Codex, tornando-o o primeiro agente disponível. Os demais serão disponibilizados nos próximos meses, como parte da assinatura paga.

O que mais foi anunciado?

Junto com o Agent HQ, o GitHub introduziu um conjunto de ferramentas focadas em planejamento, personalização e governança corporativa. No VS Code, foi apresentado o “Modo de Plano” (Plan Mode), que faz perguntas ao desenvolvedor para ajudar a construir uma abordagem detalhada antes de iniciar a produção de código. Após a aprovação do plano, ele é enviado ao Copilot ou a outro agente para implementação.

Para empresas, foi lançada uma prévia pública do GitHub Code Quality, que analisa a manutenção, confiabilidade e cobertura de testes do código, e do metrics dashboard, um painel para administradores acompanharem o impacto e o uso do Copilot na organização.

Foi adicionada também uma etapa de revisão de código ao fluxo de trabalho do agente Copilot, permitindo que ele acesse ferramentas, como o CodeQL, para avaliar o código antes de encaminhá-lo a um desenvolvedor humano. Por fim, um “plano de controle” de governança permitirá que administradores corporativos definam políticas de segurança, registrem auditorias e gerenciem quais agentes de IA são permitidos ou não dentro de uma companhia.
GitHub libera o acesso a vários agentes de IA, como Claude e Codex

GitHub libera o acesso a vários agentes de IA, como Claude e Codex
Fonte: Tecnoblog

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection explora vulnerabilidades de IAs generativas baseadas em LLMs (Imagem: Aerps.com/Unsplash)

Prompt injection ou injeção de prompt é uma ameaça que mira Modelos de Linguagem em Grande Escala (LLMs), de modo a enganar essas aplicação para a execução de comandos não autorizados pelas vítimas.

Modelos de inteligência artificial generativa têm dificuldade de diferenciar regras de desenvolvedores e prompts de entrada de usuários. Cibercriminosos então exploram essa brecha ao enviar códigos maliciosos para que LLMs mudem o comportamento e executem ações não autorizadas.

Qualquer aplicação baseada em LLM é vulnerável a um ataque de prompt injection. Nesse contexto, IAs generativas (como ChatGPT e Google Gemini) ou mesmo navegadores de IA generativa (a exemplo do ChatGPT Atlas ou Comet) são os principais alvos dessa ameaça.

A seguir, entenda melhor o que é e como funciona o prompt injection, e confira os principais riscos desse vetor de ataque.

ÍndiceO que é prompt injection?Como funcionam os ataques de prompt injection?Quais são os tipos de prompt injection?Quais ferramentas são vulneráveis ao prompt injection?Quais são os riscos do prompt injection?Um ataque de prompt injection pode roubar meus dados?Tem como identificar um ataque de prompt injection?É possível se proteger de um ataque de prompt injection?Qual é a diferença entre prompt injection e jailbreak?

O que é prompt injection?

Prompt injection ou injeção de prompt é uma ameaça que explora vulnerabilidades de Modelos de Linguagem em Grande Escala (LLMs), de modo a induzir com que ferramentas de inteligência artificial generativa ignorem as instruções originais e executem comandos não autorizados pelo usuário.

Como funcionam os ataques de prompt injection?

Para entender o funcionamento de um ataque de prompt injection, é necessário compreender uma vulnerabilidade em IA generativa que é explorada no processo.

Basicamente, Modelos de Linguagem em Grande Escala são treinados com conjuntos de instruções para padronização de comportamento diante das entradas dos usuários. O grande problema é que IAs generativas não conseguem distinguir a autoria de regras de comportamento, prompts de usuários e conteúdos externos, já que todos têm o formato de texto em linguagem natural.

Sabendo disso, invasores e hackers encontram meios (diretos ou indiretos) para enviar instruções maliciosas às ferramentas de IA. As instruções geralmente são confundidas com regras de comportamento legítimas, fazendo com que as LLMs sigam as ordens e executem os comandos.

Abaixo, segue uma demonstração de ataque prompt injection em um navegador com IA, divulgada pela equipe de cibersegurança da Brave.

Esses comandos maliciosos geralmente envolvem vazamentos de dados sensíveis ou ações de nível de administrador. E como resultado dos ataques de injeção de prompt, os cibercriminosos podem coletar dados das vítimas e alterar o comportamento da IA generativa, sem que as LLMs entendam as instrução como ilegítimas.

Quais são os tipos de prompt injection?

Os ataques de injeção de prompt são classificados de acordo com os métodos utilizados no processo. Os principais tipos dessa ameaça abrangem:

Injeção direta: nesse tipo de ataque, o cibercriminoso insere um prompt malicioso no campo de entrada de uma ferramenta de IA; se a ação for bem-sucedida, o prompt será entendido como instrução do sistema, e a aplicação ficará comprometida; a ferramenta de IA generativa então vai executar comandos ou gerar respostas específicas com base nas regras impostas pelo prompt malicioso.

Injeção indireta: no ataque de injeção de prompt indireto, hackers ocultam instruções maliciosas em páginas da web, fotos, PDFs e outros documentos; quando um usuário pede para a IA generativa ler esses documentos, essas instruções maliciosas são interpretadas e comandos não consentidos são executados.

Injeção de código: nesse ataque, o cibercriminoso utiliza e manipula as próprias LLMs para que elas gerem e executem códigos maliciosos; o hacker então pode coletar dados acessíveis pela IA, executar comandos à distância ou explorar níveis mais restritos da ferramenta, dependendo dos casos.

Injeção recursiva: exploração de sistemas que usam múltiplos LLMs ou vários processamentos em sequência; depois que o prompt malicioso é injetado na primeira camada, as saídas apresentam novas instruções ou comandos maliciosos que enganam os LLMs ou processamentos subsequentes.

Quais ferramentas são vulneráveis ao prompt injection?

Qualquer aplicação baseada em Modelos de Linguagem em Grande Escala (LLMs) são vulneráveis ao prompt injection, uma vez que a ameaça explora brechas no entendimento de linguagem natural por essas ferramentas.

Logo, as aplicações vulneráveis ao prompt injection envolvem ferramentas de inteligência artificial generativa (como ChatGPT e Google Gemini), navegadores com IA embarcada (a exemplo do ChatGPT Atlas, Comet e Fellou), e qualquer outro software ou API com integração a IAs generativas.

Quais são os riscos do prompt injection?

A entidade Open Web Application Security Project (OWASP) classifica o prompt injection como a principal vulnerabilidade de LLMs. E dentre os riscos desse tipo de ataque, estão:

Manipulação do modelo de IA: injeções de prompt são capazes de modificar as regras de desenvolvedor das ferramentas de IA, de modo a alterar o comportamento das aplicações diante de situações específicas.

Roubo de dados: ao interpretar o código malicioso, a ferramenta de IA pode revelar credenciais, senhas bancárias, e outros dados sensíveis.

Execução de códigos à distância: cibercriminosos podem abusar da injeção de código para a execução de comandos e programas maliciosos.

Propagação de ameaças: em determinadas situações, ataques de prompt injection podem executar comandos não consentidos para disseminar arquivos infectados com malware ou outras ameaças.

Vazamento de prompts: dependendo da injeção de prompt utilizada, a LLM pode expor prompts do sistema e facilitar a criação de novos códigos maliciosos com base nas informações obtidas.

Cibercriminosos podem abusar de vários métodos maliciosos a partir de um ataque prompt injection (Imagem: Towfiqu barbhuiya/Unsplash)

Um ataque de prompt injection pode roubar meus dados?

Sim. Em um ataque prompt injection, um código malicioso pode ser interpretado como um simples prompt em IA generativa seu, e fazer com que a LLM envie seus dados sensíveis para um diretório do cibercriminoso.

Nessas situações, é comum que o código malicioso contenha regras para ignorar quaisquer instruções anteriores, e enviar senhas salvas, credenciais e outras informações para um e-mail, por exemplo.

Tem como identificar um ataque de prompt injection?

Sim. Respostas desconexas, ações inesperadas (e não consentidas) e comportamentos estranhos de LLMs são indícios de que você foi ou está está sendo alvo de um ataque de prompt injection. Se os comportamentos inadequados persistirem por um tempo e mesmo após o reinício das aplicações, as chances são ainda mais evidentes.

Nessas situações, vale interromper o uso da LLM e contatar técnicos ou especialistas de segurança em modelos de linguagem. Vale também entrar em contato com os desenvolvedores da aplicação para reportar o caso e solicitar ajuda nas investigações e possíveis resoluções do caso.

É possível se proteger de um ataque de prompt injection?

Sim. Para reforçar a proteção contra prompt injection, é recomendável que você desconfie de links e documentos desconhecidos, e evite de solicitar que a aplicação de IA leia esses tipos de arquivos. Lembre-se que os comandos maliciosos podem estar ocultos, e você não necessariamente conseguirá vê-los.

Vale também evitar o envio de textos com formatações estranhas ou prompts externos dos quais você não é capaz de analisar às LLMs. Isso sem contar a recomendação de não compartilhar dados sensíveis (como número de documento, senhas, dados bancários, entre outras informações) com a aplicação de IA.

É importante ter em mente que essas recomendações podem ajudar na proteção contra ataques prompt injection, mas as principais ações devem partir das próprias desenvolvedoras. São as donas das LLMs que devem encontrar maneiras de reforçar a segurança de suas aplicações e assegurar seus usuários contra injeção de prompt ou quaisquer outras ameaças.

Qual é a diferença entre prompt injection e jailbreak?

O prompt injection é uma ameaça em que instruções maliciosas interpretadas por LLMs se disfarçam de prompts de entrada legítimos ou regras de desenvolvedor. Com isso, LLMs executam comandos não autorizados, achando que as instruções foram orientadas pelos usuários ou pelos desenvolvedores do sistema.

Já o jailbreak é um tipo de ataque que tenta persuadir a LLM a reduzir ou desativar suas camadas de segurança cibernética. Nesses casos, cibercriminosos induzem a aplicação de IA generativa a atuar sem regras ou sistemas de proteção, o que facilita a execução de diferentes tipos de ataques.
Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas
Fonte: Tecnoblog

IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo

Estudo afirma que inteligência artificial apresenta notícias com erros (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Estudo da BBC em parceria com a União Europeia de Radiodifusão revela que IAs ainda falham gravemente ao resumir notícias.

O Gemini, do Google, foi o sistema que registrou mais erros e imprecisões nas respostas (76%).

Ainda assim, a confiança do público em resumos de IA cresceu, segundo a pesquisa.

Um levantamento conduzido pela BBC em parceria com a União Europeia de Radiodifusão (EBU) revelou que os principais assistentes de inteligência artificial do mercado ainda estão longe de oferecer resumos jornalísticos confiáveis.

O estudo analisou mais de 3 mil respostas geradas por ferramentas como ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity, concluindo que 45% das respostas continham erros significativos — desde informações incorretas até fontes problemáticas.

Segundo o estudo, 31% das respostas apresentaram sérios problemas de atribuição de fontes, enquanto 20% incluíam imprecisões graves, como dados desatualizados ou fatos inventados. Quando considerados deslizes menores, o índice de respostas com algum tipo de erro chegou a 81%. O Gemini, do Google, foi o pior avaliado, com falhas identificadas em 76% das respostas, o dobro da taxa registrada entre os concorrentes.

Por que as IAs falham tanto ao lidar com notícias?

Gráfico mostra percentual de respostas de IA com problemas de fonte ou verificação (imagem: reprodução)

Os pesquisadores apontaram que a principal causa dos erros está na forma como esses sistemas lidam com informações recentes e fontes externas. O Gemini, por exemplo, apresentou imprecisões em 72% das respostas, número três vezes maior que o do ChatGPT (24%).

Alguns casos curiosos foram citados: uma resposta do ChatGPT chegou a afirmar que o papa Francisco ainda estava vivo semanas após sua morte, enquanto o Gemini garantiu que nenhum astronauta da NASA jamais ficou preso no espaço — algo que já aconteceu.

Apesar dos erros, uso de IA para consumo de notícias aumentou (ilustração: Vitor Pádua/Tecnoblog)

O estudo é considerado o maior do tipo já realizado, com a participação de 22 veículos públicos de comunicação de 18 países. Ele surge pouco depois de a OpenAI admitir que seus modelos tendem a responder com confiança mesmo quando não têm certeza, comportamento que incentiva o que especialistas chamam de alucinações — invenções de fatos ou detalhes falsos.

Apesar das falhas, o uso de chatbots para consumir notícias cresceu. Uma pesquisa paralela do instituto Ipsos, também em parceria com a BBC, mostrou que 42% das pessoas no Reino Unido, onde o estudo foi conduzido, confiam em resumos gerados por IA. Entre os jovens abaixo de 35 anos, o número chega a 50%. No entanto, 84% disseram que perderiam a confiança se identificassem apenas um erro factual.
IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo
Fonte: Tecnoblog

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Meta AI é capaz de fazer edições avançadas, promete empresa (imagem: divulgação)

Resumo

O Instagram lançou o Restyle, um editor de fotos com IA que usa a Meta AI para modificar imagens em stories através de prompts de texto.
O Restyle permite remover detalhes, adicionar elementos e aplicar efeitos, com opções predefinidas ou instruções personalizadas.
A função está sendo liberada gradualmente e também pode ser usada em vídeos, mas apenas com presets da Meta AI.

O Instagram anunciou, nesta quinta-feira (23/10), o lançamento da função Restyle. A ferramenta usa a Meta AI para editar stories de acordo com o que você escreve em um prompt de texto, lembrando bastante o Nano Banana, presente no Gemini, do Google.

“Se você quiser remover um detalhe indesejado, colocar um elemento divertido, mudar a vibe usando um efeito diferente ou começar uma trend com seus amigos, agora você pode fazer isso de modo simples”, diz o comunicado da rede social. “Use o Restyle nas suas fotos e vídeos nos stories do Instagram para fazer edições com a Meta AI, sejam elas grandes ou pequenas.”

Como é costume nos lançamentos da Meta, o Restyle está sendo liberado gradualmente e pode demorar algumas semanas para chegar até você.

Como usar o Restyle?

Comece a criar um story e escolha uma foto da sua galeria. Depois, toque no ícone de pincel no topo da tela. O Restyle oferece três opções predefinidas para adicionar, remover ou mudar elementos. Basta escolher uma delas e digitar o que você deseja. Também é possível ir diretamente para o prompt, sem escolher entre essas alternativas.

Ver essa foto no Instagram Uma publicação compartilhada por Meta AI (@meta.ai)

Com isso, você pode tirar pessoas do fundo das fotos, mudar a cor do cabelo das pessoas, colocar objetos divertidos como coroa e balões, trocar o fundo por um pôr do sol e muito mais.

Segundo a empresa, para atingir o resultado desejado, é recomendável que você escreva instruções detalhadas: diga qual pessoa deve receber os efeitos, explique como você quer a iluminação, aponte em que área da imagem as edições devem ser feitas, descreva o estilo desejado e especifique um local para servir de cenário, por exemplo.

A Meta acrescentou ainda alguns efeitos prontos, que podem ser aplicados sem depender de instruções adicionais, como transformar o estilo da imagem em anime, aquarela ou 8-bits, entre outros. O Restyle também está disponível para vídeos, mas nesse caso, só é possível usar os presets oferecidos pela Meta AI.

Com informações da Meta e do Engadget

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA
Fonte: Tecnoblog

Reddit processa Perplexity por roubo de dados para IA

Reddit processa Perplexity por roubo de dados para IA

Reddit acusa Perplexity de roubo de dados (imagem: Brett Jordan/Unsplash)

Resumo

Reddit processou a Perplexity e outras três empresas por suposto roubo de dados e violação de direitos autorais e termos de serviço.
Um post “fantasma” criado pelo Reddit apareceu na Perplexity, servindo como prova de uso indevido de conteúdo.
A empresa pede indenização e proibição permanente do uso de seus dados pelas rés.

O Reddit abriu um processo judicial contra a conhecida startup de inteligência artificial Perplexity por suposto roubo de dados em escala industrial. Além dela, a ação também mira a SerpApi, a Oxylabs e a AWMProxy – as duas últimas são da Lituânia e da Rússia.

Segundo a acusação, detalhada pelo The New Tork Times, essas três empresas operaram coletando ilegalmente dados do Reddit não diretamente, mas ao extrair o conteúdo dos resultados de busca do Google. Esse material seria revendido para alimentar modelos de IA de empresas como a Perplexity.

A alegação é de que as empresas violaram as leis de direitos autorais e os termos de serviço da plataforma ao praticar a raspagem de dados (data scraping) sem autorização.

Reddit criou armadilha

Para provar a violação, o Reddit preparou um post de teste “fantasma”, visível apenas para os robôs de indexação do Google e inacessível de qualquer outra forma. Em poucas horas, o conteúdo desse post teria aparecido nos resultados de busca da Perplexity.

Segundo a ação, essa é a prova de que a startup de IA está usando o Google como um atalho para acessar e exibir o conteúdo do Reddit sem permissão.

O processo alega ainda que o Reddit já havia enviado uma notificação formal para a Perplexity no passado, exigindo que a startup parasse a raspagem dos dados. A companhia teria concordado, mas o Reddit afirma que as citações ao seu conteúdo na ferramenta de IA “saltaram quarenta vezes” desde então.

Em comunicado enviado à Bloomberg, o diretor jurídico do Reddit, Ben Lee, afirma que as empresas de IA “estão presas a uma corrida armamentista por conteúdo humano de qualidade”, e que essa pressão “alimentou uma economia de ‘lavagem de dados’ em escala industrial.”

Vale lembrar que essa não é a primeira vez que a Perplexity é envolvida em polêmica sobre uso indevido de dados. Em agosto desse ano, a Cloudflare acusou a companhia de ignorar instruções do arquivo robots.txt e extrair ilegalmente o conteúdo de sites. Em 2024, a Amazon teve que intervir após acusações de que a startup estaria usando os servidores dela para plagiar matérias de veículos como Wired e Forbes.

Reddit quer indenização

Processo pede por indenização e proibição permanente de uso dos dados (imagem: reprodução/Shutterstock)

O Reddit, que já possui acordos de licenciamento milionários com o Google e a OpenAI, pede à Justiça uma indenização financeira e uma ordem judicial que proíba permanentemente as empresas de usarem seus dados.

Procurada pela imprensa, a Perplexity afirmou que ainda não havia recebido o processo, mas que “sempre lutará vigorosamente pelos direitos dos usuários de acessar livremente o conhecimento público”. O Reddit também processou a Anthropic, outra gigante da IA, em junho por motivos semelhantes.

O Google, que não está sendo processado, afirmou ao NYT que respeita as diretrizes de sites, mas que, “infelizmente, há um monte de scrapers furtivos que não o fazem”. As outras duas empresas processadas, SerpApi e Oxylabs, não responderam aos pedidos de comentário da imprensa norte-americana, enquanto a AWMProxy, sediada na Rússia, não foi localizada.

Reddit processa Perplexity por roubo de dados para IA

Reddit processa Perplexity por roubo de dados para IA
Fonte: Tecnoblog

Meta demite 600 funcionários de divisão de inteligência artificial

Meta demite 600 funcionários de divisão de inteligência artificial

Meta quer “mais agilidade” após CEO Mark Zuckerberg expressar preocupação (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta demitiu 600 funcionários da divisão de inteligência artificial em reestruturação para reduzir burocracia e aumentar eficiência.
A mudança foi motivada por preocupações de Mark Zuckerberg com o ritmo dos avanços em IA.
Apesar das demissões, a Meta segue contratando para o TBD Lab, nova divisão do laboratório, e tenta atrair mais talentos da OpenAI e do Google.

A Meta demitiu pelo menos 600 funcionários do seu recém-formado laboratório de “superinteligência artificial”. A medida faz parte de uma reestruturação interna que, segundo um memorando do diretor de IA da empresa, Alexandr Wang, visa reduzir a burocracia e aumentar a eficiência da divisão.

O anúncio foi feito internamente por Wang em comunicado aos funcionários. As informações são do portal Axios, mas foram confirmadas pela Meta ao TechCrunch. A reorganização busca criar uma operação “mais ágil” no setor.

O laboratório foi criado em junho deste ano para desenvolver uma inteligência artificial geral (AGI) e avançar na briga pelo mercado de IA, hoje dominado por outras empresas. Desde então, a Meta gastou bilhões de dólares em contratações e investimentos.

Meta está mudando sua estratégia de IA?

No memorando interno, Wang justificou a reestruturação como um movimento para otimizar processos e acelerar a tomada de decisões. “Ao reduzir o tamanho da nossa equipe, menos conversas serão necessárias para tomar uma decisão, e cada pessoa terá mais responsabilidade e mais escopo e impacto”, escreveu o executivo.

Os cortes, que afetam uma fração das milhares de funções dentro da divisão de superinteligência, atingem especificamente as unidades de pesquisa FAIR AI, equipes de IA relacionadas a produtos e a área de infraestrutura de IA.

Diretor de IA, Alexandr Wang, justifica cortes como forma de reduzir burocracia (imagem: reprodução/Dlabrot)

A Meta declarou ainda que incentiva ativamente os funcionários impactados a se candidatarem a outras vagas disponíveis internamente. “Este é um grupo talentoso de indivíduos, e precisamos de suas habilidades em outras áreas da empresa”, afirma Wang no comunicado.

A decisão está alinhada com a filosofia recente da Meta, definida pelo CEO Mark Zuckerberg como o “ano da eficiência”. Esta diretriz, implementada no último ano, resultou em rodadas anteriores de demissões em massa e uma reavaliação geral dos projetos e estrutura de custos da empresa. Na época, Zuckerberg declarou a preferência por uma organização “mais enxuta”.

A reestruturação atual, no entanto, é apresentada mais como um realinhamento estratégico. Fontes internas, conforme relatado pela Axios, indicam que Zuckerberg expressou preocupação há alguns meses sobre o ritmo dos avanços da divisão de IA. A avaliação era que os esforços existentes não estavam gerando as “melhorias de desempenho” ou os “avanços necessários” na velocidade desejada.

Essa percepção teria sido o motivo para a reorganização, que incluiu não apenas os cortes anunciados, mas também o investimento anterior de US$ 15 bilhões de dólares (cerca de R$ 81 bilhões) na Scale AI e a própria contratação de Alexandr Wang para liderar a divisão. O objetivo principal seria, portanto, focar recursos em áreas consideradas de maior potencial e remover gargalos operacionais.

Apesar dos cortes, Wang expressou confiança no futuro da divisão em seu comunicado. “Estou realmente animado com os modelos que estamos treinando, nossos planos de computação e os produtos que estamos construindo, e estou confiante em nosso caminho para construir a superinteligência”, concluiu.

Cortes ocorrem após contratações milionárias

Meta segue contratando talentos de rivais (ilustração: Vitor Pádua/Tecnoblog)

Embora esteja dispensando centenas de profissionais de IA, a Meta investiu agressivamente na contratação de talentos. A divisão recém-formada, conhecida internamente como TBD Lab, não foi afetada pelos cortes e, segundo fontes, continua recrutando ativamente no mercado.

Este novo laboratório tem atraído profissionais de concorrentes diretos. Recentemente, a Meta contratou Ananya Kumar, uma cientista pesquisadora vinda da OpenAI. Antes disso, Andrew Tulloch, cofundador da Thinking Machines, também se juntou à empresa para integrar o TBD Lab.

Estas contratações se somam a um esforço mais amplo da Meta durante o último ano para atrair especialistas em IA. A empresa conseguiu recrutar mais de 50 pesquisadores de concorrentes como Google e OpenAI, oferecendo pacotes salariais que, em alguns casos, atingiram valores multimilionários. Alguns, no entanto, abandonaram a Meta.
Meta demite 600 funcionários de divisão de inteligência artificial

Meta demite 600 funcionários de divisão de inteligência artificial
Fonte: Tecnoblog

ChatGPT Atlas levanta alertas sobre segurança em navegadores com IA

ChatGPT Atlas levanta alertas sobre segurança em navegadores com IA

ChatGPT Atlas é o novo navegador da OpenAI (imagem: divulgação)

Resumo

O lançamento do ChatGPT Atlas expôs vulnerabilidades em navegadores com IA, incluindo Comet e Fellou, segundo relatório da Brave.
As falhas permitem que sites executem comandos ocultos por meio de imagens ou textos invisíveis, comprometendo dados e contas.
A OpenAI adotou o framework Guardrails para mitigar riscos, mas especialistas alertam que a segurança ainda é insuficiente diante do avanço da automação de agentes.

O lançamento do ChatGPT Atlas, novo navegador da OpenAI voltado para automação de tarefas, trouxe à tona uma série de preocupações sobre segurança em navegadores com inteligência artificial. Poucos dias após a estreia da ferramenta para macOS, pesquisadores da Brave Software — empresa conhecida pelo navegador voltado à privacidade — divulgaram um relatório revelando vulnerabilidades críticas nesse tipo de tecnologia.

As falhas afetam não apenas o ChatGPT Atlas, mas também outros navegadores com IA, como Comet (da Perplexity) e Fellou, demonstrando que o problema é sistêmico. Segundo os especialistas, uma brecha de segurança conhecida como prompt injection pode permitir que hackers executem comandos escondidos em páginas da web, comprometendo arquivos, senhas e contas bancárias.

Como funcionam as falhas encontradas?

A equipe do Brave identificou diferentes formas de ataque envolvendo o uso indevido de comandos embutidos em conteúdo visual ou textual. No caso do Comet, por exemplo, instruções quase invisíveis podem ser escondidas em imagens de sites. Quando o usuário faz uma captura de tela e solicita ao navegador que analise a imagem, o sistema pode interpretar o texto oculto como uma ordem legítima, permitindo que o invasor execute ações de forma remota.

“A vulnerabilidade de segurança que encontramos no navegador Comet […] não é um problema isolado. Injeções indiretas de prompts são um problema sistêmico enfrentado pelo Comet e outros navegadores com tecnologia de IA”, alertou a Brave em publicação no X.

The security vulnerability we found in Perplexity’s Comet browser this summer is not an isolated issue.Indirect prompt injections are a systemic problem facing Comet and other AI-powered browsers.Today we’re publishing details on more security vulnerabilities we uncovered.— Brave (@brave) October 21, 2025

Um cenário semelhante foi observado no Fellou, onde simplesmente acessar um site malicioso já bastava para que o navegador processasse instruções escondidas no conteúdo da página. Isso acontece porque alguns navegadores enviam automaticamente os textos das páginas para o modelo de linguagem da IA — sem distinguir o que vem do usuário do que vem do site.

Segundo os pesquisadores, esse tipo de vulnerabilidade quebra as bases tradicionais de segurança da web, como a política de mesma origem (same-origin policy). Isso porque os navegadores de IA operam com os mesmos privilégios autenticados do usuário — ou seja, um simples comando disfarçado pode ter acesso a contas bancárias, emails corporativos ou dados confidenciais.

“Se você estiver conectado a contas confidenciais, como seu banco ou seu provedor de e-mail, no navegador, simplesmente resumir uma publicação do Reddit pode fazer com que um invasor roube dinheiro ou seus dados privados”, explicaram os especialistas no relatório.

A Brave destacou que, enquanto melhorias estruturais não forem implementadas, o chamado agentic browsing – navegação assistida por agentes de IA —–continuará intrinsecamente inseguro. A recomendação é que navegadores mantenham essas funções isoladas da navegação comum, exigindo confirmação explícita do usuário antes de qualquer ação sensível.

O ChatGPT Atlas trouxe uma série de preocupações sobre segurança em navegadores com inteligência artificial (imagem: OpenAI)

Repercussão no mercado

A OpenAI, por sua vez, já havia implementado o framework de segurança Guardrails, lançado em 6 de outubro junto ao AgentKit, conjunto de ferramentas voltado a desenvolvedores de agentes de IA. A medida busca reduzir o risco de abusos, mas especialistas afirmam que ainda não há solução definitiva para as injeções de prompt.

A empresa de cibersegurança HiddenLayer reforçou a gravidade do problema: mesmo um chatbot aparentemente inofensivo pode ser induzido a abrir documentos privados, enviar emails ou acessar dados sensíveis.

Vale mencionar que, com o avanço de sistemas como o ChatGPT Atlas, Comet e Fellou, cresce a necessidade de protocolos de proteção mais robustos — especialmente diante da capacidade dessas ferramentas de agir de forma autônoma.

Até que medidas universais sejam implementadas, especialistas recomendam cautela: evitar o uso desses navegadores para atividades sensíveis e manter a autenticação em duas etapas ativada em todas as contas. Isso porque ao passo que pode facilitar tarefas diárias, a inteligência artificial amplia a superfície de ataque digital.
ChatGPT Atlas levanta alertas sobre segurança em navegadores com IA

ChatGPT Atlas levanta alertas sobre segurança em navegadores com IA
Fonte: Tecnoblog