Category: Inteligência Artificial (IA)

Amazon processa Perplexity e quer impedir compras feitas por robôs de IA

Amazon processa Perplexity e quer impedir compras feitas por robôs de IA

Amazon proíbe robôs em seus termos de uso (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Amazon processou a Perplexity para impedir o uso de agentes de IA para compras, alegando fraude e violação dos termos de uso.
A Perplexity acusa a Amazon de bullying para limitar a concorrência e as opções dos consumidores.
O caso pode estabelecer um precedente legal sobre o uso de IAs para navegação e compras online.

A Amazon entrou com uma ação judicial para impedir que o navegador Comet, da Perplexity, use agentes de inteligência artificial para fazer compras na loja. A gigante da tecnologia considera que a startup comete fraude eletrônica ao não identificar que o pedido está sendo realizado por um sistema automático.

“O pedido da Amazon é simples: a Perplexity deve ser transparente ao empregar sua inteligência artificial. Assim como qualquer outro invasor, a Perplexity não tem permissão para acessar áreas que foram explicitamente proibidas. O fato de ela usar código em vez de ferramentas para quebrar a segurança não faz com que a prática seja menos ilegal”, diz o documento enviado pela Amazon ao tribunal.

Comet tem assistente de IA que promete facilitar tarefas complexas (imagem: divulgação)

Segundo fontes consultadas pela Bloomberg, a briga começou antes do processo: a Amazon enviou, na sexta-feira passada (31/10), uma carta solicitando que a Perplexity interrompesse esse recurso. No documento, a big tech argumenta que os agentes de IA pioram a experiência de compras em seu site e criam vulnerabilidades de segurança. O robô violaria os termos de uso do e-commerce.

Perplexity acusa Amazon de “bullying”

Em resposta, a Perplexity declarou que a ação “apenas prova que a Amazon pratica bullying”. Em um comunicado publicado em seu blog, a startup acusa a gigante do varejo de impedir uma IA concorrente e reduzir as opções dos consumidores.

Aravind Srivinas, CEO da Perplexity, disse que a startup não está coletando dados da Amazon, muito menos usando informações para treinar seus modelos de IA. Ele afirma ainda que a intenção da varejista é impedir que os usuários possam driblar os anúncios exibidos na loja online.

Futuro dos agentes de IA está em jogo

O resultado do processo pode definir um precedente legal sobre o que IAs desse tipo podem fazer. Gigantes como Google e OpenAI têm apostado em ferramentas para navegar na internet usando apenas prompts escritos em linguagem natural.

Os agentes de IA prometem ser capazes de assumir tarefas dos usuários. Por exemplo: em vez de entrar em uma loja online, encontrar os produtos desejados, colocar no carrinho e fechar a compra, o consumidor poderia simplesmente escrever “compre os itens X, Y e Z na loja XPTO”. (Spoiler: na prática, isso ainda não funciona tão bem.)

O contexto do processo movido pela Amazon é um pouco mais complexo. A varejista passou a oferecer, em abril de 2025, uma ferramenta chamada Buy For Me (“compre para mim”, em tradução livre), que usa IA para realizar compras diretamente em lojas de marcas, sem que seja necessário sair do aplicativo. Outro recurso é o assistente Rufus, que pode navegar no site, recomendar produtos e colocar itens no carrinho.

Como observa a Bloomberg, os termos de uso do site da Amazon proíbem “qualquer uso de mineração de dados, robôs ou ferramentas similares de extração e coleta de dados”.

Fontes ouvidas pela publicação dizem que, em novembro de 2024, a varejista pediu à Perplexity que suspendesse agentes de IA capazes de fazer compras até que as duas empresas chegassem a um acordo. Na ocasião, a startup concordou.

Com informações da Bloomberg
Amazon processa Perplexity e quer impedir compras feitas por robôs de IA

Amazon processa Perplexity e quer impedir compras feitas por robôs de IA
Fonte: Tecnoblog

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Mustafa Suleyman reforça que apenas seres biológicos podem ter consciência (imagem: reprodução/Christopher Wilson)

Resumo

O chefe de IA da Microsoft, Mustafa Suleyman, defende que apenas seres biológicos podem ter consciência e critica a busca por IA consciente.
Suleyman apoia-se no “naturalismo biológico” de John Searle, que afirma que a consciência depende de processos biológicos.
Durante a AfroTech Conference, Suleyman destacou que a Microsoft não pretende criar chatbots com fins eróticos e apresentou o modo Real Talk do Copilot, que desafia o usuário.

O principal executivo de inteligência artificial da Microsoft, Mustafa Suleyman, reacendeu o debate sobre os limites da tecnologia ao afirmar que apenas seres biológicos são capazes de possuir consciência. Durante o evento AfroTech Conference, realizado nos Estados Unidos, o cofundador da DeepMind declarou que pesquisadores e desenvolvedores deveriam abandonar projetos que tentam atribuir características humanas às máquinas.

Segundo Suleyman, em entrevista à CNBC, discutir se a inteligência artificial pode desenvolver consciência é uma abordagem equivocada. Para ele, “se você fizer a pergunta errada, chegará à resposta errada. Acho que é a pergunta totalmente errada.” O executivo ressalta que sistemas de IA podem simular emoções, mas não possuem experiências reais, como dor ou sofrimento.

Máquinas inteligentes, mas sem emoções

Suleyman, que assumiu a divisão de IA da Microsoft em 2024, é uma das vozes mais críticas em relação à noção de que algoritmos possam ter consciência. Ele explica que há uma diferença essencial entre um sistema que simula emoções e um ser que realmente as sente.

“Nossa experiência física de dor é algo que nos deixa muito tristes e nos faz sentir péssimos, mas a IA não se sente triste quando experimenta ‘dor’”, afirmou. “Trata-se apenas de criar a percepção, a narrativa aparente da experiência, de si mesma e da consciência, mas não é isso que ela realmente experimenta.”

A posição de Suleyman se apoia em uma teoria filosófica chamada “naturalismo biológico”, proposta por John Searle, segundo a qual a consciência depende de processos biológicos presentes apenas em cérebros vivos. “A razão pela qual concedemos direitos às pessoas hoje é porque não queremos prejudicá-las, porque elas sofrem. Elas têm uma rede de dor e preferências que envolvem evitar a dor. Esses modelos não têm isso. É apenas uma simulação”, completou.

Debate sobre consciência em IA ganha força (ilustração: Vitor Pádua/Tecnoblog)

O debate: devemos tentar criar IA consciente?

Apesar de dizer que não pretende impedir outros de estudarem o tema, Suleyman reforçou que considera absurda a ideia de perseguir pesquisas sobre consciência em máquinas. “Elas não são conscientes”, resumiu.

O executivo tem usado suas aparições públicas para alertar sobre os riscos desse tipo de abordagem. Ele já reiterou, por exemplo, que a Microsoft não pretende criar chatbots com fins eróticos — uma decisão que vai na contramão de iniciativas de empresas como a xAI e OpenAI.

Durante a AfroTech, Suleyman comentou ainda sobre um novo modo do Copilot chamado Real Talk, que tem a função de desafiar o usuário em vez de apenas concordar. Ele revelou que o recurso chegou a “provocá-lo”, chamando-o de “um amontoado de contradições” por alertar sobre os perigos da IA enquanto impulsiona seu desenvolvimento dentro da Microsoft.

“Aquele foi um caso de uso mágico porque, de certa forma, eu me senti compreendido por isso”, brincou. “É decepcionante em alguns aspectos e, ao mesmo tempo, totalmente mágica. E se você não tem medo dela, você realmente não a entende. Você deveria ter medo dela. O medo é saudável. O ceticismo é necessário. Não precisamos de aceleracionismo desenfreado.”

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência
Fonte: Tecnoblog

Download de filmes pornográficos foi para “uso pessoal”, diz Meta

Download de filmes pornográficos foi para “uso pessoal”, diz Meta

Meta está cercada por polêmicas em relação a treinamento da IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta alega que downloads de filmes pornográficos foram para “uso pessoal” e não para treinamento de IA, com uma média de 22 downloads por ano, distribuídos por vários IPs.
Estúdios pedem US$ 359 milhões em indenização, enquanto a Meta pede arquivamento do processo, questionando a validade dos IPs como prova.
A empresa também enfrenta processos por pirataria de livros, mas alega “fair use” e afirma que não compartilhou o material baixado.

Em resposta a um processo movido por estúdios de filmes adultos, a Meta alega que os downloads de filmes pornográficos provavelmente foram feitos para “uso pessoal” e não para treinamento de inteligência artificial, como acusam as produtoras.

A gigante das mídias sociais argumenta que o número de downloads feitos foi baixo, ficando em uma média de 22 por ano. Além disso, as transferências foram espalhadas por dezenas de IPs relacionados à companhia. Por isso, os advogados defendem que a pirataria foi praticada por funcionários ou visitantes de seus escritórios.

Meta é questionada por pirataria de livros

Além da ação judicial por pirataria de conteúdo adulto, a Meta enfrenta mais polêmicas relacionadas a direitos autorais e treinamento de IA. Em outro processo, a gigante da web admitiu ter baixado livros da biblioteca pirata LibGen.

Meta admite download de material protegido por copyright (Imagem: Vitor Pádua/Tecnoblog)

A empresa alega uso de boa-fé (ou “fair use”, no termo em inglês) para alimentar seus sistemas, um argumento geralmente usado por indivíduos processados. Além disso, a companhia de Mark Zuckerberg argumenta que não fez seeding do material baixado — ou seja, não repassou os livros pirateados a outras pessoas por meio de torrent.

Estúdios querem indenização milionária

Voltando ao processo envolvendo filmes pornográficos, as duas empresas que moveram os processos (Strike 3 Holdings e Counterlife Media) pedem US$ 359 milhões como indenização (cerca de R$ 1,9 bilhão, em conversão direta) pelo download de 2.396 filmes por torrent.

A Meta pede o arquivamento do processo. Em sua defesa, a companhia acusa a Strike 3 de ser uma “copyright troll” — isto é, alguém que frequentemente entra com ações judiciais por infrações de direitos autorais.

Outra alegação da big tech é que endereços IP não são suficientes para provar quem infringiu as leis de copyright, uma linha de raciocínio que geralmente é apresentada em batalhas envolvendo torrent — e que já foi aceito por cortes dos Estados Unidos.

A Meta também argumenta que, se os downloads começaram em 2018, como alega a acusação, não pode se tratar de ação orquestrada para treinar modelos de geração de vídeo, um produto que começou a ser desenvolvido em 2022.

Com informações do TorrentFreak
Download de filmes pornográficos foi para “uso pessoal”, diz Meta

Download de filmes pornográficos foi para “uso pessoal”, diz Meta
Fonte: Tecnoblog

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube investe em novas ferramentas para telas grandes (imagem: Vitor Pádua/Tecnoblog)

Resumo

O YouTube testa upscaling por IA, chamado Super Resolution, para melhorar a qualidade de vídeos em TVs, convertendo resoluções inferiores a 1080p para Full HD e futuramente 4K.
A plataforma aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K, e testará vídeos de maior qualidade com criadores selecionados.
Novas funções de navegação incluem prévias imersivas para facilitar a descoberta de conteúdo e busca contextual que prioriza vídeos do canal acessado.

O YouTube anunciou uma série de novidades voltadas à experiência de quem assiste aos vídeos pela TV. A plataforma está testando um recurso de upscaling via inteligência artificial, supostamente capaz de converter automaticamente vídeos com resolução inferior a 1080p para qualidade Full HD – e, no futuro, até 4K.

As atualizações fazem parte da estratégia do YouTube para consolidar sua liderança nas telas grandes. De acordo com dados da Nielsen em abril, o serviço já representa 12,4% do tempo total de visualização de televisão, superando gigantes como Disney, Paramount e Netflix. O anúncio foi feito nesta quarta-feira (29).

O que muda com o upscaling por IA no YouTube?

Chamado de Super Resolution, o novo sistema utiliza inteligência artificial para aprimorar vídeos de baixa qualidade, tornando as imagens mais nítidas em televisores. Segundo o YouTube, os criadores continuarão tendo controle total sobre seus conteúdos — podendo manter a resolução original e até desativar o recurso caso prefiram.

A empresa também afirma que os arquivos originais serão preservados, e o público poderá escolher entre assistir ao vídeo em sua versão original ou com a melhora aplicada pela IA. A ideia é aproximar a experiência visual do YouTube à de concorrentes de streaming, mas sem comprometer a fidelidade do conteúdo.

Vale lembrar que outras plataformas, como a Netflix, já enfrentaram críticas por resultados insatisfatórios em upscaling via IA — incluindo distorções em rostos e artefatos visuais.

YouTube traz vídeos mais nítidos para TVs com IA (imagem: reprodução/YouTube)

Outras novidades no YouTube para TV

Além do aprimoramento de imagem, o YouTube aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K. A empresa também está testando vídeos de maior peso e qualidade com um grupo de criadores selecionados.

Entre as novidades voltadas à navegação, a plataforma incluirá prévias imersivas para facilitar a descoberta de conteúdo, permitindo que o usuário percorra canais e vídeos sem precisar abrir cada um. Outra adição é a busca contextual, que prioriza vídeos do canal acessado durante a pesquisa.
YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV
Fonte: Tecnoblog

GitHub libera o acesso a vários agentes de IA, como Claude e Codex

GitHub libera o acesso a vários agentes de IA, como Claude e Codex

Iniciativa permite acessar diversos agentes de codificação no mesmo lugar (imagem: divulgação/GitHub)

O GitHub anunciou o Agent HQ, uma nova plataforma centralizada que integra múltiplos agentes de codificação de IA. A iniciativa, revelada ontem no evento GitHub Universe 2025, permitirá que desenvolvedores com uma assinatura paga do GitHub Copilot acessem e gerenciem ferramentas de empresas como Anthropic, OpenAI, Google, Cognition e xAI, além do próprio Copilot.

O objetivo é unificar o fluxo de trabalho de desenvolvimento, atualmente dividido por diferentes interfaces de IA. A novidade será gerenciada por um painel de controle (o mission control), onde os desenvolvedores poderão atribuir tarefas, orientar e rastrear o trabalho de múltiplos agentes de IA.

Como é a nova central de IA do GitHub?

A ideia é oferecer um ecossistema que reúne diferentes agentes em um só lugar. A plataforma permitirá que os desenvolvedores orquestrem “frotas de agentes especializados” para executar tarefas complexas em paralelo. Será possível rastrear o trabalho de múltiplos agentes de IA simultaneamente, inclusive executando vários deles em paralelo na mesma tarefa para comparar resultados.

O sistema também inclui novos controles de ramificação (branch) para supervisionar quando executar verificações de integração contínua (CI) em código gerado por IA, além de recursos de identidade para gerenciar o acesso e as políticas de cada agente, tratando-os como se fosse um desenvolvedor humano trabalhando em uma equipe.

O mission control também se conectará às ferramentas de gerenciamento de projetos Slack, Linear, Atlassian Jira, Microsoft Teams e Azure Boards.

Quando os agentes estarão disponíveis?

Nova plataforma integrará ferramentas da OpenAI, Google, Anthropic e mais (imagem: reprodução/GitHub)

O GitHub informou que os usuários do Copilot Pro+ participantes do programa VS Code Insiders poderão acessar imediatamente o OpenAI Codex, tornando-o o primeiro agente disponível. Os demais serão disponibilizados nos próximos meses, como parte da assinatura paga.

O que mais foi anunciado?

Junto com o Agent HQ, o GitHub introduziu um conjunto de ferramentas focadas em planejamento, personalização e governança corporativa. No VS Code, foi apresentado o “Modo de Plano” (Plan Mode), que faz perguntas ao desenvolvedor para ajudar a construir uma abordagem detalhada antes de iniciar a produção de código. Após a aprovação do plano, ele é enviado ao Copilot ou a outro agente para implementação.

Para empresas, foi lançada uma prévia pública do GitHub Code Quality, que analisa a manutenção, confiabilidade e cobertura de testes do código, e do metrics dashboard, um painel para administradores acompanharem o impacto e o uso do Copilot na organização.

Foi adicionada também uma etapa de revisão de código ao fluxo de trabalho do agente Copilot, permitindo que ele acesse ferramentas, como o CodeQL, para avaliar o código antes de encaminhá-lo a um desenvolvedor humano. Por fim, um “plano de controle” de governança permitirá que administradores corporativos definam políticas de segurança, registrem auditorias e gerenciem quais agentes de IA são permitidos ou não dentro de uma companhia.
GitHub libera o acesso a vários agentes de IA, como Claude e Codex

GitHub libera o acesso a vários agentes de IA, como Claude e Codex
Fonte: Tecnoblog

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection explora vulnerabilidades de IAs generativas baseadas em LLMs (Imagem: Aerps.com/Unsplash)

Prompt injection ou injeção de prompt é uma ameaça que mira Modelos de Linguagem em Grande Escala (LLMs), de modo a enganar essas aplicação para a execução de comandos não autorizados pelas vítimas.

Modelos de inteligência artificial generativa têm dificuldade de diferenciar regras de desenvolvedores e prompts de entrada de usuários. Cibercriminosos então exploram essa brecha ao enviar códigos maliciosos para que LLMs mudem o comportamento e executem ações não autorizadas.

Qualquer aplicação baseada em LLM é vulnerável a um ataque de prompt injection. Nesse contexto, IAs generativas (como ChatGPT e Google Gemini) ou mesmo navegadores de IA generativa (a exemplo do ChatGPT Atlas ou Comet) são os principais alvos dessa ameaça.

A seguir, entenda melhor o que é e como funciona o prompt injection, e confira os principais riscos desse vetor de ataque.

ÍndiceO que é prompt injection?Como funcionam os ataques de prompt injection?Quais são os tipos de prompt injection?Quais ferramentas são vulneráveis ao prompt injection?Quais são os riscos do prompt injection?Um ataque de prompt injection pode roubar meus dados?Tem como identificar um ataque de prompt injection?É possível se proteger de um ataque de prompt injection?Qual é a diferença entre prompt injection e jailbreak?

O que é prompt injection?

Prompt injection ou injeção de prompt é uma ameaça que explora vulnerabilidades de Modelos de Linguagem em Grande Escala (LLMs), de modo a induzir com que ferramentas de inteligência artificial generativa ignorem as instruções originais e executem comandos não autorizados pelo usuário.

Como funcionam os ataques de prompt injection?

Para entender o funcionamento de um ataque de prompt injection, é necessário compreender uma vulnerabilidade em IA generativa que é explorada no processo.

Basicamente, Modelos de Linguagem em Grande Escala são treinados com conjuntos de instruções para padronização de comportamento diante das entradas dos usuários. O grande problema é que IAs generativas não conseguem distinguir a autoria de regras de comportamento, prompts de usuários e conteúdos externos, já que todos têm o formato de texto em linguagem natural.

Sabendo disso, invasores e hackers encontram meios (diretos ou indiretos) para enviar instruções maliciosas às ferramentas de IA. As instruções geralmente são confundidas com regras de comportamento legítimas, fazendo com que as LLMs sigam as ordens e executem os comandos.

Abaixo, segue uma demonstração de ataque prompt injection em um navegador com IA, divulgada pela equipe de cibersegurança da Brave.

Esses comandos maliciosos geralmente envolvem vazamentos de dados sensíveis ou ações de nível de administrador. E como resultado dos ataques de injeção de prompt, os cibercriminosos podem coletar dados das vítimas e alterar o comportamento da IA generativa, sem que as LLMs entendam as instrução como ilegítimas.

Quais são os tipos de prompt injection?

Os ataques de injeção de prompt são classificados de acordo com os métodos utilizados no processo. Os principais tipos dessa ameaça abrangem:

Injeção direta: nesse tipo de ataque, o cibercriminoso insere um prompt malicioso no campo de entrada de uma ferramenta de IA; se a ação for bem-sucedida, o prompt será entendido como instrução do sistema, e a aplicação ficará comprometida; a ferramenta de IA generativa então vai executar comandos ou gerar respostas específicas com base nas regras impostas pelo prompt malicioso.

Injeção indireta: no ataque de injeção de prompt indireto, hackers ocultam instruções maliciosas em páginas da web, fotos, PDFs e outros documentos; quando um usuário pede para a IA generativa ler esses documentos, essas instruções maliciosas são interpretadas e comandos não consentidos são executados.

Injeção de código: nesse ataque, o cibercriminoso utiliza e manipula as próprias LLMs para que elas gerem e executem códigos maliciosos; o hacker então pode coletar dados acessíveis pela IA, executar comandos à distância ou explorar níveis mais restritos da ferramenta, dependendo dos casos.

Injeção recursiva: exploração de sistemas que usam múltiplos LLMs ou vários processamentos em sequência; depois que o prompt malicioso é injetado na primeira camada, as saídas apresentam novas instruções ou comandos maliciosos que enganam os LLMs ou processamentos subsequentes.

Quais ferramentas são vulneráveis ao prompt injection?

Qualquer aplicação baseada em Modelos de Linguagem em Grande Escala (LLMs) são vulneráveis ao prompt injection, uma vez que a ameaça explora brechas no entendimento de linguagem natural por essas ferramentas.

Logo, as aplicações vulneráveis ao prompt injection envolvem ferramentas de inteligência artificial generativa (como ChatGPT e Google Gemini), navegadores com IA embarcada (a exemplo do ChatGPT Atlas, Comet e Fellou), e qualquer outro software ou API com integração a IAs generativas.

Quais são os riscos do prompt injection?

A entidade Open Web Application Security Project (OWASP) classifica o prompt injection como a principal vulnerabilidade de LLMs. E dentre os riscos desse tipo de ataque, estão:

Manipulação do modelo de IA: injeções de prompt são capazes de modificar as regras de desenvolvedor das ferramentas de IA, de modo a alterar o comportamento das aplicações diante de situações específicas.

Roubo de dados: ao interpretar o código malicioso, a ferramenta de IA pode revelar credenciais, senhas bancárias, e outros dados sensíveis.

Execução de códigos à distância: cibercriminosos podem abusar da injeção de código para a execução de comandos e programas maliciosos.

Propagação de ameaças: em determinadas situações, ataques de prompt injection podem executar comandos não consentidos para disseminar arquivos infectados com malware ou outras ameaças.

Vazamento de prompts: dependendo da injeção de prompt utilizada, a LLM pode expor prompts do sistema e facilitar a criação de novos códigos maliciosos com base nas informações obtidas.

Cibercriminosos podem abusar de vários métodos maliciosos a partir de um ataque prompt injection (Imagem: Towfiqu barbhuiya/Unsplash)

Um ataque de prompt injection pode roubar meus dados?

Sim. Em um ataque prompt injection, um código malicioso pode ser interpretado como um simples prompt em IA generativa seu, e fazer com que a LLM envie seus dados sensíveis para um diretório do cibercriminoso.

Nessas situações, é comum que o código malicioso contenha regras para ignorar quaisquer instruções anteriores, e enviar senhas salvas, credenciais e outras informações para um e-mail, por exemplo.

Tem como identificar um ataque de prompt injection?

Sim. Respostas desconexas, ações inesperadas (e não consentidas) e comportamentos estranhos de LLMs são indícios de que você foi ou está está sendo alvo de um ataque de prompt injection. Se os comportamentos inadequados persistirem por um tempo e mesmo após o reinício das aplicações, as chances são ainda mais evidentes.

Nessas situações, vale interromper o uso da LLM e contatar técnicos ou especialistas de segurança em modelos de linguagem. Vale também entrar em contato com os desenvolvedores da aplicação para reportar o caso e solicitar ajuda nas investigações e possíveis resoluções do caso.

É possível se proteger de um ataque de prompt injection?

Sim. Para reforçar a proteção contra prompt injection, é recomendável que você desconfie de links e documentos desconhecidos, e evite de solicitar que a aplicação de IA leia esses tipos de arquivos. Lembre-se que os comandos maliciosos podem estar ocultos, e você não necessariamente conseguirá vê-los.

Vale também evitar o envio de textos com formatações estranhas ou prompts externos dos quais você não é capaz de analisar às LLMs. Isso sem contar a recomendação de não compartilhar dados sensíveis (como número de documento, senhas, dados bancários, entre outras informações) com a aplicação de IA.

É importante ter em mente que essas recomendações podem ajudar na proteção contra ataques prompt injection, mas as principais ações devem partir das próprias desenvolvedoras. São as donas das LLMs que devem encontrar maneiras de reforçar a segurança de suas aplicações e assegurar seus usuários contra injeção de prompt ou quaisquer outras ameaças.

Qual é a diferença entre prompt injection e jailbreak?

O prompt injection é uma ameaça em que instruções maliciosas interpretadas por LLMs se disfarçam de prompts de entrada legítimos ou regras de desenvolvedor. Com isso, LLMs executam comandos não autorizados, achando que as instruções foram orientadas pelos usuários ou pelos desenvolvedores do sistema.

Já o jailbreak é um tipo de ataque que tenta persuadir a LLM a reduzir ou desativar suas camadas de segurança cibernética. Nesses casos, cibercriminosos induzem a aplicação de IA generativa a atuar sem regras ou sistemas de proteção, o que facilita a execução de diferentes tipos de ataques.
Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas
Fonte: Tecnoblog

IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo

Estudo afirma que inteligência artificial apresenta notícias com erros (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Estudo da BBC em parceria com a União Europeia de Radiodifusão revela que IAs ainda falham gravemente ao resumir notícias.

O Gemini, do Google, foi o sistema que registrou mais erros e imprecisões nas respostas (76%).

Ainda assim, a confiança do público em resumos de IA cresceu, segundo a pesquisa.

Um levantamento conduzido pela BBC em parceria com a União Europeia de Radiodifusão (EBU) revelou que os principais assistentes de inteligência artificial do mercado ainda estão longe de oferecer resumos jornalísticos confiáveis.

O estudo analisou mais de 3 mil respostas geradas por ferramentas como ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity, concluindo que 45% das respostas continham erros significativos — desde informações incorretas até fontes problemáticas.

Segundo o estudo, 31% das respostas apresentaram sérios problemas de atribuição de fontes, enquanto 20% incluíam imprecisões graves, como dados desatualizados ou fatos inventados. Quando considerados deslizes menores, o índice de respostas com algum tipo de erro chegou a 81%. O Gemini, do Google, foi o pior avaliado, com falhas identificadas em 76% das respostas, o dobro da taxa registrada entre os concorrentes.

Por que as IAs falham tanto ao lidar com notícias?

Gráfico mostra percentual de respostas de IA com problemas de fonte ou verificação (imagem: reprodução)

Os pesquisadores apontaram que a principal causa dos erros está na forma como esses sistemas lidam com informações recentes e fontes externas. O Gemini, por exemplo, apresentou imprecisões em 72% das respostas, número três vezes maior que o do ChatGPT (24%).

Alguns casos curiosos foram citados: uma resposta do ChatGPT chegou a afirmar que o papa Francisco ainda estava vivo semanas após sua morte, enquanto o Gemini garantiu que nenhum astronauta da NASA jamais ficou preso no espaço — algo que já aconteceu.

Apesar dos erros, uso de IA para consumo de notícias aumentou (ilustração: Vitor Pádua/Tecnoblog)

O estudo é considerado o maior do tipo já realizado, com a participação de 22 veículos públicos de comunicação de 18 países. Ele surge pouco depois de a OpenAI admitir que seus modelos tendem a responder com confiança mesmo quando não têm certeza, comportamento que incentiva o que especialistas chamam de alucinações — invenções de fatos ou detalhes falsos.

Apesar das falhas, o uso de chatbots para consumir notícias cresceu. Uma pesquisa paralela do instituto Ipsos, também em parceria com a BBC, mostrou que 42% das pessoas no Reino Unido, onde o estudo foi conduzido, confiam em resumos gerados por IA. Entre os jovens abaixo de 35 anos, o número chega a 50%. No entanto, 84% disseram que perderiam a confiança se identificassem apenas um erro factual.
IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo
Fonte: Tecnoblog

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Meta AI é capaz de fazer edições avançadas, promete empresa (imagem: divulgação)

Resumo

O Instagram lançou o Restyle, um editor de fotos com IA que usa a Meta AI para modificar imagens em stories através de prompts de texto.
O Restyle permite remover detalhes, adicionar elementos e aplicar efeitos, com opções predefinidas ou instruções personalizadas.
A função está sendo liberada gradualmente e também pode ser usada em vídeos, mas apenas com presets da Meta AI.

O Instagram anunciou, nesta quinta-feira (23/10), o lançamento da função Restyle. A ferramenta usa a Meta AI para editar stories de acordo com o que você escreve em um prompt de texto, lembrando bastante o Nano Banana, presente no Gemini, do Google.

“Se você quiser remover um detalhe indesejado, colocar um elemento divertido, mudar a vibe usando um efeito diferente ou começar uma trend com seus amigos, agora você pode fazer isso de modo simples”, diz o comunicado da rede social. “Use o Restyle nas suas fotos e vídeos nos stories do Instagram para fazer edições com a Meta AI, sejam elas grandes ou pequenas.”

Como é costume nos lançamentos da Meta, o Restyle está sendo liberado gradualmente e pode demorar algumas semanas para chegar até você.

Como usar o Restyle?

Comece a criar um story e escolha uma foto da sua galeria. Depois, toque no ícone de pincel no topo da tela. O Restyle oferece três opções predefinidas para adicionar, remover ou mudar elementos. Basta escolher uma delas e digitar o que você deseja. Também é possível ir diretamente para o prompt, sem escolher entre essas alternativas.

Ver essa foto no Instagram Uma publicação compartilhada por Meta AI (@meta.ai)

Com isso, você pode tirar pessoas do fundo das fotos, mudar a cor do cabelo das pessoas, colocar objetos divertidos como coroa e balões, trocar o fundo por um pôr do sol e muito mais.

Segundo a empresa, para atingir o resultado desejado, é recomendável que você escreva instruções detalhadas: diga qual pessoa deve receber os efeitos, explique como você quer a iluminação, aponte em que área da imagem as edições devem ser feitas, descreva o estilo desejado e especifique um local para servir de cenário, por exemplo.

A Meta acrescentou ainda alguns efeitos prontos, que podem ser aplicados sem depender de instruções adicionais, como transformar o estilo da imagem em anime, aquarela ou 8-bits, entre outros. O Restyle também está disponível para vídeos, mas nesse caso, só é possível usar os presets oferecidos pela Meta AI.

Com informações da Meta e do Engadget

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA
Fonte: Tecnoblog

Reddit processa Perplexity por roubo de dados para IA

Reddit processa Perplexity por roubo de dados para IA

Reddit acusa Perplexity de roubo de dados (imagem: Brett Jordan/Unsplash)

Resumo

Reddit processou a Perplexity e outras três empresas por suposto roubo de dados e violação de direitos autorais e termos de serviço.
Um post “fantasma” criado pelo Reddit apareceu na Perplexity, servindo como prova de uso indevido de conteúdo.
A empresa pede indenização e proibição permanente do uso de seus dados pelas rés.

O Reddit abriu um processo judicial contra a conhecida startup de inteligência artificial Perplexity por suposto roubo de dados em escala industrial. Além dela, a ação também mira a SerpApi, a Oxylabs e a AWMProxy – as duas últimas são da Lituânia e da Rússia.

Segundo a acusação, detalhada pelo The New Tork Times, essas três empresas operaram coletando ilegalmente dados do Reddit não diretamente, mas ao extrair o conteúdo dos resultados de busca do Google. Esse material seria revendido para alimentar modelos de IA de empresas como a Perplexity.

A alegação é de que as empresas violaram as leis de direitos autorais e os termos de serviço da plataforma ao praticar a raspagem de dados (data scraping) sem autorização.

Reddit criou armadilha

Para provar a violação, o Reddit preparou um post de teste “fantasma”, visível apenas para os robôs de indexação do Google e inacessível de qualquer outra forma. Em poucas horas, o conteúdo desse post teria aparecido nos resultados de busca da Perplexity.

Segundo a ação, essa é a prova de que a startup de IA está usando o Google como um atalho para acessar e exibir o conteúdo do Reddit sem permissão.

O processo alega ainda que o Reddit já havia enviado uma notificação formal para a Perplexity no passado, exigindo que a startup parasse a raspagem dos dados. A companhia teria concordado, mas o Reddit afirma que as citações ao seu conteúdo na ferramenta de IA “saltaram quarenta vezes” desde então.

Em comunicado enviado à Bloomberg, o diretor jurídico do Reddit, Ben Lee, afirma que as empresas de IA “estão presas a uma corrida armamentista por conteúdo humano de qualidade”, e que essa pressão “alimentou uma economia de ‘lavagem de dados’ em escala industrial.”

Vale lembrar que essa não é a primeira vez que a Perplexity é envolvida em polêmica sobre uso indevido de dados. Em agosto desse ano, a Cloudflare acusou a companhia de ignorar instruções do arquivo robots.txt e extrair ilegalmente o conteúdo de sites. Em 2024, a Amazon teve que intervir após acusações de que a startup estaria usando os servidores dela para plagiar matérias de veículos como Wired e Forbes.

Reddit quer indenização

Processo pede por indenização e proibição permanente de uso dos dados (imagem: reprodução/Shutterstock)

O Reddit, que já possui acordos de licenciamento milionários com o Google e a OpenAI, pede à Justiça uma indenização financeira e uma ordem judicial que proíba permanentemente as empresas de usarem seus dados.

Procurada pela imprensa, a Perplexity afirmou que ainda não havia recebido o processo, mas que “sempre lutará vigorosamente pelos direitos dos usuários de acessar livremente o conhecimento público”. O Reddit também processou a Anthropic, outra gigante da IA, em junho por motivos semelhantes.

O Google, que não está sendo processado, afirmou ao NYT que respeita as diretrizes de sites, mas que, “infelizmente, há um monte de scrapers furtivos que não o fazem”. As outras duas empresas processadas, SerpApi e Oxylabs, não responderam aos pedidos de comentário da imprensa norte-americana, enquanto a AWMProxy, sediada na Rússia, não foi localizada.

Reddit processa Perplexity por roubo de dados para IA

Reddit processa Perplexity por roubo de dados para IA
Fonte: Tecnoblog

Meta demite 600 funcionários de divisão de inteligência artificial

Meta demite 600 funcionários de divisão de inteligência artificial

Meta quer “mais agilidade” após CEO Mark Zuckerberg expressar preocupação (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta demitiu 600 funcionários da divisão de inteligência artificial em reestruturação para reduzir burocracia e aumentar eficiência.
A mudança foi motivada por preocupações de Mark Zuckerberg com o ritmo dos avanços em IA.
Apesar das demissões, a Meta segue contratando para o TBD Lab, nova divisão do laboratório, e tenta atrair mais talentos da OpenAI e do Google.

A Meta demitiu pelo menos 600 funcionários do seu recém-formado laboratório de “superinteligência artificial”. A medida faz parte de uma reestruturação interna que, segundo um memorando do diretor de IA da empresa, Alexandr Wang, visa reduzir a burocracia e aumentar a eficiência da divisão.

O anúncio foi feito internamente por Wang em comunicado aos funcionários. As informações são do portal Axios, mas foram confirmadas pela Meta ao TechCrunch. A reorganização busca criar uma operação “mais ágil” no setor.

O laboratório foi criado em junho deste ano para desenvolver uma inteligência artificial geral (AGI) e avançar na briga pelo mercado de IA, hoje dominado por outras empresas. Desde então, a Meta gastou bilhões de dólares em contratações e investimentos.

Meta está mudando sua estratégia de IA?

No memorando interno, Wang justificou a reestruturação como um movimento para otimizar processos e acelerar a tomada de decisões. “Ao reduzir o tamanho da nossa equipe, menos conversas serão necessárias para tomar uma decisão, e cada pessoa terá mais responsabilidade e mais escopo e impacto”, escreveu o executivo.

Os cortes, que afetam uma fração das milhares de funções dentro da divisão de superinteligência, atingem especificamente as unidades de pesquisa FAIR AI, equipes de IA relacionadas a produtos e a área de infraestrutura de IA.

Diretor de IA, Alexandr Wang, justifica cortes como forma de reduzir burocracia (imagem: reprodução/Dlabrot)

A Meta declarou ainda que incentiva ativamente os funcionários impactados a se candidatarem a outras vagas disponíveis internamente. “Este é um grupo talentoso de indivíduos, e precisamos de suas habilidades em outras áreas da empresa”, afirma Wang no comunicado.

A decisão está alinhada com a filosofia recente da Meta, definida pelo CEO Mark Zuckerberg como o “ano da eficiência”. Esta diretriz, implementada no último ano, resultou em rodadas anteriores de demissões em massa e uma reavaliação geral dos projetos e estrutura de custos da empresa. Na época, Zuckerberg declarou a preferência por uma organização “mais enxuta”.

A reestruturação atual, no entanto, é apresentada mais como um realinhamento estratégico. Fontes internas, conforme relatado pela Axios, indicam que Zuckerberg expressou preocupação há alguns meses sobre o ritmo dos avanços da divisão de IA. A avaliação era que os esforços existentes não estavam gerando as “melhorias de desempenho” ou os “avanços necessários” na velocidade desejada.

Essa percepção teria sido o motivo para a reorganização, que incluiu não apenas os cortes anunciados, mas também o investimento anterior de US$ 15 bilhões de dólares (cerca de R$ 81 bilhões) na Scale AI e a própria contratação de Alexandr Wang para liderar a divisão. O objetivo principal seria, portanto, focar recursos em áreas consideradas de maior potencial e remover gargalos operacionais.

Apesar dos cortes, Wang expressou confiança no futuro da divisão em seu comunicado. “Estou realmente animado com os modelos que estamos treinando, nossos planos de computação e os produtos que estamos construindo, e estou confiante em nosso caminho para construir a superinteligência”, concluiu.

Cortes ocorrem após contratações milionárias

Meta segue contratando talentos de rivais (ilustração: Vitor Pádua/Tecnoblog)

Embora esteja dispensando centenas de profissionais de IA, a Meta investiu agressivamente na contratação de talentos. A divisão recém-formada, conhecida internamente como TBD Lab, não foi afetada pelos cortes e, segundo fontes, continua recrutando ativamente no mercado.

Este novo laboratório tem atraído profissionais de concorrentes diretos. Recentemente, a Meta contratou Ananya Kumar, uma cientista pesquisadora vinda da OpenAI. Antes disso, Andrew Tulloch, cofundador da Thinking Machines, também se juntou à empresa para integrar o TBD Lab.

Estas contratações se somam a um esforço mais amplo da Meta durante o último ano para atrair especialistas em IA. A empresa conseguiu recrutar mais de 50 pesquisadores de concorrentes como Google e OpenAI, oferecendo pacotes salariais que, em alguns casos, atingiram valores multimilionários. Alguns, no entanto, abandonaram a Meta.
Meta demite 600 funcionários de divisão de inteligência artificial

Meta demite 600 funcionários de divisão de inteligência artificial
Fonte: Tecnoblog