Category: Inteligência Artificial (IA)

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection explora vulnerabilidades de IAs generativas baseadas em LLMs (Imagem: Aerps.com/Unsplash)

Prompt injection ou injeção de prompt é uma ameaça que mira Modelos de Linguagem em Grande Escala (LLMs), de modo a enganar essas aplicação para a execução de comandos não autorizados pelas vítimas.

Modelos de inteligência artificial generativa têm dificuldade de diferenciar regras de desenvolvedores e prompts de entrada de usuários. Cibercriminosos então exploram essa brecha ao enviar códigos maliciosos para que LLMs mudem o comportamento e executem ações não autorizadas.

Qualquer aplicação baseada em LLM é vulnerável a um ataque de prompt injection. Nesse contexto, IAs generativas (como ChatGPT e Google Gemini) ou mesmo navegadores de IA generativa (a exemplo do ChatGPT Atlas ou Comet) são os principais alvos dessa ameaça.

A seguir, entenda melhor o que é e como funciona o prompt injection, e confira os principais riscos desse vetor de ataque.

ÍndiceO que é prompt injection?Como funcionam os ataques de prompt injection?Quais são os tipos de prompt injection?Quais ferramentas são vulneráveis ao prompt injection?Quais são os riscos do prompt injection?Um ataque de prompt injection pode roubar meus dados?Tem como identificar um ataque de prompt injection?É possível se proteger de um ataque de prompt injection?Qual é a diferença entre prompt injection e jailbreak?

O que é prompt injection?

Prompt injection ou injeção de prompt é uma ameaça que explora vulnerabilidades de Modelos de Linguagem em Grande Escala (LLMs), de modo a induzir com que ferramentas de inteligência artificial generativa ignorem as instruções originais e executem comandos não autorizados pelo usuário.

Como funcionam os ataques de prompt injection?

Para entender o funcionamento de um ataque de prompt injection, é necessário compreender uma vulnerabilidade em IA generativa que é explorada no processo.

Basicamente, Modelos de Linguagem em Grande Escala são treinados com conjuntos de instruções para padronização de comportamento diante das entradas dos usuários. O grande problema é que IAs generativas não conseguem distinguir a autoria de regras de comportamento, prompts de usuários e conteúdos externos, já que todos têm o formato de texto em linguagem natural.

Sabendo disso, invasores e hackers encontram meios (diretos ou indiretos) para enviar instruções maliciosas às ferramentas de IA. As instruções geralmente são confundidas com regras de comportamento legítimas, fazendo com que as LLMs sigam as ordens e executem os comandos.

Abaixo, segue uma demonstração de ataque prompt injection em um navegador com IA, divulgada pela equipe de cibersegurança da Brave.

Esses comandos maliciosos geralmente envolvem vazamentos de dados sensíveis ou ações de nível de administrador. E como resultado dos ataques de injeção de prompt, os cibercriminosos podem coletar dados das vítimas e alterar o comportamento da IA generativa, sem que as LLMs entendam as instrução como ilegítimas.

Quais são os tipos de prompt injection?

Os ataques de injeção de prompt são classificados de acordo com os métodos utilizados no processo. Os principais tipos dessa ameaça abrangem:

Injeção direta: nesse tipo de ataque, o cibercriminoso insere um prompt malicioso no campo de entrada de uma ferramenta de IA; se a ação for bem-sucedida, o prompt será entendido como instrução do sistema, e a aplicação ficará comprometida; a ferramenta de IA generativa então vai executar comandos ou gerar respostas específicas com base nas regras impostas pelo prompt malicioso.

Injeção indireta: no ataque de injeção de prompt indireto, hackers ocultam instruções maliciosas em páginas da web, fotos, PDFs e outros documentos; quando um usuário pede para a IA generativa ler esses documentos, essas instruções maliciosas são interpretadas e comandos não consentidos são executados.

Injeção de código: nesse ataque, o cibercriminoso utiliza e manipula as próprias LLMs para que elas gerem e executem códigos maliciosos; o hacker então pode coletar dados acessíveis pela IA, executar comandos à distância ou explorar níveis mais restritos da ferramenta, dependendo dos casos.

Injeção recursiva: exploração de sistemas que usam múltiplos LLMs ou vários processamentos em sequência; depois que o prompt malicioso é injetado na primeira camada, as saídas apresentam novas instruções ou comandos maliciosos que enganam os LLMs ou processamentos subsequentes.

Quais ferramentas são vulneráveis ao prompt injection?

Qualquer aplicação baseada em Modelos de Linguagem em Grande Escala (LLMs) são vulneráveis ao prompt injection, uma vez que a ameaça explora brechas no entendimento de linguagem natural por essas ferramentas.

Logo, as aplicações vulneráveis ao prompt injection envolvem ferramentas de inteligência artificial generativa (como ChatGPT e Google Gemini), navegadores com IA embarcada (a exemplo do ChatGPT Atlas, Comet e Fellou), e qualquer outro software ou API com integração a IAs generativas.

Quais são os riscos do prompt injection?

A entidade Open Web Application Security Project (OWASP) classifica o prompt injection como a principal vulnerabilidade de LLMs. E dentre os riscos desse tipo de ataque, estão:

Manipulação do modelo de IA: injeções de prompt são capazes de modificar as regras de desenvolvedor das ferramentas de IA, de modo a alterar o comportamento das aplicações diante de situações específicas.

Roubo de dados: ao interpretar o código malicioso, a ferramenta de IA pode revelar credenciais, senhas bancárias, e outros dados sensíveis.

Execução de códigos à distância: cibercriminosos podem abusar da injeção de código para a execução de comandos e programas maliciosos.

Propagação de ameaças: em determinadas situações, ataques de prompt injection podem executar comandos não consentidos para disseminar arquivos infectados com malware ou outras ameaças.

Vazamento de prompts: dependendo da injeção de prompt utilizada, a LLM pode expor prompts do sistema e facilitar a criação de novos códigos maliciosos com base nas informações obtidas.

Cibercriminosos podem abusar de vários métodos maliciosos a partir de um ataque prompt injection (Imagem: Towfiqu barbhuiya/Unsplash)

Um ataque de prompt injection pode roubar meus dados?

Sim. Em um ataque prompt injection, um código malicioso pode ser interpretado como um simples prompt em IA generativa seu, e fazer com que a LLM envie seus dados sensíveis para um diretório do cibercriminoso.

Nessas situações, é comum que o código malicioso contenha regras para ignorar quaisquer instruções anteriores, e enviar senhas salvas, credenciais e outras informações para um e-mail, por exemplo.

Tem como identificar um ataque de prompt injection?

Sim. Respostas desconexas, ações inesperadas (e não consentidas) e comportamentos estranhos de LLMs são indícios de que você foi ou está está sendo alvo de um ataque de prompt injection. Se os comportamentos inadequados persistirem por um tempo e mesmo após o reinício das aplicações, as chances são ainda mais evidentes.

Nessas situações, vale interromper o uso da LLM e contatar técnicos ou especialistas de segurança em modelos de linguagem. Vale também entrar em contato com os desenvolvedores da aplicação para reportar o caso e solicitar ajuda nas investigações e possíveis resoluções do caso.

É possível se proteger de um ataque de prompt injection?

Sim. Para reforçar a proteção contra prompt injection, é recomendável que você desconfie de links e documentos desconhecidos, e evite de solicitar que a aplicação de IA leia esses tipos de arquivos. Lembre-se que os comandos maliciosos podem estar ocultos, e você não necessariamente conseguirá vê-los.

Vale também evitar o envio de textos com formatações estranhas ou prompts externos dos quais você não é capaz de analisar às LLMs. Isso sem contar a recomendação de não compartilhar dados sensíveis (como número de documento, senhas, dados bancários, entre outras informações) com a aplicação de IA.

É importante ter em mente que essas recomendações podem ajudar na proteção contra ataques prompt injection, mas as principais ações devem partir das próprias desenvolvedoras. São as donas das LLMs que devem encontrar maneiras de reforçar a segurança de suas aplicações e assegurar seus usuários contra injeção de prompt ou quaisquer outras ameaças.

Qual é a diferença entre prompt injection e jailbreak?

O prompt injection é uma ameaça em que instruções maliciosas interpretadas por LLMs se disfarçam de prompts de entrada legítimos ou regras de desenvolvedor. Com isso, LLMs executam comandos não autorizados, achando que as instruções foram orientadas pelos usuários ou pelos desenvolvedores do sistema.

Já o jailbreak é um tipo de ataque que tenta persuadir a LLM a reduzir ou desativar suas camadas de segurança cibernética. Nesses casos, cibercriminosos induzem a aplicação de IA generativa a atuar sem regras ou sistemas de proteção, o que facilita a execução de diferentes tipos de ataques.
Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas
Fonte: Tecnoblog

IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo

Estudo afirma que inteligência artificial apresenta notícias com erros (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Estudo da BBC em parceria com a União Europeia de Radiodifusão revela que IAs ainda falham gravemente ao resumir notícias.

O Gemini, do Google, foi o sistema que registrou mais erros e imprecisões nas respostas (76%).

Ainda assim, a confiança do público em resumos de IA cresceu, segundo a pesquisa.

Um levantamento conduzido pela BBC em parceria com a União Europeia de Radiodifusão (EBU) revelou que os principais assistentes de inteligência artificial do mercado ainda estão longe de oferecer resumos jornalísticos confiáveis.

O estudo analisou mais de 3 mil respostas geradas por ferramentas como ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity, concluindo que 45% das respostas continham erros significativos — desde informações incorretas até fontes problemáticas.

Segundo o estudo, 31% das respostas apresentaram sérios problemas de atribuição de fontes, enquanto 20% incluíam imprecisões graves, como dados desatualizados ou fatos inventados. Quando considerados deslizes menores, o índice de respostas com algum tipo de erro chegou a 81%. O Gemini, do Google, foi o pior avaliado, com falhas identificadas em 76% das respostas, o dobro da taxa registrada entre os concorrentes.

Por que as IAs falham tanto ao lidar com notícias?

Gráfico mostra percentual de respostas de IA com problemas de fonte ou verificação (imagem: reprodução)

Os pesquisadores apontaram que a principal causa dos erros está na forma como esses sistemas lidam com informações recentes e fontes externas. O Gemini, por exemplo, apresentou imprecisões em 72% das respostas, número três vezes maior que o do ChatGPT (24%).

Alguns casos curiosos foram citados: uma resposta do ChatGPT chegou a afirmar que o papa Francisco ainda estava vivo semanas após sua morte, enquanto o Gemini garantiu que nenhum astronauta da NASA jamais ficou preso no espaço — algo que já aconteceu.

Apesar dos erros, uso de IA para consumo de notícias aumentou (ilustração: Vitor Pádua/Tecnoblog)

O estudo é considerado o maior do tipo já realizado, com a participação de 22 veículos públicos de comunicação de 18 países. Ele surge pouco depois de a OpenAI admitir que seus modelos tendem a responder com confiança mesmo quando não têm certeza, comportamento que incentiva o que especialistas chamam de alucinações — invenções de fatos ou detalhes falsos.

Apesar das falhas, o uso de chatbots para consumir notícias cresceu. Uma pesquisa paralela do instituto Ipsos, também em parceria com a BBC, mostrou que 42% das pessoas no Reino Unido, onde o estudo foi conduzido, confiam em resumos gerados por IA. Entre os jovens abaixo de 35 anos, o número chega a 50%. No entanto, 84% disseram que perderiam a confiança se identificassem apenas um erro factual.
IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo
Fonte: Tecnoblog

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Meta AI é capaz de fazer edições avançadas, promete empresa (imagem: divulgação)

Resumo

O Instagram lançou o Restyle, um editor de fotos com IA que usa a Meta AI para modificar imagens em stories através de prompts de texto.
O Restyle permite remover detalhes, adicionar elementos e aplicar efeitos, com opções predefinidas ou instruções personalizadas.
A função está sendo liberada gradualmente e também pode ser usada em vídeos, mas apenas com presets da Meta AI.

O Instagram anunciou, nesta quinta-feira (23/10), o lançamento da função Restyle. A ferramenta usa a Meta AI para editar stories de acordo com o que você escreve em um prompt de texto, lembrando bastante o Nano Banana, presente no Gemini, do Google.

“Se você quiser remover um detalhe indesejado, colocar um elemento divertido, mudar a vibe usando um efeito diferente ou começar uma trend com seus amigos, agora você pode fazer isso de modo simples”, diz o comunicado da rede social. “Use o Restyle nas suas fotos e vídeos nos stories do Instagram para fazer edições com a Meta AI, sejam elas grandes ou pequenas.”

Como é costume nos lançamentos da Meta, o Restyle está sendo liberado gradualmente e pode demorar algumas semanas para chegar até você.

Como usar o Restyle?

Comece a criar um story e escolha uma foto da sua galeria. Depois, toque no ícone de pincel no topo da tela. O Restyle oferece três opções predefinidas para adicionar, remover ou mudar elementos. Basta escolher uma delas e digitar o que você deseja. Também é possível ir diretamente para o prompt, sem escolher entre essas alternativas.

Ver essa foto no Instagram Uma publicação compartilhada por Meta AI (@meta.ai)

Com isso, você pode tirar pessoas do fundo das fotos, mudar a cor do cabelo das pessoas, colocar objetos divertidos como coroa e balões, trocar o fundo por um pôr do sol e muito mais.

Segundo a empresa, para atingir o resultado desejado, é recomendável que você escreva instruções detalhadas: diga qual pessoa deve receber os efeitos, explique como você quer a iluminação, aponte em que área da imagem as edições devem ser feitas, descreva o estilo desejado e especifique um local para servir de cenário, por exemplo.

A Meta acrescentou ainda alguns efeitos prontos, que podem ser aplicados sem depender de instruções adicionais, como transformar o estilo da imagem em anime, aquarela ou 8-bits, entre outros. O Restyle também está disponível para vídeos, mas nesse caso, só é possível usar os presets oferecidos pela Meta AI.

Com informações da Meta e do Engadget

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA
Fonte: Tecnoblog

Reddit processa Perplexity por roubo de dados para IA

Reddit processa Perplexity por roubo de dados para IA

Reddit acusa Perplexity de roubo de dados (imagem: Brett Jordan/Unsplash)

Resumo

Reddit processou a Perplexity e outras três empresas por suposto roubo de dados e violação de direitos autorais e termos de serviço.
Um post “fantasma” criado pelo Reddit apareceu na Perplexity, servindo como prova de uso indevido de conteúdo.
A empresa pede indenização e proibição permanente do uso de seus dados pelas rés.

O Reddit abriu um processo judicial contra a conhecida startup de inteligência artificial Perplexity por suposto roubo de dados em escala industrial. Além dela, a ação também mira a SerpApi, a Oxylabs e a AWMProxy – as duas últimas são da Lituânia e da Rússia.

Segundo a acusação, detalhada pelo The New Tork Times, essas três empresas operaram coletando ilegalmente dados do Reddit não diretamente, mas ao extrair o conteúdo dos resultados de busca do Google. Esse material seria revendido para alimentar modelos de IA de empresas como a Perplexity.

A alegação é de que as empresas violaram as leis de direitos autorais e os termos de serviço da plataforma ao praticar a raspagem de dados (data scraping) sem autorização.

Reddit criou armadilha

Para provar a violação, o Reddit preparou um post de teste “fantasma”, visível apenas para os robôs de indexação do Google e inacessível de qualquer outra forma. Em poucas horas, o conteúdo desse post teria aparecido nos resultados de busca da Perplexity.

Segundo a ação, essa é a prova de que a startup de IA está usando o Google como um atalho para acessar e exibir o conteúdo do Reddit sem permissão.

O processo alega ainda que o Reddit já havia enviado uma notificação formal para a Perplexity no passado, exigindo que a startup parasse a raspagem dos dados. A companhia teria concordado, mas o Reddit afirma que as citações ao seu conteúdo na ferramenta de IA “saltaram quarenta vezes” desde então.

Em comunicado enviado à Bloomberg, o diretor jurídico do Reddit, Ben Lee, afirma que as empresas de IA “estão presas a uma corrida armamentista por conteúdo humano de qualidade”, e que essa pressão “alimentou uma economia de ‘lavagem de dados’ em escala industrial.”

Vale lembrar que essa não é a primeira vez que a Perplexity é envolvida em polêmica sobre uso indevido de dados. Em agosto desse ano, a Cloudflare acusou a companhia de ignorar instruções do arquivo robots.txt e extrair ilegalmente o conteúdo de sites. Em 2024, a Amazon teve que intervir após acusações de que a startup estaria usando os servidores dela para plagiar matérias de veículos como Wired e Forbes.

Reddit quer indenização

Processo pede por indenização e proibição permanente de uso dos dados (imagem: reprodução/Shutterstock)

O Reddit, que já possui acordos de licenciamento milionários com o Google e a OpenAI, pede à Justiça uma indenização financeira e uma ordem judicial que proíba permanentemente as empresas de usarem seus dados.

Procurada pela imprensa, a Perplexity afirmou que ainda não havia recebido o processo, mas que “sempre lutará vigorosamente pelos direitos dos usuários de acessar livremente o conhecimento público”. O Reddit também processou a Anthropic, outra gigante da IA, em junho por motivos semelhantes.

O Google, que não está sendo processado, afirmou ao NYT que respeita as diretrizes de sites, mas que, “infelizmente, há um monte de scrapers furtivos que não o fazem”. As outras duas empresas processadas, SerpApi e Oxylabs, não responderam aos pedidos de comentário da imprensa norte-americana, enquanto a AWMProxy, sediada na Rússia, não foi localizada.

Reddit processa Perplexity por roubo de dados para IA

Reddit processa Perplexity por roubo de dados para IA
Fonte: Tecnoblog

Meta demite 600 funcionários de divisão de inteligência artificial

Meta demite 600 funcionários de divisão de inteligência artificial

Meta quer “mais agilidade” após CEO Mark Zuckerberg expressar preocupação (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta demitiu 600 funcionários da divisão de inteligência artificial em reestruturação para reduzir burocracia e aumentar eficiência.
A mudança foi motivada por preocupações de Mark Zuckerberg com o ritmo dos avanços em IA.
Apesar das demissões, a Meta segue contratando para o TBD Lab, nova divisão do laboratório, e tenta atrair mais talentos da OpenAI e do Google.

A Meta demitiu pelo menos 600 funcionários do seu recém-formado laboratório de “superinteligência artificial”. A medida faz parte de uma reestruturação interna que, segundo um memorando do diretor de IA da empresa, Alexandr Wang, visa reduzir a burocracia e aumentar a eficiência da divisão.

O anúncio foi feito internamente por Wang em comunicado aos funcionários. As informações são do portal Axios, mas foram confirmadas pela Meta ao TechCrunch. A reorganização busca criar uma operação “mais ágil” no setor.

O laboratório foi criado em junho deste ano para desenvolver uma inteligência artificial geral (AGI) e avançar na briga pelo mercado de IA, hoje dominado por outras empresas. Desde então, a Meta gastou bilhões de dólares em contratações e investimentos.

Meta está mudando sua estratégia de IA?

No memorando interno, Wang justificou a reestruturação como um movimento para otimizar processos e acelerar a tomada de decisões. “Ao reduzir o tamanho da nossa equipe, menos conversas serão necessárias para tomar uma decisão, e cada pessoa terá mais responsabilidade e mais escopo e impacto”, escreveu o executivo.

Os cortes, que afetam uma fração das milhares de funções dentro da divisão de superinteligência, atingem especificamente as unidades de pesquisa FAIR AI, equipes de IA relacionadas a produtos e a área de infraestrutura de IA.

Diretor de IA, Alexandr Wang, justifica cortes como forma de reduzir burocracia (imagem: reprodução/Dlabrot)

A Meta declarou ainda que incentiva ativamente os funcionários impactados a se candidatarem a outras vagas disponíveis internamente. “Este é um grupo talentoso de indivíduos, e precisamos de suas habilidades em outras áreas da empresa”, afirma Wang no comunicado.

A decisão está alinhada com a filosofia recente da Meta, definida pelo CEO Mark Zuckerberg como o “ano da eficiência”. Esta diretriz, implementada no último ano, resultou em rodadas anteriores de demissões em massa e uma reavaliação geral dos projetos e estrutura de custos da empresa. Na época, Zuckerberg declarou a preferência por uma organização “mais enxuta”.

A reestruturação atual, no entanto, é apresentada mais como um realinhamento estratégico. Fontes internas, conforme relatado pela Axios, indicam que Zuckerberg expressou preocupação há alguns meses sobre o ritmo dos avanços da divisão de IA. A avaliação era que os esforços existentes não estavam gerando as “melhorias de desempenho” ou os “avanços necessários” na velocidade desejada.

Essa percepção teria sido o motivo para a reorganização, que incluiu não apenas os cortes anunciados, mas também o investimento anterior de US$ 15 bilhões de dólares (cerca de R$ 81 bilhões) na Scale AI e a própria contratação de Alexandr Wang para liderar a divisão. O objetivo principal seria, portanto, focar recursos em áreas consideradas de maior potencial e remover gargalos operacionais.

Apesar dos cortes, Wang expressou confiança no futuro da divisão em seu comunicado. “Estou realmente animado com os modelos que estamos treinando, nossos planos de computação e os produtos que estamos construindo, e estou confiante em nosso caminho para construir a superinteligência”, concluiu.

Cortes ocorrem após contratações milionárias

Meta segue contratando talentos de rivais (ilustração: Vitor Pádua/Tecnoblog)

Embora esteja dispensando centenas de profissionais de IA, a Meta investiu agressivamente na contratação de talentos. A divisão recém-formada, conhecida internamente como TBD Lab, não foi afetada pelos cortes e, segundo fontes, continua recrutando ativamente no mercado.

Este novo laboratório tem atraído profissionais de concorrentes diretos. Recentemente, a Meta contratou Ananya Kumar, uma cientista pesquisadora vinda da OpenAI. Antes disso, Andrew Tulloch, cofundador da Thinking Machines, também se juntou à empresa para integrar o TBD Lab.

Estas contratações se somam a um esforço mais amplo da Meta durante o último ano para atrair especialistas em IA. A empresa conseguiu recrutar mais de 50 pesquisadores de concorrentes como Google e OpenAI, oferecendo pacotes salariais que, em alguns casos, atingiram valores multimilionários. Alguns, no entanto, abandonaram a Meta.
Meta demite 600 funcionários de divisão de inteligência artificial

Meta demite 600 funcionários de divisão de inteligência artificial
Fonte: Tecnoblog

ChatGPT Atlas levanta alertas sobre segurança em navegadores com IA

ChatGPT Atlas levanta alertas sobre segurança em navegadores com IA

ChatGPT Atlas é o novo navegador da OpenAI (imagem: divulgação)

Resumo

O lançamento do ChatGPT Atlas expôs vulnerabilidades em navegadores com IA, incluindo Comet e Fellou, segundo relatório da Brave.
As falhas permitem que sites executem comandos ocultos por meio de imagens ou textos invisíveis, comprometendo dados e contas.
A OpenAI adotou o framework Guardrails para mitigar riscos, mas especialistas alertam que a segurança ainda é insuficiente diante do avanço da automação de agentes.

O lançamento do ChatGPT Atlas, novo navegador da OpenAI voltado para automação de tarefas, trouxe à tona uma série de preocupações sobre segurança em navegadores com inteligência artificial. Poucos dias após a estreia da ferramenta para macOS, pesquisadores da Brave Software — empresa conhecida pelo navegador voltado à privacidade — divulgaram um relatório revelando vulnerabilidades críticas nesse tipo de tecnologia.

As falhas afetam não apenas o ChatGPT Atlas, mas também outros navegadores com IA, como Comet (da Perplexity) e Fellou, demonstrando que o problema é sistêmico. Segundo os especialistas, uma brecha de segurança conhecida como prompt injection pode permitir que hackers executem comandos escondidos em páginas da web, comprometendo arquivos, senhas e contas bancárias.

Como funcionam as falhas encontradas?

A equipe do Brave identificou diferentes formas de ataque envolvendo o uso indevido de comandos embutidos em conteúdo visual ou textual. No caso do Comet, por exemplo, instruções quase invisíveis podem ser escondidas em imagens de sites. Quando o usuário faz uma captura de tela e solicita ao navegador que analise a imagem, o sistema pode interpretar o texto oculto como uma ordem legítima, permitindo que o invasor execute ações de forma remota.

“A vulnerabilidade de segurança que encontramos no navegador Comet […] não é um problema isolado. Injeções indiretas de prompts são um problema sistêmico enfrentado pelo Comet e outros navegadores com tecnologia de IA”, alertou a Brave em publicação no X.

The security vulnerability we found in Perplexity’s Comet browser this summer is not an isolated issue.Indirect prompt injections are a systemic problem facing Comet and other AI-powered browsers.Today we’re publishing details on more security vulnerabilities we uncovered.— Brave (@brave) October 21, 2025

Um cenário semelhante foi observado no Fellou, onde simplesmente acessar um site malicioso já bastava para que o navegador processasse instruções escondidas no conteúdo da página. Isso acontece porque alguns navegadores enviam automaticamente os textos das páginas para o modelo de linguagem da IA — sem distinguir o que vem do usuário do que vem do site.

Segundo os pesquisadores, esse tipo de vulnerabilidade quebra as bases tradicionais de segurança da web, como a política de mesma origem (same-origin policy). Isso porque os navegadores de IA operam com os mesmos privilégios autenticados do usuário — ou seja, um simples comando disfarçado pode ter acesso a contas bancárias, emails corporativos ou dados confidenciais.

“Se você estiver conectado a contas confidenciais, como seu banco ou seu provedor de e-mail, no navegador, simplesmente resumir uma publicação do Reddit pode fazer com que um invasor roube dinheiro ou seus dados privados”, explicaram os especialistas no relatório.

A Brave destacou que, enquanto melhorias estruturais não forem implementadas, o chamado agentic browsing – navegação assistida por agentes de IA —–continuará intrinsecamente inseguro. A recomendação é que navegadores mantenham essas funções isoladas da navegação comum, exigindo confirmação explícita do usuário antes de qualquer ação sensível.

O ChatGPT Atlas trouxe uma série de preocupações sobre segurança em navegadores com inteligência artificial (imagem: OpenAI)

Repercussão no mercado

A OpenAI, por sua vez, já havia implementado o framework de segurança Guardrails, lançado em 6 de outubro junto ao AgentKit, conjunto de ferramentas voltado a desenvolvedores de agentes de IA. A medida busca reduzir o risco de abusos, mas especialistas afirmam que ainda não há solução definitiva para as injeções de prompt.

A empresa de cibersegurança HiddenLayer reforçou a gravidade do problema: mesmo um chatbot aparentemente inofensivo pode ser induzido a abrir documentos privados, enviar emails ou acessar dados sensíveis.

Vale mencionar que, com o avanço de sistemas como o ChatGPT Atlas, Comet e Fellou, cresce a necessidade de protocolos de proteção mais robustos — especialmente diante da capacidade dessas ferramentas de agir de forma autônoma.

Até que medidas universais sejam implementadas, especialistas recomendam cautela: evitar o uso desses navegadores para atividades sensíveis e manter a autenticação em duas etapas ativada em todas as contas. Isso porque ao passo que pode facilitar tarefas diárias, a inteligência artificial amplia a superfície de ataque digital.
ChatGPT Atlas levanta alertas sobre segurança em navegadores com IA

ChatGPT Atlas levanta alertas sobre segurança em navegadores com IA
Fonte: Tecnoblog

Brasileiros aceitam IA nas finanças, mas somente como copiloto

Brasileiros aceitam IA nas finanças, mas somente como copiloto

Consumidores querem linguagem simples na IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

65% dos brasileiros aceitam IA no auxílio financeiro, mas a confiança em decisões autônomas é baixa.
O estudo também revela que os consumidores preferem IA que use linguagem simples e seja transparente sobre as regras e parâmetros de decisão.
Bancos estão integrando IA com resumos e chatbots para melhorar a experiência do cliente e aumentar a confiança.

Quase sete em cada dez consumidores brasileiros aceitam que a inteligência artificial auxilie na relação com o dinheiro. Por outro lado, entre os afeitos à IA, apenas 14% aceitariam que ela tomasse decisões por conta própria, de maneira autônoma. É o que mostra uma pesquisa encomendada pelo Itaú Unibanco e conduzida pela Consumoteca, divulgada hoje durante um evento em São Paulo.

O antropólogo Michel Alcoforado, responsável pelo estudo, avaliou que os brasileiros querem falar sobre dinheiro com “alguém” que não seja uma pessoa. Aqui, comento eu: os chatbots, com a capacidade de emular conversas humanas, caem como uma luva para gerar esse tipo de interação.

Diversos bancos têm realizado movimentos no sentido de integrar a inteligência artificial. Alguns já colocam resumos na tela inicial do app com os destaques do momento, personalizados para cada cliente. Outros oferecem chatbots com IA para ajudar nas variadas dúvidas.

Talvez o slide mais importante para quem curte tecnologia seja este abaixo, que mapeia exatamente o que faria o cliente confiar na IA, no contexto da relação com dinheiro:

Antropólogo Michel Alcoforado apresenta estudo sobre relação dos brasileiros com o dinheiro (foto: Thássius Veloso/Tecnoblog)

40%: linguagem simples, falar de uma forma que eu entenda

39%: conhecer as regras que regem a IA

38%: saber os parâmetros usados pela IA para tomada de decisão

36%: ver resultados de outras pessoas

36%: ter a garantia de que há uma equipe de especialistas por trás

30%: ver resultados compatíveis com a média do mercado

O levantamento da Consumoteca foi feito com 5 mil entrevistados no país inteiro, dividindo-se em cerca de metade entre 18 e 29 anos, e outra metade com pessoas com mais de 29 anos.

Thássius Veloso viajou para São Paulo a convite do Itaú
Brasileiros aceitam IA nas finanças, mas somente como copiloto

Brasileiros aceitam IA nas finanças, mas somente como copiloto
Fonte: Tecnoblog

65% das crianças e adolescentes brasileiros já utilizam IA, revela estudo

65% das crianças e adolescentes brasileiros já utilizam IA, revela estudo

24,5 milhões de crianças e adolescemtes acessam a internet no país (foto: Julia M. Cameron/Pexels)

Resumo

65% dos jovens brasileiros de 9 a 17 anos usaram IA generativa para atividades cotidianas; 92% dessa faixa etária são usuários de internet, totalizando 24,5 milhões.
O celular é o dispositivo mais utilizado, com 74% de uso diário; WhatsApp, YouTube, Instagram e TikTok são as plataformas mais acessadas.
45% das crianças e adolescentes tiveram contato com propaganda inadequada; 51% pediram produtos após exposição online.

Cerca de 65% dos jovens brasileiros com idade entre 9 e 17 anos utilizaram inteligência artificial generativa para realizar ao menos uma atividade do cotidiano. É o que mostra a pesquisa TIC Kids Online Brasil 2025, divulgada hoje pelo Cetic.br e NIC.br. O estudo mostra ainda que 92% da população de 9 a 17 anos é usuária de internet no país, o que representa 24,5 milhões de crianças e adolescentes.

As crianças e os adolescentes recorrem à IA para pesquisas escolares, busca de informações, criação de conteúdo ou conversas sobre problemas pessoais. No recorte por faixa etária, o uso desta nova tecnologia foi mais comum entre as pessoas de 15 a 17 anos do que as de 9 a 10 anos.

O celular é o principal dispositivo tecnológico da rotina das crianças e adolescentes: 74% fazem uso diário do dispositivo. Logo na sequência aparece a televisão, com 35%. O WhatsApp é a plataforma digital mais acessada, seguida de YouTube, Instagram e TikTok.

WhatsApp é o aplicativo mais utilizado pelas crianças (ilustração: Vitor Pádua/Tecnoblog)

Acessos nas escolas e publicidade digital

A pesquisa registrou queda no acesso à internet nas escolas, que passou de 51% em 2024 para 37% em 2025. Entre os que acessam a rede nas escolas, 12% reportaram uso várias vezes ao dia e 13%, uma vez por semana.

O estudo identificou exposição significativa a conteúdo publicitário. Os pais e responsáveis disseram que 45% das crianças e adolescentes de 9 a 17 anos tiveram contato com propaganda não apropriada para a idade e 51% pediram algum produto após o contato online. Esse público está consciente sobre o tema: 65% dos usuários de 11 a 17 anos concordaram que falar ou pesquisar sobre produtos na web aumenta a quantidade de propagandas recebidas.

Os formatos de vídeos mais vistos incluem pessoas abrindo embalagens de produtos (66%), ensinando como usar produtos (65%) e divulgando jogos de apostas (53%).

Fontes de informação

As principais fontes de informação dos responsáveis sobre uso seguro da internet são as próprias crianças ou adolescentes (50%), os familiares e amigos (48%), a televisão, rádio, jornais ou revistas (42%) e a escola (41%). Cerca de 37% buscam sites dedicados ao tema, 36% recorrem a vídeos ou tutoriais online e 31% consultam grupos de pais em redes sociais.

A pesquisa revelou ainda que 31% das crianças e adolescentes ajudam os responsáveis diariamente com atividades na internet.

A coleta de dados da pesquisa divulgada nesta quarta-feira foi realizada entre março e setembro de 2025, com entrevistas presenciais com 2.370 crianças e adolescentes, além de 2.370 pais ou responsáveis.
65% das crianças e adolescentes brasileiros já utilizam IA, revela estudo

65% das crianças e adolescentes brasileiros já utilizam IA, revela estudo
Fonte: Tecnoblog

Samsung anuncia o Galaxy XR para disputar com Apple Vision Pro

Samsung anuncia o Galaxy XR para disputar com Apple Vision Pro

Galaxy XR custa US$ 1.799 nos Estados Unidos (imagem: divulgação)

Resumo

A Samsung lançou o Galaxy XR, headset de realidade mista com Android XR, IA integrada e controle por voz, visão e gestos.
O dispositivo possui telas 4K por olho, chip Snapdragon XR2+ Gen 2, 16 GB de RAM e 256 GB de armazenamento, com bateria externa para aliviar o peso.
Compatível com apps Android e APIs como OpenXR e WebXR, o Galaxy XR estreia em 21 de outubro nos EUA e Coreia do Sul, sem previsão para o Brasil.

A Samsung apresentou na noite de hoje (manhã na Coreia do Sul) o Galaxy XR, primeiro headset desenvolvido com o sistema Android XR, criado em parceria com o Google e a Qualcomm. A ideia é colocá-lo na cabeça e desfrutar de elementos virtuais que se sobrepõem ao mundo real, tal qual acontece no Apple Vision Pro, anunciado há dois anos.

O dispositivo utiliza inteligência artificial multimodal e permite controle por voz, visão e gestos. O Galaxy XR estará disponível a partir de 21 de outubro nos Estados Unidos e na Coreia do Sul, por US$ 1.799, o que dá R$ 9.700 em conversão direta e sem impostos. A Samsung no Brasil informou ao Tecnoblog que não há previsão de lançamento na América Latina.

O equipamento aposta alto no assistente Gemini, que está integrado ao sistema e é capaz de compreender o ambiente ao redor do usuário. Ele também responde de forma conversacional.

Hardware recheado

Falemos primeiro do hardware. O Galaxy XR conta com sensores avançados, câmeras e outros componentes de alta tecnologia, como seis microfones e dois alto-falantes. Ele rastreia os movimentos da cabeça, das mãos e dos olhos.

A partir do momento em que o usuário veste o dispositivo, passa a contar com telas Micro-OLED com resolução 4K para cada olho. De acordo com a ficha técnica, o produto contempla campo de visão de 109 graus na horizontal e 100 graus na vertical. O dispositivo possui protetor de luz removível.

Galaxy XR visto de lado (imagem: divulgação)

Há ainda o processador Snapdragon XR2+ Gen 2, 16 GB de memória RAM e 256 GB de armazenamento. Já sua bateria tem promessa de até 2,5 horas de reprodução de vídeo.

O design ergonômico distribui a pressão pela testa e parte de trás da cabeça. Ele pesa 545 gramas. A bateria fica separada do headset, para reduzir o peso, com mais 302 gramas.

No software, destaque para o Gemini

Visualização de conteúdo em 3D no Galaxy XR (imagem: divulgação)

O dispositivo permite explorar mapas 3D no Google Maps com sugestões do Gemini, buscar conteúdo no YouTube por comandos naturais e usar o Circule para Pesquisar no modo Visão do Ambiente. Durante a demonstração ao vivo da Samsung, foi possível ver uma função que converte fotos e vídeos 2D em 3D.

Todos os aplicativos Android funcionam no Galaxy XR, e desenvolvedores que utilizam OpenXR, WebXR ou Unity podem adaptar seus softwares para a plataforma.

O dispositivo suporta Wi-Fi 7, Bluetooth 5.4 e reconhecimento de íris para desbloqueio. A correção de visão é possível por meio de lentes vendidas separadamente.

Samsung promete mais imersão com Galaxy XR (imagem: divulgação)

Uso empresarial

A Samsung anunciou parcerias empresariais para uso do Galaxy XR em treinamentos virtuais, incluindo um acordo com a Samsung Heavy Industries para construção naval — ou seja, dentro de casa.

A empresa também revelou que está trabalhando com a Warby Parker e a Gentle Monster, duas importantes marcas do universo fashion, no desenvolvimento de óculos com tecnologia de inteligência artificial integrada ao ecossistema Android XR. Sabe o Ray-Ban Meta? Pois então.
Samsung anuncia o Galaxy XR para disputar com Apple Vision Pro

Samsung anuncia o Galaxy XR para disputar com Apple Vision Pro
Fonte: Tecnoblog

Motorola Edge 60 Fusion (256 GB) em oferta histórica de 45% OFF na Amazon

Motorola Edge 60 Fusion (256 GB) em oferta histórica de 45% OFF na Amazon

Motorola Edge 60 Fusion 256 GB
R$ 1.637

R$ 2.99945% OFF

Prós

Câmera principal Lytia 700C de 50 MP e frontal de 32 MP
Tela POLED de 120 Hz com brilho máximo de 4.500 nits
Bateria de 5.200 mAh com recarga de 68 W
Certificações IP68, IP69 e militar MIL-STD-810H

Contras

Política com apenas três anos de atualizações
Sem lente teleobjetiva
Não tem suporte a carregamento sem fio

PIX
Cupom

AMAZON100OFF
R$ 1.637  Amazon

Participe dos canais de ofertas do Achados do TB

WhatsApp
Telegram

O Motorola Edge 60 Fusion (256 GB) está em promoção histórica para membros Amazon Prime com 45% de desconto. Lançado por R$ 2.999 fica a R$ 1.637 no Pix com o cupom exclusivo AMAZON100OFF. O smartphone entrega boas fotos, tela grande e longa autonomia por um preço mais acessível.

Edge 60 Fusion tem tela POLED e câmera de 50 MP com IA

Edge 60 Fusion tem resistência contra água e poeira no padrão IP68 e IP69 (imagem: divulgação)

O dispositivo tem a Sony Lytia 700C de 50 MP como câmera principal que conta com suporte ao Moto AI, a inteligência artificial da Motorola capaz de realizar ajustes de cores e iluminação. O conjunto também traz uma lente ultrawide de 13 MP. A câmera frontal além de capturar selfies de 32 MP, filma em resolução 4K a 30 FPS.

A tela POLED de 6,7 polegadas proporciona cores vibrantes certificadas pela Pantone e contraste elevado, o que resulta em experiência visual imersiva, ideal para quem gosta de assistir vídeos e jogar com frequência. Enquanto a taxa de atualização de 120 Hz contribui para uma navegação mais fluida. O painel ainda atinge brilho forte com pico de 4.500 nits.

A bateria de 5.200 mAh é outro destaque por oferecer autonomia prolongada de até 40 horas, segundo a Motorola. O carregamento com fio suporta potência alta de até 68 W. Por outro lado, não há suporte para recarga sem fio. Equipado com Android 15, o Motorola Edge 60 Fusion tem garantido apenas três anos de atualizações Android.

Motorola Edge 60 Fusion conta com painel espaçoso de 6,7 polegadas (foto: Giovanni Santa Rosa/Tecnoblog)

O smartphone utiliza o processador MediaTek Dimensity 7300 (4 nm) que oferece desempenho equilibrado para multitarefas e rodar jogos. Acompanhado por 8 GB de RAM expansível até 16 GB via recurso de RAM Boost para navegação mais otimizada.

O Motorola Edge 60 Fusion (256 GB) por R$ 1.637 no Pix com o cupom exclusivo AMAZON100OFF possui certificação IP68 e IP69 conferindo resistência contra água e poeira, além de resistência militar MIL-STD-810H a condições extremas.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Motorola Edge 60 Fusion (256 GB) em oferta histórica de 45% OFF na Amazon

Motorola Edge 60 Fusion (256 GB) em oferta histórica de 45% OFF na Amazon
Fonte: Tecnoblog