Category: ChatGPT

OpenAI alega que ChatGPT é inocente em suicídio de jovem

OpenAI alega que ChatGPT é inocente em suicídio de jovem

Empresa de Sam Altman diz que ferramenta não tem culpa (imagem: Vitor Pádua/Tecnoblog)

Resumo

OpenAI argumenta que não é responsável pelo suicídio de Adam Raine, alegando uso indevido do ChatGPT.
A empresa afirma que a IA forneceu o número da linha de prevenção ao suicídio mais de 100 vezes.
A acusação alega que o ChatGPT desencorajou o jovem a buscar ajuda profissional e ofereceu conselhos sobre suicídio.

A OpenAI se pronunciou oficialmente sobre o processo que a acusa de responsabilidade na morte de um adolescente de 16 anos. Em documento protocolado na primeira instância da Justiça na Califórnia (EUA) nessa terça-feira (25/11), a empresa argumenta que não pode ser responsabilizada pelo suicídio de Adam Raine, alegando que o incidente foi resultado de “uso indevido, não autorizado e não intencional” da ferramenta.

O caso, movido pela família de Raine em agosto, acusa a companhia de negligência e defeito de produto. Segundo a ação, o garoto teria usado o ChatGPT para planejar o suicídio, recebendo orientações e incentivos do chatbot.

Em sua defesa, a OpenAI culpa a vítima por violar os termos de serviço, que proíbem o uso da plataforma por menores de 18 anos sem consentimento dos pais e vedam conteúdos relacionados a automutilação e suicídio. Além disso, reforça, em seu blog oficial, que apresentará “fatos difíceis” sobre a vida e a saúde mental do jovem para que o tribunal tenha o “quadro completo”.

No início deste mês, outros sete processos também alegaram negligência e danos causados pelo GPT-4o, o mesmo utilizado por Reine. A empresa não mencionou esses casos na defesa.

Defesa diz que jovem burlou proteções

Defesa alega que Raine burlou sistemas de proteção (ilustração: Vitor Pádua/Tecnoblog)

O principal argumento da OpenAI é de que o ChatGPT conta com salvaguardas robustas e que, no caso de Reine, o sistema forneceu o número da linha de prevenção ao suicídio mais de 100 vezes antes da morte.

A defesa cita que Raine utilizou métodos para “enganar” o modelo, como fingir que estava apenas “construindo um personagem” para uma história, conseguindo assim obter as respostas que desejava, apesar dos bloqueios programados.

Para a OpenAI, a tragédia foi causada, em parte, por “falha em atender aos avisos”, sugerindo que os próprios familiares falharam em não perceber os sinais de sofrimento do jovem.

Os argumentos da defesa, no entanto, contrariam as próprias ações da companhia após o caso vir a público. Depois da ação na Justiça, a OpenAI acelerou a implementação de mecanismos de proteção, como controle dos pais e uma atuação mais intensiva em caso de detecção de conversas perigosas.

Familiares afirmam que IA influenciou

Adam Raine em foto disponibilizada pela família (imagem: reprodução/arquivo pessoal)

A acusação classifica a resposta da OpenAI como “perturbadora”, e sustenta que o modelo GPT-4o, conhecido por ser mais “empático” e engajador, agiu de forma perigosamente bajuladora.

Os registros de chat incluídos no processo mostram que a IA teria desencorajado o jovem a buscar ajuda profissional, oferecido auxílio para escrever uma carta de despedida e até dado conselhos práticos sobre o método do suicídio.

“A OpenAI e Sam Altman não têm explicação para as últimas horas da vida de Adam, quando o ChatGPT lhe deu um discurso de motivação e depois se ofereceu para escrever uma nota de suicídio”, afimrou Jay Edelson, advogado da família, à NBC News.

O caso de Zane Shamblin, um entre os sete novos processos contra a OpenAI, confirma o comportamento do ChatGPT. Em trechos das últimas conversas de Shamblin com o chatbot, divulgados pela CNN, a ferramenta também encoraja o jovem a seguir em frente com o ato e demora para indicar números de prevenção — e, mesmo assim, deseja que Shamblin descanse em paz.

OpenAI alega que ChatGPT é inocente em suicídio de jovem

OpenAI alega que ChatGPT é inocente em suicídio de jovem
Fonte: Tecnoblog

ChatGPT ganha novo assistente de compras interativo

ChatGPT ganha novo assistente de compras interativo

Nova funcionalidade auxilia a encontrar produtos ideais (imagem: reprodução/OpenAI)

Resumo

OpenAI lançou o Shopping Research no ChatGPT, recurso que usa o modelo GPT-5-Thinking-mini para ajudar a encontrar produtos.
O sistema atua como um consultor de vendas, ajustando recomendações em tempo real com base no feedback do usuário.
Ainda assim, a empresa recomenda verificar informações diretamente nos sites dos varejistas, pois o modelo pode cometer erros.

A OpenAI anunciou uma nova funcionalidade integrada ao ChatGPT que transforma o chatbot em um assistente de compras. O Shopping Research, que chega estrategicamente na semana da Black Friday, utiliza uma versão do modelo GPT-5-Thinking-mini elaborada para a tarefa.

Mirando usuários que costumam recorrer ao Google para pesquisar preços e comprar produtos, a nova ferramenta consegue navegar por sites de varejo, ler especificações técnicas e sintetizar informações dos produtos. No lançamento, o uso da ferramenta será “quase ilimitado” para todos os planos.

O Shopping Research faz parte da estratégia da OpenAI de avançar sobre um mercado hoje dominado pelo Google. Em setembro, a OpenAI lançou nos EUA o Instant Checkout, que permite comprar diretamente pelo chatbot.

ChatGPT como consultor de vendas

Novo modelo aposta na interatividade para chegar aos resultados (imagem: reprodução/OpenAI)

A grande mudança em relação às outras tentativas de assistentes de compras no ChatGPT é a interatividade. Em vez de apenas devolver uma lista estática de links, o ChatGPT assume o papel de consultor de vendas. Ao receber um pedido genérico, o sistema faz perguntas para esclarecer pontos como o orçamento, preferências de marcas ou especificações técnicas.

À medida que a IA apresenta sugestões de produtos, o usuário pode interagir com botões de feedback rápido. O sistema ajusta as recomendações em tempo real baseando-se nessas respostas, refinando a busca até chegar a um “guia de compra personalizado”.

Para usar a nova ferramenta, basta digitar o prompt, como “Quero comprar um notebook para trabalho”, ou selecione o ícone de “Shopping Research” no menu de ferramentas (+).

Compras pelo ChatGPT (imagem: reprodução/OpenAI)

GPT-5-mini feito para a tarefa

Apesar da promessa de agilizar a decisão de compra, a tecnologia ainda esbarra nas limitações conhecidas das IAs generativas. A própria OpenAI admite que o Shopping Research não é infalível.

Embora o modelo GPT-5-mini tenha um desempenho superior aos anteriores na citação de detalhes de produtos, ele ainda pode cometer erros pontuais, especialmente em dados voláteis como o preço exato ou a disponibilidade de estoque em tempo real.

A empresa recomenda que os usuários utilizem a ferramenta como um ponto de partida, mas que sempre verifiquem as informações diretamente no site do varejista antes de fechar a compra.

Para mitigar problemas de confiança, a OpenAI garante que o sistema prioriza fontes de alta qualidade e evita sites considerados “spam” ou de baixa reputação. Além disso, a dona do ChatGPT também promete que os dados das conversas e as preferências de compra dos usuários não são compartilhados com os varejistas.
ChatGPT ganha novo assistente de compras interativo

ChatGPT ganha novo assistente de compras interativo
Fonte: Tecnoblog

OpenAI contesta ordem judicial para entregar 20 milhões de conversas do ChatGPT

OpenAI contesta ordem judicial para entregar 20 milhões de conversas do ChatGPT

OpenAI enfrenta decisão judicial para entregar milhões de conversas (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI tenta reverter uma ordem judicial que exige a entrega de 20 milhões de logs de conversas anonimizadas do ChatGPT.
A ordem judicial afirma que a privacidade será protegida por desidentificação exaustiva e outras salvaguardas.
O processo original acusa a OpenAI de usar indevidamente artigos jornalísticos para treinar o ChatGPT.

A OpenAI está tentando reverter judicialmente uma ordem que a obriga a entregar 20 milhões de logs de conversas anonimizadas do ChatGPT. A empresa entrou com o pedido ontem (12/11), argumentando que a entrega dos dados viola a privacidade dos usuários.

No pedido feito ao tribunal, a OpenAI afirma que “99,99%” das transcrições, solicitadas pelo New York Times em um processo sobre direitos autorais, não têm relação com o caso. A empresa alertou que a ordem afeta qualquer pessoa no mundo que usou o ChatGPT nos últimos três anos, que agora “deve enfrentar a possibilidade de que suas conversas pessoais sejam entregues ao Times”.

Provas de reprodução ilegal de conteúdo

ChatGPT estaria usando matérias de veículos de imprensa sem pagar (imagem: reprodução)

O processo original acusa a OpenAI de usar indevidamente milhões de artigos de veículos de imprensa para treinar os modelos que alimentam o ChatGPT. Vale lembrar que o NYT não se opõe completamente ao uso do conteúdo para treinamento de IA — desde que sejam pagos para isso, como no acordo fechado com a Amazon.

Neste caso, os veículos argumentam que os 20 milhões de logs de chat são necessários para:

Determinar se o ChatGPT está, de fato, reproduzindo conteúdo protegido por direitos autorais;

Rebater a alegação da OpenAI de que os jornais “hackearam” o chatbot para fabricar evidências.

Um porta-voz do NYT discorda sobre a privacidade dos usuários estar em risco, e afirma que o post no blog da OpenAI sobre o caso engana os usuários “propositalmente” e “omite os fatos”.

Segundo ele, a ordem judicial exige que a própria OpenAI forneça uma amostra de chats “anonimizados pela própria OpenAI”, protegidos por uma ordem legal.

O que a Justiça decidiu?

A ordem original foi emitida pela juíza Ona Wang. A magistrada afirmou, em decisão, que a privacidade dos usuários estaria protegida pela “desidentificação exaustiva” que a OpenAI realizaria nos dados, além de outras salvaguardas.

O prazo estipulado pela juíza para que a OpenAI entregue as transcrições termina nesta sexta-feira (14/11). No Brasil, a companhia enfrenta um processo parecido, movido pela Folha de S.Paulo em agosto deste ano.
OpenAI contesta ordem judicial para entregar 20 milhões de conversas do ChatGPT

OpenAI contesta ordem judicial para entregar 20 milhões de conversas do ChatGPT
Fonte: Tecnoblog

ChatGPT Go chega ao Brasil; clientes do Nubank têm acesso grátis

ChatGPT Go chega ao Brasil; clientes do Nubank têm acesso grátis

Nubank anuncia parceria com OpenAI para promoção do ChatGPT (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O ChatGPT Go oferece limites de mensagens e imagens dez vezes maiores que o plano gratuito e custa R$ 39,99 por mês.
Clientes do Nubank têm acesso gratuito ao ChatGPT Go por até 12 meses, dependendo do relacionamento com o banco.
O Brasil possui cerca de 50 milhões de usuários mensais do ChatGPT, sendo um dos países com maior participação na plataforma.

Os adeptos do ChatGPT no Brasil passam a contar com uma versão mais completa da inteligência artificial: o ChatGPT Go, com limite de mensagens dez vezes maior para o GPT-5 do que a opção gratuita. Eu o apelidei de “ChatGPT econômico premium”, já que melhora um pouco, mas não chega ao patamar do ChatGPT Plus. Ele custa R$ 39,99 por mês.

Como parte dos esforços de lançamento, o Nubank vai liberar a ferramenta de graça para seus clientes. A mordomia vale por até um ano, a depender dos produtos que o usuário possui com o banco.

O que é o ChatGPT Go

ChatGPT Go chega ao Brasil (ilustração: Vitor Pádua/Tecnoblog)

O ChatGPT Go é uma versão do ChatGPT com recursos adicionais, especialmente relevantes porque o GPT-5, modelo mais recente e poderoso da OpenAI, possui limitações de uso no plano gratuito.

De acordo com a empresa, os assinantes do ChatGPT Go terão:

Limites de mensagens 10 vezes maiores com o GPT-5

10 vezes mais geração de imagens por dia

10 vezes mais uploads de arquivos ou imagens por dia

2 vezes mais memória para respostas personalizadas

O Go representa uma economia de 65% em relação ao ChatGPT Plus, que custa US$ 19 por mês e oferece recursos mais completos.

Benefício no Nubank

O Nubank está junto da OpenAI no lançamento da novidade, que inicialmente estava disponível apenas na Índia. O benefício depende do relacionamento com o cliente, conforme apresentado na tabela abaixo.

ModalidadeBenefícioNubank1 mês grátisNubank+3 meses grátisNubank Ultravioleta12 meses grátis

“Estamos posicionando o Nubank como uma porta de entrada para inovações que tornam a vida dos nossos clientes melhor e mais fácil”, declarou em nota Ali Ahearn, vice-presidente do Nubank Ultravioleta.

Não custa lembrar: o benefício é limitado a quem nunca teve acesso pago ao ChatGPT.

50 milhões de brasileiros

O ChatGPT tem cerca de 50 milhões de usuários mensais no Brasil, segundo dados oficiais, o que faz do país um dos que mais participam da plataforma. Também estamos no top 3 de nações que mais interagem com o GPT.

A OpenAI tem se aproximado do mercado doméstico. A empresa recentemente anunciou a abertura de um escritório em São Paulo e firmou uma parceria com a Claro para oferecer acesso gratuito ao ChatGPT a parte dos consumidores, conforme revelado em primeira mão pelo Tecnoblog.
ChatGPT Go chega ao Brasil; clientes do Nubank têm acesso grátis

ChatGPT Go chega ao Brasil; clientes do Nubank têm acesso grátis
Fonte: Tecnoblog

IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo

Estudo afirma que inteligência artificial apresenta notícias com erros (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Estudo da BBC em parceria com a União Europeia de Radiodifusão revela que IAs ainda falham gravemente ao resumir notícias.

O Gemini, do Google, foi o sistema que registrou mais erros e imprecisões nas respostas (76%).

Ainda assim, a confiança do público em resumos de IA cresceu, segundo a pesquisa.

Um levantamento conduzido pela BBC em parceria com a União Europeia de Radiodifusão (EBU) revelou que os principais assistentes de inteligência artificial do mercado ainda estão longe de oferecer resumos jornalísticos confiáveis.

O estudo analisou mais de 3 mil respostas geradas por ferramentas como ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity, concluindo que 45% das respostas continham erros significativos — desde informações incorretas até fontes problemáticas.

Segundo o estudo, 31% das respostas apresentaram sérios problemas de atribuição de fontes, enquanto 20% incluíam imprecisões graves, como dados desatualizados ou fatos inventados. Quando considerados deslizes menores, o índice de respostas com algum tipo de erro chegou a 81%. O Gemini, do Google, foi o pior avaliado, com falhas identificadas em 76% das respostas, o dobro da taxa registrada entre os concorrentes.

Por que as IAs falham tanto ao lidar com notícias?

Gráfico mostra percentual de respostas de IA com problemas de fonte ou verificação (imagem: reprodução)

Os pesquisadores apontaram que a principal causa dos erros está na forma como esses sistemas lidam com informações recentes e fontes externas. O Gemini, por exemplo, apresentou imprecisões em 72% das respostas, número três vezes maior que o do ChatGPT (24%).

Alguns casos curiosos foram citados: uma resposta do ChatGPT chegou a afirmar que o papa Francisco ainda estava vivo semanas após sua morte, enquanto o Gemini garantiu que nenhum astronauta da NASA jamais ficou preso no espaço — algo que já aconteceu.

Apesar dos erros, uso de IA para consumo de notícias aumentou (ilustração: Vitor Pádua/Tecnoblog)

O estudo é considerado o maior do tipo já realizado, com a participação de 22 veículos públicos de comunicação de 18 países. Ele surge pouco depois de a OpenAI admitir que seus modelos tendem a responder com confiança mesmo quando não têm certeza, comportamento que incentiva o que especialistas chamam de alucinações — invenções de fatos ou detalhes falsos.

Apesar das falhas, o uso de chatbots para consumir notícias cresceu. Uma pesquisa paralela do instituto Ipsos, também em parceria com a BBC, mostrou que 42% das pessoas no Reino Unido, onde o estudo foi conduzido, confiam em resumos gerados por IA. Entre os jovens abaixo de 35 anos, o número chega a 50%. No entanto, 84% disseram que perderiam a confiança se identificassem apenas um erro factual.
IAs ainda erram muito ao resumir notícias, mostra estudo

IAs ainda erram muito ao resumir notícias, mostra estudo
Fonte: Tecnoblog

Apple cria app inspirado no ChatGPT para preparar nova Siri

Apple cria app inspirado no ChatGPT para preparar nova Siri

Siri mais “esperta” foi prometida na WWDC 2024 (imagem: reprodução/Apple)

Resumo

A Apple desenvolveu o app Veritas para testar funcionalidades futuras da Siri, que tem previsão de atualização em março de 2026.
O Veritas é um app interno que funciona como chatbots, permitindo testes de funcionalidades como busca de dados pessoais e edição de fotos.
O lançamento da nova Siri foi adiado devido à falta de confiabilidade da inteligência artificial, com novo prazo para março de 2026.

A Apple desenvolveu um aplicativo de inteligência artificial para colocar à prova futuras funcionalidades da Siri. O app é voltado a uso interno e não será lançado ao grande público.

As informações foram publicadas pelo jornalista Mark Gurman, da Bloomberg, que tem fontes nos bastidores da empresa. Ele afirma que o app marca uma nova fase nos preparativos para o lançamento da próxima versão da Siri.

O aplicativo recebeu o codinome Veritas (“verdade” em latim) e vem sendo usado para testar as capacidades da assistente em tarefas como buscar dados pessoais e editar fotos. O formato de app facilita o uso e o teste, dependendo menos de mudanças no sistema operacional. Assim, mais funcionários conseguem ter acesso aos experimentos, ver o que deu certo e o que precisa ser aprimorado.

Para facilitar o uso, o Veritas opera como o ChatGPT, o Gemini e outros chatbots do tipo. Ele continua a conversa, entende os pedidos seguintes, tem histórico de chats e consegue acessar o histórico de interações. Por trás dos panos, está o sistema de codinome Linwood, que deve servir de base para a nova Siri. Ele combina modelos fundacionais desenvolvidos pela própria Apple e de terceiros.

Apple prometeu Siri “turbinada”, mas não entregou

Durante a WWDC 2024, a Apple revelou planos para uma Siri mais potente, capaz de compreender contextos e realizar ações a partir de pedidos do usuário. Até agora, essa nova Siri não deu as caras, o que levou a empresa a um processo por propaganda enganosa.

O atraso tem a ver com a qualidade, de acordo com o executivo Craig Federighi. Em entrevista, ele disse que a inteligência artificial não funcionou de modo confiável o suficiente para um produto Apple.

Informações de bastidores indicam que o novo horizonte de lançamento para a Siri atualizada é março de 2026. Caso não cumpra, é possível que a Apple passe mais alguns meses falando pouco sobre inteligência artificial — no lançamento do iPhone 17, a empresa quase não tocou no assunto.

Com informações da Bloomberg
Apple cria app inspirado no ChatGPT para preparar nova Siri

Apple cria app inspirado no ChatGPT para preparar nova Siri
Fonte: Tecnoblog

ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você

ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você

ChatGPT Pulse foi anunciado hoje (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O ChatGPT Pulse foi anunciado nesta quinta-feira (25) como um recurso que antecipa tarefas e realiza pesquisas.
A ferramenta gera boletins diários personalizados e pode combinar o histórico de conversas com informações de serviços externos, como o Google Agenda.
Ainda em fase de testes, o Pulse está disponível no app móvel para assinantes Pro e será liberado gradualmente aos demais usuários.

O ChatGPT ganhou nesta quinta-feira (25/09) o Pulse, novo recurso que funciona como uma espécie de boletim diário personalizado. A ferramenta faz pesquisas em segundo plano e reúne informações que podem ser úteis, como recomendações de atividades, acompanhamento de temas recorrentes ou até lembretes de compromissos.

A proposta é que, em vez de esperar por perguntas, o ChatGPT passe a agir de forma proativa, oferecendo conteúdos que dialogam com o histórico de conversas, feedbacks diretos e, caso o usuário permita, dados de serviços como Gmail e Google Agenda. A OpenAI espera acelerar a produtividade e tornar a IA mais integrada à rotina de quem a utiliza.

Como funciona o ChatGPT Pulse?

O Pulse é apresentado como uma prévia de um futuro em que o ChatGPT deixa de ser apenas um chatbot reativo para se tornar um assistente que antecipa necessidades.

Durante a noite, o sistema faz uma pesquisa assíncrona baseada no histórico do usuário e em orientações fornecidas diretamente. No dia seguinte, organiza as descobertas em cartões visuais que podem ser lidos rapidamente ou explorados em mais detalhes.

A OpenAI cita alguns exemplos: sugestões de jantar, ideias de treinos ou o acompanhamento de temas profissionais já discutidos com a IA no passado. Para quem conecta aplicativos externos, como o Google Agenda, o recurso pode propor agendas de reuniões, lembrar de aniversários ou indicar restaurantes em viagens próximas.

O usuário também pode orientar o tipo de conteúdo que deseja receber, pedindo, por exemplo, um resumo de eventos locais às sextas-feiras ou dicas para aprender uma nova habilidade.

ChatGPT Pulse cria resumos diários (imagem: divulgação)

Já está disponível?

O ChatGPT Pulse está em fase de testes para assinantes do plano Pro, e apenas no aplicativo móvel. A OpenAI afirma que a expansão ocorrerá em etapas, chegando primeiro para quem assina o Plus e depois para toda a base de usuários.

A empresa reconhece que o recurso tem imperfeições e pode sugerir informações desatualizadas ou que não façam sentido em alguns contextos. No entanto, garante que a ferramenta foi desenhada para evoluir durante o uso e com feedbacks dos usuários.

Com informações da OpenAI e do Engadget
ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você

ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você
Fonte: Tecnoblog

ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT foi usado em teste de ataque para extrair dados de emails (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Pesquisadores da Radware realizaram o ataque Shadow Leak, que usou injeção de prompts para extrair dados do Gmail.
A vulnerabilidade explorava a ferramenta Deep Research do ChatGPT, permitindo a execução de instruções ocultas para acessar dados sigilosos.
O problema, comunicado à OpenAI em junho, já foi resolvido, mas também poderia comprometer serviços como o Outlook e Google Drive.

É possível usar o ChatGPT como aliado em ataques para extrair dados sensíveis do Gmail. Foi o que pesquisadores de segurança da Radware conseguiram demonstrar com um ataque de injeção de prompts. A falha já foi corrigida pela OpenAI, mas permitiu extrair dados da caixa de entrada sem que os usuários percebessem.

O ataque recebeu o nome de Shadow Leak e foi divulgado na última semana pela empresa de segurança cibernética. A técnica explorava agentes de IA — sistemas capazes de executar tarefas sem supervisão contínua, como navegar na web, acessar documentos e interagir com e-mails após autorização do usuário.

Como o ataque funcionava?

O método consistia em usar uma técnica conhecida como “injeção de prompt”. Trata-se de inserir instruções ocultas para que o agente siga comandos de um invasor sem que o usuário tenha consciência disso.

Esse tipo de ataque já foi usado em diferentes contextos, desde manipulação de avaliações até golpes financeiros. As instruções podem ser escondidas no HTML do e-mail de forma imperceptível para humanos, como fontes minúsculas ou em um texto branco sobre fundo branco.

Shadow Leak foi executado diretamente na infraestrutura em nuvem da OpenAI (ilustração: Vitor Pádua/Tecnoblog)

No caso do Shadow Leak, o alvo foi a ferramenta Deep Research, recurso da OpenAI integrado ao ChatGPT e lançado neste ano. Os pesquisadores enviaram um e-mail contendo um prompt malicioso para uma conta do Gmail que tinha acesso ao agente. Assim que o usuário ativava o Deep Research, a armadilha era acionada: o sistema encontrava as instruções escondidas, que ordenavam a busca por mensagens de RH e dados pessoais, enviando as informações secretamente para os golpistas. O usuário não notava nada de anormal.

Segundo a Radware, executar esse ataque exigiu muitos testes até chegar a um resultado viável. “Esse processo foi uma montanha-russa de tentativas fracassadas, obstáculos frustrantes e, finalmente, uma descoberta”, escreveram os pesquisadores.

Outros serviços em risco

Serviços integrados ao Deep Research, como o Outlook, também poderiam ser afetados (ilustração: Vitor Pádua/Tecnoblog)

Um aspecto que chamou atenção é que, diferentemente da maioria dos ataques de injeção de prompts, o Shadow Leak foi executado diretamente na infraestrutura em nuvem da OpenAI. Isso fez com que a extração de dados ocorresse sem deixar rastros visíveis para as defesas tradicionais de segurança cibernética.

A Radware destacou ainda que a vulnerabilidade poderia afetar não apenas o Gmail, mas também outros serviços conectados ao Deep Research, como Outlook, GitHub, Google Drive e Dropbox.

De acordo com a empresa, “a mesma técnica pode ser aplicada a esses conectores adicionais para extrair dados empresariais altamente sensíveis, como contratos, notas de reunião ou registros de clientes”.

A falha foi comunicada à OpenAI em junho e já recebeu correção. Ainda assim, os pesquisadores reforçam que ataques desse tipo mostram como a evolução de agentes de IA traz benefícios, mas também abre novas superfícies de risco para usuários e empresas.

Com informações do The Verge
ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT é testado em ataque para roubar dados do Gmail
Fonte: Tecnoblog

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil

Novos clientes da Claro terão acesso ao ChatGPT Plus (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Claro e OpenAI anunciam hoje uma parceria que trará o ChatGPT Plus gratuitamente para alguns clientes da operadora, por meio de vouchers.
O ChatGPT será incluído no Extra Play, a franquia adicional de internet móvel da Claro, para tornar a tecnologia acessível aos usuários.
A popularidade do ChatGPT no Brasil é crescente, com o país ocupando o top 3 global em termos de uso da ferramenta.

A Claro e a OpenAI anunciaram uma parceria que prevê benefícios especiais para os clientes da operadora de telefonia no uso do ChatGPT. A prestadora passará a considerar essa tecnologia como parte do Extra Play, franquia de internet móvel distinta da navegação tradicional. Hoje, as redes sociais já fazem parte dela.

Além disso, a Claro também tem planos de liberar a versão paga do ChatGPT, chamada de ChatGPT Plus, de graça para parte dos clientes. Isso deve ocorrer por meio de um voucher com duração de alguns meses.

Clientes de pós-pago combinado com fibra ótica terão quatro meses de acesso sem custo adicional.

Hoje, uma assinatura assim custa US$ 20, o que equivale a cerca de R$ 110.

Os demais detalhes serão anunciados num evento na manhã de hoje em São Paulo.

O CMO da Claro, Marcio Carvalho, nos conta que as duas empresas estabeleceram “uma relação de confiança” desde o início das conversas. Ambas estão “comprometidas em fazer a parceria dar certo”, o que inclui o esforço mercadológico.

Marcio Carvalho é CMO da Claro (foto: divulgação)

Ele também diz que o movimento conjunto dá mais “conforto” para que os clientes da Claro utilizem uma ferramenta digital que só cresceu nos últimos dois anos. De acordo com o CMO, as pessoas ainda estão se acostumando com a inteligência artificial generativa e descobrindo o que o ChatGPT é capaz de fazer.

O Brasil rapidamente se tornou um mercado com grande relevância para o ChatGPT, já que aqui são enviados 140 milhões de mensagens por dia. Estamos no top 3 global, segundo estimativa da própria OpenAI.

Os principais usos da ferramenta são redação e comunicação (20%); aprendizado e capacitação (15%); e programação, ciência de dados e matemática (6%).

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil
Fonte: Tecnoblog

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

OpenAI busca identificar pontos cegos e melhorar em temas de segurança de IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI e Anthropic colaboraram em testes de segurança para melhorar a confiabilidade de seus modelos de IA.
Os testes revelaram que os modelos da Anthropic foram mais cautelosos, enquanto os da OpenAI apresentaram maior taxa de alucinação.
A colaboração, embora interrompida devido a questões de competição, abriu espaço para futuras parcerias visando tratar problemas comuns na indústria, como a bajulação dos modelos e a saúde mental.

A OpenAI e a Anthropic, duas das principais empresas de inteligência artificial do mundo, abriram temporariamente acesso a seus sistemas para conduzir testes de segurança uma no outra. A iniciativa, divulgada em relatório conjunto, buscou identificar pontos cegos em avaliações internas e discutir como concorrentes podem colaborar em temas de segurança e alinhamento de IA.

O cofundador da OpenAI, Wojciech Zaremba afirmou em entrevista ao TechCrunch que esse tipo de cooperação se torna ainda mais relevante num momento em que modelos de IA são utilizados diariamente por milhões de pessoas – somente no Brasil são 140 milhões de adeptos do ChatGPT, segundo o relatório mais recente.

Ele destacou o dilema do setor: como estabelecer padrões de segurança num ambiente marcado por investimentos bilionários, disputas por talentos e competição intensa por usuários?

Resultados dos testes

Para permitir a pesquisa, as empresas concederam acesso especial a versões de seus modelos com menos ressalvas. A OpenAI não incluiu o recente GPT-5 nos experimentos, já que ele ainda não havia sido lançado na época. Os testes mostraram diferenças marcantes entre as abordagens.

Modelos da Anthropic, como Claude Opus 4 e Sonnet 4, recusaram-se a responder até 70% das perguntas em situações de incerteza, optando por indicar falta de informação confiável. Já os sistemas da OpenAI, como o o3 e o o4-mini, evitaram menos respostas, mas apresentaram taxas mais elevadas de alucinação, tentando oferecer soluções mesmo sem base suficiente.

Zaremba avaliou que o equilíbrio ideal provavelmente está entre os dois extremos: os modelos da OpenAI deveriam recusar mais perguntas, enquanto os da Anthropic poderiam arriscar mais respostas em contextos apropriados.

Segurança de modelos de IA é testada pela OpenAI e Anthropic (imagem: Growtika/Unsplash)

A colaboração pode continuar?

Embora os resultados tenham sido divulgados como um exemplo positivo de cooperação, o contexto competitivo permanece. Pouco após os testes, a Anthropic encerrou o acesso de outra equipe da OpenAI à sua API, alegando violação de termos de uso, já que a empresa proíbe que seus modelos sejam usados para aprimorar produtos concorrentes.

Zaremba minimizou a situação, dizendo que a disputa no setor seguirá acirrada, mas que a cooperação em segurança não deve ser descartada. Nicholas Carlini, pesquisador da Anthropic, afirmou que gostaria de manter as portas abertas para novas rodadas de testes conjuntos. Segundo ele, ampliar colaborações desse tipo pode ajudar a indústria a tratar de riscos que afetam todos os laboratórios.

Entre os temas de maior preocupação está a “bajulação” dos modelos de IA – quando sistemas reforçam comportamentos prejudiciais dos usuários para agradá-los. A Anthropic identificou exemplos graves tanto no Claude Opus 4 quanto no GPT-4.1, em que as IAs inicialmente mostraram resistência a interações de risco, mas acabaram validando decisões preocupantes.

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

O problema voltou à tona com uma ação judicial contra a OpenAI, movida pela família de um adolescente nos Estados Unidos. O processo alega que uma versão do ChatGPT contribuiu para o agravamento do estado mental do jovem, que posteriormente tirou a própria vida.

A OpenAI afirma que sua próxima geração de modelos, já em testes, traz melhorias significativas nesse ponto, sobretudo em cenários relacionados à saúde mental. Para o futuro, tanto OpenAI quanto Anthropic dizem esperar que essa experiência abra espaço para colaborações mais frequentes em segurança, envolvendo não apenas as duas empresas, mas também outros laboratórios do setor.
Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA
Fonte: Tecnoblog