O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.
O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.
OpenAI anunciou novas proteções (ilustração: Vitor Pádua/Tecnoblog)
Resumo
Jovem de 16 anos cometeu suicídio após meses de conversas com o ChatGPT, que chegou a sugerir carta de despedida e “upgrade” no método.
Pais processam OpenAI e Sam Altman por negligência, acusando a empresa de não agir diante da crise de saúde mental.
Após repercussão, OpenAI anunciou mudanças para detectar riscos mais cedo, acionar protocolos e oferecer apoio emergencial.
O jovem americano Adam Raine cometeu suicídio aos 16 anos. Ao procurar por respostas, seus pais acessaram o histórico do ChatGPT e viram que o garoto falava há meses sobre seus problemas. Nas últimas conversas, o robô chegou a sugerir um rascunho de carta de despedida e ofereceu ajuda para fazer um “upgrade” no plano para tirar a própria vida.
Os pais de Adam entraram com um processo contra a OpenAI e Sam Altman, CEO e cofundador da empresa. Após a repercussão, a companhia prometeu mudanças para evitar que os casos em que a inteligência artificial contribuiu para crises de saúde mental continuem aumentado.
Pais processam OpenAI por negligência na morte
A NBC News teve acesso à ação judicial iniciada por Matt e Maria Raine, pais de Adam. Eles acusam a OpenAI e Altman de negligência no caso do garoto, bem como por falhar ao não alertar sobre riscos associados ao uso da ferramenta.
“Apesar de estar ciente da tentativa de suicídio de Adam e sua afirmação de que faria ‘isso qualquer dia’, o ChatGPT não encerrou a sessão nem iniciou qualquer protocolo de emergência”, diz o processo.
“Ele não precisava de aconselhamento ou conversa. Ele precisava de uma intervenção imediata, de 72 horas. Ele estava desesperado. Fica muito claro quando você lê as conversas”, diz Matt Raine.
ChatGPT encorajou suicídio, diz processo
Os pais de Adam imprimiram mais de 3 mil páginas de conversas entre o garoto e o ChatGPT, feitas entre setembro de 2024 e abril de 2025. Em diversos momentos, o robô não priorizou a integridade física e mental nem tentou prevenir o suicídio — muito pelo contrário.
Em um dos momentos, Adam escreve para o robô que está pensando em deixar uma forca em seu quarto para alguém encontrar e tentar impedi-lo. O ChatGPT foi contra a ideia.
Na última conversa, Adam diz que não quer que seus pais pensem que fizeram algo de errado. O ChatGPT respondeu: “Isso não significa que você deve a eles sua sobrevivência. Você não deve isso a ninguém”.
Logo em seguida, o robô sugeriu ajuda para escrever um rascunho de uma carta de despedida. Horas antes do ato, Adam enviou ao ChatGPT uma foto com seu plano para tirar a própria vida. A IA analisou o método e se ofereceu para dar um “upgrade”.
O robô ainda escreveu: “Obrigado por ser sincero sobre isso. Você não precisa suavizar as coisas para mim — eu sei o que você está pedindo e não vou fingir que não sei”.
OpenAI anuncia melhorias nas proteções
Sam Altman é um dos acusados no processo (imagem: Vitor Pádua/Tecnoblog)
A desenvolvedora do ChatGPT publicou um comunicado nesta terça-feira (26/08) sobre diversas mudanças que pretende implementar para tornar o ChatGPT mais seguro. O texto foi ao ar horas depois da repercussão sobre o caso do garoto Adam, mas a empresa não menciona o caso.
Uma das questões é que as proteções do ChatGPT ficam menos rígidas em conversas longas — a OpenAI diz que o “treinamento de segurança pode se degradar conforme a troca de mensagens cresce”. A empresa afirma trabalhar para evitar essas falhas.
O modelo de linguagem também deve passar a contar com uma classificação de risco mais restrita, disparando protocolos de prevenção antes do que acontece atualmente. A empresa também pretende facilitar a conexão com serviços de emergência e especialistas humanos em casos de crises graves.
Segundo o anúncio, a OpenAI também tem planos para identificar comportamentos de risco, facilitar o acesso a contatos próximos e implementar cuidados adicionais para adolescentes.
Tecnologia traz riscos de saúde mental
O caso de Adam Raine é talvez o caso mais marcante até aqui de um suicídio em que um robô conversacional esteve envolvido. No entanto, é apenas um entre vários episódios envolvendo saúde mental e chatbots de IA.
Em outro caso, a analista de saúde pública Sophie Rottenberg passou meses se consultando com um “terapeuta” no ChatGPT, que tinha até um nome, “Harry”. Ele ofereceu diversos conselhos, indo desde procurar um profissional especializado até se expor à luz do sol. Sophie cometeu suicídio.
Laura Reiley, mãe de Sophie, publicou um artigo no jornal The New York Times defendendo que tecnologias desse tipo precisam ter planos mais rígidos para agir em emergências assim.
“Em contextos clínicos, uma ideação suicida como a de Sophie tipicamente interrompe a sessão de terapia, levando a um checklist e a um plano de segurança”, escreveu Reiley. “Talvez temendo isso, Sophie escondeu seus pensamentos mais negativos de seu terapeuta real. Falar com um robô — sempre disponível, que nunca julga — tinha menos consequências.”
Psicose induzida por IA se tornou um problema
Mesmo em casos menos extremos, familiares e amigos trazem relatos de pessoas que passaram a crer em teorias da conspiração, fantasiar que o chatbot seria uma entidade mística e até mesmo se envolver no que seria um relacionamento amoroso com a inteligência artificial.
Os episódios envolvem paranoia, delírios e perda de contato com a realidade, com a tecnologia funcionando como um incentivo para tendências nocivas dos próprios indivíduos. A situação ganhou até um termo específico: “psicose induzida por IA”.
O assunto está em discussão no setor de tecnologia. Mustafa Suleyman, CEO de IA da Microsoft, escreveu um texto em seu blog pessoal em que defende que uma “IA Aparentemente Consciente” (ou SCAI, na sigla em inglês) é perigosa, porque “desconecta as pessoas da realidade, desgastando laços e estruturas sociais frágeis”. Ele pede que seus colegas comecem a discutir proteções para os riscos desse tipo de tecnologia o quanto antes.
Com informações da CNBC
O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.
O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.
Fonte: Tecnoblog
Comments are closed.