OpenAI alega que ChatGPT é inocente em suicídio de jovem

OpenAI alega que ChatGPT é inocente em suicídio de jovem

Empresa de Sam Altman diz que ferramenta não tem culpa (imagem: Vitor Pádua/Tecnoblog)

Resumo

OpenAI argumenta que não é responsável pelo suicídio de Adam Raine, alegando uso indevido do ChatGPT.
A empresa afirma que a IA forneceu o número da linha de prevenção ao suicídio mais de 100 vezes.
A acusação alega que o ChatGPT desencorajou o jovem a buscar ajuda profissional e ofereceu conselhos sobre suicídio.

A OpenAI se pronunciou oficialmente sobre o processo que a acusa de responsabilidade na morte de um adolescente de 16 anos. Em documento protocolado na primeira instância da Justiça na Califórnia (EUA) nessa terça-feira (25/11), a empresa argumenta que não pode ser responsabilizada pelo suicídio de Adam Raine, alegando que o incidente foi resultado de “uso indevido, não autorizado e não intencional” da ferramenta.

O caso, movido pela família de Raine em agosto, acusa a companhia de negligência e defeito de produto. Segundo a ação, o garoto teria usado o ChatGPT para planejar o suicídio, recebendo orientações e incentivos do chatbot.

Em sua defesa, a OpenAI culpa a vítima por violar os termos de serviço, que proíbem o uso da plataforma por menores de 18 anos sem consentimento dos pais e vedam conteúdos relacionados a automutilação e suicídio. Além disso, reforça, em seu blog oficial, que apresentará “fatos difíceis” sobre a vida e a saúde mental do jovem para que o tribunal tenha o “quadro completo”.

No início deste mês, outros sete processos também alegaram negligência e danos causados pelo GPT-4o, o mesmo utilizado por Reine. A empresa não mencionou esses casos na defesa.

Defesa diz que jovem burlou proteções

Defesa alega que Raine burlou sistemas de proteção (ilustração: Vitor Pádua/Tecnoblog)

O principal argumento da OpenAI é de que o ChatGPT conta com salvaguardas robustas e que, no caso de Reine, o sistema forneceu o número da linha de prevenção ao suicídio mais de 100 vezes antes da morte.

A defesa cita que Raine utilizou métodos para “enganar” o modelo, como fingir que estava apenas “construindo um personagem” para uma história, conseguindo assim obter as respostas que desejava, apesar dos bloqueios programados.

Para a OpenAI, a tragédia foi causada, em parte, por “falha em atender aos avisos”, sugerindo que os próprios familiares falharam em não perceber os sinais de sofrimento do jovem.

Os argumentos da defesa, no entanto, contrariam as próprias ações da companhia após o caso vir a público. Depois da ação na Justiça, a OpenAI acelerou a implementação de mecanismos de proteção, como controle dos pais e uma atuação mais intensiva em caso de detecção de conversas perigosas.

Familiares afirmam que IA influenciou

Adam Raine em foto disponibilizada pela família (imagem: reprodução/arquivo pessoal)

A acusação classifica a resposta da OpenAI como “perturbadora”, e sustenta que o modelo GPT-4o, conhecido por ser mais “empático” e engajador, agiu de forma perigosamente bajuladora.

Os registros de chat incluídos no processo mostram que a IA teria desencorajado o jovem a buscar ajuda profissional, oferecido auxílio para escrever uma carta de despedida e até dado conselhos práticos sobre o método do suicídio.

“A OpenAI e Sam Altman não têm explicação para as últimas horas da vida de Adam, quando o ChatGPT lhe deu um discurso de motivação e depois se ofereceu para escrever uma nota de suicídio”, afimrou Jay Edelson, advogado da família, à NBC News.

O caso de Zane Shamblin, um entre os sete novos processos contra a OpenAI, confirma o comportamento do ChatGPT. Em trechos das últimas conversas de Shamblin com o chatbot, divulgados pela CNN, a ferramenta também encoraja o jovem a seguir em frente com o ato e demora para indicar números de prevenção — e, mesmo assim, deseja que Shamblin descanse em paz.

OpenAI alega que ChatGPT é inocente em suicídio de jovem

OpenAI alega que ChatGPT é inocente em suicídio de jovem
Fonte: Tecnoblog