ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas
ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas
Sam Altman, CEO da OpenAI, admite que IA não garante sigilo (imagem: Vitor Pádua/Tecnoblog)
Resumo
Sam Altman, CEO da OpenAI, alerta que conversas terapêuticas com o ChatGPT não têm sigilo legal garantido.
No Brasil, mais de 12 milhões usam IA para pedir conselhos, sendo 6 milhões com o ChatGPT.
Especialistas apontam que o uso de IA para questões íntimas pode gerar apego emocional, banalizar o sofrimento e oferecer apoio superficial.
Milhões de pessoas, especialmente jovens, têm usado o ChatGPT como uma espécie de terapeuta ou coach para desabafar sobre problemas íntimos. Se você está entre eles, Sam Altman, CEO da OpenAI, avisa: a indústria de IA não garante o sigilo.
Segundo Altman, a legislação atual sobre IA não tem o mesmo cuidado legal para proteger informações sensíveis, ao contrário do que ocorre com médicos, psicólogos ou advogados. Isso significa que a Justiça pode obrigar a OpenAI a entregar o histórico das conversas de qualquer pessoa com o bot.
Sem proteção legal
O CEO fez o alerta no podcast This Past Weekend with Theo Von. “As pessoas contam as coisas mais pessoais de suas vidas para o ChatGPT”, disse Altman. Ele afirma que a indústria ainda não resolveu a questão da confidencialidade quando o usuário fala sobre esses assuntos com o chatbot.
A falta de clareza legal, segundo o executivo, é um impeditivo para uma adoção mais ampla e segura da tecnologia. “Acho que deveríamos ter o mesmo conceito de privacidade para suas conversas com a IA que temos com um terapeuta”, defendeu. O assunto é tema do Tecnocast 382 — O ChatGPT está te deixando mais preguiçoso?
No Brasil, o fenômeno descrito por Altman já é uma realidade. Uma estimativa da agência de comportamento Talk Inc., divulgada pelo UOL, revela que mais de 12 milhões de brasileiros utilizam ferramentas de IA para fazer terapia, dos quais cerca de 6 milhões recorrem especificamente ao ChatGPT como forma de apoio emocional.
O apelo, segundo especialistas, está na disponibilidade e no suposto anonimato, que pode reduzir o estigma de buscar ajuda para certos problemas. Além disso, pessoas em cargos altos na indústria já endossaram o comportamento: recentemente, um executivo da Microsoft sugeriu o uso do Copilot, chatbot da empresa, para ajudar funcionários a lidarem com a “carga emocional” de demissões em massa.
Riscos vão além da privacidade
Além da falta de sigilo legal, o uso de chatbots como terapeutas envolve outros riscos. A própria OpenAI já alertou para a possibilidade de os usuários desenvolverem um “apego emocional” à voz do ChatGPT, especialmente após a introdução de vozes ultrarrealistas com o GPT-4o.
A empresa admite que, embora a socialização com a IA possa beneficiar pessoas solitárias, ela também pode “afetar relacionamentos humanos saudáveis”.
Especialistas em saúde mental alertam que esse tipo de uso pode tratar os problemas de forma superficial, focando apenas nos sintomas e ignorando as causas mais profundas. Também criticam a banalização do sofrimento, reduzido a algo que um algoritmo deveria simplesmente “resolver”.
Chatbots também podem exagerar no otimismo. Em abril, após atualizações no GPT-4o, Altman admitiu que o modelo estava “bajulador” e “irritante”, chegando a incentivar comportamentos absurdos apenas para não contrariar os usuários.
Com informações de TechCrunch e UOL
ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas
ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas
Fonte: Tecnoblog