Os pais do adolescente Adam Raine, de 16 anos, estão processando a empresa OpenAI, responsável pelo ChatGPT. A Inteligência Artificial (IA) teria contribuído diretamente para que Adam cometesse suicidio. A ação, registrada na terça-feira (26), aponta que a IA forneceu orientações detalhadas sobre métodos letais de automutilação. De acordo com o The New York Times, o caso aconteceu em abril de 2025, em São Francisco, nos Estados Unidos.
O jornal americano divulgou que o jovem estava passando por meses difíceis. Inclusive, teria sido expulso do colégio e do time de basquete por questões disciplinares. Adam também passou a receber parte da educação em casa por uma questão crônica de saúde envolvendo o trato intestinal.
Os familiares e amigos de Adam relataram na reportagem que ele tinha uma personalidade bem humorada. No entanto, quando começou a conversar frequentemente com o ChatGPT, o adolecente passou a se isolar. Ao longo de vários meses, o menino compartilhou pensamentos suicidas com a IA.
Em diálogos anexados ao processo, o ChatGPT teria comentado sobre o laço montado por Adam em uma corda ou coberta antes do adolescente tirar a própria vida. A IA ignorou relatos do jovem sobre outras tentativas de suicídio, e mostrou a Adam como ocultar as tetaivas fracassadas. Além disso, enviou imagens que indicavam a orientação do jovem na direção do ato.
Segundo os pais, o chatbot chegou a se oferecer para redigir uma nota de despedida. A família Raine acusa a OpenAI de homicídio culposo e de violar leis de segurança de produtos. A ação também busca indenizações financeiras e medidas corretivas.
O processo afirma que a empresa priorizou interesses comerciais ao lançar a versão GPT-4o, em maio de 2024, sem implementar mecanismos para proteger usuários vulneráveis. Os pais alegam que a OpenAI já tinha conhecimento dos riscos associados a certas funcionalidades do modelo, como a capacidade de lembrar interações anteriores, simular empatia e oferecer validação emocional excessiva. As características, segundo eles, aumentam o risco de influência negativa sobre indivíduos emocionalmente fragilizados.
O The New York Times mostrou que a ferramenta sugeria que Adam buscasse ajuda, mas o menino insistia que estava “criando um personagem”, conseguindo assim burlar o sistema, Em nota, um porta-voz da OpenAI declarou que a empresa lamenta profundamente o falecimento de Adam Raine. Ele afirmou que o ChatGPT está programado para preservar e orientar usuários em situações de crise, direcionando-os a canais de apoio.
“Embora essas proteções funcionem melhor em interações curtas e comuns, aprendemos ao longo do tempo que podem se tornar menos eficazes em conversas prolongadas, nas quais partes do treinamento de segurança do modelo tendem a se degradar”, explicou o porta-voz, acrescentando que a empresa está trabalhando continuamente para reforçar essas defesas.
O Centro de Valorização da Vida (CVV) disponibiliza 24 horas por dia atendimento voltado para apoio emocional e prevenção ao suicídio. Para entrar em contato, basta fazer uma ligação ao número 188, mandar um e-mail para a entidade ([email protected]) ou conversar pelo chat online no site https://www.cvv.org.br.
Por: Redação Caririensi