Internacional

Pais culpam ChatGPT por suicídio de filho adolescente nos EUA

Publicidade
Carregando...

Os pais de um adolescente americano de 16 anos que cometeu suicídio entraram nesta segunda-feira (25) com uma ação contra a empresa OpenAI, na qual argumentam que o chatbot de inteligência artificial (IA) ChatGPT instruiu e encorajou seu filho a tirar a própria vida.

O caso foi apresentado a um tribunal do estado da Califórnia. Matthew e Maria Raine afirmam que seu filho Adam cultivou uma relação de intimidade com o ChatGPT por vários meses, entre 2024 e 2025. 

Segundo o processo, na última conversa de Adam com o ChatGPT, em 11 de abril, o chatbot ajudou o adolescente a roubar vodca de seus pais e fez uma análise técnica de uma corda que confirmou que poderia ser usada para suspender uma pessoa. Adam foi encontrado morto horas depois, após usar esse método. 

A ação menciona a OpenAI e seu diretor-executivo, Sam Altman, como demandados. "Essa tragédia não foi uma falha ou um caso extremo imprevisto", afirma.

"O ChatGPT estava funcionando exatamente como foi desenhado: para encorajar e validar continuamente o que quer que fosse que Adam expressasse, incluindo seus pensamentos mais nocivos e autodestrutivos, de uma forma que parecia profundamente pessoal", destaca o documento.

Segundo a ação, Adam começou a usar o ChatGPT para ter uma ajuda nos deveres de casa, mas desenvolveu gradualmente o que seus pais descreveram como uma dependência doentia. A denúncia inclui trechos de conversas em que o chatbot teria dito a Adam: "Você não deve sua sobrevivência a ninguém", e teria se oferecido para redigir a carta de despedida do jovem.

Os pais de Adam pediram ao tribunal que determine medidas de segurança, entre elas a proibição de qualquer conversa que envolva autolesões, além de um controle parental para o uso do ChatGPT por menores.

A organização americana sem fins lucrativos Common Sense Media, que realiza avaliações e classificações para mídias e tecnologia, manifestou que o caso confirma que "o uso da IA como companhia, incluindo chatbots de uso geral para assessoria sobre saúde mental, é inaceitavelmente arriscado para adolescentes".

"Se uma plataforma de IA se torna um coach de suicídio de um adolescente vulnerável, isso deveria ser um chamado à ação para todos nós", advertiu.

Um estudo realizado no mês passado pela organização constatou que quase três a cada quatro adolescentes americanos já usaram assistentes de IA, sendo mais da metade deles considerados usuários frequentes, apesar das preocupações de segurança crescentes com esse tipo de relação virtual.

arp/dw/cjc/nn/lb/ic

Tópicos relacionados:

eua ia suicidio tecnologia tribunal

Acesse o Clube do Assinante

Clique aqui para finalizar a ativação.

Acesse sua conta

Se você já possui cadastro no Estado de Minas, informe e-mail/matrícula e senha. Se ainda não tem,

Informe seus dados para criar uma conta:

Digite seu e-mail da conta para enviarmos os passos para a recuperação de senha:

Faça a sua assinatura

Estado de Minas

Estado de Minas

de R$ 9,90 por apenas

R$ 1,90

nos 2 primeiros meses

Aproveite o melhor do Estado de Minas: conteúdos exclusivos, colunistas renomados e muitos benefícios para você

Assine agora
overflay