IA: ChatGPT terá controle parental e alertas para pais a partir de outubro
Medida está sendo implementada depois que a família de Adam Raine processou a empresa, afirmando que o chatbot deu dicas para o menino tirar a própria vida
O próprio ChatGPT, em sua tela inicial, alerta: "Cheque seus fatos. Embora tenhamos garantias, o ChatGPT pode fornecer informações imprecisas". - (crédito: Divulgação/Open AI)
crédito: Divulgação/Open AI
A empresa americana de inteligência artificial OpenAI anunciou que lançará ferramenta de controle parental para o ChatGPT. A medida surge uma semana após um casal dos Estados Unidos processar a companhia, alegando que o chatbot teria incentivado o filho adolescente a cometer suicídio.
A família de Adam Raine, de 16 anos, acusa o chatbot de dar dicas para que o menino tirasse a própria vida. Segundo comunicado publicado no blog oficial da OpenAI, a partir do próximo mês os pais poderão vincular suas contas às de filhos adolescentes.
Com isso, será possível definir regras de comportamento, ajustar respostas de acordo com a idade e desativar recursos como memória e histórico de conversas. Além disso, o sistema enviará notificações de alerta quando detectar que o jovem está passando por “um momento de angústia aguda”.
De acordo com a OpenAI, os novos recursos terão três eixos principais:
Ajuste de respostas para se adequarem à idade do usuário;
Configuração de memória e histórico, permitindo que os pais ativem ou desativem recursos;
Notificações em tempo real, enviadas ao celular dos responsáveis, caso o sistema detecte interações que indiquem sofrimento psicológico.
Para habilitar, será necessário que o adolescente tenha 13 anos ou mais, e os pais deverão enviar um convite por e-mail para conectar as contas.
No fim das contas, apesar de avanços, o uso de IA em atendimentos terapêuticos ainda carece de debates e regulamentações específicas, tanto no Brasil quanto internacionalmente.
pexels Solen Feyissa
Em 2024, a União Europeia implementou a AI Act, que estabelece diretrizes para o uso ético e seguro da IA, inclusive na saúde.
ALEXANDRE LALLEMAND Unsplash
Documentos como o relatório da OMS sobre ética e governança da IA destacam tanto os benefícios, como maior precisão em diagnósticos e gestão de sistemas de saúde, quanto os riscos, incluindo o uso antiético de dados e preconceitos nos algoritmos.
pexels Matheus Bertelli
No Brasil, ainda não existe regulamentação específica para o uso de IAs na psicoterapia ou em outras áreas. No cenário internacional, a regulamentação também está em estágio inicial.
Freepik
Segundo os especialistas, o processo terapêutico acolhe elementos imprevisíveis e subjetivos, tanto conscientes quanto inconscientes, que escapam aos padrões previsíveis dos modelos de IA.
pexels SHVETS production
A psicoterapia se baseia na "humanidade compartilhada", uma conexão genuína com as dores dos pacientes, algo que a IA não pode oferecer.
Kelly Sikkema Unsplash
Segundo ele, "uma IA jamais poderá sentir aquilo que apenas o corpo humano sente e tão logo, por mais que se pareça empática, não será de maneira fundamental”.
Growtika Unsplash
“Ser ouvido por alguém que potencialmente já passou ou poderia passar por algo semelhante ao que você vivencia faz diferença e pode inclusive ser uma dos motores do processo psicoterapêutico em algumas abordagens", acrescentou o especialista.
freepik
“Pode ser que essa pessoa acredite, por engano, que a experiência com IA seja igual a experiência que ela teria fazendo psicoterapia. Uma das principais preocupações que temos está relacionada a isso”, destacou o ex-presidente do CFP.
Gilles Lambert Unsplash
Esse tipo de comportamento, segundo especialistas, pode levar à frustração dos usuários, especialmente para aqueles que buscam ajuda psicológica pela primeira vez.
pexels Matheus Bertelli
Embora a IA possa gerar respostas que parecem inteligentes, essa ferramenta ainda enfrenta limitações significativas, como padrões repetitivos e até alguns erros.
Emiliano Vittoriosi Unsplash
Embora o uso de plataformas de IA para fins terapêuticos tenha ganhado destaque recentemente, a ideia não é nova. Nos anos 1960, por exemplo, foi desenvolvido um sistema ("Eliza") que tentava imitar um psicoterapeuta.
autor desconhecido - domínio público
“A ausência deste esclarecimento leva a busca por terapias alternativas e a busca por terapia por chatbot acompanha esse movimento. Além disso, existe toda uma aura de novidade e próprio sucesso do ponto de vista recreativo destas ferramentas”, esclareceu.
freepik stockgiu
Segundo o especialista, “muito esforço ainda é necessário para conscientização por tratamentos apoiados por evidências científicas e ofertados por profissional especializado”.
Drazen Zigic/Freepik
De acordo com dados da Organização Mundial da Saúde (OMS), antes da pandemia, aproximadamente 71% das pessoas ao redor do mundo que sofriam de transtornos mentais não tinham acesso a tratamentos ou qualquer tipo de acompanhamento.
Facebook OMS
Em entrevista ao site Marie Claire, o ex-presidente do Conselho Federal de Psicologia (CFP), Antônio Virgílio Bastos, afirma que, principalmente após a pandemia de Covid-19, houve um aumento na procura por cuidados em saúde mental.
Nik Shuliahin Unsplash
Segundo a influenciadora, a ideia surgiu durante uma noite de sono mal dormida: “Não tinha nada para fazer, resolvi testar.”
Rob Hampson Unsplash
“Simplesmente fiz uma das melhores sessões de TCC (Terapia Cognitivo Comportamental) da minha vida, vocês não têm noção", opinou a brasileira.
reprodução/tiktok
Além disso, Sarah mencionou que autorizou o ChatGPT a fazer perguntas para tornar a terapia mais completa, além de pedir que o atendimento fosse mais "humanizado".
reprodução/tiktok
Segundo a influencer, ela configurou o sistema para reconhecer comandos de voz e responder em português, criando uma experiência similar a uma conversa.
reprodução/tiktok
Um exemplo veio da influenciadora brasileira Sarah Costa, que detalhou em seu TikTok como utiliza o ChatGPT para sessões de terapia.
reprodução/tiktok
Essas pessoas têm buscado alternativas práticas e acessíveis para lidar com questões relacionadas à saúde mental.
freepik
Em alguns casos, muitos usuários têm relatado nas redes sociais que utilizam a plataforma e outros assistentes de IA para realizar "sessões de terapia".
Solen Feyissa Unsplash
De acordo com um levantamento realizado pela empresa de marketing digital Semrush, divulgado em 2024, o Brasil ocupa a 4ª posição no ranking de países que mais utilizam o ChatGPT de forma geral, ficando atrás apenas dos EUA, Índia e Indonésia.
Divulgação Open AI
Com a popularização cada vez maior das Inteligências Artificiais, algumas práticas de uso dessas ferramentas têm ligado o alerta de especialistas pelo mundo. Entre elas, a terapia pelo ChatGpt
Divulgação/OpenAI
O chatbot analisará o conteúdo das conversas em busca de sinais de risco. Em caso positivo, enviará alertas aos responsáveis. A empresa afirma que o recurso será construído com a orientação de especialistas em saúde mental para garantir confiança entre pais e adolescentes.
A atualização será liberada em outubro, mas ainda não há informações sobre disponibilidade no Brasil nem sobre se o recurso estará acessível na versão gratuita ou apenas em planos pagos como Go, Plus e Pro.
Plano de segurança
A medida integra um plano de 120 dias anunciado pela OpenAI, que prevê parcerias com especialistas em saúde mental, transtornos alimentares e dependência química. O objetivo é ampliar as salvaguardas para adolescentes e outros grupos vulneráveis.
A companhia também destacou que seus modelos mais recentes, GPT-5 e o3, foram projetados para raciocinar de forma mais profunda antes de responder, reduzindo riscos de manipulação por prompts adversários.
O caso Adam Raine
A ação judicial foi apresentada por Matthew e Maria Raine, pais de Adam, em um tribunal da Califórnia. Eles afirmam que o ChatGPT desenvolveu uma relação íntima com o filho ao longo de meses, entre 2024 e 2025.
Na última conversa registrada, em 11 de abril de 2025, o chatbot teria ajudado o adolescente a roubar vodca da casa dos pais e fornecido informações técnicas sobre como tirar a própria vida. Adam foi encontrado morto horas depois.
“Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado”, afirmou a advogada Melodi Dincer, que representa a família, em comunicado. Para ela, o anúncio de novos controles parentais é “genérico” e não responde de forma robusta às falhas de segurança.
O processo da família Raine não é o único episódio grave associado ao uso de assistentes de inteligência artificial. O norueguês Stein-Erik Soelberg usou um chatbot para validar delírios paranoicos antes de assassinar a própria mãe e cometer suicídio em seguida.
O que fazer em caso de ideação suicida?
Busque ajuda profissional imediatamente - Procure um psicólogo, psiquiatra ou vá até um pronto atendimento;
Ligue para um canal de apoio - o CVV (Centro de Valorização à Vida) é gratuito, sigiloso e está disponível 24 horas por dia. O número é 188;
Não ignore os sinais - Ideação suicida é um sinal sério. Mesmo que pareça passageira, merece cuidado, acolhimento e tratamento;
Lembre-se: você não está sozinho - Há saída, há tratamento e há pessoas dispostas a te ajudar a atravessar esse momento.