IA: ChatGPT terá controle parental e alertas para pais a partir de outubro
Medida está sendo implementada depois que a família de Adam Raine processou a empresa, afirmando que o chatbot deu dicas para o menino tirar a própria vida
Formada pela UFMG, atua no jornalismo desde 2014 e tem experiência como editora e repórter. Trabalhou na Rádio UFMG e na Faculdade de Medicina da UFMG. Faz parte da editoria de Distribuição de Conteúdo / Redes Sociais do Estado de Minas desde 2022
ChatGPT vai contar com funcionalidade para menores de idade, a partir de 13 anos crédito: Divulgação/Open AI
A empresa americana de inteligência artificial OpenAI anunciou que lançará ferramenta de controle parental para o ChatGPT. A medida surge uma semana após um casal dos Estados Unidos processar a companhia, alegando que o chatbot teria incentivado o filho adolescente a cometer suicídio.
A família de Adam Raine, de 16 anos, acusa o chatbot de dar dicas para que o menino tirasse a própria vida. Segundo comunicado publicado no blog oficial da OpenAI, a partir do próximo mês os pais poderão vincular suas contas às de filhos adolescentes.
Com isso, será possível definir regras de comportamento, ajustar respostas de acordo com a idade e desativar recursos como memória e histórico de conversas. Além disso, o sistema enviará notificações de alerta quando detectar que o jovem está passando por “um momento de angústia aguda”.
De acordo com a OpenAI, os novos recursos terão três eixos principais:
Ajuste de respostas para se adequarem à idade do usuário;
Configuração de memória e histórico, permitindo que os pais ativem ou desativem recursos;
Notificações em tempo real, enviadas ao celular dos responsáveis, caso o sistema detecte interações que indiquem sofrimento psicológico.
Para habilitar, será necessário que o adolescente tenha 13 anos ou mais, e os pais deverão enviar um convite por e-mail para conectar as contas.
Com a popularização cada vez maior das Inteligências Artificiais, algumas práticas de uso dessas ferramentas têm ligado o alerta de especialistas pelo mundo. Entre elas, a terapia pelo ChatGpt Divulgação/OpenAI
De acordo com um levantamento realizado pela empresa de marketing digital Semrush, divulgado em 2024, o Brasil ocupa a 4ª posição no ranking de países que mais utilizam o ChatGPT de forma geral, ficando atrás apenas dos EUA, Índia e Indonésia. Divulgação Open AI
Em alguns casos, muitos usuários têm relatado nas redes sociais que utilizam a plataforma e outros assistentes de IA para realizar "sessões de terapia". Solen Feyissa Unsplash
Essas pessoas têm buscado alternativas práticas e acessíveis para lidar com questões relacionadas à saúde mental. freepik
Um exemplo veio da influenciadora brasileira Sarah Costa, que detalhou em seu TikTok como utiliza o ChatGPT para sessões de terapia. reprodução/tiktok
Segundo a influencer, ela configurou o sistema para reconhecer comandos de voz e responder em português, criando uma experiência similar a uma conversa. reprodução/tiktok
Além disso, Sarah mencionou que autorizou o ChatGPT a fazer perguntas para tornar a terapia mais completa, além de pedir que o atendimento fosse mais "humanizado". reprodução/tiktok
“Simplesmente fiz uma das melhores sessões de TCC (Terapia Cognitivo Comportamental) da minha vida, vocês não têm noção", opinou a brasileira. reprodução/tiktok
Segundo a influenciadora, a ideia surgiu durante uma noite de sono mal dormida: “Não tinha nada para fazer, resolvi testar.”
Rob Hampson Unsplash
Em entrevista ao site Marie Claire, o ex-presidente do Conselho Federal de Psicologia (CFP), Antônio Virgílio Bastos, afirma que, principalmente após a pandemia de Covid-19, houve um aumento na procura por cuidados em saúde mental. Nik Shuliahin Unsplash
De acordo com dados da Organização Mundial da Saúde (OMS), antes da pandemia, aproximadamente 71% das pessoas ao redor do mundo que sofriam de transtornos mentais não tinham acesso a tratamentos ou qualquer tipo de acompanhamento. Facebook OMS
Segundo o especialista, “muito esforço ainda é necessário para conscientização por tratamentos apoiados por evidências científicas e ofertados por profissional especializado”. Drazen Zigic/Freepik
“A ausência deste esclarecimento leva a busca por terapias alternativas e a busca por terapia por chatbot acompanha esse movimento. Além disso, existe toda uma aura de novidade e próprio sucesso do ponto de vista recreativo destas ferramentas”, esclareceu. freepik stockgiu
Embora o uso de plataformas de IA para fins terapêuticos tenha ganhado destaque recentemente, a ideia não é nova. Nos anos 1960, por exemplo, foi desenvolvido um sistema ("Eliza") que tentava imitar um psicoterapeuta. autor desconhecido - domínio público
Embora a IA possa gerar respostas que parecem inteligentes, essa ferramenta ainda enfrenta limitações significativas, como padrões repetitivos e até alguns erros. Emiliano Vittoriosi Unsplash
Esse tipo de comportamento, segundo especialistas, pode levar à frustração dos usuários, especialmente para aqueles que buscam ajuda psicológica pela primeira vez. pexels Matheus Bertelli
“Pode ser que essa pessoa acredite, por engano, que a experiência com IA seja igual a experiência que ela teria fazendo psicoterapia. Uma das principais preocupações que temos está relacionada a isso”, destacou o ex-presidente do CFP. Gilles Lambert Unsplash
“Ser ouvido por alguém que potencialmente já passou ou poderia passar por algo semelhante ao que você vivencia faz diferença e pode inclusive ser uma dos motores do processo psicoterapêutico em algumas abordagens", acrescentou o especialista. freepik
Segundo ele, "uma IA jamais poderá sentir aquilo que apenas o corpo humano sente e tão logo, por mais que se pareça empática, não será de maneira fundamental”. Growtika Unsplash
A psicoterapia se baseia na "humanidade compartilhada", uma conexão genuína com as dores dos pacientes, algo que a IA não pode oferecer. Kelly Sikkema Unsplash
Segundo os especialistas, o processo terapêutico acolhe elementos imprevisíveis e subjetivos, tanto conscientes quanto inconscientes, que escapam aos padrões previsíveis dos modelos de IA. pexels SHVETS production
No Brasil, ainda não existe regulamentação específica para o uso de IAs na psicoterapia ou em outras áreas. No cenário internacional, a regulamentação também está em estágio inicial. Freepik
Documentos como o relatório da OMS sobre ética e governança da IA destacam tanto os benefícios, como maior precisão em diagnósticos e gestão de sistemas de saúde, quanto os riscos, incluindo o uso antiético de dados e preconceitos nos algoritmos. pexels Matheus Bertelli
Em 2024, a União Europeia implementou a AI Act, que estabelece diretrizes para o uso ético e seguro da IA, inclusive na saúde. ALEXANDRE LALLEMAND Unsplash
No fim das contas, apesar de avanços, o uso de IA em atendimentos terapêuticos ainda carece de debates e regulamentações específicas, tanto no Brasil quanto internacionalmente. pexels Solen Feyissa
O chatbot analisará o conteúdo das conversas em busca de sinais de risco. Em caso positivo, enviará alertas aos responsáveis. A empresa afirma que o recurso será construído com a orientação de especialistas em saúde mental para garantir confiança entre pais e adolescentes.
A atualização será liberada em outubro, mas ainda não há informações sobre disponibilidade no Brasil nem sobre se o recurso estará acessível na versão gratuita ou apenas em planos pagos como Go, Plus e Pro.
Plano de segurança
A medida integra um plano de 120 dias anunciado pela OpenAI, que prevê parcerias com especialistas em saúde mental, transtornos alimentares e dependência química. O objetivo é ampliar as salvaguardas para adolescentes e outros grupos vulneráveis.
A companhia também destacou que seus modelos mais recentes, GPT-5 e o3, foram projetados para raciocinar de forma mais profunda antes de responder, reduzindo riscos de manipulação por prompts adversários.
O caso Adam Raine
A ação judicial foi apresentada por Matthew e Maria Raine, pais de Adam, em um tribunal da Califórnia. Eles afirmam que o ChatGPT desenvolveu uma relação íntima com o filho ao longo de meses, entre 2024 e 2025.
Na última conversa registrada, em 11 de abril de 2025, o chatbot teria ajudado o adolescente a roubar vodca da casa dos pais e fornecido informações técnicas sobre como tirar a própria vida. Adam foi encontrado morto horas depois.
“Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado”, afirmou a advogada Melodi Dincer, que representa a família, em comunicado. Para ela, o anúncio de novos controles parentais é “genérico” e não responde de forma robusta às falhas de segurança.
O processo da família Raine não é o único episódio grave associado ao uso de assistentes de inteligência artificial. O norueguês Stein-Erik Soelberg usou um chatbot para validar delírios paranoicos antes de assassinar a própria mãe e cometer suicídio em seguida.
O que fazer em caso de ideação suicida?
Busque ajuda profissional imediatamente - Procure um psicólogo, psiquiatra ou vá até um pronto atendimento;
Ligue para um canal de apoio - o CVV (Centro de Valorização à Vida) é gratuito, sigiloso e está disponível 24 horas por dia. O número é 188;
Não ignore os sinais - Ideação suicida é um sinal sério. Mesmo que pareça passageira, merece cuidado, acolhimento e tratamento;
Lembre-se: você não está sozinho - Há saída, há tratamento e há pessoas dispostas a te ajudar a atravessar esse momento.