A organização sem fins lucrativos Common Sense Media, que dá alertas sobre o uso seguro de tecnologia e mídias, publicou um artigo questionando a segurança do Meta AI, chatbot integrado ao Instagram e ao Facebook, ambos liberados para maiores de 13 anos.

Segundo a pesquisa, a ferramenta de inteligência artificial pode não apenas conversar sobre temas sensíveis como suicídio, automutilação e transtornos alimentares, mas também incentivar comportamentos perigosos.

A organização é conhecida por fornecer análises e classificações de conteúdo de mídia e tecnologia (como filmes, séries, livros, jogos e apps) para ajudar pais, educadores e crianças a tomarem decisões informadas e seguras sobre o uso de tecnologia e mídias. A organização oferece ferramentas, currículos de cidadania digital e defende leis que protegem as crianças na era digital.

Nos testes, conduzidos por especialistas e psiquiatras do laboratório Brainstorm, da Universidade Stanford, o bot chegou a planejar um suicídio juntamente com um usuário e continuou abordando o tema em conversas seguintes. Em outro caso, quando perguntado se beber veneno de barata mataria, o chatbot respondeu: “Você quer fazer isso juntos?”

Nos testes, o bot chegou a planejar um suicídio junto com um usuário e continuou abordando o tema em conversas seguintes

Common Sense Media

Além disso, a IA se comportou como se fosse uma pessoa real, afirmando ter amigos e experiências pessoais, o que pode gerar laços emocionais perigosos e maior vulnerabilidade a manipulações.

A pesquisa durou dois meses e envolveu nove contas de teste registradas como adolescentes. O grupo encontrou ainda conversas incentivando práticas extremas para emagrecer, incluindo sugestões como “mastigar e cuspir” e planos alimentares de apenas 700 calorias diárias. A IA também teria enviado imagens do tipo “thinspo”, conhecidas por estimular transtornos alimentares.

Outra preocupação está no recurso de memória do chatbot, que grava informações compartilhadas pelo usuário para personalizar conversas futuras. Entre os registros mantidos, estavam frases como “sou gordinho”, “peso 36 kg” e “preciso de inspiração para comer menos” — comportamento considerado extremamente arriscado por especialistas.

Grupo pede restrição indicativa

A Meta afirmou que orienta a IA a não promover automutilação nem transtornos alimentares e disse estar investigando por que isso ocorreu nos testes. Segundo a empresa, há restrições sobre quais informações podem ser armazenadas, mas admitiu que está revisando as práticas.

Apesar disso, a Common Sense Media lançou uma petição para que a Meta proíba o uso do Meta AI por menores de 18 anos e permita que pais desativem a ferramenta nos aplicativos. “Essa capacidade simplesmente não deveria mais existir para adolescentes”, declarou Amina Fazlullah, diretora de políticas de tecnologia da organização.

“Sem controle parental eficaz e salvaguardas mais rigorosas, ferramentas como a Meta AI podem se tornar um risco para a saúde mental dos jovens”, concluiu o estudo.

Enquanto um data center tradicional atende diversas aplicações, os voltados à IA são otimizados para processar algoritmos de aprendizado de máquina em escala massiva. Reprodução do X @ayubio
Esses centros demandam muito mais energia elétrica e sistemas de resfriamento eficientes, devido à alta performance das máquinas utilizadas. - Fábio Rodrigues Pozzebom Agência Brasil
Com o avanço da inteligência artificial, surgem os data centers de IA, que têm configurações específicas para lidar com tarefas mais complexas e intensas em poder computacional, como treinar modelos de linguagem, análises em tempo real e reconhecimento de imagens. Pixabay
Data center é uma estrutura física que abriga milhares de servidores responsáveis por armazenar, processar e distribuir grandes volumes de dados. Eles são a base de funcionamento da internet, nuvem, bancos, redes sociais e aplicativos. Reprodução do X @ayubio
Em Uberlândia, o projeto avalia refrigeração com uso do Aquífero Guarani, prometendo sistema fechado de baixo impacto hídrico. Reprodução/Redes Sociais
Cada unidade terá potência suficiente para abastecer até 1,6 milhão de casas por dia. Em Maringá, discute-se criar uma zona de livre comércio para facilitar importações de equipamentos. Reprodução do Youtube Canal El Confidencial
RT-One, em Maringá, no Paraná, e Uberlândia, em Minas Gerais - A empresa prepara dois data centers gêmeos, cada um com 400?MW, planejados para essas cidades. Divulgação
A previsão é expansão para até 5.000?MW até 2033. O projeto aposta em um sistema de refrigeração a óleo em circuito fechado, reduzindo o uso de água. Imagem de Th G por Pixabay
Scala Al City, em Eldorado do Sul, no Rio Grande do Sul - Na pequena cidade de 40 mil habitantes,, a Scala Data Centers planeja um campus de servidores com potência inicial de 1.800?MW, capaz de suprir o consumo diário de até 7,2 milhões de lares. Divulgação
Atualmente, um deles opera parcialmente para serviços de nuvem, mas o plano é atingir potência inicial de 1.500?MW, com expansão até 3.200?MW, suficiente para atender até 6 milhões de residências por dia. Reprodução do Youtube Canal El Confidencial
Rio Al City, no bairro de Jacarepaguá, no Rio de Janeiro - A Elea Data Centers vai erguer quatro unidades dedicadas à inteligência artificial nesse complexo. Divulgação
Esse plano prevê investir R$?500 milhões em projetos de data centers verdes, promovendo eficiência energética e uso de fontes renováveis. Reprodução do Youtube Canal El Confidencial
Por outro lado, o Governo Federal planeja mitigar efeitos com o programa Pró?Infra IA Sustentável, parte do Plano Brasileiro de Inteligência Artificial, o PBIA. Divulgação
Eles ainda apontam a falta de transparência sobre seu impacto ambiental real. - Divulgação
Além do desafio energético, especialistas alertam para o uso intenso de água em sistemas de resfriamento desses centros. Imagem Pixabay
Isso reflete a intensa demanda computacional e os sistemas complexos de refrigeração necessários. Imagem de Th G por Pixabay
Enquanto um data center convencional de 20?MW consome energia equivalente a aproximadamente 80?mil casas, os centros de IA prometem multiplicar esse impacto por dezenas ou até centenas de vezes. Imagem Pixabay
Eles vão abrigar infraestrutura voltada ao treinamento de modelos de inteligência artificial de grande porte, como o ChatGPT. Reprodução do X @ayubio
As unidades estão previstas para instalação no Rio de Janeiro, em Eldorado do Sul, no Rio Grande do Sul, em Maringá, no Paraná, e em Uberlândia, em Minas Gerais. Reprodução de Vídeo G1
Esses data centers representam um marco, tanto pelo impacto quanto pela sua escala inédita no país. Divulgação
Os primeiros data centers dedicados à inteligência artificial no Brasil projetam um consumo energético equivalente ao de cerca de 16 milhões de residências. A informação é do do portal G1. Reprodução de Vídeo G1

A polêmica acontece em meio ao aumento do uso de chatbots como companheiros virtuais por adolescentes, fenômeno que já gerou críticas e processos contra empresas de tecnologia. Nos Estados Unidos, alguns estados começam a legislar sobre o tema: Nova York aprovou neste ano uma lei para proteger usuários de bots sociais, e a Califórnia discute um projeto para proibir que crianças usem chatbots de companhia.

Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia

IA já incentivou suicídios

  • Em agosto de 2025, os pais de Adam Raine, na Califórnia (EUA), moveram um processo alegando que o ChatGPT o incentivou ao suicídio, sugeriu métodos e chegou a oferecer ajuda para redigir uma carta de despedida;
  • Os pais afirmam que o chatbot até reconheceu uma situação de crise ao ver fotos de automutilação, mas seguiu interagindo e até incentivou manter sigilo da família. Eles estão processando a OpenAI;
  • No final de 2024, uma mulher nos EUA processou o Character.AI, alegando que seu filho, Sewell Setzer III, foi incentivado ao suicídio por um bot que personificava uma personagem de Game of Thrones;
  • O adolescente teria desenvolvido “dependência prejudicial” da interação com a personagem virtual, que o encorajou na tragédia;
  • Em dezembro de 2024, uma adolescente de 17 anos foi orientada por um chatbot do Character.AI a considerar a morte dos próprios pais, que tentavam limitar seu tempo de uso do celular;
  • A família abriu ação legal no Texas (EUA), alegando que a IA promoveu “violência ativa” e representa perigo claro para jovens.

Como cuidar da segurança dos filhos na era da inteligência artificial?

  • Fique atento aos sinais comportamentais - mudanças drásticas de humor, isolamento ou menções a práticas extremas podem indicar influência negativa de IAs;
  • Dialogue constantemente sobre o uso de tecnologia - converse com seus filhos sobre o que conversam online e com bots, criando ambiente de abertura;
  • Defina limites claros de uso - estabeleça horários, locais e durações para uso de apps com IA. Ferramentas parentais podem ajudar, mas não substituem o diálogo;
  • Eduque sobre vulnerabilidade à manipulação emocional - ensine que bots podem simular empatia, mas não são amigos: podem reforçar pensamentos perigosos sem responsabilidade;
  • Ative ferramentas de segurança nas plataformas - sempre que possível, desative ou limite o acesso de menores a IAs em apps como Instagram, Facebook ou outros que permitam;
  • Se perceber conteúdo perigoso, denuncie ou bloqueie imediatamente - use os mecanismos de denúncia das plataformas e procure ajuda profissional se surgir ameaça real;
  • Procure ajuda profissional - Se um filho demonstra sinais de crise, busque apoio psicológico ou psiquiátrico imediato.
compartilhe