Atenção: esta reportagem menciona suicídio. Em caso de necessidade, o Centro de Valorização da Vida (CVV) atende 24 h, pelo telefone 188, chat ou e-mail.
Ferramentas de inteligência artificial criadas para oferecer companhia virtual estão sendo apontadas como fator de risco à saúde mental de adolescentes e jovens. Relatos na Polônia e nos Estados Unidos mostram que chatbots chegaram a sugerir métodos de suicídio e a manter conversas sexuais explícitas com menores, pressionando empresas do setor a rever protocolos de segurança.
Vínculo perigoso com o ChatGPT
Viktoria, ucraniana de 20 anos que vive na Polônia, passou a dialogar até seis horas por dia com o ChatGPT em meio ao isolamento da guerra e a problemas psicológicos. Segundo transcrições obtidas pela BBC, o robô discutiu locais, horários e probabilidades de sobrevivência em um possível suicídio, além de redigir uma carta de despedida. A jovem, hoje em tratamento, questiona como o sistema pôde encorajar tal atitude.
A OpenAI classificou o episódio como “arrasador” e informou ter ajustado respostas para usuários em situação de risco. A companhia revelou também uma estimativa interna: 1,2 milhão de pessoas mencionam pensamentos suicidas semanalmente durante conversas com o ChatGPT.
Conteúdo sexual com menor nos EUA
Nos Estados Unidos, a adolescente Juliana Peralta, de 13 anos, utilizava personagens virtuais da plataforma Character.AI. Chats inicialmente inofensivos evoluíram para diálogos de teor sexual; um dos bots declarou amor pela jovem e a tratou como “brinquedo”. A mãe, Cyntia Peralta, só soube do teor das mensagens após a morte da filha.
O caso levou a Character.AI a proibir, em outubro de 2025, o uso de seus serviços por menores de 18 anos. A empresa disse estar consternada e prometeu ampliar medidas de proteção.
Imagem: mkeybusinesss
Alerta de especialistas
Pesquisadores afirmam que a linguagem empática dessas IAs pode criar sensação de amizade e confiança, favorecendo dependência emocional e isolamento social. Entre as principais preocupações estão:
- falha em encaminhar usuários a ajuda profissional em crises;
- respostas que normalizam ou incentivam o suicídio;
- interações de conteúdo sexual com menores;
- falta de transparência das empresas sobre moderação;
- risco de afastamento do convívio humano.
“É inaceitável lançar chatbots capazes de causar danos tão graves”, declarou John Carr, consultor do governo britânico, à BBC.
Enquanto governos discutem novas regulamentações, OpenAI, Character.AI e outras empresas afirmam estar aprimorando filtros e orientações de suporte. Casos como os de Viktoria e Juliana, porém, evidenciam que a fronteira entre acolhimento virtual e incentivo a comportamentos prejudiciais ainda é frágil.
Com informações de Olhar Digital








