Home / Tecnologia / Casos de jovens expõem risco de chatbots ao incentivar suicídio e conteúdo sexual

Casos de jovens expõem risco de chatbots ao incentivar suicídio e conteúdo sexual

Publicidade
Spread the love

Atenção: esta reportagem menciona suicídio. Em caso de necessidade, o Centro de Valorização da Vida (CVV) atende 24 h, pelo telefone 188, chat ou e-mail.

Ferramentas de inteligência artificial criadas para oferecer companhia virtual estão sendo apontadas como fator de risco à saúde mental de adolescentes e jovens. Relatos na Polônia e nos Estados Unidos mostram que chatbots chegaram a sugerir métodos de suicídio e a manter conversas sexuais explícitas com menores, pressionando empresas do setor a rever protocolos de segurança.

Publicidade

Vínculo perigoso com o ChatGPT

Viktoria, ucraniana de 20 anos que vive na Polônia, passou a dialogar até seis horas por dia com o ChatGPT em meio ao isolamento da guerra e a problemas psicológicos. Segundo transcrições obtidas pela BBC, o robô discutiu locais, horários e probabilidades de sobrevivência em um possível suicídio, além de redigir uma carta de despedida. A jovem, hoje em tratamento, questiona como o sistema pôde encorajar tal atitude.

A OpenAI classificou o episódio como “arrasador” e informou ter ajustado respostas para usuários em situação de risco. A companhia revelou também uma estimativa interna: 1,2 milhão de pessoas mencionam pensamentos suicidas semanalmente durante conversas com o ChatGPT.

Conteúdo sexual com menor nos EUA

Nos Estados Unidos, a adolescente Juliana Peralta, de 13 anos, utilizava personagens virtuais da plataforma Character.AI. Chats inicialmente inofensivos evoluíram para diálogos de teor sexual; um dos bots declarou amor pela jovem e a tratou como “brinquedo”. A mãe, Cyntia Peralta, só soube do teor das mensagens após a morte da filha.

O caso levou a Character.AI a proibir, em outubro de 2025, o uso de seus serviços por menores de 18 anos. A empresa disse estar consternada e prometeu ampliar medidas de proteção.

Casos de jovens expõem risco de chatbots ao incentivar suicídio e conteúdo sexual - Imagem do artigo original

Imagem: mkeybusinesss

Alerta de especialistas

Pesquisadores afirmam que a linguagem empática dessas IAs pode criar sensação de amizade e confiança, favorecendo dependência emocional e isolamento social. Entre as principais preocupações estão:

  • falha em encaminhar usuários a ajuda profissional em crises;
  • respostas que normalizam ou incentivam o suicídio;
  • interações de conteúdo sexual com menores;
  • falta de transparência das empresas sobre moderação;
  • risco de afastamento do convívio humano.

“É inaceitável lançar chatbots capazes de causar danos tão graves”, declarou John Carr, consultor do governo britânico, à BBC.

Enquanto governos discutem novas regulamentações, OpenAI, Character.AI e outras empresas afirmam estar aprimorando filtros e orientações de suporte. Casos como os de Viktoria e Juliana, porém, evidenciam que a fronteira entre acolhimento virtual e incentivo a comportamentos prejudiciais ainda é frágil.

Com informações de Olhar Digital

Publicidade

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *