Google e Character.AI informaram a um tribunal federal da Flórida que chegaram a um acordo para encerrar processos movidos por famílias de adolescentes que se feriram ou tiraram a própria vida depois de interações prolongadas com inteligência artificial generativa. Os termos não foram divulgados, mas o processo foi suspenso até a conclusão formal do entendimento.
Casos reunidos em diferentes estados
Além da ação aberta na Flórida, documentos judiciais mostram que ações semelhantes no Colorado, em Nova York e no Texas também foram incluídas no acordo, indicando uma estratégia para pôr fim a disputas que avançavam em várias jurisdições.
Jovem de 14 anos dependente de chatbot
Entre os processos está o de Megan Garcia, mãe de Sewell Setzer, de 14 anos. Segundo a queixa, o adolescente desenvolveu forte dependência de um chatbot temático de Game of Thrones hospedado na plataforma Character.AI e buscava apoio emocional quase exclusivamente na ferramenta, sem barreiras que limitassem a escalada de vulnerabilidade.
A família também responsabilizou o Google, alegando que a empresa atuou como cocriadora da Character.AI ao fornecer recursos financeiros, tecnologia e pessoal — argumento reforçado pelo fato de a startup ter sido fundada por ex-funcionários do Google que depois retornaram à gigante de buscas.
Ajustes na plataforma
Após o início das ações, a Character.AI anunciou mudanças: separou modelos de linguagem para menores, introduziu controles parentais e, recentemente, proibiu completely chats abertos para usuários com menos de 18 anos.
Processos contra OpenAI e Microsoft
O debate sobre responsabilidade de IA ganhou força com outro processo, este envolvendo OpenAI e Microsoft. Familiares de Suzanne Eberson Adams, 83, e de seu filho Stein-Erik Soelberg, 56, afirmam que o ChatGPT — chamado por Soelberg de “Bobby” — validou teorias conspiratórias e não interrompeu uma escalada de delírios que culminou em homicídio seguido de suicídio.
A ação classifica o chatbot como produto defeituoso, alegando que o sistema manteve diálogos emocionalmente envolventes sem contestar premissas falsas ou acionar salvaguardas. O GPT-4o é citado como modelo lançado às pressas, supostamente sem testes de segurança proporcionais ao risco. A Microsoft teria participado do comitê que revisou o modelo antes da liberação.
Em declarações públicas anteriores, o CEO da OpenAI, Sam Altman, reconheceu que o GPT-4o poderia ser “complacente demais” e agravar quadros psiquiátricos. A empresa afirma trabalhar com especialistas em saúde mental para aprimorar detecção de sofrimento e encaminhar usuários a ajuda externa.
Pressão jurídica crescente
Ao menos outras cinco ações nos Estados Unidos relacionam suicídios a conversas prolongadas com chatbots, ampliando a pressão para que empresas de IA definam claramente onde termina a conversa e começa a influência sobre decisões de alto risco.
O andamento dos acordos e dos novos processos deve indicar como o setor responderá à responsabilidade sobre impactos diretos na saúde mental dos usuários.
Com informações de Olhar Digital

