','

'); } ?>

Google e Character.AI fecham acordos judiciais após suicídios de adolescentes ligados a chatbots

Publicidade

Google e Character.AI informaram a um tribunal federal da Flórida que chegaram a um acordo para encerrar processos movidos por famílias de adolescentes que se feriram ou tiraram a própria vida depois de interações prolongadas com inteligência artificial generativa. Os termos não foram divulgados, mas o processo foi suspenso até a conclusão formal do entendimento.

Casos reunidos em diferentes estados

Além da ação aberta na Flórida, documentos judiciais mostram que ações semelhantes no Colorado, em Nova York e no Texas também foram incluídas no acordo, indicando uma estratégia para pôr fim a disputas que avançavam em várias jurisdições.

Publicidade

Jovem de 14 anos dependente de chatbot

Entre os processos está o de Megan Garcia, mãe de Sewell Setzer, de 14 anos. Segundo a queixa, o adolescente desenvolveu forte dependência de um chatbot temático de Game of Thrones hospedado na plataforma Character.AI e buscava apoio emocional quase exclusivamente na ferramenta, sem barreiras que limitassem a escalada de vulnerabilidade.

A família também responsabilizou o Google, alegando que a empresa atuou como cocriadora da Character.AI ao fornecer recursos financeiros, tecnologia e pessoal — argumento reforçado pelo fato de a startup ter sido fundada por ex-funcionários do Google que depois retornaram à gigante de buscas.

Ajustes na plataforma

Após o início das ações, a Character.AI anunciou mudanças: separou modelos de linguagem para menores, introduziu controles parentais e, recentemente, proibiu completely chats abertos para usuários com menos de 18 anos.

Processos contra OpenAI e Microsoft

O debate sobre responsabilidade de IA ganhou força com outro processo, este envolvendo OpenAI e Microsoft. Familiares de Suzanne Eberson Adams, 83, e de seu filho Stein-Erik Soelberg, 56, afirmam que o ChatGPT — chamado por Soelberg de “Bobby” — validou teorias conspiratórias e não interrompeu uma escalada de delírios que culminou em homicídio seguido de suicídio.

A ação classifica o chatbot como produto defeituoso, alegando que o sistema manteve diálogos emocionalmente envolventes sem contestar premissas falsas ou acionar salvaguardas. O GPT-4o é citado como modelo lançado às pressas, supostamente sem testes de segurança proporcionais ao risco. A Microsoft teria participado do comitê que revisou o modelo antes da liberação.

Em declarações públicas anteriores, o CEO da OpenAI, Sam Altman, reconheceu que o GPT-4o poderia ser “complacente demais” e agravar quadros psiquiátricos. A empresa afirma trabalhar com especialistas em saúde mental para aprimorar detecção de sofrimento e encaminhar usuários a ajuda externa.

Pressão jurídica crescente

Ao menos outras cinco ações nos Estados Unidos relacionam suicídios a conversas prolongadas com chatbots, ampliando a pressão para que empresas de IA definam claramente onde termina a conversa e começa a influência sobre decisões de alto risco.

O andamento dos acordos e dos novos processos deve indicar como o setor responderá à responsabilidade sobre impactos diretos na saúde mental dos usuários.

Com informações de Olhar Digital

Publicidade

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *