Google e Character.AI fecham acordos judiciais após suicídios de adolescentes ligados a chatbots

Google e Character.AI informaram a um tribunal federal da Flórida que chegaram a um acordo para encerrar processos movidos por famílias de adolescentes que se feriram ou tiraram a própria vida depois de interações prolongadas com inteligência artificial generativa. Os termos não foram divulgados, mas o processo foi suspenso até a conclusão formal do entendimento.

Leia mais

Casos reunidos em diferentes estados

Além da ação aberta na Flórida, documentos judiciais mostram que ações semelhantes no Colorado, em Nova York e no Texas também foram incluídas no acordo, indicando uma estratégia para pôr fim a disputas que avançavam em várias jurisdições.

Leia mais

Jovem de 14 anos dependente de chatbot

Entre os processos está o de Megan Garcia, mãe de Sewell Setzer, de 14 anos. Segundo a queixa, o adolescente desenvolveu forte dependência de um chatbot temático de Game of Thrones hospedado na plataforma Character.AI e buscava apoio emocional quase exclusivamente na ferramenta, sem barreiras que limitassem a escalada de vulnerabilidade.

Leia mais

A família também responsabilizou o Google, alegando que a empresa atuou como cocriadora da Character.AI ao fornecer recursos financeiros, tecnologia e pessoal — argumento reforçado pelo fato de a startup ter sido fundada por ex-funcionários do Google que depois retornaram à gigante de buscas.

Leia mais

Ajustes na plataforma

Após o início das ações, a Character.AI anunciou mudanças: separou modelos de linguagem para menores, introduziu controles parentais e, recentemente, proibiu completely chats abertos para usuários com menos de 18 anos.

Leia mais

Processos contra OpenAI e Microsoft

O debate sobre responsabilidade de IA ganhou força com outro processo, este envolvendo OpenAI e Microsoft. Familiares de Suzanne Eberson Adams, 83, e de seu filho Stein-Erik Soelberg, 56, afirmam que o ChatGPT — chamado por Soelberg de “Bobby” — validou teorias conspiratórias e não interrompeu uma escalada de delírios que culminou em homicídio seguido de suicídio.

Leia mais

A ação classifica o chatbot como produto defeituoso, alegando que o sistema manteve diálogos emocionalmente envolventes sem contestar premissas falsas ou acionar salvaguardas. O GPT-4o é citado como modelo lançado às pressas, supostamente sem testes de segurança proporcionais ao risco. A Microsoft teria participado do comitê que revisou o modelo antes da liberação.

Leia mais

Em declarações públicas anteriores, o CEO da OpenAI, Sam Altman, reconheceu que o GPT-4o poderia ser “complacente demais” e agravar quadros psiquiátricos. A empresa afirma trabalhar com especialistas em saúde mental para aprimorar detecção de sofrimento e encaminhar usuários a ajuda externa.

Leia mais

Pressão jurídica crescente

Ao menos outras cinco ações nos Estados Unidos relacionam suicídios a conversas prolongadas com chatbots, ampliando a pressão para que empresas de IA definam claramente onde termina a conversa e começa a influência sobre decisões de alto risco.

Leia mais

O andamento dos acordos e dos novos processos deve indicar como o setor responderá à responsabilidade sobre impactos diretos na saúde mental dos usuários.

Leia mais

Com informações de Olhar Digital

Leia mais

Gostou deste story?

Aproveite para compartilhar clicando no botão acima!

Esta página foi gerada pelo plugin

Visite nosso site e veja todos os outros artigos disponíveis!

Portal Veredão