Amazon encontra centenas de milhares de arquivos suspeitos de abuso infantil em dados para treinar IA

Seattle (EUA) – A Amazon identificou “centenas de milhares” de imagens e vídeos possivelmente ligados a abuso sexual infantil em bancos de dados utilizados no treinamento de seus modelos de inteligência artificial. O material foi reportado em 2025 ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), órgão norte-americano responsável por receber e repassar denúncias às autoridades.

Leia mais

Salto de 15 vezes nos alertas

Em 2025, a companhia encaminhou mais de 1 milhão de relatórios ao NCMEC, volume 15 vezes superior aos 64 mil registros enviados no ano anterior. De acordo com a organização, a Amazon foi responsável pela maioria das notificações relacionadas a IA recebidas no período.

Leia mais

Falta de rastreabilidade

Segundo especialistas, a empresa removeu o conteúdo antes de utilizá-lo nos treinamentos, mas não forneceu detalhes sobre a origem dos arquivos. Sem essas informações, as forças de segurança têm dificuldade para identificar autores dos crimes ou localizar vítimas.

Leia mais

Comparação com outras empresas

O NCMEC afirma que concorrentes como Google e OpenAI reportam quantidades menores de casos, porém incluem metadados que possibilitam investigações. A Amazon alega que coletou os dados de fontes externas e da web aberta, mas diz não dispor de elementos técnicos que ajudem no rastreamento.

Leia mais

Sensibilidade elevada gera falsos positivos

A companhia explica que utiliza filtros “altamente sensíveis” para garantir que nenhum indício seja ignorado, estratégia que, conforme reconhece, aumenta o número de falsos positivos. Para o NCMEC, contudo, alertas sem pistas sobre os responsáveis têm utilidade limitada na proteção de crianças em risco imediato.

Leia mais

Riscos de treinamento indevido

Pesquisadores apontam que a pressa em lançar novos sistemas faz as empresas coletarem grandes volumes de dados online sem verificar seu conteúdo a fundo. Há preocupação de que modelos de IA aprendam padrões abusivos e possam sexualizar imagens de menores ou gerar conteúdo sintético de exploração.

Leia mais

Próximos passos

A Amazon afirma que, até o momento, seus modelos não produziram imagens de abuso infantil. A detecção do material suspeito ocorreu por meio de hashing, técnica que compara arquivos com bases conhecidas de crimes. A empresa prometeu divulgar informações mais detalhadas sobre suas práticas de segurança em março de 2026.

Leia mais

Com informações de Olhar Digital

Leia mais

Gostou deste story?

Aproveite para compartilhar clicando no botão acima!

Esta página foi gerada pelo plugin

Visite nosso site e veja todos os outros artigos disponíveis!

Portal Veredão