Seattle (EUA) – A Amazon identificou “centenas de milhares” de imagens e vídeos possivelmente ligados a abuso sexual infantil em bancos de dados utilizados no treinamento de seus modelos de inteligência artificial. O material foi reportado em 2025 ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), órgão norte-americano responsável por receber e repassar denúncias às autoridades.
Salto de 15 vezes nos alertas
Em 2025, a companhia encaminhou mais de 1 milhão de relatórios ao NCMEC, volume 15 vezes superior aos 64 mil registros enviados no ano anterior. De acordo com a organização, a Amazon foi responsável pela maioria das notificações relacionadas a IA recebidas no período.
Falta de rastreabilidade
Segundo especialistas, a empresa removeu o conteúdo antes de utilizá-lo nos treinamentos, mas não forneceu detalhes sobre a origem dos arquivos. Sem essas informações, as forças de segurança têm dificuldade para identificar autores dos crimes ou localizar vítimas.
Comparação com outras empresas
O NCMEC afirma que concorrentes como Google e OpenAI reportam quantidades menores de casos, porém incluem metadados que possibilitam investigações. A Amazon alega que coletou os dados de fontes externas e da web aberta, mas diz não dispor de elementos técnicos que ajudem no rastreamento.
Sensibilidade elevada gera falsos positivos
A companhia explica que utiliza filtros “altamente sensíveis” para garantir que nenhum indício seja ignorado, estratégia que, conforme reconhece, aumenta o número de falsos positivos. Para o NCMEC, contudo, alertas sem pistas sobre os responsáveis têm utilidade limitada na proteção de crianças em risco imediato.
Riscos de treinamento indevido
Pesquisadores apontam que a pressa em lançar novos sistemas faz as empresas coletarem grandes volumes de dados online sem verificar seu conteúdo a fundo. Há preocupação de que modelos de IA aprendam padrões abusivos e possam sexualizar imagens de menores ou gerar conteúdo sintético de exploração.
Próximos passos
A Amazon afirma que, até o momento, seus modelos não produziram imagens de abuso infantil. A detecção do material suspeito ocorreu por meio de hashing, técnica que compara arquivos com bases conhecidas de crimes. A empresa prometeu divulgar informações mais detalhadas sobre suas práticas de segurança em março de 2026.
Com informações de Olhar Digital

