A Wikipedia divulgou um guia detalhado voltado a editores e leitores que desejam identificar conteúdos produzidos por modelos de linguagem. O material é resultado do Project AI Cleanup, iniciativa criada em 2023 para lidar com o crescimento de edições feitas por ferramentas de inteligência artificial.
Documento reúne sinais recorrentes
Elaborado por voluntários da enciclopédia, o guia traz exemplos práticos e análises que mostram diferenças entre textos escritos por humanos e aqueles gerados por IA. Entre os indícios mais comuns apontados estão:
- explicações genéricas sobre a relevância de determinado tema, com termos como “momento crucial”;
- exagero na menção a aparições ou citações na mídia para reforçar importância;
- uso frequente de verbos no gerúndio — por exemplo, “refletindo a relevância contínua”;
- linguagem vaga com tom publicitário, típica de propagandas e posts promocionais.
Ferramentas automáticas são consideradas pouco confiáveis
Os editores afirmam que soluções de detecção automática de IA ainda apresentam baixa precisão. Por isso, a recomendação é observar padrões de linguagem replicados em grande parte da internet — base de treinamento dos modelos generativos —, que tendem a se repetir mesmo com avanços tecnológicos.
Segundo a análise, eliminar completamente esses traços é difícil, pois eles estão enraizados nos dados usados para treinar as inteligências artificiais. A expectativa é de que, à medida que leitores se familiarizem com esses sinais, a forma de consumir informação e de combater conteúdos automatizados também mude.
Imagem: sim izquierdo
O guia está disponível publicamente na própria plataforma e já é considerado por especialistas como o material mais completo sobre o assunto.
Com informações de Olhar Digital








