A Wikipedia divulgou um guia detalhado voltado a editores e leitores que desejam identificar conteúdos produzidos por modelos de linguagem. O material é resultado do Project AI Cleanup, iniciativa criada em 2023 para lidar com o crescimento de edições feitas por ferramentas de inteligência artificial.
Elaborado por voluntários da enciclopédia, o guia traz exemplos práticos e análises que mostram diferenças entre textos escritos por humanos e aqueles gerados por IA. Entre os indícios mais comuns apontados estão:
Os editores afirmam que soluções de detecção automática de IA ainda apresentam baixa precisão. Por isso, a recomendação é observar padrões de linguagem replicados em grande parte da internet — base de treinamento dos modelos generativos —, que tendem a se repetir mesmo com avanços tecnológicos.
Segundo a análise, eliminar completamente esses traços é difícil, pois eles estão enraizados nos dados usados para treinar as inteligências artificiais. A expectativa é de que, à medida que leitores se familiarizem com esses sinais, a forma de consumir informação e de combater conteúdos automatizados também mude.
Imagem: sim izquierdo
O guia está disponível publicamente na própria plataforma e já é considerado por especialistas como o material mais completo sobre o assunto.
Com informações de Olhar Digital
Aproveite para compartilhar clicando no botão acima!
Esta página foi gerada pelo plugin
Visite nosso site e veja todos os outros artigos disponíveis!