Home / Tecnologia / Pesquisadores de Cornell criam marca d’água luminosa para expor deepfakes

Pesquisadores de Cornell criam marca d’água luminosa para expor deepfakes

Spread the love

Uma equipe da Universidade Cornell, nos Estados Unidos, apresentou uma nova técnica de marca d’água capaz de denunciar vídeos manipulados por inteligência artificial. Batizado de Noise-Coding Illumination (NCI), o método codifica pequenas variações de luz no cenário gravado, invisíveis ao olho humano, mas detectáveis por câmeras convencionais.

Como funciona

A solução insere um padrão de cintilação imperceptível nas fontes de iluminação do ambiente. Esse padrão carrega um “código secreto” que, quando analisado em computador, revela informações como data e hora da captura original. Caso o conteúdo seja alterado posteriormente — por cortes, sobreposições ou geração de deepfakes — o código se rompe, indicando a adulteração.

De acordo com o professor Abe Davis, que lidera a pesquisa na Faculdade de Computação e Ciência da Informação de Cornell, o NCI “devolve a confiança às imagens em movimento”, já que não exige equipamentos especializados para leitura: qualquer câmera comum consegue registrar o sinal luminoso.

Aplicações previstas

O sistema foi projetado para cenários em que o controle da iluminação é possível, como entrevistas, discursos políticos, coletivas de imprensa e eventos fechados. Nessas situações, a simples instalação de luzes codificadas já basta para autenticar o vídeo original e, ao mesmo tempo, simplificar a identificação de fraudes.

Pesquisadores de Cornell criam marca d’água luminosa para expor deepfakes - Imagem do artigo original

Imagem: MegaFon via olhardigital.com.br

Segundo os pesquisadores, a proposta é “barata, fácil de implementar e quase imperceptível para o público”, oferecendo mais uma camada forense contra a disseminação de conteúdos falsificados.

Com informações de Olhar Digital

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *