Pesquisadores de Cornell criam marca d’água luminosa para expor deepfakes

Uma equipe da Universidade Cornell, nos Estados Unidos, apresentou uma nova técnica de marca d’água capaz de denunciar vídeos manipulados por inteligência artificial. Batizado de Noise-Coding Illumination (NCI), o método codifica pequenas variações de luz no cenário gravado, invisíveis ao olho humano, mas detectáveis por câmeras convencionais.

Leia mais

Como funciona

A solução insere um padrão de cintilação imperceptível nas fontes de iluminação do ambiente. Esse padrão carrega um “código secreto” que, quando analisado em computador, revela informações como data e hora da captura original. Caso o conteúdo seja alterado posteriormente — por cortes, sobreposições ou geração de deepfakes — o código se rompe, indicando a adulteração.

Leia mais

De acordo com o professor Abe Davis, que lidera a pesquisa na Faculdade de Computação e Ciência da Informação de Cornell, o NCI “devolve a confiança às imagens em movimento”, já que não exige equipamentos especializados para leitura: qualquer câmera comum consegue registrar o sinal luminoso.

Leia mais

Aplicações previstas

O sistema foi projetado para cenários em que o controle da iluminação é possível, como entrevistas, discursos políticos, coletivas de imprensa e eventos fechados. Nessas situações, a simples instalação de luzes codificadas já basta para autenticar o vídeo original e, ao mesmo tempo, simplificar a identificação de fraudes.

Leia mais
Leia mais

Imagem: MegaFon via olhardigital.com.br

Leia mais

Segundo os pesquisadores, a proposta é “barata, fácil de implementar e quase imperceptível para o público”, oferecendo mais uma camada forense contra a disseminação de conteúdos falsificados.

Leia mais

Com informações de Olhar Digital

Leia mais

Gostou deste story?

Aproveite para compartilhar clicando no botão acima!

Esta página foi gerada pelo plugin

Visite nosso site e veja todos os outros artigos disponíveis!

Portal Veredão