Resenha de Artigo: "Outsmarting Deepfake Video"

Enviado por renan em Ter, 02/07/2024 - 15:48

Resenha de Artigo: “Outsmarting Deepfake Video”, de autoria de Gregory Mone

por Guilherme Cabral de Menezes, em 2 de julho de 2024

O DeepFake é a criação de um vídeo falso, onde a pessoa que está falando na verdade foi vítima de um algoritmo que “coloca” aquelas palavras na boca dela. O vídeo produzido utiliza modelos de aprendizagem profunda, onde são utilizados vários dados – como fotos, áudios e vídeos de uma pessoa – para se produzir tal vídeo, com a intenção de chegar o mais perto possível do real, para então convencer a maior quantidade de pessoas da veracidade dessa informação.

O DeepFake em si pode até trazer um certo entretenimento, onde, por exemplo, a ferramenta foi utilizada para criar vídeos de Tom Cruise no TikTok e para produção de filmes em Hollywood. Porém, essa criação de vídeos falsos está sendo muito utilizada de forma ilegal, principalmente para informar notícias falsas utilizando figuras de respeito, como, por exemplo, em Março de 2022, quando foi divulgado um vídeo do presidente da Ucrânia, Volodymyr Zelenskyy, onde o mesmo “falou” para os ucranianos se renderem à Rússia. Felizmente, no caso do presidente ucraniano, rapidamente foi identificado que o vídeo na verdade era falso. Porém, ano após ano, os deepfakes vêm melhorando muito, onde atualmente o ser humano em si muitas das vezes não consegue mais distinguir entre o real e o fake. Para isso, a tendência é a criação de algoritmos cada vez melhores para detecção desses vídeos falsos.

No começo dos deepfakes, era fácil descobrir se o vídeo era falso simplesmente analisando o tom de voz e o tom da pele, porém com o avanço da ferramenta outros algoritmos vieram à tona para verificar a veracidade de um vídeo. Em 2018, Lyu, Membro Distinto da ACM, e um de seus alunos da Universidade de Buffalo estavam estudando deepfakes para construir modelos de detecção melhores, e com isso encontram uma alternativa, onde percebeu-se que a falta ou irrealidade do piscar de olhos de uma pessoa era um grande indicativo para vídeos falsos. Mesmo a irregularidade do piscar de olhos sendo uma boa análise, com a evolução dos deepfakes esse problema foi corrigido, onde no próprio vídeo de Volodymyr Zelenskyy foi produzido com o cuidado do piscar de olhos. Outros estudos feitos por Lyu identificaram inconsistências entre os reflexos nas córneas dos olhos dos sujeitos sintetizados e diferenças quase imperceptíveis nas retinas.
 
O pesquisador Yuval Nirkin desenvolveu um método de detecção que compara a parte interna do rosto, onde se utiliza a diferença entre o formato do rosto real da pessoa com a do vídeo, dado que para o pesquisador a maioria dos deepfakes não consegue imitar o formato irregular do rosto de uma pessoa.

Na Universidade da Califórnia, Berkeley, Farid é pioneiro em um método de detecção que se afasta ainda mais do foco em artefatos específicos, onde o trabalho é analisar vídeos reais a partir de um modelo de correlações de um indivíduo em específico, como por exemplo um sorriso diferente. Dessa forma o trabalho de Farid é coletar cada vez mais dados de líderes mundiais para tentar ao máximo combater o deepfake.

Os trabalhos de Lyu, Nirkin e Farid são de extrema importância no nosso mundo globalizado, dado que cada vez mais a desinformação está disponível na Internet e as pessoas não se preocupam muito em questionar a veracidade da informação. Logo, esses algoritmos inventados para combater as deepfakes nos ajudam muito nessa validação da informação, dado que, se vivemos em um mundo onde não sabemos se algo é realmente verdadeiro, podemos acabar em um mundo onde não confiamos em nada.