O perigo dos ‘deep fakes’

Publicado na Istoé

Em 2018, o cinesta Jordan Peele publicou um vídeo em que o ex-presidente dos EUA Barack Obama diz que Donald Trump “é um imbecil”, entre outras barbaridades em um pronunciamento, que encerra com a frase “se liguem vadias”. Obama nunca disse isso, mas o vídeo utiliza uma tecnologia que permite que uma outra pessoa fazendo um discurso, no caso o próprio Peele, pode se apropriar da imagem e da voz de Obama para ludibriar as audiências.

A campanha da época alertava para os perigosos “deep fakes”, como são chamados esses vídeos, algo que começou a ser difundido no site Reddit em 2017, em que um usuário utilizava a mesma técnica para imprimir a face de atrizes famosas como Gal Gadot e Emma Watson em filmes pornográficos. A técnica consiste em combinar um extenso banco de dados e ferramentas para unir o rosto e voz de pessoas a vídeos já existentes, de forma que um conteúdo extremamente realista seja produzido. O potencial da ferramenta vai além de situações inusitadas, é claro.

Há o temor de que os deep fakes sejam utilizados para encenar declarações absurdas de políticos e influenciar em processos eleitorais. Já se preparando para isso, o Facebook anunciou em janeiro deste ano, provavelmente de olho nas eleições presidenciais dos EUA, que estará na lista de conteúdos banidos da plataforma, junto com nudez e discurso de ódio. A estratégia não é das mais eficientes, afinal, filmes hollywoodianos usam a técnica para rejuvenescer o rosto de alguns atores, como foi visto recentemente em O Irlandês ou em Projeto Gemini. Há também os chamados “shallow fakes”, que utilizam de uma técnica bem mais simples ou analógica: cortar vídeos de forma que as declarações fiquem fora de contexto.

“Transpõe uma fronteira. Em pouco tempo teremos vídeos e áudios que a própria pessoa supostamente flagrada não terá como provar que não fez aquilo”, supõe Eugenio Bucci, professor da Escola de Comunicações e Artes da USP. Ele explica que a nossa sociedade convencionou que documentos como fotos e vídeos são confiáveis, mas que o deep fake pode colocar isso à prova.

Mais reais que a verdade

Bucci afirma que algumas farsas óbvias como as mamadeiras eróticas nas escolas públicas ou o suposto apoio do papa Francisco a Donald Trump em 2016 são facilmente desmontadas, enquanto um vídeo é mais complicado. Quem aparece nele terá que provar que não estava no local que foi filmado, quase como um álibi muito mais complexo. Hoje, produzir deep fakes exige uma placa de processamento robusta para que os vídeos sejam processados de forma realista. Há o aplicativo chinês Zao, que oferece a tecnologia com muitas limitações e apenas para fotos tiradas do próprio usuário em cenários pré-renderizados, mas não deve demorar muito para que qualquer um consiga produzir vídeos fiéis com seu próprio celular. Hao Li, um dos pioneiros dos deep fakes, estimou em setembro do ano passado que vídeos “perfeitamente reais” seriam possíveis em pouco mais de seis meses.

Bruno Sartori, videomaker que trabalha com a tecnologia para fazer paródias, afirma que ainda existem algumas artimanhas para identificar um deep fake. “Como se troca só o rosto geralmente ele fica um pouco mais embaçado que o resto da imagem, ou um olhar avoado para uma direção estranha”, explica. Em seus vídeos, ele sempre os sinaliza com uma hashtag para que não haja o risco de serem confundidos com algo real. Mesmo assim, ele concorda com os outros especialistas: “todo mês se perde algo que identificaria um vídeo falso”. Se nem eles conseguirem diferenciar os vídeos verdadeiros dos manipulados, quem dirá os que recebem um vídeo bombástico pelo WhatsApp.

Bruno Sartori é videomaker e trabalha com a tecnologia dos deep fakes, mas apenas para paródias e vídeos de humor. Alguns de seus mais famosos, por exemplo, são absurdos como Jair Bolsonaro cantando a música “O pintinho piu” ou Lula cantando “Obssessed”, de Mariah Carey. Ele afirma já ter sido procurado por representantes de partidos políticos para desmoralizar algumas figuras, mas que os pedidos foram tão descarados que ele suspeita serem estratégias para sabotar o partido alegadamente representado.

Comentários

Este QR-Code permite acessar o artigo pelo celular. QR Code for O perigo dos ‘deep fakes’

Deixe o seu comentário