GUSTAVO ZEITEL
SÃO PAULO, SP (FOLHAPRESS) – Letras garrafais na tela anunciam um “encontro de dois bandidos”. Ao primeiro estrondo da vinheta do Jornal Nacional, se segue a voz de William Bonner, repetindo o dizer do vídeo. Nesse momento, o candidato a presidente Luiz Inácio Lula da Silva, do PT, cumprimenta o vice, Geraldo Alckmin, do PSB. “Perdão, imagem errada. A imagem seria de outro ladrão, digo, de um ladrão de verdade”, disse Bonner, como se constrangido por uma gafe.
Publicado no TikTok há dois meses, o vídeo de 14 segundos se alastrou por todas as mídias sociais, compartilhando o conteúdo falso. O jornalista nunca enunciou aquelas palavras e tampouco existiu uma edição do telejornal com a mesma montagem. Se há quatro anos os eleitores descobriram o perigo das fake news, a manipulação em imagem e som do Jornal Nacional prenunciou o uso dos deepfakes nestas eleições.
Forma mais engenhosa de falsear notícias e enganar pessoas, “deepfake” significa em português “mentira profunda”. A palavra surgiu há cinco anos, num fórum da rede social Reddit. Nela, um usuário de nome Deepfakes produziu montagens em que atrizes de Hollywood, como Gal Gadot, a Mulher-Maravilha, surgiam em cenas de sexo explícito.
Em linhas gerais, inteligência artificial é usada para mostrar pessoas fazendo coisas que jamais fizeram. A técnica empregada pelo usuário anônimo consistia em criar um algoritmo –um conjunto de regras e padrões lógicos– para treinar uma rede neural –isto é, modelos computacionais inspirados no cérebro humano– a sobrepôr voz e imagem da vítima escolhida ao rosto da pessoa do vídeo original.
Nos programas que executam as montagens, as redes neurais mapeiam o rosto a ser copiado, ajustando a movimentação de lábios e olhos. O escaneamento do modelo se repete, até que a sobreposição se torne a mais realista possível. A pornografia ainda responde por boa parte das edições, mas os deepfakes têm uma estética particular. Com os anos, a técnica se tornou a um só tempo fonte de desinformação, debates políticos e inspiração artística.
Diretor do Instituto de Computação da Universidade Estadual de Campinas, a Unicamp, Anderson de Rezende Rocha afirma que os deepfakes mais realistas são feitos com poderosas GPUs –as unidades de processamento gráfico do computador.
Além de investir dias na elaboração dos vídeos, a produção de um deepfake demanda uma boa quantidade de dados da vítima. Por isso, é tão mais comum encontrar montagens de pessoas famosas. Afinal, William Bonner tem muito mais imagens na internet do que um anônimo.
“Estamos acompanhando o surgimento das realidades sintéticas”, diz Rocha. Alguns aplicativos para telefone geram deepfakes em alguns minutos, mas a qualidade da manipulação é bem inferior aos vídeos feitos com poderosas placas de vídeo.
Segundo Rocha, as montagens podem ser detectadas na qualidade da imagem, em sua borda e textura, ou na fluidez do vídeo, se é trêmulo ou tem arroubos entre os quadros. Nas eleições, as redes sofrem com uma enxurrada de vídeos manipulados, mas nem todos são deepfakes.
“Às vezes o autor combina inteligência artificial com programas de edição, então fica difícil identificar o deepfake”, ele afirma. “Está uma confusão muito grande.”
Quando faltavam duas semanas para o primeiro turno, o Jornal Nacional voltou a ser alvo de edições audiovisuais. Num vídeo compartilhado no Twitter, no WhatsApp e no YouTube, a apresentadora Renata Vasconcellos mostrava uma pesquisa do Ipec em que o candidato Jair Bolsonaro, do PL, aparecia liderando a corrida eleitoral, com 44% dos votos contra 32% de Lula.
No dia 19 de setembro, os apresentadores do telejornal tiveram de rebater as informações falsas. Bolsonaro nunca esteve à frente nas pesquisas, e a realidade indicava justamente o oposto –o petista com 44%, seguido por Bolsonaro, com 32%.
Na ocasião, os apresentadores classificaram o vídeo como mais um deepfake, mas especialistas esclareceram que a montagem havia sido feita em programas de edição tradicionais. Do mesmo modo, outro vídeo falso surgiu pouco tempo depois. Nele, a dupla de apresentadores mostrava uma suposta pesquisa que indicava a liderança do atual presidente por 51% contra 43% de Lula.
Segundo Ester Borges, coordenadora da área de informação e política do InternetLab, um centro de pesquisa independente, pouco importa se o vídeo é um deepfake ou não. As montagens enganam os eleitores, num contexto de guerra informacional em que os vídeos têm primazia entre as formas de comunicação.
A adulteração de imagem e áudio, porém, representa um desafio ainda maior no combate à desinformação. “É mais difícil que as pessoas busquem a checagem de fatos, com técnicas mais aprumadas de manipulação dos vídeos”, diz ela.
Monitorando as redes, Borges percebeu que, no primeiro turno, a maior parte das fake news lançava dúvidas sobre a lisura das urnas. No segundo turno, ela conta que o debate se voltou às pautas de costumes –os apoiadores de Bolsonaro afirmam que Lula tem pacto com o Diabo, enquanto surgem informações falsas sobre maçonaria, tentando atingir o candidato à reeleição.
Se em 2018 o disparo de mensagens em massa no WhatsApp foi uma das táticas mais usadas entre os bolsonaristas, agora os eleitores parecem evitar grupos com muitos integrantes. O estudo “Os Vetores da Comunicação Política em Aplicativos de Mensagens: Hábitos e Percepções do Brasileiro”, realizado pelo InternetLab em parceria com a Rede Conhecimento Social, aponta um crescimento de 12 pontos percentuais para o Telegram, usado por 43% dos entrevistados. Já o TikTok, segundo Borges, também é bastante acessado, mas sobretudo pelos jovens.
Camilo Aggio, que dá aulas de comunicação social na Universidade Federal de Minas Gerais, a UFMG, pensa que os deepfakes ainda não causaram danos à democracia, tal como alardeado há cinco anos.
“O deepfake causa um desnorteio em muitas pessoas, aumentando a cacofonia nas redes”, ele diz. “Mas um vídeo não vai mudar o voto de um bolsonarista ou de um lulista, as pessoas tendem a repassar as fake news que ativam suas convicções.”
Segundo Aggio, atribuir exclusivamente à imprensa a responsabilidade de controlar a massa de desinformação nas redes é uma injustiça. “Não que o jornalismo não deva cumprir seu papel, mas as redes sociais precisam ser responsabilizadas pelo conteúdo que gerenciam”, afirma.
Na tarde do dia 14 de outubro, Bruno Sartori, de 33 anos, passou horas a fio em seu quarto, cumprindo a agenda de reuniões com seus novos clientes. Usando dois monitores e um potente computador, ele se transformou num “deepfaker” profissional, conciliando as demandas do mercado publicitário e os deveres de influenciador digital.
Nascido em Unaí, no interior de Minas Gerais, Sartori primeiro trabalhou como chargista do jornal da cidade, onde publicava sátiras dos políticos locais. Pouco a pouco, fundiu o desenho com a tecnologia, publicando vídeos humorísticos em que trocava o rosto dos personagens. Descobriu o deepfake quando a tecnologia surgiu e, na pandemia, seus vídeos se espalharam pela internet, chamando a atenção do mercado.
Agora empresário, Sartori tem pouco tempo para brincar nas redes sociais. Apesar de ter sofrido ameaças de morte, o autointitulado “bruxo dos vídeos” fez questão de se mostrar engajado. Só de cuequinha, ele exibiu o dorso nu e, rebolativo, anunciou que seu desejo de votar em Lula é tamanho, que parece o desespero dos bolsonaristas.
Segundo Sartori, a tecnologia em si não é nociva. Ele mesmo a usa para criar peças de entretenimento nas redes sociais, como o vídeo em que Silvio Santos apresenta o Jornal Nacional. Na Holanda, ele lembra, a ferramenta ajudou até a investigação de um caso de assassinato sem solução há quase 20 anos.
Em maio, a polícia de Roterdã criou um comercial para televisão e internet, usando o deepfake de Sedar Soares, jovem de 13 anos morto em 2003. A polícia pedia informações que pudessem elucidar o crime.
Sartori afirma, contudo, que o perigo da manipulação de vídeos vai aumentar, tanto mais com o aprimoramento dos aplicativos. “Temos que nos preparar com campanhas educacionais para a população, o que não vai acontecer se a extrema direita for reeleita”, diz.
Enquanto isso, os deepfakes provocam dores de cabeça nos artistas. Em julho deste ano, por exemplo, correu no WhatsApp um vídeo de Anitta praticando uma inesperada felação. A assessoria da cantora logo classificou a montagem como uma ação criminosa.
No exterior, uma onda de deepfakes atormenta Hollywood. O ator Nicolas Cage aparece no TikTok em produções que jamais atuou, como o seriado de comédia “Friends” e os filmes “Os Vingadores” e “Matrix”.
Na mesma rede social, Robert Pattinson, o vampirinho da saga “Crepúsculo”, soma 660 mil seguidores. O conteúdo ali publicado é todo falso. Só o primeiro vídeo da página alcançou 20 milhões de visualizações.
Já a conta falsa de Tom Cruise, com 3,6 milhões de seguidores, mostra o suposto cotidiano do ator. Cruise cortando o cabelo, se arrumando para uma festa ou descansando no parque. Como as montagens são feitas sem o consentimento das pessoas, os deepfakes levantam dúvidas sobre a legalidade de alguns dos usos desse tipo de tecnologia. Segundo a legislação brasileira, os crimes variam conforme o conteúdo do vídeo.
No atual contexto político, montagens que ofendam a honra de candidatos devem ser discutidas no âmbito da Justiça Eleitoral, responsável por avaliar a existência de crimes previstos em seu respectivo código. É o caso do deepfake intitulado “encontro de bandidos”, sobre Lula e Alckmin, que poderia ser enquadrado como calúnia ou difamação.
Fora das eleições, deepfakes podem percorrer todo o espectro do Código Penal. No caso de Anitta, o artigo 218C dispõe sobre o crime de divulgação de material pornográfico sem o consentimento da vítima.
“As leis atuam de maneira genérica, não podemos criar um artigo para cada tecnologia que surge”, diz Márcio Stival, especialista em direito da internet. “Para casos como o de Anitta, devemos endurecer as penas, porque está fácil cometer crime.”
Do lado das redes sociais, são incipientes os esforços para combater a desinformação. As plataformas da Meta, como Facebook ou Instagram, adotam a política de remoção das fake news. Já o Twitter acrescenta um rótulo às postagens com conteúdos falsos. O TikTok permite paródias, caso sejam identificadas ao público.
Para Christian Perrone, do Instituto de Tecnologia e Sociedade, a situação não é tão fácil para a atuação proativa das mídias. “O caminho é descobrir quem financia as campanhas de desinformação, mas precisamos decidir o que desejamos que as redes façam”, diz. “Uma atuação rigorosa pode restringir deepfakes positivos.”
Nesse jogo entre criador e criatura, a arte dita as novas utilizações dos deepfakes. A inteligência artificial estabelece uma nova verdade, negando aquela da metafísica ou da realidade factual. Ao contrário, a verdade do deepfake se apoia na crença da semelhança das imagens, despertando uma controvérsia que só aguça o interesse artístico.
“Toda tecnologia pode ter um uso funcional ou criativo. O artista é aquele que subverte a ferramenta, inventando outras formas para sua utilização”, afirma a pesquisadora Giselle Beiguelman, autora do livro “Políticas da Imagem: Vigilância e Resistência na Dadosfera”.
No ano passado, o artista plástico Guilherme Bretas usou deepfakes para criar o “Álbum Afirmativo da Cidade de São Paulo”. O projeto partiu do compêndio de imagens feito pelo fotógrafo carioca Militão Augusto de Azevedo que, no século 19, documentou a participação de negros no processo de formação da metópole.
Bretas pediu que integrantes do coletivo Malungo, da escola de arquitetura da USP, reagissem às imagens de Azevedo, sendo filmados pela equipe do Preta Lab, plataforma que conecta mulheres negras à internet. Como resultado, o artista fundiu as emoções dos jovens aos registros do século 19, propondo uma nova interpretação da história do país.
A intervenção em imagens, portanto, se insere no espírito revisionista que a arte contemporânea decidiu encarnar. Em 2019, os artistas Francesca Panetta e Halsey Burgung alertaram que os deepfakes podem reescrever o passado de maneira enganosa. A videoinstalação “In the Event of the Moon” traz um discurso do presidente americano Richard Nixon, feito no Salão Oval, na Casa Branca, em 1969.
Escrito por William Safire, o texto seria lido em caso de acidente envolvendo o Apolo 11 em sua missão lunar. Os artistas usaram vários discursos presidenciais, fundindo as expressões de Nixon a um clone, até fazer um vídeo inédito e hiper-realista.
No cinema, o impacto dos deepfakes será ainda maior. Três anos atrás, o filme “Projeto Gemini” usou a técnica para gerar um clone do ator Will Smith. Naquele ano, a técnica também foi usada em “O Irlandês”, filme de Martin Scorsese, para rejuvenescer o ator Robert De Niro. A inteligência artificial poupará faustas quantias de Hollywood, um mercado que anda combalido.
Segundo a pesquisadora Giselle Beiguelman, a arte não sofre um processo de desumanização, mas a inteligência artificial indaga que tipo de historicidade as imagens podem sugerir. “Se a visão é um atributo biológico, o olhar é cultural”, ela diz.
As redes neurais também buscam reconstituir a história da música. Em 2019, a empresa chinesa Huawei usou princípios similares aos dos vídeos para completar a sinfonia inacabada de Franz Schubert. Cientistas se serviram de um algoritmo para analisar 90 peças do compositor austríaco. Após descobrirem um padrão, sugeriram o que seria os terceiro e quarto movimentos da obra.
Já o Instituto Karajan, de Salzburgo, na Áustria, desenvolveu um modelo computacional para descobrir o que teria sido a décima sinfonia de Ludwig van Beethoven. A obra estreou no festival BeethovenFest, em Bonn, na Alemanha, em 2021. O trabalho foi realizado a partir de alguns rascunhos da partitura.
No futuro, Sartori, o influenciador, acredita que a tecnologia nos levará à customização do conteúdo. O assinante de uma plataforma de streaming escolherá quem deve atuar nos filmes ou ouviremos um disco na voz de quem desejarmos –outros artistas, a sogra, o melhor amigo.
No plano político, Sartori diz temer um novo governo de Jair Bolsonaro, pensando também nas eleições de 2026. “Se Bolsonaro vencer, será só ladeira abaixo. Seu governo beneficia a desinformação. Nós ainda não vimos 5% do que os deepfakes são capazes de fazer.”
Notícias ao Minuto Brasil – Tech