Temor de uso de IA para interferir na eleição dos EUA cresce, e Microsoft alerta para Rússia, China e Irã

FERNANDA PERRIN
WASHINGTON, EUA (FOLHAPRESS) – É 5 de novembro, e você recebe uma mensagem de áudio no celular de Kamala Harris dizendo que a eleição foi remarcada para o dia seguinte. Ou talvez seja Donald Trump dizendo que houve um incidente e por isso as seções eleitorais mudaram de lugar. Logo você entra na plataforma X, e uma série de vídeos de funcionários enchendo urnas de votos falsos está nos assuntos do momento.

 

O uso de perceptibilidade sintético no atual ciclo eleitoral americano, que vinha sendo relativamente restringido até agora, pode ser a grande surpresa de novembro, alertam especialistas. O risco vem não somente de dentro dos EUA, mas também de fora, diante dos sinais já detectados de tentativa de interferência por Rússia, China e Irã.

Na quarta, a Microsoft divulgou um relatório apontando um prolongamento das ações desses países com a proximidade do pleito.

“Atores russos continuam a integrar IA generativa em seus conteúdos, grupos iranianos intensificam seus preparativos para habilitar operações de ciberinfluência, enquanto atores chineses mudam o foco para vários candidatos de menor frase e membros do Congresso. Atores russos, em pessoal, tentaram lutar a campanha Harris-Walz, atacando o caráter dos candidatos”, afirma a empresa.

“Com foco próprio nas 48 horas antes e depois do dia da eleição, eleitores, instituições governamentais, candidatos e partidos devem permanecer vigilantes contra atividades enganosas e suspeitas online”, recomenda.

Na semana passada, um vídeo com um suposto ex-aluno de Tim Walz, vice na placa de Kamala, acusa o democrata de comportamentos impróprios com os estudantes na estação em que era professor. A gravação foi postada no X, rede do bilionário Elon Musk. Uma série de postagens repercutindo as acusações, feitas por perfis que apoiam Trump, foram feitas na sequência.

Segundo autoridades do governo Biden, a campanha contra Walz foi criada e amplificada por atores russos, e é consistente com a tática padrão já observada: viralizar vídeos encenados para a câmera.

“Vladimir Putin quer que Donald Trump vença porque sabe que Trump se curvará e lhe dará tudo o que ele quiser. Condenamos nos termos mais fortes qualquer esforço de atores estrangeiros para interferir nas eleições dos EUA”, disse à Folha Morgan Finkelstein, porta-voz de segurança vernáculo da campanha democrata.

Nesta semana, foi lançado um proclamação com uma série de celebridades -como Michael Douglas, Laura Dern, Orlando Bloom, Amy Schumer e Chris Rock- para alertar eleitores sobre o uso de IA para gerar desinformação sobre quando, onde e uma vez que votar. Ao final do vídeo, é revelado que a participação de vários dos atores, na verdade, foi gerada pela tecnologia.

Miles Taylor, um dos organizadores da campanha, afirma em item para a Time que um dos principais temores que ouviu de autoridades estaduais e locais nos EUA é o surgimento de supostas evidências de fraude eleitoral. A preocupação é que, diante do verniz de autenticidade oferecido pela IA, sejam necessárias semanas ou até meses para provar sua falsidade.

“Pior ainda, a relação entre os funcionários do governo e as empresas de redes sociais está mais fraturada do que nunca. Processos judiciais e controvérsias sobre repreensão online criaram um efeito inibidor, fazendo com que ambos os lados relutem em cooperar. O resultado é que as localidades têm menos recursos técnicos para depender em momentos de crise”, compara ele com o pleito de 2020.

Para se preparar, órgãos estaduais responsáveis por supervisionar a eleição estão tentando se preparar. O Arizona, por exemplo, um dos locais em que a disputa entre Kamala e Trump é mais acirrada, fez treinamentos nos últimos meses envolvendo problemas gerados por deepfakes de vídeo e voz.
Deepfakes de áudio preocupam mais do que de vídeo, diz MIT

É leste último formato o que mais gera preocupação na pesquisadora Aruna Sankaranarayanan, integrante do grupo laboratório de pesquisa do MIT sobre perceptibilidade sintético.

Depois conduzir uma série de experimentos usando variações de textos, áudios e vídeos com desinformação envolvendo a política, o grupo observou que a capacidade de recato entre um teor falso e verdadeiro cresce quanto mais complexa é a mídia.

“A tecnologia de deepfake, pelo menos no domínio visual, ainda não está no ponto em que uma pessoa generalidade pode simplesmente produzir um deepfake de altíssima qualidade que alguém não consiga detectar”, afirma ela. Ou por outra, ela afirma que as ferramentas para fazer esse tipo de geração são trabalhosas -a pesquisadora levou mais de uma semana para produzir cada vídeo.
Já no caso de áudio, ela disse que conseguiu criá-los em minutos.

“Uma das grandes descobertas foi que, quando usamos dubladores de Trump e Biden, os áudios não são tão bons quanto o gerado sinteticamente. Isso é provavelmente muito mais perigoso. Já vivemos em uma estação em que golpes por telefone são tão comuns. Portanto, acho que deepfakes de áudio me preocupam ainda mais do que os deepfakes de vídeo”, diz ela.

Até agora, o uso de IA na campanha presidencial vinha sendo relativamente tímido. O caso mais próximo do pior cenário verosímil, na visão de especialistas, foi um áudio simulando a voz de Joe Biden usado para desencorajar eleitores de votar nas primárias em New Hampshire, em janeiro.
Outros exemplos notórios da utensílio com o intuito de enganar o público foram imagens fabricadas para simular um endosso de Taylor Swift a Trump e um proclamação falso em que a voz de Kamala foi manipulada para expressar que foi escolhida para substituir Biden por ser mulher e negra, compartilhado por Elon Musk em agosto.

Mas, fora esses casos de maior destaque, o uso da IA foi quase uma vez que uma utensílio de paródia, fabricando imagens claramente falsas de Trump uma vez que um fisiculturista, ou rodeado por gatos e cachorros, ou ainda de Kamala com um look comunista.

“Não vimos nenhuma evidência de uso intenso de IA para disseminar informações problemáticas pelas campanhas oficiais”, diz Jennifer Stromer-Galley, do Instituto para Democracia, Jornalismo e Cidadania da Universidade de Syracuse, que monitora anúncios políticos em redes sociais.

“O uso de IA para gerar desinformação está acontecendo, principalmente no Twitter, por pessoas comuns e microinfluenciadores para tentar promover uma mensagem ideológica”, completa.