IA está começando a desgastar a democracia

Do THE NEW YORK TIMES

Por STEVEN LEE MYERS e STUART A. THOMPSON

O conteúdo gerado por inteligência artificial tornou-se um fator nas eleições em todo o mundo. A maior parte é ruim, enganando os eleitores e desacreditando o processo democrático

Desde a explosão da inteligência artificial generativa nos últimos dois anos, a tecnologia rebaixou ou difamou os oponentes e, pela primeira vez, disseram autoridades e especialistas, começou a ter um impacto nos resultados das eleições.

Gratuitas e fáceis de usar, as ferramentas de IA geraram uma enxurrada de fotos e vídeos falsos de candidatos ou apoiadores dizendo coisas que não disseram ou aparecendo em lugares que não estavam – tudo espalhado com a relativa impunidade do anonimato online.

A tecnologia ampliou as divisões sociais e partidárias e reforçou o sentimento antigoverno, especialmente na extrema direita, que aumentou nas últimas eleições na Alemanha, Polônia e Portugal.

Na Romênia, uma operação de influência russa usando IA manchou o primeiro turno da eleição presidencial do ano passado, de acordo com funcionários do governo. Um tribunal anulou esse resultado, forçando uma nova votação no mês passado e trazendo uma nova onda de invenções. Foi a primeira grande eleição em que a IA desempenhou um papel decisivo no resultado. É improvável que seja o último.

À medida que a tecnologia melhora, alertam autoridades e especialistas, ela está minando a fé na integridade eleitoral e corroendo o consenso político necessário para o funcionamento das sociedades democráticas.

Madalina Botan, professora da Universidade Nacional de Estudos Políticos e Administração Pública na capital da Romênia, Bucareste, disse que não havia dúvida de que a tecnologia já estava “sendo usada para fins obviamente malévolos” para manipular os eleitores.

“Essas mecânicas são tão sofisticadas que realmente conseguiram fazer com que um conteúdo se tornasse viral em um período de tempo muito limitado”, disse ela. “O que pode competir com isso?”

Na onda incomumente concentrada de eleições que ocorreu em 2024, a IA foi usada em mais de 80%, de acordo com o Painel Internacional sobre o Ambiente da Informação, uma organização independente de cientistas com sede na Suíça.

Ele documentou 215 casos de IA nas eleições daquele ano, com base em declarações do governo, pesquisas e reportagens. Já este ano, a IA desempenhou um papel em pelo menos mais nove eleições importantes, do Canadá à Austrália.

Nem todos os usos eram nefastos. Em 25% dos casos pesquisados pelo painel, os candidatos usaram a IA para si mesmos, contando com ela para traduzir discursos e plataformas para dialetos locais e identificar blocos de eleitores a serem alcançados.

Na Índia, a prática de clonar candidatos tornou-se comum – “não apenas para alcançar os eleitores, mas também para motivar os trabalhadores do partido”, de acordo com um estudo do Centro de Engajamento da Mídia da Universidade do Texas em Austin.

Ao mesmo tempo, no entanto, dezenas de deepfakes – fotografias ou vídeos que recriam pessoas reais – usaram IA para clonar vozes de candidatos ou noticiários. De acordo com a pesquisa do Painel Internacional sobre o Ambiente da Informação, a IA foi caracterizada como tendo um papel prejudicial em 69% dos casos.

Houve vários exemplos malignos na eleição presidencial americana do ano passado, levando a alertas públicos de funcionários da Agência de Segurança Cibernética e Infraestrutura, do Escritório do Diretor de Inteligência Nacional e do Federal Bureau of Investigation.

Sob Trump, as agências desmantelaram as equipes que lideraram esses esforços.

“Em 2024, os benefícios potenciais dessas tecnologias foram amplamente eclipsados por seu uso indevido prejudicial”, disse Inga Kristina Trauthig, professora da Universidade Internacional da Flórida, que liderou a pesquisa do painel internacional.

Os usos enganosos mais intensos da IA vieram de países autocráticos que buscam interferir nas eleições fora de suas fronteiras, como Rússia, China e Irã. A tecnologia permitiu que eles ampliassem o apoio a candidatos mais flexíveis à sua visão de mundo – ou simplesmente desacreditassem a ideia de governança democrática em si como um sistema político inferior.

Uma campanha russa tentou alimentar o sentimento anti-Ucrânia antes da eleição presidencial do mês passado na Polônia, para onde muitos refugiados ucranianos se mudaram. Ele criou vídeos falsos que sugeriam que os ucranianos estavam planejando ataques para interromper a votação.

Nas eleições anteriores, os esforços estrangeiros eram complicados e caros. Eles contavam com trabalhadores em fazendas de trolls para gerar contas e conteúdo nas mídias sociais, muitas vezes usando linguagem afetada e malapropismos culturais.

Com a IA, esses esforços podem ser feitos em uma velocidade e em uma escala inimagináveis quando a mídia e os jornais eram as principais fontes de notícias políticas.

Saman Nazari, pesquisador da Alliance 4 Europe, uma organização que estuda ameaças digitais às democracias, disse que as eleições deste ano na Alemanha e na Polônia mostraram pela primeira vez o quão eficaz a tecnologia se tornou para campanhas estrangeiras, bem como para partidos políticos domésticos.

“A IA terá um impacto significativo na democracia daqui para frente”, disse ele.

Avanços em ferramentas disponíveis comercialmente, como o criador de imagens Midjourney e o novo gerador de áudio e vídeo de IA do Google, Veo, tornaram ainda mais difícil distinguir invenções da realidade – especialmente em um piscar de olhos.

Grok, o chatbot de IA e gerador de imagens desenvolvido por Elon Musk, reproduzirá prontamente imagens de figuras populares, incluindo políticos.

Essas ferramentas tornaram mais difícil para governos, empresas e pesquisadores identificar e rastrear campanhas cada vez mais sofisticadas.

Antes da IA, “você tinha que escolher entre escala ou qualidade – qualidade vinda de fazendas de trolls humanos, essencialmente, e escala vinda de bots que poderiam lhe dar isso, mas eram de baixa qualidade”, disse Isabelle Frances-Wright, diretora de tecnologia e sociedade do Instituto de Diálogo Estratégico. “Agora, você pode ter os dois, e esse é um território realmente assustador para se estar.”

As principais plataformas de mídia social, incluindo Facebook, X, YouTube e TikTok, têm políticas que regem o uso indevido de IA e tomaram medidas em vários casos que envolveram eleições. Ao mesmo tempo, eles são operados por empresas com interesse em qualquer coisa que mantenha os usuários rolando, de acordo com pesquisadores que dizem que as plataformas deveriam fazer mais para restringir conteúdo enganoso ou prejudicial.

Na eleição da Índia, por exemplo, pouco do conteúdo de IA na plataforma da Meta foi marcado com isenções de responsabilidade, conforme exigido pela empresa, de acordo com o estudo do Center for Media Engagement. A Meta não respondeu a um pedido de comentário.

Vai além de apenas conteúdo falso. Pesquisadores da Universidade de Notre Dame descobriram no ano passado que contas inautênticas geradas por ferramentas de IA poderiam facilmente evitar a detecção em oito grandes plataformas de mídia social: LinkedIn, Mastodon, Reddit, TikTok, X e as três plataformas da Meta, Facebook, Instagram e Threads.

As empresas que lideram a onda de produtos de IA generativa também têm políticas contra usos manipuladores.

Em 2024, a OpenAI interrompeu cinco operações de influência destinadas a eleitores em Ruanda, Estados Unidos, Índia, Gana e União Europeia durante suas corridas parlamentares, de acordo com relatórios da empresa.

Este mês, a empresa divulgou que detectou uma operação de influência russa que usou o ChatGPT durante as eleições da Alemanha em fevereiro. Em um caso, a operação criou uma conta de bot no X que acumulou 27.000 seguidores e postou conteúdo em apoio ao partido de extrema-direita, Alternativa para a Alemanha, ou AfD. O partido, antes visto como marginal, subiu para o segundo lugar, dobrando o número de seus assentos no Parlamento.

(O New York Times processou a OpenAI e sua parceira, a Microsoft, acusando-as de violação de direitos autorais de conteúdo de notícias relacionadas a sistemas de IA. A OpenAI e a Microsoft negaram essas alegações.)

O caso mais perturbador ocorreu na eleição presidencial da Romênia no final do ano passado. No primeiro turno da votação em novembro, um candidato de extrema-direita pouco conhecido, Calin Georgescu, subiu para a liderança com a ajuda de uma operação secreta russa que, entre outras coisas, coordenou uma campanha inautêntica no TikTok.

Críticos, incluindo o vice-presidente americano, JD Vance, e Musk, denunciaram a subsequente anulação da votação pelo tribunal como antidemocrática. “Se sua democracia pode ser destruída com algumas centenas de milhares de dólares em publicidade digital de um país estrangeiro”, disse Vance em fevereiro, “então não era muito forte para começar”.

O tribunal ordenou uma nova eleição no mês passado. Georgescu, que enfrenta uma investigação criminal, foi impedido de concorrer novamente, abrindo caminho para outro candidato nacionalista, George Simion. Uma torrente semelhante de conteúdo manipulado apareceu, incluindo o vídeo falso que fez Trump parecer criticar os atuais líderes do país, de acordo com pesquisadores do Observatório Búlgaro-Romeno de Mídia Digital.

Nicusor Dan, o prefeito centrista de Bucareste, prevaleceu em um segundo turno de votação em 18 de maio.

A União Europeia abriu uma investigação para saber se o TikTok fez o suficiente para restringir a torrente de atividades manipuladoras e desinformação na plataforma. Também está investigando o papel da plataforma nas campanhas eleitorais na Irlanda e na Croácia.

Em declarações, o TikTok alegou que agiu rapidamente para remover postagens que violavam suas políticas. Duas semanas antes do segundo turno da votação na Romênia, disse o relatório, removeu mais de 7.300 postagens, incluindo aquelas geradas por IA, mas não identificadas como tal. Ele se recusou a comentar além dessas declarações.

Lucas Hansen, fundador da CivAI, uma organização sem fins lucrativos que estuda as habilidades e perigos da inteligência artificial, disse estar preocupado com mais do que apenas o potencial de deepfakes para enganar os eleitores. A IA, alertou ele, está atrapalhando tanto o debate público que as pessoas estão ficando desiludidas.

“A poluição do ecossistema de informação será uma das coisas mais difíceis de superar”, disse ele. “E não tenho certeza se há muito caminho de volta a partir disso.”


  • Kirsten Noyes contribuiu com a pesquisa.
  • Steven Lee Myers cobre desinformação e desinformação de São Francisco. Desde que ingressou no The Times em 1989, ele fez reportagens de todo o mundo, incluindo Moscou, Bagdá, Pequim e Seul.
  • Stuart A. Thompson escreve sobre como informações falsas e enganosas se espalham online e como isso afeta as pessoas em todo o mundo. Ele se concentra em desinformação, desinformação e outros conteúdos enganosos.
Facebook Comments

Posts Similares

1 Comentário

  1. A única coisa desgastada é a mente do canhoteiro que escreveu uma bobagem desse tamanho. Aliás, se dependesse dessa gente, jamais teriam inventado o computador para que não matassem a máquina de escrever. Que patético, kkkkkk.

Deixe uma resposta

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.