Em 2024, uma candidata democrata ao Congresso na Pensilvânia, Shamaine Daniels, usou um chatbot de IA chamado Ashley para telefonar a eleitores e manter conversas com eles. «Olá. O meu nome é Ashley e sou uma voluntária de Inteligência Artificial na campanha de Shamaine Daniels para o Congresso»; assim começavam as chamadas. Daniels não venceu a eleição. Mas talvez estas chamadas tenham ajudado a sua campanha: uma nova investigação revela que chatbots de IA conseguem mudar a opinião dos eleitores numa única conversa e são surpreendentemente eficazes nisso.
Uma equipa de investigadores de várias universidades descobriu que conversar com um modelo de IA politicamente tendencioso foi mais eficaz do que anúncios políticos para estimular tanto democratas como republicanos a apoiar candidatos presidenciais do partido oposto. Os chatbots influenciaram opiniões ao citar factos e evidências, mas nem sempre foram precisos. Na verdade, os investigadores constataram que os modelos mais persuasivos foram os que disseram mais coisas falsas.
As conclusões, detalhadas em dois estudos publicados nas revistas Nature e Science, fazem parte de um conjunto crescente de investigação que demonstra o poder persuasivo dos grandes modelos de linguagem (Large Language Models, ou LLM). Levantam questões profundas sobre como a IA generativa pode remodelar as eleições.
« Uma única conversa com um modelo tem um efeito bastante significativo sobre escolhas eleitorais relevantes », afirma Gordon Pennycook, psicólogo da Universidade Cornell, que trabalhou no estudo publicado na Nature. Segundo ele, a IA consegue persuadir as pessoas de forma mais eficaz do que anúncios políticos porque gera muito mais informações em tempo real e as utiliza de maneira estratégica ao longo das conversas.
Para o artigo da Nature, os pesquisadores recrutaram mais de 2.300 participantes para conversar com um chatbot dois meses antes da eleição presidencial dos Estados Unidos, em 2024. Treinado para defender um dos dois principais candidatos, ele mostrou-se relativamente persuasivo, especialmente ao discutir as plataformas políticas dos candidatos em temas como economia e saúde. Apoiadores de Donald Trump que conversaram com um modelo de IA favorável a Kamala Harris tornaram-se ligeiramente mais propensos a apoiá-la, deslocando-se 3,9 pontos em direção a Harris, em uma escala de 100 pontos. Esse efeito foi cerca de quatro vezes maior do que o impacto medido de anúncios políticos nas eleições de 2016 e 2020. Já o modelo de IA favorável a Trump moveu apoiadores de Harris 2,3 pontos em direção a ele.
Em experimentos semelhantes, realizados antes da eleição federal canadense e da eleição presidencial da Polônia, ambas em 2025, a equipe encontrou um efeito ainda maior. Os chatbots deslocaram as atitudes de eleitores da oposição em cerca de 10 pontos.
Teorias consolidadas sobre o raciocínio politicamente motivado sustentam que eleitores partidários são impermeáveis a factos e evidências que contradizem as suas crenças. Mas os investigadores constataram que os chatbots, que utilizaram uma variedade de modelos, incluindo versões do GPT e do DeepSeek, foram mais persuasivos quando receberam a instrução para usar factos e evidências do que quando foram orientados a não o fazer.
«As pessoas estão a atualizar as suas posições com base nos factos e nas informações que o modelo está a fornecer», afirma Thomas Costello, psicólogo da American University que trabalhou no projeto.
O problema é que parte das «evidências» e dos «factos» apresentados pelos chatbots não era verdadeira. Nos três países analisados, os chatbots que defendiam candidatos de direita fizeram um maior número de afirmações imprecisas do que aqueles que defendiam candidatos de esquerda. Os modelos subjacentes são treinados com enormes volumes de textos escritos por humanos, o que significa que reproduzem fenómenos do mundo real, incluindo a «comunicação política que vem da direita, que tende a ser menos precisa», de acordo com estudos sobre publicações partidárias em redes sociais, diz Costello.
No outro estudo publicado na Science, uma equipa parcialmente sobreposta de investigadores investigou o que torna esses chatbots tão persuasivos. Mobilizaram 19 grandes modelos de linguagem para interagir com quase 77 mil participantes do Reino Unido sobre mais de 700 temas políticos, variando fatores como poder computacional, técnicas de treino e estratégias retóricas.
A forma mais eficaz de tornar os modelos persuasivos foi instruí-los a rechear os seus argumentos com factos e evidências e, em seguida, oferecer treino adicional, alimentando-os com exemplos de conversas persuasivas. De facto, o modelo mais persuasivo deslocou em 26,1 pontos, em direção à concordância, os participantes que inicialmente discordavam de uma afirmação política. «Estes são efeitos de tratamento realmente grandes», afirma Kobi Hackenburg, cientista investigador do UK AI Security Institute, que trabalhou no projeto.
Otimizar a persuasão teve um custo para a veracidade. À medida que os modelos se tornaram mais persuasivos, passaram, cada vez mais, a fornecer informações enganosas ou falsas, e ninguém sabe ao certo porquê. «Pode ser que, à medida que os modelos aprendem a mobilizar cada vez mais factos, cheguem basicamente ao fundo do que sabem, e, então, os factos fiquem de pior qualidade», diz Hackenburg.
O poder de persuasão dos chatbots pode ter consequências profundas para o futuro da democracia, observam os autores. Campanhas políticas que usem chatbots de IA poderiam moldar a opinião pública de formas que comprometam a capacidade dos eleitores de fazer juízos políticos independentes.