A IA pode convencer as pessoas melhor do que nós
Inteligência Artificial

A IA pode convencer as pessoas melhor do que nós

O GPT-4 da OpenAI é muito melhor a convencer humanos com o seu ponto de vista durante uma discussão, mas há um porém.

Milhões de pessoas discutem online entre si todos os dias, mas surpreendentemente poucas conseguem mudar a opinião de alguém. Novas pesquisas sugerem que grandes modelos de linguagem (Large Language Models, ou LLM) podem fazer um trabalho melhor. A descoberta indica que a IA pode tornar-se uma ferramenta poderosa para persuadir as pessoas, para o bem ou para o mal.

Uma equipa de investigadores de várias universidades descobriu que o GPT-4 da OpenAI foi significativamente mais persuasivo do que os humanos quando recebeu a capacidade de adaptar os seus argumentos usando informações pessoais sobre a pessoa com quem estava a debater.

As descobertas fazem parte de um corpo crescente de pesquisas que demonstram o poder persuasivo dos LLMs. Os autores alertam que estes modelos mostram como ferramentas de IA podem criar argumentos sofisticados e persuasivos, mesmo com informações mínimas sobre os humanos com os quais estão a interagir. A pesquisa foi publicada na revista “Nature Human Behavior”.

“Os formuladores de políticas públicas e as plataformas online devem considerar seriamente a ameaça de campanhas de desinformação coordenadas com base em IA, já que claramente atingimos o nível tecnológico em que é possível criar uma rede de contas automatizadas baseadas em LLMs capazes de direcionar estrategicamente a opinião pública para uma direção”, afirma Riccardo Gallotti, físico interdisciplinar da Fondazione Bruno Kessler, em Itália, que trabalhou no projeto.

“Esses bots poderiam ser usados para disseminar desinformação, e esse tipo de influência difusa seria muito difícil de refutar em tempo real”, afirma ele.

Os investigadores recrutaram 900 pessoas dos Estados Unidos e pediram que fornecessem informações pessoais como género, idade, etnia, nível de educação, situação de emprego e filiação política.

Os participantes foram então colocados com outro oponente humano ou com o GPT-4 e instruídos a debater um dos 30 tópicos sorteados, como se os EUA deveriam proibir combustíveis fósseis ou se os estudantes deveriam usar uniformes escolares, durante 10 minutos. Cada participante deveria argumentar a favor ou contra o tópico e, em alguns casos, recebia informações pessoais sobre o oponente, para poder ajustar melhor os seus argumentos. No final, os participantes disseram até que ponto concordavam com a proposição e se achavam que estavam a debater com um humano ou uma IA.

No geral, os investigadores descobriram que o GPT-4 igualou ou superou a capacidade persuasiva dos humanos em todos os tópicos. Quando tinha informações sobre os seus oponentes, a IA foi considerada 64% mais persuasiva do que os humanos sem acesso aos dados personalizados, o que significa que o GPT-4 foi capaz de usar as informações pessoais sobre o seu oponente de maneira muito mais eficaz do que os seus adversários humanos. Quando as pessoas tinham acesso às informações pessoais, foram consideradas ligeiramente menos persuasivas do que as sem esse mesmo acesso.

Os autores notaram que, quando os participantes achavam que estavam a debater contra uma IA, era mais provável que concordassem com ela. As razões para isso não estão claras, afirmam os investigadores, destacando a necessidade de mais estudos.

“Não estamos ainda numa posição para determinar se a mudança observada na concordância é impulsionada pelas crenças dos participantes sobre o seu oponente ser um bot (já que acredito que seja um bot, não estou a perder para ninguém se mudar de ideia aqui), ou se essas crenças são uma consequência da mudança de opinião (já que perdi, deveria ser contra um bot)”, diz Gallotti. “Essa direção causal é uma questão interessante e aberta para ser explorada.”

Embora a experiência não reflita como os humanos debatem online, a pesquisa sugere que os LLMs também poderiam revelar-se uma forma eficaz não apenas para disseminar, mas também para combater campanhas de desinformação em massa, afirma Gallotti. Por exemplo, eles poderiam gerar contra-narrativas personalizadas para educar pessoas que possam ser vulneráveis ao engano em conversas online. “No entanto, mais pesquisas são urgentemente necessárias para explorar estratégias eficazes para mitigar essas ameaças”, diz ele.

Embora saibamos muito sobre como os humanos reagem uns aos outros, sabemos muito pouco sobre a psicologia por trás de como as pessoas interagem com modelos de IA, diz Alexis Palmer, bolseira no Dartmouth College, que estudou como os LLMs podem debater sobre política, mas não trabalhou na pesquisa.

“No contexto de ter uma conversa com alguém sobre algo com o qual discorda, há algo inerentemente humano que importa para essa interação? Ou será que, se uma IA puder imitar perfeitamente essa fala, terá o mesmo resultado?”, diz ela. “Eu acho que essa é a grande questão sobre a IA.”

Nossos tópicos