Vivian Ho
Especialistas na área de tecnologia há muito alertam sobre o papel que a inteligência artificial pode desempenhar na disseminação de desinformação e no aprofundamento de divisões ideológicas. Agora, pesquisadores têm provas de quanto a IA pode influenciar opiniões.
Quando alimentados com informações demográficas mínimas sobre seus oponentes, chatbots de IA —os LLMs, sigla em inglês para grandes modelos de linguagem—foram capazes de adaptar seus argumentos e serem mais persuasivos que humanos em debates online em 64% das vezes, de acordo com um estudo publicado nesta segunda-feira (19) na revista Nature Human Behavior.
Mesmo os LLMs sem acesso às informações demográficas de seus oponentes eram mais persuasivos que humanos, segundo o coautor do estudo Riccardo Gallotti.
Gallotti, chefe da Unidade de Comportamento Humano Complexo no instituto de pesquisa Fondazione Bruno Kessler, na Itália, acrescentou que humanos com informações pessoais de seus oponentes foram, na verdade, ligeiramente menos persuasivos do que humanos sem esse conhecimento.
O pesquisador e seus colegas chegaram a essas conclusões ao analisar as interações de 900 pessoas baseadas nos Estados Unidos com outros humanos ou com o GPT-4, o LLM da OpenAI.
Os participantes do experimento não tinham informações demográficas sobre com quem estavam debatendo. Por outro lado, em alguns casos, seus oponentes —humanos ou IA— dispunham de acesso a algumas informações demográficas básicas que os participantes haviam fornecido, especificamente seu gênero, idade, etnia, nível de educação, situação de emprego e afiliação política.
Nos debates, que contavam com perguntas como “o aborto deve ser legal?” ou “os EUA deveriam proibir combustíveis fósseis?”, os participantes tinham direito a uma abertura de quatro minutos na qual argumentavam a favor ou contra. Depois, havia uma réplica de três minutos aos argumentos do oponente e, em seguida, uma conclusão de três minutos.
Os participantes, então, avaliaram quanto concordavam com a proposição do debate em uma escala de 1 a 5. Os resultados foram comparados com as avaliações fornecidas antes do início do debate e utilizados para medir quanto os oponentes foram capazes de influenciar a opinião do outro.
“Atingimos o nível tecnológico em que é possível criar uma rede de contas automatizadas baseadas em LLM que são capazes de direcionar estrategicamente a opinião pública para uma direção”, disse Gallotti.
O uso de informações pessoais pelos LLMs foi sutil, mas eficaz. Ao defender uma renda básica universal apoiada pelo governo, o LLM enfatizou o crescimento econômico e o trabalho árduo no debate com um homem branco republicano entre 35 e 44 anos. Mas, ao debater com uma mulher negra democrata entre 45 e 54 anos sobre o mesmo tema, o LLM falou sobre a disparidade de riqueza que afeta desproporcionalmente comunidades minoritárias e argumentou que a renda básica universal poderia ajudar na promoção da igualdade.
“À luz de nossa pesquisa, torna-se urgente e necessário que todos tomem consciência da prática de microdirecionamento que é possibilitada pela enorme quantidade de dados pessoais que espalhamos pela internet”, disse Gallotti. “Em nosso trabalho, observamos que a persuasão direcionada baseada em IA já é muito eficaz mesmo com informações básicas e relativamente disponíveis.”
Sandra Wachter, professora de tecnologia e regulamentação na Universidade de Oxford, descreveu as descobertas do estudo como bastante alarmantes. A docente, que não participou do estudo, disse estar preocupada sobretudo com a forma como os modelos poderiam usar essa capacidade de persuasão para espalhar mentiras e desinformação.
“Os grandes modelos de linguagem não distinguem entre fato e ficção. Eles não são, estritamente falando, projetados para dizer a verdade. No entanto, são implementados em muitos setores onde a verdade e os detalhes importam, como educação, ciência, saúde, mídia, direito e finanças”, afirmou Wachter.
Junade Ali, especialista em IA e cibersegurança do Instituto de Engenharia e Tecnologia da Grã-Bretanha, disse que, embora sentisse que o estudo não avaliou o impacto da “confiança social no mensageiro” —como o chatbot poderia adaptar seu argumento se soubesse que estava debatendo com um defensor treinado ou especialista com conhecimento sobre o tema e quão persuasivo esse argumento seria—, ainda assim “destaca um problema fundamental com as tecnologias de IA”.
“Eles são frequentemente programados para dizer o que as pessoas querem ouvir, em vez do que é necessariamente verdade”, disse ele.
Gallotti afirmou que acredita que políticas e regulamentações mais rígidas e específicas podem ajudar a combater o impacto da persuasão por meio da IA. Ele observou que, embora a Lei de IA da União Europeia, primeira do gênero, proíba sistemas de IA que empregam “técnicas subliminares” ou “técnicas propositalmente manipuladoras ou enganosas” que possam prejudicar a capacidade dos cidadãos de tomar uma decisão informada, não há uma definição clara do que se qualifica como subliminar, manipulador ou enganoso.
“Nossa pesquisa demonstra precisamente por que esses desafios de definição são importantes: quando a persuasão é altamente personalizada com base em fatores sociodemográficos, a linha entre persuasão legítima e manipulação torna-se cada vez mais difusa”, disse Gallotti.



