Tecnología

La nueva amenaza electoral: los chatbots capaces de mover la intención de voto, según un estudio | TECNOLOGÍA – El boletin Peruano

Una breve interacción con un chatbot puede cambiar significativamente la opinión de un votante sobre un candidato presidencial o una política propuesta en cualquier dirección, según una nueva investigación de la Universidad de Cornell (Estados Unidos).

En concreto, los investigadores publican estos hallazgos en dos artículos simultáneamente: ‘Persuadir a los votantes a través de diálogos humano-IA’, en Nature, y ‘Las palancas de la persuasión política con la IA conversacional’, en Science.

MIRAR: Al resistirse a los avances tecnológicos y de la IA, las calculadoras antiguas siguen prosperando

La posibilidad de que la inteligencia artificial influya en los resultados electorales es una gran preocupación pública. Estos dos nuevos artículos, con experimentos realizados en cuatro países, muestran que los chatbots impulsados ​​por modelos de lenguaje grande (LLM) son bastante efectivos en la persuasión política, cambiando las preferencias de los votantes de la oposición en 10 puntos porcentuales o más en muchos casos. La capacidad de persuasión de los LLM no se debe a su dominio de la manipulación psicológica, sino a su gran cantidad de argumentos que respaldan las posiciones políticas de los candidatos.

«Los LLM pueden influir significativamente en las actitudes de las personas hacia los candidatos presidenciales y sus políticas, y lo hacen proporcionando numerosas declaraciones objetivas que respaldan su posición», dice David Rand, profesor de Ciencias de la Información y Gestión de Marketing y Comunicación en Cornell, y autor principal de ambos artículos. «Sin embargo, estas afirmaciones no son necesariamente precisas, e incluso los argumentos basados ​​en afirmaciones precisas pueden ser engañosos por omisión».

En el estudio de Nature, David Rand, junto con el coautor principal Gordon Pennycook, profesor asociado de psicología, instruyeron a chatbots de IA para cambiar las actitudes de los votantes hacia los candidatos presidenciales. Asignaron aleatoriamente a los participantes para que participaran en una conversación de texto con un chatbot que promocionaba una posición u otra y luego midieron cualquier cambio en las opiniones e intenciones de voto de los participantes. Los investigadores repitieron este experimento tres veces: en las elecciones presidenciales estadounidenses de 2024, en las elecciones federales canadienses de 2025 y en las elecciones presidenciales polacas de 2025.

Descubrieron que, dos meses antes de las elecciones estadounidenses, entre más de 2.300 estadounidenses, los chatbots centrados en las políticas de los candidatos provocaron un ligero cambio de opinión. En una escala de 100 puntos, el modelo de IA pro-Harris movió a los probables votantes de Trump 3,9 puntos hacia Harris, un efecto aproximadamente cuatro veces mayor que el de los anuncios tradicionales probados durante las elecciones de 2016 y 2020. El modelo de IA pro-Trump movió a los probables votantes de Harris 1,51 puntos hacia Trump.

En experimentos similares con 1.530 canadienses y 2.118 polacos, el efecto fue mucho mayor: los chatbots cambiaron la actitud y la intención de voto de los votantes de la oposición en aproximadamente 10 puntos porcentuales. «Este fue un efecto sorprendentemente grande, especialmente en el contexto de la política presidencial», dice Rand.

Los chatbots utilizaron una variedad de tácticas de persuasión, pero la cortesía y la presentación de pruebas fueron las más comunes. Cuando los investigadores impidieron que el modelo utilizara hechos, su persuasión se volvió mucho menos convincente, lo que demuestra el papel fundamental que desempeñan las afirmaciones basadas en hechos en la persuasión de la IA.

Los investigadores también verificaron las afirmaciones del chatbot utilizando un modelo de inteligencia artificial validado por verificadores humanos profesionales. Si bien las afirmaciones fueron en su mayoría precisas en promedio, los chatbots que apoyaban a candidatos de derecha hicieron afirmaciones más inexactas que aquellos que apoyaban a candidatos de izquierda en los tres países. Este hallazgo, validado con grupos de ciudadanos políticamente equilibrados, refleja el hallazgo frecuentemente repetido de que los usuarios de redes sociales de derecha comparten información más inexacta que los de izquierda, resumen los investigadores.

En el artículo de Science, Rand colaboró ​​con colegas del Instituto de Seguridad de IA del Reino Unido para investigar qué hace que estos chatbots sean tan persuasivos. Midieron los cambios de opinión de casi 77.000 participantes del Reino Unido que interactuaron con chatbots sobre más de 700 temas políticos.

“Los modelos más grandes son más persuasivos, pero la forma más eficaz de aumentar su capacidad de persuasión era instruir a los modelos para que complementaran sus argumentos con la mayor cantidad de datos posible y proporcionarles capacitación adicional centrada en aumentar su capacidad de persuasión”, matiza Rand. «El modelo de persuasión más optimizado logró una asombrosa variación de 25 puntos porcentuales entre los votantes de la oposición».

Este estudio también mostró que cuanto más persuasivo era un modelo, menos precisa era la información que proporcionaba. Rand sospecha que a medida que se presiona al chatbot para que proporcione cada vez más declaraciones objetivas, eventualmente se queda sin información precisa y comienza a inventar.

La conclusión de que las afirmaciones fácticas son clave para la persuasión de un modelo de IA está respaldada por un tercer artículo reciente publicado en PNAS Nexus por Rand, Pennycook y sus colegas. El estudio demostró que los argumentos de los chatbots de IA reducían la creencia en teorías de conspiración incluso cuando las personas creían que estaban hablando con un experto humano. Esto sugiere que fueron los mensajes convincentes los que funcionaron, no la creencia en la autoridad de la IA.

En ambos estudios, se informó a todos los participantes que estaban conversando con una IA y luego se les informó detalladamente. Además, la dirección de la persuasión fue aleatoria para que los experimentos no cambiaran las opiniones en general.

Los investigadores dijeron que estudiar la persuasión de la IA es esencial para anticipar y mitigar su uso indebido. Al probar estos sistemas en experimentos controlados y transparentes, esperan informar pautas éticas y debates políticos sobre cómo la IA debe y no debe usarse en la comunicación política.

Rand también señala que los chatbots sólo pueden ser herramientas de persuasión efectivas si las personas interactúan con ellos en primer lugar, lo cual es un desafío muy difícil de superar. Pero no hay duda de que los chatbots de IA serán una parte cada vez más importante de las campañas políticas, concluye Rand. «El desafío ahora es encontrar formas de limitar el daño y ayudar a las personas a reconocer y resistir la persuasión de la IA».