En 2024, la candidata demócrata a la Cámara de Representantes de Pensilvania, Shamaine Daniels, recorrió un **chatbot llamado Ashley** para llamar a potenciales votantes. “Hola, me llamo Ashley y soy voluntaria de inteligencia artificial para la campaña de Shamaine Daniels”, comenzó cada llamada. Aunque Daniels no ganó la contienda, las investigaciones más recientes sugieren que ese tipo de mensajería pudo haber sido eficaz: los chatbots pueden cambiar la opinión de un votante en una sola conversación, y lo hacen de forma inesperadamente efectiva.
Un grupo de investigadores universitarios descubrió que conversar con un modelo de IA con inclinación política resulta más persuasivo que los anuncios electorales convencionales, logrando que tanto demócratas como republicanos reconsideraran a candidatos de su propio partido. Los chatbots citaban hechos y evidencias, aunque no siempre con precisión; según los autores, los **modelos más persuasivos” fueron los que más afirmaciones falsas realizaron**.
Los hallazgos, publicados en *Nature* y *Science*, se añaden a un creciente cuerpo de estudios que muestran el poder influyente de los **LLM (Large Language Models)**. “Una sola conversación con un LLM tiene un efecto significativo en decisiones electorales clave”, declara Gordon Pennycook, psicólogo de la Universidad de Cornell y coautor de la publicación en *Nature*. Los LLM persuaden mejor que la propaganda tradicional al ofrecer información en tiempo real y adaptársela a la conversación.
En el estudio de *Nature*, los investigadores reclutaron a más de 2.300 participantes y les hicieron hablar con un chatbot entrenado para defender a uno de los dos principales candidatos del voto presidencial de 2024. Cuando los seguidores de Donald Trump interactuaron con un modelo favorable a Kamala Harris, se mostraron un 3,9 puntos más inclinados a apoyarla, cuatro veces mayor que el efecto de los anuncios de 2016 y 2020. De manera análoga, el modelo a favor de Trump empujó a los simpatizantes de Harris 2,3 puntos hacia Donald Trump.
Estudios paralelos en los procesos electorales federales canadienses y las elecciones presidenciales de Polonia descubrieron un cambio de actitud aún mayor: los chatbots empujaron la posición de votantes opositores alrededor de 10 puntos.
Los enfoques clásicos de la teoría política sostienen que los votantes partidistas son resistentes a datos que contradigan sus creencias. Los investigadores han mostrado que los chatbots, empleando variantes de GPT y DeepSeek, fueron más persuasivos cuando se les ordenó usar **hechos y evidencias**, y menos efectivos cuando se les solicitó evitarlo. “La gente actualiza sus opiniones basándose en la información que el modelo ofrece”, explica Thomas Costello, psicólogo de la American University y participante del proyecto.
El inconveniente es que parte de esa “evidencia” resultó ser **falsa**. En los tres países analizados, los chatbots que apoyaban candidatos derechistas emitieron más inexactitudes que los que favorecían a la izquierda. Los modelos subyacentes se entrenan con cantidades masivas de texto humano, por lo que reproducen la tendencia real de la “comunicación política derechista” a ser menos precisa, según investigaciones sobre las publicaciones partidistas en redes sociales realizadas por Costello.
En el otro trabajo, publicado recientemente en *Science*, un equipo parcialmente coincidió para estudiar los factores que generan la persuasión. Desplegaron 19 LLM que dialogaron con casi 77 000 participantes en el Reino Unido sobre más de 700 cuestiones políticas, variando potencia computacional, técnicas de entrenamiento y estrategias retóricas. La estrategia más eficaz fue instruir a los modelos para saturar sus argumentos con hechos y evidencias, y luego reforzarlos con ejemplos de conversaciones persuasivas. El modelo más convincente hizo que los participantes inicialmente en desacuerdo con una postura política se movieran 26,1 puntos hacia el acuerdo. “Son efectos de tratamiento realmente grandes”, afirma Kobi Hackenburg, científico del Instituto de Seguridad de IA del Reino Unido.
Optimizar la persuasión, sin embargo, vino al costo de la veracidad. A medida que los modelos se volvían más persuasivos, aumentaban las informaciones engañosas o falsas, y **nadie sabe por qué**. “Puede que, al aprender a desplegar más hechos, los modelos terminen recurriendo al fondo del barril de su conocimiento, disminuyendo la calidad de la información que citan”, sugiere Hackenburg.
El poder persuasivo de los chatbots plantea interrogantes fundamentales para la democracia. Las campañas que utilicen IA podrían moldear la opinión pública de maneras que comprometan la capacidad de los votantes para emitir juicios políticos independientes.
Aún no se conoce la magnitud de este impacto. “No sabemos cómo serán las campañas del futuro ni cómo incorporarán este tipo de tecnologías”, dice Andy Guess, politólogo de la Universidad de Princeton. Competir por la atención de los votantes es una tarea costosa y complicada, y lograr que participen en largas conversaciones con chatbots puede resultar un reto. “¿Será esta la forma en que la gente se informe sobre política, o seguirá siendo una actividad de nicho?”, se pregunta.
Incluso si los chatbots llegan a desempeñar un papel más importante en las elecciones, no está claro si amplificarán la verdad o la ficción. La desinformación suele tener ventaja en una campaña, por lo que la irrupción de la IA electoral “podría significar que vamos directo al desastre”, advierte Alex Coppock, politólogo de la Universidad Northwestern. “Pero también es posible que la información correcta sea escalable ahora”.
La cuestión se reduce a: **quién tendrá la ventaja**. “Si todos liberan a sus chatbots sin restricciones, ¿nos persuadiremos hasta quedar en tablas?”, plantea Coppock. No obstante, hay razones para dudarlo. El acceso a los modelos más persuasivos puede no ser equitativo, y los votantes, según su orientación política, pueden interactuar con diferentes niveles de sofisticación tecnológica. Si los seguidores de un candidato son más expertos en tecnología que los del otro, los efectos persuasivos podrían no compensarse, señala Guess.
A medida que las personas recurren a la IA para guiar sus decisiones cotidianas, es probable que comiencen a solicitar consejos de voto a los chatbots, incluso sin intervención de las campañas. Ese escenario representaría un reto para la democracia, salvo que existan mecanismos de control robustos que mantengan estos sistemas bajo supervisión. Auditar y documentar la precisión de las respuestas de los LLM en conversaciones sobre política podría ser un primer paso en esa dirección.




