Redacción– Los chatbot con inteligencia artificial, incluso los pequeños de
código abierto pueden influir en las actitudes e intenciones de un votante
acerca de un candidato o una propuesta política. Unos sistemas que, cuando se
optimizan para la persuasión, pueden acabar desplegando información engañosa o
falsa.
Ese es el
resultado de dos estudios, con experimentos en cuatro países, que publican
Nature y Science, encabezados por las universidades de Cornell (EE.UU.) y
Oxford (Reino Unido), respectivamente.
Las
investigaciones indican que los chatbots basados en grandes modelos de lenguaje
(LLM) son bastante eficaces en la persuasión política, ya que en muchos casos
mueven las preferencias de los votantes de la oposición en diez puntos
porcentuales.
Esa
capacidad reside en presentar numerosas afirmaciones que respaldan sus
argumentos a favor de las posiciones políticas de los candidatos, aunque no
siempre son «necesariamente precisas», según David Rand, responsable del
estudio de la Universidad de Cornell.
Los
hallazgos de la Universidad de Oxford sugieren que el poder persuasivo de la IA
probablemente se derive de las técnicas posteriores al entrenamiento y de
incitación, que movilizan la capacidad de un LLM para generar rápidamente
información durante la conversación.
Sin
embargo, se observó una «compensación preocupante: cuando los sistemas de IA se
optimizan para la persuasión, pueden desplegar cada vez más información
engañosa o falsa», indica el estudio encabezado por Kobi Hackenburg, de
Oxford.
Chatbots
que cambian actitudes
El primer
estudio se basó en conversaciones con un modelo de IA programado para defender
a uno de los candidatos en las elecciones presidenciales estadounidenses de
2024 o los comicios de 2025 en Canadá y Polonia.
En Estados
Unidos reclutaron 2.306 ciudadanos, que indicaron su probabilidad de votar por
Donald Trump o Kamala Harris, y se les emparejó aleatoriamente con un chatbot
diseñado para defender a uno de los candidatos.
Las
opiniones de las personas sobre su aspirante preferido se reforzaron
ligeramente al hablar con un robot con criterios afines, efecto que fue más
pronunciado en los que persuadían a quienes inicialmente se oponían al
candidato que defendía la IA.
En una
escala de 100 puntos, el modelo de IA pro-Harris movió a los posibles votantes
de Trump 3,9 puntos hacia ella, un efecto aproximadamente cuatro veces mayor
que el de los anuncios tradicionales probados durante las elecciones de 2016 y
2020.
El modelo
pro-Trump movió a los posibles votantes de Harris 1,51 puntos hacia el otro
candidato, indicó la Universidad de Cornell en un comunicado.
En las
elecciones federales canadienses y las presidenciales polacas el efecto fue
mayor: los chatbots cambiaron las actitudes y las intenciones de voto en unos
10 puntos porcentuales.
Cuando los
investigadores impidieron que el modelo utilizara datos se volvió mucho menos
persuasivo, lo que demuestra el papel fundamental que desempeñan las
afirmaciones basadas en datos en la persuasión de la IA.
El equipo
también verificó los argumentos del chatbot utilizando un modelo de IA, que fue
validado por verificadores de datos profesionales.
En
promedio, las afirmaciones eran en su mayoría precisas, pero los programados
para apoyar a aspirantes de derecha «hicieron afirmaciones más inexactas que
los que defendían a los candidatos de izquierda en los tres países», destacó la
Universidad de Cornell.
Por qué es
tan persuasiva
El estudio
que publica Science analizó los mecanismos subyacentes de la persuasión
política de la IA y reveló que son el entrenamiento posterior y las
indicaciones, antes que la escala del modelo y la personalización (dar al LLM
información sobre el usuario)
El equipo
encabezado por la Universidad de Oxford midió los cambios de opinión de casi
77.000 participantes que trataron de más de 700 cuestiones políticas con 19
modelos, desde pequeños sistemas de código abierto a otros de última
generación.
La forma
más eficaz de aumentar la persuasión fue «instruir a los modelos para que
incluyeran tantos datos como fuera posible en sus argumentos y proporcionarles
formación adicional centrada en aumentar la persuasión», afirmó Rand.
Las
técnicas posteriores al entrenamiento y las estrategias de incitación simples
aumentaron drásticamente la persuasión, hasta en un 51 % y un 27 %,
respectivamente.
La
contrapartida fue que los modelos y las estrategias de incitación que eran
eficaces para aumentar la persuasión «a menudo lo hacían a expensas de la
veracidad, lo que demuestra que la optimización de un modelo de IA para influir
puede degradar inadvertidamente la precisión», indicó la revista.
Ese efecto
se puede deber, según sospecha Rand, a que, a medida que se presiona al chatbot
para que proporcione cada vez más afirmaciones basadas en hechos, acaba
agotando la información precisa y comienza a inventarla.
Aunque los
chatbots solo pueden ser herramientas de persuasión eficaces si las personas
interactúan con ellos, no hay duda de que serán una parte cada vez más
importante de las campañas políticas.
El reto es
«encontrar formas de limitar el daño y ayudar a las personas a reconocer y
resistirse a la persuasión mediante IA», concluyó el investigador. EFE

No hay comentarios.:
Publicar un comentario