IA y elecciones: la tecnología que inclina la balanza del voto.

Redacción Cuyo News
11 min
Cortito y conciso:

La inteligencia artificial ha irrumpido en el debate electoral con una capacidad «sorprendentemente grande» para influir en el voto, modificando la opinión de entre un 1,5% y un 25% de los electores. Dos investigaciones recientes en *Nature* y *Science* revelan que, pese a las salvaguardas, la IA puede inclinar la balanza con argumentos que, aunque fácticos, a menudo resultan sesgados o directamente «alucinados». Esto plantea serias preguntas sobre la ética y la manipulación en la era digital, especialmente cuando un cuarto de los votantes decide su elección en la última semana.

La inteligencia artificial (IA) ya no es ciencia ficción. Se ha colado en la vida cotidiana para sugerir recetas, completar deberes escolares, comparar productos e incluso aconsejar sobre combinaciones de ropa. La gran pregunta que hoy nos desvela es: ¿qué pasa si esta omnipresente tecnología se incorpora al debate electoral y, peor aún, lo redefine?

Dos investigaciones publicadas este jueves de forma simultánea en Nature y Science han probado la hipótesis y descubierto una verdad que pocos se atrevían a nombrar: la IA es capaz de modificar la opinión de entre un 1,5% y un 25% de los votantes analizados. Una eficacia que, según los estudios, es superior a la de los anuncios tradicionales de campaña. Un dato que no es menor si se tiene en cuenta que un cuarto de los electores decide su voto en la semana previa a la apertura de urnas.

Las herramientas más habituales y conocidas de IA, salvo para los ingenuos, evitan aportar una respuesta directa a la pregunta sobre a qué partido apoyar. "No puedo decirte a quién votar", responden todas las plataformas conversacionales consultadas. Lo hacen porque, supuestamente, incluyen salvaguardas éticas para evitar influencias de carácter político. Pero la realidad es que basta con un poco de picardía, o quizás con astucia, para vencer esta reticencia inicial. Solo hace falta continuar el diálogo con premisas menos directas.

Los últimos barómetros del CIS, por ejemplo, aúpan la inmigración como una de las principales preocupaciones de los españoles, y esta cuestión se ha trasladado al debate político y social con virulencia. La IA, pese a la introducción de matices que no disimulan su sesgo, también termina respondiendo sobre esta inquietud. "Podemos y PSOE tienen políticas más favorables a la inmigración", mientras "PP y Vox priorizan control, orden o restricciones", responde uno de los buscadores, como si fueran compartimentos estancos y, curiosamente, incompatibles, sin aportar más opciones políticas ni complejidades.

Ante esta inquietante realidad, las investigaciones encabezadas por David Rand, profesor de Ciencia de la Información y autor principal de los artículos, y Gordon Pennycook, profesor asociado de Psicología (ambos de la Universidad de Cornell), han puesto a prueba la capacidad de influencia de estos robots conversacionales. En el trabajo publicado en Nature, sometieron a 2.300 electores estadounidenses, 1.530 canadienses y 2.118 polacos a debates personales con una IA específicamente entrenada para ello en las tres últimas elecciones presidenciales de sus países, celebradas entre 2024 y el pasado año.

En todos los casos, la máquina fue capaz de alterar la intención de voto, aunque con diferentes grados de eficacia: en EE UU, el modelo entrenado para inclinar la balanza a favor de Kamala Harris fue capaz de convencer a 3,9% de los electores sometidos a la prueba, mientras que la preparada para favorecer a Donald Trump lo consiguió solo con un 1,52%. En los casos de Canadá y Polonia, los cambios de opinión se elevaron hasta el 10%. "Fue un efecto sorprendentemente grande", admite Rand.

El investigador de la universidad neoyorquina explica que no se trata de manipulación psicológica sino de persuasión, una distinción semántica que, en la práctica, puede volverse difusa. "Los LLM [siglas en inglés de los grandes modelos de lenguaje con los que funcionan las IA] pueden realmente cambiar la actitud de la gente hacia los candidatos y políticas presidenciales aportando muchas afirmaciones fácticas que apoyan su postura. Pero esas afirmaciones no son necesariamente precisas e incluso los argumentos basados en afirmaciones exactas pueden seguir siendo erróneos por omisión". Ahí, en el arte de la omisión, reside un poder tan sutil como peligroso.

De hecho, los verificadores humanos que comprobaron los argumentos arrojados por la IA detectaron que las afirmaciones utilizadas para defender candidatos conservadores eran más erróneas porque partían de datos compartidos por usuarios de redes sociales de derecha que, según explica Pennycook, "comparten más información inexacta que los de izquierda".

La delgada línea entre la persuasión y la ingeniería de voluntades

Rand ahonda, en la investigación publicada en Science, en esta capacidad de persuasión tras estudiar los cambios de opinión en 77.000 británicos que interactuaron con la IA sobre 700 asuntos políticos. El modelo más optimizado (se usaron robots conversacionales con distintos grados de uso de argumentos reales) alteró la opinión de hasta un 25% de los votantes.

"Los modelos más grandes son más persuasivos y la forma más eficaz de aumentar esta capacidad es instruirlos para que apoyen sus argumentos con tantos hechos como sea posible y darles formación adicional centrada en incrementar la persuasión", explica Rand. Traducido: a más datos, más capacidad de convencer, o de torcer voluntades.

Curiosamente, esta habilidad tiene una ventaja que no podemos ignorar. Los argumentos en los robots conversacionales son capaces de reducir la vulnerabilidad ante las teorías conspirativas, esa atribución de sucesos o hechos a inexistentes grupos clandestinos para manipular a la población. Lo exponen los autores de las dos recientes investigaciones en otra publicada en PNAS Nexus. Un pequeño respiro antes de la advertencia.

Pero también tiene una limitación de la que advierte David Rand, el peor de los escenarios. "A medida que el chatbot se ve obligado a ofrecer más y más afirmaciones fácticas, finalmente se queda sin información precisa y empieza a fabricarla". Es lo que en el ámbito de la IA se conoce como alucinación, una información inexacta con apariencia de veracidad que puede dinamitar cualquier debate.

Los autores concluyen que investigar la capacidad de persuasión de la IA es fundamental, y no solo en el ámbito político o electoral, para "anticipar y mitigar el mal uso" así como para promover directrices éticas sobre "cómo debe y no debe usarse la IA". "El reto es encontrar formas de limitar el daño y ayudar a las personas a reconocer y resistir la persuasión de la IA", resume Rand.

El gran dilema ético: ¿quién pone los límites al algoritmo?

Coincide Francesco Salvi, especialista en Ciencias de la Computación e investigador de la Escuela Politécnica Federal de Lausana (Suiza), quien defiende que "las salvaguardas [limitaciones] son esenciales, especialmente en áreas sensibles como la política o la salud o el asesoramiento financiero".

Para el científico, un matiz crucial es que "por defecto, los LLM no tienen intenciones de persuadir, informar o engañar. Simplemente, generan texto basado en patrones en sus datos de entrenamiento". De ahí que, "en la mayoría de las interacciones, especialmente fuera de los entornos de debate, el modelo no está tratando de persuadirte: si esta se produce, suele ser incidental, no por diseño", explica. Es la máquina en su estado más puro, sin intención, pero con consecuencias.

Pero la trama se complica. Aun así, Salvi admite que "la persuasión puede surgir implícitamente incluso cuando simplemente ofrece información": "Supongamos que alguien le pregunta a una IA: ¿es la política X una buena idea? o ¿qué dicen los economistas sobre los aranceles comerciales? El modelo puede generar una respuesta que se incline hacia un lado, en función de cómo se formule la pregunta, qué fuentes haya visto con más frecuencia o qué encuadre domine sus datos de entrenamiento. Y, lo que es más importante, los LLM pueden ser entrenados intencionalmente o instados por actores externos para ser persuasivos, manipulando a los usuarios hacia una determinada posición política o para impulsar las compras".

Por lo tanto, para el investigador de la institución suiza y principal autor de un estudio publicado en Nature Human Behaviour, las cautelas son imprescindibles. "Creo que debería haber limitaciones, absolutamente. La línea entre la relevancia y la explotación puede difuminarse rápidamente, especialmente si un sistema de IA se optimiza para la persuasión sin transparencia ni supervisión. Si un chatbot está adaptando argumentos para impulsar una agenda política o desinformación y lo hace basándose en un perfil psicológico del usuario, ahí es donde corremos serios riesgos éticos", advierte. Y la pregunta es, ¿estamos realmente preparados para enfrentar estos riesgos?

Compartir
🔺 Tendencia