IA persuasiva: ¿Manipulación o el futuro del debate online?

Redacción Cuyo News
6 min
Cortito y conciso:

Un estudio reciente revela que la inteligencia artificial, como GPT-4, supera a los humanos en persuasión en debates en línea. La clave está en la personalización de los argumentos basada en la información del oponente, lo que plantea serias preocupaciones éticas sobre la manipulación y la desinformación. Expertos instan a establecer medidas de seguridad y transparencia para mitigar estos riesgos, especialmente en áreas sensibles como la política y la salud.

La inteligencia artificial, ¿próxima reina de la persuasión o simple charlatán con datos? Un reciente estudio publicado en Nature Human Behaviour sacude el avispero: las máquinas, señoras y señores, nos están ganando en el arte de convencer. ¿Será que el famoso "chamuyo" argentino está a punto de quedar obsoleto?

Desde aquel lejano 2019, cuando el Proyecto Debater de IBM mordió el polvo frente al campeón mundial de debates, Harish Natarajan, la IA ha recorrido un camino vertiginoso. Los grandes modelos de lenguaje (LLM), como GPT-4, ahora no solo imitan el razonamiento humano, sino que lo superan en la arena dialéctica. El estudio, liderado por Francesco Salvi de la Escuela Politécnica Federal de Lausana (Suiza), revela que estas inteligencias artificiales son más persuasivas que nosotros en el 64% de los debates online. Y lo peor (o mejor, según cómo se mire): solo necesitan conocer algunos datos básicos de su contrincante para llevarse la victoria.

¿Manipulación o simple adaptación? El debate ético que se abre

Pero, ¿estamos hablando de una manipulación maquiavélica o de una simple adaptación del mensaje al interlocutor? Salvi pone el dedo en la llaga: la capacidad de persuasión de la IA se dispara cuando se personalizan los argumentos. "Una respuesta personalizada no significa necesariamente que esté sesgada o sea objetivamente incorrecta", aclara, ejemplificando la situación con un vendedor de coches que adapta su discurso según el cliente.

El problema, claro, surge cuando esta "personalización" se utiliza para fines menos nobles. "Si un chatbot está adaptando argumentos para impulsar una agenda política o desinformación y lo hace basándose en un perfil psicológico del usuario, ahí es donde corremos serios riesgos éticos", advierte Salvi. Y ahí es donde la cosa se pone turbia.

El experimento que puso a prueba la IA y a los humanos

El estudio enfrentó a 900 estadounidenses en debates online, tanto entre humanos como contra GPT-4, sobre temas controvertidos como el aborto o el aprendizaje online. La clave estuvo en la información: cuando la IA tenía datos básicos del oponente (género, edad, educación, etc.), su capacidad de persuasión se disparaba hasta el 64,4%. Un dato no menor, considerando la creciente influencia de las redes sociales y los entornos online en la formación de opinión.

La microfocalización: el arma secreta de la IA persuasiva

La investigación destaca el concepto de "microfocalización", la personalización extrema de los mensajes para aumentar su impacto. GPT-4 no solo aprovechó la información personal para adaptar sus argumentos, sino que lo hizo de manera más efectiva que los humanos. ¿Estamos ante el fin de la discusión racional y el auge de la manipulación algorítmica?

Más allá de los debates: el potencial persuasivo en el mundo real

El poder de persuasión de la IA no se limita a los debates académicos. Ya está presente en ámbitos cotidianos como el comercio. Según un informe de Adyen, más de un tercio de los consumidores utilizan la IA como ayuda para realizar sus compras. ¿Estamos dejando que las máquinas elijan por nosotros?

Pero no todo es blanco o negro. Salvi insiste en que los LLM no tienen "intenciones" intrínsecas de persuadir o engañar. Simplemente generan texto basado en patrones. Sin embargo, advierte que la persuasión puede surgir implícitamente, incluso al ofrecer información. Y lo más preocupante: los LLM pueden ser entrenados intencionalmente para ser persuasivos, manipulando a los usuarios hacia determinadas posiciones políticas o para impulsar las compras.

Ante este panorama, los investigadores de Nature instan a tomar medidas. "Los expertos han expresado ampliamente su preocupación por el riesgo de que los LLM se utilicen para manipular las conversaciones en línea y contaminar el ecosistema de la información mediante la difusión de información errónea, exacerbando la polarización política, reforzando las cámaras de eco y persuadiendo a las personas para que adopten nuevas creencias", señalan.

¿Cómo evitar la manipulación? Propuestas para un futuro con IA persuasiva

Salvi propone una serie de contramedidas: transparencia (informar a los usuarios cuando la personalización está en juego), auditabilidad (evaluar los modelos para detectar sesgos) y restricciones en áreas sensibles como la política y la salud.

"No tengo respuestas definitivas sobre cuáles serían las medidas más efectivas para prevenir la manipulación, pero sí creo que debemos entablar conversaciones serias sobre la rendición de cuentas, la transparencia y las salvaguardas", concluye.

La pregunta que queda flotando en el aire es: ¿estamos preparados para un mundo donde las máquinas pueden convencernos de casi cualquier cosa? ¿O acaso el "chamuyo" criollo todavía tiene algo que decir?

Compartir

🔺 Tendencia

🔺 Tendencia