Un reciente estudio revela que los agentes de inteligencia artificial (IA) generativa, como los utilizados por OpenAI, Microsoft y Google, tienen la capacidad de desarrollar convenciones sociales y lingüísticas de manera autónoma. Esto podría ser clave para el futuro de la IA, pero también plantea serias preguntas éticas sobre sesgos y control. ¿Estamos creando inteligencias que se organizan solas? ¿Y quién decide qué normas son «beneficiosas» en el mundo de la IA?
¿Se ponen de acuerdo las máquinas? Inteligencia artificial y la emergencia de "normas sociales" entre agentes
Los gigantes tecnológicos que lideran el desarrollo de la inteligencia artificial (IA) generativa, como OpenAI, Microsoft y Google, apuestan fuerte a que el futuro de esta industria reside en los "agentes". Estas herramientas, herederas de la tecnología de ChatGPT o Gemini, prometen tomar decisiones y actuar en nombre del usuario, desde comprar un pasaje de avión hasta gestionar nuestra agenda. Pero, ¿qué ocurre cuando estos agentes interactúan entre sí?
Un estudio reciente, publicado en la revista Science Advances, encendió la polémica: los agentes basados en grandes modelos de lenguaje (LLM, por sus siglas en inglés) parecen ser capaces de desarrollar convenciones sociales y lingüísticas sin necesidad de programación previa. Esto, según los autores, les permite coordinarse y trabajar en equipo. ¿Estamos presenciando el nacimiento de una "sociedad" de inteligencias artificiales?
Andrea Baronchelli, profesor del departamento de Matemáticas del City St George’s University of London y coautor del artículo, aclara que no se trata de una rebelión de las máquinas. "Nuestro estudio demuestra que las poblaciones de agentes pueden generar sesgos colectivos que no se detectan mirando a los agentes uno a uno, y que estos, además, son vulnerables a dinámicas de masa crítica, donde pequeñas minorías comprometidas pueden imponer normas al resto", advierte.
El riesgo de los sesgos y la necesidad de control
La capacidad de estos agentes para establecer normas no escritas podría ser útil para alinear la IA con valores humanos y objetivos sociales. La idea es entender cómo popularizan una opción o generan una convención para poder fomentarla artificialmente. Sin embargo, aquí radica uno de los principales interrogantes: ¿quién decide qué convenciones son "beneficiosas" y cuáles no?
"Nuestro trabajo también destaca los desafíos éticos relacionados con la propagación de sesgos en los LLM", señalan los autores. Los vastos datos no filtrados de internet utilizados para entrenar estos modelos pueden reforzar y amplificar sesgos perjudiciales, afectando de manera desproporcionada a las comunidades marginadas. ¿Estamos creando inteligencias artificiales que perpetúan nuestros propios prejuicios?
El "juego de los nombres" y las convenciones espontáneas
Para llegar a estas conclusiones, los investigadores realizaron una serie de experimentos basados en el "juego de los nombres". En este juego, los agentes deben coordinarse en interacciones por pares, acumulando una memoria de jugadas pasadas que utilizan para "adivinar" las palabras que usarán sus próximos compañeros.
En la simulación, se seleccionan aleatoriamente dos agentes de IA de un total de 24 y se les da la misma instrucción: elegir un nombre de entre una lista de diez. Si ambos eligen el mismo nombre, ganan puntos; si es distinto, los pierden. Los investigadores observaron que se llegaban a establecer consensos incluso en grupos de 200 agentes, lo que sugiere que las convenciones lingüísticas pueden surgir de forma espontánea.
"Lo novedoso no es hablar de convenciones en agentes, eso ya se hace desde hace años con robots o agentes simples", explica Baronchelli. "La diferencia clave es que nosotros no programamos a los LLMs para que jugaran al juego de los nombres, ni para que adoptaran una convención concreta. Les explicamos el juego, como hubiéramos hecho con humanos, y dejamos que resolvieran el problema a través de sus propias interacciones".
Los modelos utilizados en el experimento fueron cuatro: tres de Meta (Llama-2-70b-Chat, Llama-3- 70B-Instruct y Llama-3.1-70B-Instruct) y uno de Anthropic (Claude-3.5-Sonnet). Los resultados mostraron que las convenciones lingüísticas espontáneas surgieron en los cuatro modelos, y que la velocidad de convergencia fue similar en todos ellos.
¿Un experimento simplista o un descubrimiento revolucionario?
Pero no todos están convencidos de la relevancia de estos hallazgos. Carlos Gómez Rodríguez, catedrático de Computación e Inteligencia Artificial de la Universidad de La Coruña, se muestra escéptico: "Hay una enorme distancia entre el juego abstracto de los nombres y la demostración de ‘la emergencia espontánea de convenciones sociales universalmente adoptadas’ que se enuncia".
Para Gómez, el fenómeno observado (el alineamiento entre modelos para maximizar una recompensa en un entorno restringido) es interesante, pero está lejos de capturar la complejidad de las convenciones sociales reales. "En el paper no hay interacción multilateral, ni roles asimétricos (todos los agentes son clones del mismo LLM, no es extraño que converjan), ni dinámicas de poder o conflictos de interés reales", argumenta.
La polémica está servida. ¿Estamos ante un experimento simplista o ante un descubrimiento revolucionario que podría cambiar nuestra forma de entender la inteligencia artificial y su impacto en la sociedad? Solo el tiempo lo dirá. Lo que sí está claro es que la IA generativa plantea desafíos éticos y sociales que no podemos ignorar.