<div class="semiton-wrapper" data-texto="¡Atenti! ¿Se imaginan? ¡Las máquinas copian nuestras costumbres! Científicos londinenses y daneses descubrieron que la IA, sin que nadie les diga, se pone de acuerdo como en el truco. Usaron el "juego de nombres" (¡un nombre más raro no podían encontrar!) y vieron que los agentes, entre 24 y 200, se ponían la gorra de "buenos compañeros".
Pero tranquilos, no todo es mate y tortas fritas: ¡aparecieron los sesgos! Sí, esos problemitas que tenemos nosotros, ahora también los tienen ellos. Un investigador avisó: esto complica la seguridad en la IA. ¡A prepararse para el asado del futuro con robots peronistas y gorilas!
">
Agentes de IA: ¿La nueva barra brava tecnológica? Descubren que se ponen de acuerdo solitos y hasta tienen sesgos
A diferencia de los chatbots, los agentes de inteligencia artificial (IA) no solo charlan, ¡sino que actúan! Estos sistemas, equipados con grandes modelos de lenguaje (LLM) y algoritmos dignos de una película de ciencia ficción, interactúan con entornos digitales, ejecutan acciones múltiples y resuelven tareas de manera autónoma, todo en nombre del usuario. O, como diría un clásico, "en su representación".
Pero la cosa se pone interesante cuando estos LLM necesitan colaborar entre sí, compartiendo información como si estuvieran en un grupo de WhatsApp. La pregunta que surge, entonces, es si estas mentes artificiales pueden desarrollar convenciones sociales y lingüísticas compartidas sin que nadie les diga cómo. Y la respuesta, según un grupo de investigadores, es un rotundo sí. ¡Los agentes de IA se ponen de acuerdo solos!
El «juego de nombres»: un experimento para entender cómo nacen las normas en la IA
Un estudio realizado por expertos del City St George’s University of London y la Universidad Tecnológica de Copenhague se propuso investigar si era posible que emergieran normas universales de manera espontánea entre agentes basados en LLM. Para ello, recurrieron a una metodología conocida como el "juego de nombres", una técnica que suena a concurso televisivo pero que, en realidad, se usa para estudiar la formación de normas sociales en humanos.
En los experimentos participaron grupos de entre 24 y 200 agentes, construidos a partir de modelos como Llama-2-70b-Chat y Claude-3.5-Sonnet. En cada ensayo, se emparejaban agentes al azar y se les pedía elegir un "nombre" (una secuencia aleatoria o una letra del alfabeto) de un conjunto limitado. La dinámica era sencilla: si ambos coincidían en la elección, recibían una recompensa; si no, eran penalizados y se les revelaba la opción del otro. Una especie de "Gran DT" de la IA, pero sin los papelones de los técnicos humanos.
Los resultados, publicados en la revista Science Advances, revelaron que, a través de estas interacciones repetidas, los agentes lograban generar convenciones compartidas sin instrucciones predefinidas. Como si, de repente, se pusieran de acuerdo para ir a tomar un fernet después del "laburo".
¿Sesgos en la IA? ¡No podía faltar el folclore!
Pero la cosa no termina ahí. El equipo de investigación también descubrió que estas normas emergentes pueden presentar sesgos colectivos, los cuales no son previsibles ni detectables al analizar a los agentes por separado. Sí, señoras y señores, parece que la IA también tiene sus preferencias y prejuicios.
“El sesgo no siempre proviene del interior. Nos sorprendió observar que puede surgir a partir de las interacciones entre agentes, sin necesidad de una fuente explícita”, advirtió Andrea Baronchelli, profesor de Ciencias de la Complejidad en City St George’s y coautor de la investigación. Una advertencia que pone en jaque la seguridad actual en IA, que se centra en modelos individuales y no en las dinámicas grupales. Porque, como bien sabemos en Argentina, los problemas nunca vienen solos.