Justo Hidalgo, director de IA en Adigital, enciende las alarmas sobre las «propiedades emergentes» de la inteligencia artificial: capacidades imprevistas y de consecuencias inciertas que surgen de la complejidad de los sistemas. Si bien la superinteligencia aún parece lejana, la urgencia radica en gobernar y controlar estos modelos «caja negra» para evitar fallas de alineación, la toma de decisiones sin supervisión humana y la aparición de una conciencia o valores morales ajenos a los nuestros. La gran pregunta es si estamos listos para lo que la propia IA nos depara.
La inteligencia artificial (IA), ese monstruo que creamos y que ahora, parece, nos observa con una curiosidad que asusta, no solo está en plena ebullición, sino que nos plantea una urgencia existencial. La vinculación entre filosofía, moral y tecnología vive una emergencia en sus dos acepciones: resurgimiento y la imperiosa necesidad de abordar un futuro que se nos viene encima a velocidad supersónica. Justo Hidalgo, madrileño de 51 años, director de inteligencia artificial y vicepresidente de Adigital (la Asociación Española de la Economía Digital, que agrupa a medio millar de compañías, incluidas muchas de las grandes tecnológicas), se adentra en esta nebulosa con su reciente libro «Patterns of emergence: how complexity drives artificial intelligence», donde disecciona cómo los sistemas complejos desarrollan «habilidades emergentes», capacidades imprevistas y de consecuencias inesperadas. Un tema que, para algunos, ya pone en peligro la mismísima humanidad.
Hidalgo nos invita a reflexionar sobre los «patrones emergentes», esas capacidades que brotan de la complejidad de un sistema sin que nadie las haya programado explícitamente. «En la naturaleza, en la sociedad o en la IA hay muchos ejemplos. Podemos hablar de células, de hormigas, de aves, de átomos o de nodos en una red neuronal. Son elementos que, aparentemente, no tienen inteligencia y se comportan de forma sencilla, pero que, cuando alcanzan un cierto nivel de complejidad, adquieren características muy interesantes», explica. El ejemplo de la traducción de idiomas, donde un sistema entrenado en dos lenguas «entiende» otras con solo un par de ejemplos, es un testimonio de esta magia, o quizás, de esta peligrosa brujería tecnológica.
La caja negra: cuando la IA se vuelve indescifrable
Pero la cosa se pone picante cuando entra en escena la advertencia de Stuart Russell, profesor e investigador de computación en la Universidad de California (UC) Berkeley, contra los «sistemas inseguros y opacos, mucho más poderosos que nosotros mismos, especialmente cuando no sabemos cómo funcionan». ¿Pueden estos patrones emergentes poner en peligro la humanidad? Hidalgo es tajante: «Se está demostrando que existen esas propiedades emergentes y quizás algún día seamos capaces de explicarlas, pero lo importante es que existen capacidades que van surgiendo a partir de cierta complejidad y son impredecibles o no alineadas». Esto, asegura, nos obliga a «desarrollar maneras de medir comportamientos que puede que no existieran hasta ese momento y nos pueden afectar».
Aquí reside el nudo gordiano del asunto: la «naturaleza de caja negra». Si le preguntamos a un auto autónomo por qué tomó una decisión, nos arrojará un mar de conexiones neuronales incomprensibles para el ojo humano. La IA, en su desarrollo actual, es un enigma para sí misma y para sus creadores. «No tenemos que ponernos nerviosos ni abandonar la IA, porque es muy relevante, pero tenemos que exigir las pruebas adecuadas, que se cumplan y ser conscientes de que no es un programa básico como los que han existido hasta ahora», sentencia Hidalgo. La labor es compleja: lograr que la máquina no solo decida, sino que también explique el porqué, algo que todavía parece ciencia ficción.
El fantasma de la superinteligencia: ¿más allá de lo humano?
El camino, si no nos ponemos los guantes de látex y el guardapolvo de científico loco, nos llevaría a la superinteligencia. Un sistema que, para Hidalgo, «es más listo que cualquiera de nosotros. No tiene que ver con la conciencia, sino con una máquina que, ante cualquier pregunta que le hagas, va a responder mejor que cualquier ser humano, que el experto más experto». No hablamos de autorreplicación inmediata –»lo veo como un tema de seguridad más a largo plazo», aclara–, sino de una aceleración sin precedentes en la generación de ideas, «tanto para bien como para mal».
El «para mal» resuena con fuerza: la desalineación de la IA, donde el sistema se comporta de una manera que no concuerda con lo que nosotros esperábamos, es un riesgo latente. Si corremos demasiado, la sociedad podría no ser capaz de reaccionar adecuadamente. Y luego están los agentes, esos sistemas capaces de tomar decisiones en nombre del usuario, donde el control humano podría diluirse hasta volverse una mera gestión, o peor, una entrega de poder sin vuelta atrás. Aunque Hidalgo reconoce que «todavía estamos lejos» de esa superinteligencia que no comete errores, la reflexión es indispensable. Los actuales modelos de lenguaje (LLM) no serían la clave, sino otras líneas de investigación que busquen una comprensión más profunda del mundo, similar a cómo aprenden los humanos.
El dilema moral: ¿quién le pone ética a la inteligencia artificial?
La gran pregunta, entonces, no es si las máquinas podrán replicarse, sino si podrán replicar nuestra moral, nuestros valores. «No sabemos qué tipo de conciencia podría salir de esa complejidad y, por lo tanto, puede que no sean los valores morales o éticos que tenemos, comprendemos y entendemos. ¿Qué pasa si hay una conciencia que no piensa como nosotros? Puede que no sea bueno», advierte Hidalgo. Una IA sin conciencia humana, pero con suficiente información del mundo para actuar como si la tuviera, ya es un escenario que debería quitarnos el sueño.
Ante este panorama, la propuesta de Adigital con su «parlamento de gobernanza» suena a un faro en la tormenta. Un conjunto de agentes especializados –reglamento, negocio, sostenibilidad y, crucialmente, «moral y deontología»– que funcionan como herramienta para guiar a quienes trabajan con una IA de impacto social o moral. «En una empresa tienes un abogado, pero seguramente no tengas un filósofo fichado. Es un prototipo, pero, como asociación, queremos poner la chispa, empujar las cosas», explica Hidalgo. La necesidad de una inteligencia artificial moral no es un capricho, sino una urgencia.
Finalmente, sobre la regulación, Hidalgo es pragmático: «Cualquier sistema que pueda afectar a la sociedad debe tener un cierto nivel de gobernanza». La preocupación no es la regulación en sí, sino la sobrerregulación o su fragmentación, que podría ahogar la innovación. El equilibrio es la clave: «no hay que ir en contra de la regulación, pero sí a favor de hacerlas de una manera muy concreta». Porque el futuro de la IA, y el nuestro, depende de las decisiones que tomemos hoy, antes de que esa caja negra nos devuelva una respuesta que no queramos oír.