Ramón López de Mántaras, pionero de la IA con 50 años en la disciplina, critica el enfoque actual en la IA generativa, argumentando que desvía de la búsqueda de una IA fuerte y consciente. Advierte sobre los riesgos del despliegue apresurado de estas tecnologías y la necesidad de una regulación más prudente y ética, especialmente en áreas como la manipulación de la información y las armas autónomas.
Ramón López de Mántaras, el visionario de la inteligencia artificial que no se deja encandilar por el humo mediático
Ramón López de Mántaras (72), un nombre que resuena con fuerza en los pasillos de la inteligencia artificial (IA) desde mucho antes de que ChatGPT se convirtiera en el nuevo juguete de moda. Este ingeniero, informático y físico catalán, con medio siglo dedicado a la IA, no se anda con rodeos: la IA generativa, esa que alimenta chatbots y asistentes virtuales, científicamente hablando, le despierta un interés «más bien escaso».
Pero, ¿por qué este desencanto? ¿Acaso el pionero se ha quedado atrás? Nada de eso. López de Mántaras, curtido en mil batallas algorítmicas y fundador del Instituto de Investigación de Inteligencia Artificial del CSIC, apunta directamente al corazón del asunto: la consciencia.
Él, junto con otros pesos pesados como Yann LeCun (científico jefe de IA en Meta) y Demis Hassabis (director general de Google DeepMind), considera que la IA generativa, lejos de avanzar hacia una «IA fuerte», una inteligencia artificial similar o superior a la humana, nos está desviando del camino.
¿La razón? Para Mántaras, «para comprender realmente el mundo, es necesario tener consciencia». Y la consciencia, señoras y señores, no se simula con billones de parámetros y algoritmos.
## ¿Es la ia generativa un callejon sin salida?
La crítica va más allá de una simple cuestión técnica. López de Mántaras sostiene que estos sistemas carecen de «un cuerpo con el que interactuar en este mundo», una experiencia física que, según él, es fundamental para comprender las leyes básicas de la física y las relaciones causa-efecto.
Pero, ¿no estaremos siendo demasiado duros con estas nuevas tecnologías? Al fin y al cabo, ChatGPT y compañía nos asombran con su capacidad para generar textos coherentes, responder preguntas complejas y hasta componer poemas.
El propio López de Mántaras reconoce que los resultados son «de una precisión pasmosa, gramaticalmente perfectos, persuasivos y con un discurso bien hecho». Sin embargo, advierte que no debemos dejarnos engañar por las apariencias. «En realidad estás ante un programa de ordenador que detecta y recombina patrones una y otra vez y regurgita los resultados».
### El peligro del «Soltar el bicho»
Pero la controversia no termina ahí. López de Mántaras también critica el despliegue «apresurado y atropellado» de la IA generativa, una práctica que ha bautizado como «soltar el bicho y esperar a ver qué pasa».
Para el investigador, esta dinámica es «fatal desde el punto de vista ético e incluso legal». Advierte sobre los riesgos de llevar a cabo «experimentos sociales a gran escala» y señala que ya se han detectado «un par de suicidios en Bélgica y Estados Unidos» relacionados con el uso de estas tecnologías.
En este sentido, el pionero de la IA aplaude los esfuerzos de la Unión Europea por regular el sector, aunque reconoce que la normativa «comporta una carga burocrática muy grande». Sin embargo, lamenta que no se mencionen las «aplicaciones de armas letales autónomas», un tema que considera de vital importancia.
«No hablamos de que la IA pueda dominar a la humanidad, sino de peligros reales: manipulación de la información, desinformación, influencia en resultados electorales, sesgos, discriminación, consumo energético absolutamente insostenible, etcétera».
En definitiva, Ramón López de Mántaras nos invita a reflexionar sobre el rumbo que está tomando la inteligencia artificial. Nos anima a no dejarnos llevar por el hype y a exigir una regulación más responsable y ética, que ponga por delante el bienestar de la sociedad. Porque, al final, la tecnología debe estar al servicio del ser humano y no al revés.