ChatGPT: ¿Inteligencia real o espejismo Potemkin? Límites de la IA

Redacción Cuyo News
6 min
Cortito y conciso:

Un análisis profundo sobre los límites de la inteligencia artificial, revelando cómo modelos como ChatGPT pueden simular comprensión sin poseerla realmente. Científicos acuñan términos como «comprensión Potemkin» e «ilusión de pensamiento» para describir este fenómeno, mientras expertos advierten sobre las expectativas infladas y la necesidad de una evaluación crítica de estas tecnologías. ¿Estamos ante una revolución o una simple imitación sofisticada?

Los espejismos de la inteligencia artificial: ¿entendimiento real o «comprensión Potemkin»?

«Saben escribir, razonar e incluso debatir, pero ¿realmente comprenden lo que dicen?» La pregunta, lanzada por la propia inteligencia artificial, resuena con fuerza en tiempos donde ChatGPT y sus pares parecen desafiar los límites de la racionalidad artificial. Pero, ¿estamos ante una nueva era o frente a una versión sofisticada del viejo truco del loro?

Los grandes modelos de lenguaje, esos engendros tecnológicos capaces de generar textos coherentes y convincentes, están siendo observados con lupa. Algunos científicos, con cierto dejo de escepticismo porteño, han comenzado a hablar de «comprensión Potemkin», «loros estocásticos» e «ilusión de pensamiento». ¿Qué hay detrás de estas etiquetas? ¿Una crítica fundada o un mero intento de frenar lo inevitable?

Daniela Godoy, doctora en Ciencias de la Computación e investigadora del ISISTAN-UNICEN, plantea una mirada interesante: «El error está en pretender que haga cosas para las que no fue diseñada». Según Godoy, estos modelos son expertos en simular conversaciones, pero carecen de la chispa humana, de esa capacidad de improvisación y adaptación que surge de la interacción social real. ¿Será que estamos pidiendo peras al olmo digital?

## ¿Inteligencia artificial o imitación inteligente?

La clave, tal vez, esté en la imperfección. La inteligencia artificial se esfuerza por imitar nuestra racionalidad, pero falla en replicar nuestros errores. Y es que hasta en el error hay una lógica, una estructura que los humanos compartimos. Un estudio reciente del MIT, Harvard y Chicago, bautizó como «comprensión Potemkin» a la incapacidad de la IA para equivocarse como nosotros. ¿Irónico, no?

Los modelos de lenguaje pueden explicar conceptos, pero a menudo no logran aplicarlos. Son como esos estudiantes que repiten la lección de memoria pero no entienden el significado profundo de lo que dicen. Y peor aún, rara vez admiten su ignorancia; prefieren inventar una respuesta antes que decir «no sé». ¿Nos están vendiendo gato por liebre?

Marcelo Babio, investigador y profesor de la UNICEN, no duda en señalar la «humareda» que rodea a los benchmarks, esos exámenes que supuestamente miden la calidad de la IA. «Estas evaluaciones le sirven a las grandes tecnológicas para decir ‘yo tengo la mejor’ y, con eso, conseguir fondos», denuncia Babio. ¿Marketing o ciencia? La línea parece cada vez más difusa.

## La trampa de los haikus y la amenaza de la autofagia

La prueba del haiku es elocuente: la IA puede definir a la perfección la estructura de este poema japonés, pero es incapaz de crear uno que respete las reglas. Intenta corregir sus propios errores, pero vuelve a fallar. ¿Será que la poesía, como la vida misma, exige algo más que algoritmos?

«Cuando tienen que salir al mundo real, están bastante jodidas», sentencia Babio, aunque de inmediato lanza una advertencia: «Hay que ver hasta qué punto están más jodidas que el ser humano promedio». Una reflexión que invita a no subestimar a la IA, pero tampoco a sobreestimarla.

María Vanina Martínez, doctora en Ciencias de la Computación del CSIC, apunta a la publicidad como la principal responsable de inflar las expectativas. «Creo que hay una mezcla de promoción optimista y un aprovechamiento de nuestro sesgo de automatización para una campaña de marketing», analiza Martínez, quien también alerta sobre la presión que esta tecnología ejerce sobre el mercado laboral. ¿Estamos ante una revolución tecnológica o ante una campaña de marketing encubierta?

Pero el futuro podría ser aún más complejo. Los modelos de lenguaje se enfrentan a la amenaza de la autofagia: si se alimentan de contenido generado por ellos mismos, corren el riesgo de regurgitar promedios sesgados y perpetuar desigualdades. «Internet no es diversa, la mayor parte del contenido proviene de usuarios hombres, blancos, de Estados Unidos y de Europa», recuerda Martínez. ¿Estamos construyendo un espejo deformante de la realidad?

## ¿La inteligencia artificial es el enemigo?

La respuesta, como siempre, no es sencilla. Los expertos coinciden en que la IA tiene un potencial enorme, pero también limitaciones evidentes. La clave está en la convergencia tecnológica, en combinar el aprendizaje automático con modelos que permitan representar el conocimiento de manera más profunda.

«Tenemos que poder usar la tecnología de manera crítica y entender que ninguna narrativa alrededor de ella es neutral», advierte Martínez. Una frase que resume el espíritu de este artículo: cuestionar, analizar, pero también reconocer el valor de la innovación. Porque, al final, si algo es gratis, el producto sos vos. ¿O no?

Compartir
🔺 Tendencia