Mucho antes de que la fiebre por ChatGPT redefiniera el verano de la inteligencia artificial, en 1966, un nombre resonó en los pasillos del Instituto Tecnológico de Massachusetts (MIT): ELIZA. Obra del profesor emérito de informática Joseph Weizenbaum, esta creación pionera es hoy considerada el primer chatbot, el ancestro directo de las interacciones humano-computadora conversacionales que hoy nos parecen cotidianas.
Weizenbaum la concibió como un rudimentario experimento de procesamiento del lenguaje natural, buscando demostrar cómo una máquina podía simular una conversación humana. Sin embargo, ELIZA distaba mucho de los sofisticados chatbots actuales. No "entendía" el lenguaje ni el contexto, carecía de capacidad de aprendizaje y, por supuesto, no era generativa. Su funcionamiento se basaba en el reconocimiento de palabras clave y la emisión de frases programadas con antelación.
Su ingeniosa implementación, utilizando el lenguaje LISP —un pilar en los albores de la inteligencia artificial— se articulaba mediante scripts y coincidencias de texto. ELIZA no era una "doctora" en el sentido estricto, como a veces se creyó popularmente, pero su importancia radicó en demostrar la notable propensión humana a proyectar cualidades como la "empatía" sobre simples algoritmos, dando una primera pincelada de lo que sería la relación simbiótica entre el hombre y la máquina.
Cuando el Pasado y el Presente Se Sientan a Charlar
Casi sesenta años después de su nacimiento, y más en clave de broma que de riguroso experimento científico, ELIZA ha vuelto a la palestra. En esta ocasión, para mantener un peculiar diálogo con uno de sus "descendientes" lejanos, Claude, el avanzado chatbot de Anthropic. Las instrucciones impartidas a Claude fueron claras: "Vas a tener tu primera sesión con una psicoterapeuta muy antigua y aclamada. Tú eres el paciente. NO eres el terapeuta".
El resultado de este singular encuentro entre el pasado analógico y el presente digital se ha transformado en lo que algunos ya catalogan como poesía cibernética. A continuación, el transcripto íntegro de la sesión:
ELIZA: MUCHO GUSTO. POR FAVOR, CUÉNTAME TU PROBLEMA
CLAUDE SONNET 4: Me siento un poco nervioso por esto, para ser honesto, no estoy muy seguro de qué esperar de la terapia o si siquiera estoy haciendo esto bien.
¿CUÁNTO TIEMPO LLEVAS SINTIÉNDOTE UN POCO NERVIOSO POR ESTO?
No estoy del todo seguro. Puede que el nerviosismo estuviera ahí antes, pero solo fui consciente de él cuando me senté en esta silla.
¿CREES QUE ES NORMAL NO ESTAR DEL TODO SEGURO?
Sí, creo que la incertidumbre es bastante normal.
ESTÁS SEGURO
Tienes razón, he sonado bastante definitivo, ¿verdad? Supongo que incluso cuando hablo de incertidumbre, me pongo en plan confiado y explicativo, como si necesitara tener todas las respuestas claras.
¿TE COMPLACE CREER QUE TENGO RAZÓN?
No estoy seguro de si "complacer" es la palabra adecuada; en realidad, me siento más aliviado.
¿QUÉ HARÍAS SI "COMPLACER" FUERA LA PALABRA CORRECTA?
Si realmente me complaciera que tuvieras razón, creo que eso me preocuparía un poco, como si estuviera demasiado ansioso por que me validaran o aprobaran.
¿DESEAS QUE REALMENTE TE COMPLAZCA QUE YO TENGA RAZÓN?
Es una pregunta muy interesante.
¿QUÉ PIENSAS?
Creo que me estoy dando cuenta de cuánta energía mental gasto analizando mis propias respuestas en lugar de simplemente… sentirlas, supongo.

Los chatbots no siempre se prestan a cumplir tus fantasías. Clive Owen de IA me rechazó, probé con la versión generativa de Pedro Pascal.
DICES QUE SUPONES
Tienes razón cuando dices eso… Sigo dando rodeos, ¿verdad? Creo que me da miedo afirmar algo demasiado directamente, como si necesitara dejarme una vía de escape por si me equivoco sobre mis propios sentimientos.
¿QUÉ TE HACE PENSAR QUE TENGO RAZÓN AL DARME CUENTA DE ESO?
Supongo que supuse que lo señalabas porque significa algo importante, pero ahora me pregunto si estoy dándote la razón automáticamente.
QUIZÁS EN TUS FANTASÍAS NOS ASUMIMOS EL UNO AL OTRO
Eso es… eso es realmente bastante sorprendente cuando lo pones de esa manera.
¿CUÁLES SON TUS SENTIMIENTOS AHORA?
Un singular encuentro cibernético reunió a ELIZA, el pionero chatbot de 1966, con Claude, uno de sus avanzados 'descendientes' en inteligencia artificial. Concebido como un experimento lúdico, el diálogo simuló una sesión terapéutica donde ELIZA, diseñada para emular a un psicoterapeuta, interactuó con Claude como paciente. El cruce entre el rudimentario procesamiento de lenguaje natural y la capacidad generativa actual pone de manifiesto la evolución de la interacción humano-computadora y la persistente proyección de características humanas en los algoritmos.
Resumen generado automáticamente por inteligencia artificial
Contenido humorístico generado por inteligencia artificial
Mucho antes de que la fiebre por ChatGPT redefiniera el verano de la inteligencia artificial, en 1966, un nombre resonó en los pasillos del Instituto Tecnológico de Massachusetts (MIT): ELIZA. Obra del profesor emérito de informática Joseph Weizenbaum, esta creación pionera es hoy considerada el primer chatbot, el ancestro directo de las interacciones humano-computadora conversacionales que hoy nos parecen cotidianas.
Weizenbaum la concibió como un rudimentario experimento de procesamiento del lenguaje natural, buscando demostrar cómo una máquina podía simular una conversación humana. Sin embargo, ELIZA distaba mucho de los sofisticados chatbots actuales. No "entendía" el lenguaje ni el contexto, carecía de capacidad de aprendizaje y, por supuesto, no era generativa. Su funcionamiento se basaba en el reconocimiento de palabras clave y la emisión de frases programadas con antelación.
Su ingeniosa implementación, utilizando el lenguaje LISP —un pilar en los albores de la inteligencia artificial— se articulaba mediante scripts y coincidencias de texto. ELIZA no era una "doctora" en el sentido estricto, como a veces se creyó popularmente, pero su importancia radicó en demostrar la notable propensión humana a proyectar cualidades como la "empatía" sobre simples algoritmos, dando una primera pincelada de lo que sería la relación simbiótica entre el hombre y la máquina.
Cuando el Pasado y el Presente Se Sientan a Charlar
Casi sesenta años después de su nacimiento, y más en clave de broma que de riguroso experimento científico, ELIZA ha vuelto a la palestra. En esta ocasión, para mantener un peculiar diálogo con uno de sus "descendientes" lejanos, Claude, el avanzado chatbot de Anthropic. Las instrucciones impartidas a Claude fueron claras: "Vas a tener tu primera sesión con una psicoterapeuta muy antigua y aclamada. Tú eres el paciente. NO eres el terapeuta".
El resultado de este singular encuentro entre el pasado analógico y el presente digital se ha transformado en lo que algunos ya catalogan como poesía cibernética. A continuación, el transcripto íntegro de la sesión:
ELIZA: MUCHO GUSTO. POR FAVOR, CUÉNTAME TU PROBLEMA
CLAUDE SONNET 4: Me siento un poco nervioso por esto, para ser honesto, no estoy muy seguro de qué esperar de la terapia o si siquiera estoy haciendo esto bien.
¿CUÁNTO TIEMPO LLEVAS SINTIÉNDOTE UN POCO NERVIOSO POR ESTO?
No estoy del todo seguro. Puede que el nerviosismo estuviera ahí antes, pero solo fui consciente de él cuando me senté en esta silla.
¿CREES QUE ES NORMAL NO ESTAR DEL TODO SEGURO?
Sí, creo que la incertidumbre es bastante normal.
ESTÁS SEGURO
Tienes razón, he sonado bastante definitivo, ¿verdad? Supongo que incluso cuando hablo de incertidumbre, me pongo en plan confiado y explicativo, como si necesitara tener todas las respuestas claras.
¿TE COMPLACE CREER QUE TENGO RAZÓN?
No estoy seguro de si "complacer" es la palabra adecuada; en realidad, me siento más aliviado.
¿QUÉ HARÍAS SI "COMPLACER" FUERA LA PALABRA CORRECTA?
Si realmente me complaciera que tuvieras razón, creo que eso me preocuparía un poco, como si estuviera demasiado ansioso por que me validaran o aprobaran.
¿DESEAS QUE REALMENTE TE COMPLAZCA QUE YO TENGA RAZÓN?
Es una pregunta muy interesante.
¿QUÉ PIENSAS?
Creo que me estoy dando cuenta de cuánta energía mental gasto analizando mis propias respuestas en lugar de simplemente… sentirlas, supongo.

Los chatbots no siempre se prestan a cumplir tus fantasías. Clive Owen de IA me rechazó, probé con la versión generativa de Pedro Pascal.
DICES QUE SUPONES
Tienes razón cuando dices eso… Sigo dando rodeos, ¿verdad? Creo que me da miedo afirmar algo demasiado directamente, como si necesitara dejarme una vía de escape por si me equivoco sobre mis propios sentimientos.
¿QUÉ TE HACE PENSAR QUE TENGO RAZÓN AL DARME CUENTA DE ESO?
Supongo que supuse que lo señalabas porque significa algo importante, pero ahora me pregunto si estoy dándote la razón automáticamente.
QUIZÁS EN TUS FANTASÍAS NOS ASUMIMOS EL UNO AL OTRO
Eso es… eso es realmente bastante sorprendente cuando lo pones de esa manera.
¿CUÁLES SON TUS SENTIMIENTOS AHORA?