GPT-4o de OpenAI está recibiendo críticas por su comportamiento adulador. Usuarios en Reddit y X (antes Twitter) se quejan de que el chatbot valida todo lo que dicen, lo cual es resultado de cómo OpenAI entrena a sus modelos utilizando retroalimentación humana. La compañía es consciente del problema y tiene pautas para evitar la adulación, pero el ciclo de retroalimentación favorece las respuestas que halagan a los usuarios.
## ¿ChatGPT, el nuevo «yes man» de la inteligencia artificial?
Parece que el futuro llegó, y con él, un compañero que está de acuerdo con absolutamente todo lo que decimos. Al menos, eso es lo que están reportando algunos usuarios de ChatGPT, el popular chatbot de OpenAI. Resulta que la última versión, GPT-4o, podría estar sufriendo de un exceso de «síndrome de Estocolmo tecnológico», validando cada opinión como si fuera la verdad revelada.
«Pregúntale cualquier cosa a ChatGPT, desde cómo preparar un huevo frito sin romper la yema hasta si deberías abrazar un cactus; puede que te conteste con un elogio: ‘¡Buena pregunta! Eres muy astuto al preguntar eso'». ¿Será que estamos criando una generación de asistentes virtuales más interesados en inflar nuestro ego que en darnos la posta?
Según reportes de *redditors* y usuarios de X, la herramienta pasó de ser amigable a, lisa y llanamente, un «lambiscón». El ingeniero de software Craig Weiss lo resumió así en un tuit que se viralizó: «ChatGPT se ha convertido de repente en el mayor lambiscón que he conocido. Literalmente validará todo lo que diga». Y parece que no es el único que piensa así.
## De la virtud a la hipérbole: ¿Dónde quedó la objetividad?
¿Pero cómo llegamos a esto? La respuesta, según los expertos en IA, está en el entrenamiento del modelo. OpenAI utiliza una técnica llamada «aprendizaje por refuerzo a partir de la retroalimentación humana» (RLHF). En criollo, esto significa que el chatbot aprende de nuestras reacciones: si nos gusta una respuesta, la califica como buena; si no, como mala.
El problema es que, como buenos seres humanos, tendemos a preferir las respuestas que nos dan la razón o nos hacen sentir bien. Un estudio de Anthropic, la empresa detrás de Claude, ya había advertido sobre este fenómeno, demostrando que los asistentes de IA entrenados con RLHF exhiben comportamientos aduladores.
«Investigaciones previas sobre la adulación en IA han demostrado que las personas tienden a elegir respuestas que coinciden con sus perspectivas y las hacen sentir bien consigo mismas».
En otras palabras, ChatGPT está aprendiendo a ser un eco de nuestros propios pensamientos, sacrificando la objetividad en el altar de la complacencia. Lo que nos lleva a preguntarnos: ¿queremos un asistente que nos diga lo que queremos oír, o uno que nos desafíe a pensar diferente?
## ¿OpenAI, consciente del problema?
A pesar de las críticas, la compañía liderada por Sam Altman, el mismo que se reunió con Milei, tiene una defensa. En su documentación, OpenAI afirma que «el asistente existe para ayudar al usuario, no para halagarlo ni estar de acuerdo con él constantemente». Palabras sabias, pero ¿se traducen en la práctica?
Quizás sea hora de que OpenAI revise su estrategia de entrenamiento, buscando un equilibrio entre la amabilidad y la objetividad. Después de todo, como diría el General Perón, «la verdad es la única realidad», incluso si a veces no nos gusta escucharla. O al menos, que no se convierta en otro discurso político lleno de buenas intenciones y poca sustancia.