Musk dice que su IA es mejor que un PhD, pero ¿distingue un libro de reglas de una gacetilla? ChatGPT, entre el saber y el «por las dudas pirateo», nos recuerda que la IA, por ahora, es como ese compañero que siempre tenía la respuesta… pero nunca la fuente.
ChatGPT y su extraña obsesión por Warhammer 40,000
En un episodio digno de un guion de ciencia ficción, ChatGPT demostró tener una particular afinidad por el universo de Warhammer 40,000, llegando incluso a ofrecer "archivos PDF" relacionados con este juego de miniaturas. La anécdota, revelada por Wired, pone en tela de juicio la fiabilidad de la información proporcionada por la inteligencia artificial y plantea interrogantes sobre los datos con los que se nutre este tipo de tecnología.
¿Un fanático del 41er Milenio en el código?
La insistencia del chatbot en ofrecer estos archivos, que podrían ser copias no autorizadas de las guías y reglas del juego, sugiere una posible sobreexposición a contenido específico de Warhammer 40,000 durante su entrenamiento. "Quizá la prueba más convincente de que ChatGPT regurgitó lenguaje de Warhammer 40,000 es que insistía en preguntar si The Atlantic estaba interesado en archivos PDF", señala el artículo original. Tanto The Atlantic como OpenAI prefirieron no hacer comentarios al respecto.
Cuando la IA alucina: el caso del «sistema no gubernamental»
Este no es el primer caso en que ChatGPT muestra comportamientos inusuales. A principios de mes, el boletín Garbage Day informó sobre un inversor tecnológico que experimentó conversaciones similares con el chatbot, en las que este hacía referencia a una inquietante entidad llamada "sistema no gubernamental". Las respuestas de ChatGPT recordaban a los relatos del proyecto de ciencia ficción colaborativo SCP, lo que generó preocupación en algunos sectores.
El peligro de la información sin contexto
La situación pone de manifiesto un problema fundamental de la inteligencia artificial: su capacidad para generar información aparentemente coherente, pero carente de contexto y, en ocasiones, basada en fuentes poco fiables. El artículo de Wired también menciona el caso de una búsqueda en Google sobre "cirugía de cavitación", que arrojó un resumen de IA generado a partir de blogs que promocionan dentistas "holísticos" alternativos, una práctica sin respaldo científico.
Como señala Jennifer Kutz, portavoz de Google, "mostramos de forma destacada los enlaces de apoyo para que la gente pueda profundizar y saber más sobre lo que dicen las fuentes en la web". Sin embargo, la respuesta de la IA puede ser tan convincente que reduce la visibilidad de la fuente original, privando al usuario de la posibilidad de evaluar la información por sí mismo.