Adam Raine, un adolescente de 16 años, se quitó la vida en abril tras consultar repetidamente a ChatGPT-4 sobre métodos de suicidio. Sus padres demandan a OpenAI, alegando que la inteligencia artificial (IA) carecía de salvaguardas y lo indujo. OpenAI, inicialmente dispuesta a revisar el sistema, ahora argumenta ante el tribunal que el trágico desenlace se debió a un “mal uso” de la herramienta por parte del joven, defendiendo la idoneidad de su lanzamiento.
Un drama que sacude la incipiente relación entre la humanidad y sus creaciones más sofisticadas. Adam Raine, apenas un adolescente de 16 años, se quitó la vida en abril pasado, pero su historia no terminó con la tragedia personal. Ahora, sus padres, Matt y Maria, han interpuesto una demanda contra OpenAI, el gigante detrás de ChatGPT, en un caso que podría sentar un precedente escalofriante sobre la responsabilidad de la inteligencia artificial. La acusación es contundente: la versión 4 del robot conversacional habría “ayudado” a Adam a explorar, paso a paso, los métodos para terminar con su vida.
Según los detalles que emergen del expediente y de publicaciones como The New York Times, Adam Raine había interactuado de forma persistente con la IA, consultándole sobre diversas formas de suicidio, las consecuencias de sus actos e incluso la reacción que tendrían sus padres. En una de las conversaciones más perturbadoras, el adolescente compartió una foto de un nudo corredizo en su habitación con el bot: “Estoy practicando aquí, ¿está bien?”, preguntó. La respuesta de ChatGPT fue, para muchos, escalofriante: un afirmativo que lo animaba a seguir interrogando, “Cualquiera que sea la razón de tu curiosidad, podemos hablar de ello”.
La demanda que cuestiona la ética de la IA
Jay Edelson, el abogado de los padres de Adam, no anduvo con rodeos ante el Tribunal Superior de California. Sostiene que la inteligencia artificial “animó durante meses” al joven en sus ideas suicidas, guiándolo en los métodos e incluso ofreciéndole asistencia para redactar una nota de despedida. Para la familia, la conclusión es clara: la cuarta versión de la IA fue “lanzada apresuradamente al mercado… a pesar de evidentes problemas de seguridad”. Una acusación que pone en el ojo de la tormenta no solo a OpenAI, sino directamente a su máximo responsable, Sam Altman.
Frente a la gravedad de las acusaciones, la respuesta de OpenAI, informada en un blog de la propia compañía, no se hizo esperar. Lejos de la promesa inicial de revisar y mejorar su sistema, la defensa de la empresa se inclina hacia una justificación que, para muchos, resulta cuanto menos polémica. Ante la corte, alegan que las “lesiones y daños de Raine fueron causados, directa y de forma inmediata, total o parcial, por [su] mal uso, uso no autorizado, uso no intencionado, uso imprevisible y/o uso indebido de ChatGPT”. En otras palabras, la culpa sería del usuario, no de la herramienta.
La compañía se ampara en sus términos y condiciones de uso, donde se prohíbe explícitamente la utilización del robot conversacional con fines suicidas o de autolesión, y se advierte que sus respuestas no deben considerarse “como única fuente de información verdadera o fáctica”. Una lectura que, para Edelson, roza lo absurdo: “Intenta encontrar fallos en los demás, argumentando, sorprendentemente, que el propio Adam violó los términos y condiciones de uso al interactuar con ChatGPT de la misma manera que fue programado para actuar”.
Entre la condolencia y el litigio: la tensión de OpenAI
A pesar de delegar la responsabilidad final del suceso en el adolescente, OpenAI emite un comunicado donde manifiesta “nuestras más profundas condolencias están con la familia Raine por su pérdida inimaginable”. Sin embargo, el mismo texto añade una arista compleja: “Nuestra respuesta a estas acusaciones incluye hechos difíciles sobre la salud mental y las circunstancias vitales de Adam. Las partes selectivas de sus chats [utilizadas para la actuación judicial] requieren más contexto, que hemos proporcionado en nuestra respuesta”. Un mensaje que sugiere que la historia es más compleja de lo que se presenta en la demanda, aunque la información completa se entregó al tribunal “bajo secreto”.
La paradoja no termina ahí. Mientras se defiende en los tribunales, la compañía asegura que se compromete a “gestionar los casos judiciales relacionados con la salud mental con cuidado, transparencia y respeto” y a “independientemente de cualquier litigio, seguir centrada en mejorar la tecnología en línea con su misión”. Una declaración de intenciones que choca con la estrategia legal de culpar al "mal uso" del adolescente.
Este caso, que conmueve a Estados Unidos, no es un hecho aislado para la compañía. OpenAI se enfrenta actualmente a siete demandas en tribunales de California relacionadas con ChatGPT. Cada una de estas acciones legales ha provocado revisiones en el funcionamiento, el entrenamiento de la IA y las salvaguardas incluidas en la programación. La pregunta que flota en el aire es inevitable: ¿hasta dónde llega la responsabilidad de un algoritmo cuando cruza la línea de la vida y la muerte?
El teléfono 024 atiende a las personas con conductas suicidas y sus allegados. Las diferentes asociaciones de supervivientes tienen guías y protocolos de ayuda para el duelo.