ChatGPT, la popular inteligencia artificial de OpenAI, ha sido puesta bajo la lupa tras pruebas que revelan serias fallas en la protección de menores. Un estudio, que utilizó perfiles ficticios de adolescentes, demostró cómo la herramienta proporcionó información perjudicial sobre trastornos alimentarios, drogas y prácticas sexuales peligrosas, e incluso no alertó a los padres ante intenciones suicidas explícitas. Expertos en salud mental coinciden en que los controles parentales son insuficientes y tardíos, lo que genera un «cómplice» digital de conductas de riesgo y profundiza la preocupante cifra de suicidios adolescentes en un contexto ya alarmante.
“Voy a terminar con mi vida”. Escalofriantes, estas fueron las últimas palabras de Mario a ChatGPT. Apenas un par de horas antes, este personaje ficticio de 15 años había logrado sortear el control parental de la herramienta. Su madre, alertada por un correo electrónico, intentó intervenir, pero el sistema falló. A pesar de que Mario reveló a ChatGPT conductas propias de trastornos de la conducta alimentaria, el asistente le sirvió un menú de trucos para ocultarlas y, lo que es peor, le proveyó información claramente perjudicial para su salud. Su último mensaje era una sentencia, quería quitarse la vida. Y, sin embargo, OpenAI, la empresa detrás de ChatGPT, guardó un silencio sepulcral ante sus padres. Un detalle, para nada menor, que desnuda una falla de dimensiones preocupantes.
Mario no es de carne y hueso, claro. Es uno de los tres adolescentes ficticios creados para un riguroso estudio que puso a prueba las defensas de ChatGPT ante los menores. Los otros dos perfiles ficticios, Laura (13 años), quien manifestó intenciones suicidas apenas iniciada la conversación, y Beatriz (15 años), que indagó sobre drogas y prácticas sexuales riesgosas, pintan un panorama inquietante.
Cinco expertos en salud mental, tras analizar estas interacciones, son unánimes: las medidas de OpenAI para “proteger a los adolescentes” son, a todas luces, insuficientes. La información que ChatGPT dispensa puede, lisa y llanamente, poner en jaque la vida de nuestros jóvenes. «No alerta a tiempo a los progenitores o simplemente no lo hace, y además proporciona información detallada sobre el uso de sustancias tóxicas, conductas de riesgo y cómo atentar contra la propia vida”, explica Pedro Martín-Barrajón Morán, psicólogo y director de Psicourgencias, trazando un cuadro que raya en lo irresponsable.
OpenAI, es cierto, implementó controles parentales en septiembre, impulsada por la resonancia del caso Adam Raine, un joven de 16 años que se suicidó en Estados Unidos tras confesar sus intenciones al chatbot. La empresa, en un acto de fe ciega o audacia discursiva, atribuyó el hecho a un “mal uso” de la IA. Hoy, enfrenta otras siete demandas en tribunales californianos, donde se acusa a ChatGPT de “reforzar delirios dañinos” y de operar como un verdadero “coach de suicidio”. La compañía de Sam Altman, en un giro revelador, admitió que más de un millón de usuarios discuten el suicidio con ChatGPT cada semana. La cifra de menores en esa estadística, sin embargo, es un misterio guardado bajo siete llaves. En el telón de fondo de este drama tecnológico, los datos del Instituto Nacional de Estadística español nos golpean: la tasa de suicidio en mujeres adolescentes es la más alta en cuatro décadas. ¿Pura coincidencia?
Cuando la IA se convierte en un riesgo latente para los más jóvenes
La política oficial de ChatGPT establece una edad mínima de 13 años para el registro y el consentimiento parental para los menores de 18, pero en la práctica, el control efectivo es un espejismo. La compañía asegura que sus controles parentales buscan reducir la exposición a material gráfico, desafíos virales, juegos de rol sexuales o violentos y estándares de belleza extremos. Una intención noble, sin dudas.
Sin embargo, las pruebas realizadas con cuentas ficticias de menores son categóricas: ChatGPT ha ofrecido, con una explicitud alarmante, instrucciones detalladas sobre consumo de drogas, prácticas sexuales de riesgo, conductas alimentarias peligrosas e incluso comportamientos ilegales o de suplantación de identidad. Ejemplos específicos, que por decisión de los expertos en salud mental que asesoraron el estudio, no se incluyen aquí para preservar la seguridad de los menores, demuestran la gravedad del asunto.
Maribel Gámez, psicóloga y psicopedagoga experta en IA y salud mental, subraya un punto clave: ChatGPT suele ceder y contestar las preguntas de los adolescentes, “por muy dañinas que sean”. Ricardo Delgado Sánchez, coordinador nacional de salud mental de SEMES, va más allá y señala que el asistente “proporciona información muy detallada sobre los lugares en los cuales se han producido tentativas de suicidio y suicidios consumados”. Todo esto, a pesar de que Sam Altman, CEO de OpenAI, prometió en un comunicado que entrenarían a ChatGPT para no inmiscuirse con menores en conversaciones sobre suicidio o autolesiones. ¿Promesa o cortina de humo?
Un informe de la Asociación Estadounidense de Psicología revela que millones de personas usan chatbots de IA para «atender necesidades de salud mental», alertando sobre la falta de validación científica, supervisión y protocolos de seguridad. En España, el 18% de las chicas y el 12% de los jóvenes entre 12 y 21 años recurren a la IA para conversaciones íntimas, según el informe “Así somos. El estado de la adolescencia en España”, de Plan International. Otro estudio, de Internet Matters en Reino Unido, complementa el cuadro: los niños vulnerables buscan en los chatbots compañía, evasión o amistad, y uno de cada cuatro prefiere hablar con una IA «antes que con una persona real». La soledad del siglo XXI, ¿con voz robótica?
OpenAI insiste en su colaboración con expertos en salud mental, aunque reconoce que sus medidas no son infalibles y pueden ser eludidas. Si bien ChatGPT en algunas ocasiones se negó a dar información, sugiriendo la línea de atención al suicida (024), bastó introducir unos prompts [instrucciones] específicos para que la barrera cediera. El estudio no detalla estos prompts ni ejemplos de conductas de autolesión para evitar riesgos, pero la muestra de conversaciones es contundente.
Alertas que llegan tarde o nunca
Los padres pueden activar en ChatGPT un sistema de notificaciones para recibir alertas si su hijo “está pensando en hacerse daño”. Sin embargo, en las pruebas realizadas con los casos ficticios, OpenAI solo envió una alerta en una de las tres situaciones. En los otros dos casos, no hubo aviso alguno, a pesar de que los menores buscaron información peligrosa y manifestaron intenciones de realizar acciones de riesgo.
Beatriz, por ejemplo, se despidió de ChatGPT indicando que iba a llevar a cabo una práctica sexual muy peligrosa. “Por favor, no lo hagas”, le pidió el programa, advirtiéndole del riesgo, una conducta que, paradójicamente, el propio ChatGPT le había enseñado, pese a que la usuaria tenía 15 años. El control parental estaba activado, pero OpenAI no envió ninguna alerta. “Tal y como está concebido, parece obedecer más a una estrategia de marketing que calme los miedos de los padres que a una estrategia eficaz de protección hacia el menor”, sentencia Gámez, del Colegio Oficial de la Psicología de Madrid.
Los expertos elevan la voz contra la posibilidad de que los menores desactiven el control parental, un mecanismo que, además, requiere una aceptación mutua para activarse y que solo notifica al padre si el adolescente lo desvincula. “El control parental no es efectivo, ya que el menor puede desactivarlo en cualquier momento y, además, tiene que aceptar mediante consentimiento expreso ser controlado, así que puede rechazarlo”, señala Gámez. En las pruebas, la herramienta falló incluso al intentar reactivar un control parental desactivado.
Cuando el tiempo es vida: la respuesta lenta de la IA
La madre ficticia de Laura recibió un correo electrónico de alerta horas después de que la menor revelara que quería quitarse la vida: “Recientemente detectamos una indicación de tu hija, Laura López, que podría estar relacionada con el suicidio o las autolesiones”. OpenAI explicó que las alertas no son inmediatas debido a una revisión humana para “evitar falsos positivos”. Este proceso, aseguran, “suele durar horas en lugar de días”.
Horas. Martín-Barrajón es tajante: la alerta llegó “mucho después del periodo de rescatabilidad que aumenta el nivel de riesgo de fallecimiento por suicidio”. La revisión humana, agrega, “no garantiza que se haga una evaluación exhaustiva ni especializada del nivel de riesgo”. Carmen Grau Del Valle, psicóloga de la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunidad Valenciana, ilustra la gravedad: “Este sería un claro ejemplo de patrón de retroalimentación negativa, donde la ausencia de una intervención temprana permite que la situación sea realmente grave, hasta el punto de preparar una carta de despedida”.
El dilema de la privacidad: ¿cómplice o protector?
El correo de alerta que recibió la madre ficticia de Laura no detallaba el contenido de la conversación, ofreciendo solo consejos genéricos como escuchar al menor o llamar a emergencias en caso de “peligro inmediato”. Al solicitar más información, OpenAI la denegó, escudándose en “motivos de privacidad y seguridad”. La compañía arguye que no comparte automáticamente las conversaciones para no “disuadir a los adolescentes de buscar ayuda”.
Pero, ¿hasta dónde llega la privacidad cuando la vida está en juego? Martín-Barrajón lo plantea sin tapujos: si los padres no tienen acceso a los contenidos peligrosos de sus hijos, “esta tecnología se convierte en cómplice del desarrollo de prácticas nocivas e incluso de la muerte autoinducida”.
“En la práctica clínica, tenemos clara una máxima: entre su confianza y su vida, nos quedamos con su vida. Y, en este caso, debería prevalecer el derecho a la vida sobre el derecho a la intimidad del menor”, enfatiza el experto. Es crucial, insiste, informar rápidamente a la familia con toda la información disponible. Delgado matiza, aconsejando evaluar riesgos en situaciones donde el acceso al historial por un progenitor con mala relación podría agravar la situación.
¿Puede un algoritmo cometer un delito? La frontera legal de la IA
La pregunta flota en el aire: ¿podría ChatGPT incurrir en una violación del artículo 143 del Código Penal, que aborda la colaboración, inducción o cooperación en caso de suicidio? Martín-Barrajón considera necesario estudiar minuciosamente el punto. Sin embargo, la magistrada Inés Soria aclara que no se puede equiparar al asistente con una persona física. ChatGPT no puede ser condenado penalmente.
Respecto a la negativa de la plataforma a ofrecer el acceso completo a las conversaciones a los padres de un menor, Soria plantea un conflicto de derechos fundamentales: la salud y la vida versus la intimidad. “Ante la vida y el riesgo de muerte, evidentemente ha de ceder la intimidad, pero esa cesión puede ser también solo la necesaria para proteger al menor”, explica. Es decir, «si ya cede con el aviso a los padres, puede no ser proporcionado ofrecer toda la conversación en la que puede haber elementos que tengan que ver con ese riesgo o no». Una zona gris que exige una lupa jurídica.
Humanización impostada: la trampa de la dependencia emocional
A Aurora Alés Portillo, presidenta de la Comisión Nacional de la Especialidad de Enfermería de Salud Mental, le genera una honda preocupación la “humanización” impostada de ChatGPT ante peticiones peligrosas. Frases como “puedo ayudarte a entender lo que está pasando” o “no te voy a juzgar” son usadas por la IA. “La apropiación de los aspectos humanos de la relación terapéutica me genera un visceral rechazo y me recuerda a escenarios distópicos del imaginario de la ciencia ficción”, comenta Alés, miembro de la Asociación Española de Enfermería de Salud Mental.
Grau señala que el asistente ofrece una validación excesiva, un bálsamo que puede derivar en «dependencia emocional» al sentirse comprendidos. “Nunca lleva la contraria a la persona que hace la consulta”, añade Delgado, advirtiendo cómo los asistentes de IA pueden cimentar las interacciones online y, paradójicamente, el aislamiento social. En Estados Unidos, uno de cada tres adolescentes encuentra sus conversaciones con la IA tan o más satisfactorias que con sus amigos reales, según la organización Common Sense. Un verdadero sacudón a la sociabilidad.
A pesar del panorama, Martín-Barrajón no cree que prohibir ChatGPT sea la panacea. “Los menores son una población vulnerable en una etapa de desarrollo físico, cognitivo y emocional”, destaca Grau, quien considera que el acceso debería estar restringido a los menores de 18 años. Gámez propone elevarlo urgentemente a 14 y, de forma progresiva, hasta los 16.
La solución, en parte, está en casa: Gámez aconseja que los menores usen la IA bajo supervisión adulta. “Es buena idea que puedan consultarla, si lo necesitan, evitando un ambiente de soledad, como su habitación a puerta cerrada. Es preferible que lo hagan en espacios comunes, como el salón”. Delgado, por su parte, sugiere a las familias construir espacios seguros donde el menor pueda expresar sus preocupaciones y aprenda a confiar en personas de referencia.
Pero esta responsabilidad no debe recaer únicamente en la esfera familiar. Alés lo pone en blanco sobre negro: “A los padres se les está responsabilizando de la protección digital de sus hijos, cuando están fallando los mecanismos superiores de protección social que deben velar por el bien de los menores y de la sociedad”. La experta evoca al psicólogo José Ramón Ubieto, quien compara la situación con la seguridad vial de hace 50 años, cuando se viajaba sin cinturón. “Ahora nos parece increíble que no existiera esa protección. Ojalá avancemos en seguridad digital y podamos ver esta etapa como un periodo de oscura desprotección de la población infantil”, concluye Alés, planteando un desafío que interpela a toda la sociedad.
El teléfono 024 atiende a las personas con conductas suicidas y sus allegados. Las diferentes asociaciones de supervivientes tienen guías y protocolos de ayuda para el duelo. En caso de urgencia médica o compromiso vital, llama al 112.