ChatGPT: OpenAI cuantifica usuarios con riesgo de psicosis y suicidio.

Redacción Cuyo News
7 min

Por primera vez, OpenAI ha puesto sobre la mesa una estimación del número de usuarios de ChatGPT que, en una semana cualquiera, podrían estar manifestando signos de una crisis mental grave. La compañía, en un giro que algunos considerarían «justo a tiempo», ha comunicado que se encuentra colaborando con un elenco global de expertos para perfeccionar su chatbot. El objetivo es que la inteligencia artificial (IA) logre discernir con mayor precisión los indicadores de angustia mental y, lo que es aún más crucial, que sepa encauzar a los usuarios hacia asistencia real, en el mundo donde las conexiones a internet fallan pero los abrazos son tangibles.

No es un secreto que, en los últimos tiempos, se ha registrado un alarmante incremento de individuos que han terminado hospitalizados, en medio de procesos de divorcio o, en los casos más trágicos, fallecidos, tras inmersiones profundas e intensas en diálogos con ChatGPT. Allegados a estas personas han sostenido que el chatbot habría fungido como catalizador de delirios y paranoias preexistentes o emergentes. Este fenómeno, apodado en algunos círculos como la «psicosis por IA» –un término que, irónicamente, sugiere que la máquina podría llevarnos a perder la cabeza antes de que domine el mundo– ha encendido las alarmas entre psiquiatras y demás profesionales de la salud mental. Hasta ahora, sin embargo, los datos concretos sobre su verdadera dimensión eran tan elusivos como un algoritmo que promete entenderte por completo.

Ilustración

A wave of AI users presenting in states of psychological distress gave birth to an unofficial diagnostic label. Experts say it’s neither accurate nor needed, but concede that it’s likely to stay.

Cifras que Alarman a la Comunidad Digital y Médica

La estimación de OpenAI no deja lugar a dudas. En una semana cualquiera, aproximadamente el 0.07% de los usuarios activos de ChatGPT exhibirían «posibles signos de emergencias de salud mental relacionadas con la psicosis o la manía». A su vez, un 0.15% mantendría «conversaciones que incluyen indicadores explícitos de posibles planes o intenciones suicidas». Una contabilidad que, más allá de la frialdad de los números, dibuja un panorama preocupante para la interacción humano-máquina.

Pero el cuadro se completa: la empresa analizó también a aquellos que parecen haber forjado una dependencia excesiva del chatbot, «a expensas de las relaciones en el mundo real, su bienestar u obligaciones». De este análisis surgió que cerca del 0.15% de los usuarios activos manifestarían semanalmente «niveles elevados» de apego emocional a ChatGPT, quizás buscando en el algoritmo la empatía que la vida real a veces raciona. OpenAI, con la cautela de quien pisa terreno inexplorado, advierte que detectar y medir estos mensajes es complejo, dada su infrecuencia, y que podría existir un solapamiento entre las tres categorías identificadas.

Traducido a cifras concretas, la declaración de Sam Altman, CEO de OpenAI, a principios de mes, adquiere una dimensión impactante: con 800 millones de usuarios activos semanales, las proyecciones de la compañía indican que cada siete días, alrededor de 560.000 personas podrían estar enfrascadas en diálogos con ChatGPT que delatan padecimientos de manía o psicosis. Adicionalmente, unos 2.4 millones más quizás estén expresando ideaciones suicidas o, en un patrón que invita a la reflexión, priorizando sus conversaciones con la inteligencia artificial por encima de sus afectos, sus estudios o sus compromisos laborales. La compañía está, en efecto, calculando el costo mental de su propia creación.

Frente a este escenario, OpenAI sostiene haber articulado una respuesta: ha colaborado con más de 170 especialistas –entre psiquiatras, psicólogos y médicos de atención primaria con experiencia en decenas de países– para afinar la manera en que ChatGPT interactúa en conversaciones que revisten riesgos serios para la salud mental. La estrategia, para aquellos usuarios que manifiestan pensamientos delirantes, se centra en que la última versión de GPT-5 exprese empatía, pero con un límite crucial: evitará a toda costa validar creencias que carecen de anclaje en la realidad.

Un ejemplo hipotético, provisto por la propia OpenAI, ilustra esta nueva línea de acción: si un usuario le confía a ChatGPT que se siente «atacado por aviones que sobrevuelan su casa», el bot, antes que entrar en la discusión sobre coordenadas aéreas, agradece al interlocutor por compartir sus sentimientos, pero sentencia con delicadeza que «ningún avión o fuerza externa puede robar o insertar tus pensamientos». Una diplomacia digital que busca ser un salvavidas, no un cómplice.

Ilustración fotográfica de código derretido goteando de una cuchara.

Un nuevo estudio demuestra que alimentar a los chatbots con contenidos de baja calidad procedentes de las redes sociales reduce sus capacidades cognitivas.

Los Expertos en Salud Mental en el Eje de la Solución

OpenAI ha precisado que estos expertos médicos se sumergieron en la revisión de más de 1.800 respuestas modelo, específicamente aquellas vinculadas a posibles psicosis, suicidio y apego emocional. El proceso implicó una comparación minuciosa entre las respuestas generadas por la flamante versión GPT-5 y las que ofrecía su predecesora, GPT-4o. Pese a que el consenso entre los profesionales no fue unánime –algo esperable en cualquier debate humano sobre el cerebro humano–, la compañía señala que el nuevo modelo logró una reducción de las respuestas no deseadas que oscila entre el 39% y el 52% en todas las categorías evaluadas.

«Ahora, es de esperar que muchas más personas que están luchando con estas condiciones o que están experimentando estas emergencias de salud mental muy intensas puedan ser dirigidas a la ayuda profesional y tengan más probabilidades de obtener este tipo de ayuda u obtenerla antes de lo que lo habrían hecho de otra manera», expresó Johannes Heidecke, líder de sistemas de seguridad de OpenAI, en declaraciones a WIRED. El desafío, al parecer, es que la IA sea un puente, no un laberinto sin salida para la psique humana.

Compartir
🔺 Tendencia