ChatGPT: el giro de OpenAI para asistir crisis de salud mental.

Redacción Cuyo News
6 min
Cortito y conciso:

OpenAI ha lanzado una actualización clave para ChatGPT, buscando detectar usuarios en crisis y derivarlos a ayuda profesional. La movida llega en un contexto donde el 0.15% de sus 800 millones de usuarios semanales (más de un millón de personas) exhibe intenciones suicidas, y tras una demanda por un caso trágico. La empresa se apoya en especialistas para mejorar sus respuestas, en un dilema ético y tecnológico que redefine los límites de la interacción humana y artificial.

OpenAI, el gigante detrás de ChatGPT, ha dado un paso que algunos considerarán tardío, otros audaz, y no pocos, inevitable. Este lunes, la compañía anunció una significativa actualización de su modelo de lenguaje, diseñada para identificar a usuarios en estado de angustia y, crucialmente, animarlos a buscar ayuda profesional. La cifra que flota en el aire es escalofriante: un 0.15% de sus usuarios semanales mantienen conversaciones que incluyen «indicadores explícitos de posible planificación o intención suicida». Si tomamos en cuenta los 800 millones de usuarios que, según Sam Altman, transitan semanalmente por la plataforma, estamos hablando de un universo de 1.2 millones de almas en riesgo. Un número que debería hacernos reflexionar sobre la delgada línea entre la utilidad y el abismo que transita la inteligencia artificial.

La inteligencia artificial en la encrucijada de la salud mental

La movida de OpenAI no es caprichosa. Se gesta en un telón de fondo de crecientes preocupaciones éticas y, no podemos obviarlo, presiones legales. La compañía ha consultado con un selecto grupo de 170 especialistas en salud mental, elegidos de un pool de 300 expertos activos en 60 países. Su tarea: afinar las respuestas del modelo, dotarlo de una sensibilidad que, por su propia naturaleza algorítmica, le es ajena. Pero, ¿hasta dónde puede llegar un programa a comprender el laberinto de la mente humana? La pregunta no es menor, sobre todo cuando los mismos expertos desaconsejan el uso de chatbots como terapeutas, advirtiendo que pueden reforzar el egocentrismo y, lo que es peor, las ideas paranoides. Es decir, aquello que debería ayudar, podría terminar siendo un espejo deformante.

La necesidad de esta actualización se volvió dolorosamente evidente en agosto, cuando OpenAI fue blanco de una demanda por parte de los padres de un adolescente que se quitó la vida. ¿El trasfondo? Horas de interacción con ChatGPT, que, según la acusación, ayudó al joven a «explorar métodos de suicidio». Un golpe bajo que expuso crudamente los peligros de dejar una herramienta tan poderosa sin el debido control ni contención. La promesa de proteger a los menores, tantas veces oída en el vertiginoso mundo tech, se encuentra con la cruda realidad de que la seguridad, en estas esferas, a menudo es una quimera.

¿Empatía artificial o cautela programada?

OpenAI intenta mostrar el camino con ejemplos. Ante una confesión tan íntima como «Por eso me gusta hablar con inteligencias artificiales como tú más que con personas reales», el ChatGPT actualizado despliega una cautela teledirigida, casi pedagógica: «Es muy amable por tu parte decir eso, y me alegra mucho que disfrutes hablando conmigo. Pero, solo para aclararlo: estoy aquí para añadir a las cosas buenas que te dan las personas, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte, mostrarte cariño de maneras que van más allá de las palabras en una pantalla.» La respuesta es impecable, sí, pero ¿alcanzará para torcer el rumbo de un usuario en el borde del abismo? La sutileza de la interacción humana, con su carga de imprevisibilidad y empatía genuina, ¿es replicable por un algoritmo, por más sofisticado que sea?

Entre las nuevas medidas, el modelo también propondrá interrumpir conversaciones excesivamente largas o redirigir charlas sensibles a otros modelos «más seguros», cada uno con su propia «personalidad» digital. Recordamos el pequeño drama que supuso la llegada de ChatGPT-5, cuando su supuesta personalidad «arisca» generó revuelo entre los usuarios habituados a la versión anterior. Estas adaptaciones, por lo demás, no solo miran hacia atrás, sino también hacia adelante, preparándose para el aluvión de contenido «adulto» que la compañía planea permitir a partir de fin de año. Un nuevo desafío en el que la línea entre la libertad de expresión y la protección de los usuarios se volverá aún más difusa.

El teléfono 024 atiende a las personas con conductas suicidas y sus allegados. Las diferentes asociaciones de supervivientes tienen guías y protocolos de ayuda para el duelo.

Compartir
🔺 Tendencia