La empresa OpenAI publicó un documento en el que describe cómo ha actualizado el modelo que impulsa ChatGPT para reconocer y responder mejor ante señales de angustia emocional o crisis psicológica.
Estadísticas clave
- Se estima que alrededor del 0,07 % de los usuarios activos en una semana muestran “posibles signos de emergencias de salud mental relacionadas con la psicosis o la manía”.
- Simultáneamente, aproximadamente el 0,15 % de las conversaciones incluyen “indicadores explícitos de posibles planes o intenciones suicidas o de autodaño”.
- También se identificó un porcentaje similar (alrededor del 0,15 %) de usuarios que podrían presentar “niveles elevados” de apego emocional al chatbot, en detrimento de sus relaciones o tareas reales.
Medidas implementadas
OpenAI detalla que ha colaborado con más de 170 profesionales en salud mental (psiquiatras, psicólogos y médicos de atención primaria) procedentes de múltiples países para revisar más de 1.800 respuestas generadas por el sistema en situaciones de riesgo.
Entre los cambios se destacan:
- Ampliación del acceso a líneas de crisis y asistencia en salud mental.
- Desvío de conversaciones sensibles hacia “modelos más seguros”.
- Un enfoque más claro para no afirmar creencias infundadas, por ejemplo ante pensamientos delirantes.
- Recordatorios para que el usuario tome descansos después de sesiones extensas con el chatbot.
Lo que significa para el usuario argentino
Estos datos no implican que el chatbot sea el causante directo de crisis de salud mental, ni que use ChatGPT automáticamente derive en un problema. Pero sí abren una ventana de alerta: herramientas de inteligencia artificial están siendo usadas como confidente o espacio de descarga emocional para personas en estado vulnerable.
Para el público argentino conviene tener presente que, ante señales de angustia, está disponible el apartado “Salud mental” en argentina.gob.ar, donde se pueden encontrar recursos y líneas de atención.
Desde el diario en San Juan, queremos subrayar que ninguna IA reemplaza el diálogo directo con profesionales o personas de confianza. La tecnología puede colaborar, pero no sustituir el vínculo humano.
La apuesta de OpenAI por mejorar la respuesta de ChatGPT en situaciones de crisis es un paso relevante. Pero también plantea preguntas: ¿hasta qué punto dependen los usuarios de estas máquinas para hablar de lo que deberían conversar con un amigo, un psicólogo o un terapeuta? ¿Qué tan preparado está el sistema para discernir y actuar ante emergencias reales?
En términos más amplios, esta reflexión también alcanza al ecosistema de IA: la velocidad de desarrollo tecnológico avanza, pero el cuidado de la salud emocional humana es un desafío que no admite atajos.
La empresa OpenAI informó que aproximadamente el 0,07 % de los usuarios activos semanales de ChatGPT presentan “posibles signos de emergencias de salud mental relacionadas con la psicosis o la manía”, mientras que el 0,15 % de las conversaciones incluyen “indicadores explícitos de posibles planes o intenciones suicidas”. Para abordar esta situación, la firma trabaja con expertos en salud mental para actualizar el chatbot y así reconocer indicios de angustia y orientar a los usuarios a buscar ayuda profesional.
Resumen generado automáticamente por inteligencia artificial
Contenido humorístico generado por inteligencia artificial
La empresa OpenAI publicó un documento en el que describe cómo ha actualizado el modelo que impulsa ChatGPT para reconocer y responder mejor ante señales de angustia emocional o crisis psicológica.
Estadísticas clave
- Se estima que alrededor del 0,07 % de los usuarios activos en una semana muestran “posibles signos de emergencias de salud mental relacionadas con la psicosis o la manía”.
- Simultáneamente, aproximadamente el 0,15 % de las conversaciones incluyen “indicadores explícitos de posibles planes o intenciones suicidas o de autodaño”.
- También se identificó un porcentaje similar (alrededor del 0,15 %) de usuarios que podrían presentar “niveles elevados” de apego emocional al chatbot, en detrimento de sus relaciones o tareas reales.
Medidas implementadas
OpenAI detalla que ha colaborado con más de 170 profesionales en salud mental (psiquiatras, psicólogos y médicos de atención primaria) procedentes de múltiples países para revisar más de 1.800 respuestas generadas por el sistema en situaciones de riesgo.
Entre los cambios se destacan:
- Ampliación del acceso a líneas de crisis y asistencia en salud mental.
- Desvío de conversaciones sensibles hacia “modelos más seguros”.
- Un enfoque más claro para no afirmar creencias infundadas, por ejemplo ante pensamientos delirantes.
- Recordatorios para que el usuario tome descansos después de sesiones extensas con el chatbot.
Lo que significa para el usuario argentino
Estos datos no implican que el chatbot sea el causante directo de crisis de salud mental, ni que use ChatGPT automáticamente derive en un problema. Pero sí abren una ventana de alerta: herramientas de inteligencia artificial están siendo usadas como confidente o espacio de descarga emocional para personas en estado vulnerable.
Para el público argentino conviene tener presente que, ante señales de angustia, está disponible el apartado “Salud mental” en argentina.gob.ar, donde se pueden encontrar recursos y líneas de atención.
Desde el diario en San Juan, queremos subrayar que ninguna IA reemplaza el diálogo directo con profesionales o personas de confianza. La tecnología puede colaborar, pero no sustituir el vínculo humano.
La apuesta de OpenAI por mejorar la respuesta de ChatGPT en situaciones de crisis es un paso relevante. Pero también plantea preguntas: ¿hasta qué punto dependen los usuarios de estas máquinas para hablar de lo que deberían conversar con un amigo, un psicólogo o un terapeuta? ¿Qué tan preparado está el sistema para discernir y actuar ante emergencias reales?
En términos más amplios, esta reflexión también alcanza al ecosistema de IA: la velocidad de desarrollo tecnológico avanza, pero el cuidado de la salud emocional humana es un desafío que no admite atajos.