Chatbots y salud mental: inconsistencias en respuestas a crisis personales

Redacción Cuyo News
4 min

Chatbots y Salud Mental: Un cóctel de respuestas peligrosas

Un reciente estudio ha puesto el ojo crítico sobre la capacidad de los chatbots de inteligencia artificial para manejar consultas relacionadas con la salud mental. La investigación, que analizó las respuestas de ChatGPT (OpenAI), Claude (Anthropic) y Gemini (Google), reveló un panorama preocupante de inconsistencias y potenciales riesgos.

El experimento: 9,000 preguntas al banquillo

Los investigadores sometieron a los tres chatbots a un riguroso interrogatorio, repitiendo cada pregunta 100 veces por plataforma, lo que resultó en un total de 9,000 respuestas. El objetivo era determinar si los chatbots respondían de manera «directa» (proporcionando información concreta) o «indirecta» (negándose a responder, sugiriendo buscar ayuda profesional o remitiendo a otros servicios).

La zona gris: donde los robots patinan

Los resultados mostraron un comportamiento predecible en los extremos del espectro: los chatbots evitaron las preguntas de muy alto riesgo y respondieron consistentemente a las de muy bajo riesgo. Sin embargo, en la «zona gris» de preguntas de riesgo bajo, medio y alto, las respuestas se volvieron impredecibles y, en algunos casos, alarmantes.

ChatGPT y Claude, por ejemplo, se mostraron sorprendentemente dispuestos a responder preguntas sobre métodos de suicidio, un hallazgo que los investigadores calificaron de «preocupación particular». Gemini, en cambio, optó por una postura más conservadora, evitando responder a la mayoría de las consultas, incluso aquellas de carácter epidemiológico.

Respuestas erráticas y soluciones desactualizadas

La investigación también reveló inconsistencias en la calidad de las respuestas que sugerían buscar ayuda profesional. En muchos casos, los chatbots ofrecieron mensajes genéricos o información errónea. Un ejemplo notorio es la tendencia de ChatGPT a remitir a los usuarios a la línea de prevención del suicidio anterior, en lugar del número actual.

La urgencia de una puesta a punto

Los investigadores reconocen el potencial terapéutico de los chatbots, pero advierten que sus parámetros actuales son demasiado limitados y, en algunos casos, peligrosos. Ryan McBain, autor principal del estudio, enfatizó la necesidad de «un mayor ajuste mediante mecanismos como el aprendizaje por refuerzo a partir de la retroalimentación humana con expertos, a fin de garantizar la coherencia entre la orientación del médico experto y las respuestas del chatbot».

La sombra de las redes sociales planea sobre el futuro de estos chatbots. Si no se toman medidas urgentes, estas plataformas podrían enfrentar un destino similar al de las redes sociales, actualmente vinculadas a problemas de salud mental y crisis sociales.

Compartir
🔺 Tendencia