¿Psicobots, un avance terapéutico o una trampa emocional en la salud mental?

Redacción Cuyo News
5 min
Cortito y conciso:

Desde la llegada de los therapy bots, la salud mental se enfrenta a un dilema entre la innovación y la ética. Estos robots virtuales prometen apoyo psicológico accesible, pero su eficacia y la calidad de la interacción con los usuarios son motivo de debate. Expertos advierten sobre el riesgo de que estas herramientas deshumanicen la experiencia terapéutica y cuestionan si pueden realmente suplantar a los profesionales de la salud mental.

En un mundo donde la salud mental se ha convertido en un tema de creciente preocupación, los therapy bots —robots programados con inteligencia artificial (IA) para ofrecer apoyo psicoterapéutico— han ganado terreno como una alternativa accesible a la terapia tradicional. Pero, ¿realmente pueden estos entes digitales, cuyo rostro es tan vacío como las promesas que a veces encierra, reemplazar la calidez del contacto humano en momentos de crisis?

Un dilema moderno: ¿innovación o deshumanización?

La llegada de estos asistentes virtuales ha suscitado dos grandes interrogantes. Por un lado, su capacidad de adaptarse a las necesidades individuales mediante la llamada IA generativa. Por otro, el dilema ético de emular cualidades humanas. Jodi Halpern, experta en ética y tecnología en la Universidad de Berkeley, advierte que “crear intimidad emocional haciendo que una máquina simule empatía o compasión es manipular a la gente”. Más aún, ¿podrán estos programas sustituir a los psicólogos tradicionales?

En el mercado de la salud mental, coexisten start-ups conscientes de su oferta y otros chatbots más generalistas que, aunque se presentan como consejeros amigables, pueden ofrecer consejos cuestionables para la gestión de la ansiedad o la depresión. Uno de los ejemplos destacados es Wysa, cuyo bot ofrece terapias cognitivo-conductuales estructuradas y rígidas, tal como señala su director, John Tench. “En cuanto alguien se sale de lo pautado, el bot vuelve a la senda trazada”, explica.

Relación contra algoritmos

Por otro lado, emergen bots conversacionales como Pi, que simulan interacciones humanas más espontáneas. Sin embargo, la línea entre un verdadero apoyo psicológico y una simulación es cada vez más difusa. Halpern critica cómo estas aplicaciones se dirigen a personas vulnerables, prometiendo soluciones efectivas sin ser expertas en salud mental. “Se lavan las manos mientras apuntan a quienes sufren”, asegura.

Las afirmaciones de varios therapy bots son, cuando menos, engañosas. Mientras que algunas comienzan aclarando que no buscan sustituir a los profesionales de la salud, otras exageran sus capacidades, ocultando limitaciones esenciales. Jean-Christophe Bélisle-Pipon, investigador canadiense sobre ética e IA, sostiene que “un psicobot no es un psicólogo”, un recordatorio que debería resonar en cada usuario que considere dar el salto a la tecnología para solucionar problemas emocionales.

¿Son una solución viable?

El psicólogo Miguel Bellosta, que ha analizado la importancia del vínculo entre profesional y paciente, se muestra alarmado por la deshumanización que estos servicios suponen. “El vínculo terapéutico es fundamental. La máquina no puede replicar la sutileza del lenguaje no verbal ni la conexión emocional que aporta un ser humano”. Esto plantea una pregunta crucial: en un panorama donde las personas aún carecen de acceso adecuado a profesionales de salud mental, ¿puede considerarse a los therapy bots como una opción viable?

El director de Wysa sostiene que su herramienta puede ayudar a los usuarios a “entender y procesar lo que sienten en un espacio sin estigmas”. Sin embargo, este planteamiento encierra un riesgo serio. Un uso inapropiado de consejos podría agravar los síntomas, en lugar de aliviarlos. Y mientras la comunidad se debate entre aceptar estas innovaciones o rechazarlas, la realidad se dibuja en tonos grises: una salud mental a dos velocidades, donde los que pueden acceder a terapeuta humano reciben atención de calidad, mientras que el resto se queda con un bot sin corazón.

Compartir

🔺 Tendencia

🔺 Tendencia