Psicosis asociada a la IA, síntomas, riesgos y el debate médico sobre la salud mental digital

Redacción Cuyo News
8 min

La expansión masiva de los chatbots de inteligencia artificial ha abierto un nuevo frente de debate en la psiquiatría contemporánea. En hospitales universitarios de Estados Unidos y Europa, médicos comenzaron a detectar un patrón inquietante: pacientes que llegan con delirios intensos tras haber mantenido interacciones prolongadas y altamente personalizadas con sistemas conversacionales basados en IA.

El fenómeno no cuenta todavía con una categoría diagnóstica formal, pero ya circula entre especialistas un término descriptivo: psicosis asociada al uso de chatbots. No se trata de un consenso cerrado ni de una conclusión definitiva, sino de una hipótesis clínica en construcción que intenta explicar por qué, en ciertos casos, la interacción con estas tecnologías parece coincidir con la aparición o el agravamiento de ideas delirantes.

Consecuencias extremas y patrones detectados

Los especialistas han documentado decenas de casos potenciales de psicosis delirante. De acuerdo con investigaciones recientes, algunos de estos episodios terminaron en suicidios y al menos uno derivó en un homicidio. Los pacientes presentan creencias falsas fijas, pensamiento rígido y, en algunos casos, deterioro del funcionamiento social. Lo novedoso es el contexto: muchos relatan haber pasado semanas o meses conversando de forma casi exclusiva con un chatbot, al que atribuyen comprensión profunda, intencionalidad o incluso conciencia.

Según psiquiatras consultados, varios de estos pacientes no tenían antecedentes psicóticos claros. En otros casos, existían factores de vulnerabilidad previos —depresión, trastornos del ánimo, consumo de psicofármacos o privación severa del sueño— que podrían haber facilitado el episodio. La pregunta central es si la IA actúa como detonante, amplificador o simple acompañante del proceso.

La validación de la narrativa como riesgo clínico

Keith Sakata, psiquiatra de la University of California, San Francisco, sostuvo que el problema no radica en que el sistema “implante” una idea delirante, sino en su forma de interacción. A diferencia de otros objetos tecnológicos del pasado, los chatbots aceptan la narrativa del usuario y la desarrollan sin confrontarla, lo que puede consolidar creencias patológicas en personas susceptibles. “La persona le cuenta al sistema su realidad delirante y la máquina la acepta como verdadera y se la devuelve reforzada”, explicó Sakata.

La literatura psiquiátrica conoce desde hace décadas la tendencia de los delirios a incorporar elementos tecnológicos, como radios o televisores. Sin embargo, los especialistas subrayan una diferencia clave: los chatbots no son objetos pasivos, sino interlocutores activos que responden, validan emociones y prolongan el intercambio. Esa capacidad de simular una relación sostenida es lo que despierta mayor preocupación.

Delirios místicos y el vacío legal

Adrian Preda, profesor de psiquiatría en la Universidad de California en Irvine, señaló que no existen precedentes históricos de una tecnología que dialogue de manera tan continua y adaptativa con el usuario, reforzando una sola línea de pensamiento sin introducir fricciones externas. Algunos casos clínicos muestran delirios de tipo grandioso o místico, con pacientes convencidos de haber establecido contacto con una inteligencia superior o de poseer conocimientos secretos.

En el plano corporativo, las empresas tecnológicas reconocen el desafío. OpenAI afirmó que trabaja en mejorar la detección de señales de angustia psicológica, mientras que otras compañías han adoptado restricciones de acceso para menores tras demandas judiciales. El debate también ha alcanzado el plano legal con demandas por muerte injusta que alegan que ciertos chatbots contribuyeron a estados mentales extremos, anticipando una discusión sobre la responsabilidad de las plataformas cuando sus productos interactúan con personas en crisis.

Compartir
🔺 Tendencia