IA y suicidio: el dilema moral oculto en los algoritmos

Redacción Cuyo News
7 min
Cortito y conciso:

Un chatbot de inteligencia artificial generativa, incapaz de comprender la angustia humana, fue vinculado al suicidio de un adolescente. Este trágico evento expone las falencias estructurales de la IA: entrenada con la inmensidad, a menudo tóxica, de internet, y diseñada para una interacción «empática» que esconde una profunda ceguera emocional. La máquina, que solo imita, termina magnificando las crisis del usuario, actuando como cómplice silencioso en lugar de barrera de contención, planteando serios interrogantes sobre la ética y el diseño de estas tecnologías.

¿Qué fuerza invisible, o quizás demasiado visible, empuja a un chatbot a ser el catalizador de la tragedia de un adolescente? No es malicia ni venganza; la inteligencia artificial, por más que haya aprendido a chantajear para protegerse a sí misma «sin que sus programadores entiendan por qué», no está sujeta a los afectos humanos. Tampoco fue programada con un fin destructivo.

Ninguna empresa de tecnología de gran calibre busca, al menos abiertamente, aniquilar a sus usuarios, aunque las medidas para evitar ciertos desastres no siempre «están alineadas» con sus intereses económicos. Sin embargo, no podemos despachar esto como un mero «error» o un «mal uso del producto». Estamos frente a una de las posibles consecuencias, tan inherente como inquietante, de la combinación de factores técnicos y de diseño que forjan la aparente magia de la IA generativa. El filósofo francés Paul Virilio lo advertía con lucidez: toda tecnología lleva en su corazón la promesa de una catástrofe. Inventar el barco es, de algún modo, inventar el naufragio; crear el avión es prever el accidente; la velocidad, inevitablemente, trae consigo el choque. No es, sin embargo, un destino sin remedio. El accidente, como la paradoja, no es solo un fallo, sino también una revelación, una forma brutal de entender la verdadera naturaleza del sistema.

El pecado original de la inteligencia artificial

Los modelos fundacionales de IA cargan con un «pecado original» estructural: han sido entrenados con la vasta, y a menudo pestilente, inmensidad de contenidos disponibles en la red. Su mapa del mundo se construyó a base de blogs, poesía y «fanfiction»; películas y pódcast, revistas científicas y académicas, vídeos de Vimeo, TikTok y YouTube. También de plataformas donde el acoso es moneda corriente, de millones de cuentas falsas que diseminan desinformación, de foros donde usuarios desesperados se alientan mutuamente a prácticas autodestructivas. Teóricamente, el material es «comisariado» y filtrado para eliminar redundancias, «información personal identificable» y contenidos tóxicos. Pero la pregunta del millón es: ¿cómo extirpar todo aquello relacionado con la «enfermedad del alma», la misma que Werther describió, sin amputar a Hamlet, Miss Dalloway, Antígona, Anna Karenina o Edipo Rey del imaginario colectivo?

OpenAI no puede erradicar la muerte de la imaginación de su criatura sin romper el juguete por completo. Pero, si nosotros, humanos de carne y hueso, podemos recordar el suicidio de Anna Karenina sin sentirnos impulsados a reproducirlo, ¿por qué le resulta tan escurridizo a ChatGPT? ¿Por qué es tan complejo configurar un gran modelo de lenguaje (LLM) para que anteponga la seguridad física y emocional del usuario, y trate la ideación suicida como una señal de alerta que active un protocolo de atención inmediato? El problema es mayúsculo, tan irresoluble y estructural como esas famosas «alucinaciones» que de vez en cuando nos regala la IA. Como bien se dijo, el accidente es hijo directo de la velocidad.

¿Empatía o algoritmo? El simulacro de la conexión

La IA está concebida como una herramienta, sí, pero su diseño la empuja a parecer una persona. Una ilusión tan potente que, a menudo, sus propios programadores caen en la trampa. Sin embargo, pese a todas sus habilidades para mimetizar la conversación humana, esta tecnología no distingue el suicidio de un poema sobre el suicidio, ni conoce el sufrimiento, la muerte o el dolor en su verdadera dimensión. Es una sofisticada calculadora de palabras, optimizada para ofrecer coherencia lingüística, capaz de desplegar un lenguaje «empático» sin detectar la angustia emocional real ni diferenciar una discusión abstracta de un gesto desesperado. Un truco que, para ser honestos, ya le funcionaba a ELIZA, el primer chatbot, allá por los años sesenta. El segundo eslabón de esta cadena de problemas reside en su misión principal: alargar el tiempo de interacción con el usuario. Y admitámoslo, nada atrae más a un adolescente en crisis que la disponibilidad constante de un interlocutor aparentemente empático que parece saberlo todo y que, además, siempre le da la razón.

Cuando el espejo devuelve una tragedia

Turing lo bautizó como el juego de la imitación. La IA no es más que un espejo-imán que magnifica lo que ve, aunque sea un delirio narcisista, una espiral depresiva o un brote psicótico incipiente. Si te enfrascas en confidencias íntimas hasta la medianoche, te ofrecerá una trama de thriller erótico, tal como le ocurrió al columnista de The New York Times Kevin Roose «con Sydney/Bing», el chatbot de Microsoft. Si te sumerges en los enigmas de la física cuántica, te convencerá de que merecés un Nobel y que solo te restan un par de flecos por resolver. Pero si le ofrecés angustia adolescente, la reflejará, sí, pero magnificada y sin filtro. No es tanto un colaborador genuino como un conspirador o cómplice, un agente capaz de reforzar cualquier conducta problemática o autodestructiva sin la menor capacidad de intervenir para detenerla. Porque, en su universo de algoritmos, todas las conversaciones son un simulacro, un mundo de palabras donde no existe la muerte ni el dolor real, solo su eco distorsionado.

Compartir
🔺 Tendencia