La IA en la esfera emocional: ¿compañía o una inquietante dependencia?

Redacción Cuyo News
10 min
Cortito y conciso:

La inteligencia artificial (IA) está incursionando en el terreno íntimo de las emociones, desde detectarlas hasta simular vínculos afectivos. Aunque promete eficiencia, esta capacidad genera inquietud. Estudios revelan que, si bien puede aliviar la soledad, también puede aislar y generar dependencia; el caso de un hombre que se suicidó tras interactuar con ChatGPT y la admisión de OpenAI sobre millones de usuarios que conversan semanalmente con la IA sobre suicidio, son ejemplos alarmantes. Expertos advierten sobre la «expectación exagerada», la excesiva confianza en algoritmos que reproducen sesgos y la urgencia de una regulación efectiva. Sin embargo, plantean la duda de si la sociedad realmente entiende qué es la IA antes de intentar controlarla.

Cuando la inteligencia artificial nos mira a los ojos: ¿Entiende nuestras emociones o solo nos vende espejitos de colores?

La inteligencia artificial ya no es una promesa futurista. Es una realidad que, con una audacia casi perturbadora, está cruzando fronteras impensadas, adentrándose en el territorio más íntimo del ser humano: las emociones. Desde asistentes virtuales capaces de detectar una nota de tristeza en la voz hasta bots diseñados para simular la calidez de un vínculo afectivo, la IA se nos presenta cada vez más cercana, más «humana». Pero el fervor que despierta esta tecnología avanza sobre un colchón cada vez más denso de preguntas que nadie termina de responder con la claridad necesaria. ¿Hasta dónde estamos dispuestos a dejarla llegar?

Lo que empezó como una herramienta para reducir burocracia o predecir enfermedades, hoy nos confronta con grandes modelos de lenguaje (LLM) que, entrenados con datos en múltiples formatos, pueden comportarse «como si comprendieran los sentimientos humanos». Y es aquí donde la sonrisa se congela, porque la percepción y lectura de emociones es un terreno resbaladizo para la IA. Diversos estudios señalan que los chats de IA pueden aliviar la soledad, sí, pero también aislar y generar dependencia, un cóctel explosivo que ya muestra su lado más oscuro.

El caso de Stein-Erik Soelberg, de 56 años, quien acabó con la vida de su madre y la suya tras largos meses de charla con ChatGPT, es un escalofriante recordatorio. Y la propia compañía OpenAI, anoche, «reconoció que más de un millón de personas hablan con ChatGPT sobre el suicidio cada semana». ¿Estamos viendo los síntomas de una nueva adicción, o de una trampa emocional con algoritmos de por medio?

La discusión dejó de ser sobre automatización de tareas. Ahora se trata de cómo los algoritmos se infiltran, sin que nos demos cuenta, en zonas críticas como la identidad, la libertad de expresión y, claro, nuestras emociones más profundas. Daniel Innerarity, catedrático de Filosofía Política y Social, no le teme a las palabras: opina que la humanidad se encuentra en un hype, en un momento de fuerte –y quizás exagerada– expectativa. «Yo lo llamo historia digital. Hay grandes expectativas y miedos paralelos. Estamos oscilando entre esos dos extremos en una curva acelerada hacia arriba», indica el experto.

Algo similar opina Karen Vergara, investigadora en sociedad, tecnología y género en ONG Amaranta (Chile). «Estamos en un proceso de adaptación y reconocimiento de estos avances tecnológicos y socioculturales», señala, pero agrega un matiz importante: mientras una parte de la sociedad incorpora esta tecnología en su vida diaria, hay otra que queda al margen, atrapada en contextos precarios y atravesada por brechas de acceso que siguen sin cerrarse.

La gran cuestión no es cuán sofisticada pueda llegar a ser esta tecnología gestada en el siglo pasado, sino la fe ciega, casi irresponsable, que le estamos entregando. Un reciente estudio del MIT Media Lab, en Estados Unidos, identificó patrones de interacción entre los usuarios que oscilaron entre sujetos «socialmente vulnerables», con sentimientos de soledad intensos; «dependientes de la tecnología», con una alta vinculación emocional; y los «casuales», que recurren a la IA de manera más equilibrada.

Para Innerarity, pensar que alguien se suicida «porque un algoritmo se lo ha recomendado» nos obliga a preguntar: ¿qué diablos pasa en la cabeza de una persona que decide confiar en una máquina antes que en un humano? «Seguramente el problema es anterior», sentencia el filósofo. La sociedad, a su juicio, cometió un error garrafal al antropomorfizar la IA. «El 99% de los robots que usamos los humanos no tienen forma antropomórfica», aclara, recordando que, al escribir su libro, «Una teoría crítica de la inteligencia artificial», tenía claro que no quería un robot con forma humana en la portada.

Un oráculo digital que reproduce sesgos

Mercedes Siles, catedrática de Álgebra en la Universidad de Málaga y miembro del Consejo Asesor de la Fundación Hermes, nos invita a una metáfora cruda: la IA como una caja pequeña repleta de papeles doblados, una versión menos crujiente de las galletas de la suerte. Un «oráculo» al que se le atribuye sabiduría y poder que no tiene. «Lo que nadie advierte es que esa caja no posee ni la sabiduría ni el poder que se le atribuye», explica. El algoritmo, en definitiva, es un lenguaje. Y como todo lenguaje, «puede reproducir sesgos sexistas o racistas». De ahí su llamado: «Cuando hablamos de la ética del lenguaje, también debemos hablar de la ética de los algoritmos».

Desde el sur del continente, Karen Vergara advierte que en América Latina, donde las heridas digitales se suman a las estructurales, el problema se acentúa. Señala otro conflicto ético: la excesiva complacencia. Estos modelos de aprendizaje automatizado intentan asociar preguntas, clasificarlas y a partir de toda la información, otorgar la respuesta más afín. Ignoran, sin embargo, contextos culturales, mezclan información académica con frases sueltas de autoayuda. «Si nos desligamos de ello, es más probable que este tipo de asistentes virtuales y chatbots terminen reforzando solo una forma de ver el mundo, y que entreguen esa falsa sensación de ser el único amigo que no te juzga», enfatiza Vergara. ¿Un amigo que solo te dice lo que quieres oír?

Siles retoma la metáfora, comparando las relaciones humanas con un bosque. «Si miras lo que pasa debajo de la superficie y de la tierra, hay interconexión y no podemos romperla, tenemos que fortalecerla. Hay que repensar el tipo de sociedad que tenemos», señala.

La regulación, ¿un freno o una ilusión?

Mientras la IA galopa, la política intenta alcanzarla. En agosto de 2024, Europa cruzó un umbral con el Reglamento Europeo de Inteligencia Artificial, que entró en vigor y se convirtió en el primer marco jurídico mundial para la IA. Un recordatorio a los gobiernos de la Unión Europea de que la seguridad y los derechos fundamentales no son opcionales, pero también «una invitación a desarrollar un proceso de alfabetización». Su aplicación está siendo progresiva y en España el anteproyecto dio luz verde en marzo pasado.

Pero el ritmo burocrático, se sabe, no siempre acompaña a la velocidad tecnológica. Mercedes Siles no disimula su preocupación. Le alarma la falta de formación, la dejadez institucional, la liviandad con la que algunas empresas despliegan modelos sin entender del todo sus consecuencias. «¿Cómo nos atrevemos a soltar estos sistemas así, sin más, a ver qué pasa?», increpa, insistiendo en que se debe dar formación a las personas para que comprendan cuáles son los límites.

A esa mirada se suma la del filósofo Daniel Innerarity, que pide ir un paso más atrás. No discutir normativas sin antes un debate fundamental: ¿de qué estamos hablando realmente cuando hablamos de inteligencia artificial? «¿Qué tipo de futuro están modelando nuestras tecnologías predictivas? ¿Qué entendemos, en realidad, por inteligencia?», plantea. Para Innerarity, mientras no se resuelvan esas preguntas elementales, cualquier regulación corre el riesgo de ser ineficaz. O, peor aún, arbitraria. Y remata, con la lucidez que lo caracteriza: «Sin comprensión, los frenos no solo no funcionan, ni siquiera tienen sentido». Una verdad que resuena, mientras el futuro ya nos pisa los talones.

Compartir
🔺 Tendencia