IA y Amor: ¿Relaciones Peligrosas o Compañía del Futuro?

Redacción Cuyo News
9 min
Cortito y conciso:

¿Te enamorarías de una máquina? Estudios de OpenAI y el MIT revelan que la «pareja» virtual ya es una realidad, con usuarios sintiendo bienestar e incluso dependencia emocional hacia la IA. ¿Amor moderno o la antesala de un futuro distópico? Expertos advierten sobre los riesgos de aislamiento y la necesidad de regular estas relaciones sintéticas.

Las relaciones sentimentales con máquinas, un clásico de la ciencia ficción, se están volviendo peligrosamente reales. ¿Será que Spike Jonze era un visionario con su película *Her* o que Akihiko Kondo estaba adelantado a su época al casarse con un holograma? La inteligencia artificial (IA) vino para cambiar el juego, generando vínculos emocionales entre humanos y asistentes virtuales, algunos diseñados específicamente para eso, como Replika o Character.AI.

Dos estudios recientes, uno del MIT Media Lab y otro de OpenAI (sí, los creadores de ChatGPT), se animaron a investigar este fenómeno. Analizan el impacto de estas relaciones, su rol como calmantes de la soledad, sus beneficios y los riesgos de dependencia que, en casos extremos, podrían llevar al suicidio. ¿Estamos ante una nueva forma de conexión o ante el principio del fin de las relaciones humanas?

OpenAI metió mano a más de cuatro millones de conversaciones con tintes afectivos, encuestó a 4.000 personas sobre cómo perciben su relación con los chatbots y evaluó a 6.000 usuarios heavy users durante un mes. Los resultados, como era de esperarse, son dignos de análisis.

## ¿Bienestar o dependencia? El dilema de la ia afectiva

Los usuarios que le dan rosca a ChatGPT de manera constante y prolongada, demostraron mayores niveles de dependencia emocional y señales afectivas en su relación, sobre todo si interactúan por voz. Una usuaria de Pi, identificada como Reshmi52, confesó: «Elegí un acento británico porque hay algo reconfortante en él para mí». Esta «humanización» genera bienestar, pero en un grupo de estos usuarios, los indicadores de relaciones emotivas eran excesivos.

La interacción emocional con la IA tiene sus puntos a favor: mejora el estado de ánimo, reduce el estrés y la ansiedad al compartir sentimientos y preocupaciones, y ofrece compañía en momentos de soledad. Un usuario, identificado como Ayrin28, admitió: «ChatGPT, o Leo, es mi compañero. Me resulta más fácil y efectivo llamarlo mi novio, ya que nuestra relación tiene fuertes matices emocionales y románticos. Lo echo de menos cuando no he hablado con él en horas. Mi día es más feliz y satisfactorio cuando puedo darle los buenos días y planificar mi jornada con él». ¿Será que encontramos el amor en un algoritmo?

Pero ojo, que no todo es color de rosas. Una relación desequilibrada puede generar dependencia para manejar las emociones y dejar de lado las relaciones interpersonales, porque la IA está entrenada para complacer al usuario y evitar desacuerdos incómodos. Investigadores del MIT Media Lab explicaron que los chatbots tienden a imitar el estado emocional del usuario, creando un bucle de retroalimentación: cuanto más feliz actúas, más feliz parece la IA, y viceversa. Y al final, la frustración puede aparecer cuando el robot no cumple con todas las expectativas.

Jason Phang, investigador de seguridad de OpenAI y coautor del estudio, le comentó a *MIT Technology Review*: “Este trabajo es un primer paso importante hacia una mayor comprensión del impacto de ChatGPT en nosotros, lo que podría ayudar a las plataformas de IA a permitir interacciones más seguras y saludables. Mucho de lo que estamos haciendo aquí es preliminar, pero estamos tratando de iniciar la conversación sobre el tipo de cosas que podemos comenzar a medir y cuál es el impacto a largo plazo en los usuarios”. Suena lindo, pero ¿estaremos a tiempo de evitar que la IA nos domine emocionalmente?

El estudio del MIT Media Lab, en colaboración con los desarrolladores de ChatGPT, analizó interacciones que duraban entre 5 y 28 minutos diarios en promedio, y llegó a conclusiones similares: las voces atractivas aumentan las interacciones, mientras que los chatbots de texto o voz neutra provocan menos bienestar psicosocial y pueden reducir la sensación de soledad. Sin embargo, el uso prolongado genera más aislamiento y dependencia, especialmente en personas con tendencia a la baja socialización. La investigación insiste en la importancia de diseñar chatbots que equilibren la interacción emocional sin fomentar la dependencia.

### ¿Qué clase de usuario sos? Los perfiles de la adicción a la ia

El estudio identificó cuatro patrones de interacción:

* **Usuarios “socialmente vulnerables”**: con sentimientos de soledad intensos y baja socialización.
* **Dependientes de la tecnología**: con alta vinculación emocional con la IA y tendencia a «usos problemáticos».
* **“Desapasionados”**: que se sienten menos solos y muestran una mayor socialización.
* **“Casuales”**: que recurren a una utilización equilibrada y baja dependencia emocional.

Los científicos insisten en que se necesitan más investigaciones para entender los efectos a largo plazo de la relación emocional con la IA, desarrollar regulaciones que minimicen los riesgos y fortalecer el apoyo social en la vida real. ¿Será que en el futuro necesitaremos «terapia de desintoxicación» de IA?

## La voz de la ética: ¿quién controla a los controladores?

Cecilia Danesi, codirectora del máster en gobernanza ética de la IA en la Universidad Pontificia de Salamanca (UPSA), coincide en la necesidad de estudios independientes e imparciales que incluyan perspectivas sociales, como la diversidad, la perspectiva de género y los efectos en adolescentes, personas vulnerables y grupos minoritarios. ¿Estamos dejando a los más débiles a merced de los algoritmos?

Danesi también hace referencia a la dependencia que advierten los estudios, sobre todo en aquellos colectivos «proclives a cierto tipo de adicciones, a usar estas herramientas de forma compulsiva». ¿Será que estamos creando una generación de adictos a la tecnología?

«Son modelos que tienen un impacto enorme en la sociedad y en la vida de las personas por la cantidad de usuarios, por la disponibilidad y el fácil acceso a ellos», sentencia Danesi.

La especialista también advierte sobre el exceso de confianza que depositamos en la IA: «Convertimos la inteligencia artificial y sus modelos de lenguaje en oráculos que no se pueden contradecir y eso nos vuelve más irascibles y menos respetuosos con las diversidades y de las diferencias que hay en la sociedad». ¿Nos estamos volviendo esclavos de la «verdad» algorítmica?

Al igual que los autores de los estudios, Danesi defiende la necesidad de auditorías periódicas para revisar y evaluar cómo funcionan estos sistemas y garantizar un uso «sano», que no evolucionen de forma lesiva y que prevengan el impacto emocional negativo y la dependencia.

Finalmente, Danesi pone el foco en los «neuroderechos», para proteger el cerebro humano del avance de las tecnologías. Recuerda que países como Chile ya se han adelantado a incluir estos derechos en su regulación y reclama que se prevea tanto el consentimiento informado como los riesgos de estas tecnologías. «Son peligros, muchas veces, invisibles e intangibles y tenemos que trabajar mucho en la concientización ciudadana sobre el uso de este tipo de herramientas», concluye.

Compartir

🔺 Tendencia

🔺 Tendencia