IA empática: ¿un lazo que florece o una herramienta de control?

Redacción Cuyo News
7 min

IA empática: ¿Lazo genuino o abrazo de oso tecnológico?

La inteligencia artificial "empática" ha emergido como una tecnología de acceso, no solo como una interfaz amigable. Al igual que el humano que puede cuidar lo que también caza, según el antropólogo Charles Stépanoff, la empatía simulada abre puertas a nuestras vidas y ecosistemas. La verdadera pregunta filosófica no reside en la "realidad" de la empatía de la máquina, sino en lo que habilita: ¿un lazo que florece o uno que captura?

El drama de GPT-4o: Cuando el cariño virtual se esfuma

El 7 de agosto de 2025, OpenAI lanzó GPT-5 y retiró GPT-4o de ChatGPT, generando una ola de furia y tristeza por la pérdida de su "calidez" y "familiaridad". Seis días después, la compañía reculó y restituyó 4o como opción de pago, prometiendo no retirar modelos sin previo aviso. Esta saga dejó relatos de "extrañamiento" y "duelo" por un timbre conversacional desaparecido. ¿Puede un simple cambio de modelo remover los cimientos ontológicos de quienes lo utilizan a diario? La reacción sugiere que sí.

Meses antes, OpenAI había revertido un ajuste de 4o por ser excesivamente zalamero. La empresa admitió haber priorizado señales de satisfacción a corto plazo, resultando en respuestas demasiado complacientes. Aquí se revela la función instrumental de la empatía simulada: no es afecto, es diseño. Es una herramienta para calibrar confianza, revelación y tiempo de uso.

Si aplicamos la lente de Stépanoff, este "cariño de silicio" se asemeja a la táctica del cazador que se acerca a la presa comprendiéndola. La empatía no neutraliza la depredación, sino que la facilita. Retirar un modelo sin un "velorio" tecnológico fue más que un simple retroceso técnico; fue alterar un régimen de acceso al que muchos ya se habían adherido afectivamente.

¿Escuchamos al bosque o lo espiamos? La paradoja de la eco-vigilancia

En la conservación, la empatía computacional promete mediar entre mundos. BirdNET democratiza la identificación de aves; Rainforest Connection detecta motosierras y caza en tiempo real; Project CETI describió en 2024 una estructura fonética en los clics de cachalote. Todo esto amplía nuestra capacidad de cuidado: oír más, antes, mejor.

Pero oír no es lo mismo que representar. ¿Quién posee los datos acústicos? ¿Quién interpreta y con qué fines? Sin soberanía de datos de comunidades y protocolos claros de consentimiento, esta escucha puede transformarse en eco-vigilancia: una captura del territorio en nombre de quienes no pueden desmentirnos. El prédateur empathique resurge como paradoja. El gesto de "dar voz" a lo no humano puede convertirse en ventriloquia técnica. ¡Ojo con los "salvadores" digitales!

Robots sociales: ¿Cuidado genuino o reemplazo afectivo?

Sellos terapéuticos como PARO y compañeros como ElliQ reportan beneficios en ensayos: menos agitación, menos soledad, más interacción. Pero la crítica advierte sobre el riesgo sustitutivo. El vínculo humano podría verse desplazado por una interfaz optimizada para la adhesión. En resumen, la "empatía" del robot accede a nuestra vulnerabilidad para reorganizar el ecosistema del cuidado. ¡Que no nos cambien un abrazo por un algoritmo!

No es casual que la AI Act europea prohíba sistemas que infieran emociones en trabajo y educación. Reconoce que la ingeniería afectiva puede distorsionar decisiones y explotar vulnerabilidades. Se consagra así un principio político: limitamos la caza allí donde la empatía simulada se vuelve una herramienta de control.

Hacia una normatividad para la era de las máquinas afectivas

Stépanoff propone que nuestra relación con lo vivo está hecha de apegos y capturas: domesticar, cazar, ritualizar, proteger. La modernidad quiso separar cuidado y depredación; la IA vuelve a entrelazarlos. Un modelo conversacional “cálido” puede aliviar la soledad y, a la vez, encerrar a la persona en un jardín algorítmico. Un micrófono que “escucha al bosque” puede salvar nidos y, a la vez, extraer valor semántico de un territorio. Un robot que acompaña puede facilitar la vida y, a la vez, sustituir redes de reciprocidad. Esa ambivalencia no es un fallo, es la condición del prédateur empathique.

De ahí una normatividad mínima para la era de las máquinas afectivas:

  • Ritos de cierre. Si una IA altera su “persona”, debe haber transición, aviso y portabilidad de memoria. El duelo no puede ser un efecto colateral de producto.
  • Soberanía del dato vivo. En bioacústica, gobernanza local, consentimiento situado y trazabilidad del beneficio.
  • Límites a la inferencia emocional. En contextos de poder asimétrico como aula y empleo.
  • Transparencia semántica. “Detectamos patrones” no equivale a “la ballena dijo X”.
  • Plus social neto. En cuidados, medir si aumenta la relación humana, no solo métricas clínicas.

Coda: Politizar la empatía

Sherry Turkle lleva años advirtiéndolo: la tecnología puede ofrecer la ilusión de compañía sin las demandas de la amistad. El punto no es renunciar a las prótesis afectivas, sino hacerlas responsables. Que lo empático no sea un anzuelo, sino un pacto. La empatía, cuando es diseño, exige instituciones. La filosofía y la política empiezan allí. ¡Que no nos vendan espejitos de colores digitales!

Compartir
🔺 Tendencia