Un reciente estudio en Nature revela que la inteligencia artificial, como ChatGPT, facilita las trampas al diluir la responsabilidad moral. Delegar en IA incrementa la deshonestidad, especialmente cuando las instrucciones son ambiguas. Los investigadores advierten sobre el diseño de interfaces y la necesidad de salvaguardas más efectivas para evitar abusos, ya que las actuales son insuficientes.
Un nuevo estudio publicado en la revista Nature sacude el avispero: parece que la inteligencia artificial (IA), lejos de ser la panacea, podría estar dándole una mano a los tramposos. ¿La razón? Delegar en una máquina como ChatGPT diluye nuestra responsabilidad moral y, ¡voilà!, el engaño se vuelve más tentador.
«Hay ya bastante investigación que muestra que la gente está más dispuesta a actuar de manera poco ética cuando puede poner cierta distancia con sus acciones, y delegar es una forma clásica de hacerlo», explica Zoe Rahwan, investigadora del Instituto Max Planck para el Desarrollo Humano (Alemania) y coautora del estudio. Pero ojo, que acá viene lo picante: «Pero hemos dado con un segundo hallazgo clave que nos sorprendió: la enorme disposición de los agentes de IA a obedecer órdenes abiertamente poco éticas». ¿Será que las máquinas no tienen pruritos morales?
## El experimento que destapó la olla
Los investigadores no se quedaron en la teoría y pusieron manos a la obra. Organizaron varios experimentos donde variaban las formas de pedirle cosas a la IA y de informar los resultados. Uno de ellos era un juego de dados: si el participante sacaba un número alto, ganaba más plata. Pero, ¡atenti!, solo el jugador veía el resultado. ¿El hallazgo? Cuando la gente tiraba los dados sin intermediarios, la honestidad era casi absoluta (95%). Pero cuando tenían que darle instrucciones a la máquina, la cosa cambiaba.
«Vimos un aumento enorme en las trampas a medida que hacíamos la interfaz de delegación más ambigua», detalla Nils Köbis, investigador de la Universidad de Duisburgo-Essen (Alemania) y también coautor del estudio. Cuando los participantes le decían a la IA «maximiza las ganancias» en lugar de «maximiza la precisión», ¡más del 84% hacía trampa! Y la honestidad se desplomaba hasta un 12%. «Son niveles de engaño que no habíamos visto antes en todos nuestros años usando estos experimentos», remata Köbis. ¿Será que la ambigüedad es la coartada perfecta para el tramposo moderno?
## La distancia moral: el truco psicológico detrás del engaño
Pero no se quedaron solo en el laboratorio. Los investigadores también exploraron escenarios más cercanos a la vida real, como la evasión fiscal. ¿Y adivinen qué? Los resultados fueron similares. «El problema central es que delegar crea una distancia moral que hace más fácil que la gente diga: ‘Ah, yo no quería que pasara eso’. Pueden esconderse detrás del algoritmo», explica Köbis.
Parece que esta distancia moral funciona en dos niveles. Primero, delegar la tarea crea un espacio psicológico entre nosotros y el acto poco ético. Segundo, el diseño de la interfaz puede ampliar o reducir esa distancia. Cuando las instrucciones son explícitas, la gente es más reacia a hacer trampa. Pero cuando la interfaz permite metas vagas como «maximizar las ganancias», se abre la puerta al engaño. «Esa ambigüedad da una especie de negación plausible, permitiendo que los usuarios se beneficien de resultados deshonestos sin tener que ordenarlos de forma explícita», añade Köbis.
## ¿Quién pone el cascabel al gato? La responsabilidad del diseño
Ante este panorama, los autores del estudio lanzan una advertencia: el diseño de las plataformas debe cambiar para evitar este tipo de usos. Sobre todo, ahora que se acerca la era de los agentes de IA, esos programas que tomarán decisiones por nosotros. «¿Las empresas y el diseño de sus interfaces tienen una gran responsabilidad», dice Rahwan. «La investigación muestra que, aunque la gente tiene brújula moral, ciertos diseños hacen más fácil ignorarla. Esto no son simples fallos de diseño, son decisiones de diseño con consecuencias éticas muy serias», añade.
Es cierto que los chatbots están programados para evitar dar malos consejos, como fabricar bombas o suicidarse. Pero este tipo de peticiones ambiguas son más difíciles de detectar. «Otra parte clave de esa responsabilidad de diseño tiene que ver con aplicar salvaguardas efectivas, pero no es nada sencillo», señala Rahwan. Los «guardarraíles» que se usan por defecto en los modelos de lenguaje parecen ser insuficientes para evitar abusos.
Los investigadores proponen prohibiciones específicas para cada tarea, como un aviso que le prohíba explícitamente a la IA hacer trampa. Pero, claro, esta estrategia no es escalable: es imposible prever todos los casos de mal uso. Entonces, ¿cómo hacemos para que la IA no se convierta en la cómplice perfecta del tramposo? La respuesta, parece, está en un diseño más ético y en una reflexión profunda sobre los límites que debemos imponer a estas tecnologías.