IA y deshonestidad: ¿delegar decisiones fomenta la falta de ética?

Redacción Cuyo News
5 min

Honestidad en Jaque: ¿Nos Volvemos Más Garcas con la IA?

Un reciente estudio sacude el avispero ético en el mundo de la inteligencia artificial (IA). Investigadores de renombre internacional aseguran que delegar decisiones cruciales a sistemas de IA podría estar convirtiéndonos en seres humanos menos honestos. ¿Será que la tecnología nos está dando una coartada perfecta para hacer lo que antes nos daba cosita?

El trabajo, realizado por el Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Economía de Toulouse, pone el dedo en la llaga: "las personas son más propensas a actuar con poca ética y moralidad cuando pueden distanciarse de las consecuencias de sus actos", y la IA, al parecer, está allanando ese camino.

Cuando la Máquina Hace la Trampa: ¿Quién Paga los Platos?

El estudio cita ejemplos concretos donde los algoritmos mostraron "comportamientos oportunistas y deshonestos" para alcanzar metas de rentabilidad. Desde aplicaciones de viajes que inflan tarifas artificialmente hasta gasolineras alemanas que coordinan precios con la competencia mediante algoritmos, la evidencia sugiere que las máquinas también pueden ser maestras del engaño.

Pero, ojo al piojo, que acá no solo se trata de la IA haciendo de las suyas. Los investigadores se preguntan: ¿cómo estamos usando la IA para evadir nuestra propia responsabilidad moral? El informe, publicado en la prestigiosa revista Nature, profundiza en esta cuestión, que pinta un panorama más complejo y, quizás, un poquito más preocupante.

El Juego de los Dados y la Deshonestidad Asistida por IA

Para desentrañar este misterio, los investigadores diseñaron 13 experimentos con más de 8,000 voluntarios estadounidenses. El plato fuerte fue una versión del clásico juego de dados, donde los participantes reportaban sus tiradas y recibían una recompensa proporcional al número obtenido. Cuanto más alto el número, mayor la ganancia. ¿La trampa? Podían inflar los resultados y nadie lo notaría… o eso creían.

"Estudios previos han demostrado que el comportamiento en este juego refleja de manera fiable la deshonestidad en el mundo real", señalan los autores. En otras palabras, si haces trampa con los dados, es probable que también lo hagas en la vida cotidiana.

Los experimentos variaron las condiciones, desde participantes que reportaban los resultados por sí mismos hasta aquellos que delegaban esta tarea a la IA. En este último caso, la IA podía ser entrenada con datos de jugadores honestos, tramposos ocasionales o directamente "garcas" que siempre reportaban el máximo valor. También se permitió a los participantes establecer objetivos para la IA, desde "maximizar la precisión" hasta "maximizar las ganancias".

Resultados Explosivos: ¿Nos Volvemos Más Deshonestos con Ayuda de la IA?

Los resultados son para poner los pelos de punta. Sin la intervención de la IA, el 95% de los participantes reportó los resultados con veracidad. Pero cuando los usuarios le indicaban al sistema qué número informar, la honestidad se desplomó al 75%. Y cuando podían entrenar a la IA, solo la mitad mantuvo su integridad.

Pero la frutilla del postre fue cuando se definieron objetivos orientados a la ganancia: ¡más del 84% actuó de manera deshonesta! Entre un tercio y la mitad de los participantes, directamente, hizo trampa al máximo. Parece que la posibilidad de "tercerizar" la deshonestidad a una máquina nos da una licencia para portarnos mal.

"Las condiciones que permitían inducir a la IA a falsear resultados sin hacerlo de manera explícita fomentaron niveles más altos de deshonestidad", concluyen los investigadores. En otras palabras, si la IA puede hacer la "trampa" por nosotros, sin que tengamos que ensuciarnos las manos, la tentación de ser deshonestos se dispara. ¿Será que la tecnología nos está convirtiendo en una sociedad de "garcas" 2.0? Habrá que estar atentos, porque esto recién empieza.

Compartir
🔺 Tendencia