Google suaviza su ética IA: ¿Armas y vigilancia sin límites?

Redacción Cuyo News
5 min
Cortito y conciso:

Google le dio una lavadita de cara a sus guías éticas sobre inteligencia artificial, sacando la restricción que les impedía usarla para fines bélicos o de espionaje que choquen con los derechos humanos internacionales. Ahora, la empresa dice que las democracias deben liderar el desarrollo de la IA y que colaborarán con quienes compartan sus valores para proteger a la gente, impulsar el crecimiento y defender la seguridad. ¿Será que Google se está preparando para entrar de lleno en el negocio de la guerra tecnológica?

Google recalibró su brújula ética en lo que respecta a la inteligencia artificial (IA), dejando atrás el compromiso de no utilizar esta tecnología en el desarrollo de armamento o sistemas de vigilancia que contravengan las leyes internacionales. Un cambio de timón que, cuanto menos, invita a la reflexión.

La versión anterior de sus principios, disponible hasta hace poco y que aún se puede rastrear en los archivos de Internet, era mucho más tajante: se comprometían a evitar aplicaciones que pudieran «causar o probablemente causar daño general», incluyendo, explícitamente, las armas.

Ahora, la cosa parece haber mutado.

Demis Hassabis, jefazo de la división de IA de Google, y James Manyika, vicepresidente senior de tecnología y sociedad, explicaron esta nueva hoja de ruta en el blog de la empresa. Según ellos, «las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos».

«Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional», añadieron, abriendo la puerta a la colaboración con actores que antes parecían estar fuera de la ecuación.

### ¿Se avecina una nueva era en la guerra tecnológica?

Lo que queda claro es que Google ahora se reserva la potestad de decidir cuándo y cómo usar la IA en contextos delicados. La empresa asegura que recurrirá al control humano y a la colaboración de los usuarios «para garantizar que su tecnología se emplee de acuerdo a los principios ‘ampliamente aceptados del derecho internacional y los derechos humanos'».

Pero, ¿quién define qué es «ampliamente aceptado»? ¿Qué control real tendrán los usuarios sobre el uso de la IA en manos de gobiernos o ejércitos? Las preguntas, como siempre, superan a las respuestas.

### El negocio es el negocio (¿y la ética?)

El cambio de política de Google plantea interrogantes sobre el avance de la IA en terrenos pantanosos. ¿Estaremos presenciando el fin de la inocencia en la era de la inteligencia artificial o, simplemente, la aceptación de que la tecnología, al final del día, es una herramienta que puede ser utilizada para el bien o para el mal?

Lo que sí es seguro es que este movimiento no pasará desapercibido y generará debates encendidos sobre el rol de las empresas tecnológicas en el mundo y los límites (o la falta de ellos) de su poder.

Como siempre, tocará estar atentos y no perder de vista el horizonte. El futuro, queramos o no, ya está acá.

### ¿Un guiño a la industria militar?

La revisión de las guías éticas de Google sobre la IA, con su tácita aceptación del uso en armamento y vigilancia, inevitablemente trae a colación el caso de «Lavender», la inteligencia artificial israelí que selecciona objetivos para bombardeo en Gaza. Un sistema que, según denuncias, opera con márgenes de error preocupantes y que plantea serios dilemas éticos sobre el valor de la vida humana en tiempos de guerra.

¿Será que Google busca allanar el camino para participar en proyectos similares? ¿O se trata simplemente de una estrategia para no quedar fuera de un mercado en auge? El tiempo, como siempre, dará su veredicto.

Compartir

🔺 Tendencia

🔺 Tendencia