La Agencia de la UE para los Derechos Fundamentales (FRA) advierte que los mecanismos de control de la inteligencia artificial (IA) impuestos por Bruselas son insuficientes para proteger los derechos fundamentales. A pesar de una reciente extensión de 16 meses otorgada a las tecnológicas para que se adapten, el informe de la FRA revela que ni la normativa ni los propios desarrolladores saben cómo prevenir las vulneraciones de derechos en áreas críticas como el empleo, la educación y la justicia. Esto genera serias dudas sobre la eficacia de la autorregulación y la supervisión de los sistemas de «alto riesgo».
Parecía que la Unión Europea tenía la sartén por el mango en esto de la inteligencia artificial. Bruselas, con su proverbial afán regulador, nos presentaba mecanismos de control que, suponíamos, protegerían a diestra y siniestra nuestros derechos. Sin embargo, la Agencia de la UE para los Derechos Fundamentales (FRA) acaba de lanzar un baldazo de agua fría: esos controles, señores, no alcanzan. Y no es un detalle menor, porque hablamos de la incidencia de la IA en áreas tan sensibles como el asilo, la educación, el ámbito laboral, la aplicación de la ley y los mismísimos beneficios sociales.
Este informe de la FRA, que se conoció el jueves, es un auténtico revés para la Comisión. Sí, la misma Comisión que, con la generosidad de un padre que le da otra chance a un hijo travieso, les había dado hace apenas dos semanas dieciséis meses extra a las tecnológicas para que sus herramientas de IA de “alto riesgo” se ajustaran a la normativa europea. Pero aquí está el nudo gordiano: para esta agencia independiente, la regulación de la UE no tiene ni por asomo resuelto cómo lidiar con estos sistemas tan delicados. Y lo que es peor, casi un chiste de humor negro: las propias empresas que los diseñaron confiesan no saber cómo evitar que vulneren derechos fundamentales. ¿Estamos construyendo un tren sin frenos?
No hablamos de escenarios futuristas de ciencia ficción, sino de nuestra realidad cotidiana. Entre los casos que revisó la FRA, encontramos a la IA filtrando currículos en solicitudes de empleo, decidiendo automáticamente quién recibe una ayuda por discapacidad, o incluso vigilando exámenes y midiendo la capacidad lectora de los más chicos. “Estos sistemas deben de ser confiables, en tanto que pueden moldear decisiones importantes que afectan a la vida diaria de la gente”, sentencia el informe. ¿Y si un algoritmo decide tu futuro laboral o educativo sin entender el matiz humano?
La conclusión de la agencia es contundente, casi una bofetada: los proveedores de estos sistemas son, sí, conscientes de problemas como la protección de datos o la discriminación de género. Eso es lo básico, diríamos. Pero no están ni cerca de dimensionar cómo estas herramientas pueden, silenciosamente, cercenar derechos fundamentales. Pensemos, por ejemplo, en esas herramientas que evalúan la lectura de los niños: ¿alguien se detuvo a considerar cómo su “veredicto” puede impactar el mismísimo derecho a la educación de un menor? No parece.
Un laberinto de riesgos: ¿quién controla qué?
El reglamento europeo de IA, que empezó a regir en agosto de 2024 (aunque su implementación plena recién llegará en dos años, un detalle no menor), se las trae con una clasificación de sistemas según el riesgo para el ciudadano. Hay de todo: desde herramientas de “riesgo nulo”, como los inofensivos detectores de spam —que, obvio, no tienen restricción alguna— hasta las de “riesgo inaceptable”. Estas últimas, las que “trasciendan la conciencia de una persona”, exploten vulnerabilidades o infieran emociones, raza u opiniones políticas, directamente están prohibidas. Un paso adelante, sin duda, pero ¿es suficiente?
Y justo en el medio, un escalón por debajo de lo prohibido, encontramos las aplicaciones de “alto riesgo”. Estas, se supone, requieren una supervisión permanente. Aquí entran los sistemas de identificación y categorización biométrica remota, los que tocan la seguridad de infraestructuras críticas y, por supuesto, aquellos que impactan directamente en la educación, el empleo, los servicios públicos esenciales, la aplicación de la ley y la gestión migratoria. Un universo tan amplio como delicado, donde la falla no es una anécdota, es un drama.
Desconcierto en la industria: ¿quién sabe lo que hace?
La Comisión, con su flamante extensión de dieciséis meses, parece jugar al "después te explico". Su argumento es tan simple como inquietante: antes de exigir el cumplimiento de la norma, deben publicarse los estándares de lo que es y no es aceptable. Y, por supuesto, eso aún no ha ocurrido. ¿Estamos ante una prudencia necesaria o una patada para adelante que diluye las responsabilidades?
El informe de la FRA, fruto de una profunda investigación con proveedores, operadores y expertos del sector, arroja una verdad incómoda: “muchos de quienes desarrollan, venden o usan sistemas de IA de alto riesgo no saben cómo evaluar sistemáticamente o mitigar los riesgos” que estas herramientas implican para nuestros derechos fundamentales. No es que no quieran, es que no saben. Y eso, querido lector, debería quitarnos el sueño.
Y para rematar, la agencia pone en tela de juicio la tan mentada autorregulación. Sí, reconoce que el esfuerzo de los proveedores por evaluar el riesgo de sus sistemas es relevante. Pero con un “pero” mayúsculo: esa autorregulación “no tiene en cuenta de manera sistemática los derechos fundamentales”. En otras palabras, dejarlos solos es como esperar que el zorro cuide el gallinero sin que se le antoje una presa. ¿Quién pone el cascabel al gato, o en este caso, al algoritmo?