La UE aplaza el control a la IA de alto riesgo: ¿concesión a Big Tech?

Redacción Cuyo News
9 min
Cortito y conciso:

La Comisión Europea ha propuesto postergar hasta 16 meses la aplicación de la prohibición a los sistemas de inteligencia artificial (IA) de alto riesgo, inicialmente fijada para agosto de 2026. Esta medida, parte de un proyecto de «simplificación normativa», busca dar un respiro a las grandes tecnológicas y fomentar la innovación, argumentando Bruselas la necesidad de «certeza legal» y el apoyo a las empresas europeas, dado que los estándares aún no están definidos. Sin embargo, voces críticas, incluyendo exeurodiputados y expertos, alertan que esto representa una peligrosa concesión a las presiones de las «Big Tech», comprometiendo la seguridad y el modelo «humano-céntrico» de la IA. El proyecto también contempla mayor acceso a datos para el entrenamiento de IA y una modernización de los avisos de «cookies».

La Comisión Europea ha decidido lanzar un balde de oxígeno sobre las grandes corporaciones tecnológicas, y la verdad es que pocos se sorprenden. Así se interpreta el proyecto de simplificación de normativas digitales, presentado esta semana en Bruselas, cuyo objetivo declarado es aliviar la carga burocrática para que las empresas se dediquen más a la innovación y menos al papeleo. Pero, ¿es solo eso? Una de las novedades más resonantes que incluye esta propuesta —todavía pendiente de validación por los Estados miembros y el Parlamento Europeo— es la postergación de la aplicación de la prohibición a los sistemas de inteligencia artificial (IA) de alto riesgo, nada menos que por “un máximo de 16 meses”. Esto supera incluso el año que se rumoreaba en las versiones preliminares del proyecto, generando suspicacias.

El reglamento europeo de IA, formalmente en vigor desde agosto de 2024 (aunque su implementación plena estaba proyectada para dos años después), clasifica los sistemas de IA según los riesgos que implican para la ciudadanía, asignándoles distintas obligaciones. Así, mientras herramientas de riesgo inocuo, como los detectores de spam, navegan sin restricciones, las de riesgo inaceptable directamente están vedadas. En esta categoría entran aquellas que “trasciendan la conciencia de una persona o técnicas deliberadamente manipuladoras”, las que exploten vulnerabilidades o las que infieran emociones, raza u opiniones políticas. Aquí, la línea roja es clara, o al menos eso se creía.

Por debajo de las prohibiciones categóricas, pero bajo estricta vigilancia, se ubican las aplicaciones de alto riesgo. Este grupo incluye desde sistemas de identificación biométrica remota y categorización biométrica, hasta aquellos que impactan en infraestructuras críticas, educación, empleo, servicios públicos esenciales, aplicación de la ley o gestión migratoria. Un abanico amplio de herramientas con potencial, para bien o para mal.

La supervisión a la que deberían someterse estos sistemas de IA de alto riesgo es precisamente la que ahora se propone estirar hasta 16 meses. Es decir, en lugar de empezar a aplicarse en agosto de 2026, la fecha límite se prorroga hasta diciembre de 2027. La justificación de Bruselas para esta, llamémosle, "flexibilidad" es que, antes de imponer el cumplimiento de la norma, deben publicarse los estándares que definan qué es aceptable y qué no. La vicepresidenta de la Comisión para Soberanía Tecnológica, Henna Virkkunen, reconoció que dichos estándares, que debían estar listos el pasado agosto, aún no se han finalizado, lo que motivó el aplazamiento.

“Esto no es un retraso del reglamento de IA, que ya está en vigor”, se apresuran a aclarar fuentes comunitarias, que también rechazan que la conocida como ley ómnibus digital sea una concesión a las tecnológicas. “El objetivo es y sigue siendo aplicarla plenamente, cumplir con la ley de IA”, insisten, aunque para ello se necesita “certeza legal” completa sobre cómo se aplica la normativa. Un argumento que, para muchos, suena a malabarismo verbal.

Virkkunen, que curiosamente habla de un “calendario flexible”, evadió responder directamente durante la presentación si esto supone una claudicación ante las intensas presiones externas. En cambio, desglosó un argumento en favor de la competitividad de las startups y pymes europeas, a las que atribuye el mayor desarrollo de estos modelos de alto riesgo. “Tenemos que asegurarnos de que tenemos todas las herramientas de apoyo a nuestra industria antes de que esto entre en vigor (…) y necesitan tiempo para probar los estándares que se les piden antes de entrar en el mercado”, ha insistido. Una noble causa, sin duda, pero ¿a qué costo?

¿Flexibilidad necesaria o un guiño peligroso a los gigantes tecnológicos?

La otra campana suena con una melodía mucho menos optimista. “Si se lleva a cabo el plan, la Comisión acabará por ceder ante la presión de las Big Tech en casi todo lo que pedían”, advierte el exeurodiputado Ibán García del Blanco. Una referencia directa a las constantes embestidas de las grandes plataformas digitales estadounidenses —y algunas europeas— y, sobre todo, a las presiones del mismísimo Gobierno de Donald Trump, que llegó a calificar la normativa europea de IA de “excesiva”. “Más parece una rebaja de estándares de seguridad, que una simplificación de procesos. El reglamento de la IA comportaba ya un equilibrio delicado entre tecnología y protección de derechos. No es una buena noticia para el modelo europeo humano-céntrico de gobernanza de la IA”, agrega García del Blanco, uno de los negociadores clave de la ley que ahora se busca “retocar”.

Desde el think tank EDRi, la responsable de políticas Ella Jakubowska no se anda con chiquitas. “Debemos preguntarnos quién se beneficia realmente de esta amplia desregulación”, sentencia. Y va más allá, con una claridad que resuena en los pasillos de Bruselas: “Si quieres respirar aire limpio, proteger a los trabajadores de abusos y navegar internet sin ser rastreado por centenares de actores malvados, este no es el camino”. Palabras que invitan a la reflexión y, quizás, a la indignación.

Más allá de la inteligencia artificial: el menú completo de la «simplificación» digital

El proyecto de refundación de normativas digitales no se limita solo a la IA. También trae novedades en el flanco de la protección de datos. La Comisión busca “impulsar medidas adicionales para [el entrenamiento de modelos de] IA”. ¿Cómo? Aumentando el acceso a esos datos, por ejemplo, a través de “laboratorios de datos”, una figura aún por concretar. La concesión de datos adicionales para entrenar modelos de IA se justifica, una vez más, para potenciar a las empresas europeas del sector.

Además, se anunció una largamente esperada modernización de las normativas relacionadas con las cookies. La intención es mejorar la experiencia de navegación de los internautas, limitando la aparición de los molestos banners y, por fin, permitiendo indicar el consentimiento (o negarlo) con un solo clic, con la posibilidad de guardar esas preferencias. Un alivio para el usuario común, que, en medio de la discusión de gigantes tecnológicos y regulaciones complejas, agradece que al menos el "aceptar cookies" se vuelva un trámite menos engorroso.

Compartir
🔺 Tendencia