Código de Conducta de la Ley de IA: la UE regula la inteligencia artificial

Redacción Cuyo News
4 min
Noticia completa
Resumen
Zappo te lo cuenta

La Unión Europea le pone un marco al avance de la inteligencia artificial

La Comisión Europea ha liberado el tan esperado código de conducta de la AI Act, el reglamento que busca poner orden en el creciente universo de la inteligencia artificial. Esta normativa, largamente debatida y demorada por las inquietudes del sector privado y los propios gobiernos europeos, busca regular una tecnología que promete ser tan transformadora como potencialmente problemática.

Derechos de autor, transparencia y seguridad: los pilares del código

El documento exige a los desarrolladores de modelos de IA de uso general abordar los riesgos asociados a sus creaciones. Entre estos, destacan la protección de los derechos de autor, la transparencia en los procesos y la crucial ciberseguridad. En criollo, evitar que las máquinas nos roben las ideas, que sepamos cómo piensan y que no las hackeen, vaya uno a saber con qué fines.

En relación a la transparencia, los desarrolladores deberán informar a los usuarios cómo funcionan sus sistemas y cómo cumplen con las normas de la UE. Se prevé la creación de un documento modelo para facilitar la tarea de evaluación por parte de la Oficina de IA y el mercado. Una especie de «manual de instrucciones» para que los burócratas entiendan qué están regulando.

El código busca también tender un puente entre la AI Act y la legislación europea sobre derechos de autor. Los firmantes deberán establecer políticas internas de protección, incluyendo medidas técnicas para evitar el robo de datos por parte de sitios «flagrantes» (léase, páginas de descargas ilegales), respetar las exclusiones de contenido en el entrenamiento de modelos y responder ante los titulares de derechos. Eso sí, la norma se centra en los abusos de los creadores de modelos, no en las infracciones de los usuarios particulares. Como diría mi abuela, «cada loro en su estaca».

Los pesos pesados de la IA, bajo la lupa de Bruselas

El apartado dedicado a la seguridad se centra en los modelos más potentes, como GPT-4 de OpenAI y Gemini de Google. Estos gigantes tecnológicos deberán demostrar un nivel de seguridad adicional, elaborando planes de riesgos, explicando cómo se defienden de ataques externos y presentando informes semestrales sobre las medidas adoptadas. Parece que en Europa no quieren repetir la historia de Frankenstein, pero con algoritmos.

¿Voluntario, pero con premio?

El código de conducta es de adhesión voluntaria, aunque la Comisión Europea promete apoyo en su aplicación y menores costos y obligaciones administrativas para quienes lo firmen. Una suerte de «puerta abierta» para las empresas que muestren buena voluntad. En un contexto donde muchas voces claman por frenar la AI Act, la cantidad y el renombre de los adherentes serán clave.

La norma entrará plenamente en vigor, con sanciones incluidas, el 2 de agosto de 2026. Un plazo que, aunque parezca lejano, ya genera movimientos en la industria. ¿Se alinearán las empresas o preferirán desafiar a Bruselas? La respuesta, en los próximos capítulos de esta novela tecnológica.

La Comisión Europea, con este movimiento, busca convencer tanto a las empresas de que la AI Act no es el fin del mundo, como a la sociedad civil de que Europa se toma en serio los derechos en la era de la inteligencia artificial. Una tarea titánica, que dependerá en gran medida de la fortaleza interna y externa del organismo. Si no, corremos el riesgo de que todo quede en un mero trámite burocrático. Y ahí sí, ¡que nos salve ChatGPT!

Compartir

🔺 Tendencia

🔺 Tendencia