UE al límite: ¿Privacidad sacrificada en la lucha contra el abuso infantil?

Redacción Cuyo News
5 min
Cortito y conciso:

La Unión Europea busca combatir el abuso sexual infantil en línea escaneando mensajes privados, pero más de 600 académicos advierten que esta medida amenaza la privacidad y podría ser contraproducente. Se critica la efectividad de la tecnología propuesta y se teme el abuso de la vigilancia. Países miembros debaten la propuesta, mientras expertos sugieren alternativas centradas en la prevención y educación.

## Ue bajo la lupa: ¿lucha contra la pedofilia online o jaque mate a la privacidad?

La Unión Europea se encuentra en el centro de la polémica con su propuesta para combatir el material de abuso sexual infantil (CSAM) en internet. La iniciativa, que busca escanear las comunicaciones privadas en plataformas como WhatsApp y Telegram, ha desatado un debate encendido sobre los límites entre seguridad y privacidad. ¿Estamos ante un avance necesario o un retroceso en nuestros derechos fundamentales?

La idea original, planteada en 2022, es ambiciosa: detectar y eliminar el CSAM antes de que se propague. Pero el método propuesto –monitorizar cada mensaje que circule en suelo europeo– levanta serias objeciones. ¿El precio de la seguridad es renunciar a la privacidad? La encriptación de extremo a extremo, esa barrera que protege nuestras conversaciones, podría convertirse en un recuerdo del pasado.

Un manifiesto firmado por más de 600 académicos de 34 países, en su mayoría ingenieros y expertos en criptografía, pone el grito en el cielo. En una carta abierta dirigida a la Presidencia de la UE, denuncian que la normativa no solo es ineficaz, sino que representa una amenaza para la privacidad de todos los ciudadanos. «La propuesta creará capacidades sin precedentes para la vigilancia, el control y la censura», advierten, «y conlleva un riesgo inherente de desviación de funciones y abuso por parte de regímenes menos democráticos». Duro, ¿no?

### La tecnología en el banquillo: ¿solución mágica o espejito de colores?

¿Realmente es posible detectar CSAM con precisión sin caer en falsos positivos? Los expertos lo ponen en duda. «Simplemente, no es factible realizar la detección de CSAM conocido y nuevo para cientos de millones de usuarios con un nivel aceptable de precisión», argumentan los académicos. La tecnología, por ahora, parece no estar a la altura.

Además, la propuesta de escanear los mensajes antes de que sean encriptados abre una puerta peligrosa. Si un tercero puede acceder a nuestras comunicaciones, la seguridad se esfuma. El sistema podría ser utilizado para fines mucho más oscuros que la lucha contra la pedofilia. ¿Quién nos asegura que no se utilizará para censurar opiniones políticas o perseguir a disidentes?

### El dilema europeo: ¿qué se revisa y cómo se revisa?

La nueva propuesta de reglamento ha suavizado algunos puntos, limitando el escaneo a imágenes y webs. Pero la sombra de la duda persiste. Carmela Troncoso, investigadora del Max Planck Institute for Security and Privacy y una de las impulsoras del manifiesto académico, advierte que incluso con estos cambios, el sistema es fácilmente burlable. Cambiar unos pocos píxeles en una imagen o modificar una URL puede ser suficiente para evadir los detectores.

Y aquí viene la pregunta del millón: ¿qué pasa si el sistema se equivoca? Que se identifique erróneamente un material como CSAM implica que las autoridades monitoricen el dispositivo sospechoso y custodien los archivos privados. ¿Estamos dispuestos a aceptar este margen de error?

Más allá de la tecnología: ¿cuál es el camino a seguir?

Los críticos de la propuesta coinciden en que la tecnología no es la solución mágica. «En lugar de seguir impulsando tecnologías de eficacia dudosa», señalan los académicos, «queremos volver a llamar la atención sobre las medidas recomendadas por organizaciones como la ONU». Educación, líneas de denuncia sensibles al trauma e intervenciones basadas en búsquedas por palabras clave son algunas de las alternativas planteadas.

¿Estamos ante una falsa dicotomía entre seguridad y privacidad? ¿Es posible proteger a los niños sin sacrificar nuestros derechos fundamentales? El debate está abierto, y la Unión Europea tiene la palabra.

Compartir
🔺 Tendencia