La inteligencia artificial (IA) está hambrienta de datos, pero la protección de la privacidad se presenta como un desafío mayúsculo. Investigaciones recientes revelan cómo las extensiones de IA en navegadores recopilan información sensible de los usuarios, generando interrogantes sobre la manipulación y el uso ético de esta tecnología. Mientras las empresas buscan alternativas para entrenar a la IA sin comprometer la privacidad, expertos advierten sobre los riesgos crecientes en ciberseguridad.
# ¿La inteligencia artificial nos está espiando? El debate sobre la privacidad y el futuro de los datos
La inteligencia artificial (IA) es como un adolescente con apetito voraz: necesita datos, muchos datos, para crecer y ser útil. Pero, ¿a qué costo? La escasez de esta «materia prima» en la proporción necesaria plantea un serio problema, especialmente para los agentes de IA, esos robots conversacionales que prometen actuar en nuestro nombre, comprando, respondiendo correos o gestionando facturas. Para ello, necesitan saber de nosotros, conocer nuestra vida, tal vez incluso vulnerar nuestra privacidad, aunque sea con nuestro «permiso».
Las grandes tecnológicas, esas que nos venden la moto del futuro, ya están investigando cómo lidiar con este dilema. Pero mientras tanto, el acceso a nuestros datos se convierte en un arma de doble filo. Según Hervé Lambert, gerente de operaciones de servicio al cliente en Panda Security, este acceso conlleva un riesgo de «manipulación comercial, exclusión o incluso extorsión». ¿Será que estamos vendiendo nuestra alma al diablo digital?
## Extensiones de ia: ¿espías en tu navegador?
Un estudio reciente de University College London (UCL) y la Universidad Mediterránea de Reggio Calabria destapó la olla: las extensiones de IA para navegadores ejecutan «prácticas generalizadas de seguimiento, elaboración de perfiles y personalización que plantean serios problemas de privacidad». ¿Cómo la ves?
Durante las pruebas, estos asistentes de IA transmitieron contenidos de nuestras búsquedas, datos de formularios bancarios y de salud, incluso nuestra dirección IP. ¡Como para preocuparse! Además, demostraron ser capaces de inferir datos sensibles como la edad, el sexo, los ingresos y los intereses de las personas, utilizando esta información para personalizar las respuestas. ¿El único que se salvó de la quema? Perplexity, un asistente que no mostró evidencia de elaboración de perfiles o personalización.
«Aunque muchas personas son conscientes de que los motores de búsqueda y las plataformas de redes sociales recopilan información sobre ellos para publicidad dirigida, estos asistentes de navegador de IA operan con un acceso sin precedentes al comportamiento en línea de los usuarios en áreas de su vida en línea que deberían permanecer privadas», sentenció Anna Maria Mandalari, investigadora de la UCL y autora principal del estudio. Y agregó: «Si bien ofrecen comodidad, nuestros hallazgos muestran que, a menudo, lo hacen a costa de la privacidad del usuario, sin transparencia ni consentimiento». ¿Demasiado lindo para ser verdad?
## El peligro oculto detrás de las políticas de privacidad
Hervé Lambert coincide con las conclusiones del estudio y va más allá: «Las tecnológicas están recopilando datos de los usuarios, incluso personales, para entrenar y mejorar modelos de aprendizaje inteligentes y automáticos. Esto ayuda a las empresas a ofrecer, por llamarlo de forma diplomática, servicios más personalizados. Pero desarrollar sus nuevas tecnologías, evidentemente, plantea un sinfín de preguntas y preocupaciones sobre la privacidad y el consentimiento del usuario. Al final, no sabemos cómo las empresas y sus sistemas inteligentes están utilizando a nuestros datos personales».
Los riesgos potenciales son muchos: manipulación comercial o geopolítica, exclusión, extorsión y suplantación de identidad. ¿El detalle más preocupante? Todo esto ocurre con nuestro consentimiento, consciente o no.
«Las plataformas están actualizando sus políticas de privacidad y es un poco sospechoso. De hecho, dichas actualizaciones, y eso es importante, incluyen cláusulas que les permiten el uso de datos», advierte Lambert. Pero, seamos honestos, ¿quién se lee esos mamotretos legales antes de aceptar los términos y condiciones?
Google, por ejemplo, ya cambió sus condiciones de privacidad para, según ellos, «mejorar los servicios». En la práctica, esto implica que nuestras interacciones con sus aplicaciones de IA a través de Gemini serán utilizadas. ¿La solución que nos ofrecen? Una «Conversación Temporal» para eliminar consultas recientes y evitar que la compañía las use «para personalizar» futuras consultas o «entrenar modelos». ¿Es suficiente?
## Ciberseguridad: la otra cara de la moneda
Marc Rivero, jefe investigador de seguridad en Kaspersky, pone el foco en los riesgos asociados al uso de datos de WhatsApp para la IA: «Plantea serias dudas en materia de privacidad. Las apps (aplicaciones) de mensajería privada son uno de los entornos digitales más sensibles para los usuarios, ya que contienen conversaciones íntimas, datos personales e incluso información confidencial. Permitir que una herramienta de IA acceda automáticamente a estos mensajes sin un consentimiento claro y explícito pone en entredicho la confianza de los usuarios».
Y añade: «Desde el punto de vista de la ciberseguridad, esto también resulta preocupante. Los ciberdelincuentes están aprovechando cada vez más la IA para ampliar sus ataques de ingeniería social y recopilar datos personales. Si los atacantes encuentran la forma de explotar este tipo de interacciones, podríamos estar ante una nueva vía para el fraude, el robo de identidad y otras actividades delictivas». ¿Estamos creando el monstruo que nos va a devorar?
## ¿Hay alternativas para salvar la privacidad?
Ante este panorama, las empresas tecnológicas buscan alternativas para entrenar a la IA sin comprometer la privacidad. Mark Zuckerberg, por ejemplo, está apostando por la «automejora de la IA», sistemas capaces de aumentar el rendimiento a partir de avances en los equipos, la programación y el autoaprendizaje.
Otra vía es la generación de datos sintéticos por parte de la propia máquina para entrenarse y entrenar a otras. «Ya no estás limitado por los datos, porque el modelo puede generar arbitrariamente más y más experiencias», explica Azalia Mirhoseini, profesora asistente de ciencias de la computación en la Universidad de Stanford y científica senior de Google DeepMind.
Pero, incluso estas alternativas tienen sus riesgos. Chris Painter, director de políticas de la organización sin fines de lucro de investigación de IA METR, advierte que, si la IA acelera el desarrollo de sus propias capacidades, podría ser utilizada también para la piratería, el diseño de armas y la manipulación de personas. ¿Estamos jugando con fuego?
Mientras tanto, un estudio reciente de Accenture revela que la mayoría de las organizaciones españolas (95%) no están preparadas para proteger sus sistemas y procesos impulsados por IA. ¿Será que vamos demasiado rápido en esta carrera tecnológica sin pensar en las consecuencias?
La discusión está abierta y, como siempre, el futuro es incierto. Lo que sí está claro es que la privacidad y la ciberseguridad son dos caras de la misma moneda en este nuevo mundo dominado por la inteligencia artificial. ¿Estaremos a la altura del desafío?