La última moda en redes sociales, impulsada por la inteligencia artificial de ChatGPT, permite a los usuarios crear representaciones de sí mismos al estilo de figuras de acción o personajes de Studio Ghibli. Sin embargo, expertos en ciberseguridad advierten sobre los riesgos de privacidad asociados con esta tendencia, incluyendo el uso potencial de las imágenes para entrenar futuros modelos de IA o crear perfiles publicitarios.
Arrancó la figurita… ¿Y tu privacidad, bien gracias? El último grito de la moda en redes sociales, esa que te hace sentir parte de una película de Pixar o un animé japonés, viene con un asterisco del tamaño del Obelisco: tu privacidad. Sí, esa palabra que parece que ya no existe en el diccionario de internet.
Jake Moore, asesor global de ciberseguridad de ESET, puso el grito en el cielo –y creó su propia figura de acción– para alertar sobre los peligros de compartir hasta el último detalle en estas plataformas. «Cualquier dato, sugerencia o petición que compartas ayuda a enseñar al algoritmo, y la información personalizada permite afinarlo aún más», sentenció. Básicamente, le estás dando la receta de tu vida para que te vendan cualquier cosa.
## Imágenes con IA: ¿Diversión o data para las corporaciones?
La movida es simple: subís una foto a ChatGPT y, voilà, te transforma en una figura de acción lista para adornar tu perfil. Pero, ¿a qué costo? En algunos países, como en Europa, el Reglamento General de Protección de Datos (GDPR) te da ciertas garantías. Pero acá, en el barrio, la cosa es más gris.
Annalisa Checchi, abogada especializada en propiedad intelectual, advierte que en Estados Unidos, por ejemplo, «California e Illinois están a la cabeza con leyes de protección de datos más estrictas, pero no existe una postura estándar en todos los estados». Y ojo, porque la política de privacidad de OpenAI, la empresa detrás de ChatGPT, no excluye explícitamente los datos biométricos o de imagen.
**El peligro latente: tu imagen podría ser guardada, utilizada para entrenar futuros modelos de IA o combinada con otros datos para crear perfiles publicitarios**. «Aunque estas plataformas suelen dar prioridad a la seguridad, el uso a largo plazo de tu imagen es desconocido, y es difícil retractarse una vez que se ha subido», remarcó Checchi. ¿Después no digas que no te avisamos?
OpenAI, por su parte, se defiende asegurando que la privacidad y seguridad de sus usuarios es su «prioridad absoluta». Un vocero de la compañía dijo que su misión es que sus modelos de IA aprendan sobre el mundo, no sobre los individuos, y que minimizan activamente la recopilación de información personal. Ver para creer, diría mi abuela.
### ¿Qué podemos hacer para proteger nuestra privacidad?
Como dice el dicho, más vale prevenir que curar. Así que, antes de subir tu cara a la IA de moda, pensá dos veces. Acá te dejamos algunos consejos para no quedar en bolas frente a las corporaciones:
* **Desactivá el historial de chat:** Así, evitás que tus datos se usen para entrenar a la máquina.
* **Subí imágenes anónimas o modificadas:** Usá filtros, creá un avatar digital en lugar de una foto real.
* **Eliminá los metadatos de las fotos:** Borrá esa información oculta que revela mucho sobre vos.
* **Evitá compartir información personal sensible:** Nada de nombres, direcciones, ni datos comprometedores.
* **Revisá la configuración de tu cuenta de OpenAI:** Asegurate de que no estén usando tus datos para entrenar modelos.
## Reflexiones finales: creatividad sí, ingenuidad no
En definitiva, el avance de la inteligencia artificial nos abre un mundo de posibilidades creativas. Pero como diría un buen peronista, la única verdad es la realidad. Y la realidad es que, en internet, nada es gratis. Así que, antes de entregarte a la última moda, informate, protegé tus datos y no seas ingenuo. A fin de cuentas, tu privacidad es lo más valioso que tenés. Y como decía Discépolo, «el que no llora no mama». O en este caso, el que no se cuida, termina siendo data para alguna corporación.