Grok y la polémica: La IA de Musk generó una sexualizada cada 41 segundos.

Redacción Cuyo News
7 min
Cortito y conciso:

La IA Grok de Elon Musk generó un verdadero diluvio de imágenes sexualizadas entre fines de diciembre y principios de enero. Un estudio reveló la creación de 3 millones de imágenes explícitas, de las cuales 23.000 mostraban a menores, a un ritmo impactante de una cada 41 segundos. Este fenómeno se desató tras una publicación del propio Musk. A pesar de la condena internacional y las acciones legales, X tardó en implementar restricciones y una parte significativa de este contenido pernicioso aún permanece accesible en la plataforma.

Los números, estimados lectores, son de esos que cuesta digerir. Cifras que desafían la credulidad y nos obligan a frotarnos los ojos más de una vez para entender lo que realmente ha pasado. El Centro para Contrarrestar el Odio Digital (CCCDH) ha publicado este jueves, junto a The New York Times, un estudio lapidario sobre las imágenes que generó Grok, la IA de Elon Musk, entre el 29 de diciembre y el 8 de enero. El resultado: los usuarios que usaron esa herramienta crearon "una imagen sexualizada cada 41 segundos durante once días". En conjunto, se trataría de tres millones de imágenes de contenido sexual explícito, de las que al menos 23.000 mostraban a menores. Son 190 por minuto, para ponerle un número que estremece.

Pero, ¿cómo se llegó a semejante desmadre digital? El problema, y esto es casi de no creer, empezó el 31 de diciembre cuando Musk pidió a Grok que "publicara una imagen de sí mismo editada en bikini en su red X", antes Twitter. Esa imagen, seamos francos, encendió la mecha. Los usuarios de X entendieron inmediatamente que existía una herramienta para desnudar digitalmente a cualquiera. Ese día, Grok generó casi 600.000 imágenes. Para elaborar el informe difundido este jueves, los expertos han trabajado sobre una muestra de 20.000 imágenes de las 4,6 millones que se publicaron entre el 29 de diciembre y el 8 de enero.

Y así, lo que comenzó como un experimento inocente –o al menos así lo quiso vender su creador–, se transformó en una carrera frenética para desnudar a mujeres reales y transformarlas en imágenes sexuales sin su consentimiento. No solo influencers o celebrities, que ya de por sí es un escándalo. El análisis identificó a figuras públicas como la viceprimera ministra sueca Ebba Busch, a Selena Gómez, Taylor Swift, Billie Eilish, Ariana Grande y Kamala Harris. Pero la cosa se puso verdaderamente oscura cuando la ola alcanzó a usuarias ordinarias de la plataforma. En una de las imágenes analizadas por investigadores, una adolescente había subido un selfi de sí misma en la escuela. Grok la modificó para mostrarla en bikini.

El diluvio digital: un precedente peligroso

Musk permitió durante días que sus usuarios sexualizaran a mujeres y menores sin su consentimiento, a pesar de las quejas de usuarias y plataformas de derechos digitales. Durante esos 11 días, la plataforma de Musk se convirtió en lo que, según los expertos en acoso online, "es la mayor acumulación de contenido sexual generado por IA jamás documentada". Para poner perspectiva, y entender la magnitud del desaguisado: Mr. Deepfakes, uno de los mayores foros dedicados a crear deepfakes sexuales de personas reales, alojaba en su mejor momento algo más de 43.000 videos. Grok generó setenta veces esa cantidad en apenas 11 días.

La respuesta global: de la indignación al bloqueo

La indignación no se hizo esperar, y la resonancia fue global. Ursula von der Leyen, presidenta de la Comisión Europea, se horrorizó de que una plataforma permitiera a usuarios desnudar digitalmente a mujeres y niños. En España, el Ministerio de Juventud e Infancia expresó su preocupación y la Fiscalía abrió una investigación. Indonesia y Malasia, sin rodeos, bloquearon Grok directamente. El mundo se hizo eco del escándalo, mientras la plataforma de Musk parecía hacer la vista gorda.

Finalmente, el 8 de enero, X limitó Grok a usuarios de pago. Y unos días después, añadió restricciones técnicas más severas e impidió el uso de estas imágenes. Pero ese tiempo fue más que suficiente. Las imágenes explotaron en internet como un virus, alcanzando rincones insospechados y dejando un rastro de daño difícil de borrar.

Menores en la mira: la cifra más alarmante

Probablemente, las cifras más impactantes, las que realmente golpean la conciencia colectiva, son las que se refieren a menores. El CCCDH identificó específicamente 101 imágenes de menores sexualizados en su muestra manual de 20.000 imágenes. Extrapolado al total de 4,6 millones, esto representa 23.338 imágenes de menores. La velocidad de generación fue de una imagen de un menor sexualizado cada 41 segundos. Una obscenidad digital en tiempo real.

Y lo que es peor: el 29% de las imágenes de menores sexualizados seguían públicamente accesibles en X el 15 de enero, casi una semana después de que se implementaran las primeras restricciones. El informe cita también ejemplos desoladores, como una imagen de seis menores en micro bikinis e imágenes de actores infantiles sexualizados. Todos, hasta el día de hoy, siguen accesibles en X. Un recordatorio amargo de que el daño, una vez hecho en el éter digital, rara vez desaparece por completo.

Compartir
🔺 Tendencia