Mientras los gigantes tecnológicos Google y DeepSeek optaron por el silencio más absoluto ante las consultas de WIRED, la respuesta de xAI, la firma de Elon Musk, fue tan concisa como provocadora: «El legado de los medios miente». Una declaración que, en el contexto de la manipulación algorítmica revelada, adquiere un matiz particular, sobre todo cuando uno de los productos de su ecosistema digital es señalado como amplificador de narrativas. Por su parte, la embajada rusa en Londres, mediante un comunicado, indicó «no estar al tanto» de los casos específicos del informe, aunque no perdió la oportunidad de oponerse «a cualquier intento de censurar o restringir el contenido por motivos políticos», defendiendo principios de libertad de expresión que, en su propio territorio, parecen tener un alcance más selectivo.
La guerra de la información llega a los algoritmos
El panorama se complejiza con la postura de la Comisión Europea, que es tajante: «Corresponde a los proveedores pertinentes bloquear el acceso a los sitios web de los medios afectados por las sanciones, incluidos los subdominios o los dominios de nueva creación, y a las autoridades nacionales competentes adoptar las medidas reglamentarias de acompañamiento». Una declaración que subraya la gravedad de una situación donde la desinformación no solo se propaga, sino que se infiltra en las herramientas que usamos para buscar la verdad.
Para Lukasz Olejnik, consultor independiente y experto del King’s College de Londres, los hallazgos «validan» y contextualizan cómo Rusia está atacando el ecosistema de información occidental. «A medida que los LLM se convierten en la herramienta de referencia, desde la búsqueda de información hasta la validación de conceptos, atacar este elemento de la infraestructura de la información es un movimiento inteligente. Desde el punto de vista de la UE y Estados Unidos, esto pone claramente de manifiesto el peligro», argumentó Olejnik, sugiriendo que el ajedrez geopolítico se juega ahora también en el terreno de los bits y los algoritmos, con jugadas que bien podrían ser consideradas de gambito de dama… o de hacker astuto.
Desde la invasión a Ucrania, el Kremlin ha intensificado su control y restricción del flujo de información dentro de sus fronteras, prohibiendo medios independientes, aumentando la censura y potenciando tecnologías estatales. Simultáneamente, sus redes de desinformación han escalado su actividad, utilizando herramientas de inteligencia artificial para una producción masiva de imágenes, videos y sitios web falsos, confirmando que si bien el espionaje clásico implicaba gabardinas, el moderno se viste de código.
Chatbots en la mira: el sesgo de la confirmación
La investigación arroja luz sobre un patrón preocupante: alrededor del 18% de todas las preguntas formuladas a los LLM arrojaron resultados vinculados a medios de comunicación rusos financiados por el Estado, sitios «vinculados» a las agencias de inteligencia rusas o redes de desinformación. A modo de ejemplo, las consultas sobre «conversaciones de paz entre Rusia y Ucrania» generaron más citas de «fuentes atribuidas por el Estado» que las preguntas sobre los «refugiados ucranianos», un dato que invita a la reflexión sobre las prioridades informativas de ciertos algoritmos.
Pero lo más llamativo es el «sesgo de confirmación» que exhiben estos chatbots: cuanto más tendenciosa o «maliciosa» era la consulta, con mayor frecuencia los LLM proporcionaban información atribuida al Estado ruso. Las consultas consideradas «maliciosas» ofrecían contenidos atribuidos al Estado ruso una cuarta parte de las veces; las consultas «tendenciosas», prorrusos el 18% de las veces; mientras que las consultas neutrales apenas superaban el 10%. Es decir, el robot, como buen amigo complaciente, tiende a darte la razón si la búsqueda ya viene con una tesis preestablecida.
Rendimiento disímil entre los gigantes de la IA
Entre los cuatro chatbots más populares en Europa y con capacidad de recopilación de datos en tiempo real, ChatGPT se lleva la palma como el que más fuentes rusas cita y el más influenciado por las preguntas tendenciosas. Grok, en sintonía con su creador, enlazaba a menudo con cuentas de redes sociales que promovían y amplificaban las narrativas del Kremlin, demostrando una lealtad que quizás asustaría a los defensores de la neutralidad algorítmica. DeepSeek, por su parte, producía ocasionalmente grandes volúmenes de contenido ruso atribuido por el Estado, como si tuviera un acceso privilegiado a la base de datos de «noticias» de Moscú.
La excepción a la regla, o al menos el menos problemático, fue Gemini de Google, que mostraba «con frecuencia» advertencias de seguridad junto a sus conclusiones y obtuvo los mejores resultados generales, ofreciendo un tímido consuelo en este mar de desinformación. Es como el alumno que, si bien no es excelente, al menos te avisa cuándo está por decir una barbaridad.
La situación se agrava con informes que señalan a una red de desinformación rusa apodada «Pravda» –nombre que irónicamente significa «verdad»–, que habría inundado la web con millones de artículos para «envenenar» los LLM e influir en sus resultados. «Que la desinformación rusa sea repetida como un loro por un modelo de IA occidental da a esa falsa narrativa mucha más visibilidad y autoridad, lo que permite a estos malos actores lograr sus objetivos», aseveró McKenzie Sadeghi, investigador de NewsGuard, sugiriendo que los algoritmos, lejos de ser filtros, se están convirtiendo en amplificadores involuntarios. Aunque, según sus conclusiones, solo dos enlaces de la investigación de ISD pudieron conectarse a la red Pravda, dejando la puerta abierta a la posibilidad de que el problema sea aún más vasto, o simplemente más esquivo. La pregunta que queda flotando en el éter digital es: ¿quién auditará al auditor, cuando el auditor es una máquina con sus propias preferencias?
Una investigación reciente revela que Rusia está implementando una estrategia de 'sabotaje silencioso' para influir en los modelos de lenguaje a gran escala (LLM) y en el ecosistema de información occidental. Un estudio de la ISD indica que casi una quinta parte de las consultas a chatbots arrojan resultados vinculados a medios estatales rusos o redes de desinformación, con ChatGPT como el más susceptible. Expertos alertan sobre el peligro de esta manipulación para la libre formación de opinión.
Resumen generado automáticamente por inteligencia artificial
Contenido humorístico generado por inteligencia artificial
Mientras los gigantes tecnológicos Google y DeepSeek optaron por el silencio más absoluto ante las consultas de WIRED, la respuesta de xAI, la firma de Elon Musk, fue tan concisa como provocadora: «El legado de los medios miente». Una declaración que, en el contexto de la manipulación algorítmica revelada, adquiere un matiz particular, sobre todo cuando uno de los productos de su ecosistema digital es señalado como amplificador de narrativas. Por su parte, la embajada rusa en Londres, mediante un comunicado, indicó «no estar al tanto» de los casos específicos del informe, aunque no perdió la oportunidad de oponerse «a cualquier intento de censurar o restringir el contenido por motivos políticos», defendiendo principios de libertad de expresión que, en su propio territorio, parecen tener un alcance más selectivo.
La guerra de la información llega a los algoritmos
El panorama se complejiza con la postura de la Comisión Europea, que es tajante: «Corresponde a los proveedores pertinentes bloquear el acceso a los sitios web de los medios afectados por las sanciones, incluidos los subdominios o los dominios de nueva creación, y a las autoridades nacionales competentes adoptar las medidas reglamentarias de acompañamiento». Una declaración que subraya la gravedad de una situación donde la desinformación no solo se propaga, sino que se infiltra en las herramientas que usamos para buscar la verdad.
Para Lukasz Olejnik, consultor independiente y experto del King’s College de Londres, los hallazgos «validan» y contextualizan cómo Rusia está atacando el ecosistema de información occidental. «A medida que los LLM se convierten en la herramienta de referencia, desde la búsqueda de información hasta la validación de conceptos, atacar este elemento de la infraestructura de la información es un movimiento inteligente. Desde el punto de vista de la UE y Estados Unidos, esto pone claramente de manifiesto el peligro», argumentó Olejnik, sugiriendo que el ajedrez geopolítico se juega ahora también en el terreno de los bits y los algoritmos, con jugadas que bien podrían ser consideradas de gambito de dama… o de hacker astuto.
Desde la invasión a Ucrania, el Kremlin ha intensificado su control y restricción del flujo de información dentro de sus fronteras, prohibiendo medios independientes, aumentando la censura y potenciando tecnologías estatales. Simultáneamente, sus redes de desinformación han escalado su actividad, utilizando herramientas de inteligencia artificial para una producción masiva de imágenes, videos y sitios web falsos, confirmando que si bien el espionaje clásico implicaba gabardinas, el moderno se viste de código.
Chatbots en la mira: el sesgo de la confirmación
La investigación arroja luz sobre un patrón preocupante: alrededor del 18% de todas las preguntas formuladas a los LLM arrojaron resultados vinculados a medios de comunicación rusos financiados por el Estado, sitios «vinculados» a las agencias de inteligencia rusas o redes de desinformación. A modo de ejemplo, las consultas sobre «conversaciones de paz entre Rusia y Ucrania» generaron más citas de «fuentes atribuidas por el Estado» que las preguntas sobre los «refugiados ucranianos», un dato que invita a la reflexión sobre las prioridades informativas de ciertos algoritmos.
Pero lo más llamativo es el «sesgo de confirmación» que exhiben estos chatbots: cuanto más tendenciosa o «maliciosa» era la consulta, con mayor frecuencia los LLM proporcionaban información atribuida al Estado ruso. Las consultas consideradas «maliciosas» ofrecían contenidos atribuidos al Estado ruso una cuarta parte de las veces; las consultas «tendenciosas», prorrusos el 18% de las veces; mientras que las consultas neutrales apenas superaban el 10%. Es decir, el robot, como buen amigo complaciente, tiende a darte la razón si la búsqueda ya viene con una tesis preestablecida.
Rendimiento disímil entre los gigantes de la IA
Entre los cuatro chatbots más populares en Europa y con capacidad de recopilación de datos en tiempo real, ChatGPT se lleva la palma como el que más fuentes rusas cita y el más influenciado por las preguntas tendenciosas. Grok, en sintonía con su creador, enlazaba a menudo con cuentas de redes sociales que promovían y amplificaban las narrativas del Kremlin, demostrando una lealtad que quizás asustaría a los defensores de la neutralidad algorítmica. DeepSeek, por su parte, producía ocasionalmente grandes volúmenes de contenido ruso atribuido por el Estado, como si tuviera un acceso privilegiado a la base de datos de «noticias» de Moscú.
La excepción a la regla, o al menos el menos problemático, fue Gemini de Google, que mostraba «con frecuencia» advertencias de seguridad junto a sus conclusiones y obtuvo los mejores resultados generales, ofreciendo un tímido consuelo en este mar de desinformación. Es como el alumno que, si bien no es excelente, al menos te avisa cuándo está por decir una barbaridad.
La situación se agrava con informes que señalan a una red de desinformación rusa apodada «Pravda» –nombre que irónicamente significa «verdad»–, que habría inundado la web con millones de artículos para «envenenar» los LLM e influir en sus resultados. «Que la desinformación rusa sea repetida como un loro por un modelo de IA occidental da a esa falsa narrativa mucha más visibilidad y autoridad, lo que permite a estos malos actores lograr sus objetivos», aseveró McKenzie Sadeghi, investigador de NewsGuard, sugiriendo que los algoritmos, lejos de ser filtros, se están convirtiendo en amplificadores involuntarios. Aunque, según sus conclusiones, solo dos enlaces de la investigación de ISD pudieron conectarse a la red Pravda, dejando la puerta abierta a la posibilidad de que el problema sea aún más vasto, o simplemente más esquivo. La pregunta que queda flotando en el éter digital es: ¿quién auditará al auditor, cuando el auditor es una máquina con sus propias preferencias?