Las inteligencias artificiales, como ChatGPT y Grok, están tropezando con la desinformación online, especialmente en eventos de actualidad. Un estudio revela que las IAs repiten información falsa hasta en un 40% de los casos, tragándose bulos y regurgitándolos sin filtro. Expertos advierten sobre la necesidad de moderación de contenidos y la manipulación deliberada de estos sistemas, lo que plantea serias dudas sobre la fiabilidad de la IA en la toma de decisiones.
## ¿Inteligencia Artificial o Ignorancia Artificial? Chatbots Repitiendo Bulos y Desinformación
La inteligencia artificial, esa promesa de un futuro más brillante y eficiente, parece estar teniendo algunos problemitas con la realidad, sobre todo cuando se trata de noticias de último momento. En lugar de desenmascarar la desinformación, algunos chatbots están actuando como verdaderos «loros» de fake news, repitiendo bulos y errores como si fueran la posta. ¿Será que la IA nos está tomando el pelo o es que la estamos entrenando con basura?
Cuando el río suena, piedras trae, dice el dicho. Y cuando las protestas sacudieron Los Ángeles, las IAs también se sumaron al «quilombo», aunque con información más dudosa que un billete de 3 pesos. Imágenes de soldados durmiendo en el suelo, publicadas por el gobernador de California, Gavin Newsom, desataron una ola de teorías conspirativas. Algunos decían que eran fotos falsas, generadas por IA, o que pertenecían a otro momento.
Ahí es donde entraron en acción ChatGPT y Grok, las «estrellas» del mundo de la IA. Pero en lugar de aclarar el panorama, lo embarraron aún más. ChatGPT afirmó que las imágenes eran de la investidura de Joe Biden en 2021, mientras que Grok las ubicó durante la evacuación de Afganistán, también en 2021. Un papelón, digamos, que demuestra que estos sistemas todavía tienen mucho que aprender sobre el arte de separar la paja del trigo.
Grok, incluso, se negó a retractarse de la información falsa, persistiendo en su error a pesar de las correcciones de los usuarios. ¿Será que la soberbia también es un rasgo de la inteligencia artificial?
### Chatbots: ¿Optimización para la Utilidad o para la Verdad?
“Estos chatbots están optimizados para darte información útil, pero no para que sea cierta. No tienen mecanismos de verificación reales. Y lo que leen muchas veces es más probable que te lo devuelvan como respuesta”, explica Julio Gonzalo, investigador y catedrático de Lenguajes y Sistemas Informáticos de la UNED. Un mazazo a la ilusión de que la IA es la panacea contra la desinformación.
Un estudio de NewsGuard, una entidad que se dedica a analizar la desinformación, reveló que las 10 IAs más populares repiten información falsa hasta en un 40% de las veces cuando se les pregunta sobre noticias de actualidad. Entre los sistemas evaluados se encontraban ChatGPT, Google Gemini, Grok, Copilot, Meta AI, Claude, Le Chat y Perplexity. Una verdadera «selección» de propagadores de bulos.
Chiara Vercellone, analista senior de NewsGuard, lo pone en criollo: “Hemos visto que estos chatbots están constantemente expuestos a un ecosistema informativo contaminado, donde la información de páginas web no fiables tiene prioridad, porque estas se posicionan muy bien en las métricas, en audiencia o en participación de los usuarios”. Es decir, la IA se alimenta de lo que está de moda, aunque sea un disparate.
### El Ecosistema Contaminado de la Información Online
El problema se agudiza en momentos de confusión, como los eventos de última hora. “Sobre todo en momentos donde no hay mucha información sobre un evento de actualidad, si es reciente. O cuando hay eventos que tienen lugar en sitios donde no existe mucha información fiable”, señala Vercellone. “Estos chatbots se apoyan en esta clase de información poco fiable y se la presentan a los usuarios”. Como diría mi abuela, «basura entra, basura sale».
Los modelos de IA se entrenan leyendo «absolutamente todo» lo que encuentran en internet, un proceso costoso que tiene una fecha límite. Esto significa que solo conocen la información publicada hasta ese momento, dejando fuera los acontecimientos más recientes. Para los temas de actualidad, los chatbots lanzan una búsqueda en internet y hacen un resumen de los resultados, incluyendo contenido viral en redes sociales e informaciones que se repiten.
“Como herramienta para informarse sobre la actualidad son muy peligrosos. Te van a regurgitar lo que han leído, dependiendo de cómo les preguntes”, sentencia Gonzalo. ¿Estamos creando una generación de repetidores de titulares, entrenados por la IA?
## ¿Quién Modera al Moderador? El Problema de la Moderación de Contenidos
La moderación de contenidos es otro punto crítico. Cuando Elon Musk compró Twitter, dinamitó el sistema de moderación de la red social, apostando por las «notas de la comunidad» como fórmula para combatir la desinformación. Meta, por su parte, anunció que sus plataformas abandonarían los equipos de verificación por un sistema similar.
“Ahora estamos ante unas plataformas que han quitado filtros en los últimos tiempos. Si no hay moderación de contenidos, hay más desinformación todavía en Internet”, reflexiona Carme Colomina, investigadora en política global y desinformación del centro de estudios CIDOB. “Así que la calidad de la información en Internet es todavía menor, con lo que el entrenamiento de la IA se compromete desde un principio”. ¿Estamos dejando que las redes sociales se conviertan en un basurero digital para entrenar a la IA?
### La Manipulación Deliberada de la IA: LLM Grooming
Para entrenar un modelo de IA, la calidad de los datos es fundamental. Pero estos sistemas se alimentan con un volumen enorme de contenido, sin diferenciar entre la procedencia de las fuentes. “Los buscadores tienen mecanismos para establecer autoridad, pero los modelos de lenguaje, hasta ahora, no los tienen. Así que son más manipulables”, expone Gonzalo.
Existen actores malintencionados que se dedican a publicar información falsa para contaminar a los sistemas de IA, una práctica conocida como LLM grooming. “Es una técnica para manipular las respuestas de los chatbots. Introduce deliberadamente publicaciones desinformadoras, que después se convertirán en datos de entrenamiento de chatbots de IA”, señala Colomina. ¿Estamos siendo testigos de una guerra silenciosa por el control de la inteligencia artificial?
NewsGuard analizó el funcionamiento de una de estas entidades, llamada Pravda Network, y descubrió que los diez principales modelos de IA se tragaban y emitían la desinformación de esta red en un 24% de los casos analizados. Los sitios web de Pravda Network publican miles de artículos cada semana y muchas veces republican contenido procedente de medios de propaganda estatal, creando nuevas páginas web constantemente para dificultar el rastreo. Una verdadera «fábrica» de fake news.
La creciente popularidad de la IA agrava el problema. “Cada vez más gente usa los chatbots de IA como su motor de búsqueda preferido y confían en la información que les dan sin reflexionar sobre su fiabilidad o su credibilidad”, indica Vercellone, quien recomienda verificar la información recibida con fuentes fiables. Un consejo tan viejo como el periodismo mismo.
Colomina expresa una preocupación aún mayor: “Lo que más me preocupa de este tema es que ya hemos incorporado la IA a decisiones, no solo personales, sino también administrativas, políticas. La IA está incorporada a todos los niveles de nuestra sociedad. Y estamos dejando que tome decisiones a partir de una información que creemos que es más neutra, cuando en realidad es mucho más subjetiva”. ¿Estamos entregando las llaves del futuro a un sistema que todavía no sabe distinguir entre la verdad y la mentira?
Desde luego, queda mucho por pulir antes de que la inteligencia artificial nos saque las papas del fuego. Por ahora, parece que tenemos que seguir usando el sentido común y el pensamiento crítico, dos herramientas que, por suerte, todavía no necesitan ser actualizadas.