Impacto del algoritmo: así afecta a la polarización en redes

Redacción Cuyo News
9 min
Cortito y conciso:

Investigadores de EE. UU. demostraron que el orden de los mensajes políticos en redes, como X, impacta directamente en la polarización, sin importar la ideología del usuario. Crearon una extensión de navegador para reordenar contenidos, priorizando aquellos con menos «actitudes antidemocráticas y animosidad partisana» (AAPA). Los resultados revelaron que reducir la exposición a mensajes polarizantes disminuye la polarización afectiva y las emociones negativas. Esto subraya el poder de los algoritmos y la posibilidad de mitigar la ‘grieta digital’, desafiando la opacidad de las plataformas.

Durante años, se debatió hasta el hartazgo si las redes sociales eran el espejo distorsionado de una sociedad ya polarizada o el motor que avivaba la hoguera de la división. Ahora, un equipo de investigadores estadounidenses parece ponerle un punto —o al menos una coma— a esa discusión eterna. Su estudio demuestra, sin vueltas, que el orden en el que se nos sirven los mensajes de carácter político en estas plataformas sí «afecta a la polarización», ese mal de época que fractura buena parte de nuestras sociedades. Lo curioso, o quizás lo más preocupante, es que este fenómeno es igual de potente sin importar la bandera política que flamee en el perfil del usuario.

Para millones de personas, el universo digital es mucho más que un pasatiempo; es la plaza pública, el ágora moderna donde se cuece la política. Es el canal principal para la politización, el lugar donde se reciben, comparten y opinan mensajes que moldean visiones de mundo. Con semejante peso específico, sería lógico pensar que el funcionamiento interno de los algoritmos que deciden qué vemos y qué no, debería ser transparente. Pero la realidad, como diría el clásico, es otra: la opacidad es la norma. Y en esa oscuridad, estimar el impacto real de estas decisiones algorítmicas en nuestras ideas políticas se vuelve una misión casi imposible.

¿Cómo hacer para espiar lo que ocurre en esa caja negra, para entender qué resortes internos mueven la aguja de la polarización, si las plataformas guardan sus secretos bajo siete llaves? Aquí es donde entra el ingenio. Tiziano Piccardi, de la Universidad de Stanford, y sus colegas, le torcieron el brazo a la lógica de la opacidad. Desarrollaron una extensión de navegador capaz de interceptar y reordenar, en tiempo real, el tan familiar _feed_ de ciertas redes sociales. La herramienta, valiéndose de un gran modelo de lenguaje (LLM), asignó una puntuación a cada contenido, calibrando hasta qué punto incluía «actitudes antidemocráticas y animosidad partisana» (AAPA). Así, sin pedir permiso a nadie —y al margen del todopoderoso algoritmo oficial—, se reordenaron los mensajes para ver qué pasaba.

El laboratorio digital y sus resultados

El laboratorio para este experimento no fue otro que X (antes Twitter), elegida por su rol protagónico en el debate político estadounidense. Se sumaron 1.256 participantes, todos debidamente informados de que sus _feeds_ serían un campo de pruebas digital. La experiencia se extendió durante las semanas previas a las elecciones presidenciales de 2024, un caldo de cultivo ideal para la circulación de mensajes políticos de alto voltaje. Durante una semana, los participantes fueron expuestos a dos tipos de _feeds_: uno empapado de contenido polarizado (AAPA) y otro, por contraste, desescalado. La métrica fue la «polarización efectiva» y la «experiencia emocional», medidas con encuestas durante y después del ensayo.

Los resultados, comparados con un grupo de control que navegó por sus redes sin intervención alguna, fueron elocuentes: la reordenación de contenidos «influenció significativamente la polarización afectiva». Y aquí viene lo interesante: no hubo diferencias significativas según la inclinación política de los usuarios. Es decir, tanto a la izquierda como a la derecha del espectro, la dosis de polarización recibida modificó el termómetro emocional. Si bien la manipulación del algoritmo «provocó cambios en las emociones negativas de los participantes durante el experimento», los autores notaron que estos efectos no persistieron «tras este».

Lo más promisorio, quizás, es la confirmación de que bajarle la temperatura a la discusión en redes no es una utopía. El estudio demuestra que la polarización podría reducirse con una simple, pero efectiva, reordenación de publicaciones, relegando aquellos contenidos que instigan a la división. Michael Bernstein, profesor de Informática en la Universidad de Stanford y coautor, no se anda con chiquitas: cree que esta herramienta podría «abrir nuevos caminos para promover más confianza social». Una declaración que suena a desafío en un ecosistema digital que parece diseñado para todo lo contrario.

La grieta digital y el desafío de los algoritmos

Pero no todo es color de rosa en el panorama digital. Mientras los investigadores buscan soluciones, el ecosistema de las redes sociales ha virado en los últimos años hacia un modelo donde la contención de la polarización parece estar en caída libre. Los equipos de moderación de contenidos, aquellos encargados de ponerle un freno a lo tóxico o al discurso de odio, se han reducido drásticamente, como en el caso de Meta, o directamente han sido barridos del mapa, como ocurrió con X. Ahora, la tarea recae en las llamadas «notas de la comunidad», una suerte de autogestión que, según varias investigaciones, ha dejado un agujero por el que se cuelan ahora los contenidos problemáticos, aumentando el odio y el acoso.

Además, la dinámica interna de estas plataformas mutó sin escalas. Si antes el _feed_ nos mostraba aquello que más gustaba a nuestros contactos o lo más comentado, ahora el algoritmo es el amo y señor. Es quien decide, con total autonomía, qué ve cada usuario y, por ende, qué puede o no volverse viral. De ahí que medir su incidencia en la configuración o, peor aún, en el refuerzo de las ideas políticas, no sea un mero capricho académico, sino una necesidad imperiosa para entender el pulso de nuestra democracia digital.

Desafiando la opacidad: una nueva metodología para viejos problemas

En este escenario, donde las plataformas deciden «no compartir datos», los investigadores se encuentran con «limitaciones sin precedentes». Es en este punto donde la profesora Jennifer Allen, del departamento de Tecnología, Operaciones y Estadística de la Universidad de Nueva York —y ajena al estudio—, no duda en aplaudir el ingenio de Piccardi y sus colegas. La metodología que presentaron es «una forma de investigación creativa», que no solo sortea la opacidad explícita de las empresas, sino que se «adapta al momento actual».

Allen incluso va más allá, sugiriendo que este modelo podría replicarse en otras redes y en distintas franjas de tiempo, para robustecer su validez. Lo cierto es que, en un mundo donde la información es poder y los algoritmos dictan la agenda, encontrar una rendija para observar su impacto sin pedir permiso a los dueños de la cancha, es un paso adelante. Un grito de «¡Acá estamos!» que busca democratizar el conocimiento sobre cómo se moldea nuestra percepción de la realidad en la era digital.

Compartir
🔺 Tendencia