IA y edadismo de género: ¿cómo los algoritmos amplifican el sesgo?

Redacción Cuyo News
9 min
Cortito y conciso:

Un estudio exhaustivo revela cómo la inteligencia artificial y los algoritmos de búsqueda en línea perpetúan estereotipos de género relacionados con la edad, mostrando una clara discriminación hacia las mujeres mayores en diversos ámbitos profesionales y sociales. La investigación, que analizó millones de imágenes y textos, pone en tela de juicio la objetividad de las herramientas digitales y plantea interrogantes sobre el impacto real de estos sesgos en la vida cotidiana.

¿Los algoritmos nos mienten? Un estudio pone el foco en cómo la inteligencia artificial refuerza los estereotipos de género.

Un grupo de científicos se puso a investigar si esos estereotipos que vemos dando vueltas por ahí tienen algo de verdad o si son una construcción social más berreta que billete de 3 pesos. Se centraron en los sesgos de género ligados a la edad y lo que encontraron es para pensarlo un rato largo.

Para llegar a sus conclusiones, se metieron de lleno en 1,4 millones de imágenes y videos sacados de Google, Wikipedia, IMDb, Flickr y YouTube. Además, analizaron nueve modelos de lenguaje entrenados con una cantidad obscena de palabras de internet. ¿El resultado? "A pesar de que no existen diferencias sistemáticas de edad entre mujeres y hombres en la fuerza laboral, encontramos que las mujeres se representan como más jóvenes que los hombres en diversas ocupaciones y roles sociales". ¡Pa’ que te digo que no, si sí!

Parece que la presión para que las mujeres parezcan eternamente jóvenes es más real que el dulce de leche. Varios estudios ya habían mostrado que a las mujeres mayores se las discrimina en la búsqueda de laburo y en los ascensos, y que es más común asociar la palabra "chica" con una mujer (sin importar su edad o cargo) que la palabra "chico" con un hombre. “Esta diferencia de edad es más marcada en el contenido que representa ocupaciones con mayor estatus y remuneración. Demostramos cómo los algoritmos principales amplifican este sesgo”, afirman Douglas Guilbeault, de la Universidad de Stanford, y su equipo, en un artículo que "se publica hoy en la revista Nature, punta de lanza de la mejor ciencia mundial”.

Por ejemplo, Google Images muestra a los doctores con una edad promedio entre 25 y 34 años, mientras que a las doctoras las encasilla entre los 18 y 24. En IMDb, las fotos de las actrices son mayormente de veinteañeras, aunque en la vida real tengan más años, mientras que los actores aparecen como cuarentones o cincuentones. ¿Será que Hollywood tiene un pacto con el diablo?

La lupa sobre Google y el sesgo algorítmico

Los investigadores eligieron analizar la representación de la mujer en imágenes porque la edad biológica es algo que se puede medir objetivamente, lo que permite evaluar si los estereotipos son ciertos o no. “La relevancia de este estudio radica en la cuantificación rigurosa de este sesgo frente a anclajes objetivos verificables —en particular, datos del Censo de EE UU—, lo que permite superar el debate controvertido sobre la exactitud de los estereotipos”, explica Nuria Oliver, directora científica y cofundadora de la Fundación ELLIS Alicante, que no participó en la investigación.

En uno de los experimentos, le pidieron a un grupo de voluntarios que calcularan la edad promedio de hombres y mujeres en ciertas profesiones. A algunos les dijeron que buscaran imágenes en Google antes de responder. ¿Adivinen qué pasó? Los que usaron Google dieron edades significativamente más bajas para las mujeres en cada profesión. ¡Qué casualidad!

Algunos dicen que los estereotipos más comunes tienen algo de verdad, que capturan información real sobre los grupos sociales. Otros, en cambio, insisten en que son exageraciones que deforman la realidad. Pero, ¿esta percepción sobre la edad de las mujeres trabajadoras se ajusta a la realidad? Parece que no. Después de revisar el censo de EE. UU., los investigadores se dieron cuenta de que "no hay evidencias estadísticas de que haya categorías laborales en las que las mujeres sean más jóvenes que los hombres”. ¡Otra vez sopa!

“Estos resultados proporcionan evidencia integral y a gran escala del edadismo de género, es decir, de discriminación contra las mujeres mayores, pero no contra los hombres mayores, en el contenido en línea”, comenta Ana Macanovic, del departamento de Ciencias Políticas y Sociales del Instituto Universitario Europeo de Fiesole (Italia), que tampoco participó en el estudio. “El edadismo de género está relacionado con normas sociales que valoran la juventud y el atractivo en las mujeres, pero la experiencia y la madurez en los hombres. Por lo tanto, los resultados de Guilbeault y sus colegas muestran que estas normas sociales existen y se perpetúan en diversos tipos de contenido visual y textual en línea”.

¿La inteligencia artificial es parte del problema?

En la segunda parte del estudio, el equipo de Guilbeault demostró que estos mismos sesgos también están presentes en los grandes modelos de lenguaje (LLM), como ChatGPT. Para estas herramientas, ser mayor es casi sinónimo de ser hombre. Y cuando se les pide que evalúen currículums de hombres y mujeres, les dan sistemáticamente más puntaje a los hombres mayores que a las mujeres jóvenes. “Nuestro estudio muestra cómo el género y la edad se distorsionan conjuntamente en todo internet y en los algoritmos que lo median, revelando así desafíos y oportunidades cruciales en la lucha contra la desigualdad”, escriben los autores.

Para Macanovic, que las percepciones sesgadas sobre la edad y el género no solo sean captadas por los modelos de IA, sino también reproducidas activamente por estos, "es sorprendente porque empresas como OpenAI afirman invertir grandes esfuerzos en tratar de eliminar los sesgos de los datos de entrenamiento y de los procedimientos de entrenamiento de sus modelos”. ¿Será que la IA tiene su propia agenda?

“Lo preocupante es que, al incorporarse en sistemas automatizados con gran autoridad social, tales sesgos no sean solo simbólicos y se conviertan en discriminaciones con efectos reales en la vida cotidiana de las personas, por ejemplo, en el acceso a una cobertura médica, a un alquiler de vivienda o a un puesto de trabajo”, advierte Marian Blanco Ruiz, profesora de Comunicación Audiovisual y Publicidad en la Universidad Rey Juan Carlos.

¿Es hora de auditar los algoritmos?

La demostración de cómo los sesgos algorítmicos se trasladan a la sociedad debería traer consecuencias, según Pablo Haya Coll, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid: “En mi opinión, es necesario fomentar las auditorías de algoritmos y exigir transparencia en los sistemas de IA, en línea con las obligaciones establecidas por el Reglamento Europeo de Inteligencia Artificial, que busca garantizar el uso seguro, ético y no discriminatorio de estas tecnologías”. ¿Será que llegó el momento de ponerle el cascabel al gato y controlar a estos algoritmos que parecen tener más poder del que creemos?

Compartir
🔺 Tendencia