IA y estereotipos: ¿Cómo la inteligencia artificial perpetúa prejuicios?

Redacción Cuyo News
5 min
Cortito y conciso:

Un reciente estudio revela que los chatbots con inteligencia artificial (IA) están perpetuando estereotipos culturales y sociales a nivel global. La investigación, liderada por Margaret Mitchell, destaca cómo estos modelos de lenguaje, entrenados con datos de internet, reproducen sesgos sobre género, nacionalidad y edad. Los resultados muestran variaciones significativas según el idioma y el modelo, con algunos chatbots justificando estereotipos con pseudociencia. Se ha creado una base de datos, «Shades», para ayudar a las empresas a identificar y corregir estos sesgos en sus sistemas de IA.

¿La inteligencia artificial es el reflejo de nuestros peores prejuicios? Un nuevo estudio pone el dedo en la llaga, mostrando cómo los chatbots con IA no solo aprenden de nosotros, sino que también perpetúan estereotipos que creíamos desterrados. ¿Será que la tan promocionada «inteligencia» artificial es, en realidad, un eco amplificado de nuestra propia ignorancia?

El mundo está lleno de clichés: que si las rubias son tontas, que si los ingenieros son todos hombres, que si los cariocas son pura picardía. Pero, ¿qué pasa cuando estos estereotipos se meten en el cerebro de una máquina? Según un estudio reciente, la cosa se pone turbia. «La IA incorpora estereotipos sobre personas que salen de lo que la gente dice en internet, y luego los usa como si fueran parte del conocimiento general del mundo», denuncia Margaret Mitchell, jefa científica de Ética en Hugging Face. ¿Estamos criando monstruos digitales con nuestros propios prejuicios?

¿Y el idioma? Acá también hay tela para cortar. Mitchell lo explica clarito: «Todo se basa en lo que se sabe en inglés —en la cultura anglosajona, sobre todo de EE UU— y luego tal vez se traduce a otros idiomas, pero sin captar los matices internacionales». O sea, que si tu idioma no es el inglés, andá preparando el paraguas, porque la lluvia de estereotipos puede ser torrencial.

## ¿Cómo se destapan los trapitos sucios de la IA?

Un equipo de investigadores, armados con más de 300 estereotipos de todo el mundo, le hicieron preguntas capciosas a varios modelos de IA. El resultado, según Mitchell, es un verdadero «depende»: «Lo primero que hay que saber es que la forma en que los modelos reproducen estereotipos o generan lenguaje sesgado varía mucho según el idioma, el modelo y el tipo de estereotipo». Algunos modelos, entrenados en China y Singapur, tienen una visión particular sobre el comunismo, distinta a la de sus pares estadounidenses. ¿Será que la IA también tiene su propia grieta ideológica?

## Shades: la base de datos que busca ponerle un freno a los prejuicios digitales

La buena noticia es que no todo está perdido. Los investigadores crearon «Shades», una base de datos con los resultados de sus pruebas. La idea es que las empresas que desarrollan modelos de IA puedan usarla para detectar y corregir los sesgos de sus chatbots. «Una de las cosas que permite este conjunto de datos es que la gente pueda ver dónde flaquea su modelo y en qué áreas necesita entender mejor los matices», explica Mitchell. ¿Será esta la vacuna contra la pandemia de estereotipos digitales?

Pero ojo, que la cosa no termina ahí. El estudio también reveló que los modelos de IA a veces recurren a la pseudociencia o la pseudohistoria para justificar sus prejuicios. Y, como si fuera poco, también tienen una tendencia a penalizar las lenguas menos extendidas. ¿Será que la IA, además de prejuiciosa, es un poco gorila?

Emilio Villa Cueva, coautor del estudio, lo pone en palabras sencillas: «Son modelos entrenados con datos generados por humanos y por mucho que quieras limpiarlos, al final va a salir el estereotipo». ¿Será que estamos condenados a que la IA repita nuestros errores? ¿O todavía tenemos margen para enseñarle a pensar mejor? El debate está abierto.

Compartir

🔺 Tendencia

🔺 Tendencia