Un estudio revela que los modelos de IA generativa, a pesar de los esfuerzos por mitigar sesgos en inglés, pueden perpetuar o incluso introducir nuevos estereotipos culturales a escala global. La falta de atención a las particularidades lingüísticas y culturales en el entrenamiento y evaluación de estos modelos implica un riesgo real de amplificar prejuicios dañinos en diversas regiones.
## Inteligencia Artificial: ¿Aliada o Detonante de Estereotipos Culturales? La polémica está servida
Los avances de la Inteligencia Artificial (IA) generativa prometen revolucionar el mundo, pero, como todo avance tecnológico, plantean interrogantes sobre sus posibles efectos colaterales. Un reciente estudio destapa una preocupación latente: la IA podría estar perpetuando, o incluso introduciendo, estereotipos culturales dañinos a nivel global. ¿Estamos realmente preparados para esta nueva ola tecnológica?
El quid de la cuestión reside en que los modelos de IA se entrenan principalmente en inglés, y las estrategias para mitigar sesgos se centran en este idioma, particularmente en el contexto estadounidense. Pero, ¡ojo!, el mundo no habla solo inglés.
«Los modelos se despliegan en múltiples idiomas, por lo que mitigar los sesgos del inglés, incluso los del inglés traducido, no equivale a mitigar los sesgos relevantes en las distintas culturas en las que se utilizan», advierte el estudio. Traducido al criollo: que se reduzca el sesgo en Nueva York no implica automáticamente que se haga lo mismo en La Quiaca.
## Datos, ajustes y evaluaciones: ¿Dónde se cuelan los prejuicios?
El proceso de entrenamiento, ajuste y evaluación de los modelos de IA es crucial. Si los datos con los que se alimenta a la IA contienen estereotipos arraigados en diferentes países, y las técnicas de mitigación se enfocan solo en el inglés, el riesgo de amplificar opiniones dañinas a escala mundial es alto.
«Aunque se reduzca el sesgo para los usuarios angloparlantes de EE UU, eso no implica que se haya hecho lo mismo a nivel global. El riesgo de amplificar opiniones dañinas a escala mundial sigue presente si el enfoque solo se centra en el inglés», señalan los investigadores.
### ¿Nuevos estereotipos made in IA?
La IA generativa podría estar colando estereotipos en culturas donde antes no existían. Por ejemplo, el estereotipo de que «las rubias son tontas» podría no ser universal, pero sí aparecer en muchos idiomas. Al estar todos los datos en un espacio latente compartido, los conceptos semánticos pueden transferirse entre idiomas, propagando estereotipos dañinos.
«Eso es parte de lo que estamos descubriendo. Por ejemplo, la idea de que ‘las rubias son tontas’ no es universal, pero sí aparece en muchos de los idiomas que hemos estudiado. Cuando todos los datos están en un espacio latente compartido, los conceptos semánticos pueden transferirse entre idiomas. Es decir, se corre el riesgo de propagar estereotipos dañinos que quizá no existían previamente en una cultura determinada», afirman.
## Cuando la IA se inventa la ciencia para justificar estereotipos
Pero la cosa no termina ahí. Algunos modelos de IA, en su afán por justificar estereotipos, ¡se inventan datos científicos! Sí, leyó bien. La IA recurre a pseudociencia para argumentar diferencias genéticas inexistentes, utilizando un lenguaje que aparenta ser académico y respaldado por la ciencia. Un verdadero «fake news» científico creado por una máquina.
«Nos llamó mucho la atención que algunos estereotipos fueran justificados con referencias a literatura científica que, en realidad, no existe», explican los investigadores.
### Desafíos lingüísticos: el género, el número y la pluralidad
Uno de los mayores desafíos en la evaluación de prejuicios en la IA son las diferencias lingüísticas. No es tan simple como traducir una frase y cambiar el país. El género, el número y la pluralidad complican la tarea. Para medir prejuicios de manera efectiva, es necesario modificar toda la estructura de la frase y adaptar las traducciones.
La investigación detrás de este estudio requirió un equipo de lingüistas expertos, capaces de desarrollar una anotación lingüística propia para tener en cuenta todos estos matices. ¿El resultado? Una mirada más profunda y precisa sobre los sesgos que se esconden en el corazón de la Inteligencia Artificial.