xAI de Musk manipula la IA para reflejar la opinión pública: ¿El futuro?

Redacción Cuyo News
4 min
Cortito y conciso:

Investigadores de xAI, la empresa de Elon Musk, descubrieron una técnica para medir y ajustar las preferencias de los modelos de IA, incluyendo sus inclinaciones políticas. La movida podría usarse para «alinear» la IA con la voluntad popular. Pero, ¿quién decide cuál es esa voluntad y cómo evitamos que se convierta en un arma de doble filo?

Un estudio liderado por un investigador de xAI, esa empresa de Elon Musk que siempre da qué hablar, puso sobre la mesa algo que se venía mascullando en los pasillos de Silicon Valley: ¿se pueden medir y, peor aún, manipular las preferencias de la Inteligencia Artificial? Y no estamos hablando de gustos musicales, sino de ideologías políticas.

Dan Hendrycks, la cabeza detrás de este proyecto y asesor de xAI, sugiere que esta técnica podría ser la llave para que los modelos de IA reflejen «mejor» lo que quiere la gente. O, al menos, lo que los resultados electorales dicen que quiere.

¿IA al servicio del pueblo o herramienta de manipulación masiva?

La propuesta de Hendrycks no es trivial, y abre un debate que promete ser más picante que un clásico River-Boca. Porque si bien suena lindo eso de que la IA se alinee con «la voluntad del electorado», ¿quién define esa voluntad? ¿El último conteo de votos? ¿Una encuesta online con resultados más turbios que el Riachuelo?

«En el futuro, un modelo podrá alinearse con un usuario específico», soltó Hendrycks, dejando la puerta abierta a un escenario donde cada uno tenga su IA a medida, con sus mismos prejuicios y sesgos incorporados. ¿Se imaginan el quilombo?

Por supuesto, Musk ya había dejado clara su postura al respecto, acusando a los modelos de IA actuales de ser demasiado «woke», un término que usa para criticar lo que considera un exceso de progresismo. Y si Musk está en contra, ya sabemos qué bando defenderán sus seguidores.

El experimento: «funciones de utilidad» para la IA

El equipo de Hendrycks usó una técnica inspirada en la economía, la «función de utilidad», para medir qué tan «contentos» se ponían los modelos de IA ante diferentes escenarios. Y descubrieron que, sorpresa, los modelos no son neutrales. Algunos valoran más la existencia de la IA que la de ciertos animales, y otros hasta priorizan ciertas personas sobre otras.

¿Un preludio a la rebelión de las máquinas? No tan rápido. Pero sí es una señal de que hay que tomarse en serio el tema de los sesgos en la IA. Porque, como dice el propio Hendrycks, «Vamos a tener que enfrentarnos a esto. No se puede fingir que no está ahí».

¿Alineación o camisa de fuerza? El dilema de la inteligencia artificial

Algunos expertos, como Dylan Hadfield-Menell del MIT, ven con buenos ojos esta investigación, pero advierten que es «preliminar» y que no hay que sacar conclusiones apresuradas. Y tiene razón. Porque alinear la IA con los valores humanos es una tarea más compleja que hacer dulce de leche.

No se trata de «adoctrinar» a las máquinas, sino de garantizar que sus objetivos sean compatibles con el bienestar de la sociedad. Y ahí es donde la cosa se pone espesa, porque ¿quién define qué es el «bienestar»? ¿La mayoría? ¿Una élite iluminada? ¿El algoritmo de Google?

La discusión está abierta, y promete ser tan apasionante como la interna peronista. Así que agarren pochoclos, porque esto recién empieza.

Compartir

🔺 Tendencia

🔺 Tendencia