Google IA: Del escándalo «woke» a podcasts insólitos

Redacción Cuyo News
6 min
Cortito y conciso:

El artículo relata las vicisitudes y polémicas que Google ha enfrentado con su modelo de IA Gemini, desde las críticas por sesgos en la generación de imágenes hasta los fallos en la precisión de los resúmenes de búsqueda con IA. Se destaca la respuesta de Google ante estos problemas y su enfoque en la mejora continua, aunque los errores iniciales generaron controversia y burlas.

El gigante tecnológico Google, conocido por revolucionar la forma en que accedemos a la información, se ha encontrado en el ojo de la tormenta con su modelo de inteligencia artificial, Gemini. Desde acusaciones de sesgos hasta resultados de búsqueda dignos de un sketch cómico, la empresa ha tenido que navegar un mar de críticas y desafíos técnicos.

Cuando la IA se pone «woke«

El lanzamiento del generador de imágenes de Gemini en febrero de 2024 prometía ser un hito, pero rápidamente se convirtió en un dolor de cabeza. Contrario a los temores iniciales sobre imágenes racistas o sexistas, el modelo parecía empeñado en reescribir la historia, mostrando senadores estadounidenses del siglo XIX como mujeres negras o nativas americanas. Incluso, llegó a representar soldados alemanes de la época nazi como personas de color, lo que desató la furia de los republicanos y la burla de Elon Musk, quien no dudó en calificar a la IA como "racista y sexista".

Ante la avalancha de críticas, Google optó por desactivar la función de generación de imágenes de personas. "Las acciones de Alphabet volvieron a caer", lo que deja en evidencia el impacto que estas polémicas pueden tener en la percepción pública y en el valor de la empresa.

La búsqueda de la neutralidad y la responsabilidad

En un intento por mitigar los daños, los directivos de Google se reunieron para replantear la estrategia. Se contrató a expertos en seguridad y ética, y se definieron principios públicos para Gemini, enfatizando que "las respuestas no reflejan necesariamente las creencias u opiniones de Google". La empresa buscaba dejar claro que "los resultados de Gemini se basan en gran medida en lo que le pides que haga: Gemini es lo que tú haces que sea". Una jugada inteligente para cubrirse las espaldas ante futuros errores, aunque deja abierta la interrogante sobre cómo Google planea asumir la responsabilidad por las respuestas generadas por su IA.

De texto a podcast: ¿el futuro del periodismo?

En medio de la tormenta, Google Labs presentó Westminster Watch, un podcast generado por IA a partir de transcripciones parlamentarias británicas. La idea, que encantó a los directivos, incluido el propio Sundar Pichai, era una muestra del potencial de la IA para transformar la creación de contenido. Sin embargo, este proyecto quedó eclipsado por otros anuncios más llamativos, como el asistente digital Astra y la mejora de la IA generativa para las búsquedas.

¿Comer rocas o pegar el queso a la pizza? Los riesgos de la sobreconfianza en la IA

Precisamente, la integración de la IA en las búsquedas fue otro foco de controversia. La función AI Overviews, que ofrecía resúmenes generados por IA en la parte superior de la página de resultados, pronto se vio envuelta en polémicas. Al preguntar "¿cuántas rocas debo comer?", Gemini respondía con la recomendación de "comer al menos una roca pequeña al día". Y si un usuario buscaba cómo evitar que el queso se pegue a la pizza, la IA sugería "añadir aproximadamente 1/8 de taza de pegamento no tóxico a la salsa".

Las explicaciones para estos errores eran simples: la IA se basaba en información errónea o satírica encontrada en internet. Sin embargo, el problema radicaba en que los resúmenes de IA presentaban esta información como hechos verídicos. Ante el aluvión de críticas, Google se vio obligado a reducir temporalmente la presentación de los resúmenes para recalibrar el sistema.

"Lo único que hacen es quejarse", se lamentó Pandu Nayak, jefe científico de Google encargado de las búsquedas, reconociendo que no detectar todos los problemas antes del lanzamiento fue una lástima, pero no una sorpresa. A pesar de los fallos, Nayak defendió el potencial de la IA y reafirmó el compromiso de Google con la mejora continua. "Con lo que estamos comprometidos es con la mejora constante, porque garantizar que no vas a tener problemas no es una posibilidad", sentenció.

Y es que, al final, la IA es como el dulce de leche: a todos nos gusta, pero si nos pasamos de rosca, puede empalagarnos. Google lo sabe y está trabajando para encontrar el punto justo, aunque el camino esté lleno de obstáculos y algún que otro consejo culinario poco recomendable.

Compartir

🔺 Tendencia

🔺 Tendencia