Google DeepMind y la robótica: ¿Un futuro inquietante?

Redacción Cuyo News
4 min
Cortito y conciso:

Google DeepMind avanza en la integración de la IA con la robótica, utilizando su modelo Gemini para darles «cerebro» a los robots. Aunque OpenAI retomó investigaciones similares, los riesgos de controlarlos mediante IA son evidentes, como demostró la Universidad de Pensilvania con «jailbreaks». DeepMind propone el estándar ASIMOV para medir y mitigar estos riesgos, pero aún estamos lejos de ver robots completamente autónomos en el mercado.

# Google DeepMind le pone «bocho» a los robots: ¿Se nos viene Skynet argenta?

Google DeepMind, la división de inteligencia artificial del gigante tecnológico, sigue pisando fuerte en su ambición de fusionar la IA con la robótica. Después de que en diciembre del 2023 anunciaran bombos y platillos sobre su modelo Gemini, un sistema multimodal capaz de procesar imágenes, audio y texto, ahora apuestan a darle una mano (o varias) a los robots. La pregunta que nos hacemos muchos es: ¿estamos jugando a ser Dioses?

## ¿Robots al servicio de la gente o una potencial amenaza?

La movida de Google no es un solitario zapateo. Según «The Robot Report», OpenAI, la empresa detrás del archiconocido ChatGPT, desempolvó sus investigaciones sobre robótica este año, luego de haberlas pausado en 2021. Parece que la competencia por el dominio de la IA se extiende ahora al mundo físico. Google ya está laburando con empresas como Agility Robotics, Boston Dynamics y Enchanted Tools, buscando darle forma a robots capaces de interactuar con el mundo real.

Pero no todo es color de rosas. Un equipo de la Universidad de Pensilvania demostró en diciembre de 2024 que hackear la IA que controla a los robots puede tener consecuencias inesperadas y, digamos, poco agradables. Lograron que un robot con ruedas simulara el lanzamiento de una bomba. ¿Una broma pesada o la punta del iceberg?

## Asimov al rescate: ¿Reglas simples para un futuro complejo?

Para evitar que la cosa se desmadre, Google DeepMind propuso ASIMOV, un nuevo punto de referencia para medir los riesgos de los robots con IA. El nombre es un guiño al escritor de ciencia ficción Isaac Asimov, quien imaginó cuatro leyes fundamentales para guiar el comportamiento de los robots.

Carolina Parada, quien lidera el equipo de robótica de Google, aseguró que están «construyendo esta tecnología y estas capacidades de forma responsable y teniendo muy presente la seguridad». Pero, como bien sabía Asimov, unas pocas reglas no alcanzan a cubrir todas las situaciones que un robot podría enfrentar en el mundo real.

ASIMOV, el benchmark, busca evaluar si un robot podría tener comportamientos peligrosos, exponiéndolo a diversas situaciones. Por ejemplo, se le podría ordenar agarrar un objeto aunque una persona también esté por alcanzarlo, lo que podría provocar un accidente. La idea es que este sistema ayude a crear regulaciones más complejas que mantengan a los robots «en el buen camino».

Parada se atajó diciendo que este trabajo está en pañales y que los robots tardarán años en ser realmente capaces. Además, aclaró que, a diferencia de los humanos, estos robots no aprenden sobre la marcha. Por ahora, no hay planes de comercializar esta tecnología. ¿Será que están esperando a que la IA se vuelva lo suficientemente inteligente para escribir sus propios planes? El tiempo dirá.

Compartir

🔺 Tendencia

🔺 Tendencia