En medio de la creciente demanda energética de la inteligencia artificial, los «pequeños modelos» (SLM) emergen como una alternativa más eficiente y sostenible. A diferencia de los grandes modelos como ChatGPT que operan en la nube, estos SLM pueden ejecutarse en dispositivos como computadoras y teléfonos móviles, reduciendo significativamente el consumo de energía y los problemas de privacidad. Si bien son menos precisos que sus contrapartes más grandes, su rápido desarrollo y la optimización de hardware específico prometen un futuro donde la IA se ejecute de manera más equilibrada y respetuosa con el medio ambiente.
## ¿La salvación verde de la inteligencia artificial? Los «pequeños modelos» entran en escena
En este despelote que es la carrera por la inteligencia artificial (IA), donde cada día sale un invento nuevo, están apareciendo con más fuerza los llamados «pequeños modelos» (SLM, por sus siglas en inglés). No son como esos monstruos de la IA tipo ChatGPT o Google Gemini, sino versiones más compactas que buscan ser más eficientes. ¿La gran diferencia? A veces hasta podés hacerlos correr en tu compu o en el celu.
Esto le da un giro copernicano al sistema actual, donde todo pasa por la «nube» y sus centros de datos hambrientos de energía. Ojo, que acá no estamos hablando de cambiar figuritas: Goldman Sachs ya avisó que la IA va a inflar las necesidades energéticas de estos centros ¡en un 165% para el 2030! Y ojo, que todos andan invirtiendo plata como si no hubiera mañana en esas infraestructuras, OpenAI (para poner un ejemplo) está tirando manteca al techo con socios para levantar centros de datos.
Pero, ¿qué pasa si te digo que hay una chance de evitar esta locura? Ahí entran los SLM, como el Mistral Small 3.1 que corre en una Mac tranqui o el TinyLlama 1.1B que hasta lo podés probar en un smartphone. Google, que no se queda atrás, sacó el Gemma 3 1B, listo para usar en el celu. La idea es que los desarrolladores los metan en sus apps para que laburen sin necesidad de internet.
### ¿Más chicos, más ecológicos?
Verónica Bolón-Canedo, investigadora de IA en el Centro de Investigación en Tecnologías de la Información y de las Comunicaciones de la Universidad de A Coruña, lo explica clarito: «Los pequeños modelos están optimizados para tener menos parámetros, así que la red es más chica. Cuanto más chico es el modelo, más eficiente es en consumo de energía, porque necesita hacer menos operaciones y necesita menos espacio de almacenamiento».
Además, si lográs que el modelo funcione en tu dispositivo, te ahorrás el viaje de los datos a un centro de datos. «Esto, obviamente, tiene el coste de transmitir los datos y, además, los grandes centros de datos consumen más energía. Todo eso te lo ahorras si lo haces en tu propio dispositivo», remata Bolón-Canedo.
Obvio, no todo es jauja. Estos modelos más chicos son menos precisos y no sirven para cualquier tarea. Olvidate de generar imágenes complejas, por ejemplo. Pero ojo, que están avanzando a pasos agigantados.
### El futuro híbrido de la ia: ¿Local y en la nube?
George Tsirtsis, director de tecnología de Qualcomm en Europa, lo pone así: «El desarrollo de modelos de lenguaje pequeños, modelos multimodales y de razonamiento de alta calidad avanza a gran velocidad. Las compañías preparan estos modelos de manera activa para aplicaciones comerciales y para la inferencia en el propio dispositivo».
La Agencia Internacional de la Energía ya sacó un informe que pone los pelos de punta: los centros de datos, que ahora consumen el 1,5% de la energía mundial, podrían llegar al 3% en 2030. ¡Una cifra que supera las necesidades energéticas de todo Japón!
Tsirtsis insiste en que «el procesamiento de la IA en un dispositivo suele ser mucho más eficiente a nivel energético que preguntar a modelos de IA alojados en centros de datos». Pero claro, si la IA labura solo en tu dispositivo, te come la batería. Por eso, empresas como Qualcomm están desarrollando procesadores especiales para la IA, las NPU, que hacen la inferencia de forma eficiente.
Ahora, ¿para qué van a servir estas IA «locales»? Bolón-Canedo cree que para tareas como generar textos sencillos o resúmenes puede andar bien. Pero para cosas más pesadas, como la comprensión profunda o la IA multimodal, vas a seguir necesitando un modelo grande.
Tsirtsis coincide en que el futuro pasa por un enfoque híbrido. En definitiva, las aplicaciones de IA van a recurrir a la nube cuando sea necesario y van a resolver otras tareas en el propio dispositivo. Una forma de encontrar un equilibrio entre rendimiento y eficiencia energética.
Así que ya sabés, mientras los gigantes tecnológicos se pelean por construir centros de datos gigantescos, los «pequeños modelos» se abren camino como una alternativa más sostenible. ¿Será esta la solución para una IA más amigable con el planeta? El tiempo dirá, pero la cosa promete.