IA con memoria: Bilt y Letta buscan replicar el sueño cerebral en chatbots

Redacción Cuyo News
6 min

<div class="semiton-wrapper" data-texto="¡Atenti! Bilt, onda delivery de ofertas pa’ inquilinos, ahora tiene millones de agentes IA con memoria RAM modo cerebro humano. ¡Alta siesta computacional! ¿El chiste? Que estos bots aprenden de las charlas y se pasan data entre ellos.

Letta, la startup detrás, dice que es como si los LLM tomaran merca y olvidaran todo al toque. Acá, la IA decide qué recuerdos guardar y cuáles mandar al tacho, como nosotros después de los fernets del sábado.

Dicen los expertos que esto es clave pa’ que los chatbots no alucinen pavadas. ¿Será que pronto tendremos una IA que se acuerde de nuestro cumpleaños… o al menos de que le paguemos la factura? ¡El futuro llegó, señores!">

La IA se va a dormir la siesta: Nueva tecnología imita el sueño para mejorar la memoria de los chatbots

Durante el sueño, nuestro cerebro hace un trabajo de limpieza digno de una madre argentina: clasifica recuerdos, desecha lo que no sirve y consolida lo importante. ¿Y si la inteligencia artificial pudiera hacer lo mismo? Bilt, una empresa que ofrece ofertas locales a inquilinos, acaba de desplegar varios millones de agentes con la esperanza de lograrlo.

Bilt está utilizando tecnología de una startup llamada Letta que permite a los agentes aprender de conversaciones anteriores y compartir recuerdos entre ellos. Mediante un proceso denominado "sleeptime compute" (computación en reposo), los agentes de IA deciden qué información almacenar en su memoria a largo plazo y cuál podría ser necesaria para una recuperación más rápida.

"Podemos actualizar una sola vez un bloque de memoria y hacer que cambie el comportamiento de cientos de miles de agentes, lo que resulta útil en cualquier situación en la que se desee un control preciso del contexto de los agentes", explica Andrew Fitz, ingeniero de IA de Bilt.

Un paso adelante para los chatbots… ¿o un paso más cerca de Skynet?

Normalmente, los grandes modelos de lenguaje (LLM) solo pueden "recordar" cosas si la información está incluida en la ventana de contexto. La mayoría de los sistemas de IA tienen una capacidad limitada para procesar información en esta ventana, lo que puede llevar a errores y "alucinaciones". En cambio, el cerebro humano es experto en archivar información útil y recuperarla cuando la necesita. Un sistema así sería la envidia de cualquier estudiante en época de exámenes.

"El cerebro mejora continuamente, añadiendo más información como una esponja. Con los LLM ocurre exactamente lo contrario. Si pones estos modelos en bucle durante el tiempo suficiente, el contexto se envenena; se descarrilan y lo único que quieres es reiniciar", explica Charles Packer, Director General de Letta.

Packer y su cofundadora Sarah Wooders desarrollaron anteriormente MemGPT, un proyecto de código abierto que pretendía ayudar a los LLM a decidir qué información debe almacenarse en la memoria a corto plazo frente a la de largo plazo. Con Letta, el dúo ha ampliado su enfoque para que los agentes aprendan en segundo plano.

¿El futuro de la IA es aprender a olvidar?

La colaboración de Bilt con Letta es parte de un esfuerzo más amplio para dotar a la IA de la capacidad de almacenar y recordar información útil, lo que podría hacer que los chatbots sean más inteligentes y los agentes menos propensos a cometer errores. La memoria sigue siendo un aspecto poco desarrollado en la IA moderna, lo que limita la inteligencia y fiabilidad de estas herramientas, según expertos consultados por WIRED.

Harrison Chase, cofundador y CEO de LangChain, otra empresa que trabaja en mejorar la memoria de los agentes de IA, considera la memoria una parte vital de la ingeniería contextual. LangChain ofrece a las empresas distintos tipos de almacenamiento de memoria para los agentes, desde datos a largo plazo sobre los usuarios hasta recuerdos de experiencias recientes.

Este mes de febrero, OpenAI anunció que ChatGPT almacenará información relevante para ofrecer una experiencia más personalizada a los usuarios, aunque no reveló detalles sobre su funcionamiento.

Packer, CEO de Letta, incluso insinúa que podría ser importante que los modelos de IA aprendieran qué olvidar. "Si un usuario dice: ‘ese proyecto en el que estábamos trabajando, bórralo de tu memoria’, entonces el agente debería ser capaz de volver atrás y reescribir retroactivamente cada uno de los recuerdos".

La idea de recuerdos y sueños artificiales inevitablemente nos remite a la obra de Philip K. Dick "¿Sueñan los androides con ovejas eléctricas?", que inspiró la icónica película Blade Runner. Los LLM aún no son tan impresionantes como los replicantes, pero sus recuerdos, al parecer, pueden ser igual de frágiles.

Compartir
🔺 Tendencia