I modelli linguistici di oggi possiedono immense conoscenze, ma non possono apprendere dall’esperienza. Ogni interazione riparte da zero, rendendo la maggior parte degli “agenti” attuali semplici workflow basati su LLM, non veri agenti intelligenti.
Il prossimo salto evolutivo?
Non modelli più grandi, ma AI che memorizzano, apprendono e si adattano nel tempo. Sono chiamati: “stateful agents”: sistemi con memoria persistente, capaci di evolvere anche dopo il deployment.
Cosa li rende diversi?
✅ Identità continua tra le interazioni
✅ Memoria strutturata, oltre la semplice chat history
✅ Apprendimento reale, senza bisogno di riaddestramento
Dove sta già accadendo?
📌 Meta’s LongMem (2023) – AI con memoria a lungo termine (https://arxiv.org/abs/2312.07294)
📌 Memory-GPT di OpenAI (in arrivo?) – Personalizzazione con memoria persistente (https://openai.com/research/)
📌 DeepMind’s Adaptive Agents – AI che si adatta all’esperienza (https://www.youtube.com/watch?v=U93bUQ1roiw)
Il termine "agente AI" si è inflazionato, ma la differenza è chiara: impariamo fin da subito a distinguere tra agenti realmente stateful o "solo" LLM con un prompt più articolato?
Stateful Agents: The Missing Link in LLM Intelligence | Letta
Iacopo Cricelli's AI Blog © 2024 by Iacopo Cricelli is licensed under CC BY-SA 4.0