当前的 LLM 应用开发正面临严重的“记忆碎片化”问题:我们有用于短期记忆的 KV Cache,有用于知识检索的 RAG,还有用于长期交互的 MemGPT ...