MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents

📄 arXiv: 2601.03236v1 📥 PDF

作者: Dongming Jiang, Yi Li, Guanpeng Li, Bingzhe Li

分类: cs.AI

发布日期: 2026-01-06


💡 一句话要点

提出MAGMA:一种基于多图的Agentic记忆架构,用于提升AI Agent的长程推理能力。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: Agentic记忆 多图结构 长程推理 策略引导检索 知识图谱 大型语言模型 可解释性

📋 核心要点

  1. 现有记忆增强生成方法在长程推理中存在信息纠缠问题,限制了解释性和推理准确性。
  2. MAGMA通过多图结构解耦记忆表示,利用策略引导的图遍历实现查询自适应的检索。
  3. 实验结果表明,MAGMA在长时程推理任务中显著优于现有agentic记忆系统。

📝 摘要(中文)

记忆增强生成(MAG)通过外部记忆扩展大型语言模型,以支持长上下文推理。然而,现有方法主要依赖于单片记忆存储上的语义相似性,将时间、因果和实体信息纠缠在一起。这种设计限制了解释性和查询意图与检索证据之间的一致性,导致次优的推理准确性。本文提出了MAGMA,一种多图agentic记忆架构,它在正交的语义、时间、因果和实体图上表示每个记忆项。MAGMA将检索定义为在这些关系视图上的策略引导遍历,从而实现查询自适应选择和结构化上下文构建。通过将记忆表示与检索逻辑分离,MAGMA提供了透明的推理路径和对检索的细粒度控制。在LoCoMo和LongMemEval上的实验表明,在长时程推理任务中,MAGMA始终优于最先进的agentic记忆系统。

🔬 方法详解

问题定义:现有Memory-Augmented Generation (MAG)方法,特别是那些依赖于大型语言模型(LLM)的方法,在处理长上下文推理时,通常使用单片式的记忆存储。这种存储方式将时间、因果、实体等多种信息混杂在一起,导致检索到的信息与查询意图的相关性降低,进而影响推理的准确性。此外,这种单片式结构也缺乏可解释性,难以追踪推理路径。

核心思路:MAGMA的核心思路是将记忆表示解耦,使用多个图来分别表示不同类型的关系(语义、时间、因果、实体)。通过这种方式,可以更清晰地表达记忆之间的关系,并允许Agent根据查询的需要,选择性地遍历不同的图,从而更准确地检索到相关信息。这种解耦的设计也提高了模型的可解释性,使得推理过程更加透明。

技术框架:MAGMA的整体架构包含以下几个主要模块:1) 记忆存储模块:使用多个图结构来存储记忆,每个图表示一种关系。2) 检索策略模块:使用策略网络来学习如何在不同的图上进行遍历,以找到与查询最相关的信息。3) 上下文构建模块:将检索到的信息组合成上下文,输入到LLM中进行推理。4) 推理模块:利用LLM进行最终的推理。整个流程是:给定一个查询,检索策略模块决定在哪些图上进行遍历,检索到相关信息后,上下文构建模块将这些信息组合成上下文,最后LLM基于上下文进行推理。

关键创新:MAGMA的关键创新在于其多图结构的记忆表示和策略引导的检索方式。与现有方法相比,MAGMA不再依赖于单片式的记忆存储,而是使用多个图来分别表示不同类型的关系。此外,MAGMA使用策略网络来学习如何在不同的图上进行遍历,从而实现查询自适应的检索。这种解耦的设计提高了模型的可解释性和推理准确性。

关键设计:MAGMA的关键设计包括:1) 图的构建方式:如何将记忆项表示为图中的节点,以及如何根据不同的关系构建图的边。2) 策略网络的设计:如何设计策略网络,使其能够学习到有效的图遍历策略。3) 上下文构建方式:如何将检索到的信息组合成上下文,以最大程度地提高LLM的推理能力。具体的参数设置、损失函数、网络结构等技术细节在论文中有详细描述,此处不再赘述。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在LoCoMo和LongMemEval数据集上的实验结果表明,MAGMA在长时程推理任务中始终优于最先进的agentic记忆系统。具体而言,MAGMA在这些数据集上取得了显著的性能提升,证明了其多图结构和策略引导检索的有效性。实验结果还表明,MAGMA具有更好的可解释性,能够提供更清晰的推理路径。

🎯 应用场景

MAGMA适用于需要长程推理和可解释性的AI Agent应用,例如:对话系统、智能助手、知识图谱问答、复杂任务规划等。通过提供更准确和可解释的上下文信息,MAGMA可以显著提升Agent的性能和可靠性,使其能够更好地完成复杂任务。

📄 摘要(原文)

Memory-Augmented Generation (MAG) extends Large Language Models with external memory to support long-context reasoning, but existing approaches largely rely on semantic similarity over monolithic memory stores, entangling temporal, causal, and entity information. This design limits interpretability and alignment between query intent and retrieved evidence, leading to suboptimal reasoning accuracy. In this paper, we propose MAGMA, a multi-graph agentic memory architecture that represents each memory item across orthogonal semantic, temporal, causal, and entity graphs. MAGMA formulates retrieval as policy-guided traversal over these relational views, enabling query-adaptive selection and structured context construction. By decoupling memory representation from retrieval logic, MAGMA provides transparent reasoning paths and fine-grained control over retrieval. Experiments on LoCoMo and LongMemEval demonstrate that MAGMA consistently outperforms state-of-the-art agentic memory systems in long-horizon reasoning tasks.