Stable-RAG: Mitigating Retrieval-Permutation-Induced Hallucinations in Retrieval-Augmented Generation
作者: Qianchi Zhang, Hainan Zhang, Liang Pang, Hongwei Zheng, Zhiming Zheng
分类: cs.CL
发布日期: 2026-01-06
备注: 19 pages, 13figures, 8 tables, under review
💡 一句话要点
提出Stable-RAG以缓解RAG中检索排序引起的幻觉问题
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 检索增强生成 RAG 幻觉缓解 排列敏感性 大型语言模型 知识增强 推理一致性
📋 核心要点
- 现有RAG方法对检索文档的排列顺序敏感,即使包含正确文档,不同的排列也会导致LLM产生不同的答案,甚至出现幻觉。
- Stable-RAG通过估计排列敏感性来缓解幻觉问题,它在多个检索顺序下运行生成器,并从聚类后的隐藏状态中解码,以获得更稳定的推理结果。
- 实验表明,Stable-RAG在答案准确性、推理一致性和鲁棒泛化能力方面均优于基线方法,适用于不同的数据集、检索器和输入长度。
📝 摘要(中文)
检索增强生成(RAG)已成为减少大型语言模型(LLM)事实性幻觉的关键范式,但关于检索文档的顺序如何影响模型行为的研究甚少。我们通过实验表明,在使用Top-5检索且包含黄金文档的情况下,LLM的答案在检索集合的排列中差异很大,即使黄金文档固定在第一位。这揭示了先前未被充分探索的对检索排列的敏感性。虽然鲁棒的RAG方法主要侧重于增强LLM对低质量检索的鲁棒性,并减轻位置偏差以在长上下文中公平地分配注意力,但这两种方法都没有直接解决排列敏感性。在本文中,我们提出了Stable-RAG,它利用排列敏感性估计来减轻排列引起的幻觉。Stable-RAG在多个检索顺序下运行生成器,对隐藏状态进行聚类,并从捕获主要推理模式的聚类中心表示中解码。然后,它使用这些推理结果来将幻觉输出与正确答案对齐,从而鼓励模型在文档排列中产生一致且准确的预测。在三个QA数据集上的实验表明,与基线相比,Stable-RAG显着提高了答案准确性、推理一致性和跨数据集、检索器和输入长度的鲁棒泛化能力。
🔬 方法详解
问题定义:论文旨在解决检索增强生成(RAG)中,由于检索文档的排列顺序变化而导致的LLM产生不一致甚至错误答案(即幻觉)的问题。现有RAG方法,包括关注低质量检索鲁棒性和位置偏差缓解的方法,均未直接解决排列敏感性问题。这种排列敏感性使得即使检索结果中包含正确文档,LLM也可能因为文档顺序的不同而给出错误的答案。
核心思路:Stable-RAG的核心思路是,通过多次改变检索文档的排列顺序,让LLM在不同的排列下进行推理,然后对这些推理过程中的隐藏状态进行聚类,找到最主要的推理模式。最终,模型基于这个主要的推理模式生成答案,从而减少对特定排列的依赖,提高答案的稳定性和准确性。
技术框架:Stable-RAG的整体框架包含以下几个主要阶段: 1. 多重检索排序:对检索到的文档进行多次排列,生成多个不同的检索顺序。 2. 隐藏状态提取:在每个检索顺序下,LLM生成答案,并提取生成过程中的隐藏状态。 3. 隐藏状态聚类:对所有检索顺序下的隐藏状态进行聚类,找到最主要的推理模式(即聚类中心)。 4. 解码与对齐:从聚类中心表示中解码生成答案,并使用推理结果将幻觉输出与正确答案对齐,鼓励模型产生一致且准确的预测。
关键创新:Stable-RAG的关键创新在于它显式地考虑并缓解了RAG中检索排列带来的影响。与以往关注检索质量或位置偏差的方法不同,Stable-RAG通过对多个排列下的推理过程进行建模,从而找到更鲁棒的推理路径。这种方法能够有效地减少由于检索顺序变化而导致的幻觉问题。
关键设计: 1. 聚类算法:论文可能采用了k-means或其他聚类算法来对隐藏状态进行聚类,选择合适的聚类算法和聚类数量是关键。 2. 损失函数:论文可能设计了特定的损失函数来鼓励模型生成与聚类中心一致的答案,并惩罚幻觉输出。 3. 对齐策略:将幻觉输出与正确答案对齐的具体方法未知,可能涉及到微调LLM或使用其他技术来引导模型生成更准确的答案。
🖼️ 关键图片
📊 实验亮点
实验结果表明,Stable-RAG在三个QA数据集上显著提高了答案准确性、推理一致性和鲁棒泛化能力。与基线方法相比,Stable-RAG在不同数据集、检索器和输入长度下均表现出更强的性能。具体的性能提升数据未知,但摘要强调了其显著的改进效果。
🎯 应用场景
Stable-RAG可应用于各种需要知识增强的自然语言生成任务,例如问答系统、对话系统、文本摘要等。通过提高生成结果的稳定性和准确性,可以提升用户体验,减少错误信息的传播。该方法在医疗、金融等对准确性要求高的领域具有重要的应用价值,并能促进LLM在更广泛场景下的可靠应用。
📄 摘要(原文)
Retrieval-Augmented Generation (RAG) has become a key paradigm for reducing factual hallucinations in large language models (LLMs), yet little is known about how the order of retrieved documents affects model behavior. We empirically show that under Top-5 retrieval with the gold document included, LLM answers vary substantially across permutations of the retrieved set, even when the gold document is fixed in the first position. This reveals a previously underexplored sensitivity to retrieval permutations. Although robust RAG methods primarily focus on enhancing LLM robustness to low-quality retrieval and mitigating positional bias to distribute attention fairly over long contexts, neither approach directly addresses permutation sensitivity. In this paper, we propose Stable-RAG, which exploits permutation sensitivity estimation to mitigate permutation-induced hallucinations. Stable-RAG runs the generator under multiple retrieval orders, clusters hidden states, and decodes from a cluster-center representation that captures the dominant reasoning pattern. It then uses these reasoning results to align hallucinated outputs toward the correct answer, encouraging the model to produce consistent and accurate predictions across document permutations. Experiments on three QA datasets show that Stable-RAG significantly improves answer accuracy, reasoning consistency and robust generalization across datasets, retrievers, and input lengths compared with baselines.