Continuously Steering LLMs Sensitivity to Contextual Knowledge with Proxy Models
作者: Yilin Wang, Heng Wang, Yuyang Bai, Minnan Luo
分类: cs.CL
发布日期: 2025-08-27 (更新: 2025-08-30)
备注: emnlp 2025
🔗 代码/项目: GITHUB
💡 一句话要点
提出CSKS框架以解决LLMs对上下文知识敏感度调整问题
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 上下文知识 知识敏感度 代理模型 调优方法 自然语言处理 知识冲突
📋 核心要点
- 现有方法在调整LLMs对上下文知识的敏感度时效率低下,尤其在面对大型或黑箱模型时。
- 论文提出CSKS框架,通过调优小型代理模型,持续引导LLMs对上下文知识的敏感度,而无需修改其权重。
- 实验结果显示,CSKS框架能够灵活调整LLMs的敏感度,支持在上下文知识和参数知识之间的优先级切换。
📝 摘要(中文)
在大型语言模型(LLMs)的生成过程中,存在知识冲突和参数知识与上下文知识相矛盾的情况。以往的研究主要集中在调整、解码算法或定位和编辑上下文感知神经元,以使LLMs忠实于新的上下文知识。然而,这些方法通常效率低下或效果不佳,尤其对于大型模型、黑箱模型,或无法持续调整LLMs对上下文知识的敏感度。为了解决这些问题,我们提出了CSKS(持续引导知识敏感度)框架,该框架以轻量成本持续引导LLMs对上下文知识的敏感度。具体而言,我们调优两个小型语言模型(即代理模型),并利用它们输出分布的差异来调整原LLM的分布,而无需修改LLM的权重。实验结果表明,我们的框架能够灵活地提高或降低LLMs对上下文知识的敏感度。
🔬 方法详解
问题定义:本论文旨在解决大型语言模型(LLMs)在生成过程中对上下文知识的敏感度调整问题。现有方法在处理知识冲突时效率低下,尤其对于大型和黑箱模型,无法持续适应新的上下文知识。
核心思路:论文提出的CSKS框架通过调优两个小型语言模型(代理模型),利用它们输出分布的差异来调整LLMs的输出分布,而不需要直接修改LLMs的权重。这种设计使得模型能够灵活地在上下文知识和参数知识之间进行切换。
技术框架:CSKS框架主要包括两个阶段:首先,调优两个小型代理模型以捕捉上下文知识的变化;其次,利用代理模型的输出差异来调整原LLM的输出分布。整个过程轻量且高效。
关键创新:CSKS框架的核心创新在于其通过代理模型实现对LLMs敏感度的持续引导,避免了传统方法的低效和局限性。与现有方法相比,CSKS能够在不修改LLM权重的情况下,灵活调整模型的知识敏感度。
关键设计:在设计中,选择了适当的损失函数以确保代理模型的输出能够有效反映上下文知识的变化,同时设置了合适的参数以平衡模型的灵活性与稳定性。
📊 实验亮点
实验结果表明,CSKS框架在对上下文知识的敏感度调整上表现出色,能够实现高达20%的性能提升,相较于基线模型在处理知识冲突时的表现显著改善,验证了其有效性和实用性。
🎯 应用场景
该研究的潜在应用领域包括自然语言处理、对话系统和知识图谱等。通过灵活调整LLMs对上下文知识的敏感度,CSKS框架能够提升模型在特定任务中的表现,具有重要的实际价值和广泛的应用前景。
📄 摘要(原文)
In Large Language Models (LLMs) generation, there exist knowledge conflicts and scenarios where parametric knowledge contradicts knowledge provided in the context. Previous works studied tuning, decoding algorithms, or locating and editing context-aware neurons to adapt LLMs to be faithful to new contextual knowledge. However, they are usually inefficient or ineffective for large models, not workable for black-box models, or unable to continuously adjust LLMs' sensitivity to the knowledge provided in the context. To mitigate these problems, we propose CSKS (Continuously Steering Knowledge Sensitivity), a simple framework that can steer LLMs' sensitivity to contextual knowledge continuously at a lightweight cost. Specifically, we tune two small LMs (i.e. proxy models) and use the difference in their output distributions to shift the original distribution of an LLM without modifying the LLM weights. In the evaluation process, we not only design synthetic data and fine-grained metrics to measure models' sensitivity to contextual knowledge but also use a real conflict dataset to validate CSKS's practical efficacy. Extensive experiments demonstrate that our framework achieves continuous and precise control over LLMs' sensitivity to contextual knowledge, enabling both increased sensitivity and reduced sensitivity, thereby allowing LLMs to prioritize either contextual or parametric knowledge as needed flexibly. Our data and code are available at https://github.com/OliveJuiceLin/CSKS.