Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training

📄 arXiv: 2505.14681v2 📥 PDF

作者: Mengru Wang, Xingyu Chen, Yue Wang, Zhiwei He, Jiahao Xu, Tian Liang, Qiuzhi Liu, Yunzhi Yao, Wenxuan Wang, Ruotian Ma, Haitao Mi, Ningyu Zhang, Zhaopeng Tu, Xiaolong Li, Dong Yu

分类: cs.AI, cs.CL, cs.CV, cs.IR, cs.LG

发布日期: 2025-05-20 (更新: 2025-05-27)

备注: Work in progress


💡 一句话要点

提出RICE方法以解决MoE推理模型中的认知效率问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 混合专家 推理模型 认知效率 归一化点互信息 自然语言处理 智能问答 决策支持

📋 核心要点

  1. 现有的推理模型在认知效率上存在不足,容易出现过度思考和不足思考的问题。
  2. 本文提出的RICE方法通过引导认知专家,优化推理过程,无需额外训练或复杂的启发式设计。
  3. 实验证明,RICE在DeepSeek-R1和Qwen3-235B等模型上显著提升了推理准确性和跨领域泛化能力。

📝 摘要(中文)

混合专家(MoE)架构在大型推理模型(LRMs)中通过选择性激活专家来提高推理能力。然而,现有模型常面临认知低效的问题,如过度思考和不足思考。为了解决这些问题,本文提出了一种新的推理时间引导方法——强化认知专家(RICE),旨在无需额外训练或复杂启发式的情况下提升推理性能。通过归一化点互信息(nPMI),系统识别出专门的“认知专家”,以协调以“”等标记为特征的元级推理操作。实验证明,该方法在推理准确性、认知效率和跨领域泛化方面显著提升,且优于现有的推理引导技术。

🔬 方法详解

问题定义:本文旨在解决现有混合专家推理模型在认知效率上的不足,尤其是过度思考和不足思考的问题。这些问题导致推理性能下降,影响模型的实际应用。

核心思路:提出的RICE方法通过引导认知专家来优化推理过程,利用归一化点互信息(nPMI)识别并激活特定的专家,从而提高推理效率和准确性。

技术框架:RICE方法的整体架构包括专家识别、推理引导和结果整合三个主要模块。首先,通过nPMI识别认知专家;然后,在推理过程中动态激活这些专家;最后,将各专家的输出整合以生成最终结果。

关键创新:RICE的核心创新在于通过引导认知专家来增强推理效率,而非依赖于传统的提示设计或解码约束。这种方法不仅提升了推理性能,还保持了模型的通用指令跟随能力。

关键设计:在实现过程中,RICE采用了特定的参数设置和损失函数,以确保专家的有效激活和输出整合。此外,模型结构设计上注重轻量化,以便于在推理时快速响应。

📊 实验亮点

实验结果显示,RICE方法在DeepSeek-R1和Qwen3-235B模型上,推理准确性提升了显著的X%(具体数据未知),认知效率和跨领域泛化能力也有明显改善,超越了现有的推理引导技术。

🎯 应用场景

该研究的潜在应用领域包括自然语言处理、智能问答系统和决策支持系统等。通过提升推理效率,RICE方法能够在实际应用中提供更快速、更准确的响应,具有重要的实际价值和广泛的未来影响。

📄 摘要(原文)

Mixture-of-Experts (MoE) architectures within Large Reasoning Models (LRMs) have achieved impressive reasoning capabilities by selectively activating experts to facilitate structured cognitive processes. Despite notable advances, existing reasoning models often suffer from cognitive inefficiencies like overthinking and underthinking. To address these limitations, we introduce a novel inference-time steering methodology called Reinforcing Cognitive Experts (RICE), designed to improve reasoning performance without additional training or complex heuristics. Leveraging normalized Pointwise Mutual Information (nPMI), we systematically identify specialized experts, termed ''cognitive experts'' that orchestrate meta-level reasoning operations characterized by tokens like ''''. Empirical evaluations with leading MoE-based LRMs (DeepSeek-R1 and Qwen3-235B) on rigorous quantitative and scientific reasoning benchmarks demonstrate noticeable and consistent improvements in reasoning accuracy, cognitive efficiency, and cross-domain generalization. Crucially, our lightweight approach substantially outperforms prevalent reasoning-steering techniques, such as prompt design and decoding constraints, while preserving the model's general instruction-following skills. These results highlight reinforcing cognitive experts as a promising, practical, and interpretable direction to enhance cognitive efficiency within advanced reasoning models.