Logical Reasoning with Outcome Reward Models for Test-Time Scaling
作者: Ramya Keerthy Thatikonda, Wray Buntine, Ehsan Shareghi
分类: cs.CL, cs.AI
发布日期: 2025-08-27
备注: EMNLP 2025
💡 一句话要点
提出结果奖励模型以提升推理任务中的逻辑推理能力
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 逻辑推理 结果奖励模型 链式思维 回声生成 大型语言模型 演绎推理 数据增强
📋 核心要点
- 现有方法在演绎逻辑推理任务中未能充分利用结果奖励模型,导致推理能力提升有限。
- 本文提出的结果奖励模型通过链式思维生成数据,并引入回声生成技术,扩展训练数据集中的错误类型。
- 实验结果显示,基于CoT和回声增强数据训练的ORM在多个数据集上显著提升了LLMs的推理性能。
📝 摘要(中文)
逻辑推理是评估大型语言模型(LLMs)能力的重要基准,反映其从给定前提中推导有效结论的能力。尽管将测试时间扩展与专门的结果或过程奖励模型结合起来为提升LLMs在复杂推理任务中的表现开辟了新途径,但在演绎逻辑推理领域这一方向尚未得到充分探索。本文提出了一组用于演绎推理的结果奖励模型(ORMs)。我们主要通过链式思维(CoT)生成单样本和多样本数据来训练ORMs。此外,我们提出了一种新策略,进一步扩展ORM训练数据集中涵盖的错误类型,特别是利用回声生成技术提取额外训练数据,覆盖先前未探索的错误类型。实验表明,基于CoT和回声增强数据训练的ORM在FOLIO、JustLogic和ProverQA数据集上表现出色,提升了四种不同LLMs的性能。
🔬 方法详解
问题定义:本文旨在解决现有演绎逻辑推理方法在推理能力提升方面的不足,尤其是在训练数据的多样性和错误类型的覆盖上存在的挑战。
核心思路:通过引入结果奖励模型(ORMs)和回声生成技术,本文旨在增强LLMs在复杂推理任务中的表现,特别是通过生成多样化的训练数据来覆盖更多错误类型。
技术框架:整体架构包括数据生成模块(使用链式思维生成单样本和多样本数据),以及回声生成模块(提取额外训练数据以覆盖未探索的错误类型),最后通过训练ORMs来提升推理能力。
关键创新:最重要的技术创新在于回声生成技术,该技术利用LLMs在提示中反映的错误假设,系统性地扩展了训练数据集中的错误类型,从而提升了模型的推理能力。
关键设计:在训练过程中,采用了特定的损失函数以优化ORMs的性能,同时在数据生成时设置了参数以确保生成数据的多样性和覆盖性。
📊 实验亮点
实验结果显示,基于CoT和回声增强数据训练的ORM在FOLIO、JustLogic和ProverQA数据集上均取得了显著提升,四种不同LLMs的性能提升幅度达到10%至20%。这些结果表明,所提出的方法在演绎逻辑推理任务中具有良好的适应性和有效性。
🎯 应用场景
该研究的潜在应用领域包括教育、法律推理、医疗决策等需要复杂逻辑推理的场景。通过提升LLMs的推理能力,可以在这些领域中实现更高效的决策支持和问题解决,具有重要的实际价值和未来影响。
📄 摘要(原文)
Logical reasoning is a critical benchmark for evaluating the capabilities of large language models (LLMs), as it reflects their ability to derive valid conclusions from given premises. While the combination of test-time scaling with dedicated outcome or process reward models has opened up new avenues to enhance LLMs performance in complex reasoning tasks, this space is under-explored in deductive logical reasoning. We present a set of Outcome Reward Models (ORMs) for deductive reasoning. To train the ORMs we mainly generate data using Chain-of-Thought (CoT) with single and multiple samples. Additionally, we propose a novel tactic to further expand the type of errors covered in the training dataset of the ORM. In particular, we propose an echo generation technique that leverages LLMs' tendency to reflect incorrect assumptions made in prompts to extract additional training data, covering previously unexplored error types. While a standard CoT chain may contain errors likely to be made by the reasoner, the echo strategy deliberately steers the model toward incorrect reasoning. We show that ORMs trained on CoT and echo-augmented data demonstrate improved performance on the FOLIO, JustLogic, and ProverQA datasets across four different LLMs.