Compact Prompting in Instruction-tuned LLMs for Joint Argumentative Component Detection
作者: Sofiane Elguendouze, Erwan Hain, Elena Cabrio, Serena Villata
分类: cs.CL, cs.AI
发布日期: 2026-03-03
备注: Under Review (COLM 2026)
💡 一句话要点
提出基于指令调优LLM的紧凑提示方法,用于联合论证成分检测。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 论证成分检测 论证挖掘 大型语言模型 指令调优 生成式模型
📋 核心要点
- 现有论证成分检测方法通常简化为序列标注或流水线,忽略了成分间的联合关系。
- 论文提出利用指令调优的LLM,通过紧凑提示将ACD转化为语言生成任务,直接从文本生成论证成分。
- 实验结果表明,该方法在标准数据集上优于现有技术,验证了指令调优LLM在ACD任务上的有效性。
📝 摘要(中文)
论证成分检测(ACD)是论证挖掘(AM)的核心子任务,也是最具挑战性的方面之一,因为它需要联合界定论证跨度并将其分类为诸如主张和前提等成分。与其它AM任务相比,对该子任务的研究相对有限,现有方法大多将其简化为序列标注问题、成分分类或成分分割后分类的流水线。本文提出了一种基于指令调优的大型语言模型(LLM)的新方法,使用紧凑的基于指令的提示,并将ACD重新定义为语言生成任务,从而可以直接从纯文本中识别论证,而无需依赖预先分割的成分。在标准基准上的实验表明,我们的方法比最先进的系统实现了更高的性能。据我们所知,这是首次尝试将ACD完全建模为生成任务,突出了指令调优在复杂AM问题中的潜力。
🔬 方法详解
问题定义:论证成分检测(ACD)旨在从文本中识别并分类论证成分,如主张和前提。现有方法通常将其视为序列标注或分割-分类的流水线任务,忽略了成分之间的依赖关系,且需要预先分割成分,限制了模型的整体性能。
核心思路:论文的核心思路是将ACD任务重新定义为一个语言生成任务。通过指令调优大型语言模型(LLM),并设计紧凑的提示,直接从原始文本生成论证成分的标注结果,避免了预分割步骤,并允许模型学习成分之间的联合关系。
技术框架:该方法主要包含以下步骤:1) 选择一个指令调优的LLM作为基础模型。2) 设计紧凑的指令提示,指导LLM执行ACD任务。提示包含任务描述和输入文本。3) LLM根据提示生成包含论证成分标注的文本。4) 使用标准评估指标评估生成结果的质量。
关键创新:最重要的创新点在于将ACD任务建模为生成任务,并利用指令调优的LLM直接生成论证成分的标注结果。这与传统的序列标注或流水线方法有本质区别,避免了预分割步骤,并允许模型学习成分之间的联合关系。
关键设计:关键设计包括:1) 选择合适的指令调优LLM,例如Flan-T5或类似的模型。2) 设计紧凑且信息丰富的指令提示,例如“从以下文本中识别并标注论证成分:”。3) 使用标准的ACD评估指标,如F1-score,评估生成结果的质量。论文中没有明确提及损失函数或网络结构的修改,因为主要依赖于预训练的LLM的能力。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在标准ACD数据集上取得了优于现有技术的性能。具体来说,该方法在F1-score等指标上取得了显著提升,证明了基于指令调优LLM的紧凑提示方法在ACD任务上的有效性。论文强调这是首次将ACD完全建模为生成任务。
🎯 应用场景
该研究成果可应用于自动论证挖掘、舆情分析、智能辩论系统等领域。通过自动识别和分类论证成分,可以帮助人们更好地理解和评估文本中的论证结构,从而做出更明智的决策。未来,该方法可以扩展到其他论证挖掘任务,例如论证关系识别和论证质量评估。
📄 摘要(原文)
Argumentative component detection (ACD) is a core subtask of Argument(ation) Mining (AM) and one of its most challenging aspects, as it requires jointly delimiting argumentative spans and classifying them into components such as claims and premises. While research on this subtask remains relatively limited compared to other AM tasks, most existing approaches formulate it as a simplified sequence labeling problem, component classification, or a pipeline of component segmentation followed by classification. In this paper, we propose a novel approach based on instruction-tuned Large Language Models (LLMs) using compact instruction-based prompts, and reframe ACD as a language generation task, enabling arguments to be identified directly from plain text without relying on pre-segmented components. Experiments on standard benchmarks show that our approach achieves higher performance compared to state-of-the-art systems. To the best of our knowledge, this is one of the first attempts to fully model ACD as a generative task, highlighting the potential of instruction tuning for complex AM problems.