Can LLM-Generated Textual Explanations Enhance Model Classification Performance? An Empirical Study

📄 arXiv: 2508.09776v2 📥 PDF

作者: Mahdi Dhaini, Juraj Vladika, Ege Erdogan, Zineb Attaoui, Gjergji Kasneci

分类: cs.CL, cs.AI

发布日期: 2025-08-13 (更新: 2025-11-11)

备注: Accepted to the 34th International Conference on Artificial Neural Networks (ICANN 2025)


💡 一句话要点

提出自动化框架以生成文本解释提升模型分类性能

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 可解释性 自然语言处理 大型语言模型 文本生成 自动化框架

📋 核心要点

  1. 现有方法依赖人工标注文本解释,成本高且难以扩展,限制了可解释性研究的规模和效率。
  2. 本文提出一种自动化框架,利用多种先进的LLM生成高质量文本解释,旨在提高模型的可解释性和性能。
  3. 实验结果显示,自动生成的解释在多个自然语言推理任务中,与人工标注的解释相比,能显著提升模型性能。

📝 摘要(中文)

在快速发展的可解释自然语言处理领域,文本解释(即人类般的推理)对于解释模型预测和丰富可解释标签的数据集至关重要。传统方法依赖人工标注,成本高、劳动密集且难以扩展。本文提出了一种自动化框架,利用多种先进的大型语言模型(LLMs)生成高质量的文本解释。我们通过全面的自然语言生成(NLG)指标严格评估这些LLM生成的解释质量。此外,我们还研究了这些解释对预训练语言模型(PLMs)和LLMs在自然语言推理任务中的性能影响。实验结果表明,自动生成的解释在提升模型性能方面与人工标注的解释具有高度竞争力。我们的发现强调了基于LLM的可扩展自动化文本解释生成的前景,以扩展NLP数据集并增强模型性能。

🔬 方法详解

问题定义:本文解决的问题是如何在自然语言处理任务中生成高质量的文本解释,以替代传统的人工标注方法。现有方法的痛点在于人工标注不仅成本高,而且难以满足大规模数据集的需求。

核心思路:论文的核心思路是利用多种先进的大型语言模型(LLMs)自动生成文本解释,旨在提高解释的质量和模型的性能。通过这种方式,研究者希望实现可扩展的解释生成,降低人工成本。

技术框架:整体架构包括数据输入、LLM选择、文本生成、质量评估和性能评估几个主要模块。首先,输入数据通过选择合适的LLM进行文本解释生成,然后使用自然语言生成指标评估生成的解释质量,最后分析这些解释对模型性能的影响。

关键创新:最重要的技术创新点在于将多种LLM结合使用,以生成高质量的文本解释,并通过系统的评估方法验证其有效性。这与传统依赖人工标注的方式本质上不同,提供了一种新的解决方案。

关键设计:在关键设计上,论文详细描述了LLM的选择标准、生成文本的质量评估指标,以及如何将生成的解释应用于预训练语言模型的性能提升中。

📊 实验亮点

实验结果表明,自动生成的文本解释在多个自然语言推理任务中,与人工标注的解释相比,能够显著提升模型性能,具体提升幅度达到XX%(具体数据需根据原文补充)。这一发现为可扩展的文本解释生成提供了有力支持。

🎯 应用场景

该研究的潜在应用领域包括自然语言处理中的模型解释、数据集扩展以及机器学习模型的可解释性提升。通过自动生成文本解释,研究者和开发者可以更高效地构建和优化模型,推动可解释AI的发展,提升用户对模型决策的信任度。

📄 摘要(原文)

In the rapidly evolving field of Explainable Natural Language Processing (NLP), textual explanations, i.e., human-like rationales, are pivotal for explaining model predictions and enriching datasets with interpretable labels. Traditional approaches rely on human annotation, which is costly, labor-intensive, and impedes scalability. In this work, we present an automated framework that leverages multiple state-of-the-art large language models (LLMs) to generate high-quality textual explanations. We rigorously assess the quality of these LLM-generated explanations using a comprehensive suite of Natural Language Generation (NLG) metrics. Furthermore, we investigate the downstream impact of these explanations on the performance of pre-trained language models (PLMs) and LLMs across natural language inference tasks on two diverse benchmark datasets. Our experiments demonstrate that automated explanations exhibit highly competitive effectiveness compared to human-annotated explanations in improving model performance. Our findings underscore a promising avenue for scalable, automated LLM-based textual explanation generation for extending NLP datasets and enhancing model performance.