CardiffNLP at CLEARS-2025: Prompting Large Language Models for Plain Language and Easy-to-Read Text Rewriting
作者: Mutaz Ayesh, Nicolás Gutiérrez-Rolón, Fernando Alva-Manchego
分类: cs.CL, cs.AI
发布日期: 2025-08-05
💡 一句话要点
提出基于大语言模型的西班牙语文本改写方法
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大语言模型 文本改写 西班牙语 可读性 提示设计 自然语言处理
📋 核心要点
- 现有的文本改写方法在处理西班牙语的可读性和简明性方面存在不足,尤其是在特定领域的适配上。
- 论文提出了一种基于大语言模型的提示方法,通过不同的提示变体来优化文本改写效果。
- 实验结果显示,使用Gemma-3模型的最终提交在两个子任务中均取得了优异的成绩,分别为第二和第三名。
📝 摘要(中文)
本文详细介绍了CardiffNLP团队在2025年IberLEF主办的CLEARS共享任务中的贡献,该任务聚焦于西班牙语文本适配。团队参与了两个子任务,采用了大语言模型(LLM)提示的方法,并进行了多种提示变体的实验。最终,团队在子任务1中获得第三名,在子任务2中获得第二名。文章详细描述了多种提示变体、示例和实验结果。
🔬 方法详解
问题定义:本文旨在解决西班牙语文本改写中的可读性和简明性问题,现有方法在特定领域适配时效果不佳,难以满足用户需求。
核心思路:论文的核心思路是利用大语言模型(LLM)进行文本改写,通过设计多种提示变体来引导模型生成更符合可读性标准的文本。这样的设计旨在提高文本的易读性和适应性。
技术框架:整体架构包括数据预处理、提示设计、模型训练和结果评估四个主要模块。首先,团队对输入文本进行预处理,然后设计多种提示以引导模型生成目标文本,最后通过评估指标对生成结果进行分析。
关键创新:最重要的技术创新在于多样化的提示设计,通过不同的提示变体来优化生成文本的质量。这种方法与传统的单一提示方法相比,能够更灵活地适应不同的文本改写需求。
关键设计:在参数设置方面,团队对提示的长度、内容和格式进行了细致调整,确保模型能够理解并生成高质量的文本。此外,损失函数的选择也经过优化,以提高模型在特定任务上的表现。
📊 实验亮点
实验结果表明,使用Gemma-3模型的最终提交在子任务1中获得第三名,在子任务2中获得第二名,显示出相较于基线模型的显著提升,具体提升幅度未知。
🎯 应用场景
该研究的潜在应用领域包括教育、法律和医疗等需要高可读性文本的场景。通过改写复杂文本为易读版本,可以帮助不同背景的用户更好地理解信息,提升信息的传播效果。未来,该方法有望在更多语言和领域中推广应用。
📄 摘要(原文)
This paper details the CardiffNLP team's contribution to the CLEARS shared task on Spanish text adaptation, hosted by IberLEF 2025. The shared task contained two subtasks and the team submitted to both. Our team took an LLM-prompting approach with different prompt variations. While we initially experimented with LLaMA-3.2, we adopted Gemma-3 for our final submission, and landed third place in Subtask 1 and second place in Subtask 2. We detail our numerous prompt variations, examples, and experimental results.