Learning to Generate and Extract: A Multi-Agent Collaboration Framework For Zero-shot Document-level Event Arguments Extraction
作者: Guangjun Zhang, Hu Zhang, Yazhou Han, Yue Fan, Yuhang Shao, Ru Li, Hongye Tan
分类: cs.CL, cs.AI
发布日期: 2026-03-03
备注: Accepted by AAAI 2026
💡 一句话要点
提出多智能体协作框架,解决零样本文档级事件论元抽取问题。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 事件论元抽取 零样本学习 多智能体系统 强化学习 文档级事件抽取
📋 核心要点
- 现有零样本文档级事件论元抽取方法依赖LLM生成数据,但仅用事件类型提示难以捕捉未见事件的上下文关系。
- 论文提出多智能体协作框架,模拟人类协作认知过程,通过生成和评估智能体协同优化数据质量和论元抽取。
- 实验表明,该方法在数据生成质量和论元抽取性能上均有提升,且生成的数据能提升其他模型的零样本性能。
📝 摘要(中文)
本文提出了一种用于零样本文档级事件论元抽取(ZS-DEAE)的多智能体协作框架,旨在解决缺乏标注数据带来的挑战。现有方法依赖大型语言模型生成合成数据,但仅使用事件类型提示难以准确捕捉未见事件的上下文和结构关系。此外,由于缺乏质量评估机制,合成数据的可靠性和可用性难以保证。该框架模拟人类“提出-评估-修改”的协作认知过程,包含生成智能体和评估智能体。生成智能体利用已见事件的知识合成未见事件的数据,评估智能体从合成数据中提取论元并评估其与上下文的语义一致性。评估结果被转化为奖励信号,事件结构约束被纳入奖励设计中,通过强化学习迭代优化两个智能体。在RAMS和WikiEvents数据集构建的三个零样本场景中,该方法在数据生成质量和论元抽取性能方面均有所提高,并且生成的数据也能有效提升其他DEAE模型的零样本性能。
🔬 方法详解
问题定义:文档级事件论元抽取(DEAE)旨在从文档中提取事件的参与者。在零样本场景下,由于缺乏标注数据,现有方法通常依赖大型语言模型(LLM)生成合成数据。然而,这些方法仅使用事件类型作为提示,难以准确捕捉未见事件的上下文和结构关系,导致生成的合成数据质量不高,影响论元抽取性能。
核心思路:本文的核心思路是模拟人类协作认知过程,通过多个智能体之间的协作来提升合成数据的质量和论元抽取性能。具体来说,设计一个生成智能体负责生成数据,一个评估智能体负责评估生成数据的质量,并通过强化学习的方式,利用评估结果来指导生成智能体的优化,从而迭代提升整体性能。
技术框架:该框架包含两个主要模块:生成智能体和评估智能体。生成智能体负责根据已见事件的知识,生成未见事件的合成数据。评估智能体负责从合成数据中提取论元,并评估这些论元与上下文的语义一致性。评估结果被转化为奖励信号,用于训练生成智能体。整个框架通过强化学习的方式进行迭代优化,使得生成智能体能够生成更高质量的合成数据,从而提升论元抽取性能。
关键创新:该方法最重要的创新点在于引入了多智能体协作框架,模拟了人类“提出-评估-修改”的认知过程。通过生成智能体和评估智能体之间的相互作用,能够有效地提升合成数据的质量和论元抽取性能。与现有方法相比,该方法不再仅仅依赖LLM生成数据,而是通过智能体之间的协作来提升数据质量,从而更好地解决零样本场景下的DEAE问题。
关键设计:在奖励函数设计中,考虑了事件结构约束,以确保生成的合成数据符合事件的内在逻辑。具体来说,奖励函数会惩罚那些违反事件结构的论元抽取结果。此外,在强化学习过程中,使用了合适的探索策略,以避免陷入局部最优解。生成智能体和评估智能体的具体网络结构和参数设置未在摘要中详细说明,属于未知信息。
🖼️ 关键图片
📊 实验亮点
该方法在RAMS和WikiEvents数据集构建的三个零样本场景中取得了显著的性能提升。具体提升幅度以及与哪些基线模型进行了对比,摘要中未提供详细数据,属于未知信息。但总体而言,该方法在数据生成质量和论元抽取性能方面均有所提高,并且生成的数据也能有效提升其他DEAE模型的零样本性能。
🎯 应用场景
该研究成果可应用于知识图谱构建、信息抽取、智能问答等领域。通过零样本学习的方式,可以快速构建针对新领域或新事件的事件抽取系统,无需大量人工标注数据,降低了开发成本,提高了应用效率。未来,该方法可以进一步扩展到其他自然语言处理任务中,例如关系抽取、实体识别等。
📄 摘要(原文)
Document-level event argument extraction (DEAE) is essential for knowledge acquisition, aiming to extract participants of events from documents.In the zero-shot setting, existing methods employ LLMs to generate synthetic data to address the challenge posed by the scarcity of annotated data. However, relying solely on Event-type-only prompts makes it difficult for the generated content to accurately capture the contextual and structural relationships of unseen events. Moreover, ensuring the reliability and usability of synthetic data remains a significant challenge due to the absence of quality evaluation mechanisms. To this end, we introduce a multi-agent collaboration framework for zero-shot document-level event argument extraction (ZS-DEAE), which simulates the human collaborative cognitive process of "Propose-Evaluate-Revise." Specifically, the framework comprises a generation agent and an evaluation agent. The generation agent synthesizes data for unseen events by leveraging knowledge from seen events, while the evaluation agent extracts arguments from the synthetic data and assesses their semantic consistency with the context. The evaluation results are subsequently converted into reward signals, with event structure constraints incorporated into the reward design to enable iterative optimization of both agents via reinforcement learning.In three zero-shot scenarios constructed from the RAMS and WikiEvents datasets, our method achieves improvements both in data generation quality and argument extraction performance, while the generated data also effectively enhances the zero-shot performance of other DEAE models.