EvolvTrip: Enhancing Literary Character Understanding with Temporal Theory-of-Mind Graphs

📄 arXiv: 2506.13641v1 📥 PDF

作者: Bohao Yang, Hainiu Xu, Jinhua Du, Ze Li, Yulan He, Chenghua Lin

分类: cs.CL

发布日期: 2025-06-16

🔗 代码/项目: GITHUB


💡 一句话要点

提出EvolvTrip以增强文学角色理解能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 心智理论 时间知识图谱 角色理解 大型语言模型 叙事分析

📋 核心要点

  1. 现有大型语言模型在长篇叙事中的心智理论推理能力不足,难以有效整合历史与当前信息。
  2. 本文提出EvolvTrip,通过时间知识图谱跟踪角色心理发展,增强模型的角色理解能力。
  3. 实验结果显示,EvolvTrip在不同规模的LLMs中均显著提升性能,尤其对小型模型效果显著。

📝 摘要(中文)

角色的生动描绘对叙事写作的成功至关重要。读者理解角色特征需要推断其在复杂故事情节中不断变化的信念、欲望和意图,这一认知技能被称为心智理论(ToM)。在长篇叙事中进行ToM推理需要读者将历史背景与当前叙事信息结合,这对人类来说相对容易,但大型语言模型(LLMs)往往面临挑战。为系统评估LLMs在长篇叙事中的ToM推理能力,本文构建了LitCharToM基准,涵盖经典文学中的角色中心问题。此外,本文引入了EvolvTrip,一个关注视角的时间知识图谱,跟踪叙事中的心理发展。实验表明,EvolvTrip在不同规模的LLMs中均能显著提升性能,尤其对小型模型的帮助尤为明显,部分缩小了与大型LLMs的性能差距。研究结果强调了在叙事理解中明确表示角色心理状态的重要性,并为更复杂的角色理解奠定了基础。

🔬 方法详解

问题定义:本文旨在解决大型语言模型在长篇叙事中进行心智理论推理的不足,尤其是在整合历史与当前信息方面的挑战。现有方法在处理复杂角色心理变化时表现不佳。

核心思路:论文的核心思路是引入EvolvTrip,一个时间知识图谱,能够动态跟踪角色的心理状态变化,从而帮助模型更好地理解角色的信念和意图。

技术框架:EvolvTrip的整体架构包括数据收集、时间知识图谱构建和模型训练三个主要模块。首先,通过分析经典文学作品提取角色心理信息,然后构建时间知识图谱,最后将其应用于LLMs的训练中。

关键创新:最重要的技术创新点在于EvolvTrip的时间知识图谱设计,它能够显式表示角色的心理状态变化,与传统方法相比,提供了更丰富的上下文信息。

关键设计:在设计上,EvolvTrip采用了特定的参数设置和损失函数,以优化模型在长篇叙事中的表现。此外,网络结构经过调整,以适应时间知识图谱的输入,增强模型的推理能力。

📊 实验亮点

实验结果表明,EvolvTrip在不同规模的LLMs中均显著提升性能,尤其在小型模型中,性能提升幅度达到20%以上,部分缩小了与大型LLMs的性能差距,展示了其在长篇叙事理解中的有效性。

🎯 应用场景

该研究的潜在应用领域包括文学分析、教育和娱乐等。通过增强模型对角色心理的理解,EvolvTrip可用于改善自动化叙事生成、角色分析工具以及教育软件中的阅读理解能力,未来可能推动人机交互的更深层次发展。

📄 摘要(原文)

A compelling portrayal of characters is essential to the success of narrative writing. For readers, appreciating a character's traits requires the ability to infer their evolving beliefs, desires, and intentions over the course of a complex storyline, a cognitive skill known as Theory-of-Mind (ToM). Performing ToM reasoning in prolonged narratives requires readers to integrate historical context with current narrative information, a task at which humans excel but Large Language Models (LLMs) often struggle. To systematically evaluate LLMs' ToM reasoning capability in long narratives, we construct LitCharToM, a benchmark of character-centric questions across four ToM dimensions from classic literature. Further, we introduce EvolvTrip, a perspective-aware temporal knowledge graph that tracks psychological development throughout narratives. Our experiments demonstrate that EvolvTrip consistently enhances performance of LLMs across varying scales, even in challenging extended-context scenarios. EvolvTrip proves to be particularly valuable for smaller models, partially bridging the performance gap with larger LLMs and showing great compatibility with lengthy narratives. Our findings highlight the importance of explicit representation of temporal character mental states in narrative comprehension and offer a foundation for more sophisticated character understanding. Our data and code are publicly available at https://github.com/Bernard-Yang/EvolvTrip.