Fame Fades, Nature Remains: Disentangling the Character Identity of Role-Playing Agents
作者: Yonghyun Jun, Junhyuk Choi, Jihyeong Park, Hwanhee Lee
分类: cs.CL
发布日期: 2026-01-08
备注: 27 pages
💡 一句话要点
提出角色身份解耦框架,区分角色扮演Agent的参数化和属性化身份
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 角色扮演Agent 大型语言模型 角色身份 参数化身份 属性化身份 多轮对话 人格特质
📋 核心要点
- 现有角色扮演Agent缺乏对角色身份的结构化定义,通常将角色视为任意文本输入,限制了角色扮演的真实性和可控性。
- 论文提出将角色身份解耦为参数化身份(预训练知识)和属性化身份(行为属性),从而更精细地控制角色行为。
- 实验表明,著名角色的优势会随对话轮数增加而减弱,且模型对道德和人际关系等属性的敏感度更高,揭示了RPA的局限性。
📝 摘要(中文)
本文针对基于大型语言模型(LLM)的角色扮演Agent(RPA)中角色身份定义弱形式化的问题,提出了“角色身份”的概念,将其解耦为两个不同的层次:(1)参数化身份,指从LLM预训练中编码的角色特定知识;(2)属性化身份,捕捉细粒度的行为属性,如人格特质和道德价值观。为了系统地研究这些层次,我们构建了一个统一的角色profile schema,并生成了著名和合成的角色,且结构约束相同。在单轮和多轮交互中的评估揭示了两个关键现象。首先,我们发现了“名气消退”:由于参数化知识,著名角色在初始轮次中具有显著优势,但随着模型优先考虑累积对话上下文而非预训练先验,这种优势迅速消失。其次,我们发现“本性难移”:虽然模型能够稳健地描绘一般人格特质,无论其极性如何,但RPA的性能对道德和人际关系的效价高度敏感。我们的发现指出,消极的社会本性是RPA保真度的主要瓶颈,为未来的角色构建和评估提供指导。
🔬 方法详解
问题定义:现有角色扮演Agent(RPA)通常将角色视为任意文本输入,缺乏对角色身份的结构化定义。这导致RPA在角色扮演过程中,难以保持一致性和可控性,尤其是在多轮对话中,容易受到上下文的影响而偏离预设的角色设定。现有方法未能充分利用大型语言模型(LLM)中蕴含的先验知识,也未能有效区分角色的不同属性维度,从而限制了RPA的性能和应用范围。
核心思路:论文的核心思路是将角色身份解耦为两个不同的层次:参数化身份和属性化身份。参数化身份是指从LLM预训练中编码的角色特定知识,例如,对于一个著名角色,LLM已经具备了相关的背景知识和行为模式。属性化身份是指细粒度的行为属性,例如人格特质、道德价值观和人际关系。通过将角色身份解耦,可以更精细地控制RPA的行为,并更好地利用LLM的先验知识。
技术框架:论文构建了一个统一的角色profile schema,用于描述角色的参数化身份和属性化身份。该schema包含角色的基本信息、背景故事、人格特质、道德价值观和人际关系等。基于该schema,论文生成了著名角色和合成角色,并使用相同的结构约束。然后,论文设计了单轮和多轮对话实验,评估RPA在不同场景下的表现。实验结果用于分析参数化身份和属性化身份对RPA性能的影响。
关键创新:论文最重要的技术创新点在于提出了角色身份解耦的概念,并将其应用于角色扮演Agent。与现有方法相比,该方法能够更精细地控制RPA的行为,并更好地利用LLM的先验知识。此外,论文还构建了一个统一的角色profile schema,为角色扮演Agent的研究提供了一个标准化的框架。
关键设计:论文的关键设计包括:(1) 统一的角色profile schema,用于描述角色的参数化身份和属性化身份;(2) 单轮和多轮对话实验,用于评估RPA在不同场景下的表现;(3) Fame Fades 和 Nature Remains 两个关键现象的分析,揭示了参数化身份和属性化身份对RPA性能的影响。
📊 实验亮点
实验结果表明,著名角色在初始轮次中具有优势,但随着对话轮数增加,这种优势会逐渐消失,即“名气消退”。同时,RPA的性能对道德和人际关系的效价高度敏感,消极的社会本性是RPA保真度的主要瓶颈,即“本性难移”。这些发现为未来的角色构建和评估提供了重要的指导。
🎯 应用场景
该研究成果可应用于游戏、教育、心理咨询等领域。在游戏中,可以创建更真实、更具个性的角色,提升游戏体验。在教育领域,可以构建角色扮演Agent,辅助学生学习和练习。在心理咨询领域,可以利用RPA模拟不同的情境,帮助患者进行心理治疗。未来,该研究还可以扩展到其他领域,例如智能客服、虚拟助手等。
📄 摘要(原文)
Despite the rapid proliferation of Role-Playing Agents (RPAs) based on Large Language Models (LLMs), the structural dimensions defining a character's identity remain weakly formalized, often treating characters as arbitrary text inputs. In this paper, we propose the concept of \textbf{Character Identity}, a multidimensional construct that disentangles a character into two distinct layers: \textbf{(1) Parametric Identity}, referring to character-specific knowledge encoded from the LLM's pre-training, and \textbf{(2) Attributive Identity}, capturing fine-grained behavioral properties such as personality traits and moral values. To systematically investigate these layers, we construct a unified character profile schema and generate both Famous and Synthetic characters under identical structural constraints. Our evaluation across single-turn and multi-turn interactions reveals two critical phenomena. First, we identify \textit{"Fame Fades"}: while famous characters hold a significant advantage in initial turns due to parametric knowledge, this edge rapidly vanishes as models prioritize accumulating conversational context over pre-trained priors. Second, we find that \textit{"Nature Remains"}: while models robustly portray general personality traits regardless of polarity, RPA performance is highly sensitive to the valence of morality and interpersonal relationships. Our findings pinpoint negative social natures as the primary bottleneck in RPA fidelity, guiding future character construction and evaluation.