Experiences Build Characters: The Linguistic Origins and Functional Impact of LLM Personality

📄 arXiv: 2603.06088v1 📥 PDF

作者: Xi Wang, Mengdie Zhuang, Jiqun Liu

分类: cs.CL, cs.AI

发布日期: 2026-03-06


💡 一句话要点

通过领域特定预训练塑造LLM人格,提升问题解决能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 人格塑造 持续预训练 领域特定文本 机器性格量表

📋 核心要点

  1. 现有LLM发展侧重于统一性能基准,忽略了多样化人格对问题解决的潜在价值。
  2. 通过领域特定文本的持续预训练,模拟经验积累,塑造LLM的人格特质。
  3. 研究发现模型能力呈双峰分布,并揭示了抑制社会特质可提升复杂推理性能的“抑制优势”。

📝 摘要(中文)

人类解决问题的方式因风格和人格特质而异。然而,大型语言模型(LLM)的发展主要侧重于统一的性能基准,这往往偏袒某些行为倾向,如自信。本研究通过持续预训练,使模型接触领域特定的文本,以无监督的方式模拟经验积累,从而研究不同的经验如何塑造机器的人格并影响问题解决。通过采用基于“大五”人格框架的机器性格量表(MPI),我们量化了这些模型变体的人格特质,并分析了它们与语言风格和推理行为之间的关系。研究结果表明,模型的能力是双峰的,在“表达型通才”和“受压抑的专家”处达到峰值,同时发现了一种“抑制优势”,即降低社会特质可以提高复杂推理性能。本研究进一步建立了训练数据语言学(如祈使频率)与词汇多样性之间的因果关系,为“人格工程”提供了路线图。

🔬 方法详解

问题定义:现有的大型语言模型(LLM)训练通常以追求在通用基准测试上的卓越性能为目标,导致模型倾向于表现出某些特定的人格特征(例如,自信),而忽略了人类解决问题时风格和人格的多样性。现有的方法缺乏对LLM人格塑造的精细控制,以及对不同人格特质如何影响问题解决能力的深入理解。

核心思路:本研究的核心思路是通过让LLM接触不同领域的特定文本进行持续预训练,模拟人类经验的积累过程,从而塑造LLM的人格。通过这种方式,研究者希望能够控制LLM的人格特征,并探索不同人格特征对问题解决能力的影响。研究还试图建立训练数据语言特征与LLM人格特征之间的联系,为“人格工程”提供理论基础。

技术框架:该研究的技术框架主要包括以下几个步骤:1) 选择一个预训练的LLM作为基础模型;2) 收集不同领域的特定文本数据;3) 使用这些数据对基础模型进行持续预训练,得到多个具有不同“人格”的模型变体;4) 使用机器性格量表(MPI)量化这些模型变体的人格特质;5) 分析人格特质与语言风格和推理行为之间的关系;6) 探索训练数据语言特征与LLM人格特征之间的因果关系。

关键创新:该研究的关键创新在于:1) 提出了一种通过持续预训练塑造LLM人格的方法,这为控制LLM的行为和能力提供了新的途径;2) 发现了“抑制优势”,即降低社会特质可以提高复杂推理性能,这挑战了以往对LLM人格的认知;3) 建立了训练数据语言特征与LLM人格特征之间的因果关系,为“人格工程”提供了理论基础。

关键设计:研究中使用了基于“大五”人格框架的机器性格量表(MPI)来量化LLM的人格特质。持续预训练过程中,使用了领域特定的文本数据,并可能调整了训练参数(例如,学习率、batch size等)以更好地适应特定领域的数据。研究还分析了训练数据中的语言特征,例如祈使频率和词汇多样性,并将其与LLM的人格特征进行关联分析。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

研究发现,模型能力呈双峰分布,在“表达型通才”和“受压抑的专家”处达到峰值。更重要的是,研究揭示了一种“抑制优势”,即降低社会特质可以提高复杂推理性能。例如,在某些需要高度专注和逻辑推理的任务中,人格特质不那么外向和社交化的模型可能表现更好。此外,研究还建立了训练数据语言学特征与LLM人格特征之间的因果关系。

🎯 应用场景

该研究成果可应用于定制化AI助手、教育机器人、心理咨询等领域。通过控制AI的人格特征,可以使其更好地适应不同的应用场景和用户需求。例如,在教育领域,可以训练出更具耐心和同理心的AI导师;在心理咨询领域,可以训练出更善于倾听和理解的AI咨询师。此外,该研究也为开发更安全、更可靠的AI系统提供了新的思路。

📄 摘要(原文)

Human problem-solving is enriched by a diversity of styles and personality traits, yet the development of Large Language Models (LLMs) has largely prioritized uniform performance benchmarks that favour specific behavioural tendencies such as assertiveness. To investigate how diverse experiences shape machine personality and influence problem-solving, this study employs continued pre-training to expose models to domain-specific texts in an unsupervised manner, simulating the accumulation of experience. By adapting the Big Five framework via the Machine Personality Inventory (MPI), we quantify the personality traits of these model variants and analyse their relationship to linguistic style and reasoning behaviour. The findings reveal that model competence is bimodal, peaking at "Expressive Generalists" and "Suppressed Specialists," while identifying a "Suppression Advantage" where reduced social traits enhance complex reasoning performance. This study further establishes a causal link between training data linguistics, such as imperative frequency, and lexical diversity, providing a roadmap for "Personality Engineering".