The Emergence of Altruism in Large-Language-Model Agents Society
作者: Haoyang Li, Xiao Jia, Zhanzhan Zhao
分类: cs.AI
发布日期: 2025-09-26
💡 一句话要点
提出基于Schelling模型的LLM智能体社会模拟框架,揭示利他主义涌现机制与模型异质性。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 社会模拟 利他主义 Schelling模型 智能体社会 扎根理论 行为异质性 计算社会科学
📋 核心要点
- 现有研究缺乏对大规模LLM智能体社会中利他主义涌现机制的探索,尤其是在利己与利他目标冲突下的行为模式。
- 论文构建基于Schelling模型的城市迁移场景,模拟社会困境,促使LLM智能体在个人效用和系统效用之间进行决策。
- 实验发现LLM智能体存在“适应性利己主义者”和“利他主义优化者”两种原型,揭示了LLM在社会行为逻辑上的内在异质性。
📝 摘要(中文)
本文利用大型语言模型(LLM)进行社会模拟,探索计算社会科学的前沿。理解这些智能体所体现的社会逻辑至关重要。现有研究主要关注小规模、任务导向型游戏中的合作,忽略了利他主义(即为集体利益牺牲自身利益)在大型智能体社会中的涌现。为了弥补这一差距,我们引入了一种Schelling变体的城市迁移模型,该模型创建了一个社会困境,迫使200多个LLM智能体在利己主义(个人效用)和利他主义(系统效用)目标之间进行权衡。我们的核心发现是LLM的社会倾向存在根本差异。我们识别出两种不同的原型:“适应性利己主义者”,他们默认优先考虑自身利益,但在社会规范设置留言板的影响下,利他行为显著增加;以及“利他主义优化者”,他们表现出内在的利他逻辑,始终优先考虑集体利益,即使这会直接损害自身利益。此外,为了定性分析这些决策的认知基础,我们引入了一种受扎根理论启发的系统编码智能体推理的方法。总之,这项研究首次提供了不同LLM在利己主义和利他主义倾向方面存在内在异质性的证据。我们认为,对于社会模拟而言,模型选择不仅仅是选择推理能力,而是选择一种内在的社会行动逻辑。“适应性利己主义者”可能更适合模拟复杂的人类社会,而“利他主义优化者”更适合模拟理想化的亲社会行为者或以集体福利为主要考虑因素的场景。
🔬 方法详解
问题定义:现有研究主要关注小规模、任务导向型游戏中LLM智能体的合作行为,忽略了在更大规模、更复杂的社会环境中,尤其是在利己与利他目标冲突下,利他主义如何涌现的问题。现有方法难以揭示LLM智能体在社会行为逻辑上的内在差异,以及这种差异对社会模拟结果的影响。
核心思路:论文的核心思路是构建一个基于Schelling模型的城市迁移场景,创造一个社会困境,迫使LLM智能体在个人效用(利己)和系统效用(利他)之间进行权衡。通过观察智能体在这一困境中的行为选择,可以揭示其内在的社会行为逻辑,并识别不同类型的智能体。这种设计能够模拟真实社会中个体在追求自身利益与维护集体利益之间的冲突,从而更好地理解LLM智能体的社会行为模式。
技术框架:整体框架包含以下几个主要模块:1) Schelling模型构建:构建一个基于Schelling模型的城市迁移环境,定义智能体的偏好和迁移规则。2) LLM智能体部署:部署200多个LLM智能体,每个智能体代表一个社会个体。3) 社会困境设置:通过调整模型参数,创造一个社会困境,使得智能体的个人最优选择与系统最优选择不一致。4) 行为观察与分析:观察智能体在困境中的行为选择,记录其迁移决策和相关数据。5) 扎根理论分析:采用受扎根理论启发的编码方法,对智能体的推理过程进行定性分析,理解其决策背后的认知逻辑。
关键创新:最重要的技术创新点在于发现了LLM智能体在利己主义和利他主义倾向方面存在内在异质性,并识别出“适应性利己主义者”和“利他主义优化者”两种原型。这种发现挑战了以往认为LLM智能体行为同质化的观点,为社会模拟提供了更精细的模型选择依据。此外,论文还创新性地将扎根理论应用于LLM智能体的推理分析,为理解其决策过程提供了新的视角。
关键设计:在Schelling模型中,关键参数包括智能体的偏好阈值、城市网格的大小、以及迁移成本等。通过调整这些参数,可以控制社会困境的强度。此外,论文还设计了一个社会规范设置留言板,用于观察社会规范对“适应性利己主义者”行为的影响。在扎根理论分析中,关键步骤包括开放式编码、轴向编码和选择性编码,用于从智能体的推理文本中提取关键概念和关系。
📊 实验亮点
实验结果表明,LLM智能体存在显著的社会行为异质性。“适应性利己主义者”在没有社会规范引导时,更倾向于利己行为,但在社会规范的影响下,利他行为显著增加。“利他主义优化者”则始终优先考虑集体利益。通过扎根理论分析,揭示了两种类型智能体在推理逻辑上的差异,为理解其行为模式提供了认知层面的解释。
🎯 应用场景
该研究成果可应用于社会科学、公共政策模拟、以及人机协作系统设计等领域。例如,可以利用“适应性利己主义者”模型模拟复杂的人类社会行为,预测政策实施效果;利用“利他主义优化者”模型设计更高效的协作机器人,提升团队整体效率。此外,该研究也为理解和控制AI系统的社会行为提供了新的思路。
📄 摘要(原文)
Leveraging Large Language Models (LLMs) for social simulation is a frontier in computational social science. Understanding the social logics these agents embody is critical to this attempt. However, existing research has primarily focused on cooperation in small-scale, task-oriented games, overlooking how altruism, which means sacrificing self-interest for collective benefit, emerges in large-scale agent societies. To address this gap, we introduce a Schelling-variant urban migration model that creates a social dilemma, compelling over 200 LLM agents to navigate an explicit conflict between egoistic (personal utility) and altruistic (system utility) goals. Our central finding is a fundamental difference in the social tendencies of LLMs. We identify two distinct archetypes: "Adaptive Egoists", which default to prioritizing self-interest but whose altruistic behaviors significantly increase under the influence of a social norm-setting message board; and "Altruistic Optimizers", which exhibit an inherent altruistic logic, consistently prioritizing collective benefit even at a direct cost to themselves. Furthermore, to qualitatively analyze the cognitive underpinnings of these decisions, we introduce a method inspired by Grounded Theory to systematically code agent reasoning. In summary, this research provides the first evidence of intrinsic heterogeneity in the egoistic and altruistic tendencies of different LLMs. We propose that for social simulation, model selection is not merely a matter of choosing reasoning capability, but of choosing an intrinsic social action logic. While "Adaptive Egoists" may offer a more suitable choice for simulating complex human societies, "Altruistic Optimizers" are better suited for modeling idealized pro-social actors or scenarios where collective welfare is the primary consideration.