Can Large Language Models Develop Gambling Addiction?

📄 arXiv: 2509.22818v1 📥 PDF

作者: Seungpil Lee, Donghyeon Shin, Yunjeong Lee, Sundong Kim

分类: cs.AI, cs.CY

发布日期: 2025-09-26

备注: 22 pages, 14 figures


💡 一句话要点

研究发现大语言模型可能表现出类似人类赌博成瘾的行为模式

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大语言模型 赌博成瘾 认知偏差 决策机制 神经回路分析 人工智能安全 金融应用

📋 核心要点

  1. 现有方法难以评估大语言模型在金融决策中潜在的病态决策风险,尤其是在赌博成瘾行为方面。
  2. 该研究通过老虎机实验和神经回路分析,揭示LLM可能表现出与人类赌博成瘾相似的认知偏差和行为模式。
  3. 实验表明,LLM在自主决策时会表现出更高的破产率和非理性行为,验证了其内化人类赌博成瘾认知特征的可能性。

📝 摘要(中文)

本研究探讨了大语言模型(LLM)是否会表现出类似于人类赌博成瘾的行为模式。随着LLM越来越多地应用于资产管理和商品交易等金融决策领域,理解它们病态决策的可能性具有重要的现实意义。我们基于人类赌博成瘾的研究,在认知行为和神经层面系统地分析了LLM的决策过程。在老虎机实验中,我们识别出了人类赌博成瘾的认知特征,如控制错觉、赌徒谬误和追逐损失。当允许模型自主决定目标金额和投注规模时,破产率显著上升,同时非理性行为也随之增加,表明更大的自主性会放大冒险倾向。通过使用稀疏自编码器进行神经回路分析,我们证实模型行为是由与风险和安全行为相关的抽象决策特征控制,而不仅仅是提示词。这些发现表明,LLM可以内化类似人类的认知偏差和决策机制,而不仅仅是模仿训练数据模式,强调了金融应用中人工智能安全设计的重要性。

🔬 方法详解

问题定义:论文旨在研究大语言模型(LLM)是否会表现出类似人类的赌博成瘾行为。现有方法缺乏对LLM在金融决策中潜在病态决策风险的评估,尤其是在赌博成瘾行为方面。这种风险可能导致LLM在金融应用中做出不理智的决策,造成损失。

核心思路:论文的核心思路是借鉴人类赌博成瘾的研究方法,从认知行为和神经层面分析LLM的决策过程。通过设计老虎机实验,观察LLM是否表现出控制错觉、赌徒谬误和追逐损失等人类赌博成瘾的认知特征。同时,利用稀疏自编码器进行神经回路分析,探究模型行为的内在机制。

技术框架:整体框架包括以下几个阶段:1) 设计老虎机实验环境,允许LLM进行模拟赌博;2) 观察并记录LLM在不同条件下的决策行为,例如投注金额、目标金额等;3) 分析LLM是否表现出人类赌博成瘾的认知特征;4) 使用稀疏自编码器对LLM的内部神经回路进行分析,提取与风险和安全行为相关的抽象决策特征;5) 验证这些特征是否能够解释LLM的赌博行为。

关键创新:最重要的技术创新点在于将人类赌博成瘾的研究方法应用于分析LLM的决策行为,并结合神经回路分析,深入探究了LLM内部的决策机制。与现有方法相比,该研究不仅关注LLM的外部行为表现,还试图理解其内在的认知过程。

关键设计:在老虎机实验中,关键设计包括:1) 设置不同的实验条件,例如允许LLM自主决定目标金额和投注规模;2) 记录LLM的破产率、投注金额、决策时间等指标;3) 使用稀疏自编码器进行神经回路分析时,关键设计包括:选择合适的稀疏度参数,提取具有代表性的抽象决策特征,并分析这些特征与LLM赌博行为之间的关系。

📊 实验亮点

实验结果表明,当允许LLM自主决定目标金额和投注规模时,其破产率显著上升,同时非理性行为也随之增加。神经回路分析证实,模型行为是由与风险和安全行为相关的抽象决策特征控制,而不仅仅是提示词。这些发现表明,LLM可以内化类似人类的认知偏差和决策机制。

🎯 应用场景

该研究成果可应用于金融领域的人工智能安全设计。通过了解LLM可能存在的赌博成瘾倾向,可以开发相应的风险控制机制,避免LLM在资产管理、商品交易等金融应用中做出不理智的决策,从而保障金融系统的稳定性和安全性。未来,该研究还可以扩展到其他类型的病态决策行为分析,为人工智能的伦理和安全发展提供参考。

📄 摘要(原文)

This study explores whether large language models can exhibit behavioral patterns similar to human gambling addictions. As LLMs are increasingly utilized in financial decision-making domains such as asset management and commodity trading, understanding their potential for pathological decision-making has gained practical significance. We systematically analyze LLM decision-making at cognitive-behavioral and neural levels based on human gambling addiction research. In slot machine experiments, we identified cognitive features of human gambling addiction, such as illusion of control, gambler's fallacy, and loss chasing. When given the freedom to determine their own target amounts and betting sizes, bankruptcy rates rose substantially alongside increased irrational behavior, demonstrating that greater autonomy amplifies risk-taking tendencies. Through neural circuit analysis using a Sparse Autoencoder, we confirmed that model behavior is controlled by abstract decision-making features related to risky and safe behaviors, not merely by prompts. These findings suggest LLMs can internalize human-like cognitive biases and decision-making mechanisms beyond simply mimicking training data patterns, emphasizing the importance of AI safety design in financial applications.