Must Read: A Systematic Survey of Computational Persuasion

📄 arXiv: 2505.07775v1 📥 PDF

作者: Nimet Beyza Bozdag, Shuhaib Mehri, Xiaocheng Yang, Hyeonjeong Ha, Zirui Cheng, Esin Durmus, Jiaxuan You, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür

分类: cs.CL, cs.AI, cs.CY

发布日期: 2025-05-12


💡 一句话要点

系统性调查计算说服力以应对AI驱动的影响力挑战

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 计算说服力 对话式AI 伦理影响 多角色分析 AI生成内容 说服策略 社会责任

📋 核心要点

  1. 现有方法对说服力的理解有限,尤其是在AI生成内容的有效性和伦理性方面存在挑战。
  2. 论文提出了一个系统的分类法,围绕AI的三种角色展开,旨在全面评估和理解计算说服力。
  3. 通过对不同角色的分析,论文为未来的研究方向提供了指导,强调了安全性、公平性和有效性的重要性。

📝 摘要(中文)

说服力是沟通的基本方面,影响决策过程,涵盖从日常对话到政治、市场和法律等高风险场景。随着对话式AI系统的兴起,说服力的范围显著扩大,带来了机遇与风险。AI驱动的说服力可以用于有益的应用,但也可能通过操控和不道德的影响带来威胁。此外,AI不仅是说服者,也容易受到影响,面临对抗性攻击和偏见强化的风险。尽管AI生成的说服内容迅速发展,但我们对有效说服力的理解仍然有限。本文提供了计算说服力的全面概述,围绕三个关键视角展开:AI作为说服者、AI作为被说服者和AI作为说服评估者。我们提出了计算说服力研究的分类法,并讨论了评估说服力、减轻操控性说服和开发负责任的AI驱动说服系统等关键挑战。

🔬 方法详解

问题定义:本论文旨在解决计算说服力研究中的理解不足和评估挑战,尤其是在AI生成的说服内容的有效性和伦理性方面。现有方法未能全面考虑AI作为说服者、被说服者和评估者的多重角色。

核心思路:论文的核心思路是通过分类法系统化地分析计算说服力,探讨AI在不同角色中的表现及其相互影响,以便更好地理解和应用说服力。

技术框架:整体架构包括三个主要模块:AI作为说服者,分析其生成的说服内容及应用;AI作为被说服者,研究其易受影响的特性;AI作为说服评估者,评估说服策略的有效性和伦理性。

关键创新:最重要的技术创新在于提出了一个系统的分类法,明确了AI在说服过程中的多重角色,并探讨了各角色之间的相互作用,这与现有研究的单一视角形成鲜明对比。

关键设计:在研究中,论文强调了评估说服力的标准、减轻操控性说服的策略,以及开发负责任的AI驱动说服系统的设计原则,确保技术的伦理性和有效性。

📊 实验亮点

论文通过系统分析AI在说服过程中的多重角色,提出的分类法为理解和评估计算说服力提供了新的视角。研究指出,AI生成的说服内容在有效性和伦理性方面的挑战,强调了未来研究的必要性和方向。

🎯 应用场景

该研究的潜在应用领域包括市场营销、政治传播、法律咨询等,能够帮助设计更有效的AI说服系统,同时确保其在伦理和社会责任方面的合规性。未来,随着AI技术的不断进步,该研究将对如何安全、公平地使用说服力产生深远影响。

📄 摘要(原文)

Persuasion is a fundamental aspect of communication, influencing decision-making across diverse contexts, from everyday conversations to high-stakes scenarios such as politics, marketing, and law. The rise of conversational AI systems has significantly expanded the scope of persuasion, introducing both opportunities and risks. AI-driven persuasion can be leveraged for beneficial applications, but also poses threats through manipulation and unethical influence. Moreover, AI systems are not only persuaders, but also susceptible to persuasion, making them vulnerable to adversarial attacks and bias reinforcement. Despite rapid advancements in AI-generated persuasive content, our understanding of what makes persuasion effective remains limited due to its inherently subjective and context-dependent nature. In this survey, we provide a comprehensive overview of computational persuasion, structured around three key perspectives: (1) AI as a Persuader, which explores AI-generated persuasive content and its applications; (2) AI as a Persuadee, which examines AI's susceptibility to influence and manipulation; and (3) AI as a Persuasion Judge, which analyzes AI's role in evaluating persuasive strategies, detecting manipulation, and ensuring ethical persuasion. We introduce a taxonomy for computational persuasion research and discuss key challenges, including evaluating persuasiveness, mitigating manipulative persuasion, and developing responsible AI-driven persuasive systems. Our survey outlines future research directions to enhance the safety, fairness, and effectiveness of AI-powered persuasion while addressing the risks posed by increasingly capable language models.