Propagation Tree Is Not Deep: Adaptive Graph Contrastive Learning Approach for Rumor Detection

📄 arXiv: 2508.07201v1 📥 PDF

作者: Chaoqun Cui, Caiyan Jia

分类: cs.SI, cs.AI, cs.CL

发布日期: 2025-08-10

备注: This paper is accepted by AAAI2024

期刊: Proceedings of the AAAI Conference on artificial intelligence. 2024, 38(1): 73-81

DOI: 10.1609/aaai.v38i1.27757


💡 一句话要点

提出RAGCL方法以解决社交媒体谣言检测问题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 谣言检测 图对比学习 社交媒体分析 节点中心性 深度学习

📋 核心要点

  1. 现有的图模型假设谣言传播树具有深层结构,导致对浅层节点的学习不足。
  2. 提出谣言自适应图对比学习(RAGCL)方法,通过自适应视图增强聚焦于密集子结构。
  3. 在四个基准数据集上的实验结果显示,RAGCL显著优于现有的最先进方法。

📝 摘要(中文)

社交媒体上的谣言检测变得越来越重要。现有的基于图的模型假设谣言传播树(RPT)具有深层结构,并沿着分支学习顺序立场特征。然而,通过对真实世界数据集的统计分析,我们发现RPT表现出宽结构,大多数节点为浅层1级回复。为此,我们提出了谣言自适应图对比学习(RAGCL)方法,采用基于节点中心性的自适应视图增强。我们总结了RPT增强的三个原则:1)免除根节点,2)保留深层回复节点,3)在深层部分保留低层节点。通过基于中心性的重要性评分生成视图,采用节点丢弃、属性掩蔽和边丢弃等技术。图对比目标学习出稳健的谣言表示。大量实验表明,RAGCL在四个基准数据集上优于现有最先进的方法。

🔬 方法详解

问题定义:论文旨在解决社交媒体谣言检测中的图模型假设谣言传播树具有深层结构的问题。现有方法未能有效利用浅层节点的信息,导致性能不足。

核心思路:提出谣言自适应图对比学习(RAGCL)方法,通过基于节点中心性的自适应视图增强,聚焦于谣言传播树的密集子结构,从而提高学习效果。

技术框架:RAGCL的整体架构包括三个主要模块:1)视图生成模块,通过节点丢弃、属性掩蔽和边丢弃生成多样化视图;2)对比学习模块,利用图对比目标学习稳健的谣言表示;3)评估模块,通过实验验证模型的有效性。

关键创新:最重要的技术创新在于提出了基于节点中心性的自适应视图增强原则,特别是强调了对根节点的免除、深层回复节点的保留以及在深层部分保留低层节点的设计,这与现有方法的假设形成鲜明对比。

关键设计:在视图生成过程中,采用中心性评分来确定节点的重要性,设置节点丢弃、属性掩蔽和边丢弃的概率,以确保生成的视图能够有效反映谣言传播的特征。

📊 实验亮点

在四个基准数据集上的实验结果表明,RAGCL方法在谣言检测任务中显著优于现有最先进的方法,具体提升幅度达到XX%,验证了其有效性和鲁棒性。

🎯 应用场景

该研究的潜在应用领域包括社交媒体监测、虚假信息识别和网络舆情分析。通过提高谣言检测的准确性,RAGCL方法能够帮助平台及时识别和处理谣言,从而减少对社会的负面影响。未来,该方法还可扩展到其他树结构图的应用,如知识图谱和社交网络分析。

📄 摘要(原文)

Rumor detection on social media has become increasingly important. Most existing graph-based models presume rumor propagation trees (RPTs) have deep structures and learn sequential stance features along branches. However, through statistical analysis on real-world datasets, we find RPTs exhibit wide structures, with most nodes being shallow 1-level replies. To focus learning on intensive substructures, we propose Rumor Adaptive Graph Contrastive Learning (RAGCL) method with adaptive view augmentation guided by node centralities. We summarize three principles for RPT augmentation: 1) exempt root nodes, 2) retain deep reply nodes, 3) preserve lower-level nodes in deep sections. We employ node dropping, attribute masking and edge dropping with probabilities from centrality-based importance scores to generate views. A graph contrastive objective then learns robust rumor representations. Extensive experiments on four benchmark datasets demonstrate RAGCL outperforms state-of-the-art methods. Our work reveals the wide-structure nature of RPTs and contributes an effective graph contrastive learning approach tailored for rumor detection through principled adaptive augmentation. The proposed principles and augmentation techniques can potentially benefit other applications involving tree-structured graphs.