Less is More: Towards Simple Graph Contrastive Learning

📄 arXiv: 2509.25742v2 📥 PDF

作者: Yanan Zhao, Feng Ji, Jingyang Dai, Jiaze Ma, Wee Peng Tay

分类: cs.LG

发布日期: 2025-09-30 (更新: 2025-12-01)

备注: Submitted to ICLR 2026


💡 一句话要点

提出一种简化的图对比学习方法,有效解决异质图上的表示学习问题。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 图对比学习 异质图 无监督学习 图神经网络 节点表示学习

📋 核心要点

  1. 现有图对比学习方法在异质图上表现不佳,通常依赖复杂的数据增强和模型设计。
  2. 论文提出通过聚合节点特征和结构特征来减轻噪声,利用互补视角进行对比学习。
  3. 提出的简化模型无需数据增强和负采样,在异质图上达到SOTA,并具有良好的鲁棒性。

📝 摘要(中文)

图对比学习(GCL)在无监督图表示学习中表现出强大的潜力,但其在异质图上的有效性仍然有限,异质图中相连的节点通常属于不同的类别。现有方法大多依赖于复杂的增强方案、复杂的编码器或负采样,这引发了一个问题,即在这种具有挑战性的环境中,这种复杂性是否真正必要。在这项工作中,我们重新审视了图上的监督和无监督学习的基础,并发现了一个简单而有效的GCL原则:通过将节点特征噪声与来自图拓扑的结构特征聚合来减轻节点特征噪声。这一观察表明,原始节点特征和图结构自然地为对比学习提供了两个互补的视角。基于这一洞察,我们提出了一个非常简单的GCL模型,该模型使用GCN编码器来捕获结构特征,并使用MLP编码器来隔离节点特征噪声。我们的设计既不需要数据增强,也不需要负采样,但以最小的计算和内存开销在异质基准上实现了最先进的结果,同时在复杂性、可扩展性和鲁棒性方面也为同质图提供了优势。我们为我们的方法提供了理论上的论证,并通过广泛的实验验证了其有效性,包括针对黑盒和白盒对抗攻击的鲁棒性评估。

🔬 方法详解

问题定义:现有图对比学习方法在异质图上表现不佳,主要原因是异质图的连接节点可能属于不同类别,导致节点特征噪声较大。现有方法通常采用复杂的数据增强策略或复杂的模型结构来解决这个问题,但这些方法计算成本高,且效果提升有限。

核心思路:论文的核心思路是利用图的结构信息来缓解节点特征的噪声。作者认为,原始节点特征和图结构提供了互补的视角,通过将节点特征与结构特征聚合,可以有效地进行对比学习。这种思路避免了复杂的数据增强和负采样,从而降低了计算成本。

技术框架:论文提出的GCL模型主要包含两个编码器:一个GCN编码器和一个MLP编码器。GCN编码器用于捕获图的结构特征,MLP编码器用于隔离节点特征的噪声。模型首先使用GCN编码器对图进行编码,得到节点的结构表示;然后,使用MLP编码器对原始节点特征进行编码,得到节点的特征表示;最后,通过对比学习的方式,使结构表示和特征表示尽可能一致。

关键创新:论文的关键创新在于提出了一个非常简单的图对比学习模型,该模型不需要数据增强和负采样,但仍然可以在异质图上取得很好的效果。这种简化的设计降低了计算成本,并提高了模型的可扩展性和鲁棒性。

关键设计:模型使用GCN作为结构编码器,MLP作为特征编码器。损失函数采用标准的对比学习损失函数,旨在最大化同一节点的结构表示和特征表示之间的一致性。作者没有使用任何复杂的数据增强策略或负采样方法,而是直接使用原始节点特征和图结构进行对比学习。

📊 实验亮点

该方法在多个异质图基准数据集上取得了state-of-the-art的结果,并且在同质图上也表现出良好的性能。实验结果表明,该方法在计算效率、内存占用和鲁棒性方面均优于现有方法。例如,在某些数据集上,该方法在性能提升的同时,计算时间减少了50%以上。

🎯 应用场景

该研究成果可应用于社交网络分析、生物信息学、推荐系统等领域。在这些领域中,图结构通常包含丰富的关系信息,但节点特征可能存在噪声或缺失。该方法能够有效地利用图结构信息来提高节点表示的质量,从而提升下游任务的性能。此外,该方法具有良好的可扩展性和鲁棒性,可以应用于大规模图数据和对抗攻击场景。

📄 摘要(原文)

Graph Contrastive Learning (GCL) has shown strong promise for unsupervised graph representation learning, yet its effectiveness on heterophilic graphs, where connected nodes often belong to different classes, remains limited. Most existing methods rely on complex augmentation schemes, intricate encoders, or negative sampling, which raises the question of whether such complexity is truly necessary in this challenging setting. In this work, we revisit the foundations of supervised and unsupervised learning on graphs and uncover a simple yet effective principle for GCL: mitigating node feature noise by aggregating it with structural features derived from the graph topology. This observation suggests that the original node features and the graph structure naturally provide two complementary views for contrastive learning. Building on this insight, we propose an embarrassingly simple GCL model that uses a GCN encoder to capture structural features and an MLP encoder to isolate node feature noise. Our design requires neither data augmentation nor negative sampling, yet achieves state-of-the-art results on heterophilic benchmarks with minimal computational and memory overhead, while also offering advantages in homophilic graphs in terms of complexity, scalability, and robustness. We provide theoretical justification for our approach and validate its effectiveness through extensive experiments, including robustness evaluations against both black-box and white-box adversarial attacks.