Beyond One-Size-Fits-All: Adaptive Subgraph Denoising for Zero-Shot Graph Learning with Large Language Models

📄 arXiv: 2603.02938v1 📥 PDF

作者: Fengzhi Li, Liang Zhang, Yuan Zuo, Ruiqing Zhao, YanSong Liu, Yunfei Ma, Fanyu Meng, Junlan Feng

分类: cs.LG, cs.AI

发布日期: 2026-03-03


💡 一句话要点

提出GraphSSR框架,通过自适应子图去噪提升LLM在零样本图学习中的性能

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 零样本学习 图神经网络 大型语言模型 子图去噪 自适应学习

📋 核心要点

  1. 现有方法在零样本图学习中,采用一刀切的子图提取策略,引入大量噪声,影响LLM的推理效果。
  2. GraphSSR框架通过“采样-选择-推理”流程,动态调整子图提取,过滤掉不相关邻居,实现自适应子图去噪。
  3. 通过SSR-SFT数据合成和SSR-RL强化学习,模型能够利用简约且去噪的子图进行准确预测,提升性能。

📝 摘要(中文)

由于数据稀缺以及传统图神经网络(GNN)无法泛化到未见领域或标签空间,零样本设置下的图任务仍然是一个重大挑战。最近的研究趋势是利用大型语言模型(LLM)作为预测器来增强GNN,但这些方法通常存在跨模态对齐问题。一种新的范式(Graph-R1)通过采用纯文本格式并利用基于LLM的图推理克服了上述架构依赖性,显示出改进的零样本泛化能力。然而,它采用了一种与任务无关的、一刀切的子图提取策略,这不可避免地引入了显著的结构噪声——不相关的邻居和边——扭曲了LLM的感受野,导致次优的预测。为了解决这个限制,我们引入了GraphSSR,这是一个新颖的框架,专为基于LLM的零样本图推理中的自适应子图提取和去噪而设计。具体来说,我们提出了SSR流程,该流程通过“采样-选择-推理”过程动态地定制子图提取以适应特定上下文,使模型能够自主地过滤掉与任务无关的邻居并克服一刀切的问题。为了内化这种能力,我们开发了SSR-SFT,一种数据合成策略,用于生成高质量的SSR风格的图推理轨迹,以用于LLM的监督微调。此外,我们提出了SSR-RL,一个两阶段强化学习框架,它显式地调节所提出的SSR流程中的采样和选择操作,专为自适应子图去噪而设计。通过结合真实性增强和去噪增强的强化学习,我们引导模型使用简约的、去噪的子图来实现准确的预测。

🔬 方法详解

问题定义:论文旨在解决零样本图学习中,现有方法采用固定子图提取策略导致LLM推理性能下降的问题。现有方法,如Graph-R1,虽然避免了跨模态对齐问题,但其一刀切的子图提取方式引入了大量与任务无关的噪声,干扰了LLM的推理过程。

核心思路:论文的核心思路是设计一个自适应的子图提取和去噪流程,使模型能够根据不同的任务动态地选择相关的邻居节点和边,从而减少噪声干扰,提升LLM的推理准确性。这种自适应性是通过一个“采样-选择-推理”(Sample-Select-Reason, SSR)的流程来实现的。

技术框架:GraphSSR框架主要包含以下几个模块:1) SSR流程:包括采样(Sample)、选择(Select)和推理(Reason)三个阶段,用于动态提取和去噪子图。2) SSR-SFT:一种数据合成策略,用于生成高质量的SSR风格的图推理轨迹,用于监督微调LLM。3) SSR-RL:一个两阶段强化学习框架,用于显式地调节SSR流程中的采样和选择操作。

关键创新:论文的关键创新在于提出了SSR流程,它能够根据不同的任务自适应地提取和去噪子图。与现有方法采用固定子图提取策略不同,SSR流程能够动态地选择相关的邻居节点和边,从而减少噪声干扰。此外,SSR-SFT和SSR-RL进一步提升了模型的自适应性和推理准确性。

关键设计:SSR-SFT通过生成高质量的图推理轨迹来微调LLM,使其更好地理解图结构和任务需求。SSR-RL采用两阶段强化学习,第一阶段使用真实性增强(Authenticity-Reinforced RL)来鼓励模型生成更真实的子图,第二阶段使用去噪增强(Denoising-Reinforced RL)来鼓励模型选择更干净的子图。具体的奖励函数设计需要根据具体的任务进行调整,以平衡真实性和去噪效果。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文提出的GraphSSR框架在多个零样本图学习任务上取得了显著的性能提升。实验结果表明,GraphSSR能够有效地减少噪声干扰,提升LLM的推理准确性。具体的性能数据和对比基线需要在论文中查找,但总体趋势是GraphSSR优于现有的零样本图学习方法。

🎯 应用场景

该研究成果可应用于各种零样本图学习任务,例如知识图谱补全、药物发现、社交网络分析等。通过自适应子图去噪,可以提升LLM在这些任务中的推理准确性和泛化能力,从而更好地解决实际问题。未来,该方法有望扩展到更复杂的图结构和任务类型。

📄 摘要(原文)

Graph-based tasks in the zero-shot setting remain a significant challenge due to data scarcity and the inability of traditional Graph Neural Networks (GNNs) to generalize to unseen domains or label spaces. While recent advancements have transitioned toward leveraging Large Language Models (LLMs) as predictors to enhance GNNs, these methods often suffer from cross-modal alignment issues. A recent paradigm (i.e., Graph-R1) overcomes the aforementioned architectural dependencies by adopting a purely text-based format and utilizing LLM-based graph reasoning, showing improved zero-shot generalization. However, it employs a task-agnostic, one-size-fits-all subgraph extraction strategy, which inevitably introduces significant structural noise--irrelevant neighbors and edges--that distorts the LLMs' receptive field and leads to suboptimal predictions. To address this limitation, we introduce GraphSSR, a novel framework designed for adaptive subgraph extraction and denoising in zero-shot LLM-based graph reasoning. Specifically, we propose the SSR pipeline, which dynamically tailors subgraph extraction to specific contexts through a "Sample-Select-Reason" process, enabling the model to autonomously filter out task-irrelevant neighbors and overcome the one-size-fits-all issue. To internalize this capability, we develop SSR-SFT, a data synthesis strategy that generates high-quality SSR-style graph reasoning traces for supervised fine-tuning of LLMs. Furthermore, we propose SSR-RL, a two-stage reinforcement learning framework that explicitly regulates sampling and selection operations within the proposed SSR pipeline designed for adaptive subgraph denoising. By incorporating Authenticity-Reinforced and Denoising-Reinforced RL, we guide the model to achieve accurate predictions using parsimonious, denoised subgraphs for reasoning.