DGNet: Discrete Green Networks for Data-Efficient Learning of Spatiotemporal PDEs
作者: Yingjie Tan, Quanming Yao, Yaqing Wang
分类: cs.LG
发布日期: 2026-03-02
备注: Accepted as a conference paper at ICLR 2026
💡 一句话要点
DGNet:离散格林网络,用于数据高效的时空偏微分方程学习
🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)
关键词: 偏微分方程 格林函数 神经网络 数据高效学习 时空建模
📋 核心要点
- 现有神经PDE求解器需要大量训练数据,而生成高保真PDE数据成本高昂,限制了其在数据受限场景下的应用。
- DGNet利用格林函数理论作为结构归纳偏置,将格林函数离散化为图结构,并嵌入叠加原理,降低了模型学习物理先验的难度。
- 实验表明,DGNet仅需少量训练数据即可达到SOTA精度,并对未见过的源项具有良好的零样本泛化能力。
📝 摘要(中文)
时空偏微分方程(PDEs)是众多科学和工程应用的基础。神经PDE求解器为经典的数值方法提供了一种有前景的替代方案。然而,现有的方法通常需要大量的训练轨迹,而高保真PDE数据的生成成本很高。在有限的数据下,它们的性能会大幅下降,突显了其较低的数据效率。一个关键原因是,PDE动力学体现了强大的结构归纳偏置,而这些偏置并没有在神经架构中显式编码,迫使模型从数据中学习基本的物理结构。这种低效率的一个特别显著的体现是对未见过的源项的泛化能力较差。在这项工作中,我们重新审视格林函数理论——PDE理论的基石——作为PDE学习的结构归纳偏置的原则性来源。基于这一洞察,我们提出了DGNet,一种用于数据高效学习时空PDE的离散格林网络。其核心思想是将格林函数转换为基于图的离散公式,并将叠加原理嵌入到混合物理-神经架构中,从而减轻了从数据中学习物理先验的负担,从而提高了样本效率。在各种时空PDE场景中,DGNet仅使用数十个训练轨迹就能始终如一地实现最先进的精度。此外,它还表现出对未见过的源项的鲁棒的零样本泛化能力,这可以作为一种压力测试,突显其数据高效的结构设计。
🔬 方法详解
问题定义:现有神经PDE求解器在数据量不足的情况下,性能显著下降,泛化能力差,尤其是在面对未见过的源项时。这是因为模型需要从数据中学习潜在的物理结构,而这种学习过程在数据量有限时非常困难。
核心思路:论文的核心思路是将格林函数理论引入到神经PDE求解器中,利用格林函数作为一种结构归纳偏置,帮助模型更好地学习PDE的解。格林函数是PDE理论的基石,它提供了一种将PDE的解表示为源项的积分的方法。通过将格林函数嵌入到模型中,可以减少模型从数据中学习物理先验的负担,从而提高数据效率。
技术框架:DGNet的整体架构是一个混合物理-神经架构。首先,将格林函数离散化为图结构,图的节点表示空间中的点,边表示点之间的关系。然后,使用神经网络来学习离散格林函数。最后,利用叠加原理,将各个源项对应的解叠加起来,得到最终的PDE解。该框架包含以下主要模块:离散格林函数模块、神经网络学习模块和叠加模块。
关键创新:DGNet最重要的技术创新点在于将格林函数理论与神经网络相结合,提出了一种数据高效的PDE求解方法。与现有方法相比,DGNet不需要从头开始学习物理结构,而是利用格林函数作为一种先验知识,从而大大减少了对数据的需求。此外,DGNet还具有良好的泛化能力,可以很好地处理未见过的源项。
关键设计:DGNet的关键设计包括:1) 将格林函数离散化为图结构,以便于神经网络学习;2) 使用神经网络来学习离散格林函数,可以选择不同的网络结构,如GCN或GAT;3) 利用叠加原理,将各个源项对应的解叠加起来,得到最终的PDE解;4) 损失函数的设计,可以采用均方误差或其他的损失函数来训练模型。
🖼️ 关键图片
📊 实验亮点
DGNet在多个时空PDE场景中取得了SOTA的精度,仅使用数十个训练轨迹。例如,在Burgers方程的求解中,DGNet的精度明显优于现有的神经PDE求解器。此外,DGNet还表现出对未见过的源项的鲁棒的零样本泛化能力,这表明DGNet具有很强的数据效率和泛化能力。
🎯 应用场景
DGNet在科学和工程领域具有广泛的应用前景,例如流体动力学、热传导、电磁学等。它可以用于解决各种时空偏微分方程问题,例如预测流体的速度和压力分布、预测温度场的变化、预测电磁场的分布等。DGNet的实际价值在于它可以提高PDE求解的效率和精度,尤其是在数据量有限的情况下。未来,DGNet可以进一步扩展到更复杂的PDE问题,并与其他技术相结合,例如强化学习,以实现更智能的PDE求解。
📄 摘要(原文)
Spatiotemporal partial differential equations (PDEs) underpin a wide range of scientific and engineering applications. Neural PDE solvers offer a promising alternative to classical numerical methods. However, existing approaches typically require large numbers of training trajectories, while high-fidelity PDE data are expensive to generate. Under limited data, their performance degrades substantially, highlighting their low data efficiency. A key reason is that PDE dynamics embody strong structural inductive biases that are not explicitly encoded in neural architectures, forcing models to learn fundamental physical structure from data. A particularly salient manifestation of this inefficiency is poor generalization to unseen source terms. In this work, we revisit Green's function theory-a cornerstone of PDE theory-as a principled source of structural inductive bias for PDE learning. Based on this insight, we propose DGNet, a discrete Green network for data-efficient learning of spatiotemporal PDEs. The key idea is to transform the Green's function into a graph-based discrete formulation, and embed the superposition principle into the hybrid physics-neural architecture, which reduces the burden of learning physical priors from data, thereby improving sample efficiency. Across diverse spatiotemporal PDE scenarios, DGNet consistently achieves state-of-the-art accuracy using only tens of training trajectories. Moreover, it exhibits robust zero-shot generalization to unseen source terms, serving as a stress test that highlights its data-efficient structural design.