Graph neural network force fields for adiabatic dynamics of lattice Hamiltonians
作者: Yunhao Fan, Gia-Wei Chern
分类: cond-mat.str-el, cs.LG, physics.comp-ph
发布日期: 2026-03-02
备注: 17 pages, 7 figures
💡 一句话要点
提出基于图神经网络的力场模型,用于晶格哈密顿量的绝热动力学模拟。
🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)
关键词: 图神经网络 力场模型 晶格哈密顿量 绝热动力学 对称性 大规模模拟 凝聚态物理
📋 核心要点
- 现有基于描述符的神经网络在处理晶格对称性时需要手动设计特征,过程复杂且缺乏统一性。
- 论文提出基于图神经网络的力场模型,通过消息传递和权重共享直接嵌入晶格对称性。
- 实验表明,该GNN模型在精度、可扩展性和迁移性方面表现出色,并成功应用于大规模动力学模拟。
📝 摘要(中文)
可扩展且对称性一致的力场模型对于将量子精确模拟扩展到大的时空尺度至关重要。虽然基于描述符的神经网络可以通过精心设计的特征来结合晶格对称性,但我们表明,图神经网络(GNN)提供了一个概念上更简单和更统一的替代方案,其中离散晶格平移和点群对称性直接通过局部消息传递和权重共享来强制执行。我们开发了一个基于GNN的力场框架,用于晶格哈密顿量的绝热动力学,并以半经典Holstein模型为例进行了演示。在精确对角化数据上训练后,GNN实现了高力精度,严格的系统大小线性缩放,以及直接转移到大型晶格的能力。在这种可扩展性的支持下,我们进行了热淬火后电荷密度波排序的大规模朗之万模拟,揭示了动态缩放和异常缓慢的亚Allen-Cahn粗化。这些结果确立了GNN作为一种优雅而高效的架构,用于相关晶格系统的大规模对称感知动态模拟。
🔬 方法详解
问题定义:论文旨在解决量子精确模拟在处理大规模时空尺度系统时面临的挑战,即如何构建可扩展且能有效利用晶格对称性的力场模型。现有基于描述符的神经网络虽然可以结合晶格对称性,但需要人工设计复杂的特征,过程繁琐且缺乏通用性。
核心思路:论文的核心思路是利用图神经网络(GNN)的特性,将晶格结构表示为图,并通过局部消息传递和权重共享来直接嵌入离散晶格平移和点群对称性。这种方法避免了手动设计特征的需要,提供了一种更简洁和统一的解决方案。
技术框架:该框架主要包含以下几个步骤:1) 将晶格系统表示为图结构,其中节点代表原子或格点,边代表原子间的相互作用;2) 使用GNN进行消息传递,每个节点根据其邻居节点的信息更新自身的状态;3) 通过权重共享机制,确保模型对晶格平移和点群对称性的不变性;4) 利用训练数据(例如,通过精确对角化计算得到的力)训练GNN模型,使其能够准确预测原子受力;5) 将训练好的GNN力场应用于大规模动力学模拟,例如朗之万动力学模拟。
关键创新:该论文的关键创新在于将图神经网络应用于晶格系统的力场建模,并利用GNN的特性直接嵌入晶格对称性。与传统的基于描述符的神经网络相比,该方法无需手动设计特征,简化了建模过程,并提高了模型的泛化能力。此外,该方法实现了严格的线性缩放,使其能够应用于大规模系统的模拟。
关键设计:论文中GNN的具体结构和参数设置未知,摘要中没有详细描述。损失函数可能基于预测力和真实力之间的差异。消息传递机制和权重共享策略是确保对称性的关键。具体实现细节需要参考论文全文。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该GNN力场模型在精确对角化数据上训练后,能够实现高精度的原子受力预测,并具有严格的线性缩放特性。该模型可以直接迁移到大型晶格系统,并成功应用于热淬火后电荷密度波排序的大规模朗之万模拟,揭示了动态缩放和异常缓慢的亚Allen-Cahn粗化现象。具体的性能数据和提升幅度在摘要中未给出。
🎯 应用场景
该研究成果可广泛应用于凝聚态物理、材料科学等领域,例如模拟复杂晶格材料的相变、缺陷动力学、以及输运性质等。通过构建高效且精确的力场模型,可以显著降低计算成本,从而实现对大规模材料体系的模拟,加速新材料的发现和设计。
📄 摘要(原文)
Scalable and symmetry-consistent force-field models are essential for extending quantum-accurate simulations to large spatiotemporal scales. While descriptor-based neural networks can incorporate lattice symmetries through carefully engineered features, we show that graph neural networks (GNNs) provide a conceptually simpler and more unified alternative in which discrete lattice translation and point-group symmetries are enforced directly through local message passing and weight sharing. We develop a GNN-based force-field framework for the adiabatic dynamics of lattice Hamiltonians and demonstrate it for the semiclassical Holstein model. Trained on exact-diagonalization data, the GNN achieves high force accuracy, strict linear scaling with system size, and direct transferability to large lattices. Enabled by this scalability, we perform large-scale Langevin simulations of charge-density-wave ordering following thermal quenches, revealing dynamical scaling and anomalously slow sub--Allen--Cahn coarsening. These results establish GNNs as an elegant and efficient architecture for symmetry-aware, large-scale dynamical simulations of correlated lattice systems.