TriaGS: Differentiable Triangulation-Guided Geometric Consistency for 3D Gaussian Splatting

📄 arXiv: 2512.06269v1 📥 PDF

作者: Quan Tran, Tuan Dang

分类: cs.CV

发布日期: 2025-12-06

备注: 10 pages

期刊: WACV 2026


💡 一句话要点

TriaGS:通过可微三角测量引导几何一致性的3D高斯溅射

🎯 匹配领域: 支柱三:空间感知 (Perception & SLAM) 支柱七:动作重定向 (Motion Retargeting)

关键词: 3D高斯溅射 几何一致性 三角测量 新视角合成 三维重建

📋 核心要点

  1. 现有3D高斯溅射方法仅依赖光度损失,导致重建几何体不一致,产生漂浮伪影。
  2. TriaGS通过引入可微三角测量,在多视角下强制几何一致性,优化3D表示。
  3. 实验表明,TriaGS在DTU数据集上实现了0.50mm的Chamfer距离,优于现有方法。

📝 摘要(中文)

3D高斯溅射因其效率和渲染逼真图像的能力,在实时新视角合成中至关重要。然而,3D高斯的构建仅由光度损失引导,这可能导致重建中的不一致。这种欠约束的过程通常会导致“漂浮物”伪影和非结构化几何体,从而阻碍了高保真表面的提取。为了解决这个问题,本文提出了一种新方法,通过约束多视角三角测量来加强全局几何一致性,从而改进重建。我们的方法旨在通过利用各种估计的视图,在物理世界中的3D表示上达成共识。我们通过惩罚渲染的3D点与鲁棒的共识点(该点以自监督的方式从相邻视图的束中重新三角化)的偏差来优化此过程。我们在多个数据集上证明了我们方法的有效性,实现了最先进的结果。在DTU数据集上,我们的方法达到了0.50毫米的平均Chamfer距离,优于可比的显式方法。我们将开源我们的代码,以方便社区验证并确保可重复性。

🔬 方法详解

问题定义:现有3D高斯溅射方法主要依赖于光度损失进行优化,缺乏对几何结构的约束。这导致重建的3D场景中出现“漂浮物”伪影,几何结构不规则,难以提取高质量的表面模型。因此,如何提升3D高斯溅射的几何一致性是亟待解决的问题。

核心思路:TriaGS的核心思路是通过引入多视角三角测量来约束3D高斯溅射的优化过程。具体来说,该方法利用多个视角的观测信息,对3D高斯溅射中的每个点进行三角测量,得到一个“共识点”。然后,通过惩罚渲染的3D点与该共识点之间的偏差,来强制几何一致性。这样设计的目的是利用多视角信息来纠正单个视角下的误差,从而提高重建的准确性和鲁棒性。

技术框架:TriaGS的整体框架可以概括为以下几个步骤:1) 使用现有的3D高斯溅射方法初始化3D场景;2) 对于每个3D高斯点,从多个相邻视角进行渲染,得到多个2D投影点;3) 对这些2D投影点进行三角测量,得到一个3D共识点;4) 计算渲染的3D点与共识点之间的距离,作为几何一致性损失;5) 将几何一致性损失与光度损失结合,共同优化3D高斯溅射的参数。

关键创新:TriaGS的关键创新在于引入了可微的三角测量模块,并将其与3D高斯溅射的优化过程相结合。与传统的几何约束方法不同,TriaGS的三角测量过程是可微的,因此可以直接通过梯度下降来优化3D高斯溅射的参数。此外,TriaGS还采用了一种自监督的方式来选择用于三角测量的视角,从而提高了方法的鲁棒性。

关键设计:TriaGS的关键设计包括:1) 使用鲁棒的三角测量方法,例如最小二乘法或RANSAC,来减少噪声的影响;2) 设计合适的几何一致性损失函数,例如Chamfer距离或点到平面的距离,来衡量渲染的3D点与共识点之间的偏差;3) 使用自监督的方式选择用于三角测量的视角,例如选择具有较高置信度的视角;4) 平衡光度损失和几何一致性损失的权重,以获得最佳的重建效果。

📊 实验亮点

TriaGS在DTU数据集上取得了显著的性能提升,平均Chamfer距离达到了0.50mm,超越了现有的显式三维重建方法。实验结果表明,TriaGS能够有效地减少“漂浮物”伪影,并生成更规则的几何结构。此外,TriaGS在多个数据集上都表现出了良好的泛化能力,证明了其鲁棒性和实用性。

🎯 应用场景

TriaGS在三维重建、新视角合成、虚拟现实/增强现实等领域具有广泛的应用前景。该方法可以用于创建高质量的3D模型,从而提升用户在虚拟环境中的沉浸感和交互体验。此外,TriaGS还可以应用于自动驾驶、机器人导航等领域,为这些应用提供更准确、更鲁棒的环境感知能力。未来,TriaGS有望成为三维视觉领域的重要技术之一。

📄 摘要(原文)

3D Gaussian Splatting is crucial for real-time novel view synthesis due to its efficiency and ability to render photorealistic images. However, building a 3D Gaussian is guided solely by photometric loss, which can result in inconsistencies in reconstruction. This under-constrained process often results in "floater" artifacts and unstructured geometry, preventing the extraction of high-fidelity surfaces. To address this issue, our paper introduces a novel method that improves reconstruction by enforcing global geometry consistency through constrained multi-view triangulation. Our approach aims to achieve a consensus on 3D representation in the physical world by utilizing various estimated views. We optimize this process by penalizing the deviation of a rendered 3D point from a robust consensus point, which is re-triangulated from a bundle of neighboring views in a self-supervised fashion. We demonstrate the effectiveness of our method across multiple datasets, achieving state-of-the-art results. On the DTU dataset, our method attains a mean Chamfer Distance of 0.50 mm, outperforming comparable explicit methods. We will make our code open-source to facilitate community validation and ensure reproducibility.