Reconstructing 3D Scenes in Native High Dynamic Range
作者: Kaixuan Zhang, Minxian Li, Mingwu Ren, Jiankang Deng, Xiatian Zhu
分类: cs.CV
发布日期: 2025-11-17
💡 一句话要点
提出NH-3DGS,直接从原生HDR数据重建高质量3D场景
🎯 匹配领域: 支柱三:空间感知 (Perception & SLAM)
关键词: 3D场景重建 高动态范围成像 原生HDR 3D高斯溅射 亮度-色度分解
📋 核心要点
- 现有3D场景重建方法主要基于LDR数据,无法满足专业领域对HDR内容的需求,且依赖多曝光融合等技术增加了捕获难度。
- 论文提出NH-3DGS,通过亮度-色度分解颜色表示,直接从原生HDR相机数据优化,保留重建过程中的完整动态范围。
- 实验结果表明,NH-3DGS在重建质量和动态范围保持方面显著优于现有方法,实现了专业级的3D重建效果。
📝 摘要(中文)
高动态范围(HDR)成像对于专业的数字媒体创作至关重要,例如电影制作、虚拟制作和照片级真实感渲染。然而,3D场景重建主要集中在低动态范围(LDR)数据上,限制了其在专业工作流程中的应用。现有的从LDR观测重建HDR场景的方法依赖于多曝光融合或逆色调映射,这增加了捕获的复杂性并依赖于合成监督。随着最近能够单次曝光直接捕获原生HDR数据的相机的出现,我们提出了第一个直接建模原生HDR观测的3D场景重建方法。我们提出了原生高动态范围3D高斯溅射(NH-3DGS),它在整个重建流程中保留了完整的动态范围。我们的关键技术贡献是颜色表示的一种新颖的亮度-色度分解,它能够直接从原生HDR相机数据进行优化。我们在合成和真实的多视角HDR数据集上证明,NH-3DGS在重建质量和动态范围保持方面显著优于现有方法,从而能够直接从原生HDR捕获实现专业级的3D重建。代码和数据集将会开源。
🔬 方法详解
问题定义:现有3D场景重建方法主要处理LDR图像,无法充分利用原生HDR相机捕获的信息。依赖多曝光融合或逆色调映射的方法,增加了数据采集的复杂性,并且可能引入伪影,影响重建质量。因此,需要一种能够直接处理原生HDR数据,并有效利用其高动态范围信息的3D重建方法。
核心思路:论文的核心思路是直接利用原生HDR相机捕获的数据进行3D场景重建,避免中间转换过程带来的信息损失。通过对颜色表示进行亮度-色度分解,将高动态范围的亮度信息与色度信息分离,从而更好地优化重建过程。这种方法能够充分利用HDR图像的动态范围,提高重建质量。
技术框架:NH-3DGS的整体框架基于3D高斯溅射(3DGS)。首先,使用原生HDR图像作为输入。然后,对颜色信息进行亮度-色度分解。接着,利用分解后的信息优化3D高斯参数,包括位置、旋转、缩放、不透明度和颜色。最后,通过渲染得到重建的3D场景。整个流程直接在HDR空间进行,避免了动态范围的损失。
关键创新:该方法最重要的创新点在于提出了亮度-色度分解的颜色表示方法,使其能够直接从原生HDR相机数据进行优化。这种分解方式能够更好地处理HDR图像的高动态范围特性,避免了传统方法中由于动态范围压缩而导致的信息损失。此外,该方法是第一个直接建模原生HDR观测的3D场景重建方法。
关键设计:在亮度-色度分解中,亮度通道使用对数亮度,色度通道使用归一化RGB值。损失函数包括渲染损失和正则化项。渲染损失用于衡量重建图像与真实图像之间的差异,正则化项用于约束3D高斯参数,防止过拟合。具体参数设置和网络结构细节在论文中有详细描述(未知)。
📊 实验亮点
NH-3DGS在合成和真实数据集上均取得了显著的性能提升。在重建质量方面,NH-3DGS优于现有的基于LDR数据的3D重建方法,以及基于多曝光融合的HDR重建方法。在动态范围保持方面,NH-3DGS能够更好地保留原始HDR图像的动态范围信息,重建的场景具有更高的对比度和更丰富的细节。具体性能数据和对比基线在论文中有详细展示(未知)。
🎯 应用场景
该研究成果可广泛应用于电影制作、虚拟现实、增强现实、游戏开发等领域。通过直接从原生HDR数据重建3D场景,可以提高场景的真实感和沉浸感,为用户带来更逼真的视觉体验。此外,该方法还可以应用于文物数字化保护、工业检测等领域,为相关应用提供高质量的3D模型。
📄 摘要(原文)
High Dynamic Range (HDR) imaging is essential for professional digital media creation, e.g., filmmaking, virtual production, and photorealistic rendering. However, 3D scene reconstruction has primarily focused on Low Dynamic Range (LDR) data, limiting its applicability to professional workflows. Existing approaches that reconstruct HDR scenes from LDR observations rely on multi-exposure fusion or inverse tone-mapping, which increase capture complexity and depend on synthetic supervision. With the recent emergence of cameras that directly capture native HDR data in a single exposure, we present the first method for 3D scene reconstruction that directly models native HDR observations. We propose {\bf Native High dynamic range 3D Gaussian Splatting (NH-3DGS)}, which preserves the full dynamic range throughout the reconstruction pipeline. Our key technical contribution is a novel luminance-chromaticity decomposition of the color representation that enables direct optimization from native HDR camera data. We demonstrate on both synthetic and real multi-view HDR datasets that NH-3DGS significantly outperforms existing methods in reconstruction quality and dynamic range preservation, enabling professional-grade 3D reconstruction directly from native HDR captures. Code and datasets will be made available.