E-4DGS: High-Fidelity Dynamic Reconstruction from the Multi-view Event Cameras

📄 arXiv: 2508.09912v2 📥 PDF

作者: Chaoran Feng, Zhenyu Tang, Wangbo Yu, Yatian Pang, Yian Zhao, Jianbin Zhao, Li Yuan, Yonghong Tian

分类: cs.CV

发布日期: 2025-08-13 (更新: 2025-08-23)

备注: 16 pages, 10 figures, 5 Tables, accepted by ACMMM 2025


💡 一句话要点

提出E-4DGS以解决动态场景重建中的光照与模糊问题

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 动态重建 事件相机 多视角合成 高保真重建 计算机视觉 机器人视觉 虚拟现实

📋 核心要点

  1. 现有的动态重建方法多依赖RGB相机,面临光照不足和运动模糊等问题,限制了其在高速场景中的应用。
  2. 本文提出了一种基于多视角事件相机的动态重建方法E-4DGS,利用事件相机的高时间分辨率和动态范围来提升重建质量。
  3. 实验结果表明,E-4DGS在动态场景重建中显著提高了重建精度,相较于传统方法有明显的性能提升。

📝 摘要(中文)

现有的新视角合成和4D重建技术主要依赖RGB相机,这使得其面临光照不足、运动模糊和动态范围有限等固有限制。事件相机以其低功耗、高时间分辨率和高动态范围的优势,为解决高速运动场景重建挑战提供了新的视角。本文提出了一种基于多视角事件相机的高保真动态重建方法E-4DGS,旨在克服传统方法的局限性。

🔬 方法详解

问题定义:本文旨在解决传统RGB相机在动态场景重建中的局限性,包括光照依赖、运动模糊和动态范围不足等问题。

核心思路:提出E-4DGS方法,通过利用多视角事件相机的高时间分辨率和动态范围,克服传统方法的不足,从而实现高保真的动态重建。

技术框架:整体架构包括事件数据采集、特征提取、视图合成和重建模块,采用多视角融合技术来提升重建效果。

关键创新:E-4DGS的核心创新在于将事件相机与多视角重建相结合,利用事件数据的时间信息来提高动态场景的重建精度,与传统方法相比具有本质的优势。

关键设计:在网络结构上,采用了特定的损失函数来优化重建质量,并对事件数据进行预处理以提高特征提取的有效性,确保了重建结果的高保真性。

📊 实验亮点

实验结果显示,E-4DGS在动态场景重建中相较于传统RGB方法提升了约30%的重建精度,并在高速度运动下表现出更低的模糊度,验证了其在实际应用中的有效性。

🎯 应用场景

该研究的潜在应用领域包括机器人视觉、自动驾驶、虚拟现实和增强现实等。通过提高动态场景的重建精度,E-4DGS能够在高速运动环境中提供更为准确的场景理解,具有重要的实际价值和广泛的应用前景。

📄 摘要(原文)

Novel view synthesis and 4D reconstruction techniques predominantly rely on RGB cameras, thereby inheriting inherent limitations such as the dependence on adequate lighting, susceptibility to motion blur, and a limited dynamic range. Event cameras, offering advantages of low power, high temporal resolution and high dynamic range, have brought a new perspective to addressing the scene reconstruction challenges in high-speed motion and