Estimating Fog Parameters from a Sequence of Stereo Images
作者: Yining Ding, João F. C. Mota, Andrew M. Wallace, Sen Wang
分类: cs.CV
发布日期: 2025-11-25
DOI: 10.1109/TPAMI.2025.3626275
🔗 代码/项目: GITHUB
💡 一句话要点
提出一种基于立体图像序列的雾参数动态估计方法,适用于视觉SLAM和里程计系统。
🎯 匹配领域: 支柱三:空间感知 (Perception & SLAM)
关键词: 雾参数估计 立体视觉 图像序列 大气散射模型 视觉SLAM 数据集 优化算法
📋 核心要点
- 现有雾参数估计方法易产生误差累积,难以处理真实世界中全局非均匀的雾。
- 该方法通过优化问题同时估计所有参数,并假设雾仅局部均匀,从而适应真实雾。
- 实验表明,该方法在合成数据和真实雾数据上均优于现有方法,代码和数据集已开源。
📝 摘要(中文)
本文提出了一种从立体雾图像序列中估计雾模型参数并动态更新参数的方法。与以往顺序估计参数并容易产生误差累积的方法不同,我们的算法通过解决一个新的优化问题来同时估计所有参数。通过假设雾仅在局部是均匀的,我们的方法有效地处理了真实世界的雾,这种雾通常在全局上是不均匀的。所提出的算法可以很容易地用作现有视觉同步定位与地图构建(SLAM)或里程计系统中处理雾的附加模块。为了评估我们的方法,我们还创建了一个新的数据集,即立体真实雾中驾驶(SDIRF),该数据集包含高质量的、连续的真实雾天道路场景立体帧,涵盖各种能见度条件,总计超过40分钟和34k帧。作为首个此类数据集,SDIRF包含在实验室环境中校准的相机的光度参数,这是将大气散射模型正确应用于雾图像的先决条件。该数据集还包括在阴天记录的相同路线的清晰数据,这对于图像去雾和深度重建的配套工作非常有用。我们使用合成雾数据和来自SDIRF的真实雾序列进行了广泛的实验,以证明所提出的算法优于先前的方法。我们的方法不仅在合成数据上产生最准确的估计,而且更好地适应真实雾。我们公开了我们的代码和SDIRF,旨在推进雾中视觉感知的研究。
🔬 方法详解
问题定义:论文旨在解决在存在雾的情况下,如何准确且动态地估计雾模型参数的问题。现有的方法通常采用顺序估计的方式,即先估计一个参数,再利用该参数估计下一个参数,这种方式容易导致误差累积,尤其是在真实雾场景中,雾的分布通常是不均匀的,使得参数估计更加困难。
核心思路:论文的核心思路是同时估计所有雾模型参数,避免误差传递。同时,考虑到真实雾的局部均匀性,算法在局部区域内进行参数估计,从而更好地适应真实雾的复杂分布。通过构建一个优化问题,将所有参数的估计整合到一个框架中,从而实现更准确的参数估计。
技术框架:该方法主要包含以下几个步骤:1) 输入立体雾图像序列;2) 对图像进行预处理,例如图像校正;3) 构建包含所有雾模型参数的优化问题,该优化问题基于大气散射模型;4) 使用优化算法求解该问题,得到雾模型参数的估计值;5) 利用估计的参数动态更新雾模型,用于后续图像的处理。该方法可以作为现有视觉SLAM或里程计系统的附加模块。
关键创新:该方法最重要的创新点在于同时估计所有雾模型参数,避免了传统顺序估计方法中的误差累积问题。此外,该方法考虑了真实雾的局部均匀性,使其能够更好地适应真实雾场景。同时,论文还构建了一个包含真实雾数据的立体图像数据集SDIRF,为相关研究提供了数据支持。
关键设计:论文的关键设计包括:1) 构建合适的优化目标函数,该函数需要能够准确地反映雾模型参数与图像之间的关系;2) 选择合适的优化算法,以高效地求解优化问题;3) 设计合适的局部区域划分策略,以保证雾在局部区域内的均匀性;4) SDIRF数据集的构建,该数据集包含了相机光度参数的校准信息,为雾模型参数的准确估计提供了保障。
📊 实验亮点
实验结果表明,该方法在合成数据和真实雾数据上均优于现有方法。在合成数据上,该方法能够更准确地估计雾模型参数。在真实雾数据上,该方法能够更好地适应真实雾的复杂分布,从而获得更准确的参数估计结果。SDIRF数据集的发布也为相关研究提供了重要的数据支持。
🎯 应用场景
该研究成果可应用于自动驾驶、机器人导航、智能监控等领域,尤其是在雾天等恶劣天气条件下。准确的雾参数估计有助于提高视觉系统的鲁棒性和可靠性,从而提升相关系统的性能和安全性。未来,该方法可以进一步扩展到其他恶劣天气条件下的视觉感知任务。
📄 摘要(原文)
We propose a method which, given a sequence of stereo foggy images, estimates the parameters of a fog model and updates them dynamically. In contrast with previous approaches, which estimate the parameters sequentially and thus are prone to error propagation, our algorithm estimates all the parameters simultaneously by solving a novel optimisation problem. By assuming that fog is only locally homogeneous, our method effectively handles real-world fog, which is often globally inhomogeneous. The proposed algorithm can be easily used as an add-on module in existing visual Simultaneous Localisation and Mapping (SLAM) or odometry systems in the presence of fog. In order to assess our method, we also created a new dataset, the Stereo Driving In Real Fog (SDIRF), consisting of high-quality, consecutive stereo frames of real, foggy road scenes under a variety of visibility conditions, totalling over 40 minutes and 34k frames. As a first-of-its-kind, SDIRF contains the camera's photometric parameters calibrated in a lab environment, which is a prerequisite for correctly applying the atmospheric scattering model to foggy images. The dataset also includes the counterpart clear data of the same routes recorded in overcast weather, which is useful for companion work in image defogging and depth reconstruction. We conducted extensive experiments using both synthetic foggy data and real foggy sequences from SDIRF to demonstrate the superiority of the proposed algorithm over prior methods. Our method not only produces the most accurate estimates on synthetic data, but also adapts better to real fog. We make our code and SDIRF publicly available\footnote{https://github.com/SenseRoboticsLab/estimating-fog-parameters} to the community with the aim of advancing the research on visual perception in fog.