Errors in Stereo Geometry Induce Distance Misperception

📄 arXiv: 2505.23685v2 📥 PDF

作者: Raffles Xingqi Zhu, Charlie S. Burlingham, Olivier Mercier, Phillip Guan

分类: cs.HC, cs.GR

发布日期: 2025-05-29 (更新: 2025-09-28)


💡 一句话要点

提出几何框架以解决立体几何引起的距离感知误差问题

🎯 匹配领域: 支柱六:视频提取与匹配 (Video Extraction)

关键词: 立体显示 距离感知 几何框架 虚拟现实 实时反馈 用户体验 深度学习

📋 核心要点

  1. 立体显示技术中,渲染和观察位置的误差会导致用户对深度和距离的感知偏差,这是现有方法的主要挑战。
  2. 本文提出了一种几何框架,能够预测HMD透视几何不准确引起的距离感知误差,并通过实验验证其有效性。
  3. 实验结果显示,透视几何的误差会导致用户对距离的低估和高估,实时视觉反馈能够有效校准用户的运动映射。

📝 摘要(中文)

立体头戴显示器(HMD)通过渲染双眼图像为用户创造三维感知。然而,渲染相机和观察位置的错误可能导致用户对深度和距离的感知偏差。本文提出了一种几何框架,预测由于HMD透视几何不准确而导致的距离感知误差,并构建了一个HMD平台以实验验证这些预测。通过五个实验,结果表明透视几何的错误会导致用户对距离的低估和高估。此外,实时视觉反馈可以动态校准视觉运动映射,从而实现准确的到达距离,即使在几何误差影响下也能保持视觉距离的准确性。

🔬 方法详解

问题定义:本文旨在解决立体头戴显示器中由于渲染相机和观察位置错误引起的距离感知误差问题。现有方法未能有效处理这些几何误差,导致用户的深度感知不准确。

核心思路:提出了一种几何框架,通过分析HMD的透视几何,预测因几何不准确导致的距离感知误差。该框架结合实验验证,确保理论与实践相结合。

技术框架:整体架构包括几何误差预测模块、HMD平台的构建以及实验验证阶段。主要模块包括渲染相机位置校正、用户观察位置监测和实时反馈机制。

关键创新:最重要的创新在于建立了一个可预测距离感知误差的几何框架,并通过实验验证了该框架的有效性,显著提升了对立体几何的理解。

关键设计:在实验中,使用了Quest 3 HMD与眼动追踪技术,设置了多个观察位置和渲染参数,以确保对不同几何误差的全面测试。

📊 实验亮点

实验结果表明,透视几何的误差导致用户对距离的低估和高估,实时视觉反馈机制能够有效校准用户的运动映射。通过五个实验,验证了几何框架的有效性,提升了用户的距离感知准确性。

🎯 应用场景

该研究在虚拟现实、增强现实等领域具有广泛的应用潜力,能够提升用户的沉浸感和交互体验。通过优化HMD的几何设计和实时反馈机制,可以在未来的产品中实现更准确的距离感知,进而改善用户体验。

📄 摘要(原文)

Stereoscopic head-mounted displays (HMDs) render and present binocular images to create an egocentric, 3D percept to the HMD user. Within this render and presentation pipeline there are potential rendering camera and viewing position errors that can induce deviations in the depth and distance that a user perceives compared to the underlying intended geometry. For example, rendering errors can arise when HMD render cameras are incorrectly positioned relative to the assumed centers of projections of the HMD displays and viewing errors can arise when users view stereo geometry from the incorrect location in the HMD eyebox. In this work we present a geometric framework that predicts errors in distance perception arising from inaccurate HMD perspective geometry and build an HMD platform to reliably simulate render and viewing error in a Quest 3 HMD with eye tracking to experimentally test these predictions. We present a series of five experiments to explore the efficacy of this geometric framework and show that errors in perspective geometry can induce both under- and over-estimations in perceived distance. We further demonstrate how real-time visual feedback can be used to dynamically recalibrate visuomotor mapping so that an accurate reach distance is achieved even if the perceived visual distance is negatively impacted by geometric error.