GuideNav: User-Informed Development of a Vision-Only Robotic Navigation Assistant For Blind Travelers

📄 arXiv: 2512.06147v1 📥 PDF

作者: Hochul Hwang, Soowan Yang, Jahir Sadik Monon, Nicholas A Giudice, Sunghoon Ivan Lee, Joydeep Biswas, Donghyun Kim

分类: cs.RO, cs.CV, cs.HC

发布日期: 2025-12-05


💡 一句话要点

GuideNav:面向视障人士的纯视觉机器人导航助手,通过用户调研指导开发

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知 (Perception & SLAM)

关键词: 机器人导航 视觉导航 盲人辅助 示教-重复 拓扑地图

📋 核心要点

  1. 现有盲人辅助导航系统缺乏以用户为中心的设计,难以满足实际需求,且依赖昂贵的传感器。
  2. GuideNav通过深入的用户调研,模仿导盲犬的工作方式,构建纯视觉的示教-重复导航系统。
  3. 实验表明,GuideNav能够在多种户外环境中实现公里级的可靠导航,用户研究也验证了其可行性。

📝 摘要(中文)

针对盲人和低视力(BLV)人群的移动辅助系统,虽然在以用户为中心的研究方面取得了显著进展,但直接指导机器人导航设计的参考仍然很少。为了弥合这一差距,我们进行了一项全面的用户研究,包括对26名导盲犬使用者、4名盲杖使用者、9名导盲犬训练员和1名定向与行动训练员的访谈,以及超过15小时的导盲犬辅助行走观察。经过匿名化处理后,我们开源了该数据集,以促进以人为本的开发,并为BLV人群辅助系统的知情决策提供依据。基于这项形成性研究的见解,我们开发了GuideNav,一种纯视觉的、示教-重复导航系统。受导盲犬训练和辅助其使用者的启发,GuideNav使用机器人自主地重复由视力正常的人演示的路径。具体来说,该系统构建了示教路线的拓扑表示,将视觉位置识别与时间滤波相结合,并采用相对姿态估计器来计算导航动作——所有这些都不依赖于昂贵、笨重、耗电的传感器,如激光雷达。在现场测试中,GuideNav在五个户外环境中始终如一地实现了公里级的路线跟随,即使在示教和重复运行之间存在明显的场景变化,也能保持可靠性。一项针对3名导盲犬使用者和1名导盲犬训练员的用户研究进一步证实了该系统的可行性,这标志着(据我们所知)首次展示了四足移动系统以类似于导盲犬的方式检索路径。

🔬 方法详解

问题定义:现有盲人导航辅助系统通常依赖于昂贵且耗电的传感器(如激光雷达),或者缺乏对用户需求的深入理解,导致系统在实际应用中效果不佳。因此,需要开发一种低成本、高可靠性,并且真正以用户为中心的盲人导航辅助系统。

核心思路:本论文的核心思路是模仿导盲犬的工作方式,通过“示教-重复”的方式实现导航。首先,由视力正常的人演示一遍路线,机器人学习并记住该路线。然后,机器人自主地重复该路线,为盲人提供导航辅助。这种方法的优势在于,它能够充分利用视觉信息,避免对昂贵传感器的依赖,并且能够根据用户的实际需求进行定制。

技术框架:GuideNav系统的整体架构包括以下几个主要模块:1) 数据采集:通过视觉传感器获取环境图像。2) 拓扑地图构建:将示教路线表示为拓扑地图,每个节点代表一个关键位置。3) 视觉位置识别:使用视觉位置识别技术,确定当前位置在拓扑地图中的位置。4) 时间滤波:利用时间信息对位置识别结果进行滤波,提高鲁棒性。5) 相对姿态估计:估计当前位置相对于目标位置的相对姿态。6) 导航控制:根据相对姿态,控制机器人进行导航。

关键创新:该论文的关键创新在于:1) 纯视觉导航:完全依赖视觉信息进行导航,无需激光雷达等昂贵传感器。2) 模仿导盲犬:通过模仿导盲犬的工作方式,设计导航系统,更符合用户的实际需求。3) 拓扑地图表示:使用拓扑地图表示路线,能够有效地处理环境变化。

关键设计:在视觉位置识别方面,采用了基于深度学习的方法,训练了一个能够提取图像特征的神经网络。在时间滤波方面,使用了卡尔曼滤波器,对位置识别结果进行平滑处理。在相对姿态估计方面,使用了视觉里程计技术,估计机器人的运动轨迹。此外,还设计了一套导航控制算法,能够根据相对姿态,控制机器人进行精确的导航。

📊 实验亮点

GuideNav在五个户外环境中进行了公里级的路线跟随测试,即使在示教和重复运行之间存在明显的场景变化,也能保持可靠性。与3名导盲犬使用者和1名导盲犬训练员进行的用户研究表明,该系统能够以类似于导盲犬的方式检索路径,证实了其可行性。

🎯 应用场景

GuideNav具有广泛的应用前景,可用于盲人导航、老人辅助、以及其他需要自主导航的场景。该系统能够帮助视障人士更加安全、独立地出行,提高生活质量。未来,可以进一步扩展该系统,使其能够处理更复杂的环境,并提供更智能的导航服务。

📄 摘要(原文)

While commendable progress has been made in user-centric research on mobile assistive systems for blind and low-vision (BLV) individuals, references that directly inform robot navigation design remain rare. To bridge this gap, we conducted a comprehensive human study involving interviews with 26 guide dog handlers, four white cane users, nine guide dog trainers, and one O\&M trainer, along with 15+ hours of observing guide dog-assisted walking. After de-identification, we open-sourced the dataset to promote human-centered development and informed decision-making for assistive systems for BLV people. Building on insights from this formative study, we developed GuideNav, a vision-only, teach-and-repeat navigation system. Inspired by how guide dogs are trained and assist their handlers, GuideNav autonomously repeats a path demonstrated by a sighted person using a robot. Specifically, the system constructs a topological representation of the taught route, integrates visual place recognition with temporal filtering, and employs a relative pose estimator to compute navigation actions - all without relying on costly, heavy, power-hungry sensors such as LiDAR. In field tests, GuideNav consistently achieved kilometer-scale route following across five outdoor environments, maintaining reliability despite noticeable scene variations between teach and repeat runs. A user study with 3 guide dog handlers and 1 guide dog trainer further confirmed the system's feasibility, marking (to our knowledge) the first demonstration of a quadruped mobile system retrieving a path in a manner comparable to guide dogs.