Perception-Aware Time-Optimal Planning for Quadrotor Waypoint Flight

📄 arXiv: 2603.04305v1 📥 PDF

作者: Chao Qin, Jiaxu Xing, Rudolf Reiter, Angel Romero, Yifan Lin, Hugh H. -T. Liu, Davide Scaramuzza

分类: cs.RO

发布日期: 2026-03-04


💡 一句话要点

提出感知驱动的时优轨迹规划框架,提升四旋翼飞行器在复杂环境下的自主飞行性能。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 四旋翼飞行器 时间最优轨迹规划 感知驱动 视觉状态估计 模型预测控制

📋 核心要点

  1. 现有时间最优轨迹规划方法忽略了飞行器动力学、环境几何与视觉状态估计之间的紧密耦合,导致动态可行的轨迹因视觉质量下降而执行失败。
  2. 该论文提出了一种统一的轨迹优化框架,将感知约束与非线性动力学、执行器限制、视场约束等因素相结合,实现感知驱动的时间最优轨迹规划。
  3. 实验结果表明,该方法在实际飞行中达到了9.8m/s的速度,平均跟踪误差为0.07m,并在复杂赛道上显著提高了闭环成功率。

📝 摘要(中文)

本文提出了一种统一的、时间最优的轨迹优化框架,专门针对视觉四旋翼飞行器,该框架显式地结合了感知约束以及完整的非线性动力学、旋翼驱动限制、空气动力学效应、相机视场约束和凸几何门表示。该方法能够为具有不同门形状和方向的任意赛道求解最小时间圈速轨迹,同时保持数值鲁棒性和计算效率。论文推导了一种信息论的位置不确定性度量,以量化视觉状态估计质量,并通过三个感知目标将其集成到规划器中:位置不确定性最小化、顺序视场约束和前瞻对齐。这使得能够系统地探索速度和感知可靠性之间的权衡。为了准确跟踪生成的感知轨迹,开发了一种模型预测轮廓跟踪控制器,该控制器分离了横向误差和进度误差。实验表明,在现实世界中飞行速度高达 9.8 米/秒,平均跟踪误差为 0.07 米,并且在具有挑战性的 Split-S 赛道上,闭环成功率从 55% 提高到 100%。该系统为研究感知驱动、时间最优自主飞行的基本限制提供了一个可扩展的基准。

🔬 方法详解

问题定义:现有时间最优轨迹规划方法未能充分考虑视觉信息对四旋翼飞行器状态估计的影响,导致在实际飞行中,即使轨迹在动力学上可行,也可能因为视觉质量差而导致控制失败。因此,需要一种能够同时优化飞行时间和保证视觉感知质量的轨迹规划方法。

核心思路:该论文的核心思路是将视觉感知质量显式地纳入到时间最优轨迹规划的优化目标中。通过引入信息论的位置不确定性度量来量化视觉状态估计的质量,并将其作为约束条件或优化目标,从而在规划过程中平衡飞行速度和感知可靠性。

技术框架:该框架包含以下主要模块:1) 轨迹参数化和优化:使用优化的方式生成时间最优轨迹,同时考虑飞行器的动力学约束、执行器限制等。2) 感知质量评估:使用信息论的位置不确定性度量来评估轨迹的视觉感知质量。3) 感知约束集成:将感知质量评估结果作为约束条件或优化目标,集成到轨迹优化过程中。4) 模型预测轮廓跟踪控制:设计模型预测控制器,用于准确跟踪生成的感知轨迹,并将横向误差和进度误差分离。

关键创新:该论文的关键创新在于将视觉感知质量显式地纳入到时间最优轨迹规划的优化过程中。通过信息论的位置不确定性度量,能够有效地量化视觉状态估计的质量,并将其作为约束条件或优化目标,从而在规划过程中平衡飞行速度和感知可靠性。此外,该方法还考虑了相机视场约束和前瞻对齐,进一步提高了视觉感知的可靠性。

关键设计:在感知质量评估方面,论文推导了一种信息论的位置不确定性度量,该度量基于视觉特征的雅可比矩阵,能够反映视觉特征对位置估计的影响。在轨迹优化方面,论文使用了序列二次规划(SQP)算法,并设计了合适的损失函数和约束条件,以实现时间最优和感知可靠性的平衡。在控制方面,论文设计了一种模型预测轮廓跟踪控制器,该控制器能够有效地跟踪生成的轨迹,并抑制横向误差和进度误差。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在实际飞行中达到了9.8m/s的速度,平均跟踪误差为0.07m。在具有挑战性的Split-S赛道上,闭环成功率从55%提高到100%。这些结果表明,该方法能够有效地提高四旋翼飞行器在复杂环境下的自主飞行性能。

🎯 应用场景

该研究成果可应用于需要高速、高精度自主飞行的场景,例如:无人机竞速、快速物流配送、复杂环境下的搜救任务、以及需要精确位姿控制的工业巡检等。通过提升四旋翼飞行器在复杂环境下的自主飞行能力,该研究具有重要的实际应用价值和广阔的未来发展前景。

📄 摘要(原文)

Agile quadrotor flight pushes the limits of control, actuation, and onboard perception. While time-optimal trajectory planning has been extensively studied, existing approaches typically neglect the tight coupling between vehicle dynamics, environmental geometry, and the visual requirements of onboard state estimation. As a result, trajectories that are dynamically feasible may fail in closed-loop execution due to degraded visual quality. This paper introduces a unified time-optimal trajectory optimization framework for vision-based quadrotors that explicitly incorporates perception constraints alongside full nonlinear dynamics, rotor actuation limits, aerodynamic effects, camera field-of-view constraints, and convex geometric gate representations. The proposed formulation solves minimum-time lap trajectories for arbitrary racetracks with diverse gate shapes and orientations, while remaining numerically robust and computationally efficient. We derive an information-theoretic position uncertainty metric to quantify visual state-estimation quality and integrate it into the planner through three perception objectives: position uncertainty minimization, sequential field-of-view constraints, and look-ahead alignment. This enables systematic exploration of the trade-offs between speed and perceptual reliability. To accurately track the resulting perception-aware trajectories, we develop a model predictive contouring tracking controller that separates lateral and progress errors. Experiments demonstrate real-world flight speeds up to 9.8 m/s with 0.07 m average tracking error, and closed-loop success rates improved from 55% to 100% on a challenging Split-S course. The proposed system provides a scalable benchmark for studying the fundamental limits of perception-aware, time-optimal autonomous flight.