cuRoboV2: Dynamics-Aware Motion Generation with Depth-Fused Distance Fields for High-DoF Robots

📄 arXiv: 2603.05493v1 📥 PDF

作者: Balakumar Sundaralingam, Adithyavairavan Murali, Stan Birchfield

分类: cs.RO

发布日期: 2026-03-05

备注: cuRoboV2 Technical Report


💡 一句话要点

cuRoboV2:基于深度融合距离场和动力学的多自由度机器人运动生成框架

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱四:生成式动作 (Generative Motion) 支柱七:动作重定向 (Motion Retargeting) 支柱八:物理动画 (Physics-based Animation)

关键词: 机器人运动规划 动力学感知 GPU加速 TSDF/ESDF 高自由度机器人

📋 核心要点

  1. 现有机器人运动生成方法存在局限性,如快速规划器输出物理上不可执行的轨迹,反应控制器难以处理高保真感知,现有求解器在高自由度系统上失效。
  2. cuRoboV2通过统一的框架,结合B样条轨迹优化、GPU原生TSDF/ESDF感知流水线和可扩展的GPU原生全身计算,实现动力学感知的运动生成。
  3. 实验结果表明,cuRoboV2在负载能力、无碰撞逆运动学和运动重定向约束满足度等方面显著优于现有方法,并降低了轨迹跟踪误差和方差。

📝 摘要(中文)

本文提出cuRoboV2,一个统一的机器人运动生成框架,旨在实现安全、可行和反应迅速的机器人自主运动。该框架包含三个关键创新:(1) B样条轨迹优化,强制轨迹平滑性和扭矩限制;(2) GPU原生TSDF/ESDF感知流水线,生成覆盖完整工作空间的稠密有符号距离场,速度比现有方法快10倍,内存占用减少8倍,碰撞召回率高达99%;(3) 可扩展的GPU原生全身计算,包括拓扑感知运动学、可微逆动力学和map-reduce自碰撞检测,速度提升高达61倍,并扩展到高自由度人形机器人。在基准测试中,cuRoboV2在3kg负载下成功率达到99.7%,在48自由度人形机器人上实现99.6%的无碰撞逆运动学,在运动重定向约束满足度上达到89.5%。

🔬 方法详解

问题定义:现有机器人运动生成方法在安全性、可行性和反应性方面存在不足。快速规划器生成的轨迹可能无法在物理上执行,反应控制器难以处理高精度的感知数据,而现有的求解器在高自由度机器人系统上表现不佳。这些问题限制了机器人自主性的发展。

核心思路:cuRoboV2的核心思路是构建一个统一的、动力学感知的运动生成框架,该框架能够同时考虑轨迹的平滑性、动力学可行性和环境约束。通过GPU加速的感知和计算,实现高效的运动规划和控制。

技术框架:cuRoboV2包含三个主要模块:(1) B样条轨迹优化器,用于生成平滑且满足扭矩限制的轨迹;(2) GPU原生的TSDF/ESDF感知流水线,用于构建稠密的环境距离场;(3) 可扩展的GPU原生全身计算模块,用于进行运动学、动力学和碰撞检测计算。这些模块协同工作,实现高效的运动生成。

关键创新:cuRoboV2的关键创新在于:(1) 将B样条轨迹优化与动力学约束相结合,生成物理上可执行的轨迹;(2) 利用GPU加速的TSDF/ESDF感知流水线,实现快速且精确的环境感知;(3) 通过GPU原生计算,实现高自由度机器人全身运动的高效计算。与现有方法相比,cuRoboV2能够更好地处理高自由度机器人和复杂的环境约束。

关键设计:B样条轨迹优化器使用B样条曲线表示轨迹,并通过优化控制点的位置来最小化轨迹的长度、加速度和扭矩。TSDF/ESDF感知流水线使用深度图像作为输入,通过GPU并行计算构建稠密的有符号距离场。全身计算模块使用GPU加速的运动学、动力学和碰撞检测算法,实现高效的运动规划和控制。

📊 实验亮点

cuRoboV2在多个基准测试中表现出色。在3kg负载下,成功率达到99.7%,而基线方法仅为72-77%。在48自由度人形机器人上,实现了99.6%的无碰撞逆运动学,而现有方法完全失败。在运动重定向约束满足度上,达到89.5%,而PyRoki仅为61%。此外,基于cuRoboV2的运动策略在轨迹跟踪误差和方差方面也优于现有方法。

🎯 应用场景

cuRoboV2可应用于各种机器人应用场景,如工业自动化、物流、医疗保健和人机协作。该框架能够提高机器人的自主性、安全性和效率,使其能够更好地适应复杂和动态的环境。未来,cuRoboV2有望推动机器人技术的发展,并促进机器人在更多领域的应用。

📄 摘要(原文)

Effective robot autonomy requires motion generation that is safe, feasible, and reactive. Current methods are fragmented: fast planners output physically unexecutable trajectories, reactive controllers struggle with high-fidelity perception, and existing solvers fail on high-DoF systems. We present cuRoboV2, a unified framework with three key innovations: (1) B-spline trajectory optimization that enforces smoothness and torque limits; (2) a GPU-native TSDF/ESDF perception pipeline that generates dense signed distance fields covering the full workspace, unlike existing methods that only provide distances within sparsely allocated blocks, up to 10x faster and in 8x less memory than the state-of-the-art at manipulation scale, with up to 99% collision recall; and (3) scalable GPU-native whole-body computation, namely topology-aware kinematics, differentiable inverse dynamics, and map-reduce self-collision, that achieves up to 61x speedup while also extending to high-DoF humanoids (where previous GPU implementations fail). On benchmarks, cuRoboV2 achieves 99.7% success under 3kg payload (where baselines achieve only 72--77%), 99.6% collision-free IK on a 48-DoF humanoid (where prior methods fail entirely), and 89.5% retargeting constraint satisfaction (vs. 61% for PyRoki); these collision-free motions yield locomotion policies with 21% lower tracking error than PyRoki and 12x lower cross-seed variance than mink. A ground-up codebase redesign for discoverability enabled LLM coding assistants to author up to 73% of new modules, including hand-optimized CUDA kernels, demonstrating that well-structured robotics code can unlock productive human--LLM collaboration. Together, these advances provide a unified, dynamics-aware motion generation stack that scales from single-arm manipulators to full humanoids.