Trajectory Conditioned Cross-embodiment Skill Transfer

📄 arXiv: 2510.07773v1 📥 PDF

作者: YuHang Tang, Yixuan Lou, Pengfei Han, Haoming Song, Xinyi Ye, Dong Wang, Bin Zhao

分类: cs.RO, cs.AI

发布日期: 2025-10-09


💡 一句话要点

TrajSkill:基于轨迹条件的跨具身操作技能迁移框架

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知与语义 (Perception & Semantics) 支柱七:动作重定向 (Motion Retargeting)

关键词: 跨具身学习 技能迁移 光流轨迹 视频生成 机器人操作 模仿学习 人机协作

📋 核心要点

  1. 现有方法依赖配对数据集或手工设计的奖励函数,限制了从人类演示视频中学习机器人操作技能的可扩展性和泛化性。
  2. TrajSkill将人类运动表示为稀疏光流轨迹,作为与具身无关的运动线索,并以此为条件生成机器人操作视频和动作。
  3. 在MetaWorld仿真环境中,TrajSkill在FVD和KVD指标上优于现有方法,并在跨具身成功率上取得了显著提升,并在真实机器人实验中验证了有效性。

📝 摘要(中文)

本文提出了一种名为TrajSkill的轨迹条件跨具身操作技能迁移框架,旨在使机器人能够直接从人类演示视频中学习操作技能。该方法的核心思想是将人类运动表示为稀疏光流轨迹,这些轨迹通过消除形态差异同时保留基本动力学,充当了与具身无关的运动线索。TrajSkill以这些轨迹以及视觉和文本输入为条件,联合合成时间上一致的机器人操作视频,并将它们转换为可执行的动作,从而实现跨具身技能迁移。在仿真数据(MetaWorld)上的大量实验表明,与最先进的方法相比,TrajSkill的FVD降低了39.6%,KVD降低了36.6%,并且跨具身成功率提高了16.7%。在厨房操作任务中的真实机器人实验进一步验证了该方法的有效性,展示了跨具身的实用的人到机器人技能迁移。

🔬 方法详解

问题定义:现有方法在从人类演示视频中学习机器人操作技能时,面临着巨大的人体与机器人之间的具身差距。现有方法依赖于配对数据集或手工设计的奖励函数,这限制了它们的可扩展性和泛化能力。因此,需要一种能够直接从人类演示视频中学习,且无需人工干预的跨具身技能迁移方法。

核心思路:TrajSkill的核心思路是将人类的运动解耦为与具身无关的运动轨迹表示,即稀疏光流轨迹。这种表示方法能够消除人体和机器人形态上的差异,保留运动的关键动力学信息。通过以这些轨迹为条件,可以指导机器人生成相应的操作视频和动作,从而实现跨具身的技能迁移。

技术框架:TrajSkill框架包含以下几个主要模块:1) 运动轨迹提取模块,用于从人类演示视频中提取稀疏光流轨迹;2) 视频生成模块,以提取的轨迹和视觉、文本输入为条件,生成时间上一致的机器人操作视频;3) 动作转换模块,将生成的视频转换为可执行的机器人动作。整个流程实现了从人类演示到机器人动作的端到端学习。

关键创新:TrajSkill最重要的技术创新在于使用稀疏光流轨迹作为跨具身运动表示。这种表示方法能够有效地消除具身差异,保留运动的关键信息,从而实现更有效的技能迁移。与直接模仿人类动作或依赖手工奖励函数的方法相比,TrajSkill具有更强的泛化能力和可扩展性。

关键设计:在视频生成模块中,使用了生成对抗网络(GAN)来生成逼真的机器人操作视频。损失函数包括对抗损失、重构损失和时间一致性损失,以保证生成视频的质量和时间上的连贯性。在动作转换模块中,使用了强化学习算法来学习将视频转换为可执行的机器人动作的策略。具体的网络结构和参数设置根据不同的任务进行了调整。

📊 实验亮点

TrajSkill在MetaWorld仿真环境中取得了显著的性能提升,与最先进的方法相比,FVD降低了39.6%,KVD降低了36.6%,并且跨具身成功率提高了16.7%。此外,在厨房操作任务中的真实机器人实验也验证了该方法的有效性,证明了其在实际应用中的潜力。

🎯 应用场景

TrajSkill具有广泛的应用前景,例如在智能制造、家庭服务、医疗康复等领域,可以通过学习人类专家的操作技能,快速部署机器人完成各种复杂任务。该研究有助于降低机器人编程的门槛,提高机器人的智能化水平,并促进人机协作的发展。未来,该技术可以进一步扩展到更多类型的机器人和更复杂的任务中。

📄 摘要(原文)

Learning manipulation skills from human demonstration videos presents a promising yet challenging problem, primarily due to the significant embodiment gap between human body and robot manipulators. Existing methods rely on paired datasets or hand-crafted rewards, which limit scalability and generalization. We propose TrajSkill, a framework for Trajectory Conditioned Cross-embodiment Skill Transfer, enabling robots to acquire manipulation skills directly from human demonstration videos. Our key insight is to represent human motions as sparse optical flow trajectories, which serve as embodiment-agnostic motion cues by removing morphological variations while preserving essential dynamics. Conditioned on these trajectories together with visual and textual inputs, TrajSkill jointly synthesizes temporally consistent robot manipulation videos and translates them into executable actions, thereby achieving cross-embodiment skill transfer. Extensive experiments are conducted, and the results on simulation data (MetaWorld) show that TrajSkill reduces FVD by 39.6\% and KVD by 36.6\% compared with the state-of-the-art, and improves cross-embodiment success rate by up to 16.7\%. Real-robot experiments in kitchen manipulation tasks further validate the effectiveness of our approach, demonstrating practical human-to-robot skill transfer across embodiments.