CLAP: Contrastive Latent Action Pretraining for Learning Vision-Language-Action Models from Human Videos

📄 arXiv: 2601.04061v1 📥 PDF

作者: Chubin Zhang, Jianan Wang, Zifeng Gao, Yue Su, Tianru Dai, Cai Zhou, Jiwen Lu, Yansong Tang

分类: cs.RO, cs.CV

发布日期: 2026-01-07

备注: Project page: https://lin-shan.com/CLAP/


💡 一句话要点

提出CLAP,通过对比学习预训练视觉-语言-动作模型,实现从人类视频到机器人技能迁移。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 视觉-语言-动作模型 对比学习 机器人操作 技能迁移 潜在动作模型

📋 核心要点

  1. 现有潜在动作模型利用人类视频学习机器人技能时,易受视觉噪声干扰,难以提取有效的操作信息。
  2. CLAP通过对比学习,将视频视觉特征与机器人本体感受特征对齐,学习物理可执行的动作代码本。
  3. CLAP框架包含CLAP-NTP和CLAP-RF两种策略,并采用知识匹配正则化,实验证明其性能优于现有方法。

📝 摘要(中文)

通用视觉-语言-动作模型的发展受到机器人数据稀缺的限制,而人类视频数据则相对丰富。现有的潜在动作模型试图利用视频数据,但常受视觉纠缠的影响,捕捉到的是噪声而非操作技能。为了解决这个问题,我们提出了对比潜在动作预训练(CLAP)框架,该框架将视频中的视觉潜在空间与机器人轨迹中的本体感受潜在空间对齐。通过对比学习,CLAP将视频转换映射到量化的、物理上可执行的代码本。在此基础上,我们引入了一种双形式的VLA框架,包括擅长指令跟随和对象泛化的CLAP-NTP(自回归模型)和为高频、精确操作设计的基于修正流的策略CLAP-RF。此外,我们提出了一种知识匹配(KM)正则化策略,以减轻微调期间的灾难性遗忘。大量实验表明,CLAP显著优于强大的基线模型,能够有效地将技能从人类视频转移到机器人执行。

🔬 方法详解

问题定义:现有方法在利用人类视频数据训练机器人视觉-语言-动作模型时,面临着视觉纠缠的问题。视频中包含大量与操作技能无关的视觉信息,例如背景、光照变化等,这些噪声会干扰模型学习有效的操作技能。此外,人类视频数据与机器人轨迹数据之间存在模态差异,如何有效对齐这两种模态的数据也是一个挑战。

核心思路:CLAP的核心思路是通过对比学习,将人类视频中的视觉信息与机器人轨迹中的本体感受信息对齐。具体来说,CLAP学习一个共享的潜在空间,使得相似的视觉状态和本体感受状态在该空间中距离更近,而不相似的状态距离更远。通过这种方式,CLAP可以学习到与物理执行相关的、鲁棒的动作表示。

技术框架:CLAP框架主要包含三个模块:视觉编码器、本体感受编码器和对比学习模块。视觉编码器负责将视频帧编码为视觉特征向量,本体感受编码器负责将机器人轨迹编码为本体感受特征向量。对比学习模块则利用对比损失函数,促使视觉特征向量和本体感受特征向量在共享的潜在空间中对齐。在此基础上,论文提出了CLAP-NTP和CLAP-RF两种策略,分别用于指令跟随和高频操作。

关键创新:CLAP的关键创新在于利用对比学习对齐视觉和本体感受潜在空间,从而学习到物理可执行的动作代码本。与现有方法相比,CLAP能够更有效地从人类视频中提取操作技能,并将其迁移到机器人执行中。此外,知识匹配正则化策略有效地缓解了微调过程中的灾难性遗忘问题。

关键设计:CLAP使用Transformer作为视觉和本体感受编码器的主干网络。对比损失函数采用InfoNCE损失,用于最大化正样本对之间的互信息,最小化负样本对之间的互信息。CLAP-NTP是一个自回归模型,用于预测下一个动作代码。CLAP-RF是一个基于修正流的策略,用于生成连续的动作轨迹。知识匹配正则化策略通过约束微调后的模型参数接近预训练的模型参数,防止灾难性遗忘。

📊 实验亮点

实验结果表明,CLAP在多个机器人操作任务上显著优于现有方法。例如,在指令跟随任务上,CLAP-NTP的成功率比基线模型提高了15%。在高频操作任务上,CLAP-RF的精度也得到了显著提升。此外,知识匹配正则化策略有效地缓解了微调过程中的灾难性遗忘问题,使得CLAP在新的任务上也能保持良好的性能。

🎯 应用场景

CLAP技术可应用于各种机器人操作任务,例如家庭服务机器人、工业机器人和医疗机器人。通过学习人类视频,机器人可以掌握各种复杂的操作技能,例如物体抓取、装配和烹饪等。该技术还可以用于远程操作,操作员可以通过观看视频来指导机器人执行任务。未来,CLAP有望实现更智能、更自主的机器人系统。

📄 摘要(原文)

Generalist Vision-Language-Action models are currently hindered by the scarcity of robotic data compared to the abundance of human video demonstrations. Existing Latent Action Models attempt to leverage video data but often suffer from visual entanglement, capturing noise rather than manipulation skills. To address this, we propose Contrastive Latent Action Pretraining (CLAP), a framework that aligns the visual latent space from videos with a proprioceptive latent space from robot trajectories. By employing contrastive learning, CLAP maps video transitions onto a quantized, physically executable codebook. Building on this representation, we introduce a dual-formulation VLA framework offering both CLAP-NTP, an autoregressive model excelling at instruction following and object generalization, and CLAP-RF, a Rectified Flow-based policy designed for high-frequency, precise manipulation. Furthermore, we propose a Knowledge Matching (KM) regularization strategy to mitigate catastrophic forgetting during fine-tuning. Extensive experiments demonstrate that CLAP significantly outperforms strong baselines, enabling the effective transfer of skills from human videos to robotic execution. Project page: https://lin-shan.com/CLAP/.