FATE: Closed-Loop Feasibility-Aware Task Generation with Active Repair for Physically Grounded Robotic Curricula

📄 arXiv: 2603.01505v1 📥 PDF

作者: Bingchuan Wei, Bingqi Huang, Jingheng Ma, Zeyu zhang, Sen Cui

分类: cs.RO

发布日期: 2026-03-02

备注: 16 Pages, 4 Figures


💡 一句话要点

FATE:通过主动修复的闭环可行性感知任务生成,用于物理机器人课程学习

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 机器人课程学习 任务生成 具身智能体 可行性验证 主动修复

📋 核心要点

  1. 现有方法在生成机器人任务课程时,容易产生语言上合理但物理上不可行的目标,缺乏物理世界约束。
  2. FATE提出闭环、自纠正框架,将具身智能体嵌入生成循环,通过验证和修复保证任务的物理可行性。
  3. 实验表明,FATE能生成语义多样且物理可行的任务课程,显著降低了任务执行失败率。

📝 摘要(中文)

生成式模拟技术的最新突破利用大型语言模型(LLM)生成多样化的机器人任务课程,然而,这些开放环路范式经常产生在语言上连贯但物理上不可行的目标,这源于不切实际的任务规范或错位的目标公式。为了解决这个关键限制,我们提出了FATE(可行性感知任务生成),一个闭环、自我纠正的框架,它将任务生成重新构想为一个迭代的验证和改进过程。与将生成和验证解耦为离散阶段的传统方法不同,FATE将通用具身智能体直接嵌入到生成循环中,以主动保证生成课程的物理基础。FATE实例化了一个顺序审计管道:它首先验证静态场景属性(例如,对象可供性、布局兼容性),然后通过模拟具身交互来验证执行可行性。至关重要的是,在检测到不可行的任务时,FATE部署一个主动修复模块,该模块自主地调整场景配置或策略规范,将不可行的提议转换为物理上有效的任务实例。大量的实验验证了FATE生成语义多样、物理基础扎实的任务课程,同时相对于最先进的生成基线,显著降低了执行失败率。

🔬 方法详解

问题定义:现有基于LLM的机器人任务生成方法,通常采用开放环路模式,即先生成任务描述,再进行验证。这种方式容易产生物理上不可行的任务,例如,要求机器人执行超出其能力范围的操作,或者在不合理的场景配置下完成任务。这些不可行的任务会降低训练效率,甚至导致训练失败。

核心思路:FATE的核心思路是将任务生成过程转化为一个闭环的验证和修复过程。通过将具身智能体嵌入到生成循环中,FATE能够主动地验证任务的物理可行性,并在发现不可行任务时,自动调整场景配置或策略规范,从而生成物理上可行的任务。

技术框架:FATE包含一个顺序审计管道,包括两个主要阶段:静态场景属性验证和执行可行性验证。首先,FATE验证静态场景属性,如对象的可供性(affordance)和布局兼容性。然后,通过模拟具身交互,验证任务的执行可行性。如果检测到不可行的任务,FATE会启动一个主动修复模块,该模块会自主地调整场景配置或策略规范,例如,改变物体的位置或调整机器人的运动轨迹。

关键创新:FATE的关键创新在于其闭环的生成框架和主动修复模块。与传统的开放环路方法不同,FATE能够主动地验证和修复任务,从而保证生成任务的物理可行性。主动修复模块能够自主地调整场景配置或策略规范,从而将不可行的任务转化为可行的任务。

关键设计:FATE使用通用具身智能体进行任务验证和修复。具体而言,可以使用强化学习训练的机器人控制策略,或者基于模仿学习的策略。主动修复模块的设计需要考虑多种因素,例如,修复的成本、修复的成功率以及修复对任务语义的影响。在实验中,作者使用了基于规则的修复策略和基于学习的修复策略。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,FATE能够显著降低任务执行失败率。与最先进的生成基线相比,FATE在多个机器人任务上实现了显著的性能提升。例如,在物体抓取任务中,FATE将执行失败率降低了约30%。此外,实验还表明,FATE能够生成语义多样且物理可行的任务课程。

🎯 应用场景

FATE可应用于机器人课程学习、机器人技能学习、机器人任务规划等领域。通过生成多样且物理可行的任务,可以提高机器人的学习效率和泛化能力。此外,FATE还可以用于自动化测试和验证机器人系统,帮助开发者发现和修复潜在的问题。

📄 摘要(原文)

Recent breakthroughs in generative simulation have harnessed Large Language Models (LLMs) to generate diverse robotic task curricula, yet these open-loop paradigms frequently produce linguistically coherent but physically infeasible goals, stemming from ungrounded task specifications or misaligned objective formulations. To address this critical limitation, we propose FATE (Feasibility-Aware Task gEneration), a closed-loop, self-correcting framework that reimagines task generation as an iterative validation-and-refinement process. Unlike conventional methods that decouple generation and verification into discrete stages, FATE embeds a generalist embodied agent directly into the generation loop to proactively guarantee the physical groundedness of the resulting curriculum. FATE instantiates a sequential auditing pipeline: it first validates static scene attributes (e.g., object affordances, layout compatibility) and subsequently verifies execution feasibility via simulated embodied interaction. Critical to its performance, upon detecting an infeasible task, FATE deploys an active repair module that autonomously adapts scene configurations or policy specifications, converting unworkable proposals into physically valid task instances. Extensive experiments validate that FATE generates semantically diverse, physically grounded task curricula while achieving a substantial reduction in execution failure rates relative to state-of-the-art generative baselines.