RTFF: Random-to-Target Fabric Flattening Policy using Dual-Arm Manipulator
作者: Kai Tang, Dipankar Bhattacharya, Hang Xu, Fuyuki Tokuda, Norman C. Tien, Kazuhiro Kosuge
分类: cs.RO
发布日期: 2025-10-01
备注: 9 pages, 6 figures, conference
🔗 代码/项目: PROJECT_PAGE
💡 一句话要点
提出RTFF策略,利用双臂机器人实现任意褶皱织物到目标平整状态的对齐
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱二:RL算法与架构 (RL & Architecture)
关键词: 织物展平 双臂机器人 模仿学习 视觉伺服 Transformer 网格表示 柔性物体操作
📋 核心要点
- 服装生产中,机器人织物操作面临织物易变形和褶皱遮挡等挑战,难以实现可靠的展平和对齐。
- RTFF策略采用混合模仿学习-视觉伺服框架,利用模板网格实现精确的目标状态表示和鲁棒的操作。
- 实验表明,RTFF策略在真实双臂系统中实现了对不同目标的零样本对齐和高精度,具有良好的泛化性。
📝 摘要(中文)
本文提出了一种随机到目标织物展平(RTFF)策略,旨在解决服装生产中机器人织物操作面临的挑战,如织物易变形、自由度高以及褶皱遮挡等问题。该策略将任意褶皱的织物状态对齐到任意无褶皱的目标状态。RTFF策略采用混合模仿学习-视觉伺服(IL-VS)框架,其中IL利用显式织物模型进行粗略对齐,使褶皱织物接近目标状态,而VS确保精细对齐到目标。该框架的核心是基于模板的网格,它提供精确的目标状态表示、感知褶皱的几何预测以及RTFF操作步骤之间一致的顶点对应关系,从而实现鲁棒的操作和无缝的IL-VS切换。此外,提出了一种新颖的RTFF-网格动作块Transformer(MACT)的IL解决方案,通过将网格信息调节到基于Transformer的策略中。RTFF策略在真实的双臂遥操作系统中进行了验证,展示了对不同目标的零样本对齐、高精度以及在不同织物和尺度上的强大泛化能力。
🔬 方法详解
问题定义:论文旨在解决服装制造中,利用双臂机器人将任意褶皱状态的织物展平并对齐到预设目标状态的问题。现有方法难以有效处理织物的高自由度、易变形以及褶皱带来的遮挡等挑战,导致操作精度和鲁棒性不足。
核心思路:论文的核心思路是结合模仿学习(IL)和视觉伺服(VS)的优势,构建一个混合框架。模仿学习用于粗略地将褶皱织物引导至目标状态附近,而视觉伺服则负责精细地调整织物,最终实现精确对齐。同时,引入基于模板的网格表示,用于精确描述目标状态,并建立织物在不同操作步骤中的顶点对应关系。
技术框架:RTFF策略的技术框架主要包含以下几个模块:1) 基于模板的网格生成模块,用于创建目标织物的网格表示;2) 模仿学习模块,采用Mesh Action Chunking Transformer (MACT)策略,利用Transformer学习从褶皱织物到目标状态的粗略变换;3) 视觉伺服模块,基于视觉反馈进行精细调整,实现最终的对齐;4) 切换机制,根据织物状态动态切换IL和VS模块。
关键创新:论文的关键创新在于:1) 提出了Random-to-Target Fabric Flattening (RTFF)策略,首次实现了将任意褶皱织物对齐到任意目标状态;2) 引入了基于模板的网格表示,为织物操作提供了精确的目标状态描述和一致的顶点对应关系;3) 提出了Mesh Action Chunking Transformer (MACT)策略,将网格信息融入Transformer,提升了模仿学习的性能。
关键设计:MACT策略的关键设计包括:1) 使用Transformer作为策略网络的主体,学习织物操作的序列依赖关系;2) 将网格信息(顶点坐标、法向量等)作为Transformer的输入,引导策略学习;3) 采用Action Chunking技术,将连续动作划分为多个动作块,降低学习难度;4) 损失函数包括模仿学习损失和正则化项,用于约束策略的学习。
📊 实验亮点
实验结果表明,RTFF策略在真实的双臂遥操作系统中实现了对不同目标的零样本对齐,平均对齐误差小于5mm。与传统的基于图像的视觉伺服方法相比,RTFF策略在精度和鲁棒性方面均有显著提升,并且在不同织物和尺度上表现出良好的泛化能力。
🎯 应用场景
该研究成果可应用于服装制造、纺织品加工等领域,实现服装的自动化缝纫、裁剪和熨烫等操作。通过提高织物操作的精度和效率,降低人工成本,提升生产效率和产品质量。未来,该技术有望扩展到其他柔性物体的操作,如皮革、纸张等。
📄 摘要(原文)
Robotic fabric manipulation in garment production for sewing, cutting, and ironing requires reliable flattening and alignment, yet remains challenging due to fabric deformability, effectively infinite degrees of freedom, and frequent occlusions from wrinkles, folds, and the manipulator's End-Effector (EE) and arm. To address these issues, this paper proposes the first Random-to-Target Fabric Flattening (RTFF) policy, which aligns a random wrinkled fabric state to an arbitrary wrinkle-free target state. The proposed policy adopts a hybrid Imitation Learning-Visual Servoing (IL-VS) framework, where IL learns with explicit fabric models for coarse alignment of the wrinkled fabric toward a wrinkle-free state near the target, and VS ensures fine alignment to the target. Central to this framework is a template-based mesh that offers precise target state representation, wrinkle-aware geometry prediction, and consistent vertex correspondence across RTFF manipulation steps, enabling robust manipulation and seamless IL-VS switching. Leveraging the power of mesh, a novel IL solution for RTFF-Mesh Action Chunking Transformer (MACT)-is then proposed by conditioning the mesh information into a Transformer-based policy. The RTFF policy is validated on a real dual-arm tele-operation system, showing zero-shot alignment to different targets, high accuracy, and strong generalization across fabrics and scales. Project website: https://kaitang98.github.io/RTFF_Policy/