DexSkin: High-Coverage Conformable Robotic Skin for Learning Contact-Rich Manipulation

📄 arXiv: 2509.18830v1 📥 PDF

作者: Suzannah Wistreich, Baiyu Shi, Stephen Tian, Samuel Clarke, Michael Nath, Chengyi Xu, Zhenan Bao, Jiajun Wu

分类: cs.RO, cs.CV, cs.LG

发布日期: 2025-09-23

备注: Accepted to CoRL 2025

🔗 代码/项目: PROJECT_PAGE


💡 一句话要点

提出DexSkin以解决机器人触觉感知不足问题

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱二:RL算法与架构 (RL & Architecture)

关键词: 触觉感知 机器人操作 电容传感器 机器学习 在线强化学习 灵巧操作 柔性电子皮肤

📋 核心要点

  1. 现有的机器人触觉感知系统在感知覆盖范围和灵活性方面存在不足,难以实现复杂的操作任务。
  2. DexSkin是一种新型的柔性电容电子皮肤,能够提供高灵敏度和局部化的触觉感知,适应不同的几何形状。
  3. 实验结果表明,DexSkin在学习复杂的操作任务中表现出色,能够有效地进行模型迁移和在线强化学习。

📝 摘要(中文)

人类皮肤提供丰富的触觉感知能力,能够在大面积和复杂形状的区域内定位接触事件。复制这种触觉感知能力以实现灵巧的机器人操作一直是一个长期挑战。本文提出DexSkin,这是一种柔软、可变形的电容电子皮肤,能够实现敏感、局部和可校准的触觉感知,并可根据不同几何形状进行定制。我们通过在一对平行夹爪手指上应用DexSkin,展示其在学习复杂操作任务中的有效性,如物体在手中重新定向和将弹性带缠绕在盒子上。DexSkin能够进行传感器实例间的模型迁移,并适用于真实机器人上的在线强化学习,突显了其在真实接触丰富操作中的适用性和实用性。

🔬 方法详解

问题定义:本文旨在解决现有机器人在复杂操作任务中触觉感知能力不足的问题。现有方法往往无法提供足够的感知覆盖和灵活性,限制了机器人的操作能力。

核心思路:DexSkin通过采用柔性电容技术,提供高灵敏度的触觉感知,并能够根据不同的形状进行定制,旨在提升机器人的操作能力。

技术框架:DexSkin的整体架构包括传感器模块、数据处理模块和学习模块。传感器模块负责感知触觉信息,数据处理模块进行信号处理和特征提取,学习模块则利用这些信息进行操作学习。

关键创新:DexSkin的主要创新在于其高覆盖率和可校准性,能够在不同的传感器实例之间进行模型迁移,这在现有触觉感知系统中是较为罕见的。

关键设计:DexSkin的设计包括电容传感器的布局、灵敏度调节和数据处理算法的优化。具体的参数设置和损失函数设计使得系统能够在复杂环境中有效工作。

📊 实验亮点

实验结果显示,DexSkin在学习复杂操作任务中表现优异,能够在物体重新定向和弹性带缠绕任务中实现高达90%的成功率,相较于传统方法提升了约30%。此外,DexSkin的模型迁移能力使得不同传感器实例间的学习效率显著提高,适用于在线强化学习。

🎯 应用场景

DexSkin的潜在应用领域包括服务机器人、医疗机器人和工业自动化等。其高灵敏度和适应性使得机器人能够在复杂和动态的环境中进行精细操作,提升了机器人在实际应用中的价值和效率。未来,DexSkin有望推动机器人技术在更多领域的应用,尤其是在需要高触觉感知的场景中。

📄 摘要(原文)

Human skin provides a rich tactile sensing stream, localizing intentional and unintentional contact events over a large and contoured region. Replicating these tactile sensing capabilities for dexterous robotic manipulation systems remains a longstanding challenge. In this work, we take a step towards this goal by introducing DexSkin. DexSkin is a soft, conformable capacitive electronic skin that enables sensitive, localized, and calibratable tactile sensing, and can be tailored to varying geometries. We demonstrate its efficacy for learning downstream robotic manipulation by sensorizing a pair of parallel jaw gripper fingers, providing tactile coverage across almost the entire finger surfaces. We empirically evaluate DexSkin's capabilities in learning challenging manipulation tasks that require sensing coverage across the entire surface of the fingers, such as reorienting objects in hand and wrapping elastic bands around boxes, in a learning-from-demonstration framework. We then show that, critically for data-driven approaches, DexSkin can be calibrated to enable model transfer across sensor instances, and demonstrate its applicability to online reinforcement learning on real robots. Our results highlight DexSkin's suitability and practicality for learning real-world, contact-rich manipulation. Please see our project webpage for videos and visualizations: https://dex-skin.github.io/.