Haptic Communication in Human-Human and Human-Robot Co-Manipulation
作者: Katherine H. Allen, Chris Rogers, Elaine S. Short
分类: cs.RO
发布日期: 2025-09-22
备注: 9 pages, 18 figures, ROMAN 2025
💡 一句话要点
研究人-人与人-机器人协同操作中的触觉通信差异
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 触觉通信 人机协同 机器人助手 运动轨迹分析 IMU传感器
📋 核心要点
- 人-人协同操作中存在触觉通信,但现有机器人助手缺乏有效的触觉交互能力。
- 通过对比人-人与人-机器人协同操作的运动轨迹,分析触觉通信的差异。
- 实验结果表明人-人协同更流畅,且IMU数据能客观反映不同协同模式的运动特征差异。
📝 摘要(中文)
本研究探讨了人-人协同操作物体时,通过物体运动进行的“触觉通信”。研究记录了人-人协同移动物体的运动轨迹,其中一人主导运动计划,另一人不知情。随后,记录相同参与者与机器人协同操作同一物体的运动轨迹。通过低成本IMU追踪共享物体的运动,可以直接比较人-人协同和人-机器人交互的运动模式。研究内和研究后的问卷调查显示,人-人协同更加流畅。IMU数据的分析表明,它能捕捉到不同条件下运动特征的客观差异。人-人与人-机器人试验在准确性和流畅性的客观和主观指标上的差异,促使未来研究通过使机器人能够发送和接收拟人化的触觉信号来改进物理任务的机器人助手。
🔬 方法详解
问题定义:论文旨在研究人-人协同操作和人-机器人协同操作中触觉通信的差异。现有机器人助手在物理任务中缺乏有效的触觉交互能力,导致协同效率和流畅性远低于人-人协同。因此,如何使机器人能够理解和传递拟人化的触觉信号,是提升人-机器人协同效果的关键问题。
核心思路:论文的核心思路是通过对比人-人协同和人-机器人协同操作的运动轨迹,量化触觉通信的差异。通过分析共享物体的运动特征,提取人-人协同中蕴含的触觉信息,为改进机器人助手的触觉交互能力提供依据。
技术框架:整体框架包括以下几个阶段:1) 数据采集:使用IMU传感器记录人-人协同和人-机器人协同操作同一物体的运动轨迹。2) 数据处理:对IMU数据进行滤波、校准等预处理,提取运动特征。3) 数据分析:对比人-人协同和人-机器人协同的运动特征,量化触觉通信的差异。4) 主观评价:通过问卷调查收集参与者对不同协同模式的主观评价。
关键创新:论文的关键创新在于:1) 直接对比了人-人协同和人-机器人协同操作的运动轨迹,量化了触觉通信的差异。2) 使用低成本IMU传感器实现了对共享物体运动的精确追踪,为触觉通信的研究提供了一种经济有效的手段。3) 结合客观运动数据和主观评价,全面评估了不同协同模式的性能。
关键设计:论文的关键设计包括:1) 实验任务的设计,确保人-人协同中存在明确的领导者和跟随者,从而模拟真实的协同场景。2) IMU传感器的选择和安装位置,保证能够准确捕捉共享物体的运动。3) 运动特征的提取方法,选择能够反映触觉通信的关键特征,例如加速度、角速度等。4) 问卷调查的设计,收集参与者对不同协同模式的流畅性、准确性等主观评价。
📊 实验亮点
研究结果表明,人-人协同操作在流畅性方面显著优于人-机器人协同,问卷调查也证实了这一点。IMU数据分析显示,人-人协同的运动轨迹更加平滑、协调,能够捕捉到不同协同模式的客观差异。这些结果为改进机器人助手的触觉交互能力提供了重要的依据。
🎯 应用场景
该研究成果可应用于开发更智能、更自然的机器人助手,尤其是在需要人-机协同完成的物理任务中,如医疗康复、工业制造、家庭服务等。通过使机器人能够理解和传递拟人化的触觉信号,可以显著提升人-机协同的效率、安全性和用户体验,促进人-机器人融合。
📄 摘要(原文)
When a human dyad jointly manipulates an object, they must communicate about their intended motion plans. Some of that collaboration is achieved through the motion of the manipulated object itself, which we call "haptic communication." In this work, we captured the motion of human-human dyads moving an object together with one participant leading a motion plan about which the follower is uninformed. We then captured the same human participants manipulating the same object with a robot collaborator. By tracking the motion of the shared object using a low-cost IMU, we can directly compare human-human shared manipulation to the motion of those same participants interacting with the robot. Intra-study and post-study questionnaires provided participant feedback on the collaborations, indicating that the human-human collaborations are significantly more fluent, and analysis of the IMU data indicates that it captures objective differences in the motion profiles of the conditions. The differences in objective and subjective measures of accuracy and fluency between the human-human and human-robot trials motivate future research into improving robot assistants for physical tasks by enabling them to send and receive anthropomorphic haptic signals.