首页 | 本学科首页   官方微博 | 高级检索  
     

基于视触融合的机器人抓取滑动检测
引用本文:崔少伟,魏俊杭,王睿,王硕. 基于视触融合的机器人抓取滑动检测[J]. 华中科技大学学报(自然科学版), 2020, 48(1): 98-102. DOI: 10.13245/j.hust.200118
作者姓名:崔少伟  魏俊杭  王睿  王硕
作者单位:中国科学院自动化研究所复杂系统与控制国家重点实验室,北京 100190;中国科学院大学,北京 100190;中国科学院自动化研究所复杂系统与控制国家重点实验室,北京 100190;中国科学院大学,北京 100190;中国科学院脑科学与智能技术卓越创新中心,上海 200031
基金项目:装备预研项目;国家自然科学基金
摘    要:提出一种基于视触融合的深度神经网络(VTF-DNN)感知算法,用以检测在机器人抓取和操作过程中发生的抓取物体和夹具之间的滑动现象.首先,通过设定不同的抓取位置和力度来抓取不同的物体,收集视觉和触觉序列数据构建视触融合数据集,并用于训练VTF-DNN;触觉数据由安装在夹具上的阵列触觉传感器采集,视觉数据由腕部相机采集.然后,为了验证所提出视触融合感知框架的性能,在某个未参与训练的物体上进行了滑动测试,共进行了464次抓取,采集了2320个视觉和触觉序列样本,分类准确度达92.6%.最后,实验验证了所提框架在滑动检测任务中的高效性以及视触融合在滑动检测任务中的必要性,为更加稳定和灵巧的机器人抓取和作业系统提供了理论基础和技术支撑.

关 键 词:机器人抓取  滑动检测  视触融合  深度神经网络  感知

Robotic grasp slip detection based on visual-tactile fusion
Abstract:
Keywords:
本文献已被 CNKI 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号