首页 | 本学科首页   官方微博 | 高级检索  
     检索      

基于改进YOLOv5s的辣椒采摘机器人识别定位方法
引用本文:魏天宇,柳天虹,张善文,李爽,缪宏,刘思幸.基于改进YOLOv5s的辣椒采摘机器人识别定位方法[J].扬州大学学报(自然科学版),2023(1):61-69.
作者姓名:魏天宇  柳天虹  张善文  李爽  缪宏  刘思幸
作者单位:1. 扬州大学机械工程学院;2. 扬州大学信息工程学院
基金项目:国家特色蔬菜产业技术体系岗位专家资助项目(CARS-24-D-03);;江苏省国际科技合作资助项目(BZ2021079);;江苏省自然科学基金资助项目(BK20170500,BK20190876);
摘    要:为了准确研究辣椒采摘机器人受不同作业场景影响的规律,利用获取的采摘目标信息构建基于改进YOLOv5s的辣椒采摘识别定位模型.基于光照强度、光照角度、枝叶遮挡和果实重叠等场景建立图像数据库,引入双向特征金字塔网络改进YOLOv5s的特征融合网络进行深层次特征提取,以增强网络的信息表达能力,提高检测精度.探讨不同场景对该模型检测精度P、检出率R和平均精度均值(mean average precision, MAP)的影响规律.结果表明:改进后YOLOv5s模型对辣椒的检测精度高达95.6%,较YOLOv4、YOLOv3、YOLOv2及Faster R-CNN模型分别提高了6.1%,9.3%,44.4%,8.2%;光照角度处于正面90°时的检测效果最佳,MAP达97.3%;模型在白天强光和傍晚弱光场景下的鲁棒性好,MAP值高于90%;模型在枝叶遮挡场景下比果实重叠时的检测精度高;辣椒距离相机坐标系的空间坐标测量值取0.2 m时的误差仅为1 mm,满足辣椒采摘定位精度需求.

关 键 词:机器人采摘  识别定位  YOLOv5s  深度学习
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号