基于改进YOLOv5s的辣椒采摘机器人识别定位方法 |
| |
引用本文: | 魏天宇,柳天虹,张善文,李爽,缪宏,刘思幸.基于改进YOLOv5s的辣椒采摘机器人识别定位方法[J].扬州大学学报(自然科学版),2023(1):61-69. |
| |
作者姓名: | 魏天宇 柳天虹 张善文 李爽 缪宏 刘思幸 |
| |
作者单位: | 1. 扬州大学机械工程学院;2. 扬州大学信息工程学院 |
| |
基金项目: | 国家特色蔬菜产业技术体系岗位专家资助项目(CARS-24-D-03);;江苏省国际科技合作资助项目(BZ2021079);;江苏省自然科学基金资助项目(BK20170500,BK20190876); |
| |
摘 要: | 为了准确研究辣椒采摘机器人受不同作业场景影响的规律,利用获取的采摘目标信息构建基于改进YOLOv5s的辣椒采摘识别定位模型.基于光照强度、光照角度、枝叶遮挡和果实重叠等场景建立图像数据库,引入双向特征金字塔网络改进YOLOv5s的特征融合网络进行深层次特征提取,以增强网络的信息表达能力,提高检测精度.探讨不同场景对该模型检测精度P、检出率R和平均精度均值(mean average precision, MAP)的影响规律.结果表明:改进后YOLOv5s模型对辣椒的检测精度高达95.6%,较YOLOv4、YOLOv3、YOLOv2及Faster R-CNN模型分别提高了6.1%,9.3%,44.4%,8.2%;光照角度处于正面90°时的检测效果最佳,MAP达97.3%;模型在白天强光和傍晚弱光场景下的鲁棒性好,MAP值高于90%;模型在枝叶遮挡场景下比果实重叠时的检测精度高;辣椒距离相机坐标系的空间坐标测量值取0.2 m时的误差仅为1 mm,满足辣椒采摘定位精度需求.
|
关 键 词: | 机器人采摘 识别定位 YOLOv5s 深度学习 |
|
|