基于改进的YOLOv5安全帽佩戴检测算法 |
| |
引用本文: | 雷建云,李志兵,夏梦,田望.基于改进的YOLOv5安全帽佩戴检测算法[J].湖北大学学报(自然科学版),2024(1):1-13. |
| |
作者姓名: | 雷建云 李志兵 夏梦 田望 |
| |
作者单位: | 1. 中南民族大学计算机科学学院;3. 农业区块链与智能管理湖北省工程研究中心 |
| |
摘 要: | 针对安全帽佩戴检测中存在的误检和漏检的问题,提出一种基于YOLOv5模型改进的安全帽佩戴检测算法。改进模型引入多尺度加权特征融合网络,即在YOLOv5的网络结构中增加一个浅层检测尺度,并引入特征权重进行加权融合,构成新的四尺检测结构,有效地提升图像浅层特征的提取及融合能力;在YOLOv5的Neck网络的BottleneckCSP结构中加入SENet模块,使模型更多地关注目标信息忽略背景信息;针对大分辨率的图像,添加图像切割层,避免多倍下采样造成的小目标特征信息大量丢失。对YOLOv5模型进行改进之后,通过自制的安全帽数据集进行训练检测,mAP和召回率分别达到97.06%、92.54%,与YOLOv5相比较分别提升了4.74%和4.31%。实验结果表明:改进的YOLOv5算法可有效提升安全帽佩戴的检测性能,能够准确识别施工人员的安全帽佩戴情况,从而大大降低施工现场的安全风险。
|
关 键 词: | 目标检测 多尺度加权特征融合 注意力机制 图像切割 |
|
|