基于Openpose和Yolo的手持物体分析算法 |
| |
引用本文: | 贺文涛,黄学宇,李瑶.基于Openpose和Yolo的手持物体分析算法[J].空军工程大学学报,2021,22(6):82-89. |
| |
作者姓名: | 贺文涛 黄学宇 李瑶 |
| |
作者单位: | 空军工程大学防空反导学院,西安,710051 |
| |
摘 要: | 针对当前模式识别领域少有专门针对手持物体识别的研究,提出了可实时全局分析人体手持物体状 态及手持物体类别的分析算法。以人体姿态估计网络Openpose和物体检测网络Yolo为基础对图像进行初步处理,利用C++API将二者获取到的人体关节点坐标和目标物体坐标进行信息融合,然后针对不同尺寸的物体进行分类并分别设计了判定法则,融合交并比(IOU)算法作为手持状态的辅助判断,最终实现了人体手持物体行为分析算法。采集手持物体的视频流制成数据集,使用多种方法进行数据增强并训练,最终算法识别出手持物体状态的的同时,正确识别手持物体类别的准确率可达91.2%左右,相较于传统方法提高了大约1.3%,且运行速度可达13 fps,验证了算法的准确性。试验证明该算法对手持刀具、枪支等危险品的异常行为检测具有较高应用价值。
|
关 键 词: | Openpose Yolov4 手持识别 数据增强 |
本文献已被 万方数据 等数据库收录! |
| 点击此处可从《空军工程大学学报》浏览原始摘要信息 |
| 点击此处可从《空军工程大学学报》下载免费的PDF全文 |
|