首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对将YOLOv3通用目标检测算法应用于行人检测时的检测精度低、定位不准确的问题,提出了一种基于YOLOv3的适用于行人体态特征的目标检测算法。在预处理生成先验框部分,将MSCOCO通用数据集改进为MSCOCO中的person子集来生成仅针对行人体态特征的锚框,并将生成先验框的K-means算法改进为K-means++算法以弥补K-means算法选择中心点的随意性。针对特征提取,改进了卷积神经网络(CNN) Darknet-53的结构以使其能够提取到更多与行人尺度有关的特征信息。损失函数中的目标定位部分改进为更加符合行人体态特征的损失函数。实验使用MSCOCO训练集中的person子集训练模型,分别使用MSCOCO测试集的person子集和自制的行人数据集作为测试集验证模型。结果显示,对比YOLOv3的通用目标检测算法,该文改进算法更易于提取行人特征并提供有效反馈,提高了检测精度。  相似文献   

2.
目标检测是遥感图像处理领域的一项重要技术,遥感图像目标种类繁多且存在目标物体难以被检测.提出把YOLOv5算法应用到遥感图像目标检测的方法,首先选择YOLOv5x来构建网络模型,再通过Mosaic数据增强对样本集进行预处理和自适应锚框筛选方法确定锚框大小,然后切片卷积操作得到原始特征图,将原始特征图送入主干网络进行特征融合得到最优权重,最后采用GIOU Loss做边界框的损失函数和非极大值抑制目标框的筛选,对遥感图像进行目标检测.在公开的10类地理空间物体(NWPU-VHR 10)数据集进行了检测实验,以评估所提出模型的目标检测性能.对比实验表明,本文的模型mAP达到了0.9239,与使用相同数据集的模型中的最佳结果进行比较,mAP提升了1.78%,该方法可以提高遥感图像目标检测精度.  相似文献   

3.
针对工地、危险区域等场景需要实现同时佩戴安全帽与口罩的自动检测问题,提出一种改进的YOLOv3算法以提高同时检测安全帽和口罩佩戴的准确率。首先,对网络模型中的聚类算法进行优化,使用加权核K-means聚类算法对训练数据集聚类分析,选取更适合小目标检测的Anchor Box,以提高检测的平均精度和速度;然后,优化YOLO网络内部的Darknet特征网络层,将4倍降采样提取的特征图进行2倍上采样,再与2倍降采样进行卷积融合,与4倍降采样、8倍降采样以及16倍降采样一同输送到后续网络中,来达到降低小目标的漏检概率。实验结果表明:改进后的算法同时检测安全帽和口罩佩戴的平均准确率比原算法提高了11.3%。  相似文献   

4.
针对安全帽佩戴检测中存在的误检和漏检的问题,提出一种基于YOLOv5模型改进的安全帽佩戴检测算法。改进模型引入多尺度加权特征融合网络,即在YOLOv5的网络结构中增加一个浅层检测尺度,并引入特征权重进行加权融合,构成新的四尺检测结构,有效地提升图像浅层特征的提取及融合能力;在YOLOv5的Neck网络的BottleneckCSP结构中加入SENet模块,使模型更多地关注目标信息忽略背景信息;针对大分辨率的图像,添加图像切割层,避免多倍下采样造成的小目标特征信息大量丢失。对YOLOv5模型进行改进之后,通过自制的安全帽数据集进行训练检测,mAP和召回率分别达到97.06%、92.54%,与YOLOv5相比较分别提升了4.74%和4.31%。实验结果表明:改进的YOLOv5算法可有效提升安全帽佩戴的检测性能,能够准确识别施工人员的安全帽佩戴情况,从而大大降低施工现场的安全风险。  相似文献   

5.
基于改进YOLOv3的交通标志检测   总被引:2,自引:0,他引:2  
针对交通标志检测小目标数量多、定位困难及检测精度低等问题,本文提出一种基于改进YOLOv3的交通标志检测算法.首先,在网络结构中引入空间金字塔池化模块对3个尺度的预测特征图进行分块池化操作,提取出相同维度的输出,解决多尺度预测中可能出现的信息丢失和尺度不统一问题;然后,加入FI模块对3个尺度特征图进行信息融合,将浅层大特征图中包含的小目标信息添加到深层小特征图中,从而提高小目标检测精度.针对交通标志数据集特点,使用基于GIoU改进的TIoU作为边界框损失函数替换MSE函数,使得边界框回归更加准确;最后,通过k-means++算法对TT100K交通标志数据集进行聚类分析,重新生成尺寸更小的候选框.实验结果表明,本文算法与原始YOLOv3算法相比mAP提升11.1%,且检测每张图片耗时仅增加6.6 ms,仍符合实时检测要求.与其他先进算法相比,本文算法具有更好的检测精度和检测速度.  相似文献   

6.
针对单步多框目标检测算法(SSD)中存在的误检、漏检以及检测精度不够高等问题,提出了一种改进的SSD目标检测算法。该算法通过空洞卷积替换conv4_3卷积层及之前的两次标准卷积,扩大感受野,使用反卷积对不同尺度的特征图进行融合,使融合形成的特征图具有丰富的上下文信息,最后为特征图添加注意力模型,有效提取感兴趣区域的特征。仿真实验结果表明,改进算法在VOC2007数据集上较原算法检测精度提升0.9%,检测结果更加准确,一定程度上改善了误检、漏检等问题,同时仍满足实时性的要求。  相似文献   

7.
针对在自然交通场景中道路不同种类目标的边界框大小差异巨大,现有实时算法YOLOv3无法很好地平衡大、小目标的检测精度等问题,重新设计了YOLOv3目标检测算法的特征融合模块,进行多尺度特征拼接,对检测模块进行改进设计,新增2个面向小目标的特征输出模块,得到一种新的具有5个检测尺度的道路目标多尺度检测方法YOLOv3_5d.结果表明:改进后的YOLOv3_5 d算法在通用自动驾驶数据集BDD100 K上的检测平均精度为0.5809,相较于原始YOLOv3的检测平均精度提高了0.0820,检测速度为45.4帧·s-1,满足实时性要求.  相似文献   

8.
为解决传统棉布生产工艺中瑕疵检测成本高、精度低、速度慢等问题,提出一种FS-YOLOv3(Four Scales YOLOv3)网络来自动检测棉布瑕疵.该网络结合K-Means++聚类算法,以交并比为距离度量获取较好尺寸的锚框,提高检测速度.设计了4个不同尺度的卷积特征图与深度残差网络中相应尺度的特征图进行融合,有效地学习样本特征.将Softer NMS算法作为预测框过滤机制,使得高分类置信度的边框位置更为准确.实验结果表明:使用FS-YOLOv3网络能有效提高低对比度、小尺度目标的棉布瑕疵检测精度,整体性能优于传统的检测方法.  相似文献   

9.
针对输送带纵向撕裂检测中存在的检测视角单一、速度慢、精度低等问题,文章提出一种基于改进YOLOv3算法的输送带纵向撕裂多视角检测方法。首先对原始YOLOv3网络结构进行优化设计,采用29层网络模型(Darknet-29)作为特征提取网络,将原有的3种不同尺度锚点改用为2种不同尺度(26×26,52×52)锚点;将位于多视角检测点的工业相机所采集的纵向撕裂图像制作成数据集,使用K-means算法对输送带纵向撕裂标签进行维度聚类分析,确定先验框参数;最后将改进的YOLOv3算法在数据集上进行测试与训练,并与其他几种算法进行比较。实验结果表明:该检测方法不仅可以较好地检测出输送带纵向撕裂,还可以分类识别出大裂纹或完全撕裂情形;相较于原始YOLOv3算法,改进后的YOLOv3算法平均检测精度均值提高0.4%,达到98.7%,检测速度提高60.6%,达到53帧/s,模型占用内存减少93 Mb,仅为141 Mb,优于YOLOv2和YOLOv3-Tiny算法。该文提出的输送带纵向撕裂检测方法具有模型占用内存低、检测精度高及速度快等优点,为输送带纵向撕裂提供了一种新的检测方案。  相似文献   

10.
针对目标检测模型过大且计算复杂而导致其无法应用于无图形处理器嵌入式终端的问题,通过改进YOLO算法,提出一种基于深度学习的水面目标检测模型压缩方法.采用带有深度可分离卷积和轻量级注意力模型的改进网络替代特征提取网络DarkNet,通过多尺度特征融合进行模型压缩,引入k-means++算法与Mish激活函数,保证模型压缩后的准确度.试验结果表明,YOLOv3-MobileNetV3网络模型较YOLOv3网络模型的参数量减少61.35%,模型大小减少144 MB,模型平均精度均值较YOLOv3-MobileNetV1网络模型提升5.55%,满足嵌入式设备水面目标检测实时性和准确性的要求.  相似文献   

11.
随着经济的快速发展及低碳环保出行方式的普及,电动摩托车投入量逐年上升,但由此带来的安全隐患也随之上升.针对传统的人工检查骑手是否规范佩戴安全帽耗时、耗力且存在漏检等问题,提出一种基于改进YOLOv5的头盔检测算法.首先,针对摩托车头盔大小尺寸不一的问题,使用K-means++算法重新设计初始锚框,增加了网络收敛速度;其次引入坐标注意力机制(Coordinate Attention),增强网络学习特征的表达能力;最后,引入α-IoU损失函数提高目标检测精度.实验表明,改进的YOLOv5模型的mAP达到98.83%,比YOLOv5的平均精度提升了5.29%,符合在道路复杂环境下对电动摩托车驾驶人头盔检测的要求.  相似文献   

12.
车辆信息检测是车型识别在智慧交通领域中的首要任务。针对现有的车辆信息检测技术在检测速度、精度以及稳定性方面存在的问题,提出了基于YOLOv3的深度学习目标检测算法——YOLOv3-fass。该算法以DarkNet-53网络结构为基础,删减了部分残差结构,降低了卷积层的通道数,添加了1条下采样支路和3个尺度跳连结构,增加了一个检测尺度,并通过K-均值聚类与手动调节相结合的方法计算出12组锚框值。最后通过迁移学习机制对YOLOv3-fass算法进行微调。在自研的车辆数据集上,YOLOv3-fass算法与YOLOv3、YOLOv3-tiny、YOLOv3-spp算法以及具有ResNet50和DenseNet201经典网络结构的算法做了对比实验,结果表明YOLOv3-fass算法能够更精准、高效、稳定地检测到车辆信息。  相似文献   

13.
针对安全帽佩戴检测时易受复杂背景干扰,解决YOLOv4网络检测速度慢、内存消耗大、计算复杂度高、对硬件性能要求较高等问题,引入改进YOLOv4算法优化安全帽佩戴检测方法。引入MobileNet网络轻量化YOLOv4、跨越模块特征融合,实现高层语义特征和低层语义特征有效融合。针对图像中小目标分辨率低,信息特征少,多尺度并存,导致在连续卷积过程中易丢失特征信息等问题,采用改进特征金字塔FPN和注意力机制等颈部优化策略聚焦目标信息,弱化安全帽检测时背景信息的干扰。仿真结果表明,基于改进的YOLOv4颈部优化网络安全帽佩戴检测算法在CPU平台下的检测速度为34.28 FPS,是基础YOLOv4网络的16倍,检测精度提升了4.21%,检测速度与检测精度达到平衡。  相似文献   

14.
针对内河航道上无人船识别目标时受背景复杂性和分布多样性影响而存在漏检的问题,提出一种基于YOLOv5(you only look once)的算法.首先,提出一种注意力模块MSAM(多尺度注意力模块),可对带有大量空间信息的浅层特征图和带有丰富语义信息的深层特征图进行注意力融合,使得融合后的特征图具有更强的特征;然后,研究MSAM模块的不同位置的影响;最后,优化锚框参数,使得锚框形状更加符合内河船舶的形状.在船舶数据集上进行实验,结果表明:本算法的召回率提高了1.12%,三个mAP(平均精度均值)指标分别提高了0.87%,5.00%和2.07%,FPS(帧率)指标提高了3,漏检率降低,整体检测准确性和检测速度均得到提升.  相似文献   

15.
针对当前无人机目标图像检测方法精度较低和检测速度过慢的问题,提出一种结合轻量级网络和改进多尺度结构的目标检测算法。首先采用MobileNetV3轻量级网络替换YOLOv4的主干网络,减少模型复杂度,提升检测速度;其次,引入改进多尺度结构的PANet网络,增强高维图像特征和低维定位特征的流动叠加,提升对小目标的分类和定位精度;最后,利用K means方法对目标锚框进行参数优化,提升检测效率。同时结合公开数据集和自主拍摄方式构建一个新的无人机目标图像数据集Drone dataset,并基于数据增强的方法开展算法性能实验。实验结果表明,该算法的mAP达到了91.58%,FPS达到了55帧/s,参数量为44.39 M仅是YOLOv4算法的1/6,优于主流的SSD、YOLO系列算法和Faster R CNN算法,实现了对多尺度无人机目标的快速检测。  相似文献   

16.
针对复杂场景下交通标志检测存在精度低、检测速度慢等问题,提出一种基于YOLOv3改进的S-YOLO交通标志算法。首先,合并批归一化层到卷积层,以提升模型前向推理速度;其次,采用二分K-means聚类算法,确定适合交通标志的先验框;然后引入空间金字塔池化模块,提取特征图深度特征;最后引入CIoU回归损失函数,提升模型检测精度。实验结果表明,在重制的CTSDB交通标志数据集下,所提算法与YOLOv3相比,平均准确率和检测速度分别提升了4.26%和15.19%,同时相较YOLOv4以及其他算法对交通标志识别有更优的精度和速度,具有良好的鲁棒性,满足复杂场景高效实时检测。  相似文献   

17.
周奥  杨岗  闫磊  张东兴 《科学技术与工程》2022,22(33):14801-14808
虹膜定位是虹膜识别系统中不可或缺的环节,针对传统的虹膜定位方法对镜面反射、眨眼等复杂环境下质量差的虹膜图像定位准确率低、计算复杂度高和鲁棒性差等问题,提出了一种基于改进YOLOv3模型的虹膜快速定位方法。针对眼周图像中虹膜内、外圆尺寸变化不大,将YOLOv3网络的多尺度结构改进为双尺度检测;引入了轻量级网络Mobilev3中bneck块来改进特征提取网络,减小模型复杂度;利用kmeans++算法对虹膜数据集进行类聚,获得更优的锚点框;模型边框损失函数采用改进的损失函数代替原均方差(MSE)损失函数;利用虹膜特有几何特征,将模型矩形预测框更改为圆形预测框。在CASIA-IrisV4数据集验证表明,改进模型定位准确率为96.32%,mAP为99.37%,检测速度为49.4帧/s,模型参数减少到4.13M。结果表明改进后的模型较小,并且能够快速精准对虹膜区域定位,具有较高鲁棒性,能够满足虹膜实时定位的场景。  相似文献   

18.
针对汽车前置摄像头所拍路况实景中的远距离交通标志占整个画面的比例较小、自动检测较难的问题,本文提出一种改进YOLOv3的卷积神经网络结构.在原YOLOv3算法结构上去掉了 13×13这个冗余的大感受野检测层,结合残差结构思想,将深层特征进行上采样,然后与浅层特征图进行张量拼接,得到104×104的尺度检测层,进一步提高对浅层特征的学习能力.结合Softer-NMS算法,提升检测边框的位置精度和算法的召回率.在测试阶段合并卷积层与BN层,通过减少计算量,提升网络模型前向推断的速度以加快检测速度.实验结果表明,改进的YOLOv3模型的检测精度为91.57%,每张图的平均检测时间14.72 ms,在速度上比YOLOv3算法快了 10.95%,具备更好的检测性能.  相似文献   

19.
为解决现有火灾检测算法无法同时满足高检测率、低误报率以及高实时性的检测需求的问题,提出了一种基于卷积神经网络的改进YOLOv3目标检测算法,通过深度卷积神经网络自动提取火焰特征对全图进行多尺度特征图预测.首先,针对网络公开火灾数据集数量较少、场景种类受限、火焰尺度单一等问题,自建了一个包含13 573张火灾图片的火灾数据集用于对模型进行训练和测试,其中训练集图片10 014张,测试集图片3 559张.接着,为了提升网络对于多尺度目标(尤其是小尺度目标)火焰的特征提取效果,通过在原YOLOv3的特征提取网络Darknet-53中嵌入空洞卷积模块以充分利用上下文信息,扩增感受野的同时保证不丢失特征图的分辨率.此外,在特征提取网络中加入DenseNet密集型连接网络结构单元,以增强特征复用,同时缓解深度卷积神经网络在特征传播过程中的梯度消失问题.该改进的特征提取网络相比原网络层数进一步加深,网络参数量显著减少.结合火灾检测任务需求实际,简化了损失函数,加快了网络的收敛速度.实验结果表明:该算法检测速度快,检测精度高,不仅能够实时检测大尺度火焰,对于火灾发生初期的小尺度火焰也同样检测灵敏,其检测速度可达26.0帧/s,精确率可达97%,且在多种复杂光照环境下均能良好地抑制误报.  相似文献   

20.
YOLOv5算法能够对异常行为进行检测,大幅度提高异常行为识别的准确率和速度。然而,其参数规模较大,GPU计算量大,不适合在资源受限的嵌入式终端上进行安装部署;同时,其对目标密集、易产生遮挡的学生课堂异常行为识别表现不佳。针对上述问题提出了融合MobileNetV3的YOLOv5算法,该算法通过改进网络结构提升了算法效率,通过小目标锚框改进了相互遮挡的多目标识识别能力。最后,在基准数据集上的实验结果表明该算法网络模型参数量优于现有的YOLOv5算法,同时该算法在课堂异常行为数据集上表现出更好的识别效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号