首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 902 毫秒
1.
针对密集场景下行人检测的目标重叠和尺寸偏小等问题,提出了基于改进YOLOv5的拥挤行人检测算法。在主干网络中嵌入坐标注意力机制,提高模型对目标的精准定位能力;在原算法三尺度检测的基础上增加浅层检测尺度,增强小尺寸目标的检测效果;将部分普通卷积替换为深度可分离卷积,在不影响模型精度的前提下减少模型的计算量和参数量;优化边界框回归损失函数,提升模型精度和加快收敛速度。实验结果表明,与原始的YOLOv5算法相比,改进后YOLOv5算法的平均精度均值提升了7.4个百分点,检测速度达到了56.1帧/s,可以满足密集场景下拥挤行人的实时检测需求。  相似文献   

2.
研究提出一种面向自动驾驶的多模态信息融合的目标识别方法,旨在解决自动驾驶环境下车辆和行人检测问题。该方法首先对ResNet50网络进行改进,引入基于空间注意力机制和混合空洞卷积,通过选择核卷积替换部分卷积层,使网络能够根据特征尺寸动态调整感受野的大小;然后,卷积层中使用锯齿状混合空洞卷积,捕获多尺度上下文信息,提高网络特征提取能力。改用GIoU损失函数替代YOLOv3中的定位损失函数,GIoU损失函数在实际应用中具有较好操作性;最后,提出了基于数据融合的人车目标分类识别算法,有效提高目标检测的准确率。实验结果表明,该方法与OFTNet、VoxelNet和FasterRCNN网络相比,在mAP指标白天提升幅度最高可达0.05,晚上可达0.09,收敛效果好。  相似文献   

3.
针对行人检测受人体姿态复杂、光照变化、遮挡严重等影响,导致检测效率和精度不高的问题,提出一种基于YOLO和排斥力损失函数的行人检测方法.首先,对YOLO模型进行改进,主要是设置合适的预选框以及采用较大尺度的特征图进行特征提取,从而提高其对小物体的检测性能;然后,对排斥力损失函数进行改进,使其符合行人检测的应用场景,为接下来的融合检测提供新的损失函数;最后,将改进的YOLO和排斥力损失函数结合起来,利用YOLO模型速度快的特点提高运行速度,并利用排斥力损失函解决行人遮挡问题.在多个行人检测数据集上的实验结果表明:与其他算法相比,能够更加快速准确地实现行人检测.  相似文献   

4.
将深度学习应用于行人重识别领域,嵌入多尺度注意力融合模块至神经网络中进行多尺度特征提取和表示,可有效提升注意力机制对深度学习网络的识别性能。提出了一种基于SE block的多尺度通道注意力融合模块,并结合ResNet50卷积神经网络提取特征;然后通过双向LSTM网络进一步提取特征序列上下文信息,在提高模型对图像重要特征的提取能力的同时,降低对图像冗余特征的关注度;最后使用级联难采样三元组损失函数和交叉熵损失函数共同训练网络模型,使样本能够在高维特征空间中实现聚类,进一步提升模型识别准确性。所提出算法在Market1501数据集和CUHK03数据集分别进行实验,并在同等条件下和其他注意力模块算法进行比较。为进一步验证各模块作用,对算法进行消融实验,以验证各模块的有效性,实验结果表明,所提出方法可有效应用于行人重识别  相似文献   

5.
针对传统行人检测方法在复杂场景下存在遮挡行人和小尺寸行人检测效果差的问题,提出一种结合语义分割和特征融合的行人检测方法。该方法的网络结构以区域全卷积神经网络为基础框架,根据行人检测任务进行改进。使用深度残差网络提取出多尺度的特征映射图;通过全卷积语义分割网络,得到对应的语义分割图;利用特征融合模块构造出融合特征图;将融合特征图送入区域建议网络和检测网络,完成行人检测。在Caltech和ETH行人检测数据集上进行试验验证,结果表明,与传统行人检测方法相比,该方法的行人检测准确率得到提高,同时检测速度满足实时性要求。  相似文献   

6.
针对SSD多尺度目标检测过程中存在的目标漏检和错检问题,提出了一种融入多维空洞卷积和多尺度特征融合的目标检测算法。在卷积神经网络输出的多尺度特征中,浅层具有更多的细节信息,深层具有更多的语义信息,根据这一特点,对浅层网络采用了3种多维空洞卷积的浅层特征增强模块,获得具有语义信息的特征图,将增强后的特征图进行下采样,融合不同层的特征;同时在深层网络引入通道注意力模块,对通道进行权重分配,抑制无用信息,提高目标的检测性能。研究结果表明:该算法在PASCAL VOC数据集上检测精度为79.7%,比SSD算法提高了2.4%;在KITTI数据集上检测精度为68.5%,比SSD算法提高了5.1%,检测速度达到了实时性的要求,有效地改善了目标的漏检和错检。  相似文献   

7.
为规范工人生产行为、减少安全事故发生,提出一种监控工人使用手机行为检测算法.该算法以YOLO v5模型为基础,对其网络结构和损失函数进行改进.首先,优化主干网络,将ConvNeXt Block和SPP结构引入浅层网络增加浅层特征的提取;然后,在主干网络与特征聚合网络之间构建CBAM注意力机制层,过滤冗余信息;最后,选取EIoU损失函数代替GIoU损失函数,提高模型收敛速度与检测结果的定位精度.通过自建工人使用手机行为数据集,分别对YOLO v5原模型、改进模型以及主流模型进行对比.试验结果表明,在人体和手机目标检测中,改进模型有更好的检测精度和检测速度.  相似文献   

8.
基于改进YOLOv3的交通标志检测   总被引:2,自引:0,他引:2  
针对交通标志检测小目标数量多、定位困难及检测精度低等问题,本文提出一种基于改进YOLOv3的交通标志检测算法.首先,在网络结构中引入空间金字塔池化模块对3个尺度的预测特征图进行分块池化操作,提取出相同维度的输出,解决多尺度预测中可能出现的信息丢失和尺度不统一问题;然后,加入FI模块对3个尺度特征图进行信息融合,将浅层大特征图中包含的小目标信息添加到深层小特征图中,从而提高小目标检测精度.针对交通标志数据集特点,使用基于GIoU改进的TIoU作为边界框损失函数替换MSE函数,使得边界框回归更加准确;最后,通过k-means++算法对TT100K交通标志数据集进行聚类分析,重新生成尺寸更小的候选框.实验结果表明,本文算法与原始YOLOv3算法相比mAP提升11.1%,且检测每张图片耗时仅增加6.6 ms,仍符合实时检测要求.与其他先进算法相比,本文算法具有更好的检测精度和检测速度.  相似文献   

9.
针对将YOLOv3通用目标检测算法应用于行人检测时的检测精度低、定位不准确的问题,提出了一种基于YOLOv3的适用于行人体态特征的目标检测算法。在预处理生成先验框部分,将MSCOCO通用数据集改进为MSCOCO中的person子集来生成仅针对行人体态特征的锚框,并将生成先验框的K-means算法改进为K-means++算法以弥补K-means算法选择中心点的随意性。针对特征提取,改进了卷积神经网络(CNN) Darknet-53的结构以使其能够提取到更多与行人尺度有关的特征信息。损失函数中的目标定位部分改进为更加符合行人体态特征的损失函数。实验使用MSCOCO训练集中的person子集训练模型,分别使用MSCOCO测试集的person子集和自制的行人数据集作为测试集验证模型。结果显示,对比YOLOv3的通用目标检测算法,该文改进算法更易于提取行人特征并提供有效反馈,提高了检测精度。  相似文献   

10.
针对输电线路维护过程中的典型缺陷识别问题,为提高无人机(unmanned aerial vehicle, UAV)自主巡检的智能化程度,提出基于改进YOLOv4的无人机输电线关键部件实时检测模型。根据无人机视角下输电线典型目标的特点,结合MobileNet重新设计了一种轻量的特征提取网络来获取更高的特征提取效率,利用空洞模块增强感受野减少小目标的信息损失;在特征融合模块中添加自适应路径融合网络来融合更多的位置信息和语义信息,提高了多尺度目标的检测精度,减少了目标的误报率。采用构建的无人机输电线关键部件数据集来评估提出的模型。结果表明:基于YOLOv4改进的网络能够在无人机机载端实现实时多尺度目标检测,模型的平均准确率可达到92.76%,检测速度可达到32帧/秒,能够满足无人机嵌入式平台上实时检测的需求。  相似文献   

11.
针对室外街道的行人检测与跟踪,提出一种改进YOLOv3与简单在线实时跟踪(simple online and real-time tracking,SORT)算法相结合的检测及跟踪方法.首先,引入距离和比例交并比(distance and proportional-IOU,DPIOU)损失,将原有的损失函数中的均方误差(mean square error,MSE)部分进行变化,从而得到更精确的检测框;其次,将网络结构中的RestNet进行优化,改变下采样区域,增加池化层,进而减少特征信息的丢失;最后将检测结果输入SORT算法进行建模和匹配.实验结果表明,在室外街道的场景下,改进的算法与YOLOv3相比较,损失值收敛更快,平均准确率高出4.85%,跟踪准确率上升3.4%,同时,模型的速度有所提高,最快可达14.39 FPS.  相似文献   

12.
为实现复杂场景下多尺度仪表检测,提出了一种基于注意力机制的视频多尺度仪表检测算法。首先,利用基于空间注意力机制的特征提取网络,建模特征的长距离依赖,增强特征的表达能力;其次,提出了一种自适应特征选择模块(Adaptive Feature Selection Module, AFSM),对不同阶段的特征图进行权重调整,增强网络对多尺度目标的检测能力。在自建的仪表数据集上进行了实验。实验结果表明,相比较原来的Faster RCNN方法,所提出方法的检测精度提高了7.6%;与对比方法相比,检测精度也能达到95.4%。在对实际仪表监测视频的测试中,检测结果以及速度能够满足实际需要。所提方法通过改进特征提取网络和特征选择操作,增强了特征表达能力,有效降低了虚警,提升了网络对多尺度目标的检测性能。  相似文献   

13.
根据以往钢铁表面缺陷检测技术的检测效能较低、准确性低的情况,提出一种改进YOLOv5s的钢材表面缺陷检测算法。主要改进为:加入坐标注意力机制(Coordinate Attention,CA)的空洞空间卷积池化金字塔 (Atrous Spatial Pyramid Pooling,ASPP),扩大模型感受野和多尺度感知能力的同时能更好的获取特征位置信息;加入改进的选择性内核注意力机制(Selective Kernel Attention,SK),使模型能更好的利用特征图中的频率信息,提升模型的表达能力;将损失函数替换为SIoU,提升模型性能的同时加快模型的收敛。实验数据表明,改进的YOLOv5s网络模型在NEU-DET数据集上的mAP值为78.13%,相比原网络模型提高了2.85%。改进的模型具有良好的检测型性能的同时检测速度为103.9 FPS,能够满足实际应用场景中钢材表面缺陷实时检测的需求。  相似文献   

14.
针对YOLOv4算法在行人检测中精度低,实时性差的问题,提出一种基于YOLOv4的改进算法.首先将MobileNetv2作为主干网络,在减少参数量的同时保证其特征提取能力,同时在MobileNetv2中加入Bottom-up连接,减少浅层信息的丢失;然后在特征融合网络嵌入卷积模块的注意力机制模块(convolution...  相似文献   

15.
针对小目标物体检测精度差的问题,同时不以牺牲速度为代价,本文提出了一种基于全局注意力的多级特征融合目标检测算法。算法首先由卷积神经网络生成多尺度的特征图,然后采用多级特征融合的方法,将浅层和深层特征图的语义信息相结合,提高特征图的表达能力,接着引入全局注意力模块,对特征图上下文信息进行建模,并捕获通道之间的依赖关系来选择性地增强重要的通道特征。此外,在多任务损失函数的基础上增加一项额外的惩罚项来平衡正负样本。最后经过分类回归、迭代训练和过滤重复边框得到最终检测模型。对所提算法在PASCAL VOC数据集上进行了训练和测试,结果表明该算法能有效地提升小目标物体检测效果,并较好地平衡了检测精度与速度之间的关系。  相似文献   

16.
基于遥感影像的海洋目标图像具有多尺度、形状变化大、颜色暗淡、目标边界不清、图像模糊等特点,需要在现有的目标检测算法上进行改进,以满足遥感影像海洋目标检测及分类需要。针对这些问题,在You Only Look Once version 5 (YOLOv5)的网络架构中引入Selective Kernel Networks (SKNet)注意力模块,提出一种新的SK-YOLOv5网络,增强网络对多尺度复杂海洋目标的特征提取和自适应能力。经对比实验测试,在相同的海洋目标数据集上,改进后的网络比原网络整体检测及分类准确率提升了约9%。  相似文献   

17.
针对传统YOLOv3(you only look once-v3)算法目标检测精度较低、收敛速度较慢等问题,提出了一种改进的YOLOv3算法,分别对主干网络和损失函数进行了改进。采用迁移和冻结相结合的训练方法,以提升目标检测的精确度和速度。基于改进的YOLOv3算法对西南某通航机场3种不同场景下的运动目标检测效果进行了对比分析。结果表明,改进的YOLOv3算法对正常天气场景下的场面运动目标检测效果要明显优于雾天和雨天场景,对飞机目标的检测效果明显优于车辆和行人目标;3类目标的检测精度、召回率、平均精度值(mean average precision,mAP)分别达到92.96%、80.51%、91.96%,GPU处理速度为74f/s,较传统YOLOv3算法和YOLOv4算法性能均有明显提升。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号