首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 281 毫秒
1.
针对传统YOLOv3(you only look once-v3)算法目标检测精度较低、收敛速度较慢等问题,提出了一种改进的YOLOv3算法,分别对主干网络和损失函数进行了改进。采用迁移和冻结相结合的训练方法,以提升目标检测的精确度和速度。基于改进的YOLOv3算法对西南某通航机场3种不同场景下的运动目标检测效果进行了对比分析。结果表明,改进的YOLOv3算法对正常天气场景下的场面运动目标检测效果要明显优于雾天和雨天场景,对飞机目标的检测效果明显优于车辆和行人目标;3类目标的检测精度、召回率、平均精度值(mean average precision, mAP)分别达到92.96%、80.51%、91.96%,GPU处理速度为74.0帧/s,较传统YOLOv3算法和YOLOv4算法性能均有明显提升。  相似文献   

2.
为改善在目标尺度变化场景下的检测效果,在SSD算法基础上提出了一种改进方案。首先利用级联膨胀卷积对卷积层进行二次特征提取,然后通过密集连接方式获取目标的上下文信息,最后使用权重共享实现模型优化并采用多任务学习策略预测目标的类别及位置。在UA-DETRAC数据集上的实验结果表明,改进算法的平均精度达89%,超过Faster R-CNN算法17%左右,超过SSD算法10%左右。本文算法对多尺度目标检测任务具有更好的精确性和鲁棒性,能适应遮挡和光照不均匀等应用场景。  相似文献   

3.
针对SSD目标检测算法在检测目标过程中存在漏检的现象,提出一种特征增强的SSD目标检测算法。该算法通过将特定连续特征层进行特征融合,获取更为丰富的目标细节特征信息,以此来改善目标的特征表达效果,提升目标检测正确率。经仿真测试,该算法对车辆、自行车和行人等道路参与者检测效果均有提高,在PASCAL VOC2007数据集上的测试结果与原有SSD检测算法相比,mAP提高0.78%,适合于车载与移动机器人等场景的目标检测应用环境。  相似文献   

4.
图像或视频中的人员目标检测,一般采用单个深层神经网络检测器(SSD)算法.但在复杂场景下,SSD算法因场景复杂、物体重叠、遮挡等干扰,检测精度大大降低.在SSD算法中加入反卷积网络反馈用于增加环境感知信息;采用辅助损失函数以促进损失降低,并将复杂场景中的目标检测多分类问题转换为二分类问题.以无人机拍摄的复杂场景下的行人数据集为例进行人员目标检测实验,对比分析多种检测方法的准确率表明,改进后的SSD算法在检测速度和识别精度上均提高明显.  相似文献   

5.
单次多边界框检测器(single shot multibox detector, SSD)算法因其性能优良已被应用于许多场景中,但该算法对小目标物体的检测精度偏低,主要原因是高层的语义信息没有被充分利用。为解决该问题,文章将其基础网络替换为残差网络(residual network, ResNet),同时融合深浅层的特征信息来增强浅层特征图的语义信息,此外还引入注意力模块,保留更多的目标特征信息,抑制无关信息,进一步提升对小目标物体的检测效果。在PASCAL VOC2007数据集上进行实验测试,平均精度均值为80.2%,优于其他SSD改进算法。由于增加了特征融合和注意力模块,所提算法检测速度有所下降,但相比于SSD改进算法,检测速度仍有明显的优势。  相似文献   

6.
针对SSD目标检测算法运用于自动驾驶领域时,在检测道路上小目标容易发生漏检错检的情况,本文提出一种改进的SSD目标检测算法。本算法首先在SSD模型的主干网络中嵌入感受野增强模块,扩大特征层的感受野,以获取更多小目标的特征信息;然后在主干网络后加入4次U型特征提取结构,构建4个不同层级的特征金字塔,最后合并成一个多层级特征金字塔用于检测。结果表明,该改进SSD模型在KITTI数据集上的检测精度较原始SSD模型提升了6%,检测速度达到了每秒27.9帧。在兼顾检测效率的同时,有效提高了对道路上小目标的检测精度,更适用于自动驾驶领域。  相似文献   

7.
包含目标识别与边界框选定的目标检测是无人驾驶视觉感知中的关键技术之一。采用基于深度计算机视觉组网络(VGGNet)的新型单次多框检测算法(SSD)进行驾驶环境中的关键目标检测、语义标注和目标框选;同时,针对具体驾驶场景,提出了改进的SSD_ARS算法。通过优化梯度更新算法、学习率下降策略和先验框生成策略,在提高平均检测精度的同时使得小目标类别的检测精度得到明显提升。在实际驾驶场景中9类关键目标的检测实验上验证了本文算法的有效性,实验结果表明,检测速度满足实时检测需求。  相似文献   

8.
光流车辆检测算法其光流不仅携带了运动物体的运动信息,还包含丰富的三维结构信息,能够在未知场景信息的情况下对运动目标进行准确检测;但传统光流法计算方法复杂、抗噪性能差、处理速度缓慢,无法满足多目标实时检测的实际需求。为提高光流法实时检测效率,同时保持较好的检测精度,提出了一种基于Harris特征点光流及卡尔曼滤波模型的多运动目标跟踪算法;并提出新的视频目标检测算法性能评价指标。通过对不同实验场景下多个运动目标的检测与跟踪实验统计结果表明,对比主流Meanshift车辆跟踪算法,检测精度平均提高4.61%;且跟踪持续性提升41.5%,具有更好的鲁棒性及准确性。在时间效率上较比传统光流法平均提升42.9%,能够更好地满足目标跟踪实时性要求。  相似文献   

9.
针对密集场景下行人检测的目标重叠和尺寸偏小等问题,提出了基于改进YOLOv5的拥挤行人检测算法。在主干网络中嵌入坐标注意力机制,提高模型对目标的精准定位能力;在原算法三尺度检测的基础上增加浅层检测尺度,增强小尺寸目标的检测效果;将部分普通卷积替换为深度可分离卷积,在不影响模型精度的前提下减少模型的计算量和参数量;优化边界框回归损失函数,提升模型精度和加快收敛速度。实验结果表明,与原始的YOLOv5算法相比,改进后YOLOv5算法的平均精度均值提升了7.4个百分点,检测速度达到了56.1帧/s,可以满足密集场景下拥挤行人的实时检测需求。  相似文献   

10.
针对三帧差分法在车辆检测任务中出现的前景点误检和漏检问题,提出了一种融合K-means聚类的改进三帧差分车辆检测算法。首先,综合当前图像分别与改进算法所选两帧的差分结果,初步判定像素点类别并定义待分类点;其次,结合待分类点在三帧内的灰度特征对其进行K-means聚类,并依据点的坐标信息修正聚类结果,得到待分类点类别;最后,设计车辆形状修正方法,填补空洞并修正目标边界,完成检测。实验结果显示,改进算法在2种不同场景视频上的检测效果达到了81.72%的平均精确率、93.85%的平均召回率以及87.34的平均F1值,各指标值相比于原三帧差分法平均有11.86%提升,较好解决了检测中前景点误检和漏检的问题。  相似文献   

11.
针对传统的行人车辆目标检测算法因参数量大和计算复杂度高而在现实应用中受限的问题,基于轻量化深度学习网络提出改进的YOLOv5s行人车辆目标检测算法.首先,选用ghost模块替换主干网络中部分卷积模块进行模型剪枝,同时向网络中引入注意力机制,使得网络在减少模型参数量和提升模型性能两方面实现更好的平衡;其次,采用边界框的宽高差值计算代替边界框回归损失函数中宽高比距离的计算,加速网络的收敛;最后,通过构建真实交通场景下的行人车辆目标检测数据集检验模型的准确性和实时性.实验结果表明,在保持原算法较高精度的同时,改进后YOLOv5s算法的参数量下降28%,模型大小降低27%,节省了硬件成本,拓宽了YOLOv5s算法的应用场景.  相似文献   

12.
提出一种以摄像头实现的可用于盲人视觉辅助的多运动目标快速识别并同步测距方法.该方法以深度学习多目标检测算法(single shot multibox detector,SSD)识别各类目标,并通过SSD输出的目标类别及检测框(bounding box)高度来提出测距模型,从而同步地获取多个目标的测量距离.本方法仅通过普通摄像头便能识别较多类物体且识别类别数量可拓展,能够将测距模块和障碍物识别模块同步执行,从而可对多个物体实时识别并同步测距.实验结果表明,本方法能有效地识别障碍物,具有良好的测距精度,为盲人视觉辅助的一种有效探索.  相似文献   

13.
针对单步多框目标检测算法(SSD)中存在的误检、漏检以及检测精度不够高等问题,提出了一种改进的SSD目标检测算法。该算法通过空洞卷积替换conv43卷积层及之前的两次标准卷积,扩大感受野,使用反卷积对不同尺度的特征图进行融合,使融合形成的特征图具有丰富的上下文信息,最后为特征图添加注意力模型,有效提取感兴趣区域的特征。仿真实验结果表明,改进算法在VOC2007数据集上较原算法检测精度提升0.9%,检测结果更加准确,一定程度上改善了误检、漏检等问题,同时仍满足实时性的要求。  相似文献   

14.
针对单一任务模型不能同时满足自动驾驶多样化感知任务的问题,提出了一种基于改进YOLOv5s的快速端到端道路多任务感知方法。首先,在YOLOv5s网络输出端设计两个语义分割解码器,能够同时完成交通目标检测、车道线和可行驶区域检测任务。其次,引入Rep VGG block改进YOLOv5s算法中的C3结构,借助结构重参数化策略提升模型速度和精度。为了提升网络对于小目标的检测能力,引入位置注意力机制对编码器的特征融合网络进行改进;最后基于大型公开道路场景数据集BDD100K进行实验验证该算法在同类型算法的优越性。实验结果表明,算法车辆平均检测精度为78.3%,车道线交并比为27.2%,可行驶区域平均交并比为92.3%,检测速度为8.03FPS,与同类型算法YOLOP、Hybrid Nets对比,该算法综合性能最佳。  相似文献   

15.
传统车辆检测的算法无法自适应地完成复杂场景变化下目标特征提取,导致算法检测速度慢、检测效果差和检测精度低。提出了一种改进的Faster RCNN的车辆检测方法。这种方法设计了2个网络:一个准确的车辆候选区域检测网络(PVRNet)及车辆属性学习网络(VALNet)。通过大量的汽车图片数据样本,学习获得一个具有泛化能力强、检测以及定位准确率高的检测模型,其次将测试汽车图片输入该检测模型,得到可能的结果。可以处理复杂的视觉任务,避免人为设计车辆目标的特征,减少人员主观因素影响。实验结果表明,提出的方法显著提高了校园车辆检测性能,检测结果平均精度较高。  相似文献   

16.
针对交通场景下行人检测模型网络复杂、参数量大以及难以在低性能设备上部署的问题,基于YOLOv5s网络模型提出了一种改进的轻量级行人检测算法。首先,使用Ghost模块重构YOLOv5s网络进行特征提取,降低模型的参数量和计算量,提高推理速度。其次,引入坐标注意力机制提高模型对目标特征的提取能力,提升其对小目标行人的检测效果。最后,采用SIoU损失函数加快模型的收敛速度,提高模型的识别准确率。实验结果表明,改进后的算法能保证较高的检测精度,与原始YOLOv5s算法相比参数量减少47.1%,计算量减少48.7%,提高了交通场景下行人检测的速度且易于部署。  相似文献   

17.
为了解决车辆目标检测中准确率低的问题,提出了一种基于改进YOLOv5算法的车辆目标检测.改进后的YOLOv5算法主要是在原来的基础上通过K-means聚类的方法对数据集中的目标边框进行重新聚类、并将CIoU损失函数和DIoU_nms应用于YOLOv5算法来提高目标识别效果.改进后的YOLOv5算法,目标检测mAP达到了85.8%,比改进前的YOLOv5算法提升了1.3%.  相似文献   

18.
为提升在不同复杂场景下的车辆检测性能,提出一种基于改进Mask R-CNN的车辆检测算法。在算法的主干网络ResNet50中引入PSA极自注意力机制提升主干网络特征提取能力;在特征金字塔顶层网络中添加一个带有ECA注意力机制的分支与原分支进行特征融合,缓解顶层特征由于通道降维造成的信息损失。重新设计了卷积检测头使得边框回归更为准确。同时,使用余弦退火算法和Soft-NMS算法来优化训练过程和后处理结果。实验结果表明,改进的Mask R-CNN车辆检测算法相比原Mask R-CNN算法在复杂场景下具有更高的检测精度,在CNRPark-EXT测试集中平均精确度提高3.8%,在更具挑战性的MiniPark测试集中平均精确度提高7.9%。  相似文献   

19.
精细化、智慧化是果园管理的必然发展趋势,其中果树位置信息是果园管理的重要数据。为了快速获取井冈蜜柚果树的位置,利用无人机航拍获取蜜柚果园的正射影像,提出了一种用于检测蜜柚果树目标的SSD改进算法。该算法将原SSD算法的主干网络VGG替换为VoVNet,提高了特征提取能力。对样本数据进行了裁剪处理,有效提高了算法检测小目标的能力。实验结果表明,蜜柚果树目标的平均检测精度达到92.6%。  相似文献   

20.
提出基于多尺度特征融合单次多框检测器(SSD)算法,对微精密玻璃封装电连接器的缺陷进行检测.针对SSD算法在背景复杂、噪声干扰多、目标特征微弱环境下,特征提取能力弱、检测精度低的问题,在主干网络加入深度残差结构,丰富细节信息;针对在卷积网络中关键信息逐步丢失问题,提出了自顶向下的多尺度特征融合方法将含有上下文信息的高语义层与含有位置信息的低层特征进行融合,使得融合后的特征层包含丰富的边界信息和背景信息;在此基础上,构建了一种轻量级的通道注意力模块,增强SSD算法对特征层重要特征的提取并弱化无关特征,从而提高SSD网络的特征提取能力.实验结果表明:改进算法相对于原始的SSD算法,精度由86.42%提高到了91.28%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号