首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 531 毫秒
1.
在施工过程中塔式起重机的事故发生得越来越频繁,为了在安全检测中及时发现塔式起重机因各种因素产生的裂缝从而降低事故的发生率,提出一种基于改进YOLO V3的塔式起重机裂缝检测方法.针对塔式起重机裂缝检测的特点对YOLO V3算法进行改进,利用K-means聚类方法对目标框聚类;根据识别目标对象特点改进原YOLO V3的损...  相似文献   

2.
针对行人检测受人体姿态复杂、光照变化、遮挡严重等影响,导致检测效率和精度不高的问题,提出一种基于YOLO和排斥力损失函数的行人检测方法.首先,对YOLO模型进行改进,主要是设置合适的预选框以及采用较大尺度的特征图进行特征提取,从而提高其对小物体的检测性能;然后,对排斥力损失函数进行改进,使其符合行人检测的应用场景,为接下来的融合检测提供新的损失函数;最后,将改进的YOLO和排斥力损失函数结合起来,利用YOLO模型速度快的特点提高运行速度,并利用排斥力损失函解决行人遮挡问题.在多个行人检测数据集上的实验结果表明:与其他算法相比,能够更加快速准确地实现行人检测.  相似文献   

3.
针对大幅面高分辨率光学遥感图像目标检测尚存在着检测精度和效率低的问题,提出了一种高分辨率遥感图像视感知目标检测算法。该算法首先通过显著区域有选择性的引导获取场景中的子区域,将计算资源转移到可能包含目标的区域中,以降低计算复杂度;然后,利用基于单次检测器(YOLO)卷积神经网络目标检测模型获取预选目标;最后,提出目标语义关联抑制对获取的预选目标进行筛选得到有效目标,能够减少虚假目标的干扰,降低虚警率。所提算法在公开NWPU_VHR-10数据集上的平均检测精度为0.865,高于对比算法,在包含更多高分辨率的LUT_VHRVOC-2数据集上,比YOLO的检测效果更好。实验结果表明,所提算法提高了大幅面高分辨率遥感图像的目标检测精度。  相似文献   

4.
传统的图像处理算法不能很好地对桥梁裂缝进行检测,而经典的深度学习模型直接用于桥梁裂缝的检测时检测精度低,收敛速度慢,效果不甚理想。针对上述问题,本文在YOLO V5模型基础上提出引入C3-B(C3-Bottleneck)注意力机制模块,提高模型对目标的精确定位能力;使用PAN(路径汇聚网络)加权跨层级联,防止浅层语义的丢失;选取SIOU损失函数替换GIOU损失函数,进而提高收敛速度,实现复杂环境下的桥梁裂缝高精度检测。实验结果表明,对比原YOLO V5模型,本文方法的平均精度均值提升4.3%,精度提升5%,召回率提升1.2%,证明了本文方法对桥梁裂缝检测具有较好的效果。  相似文献   

5.
基于深度学习的复杂背景下茶叶嫩芽检测算法   总被引:2,自引:0,他引:2  
针对传统的基于机器视觉的茶叶嫩芽检测方法存在手工特征提取鲁棒性较差以及准确率较低等问题,首次将基于深度学习的目标检测算法YOLO应用到复杂背景下的茶叶嫩芽图像的检测,并从多尺度检测方面对YOLO网络架构进行了改进,用大尺度和中尺度检测代替了原来的多尺度检测.在预处理阶段,通过结合超绿特征以及OSTU算法对复杂背景下的茶叶嫩芽图像进行了图像分割,使得茶叶嫩芽区域更加明显.实验结果表明,通过与其他算法对比,基于深度学习的目标检测算法对复杂背景下的茶叶嫩芽具有较高的检测精度,为复杂背景下茶叶嫩芽的智能化采摘设备的研究提供了基础.  相似文献   

6.
识别砂岩中的石英、长石和岩屑对判断沉积环境具有重要意义,但传统的人工识别方法存在主观性强、对经验依赖程度高等问题。本文利用深度学习、卷积神经网络等技术构建了一种基于Faster R-CNN目标检测算法的砂岩显微组分图像识别方法,实现了正交偏光下对薄片图像中石英、长石、岩屑三种组分的智能识别,三种组分平均识别准确率为89.28%。为了验证模型的可靠性,实验对比了不同算法和特征提取网络,结果表明:Faster R-CNN目标检测算法的识别效果优于YOLO V3、YOLO V4、YOLO V5s,ResNet50特征提取网络的表现效果优于VGG16。采用ResNet50特征提取网络的Faster R-CNN目标检测模型优势显著,它可以更好满足岩石薄片的识别要求,为传统的人工方法提供智能化技术方案。  相似文献   

7.
研究YOLO算法在手势识别中的应用,提升在近肤色和光线明暗不一的背景下检测的速度和精度.YOLO算法是端到端的检测方法,通过卷积神经网络自动提取目标的特征,可以大幅度提高运算速度.鉴于YOLO算法在目标检测任务中的优良表现,将YOLO算法应用到手势识别问题中.通过对YOLO系列算法的研究对比表明,YOLO算法在手势识别中具有良好表现.同时,在YOLOv3算法的快速版本YOLOv3-tiny的基础上提出了YOLOv3-tiny-T算法.YOLOv3-tiny-T在包含5种手势的UST数据集上,平均精度均值为92.24%,较YOLOv3-tiny获得了5%左右的提升.   相似文献   

8.
为了对X射线焊缝图像上包含许多信息的识别标记进行准确识别,提出了YOLO-G网络和YOLO-D网络.设计基于YOLO(you only look once)的X射线焊缝图像信息检测方法,并通过引入多种轻量化技术大幅降低了网络模型的参数量与计算量,在保证高检测精度的同时加快检测速度,降低对高算力硬件的依赖性.同时根据检测...  相似文献   

9.
蒲玲玲  杨柳 《科学技术与工程》2023,23(28):12159-12167
多车辆目标跟踪时间主要花费在车辆检测模块和对每个车辆表观特征提取模块,一般情况下,车辆检测和车辆表观特征提取是在不同的神经网络中进行的,且一张图中的车辆目标越多,对车辆表观特征提取耗费时间的也越多,推理时间也相应变长。针对这一问题,基于经典的Tracking-By-Detection模式,提出一种改进的YOLO模型:在YOLO网络中添加ReID特征识别模块,使YOLO在输出目标位置信息的同时输出目标特征信息,以提高算法的跟踪速度。针对车辆间彼此覆盖的情况,提出一种基于动态IOU阈值的非极大抑制算法,以提高算法的跟踪精度。最后将YOLO输出的信息进行数据匹配,从而实现多目标跟踪。在UA-DETRAC数据集上验证改进模型的有效性,实验结果表明,将YOLOv5网络进行改进后运用在目标跟踪算法中,相对于经典的YOLO+DeepSORT跟踪模型,在车辆密集的情景下平均推理时间减少了17%;在改进后的网络上添加动态IOU阈值非极大抑制,跟踪精度提高了3.9个百分点。改进后的模型有较好的实时性与跟踪准确率。  相似文献   

10.
为解决清漂船在复杂水面背景下对漂浮物体积较小或被遮挡的检测与跟踪问题,提出了一种基于视觉的水面背景下目标检测与跟踪算法,通过利用YOLO改进的多粒度特征融合方法使得模型在最终检测时所提取的特征向量考虑更多底层的特征,并引入K邻域搜索感兴趣区域模块,与长短期记忆神经网络(LSTM) 相结合,弥补了卷积神经网络的时序关联性差的缺陷,根据目标当前帧语义特征和运动特征预测下一帧中目标所在位置,能够更快的提取目标的特征,并且有效的去除复杂背景的干扰。实验结果表明:该算法的跟踪平均成功率、平均准确率和平均速度分别为57.1%、71.1%、45.4fps。较好解决因被检测目标过小的问题,提升在跟踪目标被遮挡的情况下的跟踪性能。  相似文献   

11.
针对道路检测采用图像外观特征对像素或区域进行分类,容易受到光照、阴影和遮挡等复杂因素的影响导致检测精度低的问题,提出一种结合场景结构信息和全连接条件随机场(CRF)模型的道路检测方法.首先检测道路消失点和道路边界线并生成道路的置信图;然后基于图像超像素训练场景结构布局模型得到结构布局的估计;融合置信度图、结构布局图和图像外观特征构建基于像素的全连接CRF模型;最后通过CRF模型推理得到分类结果.实验对比结果表明:采用结构信息和全连接CRF能够有效提高道路检测的精度,对阴影和遮挡等复杂道路环境具有鲁棒性.  相似文献   

12.
提出了一种改进的基于几何立体匹配的遮挡检测算法来提高增强现实系统中虚实遮挡检测的实时性、精度和鲁棒性.通过立体图像对中虚实点的投影位置关系判断虚实点之间的遮挡关系,不需要进行深度计算,能够有效提高遮挡检测的速度;通过选择网格边界上特征明显的边点进行检测运算能够提高遮挡检测精度;根据显示状态的连续性,提出一种状态拟合模型来改善算法的鲁棒性.实验结果证明此遮挡算法可以实现虚实物体间快速、可靠的多层次遮挡检测.  相似文献   

13.
基于图像/视频检测场景中的目标对象,总要涉及如何应对由成像透视造成的几何和尺度形变,以及运动形式变化等问题,使得在2D图像空间设计算法变得尤为复杂,尤其是针对目标遮挡和粘连问题,一直不能得到很好解决。为此,借助逆投影变换,提出一种在逆投影图中结合多部件混合模型的目标检测方法。首先在3D空间中构建与目标局部表面相贴合的逆投影面或阵列;然后,通过逆投影变换重构目标局部表面的特征数据,得到相应的逆投影图;接下来,提取部件样本在逆投影图中的HOG特征构建特征字典;并通过在字典上的稀疏逼近实现局部部件的检测。最后,利用部件检测结果,构建3D模型,并对质心聚类,完成最终的目标识别。实验表明,基于图像逆投影和3D部件混合模型检测图像/视频中的目标,不仅可以降低算法的复杂度,还可以从本质上有效解决目标遮挡和粘连,使检测精度和速度都远超于在2D图像空间设计的算法。  相似文献   

14.
针对当前苹果检测算法模型参数多、检测实时性差的问题,提出一种基于轻量化卷积神经网络的苹果目标检测算法.首先,用经典轻量化卷积神经网络ShuffleNet V2替换YOLO v5s的主干网络,实现模型的轻量化;然后,用stem模块取代主干网络的图像处理层进行初始特征提取并且嵌入SPPF结构,弥补轻量化带来的精度损失;最后,在边界框的回归损失函数中引入α幂化指标,进一步提高边界框的定位精度.试验结果表明,改进后算法模型的平均精度均值达到95.8%,网络参数量降低了85.6%,在GPU上的单张平均检测时间仅10 ms,满足苹果采摘任务对检测精度和实时性的要求.  相似文献   

15.
为了准确研究辣椒采摘机器人受不同作业场景影响的规律,利用获取的采摘目标信息构建基于改进YOLOv5s的辣椒采摘识别定位模型.基于光照强度、光照角度、枝叶遮挡和果实重叠等场景建立图像数据库,引入双向特征金字塔网络改进YOLOv5s的特征融合网络进行深层次特征提取,以增强网络的信息表达能力,提高检测精度.探讨不同场景对该模型检测精度P、检出率R和平均精度均值(mean average precision, MAP)的影响规律.结果表明:改进后YOLOv5s模型对辣椒的检测精度高达95.6%,较YOLOv4、YOLOv3、YOLOv2及Faster R-CNN模型分别提高了6.1%,9.3%,44.4%,8.2%;光照角度处于正面90°时的检测效果最佳,MAP达97.3%;模型在白天强光和傍晚弱光场景下的鲁棒性好,MAP值高于90%;模型在枝叶遮挡场景下比果实重叠时的检测精度高;辣椒距离相机坐标系的空间坐标测量值取0.2 m时的误差仅为1 mm,满足辣椒采摘定位精度需求.  相似文献   

16.
针对多目标跟踪算法在遮挡频繁的场景下存在目标关联准确性低的问题,提出一种结合检测与特征匹配的多目标跟踪算法. 该算法引入检测精度较高的YOLOv5作为多目标跟踪的检测器,能够精准定位目标,有效提高跟踪精度;在面对目标间遮挡时,通过专门设计特征匹配模型提取更为细致的特征,能够有效降低跟踪时目标ID的切换次数.在MOT16数据集上对跟踪性能进行评估,结果表明:所提方法可以有效缓解目标遮挡,实现稳定跟踪.  相似文献   

17.
针对视频监控系统中运动目标的跟踪问题,提出了一种基于模型动态切换的实时跟踪方法.在运动目标分割之后,跟踪系统有效判定运动目标的遮挡状态,对未遮挡的运动对象采用基于区域的跟踪模型,对于相互重叠的运动对象采用基于SIFT特征的窄基线图像匹配模型.基于区域的跟踪模型采用简单的目标区域特征以及运动预测属性,实现快速地跟踪.基于SIFT特征的图像匹配模型利用被跟踪目标在相邻图像帧之间很小的尺度和外形变化以及基于目标区域位置预测出的有限运动范围,实现快速的窄基线小范围SIFT特征匹配和跟踪.实验结果表明,该方法具有较强的鲁棒性,能有效实现复杂遮挡场景下的多目标实时跟踪.  相似文献   

18.
由于水下目标检测面临着图像模糊、尺度多样化、复杂背景等问题,给水下目标检测应用带来很多挑战.本文提出了一种基于类加权YOLO网络的水下目标检测方法,主要思想是在深度网络YOLO的基础上,构造了类加权损失函数,来平衡样本难易程度以获得更好的效果,并引入了目标框自适应维度聚类方法,进一步提升了检测性能.实验结果表明,本文算法与传统的YOLO网络模型相比,在每幅图片包含近20个目标的密集目标检测任务中,能够将平均准确率从71.2%提升至74.1%,召回率由71.1%提升到78.3%.  相似文献   

19.
针对敌士兵数据集样本较少的问题,提出一种基于YOLOv3的少样本深度学习目标检测方法.利用数据增广提高少样本目标检测模型的鲁棒性,改进网络结构将浅层网络特征图跨层连接至深层网络,采用k-means聚类获取适合士兵目标特性的锚点框,利用预训练提高模型训练收敛速度.实验结果表明,本文方法对少样本敌士兵目标检测成功率mAP达到85.6%、检测精度IOU达到82.18%,且对小型和遮挡目标检测效果较好;部署在NVIDIA TITAN V GPU计算机和NVIDIA Xavier嵌入式计算平台上的检测速度分别达到54.6和26.8 fps,实时性好.   相似文献   

20.
针对传统行人检测算法在检测靠得很近或相互遮挡的多行人目标时容易出现漏检的问题,分析了可变形部件模型,提出了基于双行人可变形部件模型的行人检测算法.该算法包含模型训练、模型匹配及融合过程,可以获取双行人可变形部件模型.提出了一种对图像进行分区域匹配加融合的新方法.设计了2组试验,对单行人可变形部件模型和双行人可变形部件模型的检测效果进行了对比.结果表明:提出的算法相比其他算法对检测靠得很近和相互遮挡的多行人目标时容易出现的漏检情况有较大的改善,有效降低了漏检率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号