首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 216 毫秒
1.
输入图像尺度不一导致在复杂背景上基于深度学习的目标检测算法存在检测速度慢和检测精度低的问题.为了解决这些问题,基于更快区域卷积网络,提出一种包含区域网络、特征提取和区域分类3个模块的目标检测算法.首先通过感兴趣区域提取网络RPNS和RPNB,得到带有对象得分的矩形目标推荐;再利用多尺度和多高宽比的锚点框计算并提取每个推荐的局部特征;最后用剔除重叠度(Degree of overlap,DOL)设置阈值进行分类和回归.实验结果表明,该算法在多尺度目标的图像上有更好的鲁棒性,平均准确度均值(mean Average Precision,mAP)达75.4%,多尺度目标检测性能有所提升.  相似文献   

2.
针对基于卷积神经网络的目标识别方法中经典的矩形检测框在检测舰船目标时会框出很多无关区域,易出现漏检、误检等问题,提出基于改进Mask R-CNN (mask region-based convolution neural networks)的舰船目标检测方法,在Mask R-CNN网络的基础上通过增加判别模块、类别预测分支和语义分割分支对视觉系统采集的可见光图像中的舰船目标进行目标定位和类别预测,同时获得舰船目标的边缘轮廓并实现对军舰目标的语义分割,为海上无人作战系统提供更精确的信息.实验结果表明,该方法在保持较高检出率和运行效率的同时误检率较低,舰船目标的平均检测精度较高,具有良好的舰船目标检测性能.   相似文献   

3.
遥感图像中的目标多呈现出方向上的任意性,导致遥感图像中感兴趣目标的检测难度大大增加.现有主流目标检测方法都是基于水平候选锚框的,现有方法通过对锚框添加旋转角度来解决任意方向目标检测问题,但这使得候选锚框的数量激增,导致算法计算开销过大.提出了一种基于GA-RoI Transformer(Guided Anchoring...  相似文献   

4.
提出了一种基于Faster R-CNN深度学习框架的交通标志检测方法,使用VGG16卷积神经网络自动提取交通标志图像特征,并将卷积特征图传入区域建议网络(RPN)中进行前景目标筛选及回归目标边框,将建议区域框映射到特征图上,经过RoI池化层后输出固定大小的建议框,利用分类网络对建议区域进行具体的类别判断,并精确回归目标的边框。并将算法在德国交通标志数据集GTSDB进行了实验验证,实验结果表明了所提出算法的有效性,该方法对不同光照、遮挡、标志模糊等具有鲁棒性。  相似文献   

5.
由于医学图像的复杂性,一般图像分割方法对于医学图像的分割效果并不理想.针对医学CT图像特点,提出了一种把边缘检测和基于区域方法相结合的图像分割算法,首先使用Sobel算子进行边缘检测,检测出目标可能的边缘像素集,并计算该点的平均灰度,然后利用该灰度及目标区域的连通性作为生长判别条件,利用区域生长法实现图像的准确分割.实验结果表明, 该方法避免了单独使用边缘检测或基于区域法进行图像分割时的典型错误,结合了两者的优点,取得了感兴趣目标的良好分割效果.  相似文献   

6.
针对采用感兴趣区域形变器(RoI Trans)检测排列密集、方向性显著的遥感图像目标性能较差且推理速度较慢等问题,采用逐步增强旋转候选框的定位精度以及对特征的非局部增强,提升遥感图像目标检测性能.首先,通过基于区域建议网络的实时目标检测器(faster RCNN)与RoI Trans构建逐步回归网络模型,以实现从粗粒度到细粒度的精确定位,采用引导性锚框区域建议网络(GA-RPN)增加水平候选框向旋转候选框转换过程中正样本的数量.其次,提出非局部特征增强模块以提高网络特征的表达能力.最后,分别在DOTA和HRSC2016遥感数据集上开展测试,并分别取得了77.46%和90.04%的平均均值精度(mAP),显著优于对照组.  相似文献   

7.
基于区域的网络Faster R-CNN算法在图像的目标检测领域取得了巨大突破.相比较于传统的目标检测方法R-CNN和Fast R-CNN,Faster R-CNN提出了一种候选区域网络(RPN)有效的提升了检测候选框的生成速度.本文通过分析提出的RPN网络的实现方法,引用了K-Means++聚类算法,来对训练数据集中的目标框大小进行聚类分析,替代原本算法中的9个区域框.通过实验对比分析,通过改进的方法提高了车辆检测的精度.  相似文献   

8.
针对仅基于单一传感器的目标检测算法存在检测精度不足及基于图像与激光雷达的多传感器融合算法检测速度较慢等问题,提出一种基于激光雷达与毫米波雷达融合的车辆目标检测算法,该算法充分利用激光雷达点云的深度信息和毫米波雷达输出确定目标的优势,采用量纲一化方法对点云做预处理并利用处理后的点云生成特征图,融合毫米波雷达数据生成感兴趣区域,设计了多任务分类回归网络实现车辆目标检测.在Nuscenes大型数据集上进行训练验证.结果表明:检测精度可达60.52%,每帧点云检测耗时为35 ms,本算法能满足智能驾驶车辆对车辆目标检测的准确性和实时性要求.  相似文献   

9.
为改善图像中遮挡和小尺寸行人的检测精度,提出一种基于语义分割注意力和可见区域预测的行人检测方法.具体地,在SSD(single shot multi-box detector)目标检测网络的基础上,首先优化SSD的超参数设置,使其更适于行人检测;然后在主干网络中引入基于语义分割的注意力分支来增强行人检测特征的表达能力;最后提出一种检测预测模块,它不仅能同时预测行人整体和可见区域,还能利用可见区域预测分支所学的特征去引导整体检测特征的学习,提升检测效果.在Caltech行人检测数据集上进行了实验,所提方法的对数平均缺失率为5.5%,与已有方法相比具有一定的优势.  相似文献   

10.
在传统深度强化学习的目标检测基础上,提出了一种基于感兴趣区域聚集层的策略,改进传统深度强化学习中使用RoIPooling层将感兴趣区域池化为固定尺寸时造成的像素偏差.首先遍历整个感兴趣区域,保持感兴趣区域的浮点数边界;然后将感兴趣区域平均分割成7×7个矩阵单元,保持每个矩阵单元的边界也是浮点数;最后在每个矩阵单元中使用双三次插值法计算固定的4×4个坐标位置,进行最大池化操作.结果表明:在Pascal VOC2012数据集上,改进方法提升了模型的检测精度;智能体(agent)可以在较少的步数里检测出更多图像中的物体,效率更高;在精准率与召回率上优于传统深度强化学习策略,平均精度比传统目标检测方法更有优势.  相似文献   

11.
为了应对计算机视觉中多目标追踪任务的挑战。针对网络中使用的锚点造成重识别训练模糊的问题,通过可生成参考点的可变形Transformer,提出了一个端到端的多目标追踪系统(tracker Transformer,TKTR)。由骨干网络模块提取特征图,将其送入可生成参考点的可变形Transformer架构,以检测目标并生成代表检测框中心的参考点;利用参考点对候选目标进行空间位置约束并计算检测框的交并比来关联目标。实验结果表明,TKTR利用Transformer的查询特征向量对目标进行位置约束,提高了追踪精度,并且降低了ID切换的指标。  相似文献   

12.
针对目标检测中背景噪声影响检测精度的问题,提出在HSV高斯背景模型下,使用最小图切割算法,并结合连通性,找到最大的前景连接区域,最后使用阴影抑制技术完成目标分割.实验结果表明,算法有很好的鲁棒性,能够获得清晰、光滑的前景目标轮廓.  相似文献   

13.
HS(HornSchunck)光流算法检测运动物体信息的计算量较大,不能检测到平滑区域的光流信息,并且在复杂环境下容易受到噪声影响.本文提出了一种基于运动估计的优化HS光流算法.该算法通过检测图像中的HARRIS角点,结合基于宏块的运动估计算法确定感兴趣区域,并将此感兴趣区域作为HS计算的初始运动向量,以得到光流信息.最后进行滤波去除背景噪声.试验结果表明,该算法不仅提高了计算速度,避免了背景噪声的干扰,提高了HS的鲁棒性,也解决了HS算法对平滑部分光流信息的无法检测问题.  相似文献   

14.
针对养殖监控视频中运动鱼体目标检测问题,提出一种基于视觉显著性计算的运动鱼体视频分割算法.首先,将运动特征通道引入基于图论的显著性计算模型中,对多通道特征进行自动加权,生成全局视觉显著图.其次,利用基于方向梯度直方图的支持向量机分类器对显著区域进行目标确认,得到包含前景目标的感兴趣区域.最后,分割出运动鱼体目标,并将其标注在视频序列中.实验结果表明,所提方法在室内养殖监控数据集上能够很好地剔除水面杂波、反光等复杂背景干扰,实现运动鱼体的视频分割.  相似文献   

15.
基于投影直方图提取目标感兴趣区域的新方法   总被引:1,自引:0,他引:1  
提出了一种基于灰度投影直方图获取单幅检测样品的目标感兴趣区域的方法,并利用鲁棒的图像匹配算法生成参考图像.首先,采用改进的灰度投影直方图法获得单幅图像的检测样品感兴趣区域,建立感兴趣区域提取模型;其次,利用基于形状的特征匹配算法学习样品图像,生成印刷品检测的参考图像,在此基础上,提出基于图像金字塔数据结构的分层匹配方法.实验结果表明,该方法能够在87 ms内获取首张图像样品感兴趣区域,并且图像匹配过程对图像之间存在的明暗程度、旋转变化等干扰具有良好的鲁棒性,匹配精度可达95%,匹配时间为152 ms,可快速准确地生成参考图像.  相似文献   

16.
针对深度学习算法检测钢材表面缺陷时,结构信息减少导致检测精度低的问题,提出一种特征融合和级联检测网络的Faster R-CNN钢材表面缺陷检测算法。首先利用主干网络提取特征图,通过融合特征图的方式,达到减少结构信息丢失的目的;进一步将生成的特征图输入RPN网络生成区域建议框;最后利用检测网络对区域建议框进行分类与回归,通过级联2个检测网络,实现精确检测结果的目标。对模型进行对比性实验分析,找出检测精度最优的算法模型。在NEU-DET数据集上对提出的算法进行了检验,主干网络采用VGG-16比采用Resnet-50的检测精度提高了2.40%;通过融合特征,检测精度提高了11.86%;通过检测网络的级联,检测精度提高了2.37%.通过对算法模型的不断改进和优化,检测精度达到了98.29%.与传统的钢材表面检测方法相比,改进算法能够更准确地检测出钢材表面缺陷的种类和位置,提升对钢材表面缺陷的检测精度。  相似文献   

17.
针对区域生长算法的种子点初始化和生长准则问题,提出了一种基于云模型和区域生长的图像分割方法.该方法首先利用云变换对图像进行变换生成云模型,然后利用云模型的Ex作为区域生长的种子点,以云的极大判定法则作为区域生长准则进行区域生长,获得最终的分割结果.这种分割方法不但克服了区域生长法种子点和生长准则选取不当而产生过分割和欠分割的不足,而且很大地提高了云模型分割图片的速度,实验结果证明,该方法可以准确地分割出目标,是一种有效的图像分割方法.  相似文献   

18.
无人机技术的不断成熟,使得搭载高效视觉系统的无人机应用也更加广泛。针对无人机航拍图像中小目标较多、分辨率低等原因导致的检测精度不高的问题,提出了一种改进RetinaNet的无人机航拍目标检测算法。算法针对特征图中小目标信息提取不足的问题,设计了多阶段特征融合方法,并将其与注意力机制串联设计了特征挖掘模块,可以在浅层特征图中融入深层的语义信息,丰富小目标特征;设计了基于中心点检测的无锚框(Anchor-free)方法,网络通过对中心点的回归来定位目标,而不是通过固定大小的锚框去匹配,这样做可以使网络对小目标的回归更加灵活,提高了算法的整体性能;且通过深度可分离卷积方法对网络进行轻量化设计,以压缩模型大小并提高检测速度。实验结果表明,改进算法较原RetinaNet算法平均精度提升了8.5%,检测速度提升了6帧/s,且与其他先进算法相比也具有性能优势,达到了检测精度与检测速度的均衡。  相似文献   

19.
针对点云分割中分割目标不明确,边缘不清晰,全局特征与边缘特征未能有效融合等问题,提出 了一种融合边缘检测的 3D 点云语义分割算法。 首先,通过 3D 点云语义分割网络对点云数据进行初步提取 区域内的全局语义特征;然后,采用引入了注意力机制的语义边缘检测网络,能够更好地对点云数据中的物 体进行特征提取增强,抑制非边缘信息的产生,得到了具有丰富的语义信息的边缘特征;最后,通过融合模块 将属于同一物体的语义特征融合起来进行分割细化处理,使得分割目标更精确;此外,使用了双重语义损失 函数,使网络产生具有更好边界的语义分割结果。 通过搭建实验平台和使用 S3DIS 标准数据集进行测试,改 进后的算法在数据集上的平均交互比为 70. 21%,在精度上较 KPConv 语义分割算法有所提高。 实验结果表 明:该算法能够有效改善物体边界分割不清晰、边缘信息模糊等问题,总体分割性能良好。  相似文献   

20.
遥感图像中典型目标的检测是当前图像处理领域的研究热点,飞机在战场监视、航空管制和交通运输等领域发挥着重要作用。为了提高遥感图像中飞机检测的正确率,提出了一种基于多特征融合的遥感飞机检测方法,将深层特征经过上采样操作后与浅层特征进行融合,解决了遥感飞机目标较小造成的检测困难的问题。首先,对于锚框尺寸和个数由人为确定而造成目标位置检测不准的问题,采用K-均值聚类(K-means)算法对数据集的目标框大小进行聚类分析并获得适合飞机遥感图像的锚框(anchor boxes)个数以及宽高维度;其次,采用上采样的方法扩大感受野,以提高网络对小目标的检测准确率。采用多尺度融合的卷积神经网络,以适应不同尺度目标的检测,最终提出一种基于最优区域生成的深度多尺度融合遥感飞机检测方法。仿真结果表明:与典型的飞机检测方法相比,所提方法在测试集上取得了更高的的检测精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号