首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
针对遥感图像中的小目标存在信息少、易受背景干扰、特征表达较弱等缺陷, 导致目前通用目标检测算法在对这类小目标进行检测时效果不理想的问题, 为提高对遥感图像中小目标的检测能力, 提出一种基于RFBNet的改进算法. 该算法以RFBNet为框架, 首先利用自校正卷积取代特征提取网络中的常规卷积, 以扩展感受野丰富输出, 进而强化对弱特征的提取能力; 然后设计多尺度特征融合模块, 丰富浅层特征图的抽象信息; 最后设计稠密预测模块, 提前在较浅层整合上下文信息, 使最后阶段的每层输出都含有丰富且联系紧密的多尺度特征信息. 将该算法在数据集UCAS_AOD和NWPU VHR-10上进行实验, 平均检测精度分别达83.4%和94.8%. 实验结果表明, 该算法有效提高了遥感图像中目标检测的精度, 且针对遥感图像中的小尺度目标检测问题改善明显.  相似文献   

2.
针对在有冗余图像信息干扰下进行人脸有效特征点提取时精度不高的问题,提出了基于级联卷积神经网络的人脸特征点检测算法.在该算法中:输入层读入规则化的原始图像,神经元提取图像的局部特征;池化层进行局部平均和降采样操作,对卷积结果降低维度;卷积层和池化层分布连接,迭代训练,输出特征点检测结果.该算法采用Python语言编程实现,在人脸数据集进行仿真实验,结果表明该算法对人脸特征点有较高的识别率.  相似文献   

3.
目标检测是遥感图像处理领域的一项重要技术,遥感图像目标种类繁多且存在目标物体难以被检测.提出把YOLOv5算法应用到遥感图像目标检测的方法,首先选择YOLOv5x来构建网络模型,再通过Mosaic数据增强对样本集进行预处理和自适应锚框筛选方法确定锚框大小,然后切片卷积操作得到原始特征图,将原始特征图送入主干网络进行特征融合得到最优权重,最后采用GIOU Loss做边界框的损失函数和非极大值抑制目标框的筛选,对遥感图像进行目标检测.在公开的10类地理空间物体(NWPU-VHR 10)数据集进行了检测实验,以评估所提出模型的目标检测性能.对比实验表明,本文的模型mAP达到了0.9239,与使用相同数据集的模型中的最佳结果进行比较,mAP提升了1.78%,该方法可以提高遥感图像目标检测精度.  相似文献   

4.
针对Faster-RCNN算法在遥感图像当中对小目标的漏检、检测精度不高等问题作出改进.用特征提取能力更强的ResNet50网络替换VGG16;同时为了加强对遥感小目标信息的提取,引入特征金字塔,添加多尺度扩张卷积模块来增强特征金字塔的上下文特征,扩充小目标信息,使用通道注意力机制来减少特征融合过程中带来的信息混淆,提高模型对遥感小目标的检测效果.实验表明,所改进的方法在HRRSD遥感数据集达到86.7%的检测精度,较改进前提升了5.2%,同时检测效果也优于当前的一些主流检测模型,证明了改进后模型的有效性.  相似文献   

5.
随着深度卷积神经网络的快速发展,基于深度学习的目标检测方法由于具有良好的特征表达能力及优良的检测精度,成为当前目标检测算法的主流.为了解决目标检测中小目标漏检问题,往往使用多尺度处理方法.现有的多尺度目标检测方法可以分为基于图像金字塔的方法和基于特征金字塔的方法.相比于基于图像金字塔的方法,基于特征金字塔的方法速度更快,更能充分利用不同卷积层的特征信息.现有的基于特征金字塔的方法采用对应元素相加的方式融合不同尺度的特征图,在特征融合过程中易丢失低层细节特征信息.针对该问题,本文基于特征金字塔网络(featurepyramidnetwork,FPN),提出一种多层特征图堆叠网络(multi-featureconcatenationnetwork,MFCN)及其目标检测方法.该网络以FPN为基础,设计多层特征图堆叠结构,通过不同特征层之间的特征图堆叠融合高层语义特征和低层细节特征,并且在每个层上进行目标检测,保证每层可包含该层及其之上所有层的特征信息,可有效克服低层细节信息丢失.同时,为了能够充分利用ResNet101中的高层特征,在其后添加新的卷积层,并联合其低层特征图,提取多尺度特征.在PASCALVOC2007数据集上的检测精度为80.1%m AP,同时在PASCALVOC2012和MSCOCO数据集上的表现都优于FPN算法.相比于FPN算法,MFCN的检测性能更加优秀.  相似文献   

6.
针对高分辨遥感图像样本量小,以及传统优化支持向量机(SVM)算法易陷入局部最优解、寻优速度慢等问题,提出一种基于深度迁移学习与狮群优化SVM(LSO-SVM)算法对遥感图像场景进行分类.首先,通过自适应对比度增强图像后利用颜色聚合向量提取图像颜色特征;其次,利用3种预训练网络分别提取图像的迁移学习深度特征;最后,将手工提取的图像特征与用3种预训练网络获取的特征使用系列特征融合方法进行融合,并将其输入LSO-SVM进行图像场景分类.结果表明,该算法解决了小样本情况下深度学习较难训练及传统优化SVM算法易陷入局部最优解、寻优速度慢的问题.在80%的训练条件下,数据集UCM Land-Use和RSSCN7的分类精度分别达到99.52%和98.57%.  相似文献   

7.
为了解决遥感图像中目标密集、目标小车辆检测难的问题,提出基于YOLOv5的改进模型RDB-YOLOv5,并将其首次应用于遥感图像车辆检测领域。首先,针对遥感图像车辆方向任意的问题,对现有基于旋转边界框(rotated bounding box)的目标检测方法环形平滑标签(circular smooth label, CSL)进行改进;其次,针对遥感图像中背景信息复杂,车辆尺寸小导致检测精度降低的问题,提出基于注意力的多尺度目标检测方法,在骨干网络中添加双注意力机制(dual attention mechanism)将局部特征与全局特征相结合,并用空洞卷积进行改进;再借鉴双向特征融合网络(BiFPN)的思想,加入新的浅层特征和深层特征信息传递路径,更好融合浅层中车辆的位置信息,并设计新的检测头,提高网络对小目标车辆的检测能力。研究结果表明,改进的RDB-YOLOv5相比YOLOv5的均值平均精度(mAP)增长2.7%,特别是小型车辆检测提高了3.5%,相较于传统模型RCNN等mAP整体平均提高了10%。RDB-YOLOv5能够在通用数据库上取得较高的检测精度,同时在遥感图像的复杂场景中能...  相似文献   

8.
针对高光谱图像分类中光谱特征的高度非线性问题,提出一种基于多层感知器卷积层和批标准化层的改进卷积神经网络模型,提高模型在光谱域处理的非线性特征提取能力.该算法通过构建七层网络结构,实现多层局部感知结构,逐个像素对光谱信息开展分析,区分不同目标物的光谱信息,将全光谱段集合作为输入,舍去空间信息,利用动量梯度下降训练算法对多层局部感知卷积神经网络训练,实现对不同目标物体光谱特征的提取与分类.实验中,采用两组高光谱遥感影像进行对比分析,以Pavia University数据集为例,在3 600个训练样本情况下,测试集为1 800个样本,本文方法正确率为90.23%,LeNet-5正确率为87.94%,Linear-SVM正确率为90.00%;在21 000个训练样本情况下,测试集为全部样本,本文方法正确率为97.23%,LeNet-5正确率为96.64%,Linear-SVM正确率为92.40%.实验结果表明,在训练集较小的情况下,本文方法优于传统神经网络,能有效提取数据特征,并且在精度上和计算成本上略优于在小样本分类中具有高效和鲁棒性良好的SVM算法.在大规模训练集时,本文方法表现出良好的学习能力,在分类精度上优于LeNet-5.本文提出的多层局部感知网络结构增强了对非线性特征的学习能力,无论训练集规模大小,都比传统的SVM和一般的深度学习网络更能有效的利用高光谱图像中的逐像素点的光谱域信息,能有效提高分类精度.  相似文献   

9.
基于卷积神经网络的小目标交通标志检测算法   总被引:1,自引:0,他引:1  
PVANet(performance vs accuracy network)卷积神经网络用于小目标检测的检测能力较弱.针对这一瓶颈问题,采用对PVANet网络的浅层特征提取层、深层特征提取层和HyperNet层(多层特征信息融合层)进行改进的措施,提出了一种适用于小目标物体检测的改进PVANet卷积神经网络模型,并在TT100K(Tsinghua-Tencent 100K)数据集上进行了交通标志检测算法验证实验.结果表明,所构建的卷积神经网络具有优秀的小目标物体检测能力,相应的交通标志检测算法可以实现较高的准确率.  相似文献   

10.
卷积神经网络(Convolutional Neural Networks,CNN)可以提供比传统分类算法更强大的分类器并且能够自学习得到深层特征,有效地提高了图像语义分割的准确性.然而,基于CNN的语义分割算法依然存在一些挑战,例如在复杂场景中现有较优的方法较难分割小目标.为了解决复杂场景下小目标分割的难题,提出一种结合目标检测的小目标语义分割算法.与现有较优方法不同的是,该方法没有直接利用单个神经网络模型同时分割单幅图像中的小尺寸和较大尺寸目标,而是将小目标分割任务从完整图像的分割任务中分离.算法首先训练一个目标检测模型以获取小目标图像块,然后设计一个小目标分割网络得到图像块的分割结果,最终根据该结果修正整体图像的分割图.该算法提升了语义分割数据集的总体性能,同时能够有效地解决小目标分割的难题.  相似文献   

11.
针对合成孔径雷达(synthetic aperture radar,SAR)图像可视性差、目标区域小以及特征不明显等特性对目标检测造成的困难,将稀疏表示模型应用于SAR图像目标检测,提出一种基于稀疏表示模型的SAR图像目标检测算法。首先,利用K—SVD算法训练样本提取对样本最具描述能力的SIFT特征形成字典;其次,通过将进化机制和稀疏表示结合,逐步提取整幅图像中含有目标的图像块;最后,输出稀疏表示误差小于阈值的图像块的位置作为目标检测的结果。实验结果表明,与传统目标检测算法相比,该算法在检测率和运行效率方面均有一定的提高,取得了较好的效果。  相似文献   

12.
遥感图像中典型目标的检测是当前图像处理领域的研究热点,飞机在战场监视、航空管制和交通运输等领域发挥着重要作用。为了提高遥感图像中飞机检测的正确率,提出了一种基于多特征融合的遥感飞机检测方法,将深层特征经过上采样操作后与浅层特征进行融合,解决了遥感飞机目标较小造成的检测困难的问题。首先,对于锚框尺寸和个数由人为确定而造成目标位置检测不准的问题,采用K-均值聚类(K-means)算法对数据集的目标框大小进行聚类分析并获得适合飞机遥感图像的锚框(anchor boxes)个数以及宽高维度;其次,采用上采样的方法扩大感受野,以提高网络对小目标的检测准确率。采用多尺度融合的卷积神经网络,以适应不同尺度目标的检测,最终提出一种基于最优区域生成的深度多尺度融合遥感飞机检测方法。仿真结果表明:与典型的飞机检测方法相比,所提方法在测试集上取得了更高的的检测精度。  相似文献   

13.
针对当前无人机目标图像检测方法精度较低和检测速度过慢的问题,提出一种结合轻量级网络和改进多尺度结构的目标检测算法。首先采用MobileNetV3轻量级网络替换YOLOv4的主干网络,减少模型复杂度,提升检测速度;其次,引入改进多尺度结构的PANet网络,增强高维图像特征和低维定位特征的流动叠加,提升对小目标的分类和定位精度;最后,利用K means方法对目标锚框进行参数优化,提升检测效率。同时结合公开数据集和自主拍摄方式构建一个新的无人机目标图像数据集Drone dataset,并基于数据增强的方法开展算法性能实验。实验结果表明,该算法的mAP达到了91.58%,FPS达到了55帧/s,参数量为44.39 M仅是YOLOv4算法的1/6,优于主流的SSD、YOLO系列算法和Faster R CNN算法,实现了对多尺度无人机目标的快速检测。  相似文献   

14.
针对复杂交通场景下密集小目标居多、目标尺寸差异大、目标间遮挡严重的问题,提出了一种基于YOLOv4框架的复杂交通场景下的目标检测算法。首先,构造多尺度特征融合提取模块作为主干网络特征提取模块,充分提取不同尺度目标特征信息,同时引入轻量化Ghost模块对主干网络特征进行维度调整;其次,将卷积模块与自注意力机制融合,构造倒残差自注意力模块应用到主干网络深层,深层网络在充分提取局部特征信息基础上获得了全局感知;然后,构造轻量级混合注意力模块,抑制背景噪声,增强密集小目标检测能力;最后,在Udacity数据集上进行实验,检测精度达到了84.41%,相比较YOLOv4, mAP(mean average precision)提高了3.07%,对1 920×1 200分辨率图像的检测FPS(frames per second)可达到49,提高了22.5%,精度提升的前提下实现了较好的实时性,更适用于复杂交通场景下的目标检测任务。  相似文献   

15.
针对基于目标检测方法的桥梁表观病害检测存在检测精度低、误检率和漏检率高的问题,提出一种改进YOLOv3的高准确率桥梁表观病害检测识别方法。为实现局部特征和全局特征有效融合,在YOLOv3的检测层中添加固定分块大小的池化模块,并在YOLOv3的特征提取网络中引入了DenseNet密集型连接网络结构以增强桥梁病害特征在网络中的传播和利用效率,提高检测效率,采用数据增强技术来扩充样本图像以解决现有桥梁病害数据集样本数量不足的问题。实验结果表明,改进后的YOLOv3在桥梁表观病害检测上的平均准确率比原YOLOv3提高了3.0%,且模型训练时间减少了33.2%,同时降低了对桥梁表观病害检测的误检率和漏检率。  相似文献   

16.
作为深度学习的一种有效算法,深度卷积网络已成功应用在处理图像、视频和音频等领域.通过建立一卷积神经网络模型并应用于网络入侵检测,选取的卷积核与数据进行卷积操作提取特征的局部相关性从而提高特征提取的准确度.采集到的网络数据通过多层"卷积层-下采样层"的处理对网络中正常行为和异常行为的特征进行深度刻画,最后通过多层感知机进行正确分类.KDD 99数据集上的实验表明,文中提出的卷积神经网络模型与经典BP神经网络、SVM算法等相比,有效提高了入侵检测识别的分类准确性.   相似文献   

17.
关生  周延森 《科学技术与工程》2022,22(36):16108-16115
针对卷积神经网络模型待训参数量过大、多层网络导致特征和梯度消失等问题,论文提出了一种基于拆分层和Inception-ResNet的卷积神经网络模型用于入侵检测。首先将网络流量数据转化为具有空间相关性的图像以适用于卷积神经网络的输入;然后使用Inception-ResNet卷积层增加网络深度,减少模型训练参数数量以及消除梯度消失问题,拆分层在降低图像尺度时基本保持图像原有分类特征;最后采用NSL-KDD数据集对改进模型进行训练和测试。测试结果表明,改进模型相对于Inception-ResNet模型具有更高的检测准确率和少数类样本召回率以及更好的训练时间性能。  相似文献   

18.
针对已提出的很多烟雾检测方法中都是基于手工制作的特征或者使用原始图片直接作为神经网络的输入,减少了深度学习的鲁棒性。为解决这些问题,提出一种基于卷积神经网络(convolutional neural network,CNN)的烟雾检测方法。使用图片归一化方式消除光照的影响,利用烟雾颜色检测烟雾候选区域,CNN自动提取烟雾候选区域的特征,进行烟雾识别,根据分类结果得到报警信号。针对烟雾产生初期烟雾区域相对较小的问题,利用扩大候选区域的策略提高烟雾检测的及时性。由于训练数据少或不平衡引起的过度拟合,使用数据增强技术从原始数据集生成更多训练样本解决该问题。实验结果表明,该方法能有效地检测烟雾,且具有更高的准确率和更好的鲁棒性。  相似文献   

19.
Fabric retrieval is very challenging since problems like viewpoint variations, illumination changes, blots, and poor image qualities are usually encountered in fabric images. In this work, a novel deep feature nonlinear fusion network(DFNFN) is proposed to nonlinearly fuse features learned from RGB and texture images for improving fabric retrieval. Texture images are obtained by using local binary pattern texture(LBP-Texture) features to describe RGB fabric images. The DFNFN firstly applies two feature learning branches to deal with RGB images and the corresponding LBP-Texture images simultaneously. Each branch contains the same convolutional neural network(CNN) architecture but independently learning parameters. Then, a nonlinear fusion module(NFM) is designed to concatenate the features produced by the two branches and nonlinearly fuse the concatenated features via a convolutional layer followed with a rectified linear unit(ReLU). The NFM is flexible since it can be embedded in different depths of the DFNFN to find the best fusion position. Consequently, DFNFN can optimally fuse features learned from RGB and LBP-Texture images to boost the retrieval accuracy. Extensive experiments on the Fabric 1.0 dataset show that the proposed method is superior to many state-of-the-art methods.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号