首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 250 毫秒
1.
利用卫星遥感技术融合深度学习算法,可以快速、动态、高效识别露天煤矿开采区,以我国和其他煤炭资源大国的典型露天煤矿开采区为研究对象,基于高分二号多光谱遥感影像,制作数据集及标签,构建基于卷积神经网络(convolutional neural networks, CNN)的深度学习目标检测算法.通过加入特征金字塔网络,充分挖掘开采区及背景区的低分辨率语义信息和高分辨率纹理信息,实现快速卷积神经网络的深度学习目标检测算法模型的改进及参数优化.结果表明改进后的模型平均检测精度提高到98.48%,总体识别精度达到96.7%,有效提高了复杂背景下的多尺度、多类型露天开采目标的识别精度,为全球煤炭资源大国能源合作、生态环境保护及我国矿产资源的合理利用和修复提供了科学、精准手段.  相似文献   

2.
针对公路交通量的传统检测方法存在周期较长且需要人工辅助等问题,利用深度学习在目标检测领域的优势,提出基于深度学习的高分辨率遥感图像车辆检测方法。首先对遥感图像进行预处理和分割,提取所需的道路区域,减少其他区域的干扰;再利用高分辨率遥感图像数据集对深度卷积神经网络进行训练,得到用于车辆检测的模型,并最终得到有效的车辆检测系统。经过试验验证,该方法可有效地检测遥感图像道路区域中的车辆,并有较高的准确率。  相似文献   

3.
针对大幅面高分辨率光学遥感图像目标检测尚存在着检测精度和效率低的问题,提出了一种高分辨率遥感图像视感知目标检测算法。该算法首先通过显著区域有选择性的引导获取场景中的子区域,将计算资源转移到可能包含目标的区域中,以降低计算复杂度;然后,利用基于单次检测器(YOLO)卷积神经网络目标检测模型获取预选目标;最后,提出目标语义关联抑制对获取的预选目标进行筛选得到有效目标,能够减少虚假目标的干扰,降低虚警率。所提算法在公开NWPU_VHR-10数据集上的平均检测精度为0.865,高于对比算法,在包含更多高分辨率的LUT_VHRVOC-2数据集上,比YOLO的检测效果更好。实验结果表明,所提算法提高了大幅面高分辨率遥感图像的目标检测精度。  相似文献   

4.
传统的基于高分辨率遥感影像的典型地物检测方法难以兼顾检测精度、处理速度和自动化程度,而深度学习方法在图像处理领域中的应用为解决上述问题提供了可能。选用RSOD-Dataset数据集,基于TensorFlow深度学习框架,采用Faster R-CNN、YOLOv3和SSD三种经典深度学习目标检测算法,对高分辨率遥感影像数据进行预处理并完成模型训练,实现了对高分辨率遥感影像中典型地物目标的自动化检测实践,并对三种深度学习算法进行了对比分析。实验结果表明:SSD算法进行典型地物检测的均值平均精度指标(mAP)达到86.62%,每秒帧数(FPS)达到60.26,均优于Faster R-CNN算法和YOLOv3算法;在对飞机、储油罐、立交桥、体育场等典型地物的检测过程中有效地提升了检测精度、处理速度和计算的自动化水平,具有较为明显的应用价值。  相似文献   

5.
针对现有的方法对地面道路上车辆检测率不高的问题,提出一种基于深度学习和高分辨率遥感图像的车辆检测方法.对高分辨率遥感图像道路进行感兴趣提取,并采用改进的YOLOv3模型对车辆进行多目标检测,利用多尺度特征进行对象检测.确定了训练流程,在高分辨率遥感图像数据集上进行训练,采用准确率、召回率、F值作为评价指标进行了图像识别检测试验.结果表明:采用文中方法对高分辨率遥感图像进行分析,得到的准确率、召回率和F值分别为98.01%、97.23%和97.57%,并且能通过检测结果统计得到每秒的车流量.该方法可作为地面车辆分布信息监测的一种有效补充方式.  相似文献   

6.
针对现有算法在行人目标检测中存在精度低、速度慢、算法鲁棒性有限的问题,提出了一种基于深度神经网络目标检测算法YOLOX-L改进的行人目标检测算法YOLOX-H.使用改进型的主干特征提取网络HarDNet85替换原有的CSPDarkNet53,新的主干特征提取网络相较于原有的网络具有更强的特征提取能力以及更快的速度,同时提升了网络检测较大目标的能力.在HarDNet85卷积神经网络中引入了Softplus激活函数提升算法的检测精度,构建了CityPersons、PRW、ETHZ和MOT17多场景的联合数据集,以提升网络对于行人目标检测的鲁棒性.在联合数据集上的实验表明:YOLOX-H相比于YOLOX-L,每秒检测帧数(FPS)提高了32.95%,检测精度提高了3.1%,大目标检测精度提高了6.9%.  相似文献   

7.
针对现有基于无线通信的无人机蜂群协同控制在电磁拒止环境下无法使用的不足,提出了一种仅利用机载视觉传感器进行无人机编队的端到端控制算法。对经典YOLOv3目标检测识别网络进行了神经网络剪枝,使之适应于嵌入式系统。采用剪枝后的深度神经网络设计了无人机视觉跟随控制算法,利用深度神经网络提取目标无人机的边界框,计算该边界框与期望边界框之间的坐标误差与尺寸误差,并以坐标误差信号作为偏航角控制的反馈输入,以尺寸误差信号作为速度控制的反馈输入,控制协同无人机完成对目标无人机的跟随。与基于无线电的领航跟随算法进行了仿真对比,结果表明,采用视觉跟随的无人机跟随控制在通信干扰、全球定位系统拒止等某些特定环境下具有更好的控制性能优势。利用两架bebop2无人机进行了实测实验,结果表明:所提算法可以在2s内实现对目标无人机的状态跟随,速度控制稳态误差在5%以内,偏航角控制稳态误差在3%以内,具有良好的应用前景。  相似文献   

8.
卷积神经网络由于其强大的非线性表达能力在自然图像的处理问题中已经获得了非常大的成功。传统的稀疏表示方法利用精确配准的高分辨率多光谱图像,从而限制了实际应用。针对传统方法的不足,本文提出了一种基于深度残差卷积神经网络的单高光谱图像超分辨率方法,无需对应的多光谱图像。我们构建深度残差卷积神经网络挖掘低分辨率遥感图像和高分辨率遥感图像之间的非线性关系。构建的深度学习网络串联多个残差块,并去除一些不必要的模块,如批标准化层,每个残差块只包含两个卷积层,这样在保证模型效果的同时又加快模型的效率。此外,因为遥感图像训练数据缺乏,我们充分挖掘自然图像和高光谱图像之间的相似性,利用自然图像样本训练卷积神经网络,进一步利用迁移学习将训练好的网络模型引入到高分辨率遥感图像超分辨问题上,解决了训练样本缺乏问题。最后,基于实际的遥感数据超分辨实验结果表明,本文所提出的方法具有良好的性能,能得到较好的超分辨效果。  相似文献   

9.
基于多任务学习的高分辨率遥感影像建筑实例分割   总被引:1,自引:0,他引:1  
针对基于深度神经网络的高分辨率遥感影像建筑物提取算法中将建筑物提取视为二分类问题(即将遥感影像中的像素点划分为建筑物与非建筑两类)而无法区分建筑物个体的局限性, 将基于Xception module改进的U-Net深度神经网络方法与多任务学习方法相结合进行建筑物实例分割, 在获取建筑物二分类结果的同时, 区分不同建筑物个体, 并选择Inria航空影像数据集对该方法进行验证。结果表明, 在高分辨率遥感影像的建筑物二分类提取方面, 基于Xception module改进的U-Net方法明显优于U-Net方法, 提取精度升高1.4%; 结合多任务学习的深度神经网络方法不仅能够实现建筑物的实例分割, 而且可将二分类建筑物的提取精度提升约0.5%。  相似文献   

10.
在合成孔径雷达图像舰船目标检测中,由于背景复杂多变,传统的基于人工特征的目标检测方法效果较差.基于深度学习中的单阶段目标检测算法RetinaNet,结合合成孔径雷达图像本身特征信息较少的特点,采用了多特征层融合的思想,改进了网络特征提取能力,提出了相适应的损失函数的计算方法.采用SAR图像舰船目标检测数据集(SSDD)对网络进行训练,并通过样本增强和迁移学习的方法提升算法的鲁棒性和收敛速度.通过实验与其他基于深度学习的目标检测算法所得结果进行比较,结果表明本算法具有更高的检测精度.  相似文献   

11.
胃镜检查是发现胃息肉的主要方法。传统的人工检查方式存在准确率低,易漏诊、误诊的情况。本文提出了一种基于深度学习的YOLOv5-SE胃息肉检测网络。该网络在目标检测算法YOLOv5的基础上进行了改进,引入注意力机制,将SE Block加入到主干网络的最后一层,增强网络的特征提取能力。改进后的YOLOv5-SE胃息肉检测网络的平均精度均值(mAP)达到了94.5%,相比原网络提高了3.1%,推理速度达到67fps,在满足实时性要求下较好地完成了胃息肉检测的要求。YOLOv5-SE胃息肉检测网络具有在实时性、自动检测的精度和速度等方面有一定提升,对促进胃息肉的自动检测有重要意义。  相似文献   

12.
针对目前虚拟设计中碰撞检测系统复杂、速率和精度达不到理想要求的现状,提出一种两阶段碰撞检测算法。该方法粗测阶段采用AABB包围盒进行相交测试,剔除完全不相交的目标物体;精测阶段采用空间投影技术结合z缓存算法对上一步结果的潜在性相交目标进一步测试,获得物体碰撞数据信息,最终完成目标物体的碰撞检测。实验结果表明,该算法检测效率优于传统包围体碰撞检测算法。该技术改进后可实现更精确的碰撞检测。  相似文献   

13.
无人机技术的不断成熟,使得搭载高效视觉系统的无人机应用也更加广泛。针对无人机航拍图像中小目标较多、分辨率低等原因导致的检测精度不高的问题,提出了一种改进RetinaNet的无人机航拍目标检测算法。算法针对特征图中小目标信息提取不足的问题,设计了多阶段特征融合方法,并将其与注意力机制串联设计了特征挖掘模块,可以在浅层特征图中融入深层的语义信息,丰富小目标特征;设计了基于中心点检测的无锚框(Anchor-free)方法,网络通过对中心点的回归来定位目标,而不是通过固定大小的锚框去匹配,这样做可以使网络对小目标的回归更加灵活,提高了算法的整体性能;且通过深度可分离卷积方法对网络进行轻量化设计,以压缩模型大小并提高检测速度。实验结果表明,改进算法较原RetinaNet算法平均精度提升了8.5%,检测速度提升了6帧/s,且与其他先进算法相比也具有性能优势,达到了检测精度与检测速度的均衡。  相似文献   

14.
基于深度学习的复杂背景下茶叶嫩芽检测算法   总被引:2,自引:0,他引:2  
针对传统的基于机器视觉的茶叶嫩芽检测方法存在手工特征提取鲁棒性较差以及准确率较低等问题,首次将基于深度学习的目标检测算法YOLO应用到复杂背景下的茶叶嫩芽图像的检测,并从多尺度检测方面对YOLO网络架构进行了改进,用大尺度和中尺度检测代替了原来的多尺度检测.在预处理阶段,通过结合超绿特征以及OSTU算法对复杂背景下的茶叶嫩芽图像进行了图像分割,使得茶叶嫩芽区域更加明显.实验结果表明,通过与其他算法对比,基于深度学习的目标检测算法对复杂背景下的茶叶嫩芽具有较高的检测精度,为复杂背景下茶叶嫩芽的智能化采摘设备的研究提供了基础.  相似文献   

15.
针对嵌入式设备上难以兼顾人脸抓拍的速度和准确率的问题, 基于轻量化神经网络和哈希 (Hash) 跟踪算法设计了一种快速精准的嵌入式人脸抓拍系统. 首先, 对轻量化网络 MobileNet 固态硬盘 (solid state disk, SSD) 剪枝和优化网络结构构建人脸检测网络; 其次, 人脸对齐后基于均值哈希 (average Hash, aHash) 与感知哈希 (perceptual Hash, pHash) 设计融合哈希 (fusion Hash, fHash) 算法跟踪人脸, 使用关键点欧氏距离、人脸尺寸和四方向 Sobel 算子三标准提取最佳的人脸图像; 最后, 使用 MobileFaceNet 对最佳人脸进行识别. 实验结果表明: 与 MobileNet SSD 相比, 该人脸检测算法速度提升了 22.6%; 与均值哈希和感知哈希算法相比, 该融合哈希算法匹配准确率提高了 21.7% 和 10.1%; 实际场景中系统人脸抓拍准确率超过 95%, 抓拍速度达到 28 帧/s.  相似文献   

16.
基于Adaboost的行道线检测   总被引:1,自引:0,他引:1  
行道线检测是主动安全和视觉导航技术中的一个重要研究课题.在总结前人检测算法的基础上,设计了基于Adaboost算法的行道线检测方法.Adaboost算法作为一种新型的机器学习算法,可以在比随机预测略好的弱分类器基础上构建高精度的强分类器.该算法简单可靠、学习效率高,较好地解决了实时检测系统中速度和精度的矛盾.实验结果表明该方法有较好的检测效果.  相似文献   

17.
提出了一种两层运动目标检测算法.基于普通模型的第一层检测从当前帧中粗略地分割出运动目标.第二层检测包括两部分:首先,从粗略分割和所有历史分割中提取运动目标的泛化傅里叶描述子,然后基于描述子相似性度量,从历史分割中提取和粗略分割相似程度较高的部分组成新模型,并基于新模型得到第二层检测结果.普通模型与新模型均使用概率建模方法,两层检测均使用图分割技术.实验结果表明了该方法的有效性.  相似文献   

18.
行道线检测是主动安全和视觉导航技术中的一个重要研究课题.在总结前人检测算法的基础上,设计了基于Adaboost算法的行道线检测方法.Adaboost算法作为一种新型的机器学习算法,可以在比随机预测略好的弱分类器基础上构建高精度的强分类器.该算法简单可靠、学习效率高,较好地解决了实时检测系统中速度和精度的矛盾.实验结果表明该方法有较好的检测效果.  相似文献   

19.
针对小目标物体检测精度差的问题,同时不以牺牲速度为代价,本文提出了一种基于全局注意力的多级特征融合目标检测算法。算法首先由卷积神经网络生成多尺度的特征图,然后采用多级特征融合的方法,将浅层和深层特征图的语义信息相结合,提高特征图的表达能力,接着引入全局注意力模块,对特征图上下文信息进行建模,并捕获通道之间的依赖关系来选择性地增强重要的通道特征。此外,在多任务损失函数的基础上增加一项额外的惩罚项来平衡正负样本。最后经过分类回归、迭代训练和过滤重复边框得到最终检测模型。对所提算法在PASCAL VOC数据集上进行了训练和测试,结果表明该算法能有效地提升小目标物体检测效果,并较好地平衡了检测精度与速度之间的关系。  相似文献   

20.
针对传统布料疵点检测准确率低、识别较慢且计算量大问题,提出基于卷积神经网络的布料疵点检测方法,实现增强布料疵点检测鲁棒性、高效性的设计目标。为保证训练结果准确,首先采集数量以千万级为单位的布料图像并进行图像预处理,标记无疵点布料和疵点布料;然后将图像送入设计的卷积神经网络进行训练和测试,获取疵点检测框;紧接着采用改进的NMS分类算法对检测框进行多框合并,减少误检,进一步提高模型检测效果;最后利用设计的特征图分割算法使网络模型脱离GPU显存限制,适用于各种性能计算机。实验结果表明该方法可在实现布料检测高速度、高准确率的同时增强检测方法的鲁棒性。实际检测速度为3fps,准确率可达99.6%,超过现有疵点检测算法,表明该检测方法可应用于对布料要求更高的生产企业。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号