首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 234 毫秒
1.
洞库类目标是高价值识别目标,针对洞库类目标样本数据难以获得、样本内部数据相似度较高、人工设计识别特征方法局限性较大、普通深度网络需要海量数据等问题,提出了结合元学习和深度卷积网络的元-卷积网络(MCNN),并融合持续学习理论的洞库类目标识别方法(MCNN-LLS).首先结合深度卷积网络、元学习的理论建立元-卷积网络,该网络可利用旧知识指导新知识的训练,利用小样本数据即可训练得到识别能力较高的深度洞库模型;然后融合持续学习理论,建立持续学习系统(LLS),设计专家审核模型判别深度洞库模型的识别结果,并引入潜在任务、模型异步更新等方法,达到模型持续学习、持续更新的效果.实验表明,本文方法所需样本数量少,对洞库类目标识别准确率高,且识别能力可随识别过程中新数据的积累逐步提高.   相似文献   

2.
针对士兵和装甲车目标的尺度差异大以及目标距离远近造成的目标多尺度问题,以YOLOv4深度学习算法为基础,提出了一种多尺度目标检测方法. 通过针对性的数据增强方法丰富小目标样本的多样性,对输入图像进行分割预处理以提高网络输入小目标的分辨率,并基于特征金字塔网络实现大、中、小目标的分离检测,最后匹配检测结果并进行NMS处理去除冗余检测框,从而实现多尺度目标检测. 实验结果表明,本文方法在保持大目标检测效果的情况下,中、小目标的平均检测精度分别提升了1.20%和5.54%,有效提高了中、小目标的检测效果.   相似文献   

3.
提出一种基于2D先验的3D目标判定算法.首先用轻量级MobileNet网络替换经典SSD的VGG-16网络,构建出MobileNet-SSD目标检测模型;其次,通过改进网络结构,提高模型对小目标的检测能力,并引入Focal Loss函数来解决正负样本不均衡和易分样本占比较高的问题;在相同数据集上,将改进算法与Faster R-CNN、 YOLOv3及MobileNet-SSD进行对比测试,其平均精度mAP分别提高了7.2%、 8.8%和10.6%;最后,通过改进算法获取ROI,利用深度相机将二维ROI转换为ROI点云,并借助直通滤波来判断目标物体是否为真实场景物体,既省去了传统点云识别中的诸多步骤又避免了点云深度学习中三维数据集制作难度较大的问题,在识别速度和识别精度上达到了较好的平衡.  相似文献   

4.
针对传统卷积神经网络对远距离视频目标识别效果差的原因,本文提出一种改进的基于SSD卷积网络的视频目标检测模型.首先,对数据集进行剪裁,旋转等预处理,提高网络检测泛化能力,其次,采用coco数据集Mobilenet_SSD预训练模型,由于其具有轻量级网络模型特点,减少计算开销,减少内存占用量.然后,再结合voc2012数据集进行二次训练微调处理,加快训练收敛速度,使用自定义数据集能有效检测特定场景目标,能够有效识别远距离场景下视频目标物体.实验结果表明,改进的网络检测模型适用于远距离目标检测,减少计算量,降低硬件内存资源消耗,提高网络模型性能和检测精确度,具有较好的鲁棒性.  相似文献   

5.
针对毛巾织物瑕疵检测中存在的小目标瑕疵漏检率高、形变尺度大的瑕疵检测精度低以及模型检测效率不理想等问题,提出一种基于YOLOv4网络的轻量化毛巾织物瑕疵检测方法。采用轻量级网络Ghost Net重构主干特征提取网络,以降低模型运算量,提升检测速度;在深层特征提取网络中引入结合空洞卷积和SoftP ool的DS-CBAM模块,扩大感受野的同时保证特征图分辨率并提高模型对毛巾织物瑕疵特征的提取能力;根据各类毛巾织物瑕疵正负样本不平衡的数据特点,引入难易样本聚焦参数和正负样本平衡参数对损失函数进行优化,降低样本失衡对检测性能的影响;采用改进度量距离的K-means算法自适应生成适合毛巾织物瑕疵尺寸的先验框,提高先验框和毛巾织物瑕疵目标的匹配度。研究结果表明:改进后的模型在毛巾织物瑕疵数据集上的检测精度要优于原YOLOv4和其他主流检测算法,综合类别平均精度达到92.14%,检测速度达到49.98帧/s,分别比原模型提高了5.31%、22.83%,有效平衡了检测精度和检测速度之间的关系。  相似文献   

6.
为了解决当前电力系统巡检难度大、效率低、数据不足以支撑大规模训练的问题,提出一种基于孪生网络的小样本检测方法。首先,在Faster RCNN(faster region convolutional neural network)目标识别算法的框架下,搭建支持图片和查询图片共享的孪生网络模型;然后,利用改进的RPN(region proposal network)模块产生更高质量的proposals;最后,在检测头上对支持图片和查询图片的RoI(region of interest)进行关联匹配。结果表明,将算法应用于自主构建的EPD(electric power detection)数据集,在仅利用10张支持图片的情况下,就能实现对电力背景下鸟巢异物和绝缘子相关类别的检测,检测指标mAP达到18.92%。与其他算法相比,应用于电力行业目标检测的孪生网络小样本模型,在极端小样本情况下性能优良,同时具有更加轻量化的优势,可为电力检测新方法研究提供参考。  相似文献   

7.
为降低荧光编码微球技术的应用成本,提出了一种基于Mask R-CNN目标检测算法的荧光编码微球图像检测方法.首先基于TensorFlow和Keras深度学习框架搭建Mask R-CNN网络模型,整体网络由特征提取网络,候选区域生成网络和分支处理网络3部分构成;通过有标注定性图像样本集训练网络模型,并使用合成图像实现训练集数据增强;将待检测定性图像样本输入训练完成的网络模型获得定性图像的语义掩膜.实验结果表明,对于单色和双色微球定性实验图像,平均检测准确度分别达94.17%和95.96%,可实现荧光编码微球定性图像的边界框检测、分类以及语义掩膜生成.  相似文献   

8.
针对传统卷积神经网络层级较为浅,对物体识别精确度较低的原因,利用改进的深层卷积网络VGG16模型检测视频运动目标.首先,预处理过程中对数据集进行剪裁和旋转操作,补充数据集数量,以解决前期图像资源不足等问题;其次,在PASCAL VOC数据集上先预训练模型,接着加载自定义视频数据集对预训练模型进行第二次训练.实验结果表明,该网络模型能很好用于视频目标识别,提高了检测精确度,有效减少网络参数计算量,降低硬件内存资源消耗,具有较强的鲁棒性.  相似文献   

9.
命名实体识别研究中,数据集内普遍存在实体与非实体,实体内部类别间边界样本混淆的问题,极大地影响了命名实体识别方法的性能.提出以BiLSTM-CRF为基线模型,结合困难样本筛选与目标攻击对抗训练的命名实体识别方法.该方法筛选出包含大量边界样本的困难样本,利用边界样本易被扰动偏离正确类别的特性,采用按照混淆矩阵错误概率分布的目标攻击方法,生成对抗样本用于对抗训练,增强模型对混淆边界样本的识别能力.为验证该方法的优越性,设计非目标攻击方式的全局、局部对抗训练方法与目标攻击全局对抗训练方法作为对比实验.实验结果表明,该方法提高了对抗样本质量,保留了对抗训练的优势,在JNLPBA、MalwareTextDB、Drugbank三个数据集上F1值分别提升1.34%、6.03%、3.65%.  相似文献   

10.
针对当前无人机目标图像检测方法精度较低和检测速度过慢的问题,提出一种结合轻量级网络和改进多尺度结构的目标检测算法。首先采用MobileNetV3轻量级网络替换YOLOv4的主干网络,减少模型复杂度,提升检测速度;其次,引入改进多尺度结构的PANet网络,增强高维图像特征和低维定位特征的流动叠加,提升对小目标的分类和定位精度;最后,利用K means方法对目标锚框进行参数优化,提升检测效率。同时结合公开数据集和自主拍摄方式构建一个新的无人机目标图像数据集Drone dataset,并基于数据增强的方法开展算法性能实验。实验结果表明,该算法的mAP达到了91.58%,FPS达到了55帧/s,参数量为44.39 M仅是YOLOv4算法的1/6,优于主流的SSD、YOLO系列算法和Faster R CNN算法,实现了对多尺度无人机目标的快速检测。  相似文献   

11.
无人机技术的不断成熟,使得搭载高效视觉系统的无人机应用也更加广泛。针对无人机航拍图像中小目标较多、分辨率低等原因导致的检测精度不高的问题,提出了一种改进RetinaNet的无人机航拍目标检测算法。算法针对特征图中小目标信息提取不足的问题,设计了多阶段特征融合方法,并将其与注意力机制串联设计了特征挖掘模块,可以在浅层特征图中融入深层的语义信息,丰富小目标特征;设计了基于中心点检测的无锚框(Anchor-free)方法,网络通过对中心点的回归来定位目标,而不是通过固定大小的锚框去匹配,这样做可以使网络对小目标的回归更加灵活,提高了算法的整体性能;且通过深度可分离卷积方法对网络进行轻量化设计,以压缩模型大小并提高检测速度。实验结果表明,改进算法较原RetinaNet算法平均精度提升了8.5%,检测速度提升了6帧/s,且与其他先进算法相比也具有性能优势,达到了检测精度与检测速度的均衡。  相似文献   

12.
针对密集场景下行人检测的目标重叠和尺寸偏小等问题,提出了基于改进YOLOv5的拥挤行人检测算法。在主干网络中嵌入坐标注意力机制,提高模型对目标的精准定位能力;在原算法三尺度检测的基础上增加浅层检测尺度,增强小尺寸目标的检测效果;将部分普通卷积替换为深度可分离卷积,在不影响模型精度的前提下减少模型的计算量和参数量;优化边界框回归损失函数,提升模型精度和加快收敛速度。实验结果表明,与原始的YOLOv5算法相比,改进后YOLOv5算法的平均精度均值提升了7.4个百分点,检测速度达到了56.1帧/s,可以满足密集场景下拥挤行人的实时检测需求。  相似文献   

13.
为解决多场景复杂内河背景下水面目标检测存在环境噪声大、水面目标分布情况繁杂、特征微小模糊等问题,提出一种融合多尺度特征和注意力机制,增强类激活映射的水面目标检测算法,称UltraWS水面目标检测算法。在典型检测网络上设计空间注意力模块与多头策略,融合多尺度特征,提高对微小目标的检测能力。其次,提出UltraLU模块增强类激活映射,减小环境因素与分布因素对检测目标的影响。最后,设计对模型进行Tucker张量分解,实现模型轻量化,增强模型的可解释性与推理速度。实验结果表明,所提出的UltraWS算法提高了对背景噪声的抗干扰能力,更好捕捉微小目标,满足边缘化部署的检测速度和准确率均衡性需求。在WSODD数据集上,算法的mAP值取得了最高的84.5%,相较于其他主流方法存在较大提升。基于提出的算法建立航道安全巡检体系与评估方法,有利于推动内河智慧航运的发展。  相似文献   

14.
针对困难气道气管插管过程中内窥镜图像视角较小、目标尺度变化大、相互遮挡等问题,融合内窥镜图像和CO2浓度信息,提出基于深度学习的多模态气管插管智能目标检测算法。首先,对传统的YOLOv3网络进行改进,利用不同扩张率的空洞卷积构建并行多分支空洞卷积模块,并对输出特征进行上采样和张量拼接;其次,根据多路CO2浓度差异,利用矢量化定位算法定位目标中心位置,校正YOLOv3得到的边界框的中心坐标,提升小目标检测的精度,辅助气道位置的定位;最后,基于该算法,研发了新型多模态气管插管辅助装置初代样机,并在模拟气道中进行实验,验证其可行性。在模拟气道中,该新型辅助装置的操作时间中位数为15.5 s,操作成功率可达97.3%。研究结果表明,基于深度学习的多模态气管插管智能目标检测算法能够有效地辅助气管插管操作。  相似文献   

15.
针对小目标物体检测精度差的问题,同时不以牺牲速度为代价,本文提出了一种基于全局注意力的多级特征融合目标检测算法。算法首先由卷积神经网络生成多尺度的特征图,然后采用多级特征融合的方法,将浅层和深层特征图的语义信息相结合,提高特征图的表达能力,接着引入全局注意力模块,对特征图上下文信息进行建模,并捕获通道之间的依赖关系来选择性地增强重要的通道特征。此外,在多任务损失函数的基础上增加一项额外的惩罚项来平衡正负样本。最后经过分类回归、迭代训练和过滤重复边框得到最终检测模型。对所提算法在PASCAL VOC数据集上进行了训练和测试,结果表明该算法能有效地提升小目标物体检测效果,并较好地平衡了检测精度与速度之间的关系。  相似文献   

16.
在原始图像数据集中,添加特殊的细微扰动能形成对抗样本,经这类样本攻击的深度神经网络等模型可能以高置信度给出错误输出,然而当前大部分检测对抗样本的方法有许多前提条件,限制了其检测能力.针对这一问题,该文提出一个二分类判别网络模型,通过多层卷积神经网络来提取样本数据的主要特征; 应用特殊的判别目标函数,结合不同程度的噪声数据来训练并优化网络模型,以提高模型检测对抗样本的能力; 模型采用端到端的方式,可直接部署到目标模型的源样本中来检测对抗样本的存在,亦可进行大规模应用.实验结果表明:该模型的检测率优于其他相关模型.  相似文献   

17.
针对现有二轮机动车乘员头盔检测算法在目标密集分布、随机遮挡等情况下效果较差且难以在边缘设备上应用的问题,制作了具有针对性的数据集,对比现有模型后,以YOLOv7为参考提出一种复杂交通环境下二轮机动车乘员头盔检测算法.首先,采用EfficientNet-B3作为主干网络,可提高特征提取能力且更为轻量化;其次,将增大感受野模块(RFB)引入特征融合结构中,以增大模型感受野,提升小目标头盔检测能力;最后,在检测头嵌入SimAM机制,在不增加参数的前提下提高算法精度.结果表明:相较于YOLOv7,文中算法的准确率、召回率和平均准确率分别提高了2.84%,2.26%和3.26%,参数量和运算量分别为YOLOv7的33.1%,23.5%,可实现当前主流模型算法的最佳检测性能和效率;在NVIDIA Jetson Nano开发板上的处理速度达到47.58 F·s-1,可满足边缘设备部署需求.  相似文献   

18.
为提升基于孪生网络目标跟踪算法的特征表达能力,获得更好的跟踪性能,提出了一种轻量级的基于二阶池化特征融合的孪生网络目标跟踪算法。首先,使用孪生网络结构获取目标的深度特征;然后,在孪生网络结构的末端并行添加二阶池化网络和轻量级通道注意力,以获取目标的二阶池化特征和通道注意力特征;最后,将目标的深度特征、二阶池化特征和通道注意力特征进行融合,使用融合后的特征进行互相关操作,得到地响应图能很好地区分目标和背景,提高跟踪模型的判别能力,改善目标定位的精度,从而提升跟踪性能。所提算法使用Got 10k数据集进行端到端的训练,并在数据集OTB100和VOT2018上进行验证。实验结果表明,所提算法与基准算法相比,跟踪性能取得了显著提升:在OTB100数据集上,精确度和成功率分别提高了7.5%和5.2%;在VOT2018数据集上,预期平均重叠率(EAO)提高了4.3%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号