首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
网络图像资源增长迅速,如何实现快速有效的大规模图像检索,成为当前研究的热点之一。深度神经网络对图片特征有很强的表达能力,利用典型深度卷积神经网络VGG16在预训练完成的模型上使用网络全连接层的输出提取待检索图像数据集的特征以建立索引,并采用局部敏感哈希算法提升检索速度,以端到端的形式,完成基于内容的图片检索任务。这种图像检索模型提供了一种在计算资源有限情况下实现大规模图像检索的有效方法。  相似文献   

2.
相比小型卷积神经网络(convolutional neural network, CNN)模型,现有的大型CNN模型在大型图像数据集上达到了良好的分类效果,但是在小型图像数据集上过拟合,使得精度提升小、训练时间长、存储占用高,不能很好地适应嵌入式设备.因此首先收集了一个包含4 500张图片的小型蘑菇数据集,并为蘑菇分类任务设计了轻量化的CNN模型MushroomNet.然后研究CNN模型中各部分对于分类任务的重要性,并提出基于数据复杂度的模型结构优化方法.实验表明,相比MobileNet、ShuffleNet等轻量化模型,MushroomNet-MicroV2的Top-1精度只差了1%~2%,但是它训练速度更快,存储更小,只有1.3 M的参数量,且在Apple M1 CPU上经过142 s的30轮快速训练后,Top-1验证精度可达88%.  相似文献   

3.
地理信息数据具有不同分辨率、不同精度、不同覆盖范围等多尺度特征,在应用中往往需要同时具备高光谱分辨率和高空间分辨率两种信息的图像.为提高多光谱图像和全色图像融合的准确性,提出了基于卷积神经网络的多光谱与全色遥感图像融合算法.首先,对训练集内图像进行预处理,构建适用于本算法的图像数据集;然后,拓展卷积神经网络卷积层,提高...  相似文献   

4.
为了对灾难场景图像进行快速分析和识别,提出了一种基于多分辨率卷积神经网络和残差注意力机制(attention module)相结合的图像分类模型.首先,对灾难场景数据集进行预处理,在相同类型的条件下将其随机划分为训练集和测试集.基于改进的卷积神经网络(convolutional neural network,CNN),提取训练集的图像特征.使用训练集图片的特征进行训练,并且在测试集图片上实现分类测试.选取DenseNet、Xception和MobileNetV2三种模型,以灾难场景数据集(Disaster_Data_Scenes)为数据集进行实验验证.结果表明:改进的Xception和MobileNetV2网络在灾难场景数据集上进行的图像分类实验测试,比原网络精度分别提升了4.56%和3.04%.其中改进的DenseNet网络比原网络模型精度分别提升9.13%、17.88%和10.27%.可见改进的卷积神经网络模型的分类精度得到有效提高.  相似文献   

5.
针对基于深度学习的图像检索提取特征往往包含了复杂的背景噪声,导致图像检索的精确率并不高的问题,提出一种特征图融合与显著性检测的方法.首先,训练用于分类的深度卷积神经网络模型.然后,并将图像卷积之后的特征图谱进行融合,得到图像的显著性区域.最后,通过计算图像显著性特征的余弦距离来进行检索.实验结果证明:相比目前主流的方法,文中方法能够有效提高检测精度,且鲁棒性较高.  相似文献   

6.
随着深度学习的发展,卷积神经网络在各种视觉任务中都具有优越的性能;特别是在二维图像分类上,更是获得了很高的分类精度。针对于高光谱图像分类问题,设计了一种新的卷积运算;利用高光谱图像谱-空联合信息建立三维卷积神经网络对其进行分类;并针对高光谱图像样本不均匀性,在网络输出不同类别加入不同的权重加以训练。通过对两个公开高光谱图像数据集的测试,相对于传统方法,能够得到更高的分类精度,表明卷积神经网络对高光谱图像具有更强的特征表达能力。  相似文献   

7.
在深度有监督哈希图像检索的特征提取过程中,一直由卷积神经网络架构主导,但是随着Transformer在视觉领域中的应用,Transformer替代卷积神经网络架构成为可能.为了解决现存基于Transformer的哈希方法中不能生成层次表示和计算复杂度高等问题,提出了一种基于Swin Transformer的深度有监督哈希图像检索方法.该方法以Swin Transformer网络模型为基础,在网络最后添加一个哈希层,为图像进行哈希编码.该模型中引入了局部思想和层级结构,能够有效解决上述问题.与现有的13种先进方法相比,所提方法的哈希检索性能得到大幅提升.在两个常用检索数据集CIFAR-10和NUS-WIDE上进行实验,实验结果表明:在CIFAR-10数据集上所提方法mAP最高达到98.4%,与TransHash方法相比平均提高7.1%,与VTS16-CSQ方法相比平均提高0.57%;在NUS-WIDE数据集上所提方法mAP最高达到93.6%,与TransHash方法相比平均提高18.61%,与VTS16-CSQ方法相比检索精度平均提高8.6%.  相似文献   

8.
针对图像特征提取不充分影响图像检索平均精确率的问题,提出了一种基于联合加权聚合深度卷积特征的图像检索方法。该方法将图像输入到预先训练好的卷积神经网络中,提取最后一个卷积层输出作为图像的深度卷积特征;通过计算空间权重矩阵突出图像的显著性区域并抑制背景噪声区域,然后根据通道方差最大原则选取相应的特征图计算出空间权重矩阵,将原始深度卷积特征加权聚合为列向量;通过区分性地对待不同通道的特征图,计算出通道权重向量与上述列向量点乘得到最终的全局特征向量。公开数据集上的实验结果表明,本文方法能够有效地增强图像特征的表达能力,在图像检索的平均精确率上优于其他同类方法,可以有效地应用到图像检索相关领域。  相似文献   

9.
针对跨模态检索中不同模态数据的数据结构和特性存在较大差异的问题,提出了基于公共空间方法的共享参数跨模态检索(SPCMR)方法:首先,利用卷积神经网络提取图像和文本的高级语义特征;然后,接入全连接层将其映射到公共空间并共享2个特征子网的部分隐层权重;最后,连接线性分类器并与标签信息进行判别训练。在公开数据集上采用平均精度(mAP)作为评价指标进行实验。结果表明:SPCMR方法能充分利用跨模态间的语义信息,有效提升图文检索的精度。  相似文献   

10.
针对环视鱼眼图像中目标几何畸变大导致建模难的问题,提出一种基于可变形卷积网络的实例分割方法,主要是在Mask R-CNN框架的基础上引入可变形卷积和可变形RoI Pooling(候选区域池化)来提升网络对几何畸变的建模能力.针对深度神经网络训练数据缺乏、易过拟合的问题,提出了基于多任务学习的训练方法.首先将现有的大规模普通图像数据集转换为鱼眼数据集来弥补训练数据不足的问题,然后采用多任务学习的训练方法将转换的图像和真实图像放在同一个框架中训练以提高网络的泛化能力.用该方法在真实的环视鱼眼图像上做测试,结果表明:相对于原始Mask R-CNN的方法平均精度提升了3.1%,证明了该方法在真实交通环境中的有效性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号