首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 71 毫秒
1.
以赤足足迹压力图像为研究对象,采集了40人的5 230幅赤足足迹压力图像,在具有较低存储消耗的哈希算法基础上,结合深度学习方法设计了一种深度中心匹配哈希(DCMH)网络实现足迹的检索.该网络首先根据足迹压力图像的特点构建深度特征融合模块,提取反映足迹形态结构的全局特征和压力分布的局部特征,并将两种特征进行融合;然后在哈希编码模块通过全连接层将融合后的特征映射为1 024维特征向量,并通过哈希层生成哈希码;在网络优化过程中通过构建深度中心匹配损失函数从而减小哈希码与对应哈希中心之间的距离.深度中心匹配损失函数通过伯努利分布生成哈希中心,设计对数中心损失函数减小同类足迹压力图像数据哈希码与哈希中心的距离,并设计相似性损失函数作为正则化项约束每个批次数据间的相似性关系.通过在40人的赤足足迹压力图像数据上进行图像检索实验,本文算法检索结果的mAP可以达到0.99,优于传统的哈希算法及常用的深度哈希算法,为足迹的进一步的现场应用提供技术支撑.  相似文献   

2.
学习细粒度图像相似性是机器学习中一项富有挑战性的任务,尤其是相似性很高的同类图像.本文提出了基于三元损失函数和胶囊网络的图像相似性学习方法,三元损失能够反映图像之间的"相对"相似性,而胶囊网络比普通深度学习网络具有更优的图像特征提取能力,将两者有机结合在一起形成的新型网络能够很好地完成图像相似度的学习任务.实验结果表明,本文提出的新方法相比于一般的深度学习方法,准确率有很大地提高.  相似文献   

3.
为了能够在细粒度图像特征表示中探索出相似层结构中的共享信息,提出了一种多任务学习框架,联合优化卷积神经网络中的Softmax Loss和Triplet Loss,基于此框架,设计广义三元组嵌入标签结构,以发现不同级别中具有相似性的相关图像。在Stanford Cars和CUB200-2011两个细粒度数据集上进行实验,结果表明这种方法不仅可以实现较好的分类性能,还能够提高在细粒度数据集上不同级别的标签结构的图像检索精度,这在电子商务中相关产品的推荐方面具有重要意义。  相似文献   

4.
在研究已有基于流形排序图像检索算法存在问题的基础上,提出一种基于重选择流形排序的图像检索算法,此算法可以在节约时间的同时,进一步提高检索结果的精度,并在实际图像数据库中的实验结果验证了此算法的有效性.  相似文献   

5.
排序学习已经在信息检索和机器学习领域中获得了广泛的关注,一系列的排序学习理论主要是基于3种排序样本构造方法提出的,分别是:单文档方法(pointwise)、文档对方法(pairwise)、文档列表法(listwise)。特别地,文档列表法中的组排序的方法可以有效地提高排序的性能。将这些方法与损失函数相结合来提高组排序的性能,基本思想是融合不同的损失函数来扩充基于神经网络方法的损失函数。首先,本文提出了一种基于J氏距离(Jeffrey’s divergence)的组样本损失函数的构造方法;然后,基于该组排序的方法,提出了一种与其他损失函数进行融合框架,在LETOR3.0数据集上比较了所提出方法的性能;最后,实验结果表明所提出的加权损失函数融合方法能够有效地提高查询的相关性排序结果。  相似文献   

6.
为了提高覆冰电网图像的检索性能,提出一种基于自编码器的深度对抗哈希方法。首先,通过在现有的生成器和鉴别器之上添加新的编码鉴别器以鼓励生成的图像样本更好地表示真实数据分布。其次,构建哈希编码网络以学习生成紧凑的二进制哈希码。我们在WGAN-GP损失的基础上引入了新的基于长尾柯西分布的交叉熵损失和量化损失函数以优化汉明空间检索性能。实验结果表明,该深度对抗哈希方法能够通过编码鉴别器和柯西损失函数解决模式崩溃和图像模糊的问题,图像检索性能相比于其他方法有明显提高。  相似文献   

7.
图像检索技术是数字图书馆进一步发展的核心技术,目前主要受到检索准确度和检索速度之间矛盾的制约.为此提出了一种基于RGB分量小波分解的图像检索方法.首先,利用原始图像信息生成RGB三色分量图像.然后,将每一幅分量图像进行小波分解,求取其低频分量成分.最后,利用RGB三色分量图像的低频成分进行融合,生成最终的相似性测度.实验结果表明,此方法可以在确保准确性的前提下,快速地实现图像检索.  相似文献   

8.
肺结节CT图像的相似性检索是计算机辅助诊断系统中最重要的部分,目前常用的检索方法通常匹配精度低,检索速度慢.针对上述问题,提出一种新的基于视觉信息与征象标签的双概率超图哈希算法,使用两层结构提高肺结节图像的检索精度:在第一层,将肺结节影像视觉信息和标签信息分别构建概率超图,最优划分概率超图得到哈希码;在第二层,使用结节图像的视觉特征、标签特征和第一层得到的哈希码来训练哈希函数.在检索时,对待检图像通过训练好的哈希函数进行0,1编码,与数据集中图像比较汉明距离,返回相似结节图像.对9种不同征象类型的3422张肺结节CT图像进行实验,并与不同哈希算法进行比较,结果表明,提出的方法在哈希码长为32位时可以达到最高精度90.18%,有效提高了检索精度,可以给医生提供客观的辅助诊断.  相似文献   

9.
一种新的用于三维检索的快速邻域搜索方法   总被引:1,自引:0,他引:1  
在传统的层次聚类算法上,对孤立聚类进行特殊处理,并在此基础上提出了与传统内容检索方法不同的三维模型索引检索技术.首先提取三维模型的深度图像特征并将特征值存入数据库;其次利用改进的层次聚类算法对特征值进行聚类并计算聚类中心值;之后计算每个三维模型内容特征与其所在聚类中心的距离并保存到数据库中,查询时计算待查询模型特征与各个聚类中心的距离并排序;最后在每个聚类里面进行检索,与聚类中心的距离位于待检索模型与该聚类中心距离的邻域就是查询结果.在该方法中,将每个模型特征与其所在聚类中心的距离作为其索引.实验结果表明,该方法在保证检索质量的基础上大大提高了检索速度.  相似文献   

10.
基于内容的图像检索的目的是允许用户从大量的图像库中检索出图像。在图像检索系统中一幅图像通常有一系列低阶描述器描述。本文提出综合给定的一系列的相似性函数。对每个相似性函数,建立一个概率分布。假设统计是独立的,这些概率分布被用来设计一个新的从每个独立的函数中综合获得的结果的相似性度量。  相似文献   

11.
针对基于对象的图像检索问题,提出一种新的谱聚类多示例学习算法.该算法将图像当作包,将分割区域的视觉特征当作包中的示例,针对正包示例集合进行谱聚类,按聚类中心点数最大原则选择潜在正示例中心和潜在正示例代表,并采用径向基函数和金字塔核分别度量潜在正示例间和其它示例间的相似性,最后利用支持向量机和相关反馈实现图像检索.采用S...  相似文献   

12.
将深度学习应用于行人重识别领域,嵌入多尺度注意力融合模块至神经网络中进行多尺度特征提取和表示,可有效提升注意力机制对深度学习网络的识别性能。提出了一种基于SE block的多尺度通道注意力融合模块,并结合ResNet50卷积神经网络提取特征;然后通过双向LSTM网络进一步提取特征序列上下文信息,在提高模型对图像重要特征的提取能力的同时,降低对图像冗余特征的关注度;最后使用级联难采样三元组损失函数和交叉熵损失函数共同训练网络模型,使样本能够在高维特征空间中实现聚类,进一步提升模型识别准确性。所提出算法在Market1501数据集和CUHK03数据集分别进行实验,并在同等条件下和其他注意力模块算法进行比较。为进一步验证各模块作用,对算法进行消融实验,以验证各模块的有效性,实验结果表明,所提出方法可有效应用于行人重识别  相似文献   

13.
基于内容的图像检索技术是目前能有效检索大量图像资料的关键技术。本文阐述了一种基于颜色特征的图像检索技术,将颜色直方图或者颜色集作为颜色特征存入图像数据库中,然后描述了图像相似度的计算方法,并利用相似性度量函数来完成对图像的检索。  相似文献   

14.
介绍一种计算机通用程序,应用此程序可以计算出在低转化率下制备的三元共聚物的结构特性,包括共聚物的组成,二元组、三元组、四元组和五元组的分布,单体序列的重量和数量分布,单体为中心的三元组和五元组的分数。此程序可应用于末端基团效应的三元共聚体系中。此外还讨论了程序编制过程中所用的计算方法。  相似文献   

15.
卷积神经网络可以在图像检索中为图像内容提供有效的表示,基于该理论提出一种基于深度特征加权的图像表示方法,此方法通过对深度特征加权,突出图像表示中对象的内容,并降低背景信息的影响。首先,通过预训练卷积神经网络提取出图像的特征映射,然后根据不同特征映射的特点,计算出深度特征的位置重要性、区域重要性和通道重要性,并根据3种重要性对深度特征进行加权,最后通过池化与深度特征聚合的方式生成图像表示。实验结果表明,与其他图像表示方法相比,提出的方法在Holiday、Oxford和Paris图像库中取得了更好的检索效果。  相似文献   

16.
针对传统模糊C均值聚类算法对图像特征描述单一,易受图像复杂纹理干扰而出现误分割的问题,提出一种基于自适应结构张量的FCM算法,并将其应用于图像分割.打破传统高斯滤波器在滤波方向和角度上所受限制,采用基于各向异性滤波的结构张量;引入图像边缘密度函数,用以衡量图像节点的平滑性,自适应地计算各向异性滤波函数所占比例;定义一种自适应结构张量相似性度量标准,用以计算图像中节点与聚类中心点的结构相似性,有效地代替了传统FCM中的灰度相似性度量标准;采用一种新颖的节点间距离度量公式来计算图像中节点与聚类中心点的差异.仿真结果表明,对结构复杂的图像,改进算法获得了更加精确的分割结果.  相似文献   

17.
【目的】针对粉尘环境中单幅图像深度预测精度低的问题,提出了一种基于输入特征稀疏化的粉尘图像深度预测网络。【方法】使用粉尘图像的直接传输率与深度的关系设计预估计深度网络,利用图像颜色衰减先验原理进一步获取粉尘图像的稀疏深度特征。将该稀疏深度特征与粉尘图像一起作为深度预测网络的输入。深度预测网络以“编码器-解码器”为模型框架,编码器中使用残差网络(ResNet)对粉尘图像进行编码,设计融合通道注意力机制的稀疏卷积网络对稀疏深度特征进行编码。解码器中采用反卷积以及多尺度上采样的方法,以更好的重建稠密的深度信息。使用最小绝对值损失和结构相似性损失作为边缘保持损失函数。【结论】在NYU-Depth-v2数据集上的实验结果表明该方法能够从粉尘图像中有效预测深度信息,平均相对误差降低到0.054,均方根误差降低到0.610,在δ<1.25时准确率达到0.967.  相似文献   

18.
大规模图像检索具有广泛的应用前景,其核心在于图像特征提取和高效相似性计算.深度学习技术在图像特征提取具有较强的特征表示能力,同时哈希技术在高维数据近似计算方面具有较好的性能.目前,基于哈希学习的技术在大规模图像检索及相似性查询方面获得了广泛的研究和应用.本文结合卷积神经网络和哈希技术实现商标图像检索,通过深度学习技术提取商标图像特征,使用位哈希对数据对象编码,在海明空间折中查询的质量和效率.基于卷积神经网络模型,提出了深度哈希算法,并研究了损失函数和该数据集上的优化器选择,通过获取符合哈希编码规范的位编码实现对在二元空间对商标图像数据快速检索,该方法分为离线深度哈希学习和在线查询两个阶段.在真实商标数据集上进行实验,实验结果表明,本文方法能够在商标数据集上获得较高质量的位编码,并具有较高的检索精确度和在线查询效率.  相似文献   

19.
基于非负矩阵分解的隐含语义图像检索   总被引:1,自引:0,他引:1  
提出了一种基于非负矩阵分解(Non-negative Matrix Factorization,NMF)的隐含语义索引(Latent Semantic Indexing,LSI)模型用于图像检索.应用NMF训练算法构造了一个语义空间,将查询图像和原型图像都投影到该空间以获得语义特征,在此空间中进行相似性的度量并将距离最近的图像返回给用户.与已有两种检索模型的实验结果对比表明,所提出模型是有效的.  相似文献   

20.
针对传统食品图像识别方法提取特征能力差、准确率差、运行效率差和卷积神经网络识别相似食品图像难度大等问题, 提出了一种新的食品图像识别模型ChinaFood-CNN, 以实现对食物的精准分类; 在多分类损失函数SoftmaxWithLoss的基础上, 针对食品图像类间相似性大的问题, 提出了最大类间距损失函数(MCSWithLoss), 以增大相似类之间的距离, 实现相似类的区分; 针对随机选取样本时的训练集冗余问题, 在网络模型训练时使用负样本选择算法.实验结果表明:ChinaFood-CNN模型对食品图像的识别准确率达69.2%, 分别比AlexNet、VGG16、ResNet模型提升了17.6%、16.8%和3.6%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号