首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
基于局部不变特征的图像匹配是三维场景重建的基础.本文使用SIFT特征,在LSH算法基础上,提出一种改进的高维数据搜索算法,较好地解决了图像的快速有效匹配问题.该算法提出一种改进的投影空间,使投影到新空间的高维数据特征的每一维比海明空间具有更高的局部敏感性,相比于经典的LSH、BBF、iDistance等高维搜索算法,本文算法可以获得更高的搜索精度和更快的搜索速度.  相似文献   

2.
假设对于两个流形上关联性较强的样本点,其邻域点之间也会具有较强的关联性.基于此假设,提出一种新的非监督流形对齐算法,通过学习局部邻域之间的关联性,挖掘不同流形样本点间的关联性;然后,将两个流形样本点投影到共同的低维空间,同时保持所挖掘的关联性.结果表明:与传统的非监督流形对齐算法比较,文中算法能更准确地找出不同流形数据在低维空间的匹配点.  相似文献   

3.
为了增强高维数据在低维子空间中的模式识别能力,假设任意2个类别相同的相似样本其稀疏表示也相似,并基于SPP和LPP思想,提出一种可鉴别稀疏保局投影降维新方法 DSLPP.该方法通过稀疏表示学习和保局部投影,使得在投影子空间中不仅能够保持稀疏表示对数据很好的表达能力,而且较好地获取高维数据所蕴含的本质局部流形结构和自然判别信息,从而增强高维数据在子空间中的表示能力和可鉴别能力.在3个典型的人脸数据集Yale,ORL和PIE29上,将所提出方法 DSLPP与PCA,LPP,NPE和SPP进行对比试验.结果表明DSLPP是一种有效的降维方法,能够较好地改善高维数据在低维子空间中的分类效果.  相似文献   

4.
可见光图像和红外图像成像原理不同,面向可见光和红外光的跨模态行人重识别面临较大的跨模态差异,行人异质信息对齐和挖掘异常困难。为此,提出基于异质信息对齐和重排序的跨模态行人重识别方法。在异质信息对齐方面,提出一种新的异质局部信息对齐算法,通过求取行人异质局部信息距离矩阵的最短路径,实现同一行人异质局部信息的动态匹配,解决行人异质信息对齐问题;在重排序方面,提出拓展k近邻重排序算法,通过动态地拓展查询图像k近邻异质信息,实现同一行人异质信息的融合,解决行人异质信息挖掘困难问题。实验结果表明,在SYSU数据集全场景查询模式上,所提方法与AGW模型结合k近邻重排序算法相比,在评价指标mAP和Rank-1上分别提升了10.12%和8.6%。  相似文献   

5.
依据背景知识,选择行车数据序列在隧道附近所特有的形态,作为该路段的特征点,进行序列的对齐.给定一组未对齐的序列,使用期望最大化(EM)算法进行对齐:在E步算出标准序列,在M步对齐序列.在对齐序列时,采用了基于形态的相似性度量找出待对齐序列与标准序列的最佳特征点匹配方案.本策略成功用于福泉高速行车数据的对齐.  相似文献   

6.
提出一种新的指纹匹配算法.在配准阶段,引入局部方向场匹配,并结合局部细节点拓扑结构匹配以进行指纹对齐;在对齐后的匹配中,首先在两个指纹的细节点集之间进行弹性匹配,得到一个由匹配的细节点对组成的相似集,然后以相似集中的细节点做顶点,以各顶点之间的连线为边,为输入指纹和模板指纹组成对应的拓扑图进行图匹配;还引入了全局方向场匹配,并与细节点集匹配进行融合,以提高算法的精度.采用FVC2002公布的指纹库进行对比实验,结果证明了算法的有效性.  相似文献   

7.
针对目前高维数据量急剧增加,离群点检测技术精准度低、所需内存大、检测时间长等问题,提出了基于网格划分和局部线性嵌入方法(Locally Linear Embedding, LLE)的高维数据离群点自适应检测方法.根据高维数据的空间维度进行网格划分,设定单元格邻近单元数量,降低运行开销,减少计算时间.采用局部线性嵌入方法(LLE),分析不同组合数据点的局部特性,准确描述高维数据结构,完成高维数据集预处理.采集高维数据集合中小部分重要信息,保证采集结果的准确性,利用MapReduce编程模型,将大任务划分为多个不同的小任务,展开分布式处理.通过网格密度计算离群度,提升检测效率,优先过滤空白网格单元,降低空间开销,减小所需内存,从而实现高维数据离群点自适应检测.实验结果表明:所提方法在不同数据集大小测试中,执行时间更短,检测精确度更加稳定;在维度测试中,所需内存更少.证明所提方法能够有效降低执行时间和内存,提升检测结果的精确度.  相似文献   

8.
非线性特性是工业过程的显著特性,特别是间歇过程有着更强的非线性,而且传统方法只是对数据的协方差矩阵进行分解,忽略数据高阶统计量信息,从而无法充分提取非线性过程的有效信息导致诊断效果不佳.针对以上问题,提出了基于统计量的多向核邻域保持嵌入算法.该算法首先引入统计量模式分析方法(SPA)将样本数据投影到统计量样本空间中,可以更充分地提取非线性数据的高阶统计量信息;然后在统计量空间中通过核函数将统计量样本映射到高维核空间,用以解决数据的非线性;最后在高维核空间中应用邻域保持嵌入算法充分提取数据的局部结构来对间歇过程进行监控,检测到过程故障后用变量贡献图法诊断出故障变量.通过青霉素发酵过程验证了该算法对强非线性的间歇过程故障诊断是有效的.  相似文献   

9.
图像匹配是计算机视觉中一个重要的研究方向,是图像拼接、图像检索等相关应用的基础工作。如何实现快速、高效的图像匹配技术是本文的主要研究内容。提出一种基于SURF和扩展哈希的空间约束图像匹配算法,为了提高特征检测的速度,首先提取SURF特征描述图像局部特征,然后在局部敏感性哈希算法基础上,提出一种改进的高维数据搜索算法,该改进算法变换局部敏感性哈希的投影空间,使变换后的每一维特征数据都比原算法具有更好的局部敏感性。最后采用空间约束RANSAC算法剔除误匹配点,进一步增加算法的鲁棒性。实验结果表明,本文提出的算法与传统算法如BBF、LSH以及iDistance等算法相比具有更优的搜索效率,在一定程度上提高了图像匹配的性能。  相似文献   

10.
提出了一种基于隐空间的低秩稀疏子空间聚类算法,在聚类的过程中可以对高维数据进行降维,同时在低维空间中利用稀疏表示和低秩表示对数据进行聚类,大大降低了算法的时间复杂度.在运动分割和人脸聚类问题上的实验证明了算法的有效性.  相似文献   

11.
利用测地线距离的改进谱聚类算法   总被引:1,自引:1,他引:0  
针对往复式压缩机故障数据空间分布复杂、常规算法不能有效聚类的问题,提出了一种改进的谱聚类算法.该算法使用新的相似度矩阵计算方式,根据故障数据流形分布的特点引入测地线距离取代欧氏距离作为数据间的关系度量;通过计算各数据点的邻域密度因子有效地识别和剔除了噪声点;利用基于密度的局部欧氏距离调整方法对流形间隙过小的区域进行了处理.在几个人工数据集和往复式压缩机故障数据集上的测试结果表明,改进谱聚类算法对于具有流形分布、多尺度、有噪声、流形间隙过小甚至交叉等特点的数据具有很好的聚类能力,聚类准确率比常规的k-均值和MSCA谱聚类算法分别提高了50.86%和8.6%.  相似文献   

12.
GDLOF:基于网格和稠密单元的快速局部离群点探测算法   总被引:1,自引:0,他引:1  
为了适应高维大规模数据集的稀疏性,解决现有离群点探测算法在运用于高维大规模数据集时计算量以及时间效率均无法令人满意的现状,区别于以往文献中以点的数量作为判断稠密的阈值,在基于密度的局部异常检测算法LOF的基础上,以通过数据集中每一点周围的邻近点的状况作为判别依据,提出了稠密单元和稠密区域的概念以及基于网格和稠密单元的快速局部离群点探测算法.通过证明稠密单元和稠密区域中的点不可能成为离群点,使得算法减少了LOF值的计算量并显著提高效率.实验表明,该算法对于高维大规模数据集具有良好的适用性和有效性.  相似文献   

13.
鉴于尺度不变特征变换(SIFT)结构复杂域,k-d树匹配算法对于高维特征计算量过大,对SIFT特征信息利用少并且匹配的结果有大量误差,因此提出一种基于感知哈希与尺度不变特征变换的快速拼接算法.首先,使用感知哈希算法,提取匹配图像与待匹配图像的HASH指纹,快速识别出两幅图像的相似部分;然后,计算并提取出相似区域SIFT特征点.在特征点匹配算法上,替换传统的k-d树算法,利用SIFT特征点的主方向以及坐标位置信息过滤掉不必要的特征点匹配,减少匹配耗时;最后,用加权最佳拼接缝图像融合算法消除突变,完成拼接.实验结果显示,本文算法提取的特征点数比传统算法更少,在匹配算法上减少计算量,同时还粗过滤了一部分误匹配,提高了匹配准确度,算法的耗时较传统方法有明显提升.  相似文献   

14.
针对基于聚类的离群点检测算法在处理高维数据流时效率和精确度低的问题,提出一种高维数据流的聚类离群点检测(CODHD-Stream)算法。该算法首先采用滑动窗口技术对数据流划分,然后通过属性约简算法对高维数据集降维;其次运用基于距离的信息熵过滤机制的 K-means 聚类算法将数据集划分成微聚类,并检测微聚类的离群点。通过实验结果分析表明:该算法可以有效提高高维数据流中离群点检测的效率和准确度。  相似文献   

15.
针对自组织映射(Self-Organizing Map,SOM)算法在进行流形学习时容易陷入局部极值和产生"拓扑缺陷"问题的原因,提出了一种新的基于SOM的流形学习算法:TO-SOM(Training Orderly-SOM).根据流形的局部欧氏性,TO-SOM算法从一个局部线性或近似线性的数据子集出发,按照数据的内在流形结构对其进行有序训练,可以避免局部极值、克服"拓扑缺陷".根据SOM算法的鲁棒性,TO-SOM算法在成功学习数据内在流形结构的同时,对邻域大小参数和噪声也不像ISOMAP和LLE等现有流形学习算法那样敏感,从而更容易得到实际应用.  相似文献   

16.
为了提高大数据环境下高维非线性数据的处理速度和精确度,提出一种结合主成分分析(PCA)的基于t分布的随机近邻嵌入(t-SNE)算法.首先,通过主成分分析法对原始数据进行预处理,去除噪声点;然后,结合t-SNE算法,构建K最邻近(K-NN)图,以表示高维空间中数据的相似关系;最后,在Spark平台上进行并行化运算,并在BREAST CANCER,MNIST和CIFAR-10数据集上进行实验.结果表明:文中算法完成了高维数据至低维空间的有效映射,提升了算法的效率和精确度,可应用于大规模高维数据的降维.  相似文献   

17.
基于监督学习的核拉普拉斯特征映射分类方法   总被引:1,自引:0,他引:1       下载免费PDF全文
提出一种监督学习的核拉普拉斯特征映射方法(supervised kernel Laplacian eigenmap,SKLE),通过非线性核映射将样本数据投影到高维核特征空间,然后将流形结构和样本类别信息进行有效的结合后,提取嵌入在高维数据中的低维流形特征用于分类.实验表明,该方法对新样本具有泛化性,并且能有效提高分类的效能.  相似文献   

18.
针对传统序列图像拼接算法中的误差累积问题,提出一种基于全局和局部特征的图像拼接方法. 同时拍摄大视场角、低分辨率全局图像和小视场角、高分辨率局部图像,利用深度学习替代传统算法提取两者匹配点,进而根据两者面积比等比例扩大全局图像的匹配点坐标,将局部图像无缩放地投影至全局图像所在平面,最后融合投影后局部图像的重叠区域,拼接形成一幅大视场角、高分辨率全景图像. 实验结果表明,该方法中深度学习快速且精准地实现了特征匹配,同时局部图像间相互独立,有效地解决了拼接顺序限制和拼接误差累积.   相似文献   

19.
为了提高算法匹配正确度与抗仿射变换性,本文通过将图像的梯度信息引入图像匹配的过程,提出了基于圆域梯度信息耦合角度相似法则的图像匹配算法。首先,采用Forstner算子精准快速地对图像特征进行检测,获取纯度较高的特征点。然后,通过计算圆域的haar小波响应值确定主方向,并利用圆域的梯度信息获取特征向量,完成特征描述。最后,根据匹配特征的仿射不变性,利用主方向建立角度相似法则,以完成匹配。通过特征点的特征向量去除错误匹配点,获取最终的匹配结果。实验数据显示,所提算法具有较高的匹配正确率与鲁棒性,在多种几何变换下,其匹配结果中具有较多的正确匹配对,而错误匹配对数量较少。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号