首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
图像匹配是计算机视觉中一个重要的研究方向,是图像拼接、图像检索等相关应用的基础工作。如何实现快速、高效的图像匹配技术是本文的主要研究内容。提出一种基于SURF和扩展哈希的空间约束图像匹配算法,为了提高特征检测的速度,首先提取SURF特征描述图像局部特征,然后在局部敏感性哈希算法基础上,提出一种改进的高维数据搜索算法,该改进算法变换局部敏感性哈希的投影空间,使变换后的每一维特征数据都比原算法具有更好的局部敏感性。最后采用空间约束RANSAC算法剔除误匹配点,进一步增加算法的鲁棒性。实验结果表明,本文提出的算法与传统算法如BBF、LSH以及iDistance等算法相比具有更优的搜索效率,在一定程度上提高了图像匹配的性能。  相似文献   

2.
针对基因表达谱高维、小样本、高噪声及高冗余等特点,提出一种基于改进的和声搜索算法的特征基因选择方法。首先,采用Kruskal-Wallis算法对原始基因进行初选,降低和声算法搜索空间维数,保证和声搜索算法的优化精度和收敛速度;然后,针对和声搜索算法易陷入局部最优问题,对当前种群中最优、最差和声分别进行进化;同时融合教与学优化算法中个体更新方式,设计一种改进的和声搜索算法实现特征基因选择。仿真实验结果表明,方法在优化精度、时间效率和稳定性等方面优于HS、IHS、EHS和GHS等算法。  相似文献   

3.
提出了一种基于微簇的两阶段高维数据流聚类算法.首先,对新到达的数据进行降维处理,使用改进的线性判别分析方法获得一个局部投影子空间;然后,在子空间内最大化流入数据近邻微簇之间的距离;最终,将流入数据划分到投影空间的微簇中.基于高维数据流的实验结果显示,本算法的分类性能优于其他的数据流聚类算法,并且具有较低的计算复杂度.  相似文献   

4.
为改进差分进化(Differential Evolution,DE)算法的搜索能力,提出一种新的混沌差分进化算法(CGLSDE)﹒首先,该算法利用混沌序列替换DE参数并采用混沌全局搜索算法来改进DE的全局搜索能力;其次,CGLSDE算法还采用了单维和多维的混沌局部搜索来改进DE的局部搜索能力﹒仿真结果表明:CGLSDE算法在解决高维整数非线性规划(INLP)问题和高维混合整数非线性(MINLP)问题上,其性能要好于其它3种混沌差分进化算法﹒  相似文献   

5.
针对数据挖掘和模式识别等领域的高维数据降维问题,提出了一种基于抗体克隆选择学说和免疫记忆理论的特征选择算法.该算法利用抗体种群进行全局搜索,通过设立记忆单元来保留历史最好个体,并对其嵌入可控制搜索深度的局部搜索算子,用以加快抗体亲和力成熟速度,同时对抗体种群和记忆单元采用不同的亲和度函数以获得更好的搜索能力.将该算法用于几个高维数据集进行特征子集选择,然后进行最近邻分类并采用留一法验证,结果表明,与标准遗传算法相比,新算法具有更低的复杂度和更好的搜索能力,其鲁棒性也优于经典的串行浮点前向搜索算法.  相似文献   

6.
基于互信息和文化基因算法的网络流量特征选择   总被引:1,自引:0,他引:1  
利用文化基因框架的引导,提出一种结合了封装和过滤的混合型特征选择算法.该算法在传统的遗传算法中采用了基于互信息的局部搜索算法,全局搜索以分类器精度为适应度函数,保证得到全局最优解;局部搜索以联合互信息为评价指标,加快了寻找最优特征子集的收敛速度.实验表明,与现有算法相比,该算法在特征数量和计算复杂度上有显著改进,采用该算法的网络流量识别方法能以更少的特征获得更高的分类精度.  相似文献   

7.
针对引力搜索算法求解复杂问题时搜索精度不高、易出现早熟收敛问题,提出一种引入复合形法的改进引力搜索算法。该算法在寻优初期利用引力搜索算法进行全局搜索,同时对引力系数进行改进,以提高全局收敛速度;在寻优后期,当算法出现早熟收敛现象时,引入复合形法,利用复合法较强的局部搜索能力,帮助种群快速跳出局部最优解。通过5个标准测试函数验证了改进算法的可行性和有效性。与标准引力搜索算法、基于权值的引力搜索算法、记忆性引力搜索算法相比,该算法具有更高的收敛精度和更快的收敛速度。  相似文献   

8.
免疫进化的投影寻踪模型在文本分类中的应用   总被引:1,自引:0,他引:1  
投影寻踪是通过寻找最能反映原高维数据的结构或特征的投影方向,把高维数据投影到低维子空间上,从而实现在低维空间上研究分析高维数据的目的.针对文本分类中维数灾难问题,采用投影寻踪模型,将高维的文本数据降到超低维.投影寻踪的关键是构造能够找到最佳投影方向的有效算法,本文根据免疫进化的思想提出了免疫进化的投影寻踪模型,该模型能...  相似文献   

9.
针对人工蜂群算法存在后期收敛速度慢、局部搜索能力差和易陷入局部最优的问题,提出一种基于交叉算子的改进人工蜂群算法.该算法利用佳点集方法产生初始种群,使得初始化个体尽可能均匀地分布在搜索空间;随机选择食物源位置与当前最优食物源位置进行算术交叉操作,引导群体向全局最优解靠近,提高算法的局部搜索能力和加快收敛速度.通过5个高维标准测试函数的实验结果表明新算法的有效性.  相似文献   

10.
提出一种结合多样性策略的自适应粒子群优化算法,该算法在粒子群的全局优化过程中,使用根据种群搜索状态自适应调整邻域空间的局部搜索算法加强算法的局部搜索能力,并允许非优粒子具有引导种群搜索方向的可能性.在著名基准函数上的对比实验结果表明,这种混合粒子群优化算法能获得更高的搜索成功率和质量更好的解,特别在高维多峰函数优化上表现出较强的竞争力.  相似文献   

11.
针对蛇形搜救机器人在复杂颠簸的搜救场景中连续获取的单帧图像之间旋转变化剧烈的特点,提出一种结合ORB(oriented FAST and rotated BRIEF)特征检测算子和局部敏感哈希(locality-sensitive hashing,LSH)特征关联算法来完成蛇形搜救机器人的同步定位与建图(simultaneous localization and mapping,SLAM)。该方法具有尺度不变性和旋转不变性,可有效解决特征点的检测与匹配问题。实验平台采用自主研制的具有高清摄像头的蛇形搜救机器人,分别对不同步态、不同场景进行实验验证,结果表明,与传统视觉SLAM相比,该算法计算量小,时效性强,适用于复杂环境下蛇形搜救机器人的工作。  相似文献   

12.
针对传统单尺度角点检测算法易产生伪角点和在角点匹配过程中计算复杂,容易产生误匹配等缺点,提出一种基于多尺度小波变换角点特性的图像配准方法.该算法首先采用多尺度小波变换的二维图像角点检测算法采检测参考图和待配准图的角点信息,然后采用两图角点对的欧几里德距离平均值的极小值作为两图角点对配准准则,利用改进的粒子群优化(Par...  相似文献   

13.
为了解决经典的特征点匹配算法SIFT采用比率测试得到的匹配特征点集中存在大量误匹配,且对数量和准确度无法兼顾的情况,提出了基于特征点局部特征值剔除误匹配特征点算法。该算法以高阈值比率测试得到的结果为粗剔除匹配点集,基于三角形相似性原理,从该特征点集中筛选出3个匹配正确的特征点对,利用其分别在基准图像和实测图像中构建局部直角坐标系,根据匹配的特征点对在相似局部坐标系下局部特征值的相似度剔除误匹配特征点,实现精剔除。实验结果表明,本文算法可以有效的剔除SIFT算法匹配结果中的误匹配,同时,与低比率(0.6)测试匹配结果比较,准确度较高,降低了匹配正确的特征点被误剔除的概率。可见本文算法可有效的剔除误匹配特征点,获得准确度高的匹配点集。  相似文献   

14.
全局结构化 SIFT描述子在图像匹配中的应用   总被引:2,自引:0,他引:2  
为了克服传统SIFT描述子进行图像匹配时对噪声和图像灰度的非线性变换敏感的缺点,提出了一种全局结构化SIFT描述子及其生成方法.该方法将特征点矩形区域改为以特征点为中心向外扩散的同心圆区域,计算同心圆区域10个方向的曲率累积值,建立一个描述范围为特征点尺度函数的特征向量,对其实施排序操作,赋予完全旋转尺度不变,形成全局结构化SIFT描述子.采用欧氏距离为匹配度量函数应用于图像匹配.实验结果表明:这种全局、局部结构式信息联合的思想增强了算法对图像的光照、平移、旋转等变换的鲁棒性,匹配精度提升18%,极大地改善了匹配效果.  相似文献   

15.
提出了基于局部锐度分布耦合核典型相关分析的图像匹配算法.首先引入Forstner算子对特征点进行精确提取;随后计算每个特征点对应的锐度值,从而构造局部锐度分布模型,生成低维度的特征描述子;接着引入归一化互相匹配策略(Normalized Cross Correlation,NCC),完成特征点的匹配,增强算法的鲁棒性;最后基于核典型相关分析(Kernel Canonical Correlation Analysis,KCCA)技术,建立归一化距离函数,对匹配特征点进行提纯,剔除误匹配点.仿真实验结果表明:与当前图像匹配算法相比,本文算法不仅具有较高的匹配精度及较强的鲁棒性,而且还具有较高的匹配效率.  相似文献   

16.
为满足机器人伺服抓取中定位精度和实时性的要求, 提出一种基于Harris及改进局部二值模式(LBP)的特征匹配和目标定位快速算法. 首先采用Harris检测算法提取图像特征点; 然后提出一种新的特征点描述子定义方法, 先利用胡矩确定特征方向, 再根据特征方向对局部图像做标准化处理, 提取标准化局部图像LBP特征作为特征点描述子; 最后通过计算两张图像中各特征点描述子间的汉明距离实现特征匹配, 再根据匹配结果估计单应性矩阵, 定位目标在场景图像中的位置. 实验结果表明, 该算法匹配速度快、 定位精度高.  相似文献   

17.
]在SIFT局部特征的基础上,扩大了SIFT局部特征描述子,构造了半全局信息的背景环,并将背景环的互信息引入到相似性计算.实验结果表明,该方法与SIFT影像匹配算法相比,有效地提高了匹配的正确率,且对旋转图像的特等匹配具有一定鲁棒性;与全局配准算法相比较,提高了一倍以上的计算效率  相似文献   

18.
针对传统浮点型特征描述算法误匹配率高、匹配率低的问题,提出了一种基于尺度空间金字塔与AGAST(adaptive and generic accelerated segment test)快速特征提取相融合的局部二进制特征匹配算法(Agast-Adaboost local binary feature matching algorithm,ALBFMA).该算法首先构建高斯尺度空间金字塔,将AGAST与尺度空间融合并提取特征点,然后用改进的Adaboost算法对特征点进行二值描述,生成特征向量,从而提高该算法的匹配速率和匹配精度.实验结果表明:与已有算法相比,该算法具有匹配精度高的优点,并且对光照、尺度及旋转有良好的鲁棒性.  相似文献   

19.
As fractal image encoding algorithms can yield high-resolution reconstructed images at very high compression ratio, and therefore, have a great potential for improving the efficiency of image storage and image transmission. However, the baseline fractal encoding algorithm requires a great deal of time to complete the best matching search between the range and domain blocks, which greatly limits practical applications of the algorithm. In order to solve this problem, a necessary condition of the best matching search based on an image feature is proposed in this paper. The proposed method can reduce the search space significantly and excludes the most inappropriate domain blocks for each range block before carrying out the best matching search. Experimental results show that the proposed algorithm can produce good quality reconstructed images and requires much less time than the baseline encoding algorithm. Specifically, the new algorithm can speed up encoding by about 85 times with a loss of just 3 dB in the peak signal to noise ratio (PSNR), and yields compression ratios close to 34.  相似文献   

20.
针对传统移动机器人视觉图像分级匹配算法只能完成粗匹配, 导致最终匹配精度较低、 匹配时间较长等问题, 提出一种基于深度强化学习的移动机器人视觉图像分级匹配算法. 首先, 利用深度强化学习网络结构中的策略网络和价值网络, 共同指导浮动图像按正确方向移至参考图像; 其次, 在粗匹配过程中通过设计奖赏函数, 实现颜色特征粗匹配; 最后, 在粗匹配基础上, 利用改进尺度不变特征变换算法提取待匹配的图像局部特征, 按相似度进行移动机器人视觉图像分级匹配. 实验结果表明, 该算法可有效实现图像的粗匹配与精匹配, 在不同视角与尺度情况下特征检测的稳定性均较高, 匹配精度高、 时间短, 匹配后的图像质量较好, 提高了移动机器人的实际应用效果.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号