首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对小基高比立体匹配中的"黏合"现象和深度精度问题,提出一种小基高比立体匹配方法.该方法通过将自适应窗口技术和多窗口策略相结合为参考图像确定匹配窗口;然后根据规范化互相关函数和"胜者全取"策略计算整数级视差;再以整数级视差为基础利用基于二分法的亚像素匹配方法计算亚像级视差;最后采用基于图像分割的迭代传播方法以获得稠密视差图.实验结果表明:该立体匹配算法减少了小基高比匹配中的"黏合"现象,同时获得了稠密的高精度亚像素级视差,其亚像素精度可优于1/20个像元.  相似文献   

2.
提出一种基于迭代传播的方法求解小基高比立体匹配中的相关基本等式以解决立体匹配中存在的黏合现象.该方法首先根据启发式信息估计实际立体匹配系统中整数级视差的误差水平;其次,根据Morozov原理设计一个迭代正则参数选择方法对相关基本等式进行正则化处理并建立目标泛函;再次,利用延迟扩散定点迭代方法获得目标泛函的迭代传播等式;最后,通过共轭梯度法对该等式进行迭代求解.实验结果表明:该方法减少了小基高比立体匹配中的黏合现象,其视差图的准确率可达95%以上,且像元匹配差异精度优于1/10个像元.  相似文献   

3.
为提高双目立体匹配算法在弱纹理区域的匹配精度和多尺度空间的匹配一致性,提出基于窗口内像素均值信息判断和自适应权重的改进Census变换算法进行代价计算,提高像素在视差不连续区域的匹配精度.代价聚合阶段引入高斯金字塔结构,将引导图滤波算法融合到多尺度模型中,并添加正则化约束来提高对弱纹理区域的匹配一致性;视差选择阶段中,采用一系列优化方法如误匹配点检测、区域投票策略和亚像素增强等来提高匹配的正确率.实验结果表明,该算法在Middlebury测试集上的平均误码率为5.91%,在弱纹理区域和视差不连续区域能得到较好的视差图,且具有较好的鲁棒性.  相似文献   

4.
为了消除双目立体歧义,提出一种基于DAISY特征和改进型权重核的快速立体匹配。首先,稠密构造局部特征DAISY描述计算初始匹配成本;基于Epanechnikov权重核双通聚合消除特征相似歧义得可靠匹配代价;优胜者全选逐像素优化初始视差。然后,利用改进型双边滤波、对称一致性验证和多方向权重视差外插等策略改善视差。实验表明,该方法能有效提高匹配精度,得到分段光滑、精度高的稠密视差,且结构简单、复杂度低。  相似文献   

5.
针对立体匹配在稀疏纹理、重复纹理、深度不连续和遮挡区域存在的问题,提出了一种高效的立体匹配算法.该算法主要由像素匹配代价计算和视差图全局优化2个步骤组成.为了大幅减少当前算法在场景深度不连续处所产生的过渡平滑现象和在稀疏纹理处产生的错误匹配,采用基于图像采样噪声无关的自适应权重加窗匹配算法.为了求解遮挡区域和不连续性区域的像素视差,使用遮挡和平滑惩罚代价来约束整幅视差图,并采用基于图像分割的能量最小化方法求取最优解.实验结果表明,相比于局部和全局算法,该算法可以更快且准确地计算稀疏纹理、不连续性和遮挡区域的像素视差.  相似文献   

6.
一种基于Census变换的可变权值立体匹配算法   总被引:1,自引:0,他引:1  
针对传统基于Census变换立体匹配算法精度不高的问题,提出了一种基于改进Census变换的可变权值立体匹配算法. 在分析传统Census变换缺陷的基础上,提出利用最小均匀度子邻域均值代替中心像素灰度值进行Census变换,可有效增强算法的抗干扰能力. 通过加权区域海明距离均值和标准差作为相似性测度进行立体匹配,减少误匹配,提高匹配精度并通过左右一致性检测和遮挡填充,生成最终视差图. 实验结果表明,该算法鲁棒性得到增强,在深度不连续区域也可以得到准确的视差.   相似文献   

7.
立体匹配通过计算和标识匹配图像的视差图来获得图像的深度信息,一般计算量大,无法满足实时性要求。本文聚焦立体匹配的匹配代价聚集和视差计算环节,在动态规划方法的基础上,提出了一种实时的立体匹配算法。根据连续性约束,提出了基于自适应形状窗口的快速匹配代价聚集算法,加速了臂长和匹配代价聚集的计算效率;利用边缘检测技术获得图像边界信息,修改动态规划的转移方程,使得边界像素可以在整个视差空间中选择视差值,降低边界处匹配视差的误匹配率。实验结果表明:通过结合上述两个步骤的改进算法,可以获得满足实时性要求、高质量的匹配视差图,整体的匹配准确率较高。  相似文献   

8.
改进rank变换的多窗口彩色图像立体匹配算法   总被引:1,自引:0,他引:1  
为克服环境变化和双目相机的差异带来的干扰,针对传统立体匹配算法在视差不连续区域存在误匹配率高等问题,提出一种在rank变换域中对彩色图像进行多窗口匹配的算法.首先对标准图像库中的彩色图像进行分等级的改进rank变换,将图像从彩色空间变换到秩空间;然后采用改进的绝对值指数方法计算像素的颜色相似性,减少噪声和光线差异的干扰;最后利用快速多窗口算法进行匹配.实验证明该文算法有较强的抗噪性,能获得实时鲁棒的匹配结果.相对于固定窗口非参数变换匹配算法在视差不连续区域匹配精度提高了18.5%.  相似文献   

9.
为了解决相对定向过程中匹配得到定向点的合理定权问题,提高解算的精度和可靠性,提出了结合赫尔默特方差分量估计和选权迭代粗差剔除的相对定向方法.在格鲁伯区域,通过SURF(快速鲁棒)特征匹配和RANSAC(随机抽取一致性)算法剔除误匹配,提取大量亚像素级精度的相对定向点,利用赫尔默特方差分量估计法估算6个格鲁伯区域对应6组观测值的单位权中误差,并给其定权,然后使用选权迭代法进行粗差剔除,最终得到相对方位元素.利用相对方位元素校正后,航空影像和无人机影像上下视差最大值分别由传统方法的1.045像素和2.093像素减小到0.376像素和0.766像素;利用半全局匹配方法生成的视差图,明显优于传统方法生成的视差图.  相似文献   

10.
基于控制点约束及区域相关的立体匹配算法   总被引:2,自引:0,他引:2  
立体匹配是计算机视觉的关键问题.为了得到准确匹配的稠密视差图,通过对基于特征和基于区域立体匹配算法的讨论,结合这两种算法的优点,提出一种新的基于控制点及区域相关的立体匹配算法.该方法首先在利用Harris角点检测算法检测出角点的基础上,对角点进行立体匹配得到精确的匹配点对即控制点,然后在控制点的约束下对非角点像素进行基于区域相关的立体匹配,得到整体稠密的视差图.这样既缩小了匹配搜索空间,又保证了匹配的可靠性.  相似文献   

11.
双目立体视觉匹配通过两幅具有一定视差的图像获得精确、稠密的视差图。为了解决动态规划立体匹配算法橫条纹瑕疵以及精度低的问题,提出了一种基于多邻域非线性扩散的立体匹配算法。该算法采用AD测度函数构建视差空间,根据行列像素之间的约束关系,基于非线性扩散的代价聚合方法,通过图像边缘的动态优化寻求全局能量函数最优值得到稠密视差图。在Middlebury测试集上的实验结果表明,该算法的平均误匹配率为5.60%,相比IIDP动态规划全局匹配算法,精度提高了39.9%,有效地解决了横向条纹问题,改善了边缘模糊情况,且提升了算法的稳定性。与其他全局匹配算法相比,本文算法误匹配率降低了38.2%,在图像参数的11个指标中有9项指标排名第1。  相似文献   

12.
为提高车载双目系统户外工作性能,提出了一种车载双目系统立体匹配算法。在代价计算阶段,提出了一种3bitCensus变换,该变换提高了对局部特征的描述能力并具有较强的鲁棒性;在代价聚合阶段,提出了基于边缘截断的自适应窗口聚合算法,该算法能够根据局部特征和边缘信息自适应的调节聚合窗口,提高了算法匹配精度;在视差计算阶段,利用跳跃式视差计算方法,进一步提高了计算效率。实验证明:基于3bit-Census变换+基于边缘截断的自适应聚合+跳跃式视差计算的立体匹配结构能够有效提高双目系统的鲁棒性、匹配精度及计算效率,适用于车载双目系统。  相似文献   

13.
针对传统局部立体匹配算法在深度不连续区域和低纹理区域匹配精度不高的问题,提出了一种基于SIFT描述子的自适应聚合权重立体匹配算法.算法首先采用梯度域的幅值和相位获取初始匹配代价;然后利用相似性区域判决准则获得各个中心点的自适应矩形聚合窗口,并利用各点SIFT描述子的L1范数进行自适应聚合权重计算.仿真实验结果表明,该算法能够有效地提高低纹理区域和深度不连续区域的立体匹配精度,获得较高精度的视差图.  相似文献   

14.
针对双目光栅投影测量中深度不连续及边界阴影处的误匹配导致测量误差大的问题,提出区域分割的亚像素相位立体匹配算法。该算法采用由粗到精的匹配策略,在标准极线几何、相位等约束下获得粗匹配点。根据变形栅线图、展开相位图的特点将粗匹配结果分为不包含边界阴影的深度连续区域、边界阴影及深度不连续区域,分别使用加窗匹配测度最小二乘法和外插法获得亚像素匹配点。实验结果表明:该算法能有效消除传统匹配算法在深度不连续处的视差平滑过渡;与传统点基元匹配算法相比,该算法在边界阴影及深度不连续处的平均高度相对误差减小了62%~69%,与传统模板匹配算法相比,该算法在边界阴影及深度不连续处的平均高度相对误差减小了57%~61%,在深度连续处的匹配精度提高了3~4倍。该算法有效提高了相位立体匹配的精度,对提高目前三维测量技术精度具有重要意义。  相似文献   

15.
视差图误差检测与校正的通用快速算法   总被引:2,自引:0,他引:2  
为了获取精确的立体匹配结果 ,提出了一种通用的视差图误差检测与校正算法。算法首先定义一个新的全局顺序匹配约束 ;然后将其用于视差图后处理过程 (而不是视差计算过程 )中 ,以检测出视差图中的匹配交叉区域 ;最后提出一种零交叉校正方法 ,校正其中的误匹配点。通过对一组真实立体图像序列及其视差图的实验 ,进一步证明了该算法的有效性。该算法可以作为视差图后处理过程附加在各种立体匹配算法之后  相似文献   

16.
针对立体匹配中在低纹理及遮挡区域容易导致误匹配的问题,提出一种改进的基于图像分割的立体匹配算法.首先,采用自适应多边形窗口来对左右图像进行初始匹配,同时通过左右一致性检测得到可靠匹配点;然后根据颜色信息将图像分割为不同区域,运用得到的可靠点计算不同区域的视差模板;将得到的模板结果作为视差估计和能量函数的参考项构造能量函数,使用树形动态规划最小化能量函数计算最优视差.将该算法应用于标准库进行实验,结果表明该算法能够有效地匹配图像,具有较高的匹配精度.  相似文献   

17.
传统的立体匹配算法大都基于两幅图像像素点或者局部块的对应性,在单一尺度下求取视差图,但这不能很好地建模低纹理及重复纹理区域的对应关系,致使获得的视差图精度有限。为了改善上述问题,考虑到人眼视觉系统在不同尺度上处理所接收到的视觉信号,提出了跨尺度的重启动与随机游走算法。首先计算场景图像的匹配代价,其次利用超像素分割进行快速初始聚合,然后使用重启动与随机游走算法对其进行全局上的优化,最后采用跨尺度模型实现匹配代价的有效融合更新,继而获取场景图像的视差图。在Middlebury数据集上的实验仿真结果表明,相较于传统的跨尺度立体匹配算法,该算法能够有效地将场景图像在所有区域及非遮挡区域的加权平均误匹配率分别降低1个百分点和3个百分点,获得高精度的视差图。  相似文献   

18.
佘科  谢红 《应用科技》2011,38(5):47-51
针对传统图割立体匹配算法耗时太长以及动态规划立体匹配算法匹配精度不高,且视差图带有条纹瑕疵的问题,提出了一种基于动态规划和图像分割的立体匹配算法.采用自适应多阈值图像分割算法对参考图像进行高效可靠的区域分割,提取边界,使用多种子点动态规划算法精细求取边界上点的视差,并以区域为单元用图割立体匹配算法求取区域内各点的视差,拟合得到图像对的视差图.通过对比,实验结果表明:此算法较传统图割法匹配速度有明显提高,且可以得到匹配精度较高的稠密视差.  相似文献   

19.
为了提高无纹理区域视差计算结果, 在利用光场子孔径图像立体匹配估计无纹理区域的视差时, 采用量化的光场子孔径图像之间的几何关系代替像素值进行立体匹配。根据光场子孔径图像之间的几何关系, 计算像素点的极线分割比, 用极线分割比代替子孔径图像像素值, 提高了像素可区分性。实验结果表明, 利用分割比图像得到的视差图结果明显优于利用子孔径图像得到的结果。  相似文献   

20.
采用基于视图协同优化算法解决视觉匹配问题,通过对双视图立体匹配的研究到多视图匹配的推广,利用视差平面拟合进行多个视差集的合并.利用奇异值分解法解决线性方程,建立排除异常点的判别规则,解决遮挡及稀疏纹理的问题.实验结果表明:该协同优化算法是有效的,提高了匹配的精度.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号