首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
佘科  谢红 《应用科技》2011,38(5):47-51
针对传统图割立体匹配算法耗时太长以及动态规划立体匹配算法匹配精度不高,且视差图带有条纹瑕疵的问题,提出了一种基于动态规划和图像分割的立体匹配算法.采用自适应多阈值图像分割算法对参考图像进行高效可靠的区域分割,提取边界,使用多种子点动态规划算法精细求取边界上点的视差,并以区域为单元用图割立体匹配算法求取区域内各点的视差,拟合得到图像对的视差图.通过对比,实验结果表明:此算法较传统图割法匹配速度有明显提高,且可以得到匹配精度较高的稠密视差.  相似文献   

2.
提出一种分层正交动态规划立体匹配算法.首先利用正交动态规划算法在低分辨率图像的DSI(disparity-space image)视差空间图中进行初匹配,然后在Delta DSI(delta disparity-spaceimage)视差变化空间图中进行精匹配,从而获得高分辨率图像的视差图.实验结果表明,该算法不仅可以改善传统动态规划算法产生的带状条纹瑕疵,而且匹配率高、速度快、应用范围广.  相似文献   

3.
立体匹配通过计算和标识匹配图像的视差图来获得图像的深度信息,一般计算量大,无法满足实时性要求。本文聚焦立体匹配的匹配代价聚集和视差计算环节,在动态规划方法的基础上,提出了一种实时的立体匹配算法。根据连续性约束,提出了基于自适应形状窗口的快速匹配代价聚集算法,加速了臂长和匹配代价聚集的计算效率;利用边缘检测技术获得图像边界信息,修改动态规划的转移方程,使得边界像素可以在整个视差空间中选择视差值,降低边界处匹配视差的误匹配率。实验结果表明:通过结合上述两个步骤的改进算法,可以获得满足实时性要求、高质量的匹配视差图,整体的匹配准确率较高。  相似文献   

4.
针对立体匹配中在低纹理及遮挡区域容易导致误匹配的问题,提出一种改进的基于图像分割的立体匹配算法.首先,采用自适应多边形窗口来对左右图像进行初始匹配,同时通过左右一致性检测得到可靠匹配点;然后根据颜色信息将图像分割为不同区域,运用得到的可靠点计算不同区域的视差模板;将得到的模板结果作为视差估计和能量函数的参考项构造能量函数,使用树形动态规划最小化能量函数计算最优视差.将该算法应用于标准库进行实验,结果表明该算法能够有效地匹配图像,具有较高的匹配精度.  相似文献   

5.
为解决局部立体匹配算法存在深度图边界区域不连续问题,本文提出了一种基于边缘约束的自适应引导滤波立体匹配算法。将梯度值和颜色信息结合进行匹配代价计算;然后,基于图像边缘局部特征,对图像的像素点基于颜色阈值和边界条件构建自适应十字交叉区域,并对自适应窗口进行引导滤波代价聚合;最后,采用胜者为王策略(winner takes all,WTA)进行视差计算,对视差图进行视差精细化处理。实验结果表明:本文算法生成的深度图能够更好地保留细节特征,边界纹理区域的误匹配现象明显改善,可有效降低误匹配率,本文算法在Middlebury数据集误匹配率仅为5.22%。  相似文献   

6.
针对小基高比立体匹配中的"黏合"现象和深度精度问题,提出一种小基高比立体匹配方法.该方法通过将自适应窗口技术和多窗口策略相结合为参考图像确定匹配窗口;然后根据规范化互相关函数和"胜者全取"策略计算整数级视差;再以整数级视差为基础利用基于二分法的亚像素匹配方法计算亚像级视差;最后采用基于图像分割的迭代传播方法以获得稠密视差图.实验结果表明:该立体匹配算法减少了小基高比匹配中的"黏合"现象,同时获得了稠密的高精度亚像素级视差,其亚像素精度可优于1/20个像元.  相似文献   

7.
视差图误差检测与校正的通用快速算法   总被引:2,自引:0,他引:2  
为了获取精确的立体匹配结果 ,提出了一种通用的视差图误差检测与校正算法。算法首先定义一个新的全局顺序匹配约束 ;然后将其用于视差图后处理过程 (而不是视差计算过程 )中 ,以检测出视差图中的匹配交叉区域 ;最后提出一种零交叉校正方法 ,校正其中的误匹配点。通过对一组真实立体图像序列及其视差图的实验 ,进一步证明了该算法的有效性。该算法可以作为视差图后处理过程附加在各种立体匹配算法之后  相似文献   

8.
针对立体匹配时视差不连续区、倾斜平面及非前向平行平面误匹配较高的问题,提出了一种基于改进Patchmatch及切片采样粒子置信度的立体匹配算法.定义了具有边缘特性的Patchmatch相似性函数,并建立基于Patchmatch的非前向平行平面视差平面估计模型.利用粒子置信度传播代替原有的最近邻搜索,使用较少的粒子近似目标分布,并采用切片采样马尔可夫链蒙特卡罗方法解决传播过程中粒子重采样更新问题.Middlebury图像数据集测试表明,该算法能够降低视差不连续区域的误匹配,有效地提高了倾斜平面及非前向平行平面图像的匹配精度.  相似文献   

9.
计算机双目视觉技术是自然光条件下可使用的非接触测量方法,对于逆向工程、工业检测、三维重建、移动机器人导航等领域都有重要的实际应用价值.针对动态规划立体匹配中存在的条纹瑕疵问题,本文提出一种新的动态规划立体匹配方法,设计了新型矩形窗口计算匹配代价,构建基于遮挡约束的优化函数,在降维低分辨率图像上求取控制点抑制条纹瑕疵.选择Middlebury平台上的4个组的图像作为实验图像,将基于置信传递的立体匹配方法和基于图形切割的立体匹配方法作为比较方法,对本文方法的性能进行验证. 4个组的实验图像的立体匹配实验结果表明:基于控制点修正的动态规划立体匹配方法,获得的视差图像连续稠密、坏像素比例低,明显优于两种比较方法.应用本文方法,对比基于图形切割的立体匹配方法(GC)和基于置信传递的立体匹配方法(BP)获得的视差图像,坏像素比例分别下降了1~2个百分点.  相似文献   

10.
立体匹配是视觉导航、三维重建的信息基础.为了降低光照失真对匹配代价计算的影响,消除引导滤波平滑图像时产生的光晕,提出了一种多信息代价计算融合显著梯度的立体匹配算法.设计了融合颜色特征、梯度信息及梯度角度的匹配代价计算算法,对左右视图进行匹配代价计算;然后进行显著性处理,计算显著图的梯度信息,得到图像的局部平均梯度;遍历全图得到全局局部平均梯度作为边缘判断条件,自适应调整引导滤波的正则化参数.实验结果表明,算法有效改善了边缘轮廓及平滑区域的视差,降低了误匹配率.  相似文献   

11.
传统的立体匹配算法大都基于两幅图像像素点或者局部块的对应性,在单一尺度下求取视差图,但这不能很好地建模低纹理及重复纹理区域的对应关系,致使获得的视差图精度有限。为了改善上述问题,考虑到人眼视觉系统在不同尺度上处理所接收到的视觉信号,提出了跨尺度的重启动与随机游走算法。首先计算场景图像的匹配代价,其次利用超像素分割进行快速初始聚合,然后使用重启动与随机游走算法对其进行全局上的优化,最后采用跨尺度模型实现匹配代价的有效融合更新,继而获取场景图像的视差图。在Middlebury数据集上的实验仿真结果表明,相较于传统的跨尺度立体匹配算法,该算法能够有效地将场景图像在所有区域及非遮挡区域的加权平均误匹配率分别降低1个百分点和3个百分点,获得高精度的视差图。  相似文献   

12.
本文提出一种面向非结构化环境的快速立体视觉稠密匹配算法,能有效解决弱纹理、岩石局部遮挡条件下的精确立体视觉稠密匹配问题。该算法利用外极线约束缩小搜索区域的候选匹配点,有效解决遮挡和深度不连续的影响,利用Mean-Shift算法构建一个自适应阈值函数来分割图像,再对稠密视差图进行初值优化,提高了高相似度与弱纹理区域内的视差估计精度。利用本算法对实际环境图像和标准测试图像进行处理,实验结果表明对环境中的遮挡和弱纹理问题具有良好的鲁棒性,在室内外环境下均能够获取高质量稠密视差图。  相似文献   

13.
为解决传统极限距离立体匹配算法在深度不连续区域,以及光照差异增大时出现匹配误差大幅升高等问题,提出基于自适应权重极限距离变换的立体匹配算法。在Delta-Gama对数空间下,该算法首先根据初始匹配结果计算立体图像对Gama校正系数,基于光照差异修正极线距离变换相似度函数带宽,其次基于权重相似度自适应选取极线端点,确定分割系数;最后利用置信度传播算法计算视差图。实验结果表明,本文算法能够有效提高深度变换区域的匹配准确度,同时有效降低光照差异图像的误匹配效率。相对于当前先进算法,本文算法的匹配率比当前先进算法提高至少40%。  相似文献   

14.
基于网络最大流的立体匹配算法   总被引:5,自引:0,他引:5  
为得到立体图像对的全局最优匹配,将视差搜索范围离散化,与图像坐标一起构成三维空间网络。恰当定义网络各边的容量,使之兼顾立体匹配的相容性和光滑性约束,将立体匹配转化为网络优化问题。通过求解网络的最大流和最小切割,获得全局最优的视差分布数据。实验表明,算法生成的视差数据不仅连续稠密而且保留了细节信息。  相似文献   

15.
为解决在深度不连续区域传统极线距离立体匹配算法,光照差异增大时出现匹配误差大幅升高等问题,提出基于自适应权重极线距离变换的立体匹配算法。在Delta-Gama对数空间下,该算法首先根据初始匹配结果计算立体图像对Gama校正系数,基于光照差异修正极线距离变换相似度函数带宽,其次基于权重相似度自适应选取极线端点,确定分割系数;最后利用置信度传播算法计算视差图。实验结果表明,所提算法能够有效提高深度变换区域的匹配准确度,同时有效降低光照差异图像的误匹配率。相对于当前先进算法,所提算法的匹配率比当前先进算法提高至少40%。  相似文献   

16.
针对立体匹配在稀疏纹理、重复纹理、深度不连续和遮挡区域存在的问题,提出了一种高效的立体匹配算法.该算法主要由像素匹配代价计算和视差图全局优化2个步骤组成.为了大幅减少当前算法在场景深度不连续处所产生的过渡平滑现象和在稀疏纹理处产生的错误匹配,采用基于图像采样噪声无关的自适应权重加窗匹配算法.为了求解遮挡区域和不连续性区域的像素视差,使用遮挡和平滑惩罚代价来约束整幅视差图,并采用基于图像分割的能量最小化方法求取最优解.实验结果表明,相比于局部和全局算法,该算法可以更快且准确地计算稀疏纹理、不连续性和遮挡区域的像素视差.  相似文献   

17.
基于控制点约束及区域相关的立体匹配算法   总被引:2,自引:0,他引:2  
立体匹配是计算机视觉的关键问题.为了得到准确匹配的稠密视差图,通过对基于特征和基于区域立体匹配算法的讨论,结合这两种算法的优点,提出一种新的基于控制点及区域相关的立体匹配算法.该方法首先在利用Harris角点检测算法检测出角点的基础上,对角点进行立体匹配得到精确的匹配点对即控制点,然后在控制点的约束下对非角点像素进行基于区域相关的立体匹配,得到整体稠密的视差图.这样既缩小了匹配搜索空间,又保证了匹配的可靠性.  相似文献   

18.
针对传统Census变换窗口中心点灰度值易受噪声影响而导致全局匹配精度低等问题,设计了一种基于改进Census变换的双目立体匹配算法.首先采用双边滤波的模板值替代传统Census变换窗口中心点的灰度值,为了增强初始代价计算的可靠性,加入Sobel算子,将其与灰度绝对误差和算法的匹配代价进行代价融合;然后选择动态十字交叉域建立相邻视差的联系;最后运用赢家通吃策略选择最佳的视差,并采用左右一致性检测和引导滤波优化视差图.实验结果表明,在无噪声情况下,改进算法的平均误匹配率比传统Census变换的降低了约46%,含噪声情况下降低了约53%,说明改进算法有较好的匹配精度和抗噪能力.  相似文献   

19.
针对立体匹配中弱纹理区域和深度不连续区域的匹配精度问题,提出了一种基于多特征融合的树形结构代价聚合立体匹配算法.首先,融合图像颜色、梯度和图像的Census变换进行匹配代价计算;然后,在由原始图像生成的最小生成树上进行匹配代价聚合,并使用多方向扫描线优化,进一步提升立体匹配的精确度;最后,使用左右一致性检测标记出误匹配点,并进行视差修正.为了验证该算法的有效性,使用Middlebury测试集提供的测试图像进行测试,平均误匹配率为6.38%;分别对2种场景实际拍摄图像进行深度信息提取误差率测试,测试得到2种场景的测距误差率分别为5.76%和5.55%,证明了该算法的实用性.  相似文献   

20.
提出一种基于边缘图像特征和像素类型标记的立体匹配算法,利用边缘信息及视差在边缘和非边缘区域的分布特征,指导有效初始视差在扫描线方向的传递。并且根据标记值对部分不可靠的像素点进行反向赋值和边缘内中值滤波处理,达到视差精化目的。实验证明这种方法对于整体视差范围不太大的远距离图像,能够获得较为精确的稠密视差图。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号