首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 62 毫秒
1.
基于网络最大流的立体匹配算法   总被引:5,自引:0,他引:5  
为得到立体图像对的全局最优匹配,将视差搜索范围离散化,与图像坐标一起构成三维空间网络。恰当定义网络各边的容量,使之兼顾立体匹配的相容性和光滑性约束,将立体匹配转化为网络优化问题。通过求解网络的最大流和最小切割,获得全局最优的视差分布数据。实验表明,算法生成的视差数据不仅连续稠密而且保留了细节信息。  相似文献   

2.
本文基于对匹配图象内允许的视差梯度施加限制的想法提出一种新的立体视觉匹配算法。匹配问题可表示为使受某些限制控制的函数达到最大的问题。这样便可用根据最优化理论所获得的标准化方法求出一个解。  相似文献   

3.
提出了基于区域的立体匹配算法,实现从彩色立体图像对中提取深度信息.其中利用平滑函数求取全局错误能量最小化获得的视差图更为可靠,但是计算时间也较长;而采用线性生长算法获得的视差图则计算时间短,但可靠性差.结果是利用滤波去掉了不可靠的视差估计,可以提高视差图的可靠度,还对算法生成的结果进行了比较.  相似文献   

4.
传统的立体匹配算法大都基于两幅图像像素点或者局部块的对应性,在单一尺度下求取视差图,但这不能很好地建模低纹理及重复纹理区域的对应关系,致使获得的视差图精度有限。为了改善上述问题,考虑到人眼视觉系统在不同尺度上处理所接收到的视觉信号,提出了跨尺度的重启动与随机游走算法。首先计算场景图像的匹配代价,其次利用超像素分割进行快速初始聚合,然后使用重启动与随机游走算法对其进行全局上的优化,最后采用跨尺度模型实现匹配代价的有效融合更新,继而获取场景图像的视差图。在Middlebury数据集上的实验仿真结果表明,相较于传统的跨尺度立体匹配算法,该算法能够有效地将场景图像在所有区域及非遮挡区域的加权平均误匹配率分别降低1个百分点和3个百分点,获得高精度的视差图。  相似文献   

5.
基于控制点约束及区域相关的立体匹配算法   总被引:2,自引:0,他引:2  
立体匹配是计算机视觉的关键问题.为了得到准确匹配的稠密视差图,通过对基于特征和基于区域立体匹配算法的讨论,结合这两种算法的优点,提出一种新的基于控制点及区域相关的立体匹配算法.该方法首先在利用Harris角点检测算法检测出角点的基础上,对角点进行立体匹配得到精确的匹配点对即控制点,然后在控制点的约束下对非角点像素进行基于区域相关的立体匹配,得到整体稠密的视差图.这样既缩小了匹配搜索空间,又保证了匹配的可靠性.  相似文献   

6.
通用亚像素边缘检测算法   总被引:3,自引:0,他引:3  
研究了针对不同边缘类型进行同步亚像素级检测的问题.通过详细分析3种基本边缘类型(阶跃型边缘、脉冲型边缘、屋脊型边缘)的特点,提出了一种基于形体质心思想的通用算法,并对其进行了严格证明.该算法能同时对这3种基本类型边缘进行亚像素级检测与定位,且不存在原理性误差.对算法进行离散化处理,给出了便于计算机实现的离散算法.通过实验验证了此算法的有效性,并分析了误差产生的原因.  相似文献   

7.
立体匹配通过计算和标识匹配图像的视差图来获得图像的深度信息,一般计算量大,无法满足实时性要求。本文聚焦立体匹配的匹配代价聚集和视差计算环节,在动态规划方法的基础上,提出了一种实时的立体匹配算法。根据连续性约束,提出了基于自适应形状窗口的快速匹配代价聚集算法,加速了臂长和匹配代价聚集的计算效率;利用边缘检测技术获得图像边界信息,修改动态规划的转移方程,使得边界像素可以在整个视差空间中选择视差值,降低边界处匹配视差的误匹配率。实验结果表明:通过结合上述两个步骤的改进算法,可以获得满足实时性要求、高质量的匹配视差图,整体的匹配准确率较高。  相似文献   

8.
基于小波变换的图像边缘检测算法及像素结构分析   总被引:1,自引:0,他引:1  
对基于多尺度小波变换的图像边缘检测算法进行了改进.通过处理小波变换后出现的负值解决了双边缘问题;通过处理两层邻域的像素点解决了边缘线间断问题,并与传统算法的结果进行了比较,结果表明,利用这一新的算法可使图像边缘更加光滑、边缘定位更精确.  相似文献   

9.
提出一种分层正交动态规划立体匹配算法.首先利用正交动态规划算法在低分辨率图像的DSI(disparity-space image)视差空间图中进行初匹配,然后在Delta DSI(delta disparity-spaceimage)视差变化空间图中进行精匹配,从而获得高分辨率图像的视差图.实验结果表明,该算法不仅可以改善传统动态规划算法产生的带状条纹瑕疵,而且匹配率高、速度快、应用范围广.  相似文献   

10.
基于区域增长的自适应窗口立体匹配算法   总被引:1,自引:1,他引:1  
针对基于区域的立体匹配算法支持窗口难以选择的问题, 提出一种新的自适应窗口区域立体匹配算法. 该区域增长的方法可以动态地获得形状和大小均具有自适应特性的支持窗口, 并通过区域视差范围估计、核心窗口视差近似、动态搜索步距调整等方法使算法得到改进. 研究结果表明: 该算法对于视差不连续和遮挡区域都有着良好的适应性;采用该算法获得的视差图像的准确度高达95%, 且计算时间缩短到5 s以内.  相似文献   

11.
从立体图像对中获取精确的三维信息需要进行相机建模、标定和图像点的匹配[1,2].提出了特征点的选取;利用金字塔图像结构进行立体匹配,以及对匹配点进行整体性检验的准则。实验表明,该算法匹配速度快,错误概率小,匹配点在整个景物中分布均匀。  相似文献   

12.
图像边缘是立体匹配中应用最广泛的特征基元之一,立体匹配对边缘检测的性能提出了更高的要求.该文针对立体匹配的要求提出了一种结合对称指数滤波与非线性Laplace算子的边缘检测方法,在获得良好边缘图像的同时,获取了边缘像素处的极性.该算法的提出为后续的立体匹配提供了基础.  相似文献   

13.
提出一种以图像片段为单位进行立体匹配的方法,与传统的以像素为单位的立体方法不同的是,本文使用图像的边缘信息将参考图像分成小的片段,同时在水平和垂直方向上以小的片段为单位进行立体匹配,然后进行视差图像的融合,提高了匹配的准确性.在片段内,本文将匹配代价分为高代价与低代价,以不同的计算方式统计两种代价值对整个片段的代价贡献,这种计算方式可以准确地匹配物体被部分遮挡时的情况;接下来对原参考图像进行低位数放大,对片段内的视差值根据低位数放大后的参考图像再次查找精确视差;最后,依据原始的参考图像,使用同色域均值滤波对获得的视差图进行填补与平滑操作.经实验证明,本方法具有算法运算复杂度低,速度快,匹配准确和物体的边缘视差清晰的特点,在Middlebury图像库的测试中获得了较好的实验结果.  相似文献   

14.
针对传统census变换在彩色图像匹配中精度不高,易受光照影响等缺陷,提出了一种彩色census变换匹配算法。首先,利用census变换窗口内的颜色距离标准偏差代替变换窗口中心像素的灰度值,再与邻域内颜色距离信息和邻域内颜色距离信息平均值之差进行census变换。然后,利用Hamming距离作为匹配代价函数,采用优胜全取策略(winner-take-all)和左右一致性校验得到视差数据,获得稠密视差图。实验表明,该算法可有效提高彩色图像匹配精度,实时性好,对非理想光照变化所引起的干扰具有较强鲁棒性。  相似文献   

15.
针对传统立体匹配算法受光照和纹理结构等变化的影响,匹配成功率低或容易出现匹配失败的问题,提出一种融合SAD和Census变换的双目立体图像匹配算法。该算法基于图像预处理,首先集成SAD和Census算法的优势,以取代单一匹配代价计算方法;然后,使用一种十字交叉代价聚合策略来提升匹配效果;最后,为验证本文算法的有效性,选择不同的实验场景,对不同分辨率的图像进行立体匹配的综合对比实验,实验结果表明本文算法在匹配效率和匹配精度等方面具有显著优势,适用于复杂场景中高质量视差图的生成。  相似文献   

16.
提出了利用金字塔图传播匹配的三目线段基元立体视觉方法。该方法中匹配起始三元组的选择建立在透视投影的可靠基础之上,而进行传播匹配大大限制了搜索范围,因而可以加速计算,并避免了可能的误匹配。传播匹配利用立体图像组在二值边界图像金字塔图中的结构相似性,而整个匹配结果的考察与认定是通过传播率的比较实现的。该方法能够有效地克服双目立体视觉方法的某些本质局限性,确保匹配结果精确可靠。  相似文献   

17.
采用基于视图协同优化算法解决视觉匹配问题,通过对双视图立体匹配的研究到多视图匹配的推广,利用视差平面拟合进行多个视差集的合并.利用奇异值分解法解决线性方程,建立排除异常点的判别规则,解决遮挡及稀疏纹理的问题.实验结果表明:该协同优化算法是有效的,提高了匹配的精度.  相似文献   

18.
陆军  方莹  张鑫 《北京理工大学学报》2015,35(12):1274-1279
针对传统动态规划立体匹配算法具有速度快的优点,但常伴随条纹现象的问题,设计了一种AD(absolute difference)与Census变换相融合的相似性测度算法,结合新的线性平滑项和动态变搜索半径的方法有效避免了上述问题,提高了匹配的速度和准确性.遮挡现象在双目视觉中难以避免,针对这一难题,采用左右一致性的遮挡检测算法对遮挡区域进行遮挡检测,设计了一种基于颜色和距离相似性的视差优化插值算法,改善了遮挡区域的视差估计.实验结果表明,该立体匹配算法能够快速、准确地估计出视差值,满足立体重构的需要.   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号