首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
为提高双目立体匹配算法在弱纹理区域的匹配精度和多尺度空间的匹配一致性,提出基于窗口内像素均值信息判断和自适应权重的改进Census变换算法进行代价计算,提高像素在视差不连续区域的匹配精度.代价聚合阶段引入高斯金字塔结构,将引导图滤波算法融合到多尺度模型中,并添加正则化约束来提高对弱纹理区域的匹配一致性;视差选择阶段中,采用一系列优化方法如误匹配点检测、区域投票策略和亚像素增强等来提高匹配的正确率.实验结果表明,该算法在Middlebury测试集上的平均误码率为5.91%,在弱纹理区域和视差不连续区域能得到较好的视差图,且具有较好的鲁棒性.  相似文献   

2.
针对立体匹配中在低纹理及遮挡区域容易导致误匹配的问题,提出一种改进的基于图像分割的立体匹配算法.首先,采用自适应多边形窗口来对左右图像进行初始匹配,同时通过左右一致性检测得到可靠匹配点;然后根据颜色信息将图像分割为不同区域,运用得到的可靠点计算不同区域的视差模板;将得到的模板结果作为视差估计和能量函数的参考项构造能量函数,使用树形动态规划最小化能量函数计算最优视差.将该算法应用于标准库进行实验,结果表明该算法能够有效地匹配图像,具有较高的匹配精度.  相似文献   

3.
为解决传统极限距离立体匹配算法在深度不连续区域,以及光照差异增大时出现匹配误差大幅升高等问题,提出基于自适应权重极限距离变换的立体匹配算法。在Delta-Gama对数空间下,该算法首先根据初始匹配结果计算立体图像对Gama校正系数,基于光照差异修正极线距离变换相似度函数带宽,其次基于权重相似度自适应选取极线端点,确定分割系数;最后利用置信度传播算法计算视差图。实验结果表明,本文算法能够有效提高深度变换区域的匹配准确度,同时有效降低光照差异图像的误匹配效率。相对于当前先进算法,本文算法的匹配率比当前先进算法提高至少40%。  相似文献   

4.
基于区域增长的自适应窗口立体匹配算法   总被引:1,自引:1,他引:1  
针对基于区域的立体匹配算法支持窗口难以选择的问题, 提出一种新的自适应窗口区域立体匹配算法. 该区域增长的方法可以动态地获得形状和大小均具有自适应特性的支持窗口, 并通过区域视差范围估计、核心窗口视差近似、动态搜索步距调整等方法使算法得到改进. 研究结果表明: 该算法对于视差不连续和遮挡区域都有着良好的适应性;采用该算法获得的视差图像的准确度高达95%, 且计算时间缩短到5 s以内.  相似文献   

5.
一种基于Census变换的可变权值立体匹配算法   总被引:1,自引:0,他引:1  
针对传统基于Census变换立体匹配算法精度不高的问题,提出了一种基于改进Census变换的可变权值立体匹配算法. 在分析传统Census变换缺陷的基础上,提出利用最小均匀度子邻域均值代替中心像素灰度值进行Census变换,可有效增强算法的抗干扰能力. 通过加权区域海明距离均值和标准差作为相似性测度进行立体匹配,减少误匹配,提高匹配精度并通过左右一致性检测和遮挡填充,生成最终视差图. 实验结果表明,该算法鲁棒性得到增强,在深度不连续区域也可以得到准确的视差.   相似文献   

6.
为解决在深度不连续区域传统极线距离立体匹配算法,光照差异增大时出现匹配误差大幅升高等问题,提出基于自适应权重极线距离变换的立体匹配算法。在Delta-Gama对数空间下,该算法首先根据初始匹配结果计算立体图像对Gama校正系数,基于光照差异修正极线距离变换相似度函数带宽,其次基于权重相似度自适应选取极线端点,确定分割系数;最后利用置信度传播算法计算视差图。实验结果表明,所提算法能够有效提高深度变换区域的匹配准确度,同时有效降低光照差异图像的误匹配率。相对于当前先进算法,所提算法的匹配率比当前先进算法提高至少40%。  相似文献   

7.
针对立体匹配中弱纹理区域和深度不连续区域的匹配精度问题,提出了一种基于多特征融合的树形结构代价聚合立体匹配算法.首先,融合图像颜色、梯度和图像的Census变换进行匹配代价计算;然后,在由原始图像生成的最小生成树上进行匹配代价聚合,并使用多方向扫描线优化,进一步提升立体匹配的精确度;最后,使用左右一致性检测标记出误匹配点,并进行视差修正.为了验证该算法的有效性,使用Middlebury测试集提供的测试图像进行测试,平均误匹配率为6.38%;分别对2种场景实际拍摄图像进行深度信息提取误差率测试,测试得到2种场景的测距误差率分别为5.76%和5.55%,证明了该算法的实用性.  相似文献   

8.
为解决局部立体匹配算法存在深度图边界区域不连续问题,本文提出了一种基于边缘约束的自适应引导滤波立体匹配算法。将梯度值和颜色信息结合进行匹配代价计算;然后,基于图像边缘局部特征,对图像的像素点基于颜色阈值和边界条件构建自适应十字交叉区域,并对自适应窗口进行引导滤波代价聚合;最后,采用胜者为王策略(winner takes all,WTA)进行视差计算,对视差图进行视差精细化处理。实验结果表明:本文算法生成的深度图能够更好地保留细节特征,边界纹理区域的误匹配现象明显改善,可有效降低误匹配率,本文算法在Middlebury数据集误匹配率仅为5.22%。  相似文献   

9.
目前双目匹配算法多采用正面平行的聚集窗口假设(Frontal-Parallel Assumption),但是这种假设不符合实际场景中的倾斜平面.针对实际场景多为倾斜平面的问题,提出一种基于交叉倾斜聚集窗口的局部匹配算法,将实际场景中的斜面和视差空间中的视差平面建立一种数学模型,该算法能够快速找到视差空间中聚集窗口的视差平面信息,通过在KITTI公共评估网站上进行测试,实验结果表明提出的算法能够很好地提高对场景中倾斜平面的匹配精度且有较高的执行效率.  相似文献   

10.
基于频域的视差估算   总被引:2,自引:0,他引:2  
采用一种广义的小波变换——多尺度傅立叶变换(MFT)求取视差,实现了对基于相位的匹配算法的改进,避免了带通滤波器中心频率和图像特征频率不一致的问题,并且能够直接计算二维视差,使像对中的图像无需经过相对和绝对定向就可进行匹配.在采用了FFT算法之后,本算法可达到较高的效率.实验结果证明了本算法是切实可行的.  相似文献   

11.
佘科  谢红 《应用科技》2011,38(5):47-51
针对传统图割立体匹配算法耗时太长以及动态规划立体匹配算法匹配精度不高,且视差图带有条纹瑕疵的问题,提出了一种基于动态规划和图像分割的立体匹配算法.采用自适应多阈值图像分割算法对参考图像进行高效可靠的区域分割,提取边界,使用多种子点动态规划算法精细求取边界上点的视差,并以区域为单元用图割立体匹配算法求取区域内各点的视差,拟合得到图像对的视差图.通过对比,实验结果表明:此算法较传统图割法匹配速度有明显提高,且可以得到匹配精度较高的稠密视差.  相似文献   

12.
针对立体匹配在稀疏纹理、重复纹理、深度不连续和遮挡区域存在的问题,提出了一种高效的立体匹配算法.该算法主要由像素匹配代价计算和视差图全局优化2个步骤组成.为了大幅减少当前算法在场景深度不连续处所产生的过渡平滑现象和在稀疏纹理处产生的错误匹配,采用基于图像采样噪声无关的自适应权重加窗匹配算法.为了求解遮挡区域和不连续性区域的像素视差,使用遮挡和平滑惩罚代价来约束整幅视差图,并采用基于图像分割的能量最小化方法求取最优解.实验结果表明,相比于局部和全局算法,该算法可以更快且准确地计算稀疏纹理、不连续性和遮挡区域的像素视差.  相似文献   

13.
立体匹配通过计算和标识匹配图像的视差图来获得图像的深度信息,一般计算量大,无法满足实时性要求。本文聚焦立体匹配的匹配代价聚集和视差计算环节,在动态规划方法的基础上,提出了一种实时的立体匹配算法。根据连续性约束,提出了基于自适应形状窗口的快速匹配代价聚集算法,加速了臂长和匹配代价聚集的计算效率;利用边缘检测技术获得图像边界信息,修改动态规划的转移方程,使得边界像素可以在整个视差空间中选择视差值,降低边界处匹配视差的误匹配率。实验结果表明:通过结合上述两个步骤的改进算法,可以获得满足实时性要求、高质量的匹配视差图,整体的匹配准确率较高。  相似文献   

14.
针对传统局部立体匹配算法在深度不连续区域和低纹理区域匹配精度不高的问题,提出了一种基于SIFT描述子的自适应聚合权重立体匹配算法.算法首先采用梯度域的幅值和相位获取初始匹配代价;然后利用相似性区域判决准则获得各个中心点的自适应矩形聚合窗口,并利用各点SIFT描述子的L1范数进行自适应聚合权重计算.仿真实验结果表明,该算法能够有效地提高低纹理区域和深度不连续区域的立体匹配精度,获得较高精度的视差图.  相似文献   

15.
针对传统census变换在彩色图像匹配中精度不高,易受光照影响等缺陷,提出了一种彩色census变换匹配算法。首先,利用census变换窗口内的颜色距离标准偏差代替变换窗口中心像素的灰度值,再与邻域内颜色距离信息和邻域内颜色距离信息平均值之差进行census变换。然后,利用Hamming距离作为匹配代价函数,采用优胜全取策略(winner-take-all)和左右一致性校验得到视差数据,获得稠密视差图。实验表明,该算法可有效提高彩色图像匹配精度,实时性好,对非理想光照变化所引起的干扰具有较强鲁棒性。  相似文献   

16.
针对传统Census变换窗口中心点灰度值易受噪声影响而导致全局匹配精度低等问题,设计了一种基于改进Census变换的双目立体匹配算法.首先采用双边滤波的模板值替代传统Census变换窗口中心点的灰度值,为了增强初始代价计算的可靠性,加入Sobel算子,将其与灰度绝对误差和算法的匹配代价进行代价融合;然后选择动态十字交叉域建立相邻视差的联系;最后运用赢家通吃策略选择最佳的视差,并采用左右一致性检测和引导滤波优化视差图.实验结果表明,在无噪声情况下,改进算法的平均误匹配率比传统Census变换的降低了约46%,含噪声情况下降低了约53%,说明改进算法有较好的匹配精度和抗噪能力.  相似文献   

17.
基于改进的SIFT特征匹配算法,建立了一个水下双目视觉测距系统.围绕提高水下双目视觉测距的精度、速度和抗干扰度等,研究了图像预处理、SIFT特征匹配算法等关键技术.针对传统图像直方图均衡化结果过亮或过暗现象以及过增强的特点,提出了一种改进的结合了OTSU阈值算法的直方图均衡化方法;结合稀疏匹配搜索算法,提出一种改进的SIFT特征匹配算法对左、右目图像进行特征匹配.利用区域增长算法,分别生成了水下标定板和机械臂的伪彩色视差图像,由视差图获得了目标相应位置的距离.实验结果显示:水下标定板平均测距精确度为97.66%,利用所提方法也获得了水下机械臂的双目视差图像.  相似文献   

18.
为解决传统信息散度算法存在物体图像大小不一致以及非连续区域深度恢复精度低等问题,提出了一种新的基于空间变化窗口的信息散度算法.该算法计算两幅原散焦图像之间的单应矩阵,并利用单应矩阵重新矫正原图像以获得相同大小的散焦图像对,通过空间变化的窗口结构来估计不连续区域附近的深度.模拟实验和实际图像实验结果表明,文中改进算法可以...  相似文献   

19.
采用局部差分模型描述的彩色图像配准技术   总被引:1,自引:1,他引:0  
针对光照方向、强度、色彩或摄像头参数等因素的变化导致待配准彩色图像对间存在复杂的色彩变化,从而严重影响彩色图像配准效果的问题,提出了一种对彩色变化不敏感的彩色图像配准方法.该方法首先根据彩色图像间的von Kries彩色变换模型,建立图像的彩色不变量空间,在此空间利用尺度不变量特征转换(SIFT)算法完成特征点的检测;为加快运算速度,采用2阶局部差分模型(LDP)方法对特征点进行描述,并完成彩色图像特征间的初匹配;再进一步利用RANSAC算法消除误匹配特征点对,得到最终的匹配特征点对.实验结果表明,该彩色图像配准方法与其他算法相比,可以快速、准确地获得彩色图像间的映射关系,因此更加适合存在色彩变化的彩色图像的配准.  相似文献   

20.
复杂光照变化条件下的彩色SIFT匹配算法   总被引:1,自引:0,他引:1  
为了提高复杂光照变化条件下所获取的彩色图像对的匹配效果,基于von Kries彩色变化模型,提出了一种新的彩色不变量的尺度不变特征变换(SIFT)算法.首先通过彩色空间变换获得复杂光照下的同一场景或目标的2幅或多幅图像的彩色不变量信息;然后利用SIFT算法提取彩色信息中的图像几何信息完成匹配;最后采用随机抽验一致性(RANSAC)算法消除误匹配点对,同时得到更加鲁棒和稳定的基础矩阵,以方便下一步的图像处理工作.通过理论分析和实验比较,该算法同传统的SIFT算法及其他彩色SIFT匹配算法相比,可以获得更多可靠的匹配数据以提高对图像的识别率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号