首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
为解决传统极限距离立体匹配算法在深度不连续区域,以及光照差异增大时出现匹配误差大幅升高等问题,提出基于自适应权重极限距离变换的立体匹配算法。在Delta-Gama对数空间下,该算法首先根据初始匹配结果计算立体图像对Gama校正系数,基于光照差异修正极线距离变换相似度函数带宽,其次基于权重相似度自适应选取极线端点,确定分割系数;最后利用置信度传播算法计算视差图。实验结果表明,本文算法能够有效提高深度变换区域的匹配准确度,同时有效降低光照差异图像的误匹配效率。相对于当前先进算法,本文算法的匹配率比当前先进算法提高至少40%。  相似文献   

2.
如何通过立体匹配提高图像景深精度一直是机器视觉研究领域的一个难点, 针对自适应窗口算法易受光照不均和窗口形状难以有效描述待匹配图像边界等问题, 提出一种异形自适应窗口局部立体匹配算法. 由于传统 Census 变换易受中心像素波动影响, 因此提出一种像素信息三维化处理技术, 并通过窗口内非中心像素间差异和窗口间中心像素的差异信息计算匹配代价; 为更好地贴合图像轮廓, 提出了由双螺旋路径法确定的异形窗口进行代价聚合, 对像素区域同时沿两条搜索路径自适应确定形状大小, 形成比传统技术更加高效多变的匹配窗口. 实验结果表明, 相比 Middlebury 平台上其他算法, 所提算法具有更为准确的图像边界描述能力, 可有效提高立体匹配精度, 同时对于光照不均的情况具有更强的鲁棒性.  相似文献   

3.
针对传统局部立体匹配算法在深度不连续区域和低纹理区域匹配精度不高的问题,提出了一种基于SIFT描述子的自适应聚合权重立体匹配算法.算法首先采用梯度域的幅值和相位获取初始匹配代价;然后利用相似性区域判决准则获得各个中心点的自适应矩形聚合窗口,并利用各点SIFT描述子的L1范数进行自适应聚合权重计算.仿真实验结果表明,该算法能够有效地提高低纹理区域和深度不连续区域的立体匹配精度,获得较高精度的视差图.  相似文献   

4.
针对立体匹配在稀疏纹理、重复纹理、深度不连续和遮挡区域存在的问题,提出了一种高效的立体匹配算法.该算法主要由像素匹配代价计算和视差图全局优化2个步骤组成.为了大幅减少当前算法在场景深度不连续处所产生的过渡平滑现象和在稀疏纹理处产生的错误匹配,采用基于图像采样噪声无关的自适应权重加窗匹配算法.为了求解遮挡区域和不连续性区域的像素视差,使用遮挡和平滑惩罚代价来约束整幅视差图,并采用基于图像分割的能量最小化方法求取最优解.实验结果表明,相比于局部和全局算法,该算法可以更快且准确地计算稀疏纹理、不连续性和遮挡区域的像素视差.  相似文献   

5.
为了改善立体匹配算法在低纹理和深度跳变区域的匹配性能,提出了一种改进的置信度传播立体匹配算法.首先利用均值漂移算法对图像进行彩色分割,然后通过自适应权重算法计算匹配代价并获取初始视差图,再利用匹配代价可信度检测和左右一致性校验将初始匹配结果按照可靠度分类,最后在全局优化的过程中分别通过可靠度分类和图像分割结果来指导置信...  相似文献   

6.
基于SIFT算子的图像匹配算法研究   总被引:4,自引:0,他引:4  
针对目前基于SIFT(scale invariant feature transform)的图像匹配算法在匹配相似区域较多的可见光图像时,匹配约束条件单一,没有有效剔除误匹配点,误匹配率高的问题,提出一种匹配改进算法,针对128维SIFT特征向量,采用距离匹配和余弦相似度匹配相结合的测度方法,利用特征点方向一致性进一步降低误匹配率. 实验结果表明:改进算法对图像的缩放、旋转、光照、噪声和小尺度的视角变换均有较好的匹配效果. 与原算法相比,在保证匹配点数和匹配时间的基础上,改进算法对旋转、缩放、噪声模糊和光照变换的误匹配率平均降低10%~20%,对于小尺度的视角变换,误匹配率平均降低5%.   相似文献   

7.
为解决局部立体匹配算法存在深度图边界区域不连续问题,本文提出了一种基于边缘约束的自适应引导滤波立体匹配算法。将梯度值和颜色信息结合进行匹配代价计算;然后,基于图像边缘局部特征,对图像的像素点基于颜色阈值和边界条件构建自适应十字交叉区域,并对自适应窗口进行引导滤波代价聚合;最后,采用胜者为王策略(winner takes all,WTA)进行视差计算,对视差图进行视差精细化处理。实验结果表明:本文算法生成的深度图能够更好地保留细节特征,边界纹理区域的误匹配现象明显改善,可有效降低误匹配率,本文算法在Middlebury数据集误匹配率仅为5.22%。  相似文献   

8.
针对立体匹配中弱纹理区域和深度不连续区域的匹配精度问题,提出了一种基于多特征融合的树形结构代价聚合立体匹配算法.首先,融合图像颜色、梯度和图像的Census变换进行匹配代价计算;然后,在由原始图像生成的最小生成树上进行匹配代价聚合,并使用多方向扫描线优化,进一步提升立体匹配的精确度;最后,使用左右一致性检测标记出误匹配点,并进行视差修正.为了验证该算法的有效性,使用Middlebury测试集提供的测试图像进行测试,平均误匹配率为6.38%;分别对2种场景实际拍摄图像进行深度信息提取误差率测试,测试得到2种场景的测距误差率分别为5.76%和5.55%,证明了该算法的实用性.  相似文献   

9.
针对现有立体匹配算法对噪声敏感、匹配率低的问题,提出了一种基于Spearman相关性系数与多尺度框架融合的立体匹配算法。在代价计算阶段,创新性地在固定窗口内通过简化Spearman相关性系数得到两种代价计算模型。在代价聚合阶段,利用多尺度框架在图像金字塔上进行代价聚合,从而使得匹配算法在低纹理区域得到较高的匹配率。实验结果表明,提出的立体匹配算法有效降低了误匹配率:对Middletury2.0测试集中31对标准图像对的平均误匹配率仅为7.98%,Middletury3.0中的15对标准图像对的平均误匹配率为13.45%。实验结果表明,提出的融合Spearman相关性系数与多尺度框架的立体匹配能有效降低图像的误匹配率,并对噪声等具有较好的稳健性。  相似文献   

10.
立体匹配是视觉导航、三维重建的信息基础.为了降低光照失真对匹配代价计算的影响,消除引导滤波平滑图像时产生的光晕,提出了一种多信息代价计算融合显著梯度的立体匹配算法.设计了融合颜色特征、梯度信息及梯度角度的匹配代价计算算法,对左右视图进行匹配代价计算;然后进行显著性处理,计算显著图的梯度信息,得到图像的局部平均梯度;遍历全图得到全局局部平均梯度作为边缘判断条件,自适应调整引导滤波的正则化参数.实验结果表明,算法有效改善了边缘轮廓及平滑区域的视差,降低了误匹配率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号