首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
计算机双目视觉技术是自然光条件下可使用的非接触测量方法,对于逆向工程、工业检测、三维重建、移动机器人导航等领域都有重要的实际应用价值.针对动态规划立体匹配中存在的条纹瑕疵问题,本文提出一种新的动态规划立体匹配方法,设计了新型矩形窗口计算匹配代价,构建基于遮挡约束的优化函数,在降维低分辨率图像上求取控制点抑制条纹瑕疵.选择Middlebury平台上的4个组的图像作为实验图像,将基于置信传递的立体匹配方法和基于图形切割的立体匹配方法作为比较方法,对本文方法的性能进行验证. 4个组的实验图像的立体匹配实验结果表明:基于控制点修正的动态规划立体匹配方法,获得的视差图像连续稠密、坏像素比例低,明显优于两种比较方法.应用本文方法,对比基于图形切割的立体匹配方法(GC)和基于置信传递的立体匹配方法(BP)获得的视差图像,坏像素比例分别下降了1~2个百分点.  相似文献   

2.
针对传统Census变换窗口中心点灰度值易受噪声影响而导致全局匹配精度低等问题,设计了一种基于改进Census变换的双目立体匹配算法.首先采用双边滤波的模板值替代传统Census变换窗口中心点的灰度值,为了增强初始代价计算的可靠性,加入Sobel算子,将其与灰度绝对误差和算法的匹配代价进行代价融合;然后选择动态十字交叉域建立相邻视差的联系;最后运用赢家通吃策略选择最佳的视差,并采用左右一致性检测和引导滤波优化视差图.实验结果表明,在无噪声情况下,改进算法的平均误匹配率比传统Census变换的降低了约46%,含噪声情况下降低了约53%,说明改进算法有较好的匹配精度和抗噪能力.  相似文献   

3.
提出了一种基于AANet(有效立体匹配自适应聚合网络)改进的立体匹配网络——AEDNet(自适应端到端立体匹配网络),该网络在特征提取模块通过限制卷积核大小以取得较低抽象程度的特征,通过简单卷积简化网络结构.在代价聚合中采用尺度内聚合模块,通过可变形卷积达到自适应的代价聚合,以及在尺度间聚合模块采用传统的跨尺度聚合方式一定程度上弥补缺失的全局信息.本网络在KITTI数据集上验证其性能,与AANet相比AEDNet参数数量下降了25%,实验结果表明所提网络在保证精度的情况下能高效地实现立体匹配.  相似文献   

4.
基于网络最大流的立体匹配算法   总被引:5,自引:0,他引:5  
为得到立体图像对的全局最优匹配,将视差搜索范围离散化,与图像坐标一起构成三维空间网络。恰当定义网络各边的容量,使之兼顾立体匹配的相容性和光滑性约束,将立体匹配转化为网络优化问题。通过求解网络的最大流和最小切割,获得全局最优的视差分布数据。实验表明,算法生成的视差数据不仅连续稠密而且保留了细节信息。  相似文献   

5.
提出了基于区域的立体匹配算法,实现从彩色立体图像对中提取深度信息.其中利用平滑函数求取全局错误能量最小化获得的视差图更为可靠,但是计算时间也较长;而采用线性生长算法获得的视差图则计算时间短,但可靠性差.结果是利用滤波去掉了不可靠的视差估计,可以提高视差图的可靠度,还对算法生成的结果进行了比较.  相似文献   

6.
针对移动机器人平台上的双目视觉深度信息获取问题,研究了一种适用于动态图像序列的双目图像立体匹配算法.采用成熟的半全局立体匹配算法对图像快速立体匹配;分析了在复杂环境下的运动平台上完成立体匹配所面临的主要噪声干扰,包括白斑噪声和断层闪烁噪声;为此,分别提出了白斑滤波算法和视差图时间域滤波方法以抑制这两种噪声.试验结果表明,所提出的算法能够有效抑制动态双目图像在立体匹配时的噪声干扰,最终能够实时获得连续清晰的视差图序列.   相似文献   

7.
提出一种分层正交动态规划立体匹配算法.首先利用正交动态规划算法在低分辨率图像的DSI(disparity-space image)视差空间图中进行初匹配,然后在Delta DSI(delta disparity-spaceimage)视差变化空间图中进行精匹配,从而获得高分辨率图像的视差图.实验结果表明,该算法不仅可以改善传统动态规划算法产生的带状条纹瑕疵,而且匹配率高、速度快、应用范围广.  相似文献   

8.
传统的立体匹配算法大都基于两幅图像像素点或者局部块的对应性,在单一尺度下求取视差图,但这不能很好地建模低纹理及重复纹理区域的对应关系,致使获得的视差图精度有限。为了改善上述问题,考虑到人眼视觉系统在不同尺度上处理所接收到的视觉信号,提出了跨尺度的重启动与随机游走算法。首先计算场景图像的匹配代价,其次利用超像素分割进行快速初始聚合,然后使用重启动与随机游走算法对其进行全局上的优化,最后采用跨尺度模型实现匹配代价的有效融合更新,继而获取场景图像的视差图。在Middlebury数据集上的实验仿真结果表明,相较于传统的跨尺度立体匹配算法,该算法能够有效地将场景图像在所有区域及非遮挡区域的加权平均误匹配率分别降低1个百分点和3个百分点,获得高精度的视差图。  相似文献   

9.
提出一种基于边缘图像特征和像素类型标记的立体匹配算法,利用边缘信息及视差在边缘和非边缘区域的分布特征,指导有效初始视差在扫描线方向的传递。并且根据标记值对部分不可靠的像素点进行反向赋值和边缘内中值滤波处理,达到视差精化目的。实验证明这种方法对于整体视差范围不太大的远距离图像,能够获得较为精确的稠密视差图。  相似文献   

10.
基于控制点约束及区域相关的立体匹配算法   总被引:2,自引:0,他引:2  
立体匹配是计算机视觉的关键问题.为了得到准确匹配的稠密视差图,通过对基于特征和基于区域立体匹配算法的讨论,结合这两种算法的优点,提出一种新的基于控制点及区域相关的立体匹配算法.该方法首先在利用Harris角点检测算法检测出角点的基础上,对角点进行立体匹配得到精确的匹配点对即控制点,然后在控制点的约束下对非角点像素进行基于区域相关的立体匹配,得到整体稠密的视差图.这样既缩小了匹配搜索空间,又保证了匹配的可靠性.  相似文献   

11.
一种快速高精度立体视觉光条匹配算法   总被引:3,自引:0,他引:3  
提出一种用于视觉检测的快速高精度立体匹配算法,利用投影和透视变换理论以及矩阵转换知识建立了摄像数学模型及双目视觉传感器模型,并给出摄像机模型中各种参数的求解方法;在外极约束理论的基础上,提出了外极斜率匹配方法,从而实现空间光条快速精确匹配。实验取得了令人满意的结果,并且该项技术已成功地应用于国家“863”重点攻关项目。  相似文献   

12.
为了提高左图像的编码效率,提出了一种新的基于自组织神经网络的立体图像编码算法(SOM VQ DE),SOM-VQ DE算法对右图像采用视差估计补偿技术(DE)编码,对左图像则使用基于自组织特征映射算(SOM)的矢量量化编码来取代传统的JPEG方法,矢量量化与视差估计的残差均使用DCT 霍夫曼进行编码.对立体测试图像Pentagon的实验表明,SOM VQ DE算法能够有效地提高左图像的压缩效率:1)在压缩比均为6.5.1时,SOM VQ DE算法的PsNR较JEPGqG DE算法提高了2.42 dB;2)在PsNR均为30 dB时,SOM VQ DE算法的压缩比改善是JPEG DE算法的1.8倍.  相似文献   

13.
本文论述了金属断口形貌参量的体视图象测量原理,讨论了用计算机体视图象匹配点,求得双目视差值,从而提取断口的三维几何信息的方法。  相似文献   

14.
提出了两眼立体视中使用的模糊匹配法.该方法可以快速计算左右眼图象的对应关系,并通过两个观察点的图象信息的融合提高3D图象的可信度.  相似文献   

15.
图的可以含有环的对集称为图的伪对集。William 和 Anderson 给出了求图的最大基数伪对集的一个算法。本文给出了求图的最大权伪对集的一个算法,它是 Edmonds 算法的一个推广。  相似文献   

16.
对一类无向图的边极大匹配问题,在EREWPRAM并行计算模型上,给出O(logn)时间、使用O((n+m)/logn)处理器的最佳、高速并行算法  相似文献   

17.
从立体图像对中获取精确的三维信息需要进行相机建模、标定和图像点的匹配[1,2].提出了特征点的选取;利用金字塔图像结构进行立体匹配,以及对匹配点进行整体性检验的准则。实验表明,该算法匹配速度快,错误概率小,匹配点在整个景物中分布均匀。  相似文献   

18.
中波单边带立体声广播发射系统,除要求高质量传送信息外,由于其发射功率较大,因此,如何提高发射机效率也是至关重要的问题。单边带立体声广播系统在大功率发射方面不能套用普通调幅广播系统,本文根据“包络抑制重建法”原理,提出一种全数字化的高效大功率发射系统,以数字宽带移相器代替模拟电路移相器实现90°相移,从理论上进行分析,并用计算机作了模拟试验,说明该方案是合理的。  相似文献   

19.
本文提出了,采用染色织物上单位染料浓度的 K/S 相对值(?)_(rλ)作为电脑配色中染色基础数据的新概念,并详细介绍了染色基础数据和相对上染率的测定方法。实验证实了(?)_(rλ)值为常数,理论预计的光谱反射率与测量值符合得很好。  相似文献   

20.
采用基于视图协同优化算法解决视觉匹配问题,通过对双视图立体匹配的研究到多视图匹配的推广,利用视差平面拟合进行多个视差集的合并.利用奇异值分解法解决线性方程,建立排除异常点的判别规则,解决遮挡及稀疏纹理的问题.实验结果表明:该协同优化算法是有效的,提高了匹配的精度.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号