首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 115 毫秒
1.
立体图像对的视差是立体显示的基础,双目立体显示的基本原理就是将具有视差的立体图像对中的左右眼图像分别送入左右眼中,从而产生立体感.本文给出了一种在虚拟场景中利用光线跟踪计算立体图像对视差的方法,生成了视差图和深度图,并对视差的特点和影响视差的因素进行了分析.  相似文献   

2.
采用单视图运动矢量与立体视频中视差矢量联合判断的方法,提出一种立体视频场景突变检测算法.该算法首先直接从多视点编码码流中提取视差矢量与运动矢量,然后分别统计每帧的视差矢量与运动矢量的幅度平均值,最后将每帧的视差矢量与运动矢量的幅度平均值与对应阈值相比较,检测立体视频场景突变的情况.用该算法在压缩域直接对立体视频场景突变进行判断,不仅可以保证检测精度,还降低了计算复杂度.仿真结果证明了算法的有效性.  相似文献   

3.
通过对二维视频中帧间物体与摄像机位置关系和现有的二维视频转三维的方法分析,提出了一种由单视频图像获取多视差图的方法.通过利用单视频连续帧与多相机系统拍摄同一场景获得的多视差图之间的相似性,提出的方法可实现从单视频连续帧中获取所需要的视差图,并对其可行性作了理论和实验上的比较分析,实验证明了作者提出的方法在某些特定环境中的可操作性.  相似文献   

4.
为提高运动目标的检测与跟踪处理速度,设计了一个基于网格计算的解决方案,应用网格计算以分布并行方式来处理图像序列. 网格计算节点上执行的一个任务对应处理图像序列中的一个帧图像单元,一个帧图像单元包含了每次处理过程中所涉及的一帧或多帧图像,因而网格计算中的任务数即为图像序列中的帧图像单元数. 利用Condor系统搭建了一个网格计算试验台,开发了一个用户交互界面和若干中间件服务模块. 以基于相邻帧差法和模板匹配法的运动背景下的目标检测和跟踪算法为例进行了试验. 试验结果表明,该方案具有可行性,并能大幅度缩减计算时间,提高处理效率.   相似文献   

5.
视频帧的重要信息通常位于图像的中间部位,因此提出了基于视频帧重要区域相似性的视频镜头切换检测算法.在连续视频帧中,相邻帧的前一帧中间区域被分成大小相等的四部分,然后在后一帧中的中间区域寻找与前一帧四模板相似的区域.利用各区域灰度直方图的欧氏距离判定相似区域.如果不相似模板个数大于2,那么该相邻帧处发生了镜头切换.实验表明,此方法对于多数场景的镜头切换检测结果准确、全面.  相似文献   

6.
基于序列视差图像的全息立体显示方法   总被引:7,自引:0,他引:7  
通过获取的序列视差图像,用计算全息与图像处理技术产生了一个全息立体图的显示.在计算全息中采用了基于衍射的光栅条纹生成方法,将视场分为连续的8个区域,每个区域由一个空间频率不同的基本条纹衍射生成,利用迭代算法计算了基本条纹函数.然后对序列视差图像经过二维离散处理,通过光场投影与几何光学成像法,转换到一张全息图上,由包含8个基本条纹的全息素衍射生成序列视差全息图像.从而使观察者获得三维感的立体图像,并给出了实验结果.该算法为基于照片的全息立体图的生成提供了新的方法.  相似文献   

7.
基于幅相分离立体匹配的小波立体图像压缩   总被引:1,自引:0,他引:1  
针对立体图像压缩中视差估计问题,提出了幅度和相位分离的立体匹配方法。在压缩过程中,采用CONCOD立体图像编解码器结构,分别对左右图像进行小波多分辨率分解,并用幅相分离的立体匹配方法对左右图进行视差估计。根据各种补偿残差的大小,自适应调整预测块的大小和编码方案--帧间视差补偿、帧内预测补偿和帧内自编码。仿真实验证明了该算法在保持较高立体图像质量的同时可获得较高压缩比。  相似文献   

8.
研究了向量小波在活动图像数据压缩中的应用.利用序列图像中相邻两帧之间数据无多大变化的特点,改进了重复行预滤波方法,采取相邻两帧重复行方法,获得了较高的分解、重构速度;由于采取了适当的量化与编码,在图像质量主观评价好的情况下,序列图像压缩比可达到146.2.  相似文献   

9.
向量小波在活动图像数据压缩中的应用   总被引:1,自引:0,他引:1  
研究了向量小波在活动图像数据压缩中的应用,利用序列图像中相邻两帧之间数据无多大变化的特点,进行了重复行预滤波方法,采取相邻两帧重复行方法,获得了较高的分解,重构速度;由于采取了适当的量化与编码,在图像质量主观评价好的情况下,序列图像压缩比可达到146.2。  相似文献   

10.
在计算机立体视觉研究中,主要针对人造场景,提出了一种新的三维表面重建方法。该方法首先对景物的灰度图像进行分割,将景物图像分成各种不同的区域,利用了将立体像对进行边缘特征匹配的结果,并使用各种曲面模型对各区域进行拟合,以求得整个区域内的视差值,再对整个视差图进行自适应平滑,得到了较为满意的结果。  相似文献   

11.
视差图误差检测与校正的通用快速算法   总被引:2,自引:0,他引:2  
为了获取精确的立体匹配结果 ,提出了一种通用的视差图误差检测与校正算法。算法首先定义一个新的全局顺序匹配约束 ;然后将其用于视差图后处理过程 (而不是视差计算过程 )中 ,以检测出视差图中的匹配交叉区域 ;最后提出一种零交叉校正方法 ,校正其中的误匹配点。通过对一组真实立体图像序列及其视差图的实验 ,进一步证明了该算法的有效性。该算法可以作为视差图后处理过程附加在各种立体匹配算法之后  相似文献   

12.
提出了一种基于背景重建和视差图的立体视频分割算法,利用背景、视差和边缘等信息进行运动对象分割。该算法首先采用基于块的背景重建方法获取视频序列的背景信息,再利用背景相减法获得运动对象的初步分割结果,然后利用立体匹配获得的视差图对初步分割结果进行修正,最后利用边缘信息和后处理操作获得最终的立体视频运动对象。实验表明,该算法能够有效地从运动背景中将视频运动对象完整地提取出来。  相似文献   

13.
利用传统的双目立体视觉技术进行焊接熔池表面形貌的三维传感,系统成本昂贵,且拍摄时必须保证同步,摄像机参数的不一致也容易造成重建误差。分析了双棱镜立体视觉系统原理,搭建了一套基于双棱镜的单摄像机立体视觉系统,在一个CCD像面上拍摄到同一物体存在视差的两幅图像,预处理后通过SSD算法求取像素级视差图,然后由二次曲线拟合进一步获得亚像素级视差图,由标定结果求得每个图像点对应的三维坐标。通过搭建的传感系统获得了P-GMAW平板堆焊基值期间的熔池图像,依照上述流程重建了熔池的三维表面形貌,同时针对重建结果做了误差分析,证实了其可靠性。  相似文献   

14.
摘要: 针对宽视野光轴外扩式布置双目图像采集和显示系统的图像立体校正问题,利用三维重建误差,提出了一种基于双目图像视差特性的立体校正方法.在分析光轴外扩式布置双目相机图像视差特性的基础上,针对相机光心与显示投影中心间的位置误差和相机光轴与显示视轴间的角度误差,建立图像仿射变换、水平视差畸变和垂直视差的校正函数,利用一组空间采样点的三维重投影误差作为目标函数通过优化方法求解校正参数.仿真实验表明:在视轴外扩夹角为30°时,本方法可以有效地消除光心位置误差和光轴角度误差对图像视差造成的影响.真实图像校正实验表明:校正后的图像水平畸变小,在显示宽视野双目图像时,能保持正确的三维立体感.
关键词:中图分类号:文献标志码: A  相似文献   

15.
在众多影响3D舒适度的因素中,制作人员更多的会选择视差信息来检测、调整、优化3D节目的质量,因此3D电视素材的左右图像的视差分析成了关键问题。本文设计了一种基于双目立体视觉的3D电视视差检测系统,该系统应用了双边滤波及SGBM立体匹配算法,计算左右图像的视差,并根据视差与立体视觉舒适度的关系,将可能会引起观众不适的图像部分进行分级标注,便于后续的3D调整工作。  相似文献   

16.
为了消除双目立体歧义,提出一种基于DAISY特征和改进型权重核的快速立体匹配。首先,稠密构造局部特征DAISY描述计算初始匹配成本;基于Epanechnikov权重核双通聚合消除特征相似歧义得可靠匹配代价;优胜者全选逐像素优化初始视差。然后,利用改进型双边滤波、对称一致性验证和多方向权重视差外插等策略改善视差。实验表明,该方法能有效提高匹配精度,得到分段光滑、精度高的稠密视差,且结构简单、复杂度低。  相似文献   

17.
针对建筑物场景, 提出两种在基于图的立体匹配算法中融合部分深度数据来提高视差图质量的方法。若该部分深度线索来 自扫描仪获取的准确测量数据, 则可以从中直接抽取出对应于三维空间平面的视差层组成标号集, 并以颜色块代替像素作为图结点。进一步地, 将扫描仪的使用 限制在离线阶段, 即仅用于训练数据库的建立, 然后在立体匹配的图中添加一个图像块层, 来融合通过统计学习获得的单目图像深度推断线索。实验结果很好地证明了算法的有效性。  相似文献   

18.
针对复杂试验环境下,战机舱门间隙非均匀变形动态测量难度大、精度要求高的问题,提出了基于面结构光的飞机舱门间隙测量方法,研究了条纹投影结构形面测量方法,包括在不需要空间相位展开过程或任何先验信息的情况下搜索包裹相位图中每个有效像素的立体对应和绝对条纹顺序,生成初始视差图和绝对相位图并进行了视差优化;建立了立体结构光模型,利用视差图和绝对相位图计算三维坐标。对得到的数据进行处理,包括建立被测件的物理坐标系,曲面截取以及对间隙位移量提取。设计了两种标准间隙,对本文方法的合理性和有效性进行了验证,可以对任意曲面和动态场景进行快速、准确的间隙和阶差的测量。将本方法应用于某飞机舱门间隙变形的测量中,获得了实际的变形位移量。  相似文献   

19.
基于网络最大流的立体匹配算法   总被引:5,自引:0,他引:5  
为得到立体图像对的全局最优匹配,将视差搜索范围离散化,与图像坐标一起构成三维空间网络。恰当定义网络各边的容量,使之兼顾立体匹配的相容性和光滑性约束,将立体匹配转化为网络优化问题。通过求解网络的最大流和最小切割,获得全局最优的视差分布数据。实验表明,算法生成的视差数据不仅连续稠密而且保留了细节信息。  相似文献   

20.
使用多台基于FPGA嵌入立体计算的RGBD摄像机搭建动态场景实时三维重建系统. RGBD摄像机能够以视频速度输出场景的彩色(RGB)图像及对应的稠密视差(disparity)图像,由视差图像可进一步得到场景的深度图. 多台RGBD摄像机运行在统一的外部时钟和控制信号下,可实现对目标场景数据的同步采集. 为了提高各视点所获取的场景深度图质量,根据多RGBD摄像机系统视点分布较为稀疏的特点,使用概率密度函数估计的方法进行多视点深度图的融合. 融合后的深度图由PC集群进行处理,可实时生成所拍摄场景的三维空间点云. 实验结果表明,本文系统可以有效地重建包含多个运动目标的大型动态场景.   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号