首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 109 毫秒
1.
本文在研究传统的摄像机标定方法的基础上,提出了一种基于正三菱锥的摄像机线性自标定方法。该方法通过控制摄像机对正三凌锥模型做一次纯轴向运动和3组两正交运动即可线性的标定出摄像机的5个内参数。实验结果表明,该方法能准确有效的标定摄像机的内参数。  相似文献   

2.
基于OpenCV的挖掘机器人摄像机参数标定   总被引:1,自引:0,他引:1  
为了建立挖掘机器人视觉系统摄像机测量模型,提高视觉测量精度,分析了挖掘机器人摄像机视觉系统内、外参数成像模型及摄像机非线性畸变参数,确定了适合挖掘机器人视觉系统的标定参数。通过采集自制的棋盘标定模板不同方向的七幅图像,基于OpenCV技术实现了对模板角点的提取。通过七幅图像进行标定实验,实验结果获得了摄像机模型的线性内部参数矩阵,标定出了摄像机非线性模型的径向畸变系数,摄像机外部旋转矩阵及平移向量,并给出了标定参数误差。研究结论表明采用角点提取方法,标定误差可达亚像素级,能够满足挖掘机器人视觉系统的标定及视觉测量精度要求。  相似文献   

3.
文章提出了一种基于平面模板的摄像机标定方法,仅要求摄像机在3个(或3个以上)的不同方位对同一平面模板进行拍摄,即可标定摄像机参数(包括内参数、外参数、畸变系数).并利用两步法求解摄像机参数.模拟图像和真实图像结果表明,该方法兼顾了标定精度与速度.整个标定过程不需要人为干预,可以自动进行,具有较强的实用性.  相似文献   

4.
摄像机标定方法是从二维图像中获取三维信息必不可少的步骤。本文提出了基于灭点的自标定方法。该方法的平面模板要求圆内有3组两两正交的直径,从3个或多个不同的方位摄取平面圆模板的图像。由3组两两垂直得到三组正交灭点,从而线性的求出摄像机的5个内参数。模拟图像和真实图像实验表明,该方法能准确、可靠地估计摄像机的内参数。  相似文献   

5.
王科俊  魏娟 《应用科技》2010,37(1):36-39,56
计算机视觉中,在对景物进行定量分析或对物体进行精确定位时,都需要进行摄像机标定,即准确确定摄像机的内外参数.为了快速、有效地进行摄像机的标定,针对常用的带有一阶径向畸变的小孔摄像机模型,提出了一种简单有效的分步标定方法.先用预标定法得到左右摄像机主点坐标参数,然后再用TSAI两步法获得左右摄像机的内外参数,最后以左摄像机光心为世界坐标系原点,通过坐标转换关系,进而得到双目视觉的各种标定参数.该方法实验要求低,不需要移动摄像机.通过实验,验证了该方法能够准确、有效地求出各标定参数.  相似文献   

6.
在摄像机标定过程中,为了避免对摄像机模型中的畸变系数进行多次重复标定,提出一种将二阶径向畸变系数与摄像机模型分离的标定方法.该方法利用畸变形成的围线面积作为畸变评测函数,用模拟退火原理改进粒子群算法的惯性权重和学习因子;然后用改进的粒子群算法标定摄像机的畸变系数和图像中心点坐标,最后计算其他的摄像机参数.该方法无需预先知道摄像机的任何内外参数,算法简单,易于实现.实验表明,该方法与传统的非线性优化方法相比,图像坐标的平均反投影误差明显减小,而且具有更好的鲁棒性和精度.  相似文献   

7.
基于非线性逆透视变换的摄像机畸变参数标定   总被引:2,自引:1,他引:1  
李颢  杨明 《上海交通大学学报》2008,42(10):1736-1739
为实现摄像机畸变参数标定,提出了一种基于非线性逆透视变换模型的标定新方法.根据线性透视变换模型和畸变模型推导出非线性逆透视变换模型,以及逆透视变换参数与畸变参数之间的关系;在此基础上,建立以畸变参数为最优解的泛函,然后进行优化搜索求解.在优化搜索中,采用改进牛顿法确定搜索方向,然后,采用试探法沿搜索方向进行一维搜索.该方法仅需对数目较少的畸变参数进行优化搜索,可大幅降低优化搜索的维度和复杂度.仿真和实验结果表明:该方法正确有效,求解精度较高.  相似文献   

8.
一种基于平面直线的摄像机标定方法   总被引:3,自引:0,他引:3  
为使标定算法更加灵活、实用,提出了一种基于平面直线的摄像机标定算法.该算法的平面模板要求含有4个以上直线段,只需要摄像机作运动未知的自由移动,在3个以上的方位摄取一个模板上的图像,即可线性求解摄像机的内外参数.实验结果表明,该算法的精度和鲁棒性都较高.  相似文献   

9.
利用2个非平行的长方体作为标定模版,采用Hough变换检测出图像中长方体的棱,然后计算出2组三正交方向上的消影点,再根据消影点与摄像机内参数的约束方程求出摄像机内参数.该方法原理简单,只需要一幅图像就可实现摄像机内参数的求解.实验结果表明,该方法有较高的精度和稳定性.  相似文献   

10.
基于主动视觉的结构光手眼系统自标定方法   总被引:1,自引:1,他引:0  
为实现结构光手眼系统的标定,提出一种基于主动视觉的结构光手眼系统自标定技术。该标定技术无需使用特制靶标,只需场景中三个特征点,通过控制机器人进行四次线性无关的平移运动和两次带旋转运动,即可实现结构光手眼系统的标定。四次非线性相关的平移运动标定摄像机内参数和手眼矩阵旋转部分,两次带旋转标定手眼矩阵的平移部分,两次带旋转运动中提取的两激光条,结合特征点所在平面信息,标定光平面方程。实验结果表明,三维数据测量精度可达到±1.32mm,平面特征点间的长度测量误差为±0.73 mm;该标定方法简单,特征选取容易,对结构光手眼系统的实际工业现场使用有重要意义。  相似文献   

11.
空间三维测量技术的研究   总被引:1,自引:0,他引:1  
以透视投影变换为依据,研究了空间三维测量技术,提出了一种新的标定方法。利用相机做一次平移运动,可以线性的确定摄像机的内参数,然后利用已求得的内参数来求外部参数。本方法不需精确标定靶标,不需要任何的高精度复杂装置,最后结果表明,此方法能够得到比较满意的精度要求。  相似文献   

12.
八元数可同时表示两摄像机坐标之间的相对平移和旋转,中以八元数作为数学模型,提出了一种立体摄像机外部参数的定标算法,通过两摄像机的刚体运动,将运动参数矩阵进行奇异值分解可同时得到立体摄像机的外部参数;仿真结果表明,所提算法具有良好的鲁棒性。  相似文献   

13.
提出了一种用2幅未标定的图像进行三维重构的算法.利用空间 3 组垂直方向的正交结构与其在图像平面上消失点的对应关系,线性计算出相机的内参数,再利用3组匹配线段计算相机在2个视角的运动参数,最后根据得到的相机参数采用三角测量法计算空间点的三维坐标值.该算法与利用三正交运动的主动标定法相比,把相机的正交运动约束转换成空间正交结构约束,使用简单,适应性强,可直接利用参数未知的手持数码相机拍摄图像进行三维重建.对真实的建筑场景图像进行三维重建实验,重建后的三维模型在新视点生成的图像与所观察的场景一致,重构的2个平面夹角与实际值的测量误差在1 5%~2 6%之内.  相似文献   

14.
基于正十二边行平面模板的摄象机自标定   总被引:2,自引:0,他引:2  
给出一种基于平面模板摄象机自定标的新算法。它利用正十二边形模板在象平面上的投影 ,求解出圆环点 ,然后根据圆环点的性质确定两个关于摄象机内参数线性约束方程。通过摄象机作三次以上的运动参数未知的刚体运动 ,可确定摄象机的内参数。本方法对摄象机的运动没有约束 ,且平面模板易于制作。模拟实验和真实图象实验也表明 ,本方法具有很好的鲁棒性。  相似文献   

15.
主要讨论摄像机在运动过程中其内参数是未知的且可以发生变化时 ,如何通过5个控制点以及它们的图像点 ,来求解所对应的内参数和方位 .证明了下述结论 :已知摄像机平移运动前、后的两幅图像间的基本矩阵 ,当 5个控制点中任意 4个点均不共面且摄像机运动前、后两光心的连线不通过任一个控制点时 ,则可线性地确定摄像机运动前、后所对应的内参数和方位  相似文献   

16.
刘艳  董守平 《科学技术与工程》2007,7(21):5485-54885509
相机标定是获取相机内外部方位参数的过程。利用体视投影匹配确定的标定参数,就能从两幅体视照片中确定视场内一点的三维位置。提出一种新的在三维PIV测量中使用的相机自标定技术。该方法只需要测量现场的任意八个不相关点和一个标定长度做参照,就可实现流场的自标定,完全不需要再测试现场放置标定体,更不需要已知相机的内外方位元素。该标定方法分为两步:第一步标定相机内方位元素:由三灭点定理确定体视相机的初步标定参数;第二步标定实际流场:利用同源像线与基线必定确定一平面作为优化约束,对第一步取得的参数进行非线性优化。实验证明,该方法行之有效。  相似文献   

17.
为了实现对高速公路车辆速度进行限制, 建立了基于卷帘式CMOS(Complementary Metal Oxide Semiconductor)图像传感器的相机测速系统, 并对该系统采用的标定技术、 测速算法等进行了研究。卷帘式快门数字相机测量速度是利用卷帘式快门曝光, 具有一定的延时, 对运动物体拍摄会产生一定的畸变, 通过对图像的畸变部分进行图像处理和计算, 即可得到运动物体的速度参数。根据相机成像的几何原理, 分析了相机的标定原理, 根据相机测速时的特点, 提出了简单、 有效的标定方法。进一步研究了相机标定和测速的实验方法和步骤, 进行了标定及测速实验。经实验验证: 利用卷帘式快门CMOS数字相机方法对运动目标测速值较精确, 误差在2.5%以内。基本满足高速公路相机测速系统精度要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号