首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 46 毫秒
1.
一种双目主动立体视觉系统的目标定位算法   总被引:5,自引:0,他引:5  
首先引入主动视觉空间的概念,即用系统本身运动自由度来表达摄像焦点到空间点的视线,其次,推导了把任意摄像机图像点换到主动视觉空间的算法,最后,采用三角形测量原理对图像特征点进行匹配和定位,因为系统中的各个摄像机独立注视目标,摄像机可以采用较小的视野,这为提高定位精度提供了可能性,采用数值仿真手段对相关理论进行了验证。  相似文献   

2.
针对传统的摄像机三角测量原理无法实现光线折射情况下物体位置准确测量的问题,本文在双目定位原理和折射定理的基础上,提出了一种双介质下目标定位的理论方法,运用安装在空气介质中的双目相机对玻璃水缸中实验体进行测量定位,考虑了光线通过不同介质在临界面发生一次折射的情况,建立物点多介质成像数学模型,并用该方法完成水中实验体的定位解算,求得物体质心坐标。试验结果表明该方法可用于双介质下的视觉定位测量,具有较高的测量精度和良好的稳定性  相似文献   

3.
4.
为解决目标识别精度低、定位与抓取配合困难问题,通过对算法的改进研究了物体的识别定位与抓取,包括识别目标物体、对于目标物体形心的位置三维重建、对于目标物体的姿态估计、对于手眼标定后的抓取4个方面。在目标识别中,首先通过快速鲁棒特征(speeded up robust features,SURF)算法结合Grabcut算法提取出目标。在位置求解中,利用模板匹配求取目标物体形心的世界坐标。在姿态估计中,算法的流程为:利用匹配点对求取左图中物体母线斜率,再随机取斜率等于左图母线斜率的两点,通过两点的世界坐标求出目标物体的姿态。在抓取中,采用的眼在手上,先建立工件坐标系,再进行坐标转换,通过机器人参数求得逆解。研究结果表明:误差均在较小范围内且机器人可在有效工作范围实现抓取。可见算法可靠以及整体实验的正确性。  相似文献   

5.
模仿人类视觉系统对显著色彩区域比较敏感的视觉注视机制,提出一种基于贝叶斯的显著性度量.利用像素点与其周围区域的色彩对比度衡量像素点的显著性,并根据显著性度量提出了基于graph cut的显著目标分割方法.在测试图像库上的实验结果表明,该方法可以从图像中提取具有完整轮廓的显著区域,并能准确分割出图像中的显著目标.  相似文献   

6.
双目立体视觉是一种对目标点进行准确快速定位行之有效的方法,通过对双目立体视觉系统标定、立体匹配等关键技术的研究,设计开发了一种可以广泛应用的双目立体视觉系统。该系统采用了两种匹配算法,分别采用传统上基于极线约束的特征点灰度相关匹配算法和基于SIFT(Scale Invariant FeatureTransform)特征描述子的改进匹配算法实现。在实现双目立体视觉系统的目标点定位基础上,进行了两种匹配算法的性能比较和分析。实验表明该双目视觉系统设计具有良好的实用价值。  相似文献   

7.
基于双目立体视觉的目标识别与定位   总被引:1,自引:0,他引:1  
为从不同角度识别目标物体以及解决左右两幅图像中目标轮廓中心不匹配的问题, 将SURF(Speeded Up Robust Features)算法与GrabCut 算法相结合, 离线采集目标物体不同角度的图像, 生成目标模板图片库。利用SURF 算法完成目标物体的识别; 利用SURF 算法自动初始化GrabCut 算法, 实现目标轮廓的提取; 利用基于灰度相关的区域匹配算法完成目标轮廓中心点的匹配, 结合三维重建原理实现目标定位。实验结果表明, 该方法可以成功识别目标物体并对目标物体进行准确定位。  相似文献   

8.
牟雅丹 《科技资讯》2009,(33):213-213,215
摄像机标定是立体视觉的第一阶段,也是极其重要的阶段。本文用张正友平面标定方法对双目立体视觉系统进行标定,获取了其结构参数。实验表明,标定结果有较高精度。  相似文献   

9.
研究了提高水下目标定位精度的一种误差修正方法-声线折射修正方法.首先根据水下声线传播环境和声速变化规律建立了海水的折射率球面分层模型.然后基于Snell定理,利用射线描迹方法得到从声源到水下目标的声线传播轨迹,从而建立声线的真实传播距离和角度模型.经与声纳测量系统的测量参数比对,建立了水下目标定位中的声线折射误差修正模型.根据实测的海水声速剖面,利用折射率球面分层模型和声线折射修正模型进行了水下目标定位的数值计算.实验证实,采用声线折射修正方法可以有效地提高水下目标的定位精度.  相似文献   

10.
针对移动机械臂抓取物料过程中的三维空间定位问题,提出一种适用于双目视觉的物料定位算法。首先基于双目视觉成像原理,构建手眼矩阵,完成双目相机坐标系到机器人坐标系的转换;其次将注意力机制嵌入到主干网络的CSP结构中,采用一种YOLOv5s+CBAM改进网络结构,在自制的物料数据集上mAP达到99.1%,FPS为71,可实现物料抓取点位置的准确检测;最后针对抓取点立体匹配错误导致深度信息获取错误的问题,提出一种基于灰度值测距的SGBM改进算法获取深度信息。经实验检测,平均测距误差5.16mm,结合目标检测,可实现物料抓取点三维坐标的定位。  相似文献   

11.
水下目标定位系统被广泛应用于水下目标的定位和跟踪、水声对抗等水声领域,其系统主要由水声浮标阵、中继站和基站等构成,浮标与基站的通信通过无线网桥进行传输。为了提高该系统的通信可靠性和智能性,采用ARM板作为中继站和通信服务器,以一台电脑作为基站的显控机,一台电脑模拟浮标,设计了一种水下目标定位系统通信模拟系统,其中ARM板搭载LINUX嵌入式系统。该模拟系统可以实现基站和浮标之间的中继通信,完成从基站显控端发送各种命令和参数到ARM板,ARM板进行中继转发给浮标,浮标收到命令后进行响应,并回传相关数据至基站显控端的功能。  相似文献   

12.
工件定位是自动化生产线的重要过程,是后续分拣、装配等操作的基础。为了解决传统的工件定位误差较大的问题,提出一种基于双目视觉的正交函数局部拟合的工件定位方法。系统建立之前,采集一张拟合板的图像,获得位置信息作为拟合的样本点。工件的定位首先要采集待定位的工件图像,进行图像预处理,通过特征提取获得工件形心的像素值,然后利用样本点进行正交函数局部最小二乘拟合,获得工件形心的平面坐标,最后通过双目重构,获得工件形心的空间坐标。实验结果表明:基于双目视觉的正交函数局部拟合的工件定位方法在精度上比传统的相机标定、三维重建的定位方法有明显提高。该方法不仅提高了工件定位精度,而且避免了标定环节,具有较好的应用价值。  相似文献   

13.
针对室内空间火灾早期自动定位的需要,基于机器视觉技术对传统空间定位方法进行改进。设计简单实用的平面标定板进行摄像机标定,利用HALCON解决快速自动提取标定板上特征点像素坐标的问题。针对传统标定算法只校正径向畸变的不足,建立了更全面的摄像机畸变模型。通过迭代法利用成像模型和畸变模型求解并优化摄像机的单应性矩阵和畸变系数并通过三维重建实现空间定位。将此方法应用于消防炮工程项目,结果表明该改进方法具有有效性、快速性和准确性。  相似文献   

14.
针对大视场双目相机结构参数标定问题,提出了一种基于GSI靶标的标定方法。相机的内参数已知,利用同名编码点在双相机像面上成像点及双目视觉测量原理,解算出双目相机的相对方位。该方法无需移动靶标,只需要双目相机同时对靶标平面拍摄一次,简单方便。  相似文献   

15.
根据原木材积检测的特点,针对传统人工检尺存在的主要问题,基于双目视觉理论,设计了一种由CCD摄像机、单片机和上位机图像处理软件组成的自动化测量系统.选用HYC-600摄像机组建双目视觉前端,并给出了单片机信号采集处理板、光电编码器和光电开关等关键技术的设计方法,完成了双目标定、Bouquet校正、三维重构和各功能模块的软件开发.实验结果表明:该检测系统能有效克服人工检尺的缺点,成本低、精度高、可靠性强、安装使用方便.  相似文献   

16.
佘科  谢红 《应用科技》2010,37(11):35-39
针对传统摄像机标定方法需要建立复杂的数学模型,且计算量大、实时性不好的问题,引入了人工神经网络来有效处理非线性映射问题,准确地建立起立体视觉中三维空间特征点与它在图像平面上像点之间的非线性关系;但现有的神经网络标定法仍存在实时性差、标定精度不够、泛化能力差的缺点,于是该文提出了一种基于小波神经网络(waveletneuralnetwork,WNN)的方法,同时用粒子群优化算法对学习算法进行改进,并对小波网络与BP网络的标定结果进行比较.实验结果表明,基于小波神经网络的双目视觉标定方法能够达到较高的实时性、标定精度和泛化能力的要求.  相似文献   

17.
Polarized light and underwater vision   总被引:2,自引:0,他引:2  
J N Lythgoe  C C Hemmings 《Nature》1967,213(5079):893-894
  相似文献   

18.
视觉定位是实现炼油企业油料自动装卸的一种有效途径,系统采用一体化工业相机Insight1000作为检测核心,连续获取罐口图像并实时检测圆形罐口中心位置,为加快检测速度和精度,提出了模板匹配加圆检测技术的复合查找方式,通过RS232串行通讯接口将定位结果发送给PLC,由PLC控制大鹤管完成移动、下管、输油等动作.系统对圆形罐口定位精确,性能指标符合要求,可以投入实际使用.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号