首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对室内嗅觉搜索机器人定位问题,提出一种基于最小二乘高斯核支持向量机的单目视觉定位算法.首先,利用最小二乘高斯核支持向量机,可将机器人在图片中像素位置与真实场景中位置间的非线性映射转化为带高斯核的线性映射;然后,运用k重交叉验证方法对映射关系模型进行训练,获取优化模型参数;最后,利用单目摄像头采集机器人运动的连续图像,并根据机器人平台与其背景间的灰度差异特征实时识别图像中目标机器人平台,计算得到机器人平台形心在每一帧图像中的像素位置,进而映射出机器人平台在室内环境下的实时动态位置.实验结果表明:此定位方法能够为移动机器人在室内环境下提供高精度和无累积误差的实时定位信息;算法的精确性和可靠性得到了充分验证.  相似文献   

2.
针对移动服务机器人在未知室内环境下的三维感知问题,提出了一种基于低成本Kinect传感器的三维地图创建实用方法.对于机器人在运动过程中连续采集的多帧RGB-D信息,首先利用SURF算子对RGB图像提取稳定特征点并进行特征点匹配,然后结合深度图像,采用RANSAC算法剔除可能存在的误匹配点并完成初始配准,从而估计得到图像帧间粗略的相对转移关系,最后运用广义ICP算法对采集的深度图像进行精确配准,得到拼接的三维点云图.在此基础上进一步开发了移动机器人三维地图创建应用系统,实验验证了该方法的可行性和有效性.  相似文献   

3.
提出了一种基于移动机器人双目摄像头的图像视觉伺服方法,实现了基于图像视觉伺服的移动机器人自主导航.当匹配图像特征点时,采取KLT算法和基于Harris算子角点检测与匹配算法相结合的方法,大幅优化了整个工程的运行时间,并结合RANSAC算法剔除误匹配的特征点对,使机器人能够精确地定位.实验结果证明该方法有效、正确.  相似文献   

4.
为了能够提高在一般环境下移动机器人定位的精度,文章采用栅格地图来描述环境;提出基于图像理解的移动机器人定位的概念,将栅格地图当成图像来处理,从而可以将图像配准中的优秀算法引入移动机器人定位中;对于栅格化的图像提取其Harris角点,同时提出两步匹配法寻找相邻2个时刻的2幅图像中匹配的Harris角点。首先采用里程计的数据对角点进行粗匹配,而细匹配采用的是基于随机抽样算法,能够有效地剔除粗匹配过程中误匹配的角点对,提高了定位算法的鲁棒性;最后用非线性最小二乘法估计机器人的位姿。通过实验可以看出在一般的环境中,基于图像理解的定位算法要优于基于线段特征的定位算法。  相似文献   

5.
针对目前机器人伺服定位抓取中定位精度和实时性较差的问题, 提出一种基于Harris-Hist的快速特征匹配及目标定位算法. 首先, 采用Harris检测算法提取图像特征点; 然后, 提出一种新的特征点描述子定义方法, 计算特征点圆形邻域内像素点灰度直方图刻画特征点, 通过计算两幅图像中各特征点描述子间的距离实 现特征匹配; 最后, 根据匹配结果, 估计单应性矩阵, 定位目标在场景图像中的位置. 实验结果表明, 该算法匹配速度快、 定位精度高, 能满足机器人伺服定位抓取中定位精度和实时性的要求.  相似文献   

6.
针对传统移动机器人视觉图像分级匹配算法只能完成粗匹配,导致最终匹配精度较低、匹配时间较长等问题,提出一种基于深度强化学习的移动机器人视觉图像分级匹配算法.首先,利用深度强化学习网络结构中的策略网络和价值网络,共同指导浮动图像按正确方向移至参考图像;其次,在粗匹配过程中通过设计奖赏函数,实现颜色特征粗匹配;最后,在粗匹配基础上,利用改进尺度不变特征变换算法提取待匹配的图像局部特征,按相似度进行移动机器人视觉图像分级匹配.实验结果表明,该算法可有效实现图像的粗匹配与精匹配,在不同视角与尺度情况下特征检测的稳定性均较高,匹配精度高、时间短,匹配后的图像质量较好,提高了移动机器人的实际应用效果.  相似文献   

7.
针对W(WLAN,Wireless Local Area Network)、R(RFID,Radio Frequency Identification)、V(Video)技术在室内定位的特点,提出了基于WRV信息融合的机器人定位方法。以概率法为基础,进行了基于Kalman滤波的WLAN机器人定位实验;以增加移动误差补偿的极大似然估计定位算法为基础,进行了基于Kalman滤波的RFID机器人定位实验;以SIFT算法为基础,进行了机器人定位实验;最后研究了机器人多信息融合定位算法并进行了实验。移动机器人定位实验表明:机器人多信息融合定位平均定位偏差为0.381m,减少了WLAN、RFID及视觉系统单独定位时的偏差,定位精度上有了明显的提高,可以较好地满足室内移动机器人的定位要求。  相似文献   

8.
该文根据在室外非结构化环境中实现区域充满运行的一类移动机器人的工作特点,提出了利用组合定位系统和数字地图匹配算法对机器人进行导航定位的一种策略。利用基于环境特征位置探测和数字地图信息匹配相结合对定位误差进行修正的方法来提高机器人导航定位精度。该方法克服了传统导航定位方法存在累积误差和系统复杂、成本高等缺点。经实验验证:该文提出的定位系统和误差修正的方法能满足移动机器人区域充满运行的定位精度要求。  相似文献   

9.
提出一种针对复杂标识的分类学习算法,并将其应用于移动增强现实系统中,实现了基于自然特征的跟踪定位系统.在场景特征点识别分类基础上,采用关键帧匹配算法实现无标识跟踪定位.针对含有对称结构的场景提出一种误匹配特征的回收机制.实验结果表明,该算法可解决由于场景对称结构导致的错误特征匹配,从而大幅提高特征的正确匹配率.  相似文献   

10.
针对立体匹配中弱纹理区域和深度不连续区域的匹配精度问题,提出了一种基于多特征融合的树形结构代价聚合立体匹配算法.首先,融合图像颜色、梯度和图像的Census变换进行匹配代价计算;然后,在由原始图像生成的最小生成树上进行匹配代价聚合,并使用多方向扫描线优化,进一步提升立体匹配的精确度;最后,使用左右一致性检测标记出误匹配点,并进行视差修正.为了验证该算法的有效性,使用Middlebury测试集提供的测试图像进行测试,平均误匹配率为6.38%;分别对2种场景实际拍摄图像进行深度信息提取误差率测试,测试得到2种场景的测距误差率分别为5.76%和5.55%,证明了该算法的实用性.  相似文献   

11.
针对SURF匹配算法,提出一种局部特征匹配的思想,对场景中多个目标机器人进行识别与跟踪。在静态场景中,利用背景差法检测出场景中所有运动机器人,提取各个机器人的轮廓,通过轮廓获得每个机器人在图像中的区域,对每个小区域提取SURF特征点并与模板图像进行匹配,得到想要跟踪机器人的位置信息,最后通过Kalman滤波对机器人位置进行修正并跟踪。实验证明本算法在不降低匹配的准确性上有效提高了识别与跟踪的效率。  相似文献   

12.
针对基于视觉的室内场景三维重建过程中存在三维点云匹配不准确、过程耗时和深度信息部分缺失的问题,提出一种带有深度约束和局部近邻约束的基于RGB-D的室内场景实时三维重建算法.该算法首先利用RGB-D相机采集到的RGB图像做哈里斯角点检测,再用SURF特征点描述方法对检测到的特征点生成64维特征描述子.接着利用特征点集合的深度信息和局部近邻特征点信息作为约束,初步筛选出相邻帧间正确的匹配点对,再结合随机抽样一致性(RANSAC)算法去除外点,以此得到相机的姿态估计.最后利用RGB-D的深度图像,在图优化方法(g2o)的基础上生成三维点云,实现室内场景的三维重建.实验中,RGB-D摄像头装载在自主移动导航的小车上,实时重构的三维场景验证了所提算法的可行性和准确性.  相似文献   

13.
受室外大范围场景中景物多样性和复杂性的影响,移动机器人在进行目标检测与定位时,运动视角的改变往往导致定位成功率下降.针对此提出一种基于多视角特征点匹配的方法进行室外目标定位.该方法首先获取图像的SURF特征进行匹配,然后结合FLANN和KNN算法滤除错误匹配点,有效地提升了匹配质量,节省了运算时间.通过对不同视角下景物模板的匹配判断,经透视变换映射出目标物体,最终实现目标定位.以校园场景景物为定位目标进行实验.结果表明该方法有效提升了单视角目标定位的成功率,具有较好实时性.  相似文献   

14.
近年来,由于移动机器人逐渐脱离实验环境进入到商用阶段,采用激光雷达进行地图导航的方式由于成本过高逐渐被低成本的视觉方案所取代。依托两台单目摄像机,基于图像识别理论可以对机器人的工作环境进行感知建模,所获得的信息相较于传统的激光雷达的距离信息更增加了特征信息,使得机器人的导航定位更加灵活。针对移动机器人的导航问题,提出了一种基于图像识别的定位导航算法。首先,分析了问题的研究背景和研究现状;其次,构建了双目视觉定位系统并分析了图像特征提取的主要方法;再次,提出了一种改进的图像匹配方法实现视觉SLAM;最终,所设计的算法通过实验进行了验证。实验结果表明,所设计的算法能够准确呈现工作环境的原始信息。  相似文献   

15.
为解决巡检机器人对换流站狭窄区域场景以及多楼层场景建图定位困难的问题,本文采用四足机器人作为巡检平台,对四足机器人建图定位系统进行优化。首先融合深度相机与激光雷达点云,对融合点云进行地面分割,提取边缘特征、非地面面特征以及地面面特征,优化基于特征的点云匹配算法,使用紧耦合的迭代卡尔曼滤波器(iterated extended Kalman filter, IEKF)来融合点云特征点和惯性测量单元(inertial measurement unit, IMU),通过ORB(oriented FAST and rotated BRIEF)描述符计算关键帧图像的BoW(Bag-of-Words)向量用于回环检测消除建图累积误差。其次,通过无迹卡尔曼滤波(unscented Kalman filter, UKF)融合足式里程计作为四足机器人正态分布变换(normal distribution transform,NDT)姿态匹配初值,加快NDT匹配时间,通过实时匹配融合点云与三维地图得到全局位姿进行姿态更新。实验结果表明,本文提出的建图方法可以实现狭窄通道以及多楼层场景的有效建图,所提出的定位方法可以实现两种场景下帧图匹配时间至42 ms以及重复定位精度6 cm以内的实时有效定位。  相似文献   

16.
针对FastSLAM算法对传感器精度要求较高,不适用于方向性差的超声传感器问题,提出了一种基于超声概率栅格地图环境特征点提取匹配的移动机器人粒子滤波同时定位与地图创建(SLAM)算法.该算法可分解为机器人位姿估计和环境路标估计2个部分.基于蒙特卡罗定位原理利用粒子滤波算法对机器人运动轨迹进行估计;在建立全局超声概率栅格地图的基础上,利用概率栅格地图环境特征提取算法对环境路标坐标进行估计.实验证明,该算法较好地解决了超声测距传感器由于散射角大带来的特征点估计不准的问题,对环境路标和机器人轨迹的估计都比较准确.并对移动机器人累计误差进行了有效的补偿,减少了由于累积误差造成的移动机器人轨迹扭曲失真.  相似文献   

17.
针对现有的SIFT特征在车辆细粒度分类中存在的分类精度低的问题,提出了一种融合FV-SIFT特征和深度卷积特征的车辆图像细粒度分类算法。首先采用SIFT算法与Fisher Vector算法相结合的方式提取车辆图像的FV-SIFT特征,然后采用VGG-16卷积神经网络提取车辆图像的深度卷积特征,最后将FV-SIFT特征与深度卷积特征进行线性融合并采用支持向量机对融合后的车辆特征进行分类。实验结果表明,该方法的分类准确率达到82.3%,较FV-SIFT算法在分类准确率上提高了15.4%。  相似文献   

18.
基于特征的匹配是立体匹配中最常用的方法,但是匹配结果受特征检测精度的影响较大.针对这一问题,提出一种基于相位一致性角点检测的匹配算法,该算法采用相位一致性模型对图像中的角点特征进行检测,检测结果不受亮度、对比度等因素影响,因此在不同光照环境下的多幅图像可以使用相同的固定阈值,避免了特征检测中阈值选取的困难.在此基础上,结合场景的深度信息采用图像的灰度局部区域相关系数进行特征匹配.实验结果表明,该算法获得的匹配结果具有很高的正确匹配率.  相似文献   

19.
基于主动信标和航位推测法的多机器人位置最优估计   总被引:1,自引:0,他引:1  
针对一种新的多机器人交替定位方式,研究基于主动信标和航位推测法的多机器人位置估计算法. 指定多机器人中的3个保持静止作为信标机器人(不一定始终是同样3个机器人),其它机器人作为移动机器人. 通过超声波测距得到移动机器人与3个信标机器人的距离,并通过IEKF(iterated EKF)算法将距离信息和移动机器人的航位推测信息相融合,实现移动机器人位置的最佳估计. 轮流交换机器人作为主动信标的角色,即可实现多机器人的位置估计. 实验验证结果表明,移动机器人的位置估计误差在±10 mm之内;该方法有效,且不需要在环境中设置固定信标,可应用于未知环境.  相似文献   

20.
为满足机器人伺服抓取中定位精度和实时性的要求, 提出一种基于Harris及改进局部二值模式(LBP)的特征匹配和目标定位快速算法. 首先采用Harris检测算法提取图像特征点; 然后提出一种新的特征点描述子定义方法, 先利用胡矩确定特征方向, 再根据特征方向对局部图像做标准化处理, 提取标准化局部图像LBP特征作为特征点描述子; 最后通过计算两张图像中各特征点描述子间的汉明距离实现特征匹配, 再根据匹配结果估计单应性矩阵, 定位目标在场景图像中的位置. 实验结果表明, 该算法匹配速度快、 定位精度高.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号