首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
为了校正低帧率2D激光雷达在机器人快速移动时产生的运动畸变,提出一种惯性测量单元(inertial measurement unit, IMU)和轮式里程计联合的激光雷达运动畸变较正方法。在传统轮式里程计辅助法的基础上,针对轮式里程计高速时容易打滑造成角度测量误差较大的缺点,利用局部角速度精度较高的IMU数据来完成激光雷达角度误差的较正。算法采用麦克纳姆全向轮式机器人进行验证。实验结果表明:IMU和轮式里程计联合较正运动畸变的方法能够克服轮式里程计打滑的机械性缺陷,有效减小雷达的位移误差和角度误差,大大提高低帧率2D激光雷达地图构建的质量。  相似文献   

2.
地下车库中纯视觉的即时定位与建图(simultaneous localization and mapping, SLAM)方法无法克服光线不足和弱特征纹理两大不利因素,为此,提出一种基于VINS-Mono框架下改进的视觉惯导融合算法,把原算法中提取Harris角点的方法改进为提取灰度值陡变的像素点,并使用非线性优化方法在初始化阶段进行视觉位姿估计。后端采用滑动窗口的形式建立先验估计残差、惯性测量单元(inertial measurement unit, IMU)残差以及基于灰度值不变原理构建的视觉残差的联合残差模型,进一步提升了系统底层变量的优化效果,从而提高算法的定位准确度。通过基于EuRoc数据集的仿真实验和地下车库实际场景的实车实验,验证了所提算法的鲁棒性和精确性。  相似文献   

3.
COP-SLAM(closed-form online pose-chain simultaneous locatization and mapping)是一种轻量型图优化算法,可以实时优化.但当局内特征点集中位于图像的特定区域时,其信息矩阵不能很好地表征里程计精度,影响实时优化效果.基于局内特征点的分布,引入局内点集的面积表示局内点的分布,提出了一种视觉里程计的后端图优化方法.实验结果表明,该优化方法有效地降低了相机绝对轨迹误差.  相似文献   

4.
室内动态场景下的同步定位与地图构建(simultaneous localization and mapping, SLAM)系统容易受到运动障碍物的影响,从而导致其位姿估计精度和视觉里程计的稳定性降低。本文提出一种基于YOLOv4目标检测网络的视觉SLAM算法,获取语义信息,并利用LK光流法判断动态特征,在传统的ORB-SLAM2系统上将动态特征点剔除,只使用静态特征点来估计相机的位姿;建立稠密点云地图,并转化成节约内存空间的八叉树地图。在TUM公开数据集上对该方法进行测试和评估,实验结果表明:在动态环境下,该系统与ORB-SLAM2相比,相机位姿估计精度提高83%,且减少了生成的环境地图的存储空间,为后续实现机器人导航具有重要意义。  相似文献   

5.
针对现有的激光里程计在面临室外大场景建图时,普遍会出现定位精度低、鲁棒性差的问题,本文提出一种16线激光和IMU惯性测量单元紧耦合的SLAM算法。首先对IMU进行估计位姿,通过线性插值矫正激光点云的运动畸变;接着通过曲率提取场景特征,并根据不同特征性质进行分类;然后利用帧间匹配模块在滑动窗口内构建局部地图;最后利用帧与局部地图匹配得到的距离和IMU数据构建联合优化函数。借助KITTI数据集和自行录制的园区数据集,对改进算法与主流的Lego-LOAM和同样使用紧耦合方案的LIO-Mapping进行分模块和整个系统的精度评定,实测结果表明,在符合里程计实时性的要求下,改进激光里程计精度高于Lego-LOAM和LIO-Mapping方案。  相似文献   

6.
构建三维道路数字模型对智能车服务和道路管理具有重要意义。文中针对高速公路不同路段应用场景下车辆运行速度快、干扰噪声多、特征少和无回环检测辅助等一系列问题,提出一种以激光雷达信息为建模基础数据、激光雷达里程计与LOAM技术等多传感器融合的高速公路三维建模方法。首先,通过车载激光雷达获取道路场景的激光点云数据,使用激光雷达图像分割技术赋予每一个点有关构造物的标签,剔除道路上其他运动车辆的信息,减少建模噪声;其次,制定了一个精确的同步策略来对GNSS、IMU和激光雷达等传感器进行集成;在此基础上,结合惯性导航预积分结果、基于特征点云的位姿约束和RTK数据构建因子图,消除激光雷达里程计的累积误差,从而构建全局一致性的高速公路三维数字模型。为了保持姿态估计的有限数量,文中还引入了基于关键帧的滑动窗口优化策略。最后,分别采集高速公路场景中常见的3种路段(一般路段、桥梁和隧道路段)进行建模分析,结果表明,在具有挑战性的高速公路场景建模中,文中方法能够有效提高建模鲁棒性、精度以及模型有效性。  相似文献   

7.
针对当前视觉同时定位与建图(simultaneous localization and mapping,SLAM)生成的点云地图不能满足路径规划和导航的需要,提出一种室内移动机器人的导航地图制备方法.首先,通过SLAM估计相机位姿,后端优化后生成室内场景的三维点云地图;其次,根据地面移动机器人的运动约束及结构特点分情况讨论,推导点云相对于地面的二维坐标,同时对点云进行地面与障碍的分离、截取与筛选;最后,根据栅格占据状况有序构建出导航地图.实验结果表明,基于点云坐标的障碍物截取准确度高于地面拟合截取方法,所建地图精度与完整度均高于传统方法.室内移动机器人能基于该地图进行路径规划与导航.  相似文献   

8.
提出了一种用于自动驾驶汽车的低漂移、低延迟的里程计与高精度建图的算法。该方法融合了多种传感器的测量结果,包括车轮编码器、转向盘转角编码器、激光雷达及可选GPS等的测量结果。里程计算法由车轮里程计和激光里程计组成:前者基于车辆运动学模型,高频、实时估计位姿增量,用于点云去畸变和为后者优化位姿提供可用的初值;后者以较低的频率估计车辆的精确位姿变化,以补偿前者累计的误差,其核心是一种基于角度度量的两阶段特征提取方法。建图算法基于因子图,包含激光里程计因子、回环因子和可选GPS因子,通过增量平滑和建图算法优化全局轨迹,在线生成全局地图,其中GPS因子能够自动对齐GPS坐标系和里程计坐标系,逐步融合GPS测量值,解除了算法初始化过程对于GPS的依赖。所提出的方法在自动驾驶汽车平台数据集上进行了评估,并和已开源的部分相关工作进行对比,结果表明它具有更低的漂移率,在本文进行的最大规模的测试中达到了0.53%。相关代码以开源形式供交流参考(https://github.com/Saki-Chen/W-LOAM)。  相似文献   

9.
针对廊道环境的数字重构问题,设计了一种基于单线激光雷达的数字重构系统.该系统利用移动机器人搭载单线激光雷达传感器,构建三维雷达扫描系统,实现廊道环境的自动扫描和实时重构.首先进行系统的硬件搭建,其次详细介绍了系统的数字重构过程,主要包括移动机器人控制模块设计、坐标转换、数据融合等.为了解决移动机器人运动偏离的问题,在控制系统中加入模糊PID(porportion integral differential)控制算法,保证了系统数据采集的准确性.对于2D点云到3D点云的转换的问题,提出了一种里程计数据和激光雷达传感器数据融合的方法.最后进行实验测试.结果 表明:该系统可以实现对一般复杂的廊道场景进行自动化采集和实时重构,不仅精度高而且重构特征明显.  相似文献   

10.
提出一种基于混合地图模型的融合声纳传感器观测信息与里程计信息的同时定位与环境建模(SLAM)方法.该方法用混合模型即栅格地图模型和直线特征地图模型表示环境地图.首先,采用三区域声纳模型以及贝叶斯法则构建栅格地图,并通过在空间和时间上融合不同时刻多个声纳传感器的信息提高地图精度.然后,引入霍夫变换提取直线特征,创建直线特征地图,并通过比较地图中直线段的方向相似性、共线性与交叠性,确定全局与局部地图是否匹配.最后,利用直线特征以及扩展卡尔曼滤波器(EKF),通过状态预测、观测预测、位姿更新3个阶段估计出机器人更新的位姿信息,校正构建的地图模型,从而实现机器人的同时定位与环境地图构建.仿真实验和真实环境实验验证了该算法的可行性与有效性.  相似文献   

11.
基于非线性逆透视变换的摄像机畸变参数标定   总被引:2,自引:1,他引:1  
李颢  杨明 《上海交通大学学报》2008,42(10):1736-1739
为实现摄像机畸变参数标定,提出了一种基于非线性逆透视变换模型的标定新方法.根据线性透视变换模型和畸变模型推导出非线性逆透视变换模型,以及逆透视变换参数与畸变参数之间的关系;在此基础上,建立以畸变参数为最优解的泛函,然后进行优化搜索求解.在优化搜索中,采用改进牛顿法确定搜索方向,然后,采用试探法沿搜索方向进行一维搜索.该方法仅需对数目较少的畸变参数进行优化搜索,可大幅降低优化搜索的维度和复杂度.仿真和实验结果表明:该方法正确有效,求解精度较高.  相似文献   

12.
基于单目视觉的Delta机器人零点标定方法   总被引:1,自引:0,他引:1  
针对实际工程应用中少自由度高速抓放并联机器人的精度问题,提出了一种基于视觉测量的快速标定方法.以Delta机器人为例,通过系统分析和机构合理简化,建立了零点误差模型.构造出基于单目视觉平面测量的零点误差辨识模型,借助单目视觉仅检测机器人动平台沿水平面运动时末端x、y向的位置误差,识别出零点误差,进而修改零点位置实现末端位置误差补偿.标定实验结果表明该方法简单、有效、实用性强.  相似文献   

13.
基于数据手套的手势仿真是人机交互研究中的重要内容。首先,采用网格曲面的方法建立了虚拟手的几何模型,解决了简单几何体建模出现的指节断裂现象;其次,为了保证运动映射的精确度,建立了虚拟手的运动模型,针对虚拟手外展时的失真现象,提出了约束值的方法;最后,基于Virtools开发平台,使用数据手套的SDK开发了数据采集模块并给出了具体的方法,编写了手势仿真的脚本程序。实验结果表明,该方法较好地解决了仿真手势的失真问题。  相似文献   

14.
基于立体靶标的摄像机标定方法   总被引:1,自引:0,他引:1  
为获取视觉测量系统中二维图像到三维空间位置的变换关系,提出一种基于立体靶标的摄像机标定方法.针对无畸变小孔成像模型,使用最小二乘法求解初始投影矩阵后通过LM准则对其优化;根据多张图像对应的投影矩阵,求解摄像机内参数及各相应外参数;引入二阶径向畸变模型,建立理想图像坐标和实际图像坐标间的方程求解初始畸变系数;使用LM准则...  相似文献   

15.
在敦煌莫高窟文化遗产数字化保护中,针对基于立体视觉的方法对目标进行三维重建时,复杂表面缺乏特征点,难以获取高密度和高精度空间三维点云的问题,提出了一种基于投影和四目立体视觉的方法。首先,采用投影仪向目标投射黑白棋盘格,并检测角点;然后通过软件细分,将棋盘格在横向和纵向分别平移9次,将棋盘格角点数扩展81倍;最后,用基于四目立体视觉系统的匹配策略,短基距系统用来立体匹配,长基距系统用来计算空间坐标,获取均匀、高密度和高精度的三维点云。实验结果表明:与传统的Harris算子相比较,所提方法获取的三维点云数据能更准确地描述目标的三维结构,点数在数量级上有提高。精度方面,所获取三维点云空间坐标的绝对误差小于1 cm,相对误差小于10%。  相似文献   

16.
在机器人两轮差速运动模型分析的基础上,根据运动模型的航迹演算公式可实时计算机器人轨迹姿态。基于机器人操作系统架构平台设计了机器人本体、机器人底座、驱动液压马达、导向轮、激光雷达等7个关节和连接的结构模型。各机器人关节坐标系变换关系经过Tf实时发布,用于计算机器人位置坐标信息。针对液压机器人没有配备编码器和视觉系统的不足,系统采用2D平面激光里程计模型(RF2O),通过建立连续激光扫描点对距离的流约束方程获得机器人平面运动估计,进而得出激光雷达的速度和机器人实际运行轨迹。设计了自主导航软件系统,实现了导航地图构建、定点任务导航和多机器人管理等功能,并对机器人定位导航精度进行了测试,分析对比多次指定位置和导航位置的数据差异,结果表明机器人导航定位精度达到设计要求。  相似文献   

17.
基于视觉的六自由度机械臂运动学参数辨识   总被引:2,自引:0,他引:2  
提出一种新型低成本的基于单目视觉的机器人末端位姿测量方法,设计并实现了六自由度机械臂的运动学参数辨识。采用分级测量方法和标定板绝对编码方法,解决了当前视觉测量过程中测量范围小、测量精度受相机畸变影响大等问题;使用基于位置误差的运动学参数辨识模型和单目视觉测量系统,简化了机器人的标定过程。最后,通过实验验证了方案的实用性和有效性。  相似文献   

18.
H.264/AVC网络视频编码失真评估的比特流层模型   总被引:1,自引:0,他引:1  
为了实现对采用H.264/AVC标准编码的网络视频质量的实时监测,提出一种评估视频编码质量的比特流层模型.该模型无需完全解码,只通过简单解析视频的量化参数、编码比特率以及运动矢量等信息评估视频流质量.首先,通过主观评估实验分析确定量化参数与视频编码失真的基本关系模型,然后利用量化参数和编码比特率预测视频的空间复杂度,利用运动矢量信息预测视频的时间复杂度,并结合空域掩盖效应和时域掩盖效应建立起一个能够反映人视觉特性的视频质量评估模型.实验结果表明,与解析码流的无参考网络视频质量评估模型相比,利用该模型得到的客观质量分数与主观质量分数的皮尔森相关系数提高了0.0160,均方根误差下降了0.0797.  相似文献   

19.
为了减小行人导航过程中的误差,提出基于支持向量机分类决策的零速反馈修正方法。根据行人足部运动特点,构建行人足部运动模型,利用支持向量机决策方法对足部运动样本数据进行训练和提取数据特征,建立超平面方程。通过超平面函数对行人足部运动数据进行分类和决策,辨别区分静止段和运动段。在零速静止段,对惯性导航解算的速度、角速度和方向进行修正,利用扩展卡尔曼滤波递推方法进行方向、速度和位置误差跟踪。进行了行人按既定路径的行走跟踪实验,结果表明,设计的行人导航系统能够使行人行走轨迹与设定路径完全吻合,多次测试数据最大误差小于2.5%,平均误差为1.94%。因此,基于支持向量机分类决策的行人导航零速修正方法能够准确地对行人轨迹进行跟踪和定位。  相似文献   

20.
为保证四足机器人在复杂地形中能准确行进,对其步态实时监测方法进行了研究,提出一种基于机器学习和双目视觉的步态精确监测方法。首先为降低视觉残影误差,从已知步态轨迹“动中取静”确定对足端的最佳观测点位。此外,为补偿视觉系统误差所致足端位姿测量误差,提出一种基于深度神经网络的足端位姿精确预测方法。最后仿真结果表明所设计神经网络有99.68%的概率能达到0.025 mm足端位置预测精度,可满足实时、高精度监测要求。此方法将机器学习的泛化能力与视觉系统复杂误差来源相结合,使视觉方法实现了高精度测量,为足式机器人步态实时精确监测提供了新思路,进而为其足端精确定位及步态周期性保持提供了有益的方法参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号