首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
无人驾驶场景中的动态物体会影响同时定位与建图(SLAM)系统的整体精度和鲁棒性,针对现有多数激光SLAM系统在动态环境下易出现里程计漂移、定位失败和建图重影问题,本文融合轻量级PointPillars目标检测网络和多目标跟踪方法,构建了一种面向动态场景的语义激光SLAM系统.该系统首先利用PointPillars网络获取潜在动态目标检测框并过滤检测框内特征点,以获取里程计初始位姿.其次基于匀速卡尔曼滤波器的多目标跟踪算法获取跟踪结果,以构建时序滑动窗口,实现鲁棒、高效的目标级数据时空关联,以去除动态物体和恢复静态目标,进一步优化里程计.最后在包含动态场景的KITTI和NUSCENES公开数据集上与主流激光SLAM方法进行对比实验,结果表明本系统在里程计和全局地图的准确性和鲁棒性方面有显著的提高,同时系统保持了实时性,可满足动态场景下自主机器人系统和智能交通应用.  相似文献   

3.
提出一种利用深度学习提高动态环境下视觉语义即时定位与地图构建(SLAM)的方法.首先用实例分割网络对关键帧进行实例分割,建立先验语义信息;然后计算特征点光流场对物体进一步区分,识别出场景真正运动物体并将属于动态物体的特征点去除;最后进行语义关联,建立无动态物体干扰的语义地图.将本文方法在室内环境公开数据集中测试,结果表明该方法可有效消除动态物体对建图的影响,提高建图精度.  相似文献   

4.
将曼哈顿世界假说(Manhattan World assumption,MW)引入室内定位问题,提出了一种改进的基于RGB-D视觉与平面特征的室内定位方案,不仅能有效提高场景匹配的成功率,还可简化未知场景下的定位问题,提高定位效率和实时性,可用于对同步定位与建图SLAM(Simultaneous Localization and Mapping)系统的扩展.创新点主要体现在:针对解释树匹配的时间开销随特征数指数级上升的问题,设计了根据曼哈顿帧的主方向进行分解的匹配方法;针对单条行进路径搜索效率有待提高的问题,提出了在初始位姿确定后采用4自由度的简化定位方案;针对单帧中遍历执行子图匹配耗时较长的问题,将小范围子图合并为大范围子图后进行匹配.实验结果表明,该方案相较已有的平面特征定位方法,能缩短成功定位所需的行进距离,并显著降低单条行进路径上的平均搜索耗时.  相似文献   

5.
提出了一种在非确定环境下求解SLAM数据关联问题的图匹配算法. 算法建立了SLAM中数据关联的图论模型,对图模型节点提取了不依赖位置信息的形状上下文特征(shape context,SC),最后通过二次加权随机步进算法(reweighted random walks,RRW)得到图匹配问题的优化解. RRW&SC图匹配算法充分利用了路标间的拓扑结构关系以及路标间的形状结构,极大地扩展了数据关联时所依据的几何信息量. 仿真实验结果表明,与传统算法相比,该算法能有效处理SLAM中噪声干扰增加、机器人迷失、路标被动态遮挡等不确定程度高、歧义性大环境中的数据关联.   相似文献   

6.
同时定位与地图构建(simultaneous localization and mapping,SLAM)是自主移动机器人导航的一个重要研究方向.视觉SLAM是一种使用相机作为主要信息来源的SLAM技术.与较为成熟的基于激光测距的SLAM相比,视觉SLAM还有许多问题亟待研究解决.近年来,随着人工智能、机器学习、图像处...  相似文献   

7.
针对变电站等复杂环境地图构建问题,分析对比了目前几种主流激光SLAM算法,以Cartographer SLAM作为研究基础,在此基础上提出了一种优化后的SLAM建图方案,该方法基于双2D激光雷达互相垂直的方法实现三维建图的新系统,具体实现是通过高精度校准方法标定两台2D激光仪的位姿关系,并对两组数据进行优化融合以获得高精度的三维数据,进而保证最终定位和建图的精度。用Ubuntu 16.04环境下进行了仿真和实验,实验结果表明上述方案具很好的有效性和可实施性。  相似文献   

8.
针对视觉SLAM(Simultaneous Localization and Mapping)在真实场景下出现动态物体(如行人,车辆、动物)等影响算法定位和建图精确性的问题,基于ORB-SLAM3(Oriented FAST and Rotated BRIEF-Simultaneous Localization and Mapping 3)提出了YOLOv3-ORB-SLAM3算法。该算法在ORB-SLAM3的基础上增加了语义线程,采用动态和静态场景特征提取双线程机制:语义线程使用YOLOv3对场景中动态物体进行语义识别目标检测,同时对提取的动态区域特征点进行离群点剔除;跟踪线程通过ORB特征提取场景区域特征,结合语义信息获得静态场景特征送入后端,从而消除动态场景对系统的干扰,提升视觉SLAM算法定位精度。利用TUM(Technical University of Munich)数据集验证,结果表明YOLOv3-ORB-SLAM3算法在单目模式下动态序列相比ORB-SLAM3算法ATE(Average Treatment Effect)指标下降30%左右,RGB-D(Red, Gree...  相似文献   

9.
VINS-Mono算法应用于轮式机器人时,由于惯性测量单元(inertial measurement unit, IMU)加速度计信噪比较小,观测尺度不准确,会出现定位精度下降。对此,提出了一种融合单目相机、惯性测量单元和编码器的改进算法。在VINS-Mono初始化和后端优化的目标函数中,增加编码器测量残差项,直接融合由编码器数据计算的速度,增强尺度的可观性,降低定位累积误差,提高了定位精度。另外,针对车轮打滑造成编码器速度测量不准的问题,利用IMU角速度计测量值计算打滑因子,自适应调整编码器残差项在目标函数中的权重及其鲁棒核函数的阈值,减小车轮打滑对定位结果的影响。在两轮移动机器人上的实验表明,改进算法具有较强的鲁棒性,定位精度比VINS-Mono提高了一个数量级。  相似文献   

10.
针对容积卡尔曼滤波(cubature Kalman filter, CKF)同步定位与建图(simultaneous localization and mapping, SLAM)算法在动态目标跟踪(object tracking, OT)的应用中,存在算法实时性不高、计算复杂以及对动态目标物跟踪精度较低的问题,提出基于平方根容积卡尔曼滤波SLAM的无人水下航行器(unmanned underwater Vehicle, UUV)目标跟踪算法(SRCKF-SLAM-OT).该算法将CKF-SLAM-OT中复杂的计算部分,利用3阶容积准则选取一组相同权值的容积点来近似计算,再利用数值积分法计算非线性方程模型的后验状态估计平均值和方差,并对协方差矩阵的平方根因子进行更新.仿真结果表明:SRCKF-SLAM-OT算法简化了计算量和改善了数值精度,提高了UUV在未知水下环境中自身定位的精度和动态目标物跟踪的能力.  相似文献   

11.
室内动态场景下的同步定位与地图构建(simultaneous localization and mapping, SLAM)系统容易受到运动障碍物的影响,从而导致其位姿估计精度和视觉里程计的稳定性降低。本文提出一种基于YOLOv4目标检测网络的视觉SLAM算法,获取语义信息,并利用LK光流法判断动态特征,在传统的ORB-SLAM2系统上将动态特征点剔除,只使用静态特征点来估计相机的位姿;建立稠密点云地图,并转化成节约内存空间的八叉树地图。在TUM公开数据集上对该方法进行测试和评估,实验结果表明:在动态环境下,该系统与ORB-SLAM2相比,相机位姿估计精度提高83%,且减少了生成的环境地图的存储空间,为后续实现机器人导航具有重要意义。  相似文献   

12.
针对目前面向语义同步定位与地图构建(SLAM)研究大多需要已知三维对象模型作为先验知识,或者只对有限的几种物体的类别进行语义分割,而没有区分对象的个体的问题,结合目前先进的基于深度学习的实例分割算法和视觉SLAM算法提出了一种面向实例个体的物体识别和语义地图构建方法,使得机器人不仅获得了面向导航的环境几何信息,而且掌握了面向物体个体的属性和位置信息.该方法利用由视觉SLAM算法获得的图像帧间几何一致性约束来促进连续图像帧中物体匹配与识别结果,提高物体实例识别的精度,同时结合实例识别结果完成语义建图的任务.最后实现了基于视觉SLAM算法的物体实例识别与语义地图构建系统,并在ICL-NUIM数据集上进行实验,实验结果表明该系统能够基本完整地识别场景中的各种物体并生成环境的语义地图,验证了本方法的有效性.  相似文献   

13.
同时定位与建图(SLAM)是指当机器人在未知的环境中运行时能够自动绘制环境地图,同时确定自身在地图中的位置。融合视觉和惯性传感器获取的数据来实现实时的高精度和鲁棒的SLAM,是当前智能机器人领域的研究热点。为了全面深入地认识VI-SLAM系统,首先,分析了4种典型的VI-SLAM系统;其次,综述了视觉惯性里程计、定位和建图技术方面的最新成果;再次,比较分析了VI-SLAM研究平台;最后,总结展望了未来的发展趋势。  相似文献   

14.
针对地下车库环境中无人驾驶汽车视觉同时定位和建图(SLAM)定位精度低的问题,提出一种融合惯性测量单元(IMU)角速度信息和车辆动力学信息的预积分方法.以IMU频率进行旋转预积分,以车辆动力学频率进行平移预积分.在平移预积分的计算中引入角速度信息,使其可以表达非平面运动.首先使用李代数和旋转群推导了相关的预积分公式、雅可比及噪声状态转移方程;然后以此预积分为基础将车辆动力学信息融合到双目视觉惯性SLAM中,以提高定位精度.地下车库实车实验表明:该方法将双目视觉惯性ORB-SLAM3的平均定位精度提高了32%.  相似文献   

15.
基于改进粒子滤波器,提出了一种应用于未知环境下的移动机器人的同步定位与地图创建方法.针对传统粒子滤波器经过多次迭代后粒子退化从而需要大量粒子才能提高定位精度的问题,设计了一种基于人工鱼群算法的粒子滤波算法,该方法主要利用人工鱼群算法对预估粒子进行二次更新,从而调整了粒子的分布使其更加接近真实位姿,提高机器人的SLAM性能.经过Matlab仿真实验,证明了该方法能够准确快速地对机器人定位,并且构建的地图精度也很高.  相似文献   

16.
针对视觉SLAM系统在室内场景下易受行人干扰,导致定位精度和稳定性下降的问题,提出了一种室内剔除行人特征点的视觉SLAM算法,该算法在传统的ORB_SLAM2算法中集成了一个新的动态目标检测线程,此线程使用YOLOV5s目标检测算法识别并剔除行人动态信息。首先,系统对YOLOV5s引入坐标注意力机制,提取图像中与目标相关的特征;其次,将彩色图像同时输入到ORB_SLAM2算法和动态目标检测线程中,ORB_SLAM2算法实时估计相机位姿,动态目标检测线程识别和剔除行人动态目标,从而减少其对ORB_SLAM2算法的干扰;最后,将2个线程的输出融合至静态地图构建线程,生成无行人干扰的地图构建结果。针对文中算法,在不同数据集下开展试验验证。结果表明:相对于ORB_SLAM2算法,改进算法在TUM的高动态数据集中绝对轨迹精度提高了96.51%,相对轨迹精度提高了96.57%,相对轨迹误差的旋转精度提高了96.47%。室内剔除行人特征点的视觉SLAM算法充分过滤了行人特征点,提高了SLAM系统的精度,为室内导航、建图等领域提供了一种新的解决方案。  相似文献   

17.
为解决夜晚值班人员犯困的问题,设计具有自主避障、自适应构图、自主导航及定位等功能的可辅助值守人员巡逻的自适应仓库值守机器人.利用光电、陀螺仪、激光雷达等传感器进行感知,由搭载ROS(Robot Operating System)机器人操作系统的Intel5微处理器进行控制.采用开源设计模式,结合SLAM(Simulta...  相似文献   

18.
针对传统的相关滤波方法采用手工特征提取训练样本,限制了跟踪性能的进一步提升,在相关滤波框架下,探讨了深度神经网络VGG-16不同卷积层特征的目标跟踪效果,研究发现,从VGG-16提取的特征相对于传统手工特征具有显著优势;而在深度特征中,以第一层和第五层对目标跟踪性能的提升最为明显.以此为依据,提出了用第一层和第五层特征分别训练相关滤波器、将两者的相关响应图加权后进行目标定位.在OTB2013数据集上的实验结果表明:该方法对跟踪精度和鲁棒性均有进一步的改善.  相似文献   

19.
郭培涛  席志红 《应用科技》2024,(2):76-81+89
为了提高室内动态场景下定位与建图的准确性与实时性,提出了一种基于目标检测的室内动态场景同步定位与建图(simultaneous localization and mapping, SLAM)系统。利用目标检测的实时性,在传统ORB_SLAM2算法上结合YOLOv5目标检测网络识别相机图像中的动态物体,生成动态识别框,根据动态特征点判别方法只将识别框内动态物体上的ORB特征点去除,利用剩余特征点进行相机位姿的估计,最后建立只含静态物体的稠密点云地图与八叉树地图。同时在机器人操作系统(robot operating system, ROS)下进行仿真,采用套接字(Socket)通信方式代替ROS中话题通信方式,将ORB_SLAM2算法与YOLOv5目标检测网络相结合,以提高定位与建图的实时性。在TUM数据集上进行多次实验结果表明,与ORB_SLAM2系统相比,本文系统相机位姿精确度大幅度提高,并且提高了每帧跟踪的处理速度。  相似文献   

20.
一种移动机器人SLAM中的多假设数据关联方法   总被引:1,自引:0,他引:1  
针对移动机器人同时定位与建图(SLAM)中的局部数据关联问题,提出一种基于粒子滤波的多假设数据关联方法.该方法将数据关联问题转换成离散优化问题,利用多个粒子来维持多种数据关联假设,通过计算关联代价来获得粒子权重,用基本剪枝技术在粒子重采样过程中滤除错误的数据关联假设.研究结果表明:该方法弥补了经典的数据关联方法中关联假设一旦确定就不能修改的不足;与ICNN和JCBB数据关联方法相比,该方法能获得更正确的数据关联结果和更高的定位精度.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号