首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
RGB-D相机能够同时获得彩色图像和深度图像,广泛用于同时定位与建图(SLAM)的研究.本研究针对RGB-D SLAM方法进行了两方面的改进:一方面,改进点云滤波方法,从而更有效地去除RGB-D相机数据中的噪声和冗余;另一方面,采用ICP算法提高相机位姿估计的精度,从而提高估计的相机运动轨迹的精度.在公开的数据集上对提出的RGB-D SLAM方法进行实验验证,结果表明,该方法能够有效提高移动机器人自主定位与建图的精度.  相似文献   

2.
相机位姿估计是SLAM系统的关键环节,影响着整个SLAM系统的精度和效率.针对SLAM中相机位姿估计存在的问题,提出了一种改进的相机位姿估计方法.该方法的主要思路是将特征点法和直接法结合起来,以此来提升特征点数量不足时相机位姿估计的精度和鲁棒性.首先,提出了一个将相机运动模型和图像划分相结合的特征匹配算法,该算法在保证匹配速度的同时,提高了特征匹配的精度与数量.其次,在特征点的基础上,通过引入光度信息,提出了表观形状加权融合的相机位姿估计方法,该方法在缺乏特征点时依然可以稳定工作.最后,基于优选的关键帧,实现了局部与全局融合的相机位姿优化,其中局部优化通过构建局部关键帧共视关系实现;全局优化通过基于闭环检测构建的位姿图来实现.为验证上述位姿优化方法的性能,构建了基于该方法的SLAM系统,并在当前流行的场景图像数据集上进行了重建实验,重建结果验证了本文方法的有效性.  相似文献   

3.
由于传统的同步定位与建图(simultaneous localization and mapping, SLAM)中有很强的静态刚性假设,故系统定位精度和鲁棒性容易受到环境中动态对象的干扰。针对这种现象,提出一种在室内动态环境下基于深度学习的视觉SLAM算法。基于ORB-SLAM2进行改进,在SLAM前端加入多视角几何,并与YOLOv5s目标检测算法进行融合,最后对处理后的静态特征点进行帧间匹配。实验使用TUM数据集进行测试,结果显示:SLAM算法结合多视角几何、目标检测后,系统的绝对位姿估计精度在高动态环境中相较于ORB-SLAM2有明显提高。与其他SLAM算法的定位精度相比,改进算法仍有不同程度的改善。  相似文献   

4.
李辉  王金刚  张小俊 《科学技术与工程》2021,21(24):10369-10375
地下车库中纯视觉的SLAM方法无法克服光线不足和弱特征纹理两大不利因素,为此论文提出一种基于VINS-Mono框架下改进的视觉惯导融合算法,把原算法中提取Harris角点的方法改进为提取灰度值陡变的像素点,并使用非线性优化方法在初始化阶段进行视觉位姿估计。后端采用滑动窗口的形式建立先验估计残差、IMU残差以及基于灰度值不变原理构建的视觉残差的联合残差模型,进一步提升了系统底层变量的优化效果从而提高算法的定位准确度。通过基于EuRoc数据集的仿真实验和地下车库实际场景的实车实验,验证了所提算法的鲁棒性和精确性。  相似文献   

5.
在计算机视觉中,模型参数的鲁棒性估计是一个核心问题.虽然人们在这方面做了大量的研究,但是至今仍没有一个鲁棒性估计方法可以做到完全消除外点对模型估计的影响.当数据中外点比例很大的时候,传统随机抽样一致性(RANSAC)算法就需要大量的采样样本,这在实际运行时会降低算法效率.为了解决这个问题,提出了一个有效的基于采样的算法.利用射影变换下共线4点的交比不变性,对含有大量外点的数据进行筛选,剔除其中可能的外点数据,从而充分减少模型估计时的迭代次数.实验结果表明,当200个对应匹配中含有90%外点时,使用交比不变性约束进行平面单应矩阵估计,能够使最小迭代次数由69 074减少到11.由此可知,改进算法很大程度上提高了RANSAC的运算效率和对高噪声数据的处理能力.  相似文献   

6.
针对视觉SLAM系统在室内场景下易受行人干扰,导致定位精度和稳定性下降的问题,提出了一种室内剔除行人特征点的视觉SLAM算法,该算法在传统的ORB_SLAM2算法中集成了一个新的动态目标检测线程,此线程使用YOLOV5s目标检测算法识别并剔除行人动态信息。首先,系统对YOLOV5s引入坐标注意力机制,提取图像中与目标相关的特征;其次,将彩色图像同时输入到ORB_SLAM2算法和动态目标检测线程中,ORB_SLAM2算法实时估计相机位姿,动态目标检测线程识别和剔除行人动态目标,从而减少其对ORB_SLAM2算法的干扰;最后,将2个线程的输出融合至静态地图构建线程,生成无行人干扰的地图构建结果。针对文中算法,在不同数据集下开展试验验证。结果表明:相对于ORB_SLAM2算法,改进算法在TUM的高动态数据集中绝对轨迹精度提高了96.51%,相对轨迹精度提高了96.57%,相对轨迹误差的旋转精度提高了96.47%。室内剔除行人特征点的视觉SLAM算法充分过滤了行人特征点,提高了SLAM系统的精度,为室内导航、建图等领域提供了一种新的解决方案。  相似文献   

7.
针对传统的ICP(Iterative Closest Points)算法,无法满足室内动态环境下SLAM(Simultaneous Localization and Mapping)算法的准确性要求,提出了一种融合特征点结构相似性判断的ICP改进算法;通过在特征点集中引入三角形结构约束,实现两组点集中的动态匹配点与误匹配点的剔除,进而提高ORB特征点匹配的准确性;与传统的SLAM算法相比,改进后的算法对相机位姿的估计更加准确;通过在Linux系统下的仿真实验,结合特征点三角几何约束的ICP算法能够有效解决动态对象对相机位姿估计的影响,提高RGB-D SLAM在动态场景下的定位精度。  相似文献   

8.
地下车库中纯视觉的即时定位与建图(simultaneous localization and mapping, SLAM)方法无法克服光线不足和弱特征纹理两大不利因素,为此,提出一种基于VINS-Mono框架下改进的视觉惯导融合算法,把原算法中提取Harris角点的方法改进为提取灰度值陡变的像素点,并使用非线性优化方法在初始化阶段进行视觉位姿估计。后端采用滑动窗口的形式建立先验估计残差、惯性测量单元(inertial measurement unit, IMU)残差以及基于灰度值不变原理构建的视觉残差的联合残差模型,进一步提升了系统底层变量的优化效果,从而提高算法的定位准确度。通过基于EuRoc数据集的仿真实验和地下车库实际场景的实车实验,验证了所提算法的鲁棒性和精确性。  相似文献   

9.
关键帧选择是提高视觉SLAM(simultaneous localization and mapping)算法精度及实时性的重要因素.关键帧常以图像的帧间相对运动距离为选择依据.该方法虽简单有效,但实时性、鲁棒性较差且容易产生大量冗余关键帧.针对上述问题,提出一种改进的关键帧选择算法.该算法整合了帧间相对运动距离、帧间特征点跟踪以及最小视觉变化来选择关键帧并删除冗余关键帧.基于该算法,结合具有较好方向和光照不变性的ORB(oriented FAST and rotated BRIEF)特征,实现了RGB-D SLAM算法.在RGB-D数据集上的实验表明,改进的关键帧选择算法能够更精准、及时地选择关键帧,并在减少RGB-D SLAM中冗余关键帧的同时提高算法的实时性、建图和定位精度.  相似文献   

10.
在Adaboost检测人脸区域的基础上,提出了基于多结构鲁棒估计的虹膜外边缘定位方法.通过对200幅单人脸的图像数据集的仿真实验,结果表明,本方法相比于传统的RANSAC模型生成算法以及Hough变换等方法,能得到更精确的定位结果,而且能加快有效的模型生成,虹膜外边缘定位精度达到94%.  相似文献   

11.
针对深度相机采集深度图像的噪声对位姿估计精度的影响,以及误差随时间累积的严重问题,设计了一种改进的基于RGB-D相机的视觉SLAM系统.首先,建立重投影误差模型,通过最小化重投影误差,对位姿和特征点进行非线性优化.此外,提出了一种闭环检测的算法,建立字典模型,用频率-逆文档频率计算权重,用Kullback-Leibler散度计算相似度,并使用相对相似度机制检测闭环,减少了累积误差.使用15个公开的图像序列对算法进行评价,同3个流行的RGB-D SLAM系统对比,精度平均最高提高119. 07%,最低提高4. 24%.实验结果证明,提出的方法比目前流行的RGB-D SLAM系统具有更好的精度.  相似文献   

12.
针对现有的激光里程计在面临室外大场景建图时,普遍会出现定位精度低、鲁棒性差的问题,本文提出一种16线激光和IMU惯性测量单元紧耦合的SLAM算法。首先对IMU进行估计位姿,通过线性插值矫正激光点云的运动畸变;接着通过曲率提取场景特征,并根据不同特征性质进行分类;然后利用帧间匹配模块在滑动窗口内构建局部地图;最后利用帧与局部地图匹配得到的距离和IMU数据构建联合优化函数。借助KITTI数据集和自行录制的园区数据集,对改进算法与主流的Lego-LOAM和同样使用紧耦合方案的LIO-Mapping进行分模块和整个系统的精度评定,实测结果表明,在符合里程计实时性的要求下,改进激光里程计精度高于Lego-LOAM和LIO-Mapping方案。  相似文献   

13.
由于地面激光扫描仪扫描时常存在死角,导致点云缺失、密度不均匀等问题,使得建筑物立面难以完整分割,为点云后续三维重建带来了很大的困难。提出了一种基于点密度的指导采样方式,并对提取的模型进行再优化的分割算法,即GSMOSAC(global sample and model optimize sampling and consensus)算法。该算法改进了最小采样集的选取方式,并对采样模型进行优化处理,以提高所提取模型的可靠性。针对三种不同类型的激光雷达点云数据的实验结果表明,该算法的分割效果比传统的RANSAC算法和多结构(Multi-GS)算法都更好。  相似文献   

14.
针对目前RGB-D SLAM算法特征匹配耗时高、在大规模场景中闭环检测效率低的问题,提出了基于词袋(Bag of Word,BoW)模型的RGB-D SLAM改进算法。通过BoW模型缩小每个特征的匹配范围,解决了暴力特征匹配算法的耗时问题;利用BoW模型对关键帧序列进行相似度度量,得到闭环候选帧并通过多层次筛选最终确定闭环帧从而实现闭环优化,解决了传统的闭环检测算法不能适用于大规模场景的问题。与传统的RGB-D SLAM算法的实验测试及对比分析结果表明:改进的RGB-D SLAM算法能使得相机轨迹估计实时性更好,定位更准确。  相似文献   

15.
为了提高自由曲面工件的配准效率,提出了一种基于共面4点集的RANSAC初始配准算法和改进的迭代最近点(ICP)精确配准算法相结合的2步配准方法.首先,在基于RANSAC算法的机制上,通过点间距离和比例关系寻找2片点云的共面4点集,利用共面4点集这一不变量来约束RANSAC算法提取的样本,使点云经过初始配准后得到一个较好的初始位置;然后在基于原始ICP算法的基础上作出相应的改进,对点云初配结果进行优化,使得点云之间的配准误差达到最小,以实现点云的精确配准;最后,对2组简单工件的CAD曲面点云模型进行配准仿真.结果表明:该算法相对于传统ICP算法运行时间减少48%,精度提高56%,能够满足配准要求.  相似文献   

16.
针对双目基于ORB特征的即时定位与地图构建(ORB-SLAM)算法位姿估计精度较低的问题,对其进行了改进,提出了一种基于滑窗非线性优化的双目视觉SLAM算法。该算法引入了滑窗思想,在状态估计过程中对最新多帧图像对应系统的状态进行了解算;重构了位姿估计过程中的代价函数,通过高斯牛顿法优化状态变量;采用边缘化策略,有效限制了待求解状态量的数目,并将其余状态量及与其相关的视觉测量转换为求解当前滑窗内状态的先验约束。通过在公开数据集上测试,验证了算法的精确性和有效性,实验结果表明:该算法能有效估计相机位姿且不发生显著漂移,与双目ORBSLAM算法相比,位姿估计精度有了显著提高。  相似文献   

17.
针对Fast SLAM2.0算法中重采样过程带来的"粒子耗尽"问题,将差分进化引入进来,提出一种基于差分进化的无迹Fast SLAM2.0算法。首先采用unscented粒子滤波器估计机器人的路径后验概率,然后采用扩展卡尔曼滤波器对环境路标进行估计和更新,最后引入改进的差分进化算法代替重采样过程来优化粒子。仿真实验表明,与Fast SLAM2.0算法相比,该方法提高了机器人在路径估计和路标估计上的精度,验证了算法的有效性。  相似文献   

18.
一种改进的边缘粒子滤波SLAM方法   总被引:1,自引:1,他引:0  
提出了一种改进的同时定位与地图创建(SLAM)方法--遗传优化Marginal-SLAM算法用于机器人导航,将Marginal-SLAM算法与遗传算法相结合,继承了Marginal-SLAM算法权值方差较低的优点对粒子集进行优化,进一步提高了算法的综合性能.将地图视为模型的参数,并由递归极大似然估计法得到,位姿估计采用边缘粒子滤波方法求取.设计了一种与Marginal-SLAM算法兼容的遗传算法,融合最新的观测信息来优化粒子集,同时兼顾粒子集的多样性,提高了粒子集的性能.仿真实验表明,该遗传优化Marginal-SLAM算法在有效粒子数和权值方差方面都很好的表现,路径和地图估计的精度也有一定提高.  相似文献   

19.
针对RANSAC算法在多结构数据集中提取平面点时存在的不足,提出了基于多结构快速生成算法的点云平面提取的新算法.该算法在随机产生一组平面模型之后,通过每个点相对于模型的残差排序信息,计算条件内点概率分布,然后利用得到的内点先验分布概率指导模型采样.实验结果表明,该算法能准确地检测出点云数据中的平面,相比RANSAC算法具有更好的采样效率.  相似文献   

20.
运用SIFT算法对单目所采集的室外视频图像的相邻两帧进行了特征点的检测与匹配.采用改进的RANSAC算法对所匹配点进行了误匹配点剔除.根据相邻两帧图像特征点的跟踪以及里程计读数作为辅助信息,求解特征点的三维坐标;进而根据视觉里程计模型,达到机器人的定位.实验结果表明,该方法相比传统的里程计定位精度高,比之双目激光等定位方法,又有成本廉价的优点.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号