首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
RGB-D相机能够同时获得彩色图像和深度图像,广泛用于同时定位与建图(SLAM)的研究.本研究针对RGB-D SLAM方法进行了两方面的改进:一方面,改进点云滤波方法,从而更有效地去除RGB-D相机数据中的噪声和冗余;另一方面,采用ICP算法提高相机位姿估计的精度,从而提高估计的相机运动轨迹的精度.在公开的数据集上对提出的RGB-D SLAM方法进行实验验证,结果表明,该方法能够有效提高移动机器人自主定位与建图的精度.  相似文献   

2.
针对目前RGB-D SLAM算法特征匹配耗时高、在大规模场景中闭环检测效率低的问题,提出了基于词袋(Bag of Word,BoW)模型的RGB-D SLAM改进算法。通过BoW模型缩小每个特征的匹配范围,解决了暴力特征匹配算法的耗时问题;利用BoW模型对关键帧序列进行相似度度量,得到闭环候选帧并通过多层次筛选最终确定闭环帧从而实现闭环优化,解决了传统的闭环检测算法不能适用于大规模场景的问题。与传统的RGB-D SLAM算法的实验测试及对比分析结果表明:改进的RGB-D SLAM算法能使得相机轨迹估计实时性更好,定位更准确。  相似文献   

3.
针对视觉里程计中对纹理较少的环境难以获得高精度相机位姿的问题,提出一种融合光度和深度的视觉同步定位与绘图(SLAM)方法.首先构造基于光度和深度的相机位姿优化函数,通过t分布模型计算每个像素点的光度和深度误差权重,对每一帧图像引入帧权重系数λ来平衡光度和深度,并采用中值法求解帧权重λ,求得相机位姿.然后对10个国际标准数据集进行仿真实验,结果表明,对纹理丰富的环境,本方法能够保持DVO SLAM算法的建图精度;对纹理较少的环境,本方法的建图精度要高于DVO SLAM算法,绝对路径误差降低31.6%,相对位姿误差降低19.4%.  相似文献   

4.
相机位姿估计是SLAM系统的关键环节,影响着整个SLAM系统的精度和效率.针对SLAM中相机位姿估计存在的问题,提出了一种改进的相机位姿估计方法.该方法的主要思路是将特征点法和直接法结合起来,以此来提升特征点数量不足时相机位姿估计的精度和鲁棒性.首先,提出了一个将相机运动模型和图像划分相结合的特征匹配算法,该算法在保证匹配速度的同时,提高了特征匹配的精度与数量.其次,在特征点的基础上,通过引入光度信息,提出了表观形状加权融合的相机位姿估计方法,该方法在缺乏特征点时依然可以稳定工作.最后,基于优选的关键帧,实现了局部与全局融合的相机位姿优化,其中局部优化通过构建局部关键帧共视关系实现;全局优化通过基于闭环检测构建的位姿图来实现.为验证上述位姿优化方法的性能,构建了基于该方法的SLAM系统,并在当前流行的场景图像数据集上进行了重建实验,重建结果验证了本文方法的有效性.  相似文献   

5.
由于RGB-D传感器本身存在的局限性,其在实际应用中会有深度信息不存在或者不完整的情况,这使得多数依赖于深度信息工作的RGB-D SLAM系统的精度会受到影响.提出了一种融合单目信息的RGB-D SLAM优化方法.通过对深度图像进行分析,从深度信息的存在性、准确性和离散性分别提出三个判断条件,作为选择单目或者RGB-D处理方式的依据.该系统使得用RGB-D相机工作的SLAM系统更具精确性与鲁棒性.最后通过运行数据集将系统与其他SLAM系统进行比较,实验结果验证了本系统的可行性.  相似文献   

6.
针对主流的RGB-D SLAM系统精度较低并且仅生成稀疏点云地图的问题,提出一种改进的SLAM系统。前端采用改进的ORB特征提取算法,改进特征点簇集的问题;后端综合利用EPnP与ICP算法进行相机位姿优化,提高位姿估计精度;并增加稠密点云地图构建线程,得到场景的稠密点云地图,以用于机器人的导航与路径规划。在TUM数据集上,使用Kinect V2相机将改进的SLAM算法与ORB-SLAM2算法进行实验比对,验证了改进SLAM算法的综合性能优于ORB-SLAM2算法。  相似文献   

7.
针对大场景、弱纹理环境下ORB-SLAM算法特征点采集困难和精度低的问题,提出一种基于RGB-D相机的点线特征融合SLAM算法——PAL-SLAM。在ORB-SLAM算法基础上设计点线特征融合新框架,通过研究点特征与线特征的融合原理来推导点线融合的重投影误差模型,进而得到该模型的雅可比矩阵解析形式,以此为基础提出PAL-SLAM算法的框架。利用TUM数据集对PAL-SLAM和ORB-SLAM算法进行对比实验,结果表明PAL-SLAM算法在室内大场景中的定位精度更高,标准误差仅为ORB-SLAM算法的18.9%。PAL-SLAM算法降低了传统视觉SLAM在大场景、弱纹理环境中的定位误差,有效提升了系统的准确性。文中还搭建了基于Kinect V2的实验平台,实验结果表明,PAL-SLAM算法能与硬件平台较好结合。  相似文献   

8.
提出了基于图优化的单目线特征同时定位和地图构建(SLAM)的方法.首先,针对主流视觉SLAM算法因采用点作为特征而导致构建的点云地图稀疏、难以准确表达环境结构信息等缺点,采用直线作为特征来构建地图.然后,根据现有线特征的SLAM算法都是基于滤波器的SLAM框架、存在线性化及更新效率的问题,采用基于图优化的SLAM解决方案以提高定位精度及地图构建的一致性和准确性.将线特征的Plücker坐标和Cayley参数化方式相结合,一方面采用Plücker坐标便于线性投影计算,另一方面采用Cayley参数化方式有利于线特征参数的非线性优化.仿真实验结果显示:所提出算法的位姿估计误差平方和与均方根误差分别是里程计位姿估计的2.5%和10.5%,是基于EKF线特征SLAM算法估计位姿误差的22.4%和33%,重投影误差仅为45.5像素;实际图像实验中的位姿估计误差平方和为958 cm~2,均方根误差为3.9413 cm,从而证明了所提出算法的有效性和准确性.  相似文献   

9.
为了减小轨迹图像分析中的透视效应,使用提取出的运动平面目标特征点,基于相机小孔成像模型与目标特征点运动约束,构建了一种相机位姿的自标定模型来标定相机位姿.通过标定的相机位姿,可将轨迹进行重投影,实现了将轨迹图像校正为正投影图像.实验结果表明:本标定模型使用跟踪到的运动目标进行相机标定,相机位姿的标定精度优于张正友标定法.  相似文献   

10.
针对室内复杂非机构化环境建图及定位效率低的问题,提出了一种基于PageRank的同时定位与地图构建(SLAM)方法.在室内复杂非结构化环境中,SLAM前端建立的位姿图中包含大量待优化节点,根据SLAM后端的稀疏矩阵,利用PageRank算法对位姿图中节点进行筛选和排序,将低于设定阈值的节点在位姿图中剔除,保留与其他节点有高关联性的节点,减少位姿图中的节点,同时保留SLAM后端的稀疏特性,有效提高SLAM后端优化效率.在RGB-D标准数据集上进行实验验证,实验结果表明:在室内环境下,该SLAM后端优化算法缩短了优化时间,提高了实时性,且误差变化在可接受的范围内,为SLAM后端优化低效率问题提供了解决方案.  相似文献   

11.
创建室内环境的三维地图可以使用RGB-D摄相机获取多帧率的彩色图和深度图,结合视觉SLAM算法,完成彩信息与深度信息的结合并构建真实三维环境地图数据是常用的一种方法.通过Kinect传感器采集室内环境的RGB图和Depth图,改进了ORB算法并进行特征提取和基于FLANN搜索的图像匹配算法匹配图像特征,使用PNPRANSAC方法估计图像的运动,为抑制在点云配准过程中累积误差造成的位姿漂移采用g2o图优化,实现探索室内未知环境的三维彩色点云空间,完成周围环境地图的创建.实验结果表明,以Kinect传感器实现视觉SLAM的方法对于室内三维点云数据创建有较好的效果,具有一定的理论和实际应用价值.  相似文献   

12.
基于视觉的同时定位与地图构建(SLAM)技术是实现移动机器人自主导航的关键.当机器人处在陌生环境中时,通常会利用周围目标的点特征来估计导航相机的位姿,并利用光束法平差来估计相机位姿和特征空间位置.但如果环境中的特征信息不丰富,则无法准确估计相机轨迹,且欧式坐标与反深度信息下的光束法平差部分条件下不收敛.为此,提出了一种在缺少特征点的环境下通过收集深度相机信息,同时利用点特征与线特征融合的视觉里程计,构建了融合视差角光束法平差与基于线特征的光束法平差的策略,从而使重投影误差达到最小化.最后与其他基于特征的SLAM系统进行比较,实验结果表明,在缺少特征点的真实环境中,系统位姿估计的性能与准确度得到提升.   相似文献   

13.
现有的单目视觉SLAM方案为了提高精度,大多都是通过增加各种传感器来实现的,这并没有将单目相机的表现发挥到极致。文章提出了一个基于ORB-SLAM3的视觉SLAM系统,旨在最大化地利用单目资源,在单目相机的基础上通过增加深度预测网络来模拟深度相机,利用CNN和ORB融合的方法进行特征点提取,并结合深度图进行特征过滤,旨在提高驾驶场景单目相机位姿预测精度,同时为避免动态对象对SLAM系统造成的干扰,文章引入了图像的实例分割网络。  相似文献   

14.
常用的环境探测传感器中,二维激光雷达扫描角度广,测量精度高,但数据量较少,RGB-D相机成本低,能获取环境三维信息,但视角小.在此基础上,提出一种改进的RGB-D相机和二维激光雷达数据融合算法,本算法首先将RGB-D相机获取的深度图像转换为三维点云,剔除地面点云后进行投影得到模拟2D激光数据,然后与二维激光雷达数据进行...  相似文献   

15.
目的 估计获取拍摄物体到相机之间距离的深度信息是单目视觉 SLAM 中获取深度信息的方法,针对无监督 单目深度估计算法出现精度不足以及误差较大的问题,提出基于多尺度特征融合的混合注意力机制的连续帧深度 估计网络。 方法 通过深度估计和位姿估计的两种编码器解码器结构分别得到深度信息和 6 自由度的位姿信息,深 度信息和位姿信息进行图像重建与原图损失计算输出深度信息,深度估计解码器编码器结构构成 U 型网络,位姿 估计网络和深度估计网络使用同一个编码器,通过位姿估计解码器输出位姿信息;在编码器中使用混合注意力机 制 CBAM 网络结合 ResNet 网络提取四个不同尺度的特征图,为了提升估计的深度信息轮廓细节在提取的每个不 同尺度的特征中再进行分配可学习权重系数提取局部和全局特征再和原始特征进行融合。 结果 在 KITTI 数据集 上进行训练同时进行误差以及精度评估,最后还进行了测试,与经典的 monodepth2 单目方法相比误差评估指标相 对误差、均方根误差和对数均方根误差分别降低 0. 034、0. 129 和 0. 002,自制测试图片证明了网络的泛化性。 结论 使用混合注意力机制结合的 ResNet 网络提取多尺度特征,同时在提取的特征上进行多尺度特征融合提升了深度 估计效果,改善了轮廓细节。  相似文献   

16.
针对传统的ICP(Iterative Closest Points)算法,无法满足室内动态环境下SLAM(Simultaneous Localization and Mapping)算法的准确性要求,提出了一种融合特征点结构相似性判断的ICP改进算法;通过在特征点集中引入三角形结构约束,实现两组点集中的动态匹配点与误匹配点的剔除,进而提高ORB特征点匹配的准确性;与传统的SLAM算法相比,改进后的算法对相机位姿的估计更加准确;通过在Linux系统下的仿真实验,结合特征点三角几何约束的ICP算法能够有效解决动态对象对相机位姿估计的影响,提高RGB-D SLAM在动态场景下的定位精度。  相似文献   

17.
光刻版工件移动位姿的精确定位及调整是完成其视觉对位的关键。本文针对光刻版工件跨尺度级高精度对位的难点,搭建了双显微视觉对位系统,通过双显微视觉的局部位姿检测,解决了工件尺寸与定位精度之间的矛盾。具体方法为:首先采用双显微视觉获取工件两端局部图像;接着提出改进Canny算法并基于多项式插值的边缘细分完成亚像素级边缘轮廓提取;然后基于RANSAC算法拟合边缘轮廓,获得左右相机图像中“Mark”标志中心点位置坐标及偏转角度;最后通过推导局部位姿间数学关系完成光刻版工件的精确位姿定位。实验结果表明:所设计的视觉算法对于0.5 mm平行线的距离检测精度达1.93 μm、角度提取精度达0.018°;对于光刻版的移动位姿的定位精度达0.64 μm,能满足视觉对位过程中高速高精度的定位需求。  相似文献   

18.
针对室内复杂环境三维建模问题,提出一种移动机器人快速三维同时定位与地图创建(SLAM)方法.利用RGB-D相机分别获取环境纹理和三维信息,通过图像特征提取与匹配,结合相机标定模型,建立三维点云对应关系,运用随机抽样一致性(RANSAC)算法作为位姿估计的策略求解基于对应点迭代最临近点的模型,有效解决机器人精确定位问题;引入keyframe-to-frame关键帧选取机制,结合立体栅格法及空间点云法向唯一特征,实现三维地图的更新与维护.室内环境下的实验结果验证了所提方法的可行性与有效性.  相似文献   

19.
针对视觉SLAM系统在室内场景下易受行人干扰,导致定位精度和稳定性下降的问题,提出了一种室内剔除行人特征点的视觉SLAM算法,该算法在传统的ORB_SLAM2算法中集成了一个新的动态目标检测线程,此线程使用YOLOV5s目标检测算法识别并剔除行人动态信息。首先,系统对YOLOV5s引入坐标注意力机制,提取图像中与目标相关的特征;其次,将彩色图像同时输入到ORB_SLAM2算法和动态目标检测线程中,ORB_SLAM2算法实时估计相机位姿,动态目标检测线程识别和剔除行人动态目标,从而减少其对ORB_SLAM2算法的干扰;最后,将2个线程的输出融合至静态地图构建线程,生成无行人干扰的地图构建结果。针对文中算法,在不同数据集下开展试验验证。结果表明:相对于ORB_SLAM2算法,改进算法在TUM的高动态数据集中绝对轨迹精度提高了96.51%,相对轨迹精度提高了96.57%,相对轨迹误差的旋转精度提高了96.47%。室内剔除行人特征点的视觉SLAM算法充分过滤了行人特征点,提高了SLAM系统的精度,为室内导航、建图等领域提供了一种新的解决方案。  相似文献   

20.
针对多轮廓三维立体模型进行高精度建模中,因为视觉切换和光线强度衰减产生斑点和投影,需要进行投影检测分离,提高图像品质的问题,提出一种基于相似度特征纹理分割的多轮廓三维立体视景图像的投影检测算法.该算法先根据已知的多轮廓三维模型雏形对所有的建模点进行遍历建模分析,再对遍历后的建模点进行模型重构,构造含积分递推多项式的平面起控基函数,最后采用多轮廓图像的曲线混合函数初始化检测模型,得到改进的三维立体视景图像投影检测迭代方程,用相似度特征纹理分割方法实现对视景图像的投影检测改进,解决了图像投影检测不准确的问题.仿真结果表明,该算法能有效实现对图像的投影检测分离,图像成像保持度更好,提高了图像成像品质.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号