首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对视觉SLAM系统在室内场景下易受行人干扰,导致定位精度和稳定性下降的问题,提出了一种室内剔除行人特征点的视觉SLAM算法,该算法在传统的ORB_SLAM2算法中集成了一个新的动态目标检测线程,此线程使用YOLOV5s目标检测算法识别并剔除行人动态信息。首先,系统对YOLOV5s引入坐标注意力机制,提取图像中与目标相关的特征;其次,将彩色图像同时输入到ORB_SLAM2算法和动态目标检测线程中,ORB_SLAM2算法实时估计相机位姿,动态目标检测线程识别和剔除行人动态目标,从而减少其对ORB_SLAM2算法的干扰;最后,将2个线程的输出融合至静态地图构建线程,生成无行人干扰的地图构建结果。针对文中算法,在不同数据集下开展试验验证。结果表明:相对于ORB_SLAM2算法,改进算法在TUM的高动态数据集中绝对轨迹精度提高了96.51%,相对轨迹精度提高了96.57%,相对轨迹误差的旋转精度提高了96.47%。室内剔除行人特征点的视觉SLAM算法充分过滤了行人特征点,提高了SLAM系统的精度,为室内导航、建图等领域提供了一种新的解决方案。  相似文献   

2.
室内动态场景下的同步定位与地图构建(simultaneous localization and mapping, SLAM)系统容易受到运动障碍物的影响,从而导致其位姿估计精度和视觉里程计的稳定性降低。本文提出一种基于YOLOv4目标检测网络的视觉SLAM算法,获取语义信息,并利用LK光流法判断动态特征,在传统的ORB-SLAM2系统上将动态特征点剔除,只使用静态特征点来估计相机的位姿;建立稠密点云地图,并转化成节约内存空间的八叉树地图。在TUM公开数据集上对该方法进行测试和评估,实验结果表明:在动态环境下,该系统与ORB-SLAM2相比,相机位姿估计精度提高83%,且减少了生成的环境地图的存储空间,为后续实现机器人导航具有重要意义。  相似文献   

3.
由于传统的同步定位与建图(simultaneous localization and mapping, SLAM)中有很强的静态刚性假设,故系统定位精度和鲁棒性容易受到环境中动态对象的干扰。针对这种现象,提出一种在室内动态环境下基于深度学习的视觉SLAM算法。基于ORB-SLAM2进行改进,在SLAM前端加入多视角几何,并与YOLOv5s目标检测算法进行融合,最后对处理后的静态特征点进行帧间匹配。实验使用TUM数据集进行测试,结果显示:SLAM算法结合多视角几何、目标检测后,系统的绝对位姿估计精度在高动态环境中相较于ORB-SLAM2有明显提高。与其他SLAM算法的定位精度相比,改进算法仍有不同程度的改善。  相似文献   

4.
无人驾驶场景中的动态物体会影响同时定位与建图(SLAM)系统的整体精度和鲁棒性,针对现有多数激光SLAM系统在动态环境下易出现里程计漂移、定位失败和建图重影问题,本文融合轻量级PointPillars目标检测网络和多目标跟踪方法,构建了一种面向动态场景的语义激光SLAM系统.该系统首先利用PointPillars网络获取潜在动态目标检测框并过滤检测框内特征点,以获取里程计初始位姿.其次基于匀速卡尔曼滤波器的多目标跟踪算法获取跟踪结果,以构建时序滑动窗口,实现鲁棒、高效的目标级数据时空关联,以去除动态物体和恢复静态目标,进一步优化里程计.最后在包含动态场景的KITTI和NUSCENES公开数据集上与主流激光SLAM方法进行对比实验,结果表明本系统在里程计和全局地图的准确性和鲁棒性方面有显著的提高,同时系统保持了实时性,可满足动态场景下自主机器人系统和智能交通应用.  相似文献   

5.
针对基于单目视觉的无人机(UAV)避障问题,本研究提出基于单目深度估计和目标检测的四旋翼自主避障方法。其中,单目深度估计模型提供障碍物像素级别的深度信息,目标检测模型提供障碍物的位置信息。单张红绿蓝(RGB)图像的深度图和目标检测结果由卷积神经网络(CNN)获得;图像的区域划分以目标检测结果为依据,区域深度以深度估计结果为计算依据;规划算法依据区域深度和区域划分结果计算无人机的线速度和角速度,实现无人机的自主避障。为验证算法的自主避障性能,采用Parrot Bebop2无人机对本研究提出的算法与直飞算法进行实飞对比实验。结果表明:本研究提出的算法可用于四旋翼无人机的低速自主避障。  相似文献   

6.
在高速并联机器人视觉分拣系统中,由于安装误差等原因,视觉系统与传送带以及机器人与传送带之间会存在一定的角度偏差,导致目标物体在分拣系统中的定位精度较低,使机器人末端不能精确抓取动态目标.而且传统的单目视觉定位及跟踪算法存在精度低、运算速度慢等问题,影响视觉分拣系统的计算速度,降低系统的实时性.针对以上问题,提出了一种基于圆特征的单目视觉定位与传送带标定结合的动态目标跟踪算法,首先不需考虑相机坐标系与传送带坐标系的角度偏差,拍摄一个圆形目标,并以光心为顶点构造直椭圆锥的几何成像模型.在此基础上利用其几何关系求取圆心在相机坐标系下的深度信息,再结合传送带标定与张正友标定方法,确定传送带编码器的比例因子以及机器人坐标系和传送带坐标系之间的角度偏差,并实时跟踪圆形目标运动过程中圆心在机器人下的位置.最后,对所提算法和传统算法分别进行实验对比,结果表明,该动态跟踪算法通过圆锥投影的几何关系推导圆心的空间坐标,避免了传统复杂的非线性方程求解,定位精度和计算速度大幅提高.该算法消除了传统算法的角度偏差,平均位置误差为0.82 mm,具有较高的定位精度.运行中系统耗时较短,运行效率得到了有效提高,且误...  相似文献   

7.
针对旋翼无人机通过视觉准确、快速检测其他旋翼无人机存在的问题,提出基于旋转FHOG-LBP动态检测算法。首先,针对旋翼无人机特有的外形和运动状态,通过形成的样本库建立外部结构模型;其次,将方向梯度直方图(HOG)进行傅里叶变换(Fourier),使其具有快速旋转不变性,在局部二进制模式(LBP)上加入角度旋转偏移值,进行串行融合得到旋转FHOG-LBP特征,使用支持向量机递归特征消除算法(SVM-RFE)进行训练,并使用滑动窗口的检测算法对目标进行检测;最后,通过无人机动态目标测试集进行了实验,实验结果表明,提出的动态检测算法比传统方法精度和时效提高。因此,该方法可以解决具有动态变化或旋转变化的目标检测困难的问题。  相似文献   

8.
针对目前面向语义同步定位与地图构建(SLAM)研究大多需要已知三维对象模型作为先验知识,或者只对有限的几种物体的类别进行语义分割,而没有区分对象的个体的问题,结合目前先进的基于深度学习的实例分割算法和视觉SLAM算法提出了一种面向实例个体的物体识别和语义地图构建方法,使得机器人不仅获得了面向导航的环境几何信息,而且掌握了面向物体个体的属性和位置信息.该方法利用由视觉SLAM算法获得的图像帧间几何一致性约束来促进连续图像帧中物体匹配与识别结果,提高物体实例识别的精度,同时结合实例识别结果完成语义建图的任务.最后实现了基于视觉SLAM算法的物体实例识别与语义地图构建系统,并在ICL-NUIM数据集上进行实验,实验结果表明该系统能够基本完整地识别场景中的各种物体并生成环境的语义地图,验证了本方法的有效性.  相似文献   

9.
针对传统的ICP(Iterative Closest Points)算法,无法满足室内动态环境下SLAM(Simultaneous Localization and Mapping)算法的准确性要求,提出了一种融合特征点结构相似性判断的ICP改进算法;通过在特征点集中引入三角形结构约束,实现两组点集中的动态匹配点与误匹配点的剔除,进而提高ORB特征点匹配的准确性;与传统的SLAM算法相比,改进后的算法对相机位姿的估计更加准确;通过在Linux系统下的仿真实验,结合特征点三角几何约束的ICP算法能够有效解决动态对象对相机位姿估计的影响,提高RGB-D SLAM在动态场景下的定位精度。  相似文献   

10.
现有的单目视觉SLAM方案为了提高精度,大多都是通过增加各种传感器来实现的,这并没有将单目相机的表现发挥到极致。文章提出了一个基于ORB-SLAM3的视觉SLAM系统,旨在最大化地利用单目资源,在单目相机的基础上通过增加深度预测网络来模拟深度相机,利用CNN和ORB融合的方法进行特征点提取,并结合深度图进行特征过滤,旨在提高驾驶场景单目相机位姿预测精度,同时为避免动态对象对SLAM系统造成的干扰,文章引入了图像的实例分割网络。  相似文献   

11.
提出一种利用深度学习提高动态环境下视觉语义即时定位与地图构建(SLAM)的方法.首先用实例分割网络对关键帧进行实例分割,建立先验语义信息;然后计算特征点光流场对物体进一步区分,识别出场景真正运动物体并将属于动态物体的特征点去除;最后进行语义关联,建立无动态物体干扰的语义地图.将本文方法在室内环境公开数据集中测试,结果表明该方法可有效消除动态物体对建图的影响,提高建图精度.  相似文献   

12.
基于人眼立体视觉的裸眼3D显示技术通过虚拟视点快速渲染可以获得具有密集视点的3D内容,让用户不需要任何辅助设备就可以身临其境地感受三维场景.针对传统获取方法因渲染速度慢、重建质量不高、视差受限等问题,提出基于无监督神经网络的虚拟视点重建方法,基于单目立体深度估计和傅里叶切片理论将2D图像直接生成任意视角虚拟视点.试验结果表明,本文算法比传统方法对任意视角视点的理论渲染速度大幅提升,空洞区域修复更自然.  相似文献   

13.
基于双目视觉的移动机器人动态目标识别与定位   总被引:1,自引:0,他引:1  
提出了一种双目移动机器人实时动态目标识别与定位方法。该算法首先采用SIFT(Scale Invariant Features Transforms)算法提取目标特征,并结合双目视差特征进行目标匹配;然后通过区域增长方法进行目标区域的提取;最后结合双目视觉标定的模型对目标进行定位。实验结果表明:该方法在摄像机运动-目标运动情况下,能对局部特征未知或特征不明显的动态目标进行有效的识别与定位。  相似文献   

14.
为了提高步态识别应用的广泛性,寻找稳定的人体动态特征,提出一种基于Kinect骨骼信息的步态特征提取方法,以验证骨骼点三维轨迹特征在步态识别中的稳定性。在分析深度相机Kinect工作原理的基础上,对Kinect有效范围进行测量并对其深度数据进行校准,通过18组实验对同一个体在不同行走模式、不同相机位姿下的人体骨骼点三维轨迹进行数据提取,并在固定相机位姿和行走模式的条件下对10组不同个体的行走数据进行提取,最后将同组骨骼点轨迹曲线在同一空间坐标系中进行绘制,同时使用动态时间规整算法(DTW)对实验个体骨骼点轨迹曲线相似度进行评价。实验结果表明,该特征在同一个体中表现出较好的稳定性,可用于步态识别的同一认定。  相似文献   

15.
徐红霞  成艳真 《科技信息》2011,(15):185-185,195
本文给出的运动目标检测算法,提出了一种基于动态阈值对称差分和背景差分的运动对象检测算法,详细描述了算法的原理和流程。此外,本文在运动目标检测算法的过程中还采用动态最优阈值的方法,进一步提高了运动目标检测的准确性。  相似文献   

16.
针对旋翼无人机通过视觉准确、快速检测其他旋翼无人机存在的问题,提出基于旋转FHOG-LBP动态检测算法。首先,针对旋翼无人机特有的外形和运动状态,通过形成的样本库建立外部结构模型;其次,将方向梯度直方图(HOG)进行傅里叶变换,使其具有快速旋转不变性,在局部二进制模式(LBP)上加入角度旋转偏移值,进行串行融合得到旋转FHOG-LBP特征,使用支持向量机递归特征消除算法(SVM-RFE)进行训练,并使用滑动窗口的检测算法对目标进行检测;最后,通过无人机动态目标测试集进行了实验,实验结果表明,提出的动态检测算法比传统方法精度和时效提高。因此,该方法可以解决具有动态变化或旋转变化的目标检测困难的问题。  相似文献   

17.
在深度强化学习领域中,为进一步减少双延迟深度确定性策略梯度TD3( Twin Delayed Deep Deterministic Policy Gradients) 中价值过估计对策略估计的影响,加快模型学习的效率,提出一种基于动态延迟策略更新的双 延迟深度确定性策略梯度( DD-TD3: Twin Delayed Deep Deterministic Policy Gradients with Dynamic Delayed Policy Update) 。在DD-TD3 方法中,通过Critic 网络的最新Loss 值与其指数加权移动平均值的动态差异指导Actor 网 络的延迟更新步长。实验结果表明,与原始TD3 算法在2 000 步获得较高的奖励值相比,DD-TD3 方法可在约 1 000步内学习到最优控制策略,并且获得更高的奖励值,从而提高寻找最优策略的效率。  相似文献   

18.
基于火焰燃烧具有动态特性和具有一定的颜色特征,本文针对火焰具有的这两种特性提出了基于火焰动态和颜色特征相结合的检测方法。  相似文献   

19.
针对基于单目车辆检测的3D包围框检测精确率比较低的问题,提出了一种基于改进的FPN特征融合、ResNet残差单元、全连接层组合而成的新网络方法.在训练阶段,回归车辆的三维尺寸、残差角度和置信度;在推理阶段,检测出所属类别车辆的三维尺寸和局部角度(α).由车辆的3D包围框中心点坐标、车辆的三维尺寸、车辆偏航角(θ)和相机内参矩阵复原绘制出车辆的3D包围框.所提方法在KITTI验证集上进行了实验,与原方法的检测结果相比,改进的方法在容易、适中、困难三个检测等级下提升了车辆3D包围框平均精确率(AP3D)为0.60%,1.37%,1.41%.  相似文献   

20.
为解决室内监控场景中行人小目标不易检测的问题,提出一种基于图像裁剪的行人小目标检测算法.在固定的单目视觉监控视频数据流中,图像序列中不同帧之间存在相关性,使用斯皮尔曼等级相关系数找出两幅图像间不相关部分并进一步精确验证,运用差异函数对传输的图像进行高频感兴趣区域的提取,再利用图像裁剪剔除冗余部分,最后在单阶段目标检测模...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号