首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
为了提高点云目标识别算法的识别率、增强算法鲁棒性,研究了一种将颜色纹理的方向特征直方图(CSHOT)算法与视点特征直方图(VFH)算法相结合的点云目标识别算法(CSHOT-VFH)。利用VFH特征对点云目标进行识别,实现目标快速估测。在此基础上,进一步利用CSHOT特征进行精确识别。搭建了实验系统,分别对单物体场景、多物体场景及目标存在部分遮挡等情况进行了测试。测试结果表明:本文算法识别率达到了90%以上,在目标遮挡的两组实验中,本文算法比VFH算法的识别率提高了10%以上,能够满足室内场景目标检测的需求。  相似文献   

2.
为实现无人机在运输方面的自动化和信息化,设计并实现一种能自主循迹、取物并运输至目标点的四旋翼飞行器。通过对四旋翼飞行器飞行控制原理的分析,使用超声波传感器获取飞行器实时高度,利用计算机图像处理技术实时判断飞行器位置,并用PID( Proportion-Integral-Derivative) 控制器控制飞行器的飞行高度和自身姿态,实现了四旋翼飞行器的自主循迹飞行和物体识别,以及驱动机械手完成对目标物体的抓取与投放。测试结果表明,飞行器可在1 m 高度上以20 cm/s 的速度沿预设轨迹自主循迹飞行,能在50 s 内识别与抓取底面半径为4 cm、高度为8 cm 的圆柱形物体,并投放在以目标点为圆心半径为25 cm 的范围内,达到了预期效果。  相似文献   

3.
在遮挡情况下,LineMod算法对物体的识别能力较弱,为此提出一种基于LineMod的聚类匹配识别方法CMRL。首先利用特征点的4D附加特征与3D空间特征共同形成更深层次的7D特征块,分析各特征点的内在逻辑关联性以获取新的特征点分类方式,增加独特特征(物体边缘、角、弧等)在特征点分类过程中的影响比重;然后利用数据降维算法与Kmeans方法相结合的方式,将7D特征信息降维为新的3D特征信息,从而实现对特征块的重新分配,得到具有更多匹配信息的模板作为最终模板。实验结果表明,该方法在多目标遮挡的复杂场景下的鲁棒性、识别率以及准确率都有较大的提高。  相似文献   

4.
根据场景图像中某些目标的特征间具有空间关联性和几何连贯性的空间语义属性,对特定场景的图像序列进行学习,首先提取各图像的尺度不变特征变换(SIFT)特征点,分析每对图像中各匹配特征点对间的几何连贯性,然后根据图像序列特征点矢量间的空间紧密程度进行聚类获得目标对象,从而得到基于空间关联性的一种新的图像语义层级结构(SBOSH),此层级结构图是通过非监督自动学习的过程获得的.由SBOSH结构图不仅可得到各节点上的目标对象,而且能够获得各节点间的空间交互性.所得的SBOSH结构图符合人对场景的逻辑分析,可以应用于场景分析、目标及目标局部精确定位和类目标的识别中.  相似文献   

5.
针对复杂场景下的三维点云目标识别速度慢,准确率低的问题,提出了一种基于关键点的点对特征三维目标识别算法. 通过直接对关键点建立点对特征,避免了周围邻域局部曲面的特征计算,具有空间维度小和计算速度快的特点. 使用哈希表存储,加快了特征匹配的时间. 利用快速投票方案对模型点云和场景点云进行匹配识别,生成候选位姿,利用贪婪算法对候选位姿进行聚类与筛选,采用ICP算法对物体位姿进行优化,基于配准后的点云重叠情况完成目标识别. 对提出的算法在多个数据集以及真实场景下进行了实验,验证了所提出的识别方法具有可行性和有效性,且对噪声的鲁棒性较强,具有一定的实际工程应用价值.   相似文献   

6.
为解决目标识别精度低、定位与抓取配合困难问题,通过对算法的改进研究了物体的识别定位与抓取,包括识别目标物体、对于目标物体形心的位置三维重建、对于目标物体的姿态估计、对于手眼标定后的抓取4个方面。在目标识别中,首先通过快速鲁棒特征(speeded up robust features,SURF)算法结合Grabcut算法提取出目标。在位置求解中,利用模板匹配求取目标物体形心的世界坐标。在姿态估计中,算法的流程为:利用匹配点对求取左图中物体母线斜率,再随机取斜率等于左图母线斜率的两点,通过两点的世界坐标求出目标物体的姿态。在抓取中,采用的眼在手上,先建立工件坐标系,再进行坐标转换,通过机器人参数求得逆解。研究结果表明:误差均在较小范围内且机器人可在有效工作范围实现抓取。可见算法可靠以及整体实验的正确性。  相似文献   

7.
针对计算机视觉处理系统中,阴影会严重影响到对目标的跟踪、识别和图像场景的理解的问题,提出了一种基于YUV色彩空间的阴影检测方法并给出了与不同色彩空间的实验对比结果.该算法将分割出的运动目标与背景在亮度和色度进行对比,从而区分出运动目标和运动阴影.实验证明,与其他的阴影检测的算法相比,该方法具有更高的准确性和更快的检测速度.  相似文献   

8.
针对视觉SLAM(Simultaneous Localization and Mapping)在真实场景下出现动态物体(如行人,车辆、动物)等影响算法定位和建图精确性的问题,基于ORB-SLAM3(Oriented FAST and Rotated BRIEF-Simultaneous Localization and Mapping 3)提出了YOLOv3-ORB-SLAM3算法。该算法在ORB-SLAM3的基础上增加了语义线程,采用动态和静态场景特征提取双线程机制:语义线程使用YOLOv3对场景中动态物体进行语义识别目标检测,同时对提取的动态区域特征点进行离群点剔除;跟踪线程通过ORB特征提取场景区域特征,结合语义信息获得静态场景特征送入后端,从而消除动态场景对系统的干扰,提升视觉SLAM算法定位精度。利用TUM(Technical University of Munich)数据集验证,结果表明YOLOv3-ORB-SLAM3算法在单目模式下动态序列相比ORB-SLAM3算法ATE(Average Treatment Effect)指标下降30%左右,RGB-D(Red, Gree...  相似文献   

9.
随着信息技术和智能机器人的发展与普及,场景识别作为重要的研究内容,已成为计算机视觉和模式识别领域的重要研究问题.解决室内场景分类精度低的问题,将有助于室内场景分类在场景图片检索、视频检索及机器人等领域中的应用.针对常规场景识别方法在室内环境中性能显著下降的问题,提出一种基于显著性检测的稀疏表示室内场景识别方法.该方法利用显著性区域检测算法提取出场景图像中人眼感兴趣的区域,并与稀疏表示结合进行场景识别.实验结果表明,将本方法应用在典型家庭室内场景(如卧室、厨房、衣帽间等),在识别正确率方面有一定的优势.  相似文献   

10.
通用目标检测是计算机视觉和模式识别领域中最活跃的研究主题之一,在图像检索、目标识别、辅助驾驶系统以及视觉监控等许多方面都有着重要应用.目标检测研究中要解决的基本问题是,如何选取目标特征,以及如何利用这些特征描述目标物体.一般情况下,目标物体的描述方法跟目标特征的选取原则密切相关.论文从两类典型的特征类型出发,对目标检测研究的暨有成果加以回顾与评述,并对可能的发展趋势进行分析.  相似文献   

11.
郭培涛  席志红 《应用科技》2024,(2):76-81+89
为了提高室内动态场景下定位与建图的准确性与实时性,提出了一种基于目标检测的室内动态场景同步定位与建图(simultaneous localization and mapping, SLAM)系统。利用目标检测的实时性,在传统ORB_SLAM2算法上结合YOLOv5目标检测网络识别相机图像中的动态物体,生成动态识别框,根据动态特征点判别方法只将识别框内动态物体上的ORB特征点去除,利用剩余特征点进行相机位姿的估计,最后建立只含静态物体的稠密点云地图与八叉树地图。同时在机器人操作系统(robot operating system, ROS)下进行仿真,采用套接字(Socket)通信方式代替ROS中话题通信方式,将ORB_SLAM2算法与YOLOv5目标检测网络相结合,以提高定位与建图的实时性。在TUM数据集上进行多次实验结果表明,与ORB_SLAM2系统相比,本文系统相机位姿精确度大幅度提高,并且提高了每帧跟踪的处理速度。  相似文献   

12.
图像或视频中的人员目标检测,一般采用单个深层神经网络检测器(SSD)算法.但在复杂场景下,SSD算法因场景复杂、物体重叠、遮挡等干扰,检测精度大大降低.在SSD算法中加入反卷积网络反馈用于增加环境感知信息;采用辅助损失函数以促进损失降低,并将复杂场景中的目标检测多分类问题转换为二分类问题.以无人机拍摄的复杂场景下的行人数据集为例进行人员目标检测实验,对比分析多种检测方法的准确率表明,改进后的SSD算法在检测速度和识别精度上均提高明显.  相似文献   

13.
14.
为了克服物体表面缺少足够的纹理特征且算法搜索空间太大的缺陷,提出了一种基于模型与自然特征点相融合的三维注册追踪方法.采用保持旋转和尺度不变性的线性并行多模态(LINE-MOD)模板匹配方法快速识别目标物体、获取与当前视角接近的参考视图而完成相机位姿的粗略估计,并缩小算法的搜索空间;采用基于自然特征点的方法完成相机位姿的精确计算;为了避免因特征点较少而引起的位姿抖动或扰动,引入了有效的非迭代透视n点问题(RPnP)算法以提高注册追踪的精度和速度.结果表明,所提出的注册追踪方法能够进行快速三维注册,具有良好的实时性和鲁棒性,其运算速度可达30帧/s.  相似文献   

15.
提出一种基于2D先验的3D目标判定算法.首先用轻量级MobileNet网络替换经典SSD的VGG-16网络,构建出MobileNet-SSD目标检测模型;其次,通过改进网络结构,提高模型对小目标的检测能力,并引入Focal Loss函数来解决正负样本不均衡和易分样本占比较高的问题;在相同数据集上,将改进算法与Faster R-CNN、 YOLOv3及MobileNet-SSD进行对比测试,其平均精度mAP分别提高了7.2%、 8.8%和10.6%;最后,通过改进算法获取ROI,利用深度相机将二维ROI转换为ROI点云,并借助直通滤波来判断目标物体是否为真实场景物体,既省去了传统点云识别中的诸多步骤又避免了点云深度学习中三维数据集制作难度较大的问题,在识别速度和识别精度上达到了较好的平衡.  相似文献   

16.
为了使计算机具有与人类相似的在复杂背景下识别一般物体的视觉处理能力,提出了一种基于立体视觉的一般物体识别方法.该方法的核心在于融合二维图像信息和双目相机获取的深度信息,对视野中的环境进行物体定位、图像分割、特征描述以及物体识别.通过双目相机获取环境的三维点云信息,并利用mean-shift算法进行聚类,剔除干扰点,从而实现物体在二维图像上的定位与分割.利用含有空间关系的BoW模型对分割后独立区域内的物体进行识别,得出判别结果.此外,在利用sift算法进行特征点提取以及利用mean-shift算法进行聚类的环节中,采用CUDA环境下的GPU进行加速处理,提高了处理速度.实验结果表明,所提方法具有较好的识别效果和鲁棒性.  相似文献   

17.
 雷达目标微动特性是当前目标探测与识别领域的新兴研究方向和热点课题,随着近10年的发展积累了一些研究成果。本文重点综述了微动目标雷达回波调制效应、微动特征提取、微动目标雷达成像、微动特性测量及雷达波形设计等方面的研究成果,部分成果已应用于空间/空中目标探测与识别等领域。本文的研究成果及结论为进一步推动国内微动特性研究提供参考和基础。  相似文献   

18.
运动目标识别与跟踪的模板匹配算法改进及仿真研究   总被引:1,自引:0,他引:1  
秦先祥  陈华 《广西科学院学报》2008,24(4):293-295,299
针对传统模板匹配算法存在运算量大,以及干扰物中有部分区域和目标形状相同时识别率差的问题,改进传统的模板匹配算法,并在MATLAB6.5环境下,应用改进的新算法对简单背景中的运动目标进行计算机识别与跟踪仿真.新算法先对识别区域进行扫描点检测,判断该点是否满足要求再进行模板匹配运算;当某些干扰物体中某部分区域与目标模板相同时,采用自动模板更新的方法进行区分.仿真实验结果表明,改进的模板匹配算法大大减少模板匹配的运算量,并且可以有效地排除干扰物体对目标识别的干扰.  相似文献   

19.
为了让机器人能识别物体类别、探测物体形状、判断物体距离,提出一种基于Mask R-CNN模型的双目视觉的物体识别和定位方法。该方法利用Mask R-CNN处理双目图像,对每张图像进行物体识别和形状分割,然后利用神经网络特征对双目图像中的相同目标进行匹配。以物体形状为依据,使用最近点搜索算法估计视差并计算距离。实验结果表明,该方法能够以准实时的速度进行物体的识别和定位,与传统的依赖计算全局视差图的方法相比,在速度和精度上都有提高。  相似文献   

20.
提出一种以摄像头实现的可用于盲人视觉辅助的多运动目标快速识别并同步测距方法.该方法以深度学习多目标检测算法(single shot multibox detector,SSD)识别各类目标,并通过SSD输出的目标类别及检测框(bounding box)高度来提出测距模型,从而同步地获取多个目标的测量距离.本方法仅通过普通摄像头便能识别较多类物体且识别类别数量可拓展,能够将测距模块和障碍物识别模块同步执行,从而可对多个物体实时识别并同步测距.实验结果表明,本方法能有效地识别障碍物,具有良好的测距精度,为盲人视觉辅助的一种有效探索.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号