首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 468 毫秒
1.
针对机器人伺服抓取中对定位精度和实时性均要求较高的问题, 提出一种特征匹配及目标定位快速算法. 首先, 采用Shi-Tomasi检测算法提取特征点; 其次, 提出一种新的特征描述子定义方法: 先以特征点为中心截取子图像, 利用二维Gauss函数偏导数确定特征方向, 再根据特征方向对局部图像做旋转处理, 提取旋转后标准局部图像局部二值模式作为特征描述子, 该描述子具有良好的局部性以及平移、 旋转不变性; 最后, 通过计算特征描述子间的Hamming距离实现特征匹配, 估计单应性矩阵, 定位目标在场景中的位置和方向. 实验结果表明, 该算法匹配速度快、 定位精度高、 稳定性好, 能满足机器人伺服抓取中定位精度和实时性的要求.  相似文献   

2.
为满足机器人伺服抓取中定位精度和实时性的要求, 提出一种基于Harris及改进局部二值模式(LBP)的特征匹配和目标定位快速算法. 首先采用Harris检测算法提取图像特征点; 然后提出一种新的特征点描述子定义方法, 先利用胡矩确定特征方向, 再根据特征方向对局部图像做标准化处理, 提取标准化局部图像LBP特征作为特征点描述子; 最后通过计算两张图像中各特征点描述子间的汉明距离实现特征匹配, 再根据匹配结果估计单应性矩阵, 定位目标在场景图像中的位置. 实验结果表明, 该算法匹配速度快、 定位精度高.  相似文献   

3.
对图像配准中的特征点检测方法和描述方法进行了研究,提出了一种快速准确的图像配准算法.使用尺度空间理论进行特征点的检测,通过两种不同的特征点描述子对特征点进行描述:一种是基于图像信息的描述子,该描述子使用尺度空间理论上的尺度不变Harris算子的自相关矩阵来描述特征点;第二种是基于空间上的几何关系的描述子,提出了一种融合局部结构特征和全局信息的描述子.在图像配准的目标函数里,将特征点匹配矩阵和图像变换矩阵分解,分别使用两种不同的描述子对二者进行迭代求解.该算法结合了两种特征点描述方法的优点,实验结果表明该方法快速、准确,具有配准精度高和计算时间短的优点.  相似文献   

4.
提出了一种基于移动机器人双目摄像头的图像视觉伺服方法,实现了基于图像视觉伺服的移动机器人自主导航.当匹配图像特征点时,采取KLT算法和基于Harris算子角点检测与匹配算法相结合的方法,大幅优化了整个工程的运行时间,并结合RANSAC算法剔除误匹配的特征点对,使机器人能够精确地定位.实验结果证明该方法有效、正确.  相似文献   

5.
提出了一种基于模糊距离的红外图像小目标的精准匹配算法.该算法从红外图像中获取特征点,以特征点为中心选取参考模板,利用特征模糊距离熵对小目标特征进行扩展,克服由于目标滑动造成的定位误差较大的弊端.实验结果表明,该算法很好的解决了红外图像特征目标跟踪技术中的跟踪点滑动和漂移问题,并满足实时性要求,鲁棒性稳定.  相似文献   

6.
基于改进FAST检测的ORB特征匹配算法   总被引:2,自引:1,他引:1  
针对ORB(oriented FAST and rotated BRIEF)特征匹配算法在实时性要求较高领域效果不佳以及在复杂光照环境下匹配精确率较低的问题,提出了一种基于改进FAST(features from accelerated segment test)检测的ORB算法。首先,对待处理的灰度图像进行分类,剔除掉部分灰度变化率较低的区域,然后提取FAST特征点并计算描述子,最后采用汉明距离完成匹配。此外,在提取FAST特征点时,设计了一种自适应半径,利用图像对比度自适应调整检测半径,当图像对比度突变时依然能够保证期望的特征点数量。实验结果表明,改进后的ORB算法匹配时间缩短了16. 47%,大幅提高了在复杂光照环境下的匹配精确率,具有较强的鲁棒性和实时性。  相似文献   

7.
一种改进的SIFT特征点匹配算法   总被引:1,自引:0,他引:1  
提出一种改进的SIFT特征点匹配算法.以提高图像特征点匹配算法效率为目的,研究了SIFT特征点描述子基于欧氏最小距离测度的匹配算法.由于SIFT特征点检测算法检测到的特征点数量较大,且每个特征点描述子都是128维的向量,而基于欧氏最小距离测度的匹配算法要求,待匹配第一幅图像的每个特征点要和待匹配第二幅图像的所有特征点求距离,排序后寻找极值,这导致了算法效率较低.依据光学成像理论和双目视觉理论,由第一幅图像每个特征点的坐标,从行列两个方向缩小第二幅图像待匹配特征点坐标的搜索范围,在保持匹配精度的基础上,提高了算法的效率,算法速度约是原算法速度的2.7倍.  相似文献   

8.
针对Robocup类人组比赛的特殊环境,为了识别比赛双方机器人,并克服光照变化、图像扭曲等问题给识别目标带来的干扰,选用尺度不变特征变换(SIFT)算法进行特征提取.由于SIFT算法的实时性差,提出改进的PCA-SWT目标识别算法,将主成分分析法(PCA)用于对经典SIFT算法中的128维描述子进行降维,并用最近邻法进行特征点的匹配.通过实验发现,经过PCA改进的描述子不仅提高了运算速度,匹配度也保持在较好的状态.  相似文献   

9.
为了提高从背景图像中提取目标的速度和精度,设计了一种基于手指轮廓特征的目标识别与定位算法;该算法利用肤色信息和手指轮廓特征进行目标识别,利用提出的9点快速定位算法进行目标定位。仿真结果表明,该算法能正确识别出手指的特征;并对其进行快速定位。在实物系统上对算法的实时性、识别准确率、定位精度等性能进行了测试,测试结果表明,算法运行时间不超过40 ms,能保证系统对实时性的要求;在无手指状干扰物存在的情况下,目标识别的准确率可达95%以上;定位精度误差小于8 mm,可满足系统对定位精度的要求。这种基于手指轮廓特征的目标识别与定位算法为增强人机交互系统的和谐性提供了一种新的技术途径。  相似文献   

10.
运用SIFT算法对单目所采集的室外视频图像的相邻两帧进行了特征点的检测与匹配.采用改进的RANSAC算法对所匹配点进行了误匹配点剔除.根据相邻两帧图像特征点的跟踪以及里程计读数作为辅助信息,求解特征点的三维坐标;进而根据视觉里程计模型,达到机器人的定位.实验结果表明,该方法相比传统的里程计定位精度高,比之双目激光等定位方法,又有成本廉价的优点.  相似文献   

11.
为了解决传统的图像处理算法识别现场获得的工件图像速度慢且匹配效果较差等问题,通过对工件图像的识别方法进行研究,提出了一种改进的加速鲁棒特征(SURF)算法可以实现工件准确、实时的定位。该算法基于加速分割测试特征检测器(FAST)对SURF算法的特征提取方式进行改进,首先利用FAST提取特征点,然后通过SURF算法生成特征点描述子,使用主成分分析算法(PCA)对描述子进行降维。随后以欧式距离作为相似性度量进行粗匹配,再采用随机抽样一致算法(RANSAC)剔除误匹配点。最后结合双目视觉技术得到工件空间位置坐标。实验结果表明:本文提出的算法在运行时间上相比传统SURF算法减少80%,同时提高了匹配的精度。可见达到了准确、实时的工件定位目的。  相似文献   

12.
针对未知环境下侦察机器人的自主导航问题,提出了一种基于视觉目标跟踪的侦察机器人导航方法.首先利用二进制鲁棒独立元素特征(BRIEF)提取方法来检测和描述待跟踪视觉目标的局部不变特征点,在快速的特征匹配计算基础上提出由粗到精的目标定位两步法实现机器人导航过程中视觉目标的实时准确跟踪.其次对基于视觉目标跟踪的自主导航任务进行行为分解和实现,在行为中集成视觉目标跟踪算法.最后利用基于宏行为的机器人事务执行机制实现移向视觉目标的自主导航控制.实验结果表明,提出的方法能够使侦察机器人实时准确地跟踪视觉引导目标,在复杂障碍物环境下可靠地完成移向目标的自主导航任务.  相似文献   

13.
全局结构化 SIFT描述子在图像匹配中的应用   总被引:2,自引:0,他引:2  
为了克服传统SIFT描述子进行图像匹配时对噪声和图像灰度的非线性变换敏感的缺点,提出了一种全局结构化SIFT描述子及其生成方法.该方法将特征点矩形区域改为以特征点为中心向外扩散的同心圆区域,计算同心圆区域10个方向的曲率累积值,建立一个描述范围为特征点尺度函数的特征向量,对其实施排序操作,赋予完全旋转尺度不变,形成全局结构化SIFT描述子.采用欧氏距离为匹配度量函数应用于图像匹配.实验结果表明:这种全局、局部结构式信息联合的思想增强了算法对图像的光照、平移、旋转等变换的鲁棒性,匹配精度提升18%,极大地改善了匹配效果.  相似文献   

14.
电力隧道环境机器人巡检目标坐标定位过程中,利用传统搜索算法会产生信息损失,从而导致搜索定位 结果存在精度不够理想问题。为此,提出了一种共轭搜索算法。该算法通过搭建机器人巡检模型,得到反映机 器人位姿的坐标系,然后通过共轭算子规划设置机器人搜索路径。机器人沿着设置的搜索路径采集实时巡检 图像,并根据特征值识别图像中的目标节点。解算机器人在巡检过程中的位姿,并结合手眼标定和空间坐标的 测量结果,实现机器人巡检目标的搜索和坐标定位。对比实验结果表明,所提出的共轭搜索算法对目标位置的 定位环境风险评价( ERA: Environmental Risk Assessment) 指标更趋近于0,与传统搜索算法相比具有更好的定 位精度。  相似文献   

15.
传统的基于图像视觉伺服控制需要计算雅可比矩阵和解雅克比矩阵的逆,其结构复杂、计算量大且系统 的实时性不够理想。基于粒子群遗传算法优化的 BP(Back Propagation)神经网络(PSO-GA-BP: Particle Swarm Optimization-Genetic Algorithm-BP)通过学习图像特征空间到机器人运动空间的映射关系,实现了“眼在手上”的 机器人视觉伺服控制,通过优化 BP 神经网络的权值和阈值,防止了其训练时间长、收敛速度慢等弊端。实验 结果表明,优化后的算法运算效率较高,所设计的控制器能使机器人末端执行器在更短的时间内达到预期位 置,图像特征点运动位置的实际值与期望值平均误差约为 2 个像素,具有良好的收敛速度和控制精度。相关结 论可为机器人视觉伺服控制提供优化依据,提高算法的应用性能。  相似文献   

16.
为了解决经典的特征点匹配算法SIFT采用比率测试得到的匹配特征点集中存在大量误匹配,且对数量和准确度无法兼顾的情况,提出了基于特征点局部特征值剔除误匹配特征点算法。该算法以高阈值比率测试得到的结果为粗剔除匹配点集,基于三角形相似性原理,从该特征点集中筛选出3个匹配正确的特征点对,利用其分别在基准图像和实测图像中构建局部直角坐标系,根据匹配的特征点对在相似局部坐标系下局部特征值的相似度剔除误匹配特征点,实现精剔除。实验结果表明,本文算法可以有效的剔除SIFT算法匹配结果中的误匹配,同时,与低比率(0.6)测试匹配结果比较,准确度较高,降低了匹配正确的特征点被误剔除的概率。可见本文算法可有效的剔除误匹配特征点,获得准确度高的匹配点集。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号