首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 156 毫秒
1.
针对MeanShift跟踪算法目标易受到周围相似背景区域干扰的问题,引入图像的RGB-D特征,研究并实现结合RGB-D与MeanShift的实时目标跟踪算法。首先,提出一种新颖的相似性度量方法优化二次型距离(advanced quadratic-form distance,AQFD);其次,基于颜色和深度特征完善了特征权重在线自适应调整机制和目标模型更新策略;最后,对该算法进行仿真分析并基于Jetson TX2平台实现。研究结果表明:本文算法在目标受到周围相似背景区域干扰情况下仍能够完成目标跟踪任务,优于先进算法Staple,具有良好的准确性与鲁棒性,并且能够应用于实时跟踪。  相似文献   

2.
基于特征学习与特征记忆模板更新机制的粒子滤波跟踪   总被引:1,自引:0,他引:1  
目标运动的多样性以及背景环境的复杂性是影响目标跟踪鲁棒性的主要原因.受背景颜色、光照以及姿态尺度变化等因素的影响,目标模板更新精度不高、目标跟踪鲁棒性差.针对此类问题,提出了一种基于特征学习与特征记忆的模板更新机制,通过构建目标模板库,保存丰富的运动目标信息,采用粒子滤波跟踪算法,将候选模板与模板库中的目标信息进行匹配,确定目标状态实现跟踪.实验结果表明,该算法以更丰富的目标信息进行跟踪,比传统目标模板更新策略的粒子滤波算法具有更高的跟踪精度和更强的鲁棒性.  相似文献   

3.
多摄像头(视角)目标跟踪系统中,由于视角间存在大量信息冗余可有效提高跟踪鲁棒性.但在传统基于模板匹配方法中,由于视角不同导致匹配不准,会带来较大跟踪误差.针对这个问题提出了一种基于卡尔曼滤波的在线目标信息时空交互算法,利用多摄像头几何限制,实现多个摄像头的信息交互,减少了模板匹配的搜索范围,进而降低了多摄像头目标跟踪算法的计算复杂度.同时通过在线估计卡尔曼滤波模型中噪声功率,并且自适应调整卡尔曼增益将信息交互过程中误差传递降至最小.仿真结果表明,该方法可以实现更鲁棒的目标跟踪.  相似文献   

4.
在线目标跟踪是计算机视觉领域的一个具有挑战性的问题.提出了一种基于特征分组的在线目标跟踪算法.首先,利用像素点在多帧的方差对模板库中的目标模板进行特征分组.然后,利用主要特征图像和次要特征图像学习投影矩阵P,对样本进行投影.最后,利用最小误差法得出当前帧的跟踪结果.与其他典型算法相比,该算法对目标的异常变化具有很强的鲁棒性.  相似文献   

5.
针对现有基于卷积神经网络跟踪中需要大量离线训练以及在线更新耗时的问题,提出了一种多特征融合的视频目标卷积跟踪算法。算法首先设计了一种浅层前向自学习卷积网络提取目标候选区域的局部卷积特征;然后计算融合了空间信息的颜色直方图特征;在此基础上,采用归一化加权方法在全连接层融合卷积特征和全局颜色特征形成目标的表观描述;最后基于粒子滤波算法,通过计算目标模板与候选目标之间的相似度,估计目标位置。采用OTB-2013公开测试集验证所提跟踪算法的性能,与8种主流目标跟踪算法进行了分析对比。实验结果表明,本文算法的目标跟踪精度和跟踪成功率在多种场景下取得了不错的性能,在保证跟踪精确率的前提下,跟踪鲁棒性优于其他算法。可见提出的多特征融合的卷积跟踪算法通过提取所跟踪视频的自身特征生成卷积器而无需进行大量离线训练,且与手动特征进行融合增强了目标的表达能力,这种策略具有一定的借鉴性。  相似文献   

6.
针对不规则目标跟踪中初始窗口内包含背景像素导致特征模板不准确的问题,提出前景概率函数以及基于前景概率函数的目标跟踪算法.首先根据目标所在区域与背景区域的颜色分布建立前景概率函数,并以此计算目标区域中像素的前景概率,削弱背景像素的干扰,得到更准确的目标特征模板.将目标区域像素的前景概率引入均值迁移跟踪框架中,实现目标的迭代定位;在跟踪收敛后重新计算收敛区域中的前景概率分布,根据其反向投影图的尺度变化调整跟踪窗宽;最后利用Bhattacharyya相关系数对目标特征模板进行自适应更新.实验表明,该算法能够有效抑制背景像素的干扰,在目标尺度变化时能够准确调整跟踪窗宽,减少迭代次数,满足实时跟踪的需要.在复杂背景中跟踪性能也始终优于传统的均值迁移跟踪算法.  相似文献   

7.
针对当前目标跟踪算法受环境干扰大、抗遮挡能力差等不足,设计一种抗遮挡的运动目标跟踪算法.首先分析经典运动目标跟踪算法——均值漂移算法的局限性,然后从目标候选特征中选择对跟踪贡献最大的显著特征,并采用自适应的模板更新策略提高运动目标精度.仿真实验结果表明,该算法能对运动目标进行准确、实时跟踪,加快了运动目标跟踪速度,且对遮挡目标具有良好的鲁棒性,可获得更理想的运动目标跟踪结果.  相似文献   

8.
针对复杂跟踪环境条件下目标的跟踪失败问题,提出一种基于多相关滤波器组合的目标跟踪方法.首先2个分别采用颜色属性(Color Name,CN)特征和方向梯度直方图(Histogram of Oriented Gradient,HOG)特征的核相关滤波器(Kernelized Correlation Filter,KCF)通过自适应融合手段进行响应图信息融合,确定目标的预测位置;然后通过以目标区域为基础进行多尺度采样,提取CN-HOG拼接特征构建尺度相关滤波器,得到目标的最佳尺度;最后设计了模型的自适应更新策略,通过判断目标是否发生遮挡来决定是否在当前帧进行模型更新.在50组视频序列上对所提算法与6种当前主流的相关滤波跟踪算法进行了实验.实验结果表明,在复杂的跟踪环境条件下,所提算法取得了最好的跟踪精度和成功率,能够有效处理目标遮挡和尺度变化等问题,且具有较快的跟踪速度.  相似文献   

9.
针对复杂场景下目标跟踪算法存在的跟踪目标丢失漂移等问题,提出一种粒子滤波框架下基于卷积神经网络(convolutional neural network,CNN)的目标跟踪算法.该算法采用CNN提取跟踪目标的高层语义特征,并引入离线训练方式,提高训练效率以及特征提取的泛化能力;利用粒子滤波算法框架,实现目标运动状态的有效估计;同时采用长时与短时两种更新策略,并引入困难样本挖掘的在线训练方式,以适应目标外观变化与背景干扰等复杂情况.仿真实验结果表明本文算法能有效适应遮挡、光照、剧烈运动等场景.与多个当前的跟踪算法在公开测试样本下进行了结果比较和分析,验证了本算法在解决跟踪目标丢失漂移等问题上的有效性.   相似文献   

10.
传统的基于粒子滤波的目标跟踪中,通常待跟踪的目标或者在视频初始帧中由人工指定,或者需要对背景进行建模后由背景差方法进行分割,受人类视觉感知机制的启发,提出一种基于尺度不变特征转换(scale invariant feature transform,SIFT)流的动态视觉显著性算法,结合颜色、亮度以及方向等静态特征以实现对感兴趣目标的自动定位;通过融合静态显著性与动态显著性形成总显著图,并选择显著性最高的目标作为待跟踪的感兴趣目标;通过提取目标区域的颜色、梯度及旋转不变局部二进模式(local binary pattern,LBP)纹理等特征构建目标模板,采用粒子滤波器对目标进行跟踪。结果表明,该算法能够在一定程度上模拟人类动态视觉注意过程,有效地检测感兴趣的目标并进行稳定鲁棒的跟踪。  相似文献   

11.
为解决基于稀疏表示的跟踪算法在小样本空间中出现模板漂移而在大样本空间中实时性差的问题,提出了一种基于圆形采样的双重稀疏表示目标跟踪算法.该算法对跟踪矩形窗数据进行圆形采样,这不仅保证了目标的灰度和结构信息,而且减少了背景信息干扰.同时对稀疏表示得到的小模板系数引入距离权重判断函数,判断目标样本变化情况,提高模板更新效率.最后引入HOG(histogram of oriented gradient)特征,对稀疏表示得到的多个次优解进行二次稀疏表示,有效解决小样本数量少带来的估计误差.实验结果表明,该算法能够提高小样本空间中目标跟踪的鲁棒性和实时性.   相似文献   

12.
针对目前图像显著性检测存在的显著性图边缘模糊、缺乏视觉高层信息等问题,提出了一种基于物体信息的显著性检测算法。将似物性计算与显著性计算相结合,可以将前景与背景分离,抑制高对比度干扰区域的影响。首先采用改进的L0平滑算法对图像进行滤波处理,然后通过超像素分割将图像分成若干图像块,再通过聚类算法进行合并,得到待检测图像块。采用似物性检测算法计算物体可能存在的区域,与待检测图像块进行融合,得到物体显著性图,再通过颜色对比度及空间分布特征计算显著性图,最后将二者融合,得到最终结果。实验结果表明,算法能够得到清晰的物体边缘,对图像的显著性区域能够较为全面地覆盖,有效地抑制高对比区域的干扰。  相似文献   

13.
针对跟踪过程中因尺度变化、遮挡及运动模糊等造成的目标定位不准确问题,在SiamFC(fully-convolutional siamese network)的跟踪框架基础上提出了一种具有高置信度模板更新机制的深层孪生网络目标跟踪算法.首先,主干网络采用ResNet-50残差网络进行特征提取,并融合多层特征图进行目标预测;其次,为避免模板频繁更新带来的模板漂移问题,构建了高置信度的模板更新模块.在OTB100数据集上的实验结果表明,相比基准算法,文中算法的跟踪成功率和精确度分别提高了3.4%和2.6%;在多种挑战因素下的对比实验表明,文中算法可以较好地抵抗目标遮挡、尺度变化、运动模糊等多种复杂因素带来的影响,有很好的鲁棒性.  相似文献   

14.
邹强  蒋平  周进  卢泽琼 《科学技术与工程》2013,13(34):10193-10197
为了对自然场景中各类显著目标进行准确的检测,提出了一种结合图像边缘和多尺度对比度信息的检测方法。首先对图像进行快速双边滤波,在对图像平滑去除复杂纹理的同时保留物体结构边缘信息,然后用直线检测算子进行边缘检测得到边缘显著图。再利用对比度检测算子计算图像的区域对比度和全局对比度得到对比度显著图。融合边缘显著图和对比度显著图得到最后的显著目标图。实验表明该方法准确率高于大多数现有的显著目标检测方法。  相似文献   

15.
基于偏最小二乘分析和稀疏表示的目标跟踪算法   总被引:2,自引:2,他引:0  
经典的基于子空间学习的跟踪方法通过主成分分析(principal component analysis, PCA)建立并更新目标的特征模型,只考虑目标的特征信息而忽视模型中每个样本的类别特征,从而降低了目标的跟踪精度。为此,提出一种基于偏最小二乘分析(partial least squares analysis, PLS)和稀疏表示的目标跟踪算法。通过PLS去分析关于目标与背景中纹理特征和类别信息之间的相关性,建立一个可区分的低维特征空间。将目标模板线性表示为所有目标候选的线性组合,当存在与目标模板相似的候选时,线性表示的系数满足稀疏性约束,通过L1范数最优化求解稀疏表示系数,根据最小的重构误差得到最优的目标位置。在多个视频场景下的实验结果展示了改进的跟踪算法具有较好的跟踪性能。  相似文献   

16.
运动目标检测是运动行为理解的前提,也是安防系统研究的热点、难点问题。在分析现有检测算法的基础上,针对背景更新模型不准确、分割阈值难以选取等问题,提出了一套自适应背景差分运动目标检测算法。算法包括:基于像素相关区域灰度曲率特征的背景更新模型,基于直方图统计的动态阈值,改进型区域生长的运动目标标识。实验表明该算法能较好解决光照变化所引起的背景更新以及不同环境下阈值选取等问题。  相似文献   

17.
针对时空显著性框架的融合问题,提出了一种基于剪切波融合的时空显著性检测算法。先获取视频帧的空间和时间显著图,再分别对空间和时间显著图进行剪切波分解,获取系数。采用一定的机制融合对应的剪切波系数和尺度系数,通过剪切波逆变换,得到综合显著图,实现了视频的时空显著性检测。结果表明,该算法能够较好地利用空间和时间显著图提供的信息,对显著对象内部区域的标注能力更强,同时对空间和时间显著图携带的噪声具有更好的鲁棒性。  相似文献   

18.
基于序列图像的目标跟踪方法研究已成为当前计算机视觉领域的一个重要研究内容.构建一个准确、实时和鲁棒的跟踪系统是该领域的研究重点.本文提出了一种改进的基于粒子滤波器算法的快速目标跟踪方法.通过提取序列图像中目标的HSI颜色空间直方图作为目标模板,建立系统的状态转移模型和观测模型,应用重采样技术,最后利用粒子的加权和估计最终目标位置和形状.通过软件仿真实验,本文提出的算法较传统的目标跟踪算法具有更好的实时性,准确性和鲁棒性.  相似文献   

19.
为解决传统算法对文本区域检测查准率较低的问题, 从自然场景文本特性出发, 提出了一种基于视觉显 著性与边缘密集度的鲁棒性文本定位方法。 首先利用谱残差理论提取图像的显著性区域, 然后在提取的显著 性区域中寻找边缘密集度大的区域, 以此构建候选连通域, 利用少量的先验信息滤除其中的非文本区域。 在标 准数据集上的实验结果表明, 与单纯利用边缘特征进行文本区域检测的方法相比, 该方法可获得 70% 的综合 检测率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号