首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
为解决运动目标跟踪过程中候选目标信息描述单一的问题, 提出一种基于视觉显著性特征融合的自适应目标跟踪算法。提取目标颜色、颜色的变化、强度和运动信息构建目标四元数模型, 采用相位谱重建算法检测目标的显著图(Saliency Map), 并根据特征相似度大小自适应调整权值, 融合视觉显著性特征和颜色特征实现目标跟踪。实验结果表明, 该算法能有效克服部分遮挡和背景融合干扰, 从而实现复杂背景下目标的准确跟踪。  相似文献   

2.
从自然场景图像中抽取文本信息有利于场景图像的内容分析.文中根据图像中文本通常在局部区域具有显著性的特点,提出多尺度包围盒视觉显著性模型,并利用该模型设计一种可以融合边缘和纹理信息的候选文本检测方法.首先在Lab颜色空间构造基于边缘和纹理信息的图像同质性,并利用它将图像映射到同质性空间;然后根据多尺度包围盒视觉显著性模型求Lab颜色空间的同质性均值图像;最后求同质映射图像与同质性均值图像的加权欧氏距离,将其作为显著性度量,以提取文本区域.自然场景图像的实验表明:与单纯利用边缘检测或同质性映射进行文本检测的方法相比,文中提出的方法能够更好地抑制背景的干扰,这有利于进一步将文本区域与背景剥离,进行更精确的文本定位.  相似文献   

3.
针对复杂环境下的运动目标跟踪问题,提出了一种基于视觉显著性特征的粒子滤波跟踪算法.该算法利用显著性检测算法对序列图片进行检测,生成视觉显著图,然后利用二阶自回归模型对目标状态进行预测,再根据中心强化-四周弱化的机制,生成最终显著图.利用视觉显著图中目标区域像素值较大的特点,提取视觉显著性特征,与颜色特征进行自适应融合,从而完成跟踪.实验结果表明,该算法能够有效应对跟踪过程中出现的场景光照变化和目标姿态变化等问题,具有较强的鲁棒性.  相似文献   

4.
为了解决传统视觉显著性模型在复杂现实场景中容易失效的问题,提出了一种融合运动和空间关系特性的显著性检测方法.在颜色对比度的基础上,引入图像中目标的空间深度关系和运动特征.首先建立深度显著性模型,并使之与颜色显著性融合获得空域显著图;然后通过分析运动矢量得到运动特征显著性,并采用加性融合和乘性融合联合的方式计算出最终的显著图.实验分析建立在多个立体图像数据库之上,量化评价和视觉观测均表明:本方法可以有效地提取显著性区域,检测效果优于传统方法.  相似文献   

5.
自然场景文本区域定位是场景图像内容分析的重要步骤,文本区域定位能够为后续的文本识别提供便利.从场景文本特性出发,提出了一种基于最大极值稳定区域(maximally stable extremal regions,MSER)、颜色聚类和视觉显著性的鲁棒性文本定位方法.为了尽可能多地提取出潜在的文本区域,分别在灰度图像和彩色图像上采用最大极值稳定区域和颜色聚类来进行连通域的分析.对于得到的候选连通域,利用自然场景文本的显著性特征和少量的先验信息来滤除其中的非文本区域.将保留的文本区域用数学形态学水平膨胀的方法连成文本行输出.显著性评估的引入使得该方法能够减少大量参数的设定.标准数据集上的实验结果表明,在没有额外的训练数据和少量先验信息的情况下,该方法可以获得较好的正确率和召回率.  相似文献   

6.
根据人眼视觉的特点,提出一种融合颜色及运动信息的视频显著性滤波器.该滤波器分三个步骤检测视频图像的显著性区域:首先利用超像素分割算法将视频图像划分为若干视觉近似一致的紧凑子块;其次以统一的多维高斯滤波形式计算四个测度,分别表征每个子块的颜色独立性、颜色空间分布、运动独立性以及运动空间分布;最后同样通过多维高斯滤波对四个测度进行融合以生成视觉显著性图,进而检测出视频中的显著性区域.实验结果表明:与其他现有的显著性检测方法相比,该滤波器能更准确地检测出视频中的显著性区域.  相似文献   

7.
显著性检测近年来得到广泛关注,其中基于流形排序的显著性检测取得了较为理想的效果。但该方法用颜色平均值来描述图像单元,这就使得图像单元内的细节信息被忽略。此外,根据人类视觉系统,人眼对颜色、纹理等多种特征敏感,而单一的颜色均值信息只能从单一角度描述图像,不能够全面立体地刻画图像内容。因此,提出了采用多个特征从多个角度对图像内容进行刻画。在公共数据集上的实验结果表明,所提出方法能够得到较好的检测效果,优于所有对比方法。  相似文献   

8.
传统的基于粒子滤波的目标跟踪中,通常待跟踪的目标或者在视频初始帧中由人工指定,或者需要对背景进行建模后由背景差方法进行分割,受人类视觉感知机制的启发,提出一种基于尺度不变特征转换(scale invariant feature transform,SIFT)流的动态视觉显著性算法,结合颜色、亮度以及方向等静态特征以实现对感兴趣目标的自动定位;通过融合静态显著性与动态显著性形成总显著图,并选择显著性最高的目标作为待跟踪的感兴趣目标;通过提取目标区域的颜色、梯度及旋转不变局部二进模式(local binary pattern,LBP)纹理等特征构建目标模板,采用粒子滤波器对目标进行跟踪。结果表明,该算法能够在一定程度上模拟人类动态视觉注意过程,有效地检测感兴趣的目标并进行稳定鲁棒的跟踪。  相似文献   

9.
为了实现城市区域内室外场景的快速分类,提出了一种基于视觉注意力选择机制的显著建筑物区域检测方法.该方法首先通过Gabor算子对图像进行滤波,得到水平方向与垂直方向的联合增强图像,然后利用基于相位傅里叶变换(Phase Fourier Transform, PFT)的显著性映射算法提取视野中的显著建筑物候选区域,最后通过方向直方图判别算法去除干扰目标,并采用CV (Chan Vese)模型实现显著建筑物区域的分割.该方法在注意力选择机制及建筑物方向特征的基础上,提取具有场景代表性的建筑物区域信息,增强了算法的时效性和场景分析能力,同时实现了区域信息在像素级上的精确检测,并将其应用于美国南加州大学的多类室外场景数据库.实验结果表明,显著建筑物区域检测方法在检测结果、计算速度和鲁棒性等方面均取得了较为满意的效果.  相似文献   

10.
根据交通标志的反差特性会强烈吸引人类视觉注意的设计原则, 结合生物视网膜会强烈响应场景中大反差视觉刺激的机理, 将基于视觉反差的层次结构的显著性分析框架引入交通标志的检测问题, 提出一种适合现实街景中交通标志检测的多线索视觉注意模型, 将对交通标志的检测定位转变为对显著目标的发现与分割问题。实验表明, 所提方法优于典型的显著性方法在面对现实街景时的目标检测性能。  相似文献   

11.
对于Itti的显著图模型的感兴趣区域检测方法中,存在的检测结果与视觉感知有差异以及转移过程中同一目标内出现多个感兴趣区域检测结果等问题,引入灰度尺度变化特征和CV模型,以使感兴趣区域检测结果更符合人的视觉感知。实验结果表明,该算法检测到的感兴趣区域与人的视觉感知结果吻合率为77.6%,高于Itti模型的72.8%。  相似文献   

12.
图像简化作为机器视觉、计算机视觉中的一项重要任务,对于提高网络传输效率、加速视觉算法分析处理具有重要意义.针对传统图像简化模型中存在的目标、背景不加区分及尺度效应等问题,提出了一种新的基于显著性检测的图像简化模型,模型首先采用MB+显著性检测算法计算图像的目标显著区域,然后在CIE Lab颜色空间中对L波段上的背景区域进行快速水平集变换,最后按照设定准则合并背景中的非主导区域并输出简化后的图像.  相似文献   

13.
提出了一种基于注意机制的图像识别模型。其基本想法是:在进行复杂的场景分析或目标识别时,首先通过注视控制机制,获得视景中的关键特征区域,并将注视点按照一定的顺序对这些关键特征区域进行串行扫描。  相似文献   

14.
针对目前图像显著性检测存在的显著性图边缘模糊、缺乏视觉高层信息等问题,提出了一种基于物体信息的显著性检测算法。将似物性计算与显著性计算相结合,可以将前景与背景分离,抑制高对比度干扰区域的影响。首先采用改进的L0平滑算法对图像进行滤波处理,然后通过超像素分割将图像分成若干图像块,再通过聚类算法进行合并,得到待检测图像块。采用似物性检测算法计算物体可能存在的区域,与待检测图像块进行融合,得到物体显著性图,再通过颜色对比度及空间分布特征计算显著性图,最后将二者融合,得到最终结果。实验结果表明,算法能够得到清晰的物体边缘,对图像的显著性区域能够较为全面地覆盖,有效地抑制高对比区域的干扰。  相似文献   

15.
为了解决3D视频生成方法在获取深度线索方面的难题,使用显著图代替深度图进行3D视频生成。显著图和深度图在性质上有所不同,但是显著图是通过视觉注意力分析得到的,因此也可以给予人眼良好的感官体验。为了得到更适合进行视频内容转换的显著图,将时间信息融入到了深度学习模型当中。通过实验证明了本文方法在两个广泛使用的视频显著性数据集上拥有很好的表现力,所生成的3D内容也具有良好的视觉效果,证明了基于显著性检测的3D视频生成方法具有一定的可行性。  相似文献   

16.
针对传统贝叶斯模型算法对图像显著区域检测精度需要进一步提高的问题,提出一种改进凸包的贝叶斯模型显著性检测算法。首先,利用流行排序算法对图像进行前景提取,提取的前景区域作为贝叶斯模型的先验概率;其次,利用颜色增强的Harris角点检测算法检测图像在RGB,HSV,CIELab 3个颜色空间中的特征点,分别构造RGB,HSV,CIELab空间的凸包,求取3个颜色空间下的凸包的交集;再次,通过贝叶斯模型根据先验概率、凸包与颜色直方图结合得到的观测似然概率计算获得显著性区域图;最后,将新算法在两大公开数据集MSRA和ECSSD中进行测试。结果表明,新算法能够有效抑制背景噪声,完整检出显著区域,F-measure值在MSRA和ECSSD数据库中的测试结果分别为0.87和0.71,准确率-召回率曲线在复杂图像数据库高于传统经典算法。新算法改进了传统经典算法的检测效果,进一步提高了显著图检测的准确性。  相似文献   

17.
针对工业炸药生产过程中药卷表面裂痕的包装缺陷问题,运用机器视觉技术,提出一种基于显著性模型和局部方差区域生长法的药卷缺陷检测方法。该方法经过图像预处理,对药卷图像进行背景估计与差分;利用显著性模型,提取缺陷特征;通过局部方差区域生长法,分割目标区域,完成对缺陷药卷的检测。实验结果表明,该算法可快速有效地提取缺陷区域,平均检测时间为55.72 ms,缺陷检测率高达96.36%。  相似文献   

18.
为解决无人机视觉定位与导航中引导区域的提取问题, 提出了一种基于超像素显著性的引导区域提取方 法。 该方法首先利用 SLIC(Simple Linear Iterative Clustering)算法将地面图像划分为内部相似度较高的超像素区 域, 通过计算超像素的显著性值得到超像素显著性图, 再基于先验规则从超像素显著性图中提取合适的准引导 区域, 最后计算各区域的匹配概率, 从而得到高显著性和高匹配率的引导区域。 实验结果表明, 该引导区域提 取方法在测试集上的准确率和召回率分别为 89%与 87%, 基本满足无人机视觉定位与导航的要求。  相似文献   

19.
针对时空显著性框架的融合问题,提出了一种基于剪切波融合的时空显著性检测算法。先获取视频帧的空间和时间显著图,再分别对空间和时间显著图进行剪切波分解,获取系数。采用一定的机制融合对应的剪切波系数和尺度系数,通过剪切波逆变换,得到综合显著图,实现了视频的时空显著性检测。结果表明,该算法能够较好地利用空间和时间显著图提供的信息,对显著对象内部区域的标注能力更强,同时对空间和时间显著图携带的噪声具有更好的鲁棒性。  相似文献   

20.
针对在线视觉跟踪中的高效特征提取以及模型漂移的问题,提出了一种基于显著性检测的核相关滤波器(KCF)跟踪算法。将颜色特征(CN)和方向梯度直方图(HOG)进行加权融合;并自适应地调节每种特征的权重。对于模型漂移问题,受生物视觉机制的启发,通过视觉显著性算法获得目标的显著区域;并在该区域内进行采样,实现了全局范围搜索,避免陷入局部极大值。此外,引入了一种基于关键点的模型来解决目标尺度固定的问题。为验证提出算法的有效性,在50个视频序列上与近年来的5种优秀算法进行了对比。实验结果表明,与以往算法相比,该算法在成功率和中心位置误差上都取得较好的效果;而且能有效地缓解目标模型漂移问题。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号