首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
显著目标检测得到越来越多的关注与研究,但用于显著目标检测的场景图像中有时并不包含任何显著目标,故由这些图像提取的显著图中只会产生虚假的显著目标,从而影响后续的处理。针对这一问题提出一种图像显著目标存在性检测方法,该方法基于中心周边直方图计算出的显著图,提取目标区域与图像中心点距离、目标区域位置分布方差、目标区域在图像边缘的分布、目标区域分布熵、图像显著图的直方图等5种特征进行分类,并利用投票的方式最终确定输入图片是否包含显著目标。基于微软亚洲多媒体图像数据库和网络图像数据库验证了本文算法的有效性,实验表明该方法的检测效果优于现有方法。  相似文献   

2.
针对当前显著性检测算法普遍存在的背景噪声较多,目标区域检测不够完整等问题,提出了一种空间域的显著性算法.首先将输入图像进行超像素分割,以边缘信息作为背景先验区域集,通过计算超像素与背景先验区域集内超像素在颜色、亮度方面的差异,得到背景差异显著图;然后确定前景先验区域集,计算各超像素与前景先验区域集内超像素的差异性,得到前景差异显著图.最后融合两部分显著图;最后在此基础上构建视觉中心,围绕视觉中心确定各超像素空间权重信息,得到最终显著图.采用MSRA-1000数据库进行对照实验,结果表明本文算法的准确性更高,整体效果更好.  相似文献   

3.
针对具有杂乱背景图像的显著目标检测问题,提出了一种无需任何先验知识,通过分析计算区域平均显著值的对比度来提取显著目标的方法.根据显著图,计算出显著目标的最小边界框与其周围区域的显著性差异,且通过折半查找的方法加快搜索的收敛速度.结果表明,该算法能迅速检测出与人类视觉感知结果一致性较高的显著目标区域.  相似文献   

4.
在分析现有显著性检测模型的基础上,采用直方图和区域对比度相结合的方法对彩色图像进行显著性值计算。基于颜色直方图得到原彩色图像的显著图,使用聚类方法将图像分割成不同的区域,计算区域之间的相似性,把区域中心间的欧氏距离作为区域之间的空间权值,计算得到原彩色图像的另一显著图。为两幅显著图分配和为1的权值,相加得到最终的显著图。结果表明,此方法获得的显著区域比较符合人眼视觉效果。  相似文献   

5.
邹强  蒋平  周进  卢泽琼 《科学技术与工程》2013,13(34):10193-10197
为了对自然场景中各类显著目标进行准确的检测,提出了一种结合图像边缘和多尺度对比度信息的检测方法。首先对图像进行快速双边滤波,在对图像平滑去除复杂纹理的同时保留物体结构边缘信息,然后用直线检测算子进行边缘检测得到边缘显著图。再利用对比度检测算子计算图像的区域对比度和全局对比度得到对比度显著图。融合边缘显著图和对比度显著图得到最后的显著目标图。实验表明该方法准确率高于大多数现有的显著目标检测方法。  相似文献   

6.
针对现有显著性检测方法得到的显著区域不完整以及存在背景干扰的问题,提出一种空间域的图像显著性检测方法.首先将输入图像进行超像素分割,然后利用超像素图像的颜色和亮度信息获得差值显著图以及视觉中心,依据超像素种子点与视觉中心的位置关系获得空间权重,最后将各超像素块的显著值与其视觉空间权重相结合计算,以此得到最终的视觉显著图.与现有算法相比,方法既能得到精确的显著区域,保留边缘细节信息,又能有效地去除背景干扰,提高了检测精确度.  相似文献   

7.
为了提高图片在复杂场景下检测的准确率与鲁棒性,本文提出了一种融合判别区域特征与标签传播的显著性目标检测算法。首先利用判别区域特征方法形成一个判别区域特征显著图;然后利用标签传播算法得到标签传播显著图;最后,通过一个指数函数将两者融合形成最终的目标显著图。本文提出的方法在公开的数据集中测试并与现有的6种算法进行比较,实验结果证明了本文算法的有效性和可靠性。  相似文献   

8.
针对传统的自底向上的显著性检测模型突出背景、前景区域不均匀以及显著目标位于图像边缘致使检测效果差等问题,提出了一种基于多层图和紧凑性的显著性检测模型。首先,将图像过分割为超像素,在超像素基础上结合图像块层和聚类层构建多层图模型,能够有效检测不同尺度的图像并获得均匀的显著区域。然后,基于紧凑性假设建立紧凑性模型,并采用元胞自动机优化。根据超像素的紧凑性筛选出可靠的前景种子点和背景种子点,基于多层图模型利用流行排序算法分别计算基于前景种子点和背景种子点的排序分数,从目标和背景的角度结合两种排序分数得到显著图。最后,对显著图进行滤波获得光滑的前景和背景区域,得到最终显著图。在常用的数据集MSRA-1000和ECSSD上与9种流行算法进行比较,实验结果表明该算法具有较高的准确率和召回率。  相似文献   

9.
针对已有视觉显著性检测方法很难清晰地提取出图像的显著性区域、检测准确性不高的问题,提出一种基于多尺度多通道均值的视觉显著性检测方法.利用二维小波变换对图像进行小波分解和重构,用双立方插值对滤波后图像进行多尺度缩小,计算图像各个通道的均值,以图像与各个通道均值的距离作为图像的显著值,保留图像中显著值不小于其显著均值的部分,用双立方插值对图像进行放大并进行图像叠加,利用线性归一化得到最终显著图.结果表明所提出的方法能够清晰地提取出图像的显著性区域,提高检测准确性.  相似文献   

10.
为了解决传统视觉显著性模型在复杂现实场景中容易失效的问题,提出了一种融合运动和空间关系特性的显著性检测方法.在颜色对比度的基础上,引入图像中目标的空间深度关系和运动特征.首先建立深度显著性模型,并使之与颜色显著性融合获得空域显著图;然后通过分析运动矢量得到运动特征显著性,并采用加性融合和乘性融合联合的方式计算出最终的显著图.实验分析建立在多个立体图像数据库之上,量化评价和视觉观测均表明:本方法可以有效地提取显著性区域,检测效果优于传统方法.  相似文献   

11.
针对传统的显著性检测算法存在区域亮度不够、显著区域不准确、有背景噪声等问题,提出一种基于凸包计算和颜色特征的显著性检测算法.考虑到图像在不同的颜色空间中颜色取值范围不同,首先,在多种颜色空间经过超像素分割得到区域对比图;然后,在CIELAB颜色空间中得到平滑的通道差值图;其次,利用颜色增强的Harris形成凸包得到中心先验图以及凸包结构图;最后,将4种显著图特征融合并优化得到最终显著图.新算法更加接近人工标注图的结果,不仅能够从背景中分离出显著物体、抑制背景干扰和凸出显著区域,而且获得全分辨率的显著图.在公开的图像数据集上将新算法与其他现有8种显著性检测算法进行对比,实验结果表明,新算法优于其他算法.  相似文献   

12.
基于特征对比度的显著性检测方法在处理复杂背景图像时,容易将对比度较高的背景区域误判为目标,导致分割结果不准确.为解决上述问题,提出了一种基于改进凸包和全局颜色对比度的彩色图像分割方法.首先以超像素为基本计算单元,根据图像颜色及其空间分布,计算基于颜色对比度的基本显著图;然后利用颜色增强Harris角点得到目标的凸包,并利用FH方法生成的超像素对凸包进行修正,以此为基础计算基于改进凸包的中心显著图;最后将上述2个显著图进行加权融合得到最终显著图,并使用大津法得到图像中的目标.通过在MSRA1000和ECSSD数据集上进行实验,结果表明本文算法相较于其他算法在可视效果和准确率、召回率等评价指标方面有明显的优势.  相似文献   

13.
为解决图像低级特征不能够均匀进行显著目标检测的问题,将高层先验语义和低级特征进行结合,提出一种新颖的基于高层先验语义的显著目标检测算法模型。利用深度卷积神经网络对输入图像以及显式显著性先验信息分别进行语义分割提取,得到显式显著性检测图;通过将图像中隐含的先验显著性特征与显著性值进行映射得到训练模型计算隐式显著性图;将显式显著性检测图和隐式显著性检测图进行自适应融合,形成均匀覆盖显著目标像素的精确显著检测图。为验证算法模型的有效性,将算法在具有挑战性的ECSSD和DUT-OMRON图像数据集进行实验仿真,实验结果表明,该算法的显著目标检测效果较其他方法有较为显著的提升。  相似文献   

14.
为了能在正面人脸图像上对人眼位置进行检测和精确定位, 提出了一种新颖高效的分级策略。利用Gabor变换计算显著极值图, 得到若干具有最大显著极值的候选人眼区域; 通过PCA(Principal Component Analysis)重构对候选区域进行验证, 将具有最小重构误差的两个区域选定为眼睛区域; 通过两级邻域运算对瞳孔进行精确定位。该方法对面部表情变化不敏感, 同时具有非迭代和计算简单的优点。通过在JAFFE数据库上的对比实验, 检测精度达到99.6%, 验证了该方法的有效性。  相似文献   

15.
结合现有的显著性检测理论,针对基于全局对比度方法的不足,提出了以HC方法为基础并引入区域显著性与预处理的简单有效的能产生完全分辨率显著图的方法.在ASD测试集上进行了测试,结果表明:此方法取得了接近甚至高于现有一些方法的结果,并且具有较少的计算时间.  相似文献   

16.
针对突变运动下的目标跟踪问题,提出一种基于视觉显著性的粒子滤波跟踪算法.该算法将基于视觉注意机制的视觉显著图引入粒子滤波框架中,根据视觉显著图的显著性区域,按"胜者为王"和"返回抑制"机制进行目标检测,并以检测结果为全局建议分布进行粒子采样,从而完成全局状态空间的搜索,有效地避免了陷入局部极大值.同时,为增强目标区域在视觉显著图中的显著性,将自底向上和自顶向下的计算模型相结合,根据目标模板对各个特征显著图进行自适应权值计算,并按权值融合产生视觉显著图.实验结果表明,针对不同类型的突变运动跟踪场景,该算法均能表现出较好的鲁棒性.  相似文献   

17.
针对传统贝叶斯模型算法对图像显著区域检测精度需要进一步提高的问题,提出一种改进凸包的贝叶斯模型显著性检测算法。首先,利用流行排序算法对图像进行前景提取,提取的前景区域作为贝叶斯模型的先验概率;其次,利用颜色增强的Harris角点检测算法检测图像在RGB,HSV,CIELab 3个颜色空间中的特征点,分别构造RGB,HSV,CIELab空间的凸包,求取3个颜色空间下的凸包的交集;再次,通过贝叶斯模型根据先验概率、凸包与颜色直方图结合得到的观测似然概率计算获得显著性区域图;最后,将新算法在两大公开数据集MSRA和ECSSD中进行测试。结果表明,新算法能够有效抑制背景噪声,完整检出显著区域,F-measure值在MSRA和ECSSD数据库中的测试结果分别为0.87和0.71,准确率-召回率曲线在复杂图像数据库高于传统经典算法。新算法改进了传统经典算法的检测效果,进一步提高了显著图检测的准确性。  相似文献   

18.
目前的视觉注意显著区域检测算法,主要依赖像素间的相互对比,缺乏从全局角度对显著目标的分析理解。依据显著目标是显眼、紧凑和完整的思路,提出一种基于目标空间分布特性和局部复杂度的无监督视觉注意显著目标自动提取算法。首先根据局部区域与其多个尺度邻域的对比,得到亮度显著图;然后利用颜色信息的显眼性、空间分布和区域一致性得到颜色显著图;同时通过对方向的空间分布和局部复杂度进行多尺度分析得到方向显著图;最后通过显著值的空间分布和面积增强因子相结合的融合策略得到输入图像的显著图,根据显著区域确定感兴趣区域位置,在基础上完成目标检测。将此方法应用于各类具有不同特点的彩色图像进行仿真实验,得到较好的检测结果,表明该算法是切实可行。  相似文献   

19.
针对目前流行的显著性检测算法不能精确反映显著性信息的问题,提出一种基于超像素融合方法的显著性检测算法. 首先对图像进行超像素分割,在保证高质量的图像目标边缘信息前提下,建立以超像素为节点的图模型;然后计算超像素邻接矩阵,将该图模型转化为最小生成树模型. 通过OTSU算法自适应地确定最佳阈值,根据该阈值将最小生成树模型的部分节点进行融合,获得大超像素分割区域;最后利用大超像素的颜色和相互距离信息,获得高质量的显著性图. 实验结果表明,相对于其他检测方法,该算法可以更有效地检测出图像中的显著目标,并能达到接近分割的效果.   相似文献   

20.
结合显著区域检测技术和GrabCut算法,提出了一种新的图像分割方法.首先,计算融合中心知识和目标紧致度的多尺度区域对比度,通过Harris特征信息和贝叶斯模型进一步提高显著性,得到更加精确的前景检测模型;然后,对显著图进行分割获得目标的粗略位置,将位置信息用于GrabCut算法初始化,并在GrabCut初始化建模中引入显著值权重;最后,结合形态学运算改进分割的目标.实验结果表明:该方法能够实现自动分割,并且取得了接近甚至优于一些GrabCut方法的结果.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号