首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
图像简化作为机器视觉、计算机视觉中的一项重要任务,对于提高网络传输效率、加速视觉算法分析处理具有重要意义.针对传统图像简化模型中存在的目标、背景不加区分及尺度效应等问题,提出了一种新的基于显著性检测的图像简化模型,模型首先采用MB+显著性检测算法计算图像的目标显著区域,然后在CIE Lab颜色空间中对L波段上的背景区域进行快速水平集变换,最后按照设定准则合并背景中的非主导区域并输出简化后的图像.  相似文献   

2.
图像质量评价在图像采集、图像压缩、图像传输等领域有着广泛的应用,一直是图像处理领域的研究热点之一.本文提出了一种模拟人的视觉感知过程中的对不同区域敏感度不同的特点,针对待评图像进行分区域采用不同标准的全参考型图像质量评价算法.该算法首先对图像颜色空间由RGB转换到YIQ,使之更符合人类视觉特性;再对其亮度空间进行数学形态学的膨胀计算预处理,并用边缘检测算子标记出图像中所有的边缘像素点;根据5×5的邻域内是否包含边缘点将图像分为纹理区和平滑区域.针对包含边缘特征的纹理区域的结构参数采用梯度进行描述,参考图像和失真图像在像素点的方差表述像素点失真的敏感性;对于平滑区域的像素点采用对比度作为表征结构信息的变量,并使用基于视觉显著性的综合策略;结合失真和参考图像的视觉显著性矩阵、结构相似性矩阵SCR(x)、色彩饱和度相似性矩阵,可分别得到纹理区和平滑区的图像质量评价分区域结果.取两个分区域结果的均值,可得到最后的全图像质量评价指标SMC-IQA.该算法在CSIQ、TID2008和TID2013等3个通用的图像质量评价数据库上进行了实验.实验结果表明与主流的图像质量评测方法相比较,本文所提出的分区域多标准的全参考图像质量评价算法与主观评价的结果具有更好的一致性,更符合人类视觉系统的特性.  相似文献   

3.
为了快速搜索场景中的重要目标,依据人类视觉系统的特点,提出了一种基于颜色信息相位谱的显著性检测模型. 通过分析图像颜色相位谱信息,建立显著性图谱,它能够表示出场景中重要目标的位置. 实验结果表明,在复杂背景下,该算法能够较好地检测出和人类视觉相一致的重要区域.  相似文献   

4.
为解决传统算法对文本区域检测查准率较低的问题, 从自然场景文本特性出发, 提出了一种基于视觉显 著性与边缘密集度的鲁棒性文本定位方法。 首先利用谱残差理论提取图像的显著性区域, 然后在提取的显著 性区域中寻找边缘密集度大的区域, 以此构建候选连通域, 利用少量的先验信息滤除其中的非文本区域。 在标 准数据集上的实验结果表明, 与单纯利用边缘特征进行文本区域检测的方法相比, 该方法可获得 70% 的综合 检测率。  相似文献   

5.
针对现有显著性检测方法得到的显著区域不完整以及存在背景干扰的问题,提出一种空间域的图像显著性检测方法.首先将输入图像进行超像素分割,然后利用超像素图像的颜色和亮度信息获得差值显著图以及视觉中心,依据超像素种子点与视觉中心的位置关系获得空间权重,最后将各超像素块的显著值与其视觉空间权重相结合计算,以此得到最终的视觉显著图.与现有算法相比,方法既能得到精确的显著区域,保留边缘细节信息,又能有效地去除背景干扰,提高了检测精确度.  相似文献   

6.
针对已有视觉显著性检测方法很难清晰地提取出图像的显著性区域、检测准确性不高的问题,提出一种基于多尺度多通道均值的视觉显著性检测方法.利用二维小波变换对图像进行小波分解和重构,用双立方插值对滤波后图像进行多尺度缩小,计算图像各个通道的均值,以图像与各个通道均值的距离作为图像的显著值,保留图像中显著值不小于其显著均值的部分,用双立方插值对图像进行放大并进行图像叠加,利用线性归一化得到最终显著图.结果表明所提出的方法能够清晰地提取出图像的显著性区域,提高检测准确性.  相似文献   

7.
传统的模糊C均值聚类算法利用图像的灰度、颜色、纹理、强度等底层特征进行聚类,实现图像的分割,它容易受到噪声的影响,且计算量大,不能提供理想的彩色图像分割结果.针对这些问题,提出一种视觉显著性引导的模糊聚类图像分割方法.首先使用显著性检测对图像进行初始化分割,得到带有区域级标注信息的引导图,然后将引导图作为指导信息,引导...  相似文献   

8.
自然场景文本区域定位是场景图像内容分析的重要步骤,文本区域定位能够为后续的文本识别提供便利.从场景文本特性出发,提出了一种基于最大极值稳定区域(maximally stable extremal regions,MSER)、颜色聚类和视觉显著性的鲁棒性文本定位方法.为了尽可能多地提取出潜在的文本区域,分别在灰度图像和彩色图像上采用最大极值稳定区域和颜色聚类来进行连通域的分析.对于得到的候选连通域,利用自然场景文本的显著性特征和少量的先验信息来滤除其中的非文本区域.将保留的文本区域用数学形态学水平膨胀的方法连成文本行输出.显著性评估的引入使得该方法能够减少大量参数的设定.标准数据集上的实验结果表明,在没有额外的训练数据和少量先验信息的情况下,该方法可以获得较好的正确率和召回率.  相似文献   

9.
针对尺度不变特征变换(Scale Invariant Feature Transform,SIFT)算法在航拍场景分类中提取特征时,易造成边界模糊和细节丢失且无法描述颜色信息的问题,结合视觉词袋模型,提出了非线性尺度空间下融合颜色特征的新型颜色风式特征检测子(Color-KAZE,C-KAZE).通过KAZE构造非线性尺度空间来检测特征信息;对颜色模型(Hue,Saturation,Value,HSV)非等间隔量化获取颜色量化矩阵,进而生成C-KAZE特征描述子;利用视觉词袋和空间金字塔匹配模型融合多特征.实验表明,该算法相比SIFT算法在场景分类准确率方面提高了约8%.C-KAZE描述子增强了KAZE的特征描述能力,突破了SIFT算法特征描述单一、边缘细节模糊的局限性,显著提升了无人机航拍图像的分类效果.  相似文献   

10.
研究了基于小波变换的图像文本信息提取模型,提出了一种在小波域内提取图像文本信息的算法,该算法首先对图像进行二维小波变换,设置滑动窗扫描高频子带,计算滑动窗内图像的小波纹理特征,采用k-均值聚类算法提取文本区域,再对原图像进行边缘检测,根据文本区域的相关特征精确地定位文本区域,最后将文字与背景分离.从实验结果可以看出该算法能够较准确地从背景图像中提取出不同语种、字体、大小的文本信息.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号