首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 171 毫秒
1.
针对自然场景中复杂的背景纹理对文本区域检测的干扰,提出了一种改进型局部二值模式(ULBP)提取算法,用于维吾尔文文本特征提取,并用获得的特征向量对候选维吾尔文本区域进行分类。本算法首先利用同质化映射来构建图像的同质化空间;然后,在同质化空间利用角点检测快速获取候选文本区域;最后,在候选文本区域里提取ULBP特征,把这些特征导入训练后的支持向量机(SVM)即可获得精确的文本区域。实验结果表明:ULBP特征对维吾尔文本区域具有较高的区分度,且能使误检率降低到8.3%,鲁棒性较强。  相似文献   

2.
针对从背景复杂、视角多变、语言形式多样的场景图像中难以准确提取文本信息的问题,提出了一种基于最大稳定极值区域(MSER)和笔画宽度变换(SWT)场景文本提取方法。该方法结合MSER、SWT算法的优点,采用MSER算法的准确检测文字区域,建立文本候选区域,利用SWT算法计算文本候选区域笔画宽度得到候选文本区域的笔画宽度;根据笔画宽度图,利用连通域标记建立笔画宽度连通图,然后根据笔画宽度连通图,建立笔画连通图的启发性规则,删除非文本候选区域,并根据文本的几何特征分析及局部自适应窗口最大类间方差(Otsu)分割,有效提取出自然场景图像中的文本,文本提取的准确率、召回率及综合性能分别为0.74、0.64及0.68。仿真实验结果表明,在文本视角多变,字符大小、尺寸、字体各异的复杂条件下,所提方法具有较好的鲁棒性,适用于多语言和多字体混合的场景文本提取。  相似文献   

3.
利用局部显著文字型区域描述结合连通分量分析思路,文章提出一种复杂背景下针对场景文本稳健的文本提取算法.该算法首先通过灰度的局部显著变化和显著多方向边缘强度定位图像的显著文本区域;然后依据区域灰度变化将原始图像进行分割,获得显著区域的连通分量包括文本分量和非文本分量;接着用一个级联分类器基于字符属性滤除部分非文本连通分量,最后统计文字包围盒的边缘方向分布信息,对每个候选连通分量提取8维的特征送入SVM分类器进行验证,最终定位出文本区域.实验结果表明,这种基于显著区域提取文本的算法有效地结合了文本的区域特性和文本连通体的笔画属性,在保证文本提取正确率的同时提高了算法速度,测试结果表现出较满意的性能.  相似文献   

4.
基于提升树的自然场景中文文本定位算法研究   总被引:1,自引:0,他引:1  
提出了一种新的基于提升树算法的自然场景中文文本定位技术.首先利用边缘特征进行文本区域的检测,即对下采样后彩色图像首先进行边缘提取、二值化处理,然后通过形态学运算以及连通区域分析去除大量的非字符连通域,获得候选的文本区域,最后,提取候选文本区域的PHOG-Gabor特征,通过提升树算法进一步确认是否为字符连通域.通过实验验证,该算法具有很高的召回率和准确率,综合性能较高.  相似文献   

5.
提出了一种基于小波变换和支持向量机(SVM)在数字图像中定位文本的方法.对图像进行小波变换,并在低频概貌和高频能量空间应用SVM提取文本的纹理特征,由SVM来决定当前的像素是文本类还是非文本类.因为SVM的分类结果可能存在噪声或错误,用形态学去噪和计算纹理能量的方法对SVM的分类结果进行后处理.小波变换和SVM的结合,不仅降低了输入空间样本的数量,而且利用了SVM适合于高维空间工作的特点,提高了文本提取的效率.实验结果表明,提出的方法可以快速有效地定位数字图像中的文本区域.  相似文献   

6.
针对高速公路视频监控中基于单一形状特征的车辆检测算法出现较多的误检,且运用支持向量机(SVM)滑动窗口检测存在耗时大的问题,提出一种基于快速提取物体目标候选窗口的融合HOG-LBP特征的车辆检测方法。首先基于二值化规范梯度特征(BING)方法及背景差分快速提取车辆候选窗口,再计算候选窗口图像的方向梯度直方图(HOG)特征和局部二值模式(LBP)特征并进行特征融合,结合SVM分类器进行车辆检测。实验结果表明,融合形状和纹理特征能够有效提高车辆检测性能,而通过快速提取候选窗口可以将SVM检测速度提升8倍左右,满足工程实时性要求。  相似文献   

7.
针对复杂背景情况下的车牌定位问题,给出了一种融合了小波高频能量的方法。首先利用CIE-xy色品图进行颜色分割,找到符合车牌底色的候选区域。然后对候选区域进行数学形态学滤波,消除不必要的干扰。接着利用车牌特有的结构特征剔除明显不符合车牌特征的候选区域,提取符合条件的候选区域进行小波变换,由于车牌区域有着丰富的垂直方向纹理信息,因此比较候选区域的垂直高频能量,能量最高者即为初步选定的车牌区域。最后利用区域选择时的垂直方向小波变换系数对选择区域进行重构,并验证选择结果的正确性,如果为非车牌,则进行二次定位。该方法有效的解决了车身颜色与车牌底色相近时定位困难的问题。对各种条件下拍摄的225幅含有车牌的图像应用该算法,定位准确率达到98.2%。  相似文献   

8.
研究了基于小波变换的图像文本信息提取模型,提出了一种在小波域内提取图像文本信息的算法,该算法首先对图像进行二维小波变换,设置滑动窗扫描高频子带,计算滑动窗内图像的小波纹理特征,采用k-均值聚类算法提取文本区域,再对原图像进行边缘检测,根据文本区域的相关特征精确地定位文本区域,最后将文字与背景分离.从实验结果可以看出该算法能够较准确地从背景图像中提取出不同语种、字体、大小的文本信息.  相似文献   

9.
为了解决当前红外目标检测追踪算法仅依靠单一图像特征对弱小目标增强,使其在背景杂波与噪声干扰严重条件下,难以剔除图像背景中的伪目标像素,导致弱小目标检测与追踪精度不高,提出了基于复杂融合特征与联合灰度-纹理直方图描述子的红外弱小目标检测与追踪算法。首先,针对红外图像不同特征的背景干扰因素,引入不同方向的腐蚀操作结构元素,设计了分类Top-Hat变换算子,充分抑制背景杂波与噪声,从而将弱小目标从复杂背景中凸显出来;随后,引入方差权重信息熵,构建复杂融合特征,对红外图像进行分割,确定候选目标区域;并基于管道滤波模式,对候选目标区域中的真实弱小目标与伪目标进行筛选,将虚假目标过滤;再考虑弱小目标的强度与纹理特征,基于LBP技术(local binary pattern),设计了灰度-纹理直方图描述子,充分描述红外弱小目标的边缘、线端与角点等鲁棒性特征,较好地保留目标的空域信息,有效剔除图像背景中的伪目标像素;最后,联合均值漂移算法,对红外弱小目标进行精确追踪。实验结果显示:与当前红外目标检测追踪技术相比,在复杂背景干扰条件下,本文算法具有更高的检测精度与更低的追踪误差。  相似文献   

10.
针对自然场景下多方向、多语种文本区域提出了一种新的检测方法.该方法首先使用提出的边界提升最大稳定极值区域(MSER)算法,检测得到相比传统MSER算法更少的文本候选区域;然后依据设计的含有多个分类器的字符分拣树对候选区域进行层层分拣,剔除绝大部分非字符区域;接着使用提出的多层融合的聚合算法逐层对候选字符进行融合生成文本行;最后采用随机森林分类器对文本行进行验证.通过在ICDAR2003和MSRA-TD500数据集上的测试与比较,结果证明该方法在综合性能上要优于目前常用方法.  相似文献   

11.
针对复杂场景的视频,在传统的梯度检测算法基础上融入多尺度技术,提出一种由粗到细的两阶段视频字符文本检测新算法.首先,利用加权平均梯度能量特征和运动能量特征对采样帧粗检测,形成候选文本区;然后,通过连通域分析,过滤部分虚检的候选文本区,再利用梯度方向的统计特征进行验证,得到精确的检测结果.仿真结果表明,本方法在处理复杂背景视频图片时具有较好的鲁棒性.  相似文献   

12.
为解决传统算法对文本区域检测查准率较低的问题, 从自然场景文本特性出发, 提出了一种基于视觉显 著性与边缘密集度的鲁棒性文本定位方法。 首先利用谱残差理论提取图像的显著性区域, 然后在提取的显著 性区域中寻找边缘密集度大的区域, 以此构建候选连通域, 利用少量的先验信息滤除其中的非文本区域。 在标 准数据集上的实验结果表明, 与单纯利用边缘特征进行文本区域检测的方法相比, 该方法可获得 70% 的综合 检测率。  相似文献   

13.
针对复杂场景中的人车分类问题, 提出一种基于多粒度感知SVM (support vector machine)的复杂场景人车分类方法。该方法首先对视频场景进行运动区域分析, 结合角点检测方法提取运动区域视觉感知信息, 在时空域中采用Kalman滤波将感知信息进行关联推理, 去除噪声干扰。 再以运动区域质心点为中心, 构造目标的多粒度感知特征, 最后构造2级SVM分类器, 将目标多粒度感知特征向量集输入SVM分类器进行训练及分类, 得到人车分类结果输出。实验结果表明, 该方法取得了良好的分类效果, 人、车全天候平均分类正确率分别达到93.6%以上, 能有效避免光照、色彩、目标大小等变化导致的误分类问题, 适用于智能交通视频的人车分类应用。  相似文献   

14.
一种在图像和视频帧中检测文本的新方法   总被引:1,自引:1,他引:0  
提出了一种在带有复杂背景的图像和视频帧中检测文本的由粗到细的新方法.首先用连通分量(Component Connect,CC)方法对可能是文本的区域进行粗定位,然后再进行纹理分析,得到特征向量后,用统计图的方法对其进行筛选,并对筛选后的特征向量使用BP神经网络进行分类,从而得到真正的文本区域.经过测试,提出的算法在图像和视频帧中的检测率达到95.3%.  相似文献   

15.
一种基于纹理能量的JPEG图像文本定位算法   总被引:2,自引:0,他引:2  
提出了一种新的JPEG图像人工文本定位算法.该方法直接在DCT域中计算各DCT块的纹理能量特征,并以此初步定位文本区域.然后利用文本的连通和几何特性,精确定位文本区域.实验结果表明,使用该方法可以快速有效地定位JPEG图像中的人工文本区域.  相似文献   

16.
基于支持向量机的彩色图像人脸检测方法   总被引:4,自引:0,他引:4  
提出了一种利用肤色信息、基于样本学习的彩色图像人脸检测方法。该方法利用两层支持向量机进行人脸检测,用肤色和非肤色样本训练的第一层支持向量机对图像中每个像素进行分类,所有被判断为皮肤点的像素构成了肤色区域;用窗口对肤色区域进行遍历,用人脸和非人脸样本训练的第二层支持向量机判断窗口是否包含人脸模式,并对检测到的人脸区域进行必要的合并。实验结果显示,本文方法对彩色图像中正面人脸的检测率为87.6%。  相似文献   

17.
高效和准确的场景文本(efficient and accuracy scene text,EAST)检测算法速度快且结构简单,但是由于文本结构的特殊性,导致在检测中尺寸较小的文本会被遗漏,而较长的文本则完整性较差.针对EAST算法存在的问题提出一种新的自然场景文本检测模型.该方法利用自动架构搜索的特征金字塔网络(neural architecture search feature pyramid network,NAS-FPN)设计搜索空间,覆盖所有可能的跨尺度连接提取自然场景图像特征.针对输出层进行修改,一方面通过广义交并比(generalized intersection over union,GIOU)作为指标提升边界框的回归效果;另一方面通过对损失函数进行修改解决类别失衡问题.输出场景图像中任意方向的文本区域检测框.该方法在ICDAR2013和ICDAR2015数据集上都取得了较好的检测结果,与其他文本检测方法相比,检测效果也得到了明显提升.  相似文献   

18.
同普通视频节目相比,视频广告中的文本具有更为复杂的表现形式.为实现这类文本有效的定位,通过将文本检测视为一种特殊纹理的分类问题,提出一种基于改进的Co-training策略的视频广告文本检测方法,采用两种相对独立的纹理描述子,从多视角来强化文本特性描述.另外,针对Co-training协同学习机制中容易引入噪声样本的问题,提出了一种改进的结合Bootstrap思想的Co-training算法,在两个相对独立的特征空间中交互选择典型样本,以达到提高分类器泛化能力的目的.通过实验,本方法在自建的数据库上获得的正确率与查全率相对于其他方法有10%左右的提高.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号