首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 206 毫秒
1.
基于提升树的自然场景中文文本定位算法研究   总被引:1,自引:0,他引:1  
提出了一种新的基于提升树算法的自然场景中文文本定位技术.首先利用边缘特征进行文本区域的检测,即对下采样后彩色图像首先进行边缘提取、二值化处理,然后通过形态学运算以及连通区域分析去除大量的非字符连通域,获得候选的文本区域,最后,提取候选文本区域的PHOG-Gabor特征,通过提升树算法进一步确认是否为字符连通域.通过实验验证,该算法具有很高的召回率和准确率,综合性能较高.  相似文献   

2.
利用局部显著文字型区域描述结合连通分量分析思路,文章提出一种复杂背景下针对场景文本稳健的文本提取算法.该算法首先通过灰度的局部显著变化和显著多方向边缘强度定位图像的显著文本区域;然后依据区域灰度变化将原始图像进行分割,获得显著区域的连通分量包括文本分量和非文本分量;接着用一个级联分类器基于字符属性滤除部分非文本连通分量,最后统计文字包围盒的边缘方向分布信息,对每个候选连通分量提取8维的特征送入SVM分类器进行验证,最终定位出文本区域.实验结果表明,这种基于显著区域提取文本的算法有效地结合了文本的区域特性和文本连通体的笔画属性,在保证文本提取正确率的同时提高了算法速度,测试结果表现出较满意的性能.  相似文献   

3.
为有效利用Android智能终端实现对文本信息的有效识别,提出一种基于谱残差和笔画宽度变换的显著性文本特征提取方法.首先应用基于谱残差的显著性检测获取显著图;然后利用最大熵判别方法分割并建立显著性文字候选区域;最后通过笔画宽度变换算法在候选区域内提取闭合边缘等宽特征.构建基于Android智能终端和服务器的C/S架构实验平台,在MSRA-TD500文字定位数据库与实验室场景数据库中的实验结果表明,该算法可较好地获取图像中的显著性文字特征,在保证运算效率的同时算法性能有所提升.  相似文献   

4.
驾驶员疲劳检测中的眼睛定位与状态分析   总被引:1,自引:0,他引:1  
针对驾驶员头部多角度变化时眼睛定位困难的现状,提出了基于肤色检测和纹理特征的驾驶员眼睛定位算法.该算法采用肤色检测定位出人脸图像;根据眼睛灰度范围与其他部位的差异进行人脸图像二值化和形态学图像处理,确定眼睛候选区域;通过比较各候选区域纹理特征向量值的不同,确定眼睛位置,并基于黑斑拟合椭圆性质进行眼睛验证和睁开程度计算.计算结果表明,头部角度变化时各候选区域的纹理特征值差别仍较大.因此,该算法不受驾驶员头部角度的影响,眼睛定位准确率较高,且算法简单,计算速度快.  相似文献   

5.
通过检测图像局部噪声水平的不一致性,提出一种图像拼接篡改区域的定位方法.首先,用改进的简单线性迭代聚类(SLIC)超像素分割算法将待检测图像分割成具有相似特征的像素块;然后,采用基于主成分分析的噪声水平估计方法计算每个图像块的局部噪声水平;最后,利用3种聚类算法对估算的噪声水平进行聚类,根据聚类结果定位出被篡改的区域.实验结果表明:文中方法不仅能有效定位被篡改的区域,而且能保留检测区域更多的边缘信息.  相似文献   

6.
基于相位相关和重采样的亚像素图像配准算法   总被引:2,自引:0,他引:2  
为了实现高精度的图像配准,提出了一种基于相位相关和重采样的亚像素图像配准算法.首先基于相位相关实现像素级的粗定位,然后在粗定位点邻域范围内利用矩阵乘法的离散傅里叶变换(DFT)高倍数重采样,并基于相位相关作重采样区域的像素级定位,实现亚像素级的细定位.文中从理论上证明了基于矩阵乘法的DFT实现部分区域重采样的方法与基于零填充重采样的方法在计算精度上具有等效性.实验结果表明,文中算法的配准精度、计算效率和抗噪性优于基于交互相关和扩展相位相关的亚像素配准算法.  相似文献   

7.
为了提高英文文本移除后图像的修补效果,提出一种全自动文本移除算法。该算法基于骨架计算笔画宽度,并采用无监督连通区域分类实现文本区域检测与勾画。在文字提取后的缺损区域修复中,对传统基于样本块的修复算法进行了改进,依据边缘结构信息强弱确定边界块的合理修复顺序,采用两步搜索策略避免相似块误匹配,基于低秩矩阵填充技术提高填充区域的逼真度。实验结果表明,该算法能够准确定位文本区域,文本移除后的图像无明显篡改痕迹。  相似文献   

8.
为了提高英文文本移除后图像的修补效果,提出一种全自动文本移除算法。该算法基于骨架计算笔画宽度,并采用无监督连通区域分类实现文本区域检测与勾画。在文字提取后的缺损区域修复中,对传统基于样本块的修复算法进行了改进,依据边缘结构信息强弱确定边界块的合理修复顺序,采用两步搜索策略避免相似块误匹配,基于低秩矩阵填充技术提高填充区域的逼真度。实验结果表明,该算法能够准确定位文本区域,文本移除后的图像无明显篡改痕迹。  相似文献   

9.
为解决传统算法对文本区域检测查准率较低的问题, 从自然场景文本特性出发, 提出了一种基于视觉显 著性与边缘密集度的鲁棒性文本定位方法。 首先利用谱残差理论提取图像的显著性区域, 然后在提取的显著 性区域中寻找边缘密集度大的区域, 以此构建候选连通域, 利用少量的先验信息滤除其中的非文本区域。 在标 准数据集上的实验结果表明, 与单纯利用边缘特征进行文本区域检测的方法相比, 该方法可获得 70% 的综合 检测率。  相似文献   

10.
针对从背景复杂、视角多变、语言形式多样的场景图像中难以准确提取文本信息的问题,提出了一种基于最大稳定极值区域(MSER)和笔画宽度变换(SWT)场景文本提取方法。该方法结合MSER、SWT算法的优点,采用MSER算法的准确检测文字区域,建立文本候选区域,利用SWT算法计算文本候选区域笔画宽度得到候选文本区域的笔画宽度;根据笔画宽度图,利用连通域标记建立笔画宽度连通图,然后根据笔画宽度连通图,建立笔画连通图的启发性规则,删除非文本候选区域,并根据文本的几何特征分析及局部自适应窗口最大类间方差(Otsu)分割,有效提取出自然场景图像中的文本,文本提取的准确率、召回率及综合性能分别为0.74、0.64及0.68。仿真实验结果表明,在文本视角多变,字符大小、尺寸、字体各异的复杂条件下,所提方法具有较好的鲁棒性,适用于多语言和多字体混合的场景文本提取。  相似文献   

11.
针对自然场景文本检测在复杂背景下虚警高的问题,提出利用小波变换(wavelet transform,WT)和方块编码算法(block truncation coding,BTC)相结合的方式(WT-BTC)表征文本纹理,并结合支持向量机(support vector machine,SVM)完成对候选文本区域的分类确认。算法首先利用边缘检测和启发式规则快速确定候选文本区域;然后对候选文本区域进行小波分解和BTC编码,提取水平、垂直、对角方向的WT-BTC纹理特征;使用三个SVM分类器分别对不同方向纹理特征学习训练,组合SVM模型实现候选文本区域的二次检测,确认文本区域。实验结果表明算法提高了文本区域检测鲁棒性,在复杂背景条件下对场景文本有较好的检测效果。  相似文献   

12.
针对复杂场景的视频,在传统的梯度检测算法基础上融入多尺度技术,提出一种由粗到细的两阶段视频字符文本检测新算法.首先,利用加权平均梯度能量特征和运动能量特征对采样帧粗检测,形成候选文本区;然后,通过连通域分析,过滤部分虚检的候选文本区,再利用梯度方向的统计特征进行验证,得到精确的检测结果.仿真结果表明,本方法在处理复杂背景视频图片时具有较好的鲁棒性.  相似文献   

13.
图像中的文本区域为判别图像垃圾邮件提供了重要依据.为了获得图像中的文本区域信息,提出了基于Hough变换提取图像中倾斜文本区域的算法和降低图像背景干扰的八邻域细小边缘去除算法,实现了一种不受图像中文本颜色、字体、大小、位置、方向限制的文本区域的自动提取方法.在包含100幅垃圾图像的数据集上进行提取图像文本区域的实验.实验结果显示,新方法具有良好的文本区域提取性能.  相似文献   

14.
基于边缘特征分析和线性判断的文本帧检测算法   总被引:1,自引:1,他引:0  
为保证视频文本检测作用于含有文本的视频帧中,提出一种基于边缘特征和分量线性的文本帧检测算法。算法首先去除模糊视频帧,通过融合颜色和梯度信息以及文本聚类的方法得到边缘图,利用启发式规则滤除非文本分量;然后根据视频文本分量质心位置及最小外接矩形大小规律构建候选文本行;并结合文本行内字符结构特征定义线性关系。最后对候选文本行进行线性判断,若有候选文本行符合线性关系则将视频帧标记为文本帧。实验结果表明所提文本帧检测算法比其他类似算法检测性能更好。  相似文献   

15.
贾运  田学东  左丽娜 《科学技术与工程》2020,20(29):12021-12027
古籍版面图像结构复杂,对其进行有效、准确的分析是实现古籍汉字识别与检索的前提和基础。对古籍汉字版面分析的关键问题展开研究,在对古籍版面特点进行分析与归纳的基础上,提出基于LOF和波动阈值的古籍版面分析方法。首先,采用基于LOF的分类算法对古籍版面图像投影分割后的区域进行分类,确定存在分割问题的候选混合区域;然后,利用波动阈值对候选混合区域中的文字与框线粘连部分进行分割;最后,确定古籍版面中的文字区域并输出。实验结果表明,该算法能够有效地分离古籍文字区域和框线区域,版面分类和分割准确率分别为87.02%和78.69%。  相似文献   

16.
提出一种基于灰度信息和支持向量机的人眼检测方法.首先,利用人眼区域灰度变化比人脸其他部位灰度变化明显的特征,采用图像灰度二阶矩(方差)建立人眼方差滤波器,在固定人眼搜索区域内,应用人眼方差滤波器搜索候选人眼图像;然后,使用训练的支持向量机分类器精确检测人眼区域位置;最后,采用图像灰度信息率定位人眼中心(虹膜中心).该方法在BioID、FERET和IMM人脸数据库中的测试结果显示:没有佩戴眼镜人脸图像正确率分别为98.2%、97.8%和98.9%,406幅佩戴眼镜人脸图像正确率为94.9%;人眼中心定位正确率分别为90.5%、88.3%和96.1%.通过与目前方法比较,该方法获得较好的检测效果.  相似文献   

17.
提出一种基于特征与外貌混合检测确定人眼区域的实时人眼检测方法. 首先,依据可见光源在人眼角膜上反射形成耀点特性,通过图像处理算法提取潜在耀点位置,利用人眼几何特征的确定可能人眼候补区域;然后,提取人眼数据库中具有不同外貌特征的200幅人眼图像,采用FastICA算法估计出提取人眼图像的有效成分分析(ICA)基向量;最后,通过计算人眼候选区域在基向量上投影角度判断出左、右人眼区域准确位置. 实验结果表明,在人脸面部旋转、佩戴眼镜、大范围头部运动和不同光照强度下,实时人眼检测具有较高的检测正确率和较好的鲁棒性.   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号