首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 156 毫秒
1.
版面分析是一个将文本页面图像分割成不同区域,并标定区域类型(如文字、图片、表格等)的过程,与字符识别具有同等重要的地位.提出了一种基于连通域的蒙古文版面分析方法,它提取文档图像中所有连通域,根据连通域的大小进行聚类,从而可以得到文字连通域和非文字连通域,达到分割版面的目的.实验证明,该算法能够对蒙古文书籍版面进行准确的分析.  相似文献   

2.
针对古籍文献版面图像切分中存在的过切分和粘连等问题,提出基于犹豫模糊集的古籍汉字图像切分方法。首先,对古籍汉字版面图像进行连通区域搜索,获取版面中的笔画部件,实现古籍汉字的初切分;然后,对过切分汉字进行特征分析,提取过切分区域的特征,利用犹豫模糊集在处理多属性决策问题方面的优势,通过建立犹豫模糊集来判断过切分区域归属同一古籍汉字的隶属度,并据此进行过切分区域的合并;最后,对存在粘连和重叠的汉字采用分段像素跳跃数突变分析方法进行分割。在28 886个古籍汉字上的实验结果显示,可以达到92. 3%的切分准确率和85. 7%的过切分合并准确率。  相似文献   

3.
高山山  宋凯 《科技资讯》2010,(12):225-226
版面分析目前已成为提高汉字识别系统效率的关键技术之一。针对中文版面较为复杂的特点,本文提出一种非文本区域优先的版面分析方法。该方法提取文档图像中所有连通域,根据连通域的大小进行聚类,从而可以得到文字连通域和非文字连通域,以达到分割版面的目的。实验结果表明,这种方法能够对比较规范的中文版面进行分析,具有较高的效率和较好的适应性。  相似文献   

4.
提出一种基于Mask R-CNN深度学习框架的满文文档版面分析方法,将满文文档版面分析问题转化为基于深度学习的图像实例分割问题。使用ResNet101网络和FPN网络构成的卷积神经网络自动提取满文文档图像特征,特征图经过RPN网络和RoI Align层生成新的特征图。新特征图经过全连接层完成感兴趣区域的类别和边框预测,并经过全卷积神经网络对感兴趣区域的像素进行分类得到mask预测,最终实现满文文档图像的实例分割。通过《新满汉大辞典》的文档图像构建了满文文档图像数据集,算法在该满文文档图像数据集上进行了实验。实验结果表明,本算法在满文文档版面分析中取得了较好的检测和分割效果。  相似文献   

5.
古籍图像版面分割是古籍数字化保护过程中非常重要的一步,藏文古籍版面分割是藏文版面分析的基础。针对藏文古籍版面分割问题,把图像切分为150×150的图像块,提取图像块的灰度特征、颜色特征、纹理特征组合成18维的特征向量,用图像块样本训练SVM,得到每个图像块的分类结果,以获取粗略古籍版面分割结果,然后结合投影法得到精确的版面分割结果。实验结果表明,该方法能有效分割文本区域,为藏文古籍图像版面分割提供了一种可行的思路。  相似文献   

6.
针对焊缝射线检测图像缺陷分割速度慢、精度低的问题,提出了一种基于水淹没原理的缺陷分割算法,即依据水流借势取径、盈满则溢的思想,对缺陷及周边区域进行逐级淹没,并根据淹没面积变化来确定分割阈值.该算法首先利用灰度曲线波形分析检测缺陷,获取缺陷种子点,然后从种子点出发对图像进行逐级淹没,淹没过程采用逐线搜索策略.淹没结束后,通过分析各水位淹没面积相对增量的变化来确定阈值水位.实验结果表明,水淹没分割算法的分割耗时大约是Alaknanda方法的5.3%,Kaftandjian方法的25%,分割误差大约是Alaknanda方法的27.33%,Kaftandjian方法的53.14%,因此具有较好的分割速度和精度.  相似文献   

7.
嵌入在图像中的文字信息是图像语义的一种重要表达方式,通常反映了图像的主要内容,因此,对图像中的文字区域进行提取是十分有必要的。提出一种结合颜色、边缘及连通域特征的文字区域提取算法,先提取出彩色图像的纵向边缘,再通过两次动态行列分割得到候选文字区域,最后,根据候选区域二值图中边缘及连通域特征去除非文字区域,确定最终文字区域。通过对一定数量的复杂背景图像进行实验,证明该算法效果较好。  相似文献   

8.
基于连通域的版面分割研究   总被引:2,自引:2,他引:0  
版面分割是OCR(光学字符识别)系统的重要组成部分,在将印刷文档转换为电子文档的过程中是必不可少的,该文对基于连通域的版面分割方法进行研究,首先用动态聚类法选取模糊阈值,然后对文档图像进行模糊处理,形成大的连通区域,再根据连通域的位置关系等分割出文档的各个分栏,实验表明,该方法对于简单的矩形版面及复杂的版面,例如,非Manhattan版面等都能较好地分割。  相似文献   

9.
针对人工检测微小零件表面缺陷存在的不足,提出一种基于机器视觉的微小零件表面缺陷检测方法。首先分析微小零件检测内容的特点,通过机器视觉专用软件HALCON提供的图像滤波、阈值分割算子提取缺陷区域,并设计了一种自动选择平滑滤波尺寸与阈值的最优取值算法,再采用改进的边缘检测算法准确提取表面的边缘位置,将图像以边缘为界分割成不同的区域,运用区域形态学方法对候选缺陷进行筛选,最后使用区别特征实现缺陷分类与标记。实验结果表明,该方法能够稳定的进行微小零件表面缺陷的识别与检测,缺陷识别率达到97.05%,达到预期检测目标。  相似文献   

10.
基于机器视觉和图像处理的夜间车道线检测一直是该领域的研究难题,即使是近年的深度学习方法,检测精度只能达到50%左右.为此,研究了一种新的算法,根据车道线的特点和车辆的行驶速度,将视频中多幅图像融合到一幅图像中;利用图像的特点,在区域合并中识别出有效的车道线检测区域;将有效区域分割成新的图像后,采用基于Frangi和Hessian矩阵的算法对图像进行平滑和增强;为了提取车道线的特征点,提出了一种新的分数阶微分模板进行车道线特征点检测,该算法根据车道线在图像中可能的位置,从4个方向检测特征点;在检测出候选点后,应用递归Hough直线变换得到候选车道线,为了确定最终的车道线,一条车道线的角度应介于25°~65°之间,而另一条车道线的角度应介于115°~155°之间,否则,通过降低线点数的阈值继续进行Hough直线检测,直到获得两条车道线为止.通过对数百幅夜间车道线图像的测试,并与深度学习方法和传统的图像分割算法进行比较,新算法的检测准确率可达70%.  相似文献   

11.
针对红外图像中行人与环境对比度较低,直接进行分割易产生误分割问题,提出一种基于帧差和Otsu的红外行人分割算法.首先选取红外视频序列中时间间隔较短的2帧图像求其帧差图像,对帧差图像采用Otsu分割得到运动目标的部分区域;然后对基准帧也采用Otsu方法分割,并将帧差图像分割结果与基准帧分割结果相乘,得到目标区域的种子像素;最后在基准帧分割图像上,通过连通性判断得到最终的行人分割区域.实验结果表明,该算法很好地克服了环境带来的干扰,鲁棒性强,能有效实现红外行人目标的分割.  相似文献   

12.
基于提升树的自然场景中文文本定位算法研究   总被引:1,自引:0,他引:1  
提出了一种新的基于提升树算法的自然场景中文文本定位技术.首先利用边缘特征进行文本区域的检测,即对下采样后彩色图像首先进行边缘提取、二值化处理,然后通过形态学运算以及连通区域分析去除大量的非字符连通域,获得候选的文本区域,最后,提取候选文本区域的PHOG-Gabor特征,通过提升树算法进一步确认是否为字符连通域.通过实验验证,该算法具有很高的召回率和准确率,综合性能较高.  相似文献   

13.
在分析传统手写汉字文本切分算法利弊的基础上 ,提出了一种改进的基于快速连通域提取的切分算法 ,算法具有很强的抗干扰能力 ,有效解决了小角度歪斜图像和笔画粘连字符的汉字切分问题 .同时给出了具体的实现方法  相似文献   

14.
JBIG2是即将实施的文档图像压缩编码标准,主要应用于传真,互联网和无线传输,其编码对象是文字与二值图像的混合文档,通过对特定内容采用特定的模式算法进行编码,图像分割是编码的第一步工作,文中在简述JBIG2标准后,通过对文字和二值图像的特征分析,提出了一种新的与轮廓无关的文档分割算法,快速准确具有一定的适应性,经过实验证明,该方法比较有效。  相似文献   

15.
为在保证中文歧义包容和长度限制的同时提高中文全文检索的速率, 在现有中文分词算法的基础上, 提出了一种改进的中文分词算法。通过在算法中建立索引的过程建立文本中相关词与词库的映射, 对词库进行改造, 使之更好地与相关词进行映射, 以便于实现中文分词。实验证明, 改进的中文分词算法能降低检索耗时, 是已有的分词算法的1/2和1/5, 有效提高中文全文检索的速率。  相似文献   

16.
从手写文档图像中提取出文本行是文档分析的一个重要预处理步骤,但是由于手写文本行之间通常行方向不平行,甚至存在着交叠和弯曲,所以它仍然是一个具有挑战性的问题. 针对该问题,提出了一种基于高阶相关聚类的脱机中文手写文本行的分割算法.首先,使用连通部件构成一个文档超图,然后,在学习所得的相似性度量准则的约束下,通过高阶相关聚类算法将连通部件对标记为属于或者不属于同一文本行;最后,使用union­find算法将连通部件连接成为不同的文本行.该算法在HIT­MW脱机手写数据库上的803幅文档上取得了较好的效果,召回率99.05%,错误率为1.96%.  相似文献   

17.
复杂中文报纸的版面分析、理解和重构   总被引:8,自引:0,他引:8  
在将纸张介质的文档自动转换成电子文档格式的过程中 ,版面的分析、理解和重构是十分关键的问题。针对复杂中文报纸版面 ,提出了一个基于最近邻连接强度和行列可信度的自底向上的版面分析算法和一个基于规则的块生长的版面理解算法 ,并讨论版面重构的相关问题和实现。综合这些算法并结合汉字识别核心 ,实现了一个完整的自动电子出版物制作系统。实验和实际运行的系统证明了算法的有效性和系统的实用性  相似文献   

18.
针对复杂场景的视频,在传统的梯度检测算法基础上融入多尺度技术,提出一种由粗到细的两阶段视频字符文本检测新算法.首先,利用加权平均梯度能量特征和运动能量特征对采样帧粗检测,形成候选文本区;然后,通过连通域分析,过滤部分虚检的候选文本区,再利用梯度方向的统计特征进行验证,得到精确的检测结果.仿真结果表明,本方法在处理复杂背景视频图片时具有较好的鲁棒性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号