首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 359 毫秒
1.
一种基于碎纸片投影特征的拼接算法   总被引:1,自引:1,他引:0  
王磊 《科学技术与工程》2014,14(15):247-250
提出了一种以影像为基础的碎纸片的拼接重建算法,有别于其他基于形状重建算法,它主要通过扫描和提取碎纸的特征信息,利用纸片水平投影的分布特征,进行关联度计算,创新地将纸片的行信息归结为水平投影向量的形式,降低了纸片本身的复杂度。最后利用图论中的哈米尔顿回路的算法将纸片排序,实现碎纸片的复原工作,并以2013年全国大学生数学建模竞赛B题中的图片为例对中英文两种碎纸片进行了拼接复原实验,实验结果说明该算法有效可行。  相似文献   

2.
引入边缘相似度概念,利用贪婪算法,解决中英文文件纵向切割后的碎纸片拼接还原问题.对于同时发生纵横向切割的中英文碎纸片,先利用着色反转法对碎纸片文字部分进行反转处理,再利用行聚类筛选法对碎纸片按行匹配度进行分类,最后对每一类碎纸片利用贪婪算法并辅之以人工干预,将碎纸片拼接还原.单面英文碎纸片拼接还原结果表明,该方法人工干预次数少,还原效率高、效果好.  相似文献   

3.
为了解决碎纸片匹配和原纸片复原的问题,通过把碎纸图片数值化,用灰度值矩阵描述出各个碎纸片的特征,分析各矩阵边缘相关的数字特征;然后根据VS软件编写的程序和边缘行列算法,分别计算出碎纸片矩阵的边缘行纵向矩阵和边缘列横向矩阵的相关性,完成了人工难以拼接的任务,有效地提高了拼接复原效率.  相似文献   

4.
为了提高碎纸片的拼接效率和保护信息安全,提出一种碎纸片拼接复原算法,主要由墨迹特征提取和图像匹配两个过程构成.针对英文文档碎纸片,本文提出一种基于文字基线、改进的遗传算法(GA)及光学字符识别技术(OCR)的自动化拼接算法.该算法先根据同行字母的下基线基本相近的准则进行分行归类;并将分类后同一类碎纸片拼接问题转化为旅行商问题,采用改进的遗传算法及光学字符识别技术进行求解;最后根据下基线的位置采用贪婪算法为辅助,实现组行成页.此外,本文结合中文文字的特征,将算法进行修改,得到自动拼接中文文档碎纸片的算法.根据以上算法编写MATLAB程序对横纵切的中英文碎纸片进行拼接试验,结果表明,无需进行人工干预,能够实现全自动拼接.  相似文献   

5.
通过分析具有规范版式的中文文档,以2013年全国大学生数学建模竞赛B题附件3的数据为样本,提出基于文字特征的规则碎纸片的自动拼接算法.该算法通过研究文字行高、间距等特征构建一系列分类准则对碎纸片进行分类,并将分类后的同一行碎纸片排列问题转化为旅行商问题进行求解,最后将组行成页问题再次转化为旅行商问题进行求解,实现规则碎纸片的自动拼接.根据该算法编写MATLAB和LINGO的程序对规则切割形成的碎纸片进行了拼接试验,试验结果表明该算法效果较好.  相似文献   

6.
基于相似度比较的文档碎片拼接到图像拼接   总被引:1,自引:0,他引:1  
刘婵 《科技资讯》2014,(4):63-63,65
随着计算机技术的发展,人们试图开发碎纸片的自动拼接技术,以提高拼接复原效率。本文基于相似度比较的原理在解决来自同一页印刷文字文件的碎纸机仅纵切的破碎纸片自动拼接修复技术的前提下,对来自同一页印刷图像文件的碎纸机仅纵切的破碎纸片进行了自动拼接,得到了较好的效果。  相似文献   

7.
为解决机切碎纸片的复原问题,通过进行碎纸片边缘排序和聚类,建立了离散优化模型,解决了纵切和横切的碎纸片拼接问题;当碎纸片的数据量大或内容是文字高度不一的英文时,建立了改进的离散优化模型.根据字高和其它因素,通过合理选择优化模型或少量的人工干预,该模型可以很好地解决碎纸片复原问题.实践证明对于简单和复杂的机切碎纸片该模型都是有效的,准确率高.研究结果表明:该模型可以进一步应用于更复杂的机切碎纸拼接问题.  相似文献   

8.
在实际应用中,XML(eXtensible Markup Language)文档中的一些结构经常被改变。为了挖掘XML文档在历史变化过程中经常改变的结构所蕴含的知识,提出了发现频繁变化结构的方法。该方法用一组频繁变化结构组成的文档向量模型代表一个XML文档,将频繁变化结构在簇中的出现比例作为权值,使用加权余弦相似度对XML文档进行聚类。经过实验分析,根据XML文档历史变化过程中的频繁变化结构能较好地将XML文档进行聚类。用加权余弦相似度对XML文档进行聚类,其聚类结果的正确率、召回率和簇内部距离均优于使用非加权余弦相似度对XML文档进行聚类得到的结果。  相似文献   

9.
先对碎片文件的边缘轮廓色彩灰度值及所包含内容的格式等进行特征分析,再通过定义差异度指数、高度差建立双目标0-1规划模型,运用聚类分析、MATLAB搜索算法和人工干预等相结合,实现单面文件既被横切也被纵切碎纸片的拼接复原。  相似文献   

10.
撕碎文档的恢复与重建是摄影测量、计算机视觉、计算机图形学、建筑学、诉讼领域、档案研究及调查科学里经常需要解决的问题。无特征图像的拼接研究至今仍处于起步阶段,它的需求引起极大关注。提出一种纵切碎纸片的无特征图像拼接技术,碎片间可以有一致的或不一致的边界。首先,筛选撕碎文档中的两个碎片,使得非均匀的侧面彼此面对,获得一个最初的匹配碎片对子集合;其次,采用邻边相关性作为相似性度量准则解决这些碎片间的模糊性,实现原始文档的恢复。实验结果表明,该方法简单易行,具有快速的恢复纵切碎纸片能力。  相似文献   

11.
分析了分段对文本分类的影响,提出了与文本语义密切相关的最大语义标志原则(MSMR)和段落间的语义激励原则(SIR),在模糊K-最近邻分类算法的基础上,应用这2个原则设计并实现了一种基于上下文的文本片断模糊分类算法.该算法依据SIR判断文本片段分类的相互影响,降低了片段分类的错误率,当某一片断类隶属度大于某一阈值时,依据MSMR判定可知,同一文档的后续片断均属于同一类别,这样就不用计算所有片断的类隶属度.实验表明:与模糊K-最近邻分类算法相比,所提算法能有效提高系统的查准率、查全率和正确率,其中查全率可提高16%以上;在同一会话中,由于被明确分类后的后续片段不需要计算类隶属度,所以算法总计算时间明显少于模糊K-最近邻分类算法,具有较高的分类效率.  相似文献   

12.
针对非局部正则化在图像去噪过程中计算复杂度高、复原速度慢的问题,基于方向信息测度提出了改进的非局部正则化方法.在图像的边缘轮廓区域使用保边性能较好的非局部正则化方法,而在图像的平坦区域使用各向异性全变差模型,且该全变差模型由基于Bregman迭代正则化方法的快速迭代算法进行求解.实验结果表明:基于方向信息测度的非局部正则化方法在快速消除图像噪声的同时,能有效地保留图像的边缘和纹理等结构信息.  相似文献   

13.
针对简单线性迭代聚类(simple linear iterative cluste, SLIC)对含有乘性相干斑噪声的合成孔径雷达(synthetic aperture radar, SAR)图像边缘分割不理想的问题,本文在SLIC基础上提出了一种融合边缘信息的SAR图像超像素分割算法。首先,利用高斯方向平滑对SAR图像进行预处理,从而在抑制乘性相干斑噪声的同时有效保护边缘细节;其次,提出了一种基于指数加权平均比率(ratio of exponential weighted average, ROEWA)算子的改进相似度测量参量,以提高SAR图像的分割精度;最后,采用六边形初始化聚类中心与圆形区域的搜索方式进行局部区域聚类,从而保证了算法复杂度增加的同时,算法的运行时间不会明显变化。实验结果表明,与四种经典超像素算法相比,本文算法生成的超像素边缘更加贴合SAR图像的真实边缘且得到的超像素大小较为均匀。  相似文献   

14.
一种基于数据融合和小波变换的图像边缘检测方法   总被引:17,自引:1,他引:16  
论文提出利用数据融合和小波变换进行图像边缘检测的一种方法。此方法首先对同一地区的多谱段图像用小波变换进行融合预处理,然后直接采用小波变换系数动态地调整边缘判别的阈值,对融合图像进行边缘检测。试验结果表明,此方法不仅能有效地抑制噪声,而且对具有多种边缘特征的图像均有良好的适应性。  相似文献   

15.
深度图由锐边缘包围纹理的匀质区域组成, 因此边缘信息对于虚拟视的绘制至关重要. 由于深度图不同区域的失真会对绘制虚拟视质量产生不同的影响, 提出一种基于边缘的面向虚拟视绘制的深度编码算法. 将深度图划分为边缘区域和平坦区域: 对于边缘区域, 采用全搜索策略, 以提高边缘区域的编码质量; 对于平坦区域, 采用SKIP模式和16×16模式, 以提高编码效率. 除此之外, 在去块滤波中, 提出一种利用纹理图和深度图边缘相似性的可保护深度图片边缘的中值三边滤波器. 实验结果表明, 与JM编码方案相比, 该方法在码率基本不变的前提下, 提高了编码效率和虚拟视绘制的主观质量.  相似文献   

16.
小波分析在SAR图像边缘检测中的应用   总被引:1,自引:0,他引:1  
边缘提取是图像分析的基础,但由于SAR图像中存在强的、乘性的相干斑噪声,使在光学图像中有效的边缘检测器对于SAR图像不再适合。基于小波变换的边缘检测器,由于采用了固定的阈值,在SAR图像边缘提取的同时也会检测出很多虚假的边缘,特别是在图像的亮区。因而,本文提出了具有恒定误警率的自适应变化阈值,并基于小波变换的多分辨率分析,有效地提取边缘特征。仿真实验表明该算法对于有相干斑污染的SAR图边缘提取是很有效的。  相似文献   

17.
针对融合医学图像在过渡区微小细节及边缘信息不够清晰,边缘容易失真等问题,提出了一种基于模糊变换耦合最大熵值的多模态医学图像融合算法.首先,将待融合图像划分为大小相同的非重叠图像块,引入模糊变换对得到的图像块进行处理得到模糊子块,并利用邻域最大熵融合规则对模糊子块进行融合,获取新的融合子块;然后,将新的融合子块进行逆模糊变换,利用选择最大值融合规则,将逆变换得到的子块进一步融合生成最终融合医学图像.实验结果表明:与当前医学图像融合算法对比,本文算法在主观评价与客观评价指标边缘强度、信息熵、互信息、峰值信噪比上具有更大的优势,其融合图像边缘更加清晰,细节丰富,克服了边缘模糊与伪轮廓,更能够有效完成医学图像融合,实现了多模态医学图像信息互补.  相似文献   

18.
 边界效应受多种因子影响,在不同时空尺度下表现出不同的边界效应深度。目前关于边界效应深度影响因子的研究只有少量定性报道,缺少定量分析。以岷江上游林农边界为例,分析了生物量边界效应深度的影响因子。应用GIS软件,将边界类型图与数字高程图、土地利用图、降雨数据的叠加,获取边界所处海拔、坡度、坡向、降雨以及边界两侧斑块面积。在SPSS软件中对已获得的边界效应深度与以上诸因子进行多元线性回归分析。研究结果表明:林农边界效应深度与海拔和坡度存在显著线性回归关系,呈负相关,即海拔越低、坡度越小边界效应深度越大;坡向对边界效应深度影响较小,降雨和林块面积对边界效应深度影响不明显。  相似文献   

19.
针对Canny边缘检测算法中需要手动设置固定阈值而出现边缘间断或伪边缘的问题,设计了一种基于边缘对比特征和边缘方向的边缘连接方法。该方法是基于视觉感知实验总结的一组边缘对比阈值数据比较强边缘点和待连接边缘点的对比特征判断其相似性,通过保持一定的边缘方向确保边缘连接方向的正确性,待连接点只有满足相似性且连接后新旧边缘方向一致,才能被连接为新边缘点。结果表明,改进边缘连接的Canny边缘检测算法具有很好的边缘连接能力,且能获取完整干净的边缘。  相似文献   

20.
一种热图像的多模板边缘检测方法   总被引:2,自引:0,他引:2  
该文提出一种基于多分辩分析思想的多模板边缘提取方法。它根据热图像边缘灰度的阶跃与噪声在不同分辨率层次上表现出来的相关性质,合理地确定检测规则并推断边缘。该方法适用于复杂噪声环境和宽分割阈值下的边缘定位。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号