首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 187 毫秒
1.
针对古籍文献版面图像切分中存在的过切分和粘连等问题,提出基于犹豫模糊集的古籍汉字图像切分方法。首先,对古籍汉字版面图像进行连通区域搜索,获取版面中的笔画部件,实现古籍汉字的初切分;然后,对过切分汉字进行特征分析,提取过切分区域的特征,利用犹豫模糊集在处理多属性决策问题方面的优势,通过建立犹豫模糊集来判断过切分区域归属同一古籍汉字的隶属度,并据此进行过切分区域的合并;最后,对存在粘连和重叠的汉字采用分段像素跳跃数突变分析方法进行分割。在28 886个古籍汉字上的实验结果显示,可以达到92. 3%的切分准确率和85. 7%的过切分合并准确率。  相似文献   

2.
古籍汉字图像检索是古籍汉字研究的有效工具.然而,古籍汉字字形复杂、书写风格多变的特点导致传统文字图像检索技术在应用于古籍汉字图像时效果欠佳.针对现有方法在古籍汉字图像特征提取时存在的字形结构细节信息和低层视觉特征提取问题,设计了一种融合空间注意力和通道注意力网络高低层特征的古籍汉字图像检索模型.首先,融合空间注意力的低维特征和通道注意力的高维特征,捕捉古籍汉字空间结构间的依赖关系,提取更丰富的古籍汉字语义特征信息;其次,构建inception残差结构模块,丰富古籍汉字图像特征的感受野,使网络模型更易优化,保留足够的古籍汉字细节信息;最后,运用加权交叉熵损失函数,解决数据集中存在的正负样本不平衡问题,增强检索模型的鲁棒性.在上下、左右、包围和独体结构古籍汉字图像数据集上检索实验的MAP(mean average precision)值分别为77.89%、79.89%、78.21%、80.75%,表明了方法的有效性.  相似文献   

3.
犹豫模糊语言术语集是在犹豫模糊集的基础上对单个语言术语的扩展,它用以描述专家评估一个语言变量时表现出的犹豫偏好.在很多情形中,等级越高的相邻两个等级之间的差异就越大.受此启发该文构造了一类新的犹豫模糊语言术语集的距离测度,并相应地发展出了语言术语间的Hamming、Euclidean和Hausdorff等距离测度,最后,通过实际例子说明了所提出方法的有效性和可行性.  相似文献   

4.
在决策过程中考虑决策者对备选方案给出评估信息的犹豫性,定义了直觉犹豫模糊集的犹豫度.首先,结合传统的距离测度,给出了基于犹豫度的直觉犹豫模糊集的距离测度,通过具体的模式识别案例分析,将所提出的直觉犹豫模糊集的距离测度与已有的直觉犹豫模糊集的距离测度进行了比较,结果显示,所提出的距离测度具有实用性和有效性.其次,结合有偏...  相似文献   

5.
犹豫模糊软集结合了软集和犹豫模糊集的优势,但目前学者们对犹豫模糊软集的相关研究还比较少,因此对其进行研究是非常有必要的.首先,定义了几种常见的犹豫模糊软集距离测度.然后,在距离测度的基础上,将前景理论引入到犹豫模糊软集中,提出了基于前景理论的犹豫模糊软集多准则决策方法.最后,通过算例分析验证了该方法的可行性和有效性.  相似文献   

6.
首先通过对长度不同的犹豫模糊元进行补齐来定义犹豫模糊集新的交并运算,在Pawlak近似空间中利用新的运算建立粗糙犹豫模糊集模型;然后将Pawlak近似空间推广到一般犹豫模糊近似空间,利用犹豫模糊元间的相似度获得犹豫模糊近似空间中对象间的模糊关系矩阵,再利用模糊集的传递闭包法将模糊相似矩阵转化成模糊等价矩阵,在此基础上建立犹豫模糊信息系统中的粗糙集模型,研究犹豫模糊信息系统的属性约简。最后通过一个算例来说明犹豫模糊信息系统的属性约简方法。  相似文献   

7.
为了定量地刻画犹豫模糊信息的不确定性程度,将犹豫模糊元和区间值犹豫模糊元的熵推广成了犹豫模糊集和区间值犹豫模糊集的熵。首先给出了犹豫模糊集和区间值犹豫模糊集的熵与相似度的公理化定义,在此基础上提出了犹豫模糊集熵和相似度的一般公式,给出了犹豫模糊集的熵和相似度的生成算法。然后研究了犹豫模糊集的熵与相似度间的关系,提出了基于相似度的熵的一般公式。进一步把犹豫模糊集的熵与相似度的关系的有关结论及各自的一般公式和生成算法推广到区间值犹豫模糊集。最后给出了基于犹豫模糊集熵和相似度的后勤补给基地选址方案可靠性分析的数值例子。  相似文献   

8.
为了更加精细化地描述概率犹豫模糊集,将概率犹豫模糊元中的隶属度添加相应的决策专家权重,并由此提出了加权的概率犹豫模糊集概念.用三维向量表示加权的概率犹豫模糊数,在此基础上建立了加权的概率犹豫模糊元的三维向量得分函数模型、三维向量离差函数模型、2个加权的概率犹豫模糊元的大小比较规则与距离测度模型.分别给出了属性的外部权重、内部权重以及综合权重的计算方法.在属性的3种权重条件下,运用方案的整体得分值与内部决策专家评价差异值2个因素计算方案的综合属性值,进而对各个方案排序.决策结果表明,在利用三维向量刻画加权的概率犹豫模糊集的基础上建立的决策算法不但有效可行,而且提供了一种多元化的决策方法.  相似文献   

9.
提出层次图像分割方法,将检索图像在不同的层次上分割为不同大小的子块,计算这些子块与查询图像间的相似度进而实现检索,同时可以获得检索图像中查询目标对象的尺度和位置信息。根据图像的几何不变量和规格化直方图特征提出了一种层次块图像检索模式,并且用500幅各类图像进行了试验。在最理想的相似度阈值下,仅以几何不变量为特征的检索精度可达到78%。此外,该检索模式也可很好地处理大小不同的图像。  相似文献   

10.
距离测度主要用于度量不同数据之间的距离,结合三角函数的距离测度也被成功地应 用于犹豫模糊集上。本文提出了基于正弦、余弦和正切函数的犹豫模糊距离测度以及含偏好的距 离测度并验证了其优良性质;最后,提出了2种犹豫模糊多属性决策方法,并通过能源政策选择的 案例验证了所提方法的有效性和实用性。  相似文献   

11.
When using the current popular text recognition algorithms such as optical character recognition(OCR) algorithm for text images,the presence of watermarks in text images interferes with algorithm recognition to the extent of fuzzy font,which is not conducive to the improvement of the recognition rate.In order to pursue fast and high recognition rate,watermark removal has become a critical problem to be solved.This work studies the watermarking algorithm based on morphological algorithm set and classic image algorithm in computer images.It can not only remove the watermark in a short time,but also keep the form and clarity of the text in the image.The algorithm also meets the requirements that the higher the clarity of image and text,the better the processing effect.It can process the Chinese characters with complex structure,complicated radicals or other characters well.In addition,the algorithm can basically process ordinary size images in 1 s,the efficiency is relatively high.  相似文献   

12.
皮肤镜图像分析技术的第一步为图像分割,分割的结果会直接影响到后续的处理过程,针对具有背景噪声、模糊边缘和灰度不均的皮肤镜图像,提出了一种新的结合水平集的犹豫中智集图像分割方法;首先利用犹豫中智集理论将图像转换为犹豫中智集图像,其中犹豫中智图像由三类子集组成(T、I、F),利用犹豫中智集图像突出表达图像的目标信息和边缘信息;然后针对传统 DRLSE 水平集的不足进行改进,构造新的边缘停止函数,并增加灰度驱动能量项,最后通过改进的DRLSE 水平集对 ISIC(2018)皮肤镜图像进行分割测试;实验结果的交并比(Jaccard Index)值均大于 95%,且均方误差(MSE)、峰值信噪比(PSNR)和结构性相似指数(SSIM)均表现良好,表明方法能够准确、有效的分割具有模糊边缘和灰度不均的皮肤镜图像,对后续的皮肤镜图像的处理与诊断奠定了基础。  相似文献   

13.
古籍电子化中生僻汉字的处理   总被引:3,自引:0,他引:3  
“字库不够用”的问题是古籍电子化的一大障碍,文中就古籍电子化中遇到的生僻汉字问题进行了深入研究,在对生僻汉字进行分析统计的基础上,进而对其进行编码、造字。又根据生僻汉字的特点,设计了易学易用的输入法,从而,实现了古籍电子化中遇到的生僻汉字的存储、检索和显示,较好地解决了古籍电子化中遇到的生僻汉字问题。  相似文献   

14.
贾运  田学东  左丽娜 《科学技术与工程》2020,20(29):12021-12027
古籍版面图像结构复杂,对其进行有效、准确的分析是实现古籍汉字识别与检索的前提和基础。对古籍汉字版面分析的关键问题展开研究,在对古籍版面特点进行分析与归纳的基础上,提出基于LOF和波动阈值的古籍版面分析方法。首先,采用基于LOF的分类算法对古籍版面图像投影分割后的区域进行分类,确定存在分割问题的候选混合区域;然后,利用波动阈值对候选混合区域中的文字与框线粘连部分进行分割;最后,确定古籍版面中的文字区域并输出。实验结果表明,该算法能够有效地分离古籍文字区域和框线区域,版面分类和分割准确率分别为87.02%和78.69%。  相似文献   

15.
针对当前彩色图像检索技术容易受到色彩干扰,鲁棒性不强等不足,提出了一种字典统计耦合归一化多重距离的彩色图像检索算法.首先,将图像量化并转换成一维信号;然后,引入字典统计,将一维信号进行字典编码,并计算编码后的图像多样值;在归一化字典距离的基础上,嵌入字典编码图像的多样值,从而定义了归一化多重距离(NMD)的相似度量准则,利用NMD对查询图像与数据库图像的多样值进行比较与识别,搜索出与查询图像具有相同特征的最相似图像,完成目标检索.在COREL数据库的实验结果表明:相对于当前常用的检索技术,该检索算法具有更高的查准率和查全率,可对彩色图像完成精确检索,有效减低了色彩对检索性能的干扰.  相似文献   

16.
在大样本测试集下国内现有成熟的OCR识别软件的首位识别准确率为95%~97%之间,在准确率和方法上仍有提升和改进的空间。提出一种基于概率特征和结构特征融合的自适应文字识别算法,模拟人类学习的模式,通过对训练样本的不断学习去构建汉字在测量空间的概率分布矩阵,然后比对原始图像和标准汉字库中汉字的概率分布矩阵的相似度来达到汉字分类的效果。其中相似度度量准则是从矩阵空间的结构和概率2个角度出发去构建的,充分考虑了结构模式识别和统计模式识别的优缺点。实验结果显示算法在训练样本下的首位识别正确率可以达到99.66%,在1 623张非训练样本文字图像下的首位识别正确率可以达到99.13%,在5 515张非训练样本文字图像下的首位识别正确率可以达到98.57%。可以证明提出的相似度度量方法在文字识别中的有效性。  相似文献   

17.
杨帅  任超锋  赵丽华 《科学技术与工程》2021,21(24):10140-10147
针对无人机(unmanned aerial vehicle, UAV)影像三维重建中匹配像对提取适应性差、效率低、需准确的先验知识等问题,提出一种基于特征表达的无人机影像匹配像对提取方法。首先利用SiftGPU算法对一组无人机影像进行尺度不变特征转换(scale-invariant feature transform, SIFT)特征提取。其次,对SIFT特征向量集合构建分层词汇树,并分别计算各个影像与影像集中各影像的综合权重因子并按得分大小进行排序。最后,自适应计算影像检索阈值,得到最终的影像匹配像对。通过对不同地形地貌的无人机影像进行试验。实验结果表明:所提方法能快速、有效获取查询影像的匹配像对。与常规词汇树检索方法相比,查准率提高了19%~24%,查全率提高了17.4%~30.9%。尤其针对海量的无人机影像数据,所提方法具有更高的处理效率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号