共查询到19条相似文献,搜索用时 75 毫秒
1.
文本挖掘中中文歧义字段的自动分词是计算机科学面临的一个难题.针对汉语书写时按句连写,词间无间隙,歧义字段分词困难的特点,对典型歧义中所蕴含的语法现象进行了归纳总结,建立了供词性编码使用的词性代码库.以此为基础,通过对具有特殊语法规则的歧义字段中的字、词进行代码设定,转化为神经网络能够接受的输入向量表示形式,然后对样本进行训练,通过改进BP神经网络的自学习来掌握这些语法规则.训练结果表明:算法在歧义字段分词上达到了93.13%的训练精度和92.50%的测试精度. 相似文献
2.
3.
消解中文三字长交集型分词歧义的算法 总被引:18,自引:0,他引:18
汉语自动分词在中文信息处理现实应用中占据着十分重要的位置。三字长交集型分词歧义是分词歧义的主要类型之一,在真实文本中的出现频率相当高。提出了一种针对这种分词歧义的消解算法,回避了训练代价比较高昂的词性信息而仅仅利用了词的概率信息及某些具有特定性质的常用字集合。从一个60万字的汉语语料库中抽取出全部不同的三字长交集型分词歧义共5367个作为测试样本。实验结果表明,该算法的消解正确率达到了92.07%,基本可以满足实用型中文信息处理系统的需要。 相似文献
4.
由于Lucene自带的ChineseAnalyzer和CJKAnalyzer两种中文分析器不能够满足全文检索系统的应用,本文给出了一种新的中文分词算法,用于改进Lucene中文分析器。该算法基于字符串匹配原理,实现了正向和逆向相结合的最大增字匹配分词算法。通过实验仿真,比较改进后的分析器与Lucene自带的两种分析器在分词效果和效率上的差异。结果显示,改进后的分析器分词效果明显优于Lucene自带的两种分析器,提高了全文检索系统的中文处理能力,系统的查全率和查准率都达到用户的需求。 相似文献
5.
中文分词中歧义切分处理策略 总被引:1,自引:0,他引:1
文章试图从歧义字段本身的特点,即从伪歧义与真歧义这两个角度,以规则库为辅助手段,构建相应概率统计模型来解决歧义字段切分的问题.概率模型中特征的选取考虑了相邻词语和相邻词语的语义信息.实验表明该模型在解决歧义切分问题上是有效的. 相似文献
6.
HENU汉语自动分词系统中歧义字段消除算法 总被引:2,自引:0,他引:2
先用基于词典的最大匹配法匹配出最长词和次长词,再用检测跨越的方法发现切分歧义,判断出切分歧义是交集型切分歧义还是组合型切分歧义,根据切分歧义类型的不同分别进行切分歧义的消除.交集型切分歧义的消除方法主要是混合使用基于规则的方法和基于统计的方法,组合型歧义的消除方法主要是使用基于规则的方法,找到正确的切分位置. 相似文献
7.
一种基于SVM和规则消除组合型歧义的算法 总被引:2,自引:0,他引:2
歧义的处理是影响分词系统切分精度的重要因素,也是中文自动分词系统中较为困难的问题.提出一种基于支持向量机(SVM)和规则(Rules)相结合的算法(SR算法),对中文分词过程中的组合型歧义字段进行排歧.SR算法主要思想是利用支持向量机分类的原理,结合词性搭配的一些规则排除组合型歧义.实验表明,用此算法对几种不同的语料进行排歧测试,排除组合型歧义字段的切分正确率可达83%左右,为解决中文自动分词难题提供了一条新路径. 相似文献
8.
尹倩 《重庆工商大学学报(自然科学版)》2016,33(5):20-24
模拟人浏览句子按照语境寻找消歧证据的经验,计算歧义字段与其所在句子的语义相似度和相关度,据此作为语境计算模型,利用歧义字段与其所在句子的语境信息进行中文分词交叉歧义处理;与经典的基于统计方法相比,切分准确率有很大提高。 相似文献
9.
基于最大概率分词算法的中文分词方法研究 总被引:1,自引:0,他引:1
本文提出了一种基于最大概率分词算法的中文分词方法,以实例贯穿全文系统描述了最大概率分词算法的基本思想与实现,根据针对大规模真实语料库的对比测试,分词运行效率有较大提高,该方法是行之有效的,并且提出了该算法的改进方向。 相似文献
10.
本文在中文分词技术的基础上,提出了一种基于中文文本主题提取的分词方法,以概念语义网络的思想构造主题词典,描述词间概念语义关系,采用改进的最大匹配算法对文本进行切词,既提高了分词的准确性,又能识别文中的未登录词,并同步完成主题词的规范工作。从而在概念层次上理解用户的需求,实现概念检索,提高查准率。 相似文献
11.
现代汉语歧义研究之现状和趋势探究 总被引:1,自引:0,他引:1
自赵元任先生1959年发表《汉语的歧义问题》一文开始,汉语歧义研究历经数十年,研究内容涉及面甚广,然而由于没有选择合适的研究对象,比如词组和句子,导致了语法歧义与语用歧义的纠缠。詹卫东和杨亦鸣的两篇文章运用计算语言学和实验语言学方法消除这种纠缠现象,揭示了现代汉语歧义研究的新趋势。 相似文献
12.
开放源码关系数据库PostgreSQL目前还不支持对中文的全文索引.文章研究和分析了PostgreSQL的全文索引技术(TSearch2),通过对其核心函数的重写和配置文件的修改,将中文分词技术引入到了Post-greSQL的全文索引技术中,并加入了去除中文无用词的功能,从而首先实现了PostgreSQL的中文全文索引. 相似文献
13.
汉语的自动分词是汉语语言处理的基础,本文讨论了汉语自动分词歧义问题的产生与分类,重点研究了交集型歧义字段的排歧策略,实现了一种基于Perl的汉语自动分词方法,在比较同种算法的VC 实现上,结果显示基于Perl的实现具有简洁和高效的优点。 相似文献
14.
目的 通过对现有聚类常用算法的研究,给出一种适用于大规模中本数据集聚类的算法DBTC(density-based text clustering)。方法 采用在DBSCAN算法基础上改进提出的DBTC算法,对中本数据集进行聚类。结果 DBTC算法可以发现任意形状的簇,对中本聚类的准确率高达80%以上。结论 经过分析和实验证明DBTC算法比基本的DBSCAN算法更适合于大规模数据集。 相似文献
15.
在遗传算法基础上的自动阈值选取方法 总被引:3,自引:5,他引:3
将遗传算法用于图像分割.利用遗传算法自动在搜索空间内快速寻优的特点确定阈值,对图像进行分割.实验结果表明该方法具有较高的收敛速度和良好的分割质量. 相似文献
16.
在非结构化数据挖掘结构模型——发现特征子空间模型(DFSSM)——的运行机制下,提出了一种新的Web文本聚类算法——基于DFSSM的Web文本聚类(WTCDFSSM)算法.该算法具有自稳定性,无须外界给出评价函数;能够识别概念空间中最有意义的特征,抗噪声能力强.结合现代远程教育网应用背景实现了WTCDFSSM聚类算法.结果表明:该算法可以对各类远程教育站点上收集的文本资料信息自动进行聚类挖掘;采用网格结构模型,帮助人们进行文本信息导航;从海量文本信息源中快速有效地获取重要的知识. 相似文献
17.
针对文本分类存在的高维文本问题,提出文档频率(DF)-卡方统计量特征提取方式,对特征项进行有效约减,降低文本维度,提高分类精度.在K最近邻(KNN)算法的基础上,针对待分类文本需要和大量训练集样本进行相似度计算的问题,提出一种基于分组中心向量的KNN算法,对类别内的样本集分组求出各组中心向量,使其重新代表训练库计算相似度,降低计算复杂度,提升算法的分类性能.通过实验表明:相较传统KNN算法,改进的算法在准确率、召回率及F值方面都有提升,与其他分类算法相比,具有一定的优势. 相似文献
18.
全文检索是一种有效的信息检索技术,改进最大熵模型的应用研究在自然语言处理领域中受到关注。笔者利用语料库中词性标注和词频标注的上下文信息,建立基于互信息的最大熵方法的检索系统,研究的重点在于提出一种中文分词算法,并从实际问题出发,采用面向对象和模型驱动的设计方法,将该算法应用于实际的全文检索系统的设计中。 相似文献
19.
李伟 《哈尔滨商业大学学报(自然科学版)》2013,29(4)
目前的FCM类型的算法聚类数目的确定需要聚类原形参数的先验知识,否则算法就会产生误导.为了提高图像分割算法的抗噪性能,用K均值聚类算法简单、快速的优点对模糊C均值聚类算法进行改进.结合图像的邻域信息,对图像的直方图作均衡化处理,改善图像质量,通过自适应滤波,降低噪声对分割效果的影响.先用K均值聚类算法对图像进行分割,快速的获得较为准确的聚类中心和初次分割图像,避免了FCM算法中初始聚类中心选择不当造成的死点问题.用邻域灰度均值信息代替传统模糊C均值聚类算法中的灰度信息,对K均值聚类得到的图像作二次分割.该方法能更好的抑制噪声的干扰,提高了聚类算法的分割精确度. 相似文献