全文获取类型
收费全文 | 290篇 |
免费 | 10篇 |
国内免费 | 10篇 |
专业分类
系统科学 | 4篇 |
丛书文集 | 10篇 |
教育与普及 | 4篇 |
理论与方法论 | 5篇 |
现状及发展 | 1篇 |
综合类 | 286篇 |
出版年
2024年 | 1篇 |
2023年 | 2篇 |
2022年 | 2篇 |
2021年 | 5篇 |
2020年 | 3篇 |
2019年 | 3篇 |
2018年 | 3篇 |
2017年 | 3篇 |
2016年 | 5篇 |
2015年 | 8篇 |
2014年 | 6篇 |
2013年 | 11篇 |
2012年 | 22篇 |
2011年 | 25篇 |
2010年 | 29篇 |
2009年 | 29篇 |
2008年 | 24篇 |
2007年 | 34篇 |
2006年 | 17篇 |
2005年 | 17篇 |
2004年 | 11篇 |
2003年 | 3篇 |
2002年 | 14篇 |
2001年 | 5篇 |
2000年 | 2篇 |
1999年 | 5篇 |
1998年 | 1篇 |
1997年 | 4篇 |
1996年 | 2篇 |
1995年 | 4篇 |
1994年 | 2篇 |
1993年 | 2篇 |
1991年 | 1篇 |
1989年 | 2篇 |
1986年 | 1篇 |
1983年 | 2篇 |
排序方式: 共有310条查询结果,搜索用时 296 毫秒
121.
Lucene自身提供的StandardAnalyzer虽然已经具备中文分词的功能,但是其分词正确率和切分速度不能够满足大多数应用的需要。为更好处理中文信息,必须引用独立的外部中文分词器。基于这种需求,文章对ChineseAnalyzer、CJKAnalyzer、IKAnalyzer、mmseg4j、imdict-chinese-analyzer和庖丁解牛6种主流中文分词器分别进行测试,并根据测试结果对分词效果做出评估。 相似文献
122.
藏文分词是藏文信息处理领域的一项不可缺少的基础性工作,也是智能化藏文信息处理的关键所在。在藏文分词的研究过程中藏文分词的准确性,直接制约着藏文输入法研究、藏文电子词典建设、藏文词频统计、搜索引擎的设计和实现、机器翻译系统的开发、藏文语料库建设以及藏语语义分析研究等高层藏文信息处理技术的进一步发展。本文借鉴汉语的分词理论和方法,提出符合藏文特性的分词方法,以及歧义字段切分和未登录词识别等相关问题,并举例说明。 相似文献
123.
针对中文分词序列标注模型很难获取句子的长距离语义依赖,导致输入特征使用不充分、边界样本少导致数据不平衡的问题,提出了一种基于机器阅读理解模型的中文分词方法。将序列标注任务转换成机器阅读理解任务,通过构建问题信息、文本内容和词组答案的三元组,以有效利用句子中的输入特征;将三元组信息通过Transformer的双向编码器(BERT)进行预训练捕获上下文信息,结合二进制分类器预测词组答案;通过改进原有的交叉熵损失函数缓解数据不平衡问题。在Bakeoff2005语料库的4个公共数据集PKU、MSRA、CITYU和AS上的实验结果表明:所提方法的F1分别为96.64%、97.8%、97.02%和96.02%,与其他主流的神经网络序列标注模型进行对比,分别提高了0.13%、0.37%、0.4%和0.08%。 相似文献
124.
基于特征词的自动分词研究 总被引:3,自引:0,他引:3
拓展了特征词的范畴,提出了基于特征词的汉语自动分词方法,将特征词作为切分依据,采用“分而治之”的策略,以对单句或短语进行不断细分的方式来实现自动分词.由于处理单位的缩小降低了待分材料的分词复杂度,因此可以有效地提高切分的正确率. 相似文献
125.
基于优化最大匹配与统计结合的汉语分词方法 总被引:1,自引:0,他引:1
汉语自动分词足中文信息处理的前提,如何提高分词效率是中文信息处理技术面临的一个主要问题.基于训典和基于统计的分词方法是现有分词技术的主要方法,但是前者无法处理歧义字段,后者需要大量的词频汁算耗费时间.本文提出优化最大匹配与统汁结合的分词方法,首先提出优化最大匹配算法,在此基础上提出了规则判断与信息量统计两种消歧策略.然后,给出了优化最大匹配与统计结合的分词算法,提高了分词的效率.最后,基十分词算法实现中义分词系统,并通过实验对算法进行了分析和验证. 相似文献
126.
127.
中文自动分词探讨 总被引:5,自引:2,他引:5
杨宪泽 《西南民族学院学报(自然科学版)》1994,20(3):242-245
论述了现有中文自动分词方法,提出了自动分词软件质量评价标准,并对分词正确单和切分过度两个重要特性的度量方法进行了探讨。 相似文献
128.
近年来基于字的词位标注的方法极大地提高了汉语分词的性能,该方法将汉语分词转化为字的词位标注问题,借助于优秀的序列数据标注模型,基于字的词位标注汉语分词方法逐渐成为汉语分词的主要技术路线.针对一些领域文本中含有较多的英文词汇、缩写、数字等非汉字子串,提出了一种基于字和子串联合标注的汉语分词方法,该方法将子串看作和汉字等同的一个整体,采用四词位标注集,使用条件随机场模型深入研究了基于字和子串联合标注的汉语分词技术.在CIPS-SIGHAN2010汉语分词评测所提供的文学、计算机、医药、金融四个领域语料上进行了封闭测试,实验结果表明此方法比传统的字标注分词方法性能更好. 相似文献
129.
根据实际工作,开发了一个自动分词系统,对汉语自动分词技术在智能人机交互中的实现进行探讨.基于系统的情况,分词算法采用了最大匹配法,在词库检索中提出了化查询为直接存取的方法,提高了检索效率,节省了内存,有利于分词速度的提高. 相似文献
130.
一种基于后缀数组的无词典分词方法 总被引:6,自引:3,他引:6
提出一种基于后缀数组的无词典分词算法. 该算法通过后缀数组和利用散列表获得汉字的结合模式, 通过置信度筛选词. 实验表明, 在无需词典和语料库的前提下, 该算法能够快速准确地抽取文档中的中、 高频词. 适用于对词条频度敏感、 对计算速度要求高的中文信息处理. 相似文献