首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 265 毫秒
1.
改进规则的可放缩矢量图形地图的查询模型   总被引:1,自引:1,他引:0  
分析了基于SVG(可放缩矢量图形)格式时态GIS(地理信息系统)领域,尤其是地理元素查询方面的研究现状,针对现有的XML(可扩展标记语言)查询方法进行了分析和对比.在基于SVG语法规则改进研究的基础上,并结合LISAⅡ(layered intersection scan algorithmⅡ,分层交叉扫描算法Ⅱ)查询技术,提出了一种适合改进规则的SVG格式的GIS数据地理元素查询模型及其算法,通过定义关键字查询语法规则表达式,定义关键字查询的""和"or"操作规则,实现了组合查询;通过定义实体元素节点,减少了节点数,提高了查询效率.该模型实现了SVG格式地图的地理元素查询,包括对整幅地图的各种组合查询和分图层的各种组合查询,解决了基于SVG格式地图元素查询的技术瓶颈.大量的数据验证表明,该查询模型是有效的.  相似文献   

2.
本论文首先分析了SVG格式地图差异算法的研究现状,在现有的差异算法的基础上,分析了现有算法存在的不足,提出了一种改进的SVG格式地图差异匹配算法I-DiffS。该改进算法定义了节点集元素,即节点集元素可能包含一个或多个元素节点、属性节点和值节点构成的一个路径节点集合,定义了SVG格式解析结构树的标号规则,减少了结构树对应数组的元素个数,也减少了差异脚本中操作类型的数目,缩短了匹配过程。匹配结果为差异脚本,该脚本记录了前一个时间戳到后一个时间戳的更新操作。I-DiffS算法相比于现有的最新DiffS算法,时间复杂度更低。应用验证证明该算法是有效的。  相似文献   

3.
DWG地图到改进规则SVG地图的转换方法   总被引:1,自引:1,他引:0  
提出了一种扩展属性数据的自动化计算机辅助设计(AutoCAD)标准格式(DWG)地图到改进规则的可缩放矢量图形(SVG)格式地图的转换方法.通过定义改进的SVG规则,将DWG格式中的基础图形数据和扩展属性数据合并在一起,在SVG中作为一个整体表示,保证了转换过程中的数据完整性.同时,通过定义SVG分层规则,突破了DWG中扁平图层的限制.应用验证证明该转换方法是有效的.  相似文献   

4.
基于Mobile SVG矢量地图的移动定位查询   总被引:1,自引:0,他引:1  
在J2ME体系以及Mobile SVG技术研究的基础上,根据空间实体与SVG图层的映射关系实现了矢量地图数据组织与表达.提出了基于Mobile SVG的矢量地图定位查询系统的框架模型.对矢量地图在手机上的显示、平移、缩放和定位查询的方法进行研究并实现.基于所提出的框架模型,设计并实现了一个应用于油田领域的矢量地图定位查询系统,该系统在油田业务中得到了初步的应用.  相似文献   

5.
交通信息服务系统是智能交通系统的重要组成部分,针对交通信息服务系统中存在的模糊地名匹配问题,研究了空间数据挖掘方法中聚类分析方法,并提出了基于串行表示(Clusfering Using REpresentatire,CURE)聚类方法的模糊地名匹配模型和算法.最后以广州市电子地图为例,对提出的算法进行了验证.实验证明采用该算法可以有效的提高空间信息的检索速度和模糊地名匹配效率.  相似文献   

6.
FTP(file transfer protcol)搜索引擎的重点在于中文分词技术和检索技术.使用了一种面向FTP搜索优化的最大前向匹配分词算法,并将用户查询作为反馈来更新分词算法中所使用的字典,结合倒排索引技术实现了一个高性能的FTP搜索引擎的原型系统.压力测试结果表明此FTP搜索引擎具有很高的性能.  相似文献   

7.
空间数据挖掘在基于GIS的交通诱导系统中的应用   总被引:2,自引:1,他引:2  
介绍了基于GIS的交通诱导系统,并指出模糊地名匹配问题是其中一个急需解决的难题.针对这一问题,研究了空间数据挖掘方法中的聚类分析方法,建立了基于聚类分析方法的模糊地名匹配模型,并提出了基于CURE聚类方法的求解算法.最后以采用MapInfo 为平台的广州市电子地图为例,对文中提出的地名模糊匹配模型和算法进行了试验.结果表明该模型和算法是有效的,平均计算时间只有0.01s.  相似文献   

8.
Web文本挖掘中的一种中文分词算法研究及其实现   总被引:3,自引:0,他引:3       下载免费PDF全文
针对Web文本挖掘中的中文信息处理的问题,介绍了将超文本格式(Html格式)的文档转化为纯文本格式(Txt格式)文档的方法.利用改进的最大匹配法来实现对文档的汉语自动分词,同时,加强消除歧义方面的处理,分词精度有所提高.  相似文献   

9.
设计实现了一个基于Lucene的全文检索系统模型.在该系统模型中,针对中文分词实现了基于词库的采用正向最大匹配算法的中文分词模块;针对多种格式文档的处理采用接口实现的方式和动态实例化的方法,实现了可以有效地处理txt、xml、html、pdf、doc和rtf等常见格式文档.  相似文献   

10.
针对传统工程图纸查询过分依赖用户、效率低等现象,在分析可视化查询要求和待查询物体属性的基础上,提出了一种用于查询可视化模型的构造方法,并将该方法应用到工程图纸的查询中.通过工程图纸中不同图纸子库的存放地域间的层次关系,构造了基于地图模式的可视化查询系统,同时提出了地图定义和地图查询策略.  相似文献   

11.
12.
对数据库受限汉语自然语言查询语句进行分渊处理.分词算法分为两个部分,第一部分对最大匹配法进行改进,改进的核心思想足体现整句长词优先的原则,改进后的算法能够减少切分歧义;第二部分根据实例数据库的查询需要处理姓名和不稳定的属性值两类未登录词,未登录词的识别对后续句子的理解起着至关重要的作用.  相似文献   

13.
提出了一种新的汉语韵律词预测方法.利用标注过的语料,分析了语法词与韵律词之间的关系,发现24%的韵律词由不同语法词组合而成,语法词的词长是确定韵律词边界的主要特征.基于以上分析,实现了一种基于错误驱动的规则学习算法(TBL)的韵律词预测方法.实验结果表明,所提出的方法在测试集上能够达到97.5%的预测精度.  相似文献   

14.
数据聚类是常用的无监督学习方法,通过词嵌入聚类能够挖掘文本主题,但现有研究大多数采用常规聚类算法挖掘词嵌入的簇类,缺少基于词嵌入特性设计实现词嵌入聚类的主题挖掘算法.该文从语言模型通过建模词间相关信息来使相关及语义相似词的嵌入表示聚集在一起的特点出发,设计词嵌入聚类算法.该算法首先计算中心词的簇类号,然后使该簇中心嵌入和相邻词嵌入的相似性增强,同时使其与负样本词嵌入远离,学习文本集词嵌入的簇类结构,并将其应用于文本主题挖掘.在3种公开数据集上的实验表明:该算法在一些模型的词嵌入结果上能够挖掘出一致性和多样性更好的主题结果.  相似文献   

15.
基于统计的无词典分词方法   总被引:17,自引:0,他引:17       下载免费PDF全文
通过分析词的结合模式,提出无词典分词模型,并对该模型进行实验测试。测试结果表明,无词典分词模型能够满足快速分词的要求。  相似文献   

16.
提出了一种面向情绪分类的融合词内部信息和情绪标签的词向量学习方法。在CBOW模型的基础上,引入词内部成分和情绪标签信息,以适应微博情绪表达的不规范,同时丰富词向量的情绪语义。对于输入文本,按照词的TF-IDF权重对词向量进行加权求和,以作为文本向量表示。以上述词向量或文本向量作为情绪分类器的输入,采用机器学习的分类方法(LR、SVM、CNN),验证本文情绪词向量在情绪分类任务上的实验效果。实验表明,情绪词向量与原始CBOW词向量相比,在准确率、召回率、F值等各项指标上都有更好的表现。  相似文献   

17.
针对基于预训练得到的词向量在低频词语表示质量和稳定性等方面存在的缺陷, 提出一种基于Hownet的词向量表示方法(H-WRL)。首先, 基于义原独立性假设, 将 Hownet中所有N个义原指定为欧式空间的一个标准正交基, 实现Hownet义原向量初始化; 然后, 根据Hownet中词语与义原之间的定义关系, 将词语向量表示视为相关义原所张成的子空间中的投影, 并提出学习词向量表示的深度神经网络模型。实验表明, 基于Hownet的词向量表示在词相似度计算和词义消歧两项标准评测任务中均取得很好的效果。  相似文献   

18.
词义演化的计算方法   总被引:1,自引:1,他引:0  
从大规模真实文本中挖掘词义关系是自然语言学习的一项艰巨任务。词义不是静态、一成不变的,随着时代的发展,词义也在不断变迁。如何从错综复杂的词义变迁中,挖掘词义演化的基本规律,准确发现词义的各种变化,并给出量化的分析和建立数学模型,是一个急待解决的问题。根据词语的上下文搭配词分布情况来定义该词的词义,提出一种基于动态语料库的词义演化计算方法统计词义在23年《人民日报》中的分布信息,计算词义在各个时段的变化值,构造词义的演化曲线,并提出一种基于X2分析的方法来挖掘词语的搭配词与时间之间的相关关系。  相似文献   

19.
提出一种利用规则与统计相结合的方法用于英汉机译系统中以消解语义级歧义 ,建立了一种根据单词之间的词语搭配关系以消除歧义的模型。该模型利用英汉双语语料选择合理的词组语义 ,对有歧义的单词作出标注。在此基础上给出了语义消歧的学习算法 ,并建立了一套有效的提高召回率的消歧算法。算法在英汉机译系统中的实际应用使正确率提高了约 10 % ,效果显著。  相似文献   

20.
提出一种基于词间关联度度量的维吾尔文本自动切分方法。该方法从大规模生语料库中自动获取维吾尔文单词Bi-gram及上下文语境信息, 在充分考虑维吾尔文单词间结合规则的前提下, 将相邻单词间的互信息、t-测试差及双词邻接对熵的线性融合作为组合统计量(dmd), 度量文本中相邻单词之间的关联程度。以dmd度量的弱关联的词间位置作为切分点进行自动切分, 得到语义及结构完整的词串, 而不仅仅是以空格隔开的单词。在大规模文本语料上进行的测试表明, 该方法的切分准确率达到88.21%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号