全文获取类型
收费全文 | 1089篇 |
免费 | 51篇 |
国内免费 | 56篇 |
专业分类
系统科学 | 51篇 |
丛书文集 | 24篇 |
教育与普及 | 5篇 |
理论与方法论 | 26篇 |
现状及发展 | 9篇 |
综合类 | 1081篇 |
出版年
2024年 | 3篇 |
2023年 | 14篇 |
2022年 | 26篇 |
2021年 | 23篇 |
2020年 | 17篇 |
2019年 | 21篇 |
2018年 | 23篇 |
2017年 | 12篇 |
2016年 | 23篇 |
2015年 | 23篇 |
2014年 | 60篇 |
2013年 | 43篇 |
2012年 | 72篇 |
2011年 | 84篇 |
2010年 | 77篇 |
2009年 | 81篇 |
2008年 | 92篇 |
2007年 | 102篇 |
2006年 | 104篇 |
2005年 | 74篇 |
2004年 | 51篇 |
2003年 | 38篇 |
2002年 | 27篇 |
2001年 | 20篇 |
2000年 | 20篇 |
1999年 | 14篇 |
1998年 | 10篇 |
1997年 | 7篇 |
1996年 | 8篇 |
1995年 | 6篇 |
1994年 | 2篇 |
1993年 | 3篇 |
1992年 | 5篇 |
1991年 | 2篇 |
1990年 | 4篇 |
1989年 | 1篇 |
1987年 | 3篇 |
1985年 | 1篇 |
排序方式: 共有1196条查询结果,搜索用时 31 毫秒
1.
提出了一种基于生成对抗网络的语义分割模型,包括一个全卷积语义分割网络以及一个判别网络,其中语义分割网络负责生成与输入图像对应的语义分割图,判别网络负责检测分割图与真实标签的区别,以促使分割网络改进分割效果。为了更好的提取全局结构信息,语义分割网络中采用了金字塔池化模块,对不同规模的空间区域进行池化操作。另外,为了应对语义分割训练数据集人工标注成本过高的问题,利用判别网络生成伪标签协助语义分割网络进行训练,从而实现了半监督训练效果。模型在PASCAL VOC2012数据集中进行了测试,结果表明该模型在全监督和半监督条件下均优于已有方法。 相似文献
2.
语义关联度计算是数据科学中的一个关键性基础问题,在信息检索及自然语言处理等方面有着广泛的应用.针对ESA (Explicit Semantic Analysis)算法存在的局限性,提出一种显式语义特征选择算法,并构建低维语义空间.在此基础上,根据特征概念在Wikipedia中的映射信息,提出一种低维显式语义空间下的语义关联度计算方法.该方法解决了ESA算法在后续语义关联度计算过程中,因高维稀疏空间导致计算效果不够准确的问题.实验结果表明,与当前其他方法相比,该方法的计算结果在皮尔逊相关系数(P)及斯皮尔曼相关系数(S)上与人们的认知判断之间具有更好的一致性. 相似文献
3.
针对传统运动轨迹相似性分析利用时空信息效率不高问题,结合通信辐射源主体特点,提出基于时空和语义信息的辐射源轨迹相似性分析算法。在该算法中,对相似运动轨迹距离测度进行改进,提出基于马氏距离的轨迹时空相似度算法,将轨迹分割后计算相似度,克服了时间不匹配轨迹和不同采样间隔对轨迹相似性判断的影响;同时,结合基于高效K近邻(K-nearest neighbor, KNN)相似搜索的语义相似数据搜索算法,实现对辐射源相似轨迹的准确判断。该算法能够准确判断相似轨迹,优于现有的相似轨迹判断方法,且适应噪声环境。仿真实验结果验证了该算法的性能。 相似文献
4.
5.
韩国语中存在着各种各样的因果复句,以口语和书面语中使用频率极高的""四种因果复句作为研究对象,通过21世纪世宗计划语料库中的具体实例来考查分析它们的语义及句法特征,对于韩国语复句教学及韩国语学习者学习并运用韩国语因果复句,能够提供一个良好的理论基础和参考依据。 相似文献
6.
提出一种基于语义关联性特征融合的大数据挖掘算法.对云存储大数据分布式信息流进行高维相空间重构,在重构的相空间中提取大数据的语义关联维特征量,以提取的特征量为测试集进行自适应学习训练.采用模糊C均值算法进行大数据语义关联特征的稀疏性融合和聚类处理,在聚类中心实现对挖掘目标数据的指向性聚敛,输出数据挖掘结果,并采用特征压缩器进行降维处理,降低计算开销.仿真结果表明,采用该方法进行大数据挖掘的特征提取准确性较好,挖掘数据的聚类能力较强,在实时性和准确性方面具有优势. 相似文献
7.
针对基于关键词字符匹配和粗粒度情感分析方法的传统不良信息检测方法准确率低的问题,提出一种基于短语级情感分析的不良信息检测方法.该方法制定语法规则来提取敏感词所在短语,结合二次分类的情感词典,通过分析短语的情感倾向来判断表达者对敏感关键词的情感倾向,从而判定内容的敏感性.本文方法克服了字符串匹配方法的缺点,如:传统的字符串匹配方法忽视敏感词上下文,从而导致大量误报的缺点,及粗粒度情感分析方法由于无法准确定位情感对象,只能以文本整体情感倾向代表表达者主观情感,导致不能精准分析与敏感词相关的情感倾向及敏感性.实验表明,本文方法与传统方法相比,准确率有较大的提升. 相似文献
8.
针对由于传统的源代码缺陷分析技术依赖于分析人员的对安全问题的认识以及长期经验积累造成的缺陷检测误报率、漏报率较高的问题,提出了一种深度学习算法源代码缺陷检测方法.该方法根据深度学习算法,利用程序源代码的抽象语法树、数据流特征,通过训练源代码缺陷分类器完成源代码缺陷检测工作.其依据的关键理论是应用深度学习算法及自然语言处理中的词嵌套算法学习源代码抽象语法树和数据流中蕴含的深层次语义特征和语法特征,提出了应用于源代码缺陷检测的深度学习一般框架.使用公开数据集SARD对提出的方法进行验证,研究结果表明该方法在代码缺陷检测的准确率、召回率、误报率和漏报率方面均优于现有的检测方法. 相似文献
9.
随着电力企业信息化进程的不断推进,大量信息管理系统被应用于各种业务中,造成这些系统间存在异构数据,难以共享,甚至还存在各种语义冲突,影响数据的挖掘和分析.为此,提出了一种利用本体技术对电力企业内部的异构数据源进行融合的综合查询机制,可以有效解决电力企业内部数据源的语法和语义异构问题,把来自于各部门的多个数据源进行整合,为数据分析系统提供统一的数据查询接口.实验表明,该机制能够有效消解异构数据源之间的语义冲突,为数据集成提供基础. 相似文献
10.
南北 《厦门理工学院学报》2014,(2):64-68
从语义角度看,汉语的大多数动量词都源于"行走"义动词。汉语动量词的形成大多经历了"行走"到"频次"的转化过程,而这个转化过程大致经历了"功能扩展"和"代入"两个阶段,"转喻"则是促使"行走"义动词演变为动量词的直接原因。 相似文献