全文获取类型
收费全文 | 59522篇 |
免费 | 1170篇 |
国内免费 | 2494篇 |
专业分类
系统科学 | 2909篇 |
丛书文集 | 2903篇 |
教育与普及 | 1454篇 |
理论与方法论 | 769篇 |
现状及发展 | 260篇 |
研究方法 | 1篇 |
综合类 | 54890篇 |
出版年
2024年 | 251篇 |
2023年 | 902篇 |
2022年 | 985篇 |
2021年 | 1151篇 |
2020年 | 965篇 |
2019年 | 841篇 |
2018年 | 509篇 |
2017年 | 698篇 |
2016年 | 883篇 |
2015年 | 1492篇 |
2014年 | 3120篇 |
2013年 | 2821篇 |
2012年 | 3346篇 |
2011年 | 4078篇 |
2010年 | 3829篇 |
2009年 | 4386篇 |
2008年 | 5418篇 |
2007年 | 4161篇 |
2006年 | 3009篇 |
2005年 | 2951篇 |
2004年 | 2473篇 |
2003年 | 2809篇 |
2002年 | 2720篇 |
2001年 | 2104篇 |
2000年 | 1424篇 |
1999年 | 1011篇 |
1998年 | 815篇 |
1997年 | 677篇 |
1996年 | 570篇 |
1995年 | 515篇 |
1994年 | 432篇 |
1993年 | 314篇 |
1992年 | 309篇 |
1991年 | 238篇 |
1990年 | 240篇 |
1989年 | 267篇 |
1988年 | 193篇 |
1987年 | 121篇 |
1986年 | 78篇 |
1985年 | 16篇 |
1984年 | 10篇 |
1983年 | 11篇 |
1982年 | 4篇 |
1981年 | 9篇 |
1980年 | 11篇 |
1978年 | 2篇 |
1965年 | 2篇 |
1958年 | 3篇 |
1957年 | 9篇 |
1943年 | 2篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
21.
巨灾风险大数据处理应急分类、分解、分拣算法与应用 总被引:1,自引:0,他引:1
庞素琳 《系统工程理论与实践》2015,35(3):743-750
本文主要研究巨灾风险大数据处理的应急分类、分解、分拣算法,给出了相应的算法原理和可操作的步骤.首先根据巨灾风险大数据灾害规模巨大的特征,提出了一种用来解决巨灾风险大数据中一级事件的应急分类与二级事件及以下更低级事件的应急分解算法,并以特大地震灾害作为实例进行了算法应用.接着定义了事故灾难度,用来对巨灾风险大数据处理过程中,对各种级别的事故灾难后果进行不同的数字标识.然后提出一种用来解决巨灾风险中大数据快速处理的应急分拣算法,并在汶川地震中大规模灾害的应急救援计划中进行应用.经过采用这样的应急分拣原理,就可以在面对巨灾风险大数据的复杂、繁多和零乱的重灾事件状态下,使整个应急救援方案优化,并能够有条不紊地进行救援. 相似文献
22.
23.
文本标签作为一种文本关键词,能够简化科技政策中有效信息的挖掘。本文从科技政策类别角度,将标签类别分为科技投入、知识产权、农村科技和税收四类,针对传统SVM算法的缺点和标签数据不平衡的缺点,结合欧式距离思想,提出一种带有惩罚因子的ESVM科技政策文本标签分类方法。最后,对比SVM和ESVM两种分类方法,验证了本文方法在处理科技政策文本标签数据上的有效性。 相似文献
24.
主要工作集中在医疗数据的预处理和神经网络模型的训练.首先结合数据挖掘和自然语言处理技术,在保留医疗数据语义基础上对分词工具语料库进行补充,将中文数据分词,同时对其中大量冗余信息进行清洗,将中文数据转换成计算机可识别的编码,其次利用多种经典热门的神经网络模型来训练医疗数据,同时对比基于传统决策树模型的GBDT模型的训练结果,最后实验结果证明,对于多种疾病诊断,神经网络模型的效果要优于其他模型,诊断准确率接近90%. 相似文献
25.
传统的准备金模型主要是通过加总个体数据得到聚合损失三角形数据建立的,然而,这种数据的加总对原始个体数据产生不可避免的信息浪费.虽然这种方法简单,但可导致准备金估计的较大偏差.近年来提出的个体数据准备金模型中大都没有考虑保单合同之间的相依性.本文假设相同事故年的保单产生的索赔具有某种共同效应导致的相依情形,通过建立个体数据准备金的分层贝叶斯模型,利用信度理论的思想,得到每个事故年的准备金估计,从而得到总准备金的估计.进而,讨论了发展因子和结构参数的估计及其相应的统计性质.最后,给出数值例子表明本文给出的准备金估计的计算方法,并且比较了个体数据和聚合数据下准备金估计的均方误差. 相似文献
26.
基于脉冲描述字进行雷达信号分选时,传统聚类算法需要预先人工设定聚类中心和聚类数目。针对该问题,提出一种基于数据场理论联合脉冲重复间隔(pulse repetition interval,PRI)变换与聚类的雷达信号分选新方法。首先,依据数据场理论,基于势值大小实现干扰点剔除,而后利用PRI变换算法进行PRI估计,依据PRI估计值将归一化脉冲描述字数据预分类,进而以各类数据集中心间的欧氏距离小于辐射因子为准则进行类别合并,自动得到初始聚类中心和聚类数目,最后通过改进K-Means算法完成聚类分选。仿真实验表明:所提方法能够应对存在频率捷变,重频参差、抖动、参数交叠、局部脉冲丢失的复杂信号环境,分选正确率明显提升。 相似文献
27.
28.
通过实例说明相关文献中加型一致性模糊判断矩阵排序方法的参数取值存在的问题,分析出该问题是由于其公式证明中没有区分标度导致的,指出其结论适用于0~1标度的加型一致性模糊判断矩阵.然后,重新证明了0.1~0.9标度下的加型一致性模糊判决矩阵的排序方法和相关结论.最后,定义了广义模糊标度,并给出广义模糊标度下加型一致性模糊判断矩阵的排序方法和相关结论,使得相关文献中排序方法和相关结论实现形式上的统一. 相似文献
29.
春节模型的参数设定目前更多依赖于研究者的主观判断.为解决这一问题,本文首先介绍了春节因素调整的一般过程以及模型设定和检验的相关细节.在此基础上,提出一种基于"循环遍历"方式和序贯检验方法来自动选择春节模型的最优参数组合的新思路.并以社会消费品零售总额月度序列的春节模型的最优效应期长度识别为例,检验该方法的可行性和有效性.实证结果显示,基于季节峰值、离群值点、Q统计量、AICC值和BIC值等统计量的序贯检验能够有效识别出春节模型的最优效应期长度,进而改善春节模型的季节调整性能. 相似文献
30.
针对我国股市噪声交易能量较大、行业指数同步性较高的特点,提出改进的EMD(empirical mode decomposition,经验模态分解)去噪方法对行业数据进行处理,进而采用BEKK-GARCH模型分析金融危机前、金融危机期间、金融危机后三个阶段行业间波动溢出效应.研究表明,在降低股价同步性方面,改进的EMD去噪方法效果更佳;行业间波动溢出效应在金融危机期间显著上升,金融危机后回落;较之金融危机前,金融危机后传统制造业受产业链上游的波动溢出效应有所降低、受科研的波动溢出效应有增强的趋势. 相似文献