全文获取类型
收费全文 | 15776篇 |
免费 | 352篇 |
国内免费 | 703篇 |
专业分类
系统科学 | 507篇 |
丛书文集 | 538篇 |
教育与普及 | 690篇 |
理论与方法论 | 56篇 |
现状及发展 | 72篇 |
研究方法 | 59篇 |
综合类 | 14908篇 |
自然研究 | 1篇 |
出版年
2024年 | 122篇 |
2023年 | 206篇 |
2022年 | 318篇 |
2021年 | 352篇 |
2020年 | 177篇 |
2019年 | 82篇 |
2018年 | 132篇 |
2017年 | 169篇 |
2016年 | 208篇 |
2015年 | 404篇 |
2014年 | 544篇 |
2013年 | 473篇 |
2012年 | 550篇 |
2011年 | 608篇 |
2010年 | 642篇 |
2009年 | 707篇 |
2008年 | 799篇 |
2007年 | 719篇 |
2006年 | 546篇 |
2005年 | 564篇 |
2004年 | 419篇 |
2003年 | 425篇 |
2002年 | 474篇 |
2001年 | 434篇 |
2000年 | 500篇 |
1999年 | 802篇 |
1998年 | 679篇 |
1997年 | 744篇 |
1996年 | 623篇 |
1995年 | 595篇 |
1994年 | 570篇 |
1993年 | 448篇 |
1992年 | 404篇 |
1991年 | 355篇 |
1990年 | 330篇 |
1989年 | 282篇 |
1988年 | 215篇 |
1987年 | 105篇 |
1986年 | 71篇 |
1985年 | 26篇 |
1984年 | 4篇 |
1983年 | 1篇 |
1982年 | 1篇 |
1981年 | 1篇 |
1980年 | 1篇 |
排序方式: 共有10000条查询结果,搜索用时 10 毫秒
51.
以多源大数据为基础构建模型,分析全国34个典型城市因疫情导致的人口迁徙变化和人力缺口,并通过迁徙基数推算其他各城市的复工强度。仿真结果证明SEIR仓室模型能够较好地模拟此次疫情发展趋势,利用其估计各城市内部新型冠状病毒感染肺炎的基本再生数,结合人力缺口对复工强度进行回顾性的矩阵分析,以总结我国此次抗疫经验。相关性分析阶段对K-means无监督聚类后的城市集群进行回归分析,结果表明对于大部分城市而言,复工强度的大小与其人力缺口、基本再生数以及人均GDP水平有明显的相关关系。 相似文献
52.
53.
化工园区的生产活动对周围的大气环境和居民健康构成了巨大威胁,需要园区管理团队对化学生产过程和气体排放进行严格监管以保证空气质量,对各化工厂进行巡逻是一种有效的方法。基于博弈论研究多辆巡逻车的合作巡逻策略,提出了贪婪部署算法确定巡逻车的初始部署,采取静态分区的合作方法将化工园区划分成多个小区域,在化工厂和巡逻车之间构建巡逻博弈模型,通过MultiLPs算法计算得到博弈的Stackelberg均衡解。选取Antwerp化工园区进行案例研究,结果表明巡逻车可以将收益提高8.08%~35.24%。 相似文献
54.
The discrete-time model of plague is deduced by zero-order holder based on the continuoustime model. Due to the existence of stochastic disturbances, the stochastic model is given corresponding to the discrete-time model. The state estimation and noise reduction of the stochastic model are achieved by designing Kalman filter. Nuclear norm minimization is to structure the low-rank matrix approximation instead of the singular value decomposition in the process of subspace system identification. According to the plague data from the World Health Organization, the system matrices and noise intensity of the model are identified. Simulations are carried out to show the higher approximation capability of the proposed method. 相似文献
55.
一种基于最小熵准则的SAR图像自聚焦算法 总被引:11,自引:2,他引:11
研究了一种新颖的SAR图像自聚焦算法。该方法从复图像域出发 ,利用最小熵准则盲解卷积原理 ,通过多维搜索完成相位误差校正。同相位梯度自聚焦算法相比 ,最小熵算法无需在图像域分离出强点目标 ,因而特别适用于无任何明显特征的图像。仿真及实测数据处理结果证明了该方法的有效性 相似文献
56.
用还原论与整体论相结合的方法探索复杂性 总被引:2,自引:0,他引:2
科学研究方法论从古至今经历了一个超越还原论、发展整体论、实现还原论与整体论辩证统一的演化过程。实现还原论与整体论的辩证统一是有坚实的哲学依据与客观基础的;实现还原论与整体论的辩证统一,体现在认识过程中,就是从具体到抽象、再从抽象到具体的分析与综合交织互动的辩证思维途径。 相似文献
57.
系统方法论研究的现状分析与展望 总被引:4,自引:0,他引:4
对目前系统方法论的研究进行分类:硬系统方法论、软系统方法论和批评性系统方法论,分析了不同系统方法的哲学思想、方法步骤及其局限性,探讨了未来系统方法论发展的形式。 相似文献
58.
Impulsive controller design for nonlinear networked control systems with time delay and packet dropouts 下载免费PDF全文
The globally exponential stability of nonlinear impulsive networked control systems(NINCS) with time delay and packet dropouts is investigated.By applying Lyapunov function theory,sufficient conditions on the global exponential stability are derived by introducing a comparison system and estimating the corresponding Cauchy matrix.An impulsive controller is explicitly designed to achieve exponential stability and ensure state converge with a given decay rate for the system.The Lorenz oscillator system is presented as a numerical example to illustrate the theoretical results and effectiveness of the proposed controller design procedure. 相似文献
59.
This paper develops the large sample properties of the solutions of the general estimating equations which are unbiased or asymptotically unbiased or with nuisance parameters for correlated data.The authors do not make the assumption that the estimating equations come from some objective function when we establish the large sample properties of the solutions.So these results extend the work of Newey and McFadden(1994) and are more widely applicable.Furthermore,we provide some examples to justify the importance of our work. 相似文献
60.
This paper gives a theoretical analysis for the algorithms to compute functional decomposition for multivariate polynomials based on differentiation and homogenization which were proposed by Ye,Dai,and Lam(1999) and were developed by Faugere,Perret(2006,2008,2009).The authors show that a degree proper functional decomposition for a set of randomly decomposable quartic homogenous polynomials can be computed using the algorithm with high probability.This solves a conjecture proposed by Ye,Dai,and Lam(1999).The authors also propose a conjecture which asserts that the decomposition for a set of polynomials can be computed from that of its homogenization and show that the conjecture is valid with high probability for quartic polynomials.Finally,the authors prove that the right decomposition factors for a set of polynomials can be computed from its right decomposition factor space. 相似文献