全文获取类型
收费全文 | 8172篇 |
免费 | 275篇 |
国内免费 | 544篇 |
专业分类
系统科学 | 560篇 |
丛书文集 | 257篇 |
教育与普及 | 47篇 |
理论与方法论 | 27篇 |
现状及发展 | 39篇 |
综合类 | 8061篇 |
出版年
2024年 | 25篇 |
2023年 | 40篇 |
2022年 | 121篇 |
2021年 | 196篇 |
2020年 | 143篇 |
2019年 | 94篇 |
2018年 | 127篇 |
2017年 | 128篇 |
2016年 | 183篇 |
2015年 | 284篇 |
2014年 | 375篇 |
2013年 | 451篇 |
2012年 | 547篇 |
2011年 | 584篇 |
2010年 | 551篇 |
2009年 | 645篇 |
2008年 | 718篇 |
2007年 | 693篇 |
2006年 | 648篇 |
2005年 | 557篇 |
2004年 | 440篇 |
2003年 | 301篇 |
2002年 | 322篇 |
2001年 | 282篇 |
2000年 | 294篇 |
1999年 | 110篇 |
1998年 | 17篇 |
1997年 | 6篇 |
1996年 | 12篇 |
1995年 | 20篇 |
1994年 | 3篇 |
1993年 | 15篇 |
1992年 | 9篇 |
1991年 | 11篇 |
1990年 | 9篇 |
1989年 | 5篇 |
1988年 | 6篇 |
1987年 | 6篇 |
1986年 | 4篇 |
1985年 | 3篇 |
1983年 | 2篇 |
1980年 | 1篇 |
1955年 | 3篇 |
排序方式: 共有8991条查询结果,搜索用时 15 毫秒
21.
论述了数据字典是实现通用插入功能的关键,并描述了利用Grid控件实现通用插入组件的一般方法,着重讲述了依据数据字典动态生成界面,动态消息响应的处理过程,有很大的应用价值。 相似文献
22.
靳运生 《科技情报开发与经济》2007,17(36):247-248
高速公路养护管理中,预防性养护工作的好坏直接影响高速公路的使用,因此,预防性养护越来越被重视。结合运城高速公路侯运段的路面预防性养护的实例,阐述了高速公路预防性养护的具体做法。 相似文献
23.
评估洪水灾情等级的投影寻踪模型 总被引:31,自引:0,他引:31
为检验所订洪水灾情等级标准的合理性 ,解决各单项指标灾情等级评估结果的不相容问题 ,提高灾情等级模型的灾级分辨率 ,提出了一种新的洪水灾情等级模型——投影寻踪 ( PP)模型 ,它的灾级是连续的实数值 .为减少 PP建模的计算量 ,给出了一套建模方案 ,构造了新的投影指标函数 ,并统一用实码加速遗传算法来优化投影指标函数和模型参数 .实例的计算结果表明 ,该方案是有效的和通用的 ,具有广泛的应用前景. 相似文献
24.
根据企业生产管理的需要,创新性地总结出了“工时充值法”,并对工时充值法的指导思想、内容、适用范围、操作程序、意义、实际工作中应注意的问题等进行了诠释和探讨。 相似文献
25.
26.
27.
对晋矮1号×壶瓶枣的离体杂交以及杂交子房和胚珠的离体培养进行了研究.结果表明:附加1.0mg/LIBA的KM8p培养基对枣子房的离体培养较为适宜,ZT对子房的成活具有促进作用,子房的愈伤组织化可减缓子房室内胚珠的败育程度. 相似文献
28.
采用高速相机对水滴撞击水膜的飞溅过程进行了详细测量,分析了水滴撞击水膜的飞溅临界值、二次液滴的直径分布和二次液滴的速率等飞溅特性。结果表明,在实验参数范围内,当韦伯数增大时发生飞溅现象。此外,可以使用量纲为一参数K 来描述飞溅临界值,K=We·Oh-0.4。当K值大于2 100时发生飞溅现象,二次液滴的量纲为一直径和二次液滴的量纲为一速率随着K值的增大而增大。水膜量纲为一厚度对二次液滴直径分布的影响不明显,但由冠状水花产生的二次液滴的平均量纲为一速率随水膜量纲为一厚度的增加而减小。 相似文献
29.
为探究非费克(non-Fickian)运移表现出的峰值提前到达和拖尾等现象,开展了粗糙单裂隙溶质运移试验,总结了粗糙单裂隙中溶质运移特征及运移机理,结合边界层理论对峰值提前到达和拖尾现象进行了分析和解释。结果表明:峰值时间和拖尾时间与边界层厚度之间存在较好的线性相关关系;边界层对裂隙介质溶质运移有较为显著影响,即水流速度越小,边界层厚度越大,滞留在边界层内部的溶质越多,溶质获取率越低;粗糙单裂隙中溶质穿透曲线的峰值提前和拖尾现象是由裂隙中心处以惯性力主导的主流区和裂隙壁面以黏性力主导的边界层区共同作用造成的,其中峰值时间主要由主流区的对流因素控制,而边界层区域的存在对拖尾时间影响较大。 相似文献
30.
深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法在自动驾驶领域中应用广泛,但DDPG算法因采用均匀采样而导致低效率策略比例较高、训练效率低、收敛速度慢等.提出了基于优先级的深度确定性策略梯度(priority-based DDPD,P-DDPG)算法,通过优先级采样代替均匀采样来提升采样利用率、改善探索策略和提高神经网络训练效率,并且提出新的奖励函数作为评价标准.最后,在开源赛车模拟(The Open Racing Car Simulator,TORCS)平台上对P-DDPG算法的性能进行了测试,结果表明相对于DDPG算法,P-DDPG算法的累积奖励在25回合之后就有明显提升而DDPG在100回合之后训练效果才逐渐显现,提升约4倍.P-DDPG算法不仅训练效率提升且收敛速度加快. 相似文献