全文获取类型
收费全文 | 8151篇 |
免费 | 291篇 |
国内免费 | 526篇 |
专业分类
系统科学 | 562篇 |
丛书文集 | 256篇 |
教育与普及 | 47篇 |
理论与方法论 | 27篇 |
现状及发展 | 39篇 |
综合类 | 8037篇 |
出版年
2024年 | 12篇 |
2023年 | 40篇 |
2022年 | 120篇 |
2021年 | 192篇 |
2020年 | 142篇 |
2019年 | 95篇 |
2018年 | 126篇 |
2017年 | 126篇 |
2016年 | 181篇 |
2015年 | 281篇 |
2014年 | 371篇 |
2013年 | 451篇 |
2012年 | 545篇 |
2011年 | 583篇 |
2010年 | 550篇 |
2009年 | 642篇 |
2008年 | 713篇 |
2007年 | 693篇 |
2006年 | 650篇 |
2005年 | 558篇 |
2004年 | 437篇 |
2003年 | 301篇 |
2002年 | 321篇 |
2001年 | 282篇 |
2000年 | 294篇 |
1999年 | 112篇 |
1998年 | 19篇 |
1997年 | 10篇 |
1996年 | 15篇 |
1995年 | 23篇 |
1994年 | 5篇 |
1993年 | 15篇 |
1992年 | 9篇 |
1991年 | 15篇 |
1990年 | 9篇 |
1989年 | 5篇 |
1988年 | 6篇 |
1987年 | 6篇 |
1986年 | 4篇 |
1985年 | 3篇 |
1983年 | 2篇 |
1980年 | 1篇 |
1955年 | 3篇 |
排序方式: 共有8968条查询结果,搜索用时 15 毫秒
51.
52.
数据包络模型的随机性研究 总被引:6,自引:2,他引:4
利用最小绝对误差估计和机会约束规划,本文研究了数据包络模型中的随机性问题,建立了一系列线性与非线性规划的数据包络模型。并对模型解的存在和鲁棒性作了讨论。 相似文献
53.
根据企业生产管理的需要,创新性地总结出了“工时充值法”,并对工时充值法的指导思想、内容、适用范围、操作程序、意义、实际工作中应注意的问题等进行了诠释和探讨。 相似文献
54.
55.
首次将液芯波导技术应用于中红外吸收测量的油成分分析领域, 研制的新型MFA-450型红外测油仪的灵敏度比现有同类型仪器提高一个数量级, 检出限为0.01 mg/L(油/萃取剂). 相似文献
56.
57.
对晋矮1号×壶瓶枣的离体杂交以及杂交子房和胚珠的离体培养进行了研究.结果表明:附加1.0mg/LIBA的KM8p培养基对枣子房的离体培养较为适宜,ZT对子房的成活具有促进作用,子房的愈伤组织化可减缓子房室内胚珠的败育程度. 相似文献
58.
采用高速相机对水滴撞击水膜的飞溅过程进行了详细测量,分析了水滴撞击水膜的飞溅临界值、二次液滴的直径分布和二次液滴的速率等飞溅特性。结果表明,在实验参数范围内,当韦伯数增大时发生飞溅现象。此外,可以使用量纲为一参数K 来描述飞溅临界值,K=We·Oh-0.4。当K值大于2 100时发生飞溅现象,二次液滴的量纲为一直径和二次液滴的量纲为一速率随着K值的增大而增大。水膜量纲为一厚度对二次液滴直径分布的影响不明显,但由冠状水花产生的二次液滴的平均量纲为一速率随水膜量纲为一厚度的增加而减小。 相似文献
59.
为探究非费克(non-Fickian)运移表现出的峰值提前到达和拖尾等现象,开展了粗糙单裂隙溶质运移试验,总结了粗糙单裂隙中溶质运移特征及运移机理,结合边界层理论对峰值提前到达和拖尾现象进行了分析和解释。结果表明:峰值时间和拖尾时间与边界层厚度之间存在较好的线性相关关系;边界层对裂隙介质溶质运移有较为显著影响,即水流速度越小,边界层厚度越大,滞留在边界层内部的溶质越多,溶质获取率越低;粗糙单裂隙中溶质穿透曲线的峰值提前和拖尾现象是由裂隙中心处以惯性力主导的主流区和裂隙壁面以黏性力主导的边界层区共同作用造成的,其中峰值时间主要由主流区的对流因素控制,而边界层区域的存在对拖尾时间影响较大。 相似文献
60.
深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法在自动驾驶领域中应用广泛,但DDPG算法因采用均匀采样而导致低效率策略比例较高、训练效率低、收敛速度慢等.提出了基于优先级的深度确定性策略梯度(priority-based DDPD,P-DDPG)算法,通过优先级采样代替均匀采样来提升采样利用率、改善探索策略和提高神经网络训练效率,并且提出新的奖励函数作为评价标准.最后,在开源赛车模拟(The Open Racing Car Simulator,TORCS)平台上对P-DDPG算法的性能进行了测试,结果表明相对于DDPG算法,P-DDPG算法的累积奖励在25回合之后就有明显提升而DDPG在100回合之后训练效果才逐渐显现,提升约4倍.P-DDPG算法不仅训练效率提升且收敛速度加快. 相似文献