全文获取类型
收费全文 | 7831篇 |
免费 | 241篇 |
国内免费 | 1077篇 |
专业分类
系统科学 | 1991篇 |
丛书文集 | 267篇 |
教育与普及 | 75篇 |
理论与方法论 | 92篇 |
现状及发展 | 35篇 |
综合类 | 6689篇 |
出版年
2024年 | 63篇 |
2023年 | 178篇 |
2022年 | 181篇 |
2021年 | 258篇 |
2020年 | 186篇 |
2019年 | 178篇 |
2018年 | 112篇 |
2017年 | 136篇 |
2016年 | 133篇 |
2015年 | 227篇 |
2014年 | 420篇 |
2013年 | 338篇 |
2012年 | 432篇 |
2011年 | 468篇 |
2010年 | 452篇 |
2009年 | 522篇 |
2008年 | 630篇 |
2007年 | 559篇 |
2006年 | 431篇 |
2005年 | 381篇 |
2004年 | 382篇 |
2003年 | 320篇 |
2002年 | 321篇 |
2001年 | 280篇 |
2000年 | 218篇 |
1999年 | 190篇 |
1998年 | 185篇 |
1997年 | 155篇 |
1996年 | 147篇 |
1995年 | 135篇 |
1994年 | 143篇 |
1993年 | 91篇 |
1992年 | 69篇 |
1991年 | 52篇 |
1990年 | 57篇 |
1989年 | 60篇 |
1988年 | 28篇 |
1987年 | 19篇 |
1986年 | 9篇 |
1985年 | 1篇 |
1981年 | 2篇 |
排序方式: 共有9149条查询结果,搜索用时 15 毫秒
891.
- 《东北大学学报(自然科学版)》2002,23(10):922
短纤维夹层对Ⅰ型层间断裂韧性的影响李英梅 ,刘 军 ,黄宝宗考虑短纤维在层间杂乱分布特点 ,基于基体剥落和纤维拉出耦合 ,建立了层间短纤维夹层的桥联增韧模型 ,用于分层韧度增量ΔGIC的预报 ,讨论了短纤维长度和模量的影响·计算结果表明 ,当碳纤维 /树脂层板在层间加入少量的Kevlar短纤维时 ,层间裂纹张开位移导致短纤维从基体中剥离 ,在纤维中引起的张力产生桥联力并使纤维拉出 ,在纤维间相互干扰下 ,拉出过程中产生的能量耗散使层间断裂韧性明显提高·算例指出 ,中等界面摩擦、较长的纤维长度和较高的模量有利于提高ΔGIC… 相似文献
892.
鲁瑞华 《西南师范大学学报(自然科学版)》1996,21(6):575-578
在输入信号线性独立反模拟滤波器有限集的基础上获得了维纳滤波器的权重函数;提出了多项反函数情况下估计数字滤波器的有效结果。 相似文献
893.
AHP中的标权转换方法 总被引:2,自引:0,他引:2
在AHP评价方法中,采用不同的比例标度会有不同的权向量,把不同的权向量用于实际评价中会有不同的评价结论本文针对这一问题提出了求指标权的转换方法,它可有效地消除由于采用不同比例标度可即使采用同一比例标度所产生的权偏离对评价结论的影响。 相似文献
894.
895.
Thomas L. SAATY 《系统科学与系统工程学报(英文版)》2004,13(4):385-404
1. Introduction This is the fourth exposition on theAnalytic Hierarchy Process. It is true thatmany decisions we make subconsciously ariseout of our physical and biological needs andderive from the pressure to survive physically.We also make subconsciou… 相似文献
896.
王进 《湖北三峡学院学报》2004,26(6):67-70
中国共产党在50多年的执政过程中,逐步深化了对三大规律的认识,科学判断我国社会主义所处的发展阶段;做出经济、政治、文化和社会全面发展的决策;不断改革和完善党的领导方式和执政方式,不断加强共产党自身的建设,丰富和发展了马克思主义,提高了自身的执政水平。 相似文献
897.
本刊编辑部 《科技导报(北京)》2005,23(12):19-19
为了肯定广大科技工作者踊跃参与促进国家科技进步、社会经济发展决策咨询活动,进一步激励其继续献计献策的热情,中国科学技术协会于1990年设立了“中国科协优秀建议奖”,以表彰和奖励从中国科协系统组织的各种活动中产生或通过中国科协系统有关渠道报送的,已被各级党组织、政府或有关部门采纳实施并已产生明显的经济效益或广泛的社会效益的优秀建议。 相似文献
898.
899.
900.
In multiagent reinforcement learning, with different assumptions of the opponents' policies, an agent adopts quite different learning rules, and gets different learning performances. We prove that, in multiagent domains, convergence of the Q values is guaranteed only when an agent behaves optimally and its opponents' strategies satisfy certain conditions, and an agent can get best learning performances when it adopts the same learning algorithm as that of its opponents. 相似文献