全文获取类型
收费全文 | 206篇 |
免费 | 6篇 |
国内免费 | 29篇 |
专业分类
系统科学 | 38篇 |
丛书文集 | 9篇 |
理论与方法论 | 3篇 |
现状及发展 | 3篇 |
综合类 | 188篇 |
出版年
2024年 | 1篇 |
2023年 | 6篇 |
2022年 | 4篇 |
2021年 | 5篇 |
2020年 | 7篇 |
2019年 | 3篇 |
2018年 | 3篇 |
2016年 | 4篇 |
2015年 | 8篇 |
2014年 | 12篇 |
2013年 | 7篇 |
2012年 | 11篇 |
2011年 | 10篇 |
2010年 | 10篇 |
2009年 | 6篇 |
2008年 | 8篇 |
2007年 | 17篇 |
2006年 | 19篇 |
2005年 | 20篇 |
2004年 | 7篇 |
2003年 | 9篇 |
2002年 | 15篇 |
2001年 | 8篇 |
2000年 | 5篇 |
1999年 | 7篇 |
1998年 | 3篇 |
1997年 | 3篇 |
1996年 | 5篇 |
1995年 | 3篇 |
1994年 | 2篇 |
1993年 | 2篇 |
1992年 | 4篇 |
1990年 | 1篇 |
1989年 | 2篇 |
1988年 | 1篇 |
1987年 | 1篇 |
1986年 | 2篇 |
排序方式: 共有241条查询结果,搜索用时 15 毫秒
1.
基于相对业绩比较的报酬契约与代理成本分析 总被引:18,自引:0,他引:18
有效的报酬契约是企业所有者激励经营者努力工作的最佳动力,该文在考虑了相对业绩比较信息条件下,运用委托代理理论探讨了将货币收入和享受闲暇作为经营者的激励物的最优报酬契约,分析了非对称信息条件下实施契约的代理成本,得出了经营者利润分享系数与影响因素之间的关系模型以及代理成本与影响因素之间的关系模型,该文还设计了经营者的股票期权激励机制,并地某些企业作了案例分析,文章阐明股票期权激励能够将经营者的长期行为和利益与企业的长期目标结合起来,是调动经营者积极性的有效手段。 相似文献
2.
本文主要讨论了无界报酬向量模型的平稳策略问题,给出了改进平稳策略的方法,建立起向量模型的最优方程,获得平稳策略为强最优策略的充要条件.指出最优平稳策略的期望报酬函数必为极大不动点,最后提出一种寻求最优平稳策略的策略迭代算法. 相似文献
3.
4.
诺贝尔自然科学奖是比较公正的,但政治对科学发展的影响又是现实的。我国之所以未曾问津诺贝尔自然科学奖,在很大程度上是由于政治环境影响了基础研究的学术自由和学术交流。 相似文献
5.
为了保证磁浮列车的安全、可靠运行,研究了悬浮系统在参数摄动条件下的悬浮控制问题。首先,对电磁悬浮(EMS)型磁浮列车的基本悬浮单元建模,给出了电流控制模型;然后,建立了悬浮系统的强化学习环境以及软演员-评论家(SAC)智能体,并设计了加速训练的奖励函数与“吸死”处理方案;最后,提出了基于强化学习的悬浮控制方法。与传统比例-积分-微分(PID)控制方法的对比结果表明,本方法具有更快的动态响应,在损失50%线圈匝数或磁极面积变化时具有更好的跟踪精度。 相似文献
6.
在人工气候室不同温度下测定龙眼角颊木虱的各个虫态及全世代的发育起点温度和有效积温.研究结果表明,在试验温度范围内(18-30℃)龙眼角颊木虱的生命活动能正常进行.发育历期随温度的升高而缩短,随温度的降低而延长;在18℃时从卵发育到成虫需72.76d,在30℃时从卵发育到成虫需31.76d.龙眼角颊木虱室内人工饲养温度以24-30℃范围内发育历期最短,发育速度最快.全世代的理论发育起点温度C为6.966±2.0142(℃),有效积温K为770.224土88.2071(日度).根据在福州全年大于发育起点温度的有效积温约为4550日·度;计算出龙眼角颊木虱在福州地区一年发生的理论代数为5.91代,这与田间实际发生代数6代基本吻合.为龙眼角颊木虱在福州地区发生提供了预测依据,为化学防治发挥重要的指导作用. 相似文献
7.
郑惠芸 《科技情报开发与经济》2004,14(8):159-160
直齿锥齿轮的齿圈径向跳动是重要的检验项目,是影响齿距累积误差和齿距误差的重要因素。介绍了齿圈径向跳动出现的几种情况,探讨了齿距累积误差以及齿距误差的影响因素及调整方法。 相似文献
8.
从资源链与环境累积负荷的关系出发,阐述了资源链环境累积成本的构成,即资源能源消耗成本、环境污染成本和废弃物回收、再利用成本,并在此基础上探讨了其成本计算原理及资源链环境累积成本在社会环境管理中的意义.其创新之处在于首次提出了资源链环境累积成本的概念及计算,进一步丰富了环境成本理论研究的内容. 相似文献
9.
通过对原ETLBO(elitist teaching learning based optimization)算法引入一种新的奖励机制, 提出一种新的结合奖励机制的ETLBO-reward算法, 并基于该算法提出一种简单自适应的精英个数算法RETLBO reward, 该算法保留了传统算法参数少、 易实现、 收敛快等优点, 进一步提升了传统算法的收敛能力. 对6个连续非线性优化问题的测试结果表明, 这两种算法均具有良好的性能, 求解效率较原ETLBO算法有明显提升. 相似文献
10.
为了提高移动机器人在复杂环境下的无先验地图导航算法模型训练速度及导航成功率,提出一种基于深度确定性策略梯度(deep deterministic policy gradient, DDPG)的移动机器人导航方法。利用2D激光雷达的均匀分布测距信息,降低环境噪声的干扰及高维度环境信息的计算量;采用人工势场法构建移动机器人从初始位置到目标点过程的奖励函数;通过Actor-Critic网络结构提高模型训练的稳定性和泛化能力。实验结果表明,提出的方法具有模型训练速度快、导航成功率高及泛化能力强等优点。 相似文献