首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   11845篇
  免费   218篇
  国内免费   953篇
系统科学   1268篇
丛书文集   502篇
教育与普及   204篇
理论与方法论   189篇
现状及发展   50篇
综合类   10803篇
  2024年   83篇
  2023年   323篇
  2022年   292篇
  2021年   353篇
  2020年   283篇
  2019年   247篇
  2018年   139篇
  2017年   210篇
  2016年   210篇
  2015年   418篇
  2014年   726篇
  2013年   688篇
  2012年   823篇
  2011年   885篇
  2010年   804篇
  2009年   947篇
  2008年   1014篇
  2007年   954篇
  2006年   693篇
  2005年   510篇
  2004年   471篇
  2003年   415篇
  2002年   346篇
  2001年   259篇
  2000年   191篇
  1999年   145篇
  1998年   119篇
  1997年   75篇
  1996年   66篇
  1995年   56篇
  1994年   62篇
  1993年   38篇
  1992年   38篇
  1991年   28篇
  1990年   21篇
  1989年   24篇
  1988年   23篇
  1987年   7篇
  1986年   13篇
  1985年   3篇
  1981年   12篇
  1980年   1篇
  1978年   1篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
1.
在市场需求不确定的情况下,利用条件风险估值(CVaR)准则描述零售商的风险规避度对供应链收益的影响,并建立信息共享模型,研究零售商的风险规避度与信息共享价值之间的关系.结果表明,市场需求不确定的情况下,信息共享价值与零售商的风险规避度以及获取得市场信息量有关.数值分析显示,零售商的风险规避度越大,信息共享价值越高;市场需求越不确定,信息共享带来的价值越高.  相似文献   
2.
针对网络评论中普遍存在的负面评论较少而影响力却较大的类不平衡问题, 提出一种基于类不平衡学习的情感分析方法. 该方法利用深度学习训练过程中的概率输出, 以计算样例的信息熵作为影响因子构建交叉信息熵损失函数. 在IMDB公开数据集上进行实验验证的结果表明, 基于集成信息熵损失函数的双向长短期记忆网络能处理类不平衡问题; 对数据的统计分析结果表明, 该策略能提升基于双向长短期记忆网络的评论情感极性分类性能. 针对AUC(area under curve)指标, 使用集成信息熵损失函数的双向长短期记忆网络模型比未考虑类不平衡的深度学习模型在中位数上最多提升15.3%.  相似文献   
3.
效用最大化问题是经济学和金融学中的最重要和最基本的问题之一.经典的von NeumannMorgenstern期望效用模型在实践中都受到诸多挑战.Yaari对偶效用理论是重要的非期望效用模型之一.本文研究完全金融市场中的Yaari对偶效用最大化问题.前人在某种单调性条件下得到了该问题最优解的显式刻画.而在本文中,无需任何单调性条件,我们得到了最优解的显式刻画.  相似文献   
4.
与美国的"影子银行"不同,我国的"影子银行"是在2008-2010年间的爆发式增长,这是政府连续施行紧缩与宽松相结合的货币政策所导致的结果。美国"影子银行"的发展结果给我国金融业上了重要的一课,即我国金融业的发展应循序渐进地进行金融产品创新,同时注重金融风险防范,监管机构应对金融机构及金融活动实施全面监管。  相似文献   
5.
风险评估一直是银行客户管理方面最为关注的一个方面,关于它的研究也一直是金融领域的一个热点。云计算采用了一种资源共享的IT技术和管理方式,提供了一种更高效的数据存储能力和挖掘能力,面对这一新兴技术的发展,金融行业在客户管理领域面临革命性的改变,传统的商业银行客户分析模式将向大数据接轨。其中,云计算模式能够快速的识别细分客户,方便获取和采集客户的信息,从而更好地评估客户价值。该文针对这一现状,从银行客户风险的角度出发,探究海量数据挖掘的情况下云计算评估模式的优势以及应用框架。  相似文献   
6.
考虑了线性回归模型中,在Fisherian和Mahalanobis损失函数下,几乎无偏刘估计对于最小二乘估计的不可容许性;结论表明:几乎无偏刘估计在Mahalanobis损失函数下是不可容的;最后进行了数值模拟来表明结果.  相似文献   
7.
巨灾风险大数据处理应急分类、分解、分拣算法与应用   总被引:1,自引:0,他引:1  
本文主要研究巨灾风险大数据处理的应急分类、分解、分拣算法,给出了相应的算法原理和可操作的步骤.首先根据巨灾风险大数据灾害规模巨大的特征,提出了一种用来解决巨灾风险大数据中一级事件的应急分类与二级事件及以下更低级事件的应急分解算法,并以特大地震灾害作为实例进行了算法应用.接着定义了事故灾难度,用来对巨灾风险大数据处理过程中,对各种级别的事故灾难后果进行不同的数字标识.然后提出一种用来解决巨灾风险中大数据快速处理的应急分拣算法,并在汶川地震中大规模灾害的应急救援计划中进行应用.经过采用这样的应急分拣原理,就可以在面对巨灾风险大数据的复杂、繁多和零乱的重灾事件状态下,使整个应急救援方案优化,并能够有条不紊地进行救援.  相似文献   
8.
传统的准备金模型主要是通过加总个体数据得到聚合损失三角形数据建立的,然而,这种数据的加总对原始个体数据产生不可避免的信息浪费.虽然这种方法简单,但可导致准备金估计的较大偏差.近年来提出的个体数据准备金模型中大都没有考虑保单合同之间的相依性.本文假设相同事故年的保单产生的索赔具有某种共同效应导致的相依情形,通过建立个体数据准备金的分层贝叶斯模型,利用信度理论的思想,得到每个事故年的准备金估计,从而得到总准备金的估计.进而,讨论了发展因子和结构参数的估计及其相应的统计性质.最后,给出数值例子表明本文给出的准备金估计的计算方法,并且比较了个体数据和聚合数据下准备金估计的均方误差.  相似文献   
9.
 从经济安全的角度,基于专利价值链理论,构建了一套专利风险评估指标体系,用于衡量一个国家或地区在专利活动中遭遇风险的程度。利用专利基本活动中的4个关键指标,即专利质量水平、专利转化能力、专利纠纷风险程度和专利贸易国际地位,对美国、日本、韩国、德国和中国进行比较分析,得出2006-2015年,中国的专利发展“快而不高”“大而不强”,但与其他专利强国相比,在专利价值链关键环节的竞争中,中国不占优势,甚至存在较为严重的风险,尤其专利使用费逆差越来越大,对国家经济安全存在一定程度的威胁。  相似文献   
10.
本文从PPP在公租房建设领域的应用为出发点,分析了公租房建设采用PPP的有利点和存在的风险问题。指出,在公租房建设领域中推进PPP的实施,是解决社会民生问题的重要内容。但是,必须先解决好PPP风险分担的根本问题。文章基于效用理论,构建出公租房PPP建设中政府部门和社会资本的风险分担数学模型,并通过数学解析,分析出合理的风险分担比例,最后通过具体案例进行实证,证明了效用理论在风险分担问题实践中的应用效果。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号