首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   4070篇
  免费   182篇
  国内免费   198篇
系统科学   140篇
丛书文集   70篇
教育与普及   45篇
理论与方法论   6篇
现状及发展   22篇
综合类   4155篇
自然研究   12篇
  2024年   42篇
  2023年   150篇
  2022年   219篇
  2021年   238篇
  2020年   194篇
  2019年   143篇
  2018年   93篇
  2017年   125篇
  2016年   116篇
  2015年   140篇
  2014年   227篇
  2013年   164篇
  2012年   258篇
  2011年   200篇
  2010年   156篇
  2009年   185篇
  2008年   142篇
  2007年   206篇
  2006年   146篇
  2005年   153篇
  2004年   119篇
  2003年   117篇
  2002年   122篇
  2001年   124篇
  2000年   112篇
  1999年   81篇
  1998年   56篇
  1997年   67篇
  1996年   67篇
  1995年   49篇
  1994年   64篇
  1993年   37篇
  1992年   27篇
  1991年   24篇
  1990年   27篇
  1989年   23篇
  1988年   25篇
  1987年   3篇
  1986年   6篇
  1985年   1篇
  1981年   1篇
  1955年   1篇
排序方式: 共有4450条查询结果,搜索用时 140 毫秒
101.
简要地介绍了不确定性、信息熵、联合熵、条件熵、互信息的基本概念。将地层含有某种流体属性(如油层)的特征参数的概率分布应用于联合熵中,提出其概率分布是特征参数X与流体的特征参数Y的距离函数,再用熵与条件熵之差计算得到的互信息去识别地层的流体属性,即提出了基于信息熵识别油气层和水层的聚类方法。利用实际测井资料提取了油气层和水层的特征参数,并利用聚类方法识别出油气层和水层。识别结果与试油结论相符。该聚类方法不仅可用于识别油气层和水层,还可推广应用于划分地层岩性等领域。  相似文献   
102.
截至2018-01-16,LIGO已成功探测引力波事件6次.可以预期,引力波探测事件会越来越多,引力波天文学会很快进入到大数据阶段.深度学习在大数据处理方面近年来得到迅速发展.它在数据处理速度,准确度等方面都表现出极大的优势.深度学习在引力波数据处理中的应用讨论还不多.本文引入此问题,并对其进行初步研究.引力波数据最大的特点是强噪声、弱信号.现行的数据处理方法是利用匹配滤波的方式把引力波信号从强噪声中挖掘出来.同时,匹配滤波方法还可以确定引力波源的性质,定量确定其参数.匹配滤波方法的弱点是计算量巨大.这导致数据处理速度很慢.对于将来的大数据引力波天文学,这更将是一个巨大的隐患.匹配滤波方法的另一个潜在问题是,完备准确的理论波形模板是其工作的前提条件.这个潜在问题的后果是很难找到理论预期之外的引力波信号.深度学习的数据处理方法有可能在这些问题上提供出路.同时,深度学习也会遇到其自身的若干困难和问题.本文将从网络结构、训练数据制备、训练优化、对信号识别的泛化能力、对数据的特征图表示以及对特征数据遮挡的响应等方面来展开讨论.  相似文献   
103.
微地震监测技术作为一种先进的地球物理方法, 广泛应用于地热勘探、 油气田开发等多个领域, 具有广 阔的发展前景。 首先介绍了微地震形成机理及其特征和微地震监测技术的基本概念, 进而简述了微地震监测 方法的基本原理以及数据采集、 数据处理等主要技术。 去噪为数据处理的首要任务, 因而论述了一些基本的降 噪方法, 提出深度学习在微地震监测技术中的可行性以及优越性。 最后, 对监测技术的扩展应用以及发展前景 进行了总结。  相似文献   
104.
为向基于深度学习的机器翻译质量估计模型提供高效的训练数据, 提出面向目标数据集的伪数据构造方法, 采用基于伪数据预训练与模型精调相结合的两阶段模型训练方法对模型进行训练, 并针对不同伪数据规模设计实验。结果表明, 在构造得到的伪数据下, 利用两阶段训练方法训练得到的机器翻译质量估计模型给出的得分与人工评分的相关性有显著的提升。  相似文献   
105.
小图像由于像素少、分辨率低、整幅图像包含信息较少,识别较为困难。目前优秀的深度卷积神经网络模型多为大图像而设计,而用于小图像的模型则存在着层次不够深、难以对特征进行充分抽象的不足。本文基于VGG19模型,依据卷积核分解的原理,设计了一种KDS-DCNN模型,模型深度达到31层,解决了目前超深度模型不能直接用于小图像识别的问题,实验表明该方法不但提升了识别性能,而且还降低了模型的时间复杂度。在CIFAR-10、CIFAR-100和SVHN三个数据集上的验证结果显示,KDS-DCNN模型性能优越,其识别错误率分别降低到29.46%、6.02%和2.17%。  相似文献   
106.
深度学习在人脸识别领域已经取得了巨大的成就,针对当前大多数卷积神经网络采用Softmax损失函数进行特征分类,增加新的类别样本会减小类间距离的增长趋势,影响网络对特征判别的问题,采用了一种基于中心损失与Softmax损失联合监督的人脸识别算法,来提高网络对特征的识别能力。在Softmax基础上,首先,分别对训练集每个类别在特征空间维护一个类中心,训练过程新增加样本时,网络会约束样本的分类中心距离,从而兼顾了类内聚合与类间分离。其次,引入动量概念,在分类中心更新的时候,通过保留之前的更新方向,同时利用当前批次的梯度微调最终的更新方向,该方法可以在一定程度上增加稳定性,提高网络的学习效率。最后,在人脸识别基准库LFW上的测试实验证明:所提的联合监督算法,在较小的网络训练集上,获得了99.31%的人脸识别精度。  相似文献   
107.
Huge quantities of zinc leaching residues (ZLRs) generated from zinc production are dumped continuously around the world and pose a potential environmental threat because of their considerable amounts of entrained heavy metals (mainly lead). Most ZLRs have not been properly treated and the valuable metals in them have not yet been effectively recovered. Herein, the deep cleaning of a ZLR and recovery of valuable metals via a hydrometallurgical route were investigated. The cleaning process consists of two essential stages:acid leaching followed by calcium chloride leaching. The optimum conditions for extracting zinc, copper, and indium by acid leaching were a sulfuric acid concentration of 200 g·L-1, a liquid/solid ratio of 4:1 (mL/g), a leaching time of 2 h, and a temperature of 90℃. For lead and silver extractions, the optimum conditions were a calcium chloride concentration of 400 g·L-1, a pH value of 1.0, a leaching time of 1 h, and a temperature of 30℃. After calcium chloride leaching, silver and lead were extracted out and the lead was finally recovered as electrolytic lead by electrowinning. The anglesite phase, which poses the greatest potential environmental hazard, was removed from the ZLR after deep cleaning, thus reducing the cost of environmental management of ZLRs. The treatment of chlorine and spent electrolyte generated in the process was discussed.  相似文献   
108.
张茜  孙一佳  白琳  李陶深 《广西科学》2019,26(3):283-290
根据蛋白质氨基酸链探测其同源蛋白质,进而预测蛋白质的功能,是生物信息学研究领域的一个重要挑战,也是众多生物医学研究领域的基础研究内容,有着重要的科研价值和广泛的应用需求。其研究难点在于:(1)如何学习对同源蛋白质预测有效、有用的蛋白质特征信息;(2)如何更好地运用蛋白质特征信息,实现同源蛋白质的探测与识别。为了解决同源蛋白质探测与识别研究中的关键难点,本文提出一种基于混合深度学习架构的同源蛋白质探测与识别模型(HDLM-PHP)。通过采用统一的"管道式"深度学习架构,将蛋白质特征学习和探测识别统一为一个整体,提高同源蛋白质探测与识别的效能。采用多组并行的深度卷积神经网络,学习蛋白质的各种属性信息,以期获得丰富的待检测蛋白质和靶蛋白质的高级相关性特征,并通过全连接方式使用多层RBM结构融合和精炼这些相关性特征为全局相关性特征。通过统一的深度网络连接方式,以探测和识别任务为导向,学习到对于同源蛋白质预测最有效、最全面的蛋白质特征信息。在标准数据集SCOPe上,对所提模型进行性能与效率评测,结果表明:本文提出的模型能有效地学习到符合任务导向的蛋白质特征数据,提升同源蛋白质探测与识别的准确度和召回率,优于现有的模型和算法。  相似文献   
109.
任兆海 《山西科技》2014,(5):165-166
介绍了3807回采工作面的地质构造情况,论述了采用深孔爆破技术解决回采工作面过断层的工艺,指出该工艺技术对于生产条件较差、岩石较多的回采工作面提高单产具有很好的借鉴作用。  相似文献   
110.
某超大深基坑紧邻城市2条地铁线交汇处的换乘站,周围环境复杂,基坑施工难度大,因此基坑支护结构施工顺利及对相邻地铁站的变形控制成为工程成败的关键。文章结合基坑工程2种施工方案,利用有限元软件MIDAS GTS建立三维有限元模型,研究了基坑盖挖逆作法施工对地表沉降、支护结构和相邻地铁站的变形和受力影响,得出影响逆作法施工的相关因素,并提出相关解决措施与建议。采用盖挖逆作法施工能够较好地控制基坑支护结构的变形,同时减小对地表和地铁站的影响。综合考虑基坑施工对围护结构、地表和地铁换乘站的影响,首层土体暗挖法要优于明挖法,但是暗挖法对围护结构强度和刚度要求高,特别是楼板临时洞口处。所得相关结论和建议可供设计和施工参考。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号