首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   4153篇
  免费   412篇
  国内免费   220篇
系统科学   142篇
丛书文集   75篇
教育与普及   133篇
理论与方法论   7篇
现状及发展   42篇
综合类   4376篇
自然研究   10篇
  2024年   38篇
  2023年   215篇
  2022年   258篇
  2021年   284篇
  2020年   236篇
  2019年   149篇
  2018年   97篇
  2017年   120篇
  2016年   113篇
  2015年   150篇
  2014年   208篇
  2013年   154篇
  2012年   274篇
  2011年   298篇
  2010年   196篇
  2009年   247篇
  2008年   197篇
  2007年   271篇
  2006年   241篇
  2005年   173篇
  2004年   128篇
  2003年   124篇
  2002年   118篇
  2001年   106篇
  2000年   77篇
  1999年   62篇
  1998年   30篇
  1997年   34篇
  1996年   26篇
  1995年   23篇
  1994年   25篇
  1993年   16篇
  1992年   16篇
  1991年   17篇
  1990年   14篇
  1989年   21篇
  1988年   15篇
  1987年   5篇
  1986年   4篇
  1985年   3篇
  1981年   1篇
  1955年   1篇
排序方式: 共有4785条查询结果,搜索用时 15 毫秒
1.
由于浓密脱水过程中浓密机的底流浓度难以在线检测,本文提出了一种基于宽度学习的软测量建模方法,用以解决底流浓度的在线检测问题.该方法精度高,泛化能力强.首先,在浓密机内部安装压力传感器,建立正常工况下的历史数据集;然后,利用宽度学习系统对软测量模型进行训练,从而实现浓密机底流浓度的在线预测;最后,通过仿真实验验证了该方法的有效性.与传统的机器学习方法相比,宽度学习方法具有更高的预测精度.  相似文献   
2.
针对基于正则表达式和传统机器学习的分类方法分别存在模式手工提取困难和性能瓶颈的问题, 提出一种基于深度学习的问题帖分类方法, 采用深度文本挖掘模型TextCNN和融合注意力机制的TextRNN构建分类模型. 实验结果表明, 基于深度学习的方法在多数问题目的类别上的分类性能优于已有基准方法, 且使用的Adam优化器优于SGD优化器, 使用Glove预训练的词向量优于使用随机生成的词向量. 该方法以提问目的对帖子进行分类, 可为分析Stack Overflow(SO)上的帖子讨论主题增加新维度.  相似文献   
3.
针对开集声纹识别的自适应阈值计算问题, 提出一种基于大津算法和深度学习的阈值计算方法. 首先, 采用三层受限Boltzmann机堆叠而成的深度置信网络从Mel倒谱系数中提取语音深层特征; 其次, 通过Gauss混合模型计算特征的相似度值, 对特征的相似度值使用大津算法计算阈值. 实验结果表明, 该方法识别效果较理想, 与等错误率计算阈值方法相比, 具有更高的识别准确率.  相似文献   
4.
青光眼是世界第二大致盲性眼病,视网膜神经纤维层(RNFL)缺损是诊断青光眼的重要特征。在临床应用中主要采用光学相干断层扫描(OCT)测量RNFL厚度。然而在我国的多数中小型医院和体检中心,只有眼底照相机而不具备OCT设备。因此利用眼底照和OCT的多模态数据,设计了一种基于眼底照来预测RNFL厚度的深度残差回归神经网络。该网络通过眼底照中的局部区域信息预测此区域的RNFL厚度,并对视盘外围一周范围内的RNFL厚度给出全面的刻画。在一个来自北京同仁医院的真实数据集上的实验结果显示,本文算法预测的RNFL厚度值与OCT测量值具有高度的一致性(对于正常眼平均绝对误差EMA=14.884,Pearson相关系数r=0.885,决定系数R2=0.781;对于青光眼EMA=15.108,r=0.872,R2=0.754)。评估结果表明所提方法对基于眼底照预测RNFL厚度具有良好的临床实用性。  相似文献   
5.
中医古文献蕴藏着丰富的临床经验,是古代中医在行医过程中对临床诊疗的经验性总结,体现了中医学形成和发展的理论框架和思想基础.然而这些宝贵的临床经验不仅量大,而且分散在不同的文献中,使得中医从业者手工很难快速全面地获取它们,文献检索工具也只能提供文档级别的信息筛选,无法为这种细粒度的信息获取提供支持.此外,古汉语相对于现代汉语的不同特点也限制了主流文本分析工具的使用效果.为此本文提出面向临床经验获取的中医古文献信息抽取任务,用于识别古文献中描述临床经验的文本片段,手工标注了样本数据用于这种抽取模型的训练和测试,并设计了基于深度学习的序列标注器用于完成该任务.考虑到标注数据量小可能带来的过度拟合问题,本文引入对抗训练和虚拟对抗训练来增强模型的泛化能力.一系列充分的实验验证了模型的有效性,表明利用信息抽取技术从古文献获取中医临床经验具有可行性,为这一新的信息抽取任务提供了有希望的研究基线和可复用的标注数据集.  相似文献   
6.
基于深度学习方法提出了一种地震响应概率模型,并基于此模型推导了地铁车站结构极限状态超越概率的计算公式,以评价结构的地震易损性。首先采用主成分分析对地震强度指标进行正交化和降维;为了克服传统地震响应概率模型中地震动强度指标与结构地震响应指标服从对数空间线性分布假设的局限性,基于BP神经网络建立趋势模型以预测结构的地震响应;基于概率神经网络建立误差模型以描述基于统计的趋势模型与基于物理机制的数值模型之间的误差,以拓展残差的齐次方差正态分布假设的严格限制。最后,以上海典型2层三跨地铁车站为算例,计算得到其易损性曲线。结果表明,基于深度学习建立的趋势模型较好地模拟了地铁车站结构地震响应随地震强度指标第一主成分的非线性变化特征;建立的误差模型准确地描述了趋势模型预测值的残差随地震强度指标第一主成分的方差非齐次特征。  相似文献   
7.
以砂岩作为模拟对象,研究满足隧道爆破力学模型试验要求的相似材料配比问题.基于正交试验法,选取石英砂、重晶石粉、石膏、水泥和水为相似材料,设置以石英砂/固体、水泥/石膏、重晶石粉/(重晶石粉+石英砂)的质量比为3个因素,每个因素3个水平,共9组配比的正交试验方案.通过室内试验,得到相似材料的密度、单轴抗压强度、弹性模量和声波波速的实测数据.试验结果表明:相似材料的物理力学参数分布范围较广,可满足不同隧道模型试验对相似材料的配比要求.利用极差敏感分析法分析各因素对相似材料参数的敏感性,并通过各因素对相似材料参数影响的直观分析图,分析各因素对相似材料物理力学参数的影响规律.对试验数据进行多元线性回归分析和室内试验,发现最优配合比下的相似材料与原型砂岩的单轴应力-应变曲线具有相似的脆性破坏特征;相似材料物理力学参数的设计值和实测值误差较小.  相似文献   
8.
针对医学电子计算机断层扫描(CT)图像方向校正问题,提出一种并行卷积回归(PCRN)多任务深度学习网络.通过侧旋角度正回归和翻转概率逻辑回归,求得校正参数来精准地校正图像.进一步,针对医学图像训练样本稀缺的情况,提出一种串行回归(SCRN)的深度学习架构,弥补并行卷积回归网络在小样本情况下校正精度不足的问题.实验结果表明:在样本充分,并行卷积回归网络和样本稀缺情况下,串行卷积回归网络对小角度偏转、大角度偏转和翻转的腹部CT图像校正结果都优于传统的配准方法.  相似文献   
9.
传统辐射源信号识别方法往往需要人工提取特征,不仅对专业知识要求较高,而且人为选择的特征不能够保证适用于大多数类型信号的识别,识别精度和识别速度也不能兼顾。针对上述问题,将语音处理领域常用的深度学习模型——卷积长短时深度神经网络(convolutional long short-term deep neural network, CLDNN)引入到辐射源信号的识别中,并将该模型中的长短时记忆层改为双向门控循环单元层。模型的输入为原始时间序列数据,特征提取和分类识别过程均在网络中进行,避免了人工选择特征的不完备性。实验结果表明,所提模型在低信噪比情况下也能够有效识别信号类型,同时与其他模型相比,实现了识别精度和识别速度之间的平衡。  相似文献   
10.
针对低信噪比时莱斯信道下特征提取准确性难以保证、识别准确率偏低等问题, 提出一种基于Choi-Williams分布(Choi-Williams distribution, CWD)和深度残差收缩网络(deep residual shrinkage network, DRSN)的通信辐射源信号调制方式识别方法。利用CWD将时域复信号转换为二维时频矩阵, 对深度残差网络添加软阈值化得到DRSN, 将时频矩阵样本用于对DRSN的训练, 最终构建不同信噪比下的调制方式识别网络。仿真实验表明, 基于RadioML2016.10a数据集, 利用部分先验信息的情况下, 该分类识别方法具有较高的识别准确率和噪声鲁棒性。在0 dB时, 对11类信号的总体识别准确率达到了89.95%;在2 dB以上时, 总体识别准确率均超过91%, 优于其他深度学习识别方法。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号