首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   629篇
  免费   41篇
  国内免费   54篇
系统科学   65篇
丛书文集   34篇
教育与普及   7篇
现状及发展   1篇
综合类   617篇
  2024年   19篇
  2023年   81篇
  2022年   68篇
  2021年   58篇
  2020年   43篇
  2019年   27篇
  2018年   11篇
  2017年   17篇
  2016年   13篇
  2015年   27篇
  2014年   19篇
  2013年   25篇
  2012年   31篇
  2011年   18篇
  2010年   25篇
  2009年   22篇
  2008年   19篇
  2007年   29篇
  2006年   19篇
  2005年   15篇
  2004年   12篇
  2003年   22篇
  2002年   17篇
  2001年   14篇
  2000年   6篇
  1999年   8篇
  1998年   6篇
  1997年   11篇
  1996年   6篇
  1995年   8篇
  1994年   4篇
  1993年   8篇
  1992年   3篇
  1991年   4篇
  1990年   1篇
  1989年   5篇
  1988年   1篇
  1987年   1篇
  1986年   1篇
排序方式: 共有724条查询结果,搜索用时 15 毫秒
701.
利用(残差)Auto—Regressive模型对我国1978年—2005年的GDP进行建模与预测,显示出该拟合模型优于ARIMA模型,并运行MATLAB软件,实现了建模仿真的全过程,显示了MATLAB的强大科学计算与可视化功能.  相似文献   
702.
针对机床刀具磨损数据稀少与刀具磨损状态识别精度低的问题,提出了一种基于样本扩充与改进领域对抗网络(sample expansion and improved domain adversarial training of neural networks, SE-IDANN)的刀具状态识别方法。首先对机床刀具数据进行两次特征提取,并通过Smote算法进行样本扩充,解决机床刀具磨损数据量稀少的问题;其次在领域对抗网络(domain adversarial training of neural networks, DANN)模型特征提取器中加入残差块,进一步提取有效特征信息,解决刀具磨损特征微弱的难题;最后将Wasserstein距离作为目标域与源域的数据分布相似度标准引入DANN模型,实现对刀具磨损量的精确识别。通过对机床刀具数据的分析与仿真试验验证,证明该方法能够有效地识别刀具磨损量。  相似文献   
703.
单图像去雨研究旨在利用退化的雨图恢复出无雨图像,而现有的基于深度学习的去雨算法未能有效地利用雨图的全局性信息,导致去雨后的图像损失部分细节和结构信息.针对此问题,提出一种基于窗口自注意力网络(Swin Transformer)的单图像去雨算法.该算法网络主要包括浅层特征提取模块和深度特征提取网络两部分.前者利用上下文信息聚合输入来适应雨痕分布的多样性,进而提取雨图的浅层特征.后者利用Swin Transformer捕获全局性信息和像素点间的长距离依赖关系,并结合残差卷积和密集连接强化特征学习,最后通过全局残差卷积输出去雨图像.此外,提出一种同时约束图像边缘和区域相似性的综合损失函数来进一步提高去雨图像的质量.实验表明,与目前单图像去雨表现优秀的算法MSPFN、 MPRNet相比,该算法使去雨图像的峰值信噪比提高0.19 dB和2.17 dB,结构相似性提高3.433%和1.412%,同时网络模型参数量下降84.59%和34.53%,前向传播平均耗时减少21.25%和26.67%.  相似文献   
704.
互联网技术的发展使得信息载体形式逐渐多元丰富,其中图像作为重要的信息载体形式能有效实现信息的交流与传达.但当前多数图像质量评价场景均为盲图像,其图像特征的提取精度以及与人类视觉系统的拟合程度依然是重要的研究内容.故该文基于原盲图像提取过程中受核函数受限问题而造成的低精度问题,通过引入深度残差回归网络和图像置信度,并借助图像子块的划分、非均匀步长的引入以及基于亮度和对比度的置信区间设置来获得图像的预测质量分数.结果表明,该盲图像质量评价算法具有较好的泛化性能,且在不同尺寸划分下的失真图像预测结果中均有超过3%的分数提升效果. SROCC值和PLCC值均在0.9以上,RMSE值均低于其他算法,主客观评价质量具有较高的一致性.该方法能有效为符合人眼观测的盲图像预测质量评价提供新的手段,拓宽其评价工作深度.  相似文献   
705.
工业生产中带钢表面缺陷具有缺陷类型多变、背景杂乱和对比度低等特点,现有的缺陷检测方法无法检测出完整的缺陷对象。针对上述问题,提出一种基于U型残差编解码网络的带钢缺陷检测算法。在编码阶段,算法利用全卷积神经网络提取丰富的多尺度缺陷特征,并结合注意力机制加速模型收敛。在解码阶段,使用所提出的U型残差解码网络恢复编码阶段编码的显著性信息。此外,设计了一个残差细化网络,用以进一步优化粗糙的显著图。实验结果表明,所提出的算法具有较强的鲁棒性。  相似文献   
706.
为了解决低光照图像存在的对比度低、噪声大等问题,提出一种基于 Retinex 理论的卷积神经网络增强模型 (Retinex-RANet)。 它包括分解网络、降噪网络和亮度调整网络 3 部分:在分解网络中融入残差模块(RB)和跳跃连 接,通过跳跃连接将第一个卷积层提取的特征与每一个 RB 提取的特征融合,以确保图像特征的完整提取,从而得 到更准确的反射分量和光照分量;降噪网络以 U-Net 网络为基础,同时加入了空洞卷积和注意力机制,空洞卷积能 提取更多的图像相关信息,注意力机制可以更好地去除反射分量中噪声,还原细节;亮度调整网络由卷积层和 Sigmoid 层组成,用来提高光照分量的对比度;最后将降噪网络去噪后的反射分量和亮度调整网络增强后的光照分 量融合,得到最终的增强结果。 实验结果显示:Retinex-RANet 在主观视觉上不仅提高了低光图像的亮度,还提高了色彩深度和对比度,在客观评价指标上,相较于 R2RNet,PSNR 值上升了 4. 4%,SSIM 值上升了 6. 1%。 结果表 明:Retinex-RANet 具有更好的低光图像增强效果  相似文献   
707.
为了提高负荷的分解及识别准确度,提出基于序列到点(sequence-to-point,简称Seq2point)和挤压与激励的残差网络(squeeze-and-excitation residual network,简称SERNet)的非侵入式负荷分解和识别方法.使用残差网络提取信息,引入注意力机制挤压和激励网络,对提取的信息进行自适应校准.通过全连接网络映射得到负荷分解结果,进而识别负荷.算例分析结果表明:与其他4种方法比较,该方法有更高的分解及识别准确度.  相似文献   
708.
在多元线性回归模型的异方差检验中,当解释变量较多且两两之间相关系数较低时,会导致传统White检验构造的辅助回归函数参数增多、计算量增大、检验效果不明显。针对这一问题,基于异方差检验原理,建立残差平方与解释变量之间的回归模型,筛选出系数显著的解释变量,利用残差平方与筛选出的解释变量构建辅助回归模型进行异方差检验。数值模拟及实证分析表明该方法有良好的检验效果及简单的步骤。  相似文献   
709.
针对在耀光、紊流、降雨等复杂含噪场景下时空图像中有效纹理特征变得模糊,使得现有纹理主方向检测算法精度受限的问题,结合深度学习的思想,提出了一种基于残差网络回归模型的时空图像测速(ResNet50-STIV)法,并借助残差网络回归模型强大的非线性学习能力构建了回归预测函数。通过构建人工合成数据集和包含复杂场景时空图像的天然河流数据集对残差网络回归模型进行试验,结果表明:提出的残差网络回归模型在人工合成数据集下的检测精测可达到0.1°,对于天然河流数据集,具有残差结构的ResNet回归模型的检测精度优于VGG16;从模型层数看,基于ResNet50的回归模型能较好地平衡检测精度以及执行效率,在正常场景下的检测精度达到0.7°,而在耀光、紊流、降雨场景下能控制在1.3°以内,ResNet50-STIV优于现有的时空图像测速法;与流速仪法在多场景下表面流速比测的最大相对误差小于12%。  相似文献   
710.
脉络膜的变化与很多眼科疾病密切相关。医生在诊断过程中常需要手动分割光学断层扫描图像(Optical Coherence Tomography, OCT)中的脉络膜,再定量分析脉络膜健康状况,但人工分割费时费力。脉络膜自动分割难点在于OCT图像中脉络膜下边界模糊,很难捕捉上下文信息,并且脉络膜结构跟视网膜结构比较类似,容易混淆。为了解决该难点,本文提出了融合坐标并行注意力模块和密集空洞卷积模块的残差编解码模型;设计了一种桥结构,包含了注意力机制和空洞卷积,在增加模型感受野的同时抑制浅层噪声;同时为了使模型关注脉络膜结构信息,引入了一种包含结构相似性的混合损失函数来训练模型。实验结果表明,该模型能有效提升对脉络膜的分割精度,在OCT脉络膜数据集上,Dice系数和Jaccard相似度达到了97.63%和95.28%。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号