首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   368篇
  免费   18篇
  国内免费   6篇
系统科学   11篇
丛书文集   14篇
教育与普及   12篇
理论与方法论   3篇
现状及发展   5篇
综合类   347篇
  2024年   3篇
  2023年   14篇
  2022年   8篇
  2021年   9篇
  2020年   11篇
  2019年   12篇
  2018年   20篇
  2017年   9篇
  2016年   7篇
  2015年   20篇
  2014年   36篇
  2013年   18篇
  2012年   22篇
  2011年   25篇
  2010年   33篇
  2009年   33篇
  2008年   25篇
  2007年   13篇
  2006年   9篇
  2005年   7篇
  2004年   2篇
  2003年   6篇
  2002年   6篇
  2001年   3篇
  2000年   9篇
  1999年   5篇
  1998年   10篇
  1997年   2篇
  1996年   11篇
  1995年   2篇
  1992年   1篇
  1990年   1篇
排序方式: 共有392条查询结果,搜索用时 0 毫秒
391.
采用经典的LeNet网络对实测IPIX雷达数据、SPPR-50雷达数据、一型试验雷达数据通过多种组合方式进行交叉实验验证,分析训练集和测试集采用相同类型实测数据、不同类型实测数据时对分类准确率的影响,从而分析网络对雷达信号层数据处理的泛化能力。实验结果表明,不同类型的实测数据对分类准确率影响较为明显,并且当数据具有一定的相似性时分类效果显著。因此,在样本数据集不足时,可考虑通过迁移学习来加快并优化模型的学习效率,提高神经网络模型分类的准确率。  相似文献   
392.
在线学习会话退出预测旨在准确预测在线学习过程中的学习会话退出,是智慧教育领域中十分重要的一项研究任务。针对现有模型在小样本场景下预测准确率较低的问题,提出了基于前缀提示的在线学习会话退出预测模型Prefix-LSDPM。该模型为获取单个学习行为内部特征及连续学习行为之间的隐含关联信息,在改进了键值向量的Transformer网络中对提示形式的合成序列进行掩码学习;为降低模型训练涉及的参数量以适应小样本学习,将学习会话退出预测任务建模形式靠近预训练任务,并在冻结的预训练参数基础上对提示参数进行调优。基于多个数据集的实验结果表明,Prefix-LSDPM的预测准确率优于现有模型,且在小样本学习中仍能达到较好的预测效果。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号