首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   53篇
  免费   0篇
  国内免费   3篇
系统科学   1篇
教育与普及   2篇
综合类   53篇
  2024年   1篇
  2023年   5篇
  2022年   2篇
  2021年   4篇
  2020年   1篇
  2019年   2篇
  2016年   1篇
  2015年   2篇
  2014年   4篇
  2013年   2篇
  2012年   4篇
  2011年   2篇
  2010年   5篇
  2009年   7篇
  2008年   1篇
  2007年   1篇
  2005年   2篇
  2004年   4篇
  2002年   2篇
  2001年   2篇
  1999年   1篇
  1997年   1篇
排序方式: 共有56条查询结果,搜索用时 15 毫秒
1.
要是以提供献内容梗概为目的、不加评论和补充解释,简要明确地记叙献重要内容的独立短.其基本要素包括研究的目的、方法、结果、结论,具有独立性和自明性.要可分为报道性要、报道/指示性要和指示性要,作要一般要写成前两种,字数在300字以内为宜,且对方法、结果、结论宜写得详细。  相似文献   
2.
根据渤海油田七年行动计划部署,现阶段勘探开发研究成果数量激增.目前,渤海油田勘探开发研究成果入库前分类工作主要依靠传统手动方式,效率低下且无法满足成果文档及时共享的需求.针对以上问题,提出一种基于Word2vec和卷积神经网络(convolutional neural networks, CNN)的文本特征提取方法并结合K-Means聚类算法对勘探开发阶段的成果文档进行自动分类.该方法在预训练word2vec向量的基础上基于自有开发成果文档标题语料库进行再训练,将低维向量的形式表征及文本的深层语义特征相结合,最后采用聚类算法对成果文档进行聚类.实验结果表明,在搜集的近7万份勘探开发成果文档数据集中,采用该方法使文档分类效率比手工方法提升了91.8%,标签获取准确率达93.6%,效率上和准确率都实现了较大提升.  相似文献   
3.
短文改错在英语考试中占15分的比重,但学生普遍得分较低,许多学生对短文改错有一种恐惧心理,而且又没有技巧,所以有很大一部分同学对短文改错采取放弃或蒙几个对勾的态度。面对这种情况,我就自己在短文改错中的一些思路谈几点看法:  相似文献   
4.
本文从实际教学出发,对高中英语短文教学进行分析,并结合近几年高考英语短文改错实例,分析了语篇衔接在中学英语短文改错教学中的重要作用,并对短文改错教学提出了建议。  相似文献   
5.
有许多学生害怕写作,其原因是基础差,掌握的句型少,缺乏练习等,但没有好的练习方法也是写不好短文的,下面给同学们介绍几种好的写作方法:  相似文献   
6.
在大学英语教学中实施微型短文记忆法的调查表明:微型短文篇幅小,记忆负担轻,符合非英语专业大学生课业负担重、学习英语时间少的特点,为了使微型短文记忆法取得良好效果,教师需要坚持监控和鼓励学习者,学习者需要有恒心和毅力,学习足够数量的短文,保证足够的学习时间。微型短文与课堂教材配套时的效果好于两者不配套时,微型短文有待改进。  相似文献   
7.
张一弘 《科技信息》2010,(20):I0164-I0165
普通话水平测试中的朗读短文项,是整个测试中非常重要的一项测试内容.在测查应试者声、韵、调读音标准程度的同时,重点测查连续音变、停连、语调以及流畅程度.分值占到整个测试的30%.朗读项也是能够提前准备,确保得分的"得分项",因此充分做好测试前的应试准备,掌握一些应试技巧至关重要.  相似文献   
8.
针对市民热线多为短文本和特征稀疏的特点。提出了一种短文本扩展法和基于双通道特征融合的文本分类(BERT-BiGRU-TextCNN,BGTC)模型,实现了对市民热线文本的自动识别与归类。首先使用TF-IWF模型以及LDA主题模型构建核心词库;然后利用Word2Vec计算词语相似度,完成对短文本内容和词向量特征的扩展;最终通过融合BERT-TextCNN和BERT-BiGRU-Attention两个通道特征信息的BGTC模型实现了对扩展后文本的分类。经过多组对比实验,结果表明该方法在市民热线文本分类任务中具有更好的性能,准确率和F1值分别达到了85.6%和85.8%。  相似文献   
9.
由于word2vec、Glove等静态词向量表示方法存在无法完整表示文本语义等问题,且当前主流神经网络模型在做文本分类问题时,其预测效果往往依赖于具体问题,场景适应性差,泛化能力弱.针对上述问题,提出一种多基模型框架(Stacking-Bert)的中文短文本分类方法.模型采用BERT预训练语言模型进行文本字向量表示,输...  相似文献   
10.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号