全文获取类型
收费全文 | 62篇 |
免费 | 1篇 |
专业分类
系统科学 | 2篇 |
丛书文集 | 1篇 |
教育与普及 | 1篇 |
综合类 | 59篇 |
出版年
2024年 | 1篇 |
2023年 | 2篇 |
2020年 | 1篇 |
2019年 | 3篇 |
2018年 | 4篇 |
2015年 | 1篇 |
2014年 | 7篇 |
2013年 | 1篇 |
2012年 | 4篇 |
2011年 | 3篇 |
2010年 | 3篇 |
2009年 | 3篇 |
2008年 | 2篇 |
2007年 | 3篇 |
2006年 | 1篇 |
2005年 | 4篇 |
2003年 | 3篇 |
2002年 | 4篇 |
2001年 | 1篇 |
2000年 | 2篇 |
1999年 | 1篇 |
1998年 | 1篇 |
1997年 | 1篇 |
1991年 | 1篇 |
1989年 | 1篇 |
1988年 | 2篇 |
1986年 | 1篇 |
1982年 | 1篇 |
1981年 | 1篇 |
排序方式: 共有63条查询结果,搜索用时 0 毫秒
61.
在学术期刊市场中.地方高校学报要发展就必须发挥自身优势.建立具有地域特色栏目.要使地域特色栏目得到可持续发展,就必须充分挖掘和利用地域历史、文化、经济等方面资源;争取学校和地方政府支持以及市、省、国家级研究基金资助;依托学科优势;聘请栏目主持人;依靠作者团队和审稿专家支持;打造精干的编辑队伍. 相似文献
62.
利用拟阵基公理,证明了恒等自对偶拟阵的基对图是连通的,并研究了基对图的邻域结构和处同构群。 相似文献
63.
BERT等预训练模型在很多NLP任务上取得了良好的效果,但预训练模型参数规模大,运算量大,对硬件资源要求高,难以部署在小型的配置环境中。模型压缩是解决该问题的关键,知识蒸馏是目前较好的模型压缩方法。基于此,提出基于多任务蒸馏的句意图识别和槽位填充联合模型,该模型将ALBERT运用到任务型对话系统中,并利用知识蒸馏策略将ALBERT模型知识迁移到BiLSTM模型。实验结果表明,基于ALBERT的联合模型在SMP 2019评测数据集中的句准确率为77.74%,单独训练的BiLSTM模型句准确率为58.33%,而蒸馏模型的句准确率为67.22%,在比BiLSTM高8.89%的情况下,推断速度约为ALBERT的18.9倍。 相似文献