全文获取类型
收费全文 | 233篇 |
免费 | 22篇 |
国内免费 | 7篇 |
专业分类
系统科学 | 22篇 |
丛书文集 | 11篇 |
教育与普及 | 5篇 |
现状及发展 | 3篇 |
综合类 | 221篇 |
出版年
2024年 | 1篇 |
2023年 | 9篇 |
2022年 | 7篇 |
2021年 | 4篇 |
2020年 | 9篇 |
2019年 | 15篇 |
2018年 | 13篇 |
2017年 | 5篇 |
2016年 | 1篇 |
2015年 | 11篇 |
2014年 | 13篇 |
2013年 | 17篇 |
2012年 | 16篇 |
2011年 | 15篇 |
2010年 | 12篇 |
2009年 | 12篇 |
2008年 | 15篇 |
2007年 | 29篇 |
2006年 | 19篇 |
2005年 | 15篇 |
2004年 | 3篇 |
2003年 | 4篇 |
2002年 | 7篇 |
2001年 | 3篇 |
2000年 | 4篇 |
1994年 | 1篇 |
1993年 | 1篇 |
1976年 | 1篇 |
排序方式: 共有262条查询结果,搜索用时 0 毫秒
261.
262.
针对基于编码-解码的生成式摘要模型不能充分提取语法知识导致摘要出现不符合语法规则的问题,循环神经网络易遗忘历史信息且训练时无法并行计算导致处理长文本时生成的摘要主旨不显著以及编码速度慢的问题,提出了一种融合序列语法知识的卷积-自注意力生成式摘要方法.该方法对文本构建短语结构树,将语法知识序列化并嵌入到编码器中,使编码时能充分利用语法信息;使用卷积-自注意力模型替换循环神经网络进行编码,更好学习文本的全局和局部信息.在CNN/Daily Mail语料上进行实验,结果表明提出的方法优于当前先进方法,生成的摘要更符合语法规则、主旨更显著且模型的编码速度更快. 相似文献