首页 | 本学科首页   官方微博 | 高级检索  
     检索      

基于编码器共享和门控网络的生成式文本摘要方法
引用本文:田珂珂,周瑞莹,董浩业,印鉴.基于编码器共享和门控网络的生成式文本摘要方法[J].北京大学学报(自然科学版),2020,56(1):61-67.
作者姓名:田珂珂  周瑞莹  董浩业  印鉴
作者单位:1. 中山大学数据科学与计算机学院, 广州 510006 2. 广东省大数据分析与处理重点实验室, 广州 510006
基金项目:广东省科技计划项目(2015A030401057, 2016B030307002, 2017B030308007)资助
摘    要:结合基于自注意力机制的Transformer模型, 提出一种基于编码器共享和门控网络的文本摘要方法。该方法将编码器作为解码器的一部分, 使解码器的部分模块共享编码器的参数, 同时使用门控网络筛选输入序列中的关键信息。相对已有方法, 所提方法提升了文本摘要任务的训练和推理速度, 同时提升了生成摘要的准确性和流畅性。在英文数据集Gigaword和DUC2004上的实验表明, 所提方法在时间效率和生成摘要质量上, 明显优于已有模型。

关 键 词:生成式  文本摘要  自注意力机制  编码器共享  门控网络  
收稿时间:2019-05-22

An Abstractive Summarization Method Based on Encoder-Sharing and Gated Network
TIAN Keke,ZHOU Ruiying,DONG Haoye,YIN Jian.An Abstractive Summarization Method Based on Encoder-Sharing and Gated Network[J].Acta Scientiarum Naturalium Universitatis Pekinensis,2020,56(1):61-67.
Authors:TIAN Keke  ZHOU Ruiying  DONG Haoye  YIN Jian
Institution:1. School of Data and Computer Science, Sun Yat-Sen University, Guangzhou 510006 2. Guangdong Key Laboratory of Big Data Analysis and Processing, Guangzhou 510006
Abstract:This paper proposed an abstractive summarization method based on self-attention based Transformer model, which regarded encoder as part of decoder, and used gated network to control the information flow from encoder to decoder. Compared with the existing methods, proposed method improves the training and inference speed of text summarization task, and improves the accuracy and fluency of generating summary. Experiments on English summarization dataset Gigaword and DUC2004 demonstrate that proposed model outperforms the baseline models on both the quality of summarization and time efficiency.
Keywords:abstractive  summarization  self-attention  encoder-sharing  gated network  
本文献已被 CNKI 等数据库收录!
点击此处可从《北京大学学报(自然科学版)》浏览原始摘要信息
点击此处可从《北京大学学报(自然科学版)》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号