首页 | 本学科首页   官方微博 | 高级检索  
     检索      

具有选择性局部注意力和前序信息解码器的代码生成模型
引用本文:梁婉莹,朱佳,吴志杰,颜志文,汤庸,黄晋,余伟浩.具有选择性局部注意力和前序信息解码器的代码生成模型[J].北京大学学报(自然科学版),2021,57(1):45-52.
作者姓名:梁婉莹  朱佳  吴志杰  颜志文  汤庸  黄晋  余伟浩
作者单位:1. 华南师范大学计算机学院, 广州 510631 2. 广州市大数据智能教育重点实验室, 广州 510631
基金项目:广州市大数据智能教育重点实验室;广州市科学技术计划项目;广东省重点领域研发计划;国家自然科学基金
摘    要:提出一种基于语法的代码生成模型, 该模型具有选择性局部注意力和包含前序信息的长短期记忆(LSTM)神经网络解码器, 通过更改上下文向量的计算范围, 并在解码过程中融合更多的前序信息, 增强单词之间的相关性。在Hearthstone和Django两个数据集上进行的代码生成实验证实了所提模型的有效性, 与最新的模型相比, 所提模型不仅表现出更出色的准确率和双语评估学习成绩, 还可以使计算工作量最小化。

关 键 词:代码生成  抽象语法树  包含前序信息的长短期记忆神经网络(LSTM)  选择性局部注意力  
收稿时间:2020-06-08

Syntax-based Code Generation Model with Selective Local Attention and Pre-order Information LSTM Decoder
LIANG Wanying,ZHU Jia,WU Zhijie,YAN Zhiwen,TANG Yong,HUANG Jin,YU Weihao.Syntax-based Code Generation Model with Selective Local Attention and Pre-order Information LSTM Decoder[J].Acta Scientiarum Naturalium Universitatis Pekinensis,2021,57(1):45-52.
Authors:LIANG Wanying  ZHU Jia  WU Zhijie  YAN Zhiwen  TANG Yong  HUANG Jin  YU Weihao
Institution:1. School of Computer, South China Normal University, Guangzhou 510631 2. Guangzhou Key Laboratory of Big Data and Intelligent Education, Guangzhou 510631
Abstract:This paper proposes a syntax-based code generation model with selective local attention and a preorder information decoder based on long-short term memory (LSTM) neural network, which aims to enhance the relevance by changing the calculation scope of the context vector and fuse more pre-order information during the decoding process. Code generation experiments in two dataset Hearthstone and Django confirm the effectiveness of this model. Compared with state-of-the-art models, the proposed model not only achieves excellent accuracy and bilingual evaluation understudy score, but also minimizing computational effort.
Keywords:code generation  abstract syntactic tree  pre-order information LSTM  selective local attention  
本文献已被 CNKI 万方数据 等数据库收录!
点击此处可从《北京大学学报(自然科学版)》浏览原始摘要信息
点击此处可从《北京大学学报(自然科学版)》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号