首页 | 本学科首页   官方微博 | 高级检索  
     

基于多任务蒸馏的意图识别和槽位填充
作者姓名:高子雄  蒋盛益  欧炎镁  禤镇宇
作者单位:广东外语外贸大学信息科学与技术学院/网络空间安全学院
基金项目:国家自然科学基金(61572145);
摘    要:BERT等预训练模型在很多NLP任务上取得了良好的效果,但预训练模型参数规模大,运算量大,对硬件资源要求高,难以部署在小型的配置环境中。模型压缩是解决该问题的关键,知识蒸馏是目前较好的模型压缩方法。基于此,提出基于多任务蒸馏的句意图识别和槽位填充联合模型,该模型将ALBERT运用到任务型对话系统中,并利用知识蒸馏策略将ALBERT模型知识迁移到BiLSTM模型。实验结果表明,基于ALBERT的联合模型在SMP 2019评测数据集中的句准确率为77.74%,单独训练的BiLSTM模型句准确率为58.33%,而蒸馏模型的句准确率为67.22%,在比BiLSTM高8.89%的情况下,推断速度约为ALBERT的18.9倍。

关 键 词:意图识别与槽位填充  神经网络  知识蒸馏
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号