多类型知识增强的微博立场检测模型 |
| |
引用本文: | 王天雨,袁嘉伟,齐芮,李洋.多类型知识增强的微博立场检测模型[J].广西师范大学学报(自然科学版),2024(1):79-90. |
| |
作者姓名: | 王天雨 袁嘉伟 齐芮 李洋 |
| |
作者单位: | 东北林业大学计算机与控制工程学院 |
| |
基金项目: | 国家自然科学基金(62276059);;黑龙江省自然科学基金优秀青年项目(YQ2023F001); |
| |
摘 要: | 针对文本立场检测中目标话题在微博文本中隐式出现以及文本语义隐含表达这2个核心问题,本文提出一种基于多类型知识增强与预训练语言模型相结合的立场检测新方法KE-BERT。该模型同时从知识图谱和百度百科中引入多类型的相关常识知识来弥补语义缺失,使用改进的预训练语言模型BERT作为编码器,然后通过卷积注意力机制对常识知识进行融合与聚焦,最后通过Softmax分类获得立场。该模型在NLPCC-2016语料库上实验的宏平均F1值达到0.803,分类性能超越现有主流模型,验证了模型的有效性。
|
关 键 词: | 立场检测 知识增强 BERT 卷积神经网络 注意力机制 |
|
|