多类型知识增强的微博立场检测模型

王天雨, 袁嘉伟, 齐芮, 李洋

广西师范大学学报(自然科学版) ›› 2024, Vol. 42 ›› Issue (01) : 79 -90.

PDF
广西师范大学学报(自然科学版) ›› 2024, Vol. 42 ›› Issue (01) : 79 -90. DOI: 10.16088/j.issn.1001-6600.2023050808

多类型知识增强的微博立场检测模型

    王天雨, 袁嘉伟, 齐芮, 李洋
作者信息 +

Author information +
文章历史 +
PDF

摘要

针对文本立场检测中目标话题在微博文本中隐式出现以及文本语义隐含表达这2个核心问题,本文提出一种基于多类型知识增强与预训练语言模型相结合的立场检测新方法KE-BERT。该模型同时从知识图谱和百度百科中引入多类型的相关常识知识来弥补语义缺失,使用改进的预训练语言模型BERT作为编码器,然后通过卷积注意力机制对常识知识进行融合与聚焦,最后通过Softmax分类获得立场。该模型在NLPCC-2016语料库上实验的宏平均F1值达到0.803,分类性能超越现有主流模型,验证了模型的有效性。

关键词

立场检测 / 知识增强 / BERT / 卷积神经网络 / 注意力机制

Key words

引用本文

引用格式 ▾
多类型知识增强的微博立场检测模型[J]. 广西师范大学学报(自然科学版), 2024, 42(01): 79-90 DOI:10.16088/j.issn.1001-6600.2023050808

登录浏览全文

4963

注册一个新账户 忘记密码

参考文献

AI Summary AI Mindmap
PDF

96

访问

0

被引

详细

导航
相关文章

AI思维导图

/