基于自注意力机制的BERT文本情感分析模型

朱珍元, 苏喻

海南师范大学学报(自然科学版) ›› 2025, Vol. 38 ›› Issue (03) : 281 -288.

PDF
海南师范大学学报(自然科学版) ›› 2025, Vol. 38 ›› Issue (03) : 281 -288.

基于自注意力机制的BERT文本情感分析模型

    朱珍元, 苏喻
作者信息 +

Author information +
文章历史 +
PDF

摘要

在文本情感分析领域,BERT模型因其强大的特征提取能力而被广泛应用。然而,实证研究表明,在没有对BERT进行微调的情况下,其准确性可能遭受显著损失,导致模型的实际效果未能达到预期。为了解决这一问题,提出一种结合自注意力的BERT文本情感分析模型:BERTBLSTM-Attention。该模型通过综合利用BERT的预训练能力、BLSTM和自注意力机制,增强对文本情感的理解和分析。首先,BERT模型被用于将输入的文本数据表示为高维特征向量。BERT作为一种强大的预训练模型,能够捕捉到丰富的语义信息和上下文特征,为后续的模型提供基础输入。在这一阶段,BERT的双向编码能力使模型可以从上下文中提取出更多细腻的语义信息,这对于情感分析至关重要。然后,在BLSTM层之后引入多头自注意力机制。自注意力机制的加入,使得模型可以在处理输入序列时,更加关注文本中重要的部分,通过动态分配权重来强化这些关键特征的作用。最后,模型在输出层使用SoftMax函数进行文本情感分类。在这一阶段,基于收集到的特征,模型能够生成每种情感类别的概率分布,为情感分类提供输出。在进行有效分类的同时,模型也展示了出色的泛化能力。实验发现,引入自注意力机制的BLSTM模型的准确率比未引入自注意力机制的BLSTM模型高1.8%,比未使用BERT模型的准确率高0.9%,充分说明了本文模型在语言特征提取方面的有效性。

关键词

BERT模型 / 文本情感分析 / 自注意力机制

Key words

引用本文

引用格式 ▾
基于自注意力机制的BERT文本情感分析模型[J]. 海南师范大学学报(自然科学版), 2025, 38(03): 281-288 DOI:

登录浏览全文

4963

注册一个新账户 忘记密码

参考文献

AI Summary AI Mindmap
PDF

136

访问

0

被引

详细

导航
相关文章

AI思维导图

/