基于知识蒸馏和评论时间的文本情感分类新方法

王友卫 ,  刘奥 ,  凤丽洲

吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (05) : 1664 -1674.

PDF (1168KB)
吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (05) : 1664 -1674. DOI: 10.13229/j.cnki.jdxbgxb.20230845
计算机科学与技术

基于知识蒸馏和评论时间的文本情感分类新方法

作者信息 +

New method for text sentiment classification based on knowledge distillation and comment time

Author information +
文章历史 +
PDF (1195K)

摘要

针对现有的情感分类方法普遍未能充分考虑用户个性化特征且忽略时间因素对情感分类结果的影响的问题,提出一种基于知识蒸馏和评论时间的文本情感分类新方法。首先,为解决数据集中高质量标注数据较少的问题,采用RoFormer-Sim生成模型对训练文本数据增强;然后,引入评论时间属性,从用户历史评论中提取用户的个性化信息,提出基于多特征融合的评论文本情感得分预测模型;最后,为提高针对冷启动用户的泛化性能,引入知识蒸馏理论,利用SKEP模型对基于多特征融合的情感分类模型进行通用性增强。在从中文股吧爬取的真实数据集上的实验结果表明:与SKEP、ELECTRA等典型方法相比,本文方法在准确率上分别提高了3.1%和0.9%,在F1值上分别提高了2.7%和1.0%,验证了其在改善情感分类表现方面的有效性。

Abstract

Aiming at the problem that the existing sentiment classification methods generally did not fully consider the user's personalized characteristics and ignore the influence of time factor on the sentiment classification results, a new method for text sentiment classification based on knowledge distillation and comment time is proposed. Firstly, in order to solve the problem of less labeled data with high quality, the RoFormer-Sim generative model is used to augment the training text data. Then, a sentiment score prediction model of comment text based on multi-feature fusion is proposed by introducing comment time attribute to extract users' personalized information from user's historical comments. Finally, in order to improve the generalization performance for cold start users, the knowledge distillation theory is introduced, and SKEP model is used to enhance the versatility of the sentiment classification model based on multi-feature fusion. The experimental results on the real dataset crawled from the Chinese stock page show that compared with typical methods such as SKEP and ELECTRA, the accuracy of the proposed method is improved by 3.1% and 0.9%, and the F1 value is increased by 2.7% and 1.0%, respectively, which verifies its effectiveness in improving the performance of sentiment classification.

Graphical abstract

关键词

计算机应用 / 情感分类 / 知识蒸馏 / 数据增强 / 历史评论

Key words

computer application / sentiment classification / knowledge distillation / data augmentation / historical comment

引用本文

引用格式 ▾
王友卫,刘奥,凤丽洲. 基于知识蒸馏和评论时间的文本情感分类新方法[J]. 吉林大学学报(工学版), 2025, 55(05): 1664-1674 DOI:10.13229/j.cnki.jdxbgxb.20230845

登录浏览全文

4963

注册一个新账户 忘记密码

0 引 言

随着互联网技术的快速发展,股吧平台成为越来越多投资者进行信息交流和获取的重要平台。通过针对股吧评论的情感分析,可以帮助投资者了解市场动向,提供给投资者相应的投资建议,也可以在一定程度上预测市场波动,帮助企业提前做好应对措施以化解风险。近年来,深度学习因其卓越的分类表现,被更多地应用在情感分类领域。Umer等1将极度随机树(Extra tree)与卷积神经网络(Convolutional neural networks, CNN)两个模型单独训练,再通过软投票机制将模型集成,以提高模型的准确率和稳健性。Lan等2提出了ALBERT(A lite BERT) 预训练模型,该模型减少了BERT模型整体的参数量,加快了训练速度。但是,该模型的下游微调任务仍需要大量文本数据,因此,针对数据匮乏的中文金融领域无法获得较好的情感分类性能。Liu等3提出了FinBERT(BERT for financial text mining)预训练模型,该模型在BERT模型的基础上通过大规模英文金融语料训练得到,解决了英文金融领域缺乏预训练模型的问题,但因训练语料的限制,该模型无法应用在中文金融评论领域。赵亚欧等4提出了基于ELMo(Embeddings from language models)和Transformer 的混合模型,并将长短时记忆网络(Long short-term Memory, LSTM)和多头注意力机制引入模型,解决了评论文本双向语义和一词多义的问题。但是,该方法仅提取评论文本自身的情感特征,未能准确挖掘用户个性特征和社会关系对文本情感分析的影响。为此,Yang等5利用用户与用户、用户与博文之间的关系构建图,并利用大规模信息网络嵌入算法(Large-scala information network embedding, LINE)得到含有社交关系的节点向量。但是,以上方法未能对用户丰富的历史评论信息进行深入挖掘。为此,蒋宗礼等6利用分层的多头注意力机制从多个角度挖掘用户和产品信息,更全面地捕捉用户与产品信息对情感分类的影响,取得了较好的实验结果。

研究发现,目前的情感分类方法仍面临以下问题:①金融领域质量合格的标注评论较为缺乏,限制了情感分类模型的准确性和泛化性;②未能考虑用户属性特征、用户历史评论特征、用户社交关系特征的综合影响,忽略了用户个性化特征和时间属性对情感分类的作用;③情感分类结果依赖于有限的训练数据,模型针对其他相关领域的迁移性和通用性较差。为此,本文提出一种基于知识蒸馏和评论时间的文本情感分类新方法。该方法首先利用RoFormer-Sim生成模型对评论文本进行数据增强;然后,利用用户大量无标注的历史评论提取用户个性特征,并通过引入时间遗忘函数以充分考虑时间因素对情感分类结果的影响;最后,提出基于用户相似度的冷启动用户表示方法,并引入蒸馏学习理论提高模型针对不同领域的泛化性能。

1 相关理论

1.1 知识蒸馏

知识蒸馏7是一种有效的模型压缩方法。它能够将复杂的教师模型所学习到的知识迁移到轻量级的学生模型中。蒸馏训练主要是将复杂教师模型生成的软标签作为监督信号加入学生模型的训练中,以完成知识的迁移,达到提高学生模型分类准确率和泛化性的目的8。教师模型的软标签通过引入温度系数T以对模型的输出进行平滑处理而得到,温度系数T的引入使软标签分布更加平滑,学生模型学到的知识也就更加丰富。软标签的计算公式如下:

yiT=Softmax-T(zi)=exp(zi/T)jexp(zj/T)

式中:yijT为软标签;zizj 为模型输出;T为温度系数;Softmax-T函数为引入温度系数T的Softmax函数。

整个蒸馏学习的损失LKD为学生模型的交叉熵损失LCE和蒸馏损失LDL的加权求和,计算公式为:

LKD=aLCE(p,y)+(1-a)LDL(pT,qT)T2

式中:LCEpy)为学生模型的硬标签(Softmax函数输出)p与真实标签y的交叉熵损失;LDLpTqT)为学生模型的软标签pT与教师模型的软标签qT的KL散度损失;a为权重因子;乘以T2是为了均衡这两个损失。

1.2 情感知识增强预训练模型(Sentiment knowledge enhanced pre-training for sentiment analysis, SKEP)

SKEP模型9是基于情感知识增强的情感预训练模型。SKEP模型首先使用点互信息(Pointwise mutual information, PMI)10的方法对大量无标记数据自动挖掘情感知识,包括情感词、情感词极性以及观点搭配;然后,通过以下方式对原始句子的部分情感词语进行屏蔽:随机遮掩最多两对观点搭配、随机遮掩不超过当前句子token总数10%的情感词、当遮掩的比例不足10%时随机补充遮掩通用词至10%;最后,该模型将复原被屏蔽的情感信息。鉴于SKEP模型准确性高、通用性好、一键式预测等优势,本文将结合蒸馏学习思想利用SKEP模型提高情感分类模型的泛化性能。

2 问题描述

定义1 用户当前评论:当前进行情感分类的用户评论文本,表示为UijC(1≤iN),代表用户i的第j条当前评论。

定义2 用户历史评论集:用户一段时间内在平台上发表的所有历史评论,定义为UP={UiP}(1≤iN),其中UiP={UijP}(1≤jCiCi 为用户i具有的历史评论数),UijP表示第i个用户的第j条历史评论。

定义3 社会关系:用户间社会关系表示为G=(VA ),其中V={vi }(1≤iN,|V|=N)为用户集合, A ∈R N×N 为用户的邻接矩阵,能够表达有向图G的结构信息,Aij 的定义为:

Aij=1,用户节点vi关注用户节点vj0,其他                                            

定义4 用户属性特征:用户i的属性特征为Fi,其中,Fi ={funij }(1≤jnn为用户属性个数),funij 为用户i的第j个属性值,通常指用户的粉丝数、关注人数、影响力值等信息。

在此基础上,本文综合多种特征的影响,将情感分类函数定义为FhijΩS)。若FhijΩS)=1,则UijC的情感类别为积极,否则,其情感类别为消极。其中, hijUijC对应的多特征融合后的向量,Ω为模型所需参数,S为知识蒸馏教师模型。为便于理解,本文其余相关符号的定义如表1所示。

3 基于知识蒸馏和评论时间的文本情感分类新方法

本文方法主要分为两个模块:基于多特征融合的评论文本情感得分预测模型与基于知识蒸馏和用户相似性的模型通用性增强,具体过程如图1所示。

3.1 基于多特征融合的评论文本情感得分预测模型(MFM)

3.1.1 评论文本数据增强

股吧的评论文本有较强的不规范性,充斥着大量的网络用词、口语词,同时有一定的专业性,包含较多投资专业术语。这导致文本的噪声较大,质量合格的标注数据较少。为此,本文采用RoFormer-Sim模型11对评论文本进行数据增强。RoFormer-Sim是同时具备相似句生成和相似句检索能力的生成式语言模型。该模型在SimBERT12的基础上,增加了仿BART(Bidirectional and auto-regressive transformers)13式训练、模型蒸馏以及一般句式语料的训练,是对SimBERT相关技术进一步的整合和优化。

3.1.2 用户特征向量生成

为了有效考虑情感分类任务里评论的时间属性,本文在为每个用户构建个性化用户特征向量时,引入可解释性更强的时间遗忘函数,获得包括历史评论中蕴含的个性信息和粉丝数、访问量、影响力等属性信息,以此融合了用户的用词习惯、性格特点、态度偏好、遗忘属性、影响力及活跃程度等个性化因素。具体过程如下:

为获得用户i的第j个历史评论UijP的句向量 hijS,将UijP所有词对应的词向量乘以该词相应的tf-idf值,以体现句子中每个词的重要程度,计算公式为:

hijS=k=1tijPhijkW×exp(Tk)tijP

式中:exp()表示以e为底的指数函数;Tk 为词语wordkijtf-idf值,其计算方法为:

Tk=tfk×idf
tfk=nkt
idf=lgnpnpk+1

式中:tfkwordkij的词频;idf为逆向文件频率;nk 为词wordkij在本评论中出现的次数;np 为所有评论的个数;npk 为包含词wordkij的评论数。

可见,Tk 越大,说明wordkij越重要,对句向量 hijS的影响越大。

人们的情绪特征和态度偏好通常会随着时间的推移而发生较大的改变,德国心理学家Ebbinghaus14研究发现了艾宾浩斯遗忘曲线,揭示了人们对事物的遗忘过程呈现非线性的变化。根据此规律,构造与艾宾浩斯遗忘曲线类似的基于时间的遗忘函数,定义为:

f(u,i)=e-a×ti-t0Tu

式中:fui)为用户u的第i个历史评论的时间权重,其数值在(0,1)之间;ti 为用户u的第i个历史评论所发表的时间;t0为用户最早发表评论的时间;Tu为用户最早发表评论与最近发表评论的时间间隔;a为权重调控因子,a∈[0,1]。

进一步地,计算得到用户i的历史评论向量 hiL(1≤iNhiLRmm为词向量维数),公式为:

hiL=i=0Cif(i,j)×hijSCi

式中:Ci 为用户i具有的历史评论数;fij)为UijP对应的时间遗忘函数值。

按照定义4提取用户i的属性集Fi 所对应的属性值,为避免不同维度跨度大小的影响,对该向量每维数据进行Max-Min归一化操作,以得到用户i的属性向量 hiA∈R n。在此基础上,将其与用户历史评论向量 hiL拼接,得到用户i的特征向量 hiF∈R m+n,公式为:

hiF=hiL||hiA

式中: || 为向量拼接操作。

3.1.3 用户社会关系向量生成

为提高用户社会关系学习效果,本文利用node2vec算法15对用户社会关系网络结构进行学习,通过控制节点序列产生过程中的游走趋向将更大范围的网络结构信息体现到节点向量中。使用node2vec算法可得到一系列节点序列,并通过skip-gram模型训练获得用户社会关系向量 HR =[ hiR](1≤iNhiR∈R m+n ),对应的目标函数为:

L=1Nt=1N-cjc,j0logp(wt+j|wt)

式中:N为用户数量;c为窗口大小;wt 为第t个用户节点。

p(wt+j|wt)=uwt+jTvwti=1|V|exp(uwiTvwt)

式中: uwvw 分别为节点w是背景节点和中心节点的向量表达。

3.1.4 基于多特征融合的情感分类

本文选取字长不超过400的用户评论进行标注,形成带有标注的用户当前评论数据UijC(1≤iN),对应的标签为ŷijŷij ∈{0,1})。进一步地,对当前评论进行分词、去停用词等操作,并利用预训练的skip-gram模型将各词语转换为词向量,得到词向量矩阵 HijtCW(该矩阵由词向量 hijtCW组成,1≤ttijCtijCHijtCW所含词语个数),为了充分利用上下文信息,保证同时对数据上下文的处理能力,引入双向GRU单元16(BiGRU),将 HijtCW中的节点向量依次输入BiGRU中,以获得所有词向量的矩阵 Hij (该矩阵由 htB组成, htB为BiGRU网络输出的第t个词语向量,1≤ttijC),其中 htB的计算公式为:

ht=GRU(hijtCW,ht-1)
ht=GRU(hijtCW,ht+1)
htB=[ht,ht]

式中:htht分别为GRU网络从前往后、从后往前处理词语序列得到的第t个词语向量; htBhtht拼接得到;[ , ]为向量拼接符。

为了识别不同词对情感分类的重要程度,将BiGRU的输出 Hij 输入注意力层中,可将用户当前评论UijC转化为相应的句向量 hijC∈R m+n,公式为:

hijC=Attention(Hij)

式中:Attention()为采用一层全连接神经网络的注意力层,公式为:

A=Softmax(WAM+bA)
M'=MA
z=iMi'

式中: M 为注意力机制的输入矩阵; WAbA 分别为权重矩阵和偏置矩阵; A 为注意力分数矩阵,形状与 M 相同;M'为中间向量矩阵; z 为注意力机制的输出,⊙表示矩阵哈达玛积。

在此基础上,利用与式(16)相同的注意力机制以获得当前评论文本的最终向量表达: hij ∈R m+n,公式为:

hij=Attention([hijC,hiF,hiR])

进一步地,将 hij 输入全连接层中,以获得当前评论UijC所对应的情感得分sij ∈R2,公式为:

sij=W0hij+b0

式中: W0∈R2×(m+nb0∈R2为训练权重矩阵。

现给出本文基于多特征融合的评论文本情感得分预测模型(MFM)的执行过程,如算法1所示。

算法1 基于多特征融合的评论文本情感得分预测

输入:用户i的当前评论数据集UiC={UijC}(1≤j≤Ri,Ri为用户i具有的当前评论数),用户关注关系G=(V,A),用户i的历史评论集UiP={UijP}(1≤j≤Ri)和用户i的属性集Fi

输出:UiC的情感得分向量si

1.对Fi进行Max-Min处理,得到用户i的属性向量hiA∈Rn

2.利用node2vec算法处理用户社会关系图G=(V,A),得到用户的社会关系向量:HR=[hiR](1≤i≤N)

3.for all UijP∈UiP do

4.利用式(4)获得UijP对应句向量hijS

5.利用式(8)(9)获得用户i的历史评论向量hiL

6.end for

7.利用式(10)获得用户i的特征向量hiF

8.for all UijC∈UiC do

9.将UijC所有词对应的词向量输入BiGRU网络中,并利用式(16)获得句向量hijC

10.利用式(20)融合hiF、hiR和hijC,得到UijC对应的特征向量hij

11.end for

12.将Hi=[hij](1≤j≤Ri)输入全连接层,利用式(21)获得情感得分向量si=[sij](1≤j≤Ri,sij为UijC的情感得分)

3.2 基于知识蒸馏和用户相似性的模型通用性增强

3.2.1 冷启动用户表示

为了提高模型针对训练集中未出现用户(冷启动用户)的表示能力,本文提出针对冷启动用户的关系向量表示方法。具体而言,首先,通过遍历数据集中的所有N个用户,计算冷启动用户v的特征向量与现有全部用户i的余弦相似度,如式(22)所示;然后,将所有用户按余弦相似度值大小降序排序,得到相似度值排前5的用户;最后,对这5个用户的关系向量取平均值,可得到冷启动用户v的关系向量 hvR∈R m+n,如式(23)所示:

cos(v,i)=hiF×hvFhiFhvF
hvR=itop5_list5hiR5

式中:cos(vi)为冷启动用户v与用户i的余弦相似度;top5_list为余弦相似度值前5的用户集。

3.2.2 模型通用性增强

单纯使用基于多特征融合的情感分类方法易造成模型对训练集数据依赖性强的问题,使模型预测结果针对特定文本有一定的偏向性。为此,本文引入知识蒸馏理论,以通用情感分类模型SKEP为教师模型,以多特征模型MFM为学生模型,将SKEP模型的通用性情感分类知识泛化到MFM上,以此提高情感分类模型对其他评论领域的通用性和准确率。为避免过拟合,在蒸馏训练的损失函数中加入了L2正则化惩罚项,计算公式为:

LKD=aLCE+(1-a)T2LDL+λθ2

式中:LCELDL分别为学生模型的交叉熵损失与蒸馏损失;a为权重因子;T为温度系数;θ为模型全部参数;λL2正则化的惩罚系数,λ越大,惩罚力度越大。

LCE=-i=1Nj=1Riy^ijlnpij ,LDL=i=1Nj=1RiqijTlnqijTpijT

式中:ŷijUijC的真实情感标签;pij 为MFM模型的硬标签;pijT为MFM模型的软标签;qijT为SKEP模型的软标签。

4 实验结果与分析

4.1 数据集

针对东方财富网股吧平台的用户,使用八爪鱼专业版软件爬取其在2021年11月之前发布的评论(最大不超过60条)。每个用户选取最多20个关注者,最终得到了用户评论数据集,数据集中共含有437个用户,17 391条评论,479条关注边数。对每个用户爬取包括粉丝数、吧龄、访问量、关注的人数、影响力值等属性信息。在所有的用户评论中,选取标题和正文总字数不超过400的评论进行积极性和消极性标注,以此得到5 791条标注数据。数据集中部分评论示例如表2所示。

为了验证用户历史评论对情感分类结果的影响,本文选用发表时间为最近一周的标注评论为测试集,除去测试集后,训练集、验证集分别占剩余数据的7/8与1/8。实验使用准确率(Acc)、F117和均方根误差(Root mean square error,RMSE)18来衡量模型的分类性能,每次实验的结果通过10次随机实验的平均值得到。实验软件环境为:Python 3.7.0+TensorFlow 2.1.0,硬件环境为:CPU:Intel Xeon Gold 5218,内存:64 GB,显卡:NVIDIA GeForce RTX 2080Ti。

4.2 对比方法及参数设置

选取以下基线方法进行对比:BiGRU16、BiGRU+Attention19、TextCNN20、ALBERT2、ELECTRA21、CAT-BiGRU22、Cov-Att-Bilstm23、CNN+BiGRU24、SKEP9、LSTM-GRU25。若无特殊说明,所有方法默认迭代轮次epochs=110,批大小batch_size=1 024,学习率learning_rate=0.000 2,L2惩罚系数λ=0.000 2,优化器为Adam,词向量通过skip-gram模型获得,句子最大长度max_len=100,词嵌入维度m=95,属性向量维数n=5。上述方法涉及的其他参数如表3所示。

4.3 数据增强验证和测试集选定

为解决标记数据量不足的问题,利用RoFormer-Sim模型对训练文本进行数据增强,将训练数据分别扩增1、2、3倍。同时,根据评论发表时间选定测试集,将发表时间段为:2021.10.29至2021.11.04(最近1周)、2021.10.22至2021. 11.04(最近2周)、2021.10.15至2021.11.04(最近3周)、2021.10.08至2021.11.04(最近4周)的标注评论数据分别作为测试集,即时间间隔D=1周,时间阈值为最近w周(w=1,2,3,4),对应样本数量分别为407、801、1 074及1 309。

图2展示了MFMS方法在训练集数据增强zz=0,1,2,3)倍时、针对不同时间区间(最近w周)测试集的情感分类结果。由图2可知,在测试数据集一致时,扩增的倍数在1、2倍时,情感分类性能有明显提升,说明RoFormer-sim生成模型能够一定程度地解决原本质量合格的标注评论较少,专有训练语料不足的问题,较好地提升情感分类性能。当扩增倍数为z=3时,仅测试集为最近2周(w=2)时,测试结果略有提升,在准确率和F1值上分别仅提高了0.07%和0.18%,其余测试集均有不同程度的下跌,这是因为较大的扩增倍数将引入较多的噪声样本,继而影响了情感分类的准确性。

进一步发现,当选用最近1周(w=1)发表的评论为测试集,且训练集扩增倍数为z=2时,其准确率和F1值最高,分别为86.6%、90.8%,比训练集为原数据(z=0)时分别提高了2.92%、2.06%。图3展示了MFMS方法在不同的文本增强倍数下、针对不同测试集时的平均训练时间,由图3可知,随着文本增强倍数的增加,模型的训练时间呈线性增长。因此,均衡考虑训练时间和分类效果,文本增强倍数、测试集评论的时间区间分别取2倍、最近1周,并将其应用于后续对比实验中。

4.4 epoch影响分析

图4显示了训练轮数为110时,模型训练过程中的总损失、蒸馏损失、交叉熵损失、准确率和F1值随训练轮次的变化情况。由图4可知,随着训练轮次的增加,各损失值均呈下降趋势,准确率和F1值呈上升趋势。当epoch取值大于20时,准确率和F1值趋于稳定,而损失值下降变得缓慢,说明此时模型的训练过程接近收敛状态。在各损失值中,总损失和交叉熵损失相近,且明显大于蒸馏损失,这是因为,由式(24)可知,总损失为蒸馏损失乘以T2的结果、交叉熵损失以及惩罚项的加权和,使温度系数T限制了蒸馏损失的大小。

4.5 带时间属性的用户个性特征有效性验证

为了验证评论时间属性对提升情感分类性能的有效性,通过改变多特征模型的输入特征以获得不同的情感分类方法,具体如下:

(1) MFMS-NTime:与MFMS不同的是,该方法的用户特征向量生成时,不考虑历史评论的发表时间因素,取历史评论向量的平均值得到。

(2) MFMS-NUser:与MFMS不同的是,该方法不融合用户特征向量,仅融合用户当前评论向量和用户关系向量。

图5展示了各分类方法在测试集发表时间阈值为最近w周(w=0.5,1,1.5,2),时间间隔D=0.5周时的情感分类结果。由图5可知,MFMS表现均优于MFMS-NTime。当w值分别为0.5、1、1.5、2时,MFMS相对于MFMS-NTime在F1值上分别提高了1.82%、1.35%、1.9%、1.77%,验证了相比于不考虑历史评论的发表时间得到的用户特征向量,使用时间遗忘函数得到的用户特征向量对提升情感分类性能的有效性。当w值分别为0.5、1、1.5、2时,MFMS 相对于MFMS-NUser 在准确率上分别提高了0.93%、0.90%、1.30%、1.10%,验证了融合基于用户历史评论和属性的用户特征向量对提升评论文本情感分类性能的有效性。进一步发现,当测试集的时间间隔w值取1时,MFMS、MFMS-NTime、MFMS-NUser在准确率与F1值上均比w取其他值(0.5、1.5、2)时有不同程度的提高,进一步验证了本文把测试集时间区间选定为最近1周的合理性。

4.6 综合比较

表4列出了本文方法与经典深度学习方法在准确率、F1值和RMSE值上的实验结果。由表4可知,本文方法表现均优于预训练模型算法(ALBERT、ELECTRA与SKEP),比预训练模型中表现最好的ELECTRA模型在准确率和F1值上分别提升了0.9%和1.0%,在RMSE值上降低了0.013。这是因为预训练模型仅将用户评论的语义信息作为特征,忽略了用户的个性特征和社会关系特征,因此,降低了其在情感分类上的表现。

进一步分析表4可知,在除预训练模型之外的深度学习方法中,CNN+BiGRU模型表现最优,而本文未经知识蒸馏的MFM方法相比于CNN+BiGRU模型在准确率和F1值上分别提升了1.4%和1.0%,在RMSE值上降低了0.032。验证了在用户当前评论文本特征的基础上综合考虑带有时间属性的用户历史评论、属性特征和社交关系对提升情感分类性能的有效性。同时,本文的MFMS方法比MFM方法在准确率和F1值上分别提升1.1%和0.8%,比SKEP在准确率和F1值上分别提升3.1%和2.7%,可见,知识蒸馏理论使基于多特征融合的评论文本情感得分预测模型可以充分学习SKEP情感模型的通用性知识,继而有效提高模型的分类准确率和泛化性。

4.7 模型通用性验证

为验证本文方法针对训练集外冷启动用户的情感分类性能,通过修改本文方法以获得不同的情感分类方法。具体方法如下:

(1) MFMS-DW:与MFMS不同的是,该方法的用户关系向量采用DeepWalk算法生成。

(2) MFMS-NRel:与MFMS不同的是,该方法不融合用户关系向量,仅融合用户当前评论向量和用户特征向量。

(3) MFMS-Attr:与MFMS不同的是,该方法通过求该冷启动用户与其他用户属性向量的余弦相似度得到最相似的前5个用户,再取它们关系向量的平均值作为该冷启动用户的关系向量。

表5列出了不同方法对应的准确率和F1值,由表5可知,MFMS表现优于MFMS-NRel,在准确率与F1值上分别提高了0.5%与0.4%,验证了用户社会关系特征对提升情感分类性能具有较好的效果。MFMS表现优于MFMS-DW,在准确率与F1值上分别提高了0.3%与0.2%,这说明相比于DeepWalk算法,使用node2vec算法得到的用户社会关系向量在提升情感分类性能上更加有效。进一步发现,MFMS比未经知识蒸馏的MFM方法在准确率与F1值上分别提高了1.3%与0.9%,比教师模型SKEP在准确率和F1值上分别提高了2.8%和2.4%,这主要是因为MFM模型通过蒸馏训练学习到了SKEP模型中蕴含的通用性情感分类知识,提高了模型对跨领域评论的检测能力。

为验证本文方法在其他数据集上的表现,进一步选择英文SST-2数据集9进行实验。选取其中1/3样本微调SKEP模型,剩余2/3样本作为本文方法数据集,在此基础上得到不同方法对应的准确率及F1值,如图6所示。由图6可知,使用蒸馏模型的MFMS方法比未使用蒸馏模型的MFM方法在准确率和F1值上分别提高了1.2%和1.1%,这说明MFMS方法学习了SKEP模型蕴含的有用分类知识,有效提升了本文方法的情感分类效果。

5 结束语

本文提出了一种基于知识蒸馏和评论时间的文本情感分类新方法,主要贡献包括:①利用RoFormer-Sim生成模型对标注评论进行数据增强,解决了训练数据不足的问题;②引入时间因素,为每个用户构建了具有遗忘属性的用户特征,并将其与用户社交关系特征、当前评论特征通过注意力机制融合,充分考虑不同类型特征对情感分类结果的影响;③提出了基于用户相似度的用户关系表示方法,提高了针对冷启动用户的表达能力,同时引入知识蒸馏的理论和训练方法,提高了模型的通用性和泛化性。在从股吧爬取的真实数据集上的实验结果表明:与传统典型方法相比,该方法在准确率及F1值上获得明显提升。但是,本文方法未能有效考虑用户社会关系动态变化的影响,因此,未来将结合时序数据分析方法获得符合当前用户情感状态的社会关系特征,以进一步提高模型情感分类效果。

参考文献

[1]

Umer M, Sadiq S, Nappi M, et al. ETCNN: extra tree and convolutional neural network-based ensemble model for COVID-19 tweets sentiment classification[J]. Pattern Recognition Letters, 2022, 164: 224-231.

[2]

Lan Z, Chen M, Goodman S, et al. ALBERT: a lite bert for self-supervised learning of language representations[C]∥International Conference on Learning Representations, Addis Ababa, Ethiopia, 2020: 1-17.

[3]

Liu Z, Huang D, Huang K, et al. Finbert: a pre-trained financial language representation model for financial text mining[C]∥Proceedings of the Twenty-Ninth International Conference on International Joint Conferences on Artificial Intelligence, Yokohama, Japan, 2021: 4513-4519.

[4]

赵亚欧, 张家重, 李贻斌, 基于ELMo和Transformer混合模型的情感分析[J]. 中文信息学报, 2021, 35(3): 115-124.

[5]

Zhao Ya-ou, Zhang Jia-chong, Li Yi-bin, et al. Sentiment analysis based on hybird model of elmo and transformer[J]. Journal of Chinese Information Processing, 2021, 35(3): 115-124.

[6]

Yang J, Zou X, Zhang W, et al. Microblog sentiment analysis via embedding social contexts into an attentive LSTM[J]. Engineering Applications of Artificial Intelligence, 2021, 97: 104048.

[7]

蒋宗礼, 张静. 融合用户和产品信息的多头注意力情感分类模型[J]. 计算机系统应用, 2020, 29(7): 131-138.

[8]

Jiang Zong-li, Zhang Jing. Multi-head attention model with user and product information for sentiment classification[J]. Computer Systems & Applications, 2020, 29(7): 131-138.

[9]

Hinton G, Vinyals O, Dean J. Distilling the knowledge in a neural network[J]. Computer Science, 2015, 14(7): 38-39.

[10]

邵仁荣, 刘宇昂, 张伟, 深度学习中知识蒸馏研究综述[J]. 计算机学报, 2022, 45(8): 1638-1673.

[11]

Shao Ren-rong, Liu Yu-ang, Zhang Wei, et al. A survey of knowledge distillation in deep learning[J]. Chinese Journal of Computers, 2022, 45(8): 1638-1673.

[12]

Tian H, Gao C, Xiao X, et al. SKEP: sentiment knowledge enhanced pre-training for sentiment analysis[J/OL]. [2023-07-25].arXiv Preprint arXiv: 2005. 05635v2.

[13]

Turney P D. Thumbs up or thumbs down? Semantic orientation applied to unsupervised classification of reviews[J]. Association for Computational Linguistics, 2002, 6: 417-424.

[14]

Xie W. Entity linking based on roformer-sim for chinese short texts[J]. Frontiers in Computing and Intelligent Systems, 2023, 4(1): 46-50.

[15]

Zhao Y, Liu S, Zhang Q, et al. Test case classification via few-shot learning[J]. Information and Software Technology, 2023, 160:107228.

[16]

Lewis M, Liu Y, Goyal N, et al. BART: denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension[C]∥Meeting of the Association for Computational Linguistics. Association for Computational Linguistics, 2020: 7871-7880.

[17]

Ebbinghaus H. Memory: a contribution to experimental psychology[J]. Annals of Neurosciences, 2013, 20(4): 2004155.

[18]

Grover A, Leskovec J. Node2vec: scalable feature learning for networks[C]∥Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, New York, USA, 2016: 855-864.

[19]

乔百友, 武彤, 杨璐, 一种基于BiGRU和胶囊网络的文本情感分析方法[J]. 吉林大学学报: 工学版, 2024,54(7): 2026-2037.

[20]

Qiao Bai-you, Wu Tong, Yang Lu, et al. A text sentiment analysis method based on BiGRU and capsule network[J]. Journal of Jilin University (Engineering and Technology Edition), 2024, 54(7): 2026-2037.

[21]

王友卫, 童爽, 凤丽洲, 基于图卷积网络的归纳式微博谣言检测新方法[J].浙江大学学报: 工学版, 2022, 56(5): 956-996.

[22]

Wang You-wei, Tong Shuang, Feng Li-zhou, et al. New inductive microblog rumor detection method based on graph convolutional network[J]. Journal of Zhejiang University (Engineering Science), 2022, 56(5): 956-996.

[23]

陈洁, 王思雨, 赵姝, 基于多粒度用户偏好的文档级情感分析[J]. 中文信息学报, 2023, 37(7): 122-130.

[24]

Chen Jie, Wang Si-yu, Zhao Shu, et al. Multi-granular user preferences for document-level sentiment analysis[J]. Journal of Chinese Information Processing, 2023, 37(7): 122-130.

[25]

Li Y, Ni P, Li G, et al. Inter-personal relation extraction model based on bidirectional GRU and attention mechanism[C]∥IEEE 5th International Conference on Computer and Communications (ICCC), Harbin, China, 2019: 1867-1871.

[26]

Guo B, Zhang C, Liu J, et al. Improving text classification with weighted word embeddings via a multi-channel textcnn model[J]. Neurocomputing, 2019, 363: 366-374.

[27]

Clark K, Luong M T, Le Q V, et al. Electra: pre-training text encoders as discriminators rather than generators[J/OL]. [2023-07-26]. arXiv Preprint arXiv: 2003. 10555.

[28]

Kamal A, Abulaish M. Cat-bigru: convolution and attention with bi-directional gated recurrent unit for self-deprecating sarcasm detection[J]. Cognitive Computation, 2022, 14: 91-109.

[29]

Ahmad W, Wang B, Martin P, et al. Enhanced sentiment analysis regarding COVID-19 news from global channels[J]. Journal of Computational Social Science, 2023, 6: 19-57.

[30]

Gao Z, Li Z, Luo J, et al. Short text aspect-based sentiment analysis based on CNN + BiGRU[J]. Applied Sciences, 2022, 12(5): 12052707.

[31]

Aslam N, Rustam F, Lee E, et al. Sentiment analysis and emotion detection on cryptocurrency related tweets using ensemble LSTM-GRU model[J]. IEEE Access, 2022, 10: 39313-39324.

基金资助

中央财经大学科研创新团队支持计划项目(202516)

中央财经大学新兴交叉学科建设项目(202106)

天津市教委科研计划项目(2023SK115)

国家社科一般项目(20BTJ058)

AI Summary AI Mindmap
PDF (1168KB)

236

访问

0

被引

详细

导航
相关文章

AI思维导图

/