基于Transformer-LSTM架构的语音去噪方法研究

胡必波, 刘红英, 王传传, 甄雅迪

信息记录材料 ›› 2025, Vol. 26 ›› Issue (04) : 49 -51.

PDF
信息记录材料 ›› 2025, Vol. 26 ›› Issue (04) : 49 -51. DOI: 10.16009/j.cnki.cn13-1295/tq.2025.04.001

基于Transformer-LSTM架构的语音去噪方法研究

作者信息 +

Author information +
文章历史 +
PDF

摘要

在语音识别系统中,语音信号与噪声的叠加使得传统方法难以有效进行语音识别。针对这一问题,本研究提出一种基于Transformer的长短期记忆(long short-term memory, LSTM)架构的语音去噪方法,该方法结合Transformer的多头注意力机制和LSTM的时序建模能力,能够有效地从混合语音信号中去除背景噪声;语音去噪模型采用自适应学习率进行训练优化,基于WSJ0-Mix数据集的评估结果表明:基于Transformer-LSTM架构的语音去噪方法在信噪比、信号失真比和感知语音质量评估等指标上均优于传统的梯度下降方法,表明Transformer-LSTM架构能够在语音去噪任务中提供更为精确的信号恢复和噪声抑制能力,也充分验证了该方法在语音去噪任务中的有效性和优越性。

关键词

Transformer / 长短期记忆(LSTM) / 多头注意力机制 / 语音去噪 / 自适应学习率

Key words

引用本文

引用格式 ▾
胡必波, 刘红英, 王传传, 甄雅迪. 基于Transformer-LSTM架构的语音去噪方法研究[J]. 信息记录材料, 2025, 26(04): 49-51 DOI:10.16009/j.cnki.cn13-1295/tq.2025.04.001

登录浏览全文

4963

注册一个新账户 忘记密码

参考文献

AI Summary AI Mindmap
PDF

95

访问

0

被引

详细

导航
相关文章

AI思维导图

/