基于多任务学习的词汇约束神经机器翻译方法

叶娜, 夏宇轩, 张桂平, 杨晨, 王雪妮

厦门大学学报(自然科学版) ›› 2025, Vol. 64 ›› Issue (06) : 970 -982.

PDF
厦门大学学报(自然科学版) ›› 2025, Vol. 64 ›› Issue (06) : 970 -982.

基于多任务学习的词汇约束神经机器翻译方法

    叶娜, 夏宇轩, 张桂平, 杨晨, 王雪妮
作者信息 +

Author information +
文章历史 +
PDF

摘要

[目的]神经机器翻译(NMT)是指利用神经网络模型将源语言翻译为正确的目标语言,而词汇约束翻译(LCT)要求模型在生成的译文中包含预先指定的目标语言片段.由于NMT模型采用端到端的训练方式,在学习过程中更侧重于序列的整体优化而非个别词汇的强制匹配,这导致现有的LCT方法难以在译文质量与约束准确性间实现平衡.[方法]为了解决这一问题,本文提出一种基于多任务学习的LCT方法,利用不同子任务的归纳偏置,引导模型在训练过程中获得词汇约束场景下的翻译能力.该方法将LCT作为主任务,将常规机器翻译(MT)、目标端单语文本生成(TMTG)和源端词元类型标注(STTL)作为辅助任务进行多任务学习.[结果]实验结果表明,本文提出的LCT方法与当前最先进的基线方法相比,BLEU分数提升2.28个百分点,BLEURT分数提升0.62个百分点,窗口重叠分数提升1.50.[结论]本文提出的基于多任务学习的词汇约束NMT方法,通过任务间的信息交换与协同作用,可以促进跨任务的知识迁移,在准确生成约束词的同时,保持较高的译文质量和流畅性.

关键词

神经机器翻译 / 词汇约束 / 多任务学习 / 知识融合

Key words

引用本文

引用格式 ▾
基于多任务学习的词汇约束神经机器翻译方法[J]. 厦门大学学报(自然科学版), 2025, 64(06): 970-982 DOI:

登录浏览全文

4963

注册一个新账户 忘记密码

参考文献

AI Summary AI Mindmap
PDF

102

访问

0

被引

详细

导航
相关文章

AI思维导图

/