楼主: ccwwccww
607 1

[学习笔记] 【学习笔记】弥合神经机器翻译在训练和推理过程之间的缺口 神经机器翻译(NMT ... [推广有奖]

已卖:2470份资源

大师

57%

还不是VIP/贵宾

-

威望
0
论坛币
349639 个
通用积分
193046.0895
学术水平
202 点
热心指数
220 点
信用等级
170 点
经验
13385 点
帖子
11027
精华
0
在线时间
6041 小时
注册时间
2008-3-25
最后登录
2025-7-31

楼主
ccwwccww 发表于 2019-8-6 17:45:29 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
弥合神经机器翻译在训练和推理过程之间的缺口
神经机器翻译(NMT)基于上下文预测下一个词,依次生成目标语句。在训练时,模型以真实值作为上下文(context)进行预测,而在推理时,模型必须从头生成整个序列。这种输入上下文的差异会导致错误累积。此外,单词级别(word-level)的训练要求生成的序列与真实序列严格匹配,这会导致模型对不同但合理的翻译产生过度矫正。
为了解决这一问题,研究人员提出不仅从真实值序列中采样得到上下文词(context word),也从模型的预测序列中采样得到上下文词。
该方法解决了 seq2seq 中长期存在的暴露偏差问题;适用于当前的 teacher-forcing 训练范式,比 scheduled sampling 有所提升;实验结果表明该方法在多个数据集上取得了显著的改进。该方法可能影响机器翻译的未来,也适用于其他 seq2seq 任务。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:机器翻译 学习笔记 习笔记 scheduled SCHEDULE

已有 1 人评分论坛币 收起 理由
经管之家编辑部 + 50 精彩帖子

总评分: 论坛币 + 50   查看全部评分

沙发
经管之家编辑部 在职认证  发表于 2019-8-6 21:10:16
学习笔记奖!

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-2-4 05:41