Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation

机器翻译 计算机科学 自然语言处理 人工智能 判决 语言模型 翻译(生物学) 编码器 基于实例的机器翻译 德国的 安全性令牌 语言学 生物化学 化学 哲学 计算机安全 信使核糖核酸 基因 操作系统
作者
Melvin Johnson,Mike Schuster,Quoc V. Le,Maxim Krikun,Yonghui Wu,Zhifeng Chen,Nikhil Thorat,Fernanda Viégas,Martin Wattenberg,Greg S. Corrado,Macduff Hughes,Jay B. Dean
出处
期刊:Cornell University - arXiv 被引量:76
摘要

We propose a simple solution to use a single Neural Machine Translation (NMT) model to translate between multiple languages. Our solution requires no change in the model architecture from our base system but instead introduces an artificial token at the beginning of the input sentence to specify the required target language. The rest of the model, which includes encoder, decoder and attention, remains unchanged and is shared across all languages. Using a shared wordpiece vocabulary, our approach enables Multilingual NMT using a single model without any increase in parameters, which is significantly simpler than previous proposals for Multilingual NMT. Our method often improves the translation quality of all involved language pairs, even while keeping the total number of model parameters constant. On the WMT'14 benchmarks, a single multilingual model achieves comparable performance for English$\rightarrow$French and surpasses state-of-the-art results for English$\rightarrow$German. Similarly, a single multilingual model surpasses state-of-the-art results for French$\rightarrow$English and German$\rightarrow$English on WMT'14 and WMT'15 benchmarks respectively. On production corpora, multilingual models of up to twelve language pairs allow for better translation of many individual pairs. In addition to improving the translation quality of language pairs that the model was trained with, our models can also learn to perform implicit bridging between language pairs never seen explicitly during training, showing that transfer learning and zero-shot translation is possible for neural translation. Finally, we show analyses that hints at a universal interlingua representation in our models and show some interesting examples when mixing languages.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
笨笨盼易发布了新的文献求助10
刚刚
yeyuchenfeng完成签到,获得积分10
1秒前
SYLH应助哈哈哈采纳,获得30
1秒前
万能图书馆应助小甜桶采纳,获得30
1秒前
2秒前
打打应助李存采纳,获得10
2秒前
yu发布了新的文献求助10
3秒前
香蕉觅云应助Bafanglaicai采纳,获得10
4秒前
小伍同学完成签到,获得积分10
4秒前
和谐的如柏完成签到,获得积分10
5秒前
怡然白竹完成签到 ,获得积分10
5秒前
6秒前
陈里里完成签到 ,获得积分10
7秒前
宣孤菱完成签到,获得积分20
8秒前
整齐荟完成签到,获得积分10
9秒前
9秒前
李存完成签到,获得积分10
9秒前
VirgoYn完成签到,获得积分10
10秒前
cyr完成签到,获得积分10
10秒前
wyn完成签到,获得积分10
10秒前
糖豆完成签到,获得积分20
10秒前
lin完成签到 ,获得积分10
11秒前
Binbin完成签到 ,获得积分10
11秒前
机灵冰珍发布了新的文献求助10
12秒前
结实的老虎完成签到,获得积分10
12秒前
hwl26完成签到,获得积分10
14秒前
里清水完成签到 ,获得积分10
14秒前
hhhh完成签到 ,获得积分10
15秒前
李爱国应助zhangluhang采纳,获得10
15秒前
糖豆发布了新的文献求助10
15秒前
Damocles完成签到,获得积分10
16秒前
16秒前
16秒前
Mila完成签到 ,获得积分10
16秒前
Bafanglaicai完成签到,获得积分10
17秒前
17秒前
个性的雪旋完成签到 ,获得积分10
18秒前
德鲁大叔发布了新的文献求助10
19秒前
ssss完成签到,获得积分20
21秒前
感动城给感动城的求助进行了留言
21秒前
高分求助中
【重要!!请各位用户详细阅读此贴】科研通的精品贴汇总(请勿应助) 10000
Semantics for Latin: An Introduction 1018
International Code of Nomenclature for algae, fungi, and plants (Madrid Code) (Regnum Vegetabile) 1000
Robot-supported joining of reinforcement textiles with one-sided sewing heads 530
Apiaceae Himalayenses. 2 500
Maritime Applications of Prolonged Casualty Care: Drowning and Hypothermia on an Amphibious Warship 500
Tasteful Old Age:The Identity of the Aged Middle-Class, Nursing Home Tours, and Marketized Eldercare in China 350
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 4081381
求助须知:如何正确求助?哪些是违规求助? 3620857
关于积分的说明 11487301
捐赠科研通 3336219
什么是DOI,文献DOI怎么找? 1834056
邀请新用户注册赠送积分活动 902877
科研通“疑难数据库(出版商)”最低求助积分说明 821335