亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Efficient Context-Aware Neural Machine Translation with Layer-Wise Weighting and Input-Aware Gating

计算机科学 判决 机器翻译 编码器 人工智能 变压器 解码方法 自然语言处理 背景(考古学) 编码(内存) 上下文模型 编码 源代码 语音识别 算法 物理 古生物学 操作系统 电压 基因 化学 生物 量子力学 生物化学 对象(语法)
作者
Hongfei Xu,Deyi Xiong,Josef van Genabith,Qiuhui Liu
标识
DOI:10.24963/ijcai.2020/544
摘要

Existing Neural Machine Translation (NMT) systems are generally trained on a large amount of sentence-level parallel data, and during prediction sentences are independently translated, ignoring cross-sentence contextual information. This leads to inconsistency between translated sentences. In order to address this issue, context-aware models have been proposed. However, document-level parallel data constitutes only a small part of the parallel data available, and many approaches build context-aware models based on a pre-trained frozen sentence-level translation model in a two-step training manner. The computational cost of these approaches is usually high. In this paper, we propose to make the most of layers pre-trained on sentence-level data in contextual representation learning, reusing representations from the sentence-level Transformer and significantly reducing the cost of incorporating contexts in translation. We find that representations from shallow layers of a pre-trained sentence-level encoder play a vital role in source context encoding, and propose to perform source context encoding upon weighted combinations of pre-trained encoder layers' outputs. Instead of separately performing source context and input encoding, we propose to iteratively and jointly encode the source input and its contexts and to generate input-aware context representations with a cross-attention layer and a gating mechanism, which resets irrelevant information in context encoding. Our context-aware Transformer model outperforms the recent CADec [Voita et al., 2019c] on the English-Russian subtitle data and is about twice as fast in training and decoding.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
科研通AI5应助yuanyuan采纳,获得10
1秒前
蜉蝣应助wuran采纳,获得10
1秒前
realmar完成签到,获得积分10
7秒前
w婷完成签到 ,获得积分10
7秒前
hanatae完成签到,获得积分10
8秒前
科研小白完成签到,获得积分10
10秒前
相约在天边应助碳水化合物采纳,获得500
15秒前
17秒前
liozy给liozy的求助进行了留言
20秒前
20秒前
23秒前
23秒前
彭于晏应助sunwei采纳,获得10
24秒前
BakerStreet发布了新的文献求助10
25秒前
hfguwn发布了新的文献求助10
26秒前
27秒前
27秒前
柔弱熊猫完成签到 ,获得积分10
28秒前
schilling完成签到,获得积分20
29秒前
34秒前
hfguwn完成签到,获得积分10
34秒前
李小伟发布了新的文献求助10
38秒前
38秒前
BakerStreet完成签到,获得积分10
41秒前
43秒前
44秒前
yaooo发布了新的文献求助10
49秒前
1分钟前
隐形曼青应助不能随便采纳,获得10
1分钟前
yaooo完成签到,获得积分10
1分钟前
1分钟前
1分钟前
1分钟前
科研通AI2S应助李小伟采纳,获得30
1分钟前
1分钟前
大脸猫完成签到 ,获得积分10
1分钟前
1分钟前
科研小白发布了新的文献求助10
1分钟前
1分钟前
nimo完成签到,获得积分20
1分钟前
高分求助中
(应助此贴封号)【重要!!请各位详细阅读】【科研通的精品贴汇总】 10000
Les Mantodea de Guyane: Insecta, Polyneoptera [The Mantids of French Guiana] 3000
F-35B V2.0 How to build Kitty Hawk's F-35B Version 2.0 Model 2000
줄기세포 생물학 1000
Determination of the boron concentration in diamond using optical spectroscopy 600
The Netter Collection of Medical Illustrations: Digestive System, Volume 9, Part III - Liver, Biliary Tract, and Pancreas (3rd Edition) 600
Founding Fathers The Shaping of America 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 催化作用 遗传学 冶金 电极 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 4526807
求助须知:如何正确求助?哪些是违规求助? 3966553
关于积分的说明 12292991
捐赠科研通 3631448
什么是DOI,文献DOI怎么找? 1998658
邀请新用户注册赠送积分活动 1034855
科研通“疑难数据库(出版商)”最低求助积分说明 924539