清晨好,您是今天最早来到科研通的研友!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您科研之路漫漫前行!

Lite Transformer with Long-Short Range Attention

变压器 计算机科学 机器翻译 语言模型 自动汇总 困惑 建筑 计算 人工智能 自然语言处理 计算机工程 语音识别 程序设计语言 电气工程 工程类 艺术 视觉艺术 电压
作者
Zhanghao Wu,Zhijian Liu,Ji Lin,Yujun Lin,Song Han
出处
期刊:Cornell University - arXiv 被引量:111
标识
DOI:10.48550/arxiv.2004.11886
摘要

Transformer has become ubiquitous in natural language processing (e.g., machine translation, question answering); however, it requires enormous amount of computations to achieve high performance, which makes it not suitable for mobile applications that are tightly constrained by the hardware resources and battery. In this paper, we present an efficient mobile NLP architecture, Lite Transformer to facilitate deploying mobile NLP applications on edge devices. The key primitive is the Long-Short Range Attention (LSRA), where one group of heads specializes in the local context modeling (by convolution) while another group specializes in the long-distance relationship modeling (by attention). Such specialization brings consistent improvement over the vanilla transformer on three well-established language tasks: machine translation, abstractive summarization, and language modeling. Under constrained resources (500M/100M MACs), Lite Transformer outperforms transformer on WMT'14 English-French by 1.2/1.7 BLEU, respectively. Lite Transformer reduces the computation of transformer base model by 2.5x with 0.3 BLEU score degradation. Combining with pruning and quantization, we further compressed the model size of Lite Transformer by 18.2x. For language modeling, Lite Transformer achieves 1.8 lower perplexity than the transformer at around 500M MACs. Notably, Lite Transformer outperforms the AutoML-based Evolved Transformer by 0.5 higher BLEU for the mobile NLP setting without the costly architecture search that requires more than 250 GPU years. Code has been made available at https://github.com/mit-han-lab/lite-transformer.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
建议保存本图,每天支付宝扫一扫(相册选取)领红包
实时播报
creep2020完成签到,获得积分10
1秒前
poki完成签到 ,获得积分10
1秒前
浮游应助科研通管家采纳,获得10
2秒前
科研通AI2S应助科研通管家采纳,获得10
2秒前
思源应助科研通管家采纳,获得30
2秒前
8秒前
AbdoSpace完成签到,获得积分10
15秒前
23秒前
喜悦的唇彩完成签到,获得积分10
31秒前
31秒前
烟花应助Boren采纳,获得10
35秒前
39秒前
41秒前
41秒前
研友_Ljqal8完成签到,获得积分10
46秒前
49秒前
Monicadd完成签到 ,获得积分10
56秒前
xmg发布了新的文献求助10
56秒前
土土发布了新的文献求助20
1分钟前
1分钟前
呀咪完成签到 ,获得积分10
1分钟前
1分钟前
1分钟前
九花青完成签到,获得积分10
1分钟前
在水一方应助土土采纳,获得10
1分钟前
飞龙在天完成签到 ,获得积分10
2分钟前
零玖完成签到 ,获得积分10
2分钟前
浮游应助科研通管家采纳,获得10
2分钟前
浮游应助科研通管家采纳,获得10
2分钟前
浮游应助科研通管家采纳,获得10
2分钟前
Jasper应助科研通管家采纳,获得10
2分钟前
2分钟前
浮游应助科研通管家采纳,获得10
2分钟前
2分钟前
2分钟前
t铁核桃1985完成签到 ,获得积分10
2分钟前
2分钟前
生信小菜鸟完成签到 ,获得积分10
2分钟前
香蕉觅云应助xmg采纳,获得10
2分钟前
汉堡包应助RLF采纳,获得10
2分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
List of 1,091 Public Pension Profiles by Region 1041
Mentoring for Wellbeing in Schools 1000
Binary Alloy Phase Diagrams, 2nd Edition 600
Atlas of Liver Pathology: A Pattern-Based Approach 500
A Technologist’s Guide to Performing Sleep Studies 500
EEG in Childhood Epilepsy: Initial Presentation & Long-Term Follow-Up 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 遗传学 催化作用 冶金 量子力学 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 5494193
求助须知:如何正确求助?哪些是违规求助? 4592031
关于积分的说明 14435194
捐赠科研通 4524714
什么是DOI,文献DOI怎么找? 2478952
邀请新用户注册赠送积分活动 1463881
关于科研通互助平台的介绍 1436755