清晨好,您是今天最早来到科研通的研友!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您科研之路漫漫前行!

Primer: Searching for Efficient Transformers for Language Modeling

计算机科学 变压器 推论 建筑 底漆(化妆品) 人工智能 计算机工程 电压 电气工程 工程类 艺术 视觉艺术 有机化学 化学
作者
David R. So,Wojciech Mańke,Hanxiao Liu,Zihang Dai,Noam Shazeer,Quoc V. Le
出处
期刊:Cornell University - arXiv 被引量:30
标识
DOI:10.48550/arxiv.2109.08668
摘要

Large Transformer models have been central to recent advances in natural language processing. The training and inference costs of these models, however, have grown rapidly and become prohibitively expensive. Here we aim to reduce the costs of Transformers by searching for a more efficient variant. Compared to previous approaches, our search is performed at a lower level, over the primitives that define a Transformer TensorFlow program. We identify an architecture, named Primer, that has a smaller training cost than the original Transformer and other variants for auto-regressive language modeling. Primer's improvements can be mostly attributed to two simple modifications: squaring ReLU activations and adding a depthwise convolution layer after each Q, K, and V projection in self-attention. Experiments show Primer's gains over Transformer increase as compute scale grows and follow a power law with respect to quality at optimal model sizes. We also verify empirically that Primer can be dropped into different codebases to significantly speed up training without additional tuning. For example, at a 500M parameter size, Primer improves the original T5 architecture on C4 auto-regressive language modeling, reducing the training cost by 4X. Furthermore, the reduced training cost means Primer needs much less compute to reach a target one-shot performance. For instance, in a 1.9B parameter configuration similar to GPT-3 XL, Primer uses 1/3 of the training compute to achieve the same one-shot performance as Transformer. We open source our models and several comparisons in T5 to help with reproducibility.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
小蘑菇应助科研通管家采纳,获得10
9秒前
14秒前
hhhpass发布了新的文献求助10
25秒前
充电宝应助xny采纳,获得10
25秒前
六一儿童节完成签到 ,获得积分0
37秒前
自信的高山完成签到 ,获得积分10
45秒前
此生不换完成签到,获得积分10
46秒前
SUNNYONE完成签到 ,获得积分10
53秒前
1分钟前
YuLu完成签到 ,获得积分10
1分钟前
DCC完成签到,获得积分10
1分钟前
郭强完成签到,获得积分10
1分钟前
文静灵阳完成签到 ,获得积分10
1分钟前
眯眯眼的安雁完成签到 ,获得积分10
1分钟前
DianaLee完成签到 ,获得积分10
1分钟前
怡然的海秋完成签到,获得积分10
1分钟前
小鱼女侠完成签到 ,获得积分10
1分钟前
1分钟前
1分钟前
xny发布了新的文献求助10
1分钟前
活力的珊完成签到 ,获得积分10
1分钟前
平常澜完成签到 ,获得积分10
1分钟前
CodeCraft应助xny采纳,获得10
2分钟前
踏实尔白完成签到 ,获得积分10
2分钟前
义气豌豆完成签到 ,获得积分10
2分钟前
赵桓宁完成签到 ,获得积分10
2分钟前
2分钟前
开放的乐驹完成签到 ,获得积分10
2分钟前
叶十七完成签到,获得积分10
2分钟前
Huang完成签到 ,获得积分0
2分钟前
zzgpku完成签到,获得积分0
3分钟前
少年完成签到 ,获得积分10
3分钟前
无情的聋五完成签到 ,获得积分10
3分钟前
小杭776完成签到 ,获得积分0
3分钟前
changfox完成签到,获得积分10
3分钟前
3分钟前
三四郎应助xtutang采纳,获得10
3分钟前
Sandy完成签到,获得积分10
3分钟前
莫寒兮发布了新的文献求助10
3分钟前
翟zhai完成签到,获得积分10
3分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Les Mantodea de Guyane Insecta, Polyneoptera 2000
Quality by Design - An Indispensable Approach to Accelerate Biopharmaceutical Product Development 800
Pulse width control of a 3-phase inverter with non sinusoidal phase voltages 777
Signals, Systems, and Signal Processing 610
Research Methods for Applied Linguistics: A Practical Guide 600
Research Methods for Applied Linguistics 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6404399
求助须知:如何正确求助?哪些是违规求助? 8223606
关于积分的说明 17430000
捐赠科研通 5456967
什么是DOI,文献DOI怎么找? 2883653
邀请新用户注册赠送积分活动 1859855
关于科研通互助平台的介绍 1701316