LoRA: Low-Rank Adaptation of Large Language Models

计算机科学 推论 变压器 适应(眼睛) 延迟(音频) 秩(图论) 语言模型 实施 并行计算 人工智能 程序设计语言 数学 电压 物理 光学 组合数学 电信 量子力学
作者
Edward J. Hu,Yulong Shen,Phillip Wallis,Zeyuan Allen-Zhu,Yuanzhi Li,Shean Wang,Weizhu Chen
出处
期刊:Cornell University - arXiv 被引量:162
标识
DOI:10.48550/arxiv.2106.09685
摘要

An important paradigm of natural language processing consists of large-scale pre-training on general domain data and adaptation to particular tasks or domains. As we pre-train larger models, full fine-tuning, which retrains all model parameters, becomes less feasible. Using GPT-3 175B as an example -- deploying independent instances of fine-tuned models, each with 175B parameters, is prohibitively expensive. We propose Low-Rank Adaptation, or LoRA, which freezes the pre-trained model weights and injects trainable rank decomposition matrices into each layer of the Transformer architecture, greatly reducing the number of trainable parameters for downstream tasks. Compared to GPT-3 175B fine-tuned with Adam, LoRA can reduce the number of trainable parameters by 10,000 times and the GPU memory requirement by 3 times. LoRA performs on-par or better than fine-tuning in model quality on RoBERTa, DeBERTa, GPT-2, and GPT-3, despite having fewer trainable parameters, a higher training throughput, and, unlike adapters, no additional inference latency. We also provide an empirical investigation into rank-deficiency in language model adaptation, which sheds light on the efficacy of LoRA. We release a package that facilitates the integration of LoRA with PyTorch models and provide our implementations and model checkpoints for RoBERTa, DeBERTa, and GPT-2 at https://github.com/microsoft/LoRA.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
1秒前
踏实从雪完成签到 ,获得积分10
1秒前
1秒前
赵铁皮完成签到 ,获得积分10
4秒前
隐形曼青应助Jason-1024采纳,获得10
5秒前
默默亦玉发布了新的文献求助10
6秒前
现代苑睐完成签到,获得积分10
8秒前
8秒前
丢丢银发布了新的文献求助10
8秒前
12秒前
白尔德芙完成签到,获得积分10
14秒前
白尔德芙发布了新的文献求助10
17秒前
Jason-1024发布了新的文献求助10
17秒前
18秒前
VirgoYn完成签到,获得积分10
18秒前
wanci应助科研通管家采纳,获得10
25秒前
25秒前
zzz4743应助科研通管家采纳,获得100
25秒前
Hello应助科研通管家采纳,获得10
25秒前
李爱国应助eagleyao111采纳,获得10
25秒前
29秒前
bianxxing应助zty123采纳,获得10
33秒前
35秒前
36秒前
37秒前
zyb发布了新的文献求助10
38秒前
39秒前
小马甲应助Ashmitte采纳,获得10
43秒前
44秒前
Orange应助wpk9904采纳,获得10
47秒前
默默亦玉发布了新的文献求助10
48秒前
Mango完成签到,获得积分10
49秒前
50秒前
科研通AI2S应助正直的语琴采纳,获得10
53秒前
CL完成签到,获得积分10
53秒前
xzx发布了新的文献求助10
55秒前
59秒前
雨木目完成签到,获得积分10
59秒前
1分钟前
xzx完成签到,获得积分10
1分钟前
高分求助中
Sustainable Land Management: Strategies to Cope with the Marginalisation of Agriculture 1000
Corrosion and Oxygen Control 600
Python Programming for Linguistics and Digital Humanities: Applications for Text-Focused Fields 500
Love and Friendship in the Western Tradition: From Plato to Postmodernity 500
Heterocyclic Stilbene and Bibenzyl Derivatives in Liverworts: Distribution, Structures, Total Synthesis and Biological Activity 500
重庆市新能源汽车产业大数据招商指南(两链两图两池两库两平台两清单两报告) 400
Division and square root. Digit-recurrence algorithms and implementations 400
热门求助领域 (近24小时)
化学 材料科学 医学 生物 有机化学 工程类 生物化学 纳米技术 物理 内科学 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 电极 光电子学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 2548949
求助须知:如何正确求助?哪些是违规求助? 2176710
关于积分的说明 5606027
捐赠科研通 1897521
什么是DOI,文献DOI怎么找? 947049
版权声明 565447
科研通“疑难数据库(出版商)”最低求助积分说明 503985