DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter

杠杆(统计) 计算机科学 推论 语言理解 蒸馏 语言模型 计算 任务(项目管理) 代表(政治) 人工智能 边缘设备 机器学习 GSM演进的增强数据速率 自然语言处理 算法 工程类 有机化学 化学 法学 系统工程 操作系统 政治 云计算 政治学
作者
Victor Sanh,Lysandre Debut,Julien Chaumond,Thomas Wolf
出处
期刊:Cornell University - arXiv 被引量:4538
标识
DOI:10.48550/arxiv.1910.01108
摘要

As Transfer Learning from large-scale pre-trained models becomes more prevalent in Natural Language Processing (NLP), operating these large models in on-the-edge and/or under constrained computational training or inference budgets remains challenging. In this work, we propose a method to pre-train a smaller general-purpose language representation model, called DistilBERT, which can then be fine-tuned with good performances on a wide range of tasks like its larger counterparts. While most prior work investigated the use of distillation for building task-specific models, we leverage knowledge distillation during the pre-training phase and show that it is possible to reduce the size of a BERT model by 40%, while retaining 97% of its language understanding capabilities and being 60% faster. To leverage the inductive biases learned by larger models during pre-training, we introduce a triple loss combining language modeling, distillation and cosine-distance losses. Our smaller, faster and lighter model is cheaper to pre-train and we demonstrate its capabilities for on-device computations in a proof-of-concept experiment and a comparative on-device study.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
1秒前
王泰一发布了新的文献求助10
2秒前
新手菜鸟完成签到,获得积分10
4秒前
Vivi完成签到,获得积分10
5秒前
6秒前
天天快乐应助suiyi采纳,获得10
6秒前
Isaiah发布了新的文献求助10
8秒前
温暖奎完成签到 ,获得积分10
9秒前
2929完成签到 ,获得积分10
9秒前
纪不住啊完成签到 ,获得积分10
9秒前
聂鸿发布了新的文献求助10
10秒前
斯文败类应助动听秋灵采纳,获得10
10秒前
任性夏柳发布了新的文献求助10
11秒前
12秒前
自亮李发布了新的文献求助10
12秒前
文艺的盼海完成签到 ,获得积分10
14秒前
14秒前
鸟Pro完成签到,获得积分10
14秒前
科研通AI6.2应助wkc采纳,获得10
15秒前
乐乐应助ADDDGDD采纳,获得10
16秒前
慕青应助ADDDGDD采纳,获得10
17秒前
充电宝应助ADDDGDD采纳,获得10
17秒前
我是老大应助ADDDGDD采纳,获得10
17秒前
ding应助ADDDGDD采纳,获得10
17秒前
17秒前
在水一方应助ADDDGDD采纳,获得10
17秒前
小蘑菇应助ADDDGDD采纳,获得10
17秒前
小蘑菇应助ADDDGDD采纳,获得10
17秒前
今后应助ADDDGDD采纳,获得10
17秒前
哎哟哎哟发布了新的文献求助10
17秒前
Rosie完成签到,获得积分10
17秒前
18秒前
Upupuu完成签到,获得积分10
18秒前
静色凝香完成签到 ,获得积分10
18秒前
优美聪健发布了新的文献求助10
18秒前
熊本熊完成签到,获得积分10
19秒前
小夏发布了新的文献求助10
19秒前
19秒前
20秒前
英俊的铭应助yue采纳,获得10
21秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Les Mantodea de Guyane Insecta, Polyneoptera 2000
Leading Academic-Practice Partnerships in Nursing and Healthcare: A Paradigm for Change 800
基于非线性光纤环形镜的全保偏锁模激光器研究-上海科技大学 800
Pulse width control of a 3-phase inverter with non sinusoidal phase voltages 777
Signals, Systems, and Signal Processing 610
Research Methods for Business: A Skill Building Approach, 9th Edition 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6409789
求助须知:如何正确求助?哪些是违规求助? 8228965
关于积分的说明 17459327
捐赠科研通 5462727
什么是DOI,文献DOI怎么找? 2886436
邀请新用户注册赠送积分活动 1862919
关于科研通互助平台的介绍 1702275