Domain-Specific Language Model Pretraining for Biomedical Natural Language Processing

计算机科学 水准点(测量) 人工智能 自然语言处理 语言模型 领域(数学分析) 任务(项目管理) 生物医学 又称作 语言理解 命名实体识别 多样性(控制论) 生物信息学 数学分析 图书馆学 经济 生物 管理 地理 数学 大地测量学
作者
裕二 池谷,Robert Tinn,Hao Cheng,Michael Lucas,Naoto Usuyama,Xiaodong Liu,Tristan Naumann,Jianfeng Gao,Hoifung Poon
出处
期刊:ACM transactions on computing for healthcare [Association for Computing Machinery]
卷期号:3 (1): 1-23 被引量:1195
标识
DOI:10.1145/3458754
摘要

Pretraining large neural language models, such as BERT, has led to impressive gains on many natural language processing (NLP) tasks. However, most pretraining efforts focus on general domain corpora, such as newswire and Web. A prevailing assumption is that even domain-specific pretraining can benefit by starting from general-domain language models. In this article, we challenge this assumption by showing that for domains with abundant unlabeled text, such as biomedicine, pretraining language models from scratch results in substantial gains over continual pretraining of general-domain language models. To facilitate this investigation, we compile a comprehensive biomedical NLP benchmark from publicly available datasets. Our experiments show that domain-specific pretraining serves as a solid foundation for a wide range of biomedical NLP tasks, leading to new state-of-the-art results across the board. Further, in conducting a thorough evaluation of modeling choices, both for pretraining and task-specific fine-tuning, we discover that some common practices are unnecessary with BERT models, such as using complex tagging schemes in named entity recognition. To help accelerate research in biomedical NLP, we have released our state-of-the-art pretrained and task-specific models for the community, and created a leaderboard featuring our BLURB benchmark (short for Biomedical Language Understanding & Reasoning Benchmark) at https://aka.ms/BLURB .
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
QQ完成签到 ,获得积分10
1秒前
Yeyi Lian完成签到,获得积分10
2秒前
付长泽完成签到,获得积分10
4秒前
可以的完成签到,获得积分10
5秒前
gxzsdf完成签到 ,获得积分10
9秒前
yhandsome完成签到,获得积分10
9秒前
11秒前
所所应助醉蓝采纳,获得10
12秒前
韩恩轩完成签到,获得积分10
14秒前
能干戎完成签到 ,获得积分10
14秒前
Ying发布了新的文献求助10
16秒前
快乐书琴发布了新的文献求助20
16秒前
nono完成签到 ,获得积分10
19秒前
烟火会翻滚完成签到,获得积分10
19秒前
战战完成签到,获得积分10
20秒前
哈哈哈哈完成签到,获得积分10
20秒前
郭竞阳完成签到,获得积分20
21秒前
迟皓文完成签到 ,获得积分10
23秒前
zly1053完成签到,获得积分10
23秒前
hhh完成签到,获得积分10
26秒前
科研通AI5应助科研通管家采纳,获得10
29秒前
29秒前
小青椒应助科研通管家采纳,获得30
29秒前
科目三应助科研通管家采纳,获得10
29秒前
SciGPT应助科研通管家采纳,获得10
29秒前
FashionBoy应助科研通管家采纳,获得10
29秒前
29秒前
29秒前
29秒前
酷波er应助科研通管家采纳,获得10
29秒前
29秒前
29秒前
29秒前
ZY完成签到 ,获得积分10
31秒前
文子完成签到 ,获得积分10
31秒前
Diego完成签到,获得积分10
31秒前
33秒前
李小明完成签到,获得积分10
33秒前
34秒前
zz完成签到,获得积分10
36秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Encyclopedia of Biodiversity Third Edition 2023 2000
Rapid Review of Electrodiagnostic and Neuromuscular Medicine: A Must-Have Reference for Neurologists and Physiatrists 800
求中国石油大学(北京)图书馆的硕士论文,作者董晨,十年前搞太赫兹的 500
Vertebrate Palaeontology, 5th Edition 500
Narrative Method and Narrative form in Masaccio's Tribute Money 500
Aircraft Engine Design, Third Edition 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 内科学 生物化学 物理 计算机科学 纳米技术 遗传学 基因 复合材料 化学工程 物理化学 病理 催化作用 免疫学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 4765906
求助须知:如何正确求助?哪些是违规求助? 4103761
关于积分的说明 12695379
捐赠科研通 3821236
什么是DOI,文献DOI怎么找? 2109064
邀请新用户注册赠送积分活动 1133566
关于科研通互助平台的介绍 1014115