BioInstruct: instruction tuning of large language models for biomedical natural language processing

计算机科学 任务(项目管理) 生物医学文本挖掘 领域(数学分析) 自然语言处理 自然语言 人工智能 自然(考古学) 语言模型 文本挖掘 数学 历史 数学分析 经济 考古 管理
作者
Hieu Tran,Zhichao Yang,Zonghai Yao,Hong Yu
出处
期刊:Journal of the American Medical Informatics Association [Oxford University Press]
卷期号:31 (9): 1821-1832 被引量:10
标识
DOI:10.1093/jamia/ocae122
摘要

Abstract Objectives To enhance the performance of large language models (LLMs) in biomedical natural language processing (BioNLP) by introducing a domain-specific instruction dataset and examining its impact when combined with multi-task learning principles. Materials and Methods We created the BioInstruct, comprising 25 005 instructions to instruction-tune LLMs (LLaMA 1 and 2, 7B and 13B version). The instructions were created by prompting the GPT-4 language model with 3-seed samples randomly drawn from an 80 human curated instructions. We employed Low-Rank Adaptation (LoRA) for parameter-efficient fine-tuning. We then evaluated these instruction-tuned LLMs on several BioNLP tasks, which can be grouped into 3 major categories: question answering (QA), information extraction (IE), and text generation (GEN). We also examined whether categories (eg, QA, IE, and generation) of instructions impact model performance. Results and Discussion Comparing with LLMs without instruction-tuned, our instruction-tuned LLMs demonstrated marked performance gains: 17.3% in QA on average accuracy metric, 5.7% in IE on average F1 metric, and 96% in Generation tasks on average GPT-4 score metric. Our 7B-parameter instruction-tuned LLaMA 1 model was competitive or even surpassed other LLMs in the biomedical domain that were also fine-tuned from LLaMA 1 with vast domain-specific data or a variety of tasks. Our results also show that the performance gain is significantly higher when instruction fine-tuning is conducted with closely related tasks. Our findings align with the observations of multi-task learning, suggesting the synergies between 2 tasks. Conclusion The BioInstruct dataset serves as a valuable resource and instruction tuned LLMs lead to the best performing BioNLP applications.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
3秒前
缓慢的语琴完成签到 ,获得积分10
8秒前
饱满语风发布了新的文献求助10
8秒前
9秒前
英俊的铭应助科研通管家采纳,获得10
9秒前
脑洞疼应助科研通管家采纳,获得10
9秒前
聪明的惜芹完成签到,获得积分10
13秒前
麻瓜完成签到,获得积分20
14秒前
14秒前
田様应助要减肥的慕山采纳,获得10
17秒前
18秒前
llc完成签到 ,获得积分10
19秒前
21秒前
科研通AI5应助Dannie采纳,获得20
24秒前
希望天下0贩的0应助湫栗采纳,获得10
24秒前
圆圆发布了新的文献求助10
25秒前
26秒前
27秒前
27秒前
啊凡完成签到 ,获得积分10
28秒前
99v587发布了新的文献求助10
30秒前
31秒前
31秒前
31秒前
干饭发布了新的文献求助10
31秒前
洛敏夕5743完成签到,获得积分20
33秒前
33秒前
江月年完成签到 ,获得积分10
33秒前
天天快乐应助圆圆采纳,获得10
33秒前
湫栗发布了新的文献求助10
37秒前
花花完成签到 ,获得积分10
38秒前
斯文道之发布了新的文献求助10
38秒前
40秒前
111完成签到,获得积分10
40秒前
喜悦寒凝完成签到,获得积分10
40秒前
41秒前
42秒前
42秒前
liumou完成签到,获得积分10
43秒前
杭浩然发布了新的文献求助10
43秒前
高分求助中
【此为提示信息,请勿应助】请按要求发布求助,避免被关 20000
Encyclopedia of Geology (2nd Edition) 2000
Maneuvering of a Damaged Navy Combatant 650
Периодизация спортивной тренировки. Общая теория и её практическое применение 310
Mixing the elements of mass customisation 300
the MD Anderson Surgical Oncology Manual, Seventh Edition 300
Nucleophilic substitution in azasydnone-modified dinitroanisoles 300
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3780043
求助须知:如何正确求助?哪些是违规求助? 3325422
关于积分的说明 10222930
捐赠科研通 3040579
什么是DOI,文献DOI怎么找? 1668903
邀请新用户注册赠送积分活动 798857
科研通“疑难数据库(出版商)”最低求助积分说明 758614