Training language models to follow instructions with human feedback

计算机科学 语言模型 集合(抽象数据类型) 人工智能 简单(哲学) 强化学习 训练集 航程(航空) 机器学习 自然语言处理 人机交互 程序设计语言 认识论 哲学 复合材料 材料科学
作者
Long Ouyang,Jeff Wu,Xu Jiang,Diogo Almeida,Carroll L. Wainwright,Pamela Mishkin,Chong Zhang,Sandhini Agarwal,Katarina Slama,Alex Ray,John Schulman,Jacob Hilton,Fraser Kelton,Luke E. Miller,Maddie Simens,Amanda Askell,Peter Welinder,Paul Christiano,Jan Leike,Ryan Lowe
出处
期刊:Cornell University - arXiv 被引量:2879
标识
DOI:10.48550/arxiv.2203.02155
摘要

Making language models bigger does not inherently make them better at following a user's intent. For example, large language models can generate outputs that are untruthful, toxic, or simply not helpful to the user. In other words, these models are not aligned with their users. In this paper, we show an avenue for aligning language models with user intent on a wide range of tasks by fine-tuning with human feedback. Starting with a set of labeler-written prompts and prompts submitted through the OpenAI API, we collect a dataset of labeler demonstrations of the desired model behavior, which we use to fine-tune GPT-3 using supervised learning. We then collect a dataset of rankings of model outputs, which we use to further fine-tune this supervised model using reinforcement learning from human feedback. We call the resulting models InstructGPT. In human evaluations on our prompt distribution, outputs from the 1.3B parameter InstructGPT model are preferred to outputs from the 175B GPT-3, despite having 100x fewer parameters. Moreover, InstructGPT models show improvements in truthfulness and reductions in toxic output generation while having minimal performance regressions on public NLP datasets. Even though InstructGPT still makes simple mistakes, our results show that fine-tuning with human feedback is a promising direction for aligning language models with human intent.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
仓仓发布了新的文献求助10
刚刚
善良水壶完成签到,获得积分10
刚刚
john完成签到,获得积分20
1秒前
汉堡包应助kk采纳,获得10
1秒前
2秒前
尼尼发布了新的文献求助10
2秒前
bkagyin应助科研通管家采纳,获得10
4秒前
球球昂完成签到,获得积分10
4秒前
tll应助科研通管家采纳,获得10
4秒前
CAOHOU应助科研通管家采纳,获得10
4秒前
香蕉觅云应助科研通管家采纳,获得10
4秒前
隐形曼青应助能干的玉兰采纳,获得10
4秒前
Ava应助科研通管家采纳,获得10
4秒前
小蘑菇应助科研通管家采纳,获得10
4秒前
Jasper应助科研通管家采纳,获得10
4秒前
无花果应助科研通管家采纳,获得10
4秒前
CAOHOU应助科研通管家采纳,获得10
4秒前
华仔应助科研通管家采纳,获得10
4秒前
Nico应助科研通管家采纳,获得10
4秒前
8R60d8应助科研通管家采纳,获得10
5秒前
科研通AI2S应助科研通管家采纳,获得10
5秒前
彭于晏应助科研通管家采纳,获得10
5秒前
朱光辉发布了新的文献求助10
5秒前
CAOHOU应助科研通管家采纳,获得10
5秒前
孙燕应助科研通管家采纳,获得10
5秒前
5秒前
5秒前
5秒前
5秒前
在水一方应助科研通管家采纳,获得10
5秒前
5秒前
6秒前
7秒前
在水一方应助Yan采纳,获得10
8秒前
HK发布了新的文献求助10
9秒前
翻译度完成签到,获得积分10
12秒前
yeye发布了新的文献求助10
12秒前
13秒前
白三烯小童鞋完成签到 ,获得积分10
13秒前
13秒前
高分求助中
【重要!!请各位用户详细阅读此贴】科研通的精品贴汇总(请勿应助) 10000
Plutonium Handbook 1000
Robot-supported joining of reinforcement textiles with one-sided sewing heads 640
北师大毕业论文 基于可调谐半导体激光吸收光谱技术泄漏气体检测系统的研究 540
Thermal Quadrupoles: Solving the Heat Equation through Integral Transforms 500
SPSS for Windows Step by Step: A Simple Study Guide and Reference, 17.0 Update (10th Edition) 500
Chinese Buddhist Monasteries: Their Plan and Its Function As a Setting for Buddhist Monastic Life 300
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 4117104
求助须知:如何正确求助?哪些是违规求助? 3655656
关于积分的说明 11575578
捐赠科研通 3358671
什么是DOI,文献DOI怎么找? 1845166
邀请新用户注册赠送积分活动 910636
科研通“疑难数据库(出版商)”最低求助积分说明 827016