Using large language models in psychology

转化式学习 透视图(图形) 领域(数学) 心理学 标准化 数据科学 计算机科学 发展心理学 人工智能 数学 纯数学 操作系统
作者
Dorottya Demszky,Diyi Yang,David S. Yeager,Christopher J. Bryan,Margarett Clapper,Susannah Chandhok,Johannes C. Eichstaedt,Cameron A. Hecht,Jeremy P. Jamieson,Meghann Johnson,Michaela Jones,Danielle Krettek-Cobb,Leslie C. Lai,Nirel JonesMitchell,Desmond C. Ong,Carol S. Dweck,James J. Gross,James W. Pennebaker
出处
期刊:Nature Reviews Psychology [Springer Nature]
被引量:216
标识
DOI:10.1038/s44159-023-00241-5
摘要

Large language models (LLMs), such as OpenAI's GPT-4, Google's Bard or Meta's LLaMa, have created unprecedented opportunities for analysing and generating language data on a massive scale. Because language data have a central role in all areas of psychology, this new technology has the potential to transform the field. In this Perspective, we review the foundations of LLMs. We then explain how the way that LLMs are constructed enables them to effectively generate human-like linguistic output without the ability to think or feel like a human. We argue that although LLMs have the potential to advance psychological measurement, experimentation and practice, they are not yet ready for many of the most transformative psychological applications — but further research and development may enable such use. Next, we examine four major concerns about the application of LLMs to psychology, and how each might be overcome. Finally, we conclude with recommendations for investments that could help to address these concerns: field-initiated 'keystone' datasets; increased standardization of performance benchmarks; and shared computing and analysis infrastructure to ensure that the future of LLM-powered research is equitable. Large language models (LLMs), which can generate and score text in human-like ways, have the potential to advance psychological measurement, experimentation and practice. In this Perspective, Demszky and colleagues describe how LLMs work, concerns about using them for psychological purposes, and how these concerns might be addressed.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
成就绮琴完成签到 ,获得积分10
1秒前
fusheng完成签到 ,获得积分0
3秒前
小超完成签到,获得积分10
4秒前
大雪完成签到 ,获得积分10
8秒前
steven完成签到 ,获得积分10
8秒前
量子星尘发布了新的文献求助10
9秒前
叽里呱啦完成签到 ,获得积分10
9秒前
11秒前
陈怼怼完成签到,获得积分10
12秒前
13秒前
LALALALA完成签到,获得积分10
14秒前
jianjiao发布了新的文献求助10
15秒前
幽默的迎天完成签到,获得积分10
17秒前
Loong完成签到,获得积分10
20秒前
1661321476完成签到,获得积分10
25秒前
听寒完成签到,获得积分10
26秒前
量子星尘发布了新的文献求助10
27秒前
冰山一脚尖完成签到,获得积分10
28秒前
徐老师完成签到 ,获得积分10
29秒前
31秒前
安详的灰狼完成签到 ,获得积分10
31秒前
hu完成签到,获得积分10
31秒前
JiangYifan完成签到 ,获得积分10
32秒前
Am1r完成签到 ,获得积分10
32秒前
和谐续完成签到 ,获得积分10
35秒前
浮生完成签到 ,获得积分10
35秒前
bonhiver完成签到 ,获得积分10
36秒前
风格完成签到,获得积分10
37秒前
gk完成签到,获得积分0
37秒前
四叶草QQ鱼完成签到 ,获得积分10
39秒前
广州城建职业技术学院完成签到,获得积分10
40秒前
poly完成签到,获得积分10
41秒前
沐沐心完成签到 ,获得积分10
42秒前
辛勤的诗柳应助HJJHJH采纳,获得20
43秒前
破碎时间完成签到 ,获得积分10
46秒前
量子星尘发布了新的文献求助10
51秒前
zzz完成签到 ,获得积分10
52秒前
小通通完成签到 ,获得积分10
52秒前
Yoki完成签到,获得积分10
54秒前
丰富的硬币完成签到 ,获得积分10
54秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Introductory Chemistry 400
Life: The Science of Biology Digital Update 400
Sociologies et cosmopolitisme méthodologique 400
Why America Can't Retrench (And How it Might) 400
Another look at Archaeopteryx as the oldest bird 390
Parenchymal volume and functional recovery after clamped partial nephrectomy: potential discrepancies 300
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 催化作用 遗传学 冶金 电极 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 4683302
求助须知:如何正确求助?哪些是违规求助? 4058464
关于积分的说明 12546391
捐赠科研通 3754283
什么是DOI,文献DOI怎么找? 2073609
邀请新用户注册赠送积分活动 1102528
科研通“疑难数据库(出版商)”最低求助积分说明 981838