Large-scale chemical language representations capture molecular structure and properties

计算机科学 化学空间 人工智能 语言模型 机器学习 变压器 分子图 特征学习 编码器 自然语言处理 自然语言 图形 药物发现 理论计算机科学 化学 操作系统 物理 量子力学 电压 生物化学
作者
Jerret Ross,Brian Belgodere,Vijil Chenthamarakshan,Inkit Padhi,Youssef Mroueh,Payel Das
出处
期刊:Nature Machine Intelligence [Nature Portfolio]
卷期号:4 (12): 1256-1264 被引量:171
标识
DOI:10.1038/s42256-022-00580-7
摘要

Models based on machine learning can enable accurate and fast molecular property predictions, which is of interest in drug discovery and material design. Various supervised machine learning models have demonstrated promising performance, but the vast chemical space and the limited availability of property labels make supervised learning challenging. Recently, unsupervised transformer-based language models pretrained on a large unlabelled corpus have produced state-of-the-art results in many downstream natural language processing tasks. Inspired by this development, we present molecular embeddings obtained by training an efficient transformer encoder model, MoLFormer, which uses rotary positional embeddings. This model employs a linear attention mechanism, coupled with highly distributed training, on SMILES sequences of 1.1 billion unlabelled molecules from the PubChem and ZINC datasets. We show that the learned molecular representation outperforms existing baselines, including supervised and self-supervised graph neural networks and language models, on several downstream tasks from ten benchmark datasets. They perform competitively on two others. Further analyses, specifically through the lens of attention, demonstrate that MoLFormer trained on chemical SMILES indeed learns the spatial relationships between atoms within a molecule. These results provide encouraging evidence that large-scale molecular language models can capture sufficient chemical and structural information to predict various distinct molecular properties, including quantum-chemical properties. Large language models have recently emerged with extraordinary capabilities, and these methods can be applied to model other kinds of sequence, such as string representations of molecules. Ross and colleagues have created a transformer-based model, trained on a large dataset of molecules, which provides good results on property prediction tasks.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
2秒前
Aom完成签到,获得积分10
2秒前
亓椰iko完成签到 ,获得积分10
4秒前
6秒前
Adam完成签到 ,获得积分10
10秒前
bc应助joleisalau采纳,获得20
10秒前
慕青应助科研1采纳,获得10
10秒前
柚C美式完成签到 ,获得积分10
12秒前
阿泽完成签到 ,获得积分10
19秒前
21秒前
钟D摆完成签到 ,获得积分10
26秒前
科研1发布了新的文献求助10
27秒前
研友_08oa3n完成签到 ,获得积分10
28秒前
Ava应助qingran采纳,获得10
33秒前
科研1完成签到,获得积分10
36秒前
笨笨青筠完成签到 ,获得积分10
42秒前
43秒前
太叔夜南完成签到,获得积分10
55秒前
Yang22完成签到,获得积分10
56秒前
优秀的dd完成签到 ,获得积分10
58秒前
龙弟弟完成签到 ,获得积分10
1分钟前
yy完成签到 ,获得积分10
1分钟前
1分钟前
MSYzack发布了新的文献求助10
1分钟前
雪酪芋泥球完成签到 ,获得积分10
1分钟前
1分钟前
mojito完成签到 ,获得积分10
1分钟前
aprilvanilla应助MSYzack采纳,获得10
1分钟前
迷路的芝麻完成签到 ,获得积分10
1分钟前
ghost202完成签到,获得积分10
1分钟前
mictime完成签到,获得积分10
1分钟前
gloval完成签到,获得积分10
1分钟前
momo完成签到,获得积分10
1分钟前
1分钟前
黑眼圈完成签到 ,获得积分10
1分钟前
科研通AI2S应助科研通管家采纳,获得10
1分钟前
cdercder应助科研通管家采纳,获得10
1分钟前
isedu完成签到,获得积分10
1分钟前
Zhang完成签到 ,获得积分10
1分钟前
闪闪的乐松完成签到 ,获得积分10
1分钟前
高分求助中
【此为提示信息,请勿应助】请按要求发布求助,避免被关 20000
ISCN 2024 – An International System for Human Cytogenomic Nomenclature (2024) 3000
Continuum Thermodynamics and Material Modelling 2000
Encyclopedia of Geology (2nd Edition) 2000
105th Edition CRC Handbook of Chemistry and Physics 1600
T/CAB 0344-2024 重组人源化胶原蛋白内毒素去除方法 1000
Maneuvering of a Damaged Navy Combatant 650
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3776027
求助须知:如何正确求助?哪些是违规求助? 3321552
关于积分的说明 10206273
捐赠科研通 3036609
什么是DOI,文献DOI怎么找? 1666398
邀请新用户注册赠送积分活动 797395
科研通“疑难数据库(出版商)”最低求助积分说明 757811