亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

STAR-VAE: Latent Variable Transformers for Scalable and Controllable Molecular Generation

计算机科学 推论 可扩展性 变压器 人工智能 概率逻辑 生成模型 自回归模型 生成语法 机器学习 潜变量 编码器 财产(哲学) 条件概率分布 条件依赖 贝叶斯定理 条件概率 理论计算机科学 贝叶斯推理 训练集 许可 混合模型 算法 数据挖掘 模式识别(心理学) 隐马尔可夫模型
作者
Kwon, Bum Chul,Shapira, Ben,Raboh, Moshiko,Sethi, Shreyans,Murarka, Shruti,Morrone, Joseph A.,Hu Jianying,Suryanarayanan, Parthasarathy
出处
期刊:Cornell University - arXiv
标识
DOI:10.48550/arxiv.2511.02769
摘要

The chemical space of drug-like molecules is vast, motivating the development of generative models that must learn broad chemical distributions, enable conditional generation by capturing structure-property representations, and provide fast molecular generation. Meeting the objectives depends on modeling choices, including the probabilistic modeling approach, the conditional generative formulation, the architecture, and the molecular input representation. To address the challenges, we present STAR-VAE (Selfies-encoded, Transformer-based, AutoRegressive Variational Auto Encoder), a scalable latent-variable framework with a Transformer encoder and an autoregressive Transformer decoder. It is trained on 79 million drug-like molecules from PubChem, using SELFIES to guarantee syntactic validity. The latent-variable formulation enables conditional generation: a property predictor supplies a conditioning signal that is applied consistently to the latent prior, the inference network, and the decoder. Our contributions are: (i) a Transformer-based latent-variable encoder-decoder model trained on SELFIES representations; (ii) a principled conditional latent-variable formulation for property-guided generation; and (iii) efficient finetuning with low-rank adapters (LoRA) in both encoder and decoder, enabling fast adaptation with limited property and activity data. On the GuacaMol and MOSES benchmarks, our approach matches or exceeds baselines, and latent-space analyses reveal smooth, semantically structured representations that support both unconditional exploration and property-aware generation. On the Tartarus benchmarks, the conditional model shifts docking-score distributions toward stronger predicted binding. These results suggest that a modernized, scale-appropriate VAE remains competitive for molecular generation when paired with principled conditioning and parameter-efficient finetuning.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
温软完成签到 ,获得积分10
2秒前
wxx完成签到,获得积分10
3秒前
Criminology34应助科研通管家采纳,获得10
37秒前
attention完成签到,获得积分10
1分钟前
楚楚完成签到 ,获得积分10
2分钟前
Criminology34应助科研通管家采纳,获得10
2分钟前
Criminology34应助科研通管家采纳,获得10
2分钟前
CodeCraft应助科研通管家采纳,获得10
2分钟前
2分钟前
脆蜜金桔完成签到,获得积分10
2分钟前
丘比特应助初景采纳,获得10
2分钟前
2分钟前
3分钟前
三块石头发布了新的文献求助10
3分钟前
打打应助三块石头采纳,获得10
3分钟前
斯文败类应助三块石头采纳,获得10
3分钟前
星辰大海应助三块石头采纳,获得10
3分钟前
酷波er应助三块石头采纳,获得10
3分钟前
思源应助三块石头采纳,获得10
3分钟前
科研通AI2S应助三块石头采纳,获得10
3分钟前
科研通AI2S应助三块石头采纳,获得10
3分钟前
李爱国应助三块石头采纳,获得10
3分钟前
彭于晏应助三块石头采纳,获得10
3分钟前
华仔应助三块石头采纳,获得10
3分钟前
FashionBoy应助三块石头采纳,获得10
3分钟前
万能图书馆应助三块石头采纳,获得10
3分钟前
隐形曼青应助三块石头采纳,获得10
3分钟前
爆米花应助三块石头采纳,获得10
3分钟前
Jasper应助三块石头采纳,获得10
3分钟前
香蕉觅云应助三块石头采纳,获得10
3分钟前
molihuakai应助三块石头采纳,获得10
3分钟前
田様应助三块石头采纳,获得10
3分钟前
科研通AI2S应助三块石头采纳,获得10
3分钟前
科研通AI2S应助三块石头采纳,获得10
3分钟前
ding应助三块石头采纳,获得10
3分钟前
小蘑菇应助三块石头采纳,获得10
3分钟前
爆米花应助三块石头采纳,获得10
3分钟前
李爱国应助三块石头采纳,获得10
3分钟前
3分钟前
英俊的铭应助三块石头采纳,获得10
3分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Les Mantodea de Guyane Insecta, Polyneoptera 2000
Emmy Noether's Wonderful Theorem 1200
Leading Academic-Practice Partnerships in Nursing and Healthcare: A Paradigm for Change 800
基于非线性光纤环形镜的全保偏锁模激光器研究-上海科技大学 800
Signals, Systems, and Signal Processing 610
Research Methods for Business: A Skill Building Approach, 9th Edition 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6410589
求助须知:如何正确求助?哪些是违规求助? 8229880
关于积分的说明 17463131
捐赠科研通 5463553
什么是DOI,文献DOI怎么找? 2886912
邀请新用户注册赠送积分活动 1863248
关于科研通互助平台的介绍 1702450