亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Mamba: Linear-Time Sequence Modeling with Selective State Spaces

计算机科学 变压器 推论 安全性令牌 人工智能 计算机工程 理论计算机科学 工程类 计算机安全 电压 电气工程
作者
Albert Gu,Tri Dao
出处
期刊:Cornell University - arXiv 被引量:390
标识
DOI:10.48550/arxiv.2312.00752
摘要

Foundation models, now powering most of the exciting applications in deep learning, are almost universally based on the Transformer architecture and its core attention module. Many subquadratic-time architectures such as linear attention, gated convolution and recurrent models, and structured state space models (SSMs) have been developed to address Transformers' computational inefficiency on long sequences, but they have not performed as well as attention on important modalities such as language. We identify that a key weakness of such models is their inability to perform content-based reasoning, and make several improvements. First, simply letting the SSM parameters be functions of the input addresses their weakness with discrete modalities, allowing the model to selectively propagate or forget information along the sequence length dimension depending on the current token. Second, even though this change prevents the use of efficient convolutions, we design a hardware-aware parallel algorithm in recurrent mode. We integrate these selective SSMs into a simplified end-to-end neural network architecture without attention or even MLP blocks (Mamba). Mamba enjoys fast inference (5$\times$ higher throughput than Transformers) and linear scaling in sequence length, and its performance improves on real data up to million-length sequences. As a general sequence model backbone, Mamba achieves state-of-the-art performance across several modalities such as language, audio, and genomics. On language modeling, our Mamba-3B model outperforms Transformers of the same size and matches Transformers twice its size, both in pretraining and downstream evaluation.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
moiumuio完成签到,获得积分10
7秒前
花园里的蒜完成签到 ,获得积分0
9秒前
16秒前
暮雨昨歇完成签到,获得积分10
19秒前
20秒前
wykion完成签到,获得积分0
20秒前
Ccc完成签到,获得积分10
20秒前
22秒前
大鹅发布了新的文献求助30
23秒前
ccc发布了新的文献求助10
27秒前
Owen应助大鹅采纳,获得10
33秒前
小瓜完成签到 ,获得积分10
38秒前
沉静的安青完成签到 ,获得积分10
39秒前
呼啦呼啦完成签到 ,获得积分10
51秒前
52秒前
akun完成签到,获得积分10
53秒前
镜羽发布了新的文献求助10
53秒前
小新发布了新的文献求助10
57秒前
58秒前
无花果应助二十八画生采纳,获得10
59秒前
雪白雪糕发布了新的文献求助10
1分钟前
Wone3完成签到 ,获得积分10
1分钟前
烟花应助雪白雪糕采纳,获得10
1分钟前
1分钟前
奇趣糖发布了新的文献求助10
1分钟前
冬瓜有内涵呐完成签到,获得积分10
1分钟前
1分钟前
1分钟前
1分钟前
一碗小米饭发布了新的文献求助100
1分钟前
LC完成签到 ,获得积分10
1分钟前
1分钟前
脑洞疼应助奇趣糖采纳,获得10
1分钟前
慕青应助科研通管家采纳,获得10
1分钟前
橘子树发布了新的文献求助10
1分钟前
zfffffff发布了新的文献求助10
1分钟前
1分钟前
ccc发布了新的文献求助10
2分钟前
zfffffff完成签到,获得积分20
2分钟前
2分钟前
高分求助中
The Mother of All Tableaux Order, Equivalence, and Geometry in the Large-scale Structure of Optimality Theory 1370
Encyclopedia of Mathematical Physics 2nd Edition 1000
生物降解型栓塞微球市场(按产品类型、应用和最终用户)- 2030 年全球预测 1000
Implantable Technologies 500
Ecological and Human Health Impacts of Contaminated Food and Environments 400
Theories of Human Development 400
Phylogenetic study of the order Polydesmida (Myriapoda: Diplopoda) 360
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 计算机科学 内科学 纳米技术 复合材料 化学工程 遗传学 催化作用 物理化学 基因 冶金 量子力学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 3924287
求助须知:如何正确求助?哪些是违规求助? 3469072
关于积分的说明 10954819
捐赠科研通 3198415
什么是DOI,文献DOI怎么找? 1767145
邀请新用户注册赠送积分活动 856683
科研通“疑难数据库(出版商)”最低求助积分说明 795585