DeepViT: Towards Deeper Vision Transformer

计算机科学 变压器 计算 卷积神经网络 人工智能 堆积 缩放比例 深度学习 特征学习 失败 编码(集合论) 模式识别(心理学) 机器学习 算法 并行计算 工程类 电压 数学 核磁共振 电气工程 物理 几何学 集合(抽象数据类型) 程序设计语言
作者
Daquan Zhou,Bingyi Kang,Xiaojie Jin,Linjie Yang,Xiaochen Lian,Zihang Jiang,Qibin Hou,Jiashi Feng
出处
期刊:Cornell University - arXiv 被引量:330
标识
DOI:10.48550/arxiv.2103.11886
摘要

Vision transformers (ViTs) have been successfully applied in image classification tasks recently. In this paper, we show that, unlike convolution neural networks (CNNs)that can be improved by stacking more convolutional layers, the performance of ViTs saturate fast when scaled to be deeper. More specifically, we empirically observe that such scaling difficulty is caused by the attention collapse issue: as the transformer goes deeper, the attention maps gradually become similar and even much the same after certain layers. In other words, the feature maps tend to be identical in the top layers of deep ViT models. This fact demonstrates that in deeper layers of ViTs, the self-attention mechanism fails to learn effective concepts for representation learning and hinders the model from getting expected performance gain. Based on above observation, we propose a simple yet effective method, named Re-attention, to re-generate the attention maps to increase their diversity at different layers with negligible computation and memory cost. The pro-posed method makes it feasible to train deeper ViT models with consistent performance improvements via minor modification to existing ViT models. Notably, when training a deep ViT model with 32 transformer blocks, the Top-1 classification accuracy can be improved by 1.6% on ImageNet. Code is publicly available at https://github.com/zhoudaquan/dvit_repo.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
李爱国应助YZ采纳,获得10
刚刚
英姑应助kingcell采纳,获得10
刚刚
Zzzzz发布了新的文献求助10
1秒前
深情安青应助乐观紫采纳,获得10
2秒前
Lars应助caoshisheng采纳,获得10
2秒前
贪玩的天荷完成签到 ,获得积分10
2秒前
YumingYang发布了新的文献求助10
3秒前
纯真忆秋发布了新的文献求助10
3秒前
4秒前
4秒前
5秒前
清脆的凝竹完成签到,获得积分10
5秒前
6秒前
8秒前
susu发布了新的文献求助10
9秒前
自觉静竹发布了新的文献求助10
9秒前
禾沐发布了新的文献求助10
9秒前
听见发布了新的文献求助10
9秒前
cayde完成签到,获得积分10
10秒前
冷酷的冬瓜完成签到,获得积分10
10秒前
仇敌克星发布了新的文献求助10
10秒前
老夫子完成签到,获得积分10
11秒前
13秒前
坚定的若枫完成签到,获得积分10
13秒前
hy993完成签到 ,获得积分10
14秒前
丰富钢铁侠完成签到,获得积分10
14秒前
王小小发布了新的文献求助10
15秒前
YumingYang完成签到,获得积分10
16秒前
17秒前
17秒前
科研通AI6应助WWM采纳,获得10
17秒前
YCW完成签到,获得积分10
17秒前
丘比特应助乐观小之采纳,获得30
17秒前
嘻嘻嘻发布了新的文献求助10
18秒前
andrele发布了新的文献求助10
18秒前
luanzhaohui发布了新的文献求助10
19秒前
21秒前
搜集达人应助墨墨采纳,获得10
22秒前
hhh完成签到,获得积分10
23秒前
zxy125发布了新的文献求助10
25秒前
高分求助中
(应助此贴封号)【重要!!请各位详细阅读】【科研通的精品贴汇总】 10000
F-35B V2.0 How to build Kitty Hawk's F-35B Version 2.0 Model 2000
줄기세포 생물학 1000
Biodegradable Embolic Microspheres Market Insights 888
Quantum reference frames : from quantum information to spacetime 888
McCance and Widdowson's Composition of Foods, 7th edition 500
INQUIRY-BASED PEDAGOGY TO SUPPORT STEM LEARNING AND 21ST CENTURY SKILLS: PREPARING NEW TEACHERS TO IMPLEMENT PROJECT AND PROBLEM-BASED LEARNING 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 4468497
求助须知:如何正确求助?哪些是违规求助? 3929458
关于积分的说明 12193004
捐赠科研通 3582980
什么是DOI,文献DOI怎么找? 1969136
邀请新用户注册赠送积分活动 1007432
科研通“疑难数据库(出版商)”最低求助积分说明 901415