已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

SpectFormer: Frequency and Attention is what you need in a Vision Transformer

变压器 建筑 计算机科学 人工智能 分割 模式识别(心理学) 特征学习 机器学习 工程类 电气工程 电压 地理 考古
作者
Badri N. Patro,Vinay P. Namboodiri,Vijay Srinivas Agneeswaran
出处
期刊:Cornell University - arXiv 被引量:34
标识
DOI:10.48550/arxiv.2304.06446
摘要

Vision transformers have been applied successfully for image recognition tasks. There have been either multi-headed self-attention based (ViT \cite{dosovitskiy2020image}, DeIT, \cite{touvron2021training}) similar to the original work in textual models or more recently based on spectral layers (Fnet\cite{lee2021fnet}, GFNet\cite{rao2021global}, AFNO\cite{guibas2021efficient}). We hypothesize that both spectral and multi-headed attention plays a major role. We investigate this hypothesis through this work and observe that indeed combining spectral and multi-headed attention layers provides a better transformer architecture. We thus propose the novel Spectformer architecture for transformers that combines spectral and multi-headed attention layers. We believe that the resulting representation allows the transformer to capture the feature representation appropriately and it yields improved performance over other transformer representations. For instance, it improves the top-1 accuracy by 2\% on ImageNet compared to both GFNet-H and LiT. SpectFormer-S reaches 84.25\% top-1 accuracy on ImageNet-1K (state of the art for small version). Further, Spectformer-L achieves 85.7\% that is the state of the art for the comparable base version of the transformers. We further ensure that we obtain reasonable results in other scenarios such as transfer learning on standard datasets such as CIFAR-10, CIFAR-100, Oxford-IIIT-flower, and Standford Car datasets. We then investigate its use in downstream tasks such of object detection and instance segmentation on the MS-COCO dataset and observe that Spectformer shows consistent performance that is comparable to the best backbones and can be further optimized and improved. Hence, we believe that combined spectral and attention layers are what are needed for vision transformers.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
1秒前
LILYpig完成签到 ,获得积分10
2秒前
pegasus0802完成签到,获得积分10
3秒前
fosca完成签到,获得积分10
4秒前
周杰完成签到,获得积分10
5秒前
小攀完成签到,获得积分10
10秒前
16秒前
19秒前
19秒前
WWX完成签到 ,获得积分10
20秒前
22秒前
26秒前
ooo完成签到,获得积分10
27秒前
rong完成签到 ,获得积分10
28秒前
ooo发布了新的文献求助10
31秒前
无情的惋清完成签到,获得积分10
34秒前
laiba完成签到,获得积分10
37秒前
大个应助肉丝采纳,获得10
37秒前
38秒前
40秒前
求助论文的人完成签到,获得积分10
40秒前
40秒前
41秒前
白云发布了新的文献求助10
45秒前
CipherSage应助goodgoodstudy采纳,获得10
47秒前
执着天德完成签到,获得积分20
48秒前
无花果应助科研通管家采纳,获得10
50秒前
科研通AI2S应助科研通管家采纳,获得10
50秒前
李爱国应助科研通管家采纳,获得10
50秒前
汉堡包应助科研通管家采纳,获得30
50秒前
科研通AI2S应助科研通管家采纳,获得10
50秒前
50秒前
50秒前
50秒前
医疗废物专用车乘客完成签到,获得积分10
51秒前
bkagyin应助迷麟采纳,获得10
55秒前
eric完成签到 ,获得积分10
56秒前
鸣蜩十三完成签到,获得积分10
1分钟前
1分钟前
1分钟前
高分求助中
(禁止应助)【重要!!请各位详细阅读】【科研通的精品贴汇总】 10000
Semantics for Latin: An Introduction 1099
Robot-supported joining of reinforcement textiles with one-sided sewing heads 780
水稻光合CO2浓缩机制的创建及其作用研究 500
Logical form: From GB to Minimalism 500
2025-2030年中国消毒剂行业市场分析及发展前景预测报告 500
镇江南郊八公洞林区鸟类生态位研究 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 4161568
求助须知:如何正确求助?哪些是违规求助? 3697145
关于积分的说明 11674645
捐赠科研通 3388392
什么是DOI,文献DOI怎么找? 1858052
邀请新用户注册赠送积分活动 918823
科研通“疑难数据库(出版商)”最低求助积分说明 831695