ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks

失败 计算机科学 卷积神经网络 频道(广播) 核(代数) 卷积(计算机科学) 人工智能 维数之咒 计算 计算复杂性理论 还原(数学) 模式识别(心理学) 机器学习 计算机工程 人工神经网络 算法 并行计算 电信 数学 几何学 组合数学
作者
Qilong Wang,Banggu Wu,Pengfei Zhu,Peihua Li,Wangmeng Zuo,Qinghua Hu
出处
期刊:Cornell University - arXiv 被引量:17
标识
DOI:10.48550/arxiv.1910.03151
摘要

Recently, channel attention mechanism has demonstrated to offer great potential in improving the performance of deep convolutional neural networks (CNNs). However, most existing methods dedicate to developing more sophisticated attention modules for achieving better performance, which inevitably increase model complexity. To overcome the paradox of performance and complexity trade-off, this paper proposes an Efficient Channel Attention (ECA) module, which only involves a handful of parameters while bringing clear performance gain. By dissecting the channel attention module in SENet, we empirically show avoiding dimensionality reduction is important for learning channel attention, and appropriate cross-channel interaction can preserve performance while significantly decreasing model complexity. Therefore, we propose a local cross-channel interaction strategy without dimensionality reduction, which can be efficiently implemented via $1D$ convolution. Furthermore, we develop a method to adaptively select kernel size of $1D$ convolution, determining coverage of local cross-channel interaction. The proposed ECA module is efficient yet effective, e.g., the parameters and computations of our modules against backbone of ResNet50 are 80 vs. 24.37M and 4.7e-4 GFLOPs vs. 3.86 GFLOPs, respectively, and the performance boost is more than 2% in terms of Top-1 accuracy. We extensively evaluate our ECA module on image classification, object detection and instance segmentation with backbones of ResNets and MobileNetV2. The experimental results show our module is more efficient while performing favorably against its counterparts.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
俭朴的语薇完成签到,获得积分10
3秒前
9秒前
9秒前
华仔应助Lily采纳,获得10
13秒前
左孤云完成签到,获得积分10
13秒前
开心的飞风完成签到,获得积分10
14秒前
14秒前
14秒前
跳跃的中蓝完成签到,获得积分10
15秒前
16秒前
伶俐烤鸡发布了新的文献求助10
16秒前
可可不西锂完成签到 ,获得积分10
18秒前
122发布了新的文献求助20
18秒前
舒羽完成签到,获得积分10
19秒前
20秒前
21秒前
左孤云发布了新的文献求助10
21秒前
yangyog发布了新的文献求助10
23秒前
彩虹糖上糖完成签到,获得积分10
24秒前
可爱的汤圆完成签到,获得积分10
25秒前
CodeCraft应助昭昭采纳,获得10
25秒前
鲸鲸鲸京发布了新的文献求助10
26秒前
kogari完成签到 ,获得积分10
27秒前
伶俐烤鸡完成签到,获得积分10
28秒前
32秒前
33秒前
33秒前
陈权完成签到 ,获得积分10
34秒前
35秒前
柠曦发布了新的文献求助10
36秒前
Vicktor2021完成签到,获得积分10
36秒前
weiyapei完成签到,获得积分10
38秒前
38秒前
38秒前
Susan发布了新的文献求助10
39秒前
开放刺猬发布了新的文献求助10
42秒前
11发布了新的文献求助10
42秒前
42秒前
gjww应助weiyapei采纳,获得10
43秒前
昭昭发布了新的文献求助10
43秒前
高分求助中
Sustainable Land Management: Strategies to Cope with the Marginalisation of Agriculture 1000
Corrosion and Oxygen Control 600
Yaws' Handbook of Antoine coefficients for vapor pressure 500
Python Programming for Linguistics and Digital Humanities: Applications for Text-Focused Fields 500
Love and Friendship in the Western Tradition: From Plato to Postmodernity 500
Heterocyclic Stilbene and Bibenzyl Derivatives in Liverworts: Distribution, Structures, Total Synthesis and Biological Activity 500
重庆市新能源汽车产业大数据招商指南(两链两图两池两库两平台两清单两报告) 400
热门求助领域 (近24小时)
化学 材料科学 医学 生物 有机化学 工程类 生物化学 纳米技术 物理 内科学 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 电极 光电子学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 2549770
求助须知:如何正确求助?哪些是违规求助? 2177066
关于积分的说明 5607767
捐赠科研通 1897890
什么是DOI,文献DOI怎么找? 947477
版权声明 565447
科研通“疑难数据库(出版商)”最低求助积分说明 504108