亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Efficient Network Construction Through Structural Plasticity

计算机科学 推论 冗余(工程) 计算机工程 失败 深度学习 人工智能 人工神经网络 现场可编程门阵列 计算 德拉姆 延迟(音频) 修剪 管道(软件) 机器学习 并行计算 嵌入式系统 计算机硬件 算法 程序设计语言 生物 操作系统 电信 农学
作者
Xiaocong Du,Zheng Li,Yufei Ma,Yu Cao
出处
期刊:IEEE Journal on Emerging and Selected Topics in Circuits and Systems [Institute of Electrical and Electronics Engineers]
卷期号:9 (3): 453-464 被引量:12
标识
DOI:10.1109/jetcas.2019.2933233
摘要

Deep Neural Networks (DNNs) on hardware is facing excessive computation cost due to the massive number of parameters. A typical training pipeline to mitigate over-parameterization is to pre-define a DNN structure with redundant learning units (filters and neurons) with the goal of high accuracy, then to prune redundant learning units after training with the purpose of efficient inference. We argue that it is sub-optimal to introduce redundancy into training in order to reduce redundancy later in inference. Moreover, the fixed network structure further results in poor adaption to dynamic tasks, such as lifelong learning. In contrast, structural plasticity plays an indispensable role in mammalian brains to achieve compact and accurate learning. Throughout the lifetime, active connections are continuously created while those that are no longer important are degenerated. Inspired by such observation, we propose a training scheme, namely Continuous Growth and Pruning (CGaP), where we start the training from a small network seed, then literally execute continuous growth by adding important learning units and finally prune secondary ones for efficient inference. The inference model generated from CGaP is sparse in the structure, largely decreasing the inference power and latency when deployed on hardware platforms. With popular DNN structures on representative datasets, the efficacy of CGaP is benchmarked by both algorithmic simulation and architectural modeling on Field-programmable Gate Arrays (FPGA). For example, CGaP decreases the FLOPs, model size, DRAM access energy and inference latency by 63.3%, 64.0%, 11.8% and 40.2%, respectively, for ResNet-110 on CIFAR-10.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
春风沂水完成签到,获得积分10
5秒前
zzxx完成签到,获得积分10
10秒前
科研通AI5应助春风沂水采纳,获得10
12秒前
林梓完成签到 ,获得积分10
22秒前
华仔应助科研通管家采纳,获得10
1分钟前
高高的从波完成签到,获得积分10
2分钟前
2分钟前
Hygge发布了新的文献求助10
2分钟前
zyjsunye完成签到 ,获得积分0
2分钟前
lyx2010完成签到,获得积分10
3分钟前
稻子完成签到 ,获得积分10
3分钟前
田様应助科研通管家采纳,获得10
3分钟前
在水一方应助科研通管家采纳,获得10
3分钟前
JSEILWQ完成签到 ,获得积分10
4分钟前
4分钟前
Hello应助天空之城采纳,获得10
5分钟前
5分钟前
天空之城发布了新的文献求助10
5分钟前
脑洞疼应助科研通管家采纳,获得10
5分钟前
6分钟前
anitachiu1104发布了新的文献求助10
6分钟前
实力不允许完成签到 ,获得积分10
7分钟前
7分钟前
7分钟前
YifanWang应助科研通管家采纳,获得20
7分钟前
李健应助13508104971采纳,获得10
8分钟前
8分钟前
满意人英完成签到,获得积分10
8分钟前
斯文的苡完成签到,获得积分10
9分钟前
9分钟前
001完成签到,获得积分10
9分钟前
滕皓轩完成签到 ,获得积分20
11分钟前
刘丰完成签到 ,获得积分10
11分钟前
YifanWang应助科研通管家采纳,获得10
11分钟前
YifanWang应助科研通管家采纳,获得10
11分钟前
SciGPT应助科研通管家采纳,获得10
11分钟前
12分钟前
研友_VZG7GZ应助鲜艳的诗翠采纳,获得10
12分钟前
友好的白柏完成签到 ,获得积分10
12分钟前
李健的小迷弟应助Sandy采纳,获得10
13分钟前
高分求助中
【此为提示信息,请勿应助】请按要求发布求助,避免被关 20000
ISCN 2024 – An International System for Human Cytogenomic Nomenclature (2024) 3000
Continuum Thermodynamics and Material Modelling 2000
Encyclopedia of Geology (2nd Edition) 2000
105th Edition CRC Handbook of Chemistry and Physics 1600
Maneuvering of a Damaged Navy Combatant 650
the MD Anderson Surgical Oncology Manual, Seventh Edition 300
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3777624
求助须知:如何正确求助?哪些是违规求助? 3323001
关于积分的说明 10212874
捐赠科研通 3038350
什么是DOI,文献DOI怎么找? 1667372
邀请新用户注册赠送积分活动 798106
科研通“疑难数据库(出版商)”最低求助积分说明 758229