Deep Learning Model Compression With Rank Reduction in Tensor Decomposition

加速 计算机科学 还原(数学) 超参数 MNIST数据库 人工智能 深度学习 架空(工程) 压缩比 压缩(物理) 塔克分解 张量(固有定义) 模式识别(心理学) 算法 张量分解 并行计算 数学 几何学 纯数学 复合材料 操作系统 材料科学 工程类 内燃机 汽车工程
作者
Wei Dai,Jicong Fan,Yiming Miao,Kai Hwang
出处
期刊:IEEE transactions on neural networks and learning systems [Institute of Electrical and Electronics Engineers]
卷期号:36 (1): 1315-1328 被引量:10
标识
DOI:10.1109/tnnls.2023.3330542
摘要

Large neural network models are hard to deploy on lightweight edge devices demanding large network bandwidth. In this article, we propose a novel deep learning (DL) model compression method. Specifically, we present a dual-model training strategy with an iterative and adaptive rank reduction (RR) in tensor decomposition. Our method regularizes the DL models while preserving model accuracy. With adaptive RR, the hyperparameter search space is significantly reduced. We provide a theoretical analysis of the convergence and complexity of the proposed method. Testing our method for the LeNet, VGG, ResNet, EfficientNet, and RevCol over MNIST, CIFAR-10/100, and ImageNet datasets, our method outperforms the baseline compression methods in both model compression and accuracy preservation. The experimental results validate our theoretical findings. For the VGG-16 on CIFAR-10 dataset, our compressed model has shown a 0.88% accuracy gain with 10.41 times storage reduction and 6.29 times speedup. For the ResNet-50 on ImageNet dataset, our compressed model results in 2.36 times storage reduction and 2.17 times speedup. In federated learning (FL) applications, our scheme reduces 13.96 times the communication overhead. In summary, our compressed DL method can improve the image understanding and pattern recognition processes significantly.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
刚刚
1秒前
1秒前
rosestar发布了新的文献求助10
1秒前
鲁啊鲁完成签到 ,获得积分10
1秒前
wyc完成签到,获得积分10
1秒前
不学无术发布了新的文献求助20
1秒前
星辰大海应助乒坛巨人采纳,获得10
1秒前
2秒前
2秒前
2秒前
快乐的菠萝完成签到,获得积分10
3秒前
3秒前
槐椟完成签到,获得积分10
3秒前
季刘杰发布了新的文献求助10
4秒前
4秒前
4秒前
任梁辰完成签到,获得积分10
4秒前
夏目发布了新的文献求助10
5秒前
吴子鹏完成签到,获得积分10
5秒前
思源应助疯狂的大闸蟹采纳,获得10
5秒前
狂野的河马完成签到,获得积分0
5秒前
gz发布了新的文献求助10
5秒前
qwert发布了新的文献求助10
6秒前
6秒前
现代飞鸟完成签到,获得积分10
6秒前
勤奋的松鼠完成签到,获得积分0
6秒前
瘦瘦安柏完成签到,获得积分10
7秒前
7秒前
8秒前
背后的鹭洋完成签到,获得积分0
8秒前
科研通AI2S应助岁月静好采纳,获得30
8秒前
momo发布了新的文献求助10
8秒前
灌灌灌灌规划完成签到,获得积分20
8秒前
mmmmlll发布了新的文献求助10
8秒前
尼古拉发布了新的文献求助30
8秒前
8秒前
8秒前
9秒前
herdwind完成签到,获得积分10
9秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Basic And Clinical Science Course 2025-2026 3000
人脑智能与人工智能 1000
花の香りの秘密―遺伝子情報から機能性まで 800
Silicon in Organic, Organometallic, and Polymer Chemistry 500
Principles of Plasma Discharges and Materials Processing, 3rd Edition 400
Pharmacology for Chemists: Drug Discovery in Context 400
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5607247
求助须知:如何正确求助?哪些是违规求助? 4691896
关于积分的说明 14871944
捐赠科研通 4713487
什么是DOI,文献DOI怎么找? 2543412
邀请新用户注册赠送积分活动 1508632
关于科研通互助平台的介绍 1472618