亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

DLformer: A Dynamic Length Transformer-Based Network for Efficient Feature Representation in Remaining Useful Life Prediction

可解释性 计算机科学 推论 代表(政治) 计算 特征(语言学) 人工智能 序列(生物学) 机器学习 变压器 特征学习 模式识别(心理学) 数据挖掘 算法 工程类 哲学 电气工程 电压 法学 政治 生物 遗传学 语言学 政治学
作者
Lei Ren,Haiteng Wang,Gao Huang
出处
期刊:IEEE transactions on neural networks and learning systems [Institute of Electrical and Electronics Engineers]
卷期号:35 (5): 5942-5952 被引量:25
标识
DOI:10.1109/tnnls.2023.3257038
摘要

Representation learning-based remaining useful life (RUL) prediction plays a crucial role in improving the security and reducing the maintenance cost of complex systems. Despite the superior performance, the high computational cost of deep networks hinders deploying the models on low-compute platforms. A significant reason for the high cost is the computation of representing long sequences. In contrast to most RUL prediction methods that learn features of the same sequence length, we consider that each time series has its characteristics and the sequence length should be adjusted adaptively. Our motivation is that an "easy" sample with representative characteristics can be correctly predicted even when short feature representation is provided, while "hard" samples need complete feature representation. Therefore, we focus on sequence length and propose a dynamic length transformer (DLformer) that can adaptively learn sequence representation of different lengths. Then, a feature reuse mechanism is developed to utilize previously learned features to reduce redundant computation. Finally, in order to achieve dynamic feature representation, a particular confidence strategy is designed to calculate the confidence level for the prediction results. Regarding interpretability, the dynamic architecture can help human understand which part of the model is activated. Experiments on multiple datasets show that DLformer can increase up to $90\%$ inference speed, with less than $5\%$ degradation in model accuracy.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
l老王完成签到 ,获得积分10
刚刚
7秒前
祭酒完成签到 ,获得积分10
8秒前
eric888应助Alex采纳,获得200
20秒前
30秒前
王十三完成签到,获得积分10
48秒前
48秒前
49秒前
王十三发布了新的文献求助10
54秒前
59秒前
1分钟前
grs完成签到,获得积分10
1分钟前
隐形曼青应助科研通管家采纳,获得10
1分钟前
1分钟前
1分钟前
1分钟前
1分钟前
automan发布了新的文献求助10
1分钟前
桦奕兮完成签到 ,获得积分10
1分钟前
1分钟前
1分钟前
柴yuki完成签到 ,获得积分10
1分钟前
gt完成签到 ,获得积分10
1分钟前
小小完成签到,获得积分10
2分钟前
张晓祁完成签到,获得积分10
2分钟前
yueying完成签到,获得积分10
2分钟前
烟花应助科研通管家采纳,获得10
3分钟前
英姑应助科研通管家采纳,获得10
3分钟前
科研通AI2S应助科研通管家采纳,获得10
3分钟前
赘婿应助科研通管家采纳,获得10
3分钟前
方的圆完成签到,获得积分10
3分钟前
如意的翰完成签到 ,获得积分10
3分钟前
斯文败类应助昏睡的陈酿采纳,获得10
3分钟前
gaga发布了新的文献求助20
3分钟前
陆上飞完成签到,获得积分10
3分钟前
充电宝应助陆上飞采纳,获得10
3分钟前
wbs13521完成签到,获得积分10
4分钟前
xiaobai发布了新的文献求助10
4分钟前
在水一方应助蟹黄丸子采纳,获得30
4分钟前
善学以致用应助gaga采纳,获得10
4分钟前
高分求助中
Les Mantodea de Guyane: Insecta, Polyneoptera [The Mantids of French Guiana] 2500
Future Approaches to Electrochemical Sensing of Neurotransmitters 1000
Electron microscopy study of magnesium hydride (MgH2) for Hydrogen Storage 1000
Finite Groups: An Introduction 800
壮语核心名词的语言地图及解释 700
ВЕРНЫЙ ДРУГ КИТАЙСКОГО НАРОДА СЕРГЕЙ ПОЛЕВОЙ 500
ВОЗОБНОВЛЕН ВЫПУСК ЖУРНАЛА "КИТАЙ" НА РУССКОМ ЯЗЫКЕ 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3906824
求助须知:如何正确求助?哪些是违规求助? 3452359
关于积分的说明 10870138
捐赠科研通 3178194
什么是DOI,文献DOI怎么找? 1755805
邀请新用户注册赠送积分活动 849100
科研通“疑难数据库(出版商)”最低求助积分说明 791352