亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

iTransformer: Inverted Transformers Are Effective for Time Series Forecasting

时间戳 计算机科学 变压器 安全性令牌 时间序列 人工智能 杠杆(统计) 机器学习 实时计算 工程类 计算机安全 电压 电气工程
作者
Yong Liu,Tengge Hu,Haoran Zhang,Haixu Wu,Shiyu Wang,Lintao Ma,Mingsheng Long
出处
期刊:Cornell University - arXiv
标识
DOI:10.48550/arxiv.2310.06625
摘要

The recent boom of linear forecasting models questions the ongoing passion for architectural modifications of Transformer-based forecasters. These forecasters leverage Transformers to model the global dependencies over temporal tokens of time series, with each token formed by multiple variates of the same timestamp. However, Transformers are challenged in forecasting series with larger lookback windows due to performance degradation and computation explosion. Besides, the embedding for each temporal token fuses multiple variates that represent potential delayed events and distinct physical measurements, which may fail in learning variate-centric representations and result in meaningless attention maps. In this work, we reflect on the competent duties of Transformer components and repurpose the Transformer architecture without any modification to the basic components. We propose iTransformer that simply applies the attention and feed-forward network on the inverted dimensions. Specifically, the time points of individual series are embedded into variate tokens which are utilized by the attention mechanism to capture multivariate correlations; meanwhile, the feed-forward network is applied for each variate token to learn nonlinear representations. The iTransformer model achieves state-of-the-art on challenging real-world datasets, which further empowers the Transformer family with promoted performance, generalization ability across different variates, and better utilization of arbitrary lookback windows, making it a nice alternative as the fundamental backbone of time series forecasting.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
爆米花应助Byron采纳,获得10
14秒前
25秒前
Byron发布了新的文献求助10
31秒前
42秒前
XD发布了新的文献求助10
48秒前
imi完成签到 ,获得积分10
56秒前
FashionBoy应助XD采纳,获得20
1分钟前
魏白晴完成签到,获得积分10
1分钟前
邹醉蓝完成签到,获得积分10
2分钟前
lxt819完成签到,获得积分10
2分钟前
研ZZ完成签到,获得积分10
3分钟前
穆振家完成签到,获得积分10
3分钟前
看书完成签到 ,获得积分10
3分钟前
CATH完成签到 ,获得积分10
3分钟前
机智若云完成签到,获得积分10
5分钟前
年年有余发布了新的文献求助10
6分钟前
清楚或青月完成签到 ,获得积分10
7分钟前
longtengfei完成签到,获得积分10
7分钟前
吴嘉俊完成签到 ,获得积分10
9分钟前
9分钟前
喵总发布了新的文献求助20
9分钟前
有人应助科研通管家采纳,获得10
9分钟前
年年有余完成签到,获得积分10
9分钟前
10分钟前
喵总发布了新的文献求助10
10分钟前
小二郎应助喵总采纳,获得10
11分钟前
Kiiiiiiii完成签到,获得积分10
11分钟前
有人应助科研通管家采纳,获得10
11分钟前
有人应助科研通管家采纳,获得10
11分钟前
有人应助科研通管家采纳,获得10
11分钟前
11分钟前
Kiiiiiiii发布了新的文献求助30
11分钟前
游大达完成签到 ,获得积分10
11分钟前
烟消云散完成签到,获得积分10
11分钟前
HS完成签到,获得积分10
11分钟前
12分钟前
喵总发布了新的文献求助10
12分钟前
喵总完成签到,获得积分10
13分钟前
有人应助科研通管家采纳,获得10
13分钟前
有人应助科研通管家采纳,获得10
13分钟前
高分求助中
请在求助之前详细阅读求助说明!!!! 20000
The Three Stars Each: The Astrolabes and Related Texts 900
Yuwu Song, Biographical Dictionary of the People's Republic of China 700
Bernd Ziesemer - Maos deutscher Topagent: Wie China die Bundesrepublik eroberte 500
A radiographic standard of reference for the growing knee 400
Glossary of Geology 400
Additive Manufacturing Design and Applications 320
热门求助领域 (近24小时)
化学 材料科学 医学 生物 有机化学 工程类 生物化学 纳米技术 物理 内科学 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 电极 光电子学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 2473148
求助须知:如何正确求助?哪些是违规求助? 2138758
关于积分的说明 5450776
捐赠科研通 1862775
什么是DOI,文献DOI怎么找? 926213
版权声明 562805
科研通“疑难数据库(出版商)”最低求助积分说明 495444