已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

CLformer: Locally grouped auto-correlation and convolutional transformer for long-term multivariate time series forecasting

计算机科学 自相关 时间序列 水准点(测量) 系列(地层学) 多元统计 变压器 人工智能 数据挖掘 机器学习 统计 数学 物理 地理 电压 古生物学 生物 量子力学 大地测量学
作者
Xingyu Wang,Hui Liu,Ji-Xiang Du,Zhihan Yang,Xiyao Dong
出处
期刊:Engineering Applications of Artificial Intelligence [Elsevier]
卷期号:121: 106042-106042 被引量:8
标识
DOI:10.1016/j.engappai.2023.106042
摘要

Improving the performance of long-term time series forecasting is important for real-world applications. Recently, Transformer-based models have achieved significant performance gains in long-term time series prediction. However, these models are memory-intensive and cannot capture temporal patterns at multiple scales. To this end, we propose to integrate the time series decomposition method in the Transformer framework to enable the model to extract short- and long-term time patterns in more predictable seasonal and trend components. In this paper, we propose a Transformer-based model named CLformer. Different from previous methods, we exploit dilated convolutional networks to capture and refine multiple temporally repeated patterns in time series before time series decomposition. To enable the model to capture the dependencies at multiple scales, we propose a local group autocorrelation (LGAC) mechanism. The LGAC mechanism calculates autocorrelation within time series segments, strengthening the model’s ability to capture the local temporal dynamics of series. The stacking of multiple LGAC layers enables the model to capture multi-scale dependencies, which in turn improves the model’s predictive performance. The CLformer outperforms models using the global autocorrelation mechanism and self-attention in both efficiency and accuracy. Experimental results on six benchmark datasets show that our model obtains a relative performance improvement of 11.75% compared to the state-of-the-art methods. In addition, CLformer achieves a relative performance improvement of 18.89% on two datasets without apparent periodicity, demonstrating the effectiveness of our model on time series without significant periodicity.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
我是老大应助心升明月采纳,获得10
2秒前
可耐的青雪完成签到 ,获得积分10
4秒前
kawayifenm发布了新的文献求助10
5秒前
淡淡菊花香完成签到,获得积分10
7秒前
8秒前
粗暴的遥完成签到 ,获得积分10
9秒前
华新完成签到 ,获得积分10
12秒前
传奇3应助张三采纳,获得10
13秒前
姬如雪儿完成签到 ,获得积分10
13秒前
yema完成签到 ,获得积分10
13秒前
金牌博士发布了新的文献求助30
14秒前
15秒前
流年发布了新的文献求助30
15秒前
17秒前
心升明月发布了新的文献求助10
19秒前
失眠的广山完成签到 ,获得积分10
20秒前
希望天下0贩的0应助ALLIN采纳,获得30
21秒前
张三发布了新的文献求助10
21秒前
张三完成签到,获得积分10
30秒前
科研通AI2S应助优雅的水绿采纳,获得10
31秒前
31秒前
深情安青应助Shawnchan采纳,获得10
34秒前
李白乘舟将欲行完成签到 ,获得积分10
35秒前
ALLIN发布了新的文献求助30
36秒前
42秒前
流年完成签到,获得积分10
45秒前
金牌博士完成签到,获得积分10
45秒前
Lucky完成签到,获得积分10
45秒前
辛勤的冷松完成签到,获得积分10
47秒前
棕1完成签到 ,获得积分10
48秒前
zjkzh完成签到 ,获得积分10
49秒前
yaolei完成签到,获得积分10
51秒前
宜醉宜游宜睡应助ALLIN采纳,获得10
52秒前
宜醉宜游宜睡应助ALLIN采纳,获得10
52秒前
53秒前
甜美寻菱完成签到 ,获得积分10
53秒前
54秒前
zxz完成签到,获得积分10
56秒前
d.zhang完成签到,获得积分10
58秒前
zxz发布了新的文献求助10
58秒前
高分求助中
Formgebungs- und Stabilisierungsparameter für das Konstruktionsverfahren der FiDU-Freien Innendruckumformung von Blech 1000
The Illustrated History of Gymnastics 800
The Bourse of Babylon : market quotations in the astronomical diaries of Babylonia 680
Division and square root. Digit-recurrence algorithms and implementations 500
Hypofractionated Stereotactic Radiosurgery for Brain Metastases 300
Elgar Encyclopedia of Consumer Behavior 300
機能營養學前瞻(3 Ed.) 300
热门求助领域 (近24小时)
化学 材料科学 医学 生物 有机化学 工程类 生物化学 纳米技术 物理 内科学 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 电极 光电子学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 2509301
求助须知:如何正确求助?哪些是违规求助? 2159700
关于积分的说明 5529526
捐赠科研通 1879990
什么是DOI,文献DOI怎么找? 935522
版权声明 564161
科研通“疑难数据库(出版商)”最低求助积分说明 499472