3 个月前

时间序列胜过64个词:基于Transformer的长期预测

时间序列胜过64个词:基于Transformer的长期预测

摘要

我们提出了一种面向多变量时间序列预测与自监督表征学习的高效Transformer模型设计。该方法基于两个核心组件:(i)将时间序列分割为子序列级别的“补丁”(patches),作为Transformer的输入token;(ii)通道独立性机制,即每个通道仅包含一个单变量时间序列,且所有序列共享相同的嵌入层与Transformer参数。补丁化设计具有三重优势:首先,嵌入过程能够保留局部语义信息;其次,在相同回溯窗口下,注意力机制的计算量与内存占用呈二次降低;第三,模型能够有效关注更长的历史序列。所提出的通道独立补丁时间序列Transformer(PatchTST)在长期预测任务中显著优于当前最优的基于Transformer的模型。此外,我们将该模型应用于自监督预训练任务,取得了优异的微调性能,其表现甚至超越了在大规模数据集上的监督训练。将某一数据集上掩码预训练得到的表征迁移到其他数据集,亦能实现当前最优的预测精度。代码已开源,地址为:https://github.com/yuqinie98/PatchTST。

代码仓库

romilbert/samformer
tf
GitHub 中提及
arclab-mit/sw-driver-forecaster
pytorch
GitHub 中提及
yuqinie98/patchtst
官方
pytorch
GitHub 中提及
timeseriesAI/tsai
pytorch
GitHub 中提及
thuml/iTransformer
pytorch
GitHub 中提及

基准测试

基准方法指标
time-series-forecasting-on-electricity-192PatchTST/64
MSE: 0.147
time-series-forecasting-on-electricity-336PatchTST/64
MSE: 0.163
time-series-forecasting-on-electricity-720PatchTST/64
MSE: 0.197
time-series-forecasting-on-electricity-96PatchTST/64
MSE: 0.129
time-series-forecasting-on-etth1-192-1PatchTST/64
MAE: 0.429
MSE: 0.413
time-series-forecasting-on-etth1-192-2PatchTST/64
MAE: 0.215
MSE: 0.074
time-series-forecasting-on-etth1-336-1PatchTST/64
MAE: 0.44
MSE: 0.422
time-series-forecasting-on-etth1-336-2PatchTST/64
MAE: 0.22
MSE: 0.076
time-series-forecasting-on-etth1-720-1PatchTST/64
MAE: 0.468
MSE: 0.447
time-series-forecasting-on-etth1-720-2PatchTST/64
MAE: 0.236
MSE: 0.087
time-series-forecasting-on-etth1-96-1PatchTST/64
MAE: 0.4
MSE: 0.37
time-series-forecasting-on-etth1-96-2PatchTST/64
MAE: 0.189
MSE: 0.059
time-series-forecasting-on-etth2-192-1PatchTST/64
MAE: 0.382
MSE: 0.341
time-series-forecasting-on-etth2-192-2PatchTST/64
MAE: 0.329
MSE: 0.171
time-series-forecasting-on-etth2-336-1PatchTST/64
MAE: 0.384
MSE: 0.329
time-series-forecasting-on-etth2-336-2PatchTST/64
MAE: 0.336
MSE: 0.171
time-series-forecasting-on-etth2-720-1PatchTST/64
MAE: 0.422
MSE: 0.379
time-series-forecasting-on-etth2-720-2PatchTST/64
MAE: 0.38
MSE: 0.223
time-series-forecasting-on-etth2-96-1PatchTST/64
MAE: 0.337
MSE: 0.274
time-series-forecasting-on-etth2-96-2PatchTST/64
MAE: 0.284
MSE: 0.131
time-series-forecasting-on-weather-192PatchTST/64
MSE: 0.194
time-series-forecasting-on-weather-336PatchTST/64
MSE: 0.245
time-series-forecasting-on-weather-720PatchTST/64
MSE: 0.314
time-series-forecasting-on-weather-96PatchTST/64
MSE: 0.149

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
时间序列胜过64个词:基于Transformer的长期预测 | 论文 | HyperAI超神经