3 个月前

PatchMixer:一种用于长期时间序列预测的分块混合架构

PatchMixer:一种用于长期时间序列预测的分块混合架构

摘要

尽管近年来Transformer已成为时间序列预测任务中的主流架构,但一个根本性挑战依然存在:Transformer中的置换不变性自注意力机制会导致时间信息的丢失。为应对这一挑战,我们提出了一种新型基于CNN的模型——PatchMixer。该模型引入了一种置换相关(permutation-variant)的卷积结构,以有效保留时间序列中的时序信息。与该领域中通常采用多尺度或大量分支结构的常规CNN不同,我们的方法仅依赖深度可分离卷积(depthwise separable convolutions),从而在单一尺度架构下即可同时捕捉局部特征与全局相关性。此外,我们设计了双预测头结构,包含线性和非线性两部分,以更精准地建模未来序列的趋势与细节。在七个时间序列预测基准上的实验结果表明,相较于当前最先进的方法以及表现最佳的CNN模型,PatchMixer分别实现了3.9%和21.2%的相对性能提升,同时推理速度比最先进的方法快2至3倍。

代码仓库

hughxx/tsf-new-paper-taste
pytorch
GitHub 中提及
Zeying-Gong/PatchMixer
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
time-series-forecasting-on-etth1-192-1PatchMixer
MAE: 0.394
MSE: 0.373
time-series-forecasting-on-etth1-192-2PatchMixer
MAE: 0.198
MSE: 0.066
time-series-forecasting-on-etth1-336-1PatchMixer
MAE: 0.414
MSE: 0.392
time-series-forecasting-on-etth1-336-2PatchMixer
MAE: 0.220
MSE: 0.078
time-series-forecasting-on-etth1-720-1PatchMixer
MAE: 0.463
MSE: 0.445
time-series-forecasting-on-etth1-720-2PatchMixer
MAE: 0.243
MSE: 0.093
time-series-forecasting-on-etth1-96-1PatchMixer
MAE: 0.381
MSE: 0.353
time-series-forecasting-on-etth1-96-2PatchMixer
MAE: 0.179
MSE: 0.054
time-series-forecasting-on-etth2-192-1PatchMixer
MAE: 0.334
MSE: 0.274
time-series-forecasting-on-etth2-192-2PatchMixer
MAE: 0.305
MSE: 0.147
time-series-forecasting-on-etth2-336-1PatchMixer
MAE: 0.368
MSE: 0.317
time-series-forecasting-on-etth2-336-2PatchMixer
MAE: 0.332
MSE: 0.166
time-series-forecasting-on-etth2-720-1PatchMixer
MAE: 0.426
MSE: 0.393
time-series-forecasting-on-etth2-720-2PatchMixer
MAE: 0.374
MSE: 0.217
time-series-forecasting-on-etth2-96-1PatchMixer
MAE: 0.3
MSE: 0.225
time-series-forecasting-on-etth2-96-2PatchMixer
MAE: 0.268
MSE: 0.119

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
PatchMixer:一种用于长期时间序列预测的分块混合架构 | 论文 | HyperAI超神经