3 个月前

Autoformer:用于长期序列预测的自相关分解Transformer

Autoformer:用于长期序列预测的自相关分解Transformer

摘要

延长预测时长是实际应用中的关键需求,例如极端天气预警和长期能源消耗规划。本文研究时间序列的长期预测问题。先前基于Transformer的模型采用多种自注意力机制以捕捉长程依赖关系,然而,未来长期序列中复杂的时序模式使得模型难以发现可靠的依赖关系。此外,为提升长序列处理效率,Transformer必须采用点对点自注意力的稀疏化版本,从而导致信息利用效率受限,形成瓶颈。超越传统Transformer架构,本文提出Autoformer——一种基于自相关机制的新型分解型架构。我们打破了时间序列分解的预处理惯例,将其重构为深度模型中的基本内部模块。这一设计赋予Autoformer对复杂时间序列进行渐进式分解的能力。进一步地,受随机过程理论的启发,我们设计了基于序列周期性的自相关机制,能够在子序列层面实现依赖关系的发现与表征聚合。实验表明,自相关机制在效率与准确率方面均优于传统自注意力机制。在长期预测任务中,Autoformer在六项基准测试上取得了当前最优的性能,相对提升达38%,覆盖能源、交通、经济、气象和疾病等五个实际应用场景。相关代码已开源,详见:\url{https://github.com/thuml/Autoformer}。

代码仓库

基准测试

基准方法指标
time-series-forecasting-on-etth1-336-1Autoformer
MAE: 0.484
MSE: 0.505

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
Autoformer:用于长期序列预测的自相关分解Transformer | 论文 | HyperAI超神经