
摘要
近期研究表明,诸如循环神经网络(RNN)和Transformer等深度学习模型在时间序列的长期预测任务中取得了显著的性能提升,这主要得益于其对历史信息的有效利用。然而,我们发现,在神经网络中如何在保留历史信息的同时避免对历史数据中噪声的过拟合,仍存在巨大的优化空间。解决这一问题有助于更充分地发挥深度学习模型的潜力。为此,我们提出了一种频域增强的勒让德记忆模型(Frequency-improved Legendre Memory,简称 FiLM):该模型采用勒让德多项式投影来近似历史信息,利用傅里叶变换投影实现噪声抑制,并引入低秩近似以加速计算过程。实验结果表明,FiLM在多变量和单变量长期预测任务中,分别将当前最先进模型的预测精度提升了20.3%和22.6%。此外,我们还证明了本文所提出的表示模块具有通用性,可作为即插即用的组件,有效提升其他深度学习模型在长期预测任务中的性能。代码已开源,地址为:https://github.com/tianzhou2011/FiLM/
代码仓库
tianzhou2011/FiLM
pytorch
GitHub 中提及
damo-di-ml/neurips2022-film
pytorch
GitHub 中提及
WenjieDu/PyPOTS
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| time-series-forecasting-on-etth1-192-1 | FiLM | MAE: 0.423 MSE: 0.414 |
| time-series-forecasting-on-etth1-192-2 | FiLM | MAE: 0.207 MSE: 0.072 |
| time-series-forecasting-on-etth1-336-1 | FiLM | MAE: 0.445 MSE: 0.442 |
| time-series-forecasting-on-etth1-336-2 | FiLM | MAE: 0.229 MSE: 0.083 |
| time-series-forecasting-on-etth1-720-1 | FiLM | MAE: 0.472 MSE: 0.465 |
| time-series-forecasting-on-etth1-720-2 | FiLM | MAE: 0.24 MSE: 0.09 |
| time-series-forecasting-on-etth1-96-1 | FiLM | MAE: 0.394 MSE: 0.371 |
| time-series-forecasting-on-etth1-96-2 | FiLM | MAE: 0.178 MSE: 0.055 |
| time-series-forecasting-on-etth2-192-1 | FiLM | MAE: 0.4 MSE: 0.357 |
| time-series-forecasting-on-etth2-192-2 | FiLM | MAE: 0.335 MSE: 0.182 |
| time-series-forecasting-on-etth2-336-1 | FiLM | MAE: 0.417 MSE: 0.377 |
| time-series-forecasting-on-etth2-336-2 | FiLM | MAE: 0.367 MSE: 0.204 |
| time-series-forecasting-on-etth2-720-1 | FiLM | MAE: 0.456 MSE: 0.439 |
| time-series-forecasting-on-etth2-720-2 | FiLM | MAE: 0.396 MSE: 0.241 |
| time-series-forecasting-on-etth2-96-1 | FiLM | MAE: 0.348 MSE: 0.284 |
| time-series-forecasting-on-etth2-96-2 | FiLM | MAE: 0.272 MSE: 0.127 |