3 个月前

基于Transformer的多变量时间序列表征学习框架

基于Transformer的多变量时间序列表征学习框架

摘要

在本研究中,我们首次提出了一种基于Transformer的框架,用于多变量时间序列的无监督表示学习。预训练模型可潜在应用于下游任务,如回归、分类、预测以及缺失值填补。通过对多个多变量时间序列回归与分类的基准数据集进行评估,我们表明:不仅本研究所提出的建模方法是迄今采用无监督学习进行多变量时间序列建模中最成功的方法,而且其性能甚至超越了当前最先进的有监督方法。这一优势在训练样本数量极为有限的情况下依然成立,同时兼具计算高效性。最后,我们证明,仅通过在相同数据样本上利用无监督目标进行预训练,即便未引入额外的无标签数据,其性能也显著优于完全依赖有监督学习的方法。

代码仓库

appleparan/mise.py
pytorch
GitHub 中提及
AntonioAcunzo/mvts_transformer
pytorch
GitHub 中提及
pkuyym/evolvingattention
tf
GitHub 中提及
gzerveas/mvts_transformer
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
time-series-classification-on-insectwingbeat-1TST
Accuracy: 0.687

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于Transformer的多变量时间序列表征学习框架 | 论文 | HyperAI超神经