4 个月前

时间序列表示学习通过时间和上下文对比

时间序列表示学习通过时间和上下文对比

摘要

从带有时间动态的未标记时间序列数据中学习高质量的表示是一项极具挑战性的任务。在本文中,我们提出了一种基于时间和上下文对比(TS-TCC)的无监督时间序列表示学习框架,以从未标记的数据中学习时间序列表示。首先,通过使用弱增强和强增强方法,将原始时间序列数据转换为两个不同但相关联的视图。其次,我们设计了一个艰难的跨视图预测任务,提出了一个新的时间对比模块来学习鲁棒的时间表示。最后,为了进一步学习判别性表示,我们基于时间对比模块中的上下文构建了一个上下文对比模块。该模块试图最大化同一样本的不同上下文之间的相似性,同时最小化不同样本之间上下文的相似性。我们在三个真实世界的时间序列数据集上进行了实验。结果表明,在我们提出的TS-TCC所学习的特征基础上训练线性分类器的表现与有监督训练相当。此外,我们的TS-TCC在少量标记数据和迁移学习场景中表现出高效率。代码已公开发布在 https://github.com/emadeldeen24/TS-TCC。

代码仓库

emadeldeen24/TS-TCC
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
automatic-sleep-stage-classification-on-sleep-1TS-TCC
Accuracy: 83.0
epilepsy-prediction-on-epilepsy-seizureTS-TCC
1:1 Accuracy: 97.23
recognizing-and-localizing-human-actions-onTS-TCC
1:1 Accuracy: 90.37

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
时间序列表示学习通过时间和上下文对比 | 论文 | HyperAI超神经