
摘要
在数据有限的情况下实现时间序列分类是一个兼具实际意义与挑战性的问题。当前的方法主要依赖于人工设计的特征提取规则或领域特定的数据增强技术。受深度语音处理模型进展的启发,且考虑到语音数据本质上是单变量时间序列信号,本文提出了一种新颖的端到端方法——Voice2Series(V2S),该方法通过输入变换学习与输出标签映射,将声学模型重新编程用于时间序列分类。借助大规模预训练语音处理模型强大的表示学习能力,我们在30个不同的时间序列任务上验证了V2S在19个任务中取得了具有竞争力的分类性能。此外,我们从理论上证明了V2S的总体风险被源域风险与一个衡量特征对齐效果的Wasserstein距离所上界控制,从而为该方法提供了理论支持。本研究为时间序列分类提供了全新的、有效的解决方案。
代码仓库
dodohow1011/speechadvreprogram
tf
GitHub 中提及
srijith-rkr/kaust-whisper-adapter
pytorch
GitHub 中提及
huckiyang/Voice2Series-Reprogramming
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| ecg-classification-on-ucr-time-series | V2Sa | Accuracy (Test): 93.96 |
| time-series-classification-on-earthquakes | V2Sa | Accuracy (Test): 78.42 |
| time-series-classification-on-forda | V2Sa | Acc. (test): 100 |