Hu HuChao-Han Huck YangXianjun XiaXue BaiXin TangYajian WangShutong NiuLi ChaiJuanjuan LiHongning ZhuFeng BaoYuanjun ZhaoSabato Marco SiniscalchiYannan WangJun DuChin-Hui Lee

摘要
为提升数据驱动型声学场景分类(Acoustic Scene Classification, ASC)系统在实际应用中的鲁棒性——这一竞争性系统中极为关键的特性,本文提出了一种基于全卷积神经网络(Fully Convolutional Neural Networks, CNNs)的新型两阶段分类框架。该两阶段系统采用一种自定义的分数融合策略,结合两个CNN分类器:(i)第一阶段CNN将声学输入划分为三个宽泛的场景类别;(ii)第二阶段CNN则对同一输入进行更细粒度的分类,划分为十个具体类别。为实现该两阶段分类器,本文探索了三种不同的CNN架构,并研究了频率子采样方案。此外,还提出了针对ASC任务的新型数据增强方法。在DCASE 2020任务1a的评测中,实验结果表明,所提出的ASC系统在开发集上达到了当前最优的分类准确率:其中表现最佳的系统为CNN集成模型的两阶段融合架构,在多设备测试数据上实现了81.9%的平均分类准确率,并在未见设备上取得了显著性能提升。最后,通过基于类别激活映射(Class Activation Mapping, CAM)的神经显著性分析,进一步揭示了模型所学习到的关键特征模式,为理解模型决策机制提供了新的视角。
代码仓库
MihawkHu/DCASE2020_task1
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| acoustic-scene-classification-on-tau-urban | Two-stage ensemble system | 1:1 Accuracy: 81.9 |