3 个月前

MetaSAug:面向长尾视觉识别的元语义增强

MetaSAug:面向长尾视觉识别的元语义增强

摘要

现实世界中的训练数据通常呈现长尾分布,即少数几个多数类别的样本数量远超其余少数类别。这种样本分布的不均衡会显著降低传统监督学习算法的性能,而这些算法通常针对平衡数据集进行设计。本文通过引入一种近期提出的隐式语义数据增强(Implicit Semantic Data Augmentation, ISDA)算法,对少数类别进行数据增强,以缓解该问题。ISDA 通过沿多个语义上具有意义的方向对深层特征进行变换,生成多样化的增强样本。然而,值得注意的是,由于 ISDA 需要估计类别条件统计量以获取语义方向,而在少数类别上因训练样本不足,该估计效果不佳。为此,本文提出一种基于元学习的新型方法,自动学习经过变换的语义方向。具体而言,在训练过程中,增强策略被动态优化,目标是最小化在小型平衡验证集上的损失,该验证集通过元更新步骤进行近似。在 CIFAR-LT-10/100、ImageNet-LT 以及 iNaturalist 2017/2018 等多个数据集上的大量实验证明了所提方法的有效性。

代码仓库

BIT-DA/MetaSAug
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
image-classification-on-inaturalistMetaSAug
Top 1 Accuracy: 63.28%
image-classification-on-inaturalist-2018MetaSAug
Top-1 Accuracy: 68.75%
long-tail-learning-on-cifar-10-lt-r-10MetaSAug-LDAM
Error Rate: 10.32
long-tail-learning-on-cifar-10-lt-r-100MetaSAug-LDAM
Error Rate: 19.34
long-tail-learning-on-cifar-10-lt-r-200MetaSAug-LDAM
Error Rate: 22.65
long-tail-learning-on-cifar-10-lt-r-50MetaSAug-LDAM
Error Rate: 15.66
long-tail-learning-on-cifar-100-lt-r-10MetaSAug-LDAM
Error Rate: 38.72
long-tail-learning-on-cifar-100-lt-r-100MetaSAug-LDAM
Error Rate: 51.99
long-tail-learning-on-cifar-100-lt-r-200MetaSAug-LDAM
Error Rate: 56.91
long-tail-learning-on-cifar-100-lt-r-50MetaSAug-LDAM
Error Rate: 47.73
long-tail-learning-on-imagenet-ltMetaSAug with CE loss
Top-1 Accuracy: 47.39
long-tail-learning-on-imagenet-ltMetaSAug (ResNet-152)
Top-1 Accuracy: 50.03
long-tail-learning-on-inaturalist-2018MetaSAug
Top-1 Accuracy: 68.75%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
MetaSAug:面向长尾视觉识别的元语义增强 | 论文 | HyperAI超神经