3 个月前

逃离鞍点以实现类别不平衡数据上的有效泛化

逃离鞍点以实现类别不平衡数据上的有效泛化

摘要

现实世界的数据集普遍存在不同类型和程度的类别不平衡问题。为提升神经网络在少数类上的性能,通常采用基于损失重加权和边界调整的技术。本文通过分析采用重加权与基于边界技术训练的神经网络的损失景观(loss landscape),深入研究了类别不平衡学习问题。具体而言,我们考察了各类别损失的Hessian矩阵的谱密度,发现网络权重在少数类的损失景观中会收敛至鞍点(saddle point)。基于这一观察,我们进一步发现,旨在逃离鞍点的优化方法可有效提升少数类的泛化性能。我们从理论和实验两个层面进一步证明,近期提出的Sharpness-Aware Minimization(SAM)方法——该方法通过引导模型收敛至平坦的极小值点,能够有效帮助模型逃离少数类的鞍点。实验结果表明,相较于当前最先进的Vector Scaling Loss方法,采用SAM在少数类上的准确率提升了6.2%,在各类不平衡数据集上的整体平均准确率也提升了4%。相关代码已公开,地址为:https://github.com/val-iisc/Saddle-LongTail。

代码仓库

val-iisc/saddle-longtail
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
long-tail-learning-on-cifar-10-lt-r-10LDAM + DRW + SAM
Error Rate: 10.6
long-tail-learning-on-cifar-10-lt-r-100VS + SAM
Error Rate: 17.6
long-tail-learning-on-cifar-10-lt-r-100GLMC + SAM
Error Rate: 10.82
long-tail-learning-on-cifar-10-lt-r-200LDAM + DRW + SAM
Error Rate: 21.9
long-tail-learning-on-cifar-10-lt-r-50GLMC + SAM
Error Rate: 8.44
long-tail-learning-on-cifar-100-lt-r-100PaCo + SAM
Error Rate: 47.0
long-tail-learning-on-cifar-100-lt-r-100GLMC + SAM
Error Rate: 40.99
long-tail-learning-on-cifar-100-lt-r-100VS + SAM
Error Rate: 53.4
long-tail-learning-on-cifar-100-lt-r-200PaCo + SAM
Error Rate: 52.0
long-tail-learning-on-cifar-100-lt-r-50GLMC + SAM
Error Rate: 34.72
long-tail-learning-on-imagenet-ltLDAM + DRW + SAM
Top-1 Accuracy: 53.1
long-tail-learning-on-inaturalist-2018LDAM + DRW + SAM
Top-1 Accuracy: 70.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
逃离鞍点以实现类别不平衡数据上的有效泛化 | 论文 | HyperAI超神经