4 个月前

分歧如何帮助模型在标签污染下泛化?

分歧如何帮助模型在标签污染下泛化?

摘要

带噪声标签的学习是弱监督学习中最热门的问题之一。基于深度神经网络的记忆效应,对小损失实例进行训练成为处理噪声标签的一种非常有前景的方法。这促进了最先进的方法“协同教学”(Co-teaching)的发展,该方法通过小损失技巧交叉训练两个深度神经网络。然而,随着训练轮数的增加,两个网络逐渐达成共识,协同教学退化为自训练的MentorNet。为了解决这一问题,我们提出了一种称为“协同教学+”(Co-teaching+)的鲁棒学习范式,该范式将“通过分歧更新”(Update by Disagreement)策略与原始的协同教学相结合。首先,两个网络前向传播并预测所有数据,但仅保留预测结果存在分歧的数据。然后,在这些分歧数据中,每个网络选择其小损失数据,但反向传播来自其同伴网络的小损失数据以更新自身的参数。在基准数据集上的实证结果表明,“协同教学+”在训练模型的鲁棒性方面显著优于许多现有最先进方法。

代码仓库

ziegler-ingo/cleavage_prediction
pytorch
GitHub 中提及
xingruiyu/coteaching_plus
pytorch
GitHub 中提及
bhanML/coteaching_plus
pytorch
GitHub 中提及

基准测试

基准方法指标
learning-with-noisy-labels-on-cifar-100nCo-Teaching+
Accuracy (mean): 57.88
learning-with-noisy-labels-on-cifar-10nCo-Teaching+
Accuracy (mean): 90.61
learning-with-noisy-labels-on-cifar-10n-1Co-Teaching+
Accuracy (mean): 89.70
learning-with-noisy-labels-on-cifar-10n-2Co-Teaching+
Accuracy (mean): 89.47
learning-with-noisy-labels-on-cifar-10n-3Co-Teaching+
Accuracy (mean): 89.54
learning-with-noisy-labels-on-cifar-10n-worstCo-Teaching+
Accuracy (mean): 83.26

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
分歧如何帮助模型在标签污染下泛化? | 论文 | HyperAI超神经