
摘要
带噪声标签的学习是弱监督学习中最热门的问题之一。基于深度神经网络的记忆效应,对小损失实例进行训练成为处理噪声标签的一种非常有前景的方法。这促进了最先进的方法“协同教学”(Co-teaching)的发展,该方法通过小损失技巧交叉训练两个深度神经网络。然而,随着训练轮数的增加,两个网络逐渐达成共识,协同教学退化为自训练的MentorNet。为了解决这一问题,我们提出了一种称为“协同教学+”(Co-teaching+)的鲁棒学习范式,该范式将“通过分歧更新”(Update by Disagreement)策略与原始的协同教学相结合。首先,两个网络前向传播并预测所有数据,但仅保留预测结果存在分歧的数据。然后,在这些分歧数据中,每个网络选择其小损失数据,但反向传播来自其同伴网络的小损失数据以更新自身的参数。在基准数据集上的实证结果表明,“协同教学+”在训练模型的鲁棒性方面显著优于许多现有最先进方法。
代码仓库
ziegler-ingo/cleavage_prediction
pytorch
GitHub 中提及
xingruiyu/coteaching_plus
pytorch
GitHub 中提及
bhanML/coteaching_plus
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| learning-with-noisy-labels-on-cifar-100n | Co-Teaching+ | Accuracy (mean): 57.88 |
| learning-with-noisy-labels-on-cifar-10n | Co-Teaching+ | Accuracy (mean): 90.61 |
| learning-with-noisy-labels-on-cifar-10n-1 | Co-Teaching+ | Accuracy (mean): 89.70 |
| learning-with-noisy-labels-on-cifar-10n-2 | Co-Teaching+ | Accuracy (mean): 89.47 |
| learning-with-noisy-labels-on-cifar-10n-3 | Co-Teaching+ | Accuracy (mean): 89.54 |
| learning-with-noisy-labels-on-cifar-10n-worst | Co-Teaching+ | Accuracy (mean): 83.26 |