
摘要
近期在领域适应方面的进展表明,深度自训练提供了一种强大的无监督领域适应方法。这些方法通常涉及一个迭代过程,即在目标域上进行预测,然后将置信度较高的预测作为伪标签用于重新训练。然而,由于伪标签可能存在噪声,自训练可能会对错误类别产生过度自信的标签信念,从而导致带有传播误差的偏差解决方案。为了解决这一问题,我们提出了一种置信度正则化自训练(Confidence Regularized Self-Training, CRST)框架,该框架被表述为正则化自训练。我们的方法将伪标签视为连续潜在变量,并通过交替优化的方式进行联合优化。我们提出了两种类型的置信度正则化:标签正则化(Label Regularization, LR)和模型正则化(Model Regularization, MR)。CRST-LR生成软伪标签,而CRST-MR鼓励网络输出的平滑性。大量图像分类和语义分割实验表明,CRST方法优于其非正则化的同类方法,并取得了最先进的性能。本工作的代码和模型可在https://github.com/yzou2/CRST 获取。
代码仓库
yzou2/CBST
mxnet
GitHub 中提及
yzou2/CRST
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| domain-adaptation-on-office-31 | MRKLD + LRENT | Average Accuracy: 86.8 |
| domain-adaptation-on-visda2017 | CRST | Accuracy: 78.1 |
| domain-adaptation-on-visda2017 | MRKLD + LRENT | Accuracy: 78.1 |
| image-to-image-translation-on-synthia-to | LRENT (DeepLabv2) | mIoU (13 classes): 48.7 |
| semantic-segmentation-on-densepass | CRST | mIoU: 31.67% |
| synthetic-to-real-translation-on-gtav-to | CRST(MRKLD-SP-MST) | mIoU: 49.8 |