4 个月前

置信正则化自训练

置信正则化自训练

摘要

近期在领域适应方面的进展表明,深度自训练提供了一种强大的无监督领域适应方法。这些方法通常涉及一个迭代过程,即在目标域上进行预测,然后将置信度较高的预测作为伪标签用于重新训练。然而,由于伪标签可能存在噪声,自训练可能会对错误类别产生过度自信的标签信念,从而导致带有传播误差的偏差解决方案。为了解决这一问题,我们提出了一种置信度正则化自训练(Confidence Regularized Self-Training, CRST)框架,该框架被表述为正则化自训练。我们的方法将伪标签视为连续潜在变量,并通过交替优化的方式进行联合优化。我们提出了两种类型的置信度正则化:标签正则化(Label Regularization, LR)和模型正则化(Model Regularization, MR)。CRST-LR生成软伪标签,而CRST-MR鼓励网络输出的平滑性。大量图像分类和语义分割实验表明,CRST方法优于其非正则化的同类方法,并取得了最先进的性能。本工作的代码和模型可在https://github.com/yzou2/CRST 获取。

代码仓库

yzou2/CBST
mxnet
GitHub 中提及
yzou2/CRST
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
domain-adaptation-on-office-31MRKLD + LRENT
Average Accuracy: 86.8
domain-adaptation-on-visda2017CRST
Accuracy: 78.1
domain-adaptation-on-visda2017MRKLD + LRENT
Accuracy: 78.1
image-to-image-translation-on-synthia-toLRENT (DeepLabv2)
mIoU (13 classes): 48.7
semantic-segmentation-on-densepassCRST
mIoU: 31.67%
synthetic-to-real-translation-on-gtav-toCRST(MRKLD-SP-MST)
mIoU: 49.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
置信正则化自训练 | 论文 | HyperAI超神经