4 个月前

PiPa:像素级和块级自监督学习在领域适应性语义分割中的应用

PiPa:像素级和块级自监督学习在领域适应性语义分割中的应用

摘要

无监督域适应(UDA)旨在增强学习模型在其他领域的泛化能力。该方法将从标记源域(例如视频游戏)训练的模型中的领域不变知识迁移到未标记的目标域(例如现实场景),从而节省标注成本。现有的用于语义分割的UDA方法通常专注于最小化不同层次的领域间差异,例如像素、特征和预测,以提取领域不变知识。然而,主要的领域内知识,如图像内的上下文关联,仍然未得到充分探索。为了填补这一空白,我们提出了一种统一的像素级和补丁级自监督学习框架,称为PiPa,用于域适应语义分割,该框架有助于在不同上下文中提取图像内像素级相关性和补丁级语义一致性。所提出的框架利用了领域内图像的固有结构:(1) 明确鼓励学习具有类内紧凑性和类间可分性的判别性像素级特征;(2) 激励对不同上下文或波动具有鲁棒性的相同补丁的特征学习。广泛的实验验证了所提方法的有效性,在两个广泛使用的UDA基准测试中取得了具有竞争力的精度,即从GTA到Cityscapes为75.6 mIoU,从Synthia到Cityscapes为68.2 mIoU。此外,我们的方法与其他UDA方法兼容,可以在不引入额外参数的情况下进一步提升性能。

代码仓库

chen742/PiPa
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
domain-adaptation-on-gta5-to-cityscapesHRDA+PiPa
mIoU: 75.6
domain-adaptation-on-synthia-to-cityscapesHRDA+PiPa
mIoU: 68.2
image-to-image-translation-on-gtav-toDAFormer + PiPa
mIoU: 71.7
image-to-image-translation-on-gtav-toHRDA + PiPa
mIoU: 75.6
image-to-image-translation-on-synthia-toHRDA + PiPa
mIoU (13 classes): 74.8
semantic-segmentation-on-gtav-to-cityscapes-1HRDA + PiPa
mIoU: 75.6
semantic-segmentation-on-synthia-toHRDA + PiPa
Mean IoU: 68.2
synthetic-to-real-translation-on-gtav-toHRDA+PiPa
mIoU: 75.6
synthetic-to-real-translation-on-gtav-toDAFormer+PiPa
mIoU: 71.7
synthetic-to-real-translation-on-synthia-to-1HRDA+PiPa
MIoU (13 classes): 74.8
MIoU (16 classes): 68.2
unsupervised-domain-adaptation-on-gtav-toHRDA + PiPa
mIoU: 75.6
unsupervised-domain-adaptation-on-gtav-toDAFormer + PiPa
mIoU: 71.7
unsupervised-domain-adaptation-on-synthia-toHRDA + PiPa
mIoU (13 classes): 74.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
PiPa:像素级和块级自监督学习在领域适应性语义分割中的应用 | 论文 | HyperAI超神经