3 个月前

UniDAformer:通过分层掩码校准实现统一域自适应全景分割的Transformer

UniDAformer:通过分层掩码校准实现统一域自适应全景分割的Transformer

摘要

域自适应全景分割旨在通过利用一个或多个相关源域中现成的标注数据,缓解数据标注带来的挑战。然而,现有方法通常采用两个独立的网络分别执行实例分割与语义分割,导致网络参数过多,并使得训练与推理过程复杂且计算开销大。为此,我们提出UniDAformer,一种统一的域自适应全景分割Transformer架构,其结构简洁,却能在单一网络中同时实现域自适应的实例分割与语义分割。UniDAformer引入了分层掩码校准(Hierarchical Mask Calibration, HMC)机制,通过在线自训练的方式,在区域、超像素和像素三个层级上对不准确的预测结果进行修正。该方法具备三大优势:1)实现统一的域自适应全景分割适应;2)有效减少误预测,显著提升域自适应全景分割性能;3)支持端到端训练,具有更为简洁高效的训练与推理流程。在多个公开基准数据集上的大量实验表明,UniDAformer在域自适应全景分割任务上显著优于当前最先进的方法。

基准测试

基准方法指标
domain-adaptation-on-panoptic-synthia-toUniDAformer
mPQ: 33.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
UniDAformer:通过分层掩码校准实现统一域自适应全景分割的Transformer | 论文 | HyperAI超神经