
摘要
本文旨在实现任意语义层次的通用分割。尽管近年来取得了显著进展,但专门的分割方法仍局限于特定任务和数据分布。为了适应新场景或设置而重新训练新的模型需要高昂的计算和时间成本,这引发了对多功能且通用的分割模型的需求,该模型能够满足不同粒度的要求。虽然已经有一些尝试统一不同的分割任务或将模型泛化到各种场景中,但由于范式定义和输入输出空间的局限性,这些方法难以在任意粒度上准确理解内容。为此,我们提出了 UniLSeg,这是一种能够在语言指令指导下执行任意语义层次分割的通用模型。为了训练 UniLSeg,我们将一组来自原始多样化分布的任务重组为统一的数据格式,其中图像和描述分割目标的文字作为输入,相应的掩码作为输出。结合自动标注引擎以利用大量未标注数据,UniLSeg 在各种任务和设置中表现出色,超越了专门和统一的分割模型。
代码仓库
workforai/UniLSeg
官方
pytorch
GitHub 中提及
yongliu20/UniLSeg
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| referring-expression-segmentation-on-refcoco | UniLSeg-100 | Overall IoU: 81.74 |
| referring-expression-segmentation-on-refcoco-3 | UniLSeg-20 | Overall IoU: 72.70 |
| referring-expression-segmentation-on-refcoco-3 | UniLSeg-100 | Overall IoU: 73.18 |
| referring-expression-segmentation-on-refcoco-4 | UniLSeg-100 | Overall IoU: 78.29 |
| referring-expression-segmentation-on-refcoco-4 | UniLSeg-20 | Overall IoU: 77.02 |
| referring-expression-segmentation-on-refcoco-5 | UniLSeg-20 | Overall IoU: 66.99 |
| referring-expression-segmentation-on-refcoco-5 | UniLSeg-100 | Overall IoU: 68.15 |
| referring-expression-segmentation-on-refcocog | UniLSeg-20 | Overall IoU: 78.41 |
| referring-expression-segmentation-on-refcocog | UniLSeg-100 | Overall IoU: 79.27 |
| referring-expression-segmentation-on-refcocog-1 | UniLSeg-20 | Overall IoU: 79.47 |
| referring-expression-segmentation-on-refcocog-1 | UniLSeg-100 | Overall IoU: 80.54 |
| referring-expression-segmentation-on-refer-1 | UniLSeg-100 | F: 67.0 J: 62.8 Ju0026F: 64.9 |