3 个月前

SAT:面向3D点云语义分割的尺寸感知Transformer

SAT:面向3D点云语义分割的尺寸感知Transformer

摘要

Transformer模型在点云分割任务中已取得令人瞩目的性能表现。然而,现有的大多数注意力机制对所有点采用相同的特征学习范式,未能充分考虑场景中物体尺寸的巨大差异。为此,本文提出了一种尺寸感知Transformer(Size-Aware Transformer, SAT),能够为不同尺寸的物体自适应地构建有效的感受野。SAT通过两个关键步骤实现尺寸感知学习:在每一注意力层中引入多尺度特征,并使每个点能够自适应地选择其关注区域。SAT包含两项核心设计:多粒度注意力(Multi-Granularity Attention, MGA)机制与重注意力(Re-Attention)模块。MGA机制旨在解决两个关键挑战:高效聚合远距离区域的特征信息,以及在单个注意力层内保持多尺度特征表达。具体而言,本文提出点-体素交叉注意力以应对远距离特征聚合问题;同时,采用基于标准多头自注意力的分流策略(shunted strategy)来有效保留多尺度特征。随后,重注意力模块动态调整MGA输出的细粒度与粗粒度特征对应的注意力分数,进一步提升特征表达能力。大量实验结果表明,SAT在S3DIS和ScanNetV2两个主流数据集上均达到了当前最优(state-of-the-art)的分割性能。此外,SAT在各类别间的性能表现最为均衡,充分体现了其在建模不同尺寸类别物体方面的优越性。本文所提出的代码与模型将在论文正式录用后公开发布。

基准测试

基准方法指标
semantic-segmentation-on-s3dis-area5SAT (FAT)
Number of params: N/A
mAcc: 78.8
mIoU: 72.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
SAT:面向3D点云语义分割的尺寸感知Transformer | 论文 | HyperAI超神经