3 个月前

PatchFormer:一种基于局部注意力机制的高效点云Transformer

PatchFormer:一种基于局部注意力机制的高效点云Transformer

摘要

点云学习领域正经历从卷积神经网络(CNNs)向Transformer架构的建模范式转变,纯Transformer架构已在主流学习基准上取得了顶尖的准确率。然而,现有的点云Transformer模型计算成本较高,因其需生成大规模的注意力图,该过程在空间和时间复杂度上均呈输入尺寸的二次增长。为解决这一瓶颈,本文提出Patch ATtention(PAT)机制,通过自适应学习一组极小的基函数来构建注意力图。基于这些基函数的加权组合,PAT不仅能够捕捉全局形状上下文信息,还实现了与输入规模呈线性关系的复杂度。此外,本文进一步提出一种轻量级的多尺度注意力(Multi-Scale aTtention, MST)模块,用于在不同尺度的特征间建立注意力关系,从而赋予模型多尺度特征表达能力。结合PAT与MST模块,我们构建了名为PatchFormer的新型神经网络架构,将二者统一整合于一个联合框架中,用于点云学习任务。大量实验表明,所提出的网络在通用点云学习任务上达到了与以往点云Transformer相当的准确率,同时推理速度提升达9.2倍。

基准测试

基准方法指标
semantic-segmentation-on-s3dis-area5PatchFormer
Number of params: N/A
mIoU: 67.3
semantic-segmentation-on-shapenetPatchFormer
Mean IoU: 86.5%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
PatchFormer:一种基于局部注意力机制的高效点云Transformer | 论文 | HyperAI超神经