4 个月前

Point-BERT:通过掩码点建模预训练3D点云Transformer

Point-BERT:通过掩码点建模预训练3D点云Transformer

摘要

我们介绍了Point-BERT,这是一种新的范式,旨在将BERT的概念推广到三维点云。受BERT的启发,我们设计了一种掩码点建模(Masked Point Modeling, MPM)任务来预训练点云Transformer模型。具体而言,我们首先将点云划分为若干个局部点块,然后设计了一个基于离散变分自编码器(Discrete Variational AutoEncoder, dVAE)的点云Tokenizer来生成包含有意义局部信息的离散点标记。接下来,我们随机遮蔽输入点云的一些局部块,并将其送入骨干Transformer模型中。预训练的目标是在Tokenizer生成的点标记监督下恢复被遮蔽位置的原始点标记。大量实验表明,所提出的类似BERT的预训练策略显著提升了标准点云Transformer模型的性能。通过采用我们的预训练策略,纯Transformer架构在ModelNet40数据集上达到了93.8%的准确率,在ScanObjectNN数据集最困难的设置下达到了83.1%的准确率,超过了经过精心设计且具有更多手工特征的点云模型。此外,我们还展示了Point-BERT学习到的表示能够很好地迁移到新任务和新领域,在少样本点云分类任务中大幅推进了现有技术水平。代码和预训练模型可在https://github.com/lulutang0608/Point-BERT 获取。

代码仓库

lmd0311/pointmamba
pytorch
GitHub 中提及
lulutang0608/Point-BERT
官方
pytorch
GitHub 中提及
julie-tang00/point-bert
pytorch
GitHub 中提及

基准测试

基准方法指标
3d-point-cloud-classification-on-modelnet40Point-BERT
Overall Accuracy: 93.8
3d-point-cloud-classification-on-scanobjectnnPoint-BERT
OBJ-BG (OA): 87.43
OBJ-ONLY (OA): 88.12
Overall Accuracy: 83.1
few-shot-3d-point-cloud-classification-on-1Point-BERT
Overall Accuracy: 94.6
Standard Deviation: 3.1
few-shot-3d-point-cloud-classification-on-2Point-BERT
Overall Accuracy: 96.3
Standard Deviation: 2.7
few-shot-3d-point-cloud-classification-on-3Point-BERT
Overall Accuracy: 91.0
Standard Deviation: 5.4
few-shot-3d-point-cloud-classification-on-4Point-BERT
Overall Accuracy: 92.7
Standard Deviation: 5.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
Point-BERT:通过掩码点建模预训练3D点云Transformer | 论文 | HyperAI超神经