
摘要
在二维图像处理中,已有研究尝试将图像分解为高频与低频分量,分别用于描述边缘和光滑区域。类似地,三维物体的轮廓与平坦区域(如椅子的边界与坐垫区域)也分别表征了不同但互补的几何特征。然而,在以往基于深度网络的点云理解方法中,这一几何层次的区分往往被忽略,因为这些方法通常对所有点或局部区域采用同等处理方式。为解决该问题,本文提出几何解耦注意力网络(Geometry-Disentangled Attention Network, GDANet)。GDANet引入几何解耦模块(Geometry-Disentangle Module),能够动态地将点云分解为三维物体的轮廓部分与平坦部分,分别以“尖锐变化”与“平缓变化”分量表示。随后,GDANet设计了尖锐-平缓互补注意力模块(Sharp-Gentle Complementary Attention Module),将来自尖锐与平缓变化分量的特征视为两种整体性表征,并在融合过程中分别对二者施加差异化的注意力机制,以与原始点云特征进行有效整合。通过这种方式,本方法能够从两个解耦的几何分量中捕获并精炼出具有互补性的三维几何语义,从而有效补充局部信息的不足。在多个三维物体分类与分割基准测试上的大量实验表明,GDANet在参数量更少的前提下,取得了当前最优的性能表现。代码已开源,地址为:https://github.com/mutianxu/GDANet。
代码仓库
yossilevii100/critical_points2
pytorch
GitHub 中提及
mutianxu/GDANet
官方
pytorch
GitHub 中提及
yossilevii100/refocusing
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-part-segmentation-on-shapenet-part | GDANet | Class Average IoU: 85.0 Instance Average IoU: 86.5 |
| 3d-point-cloud-classification-on-modelnet40 | GDANet | Overall Accuracy: 93.8 |
| point-cloud-classification-on-pointcloud-c | GDANet | mean Corruption Error (mCE): 0.892 |
| point-cloud-segmentation-on-pointcloud-c | GDANet | mean Corruption Error (mCE): 0.923 |