
摘要
我们提出了一种卷积块注意力模块(Convolutional Block Attention Module, CBAM),这是一种简单而有效的注意力机制,适用于前馈卷积神经网络。给定一个中间特征图,我们的模块依次在两个独立的维度上推断注意力图,即通道和空间维度,然后将这些注意力图乘以输入特征图,以实现自适应特征精炼。由于CBAM是一个轻量级且通用的模块,它可以无缝集成到任何CNN架构中,并且几乎不会增加额外开销,同时可以与基础CNN模型一起进行端到端训练。我们通过在ImageNet-1K、MS COCO检测和VOC 2007检测数据集上的大量实验验证了CBAM的有效性。实验结果表明,在不同的模型中,CBAM在分类和检测性能上均表现出一致的提升,证明了其广泛的适用性。代码和模型将公开发布。
代码仓库
kobiso/CBAM-keras
tf
GitHub 中提及
Nithesh5/torch-adni-bootstrap-with-attentional
pytorch
GitHub 中提及
laugh12321/3D-Attention-Keras
tf
GitHub 中提及
e96031413/AA-YOLO
pytorch
GitHub 中提及
gan3sh500/custom-pooling
pytorch
GitHub 中提及
e96031413/PyTorch_YOLOv4-tiny
pytorch
GitHub 中提及
TooTouch/WhiteBox-Part1
pytorch
GitHub 中提及
Nithesh5/torch-adni-bagging-with-attentional
pytorch
GitHub 中提及
kobiso/CBAM-tensorflow-slim
tf
GitHub 中提及
Jongchan/attention-module
pytorch
Knight825/models-pytorch
pytorch
GitHub 中提及
LKLQQ/CBAM
mindspore
GitHub 中提及
osmr/imgclsmob
mxnet
GitHub 中提及
YONGQUAN-QU/CBAM.Flax
jax
GitHub 中提及
kobiso/CBAM-tensorflow
tf
GitHub 中提及
HaloTrouvaille/YOLO-Multi-Backbones-Attention
pytorch
GitHub 中提及
vinthony/s2am
pytorch
GitHub 中提及
JinLi711/Convolution_Variants
tf
GitHub 中提及
jihoojo03/UNet-CBAM_Keras
GitHub 中提及
Uranium-Deng/Steganalysis-StegoRemoval
pytorch
GitHub 中提及
JinLi711/Attention-Augmented-Convolution
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| object-detection-on-dsec | CBAM | mAP: 26.1 |
| object-detection-on-pku-ddd17-car | CBAM | mAP50: 81.9 |