
摘要
在本研究中,我们重新审视了文献[13]中提出的全局平均池化层,并阐明了它如何在仅使用图像级标签训练的情况下,显式地赋予卷积神经网络显著的定位能力。尽管该技术最初被提出作为正则化训练的一种手段,但我们发现它实际上构建了一种通用的可定位深度表示,可以应用于多种任务。尽管全局平均池化看似简单,我们在ILSVRC 2014数据集上实现了37.1%的前五定位错误率,这一结果非常接近全监督CNN方法所达到的34.2%前五错误率。我们展示了我们的网络能够在多种任务中准确定位判别性的图像区域,即使这些任务并未在训练过程中涉及。
代码仓库
Azure/AzureChestXRay
pytorch
GitHub 中提及
innat/ML-Resource
tf
GitHub 中提及
vlue-c/PyTorch-Explanations
pytorch
GitHub 中提及
fatLime/Predict-Lung-Disease
tf
GitHub 中提及
windstormer/Cfd-CAM
pytorch
GitHub 中提及
frgfm/torch-cam
pytorch
GitHub 中提及
TooTouch/WhiteBox-Part1
pytorch
GitHub 中提及
zhoubolei/CAM
官方
tf
GitHub 中提及
Seb-Good/deepecg
tf
GitHub 中提及
HRanWang/Spatial-Re-Scaling
pytorch
GitHub 中提及
djib2011/high-res-mapping
tf
GitHub 中提及
HRanWang/SA
pytorch
GitHub 中提及
Seb-Good/deep_ecg
tf
GitHub 中提及
joaopauloschuler/k-neural-api
tf
GitHub 中提及
chandrakantkhandelwal/PracticeCodes
tf
GitHub 中提及
froggydisk/CAM
GitHub 中提及
teang1995/CAM-Class-Activation-Map-
GitHub 中提及
KangBK0120/CAM
pytorch
GitHub 中提及
GoAhead106283/MURA_deep_learning
pytorch
GitHub 中提及
metalbubble/CAM
tf
GitHub 中提及
philipperemy/tensorflow-class-activation-mapping
tf
GitHub 中提及
airalcorn2/strike-with-a-pose
pytorch
GitHub 中提及
innat/ML-Bookmarks
tf
GitHub 中提及
vlue-c/Visual-Explanation-Methods-PyTorch
pytorch
GitHub 中提及
MarcBS/keras
GitHub 中提及
schizop/SA
pytorch
GitHub 中提及
HRanWang/Spatial-Attention
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| weakly-supervised-object-localization-on | AlexNet-GAP | Top-1 Error Rate: 67.19 |
| weakly-supervised-object-localization-on-1 | AlexNet-GAP | Top-5 Error: 52.16 |
| weakly-supervised-object-localization-on-1 | VGGnet-GAP | Top-5 Error: 45.14 |
| weakly-supervised-object-localization-on-tiny | CAM | Top-1 Localization Accuracy: 40.55 |