
摘要
本文提出了一种基于希尔伯特-施密特独立性准则(Hilbert-Schmidt Independence Criterion, HSIC)的新高效黑盒归因方法。HSIC 是一种基于再生核希尔伯特空间(Reproducing Kernel Hilbert Spaces, RKHS)的依赖性度量方法,通过分布的核嵌入来衡量输入图像区域与模型输出之间的依赖关系。因此,它提供了由 RKHS 表示能力增强的解释。HSIC 可以非常高效地进行估计,显著降低了与其他黑盒归因方法相比的计算成本。我们的实验表明,HSIC 比之前最佳的黑盒归因方法快达 8 倍,同时保持了相同的忠实度。事实上,我们在多个保真度指标上改进或匹配了现有的黑盒和白盒归因方法的最佳水平,这些实验是在 ImageNet 数据集上使用各种最新的模型架构进行的。重要的是,我们展示了这些进展可以有效地应用于解释如 YOLOv4 等目标检测模型。最后,我们通过提出一个新的内核扩展了传统的归因方法,该内核允许对重要性分数进行类似于方差分析(ANOVA)的正交分解,不仅能够评估每个图像块的重要性,还能评估它们之间的两两交互作用的重要性。我们的实现代码已发布在 https://github.com/paulnovello/HSIC-Attribution-Method。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| error-understanding-on-cub-200-2011-1 | HSIC-Attribution | Average highest confidence (EfficientNetV2-M): 0.2679 Average highest confidence (MobileNetV2): 0.2914 Average highest confidence (ResNet-101): 0.2493 Insertion AUC score (EfficientNetV2-M): 0.1611 Insertion AUC score (MobileNetV2): 0.1635 Insertion AUC score (ResNet-101): 0.1446 |
| error-understanding-on-cub-200-2011-resnet | HSIC-Attribution | Average highest confidence: 0.2493 Insertion AUC score: 0.1446 |
| image-attribution-on-celeba | HSIC-Attribution | Deletion AUC score (ArcFace ResNet-101): 0.1151 Insertion AUC score (ArcFace ResNet-101): 0.5692 |
| image-attribution-on-cub-200-2011-1 | HSIC-Attribution | Deletion AUC score (ResNet-101): 0.0647 Insertion AUC score (ResNet-101): 0.6843 |
| image-attribution-on-vggface2 | HSIC-Attribution | Deletion AUC score (ArcFace ResNet-101): 0.1317 Insertion AUC score (ArcFace ResNet-101): 0.6694 |
| interpretability-techniques-for-deep-learning-1 | HSIC-Attribution | Insertion AUC score: 0.5692 |