4 个月前

理解依赖关系:使用依赖度量的高效黑盒解释

理解依赖关系:使用依赖度量的高效黑盒解释

摘要

本文提出了一种基于希尔伯特-施密特独立性准则(Hilbert-Schmidt Independence Criterion, HSIC)的新高效黑盒归因方法。HSIC 是一种基于再生核希尔伯特空间(Reproducing Kernel Hilbert Spaces, RKHS)的依赖性度量方法,通过分布的核嵌入来衡量输入图像区域与模型输出之间的依赖关系。因此,它提供了由 RKHS 表示能力增强的解释。HSIC 可以非常高效地进行估计,显著降低了与其他黑盒归因方法相比的计算成本。我们的实验表明,HSIC 比之前最佳的黑盒归因方法快达 8 倍,同时保持了相同的忠实度。事实上,我们在多个保真度指标上改进或匹配了现有的黑盒和白盒归因方法的最佳水平,这些实验是在 ImageNet 数据集上使用各种最新的模型架构进行的。重要的是,我们展示了这些进展可以有效地应用于解释如 YOLOv4 等目标检测模型。最后,我们通过提出一个新的内核扩展了传统的归因方法,该内核允许对重要性分数进行类似于方差分析(ANOVA)的正交分解,不仅能够评估每个图像块的重要性,还能评估它们之间的两两交互作用的重要性。我们的实现代码已发布在 https://github.com/paulnovello/HSIC-Attribution-Method。

基准测试

基准方法指标
error-understanding-on-cub-200-2011-1HSIC-Attribution
Average highest confidence (EfficientNetV2-M): 0.2679
Average highest confidence (MobileNetV2): 0.2914
Average highest confidence (ResNet-101): 0.2493
Insertion AUC score (EfficientNetV2-M): 0.1611
Insertion AUC score (MobileNetV2): 0.1635
Insertion AUC score (ResNet-101): 0.1446
error-understanding-on-cub-200-2011-resnetHSIC-Attribution
Average highest confidence: 0.2493
Insertion AUC score: 0.1446
image-attribution-on-celebaHSIC-Attribution
Deletion AUC score (ArcFace ResNet-101): 0.1151
Insertion AUC score (ArcFace ResNet-101): 0.5692
image-attribution-on-cub-200-2011-1HSIC-Attribution
Deletion AUC score (ResNet-101): 0.0647
Insertion AUC score (ResNet-101): 0.6843
image-attribution-on-vggface2HSIC-Attribution
Deletion AUC score (ArcFace ResNet-101): 0.1317
Insertion AUC score (ArcFace ResNet-101): 0.6694
interpretability-techniques-for-deep-learning-1HSIC-Attribution
Insertion AUC score: 0.5692

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
理解依赖关系:使用依赖度量的高效黑盒解释 | 论文 | HyperAI超神经