3 个月前

卷积神经网络的因果解释

卷积神经网络的因果解释

摘要

本文提出了一种基于Halpern与Pearl因果理论[12]的卷积神经网络(CNN)解释方法,称为因果解释技术(CexCNN)。该方法通过反事实推理来衡量卷积核对CNN决策的重要性,进而实现对滤波器重要性的量化。此外,我们引入了因果关系的扩展概念——责任(responsibility)与责备(blame),用于加权滤波器的重要性,并将其贡献可视化地投影到输入图像上。由于CNN具有层次化结构,而因果模型亦可进行分层抽象,我们利用这一结构相似性,实现了本文的核心贡献:精准定位输入图像中对CNN决策贡献最大的关键特征区域。除了具备出色的特征定位能力外,我们还证明CexCNN在模型压缩方面同样具有应用价值,可通过剪枝低重要性滤波器实现模型精简。我们在多种CNN架构及数据集上对CexCNN进行了测试(代码已开源,地址见https://github.com/HichemDebbi/CexCNN)。

基准测试

基准方法指标
weakly-supervised-object-localization-on-2CexCNN
GT-known localization accuracy: 67.65

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
卷积神经网络的因果解释 | 论文 | HyperAI超神经