Maximilian KohlbrennerAlexander BauerShinichi NakajimaAlexander BinderWojciech SamekSebastian Lapuschkin

摘要
在过去的十年中,基于神经网络的预测模型展现出令人瞩目的性能,有时甚至超越人类水平。然而,这种卓越表现往往以预测过程缺乏透明性为代价,从而催生了可解释人工智能(Explainable Artificial Intelligence, XAI)这一新兴研究领域。本文聚焦于XAI中一种广泛应用且颇具代表性的方法——逐层重要性传播(Layer-wise Relevance Propagation, LRP)。自该方法提出以来,其应用实践已逐步演化,当前普遍采纳的最佳实践虽在文献中广泛使用,但其形成主要依赖于人工观察所得的经验性证据,缺乏系统性量化支持。本文首次对这一现有最佳实践在前馈神经网络中的视觉目标检测任务下的影响进行了系统性研究与量化分析。研究结果表明,近年来文献中所采用的分层依赖型LRP方法,不仅更准确地反映了模型的推理过程,同时显著提升了LRP在目标定位精度与类别可区分性方面的表现。
代码仓库
sebastian-lapuschkin/lrp_toolbox
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| object-detection-on-pascal-voc-2012 | LRPCMP:a1+ | MAP: 34.66 |
| object-detection-on-pascal-voc-2012 | LRPCMP:a2+ | MAP: 42.1 |
| object-detection-on-sixray | LRPz | 1 in 10 R@5: 0.01347 |