17 天前

“我为什么应该信任你?”:解释任意分类器的预测

“我为什么应该信任你?”:解释任意分类器的预测

摘要

尽管机器学习模型已被广泛采用,它们在很大程度上仍是“黑箱”。然而,理解预测背后的依据对于评估信任度至关重要——这在基于预测采取行动,或决定是否部署新模型时尤为关键。这种理解还能为模型本身提供洞察,从而帮助将不可信的模型或预测转化为可信的模型。在本研究中,我们提出LIME,一种新颖的解释技术,能够以可解释且忠实的方式,对任意分类器的预测进行解释,其核心思想是通过学习预测点附近的局部可解释模型来实现。我们还提出一种通过非冗余方式呈现代表性个体预测及其解释的方法,并将该任务建模为子模优化问题。我们通过解释不同类型的模型(如用于文本分类的随机森林和用于图像分类的神经网络)展示了该方法的灵活性。此外,我们通过一系列新颖的实验(包括模拟实验和人类被试实验),在多种需要信任的场景中验证了解释的实用性,涵盖判断是否应信任某一预测、在不同模型间进行选择、改进不可信分类器,以及识别为何不应信任某个分类器等问题。

基准测试

基准方法指标
image-attribution-on-celebaLIME
Deletion AUC score (ArcFace ResNet-101): 0.1484
Insertion AUC score (ArcFace ResNet-101): 0.5246
image-attribution-on-cub-200-2011-1LIME
Deletion AUC score (ResNet-101): 0.1070
Insertion AUC score (ResNet-101): 0.6812
image-attribution-on-vggface2LIME
Deletion AUC score (ArcFace ResNet-101): 0.2119
Insertion AUC score (ArcFace ResNet-101): 0.6185
interpretability-techniques-for-deep-learning-1LIME
Insertion AUC score: 0.5246

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
“我为什么应该信任你?”:解释任意分类器的预测 | 论文 | HyperAI超神经