4 个月前

解释和利用对抗样本

解释和利用对抗样本

摘要

包括神经网络在内的多种机器学习模型在面对对抗样本时经常出现误分类——这些输入是通过对数据集中的示例施加微小但故意设计的最坏情况扰动而形成的,使得扰动后的输入会导致模型以高置信度输出错误答案。早期尝试解释这一现象主要集中在非线性和过拟合上。然而,我们认为神经网络对对抗性扰动易感的主要原因是其线性特性。这一解释得到了新的定量结果的支持,并首次解释了关于它们的一个最令人困惑的事实:即它们在不同架构和训练集上的泛化能力。此外,这种观点提供了一种简单且快速生成对抗样本的方法。通过使用这种方法为对抗训练提供样本,我们在MNIST数据集上降低了最大池化网络的测试集误差。

代码仓库

eth-sri/diffai
pytorch
GitHub 中提及
yaq007/cleverhans
tf
GitHub 中提及
sdemyanov/ConvNet
tf
GitHub 中提及
anirudh9784/Major_Project
tf
GitHub 中提及
amerch/CIFAR100-Training
pytorch
GitHub 中提及
cfinlay/tulip
pytorch
GitHub 中提及
winycg/HCGNet
pytorch
GitHub 中提及
Anaststam/Adversarial-Attacks
pytorch
GitHub 中提及
shijiel2/cleverhans
tf
GitHub 中提及
locuslab/convex_adversarial
pytorch
GitHub 中提及
soumyac1999/FGSM-Keras
tf
GitHub 中提及
coallaoh/whitenblackbox
pytorch
GitHub 中提及
gauthiercler/adversarial-mnist
pytorch
GitHub 中提及
eiriniOG/seedtag-codetest
tf
GitHub 中提及
Jupetus/ExplainableAI
pytorch
GitHub 中提及
drewbarot/Un-CNN
tf
GitHub 中提及
jaypmorgan/Adversarial.jl
pytorch
GitHub 中提及
openai/cleverhans
tf
GitHub 中提及
iirishikaii/cleverhans
tf
GitHub 中提及
jrguo/FastGradientSignMNIST
tf
GitHub 中提及
bingcheng45/hnr-extension
tf
GitHub 中提及
elites2k19/prism-attack
tf
GitHub 中提及
ckerce/pops_ml
pytorch
GitHub 中提及
katiashh/ioi-attack
pytorch
GitHub 中提及
1Konny/FGSM
pytorch
GitHub 中提及
cleverhans-lab/cleverhans
tf
GitHub 中提及
tensorflow/cleverhans
tf
GitHub 中提及
inhopark94/ihpark
pytorch
GitHub 中提及
mkazmier/pytorch-fgsm-simple
pytorch
GitHub 中提及
SifatMd/Research-Papers
GitHub 中提及
arobey1/advbench
pytorch
GitHub 中提及
OwenSec/DeepDetector
tf
GitHub 中提及
henry8527/GCE
pytorch
GitHub 中提及

基准测试

基准方法指标
image-classification-on-mnistExplaining and Harnessing Adversarial Examples
Percentage error: 0.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
解释和利用对抗样本 | 论文 | HyperAI超神经