
摘要
包括神经网络在内的多种机器学习模型在面对对抗样本时经常出现误分类——这些输入是通过对数据集中的示例施加微小但故意设计的最坏情况扰动而形成的,使得扰动后的输入会导致模型以高置信度输出错误答案。早期尝试解释这一现象主要集中在非线性和过拟合上。然而,我们认为神经网络对对抗性扰动易感的主要原因是其线性特性。这一解释得到了新的定量结果的支持,并首次解释了关于它们的一个最令人困惑的事实:即它们在不同架构和训练集上的泛化能力。此外,这种观点提供了一种简单且快速生成对抗样本的方法。通过使用这种方法为对抗训练提供样本,我们在MNIST数据集上降低了最大池化网络的测试集误差。
代码仓库
anirudh9784/Adversarial-Attacks-and-Defences
pytorch
GitHub 中提及
formal-verification-research/verapak
tf
GitHub 中提及
eth-sri/diffai
pytorch
GitHub 中提及
LawrenceMMStewart/Adversarial_Attack
pytorch
GitHub 中提及
yaq007/cleverhans
tf
GitHub 中提及
sdemyanov/ConvNet
tf
GitHub 中提及
anirudh9784/Major_Project
tf
GitHub 中提及
KaidongLi/pytorch-LatticePointClassifier
pytorch
GitHub 中提及
amerch/CIFAR100-Training
pytorch
GitHub 中提及
cfinlay/tulip
pytorch
GitHub 中提及
winycg/HCGNet
pytorch
GitHub 中提及
Anaststam/Adversarial-Attacks
pytorch
GitHub 中提及
shijiel2/cleverhans
tf
GitHub 中提及
Trustworthy-AI-Group/TransferAttack
pytorch
GitHub 中提及
BendeguzToth/Fun-with-ConvNets
GitHub 中提及
locuslab/convex_adversarial
pytorch
GitHub 中提及
soumyac1999/FGSM-Keras
tf
GitHub 中提及
coallaoh/whitenblackbox
pytorch
GitHub 中提及
anirudh9784/Adversarial-Defense
tf
GitHub 中提及
LamaLenny/Adversarial-Attack
GitHub 中提及
KeAWang/BayesianGAN4AdversarialAttacks
tf
GitHub 中提及
gauthiercler/adversarial-mnist
pytorch
GitHub 中提及
eiriniOG/seedtag-codetest
tf
GitHub 中提及
Mohammad-Rahmdel/FGSM-Tensorflow2-Caltech101
tf
GitHub 中提及
albertmillan/adversarial-training-pytorch
pytorch
GitHub 中提及
AngusG/cleverhans-attacking-bnns
tf
GitHub 中提及
as791/Adversarial-Example-Attack-and-Defense
pytorch
GitHub 中提及
Jupetus/ExplainableAI
pytorch
GitHub 中提及
HowToMakeABomb101/Hot2MakeAB0mbSite
tf
GitHub 中提及
drewbarot/Un-CNN
tf
GitHub 中提及
dunky11/adversarial-frontier-stitching
tf
GitHub 中提及
jaypmorgan/Adversarial.jl
pytorch
GitHub 中提及
openai/cleverhans
tf
GitHub 中提及
elijahcn/TextCNN-AdversarialTraining
pytorch
GitHub 中提及
pgasawa/AdversarialAttacksOnFacialRecognition
tf
GitHub 中提及
iirishikaii/cleverhans
tf
GitHub 中提及
facebookresearch/adversarial_image_defenses
pytorch
GitHub 中提及
formal-verification-research/NJSMA
tf
GitHub 中提及
jrguo/FastGradientSignMNIST
tf
GitHub 中提及
bingcheng45/hnr-extension
tf
GitHub 中提及
elites2k19/prism-attack
tf
GitHub 中提及
ckerce/pops_ml
pytorch
GitHub 中提及
katiashh/ioi-attack
pytorch
GitHub 中提及
1Konny/FGSM
pytorch
GitHub 中提及
cleverhans-lab/cleverhans
tf
GitHub 中提及
tensorflow/cleverhans
tf
GitHub 中提及
inhopark94/ihpark
pytorch
GitHub 中提及
tensorflow/neural-structured-learning
tf
GitHub 中提及
mkazmier/pytorch-fgsm-simple
pytorch
GitHub 中提及
SifatMd/Research-Papers
GitHub 中提及
arobey1/advbench
pytorch
GitHub 中提及
OwenSec/DeepDetector
tf
GitHub 中提及
henry8527/GCE
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-classification-on-mnist | Explaining and Harnessing Adversarial Examples | Percentage error: 0.8 |