对抗图书馆 该库包含与PyTorch中实施的对抗性攻击有关的各种资源。 它针对寻求最新攻击实施方案的研究人员。 编写代码是为了最大程度地提高效率(例如,通过偏爱PyTorch的底层函数),同时保持简单性(例如,避免抽象)。 因此,大多数库(尤其是攻击)都是使用纯函数实现的(只要有可能)。 在着重于攻击的同时,该库还提供了一些与对抗性攻击有关的实用程序:距离(SSIM,CIEDE2000,LPIPS),可见回调,预测,损失和辅助功能。 最值得注意的是,来自utils/attack_utils.py的功能run_attack对具有给定输入和标签且具有固定批处理大小的模型进行了攻击,并报告了与复杂性相关的指标(运行时和向前/向后传播)。 依存关系 该库的目标是使用最新版本的PyTorch进行更新,以便可以定期更新依赖项(可能会导致重大更改)。 pytorch> = 1.7.0 火炬视觉>
1
advGAN_pytorch 论文“Generating Adversarial Examples with Adversarial Networks” (advGAN) 的 Pytorch 实现。 训练目标模型 python3 train_target_model.py 训练 advGAN python3 main.py 测试对抗样本 python3 test_adversarial_examples.py 结果 MNIST 测试集中的攻击成功率: 99% 注意:我的实现与论文略有不同,因为我添加了一个剪辑技巧。
2022-04-01 15:23:09 6KB Python
1
对抗性示例混淆了的梯度 对抗性示例是攻击者故意设计的机器学习模型的输入,该模型会导致模型出错。 它们就像是机器的光学错觉。 如果防御“没有有用的梯度”来生成对抗性示例,则称其会引起梯度掩蔽。 这里介绍了针对该主题的入门方法的论文,以及为对抗性示例建立辩护的一种可能方法。
2021-09-23 21:44:27 2KB
1
对抗性例子 PyTorch实施以下算法: 快速梯度符号法(FGSM)[1] 基本迭代方法(BIM)[2] 傻瓜[3] 先决条件 的Python 3.5.2 PyTorch 0.4.0 火炬视觉0.2.1 NumPy 1.14.3 用法 $ python main.py 数据集 结果 干净的 标签:0 标签:1 标签:2 标签:3 标签:4 标签:5 标签:6 标签:7 标签:8 标签:9 FGSM(eps = 0.15) 标签:2 标签:8 标签:1 标签:2 标签:9 标签:3 标签:5 标签:2 标签:1 标签:7 BIM(eps = 0.15,eps_iter = 0.01,n_iter = 50) 标签:7 标签:8 标签:3 标签:2 标签:9 标签:3 标签:5 标签:2 标签:1 标签:7
2021-09-23 16:50:02 74KB pytorch adversarial-examples Python
1
本资源是对抗样本领域中首次提出使用梯度方法生成对抗样本的FGSM攻击算法的一篇文章的代码实现,使用的语言是Pytorch语言,文件为Jupyter notebook文件,在电脑环境配置无问题的情况下,可以直接运行此代码文件,内含详细注释。
2021-08-11 09:15:50 31.54MB 资源达人分享计划 python pytorch 对抗样本
PyTorch顾问实例 对CIFAR-10和MNIST的对抗攻击。 这些笔记本使用生成对抗示例,以攻击PyTorch模型。 将来可能会针对更多数据集提供更多方法。
2021-04-22 15:38:25 111KB pytorch mnist cifar-10 adversarial-examples
1
Explaining and Harnessing Adversarial Examples.zip
2021-03-16 17:14:59 959KB 深度学习
1
本文详细介绍了如何攻破已经发表的10种对抗样本防御方法。
2021-02-22 21:34:53 2.16MB 对抗样本 防御
1
2019 review and taxonomy on adversarial examples and defenses
2020-01-08 03:05:42 5.82MB adversarial
1