基于对称显着性的对抗攻击自动编码器。 安装 > git clone https://github.com/BravoLu/SSAE.git > cd SSAE > pip -r install requirements.txt 开始使用 演示版 我们在上部署了一个resnet18模型,您可以使用目录./images/original_examples/中的图像进行测试。
2021-11-09 17:09:50 37.67MB JupyterNotebook
1
对抗攻击PyTorch 是一个PyTorch库,其中包含对抗性攻击以生成对抗性示例。 干净的图像 对抗形象 目录 推荐的地点和配套 用法 :clipboard: 依存关系 火炬== 1.4.0 Python== 3.6 :hammer: 安装 pip install torchattacks或 git clone https://github.com/Harry24k/adversairal-attacks-pytorch import torchattacks atk = torchattacks . PGD ( model , eps = 8 / 255 , alpha = 2 / 255 , steps = 4 ) adversarial_images = atk ( images , labels ) :warning: 预防措施 在用于攻击之前,应使用transform [to.Tensor()]将所有图像缩放为
2021-11-09 16:08:45 10.09MB deep-learning pytorch adversarial-attacks Python
1
该存储库包含ICML 2019论文的代码: 郭川,Jacob R. Gardner,尤荣友,Andrew G. Wilson,Kilian Q. Weinberger。 简单的黑匣子对抗攻击。 我们的代码使用CUDA 9.0和Python 3.5的PyTorch(pytorch> = 0.4.1,torchvision> = 0.2.1)。 脚本run_simba.py包含用于使用各种选项运行SimBA和SimBA-DCT的代码。 要运行SimBA(像素攻击): python run_simba.py --data_root --num_iters 10000 --pixel_attack --freq_dims 224 要运行SimBA-DCT(低频攻击): python run_simba.py --data_root <imagenet_
2021-11-03 19:56:26 10KB Python
1
深度学习(Deep Learning, DL)是当前计算机视觉领域应用最广泛的工具。它精确解决复杂问题的能力被用于视觉研究,以学习各种任务的深度神经模型,包括安全关键应用。然而,现在我们知道,DL很容易受到对抗性攻击,这些攻击可以通过在图像和视频中引入视觉上难以察觉的扰动来操纵它的预测。
2021-09-06 17:20:07 5.41MB 计算机视觉 攻击与防御
1
针对现实应用的文本对抗攻击研究.pdf
2021-08-30 17:00:06 11.45MB 对抗攻击
Preliminaries TextBugger Attack Evaluation
2021-08-11 09:00:38 12.05MB 安全研究 漏洞挖掘 对抗 软件安全
图神经网络对抗攻击与防御PPT,分享了Nettack和GNNGUARD
2021-08-09 11:18:26 3.67MB 对抗攻击 图神经网络 论文分享 KDD
1
生成对抗网络白箱攻击实验相关代码,可结合使用文档,见博客记录内容。简单的实现白盒下的图片对抗攻击,将cat图片识别成面包机,且人肉眼分不出,只欺骗模型。
2021-07-19 21:37:15 260KB 生成对抗网络实验代码
1
深度学习作为人工智能技术的重要组成部分,被广泛应用在计算机视觉、自然语言处理等领域。尽管深 度学习在图像分类和目标检测等方向上取得了较好性能,但研究表明,对抗攻击的存在对深度学习模型的安全应 用造成了潜在威胁,进而影响模型的安全性。
2021-07-13 07:38:42 805KB 对抗攻击
1
PyTorch顾问实例 对CIFAR-10和MNIST的对抗攻击。 这些笔记本使用生成对抗示例,以攻击PyTorch模型。 将来可能会针对更多数据集提供更多方法。
2021-04-22 15:38:25 111KB pytorch mnist cifar-10 adversarial-examples
1