基于随机平滑的数据中毒防御有多强健? 抽象的 可证明可靠的分类器的预测在一个点附近保持不变,从而使它们在保证测试时间的情况下具有弹性。 在这项工作中,我们提出了对健壮的机器学习模型的前所未有的威胁,突显了训练数据质量在实现高认证健壮性方面的重要性。 具体而言,我们提出了一种基于双层优化的新型数据中毒攻击,该攻击会降低可证明的鲁棒分类器的鲁棒性保证。 与其他数据中毒攻击会降低一小组目标点上的中毒模型的准确性不同,我们的攻击会减少数据集中整个目标类的平均认证半径。 此外,即使受害者使用最新的健壮训练方法(例如, 和从头开始训练模型,我们的攻击也是有效的。 为了使攻击更难检测,我们使用带有明显较小失真的干净标签中毒点。 通过中毒MNIST和CIFAR10数据集并使用前面提到的鲁棒训练方法训练深度神经网络,并使用随机平滑验证其鲁棒性,来评估所提出方法的有效性。 对于使用这些强大的训练方法训练的模型
1
强化学习对抗攻击和防御 DQN政策 战略定时攻击 统一攻击 对抗训练 该存储库为深度强化学习代理实现了一些经典的对抗攻击方法,包括( drl_attacks/ ): 统一攻击[]。 战略定时攻击[]。 临界点攻击[]。 关键策略攻击。 对抗性政策攻击[]。 也可以使用以下RL防御方法( drl_defenses/ ): 对抗训练[]。 还提供了一些图像防御方法( img_defenses/ ): JPEG转换[]。 位压缩[ ]。 图像平滑[]。 该项目大部分基于基于的RL框架守。 图片敌对攻击和防御都与实施 ,也是基于Pytorch。 相反,A2C和PPO策略基于pytorch-a2c-ppo-acktr-gail ,DQN使用了天守实现。 任何图像对抗攻击都与此项目兼容。 可用型号 它还可以在文件夹log找到适用于不同任务的训练有素的模型。 下表报告了三种
1
自动攻击 “可靠的评估对抗性鲁棒性与各种无参数攻击相结合” 弗朗切斯科·克鲁斯( Francesco Croce)和马蒂亚斯·海因( Matthias Hein) ICML 2020 我们建议使用四种不同攻击的组合来可靠地评估鲁棒性: APGD-CE ,这是我们在交叉熵方面的新的无步长PGD版本, APGD-DLR ,我们在新的DLR损失上推出的新的无步长PGD PGD版本, FAB ,将对抗性扰动的规范降到最低 , Square Attack ,一种查询效率高的黑盒攻击 。 注意:我们修复了攻击的所有超参数,因此不需要调整就可以测试每个新的分类器。 消息 [2020年10月] AutoAttack在新的基准测试用作标准评估,该基准包含最强大分类器的! 请注意,此页面和RobustBench的排行榜是同时维护的。 [2020年8月] 更新的版本:为了i)将AutoAtta
1
2019 review and taxonomy on adversarial examples and defenses
2020-01-08 03:05:42 5.82MB adversarial
1
Android Security: Attacks and Defenses is for anyone interested in learning about the strengths and weaknesses of the Android platform from a security perspective. Starting with an introduction to Android OS architecture and application programming, it will help readers get up to speed on the basics of the Android platform and its security issues.
2014-11-13 00:00:00 13.47MB Android Security Attacks Defenses
1