我在阅读论文《Feature Denoising for Improving Adversarial Robustness》的时候,对论文做了标注,其中加入了一些论文中提到的知识概念的补充,也包括我个人对论文中某一部分的理解。
2021-04-04 19:07:51 6.66MB AI Security Adversarial Attack
1
Pytorch实战4:(win10 +ubuntu)对抗语义分割源码调试《Adversarial Learning for Semi-supervised Semantic Segmentation》-附件资源
2021-04-03 17:51:42 106B
1
用于Pytorch的简单StyleGan2 基于的Stylegan2的简单Pytorch实现,可以从命令行进行完全培训,无需编码。 下面是一些不存在的花。 这些手也不 这些城市也没有 这些名人也没有(由训练) 安装 您将需要一台装有GPU和CUDA的计算机。 然后pip这样安装软件包 $ pip install stylegan2_pytorch 如果您使用的是Windows计算机,则可以使用以下命令。 $ conda install pytorch torchvision -c python $ pip install stylegan2_pytorch 利用 $ styleg
1
Explaining and Harnessing Adversarial Examples.zip
2021-03-16 17:14:59 959KB 深度学习
1
数据几何在对抗机器学习中的作用
2021-03-10 18:11:14 5.13MB 机器学习 对抗机器学习 数据几何
1
基于对抗攻击(Adversarial Attack)相关的接受paper不少,这几年比如 对抗攻击、基于图数据的对抗攻击、NLP、CV上的攻击防御等等一些列前沿的方法和应用受到了很多人的关注,也是当前比较火的topic。
2021-02-28 16:09:47 13.34MB 对抗攻击
1
自动攻击 “可靠的评估对抗性鲁棒性与各种无参数攻击相结合” 弗朗切斯科·克鲁斯( Francesco Croce)和马蒂亚斯·海因( Matthias Hein) ICML 2020 我们建议使用四种不同攻击的组合来可靠地评估鲁棒性: APGD-CE ,这是我们在交叉熵方面的新的无步长PGD版本, APGD-DLR ,我们在新的DLR损失上推出的新的无步长PGD PGD版本, FAB ,将对抗性扰动的规范降到最低 , Square Attack ,一种查询效率高的黑盒攻击 。 注意:我们修复了攻击的所有超参数,因此不需要调整就可以测试每个新的分类器。 消息 [2020年10月] AutoAttack在新的基准测试用作标准评估,该基准包含最强大分类器的! 请注意,此页面和RobustBench的排行榜是同时维护的。 [2020年8月] 更新的版本:为了i)将AutoAtta
1
本文详细介绍了如何攻破已经发表的10种对抗样本防御方法。
2021-02-22 21:34:53 2.16MB 对抗样本 防御
1
两年一度的计算机视觉国际顶级会议 International Conference on Computer Vision(ICCV 2017)在意大利威尼斯开幕。Google Brain 研究科学家Ian Goodfellow在会上作为主题为《生成对抗网络(Generative Adversarial Networks)》的Tutorial 最新演讲, 介绍了GAN的原理和最新的应用。
2020-01-18 03:30:25 26.42MB 机器学习
1
2019 review and taxonomy on adversarial examples and defenses
2020-01-08 03:05:42 5.82MB adversarial
1