深度神经网络测试覆盖率与对抗样本间的相关性研究.docx
2021-10-14 14:07:07 83KB 网络
对抗样本:进攻与防守 最近,关于对抗性样本的研究是机器学习中的一个热门话题。 在此存储库中,我只想介绍一些生成对抗性样本的方法以及如何防御它们。 注意:还有许多其他有趣的方法,我将在以后的晚些时候进行更新。 安装 此处的所有方法都在Pytorch中实现。 我认为这里无需担心版本冲突。 我的代码很简单,不需要特殊的程序包。 您需要做的就是安装Pytorch(以及numpy,matplotlib等其他基本软件包)。 每个文件夹中的自述文件有点混乱!!! 我将对其进行重组。
2021-09-29 11:03:26 61.4MB Python
1
对抗样本入门级论文的PPT总结 包括入门级的六篇论文以及总结展望,希望有从事AI安全的朋友前来交流 目前正在从事AI安全方面的工作,如果做的有不好的地方,大家多多指出
2021-09-17 17:44:54 7.66MB AI安全 机器学习
1
对抗样本攻击与防御是最近几年兴起的一个研究热点,攻击者通过微小的修改生成对抗样本来使深度神经网络预测出错。生成的对抗样本可以揭示神经网络的脆弱性,并可以修复这些脆弱的神经网络以提高模型的安全性和鲁棒性。
2021-09-14 13:09:04 1.22MB 文本对抗样本攻击 防御
1
目标检测是一种广泛应用于工业控制、航空航天等安全攸关场景的重要技术。近年来,随着深度学习在目标检 测领域的应用,检测的精度得到了较大提升,但由于深度学习固有的脆弱性,使得基于深度学习的目标检测技术的可靠性 和安全性面临新的挑战。
2021-09-10 09:10:30 4.83MB 目标检测
1
图像对抗样本的安全性研究概述 APT 漏洞挖掘 安全人才 安全防护 应急响应
2021-09-09 14:00:12 3.01MB 安全防护 安全人才 安全分析 安全对抗
对抗样本生成入门文献系统整理
2021-08-31 18:13:09 46.57MB 对抗机器学习 对抗样本生成 文献
1
本算法是经典的对抗样本算法,参考论文为《DeepFool: a simple and accurate method to fool deep neural networks》,基于pytorch框架实现,已调试完毕,可直接运行。
2021-08-20 01:37:59 1.24MB 对抗样本 DeepFool pytorch python
基于冗余信息压缩的深度学习对抗样本防御方案.pdf
2021-08-18 13:30:39 1.54MB 深度学习 数据分析 数据研究 参考文献
本资源是基于FGSM改进的I-FGSM算法和ICCLM算法,pytorch版本,jupyter文件,可以直接运行。