一、论文相关信息
1.论文题目
Adversarial Examples: Attacks and Defenses for Deep Learning
2.论文时间
2017年
3.论文文献
https://arxiv.org/abs/1712.07107
二、论文背景及简介
随着深度学习的快速发展与巨大成功,深度学习被应用在许多对安全有严格要求的环境中。然而,深度神经网络近来被发现,对于精心设计好的输入样本,其是脆弱的,这种样本就被称为对抗样本。对抗样本对人类是很容易分辨的,但却能在测试或部署阶段,很容易的糊弄深度神经网络。当应用深度神经网络到对安
1