基于随机平滑的数据中毒防御有多强健? 抽象的 可证明可靠的分类器的预测在一个点附近保持不变,从而使它们在保证测试时间的情况下具有弹性。 在这项工作中,我们提出了对健壮的机器学习模型的前所未有的威胁,突显了训练数据质量在实现高认证健壮性方面的重要性。 具体而言,我们提出了一种基于双层优化的新型数据中毒攻击,该攻击会降低可证明的鲁棒分类器的鲁棒性保证。 与其他数据中毒攻击会降低一小组目标点上的中毒模型的准确性不同,我们的攻击会减少数据集中整个目标类的平均认证半径。 此外,即使受害者使用最新的健壮训练方法(例如, 和从头开始训练模型,我们的攻击也是有效的。 为了使攻击更难检测,我们使用带有明显较小失真的干净标签中毒点。 通过中毒MNIST和CIFAR10数据集并使用前面提到的鲁棒训练方法训练深度神经网络,并使用随机平滑验证其鲁棒性,来评估所提出方法的有效性。 对于使用这些强大的训练方法训练的模型
1
《A Tandem Learning Rule for Effective Training and Rapid Inference of Deep Spiking Neural Networks》,论文原文
2023-01-05 13:28:33 2.86MB 脉冲神经网络 BPTT IEEE
1
dtu-training数据集 百度网盘19G
2023-01-02 16:21:40 75B DTU
1
COCO LM预训练(WIP) 在Pytorch中实现 ,纠正和对比文本序列以进行语言模型预训练。 他们能够以自我监督的方式进行对比学习,以进行语言模型预训练。 似乎是Electra的坚实后继者。 安装 $ pip install coco-lm-pytorch 用法 使用x-transformers库的示例 $ pip install x-transformers 然后 import torch from torch import nn from x_transformers import TransformerWrapper , Encoder from coco_lm_pytorch import COCO # (1) instantiate the generator and discriminator, making sure that the generator is ro
1
Training an artificial neural network with backpropagation algorithms to perform advanced machine learning tasks requires an extensive computational process. This paper proposes to implement the backpropagation algorithm optically for
2022-11-28 21:47:14 2.04MB
1
台湾晶片系统设计中心培训课程,非常好的入门教材。华为推荐教材。
2022-11-22 21:22:05 1.62MB FPGA Synthesis
1
RedHawk-Training-Slides
2022-11-22 12:02:27 22.71MB RedHawk_Training
1
RedHawk-Training-lab.tar
2022-11-22 12:02:25 152.63MB redhawk
1
TRAINING-FREE STRUCTURED DIFFUSION GUIDANCE FOR COMPOSITIONAL TEXT-TO-IMAGE SYNTHESIS
2022-11-13 16:30:28 3.22MB DIFFUSION
1
本文件是博客中的介绍代码的运行代码。 环境:python3.7+keras2.3.1+tensorflow1.15.0+sklearn0.22.1+matplotlib3.1.1 三方库:mglearn0.1.7
2022-11-07 19:22:04 253KB 神经网络 机器学习
1