matlab对比实验代码数据中毒攻击的认证防御
该代码复制了以下论文的实验:
雅各布·斯坦哈特,庞伟哥和梁佩茜
NIPS
2017。
我们在上具有这些脚本的可复制,可执行和Dockerized版本。
实验的数据集也可以在Codalab链接中找到。
依存关系:
Numpy
/
Scipy
/
Scikit-learn
/
Pandas
Tensorflow(在v1.1.0上测试)
Keras(在v2.0.4上测试)
Spacy(在v1.8.2上测试)
h5py(在v2.7.0上测试)
cvxpy(在0.4.9上测试)
MATLAB
/
Gurobi
Matplotlib
/
Seaborn(用于可视化)
具有这些依赖关系的Dockerfile(MATLAB除外)可以在这里找到:
在用户提供的数据上训练的机器学习系统容易受到数据中毒攻击,从而恶意用户注入虚假的训练数据,目的是破坏学习的模型。
尽管最近的工作提出了许多攻击和防御措施,但对于面对坚定的攻击者最坏情况的防御措施知之甚少。
对于首先执行异常值消除然后将经验风险最小化的防御者,我们通过在广泛的攻击家族中构建近似的损失上限来解决此问题
2021-10-30 15:18:09
374KB
系统开源
1