leaf是一个联邦学习的框架,来自CMU,官网:https://leaf.cmu.edu/build/html/index.html      Github:https://github.com/TalwalkarLab/leaf/pulls 1、安装与配置环境 首先要在Github上下载leaf,之后安装 requirements.txt 中列出的 libraries。 这里面有几个坑:1、要用 pip3 下载,否则 tensorflow 可能出现空包 2、目前tensorflow发行了2.0系列的版本,但是leaf是用tensorflow1.x系列的语法写的,也就是说,需要修改requir
2021-12-20 13:46:38 42KB ar ed IN
1
差异性隐私和联合学习。 精选笔记本,介绍如何使用差异隐私和联合学习来训练神经网络。 入门笔记本 在开始学习差异隐私和联合学习之前,了解张量很重要; 神经网络的基本数据结构。 了解张量: 创建简单的神经网络 使用MNIST数据创建密集网络 转移学习 大多数情况下,您不想自己训练整个卷积网络。 对大型图像集(例如ImageNet)进行现代ConvNets培训需要在多个GPU上花费数周的时间。 可以帮助您解决此问题。 什么是差异隐私? 差异隐私是用于防止模型在学习过程中意外记住训练数据集中存在的秘密的一组技术。 为了使其正常工作,我们需要坚持以下几点: 向数据主体保证:不管有哪些研究,数据集或信息来源,都可以通过将您的数据用于任何分析中而不会受到不利影响或其他影响。 确保从敏感数据中学习的模型仅在学习他们应该学习的知识时,不会无意中学习从他们的数据中学到的知识 以下是一些笔记本,以进一
2021-12-04 21:20:28 81.86MB JupyterNotebook
1
联邦学习Advances and Open Problems in Federated Learning,谷歌最新力作,分析了联邦学习最新研究热点和未来的方向
2021-11-30 20:07:34 1.23MB 联邦学习 人工智能 信息安全 机器学习
1
着重描述联邦迁移学习参与放之间的协作,安全联邦迁移学习框架,计算损失和梯度的数学细节。着重描述联邦迁移学习参与放之间的协作,安全联邦迁移学习框架,计算损失和梯度的数学细节。
2021-11-24 12:36:35 756KB 联邦迁移学习 分布式计算
1
联邦学习(FL)是一种机器学习设置,许多客户(例如移动设备或整个组织)在保持数据分散的同时协同训练一个模型。
2021-11-23 21:04:24 522KB 联邦学习 报告
1
2021-04-01(关键字:参数更新,视频) 关键字:Non-iid,解决了在联合设置中训练Non-iid数据时精度降低的问题。 数据集:CIFAR-10数据集 关键字:我们提出了一种新颖的方法FedCD,该方法可以克隆和删除模型,以将具有相似数据的设备动态分组。 关键字:我们在损失函数中增加一个惩罚项,迫使所有局部模型收敛到一个共享的最优值。 当前将视频流发送到云进行处理的模型面临许多挑战,例如延迟和隐私。 我们介绍一种基于边缘计算和新兴的联合学习的分布式视频分析体系结构。 关键字:LSTM 我们提出了联邦匹配平均算法(FedMA),该算法设计用于现代神经网络体系结构(例如卷积神经网络(CNN)和LSTM)的联合学习。 摘要:联合学习是一种机器学习设置,其目标是训练高质量的集中式模型,同时训练数据保持分布在大量客户端上,每个客户端的网络连接都不可靠且相对较慢。 我们考虑针对此设置
2021-10-28 22:48:30 7KB
1
树莓派的联合学习和拆分学习 这是为了发布SRDS 2020论文“物联网的联合学习和拆分学习的端到端评估”的源代码。 如果发现有用,则可用于发布。 请引用我们的工作为: @inproceedings{gao2020end, title={End-to-End Evaluation of Federated Learning and Split Learning for Internet of Things}, author={Gao, Yansong and Kim, Minki and Abuadbba, Sharif and Kim, Yeonjae and Thapa, Chandra and Kim, Kyuyeon and Camtepe, Seyit A and Kim, Hyoungshick and Nepal, Surya}, booktitle={The 39th
1
异构网络中的联合优化 该存储库包含本文的代码和实验: 联合学习是一种分布式学习范例,它具有两个与传统的分布式优化不同的关键挑战:(1)网络中每个设备的系统特性方面的显着可变性(系统异质性),以及(2)不完全相同的分布式数据跨网络(统计异质性)。 在这项工作中,我们引入一个框架FedProx,从理论上和经验上解决联邦网络中的异构性。 该存储库包含一组针对联合数据集的详细的经验评估。 我们证明FedProx比FedAvg具有更强大的收敛性。 特别是,在高度异构的环境中,FedProx展示了相对于FedAvg而言更加稳定和准确的收敛行为-将绝对测试准确度平均提高了22%。 一般准则 请注意,如果您想使用FedProx作为基准并运行我们的代码: 如果使用不同的数据集,则至少需要根据您的指标调整学习率和mu参数。 您可能希望从{0.001,0.01,0.1,0.5,1}调整mu。 没有适用于所有
1
论文注解 Secure Federated Transfer Learning FederatedMachineLearning:ConceptandApplications
2021-10-18 10:48:33 1.83MB 论文
1
Federated Learning 人工智能(Artificial Intelligence, AI)进入以深度学习为主导的大数据时代,基于大数据的机器学习既推动了AI的蓬勃发展,也带来了一系列安全隐患。这些隐患来源于深度学习本身的学习机制,无论是在它的模型建造(训练)阶段,还是在模型推理和使用阶段。这些安全隐患如果被有意或无意地滥用,后果将十分严重。 联邦学习是一种 隐私保护、数据本地存储与计算 的机器学习算法。 文献参考 Part 1: Introduction Part 2: Survey Federated Machine Learning: Concept and Applications Threats to Federated Learning: A Survey Survey of Personalization Techniques for Federated Lear
2021-10-11 12:50:22 16KB
1