联邦学习 Federated Learning Everything about federated learning. Your contribution is highly valued! 关于联邦学习的资料,包括:介绍、综述文章、最新文章、代表工作及其代码、数据集、论文等等。 欢迎一起贡献! 目录 1. 教程 Tutorial 文字 PPT (AAAI-19) (AAAI-19) 视频 GDPR, Data Shortage and AI (AAAI-19 Invited Talk) 新闻 2019/02/09 谷歌发布全球首个产品级移动端分布式机器学习系统,数千万手机同步训练 2. 相关论文 Related Papers 综述与介绍 Survey And Introduction arXiv 201912 - Advances and Open Problems in Fede
2021-07-20 10:19:34 5KB
1
差分隐私 差分隐私学习与集成 1.直观的解释 2.学术论文 2.1 调查 差分隐私的算法基础 差分隐私和应用 CCS、S&P、NDSS、USENIX、Infocom 中的差异隐私论文 SoK:差异隐私 2.2 课程 差异隐私研讨会,秋季 19/20 CSE 660 秋季 2017 cs295-数据隐私 隐私研究小组 CS 860-私有数据分析算法-2020年秋季 2.3 一些机制 集中差分隐私:简化、扩展和下限 2.4 2015-2019 年 CCS、S&P、NDSS、USENIX、Infocom 中的差异隐私(其中一些来自 2020 年) 民意调查 3. 视频 差分隐私的最新进展 II 差分隐私的最新发展 I 采样隐私放大与人一差分隐私 差分隐私:从理论到实践 4. 代码 4.0 代码实现DP算法 4.1 K-匿名算法 4.2 随机响应 4.3 拉普拉斯和指数机制 4
1
info2180-lab8
2021-07-13 12:20:04 2KB JavaScript
1
一个简单的小项目,单词学习,有文件读取,叠加保存,异常处理,条件循环判断等等,用来学习还是可以的
2021-07-12 11:13:34 208KB Java
1
突发事件 用于实现自动化机器学习的各种技术。 目前正在开发中:与 Orchestra 改进相关的项目时间表。
2021-07-10 16:03:10 3KB Julia
1
comp9444:UNSW COMP9444神经网络和深度学习
2021-07-08 16:19:17 145.02MB Python
1
离线强化学习的乐观观点(ICML,2020年) 该项目使用框架提供开放源代码实施,以运行提到的实验。 在这项工作中,我们使用DQN代理的记录的经验在脱机设置(即 )中训练非策略代理(如下所示),而在训练过程中不与环境进行任何新的交互。 有关项目页面,请参考 。 如何在50M数据集上训练脱机代理而没有RAM错误? 请参阅 。 DQN重播数据集(记录的DQN数据) DQN重播数据集的收集方式如下:我们首先在60款训练代理,并为2亿帧(标准协议)启用了,并保存(观察,动作,奖励,下一个)的所有体验元组。观察) (约5000万)。 可以在公共gs://atari-replay-datasets中找到此记录的DQN数据,可以使用下载。 要安装gsutil,请按照的说明进行操作。 安装gsutil之后,运行命令以复制整个数据集: gsutil -m cp -R gs://atari-rep
2021-07-07 20:36:41 63KB Python
1
本资源包含入门ITK图像滤波中实例源码和用到的素材文件: 包含: 实例1 PNG图像进行二维线性映射 实例2?MHA格式文件进行三维线性映射 实例3 PNG图像进行二维非线性映射 实例4?MHA格式文件进行三维非线性映射 实例5?PNG图像进行不带滤波的二维梯度强度提取 实例6?PNG图像进行带滤波的二维梯度强度提取 实例7?MHA格式文件进行带滤波三维的梯度强度提取 实例8?PNG图像进行不带滤波二维的导函数提取 本资源配套CSDN博客“基于C++的ITK图像分割与配准学习笔记2(图像滤波)”,可 前往查看具体原理和实现效果!!! 希望对大家有帮助,好的话帮忙点个赞哦!感谢支持!!!
2021-07-05 11:11:29 650B ITK图像分割 ITK学习 源码及素材
1
自动股票交易的深度强化学习:整体策略 该存储库提供了代码 的Jupiter Notebook重新实现了这种整体策略。 抽象的 股票交易策略在投资中起着至关重要的作用。 但是,在复杂而动态的股票市场中设计一种有利可图的战略是具有挑战性的。 在本文中,我们提出了一种深度集成强化学习方案,该方案可以通过最大化投资回报来自动学习股票交易策略。 我们训练一种深度强化学习代理,并使用三种基于行为者批评的算法来获得整体交易策略:近距离策略优化(PPO),优势参与者批评者(A2C)和深度确定性策略梯度(DDPG)。 集成策略继承并集成了三种算法的最佳功能,从而可以稳健地适应不同的市场条件。 为了避免在具有连续动作空间的训练网络中消耗大量内存,我们采用按需加载方法来处理非常大的数据。 我们在30支具有足够流动性的道琼斯股票上测试了我们的算法。 评估了具有不同强化学习算法的交易代理商的表现,并与道琼斯工业平均
1
Android汽车 仅用于交流学习
2021-06-28 10:06:12 199KB 系统开源
1