#5.2_Policy_Gradients_思维决策_(强化学习_Reinforcement_Learning_教学)
2021-09-01 21:00:26 25.49MB 学习资源
#5.1_Policy_Gradients_算法更新__(强化学习_Reinforcement_Learning_教学)
2021-09-01 21:00:23 10.7MB 学习资源
改进的深度泄漏 “”(iDLG)的代码。 抽象的 人们普遍认为,共享梯度不会泄漏诸如协作学习和联合学习等分布式学习系统中的私人训练数据。 [1]提出了一种方法,该方法显示了从公开共享的梯度中获得私人训练数据的可能性。 在他们的“从梯度深度泄漏”(DLG)方法中,他们在共享梯度的监督下合成了虚拟数据和相应的标签。 但是,DLG难以收敛并始终如一地发现地面真相标签。 在本文中,我们发现共享梯度无疑泄漏了地面真相标签。 我们提出了一种简单但可靠的方法来从梯度中提取准确的数据。 特别是,我们的方法可以肯定地提取出与DLG相反的地面标签,因此我们将其命名为改进的DLG(iDLG)。 我们的方法适用于任何在单热标签上经过交叉熵损失训练的可微模型。 我们以数学方式说明了我们的方法如何从梯度中提取地面标签,并通过经验证明了其优于DLG的优势。 实验 数据集 戴高乐 iDLG MNIST 89.9%
2021-07-22 21:55:18 408KB Python
1
Histograms of Oriented Gradients for Human Detection,HOG,梯度方向直方图
2021-07-19 22:46:32 445KB HOG 梯度方向直方图
1
计算机视觉Github开源论文
2021-06-03 09:09:09 773KB 计算机视觉
1
多代理深确定性策略梯度 多主体深度确定性策略梯度(MADDPG)算法的Pytorch实现 这是我在论文中提出的算法的实现:“针对混合合作竞争环境的多主体Actor评论家”。 您可以在这里找到本文: : 您将需要安装多代理粒子环境(MAPE),可以在这里找到: : 确保创建具有MAPE依赖项的虚拟环境,因为它们有些过时了。 我还建议使用PyTorch 1.4.0版运行此程序,因为最新版本(1.8)似乎与我在计算批评者损失时使用的就地操作存在问题。 将主存储库克隆到与MAPE相同的目录中可能是最容易的,因为主文件需要该软件包中的make_env函数。 可以在以下位置找到本教程的视频: :
1
下载下来的grd文件放到"\Program Files\Adobe\Photoshop CS\预置\渐变工具"文件夹中,就可以调用了 或者点击【窗口】菜单下的【渐变】选项再点击右上角的小三角形选择【载入渐变..】选择你刚下载grd文件就可以了!
2021-04-26 00:18:12 1.77MB Photoshop 渐变色 素材
1
周报性质
2021-03-27 22:00:09 2.06MB 机器学习
1
《Histograms of Oriented Gradients for Human Detection》论文原文,作者:Navneet Dalal and Bill Triggs,HOG特征的论文出处
2021-02-07 22:01:27 458KB hog
1