德鲁 无线供电的移动边缘计算网络中在线计算卸载的深度强化学习 使用Python代码重现我们的DROO算法以进行无线供电的移动边缘计算[1],该算法使用随时间变化的无线信道增益作为输入并生成二进制卸载决策。 这包括: :基于实现的WPMEC的DNN结构,包括训练结构和测试结构。 :基于。 :基于实现。 :解决资源分配问题 :所有数据都存储在此子目录中,包括: data _#。mat :训练和测试数据集,其中#= {10,20,30}是用户编号 :针对DROO运行此文件,包括设置系统参数,基于 :基于。 :基于实现。 :当WD的权重​​交替时,运行此文件以评估DROO的性能 demo_on_off.py :当某些WD随机打开/关闭时,运行此文件以评估DROO的性能 引用这项工作 L. Huang,S。Bi和YJ Zhang,“用于无线移动边缘计算网络中在线计算
2021-10-11 17:51:48 24.01MB Python
1
MDP-DP-RL 该项目的目标是从头开始开发所有动态编程和强化学习算法(即,除了基本的numpy和scipy工具之外,不使用标准库)。 “从头开始开发”目标是出于教育目的-学习此主题的学生只有在他们开发和使用从头开始开发的代码时才能彻底理解这些概念。 我针对不同的学生背景讲授了该主题的课程,每门此类课程都以技巧/算法的精确编程实现为基础。 特别是,当我教Stanford CME 241:金融中的随机控制问题的强化学习( )时,会使用此代码库。 关于代码可读性,性能和错误的任何反馈将不胜感激,因为代码仍相当原始且未经各个部分的测试(2018年8月开始使用此代码,到目前为止主要处于代码增长模式)。 该项目开始于为有限的马尔可夫过程(又名马尔可夫链),马尔可夫奖励过程(MRP)和马尔可夫决策过程(MDP)实现基础数据结构。 其次是动态编程(DP)算法,其重点是在代码内以清晰的数学术语表
2021-10-04 12:17:47 148KB Python
1
多用户移动边缘计算的分散式计算分流:一种深度强化学习方法 多用户移动边缘计算的分散式计算分流:一种深度强化学习方法 这实现了论文中的算法 一些提示:尝试通过运行ipynb文件之一来开始您的旅程,例如test_save_model_multiple_t02_noBuf.ipynb。 “用于多用户移动边缘计算的分散式计算分流:一种深度强化学习方法” 如果您发现这对您的研究有用,请使用 @article {chen2018decentralized,title = {用于多用户移动边缘计算的分散式计算分流:一种深度强化学习方法},作者= {Chen,Zhao和Wang,Xiaodong},journal = {arXiv预印本arXiv:1812.07394},年= {2018}} 如有任何疑问,请通过与我联系。
2021-09-24 16:46:28 444.79MB JupyterNotebook
1
分布式DRL 分布式深度强化学习 该框架的灵感来自OpenAI的通用RL培训系统Rapid 。 快速框架: 我们的框架: 教程 该框架将强化学习过程分为五个部分: 重播缓冲区(选项) 参数服务器 火车(学习) 推出 测试 @ ray . remote class ReplayBuffer : ... # replay buffer @ ray . remote class ParameterServer ( object ): ... # keep the newest network weights here # could pull and push the weights # also could save the weights to local @ ray . remote ( num_gpus = 1 ,
2021-09-18 15:12:57 874KB Python
1
强化学习 深度学习:优化 创建人:Vithurshan Vijayachandran和Hisho Rajanathan RLearning_NOTEBOOK.ipynb-适用于基本(Q学习)和高级任务(DQN和DDQN)的Jupyter笔记本。 RL_Rport.pdf:报告所有研究结果和评估。 使用以下预训练模型来测试网络,因为重新训练非常耗时。 DQNTrainingModel.h5-测试DQN网络所需的文件 DDQNTrainingModel.h5-测试DDQN网络所需的文件 DDQNPERTrainingModel.h5 =使用PER网络测试DDQN所需的文件
2021-09-14 10:57:27 2.5MB JupyterNotebook
1
离线强化学习的乐观观点(ICML,2020年) 该项目使用框架提供开放源代码实施,以运行提到的实验。 在这项工作中,我们使用DQN代理的记录的经验在脱机设置(即 )中训练非策略代理(如下所示),而在训练过程中不与环境进行任何新的交互。 有关项目页面,请参考 。 如何在50M数据集上训练脱机代理而没有RAM错误? 请参阅 。 DQN重播数据集(记录的DQN数据) DQN重播数据集的收集方式如下:我们首先在60款训练代理,并为2亿帧(标准协议)启用了,并保存(观察,动作,奖励,下一个)的所有体验元组。观察) (约5000万)。 可以在公共gs://atari-replay-datasets中找到此记录的DQN数据,可以使用下载。 要安装gsutil,请按照的说明进行操作。 安装gsutil之后,运行命令以复制整个数据集: gsutil -m cp -R gs://atari-rep
2021-07-07 20:36:41 63KB Python
1
自动股票交易的深度强化学习:整体策略 该存储库提供了代码 的Jupiter Notebook重新实现了这种整体策略。 抽象的 股票交易策略在投资中起着至关重要的作用。 但是,在复杂而动态的股票市场中设计一种有利可图的战略是具有挑战性的。 在本文中,我们提出了一种深度集成强化学习方案,该方案可以通过最大化投资回报来自动学习股票交易策略。 我们训练一种深度强化学习代理,并使用三种基于行为者批评的算法来获得整体交易策略:近距离策略优化(PPO),优势参与者批评者(A2C)和深度确定性策略梯度(DDPG)。 集成策略继承并集成了三种算法的最佳功能,从而可以稳健地适应不同的市场条件。 为了避免在具有连续动作空间的训练网络中消耗大量内存,我们采用按需加载方法来处理非常大的数据。 我们在30支具有足够流动性的道琼斯股票上测试了我们的算法。 评估了具有不同强化学习算法的交易代理商的表现,并与道琼斯工业平均
1
Keras的深度强化学习 它是什么? keras-rl在Python中实现了一些最先进的深度强化学习算法,并与深度学习库无缝集成。 此外, keras-rl可与一起使用。 这意味着评估和使用不同算法很容易。 当然,您可以根据自己的需要扩展keras-rl 。 您可以使用内置的Keras回调和指标,也可以定义自己的回调和指标。 更重要的是,只需扩展一些简单的抽象类,即可轻松实现自己的环境甚至算法。 文档可。 包含什么? 到目前为止,已实现以下算法: 深度Q学习(DQN) , Double DQN 深度确定性策略梯度(DDPG) 连续DQN(CDQN或NAF) 交叉熵方
1
LunarLanderAgent 张量流的LunarLander强化学习 我在启动Box2d安装时遇到了困难,我尝试使用pip install Box2d而不是pip install gym[all]并成功了。 确保环境正常运行: 虚拟代码: import numpy as np import matplotlib.pyplot as plt import tensorflow as tf import gym env = gym.make('LunarLander-v2') obs = env.reset() for i in range(1000): obs, reward, done, info = env.step(env.action_space.sample()) env.render() if done: break env.clos
2021-03-21 17:08:38 5.21MB Python
1
动态编程 这是用于保存MA661 Dyn的分配的存储库。 编。 与强化学习
2021-03-09 10:06:06 205KB JupyterNotebook
1