针对移动边缘计算中具有依赖关系的任务的卸载决策问题,提出一种基于深度强化学习的任务卸载调度方法,以最小化应用程序的执行时间。任务调度的过程被描述为一个马尔可夫决策过程,其调度策略由所提出的序列到序列深度神经网络表示,并通过近端策略优化(proximal policy optimization)方法进行训练。仿真实验表明,所提出的算法具有良好的收敛能力,并且在不同环境下的表现均优于所对比的六个基线算法,证明了该方法的有效性和可靠性。
2021-10-06 19:58:34 1.39MB 移动边缘计算 计算卸载 任务调度
1
基于深度强化学习的机械臂抓取策略研究_刘阳.caj
2021-10-06 12:06:53 3.11MB 强化学习 机器人
1
公用池资源系统中的深度多主体强化学习 中的论文中的实验源代码。 该论文已被接受并发表在IEEE CEC 2019上。 介绍 在复杂的社会生态系统中,具有不同目标的多个代理机构采取的行动会影响系统的长期动态。 共同资产池是此类系统的子集,在这些系统中,财产权通常定义不清,先验性未知,因此造成了社会困境,这是众所周知的公地悲剧反映出来的。 在本文中,我们研究了在公共资源池系统的多主体设置中进行深度强化学习的功效。 我们使用了系统的抽象数学模型,表示为部分可观察到的一般和马尔可夫博弈。 在第一组实验中,独立主体使用具有离散动作空间的深度Q网络来指导决策。 但是,明显的缺点是显而易见的。 因此,在第二组实验中,具有连续状态和动作空间的深度确定性策略梯度学习模型指导了主体学习。 仿真结果表明,使用第二种深度学习模型时,代理商在可持续性和经济目标方面的表现均明显更好。 尽管代理商没有完全的预见力或对他
1
从数据中学习动力系统 神经网络动力学,用于基于模型的深度强化学习,且无模型精调
1
This repository contains most of classic deep reinforcement learning algorithms, including - DQN, DDPG, A3C, PPO, TRPO. (More algorithms are still in progress)
2021-09-24 19:57:52 3.79MB Python开发-机器学习
1
多用户移动边缘计算的分散式计算分流:一种深度强化学习方法 多用户移动边缘计算的分散式计算分流:一种深度强化学习方法 这实现了论文中的算法 一些提示:尝试通过运行ipynb文件之一来开始您的旅程,例如test_save_model_multiple_t02_noBuf.ipynb。 “用于多用户移动边缘计算的分散式计算分流:一种深度强化学习方法” 如果您发现这对您的研究有用,请使用 @article {chen2018decentralized,title = {用于多用户移动边缘计算的分散式计算分流:一种深度强化学习方法},作者= {Chen,Zhao和Wang,Xiaodong},journal = {arXiv预印本arXiv:1812.07394},年= {2018}} 如有任何疑问,请通过与我联系。
2021-09-24 16:46:28 444.79MB JupyterNotebook
1
研究了基于深度强化学习算法的自主式水下航行器(AUV)深度控制问题。区别于传统的控制算法,深度强化学习方法让航行器自主学习控制律,避免人工建立精确模型和设计控制律。采用深度确定性策略梯度方法设计了actor与critic两种神经网络。actor神经网络给出控制策略,critic神经网络用于评估该策略,AUV的深度控制可以通过训练这两个神经网络实现。在OpenAI Gym平台上仿真验证了算法的有效性。
1
分布式DRL 分布式深度强化学习 该框架的灵感来自OpenAI的通用RL培训系统Rapid 。 快速框架: 我们的框架: 教程 该框架将强化学习过程分为五个部分: 重播缓冲区(选项) 参数服务器 火车(学习) 推出 测试 @ ray . remote class ReplayBuffer : ... # replay buffer @ ray . remote class ParameterServer ( object ): ... # keep the newest network weights here # could pull and push the weights # also could save the weights to local @ ray . remote ( num_gpus = 1 ,
2021-09-18 15:12:57 874KB Python
1
学习+彭伟《揭秘深度强化学习》PDF+源代码+资料-附件资源
2021-09-17 17:00:05 23B
1