基于深度强化学习的能源互联网智能巡检任务分配机制.pdf
2021-07-15 21:02:51 1.39MB 互联网 行业数据 数据分析 参考文献
人工智能、深度需恶习、自然语言处理、计划建议
1
LearningRacer-rl 概述 该软件能够在几分钟内通过深度强化学习来自我学习您的AI Robocar。 您可以使用Real Robocar和DonkeySim。 1.说明 许多DIY自驾车,例如JetBot或JetRacer,DonkeyCar,都通过监督学习来使用行为克隆。 该方法需要通过人工演示收集很多标记的数据。 在这种情况下,人类驾驶技术非常重要。 另一方面,在此软件中使用深度强化学习(DRL)。 通过与环境的交互,可以自动获得运行行为。 不需要人类标签的样本数据。 另外,该软件代理可以在Jetson Nano上运行。 为什么可以在Jetson Nano上运行并且学习时间短? 因为使用了SAC(软演员评论家)和VAE的集成。 SAC是最新的政策外强化学习方法。 另外,VAE预先在云服务器上作为SAC的CNN层进行训练。(这种方法称为状态表示学习)。 此方法由An
2021-07-13 11:32:16 17.25MB deep-reinforcement-learning sac jetbot jetson-nano
1
本课程为强化学习与控制,由清华大学开设,长聘教授李升波主讲,共十一讲,本讲为第八讲,主要介绍深度强化学习,即以神经网络为载体的RL,包括深度化典型挑战、经验性处理技巧等。
1
算法股票交易已经成为当今金融市场的一种主要交易方式,大多数交易现在已经完全自动化。深度强化学习(DRL)代理被证明是一种力量,在许多复杂的游戏,如国际象棋和围棋不可忽视。本文将股票市场的历史价格序列和走势看作是一个复杂的、不完全的信息环境,在这个信息环境中,本文试图实现收益最大化和风险最小化。
2021-07-09 12:06:59 1.5MB 强化学习
1
深度强化学习课程的高清课间资源,对于学习深度学习以及强化学习理论的研究人士很有帮助
2021-07-07 10:18:39 159.03MB 深度学习 强化学习
1
彩虹 Rainbow:结合深度强化学习的改进 。 结果和预先训练的模型可以在找到。 DQN Double DQN 优先体验重播 决斗网络体系结构 多步骤退货 分布式RL 吵网 使用默认参数运行原始Rainbow: python main.py 可以使用以下选项运行数据有效的Rainbow (请注意,实际上,此处通过手动设置内存容量与最大时间步数相同来实现“无界”内存): python main.py --target-update 2000 \ --T-max 100000 \ --learn-star
1
自动股票交易的深度强化学习:整体策略 该存储库提供了代码 的Jupiter Notebook重新实现了这种整体策略。 抽象的 股票交易策略在投资中起着至关重要的作用。 但是,在复杂而动态的股票市场中设计一种有利可图的战略是具有挑战性的。 在本文中,我们提出了一种深度集成强化学习方案,该方案可以通过最大化投资回报来自动学习股票交易策略。 我们训练一种深度强化学习代理,并使用三种基于行为者批评的算法来获得整体交易策略:近距离策略优化(PPO),优势参与者批评者(A2C)和深度确定性策略梯度(DDPG)。 集成策略继承并集成了三种算法的最佳功能,从而可以稳健地适应不同的市场条件。 为了避免在具有连续动作空间的训练网络中消耗大量内存,我们采用按需加载方法来处理非常大的数据。 我们在30支具有足够流动性的道琼斯股票上测试了我们的算法。 评估了具有不同强化学习算法的交易代理商的表现,并与道琼斯工业平均
1
近年来,人工智能技术已被应用于无线通信领域,以解决传统无线通信技术面对信息爆炸和万物互联等新发展趋势所遇到的瓶颈问题。首先介绍深度学习、深度强化学习和联邦学习三类具有代表性的人工智能技术;然后通过对这三类技术在无线通信中的无线传输、频谱管理、资源配置、网络接入、网络及系统优化5个方面的应用进行综述,分析和总结它们在解决无线通信问题时的原理、适用性、设计方法和优缺点;最后围绕存在的局限性指出智能无线通信技术的未来发展趋势和研究方向,期望为无线通信领域的后续研究提供帮助和参考。
1
基于深度强化学习的动态计算卸载,程百川,刘丹谱,移动边缘计算在移动网络边缘提供计算资源。为了减少执行时延,计算密集型任务可以从用户设备卸载到移动边缘服务器。当考虑到任务
2021-06-21 09:50:46 320KB 无线通信
1