Deep Reinforcement Learning深度强化学习Deep Reinforcement Learning, 2017
2021-12-30 14:55:59 3.41MB 深度强化学习
1
DeepQLearning.jl 如使用所述,DeepMind的Deep Q-Learning算法的Julia实现。 此代码仅实现基本算法。 它不包括卷积网络的代码。 但是,可以使用Mocha.jl轻松添加。 取而代之的是,它使用了更简单的单层神经网络。 有关原始 注意:此库已经过各种学习任务的测试,似乎可以正常运行,但尚未准备好供公众使用。 范例程式码 using DeepQLearning ... coming soon ... I hope :) ## Dependencies此库需要 。 ## Credits该库借鉴了的作品 执照 麻省理工学院
2021-12-29 16:55:27 6KB Julia
1
DQ-MM DQ-MM基于Trading Gym,这是一个开放源代码项目,用于在交易环境中开发强化学习算法。 它目前由一个单一的环境组成,并采用一种通用的方式为该交易环境提供不同类型的价格数据。 该项目的重点是2级数据,即在限价单中使用深度和价格水平。 安装 pip install tgym 我们强烈建议使用虚拟环境。 可以在找到一个很好的指南。 交易环境: SpreadTrading SpreadTrading是一家贸易环境,允许进行交易差价(见 )。 我们为环境提供n个不同产品的价格(出价和要价)的时间序列(使用DataGenerator ),以及价差系数列表。 然后可能采取的行动是买入,卖出或持有该点差。 不能孤立地对一只或几只腿采取措施。 环境状态定义为:价格,入场价格和头寸(多头,空头或持平)。 创建自己的DataGenerator 要创建自己的数据生成器,它必须继承自D
2021-12-29 15:58:16 4.89MB Python
1
我们将深度Q-Learning成功背后的理念与持续的 动作域。我们提出了一种基于确定性模型的无模型算法 可以在连续动作空间上操作的策略梯度。使用 同样的学习算法,网络结构和超参数,我们的算法 稳健地解决20多个模拟物理任务,包括经典 如手推车摆动、灵巧操作、腿部运动等问题 还有开车。我们的算法能够找到性能具有竞争力的策略 与那些发现的规划算法完全访问的动态 域及其衍生物的。我们进一步证明,对于许多 任务算法可以“端到端”学习策略:直接从原始像素输入。
2021-12-29 13:02:26 668KB 深度学习 强化学习 机器人 运动控制
1
matlab的egde源代码FastAP:深度度量学习排名 该存储库包含以下论文的实现: *,* 、、和(*均等贡献) IEEE计算机视觉与模式识别会议(CVPR),2019年 用法 Matlab :请参阅matlab/README.md PyTorch :请参阅pytorch/README.md 数据集 斯坦福在线产品可以下载 店内衣服检索可以下载 北大车辆识别码请向作者索取数据集 重现性 我们为论文中的结果提供训练有素的模型和实验记录。 这些模型用于获得表中的结果。 日志还包括参数设置,如果需要的话,可以使他们重新训练模型。 它还包括在某些时期的带有模型检查点的评估结果。 表1:斯坦福在线产品 FastAP,ResNet-18,M = 256,Dim = 512:[,] FastAP,ResNet-50,M = 96,Dim = 128:[,] FastAP,ResNet-50,M = 96,Dim = 512:[,] FastAP,ResNet-50,M = 256,Dim = 512:[,] 表2:店内衣服 FastAP,ResNet-18,M = 256,Dim = 512:
2021-12-28 09:43:57 99KB 系统开源
1
自动驾驶中的深度强化学习 最适合离散操作:4名工人,学习率1e-4 无法使其在连续动作空间中正常工作; 它产生的动作出了问题 A3C创意 总览 人工神经网络的架构
2021-12-27 23:11:40 224.81MB python multi-threading deep-neural-networks latex
1
强化学习范式原则上允许复杂行为 直接从简单的奖励信号中学习。然而,在实践中,情况确实如此 常见的手工设计奖励功能,以鼓励特定的 解决方案,或从演示数据中导出。本文探讨了如何丰富 环境有助于促进复杂行为的学习。明确地 我们在不同的环境环境中培训代理人,并发现这鼓励了他们 在一系列任务中表现良好的稳健行为的出现。 我们为运动演示了这一原则——众所周知的行为 他们对奖励选择的敏感度。我们在一个平台上训练几个模拟物体 使用一个简单的奖励功能,可以设置各种具有挑战性的地形和障碍 基于向前的进展。使用一种新的可伸缩策略梯度变体 强化学习,我们的特工可以根据需要学习跑、跳、蹲和转身 在没有明确的基于奖励的指导的环境下。对……的视觉描绘 学习行为的要点可以在本视频中查看。
2021-12-24 12:08:07 2.23MB 深度学习 强化学习 机器人 运动控制
1
RL4StockTrading 使用深度强化学习进行股票交易
2021-12-23 11:06:52 4.97MB Python
1
DRL_GBI 我项目的代码和相关工作-结合(深度)强化学习和基于目标的投资 该项目已被选为2020年Spring商务毕业项目中的顶级项目。 还可以在Hanlon实验室网站上找到简短说明: : DDPG的代码设计 关于: 到目前为止,我已经上传了一个目标的DDPG代码。 我主要使用Stable_Baselines实现DDPG,并根据Gym界面自定义环境,以解决退休计划中指定的投资组合优化问题。 通过设置步长,我可以定期调整重量。 用法: 运行“ main_ddpg.py”并查看结果。 或者只是检查文件“结果”即可快速查看我的图。 我使用Callback监视我的训练并加载best_model来绘制结果。 数据集: 根据霍姆斯库博士的建议,我使用的投资组合包括: 4种股票指数:iShares罗素中型ETF,iShares罗素200强ETF,S&P 500指数和SPDR MSCI
2021-12-23 11:05:51 4.96MB R
1
基于Deep Reinforcement Learning的自主车辆导航
2021-12-19 22:45:56 397KB Python开发-机器学习
1