根据输入的介电常数实部、虚部、磁导率实部、虚部、频率(2~18单位GHZ)、厚度(单位毫米mm)。输出对应的材料模拟的反射损耗。
2021-04-29 17:01:49 478B 吸波材料 反射损耗 RL reflectionloss
1
强化学习最新综述新鲜出炉。在这篇文章中,作者对强化学习进行了全面的研究,包括现有的挑战、不同技术的最新发展以及未来的发展方向。文章致力于提供一个清晰简单的研究框架,能够为新的研究人员或者想全面了解强化学习领域的人提供一个参考。
2021-04-28 09:38:55 437KB RL
1
使用Pytorch实现的深度RL算法 算法列表: 关于深入探讨 实验结果: 算法 离散环境:LunarLander-v2 连续环境:Pendulum-v0 DQN -- VPG -- DDPG -- TD3 -- SAC -- PPO -- 用法: 只需直接运行文件/算法。 在我学习算法时,它们之间没有通用的结构。 不同的算法来自不同的来源。 资源: 未来的项目: 如果有时间,我将为使用RL的电梯添加一个简单的程序。 更好的图形
2021-04-26 01:35:45 391KB algorithms ddpg sac ppo
1
雷达系统模拟radar sisytem simulation中文版(美)米切尔(R.L. Mitchell)著,经典著作。1982版。
2021-04-19 15:41:37 5.71MB 雷达系统模拟
1
Keras的深度强化学习 它是什么? keras-rl在Python中实现了一些最先进的深度强化学习算法,并与深度学习库无缝集成。 此外, keras-rl可与一起使用。 这意味着评估和使用不同算法很容易。 当然,您可以根据自己的需要扩展keras-rl 。 您可以使用内置的Keras回调和指标,也可以定义自己的回调和指标。 更重要的是,只需扩展一些简单的抽象类,即可轻松实现自己的环境甚至算法。 文档可。 包含什么? 到目前为止,已实现以下算法: 深度Q学习(DQN) , Double DQN 深度确定性策略梯度(DDPG) 连续DQN(CDQN或NAF) 交叉熵方
1
Koopman-RL:数据驱动的库普曼控制理论在强化学习中的应用!
2021-04-14 16:39:32 158KB Python
1
RL-UM02WBS-8723BU是纳拓科技应用RTL8723BU开发设计的USB接口符合BT4.0标准蓝牙wifi二合一模块
2021-04-13 16:39:35 1.39MB RTL8723BU RL-UM02WBS BT4.0模块
1
:chart_increasing:如何用深度强化学习自动炒股 :light_bulb:初衷 最近发生的事故,受到新冠疫情的影响,股市接连下降,作为一棵小白菜兼小韭菜,竟然产生了抄底的大胆想法,拿出仅存的一点私房钱梭哈了一把。 第二天,暴跌,俺加仓 第三天,又跌,俺加仓 第三天,又跌,俺又加仓... 一番错误操作后,结果严重不堪重负,第一次买股票就被股市一段暴打,受到了媳妇无情的嘲讽。痛定思痛,俺决定换一个思路:如何用深度强化学习来自动模拟炒股?实验验证一下能否获得收益。 :open_book:监督学习与强化学习的区别 监督学习(如LSTM)可以根据各种历史数据来预测未来的股票的价格,判断股票是涨还是跌,帮助人做决策。 而强化学习是机器学习的另一个分支,在决策的时候采取适当的行动(Action)使最后的奖励最大化。与监督学习预测未来的数值不同,强化学习根据输入的状态(如当日开盘价,收盘价等),输出系列动作(例如:买进,持有,卖出),从而最后的收益最大化,实现自
2021-04-11 14:03:47 4.14MB JupyterNotebook
1
动态链接
2021-03-28 10:04:01 70KB 动态链接rtv
1
RL_Basics_Book '바닥부터강화학습'예제。다。
2021-03-25 13:08:03 3KB Python
1