DRL用于微电网能源管理 我们针对微电网的能源管理系统问题研究了各种深度强化学习算法的性能。 我们提出了一种新颖的微电网模型,该模型由风力涡轮发电机,储能系统,恒温控制负载,价格响应负载以及与主电网的连接组成。 拟议的能源管理系统旨在通过定义优先级资源,直接需求控制信号和电价来在不同的灵活性来源之间进行协调。 本文实现了七种深度强化学习算法,并进行了实证比较。 数值结果表明,不同的深度强化学习算法在收敛到最优策略的能力上存在显着差异。 通过将经验重播和第二个半确定性训练阶段添加到众所周知的“异步优势演员评论家”算法中,我们获得了更好的性能,并且在能效和经济价值方面收敛于高级策略。 有关此项目的更多信息,访问: :
2022-08-25 22:54:53 22.94MB HTML
1
强化学习作为机器学习及人工智能领域的一种重要方法,在游戏、自动驾驶、机器人路线规划等领域得到了广泛的应用。
2022-08-25 17:05:06 179.38MB 人工智能
1
深入浅出强化学习:原理入门
2022-08-24 09:07:41 112.32MB
1
改善败血症治疗策略 这是论文“使用深度强化学习和专家混合改善脓毒症治疗策略”的代码库 评论者评论 表1中的数据清楚地显示了数据集幸存者/非幸存者的失衡率。 学习不平衡会导致分类器的预测模型出现偏差。 但是,作者没有详细说明他们如何通过使用特定的重新平衡方法或对成本敏感的学习方法来解决此问题,但未提供任何评论。 数据集分为固定的75%训练和验证集和25%的测试集。“->作者应使用10倍交叉验证。 如表2所示,尽管他们的专家混合(MoE)方法的性能在数值上优于医师,内核和DQN的性能,但分析这种数值增加的显着性还是不错的。 随机策略会产生什么效果? 有没有一种方法可以衡量这些方法之间的性能差异的重要性? 本文未介绍其方法的任何时间性能。 训练这种方法需要多长时间? 这个培训时间对于为ICU患者制定个性化治疗策略是否可行? RL和Deep网络都因训练时间长而臭名昭著。 动机 败血症是IC
2022-08-16 14:27:18 478KB JupyterNotebook
1
基于MATLAB和Simulink Robotics Arena的行走机器人示例
2022-08-15 09:08:34 149.81MB 机器人 人工智能 强化学习 神经网络
1
本书首次在工业界系统地披露强化学习在实践应用的技术细节,其中更包含了阿里算法工程师对强化学习的深入理解、思考和创新。此书共有12个章节,作者团队跨越了多个阿里核心算法团队,可谓是最强阵容打造的黄金进阶书籍。
2022-08-06 23:00:06 17.55MB 强化学习 阿里 虚拟技术 现实应用
1
深度强化学习,Deep Reinforcement Learning by Sergey Levine,172页英文文档。
2022-08-04 00:05:25 10.34MB 强化学习 Levine
1
计算机基础操作系统思维导图
2022-08-02 09:00:47 20.56MB 强化学习
1
Oracle Database 19c 是最新的长期版本,支持期限最长; 19.3 - 企业版(也包括标准版 2) 适用于WINDOWS X64位系统。
2022-07-30 09:04:30 1.17MB oracle 开发工具 数据库 强化学习
1
Q-learning with epsilon-greedy explore Algorithm for Deterministic Cleaning Robot V1 确定性清洁机器人 MDP 清洁机器人必须收集用过的罐子也必须为其充电电池。 状态描述了机器人的位置和动作描述运动的方向。 机器人可以向左移动或向左移动正确的。 第一个 (1) 和最后 (6) 个状态是终端状态。 目标是找到最大化回报的最优策略从任何初始状态。 这里是 Q-learning epsilon-greedy 探索使用算法(在强化学习中)。 算法 2-3,来自: @book{busoniu2010reinforcement, title={使用函数逼近器的强化学习和动态规划}, 作者={Busoniu,Lucian 和 Babuska,Robert 和 De Schutter,Bart 和 Ernst,Damien
2022-07-29 00:17:17 3KB matlab
1