:中山大学体育场馆管理与预定系统助手 使用方法 Chrome浏览器安装扩展 访问, 点击安装 访问开启愉悦订场体验 适用场地 目前适用于大部分可自主选择场地的场地预定, 如: 南校园新体育馆羽毛球场 南校园新体育馆乒乓球室 北校园网球场 东校园羽毛球场 珠海校区新体育馆网球场 珠海校区新体育馆羽毛球场 珠海校区乒乓球室 ...... 主要功能 自动刷新订场, 无需人工等待 订场成功后自动付款 移除仅允许在 6:00-22:00 进行订场操作的限制 自定义刷新间隔 自定义场地选择数量上限 界面示例 加载自选日期 自动刷新订场 维护日志 记录于中 其他说明 该源码仅供学习交流使用 水平有限, 代码多是堆凑, 编码不规范, 逻辑有点乱, 敬请谅解
2021-09-19 10:14:18 2.72MB JavaScript
1
北京邮电大学沙河校区健身房预约脚本 该脚本用于预约北京邮电大学沙河校区健身房,引用/使用请遵循GPLv3开源协议。 依赖 Python 3.8.5(开发环境) 请求:发送HTTP请求 BeautifulSoup4:解析html页面 ExecJs:用于执行页面上JavaScript脚本 PyCryptoDome:AES加密 NodeJs:提供JS运行时 特性 高可用,在大部分环境下合理部署使用 高可拓展性,方便二次开发 (任选)使用Server酱进行消息推送 更新日志 2020/11/25添加提示功能,添加概率启动功能(为防止被服务器禁掉) 2020/11/26解决十点无法预约的bug 2020/11/27现在如果发生预约失败,将会失败的元素重新遍历一次进行预约;加入主页缓存,如果检测到已经登录,可以直接利用检测留下的页面进行预约的查询 2021/3/28添加黑名单功能,现在可以用正则
2021-09-18 15:51:17 29KB Python
1
Reinforcement_learning_projects_on_premade_gym_environments Q_table_mountain_car :尝试使用Q-table解决MountainCar-v0环境。 continous_action_trial :这是用于健身房环境的连续动作空间的q表(continousMountainCar-v0)。 我包括了用于山地车和卡特波勒的q表,因此您可以看到我为实现此目的而加班所做的更改。 game_cartpole_random_weights :这是尝试使用生成的随机权重来解决CartPole-v0环境。 cartpole_qtable :使用Q表解决CartPole-v0环境 Highway_env_2 :解决Highway-v0环境。 我们的工作是通过改变车道和调节车速来导航我们的汽车。 我已经使用了DQN(深层Q网络
2021-09-10 10:35:05 8.98MB Python
1
高速公路环境 自动驾驶和战术决策任务的环境集合 高速公路环境中可用环境之一的一集。 环境 高速公路 env = gym . make ( "highway-v0" ) 在这项任务中,自我车辆正在一条多车道高速公路上行驶,该高速公路上挤满了其他车辆。 代理的目标是达到高速,同时避免与相邻车辆发生碰撞。 在道路右侧行驶也有奖励。 高速公路-v0 环境。 合并 env = gym . make ( "merge-v0" ) 在这项任务中,自我车辆从主干道开始,但很快就会接近路口,进入坡道上的车辆。 代理现在的目标是保持高速,同时为车辆腾出空间,以便它们可以安全地并入交通。 merge-v0 环境。 迂回 env = gym . make ( "roundabout-v0" ) 在此任务中,自我车辆是否接近交通流量较大的环形交叉路口。 它将自动遵循其计划路线,但必须处理车
1
#4.4_OpenAI_Gym_using_Tensorflow_(强化学习_Reinforcement_Learning_教学
2021-09-01 21:00:20 29.84MB 学习资源
【python逆强化学习系列】学徒学习+gym的MountainCar仿真(建议Linux环境运行),内涵requirments.txt环节配置文件,Human Expert制作单步仿真文件,训练曲线(png)和效果图(gif)。
2021-08-27 19:14:43 252KB python 逆强化学习 学徒学习 gym
1
相扑 SUMO-RL通过用于交通信号控制的提供了一个简单的界面来实例化强化学习环境。 主类继承了的 。 如果使用参数'single-agent = True'实例化,则其行为类似于来自的常规 。 负责使用 API检索信息并在交通信号灯上。 该存储库的目标: 提供一个简单的界面,以与使用SUMO的交通信号控制强化学习一起使用 支持Multiagent RL 与gym.Env和流行的RL库(例如和 易于定制:状态和奖励定义易于修改 安装 安装最新版本的SUMO: sudo add-apt-repository ppa:sumo/stable sudo apt-get update sudo apt-get install sumo sumo-tools sumo-doc 不要忘记设置SUMO_HOME变量(默认的sumo安装路径为/ usr / share / sumo) ec
2021-08-26 13:54:45 583KB reinforcement-learning gym sumo rl-algorithms
1
静脉-健身房 Veins-Gym将Veins模拟导出为Open AI Gyms。 这使得强化学习算法的应用能够解决VANET域中的问题,特别是诸如Tensorflow或PyTorch之类的流行框架。 执照 该项目根据GNU通用公共许可证2.0的条款获得许可。
2021-08-18 12:29:36 16KB simulator reinforcement-learning openai-gym sumo
1
torcs简单示例代码
2021-08-17 18:12:05 156.34MB 机器学习 TORCS
1
自动股票交易的深度强化学习:整体策略 该存储库提供了代码 的Jupiter Notebook重新实现了这种整体策略。 抽象的 股票交易策略在投资中起着至关重要的作用。 但是,在复杂而动态的股票市场中设计一种有利可图的战略是具有挑战性的。 在本文中,我们提出了一种深度集成强化学习方案,该方案可以通过最大化投资回报来自动学习股票交易策略。 我们训练一种深度强化学习代理,并使用三种基于行为者批评的算法来获得整体交易策略:近距离策略优化(PPO),优势参与者批评者(A2C)和深度确定性策略梯度(DDPG)。 集成策略继承并集成了三种算法的最佳功能,从而可以稳健地适应不同的市场条件。 为了避免在具有连续动作空间的训练网络中消耗大量内存,我们采用按需加载方法来处理非常大的数据。 我们在30支具有足够流动性的道琼斯股票上测试了我们的算法。 评估了具有不同强化学习算法的交易代理商的表现,并与道琼斯工业平均
1