Reinforcement_learning_projects_on_premade_gym_environments Q_table_mountain_car :尝试使用Q-table解决MountainCar-v0环境。 continous_action_trial :这是用于健身房环境的连续动作空间的q表(continousMountainCar-v0)。 我包括了用于山地车和卡特波勒的q表,因此您可以看到我为实现此目的而加班所做的更改。 game_cartpole_random_weights :这是尝试使用生成的随机权重来解决CartPole-v0环境。 cartpole_qtable :使用Q表解决CartPole-v0环境 Highway_env_2 :解决Highway-v0环境。 我们的工作是通过改变车道和调节车速来导航我们的汽车。 我已经使用了DQN(深层Q网络
2021-09-10 10:35:05 8.98MB Python
1
thavlik机器学习产品组合 这是我个人深度学习项目的资料库。 监督实验 这些实验利用了随数据提供的基本事实。 医学数据的地面事实通常构成一位或多位主治医师的判断。 :按出血类型分类脑部CT扫描 :在CT扫描中定位腹部肿瘤 (WIP):使用EEG对运动活动进行细粒度检测 (WIP):单次,可区分的3D渲染 数据集 这些是我亲自编写/编辑的数据集。 运行代码 配置在yaml文件中定义,可以通过include指令进行组合,以使用最少的样板方便地形成派生实验。 可以通过将路径作为--config标志传递到输入yaml来进行实验,以将其设置为src/main.py : python3 src/main.py --config experiments/mnist/vae/fid.yaml 注意:该脚本假定当前工作目录是此存储库的根。 按照约定,yaml文件中的所有文件和目录路径都相对于存储
1
高速公路环境 自动驾驶和战术决策任务的环境集合 高速公路环境中可用环境之一的一集。 环境 高速公路 env = gym . make ( "highway-v0" ) 在这项任务中,自我车辆正在一条多车道高速公路上行驶,该高速公路上挤满了其他车辆。 代理的目标是达到高速,同时避免与相邻车辆发生碰撞。 在道路右侧行驶也有奖励。 高速公路-v0 环境。 合并 env = gym . make ( "merge-v0" ) 在这项任务中,自我车辆从主干道开始,但很快就会接近路口,进入坡道上的车辆。 代理现在的目标是保持高速,同时为车辆腾出空间,以便它们可以安全地并入交通。 merge-v0 环境。 迂回 env = gym . make ( "roundabout-v0" ) 在此任务中,自我车辆是否接近交通流量较大的环形交叉路口。 它将自动遵循其计划路线,但必须处理车
1
动手使用Python进行元学习:使用Tensorflow使用一键式学习,MAML,爬行动物,Meta-SGD等进行学习学习
1
#2.3_Q_Learning_思维决策_(强化学习_Reinforcement_Learning_教学)
2021-09-01 22:00:21 22.82MB 学习资源
#2.2_Q_Learning_算法更新__(强化学习_Reinforcement_Learning_教学)
2021-09-01 22:00:18 26.08MB 学习资源
#2.1_简单例子__(强化学习_Reinforcement_Learning_教学)
2021-09-01 22:00:16 34.49MB 学习资源
#2_要求准备__(强化学习_Reinforcement_Learning_教学)
2021-09-01 22:00:14 12.5MB 学习资源
#1_why__(强化学习_Reinforcement_Learning_教学)
2021-09-01 22:00:09 4.19MB 学习资源
#6.4_PPO_DPPO_Proximal_Policy_Optimization_(强化学习_Reinforcement_L
2021-09-01 21:00:30 40.32MB 学习资源