ERDAS 当中的ATCOR大气校正模块及其安装教程,另一个文件CRACT请从我的资源里下载
2021-10-31 15:31:01 77.1MB ACTOR erdas
1
scala-actors-2.10 jar包,可以解决 scala-actors-2.10以上版本带来的不兼容问题
2021-10-30 17:07:26 417KB Scala actor jar
1
LabVIEW Actor 框架 示例文件 通过示例,详细介绍了Actor的使用。
2021-10-26 15:32:58 11MB LabVIEW Actor 范例 文件
1
这是论文《Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments》的pytorch复现,直接使用其开源环境Multi-Agent Particle Environment,运行main.py即可进行运行程序
SAC 使用Tensorflow的Soft Actor-Critic实现。 要求 Python3 依存关系 张量流 健身房[atari] 的OpenCVPython的 git + 用法 训练 $ python train.py [--render] 玩 $ python train.py [--render] [--load {path of models}] --demo 执行 这受到以下项目的启发。
2021-09-23 15:48:16 8KB Python
1
LabVIEW
2021-09-20 22:05:01 692KB LabVIEW
1
LabVIEW
2021-09-20 22:05:01 1.57MB LabVIEW
1
深度强化学习-分布式模块化框架 一个模块化框架,可实现即插即用的RL思想实验。 该系统是模块化的,具有针对演员,评论家,记忆,代理等的可重用类。 探索和学习在单独的Docker实例中作为单独的流程运行。 这样就可以运行多个分布式资源管理器。 这些组件在一个位置连接在一起,例如 , 。 急切地使用Tensorflow2。 跑 启动两个docker镜像,一个运行Explorer,另一个运行Learner。 scripts/both.sh 结果
2021-09-20 15:34:20 4.63MB JupyterNotebook
1
#6.3_A3C_(Asynchronous_Advantage_Actor-Critic)_(强化学习_Reinforceme
2021-09-01 21:00:30 64.32MB 学习资源
#6.1_Actor_Critic_演员评论家_(强化学习_Reinforcement_Learning_教学)
2021-09-01 21:00:29 32.33MB 学习资源