人工智能工具包 OpenAI.7z
2022-07-06 15:04:24 913KB 人工智能
ddpg-aigym 深度确定性策略梯度 Tensorflow中深度确定性策略梯度算法的实现(Lillicrap等人 。) 如何使用 git clone https://github.com/stevenpjg/ddpg-aigym.git cd ddpg-aigym python main.py 培训期间 一旦训练 学习曲线 InvertedPendulum-v1环境的学习曲线。 依存关系 Tensorflow(在tensorflow版本0.11.0rc0 ) OpenAi体育馆 Mujoco 产品特点 批量归一化(提高学习速度) 梯度转换器(在arXiv中提供: ) 注意 使用不同
1
人工智能工具包 OpenAI
2022-06-02 22:01:34 883KB 人工智能 源码软件
健身房 基于OpenAI Gym的多代理环境的集合。 安装 使用PyPI: pip install ma-gym 直接从来源: git clone https://github.com/koulanurag/ma-gym.git cd ma-gym pip install -e . 参考: 如果您想引用它,请使用此bibtex: @misc{magym, author = {Koul, Anurag}, title = {ma-gym: Collection of multi-agent environments based on OpenAI gym.}, year = {2019}, publisher = {GitHub}, journal = {GitHub repository}, howpublish
1
AIgym_Acrobat_Q_learning:通过openAi Gym在Acrobat-v01上进行einforcmend学习
2022-03-26 23:46:36 4KB Python
1
CLIP图像分类 使用 from classify import load , classify filename = "/content/input.jpg" load_categories = "imagenet" print ( "loading categories" ) load ( load_categories ) print ( "classifying" ) print ( classify ( filename )) load load ( "imagenet" ) #imagenet categories load ( "pokemon" ) #loads a list of 721 pokemon names as categories load ( "dog vs cat" ) #dog and cat as categories load ( "words i
1
带文本生成器的GPT2-Pytorch 更好的语言模型及其含义 我们的模型称为GPT-2(是的继承者),仅经过培训即可预测40GB的互联网文本中的下一个单词。 由于我们担心该技术的恶意应用,因此我们不会发布经过训练的模型。 作为负责任公开的一项实验,我们将发布一个供研究人员进行实验的以及一份。 来自 该存储库是有关Pytorch中带有压缩代码的文本生成器的简单实现GPT-2 原始曲目是 。 您也可以阅读有关gpt-2的论文, 。 为了理解更详细的概念,我建议您阅读有关变压器模型的论文。 我在Pytorch中实现了GPT-2的良好实现, ,您可以在havingface存储库中看到更多详细的实现。 变形金刚(自我关注)论文:只 OpenAi-GPT的第一篇论文: 请参阅有关GPT-2和Paper的 快速开始 在Pytorch中下载GPT2预训练模型,该模型已经完成了face / pytorch-pretrained-BERT的制作! (感谢分享!这有助于我将tensorflow(ckpt)文件传输到Pytorch模型的问题!) $ git clone https://g
1
Breakout-RL:使用带有CNN的DQN解决OpenAI Gym Env突破
2022-02-24 16:30:50 5KB JupyterNotebook
1
DRQN-张量流 使用Tensorflow,openai / gym和openai / retro进行深度递归Q学习 该存储库包含用于在 Atari和环境上训练DQN或DRQN的代码。 请注意,到目前为止,在Retro环境中的训练都是完全实验性的,必须包装这些环境以将动作空间减少到每个游戏所有动作的更合理的子空间。 当前实现的包装仅对SEGA Sonic环境有意义。 安装 您可以通过发出以下命令来安装所有依赖项: pip install -r requirements.txt 这将在没有GPU支持的情况下安装Tensorflow。 但是,我强烈建议使用带有GPU支持的Tensorflow,否则培训将花费很长时间。 有关此主题的更多信息,请参见 。 为了运行复古环境,您必须收集要玩的游戏的rom并将其导入: : 跑步 您可以通过以下方式开始培训: python main.py --
2022-02-24 09:40:53 63.17MB tensorflow retro openai-gym dqn
1
Actor-Critic方法中的地址函数逼近误差 双延迟深度确定性策略梯度(TD3)的PyTorch实现。 如果您使用我们的代码或数据,请引用。 在连续控制任务上进行了测试。 使用和Python 3.7训练网络。 用法 可以通过运行以下操作来重现论文结果: ./experiments.sh 可以通过调用以下命令来运行单个环境的实验: python main.py --env HalfCheetah-v2 可以使用main.py的不同参数修改超参数。 我们包括了DDPG(DDPG.py)的实现,本文不使用该实现,以便于将超参数与TD3轻松进行比较。 这不是本文中使用的“ Our DDPG”的实现(请参阅OurDDPG.py)。 可以在找到TD3与之比较的算法(PPO,TRPO,ACKTR,DDPG)。 结果 代码不再完全代表本文中使用的代码。 对超参数等进行细微调整,以提高性能。 学
2022-02-13 21:54:46 121KB Python
1