一个可用于为矩阵乘法等基本任务发现新颖、高效且可证明正确的算法的人工智能系统
2022-11-11 09:33:17 1.9MB Alphatensor 强化学习
1
多智能体强化学习pymarl框架和smac环境以及安装包
2022-11-10 20:23:52 500.38MB 强化学习 人工智能
1
用matlab实现多视图聚类算法
2022-11-10 20:23:51 1KB 机器学习
1
给定左右两幅图像,利用自适应窗口算法进行视差估计,采用左图预测右图时,采取与类似于运动估计的方法,对左图进行“扭曲”后再作为右图的预测图像。利用自适应窗口算法对实现视差估计,算出视差矢量,以此计算其视差补偿预测图像的误差,从而求得残差图。
2022-11-10 20:15:13 4.12MB 视差
1
2048健身房 该存储库是一个有关使用DQN(Q-Learning)玩2048游戏并使用加速和加速环境的。使用的算法来自“ ,环境是自定义的 env。该环境包含两种类型的电路板表示形式:二进制和无二进制。第一个使用幂二矩阵来表示电路板的每个图块。相反,没有二进制文件使用原始矩阵板。 该模型使用两种不同类型的神经网络:CNN(卷积神经网络),MLP(多层感知器)。使用CNN作为特征提取器比使用MLP更好。可能是因为CNN可以提取空间特征。结果,代理在1000个已玩游戏的10%中获得2048个图块。 奥图纳 Optuna是一个自动超参数优化软件框架,专门为机器学习而设计。它具有命令式,按运行定义样式的用户API。多亏了我们的运行定义API,用Optuna编写的代码具有高度的模块化,并且Optuna的用户可以动态构造超参数的搜索空间。 还有就是如何使用这个库指南。 Numba 是一种开源JI
1
Snake-AI:使用深度强化学习训练的Snake游戏
2022-11-10 11:18:59 2KB Python
1
RLDiceGame 介绍 该存储库中的代码实现了一个简单的框架,用于骰子游戏中的强化学习强化学习是指能够从反复试验中学习的机器学习框架。 该框架很大程度上归功于马尔可夫决策过程:每个步骤都由一个状态和在该状态下要执行的选定动作来描述。 下一步包含通过对初始状态执行操作而计算出的新状态。 强化学习增加了一种反馈机制,该机制允许所计算的动作响应于外部提供的分数而改变。 增强型学习与监督式学习相反,后者是一种指导机器根据已知分类对状态进行分类的方法,而无监督式学习则是一种无监督学习的方法,后者是一种机器在训练数据中标识自己的集群的方法。 在强化学习中,提供的反馈是基于初始状态和采取的措施的得分。 作为特定示例,Blue Orange Games为流行的骰子游戏Yamslam提供了训练工具。 线束和游戏仅实现一轮Yamslam,包括初始掷出5个6面骰子,决定保留5个初始掷骰子的子集,然后
2022-11-10 11:09:53 88KB Python
1
超级马里奥兄弟的深度强化学习 描述 背景信息:超级马里奥兄弟(SMB)是一款流行的动作游戏,具有“真实的”环境和广阔的状态空间,是设计可玩计算机游戏的强化学习代理的理想平台。 该代理要求与世界上的各种对象和障碍进行交互,以鼓励采用知识丰富的学习方法。 方法-我们使用了OpenAI Gym提供的框架。 超级马里奥兄弟体育馆并从游戏环境中提取了信息,以使用PPO训练RL特工。 我们还向环境引入了预处理方法,例如帧缩放,随机跳帧,帧堆叠和噪声网,以提高代理的性能。 通过引入回滚操作来提高训练的稳定性,可以创建PPO的变体。 结果:该方法成功地训练了能够在20个小时的训练后完成水平的特工。 我们成功实现了一种方法,该方法可以比常规PPO实施更好地执行,在不应用数据预处理的情况下性能提高了50%,在应用数据预处理的情况下性能提高了10%。 工具 Pytorch已被用作主要的机器学习库 由于SMB
2022-11-09 22:52:04 18.11MB reinforcement-learning Python
1
EIT / UTT双模态成像的自适应局部加权图像重建算法
2022-11-09 20:14:32 281KB 研究论文
1
详细的介绍了自适应kalman 滤波器,很实用
2022-11-09 14:19:26 760KB 自适应 kalman
1