吉林大学软件学院卓班程序设计综合实践代码中国象棋和Pong游戏设计 中国象棋程序是基于Java语言开发的,其核心是博弈算法——Alpha-Beta算法。为了简化操作,减少各种运算,我们将棋盘的棋子放置在一个chess[256]数组中。为了让象棋程序走法更强大,我们简略实现了棋子前中后期动态价值表,同时让棋盘一些棋子价值相互联系,调整了棋力价值表。中国象棋现有的功能是能选择象棋难度;选择开局方式;终止比赛。未来希望引入开局库和残局库来加快搜索速度。 Pong游戏是基于C++语言开发的,其核心是深度学习算法。
2022-04-10 00:22:53 17.09MB 吉林大学 程序设计
1
通过串行 RS232 在 Xilinx FPGA 上进行 Verilog HDL Pong 游戏。 该项目在 XUPV2P 板上开发。 对于另一块板,只需将 verilog (*.v) 文件复制到新项目中即可轻松移植。 特征: 开始菜单 分数 2人 使用键盘通过 RS232 作为输入 [W,S , Up,Down] 进行控制 TODO:(欢迎贡献。) 添加颜色 秘籍 物品 其他版本 许可证:麻省理工学院许可证。 *您可以使用终端或腻子在 RS232(无差异位)协议上进行通信。 如果您有问题,请确保设置的 buad rate 正确,另一个可能是计时。 感谢:fpga4fun.com for RS232 Transmitter/Receiver
2021-12-22 20:49:55 1.64MB Verilog
1
乒乓球 鼠标控制的单人乒乓球游戏。 工作演示 代码笔: ://codepen.io/pwdonald/full/YPMzNx/
2021-12-13 10:29:50 3KB javascript pong pong-game JavaScript
1
深度强化学习指南(与Keras和OpenAi体育馆一起使用) 使用Keras和OpenAi体育馆进行深度强化学习策略梯度方法的分步教程。 在这个简短的项目中,我们将使用强化学习算法(策略梯度方法-REINFORCE)训练神经网络玩Pong游戏。 如果要运行它,则只需克隆存储库,然后打开钢筋_learning_pong_keras_policy_gradients.ipynb ,然后阅读并运行笔记本 我们训练了一个简单的200个隐藏的神经元网络和一个卷积模型。 简单网络的示例播放: 简单网络玩游戏的视频( ): 卷积网络玩游戏的视频( ): 考虑到有限的时间和出于学习目的,我并不是要寻找一个受过良好训练的代理,但我希望这个项目可以帮助人们熟悉rl算法和keras的基本过程。 上面的视频花了3天时间让代理在慢速的计算机上学习。 为了获得生产结果,需要更多的培训和调整,这不是我
2021-12-12 21:46:08 9.8MB tutorial reinforcement-learning ai guide
1
简单的乒乓球游戏-Pygame- 一个用python和pygame制作的简单乒乓球游戏 这个程序最初是由 pygame.org 创建者 Baris Bayrak (garib) 创建的他的代码: ://www.pygame.org/project-Very+simple+Pong+game-816-.html 我刚加了两个玩家,一局11胜2个技师 玩(在 Mac 上,对不起你的 Windows 用户,我想你会打开它,但是你在 Windows 上打开 .py 文件): 确保你安装了 Python 2.7 和 Pygame 1.9 打开终端 cd 到您放置 PONG_GAME.py 文件的任何文件夹 在终端中输入“python PONG_GAME.py”并按回车 游戏将启动 当玩家获胜时,程序将暂停 现在,您必须返回终端以获取胜利消息 全部做完。 要再次播放,请从第 4 步开始重复
2021-12-11 11:14:02 2KB Python
1
乒乓 使用 OpenGL 库在 Java 中创建的乒乓球游戏。
2021-11-20 21:36:16 20.28MB Java
1
统一3D乒乓球 Unity中的3D Pong游戏。
2021-11-19 10:22:22 1KB
1
另一个乒乓球比赛 Unity和<3制作的另一种Pong游戏 版本1.0.0 基本的游戏玩法。 (1台和1台同一台计算机) 版本1.1.0 基本的游戏玩法。 (1台和1台同一台计算机) 最初的Android支持。 (1对1个相同的手机) 版本1.2.0 基本声音用法(在球员进球/获胜时,在碰球时) 计分板
2021-11-19 10:13:05 338KB C#
1
DQN-雅达利 深度Q网络实现。 实施从论文《和得出。 结果 游戏视频-DQN Nature Paper 每集奖励 实施摘要 DQN自然架构实施 输入:84×84×4图像(使用历史记录的最后4帧) 转换层1:32个8×8滤光片,步幅为4 转换层2:64个4×4步幅的滤镜 转换层3:64个3×3滤光片,步幅为1 完全连接1:完全连接,由256个整流器单元组成 输出:完全连接的线性层,每个有效动作均具有单个输出。 DQN Neurips架构实施 输入:84×84×4图像(使用历史记录的最后4帧) 转换层1:16个8×8滤光片,步幅为4 转换层2:32个4×4步幅的滤镜 完全连接1:完全连接,由256个整流器单元组成 输出:完全连接的线性层,每个有效动作均具有单个输出。 其他参数 优化器:RMSProp 批量大小:32 电子贪婪:0.1 怎么跑 创建一个新环境 例子: conda
2021-10-28 09:30:51 19.97MB machine-learning reinforcement-learning pong pytorch
1
#Pong 经典的 Atari Pong 游戏! 玩。 科迪·麦克纳马拉和达娜·雅库宾斯基 ####指示: 使用向上和向下箭头移动您的桨 享受!
2021-10-28 09:05:21 367KB JavaScript
1