用于深度学习和神经网络训练的五连子(五子棋)棋局数据。 共1000个数据文件,每个数据文件对应着一局对弈。 每个数据文件按行记录着从第一步落子到最后一步落子的信息,第一行是第一步落子,第二行是第二步落子,依此类推。 每一行按顺序记录着落子的X位置、Y位置、落子者,落子者为-1表示黑棋,+1表示白棋。
1
用于深度学习和神经网络训练的六连子棋局数据。 共500个数据文件,每个数据文件对应着一局对弈。 每个数据文件按行记录着从第一步落子到最后一步落子的信息,第一行是第一步落子,第二行是第二步落子,依此类推。 每一行按顺序记录着落子的X位置、Y位置、落子者,落子者为-1表示黑棋,+1表示白棋。
1
无约束优化实践 训练一个神经网络 优化理论实践 用了一周的时间学习了一下最优化理论这门课,为了更深度地理解各种优化方法的理念和算法过程,自己把这些算法应用到实践中是很必要的。为此我设计了和优化算法相关的四个实验项目,在这里和大家分享一下。 无约束优化方法 前馈神经网络 根据链式法则,从输出层直接对误差函数求导得到的误差(这里我们简写为δ),就可以通过和上面的这些局部导数不断做乘积、并把新的δ传播到上一层,就能计算得到所有参数的导数。通过一阶导数,就能实现基本的梯度优化方法。 训练方法 神经网络可以很好地处理函数拟合问题,因为模型带有大量可调节的参数,而且内置了非线性的激励函数,这
2022-01-02 20:37:44 528KB delta函数 优化 导数
1
用于在MNIST数据集上训练和测试简单神经网络的完整代码,以识别0到9之间的单个数字(准确度约为98%)。 一切都从头开始实现,包括Adam优化器。 确保所有文件都在当前文件夹中,然后运行“ train.m”。 查阅http://neuralnetworksanddeeplearning.com/index.html来了解神经网络的理论,以及https://arxiv.org/abs/1412.6980来了解Adam优化器!
2021-12-29 23:53:08 14.77MB matlab
1
蛇游戏 使用神经网络训练蛇玩蛇游戏。 该项目使用Keras模块构建神经网络和PyGame,以创建用户界面。 Keras:TensorFlow和Theano的深度学习库 Keras是用Python编写的高级神经网络库,能够在或。 它的开发着重于实现快速实验。 能够以最小的延迟将想法付诸实践是进行良好研究的关键。 如果您需要一个深度学习库,请使用Keras: 允许轻松快速地进行原型制作(通过整体模块化,极简主义和可扩展性)。 支持卷积网络和循环网络,以及两者的组合。 支持任意连接方案(包括多输入和多输出训练)。 在CPU和GPU上无缝运行。 阅读的文档。 Keras兼容于: Python 2.7-3.5 。 安装 Keras使用以下依赖项: numpy,scipy pyyaml HDF5和h5py(可选,如果使用模型保存/加载功能,则为必需) 可选,但如果使用CNN,则建
2021-12-09 16:27:46 6KB Python
1
最经典的神经网络就是BP神经网络,对神经网络的训练至关重要,本文讨论如何合理选取样本集容量
2021-12-09 14:34:09 2.34MB BP神经网络 训练样本集
1
新版Matlab中神经网络训练函数Newff的详细讲解-新版Matlab中神经网络训练函数Newff的使用方法.doc 本帖最后由 小小2008鸟 于 2013-1-15 21:42 编辑 新版Matlab中神经网络训练函数Newff的详细讲解 一、   介绍新版newffSyntax·          net = newff],{TF1 TF2...TFNl}, BTF,BLF,PF,IPF,OPF,DDF) Descriptionnewff],{TF1 TF2...TFNl}, BTF,BLF,PF,IPF,OPF,DDF) takes several arguments PR x Q1 matrix of Q1 sample R-element input vectorsTSN x Q2 matrix of Q2 sample SN-element target vectorsSiSize of ith layer, for N-1 layers, default = [ ]. TFiTransfer function of ith layer. (Default = 'tansig' for hidden layers and 'purelin' for output layer.)BTFBackpropagation network training function BLFBackpropagation weight/bias learning function IPFRow cell array of input processing functions. OPFRow cell array of output processing functions. DDFData divison function ExamplesHere is a problem consisting of inputs P and targets T to be solved with a network.·          P = [0 1 2 3 4 5 6 7 8 9 10];T = [0 1 2 3 4 3 2 1 2 3 4];Here a network is created with one hidden layer of five neurons.·          net = newff;The network is simulated and its output plotted against the targets.·          Y = sim;plotThe network is trained for 50 epochs. Again the network's output is plotted.·          net.trainParam.epochs = 50;net = train;Y = sim; plot 二、   新版newff与旧版newff调用语法对比 Example1比如输入input(6*1000),输出output为(4*1000),那么旧版定义:net=newff,[14,4],{'tansig','purelin'},'trainlm');新版定义:net=newff; Example2比如输入input(6*1000),输出output为(4*1000),那么旧版定义:net=newff,[49,10,4],{'tansig','tansig','tansig'},'traingdx');新版定义:net=newff; 更详细请看word文档 新版Matlab中神经网络训练函数Newff的使用方法.doc
2021-12-05 15:43:31 175KB matlab
1
这段代码实现了一种新的 MLP 神经网络训练方法,称为支持向量神经网络 (SVNN),在工作中提出:O. Ludwig; “以神经网络和级联分类器为重点的快速模式识别非参数方法研究;” 博士论文,科英布拉大学,科英布拉,2012 年。 输入参数是 L 个代表 N 元素输入向量的 N x L 矩阵,行向量 y,其元素是各自的目标类,应该是 -1 或 1 ,以及隐藏神经元的数量nneu。 与 SVM 类似,SVNN 有一个惩罚参数 C,可以在代码的第 16 行设置。 该算法输出 MLP 参数 W1、W2、b1、b2,它们是 MLP 模拟器“sim_NN.m”的输入参数,它还需要测试数据矩阵以及目标向量(如果目标不可用,必须提供空向量)。 “sim_NN.m”输出估计的类别和准确度,acc(当测试目标可用时)。 该代码是为在四核处理器上运行而开发的。 在双核或单核处理器的情况下,第 53 行和第
2021-11-26 19:12:36 3KB matlab
1
基于MATLAB的神经网络训练模块基于MATLAB的神经网络训练
2021-11-26 17:37:28 2KB MATLAB
1
这是BP神经网络训练语音信号的MATLAB源代码,请大家多多参考!!!!
2021-11-06 19:45:11 367KB BP神经网络 语音信号训练
1