基于BP神经网络实现共享单车数据预测, 可以运行,还有详细的注释 环境:anaconda+jupyter notebook。 文件包含代码+数据集
2021-11-09 22:50:51 432KB jupyter notebook 神经网络 反向传播
1
解读多层神经网络反向传播原理.docx
2021-10-26 11:01:46 572KB 技术方案
在线深度学习:动态学习深度神经网络 在线深度学习中提出的对冲反向传播(HBP)的实现:动态学习深度神经网络 IJCAI-ECAI-18 预印本: : 。 现在,该存储库是LIBOL的一部分,将不再更新。 请检查以获取ODL和其他在线学习软件的最新更新。
2021-10-20 17:08:50 32KB Python
1
自己写的一个作业,是神经网络里面的反向传播算法。大家看看
2021-10-18 12:00:00 18KB 反向传播算法 BP
1
今天有朋友咨询我反向传播算法,我觉得不需要太复杂的推导,就可以解释清楚这个算法的原理。 序 假定神经网络采用下面的结构: 1. 最简单的神经网络模型 我们考虑最简单的情况:一个输入节点、一个输出节点、一个训练样本,网络结构如下图: 2. 损失函数 为了简化分析,我们假定只有一个训练样本 (x,y)(x,y)(x,y)。于是,损失函数简化为下面的形式: E=12(y−a5)2(3)\tag3 E = \frac12(y – a_5)^2 E=21​(y−a5​)2(3) 其中,(x,y)(x,y)(x,y) 是训练样本、a1=xa_1=xa1​=x,wiw_iwi​ 的初始值随机赋予,而 a
2021-10-18 11:37:02 152KB 反向传播 反向传播算法 算法
1
链条机 实现 环境 Ubuntu 14.04 LTS 带有Anaconda3 4.2.0的Python 3.5.2 外部图书馆 图书馆 版本 链条机 2.0.0 杯状的 1.0.0 麻木 1.14 数据集 资料来源:MNIST 目标:MNIST-M 数据集链接: MNIST-M原始链接(项目挂钩): 实施结果 验证数据:目标数据(无训练数据)。 训练数据(源/目标) 精度(纸 精度(Impl Mnist / Mnist-M 81.49% 80.81% 准确性 失利 train/loss/LP :标签预测器损失train/loss/DC :域分类器损失 用法 打开train.py并更改data_root路径。 运行python train.py 。 从图像文件所在的目录中获取类标签,并且目录名称必须是类ID。 因此,必须安排图像文件并为每个类重命名目录。
2021-10-16 19:25:08 194KB Python
1
matlab开发-多层反向传播神经网络。多层反向传播神经网络的实现
2021-10-15 13:37:54 5KB 未分类
1
RNN反向传播公式推导.pdf
2021-10-13 14:09:49 109KB RNN 深度学习
1
今天小编就为大家分享一篇PyTorch: 梯度下降及反向传播的实例详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2021-10-13 13:54:01 214KB PyTorch 梯度下降 反向传播
1
手写3层神经网络(不用框架),使用mnist数据集训练,最后识别一个验证码图片。代码
1