人工神经网络 具有反向传播和动量的人工神经网络(不使用角膜和张量流) 楷模 实施步骤 导入必要的库 麻木 matplotlib 球状 cv2 随机的 操作系统 下载并预处理数据集 加载训练和测试数据集 随机训练和测试数据集 调整图像大小并进行归一化 初始化随机权重和偏差 创建字典以存储权重和偏差 将权重和偏差初始化为零以进行反向传播 修复所有超参数 学习率 纪元数 层数 每层的单位数 动量(
1
Training an artificial neural network with backpropagation algorithms to perform advanced machine learning tasks requires an extensive computational process. This paper proposes to implement the backpropagation algorithm optically for
2022-11-28 21:47:14 2.04MB
1
Backpropagation applied to Handwritten zip code recognition》,Yan LeCun于1989年所作
2021-11-30 12:38:50 5.4MB CNN 论文
1
Feedforward Backpropagation Neural Networks(BP神经网络的Matlab程序),可通过运行test_example_NN.m实现对手写数字的训练学习
2021-07-20 14:29:14 12KB BP NN 神经网络 matlab
1
通过混合转换和依赖于峰值时序的反向传播来启用深度峰值神经网络 这是与在发表的论文“使用混合转换和峰值定时依赖的反向传播实现深度尖峰神经网络”相关的代码。 培训方法 培训分以下两个步骤进行: 训练ANN('ann.py') 将ANN转换为SNN并执行基于尖峰的反向传播('snn.py') 档案文件 'ann.py':训练一个ANN,可以提供输入参数来提供建筑设计,数据集,训练设置 'snn.py':从头开始训练SNN或执行ANN-SNN转换(如果有预训练的ANN可用)。 / self_models:包含ANN和SNN的模型文件 'ann_script.py'和'snn_script.py':这些脚本可用于设计各种实验,它创建可用于运行多个模型的'script.sh' 训练有素的人工神经网络模型 训练有素的SNN模型 问题 有时,“ STDB”的激活在训练过程中会变得不稳定,从而
1
Grad-CAM.pytorch ​ pytorch 实现 和 3.1 3.3 5.1 5.2 5.3 5.4 6.1 6.2 6.3 6.4 7.1 7.2 7.3 7.4 Grad-CAM整体架构 Grad-CAM++与Grad-CAM的异同 依赖 python 3.6.x pytoch 1.0.1+ torchvision 0.2.2 opencv-python matplotlib scikit-image numpy 使用方法 python main.py --image-path examples/pic1.jpg \ --network densenet121 \ --weight-path /opt/pretrained_model/densenet121-a639ec97.p
1
Unsupervised Domain Adaptation by Backpropagation.pdf
2021-03-18 09:25:11 3.12MB 无监督自适应
1
Guided Backpropagation.zip
2021-03-16 17:15:03 3.94MB 深度学习
1
本文提出了一种新型的两阶段集成方案集成反向传播(TP-ES-BP)算法,可以大大减轻标准BP(SBP)算法的局部极小问题,并克服了单个成分BP在分类性能上的局限性通过集成Ensemble方法。 三组模拟实验的经验和t检验结果,包括ORL人脸图像数据库上的人脸识别任务以及从机器学习数据库的UCI存储库中抽取的数据集上的四个基准分类任务,表明TP-ES-BP算法取得了显著成效与SBP和最新的情绪反向传播(EmBP)学习算法相比,识别结果更好,泛化性能更高。
2021-03-14 10:06:11 2MB Standard backpropagation (SBP); Local
1