deep-learning personal practice 深度学习个人练习,该项目实现了深度学习中一些常用的算法,内容包括: 四种初始化方法:zero initialize, random initialize, xavier initialize, he initialize。 深度神经网络 正则化 dropout 三种梯度下降方法:BGD, SGD, mini-batch 六种优化算法:momentum、nesterov momentum、Adagrad、Adadelta、RMSprop、Adam 梯度检验 batch normalization recurrent neural network (RNN) Note: 下列 1-10中网络架构主要为四大块: initialize parameters、forward propagation、backward propagati
2023-10-06 17:02:27 341KB 附件源码 文章源码
1
机器学习 SGD BGD 批量梯度下降 随机梯度下降
2022-03-24 18:20:01 628KB SGD_BGD
1
上一次,写了MGD、SGD、MBGD的代码实现,现在,我们来康康实例 我们以大名鼎鼎的鸢尾花数据集为例: https://archive.ics.uci.edu/ml/machine-learning-databases/iris/ 下载这个iris.data即可 将其置于当前工作文件夹即可 先导入需要的库: import numpy as np import pandas as pd import random 然后将我们上一次写的函数copy过来: def MGD_train(X, y, alpha=0.0001, maxIter=1000, theta_old=None):
2021-12-21 21:10:18 78KB sgd 回归 大数据
1
机器学习;梯度下降;批量梯度下降;BGD
2021-05-18 22:21:16 521KB BGD
1