深度学习,李宏毅学习周笔记,训练的基本步骤,学习线性模型以及Sigmoid函数,神经网络,python简单程序实践(B站 开开心心学python)
2022-12-05 16:28:35 1.08MB 深度学习 python
1
基于自适应Sigmoid型函数图像增强代码复现
2022-11-28 16:25:58 2KB 图像增强 图像处理
1
Sigmoid函数的分段非线性拟合法及其FPGA实现
2022-10-09 21:27:45 221KB sigmoid 函数 段非 线性拟合
1
线性函数的分类的一个缺点就是只能做线性分割,因为线性函数(y=kx+b)之间无论怎么做线性组合,最后得到的还是线性函数y=kx+b,这样就不能完成类似异或问题这样的非线性分割。 那么怎么做非线性分割呢,其实中学中我们已经学过了二次曲线,二次曲线之所以能画出一个封闭的曲线,就是因为它的非线性,一方面是因为它的导数不是常数,另外一个方面,它的单调性也不是唯一的,也就是有曲线的拐点,这样就可以让曲线拐弯,最后和起点汇合形成封闭曲线。 我们观察最基本的圆方程: x^2 + y^2=1 我们如果引入函数f(t)=t^2,稍微改写一下这个式子,就可以得到: f(x)+f(y)=1 在这里,我们选择的函数是
2022-09-09 14:24:47 86KB gm id sigmoid
1
资源包含Logistic回归算法,以及一个应用实例:预测病马死亡率。可直接执行。
2022-06-06 20:24:02 12KB Logistic sigmoid 梯度上升算法
1
图像处理算法,增加图像的对比度。 该文件可以在这里找到: 您必须使用的函数是 BEASF.m,其他的都是辅助函数。 http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=6808563&url=http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=6808563 如果你觉得我的算法有用,请给它评分。 如果您发现问题,您可以给我发电子邮件或发表评论,以便我可以解决它。 如果您发现算法存在问题,请告诉我,以便我尝试修复它。 谢谢你。
2022-05-19 14:01:14 4KB matlab
1
文章目录声明前言引入相关依赖包初始化参数前向传播函数线性部分linear线性激活部分linear–>avtivation计算成本反向传播线性部分linear backward线性激活部分linear–>activation backward更新参数整合两层神经网络模型L层神经网络分析 声明 本文参考何宽、念师 前言 本次教程,将构建两个神经网络,一个是具有两个隐藏层的神经网络,一个是多隐藏层的神经网络。 一个神经网络的计算过程如下: 初始化网络参数 前向传播 计算一层的中线性求和的 部分 计算激活函数的部分(ReLU使用L-1次,sigmoid使用1次) 结合线性求和与激活函数 计算误差 反向
2022-03-29 19:46:04 334KB python神经网络 relu sigmoid
1
LSTM(Long Short Term Memory,长短期记忆网络)介绍 介绍:LSTM,也就是长短期记忆网络,是一种 RNN 特殊的类型,可以学习长期依赖信息。要想较好理解LSTM请先查看之前写的RNN的简单理解文章。在传统RNN训练经常会出现无法解决长期依赖、梯度消失和梯度爆炸的问题,学习能力有限,在实际任务中的效果往往达不到预期效果。此时引入LSTM,LSTM是RNN的一种变体,是为了解决长期依赖问题而专门设计出来的,可以对有价值的信息进行长期记忆,减小了循环神经网络的学习难度。 应用领域:语音识别、语言建模、机器翻译、命名实体识别、图像描述文本生成。 图说LSTM结构 LSTM图标
2022-03-16 19:53:33 169KB lstm sigmoid 长短期记忆
1
楼 我的博士论文中 sigmoid 信念网络的平均场论的 MATLAB 代码。
2022-03-16 11:50:14 184KB PostScript
1
基于改进的Sigmoid函数的变步长LMS算法
2022-01-08 16:43:50 261KB 研究论文
1