切片循环神经网络(Sliced recurrent neural networks,SRNN),在不改变循环单元的情况下,比RNN结构快135倍。
2020-01-13 03:16:43 6KB 切片循环神经 SRNN python 实现
1
递归神经网络(RNN)是两种人工神经网络的总称。一种是时间递归神经网络(recurrent neural network),又名循环神经网络,另一种是结构递归神经网络(recursive neural network)。时间递归神经网络的神经元间连接构成矩阵,而结构递归神经网络利用相似的神经网络结构递归构造更为复杂的深度网络。RNN一般指代时间递归神经网络。单纯递归神经网络因为无法处理随着递归,权重指数级爆炸或消失的问题(Vanishing gradient problem),难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。
2020-01-09 03:15:23 16.51MB 深度学习
1
改为比较全面的叙述了循环神经网络从一开始到现在发展的情况,对其发展的脉络进行了比较全面的介绍
2020-01-09 03:08:09 687KB RNN 综述 机器学习
1
一本有关循环神经网络的设计以及应用领域的书籍,深入浅出,很有参考价值
2019-12-21 21:56:19 5.3MB 循环神经网络
1
本例包含reddit论坛数据集,使用rnn对论坛留言进行情感分类。是rnn入门的简单易学教程。
1
人工智能--循环神经网络详解
2019-12-21 20:43:33 1.99MB RNN
1
消费者请注意,本资源是分别用RNN(循环神经网络)和LSTM(长短记忆网络)编写的MATLAB的案例,内部RNN.m和LSTM.m文件程序可以直接运行,内部已包含所需功能函数,如过不能直接运行请留言。
2019-12-21 20:36:14 6KB RNN LSTM 循环神经网络 深度学习
1
循环神经网络代码RNN-超全注释 #inputs t时刻序列,也就是相当于输入 #targets t+1时刻序列,也就是相当于输出 #hprev t-1时刻的隐藏层神经元激活值 def lossFun(inputs, targets, hprev): xs, hs, ys, ps = {}, {}, {}, {} hs[-1] = np.copy(hprev) print('hs=',hs) loss = 0 #前向传导 inputs 6xn for t in range(len(inputs)):
2019-12-21 20:17:33 9KB 循环神经网络
1
该资源是由七月算法寒老师在机器学习课程中讲述的内容,主要内容为循环神经网络课程的课件内容丰富。
2019-12-21 20:09:12 3.32MB 神经网络 LSTM
1
循环神经网络的python应用代码。可参考。但注释较少,适合一定基础的,下载时请慎重。
2019-12-21 19:21:03 14KB RNN PYTHON
1