RNN莎士比亚文本生成 该网络应用程序使用LSTM训练莎士比亚的数据,并创建一种语言模型,以莎士比亚的风格生成文本。 RNN(递归神经网络) 递归神经网络(RNN)是一类人工神经网络,对于建模序列数据(例如时间序列或自然语言)具有强大的功能。 与RNN相比,香草神经网络有一个缺点,它们无法解决需要记住有关过去输入信息的机器学习问题。 在处理顺序数据时,记住数据中的关系是关键,而普通的CNN并不擅长长度可变的输入和输出。 因此,我正在使用RNN进行文本生成。 我使用一种称为LSTM的特殊RNN,它可以处理非常大的数据序列。 简单的RNN有一个称为消失梯度问题的问题,因此它们无法处理大序列。 LSTM旨在处理长期依赖关系。 开发环境 烧瓶== 1.1.2 Werkzeug == 1.0.1 张量流CPU 麻木 古尼康
2023-04-18 22:38:20 19.35MB HTML
1
具有递归神经网络的文本生成 使用基于特征的RNN进行文本生成。 我们使用安德烈·卡帕蒂(Andrej Karpathy)的莎士比亚作品集。 给定来自此数据的字符序列(“莎士比亚”),训练模型以预测序列中的下一个字符。 通过重复调用模型,可以生成更长的文本序列。 模型的输出 以下是本教程中的模型训练了30个纪元并以字符串“ Q”开头时的示例输出: 奎妮:我以为你有罗马人。 Oracle这样,使所有人都反对这个词,因为他的照顾太弱了。 您的孩子们在您的圣洁的爱中,通过流血的宝座沉淀。 伊丽莎白·比什普(Bishop of Ely):我的主,嫁给并愿意哭泣,这是最漂亮的。 然而,现在我被世界可悲的一天收为继承人,要和他父亲一起面对面观看新路吗? 埃斯卡洛斯:为什么我们都下了更多儿子的原因。 卷:不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,这是没
2023-04-17 22:59:21 70KB Python
1
利用rnn网络和lstm网络进行下一个字的预测 eg: `输入`:**我觉得这个【向后输出20个字】** `输出`:**我觉得这个地方便,但是一个人的,但是一个人的,但是一个**
2023-04-17 01:30:45 3.88MB nlp rnn lstm
1
神经网络LSTM 时间预测MATLAB源码,RNN全称循环神经网络(Recurrent Neural Networks),是用来处理序列数据的。在传统的神经网络模型中,从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多关于时间序列的问题却无能无力。
2023-04-14 10:23:45 13KB 神经网络 MATLAB源码 LSTM时间预测 RNN
GRU门控循环单元时间序列预测 包含以下.m功能文件 RNN_gate.m RNN_feedforward.m op_fc.m main.m batch_norm.m
2023-04-14 10:18:15 2KB GRU RNN 门控循环单元 MATLAB
RNN自动编码器 我研究tensorflow和RNNRNN autoenc和代码。 我使用的是midi文件中的音乐旋律数据。 内容 基本RNN RNN自动编码器(LSTM自动编码器)(参考: ) 描述 1.基本的RNN 我在张量流代码中实现了基本的RNN结构。 2. RNN自动编码器 我在张量流代码中实现了RNN自动编码器结构。 它由RNN编码器和RNN解码器组成。 编码器的最终状态用作通用自动编码器的压缩空间。 解码器的输入是学习时的学习数据序列,但是当用于输出时,输出返回到输入。 代码 模型(仍在编辑中) RNN_AE_model_decoder_dynamic:在张量流中使用动态rnn的模型 RNN_AE_model_decoder_feedback:使用带有for循环的单元格进行建模 火车:火车模型 测试:使用经过训练的模型生成新序列 util:实用程序代码
2023-04-13 10:12:27 180KB JupyterNotebook
1
用于机器翻译的 RNN 编码器解码器 介绍 在基于短语的机器翻译中,通常使用无监督对齐方法提取短语对。 这些本质上通常是生成性的对齐方法无法结合关于语言完整性和短语对质量的其他度量的信息。 因此,提取的短语对通常相当嘈杂。 在不偏离常规短语提取程序的情况下使用这些短语对的一种方法是为每个短语对使用附加特征,然后使用判别训练学习这些特征的权重,其目标是区分好假设和坏假设。 随着最近在机器翻译中使用神经网络,我们有能力将可变长度的句子表示为固定大小的向量表示。 这种表示可以基于我们认为有用的任何质量度量来创建。 一旦我们根据语言的某些属性(语法、语义)获得句子/短语的向量表示,就相对容易问自己一个短语对有多好。 该项目建立在这项工作和其他神经机器翻译工作的基础上,以估计短语对的短语相似度。 评估将通过将此指标用作基于短语的翻译和短语表修剪中的另一个特征来进行。 短语相似度 使用无监督对齐进行短
2023-04-13 10:11:37 1.16MB Python
1
RNN及其改进版本LSTM的的介绍,和其中的运行机制的说明 RNN的结构 口简单来看,把序列按时间展开 为了体现RNN的循环性,可以将多层fod起来
2023-04-08 17:02:09 2.81MB 深度学习 LSTM
1
怎样修改MATLAB现有代码中数据RNN-VAE 混合预测系统。 使用VAE获取与时间相关的系统的潜在状态。 使用RNN(水库计算机)来发展潜伏力。 VAE可转换为预测。 基于通过MATLAB生成的综合数据 VAE基于现有的python jupyter实现。 通过MATLAB更新RNN。 跑步: 运行Generate.m。 这将获得综合数据。 确保数据放置在root\n='..\n/\n..\n/\ndata\n/\nsynth'下,或修改python笔记本中的路径。 运行VAE.ipynb,第一部分。 这将生成模型参数,包括潜在变量。 将logvarout.csv,muout.csv加载到matlab中,或确保它与RNNClimateVae.m文件位于同一文件夹中 运行RNNClimateVAE.m。 这将对潜在变量生成预测。 每次运行的性能可能会有所不同。 如果性能良好,请在if(false)区域中运行最终代码块以保存预测 运行VAE.ipynb,第二部分。 这将从潜在预测中生成输出预测。 VAE.ipynb还有另外两个部分,需要进一步分析。 第三部分改变一个潜在方向,同时保持其他不变,从而了解
2023-04-03 17:26:00 9.47MB 系统开源
1
1.调节步伐:调节学习速率,使每一次的更新“步伐”不同 2.优化起点:合理初始化权重(weights initialization)、预训练网 1. 为什么神经
2023-03-29 00:40:31 1.51MB 深度学习 dnn cnn rnn
1