Apache MXNet Gluon中的LSTNet实现 该存储库包含本文的实现: ://arxiv.org/abs/1703.07015,基于该存储库中作者的原始PyTorch实现: : 请参考该论文以获取有关网络体系结构的背景知识。 运行脚本 要获取命令行参数列表: python train.py-帮助
1
已淘汰 该项目建于2016年(旧的张量流时代),在新的张量流下,一些设计选择不再有意义。 您可能会在其他地方找到更好的seq2seq教程/实现。 seq2seq_chatbot 张量流中Seq2seq聊天机器人的实现。 特征 带智能加载程序的动态rnn (无填充) 预测中的波束搜索(全局最优快速近似) 解码器的信号指示器(解码器上的部分控制) 技术报告: : : Python 2.7依赖项 张量流1.8 麻木 json 操作说明 运行“ python train.py”,然后等待(在具有cuda 9.0和cudnn 7.0的GTX 1080 Ti上运行5分钟),直到训练完成 运行“ python test.py”以进入与聊天机器人的交互式会话 尝试自己的数据 可以对自己的数据运行它,但是您需要至少生成2个文件,其格式与bbt_data中的文件相同。 text.txt,这是
1
歌声分离RNN 雷茂 芝加哥大学 介绍 这是使用递归神经网络(RNN)开发的歌声分离工具。 它可以将歌手的声音和背景音乐与原始歌曲区分开。 由于分离尚不完善,因此它仍处于开发阶段。 请检查演示的性能。 依存关系 的Python 3.5 脾气暴躁的1.14 TensorFlow 1.8 RarFile 3.0 进度栏2 3.37.1 LibROSA 0.6 Matplotlib 2.1.1 档案文件 . ├── demo ├── download.py ├── evaluate.py ├── figures ├── LICENSE.md ├── main.py ├── model ├── model.py ├── preprocess.py ├── README.md ├── songs ├── statistics ├── train.py └── utils.py 数据
2022-06-22 10:48:33 62.53MB recurrent-neural-networks source-separation Python
1
Countless learning tasks require dealing with sequential data. Image captioning, speech synthesis, and music generation all require that a model produce outputs that are sequences. In other domains, such as time series prediction, video analysis, and musical information retrieval, a model must learn from inputs that are sequences. Interactive tasks, such as translat- ing natural language, engaging in dialogue, and controlling a robot, often demand both capabilities. Recurrent neural networks (RNNs) are connec- tionist models that capture the dynamics of sequences via cycles in the network of nodes.
2022-05-23 21:11:23 1.03MB RNN
1
可视化分析RNN的状态变化 有关LSTMVis,介绍视频以及实时演示链接的更多信息,请访问 还可以在或在线演示中查看我们关于序列到序列模型的新工作,为 V2.1中的更改 更新到Python 3.7 ++(感谢@nneophyt) V2的变化 新设计和服务器后端 隐藏状态轨道的离散缩放 添加了用于元数据和预测的注释轨道 为张量流添加了训练和提取工作流 客户端现在是ES6和D3v4 客户端的一些性能增强 添加了Keras教程(感谢Mohammadreza Ebrahimi) 安装 请使用python 3.7或更高版本来安装LSTMVis。 克隆存储库: git clone https://github.com/HendrikStrobelt/LSTMVis.git ; cd LSTMVis 使用安装python(服务器端)要求: python -m venv venv3 sour
1
口语数字识别 :studio_microphone: LSTM语音数字识别 内容 概述 语音数字识别是一个隔离的单词识别系统,可转录0-9之间的各个语音号码。 数据集 使用免费语音数字数据集(FSDD)来训练该模型,该模型具有来自3位讲英语且带有重音的扬声器的1,500张录音。 该模型接受了1,470张唱片的训练,并在30张唱片上进行了测试。 模型与训练 该模型包括: LSTM层 全连接层 损失函数:分类交叉熵 优化算法:亚当 模型在300个时代进行了训练。 改进和要添加的功能 数据集需要更多不同类型的发言人,包括不同性别和不同口音的人,以便该系统在世界范围内正常运行 模型本身可以改进 使用更好的培训/测试策略 具有使用自己的声音来测试模型的界面,使前端易于与模型进行交互 改善模型性能 基本上,这是我的实验,旨在了解如何构建仅检测语音数字的语音识别系统。 用法 python spoke_digit.py为了运行
1
本文是在自然语言处理上应用比较好的深度网络RNN,包含RNN的入门讲解、代码实现
2022-04-26 15:31:08 1.08MB RNN 深度学习 NLP 自然语言处理
1
TFCudnnLSTM TensorFlow的高效CudnnLSTM模块的简单模板 依存关系 TensorFlow v1.8 + CUDA v9.0 + cuDNN v7.0 + scikit学习 tqdm 计算性能 TensorFlow的性能指南包括 ,其中指出: 在NVIDIA GPU上,始终应首选使用tf.contrib.cudnn_rnn除非您需要不支持的图层归一化。 根据,与TensorFlow的其他LSTM实现相比, CudnnLSTM实现了显着的加速(比LSTMBlockFused快约2倍,比BasicLSTM快约5倍)。 语言建模实验 我们还采用并尝试运行在那里实现的三个LSTM版本: BasicLSTMCell , LSTMBlockCell和CudnnLSTM 。 我们发现由于API的更改, CudnnLSTM示例无法在TF v1.8中运行,但是在解决了一些
1
文本分类模型 在Pytorch中实现最新的文本分类模型 实施模型 fastText:fastText模型, TextCNN:提出的用于文本分类的CNN TextRNN:用于文本分类的双向LSTM网络 RCNN:在提出的的RCNN模型的实现 CharCNN: 提出的字符级CNN的实现 带有注意力的Seq2seq :,从注意实现seq2seq模型 变压器:提出的变压器模型的实现 要求 Python-3.5.0 熊猫0.23.4 Numpy-1.15.2 Spacy-2.0.13 Pytorch-0.4.1.post2 火炬文字-0.3.1 用法 将数据下载到“ data /”目录中或使
2022-03-28 10:27:15 12.48MB nlp deep-learning pytorch recurrent-neural-networks
1
递归神经网络预测Google股票价格 我试图使用LSTM预测Google股票价格 长短期记忆(LSTM)单元(或块)是递归神经网络(RNN)层的构建单元。 由LSTM单元组成的RNN通常称为LSTM网络。 常见的LSTM单元由单元,输入门,输出门和忘记门组成。 该单元负责在任意时间间隔内“记住”值。 因此,LSTM中的“内存”一词。 就像多层(或前馈)神经网络中一样,这三个门中的每一个都可以被认为是“常规”人工神经元:也就是说,它们计算加权和的激活(使用激活函数)。 从直觉上讲,它们可以看作是通过LSTM连接的值流的调节器。 因此表示“门”。 这些门与单元之间存在连接。 更好的预测模型的结果是:
2022-03-19 15:06:49 690KB google prediction recurrent-neural-networks lstm
1