Keras TCN 与所有主要/最新的Tensorflow版本(从1.14到2.4.0+)兼容。 pip install keras-tcn Keras时间卷积网络。 [] 为什么选择时间卷积网络? 与具有相同容量的循环体系结构相比,TCN具有更长的内存。 在各种任务(序列MNIST,添加问题,复制内存,字级PTB ...)上,其性能始终优于LSTM / GRU体系结构。 平行度,灵活的接收场大小,稳定的梯度,训练所需的低内存,可变长度的输入... 放大的因果卷积层堆栈的可视化(Wavenet,2016) API 通常的方法是导入TCN层,并在Keras模型中使用它。 下面提供了一个回归任务的示例(对于其他示例,请参阅tasks/ ): from tensorflow . keras . layers import Dense from tensorflow . keras import Input , Model from tcn import TCN , tcn_full_summary batch_size , timesteps , input_dim = No
1
语音带宽扩展的分层递归神经网络 论文代码: Ling Zhen-Hua Ling,Yang Ai,Yu Gu和Dai Li-Rong Dai,“使用分层递归神经网络进行语音带宽扩展的波形建模和生成”,关于音频,语音和语言处理的IEEE / ACM交易,第一卷。 26号5,第883-894页,2018年。 ./HRNN_HF是本文中HRNN系统的代码。 ./CHRNN_HF是本文中的CHRNN系统的代码。
2021-09-14 19:51:23 78KB Python
1
TF-VAE-GAN-DRAW ,和TensorFlow实现。 跑 VAE / GAN: python main.py --working_directory /tmp/gan --model vae 画: python main-draw.py --working_directory /tmp/gan 深度卷积生成对抗网络在使用默认参数的10个星期后产生了不错的结果。 ###去做: 更复杂的数据。 添加 用空间变压器层替换当前的注意力机制
2021-09-10 11:10:56 13KB tensorflow draw recurrent-neural-networks gan
1
PredRNN:时空预测学习的递归神经网络 时空序列的预测性学习旨在通过从历史情境中学习来生成未来的图像,其中视觉动态被认为具有可通过成分子系统学习的模块化结构。 NeurIPS 2017的第一个版本 此存储库首先包含PredRNN (2017)的PyTorch实现[ ],这是一个循环网络,具有一对以几乎独立的过渡方式运行的存储单元,最后形成了复杂环境的统一表示。 具体而言,除了LSTM的原始存储单元外,该网络还具有锯齿形存储流,该存储流以自下而上和自上而下的方式在所有层中传播,从而使学习到的RNN级别的视觉动态能够进行通信。 PredRNN-V2(2021)的新功能 此回购还包括PredRNN-V2 (2021)的实现[],它在以下两个方面改进了PredRNN。 1.内存解耦 我们发现PredRNN中的一对存储单元包含不良的冗余功能,因此会出现存储解耦损失,从而鼓励他们学习视觉动力学的
1
matlab有些代码不运行代码纸循环 介绍 这是一个文件夹,用于保存一些代码以便在某些论文中重复使用某些算法。 然后我将介绍这些算法: [MLHM] =多尺度局部均一性度量 [ALCM-LSK] =自适应局部对比度测量-局部操纵核 [内核回归]用于图像处理 (提示)如果可以找到与该论文相对应的工具箱,则将链接放置在此页面上,而无需重写代码。 [无监督岭检测] =二阶各向异性高斯核(AGK) [双阈值计算] =自适应Canny边缘检测器的基于字符串的方法 :red_exclamation_mark: :red_exclamation_mark: 注意力 :red_exclamation_mark: :red_exclamation_mark: 由于对算法过程的指示不明确,因此工具中存在缺陷。 因此,如果您有一些有用的想法,欢迎与我联系并讨论。 [自适应低秩的贝叶斯推断] =稀疏和低秩模型求解器,采用贝叶斯方法和ADMM 目的 这是一个存储有关某些算法的可运行代码的仓库。 我将在有空闲时间或有一些新密码时(而非定期)升级仓库。 所以请不要压作者!!! 作者 版权:2018-9-4 MarkLHF,电子科技大学IDIPLab。(电子邮件:) [提示]该文件夹中的算法代码由我自己编写,但是我将使用某些工具箱中的某些功能。 感谢您的前任!! 语 MATLAB(
2021-08-09 20:29:53 576KB 系统开源
1
Latent Cross Making Use of Context in Recurrent.pdf
2021-06-08 13:01:44 817KB paper
1
欧拉公式求长期率的matlab代码基于递归神经网络的动力系统机器学习 该项目涉及使用递归神经网络和Keras机器学习工具箱来重现状态空间模型的输入输出行为的学习。 文件“ system_identification_machine_learning.py”是主文件。 您应该从这里开始。 文件“ backward euler.py”定义了使用后向Euler方法离散化连续时间系统的函数。 从文件“ system_identification_machine_learning.py”中调用它。 我的网页上提供了该项目的完整说明:
2021-05-23 17:04:01 4KB 系统开源
1
Recurrent neural networks (RNNs) are a powerful model for sequential data. End-to-end training methods such as Connectionist Temporal Classification make it possible to train RNNs for sequence labelling problems where the input-output alignment is unknown. The combination of these methods with the Long Short-term Memory RNN architecture has proved particularly fruitful, delivering state-of-the-art results in cursive handwriting recognition. However RNN performance in speech recognition has so far been disappointing, with better results returned by deep feedforward networks. This paper investigates deep recurrent neural networks, which combine the multiple levels of representation that have proved so effective in deep networks with the flexible use of long range context that empowers RNNs. When trained end-to-end with suitable regularisation, we find that deep Long Short-term Memory RNNs achieve a test set error of 17.7% on the TIMIT phoneme recognition benchmark, which to our knowledge is the best recorded score.
2021-05-19 09:53:14 413KB 学术论文
1
循环神经网络在语音识别中的应用 LSTM 双向RNN 双向lstm
2021-05-19 09:43:54 436KB 语音识别
1
NeuralNetStudio:开源递归神经网络程序(RNN)。 [MATLAB]
1