使用AutoEncoder实现语音增强.pptx,15页PPT内容;使用AutoEncoder实现语音增强.pptx
2021-07-07 21:51:55 3.32MB 语音
1
adversarial-autoencoder, 敌对 autoencoder ( AAE )的Chainer实现 对抗性 AutoEncoder的代码。要求Chainer 2 python 2或者 3将标签信息合并到对抗性正则化中运行 semi-supervised/regularize_z/train.py我们用 10K 个
2021-06-27 11:12:19 41KB 开源
1
tensorflow_stacked_denoising_autoencoder 0.安装环境 要运行脚本,至少应满足以下必需的软件包: 的Python 3.5.2 Tensorflow 1.6.0 NumPy 1.14.1 您可以使用Anaconda安装这些必需的软件包。 对于tensorflow,请使用以下命令在Windows下快速安装: pip install tensorflow 1.内容 在这个项目中,有各种自动编码器的实现。 python的基本类是library / Autoencoder.py,您可以在自动编码器的构造函数中将“ ae_para”的值设置为指定相应的自动编码器。 ae_para [0]:自动编码器输入的损坏级别。 如果ae_para [0]> 0,则为降噪自动编码器; aw_para [1]:稀疏正则化的系数。 如果ae_para [1]> 0,
1
使用tensorflow实现对手写字(MNIST)的AutoEncoder.py
2021-06-02 09:09:09 7KB 自编码器 tensorflow
1
在很少或没有监督的情况下学习有用的表示是人工智能的一个关键挑战。我们深入回顾了表示学习的最新进展,重点关注基于自编码器的模型。为了组织这些结果,我们使用了被认为对下游任务有用的元先验,比如特征的解缠和分层组织。特别地,我们揭示了三种主要机制来执行这些特性,即(i)正则化(近似或聚集)后验分布,(ii)分解编码和解码分布,或(iii)引入结构化的先验分布。虽然有一些有希望的结果,隐性或显性监督仍然是一个关键的促成因素,所有当前的方法使用强烈的归纳偏差和建模假设。最后,我们通过率失真理论分析了基于自编码器的表示学习,并明确了关于下游任务的现有知识量和表示对该任务的有用程度之间的权衡。
2021-06-01 22:06:06 2.36MB 深度学习 变分自编码器 表示学习 综述
1
autoEncoder01 有两个一维CNN自动编码器示例,可以根据您的压缩需求在输入和输出中对其进行重新配置
2021-05-29 21:13:08 2KB Python
1
基于Autoencoder和HMM的时间序列异常检测方法
2021-04-04 20:43:46 743KB 研究论文
1
Unsupervised pre-training of a Deep LSTM-based Stacked Autoencoder for Multivariate time Series forecasting problems Alaa Sagheer
2021-03-31 15:22:06 1.83MB LSTM-based Unsupervised Autoencoder Multivariate
自编码 (Autoencoder) - 自己总结的PPT
2021-02-24 11:28:03 1.88MB 自编码
1
AutoEncoder是深度学习的另外一个重要内容,并且非常有意思,神经网络通过大量数据集,进行end-to-end的训练,不断提高其准确率,而AutoEncoder通过设计encode和decode过程使输入和输出越来越接近,是一种无监督学习过程。
2019-12-21 22:23:59 10KB 实现 python autoencoder vae
1