张量流和pytorch中的变体自动编码器 TensorFlow和PyTorch中可变自动编码器的参考实现。 我建议使用PyTorch版本。 它包括一个更具表达性的变分族的例子,。 变分推断用于使模型适合二值化MNIST手写数字图像。 推理网络(编码器)用于分摊推理并在数据点之间共享参数。 可能性通过生成网络(解码器)进行参数化。 博客文章: : 具有重要性采样的示例输出,用于估计Hugo Larochelle的Binary MNIST数据集上的边际可能性。 测试集为-97.10边缘可能性。 $ python train_variational_autoencoder_pytor
1
tensorflow-mnist-VAE, MNIST变分自动编码器的Tensorflow实现 用于MNIST的变分本文介绍了一种用于 MNIST descripbed的变分自动编码器( VAE )的实现方法:基于等的自动编码变分贝叶斯。结果复制训练良好的VAE必须能够复制输入图像。图 5显示了不同dimensiona
2021-07-06 10:46:18 379KB 开源
1
适合生物信息学
2021-06-29 09:04:40 1.25MB lncRNA
1
Graph Auto-Encoders 在TensorFlow中实现图形自动编码
2021-06-27 11:07:52 5.09MB Python开发-机器学习
1
请引用 Nuha、Hilal H.、Adil Balghonaim、Bo Liu、Mohamed Mohandes、Mohamed Deriche 和 Faramarz Fekri。 “用于地震数据压缩的带有极限学习机的深度神经网络。” 阿拉伯科学与工程杂志 45,没有。 3 (2020):1367-1377。 Kasun、Liyanaarachchi Lekamalage Chamara、Hongming Zhou、Guang-Bin Huang 和 Chi Man Vong。 “使用极限学习机进行大数据的表征学习。” IEEE 智能系统 28,没有。 6 (2013): 31-34。
2021-06-17 22:02:41 9.53MB matlab
1
星座图的matlab代码自动编码器用于降维 使用自动编码器进行降维的简单,单个隐藏层示例 在现代“大数据”时代,一项艰巨的任务是减少特征空间,因为在当今的超大数据集中执行任何类型的分析或建模在计算上都非常昂贵。 为此目的,有各种各样的技术:PCA,LDA,拉普拉斯特征图,扩散图等。在这里,我使用了基于神经网络的方法,即自动编码器。 自动编码器本质上是一个神经网络,在中间(以某种方式)对其进行编码之后,它会在其输出中复制输入层。 换句话说,NN在将其输入经过一组堆栈之后尝试预测其输入。 NN的实际体系结构不是标准的,而是用户定义和选择的。 通常看起来像是镜像图像(例如,第一层256个节点,第二层64个节点,第三层又是256个节点)。 在这个简单的介绍性示例中,由于输入空间最初相对较小(92个变量),因此我仅使用一个隐藏层。 对于较大的特征空间,可能需要更多的层/更多的节点。 我将特征空间从这92个变量减少到只有16个。AUC分数非常接近我为此数据集构建的最佳NN(0.753对0.771),因此我们的数据减少了5倍,因此没有牺牲太多信息。 建立自动编码器模型后,我使用它来将我的92个特征的
2021-06-16 20:24:28 1.64MB 系统开源
1
TensorFlow 2.0中的自动编码器 以下自动编码器的实现; 香草自动编码器(AE) 去噪自动编码器 备用自动编码器(进行中) 压缩式自动编码器(进行中) 可变自动编码器(VAE) 条件变分自动编码器(CVAE) 节拍变奏自编码器(beta-VAE)(进行中) 如何运行: 运行python3 main.py --ae_type AE 我们可以传递的参数: ae_type:自动编码器的类型-AE,DAE,VAE,CVAE,BetaVAE latent_dim:潜在维度的度数-2、3等。 num_epochs:训练纪元数-100等 learning_rate:培训期间的学习率-1e-4 batch_size:批量大小-1000
1
tensorflow_stacked_denoising_autoencoder 0.安装环境 要运行脚本,至少应满足以下必需的软件包: 的Python 3.5.2 Tensorflow 1.6.0 NumPy 1.14.1 您可以使用Anaconda安装这些必需的软件包。 对于tensorflow,请使用以下命令在Windows下快速安装: pip install tensorflow 1.内容 在这个项目中,有各种自动编码器的实现。 python的基本类是library / Autoencoder.py,您可以在自动编码器的构造函数中将“ ae_para”的值设置为指定相应的自动编码器。 ae_para [0]:自动编码器输入的损坏级别。 如果ae_para [0]> 0,则为降噪自动编码器; aw_para [1]:稀疏正则化的系数。 如果ae_para [1]> 0,
1
堆叠式自动编码器和基于极限学习机的电力负荷预测混合模型
2021-06-03 09:42:02 464KB 研究论文
1
autoEncoder01 有两个一维CNN自动编码器示例,可以根据您的压缩需求在输入和输出中对其进行重新配置
2021-05-29 21:13:08 2KB Python
1