GAN-VAE 分别为CIFAR-10和MNIST任务实施GAN和VAE
2021-11-22 14:17:55 5.54MB JupyterNotebook
1
变分自编码器 (VAE) + 迁移学习 (ResNet + VAE) 该存储库在 PyTorch 中实现了 VAE,使用预训练的 ResNet 模型作为其编码器,使用转置卷积网络作为解码器。 数据集 1. MNIST 数据库包含 60,000 张训练图像和 10,000 张测试图像。 每个图像均保存为28x28矩阵。 2. CIFAR10 数据集包含10个类别的60000个32x32彩色图像,每个类别6000个图像。 3. Olivetti 人脸数据集 脸数据集由 40 个不同主题的 10 张 64x64 图像组成。 模型 模型包含一对编码器和解码器。 编码器 将 2D 图像x压缩为较低维度空间中的向量z ,该空间通常称为潜在空间,而解码器 接收潜在空间中的向量,并在与编码器输入相同的空间中输出对象。 训练目标是让encoder和decoder的组合“尽可能接近identity”。
2021-11-19 02:51:19 10.88MB vae resnet transfer-learning variational-autoencoder
1
瑕疵检测代码-matlab 使用可变自动编码器-VAE进行异常检测 在化学材料,衣物和食品材料等的运输检查中,有必要检测正常产品中的缺陷和杂质。 在以下链接中,我共享了仅使用图像进行训练的,使用CAE来检测和定位异常的代码。 在此演示中,您可以学习如何将变式自动编码器(VAE)应用于此任务而不是CAE。 VAE使用潜在空间上的概率分布,并从该分布中采样以生成新​​数据。 要求 MATLAB版本应为R2019b及更高版本 用法 EN_VAE_Anomalydetection.mlx ・显示如何用英语训练VAE模型的示例 JP_VAE_Anomalydetection.mlx ・显示如何用日语训练VAE模型的示例 参考 自动编码变数贝叶斯[2013] Diederik P Kingma,Max Welling 版权所有2019-2020 The MathWorks,Inc.
2021-11-12 13:19:19 16.78MB 系统开源
1
β-VAE 下面两篇论文的Pytorch复制: 依赖关系 python 3.6.4 pytorch 0.3.1.post2 visdom 数据集 用法 初始化visdom python -m visdom.server 您可以通过以下方式重现结果 sh run_celeba_H_beta10_z10.sh sh run_celeba_H_beta10_z32.sh sh run_3dchairs_H_beta4_z10.sh sh run_3dchairs_H_beta4_z16.sh sh run_dsprites_B_gamma100_z10.sh 或者您可以通过手动设置参数来运行您自己的实验。 对于客观和模型参数,您有两个选项 H 和 B 表示 Higgins 等人提出的方法。 和 Burgess 等人,分别。 参数--C_max和--C_stop_iter应该在--obj
2021-11-10 16:10:26 3.87MB chairs-dataset vae unsupervised-learning beta-vae
1
这个实现的目标数据集是MNIST,通过VAE生成,可以给初学者一个直观的有趣的尝试
2021-11-09 16:32:08 1KB VAE 无监督学习 minst
1
对变分自编码的原理结构有详细的介绍,有助于初学者更好的理解
2021-11-09 12:07:33 3.74MB 深度学习 变分自编码
1
简单的VAE模型,方便大家入门
2021-10-18 22:10:44 54.48MB VAE模型
1
PyTorch VAE 在pytorch中实现的变体自动编码器(VAE)的集合,着重于可重复性。 该项目的目的是为其中许多很酷的VAE模型提供一个快速简单的工作示例。 所有模型都在上进行了训练,以一致性和比较性。 所有模型的架构在相同的层上都保持尽可能相似,除非原始论文需要根本不同的架构(例如,VQ VAE使用残差层,不使用批处理规范,这与其他模型不同)。 这是每个模型的。 要求 Python> = 3.5 PyTorch> = 1.3 Pytorch Lightning> = 0.6.0( ) 启用CUDA的计算设备 安装 $ git clone https://github.co
1
MNIST / CIFAR10的预训练GAN,VAE +分类器 在pytorch中使用GAN / VAE建模的简单起点。 包括模型类定义+培训脚本 包括笔记本电脑,其中显示了如何加载预训练的网络/如何使用它们 用pytorch 1.0+测试 生成与数据集图像大小相同的图像 mnist 使用基于的体系结构生成MNIST数据集(28x28)大小的图像。 训练了100个纪元。 重量。 数据样本 dcgan样本 样品 为了与不那么复杂的体系结构进行比较,我还在文件夹中包含了一个预训练的非卷积GAN,它基于代码(训练了300个纪元)。 我还基于在文件夹中包含了经过预训练的LeNet分类器,该分类器可实现99%的测试准确性。 cifar10 cifar10 gan来自pytorch示例回购,并实现了DCGAN论文。 它只需要很小的改动就可以生成大小为cifar10数据集(32x32x3)的
2021-10-10 13:40:14 88.1MB python machine-learning statistics ai
1
变种火炬自动编码器 Pytorch中针对MNIST数据集的VAE实现 嘿大家! 在这里,我将展示我创建VAE来复制MNIST数据集的项目的所有代码 目录 基本信息 该项目的灵感来自Sovit Ranjan Rath的文章 技术领域 使用以下项目创建项目: Python版本:3.8.5 Pytorch版本:1.8.0 脾气暴躁:1.19.2
2021-10-10 13:32:56 5.4MB JupyterNotebook
1