TensorFlow中的深度学习模型 该存储库包含使用实现几种深度学习模型的jupyter笔记本。 每个笔记本均包含有关每种型号的详细说明,希望可以简化所有步骤。 笔记本在Python 3.6,Tensorflow 1.8中运行 楷模:
2023-05-08 23:00:21 270KB python machine-learning deep-learning notebook
1
# Pytorch实现VAE变分自动编码器生成MNIST手写数字图像 1. VAE模型的Pytorch源码,训练后其解码器就是生成模型; 2. 在MNIST数据集上训练了50个epochs,训练过程的生成效果放在result文件夹下,训练后的模型保存为model.pth,可用于生成新的手写数字图像; 3. 训练代码会自动下载MNIST数据集,运行代码即可自行训练。
2022-06-11 11:06:27 5.53MB pytorch vae 变分自动编码器 手写数字
在化工原料、服装、食品原料等的出货检验中,需要检测正常产品的缺陷和杂质。 在以下链接中,我分享了使用 CAE 检测和定位异常的代码,仅使用图像进行训练。 在此演示中,您可以学习如何将变分自动编码器 (VAE) 而非 CAE 应用于此任务。 VAE使用潜在空间上的概率分布,并从该分布中采样以生成新​​数据。 [日本人]以下链接介绍了仅使用正常图像训练 CAE 模型的代码,可以使用深度学习检测和定位与正常图像混合的异常。此演示将向您展示如何应用变分自动编码器。 VAE 使用潜在变量的概率分布和来自该分布的样本来生成新数据。 ■ 使用深度学习 (CAE) 进行异常检测和定位https://jp.mathworks.com/matlabcentral/fileexchange/72444-anomaly-detection-and-localization-using-deep-learn
2022-04-13 22:10:20 33.55MB matlab
1
矢量量化变分自编码器 这是矢量量化变分自动编码器( )的PyTorch实现。 您可以找到作者的带有。 安装依赖项 要安装依赖项,请使用Python 3创建一个conda或虚拟环境,然后运行pip install -r requirements.txt 。 运行VQ VAE 要运行VQ-VAE,只需运行python3 main.py 如果要保存模型,请确保包括-save标志。 您也可以在命令行中添加参数。 默认值指定如下: parser . add_argument ( "--batch_size" , type = int , default = 32 ) parser . add_argument ( "--n_updates" , type = int , default = 5000 ) parser . add_argument ( "--n_hiddens" , type
2022-04-10 15:32:57 158KB JupyterNotebook
1
量子自动编码器:经典量子(变分)自动编码器的实现
2022-03-22 18:40:30 942KB quantum-computing autoencoders JupyterNotebook
1
GTEx数据集(V8)的条件变量自动编码器 该项目旨在使用生成模型生成合成基因表达数据。 我们首先研究数据的3D表示形式以及可能要依据的变量,以便有效地分离分布。 当前模型以组织为条件。 组织着色的GTEx数据集(1000个随机基因)的3D表示形式(UMAP,TSNE,PCA): CVAE当前的重建质量,取决于组织。 基于: 对VAE方差损失论文: , , 项目进度: 基准模型创建 评估潜在空间中的均值,绝对差和分组的函数 模型调整 潜在空间大小 批次大小,学习率(应尽早确定时期数) 附加致密层的数量,每个附加层中神经元的数量 有条件的VAE模型(条件之一:组织或年龄) b-VAE模型(损失函数中的MSE / KL散度权重) 相关的VAE( ) torch_model.py神经网络的层和属性 gtex_loder.py加载基因表达数据集 torch_train
2022-01-10 10:05:56 1.65MB gene-expression pytorch gtex vae-implementation
1
变压器CVAE 该存储库包含纸质源代码: @article{fang2021transformer, title={Transformer-based Conditional Variational Autoencoder for Controllable Story Generation}, author={Fang, Le and Zeng, Tao and Liu, Chaochun and Bo, Liefeng and Dong, Wen and Chen, Changyou}, journal={arXiv preprint arXiv:2101.00828}, year={2021} } 获取源数据( , , , )。 数据预处理(数据/)。 训练(从并行性和精度的几种不同实现中选择:train.py,train_dist.py,train_
2021-12-21 22:01:39 12.62MB Python
1
变分自编码器 (VAE) + 迁移学习 (ResNet + VAE) 该存储库在 PyTorch 中实现了 VAE,使用预训练的 ResNet 模型作为其编码器,使用转置卷积网络作为解码器。 数据集 1. MNIST 数据库包含 60,000 张训练图像和 10,000 张测试图像。 每个图像均保存为28x28矩阵。 2. CIFAR10 数据集包含10个类别的60000个32x32彩色图像,每个类别6000个图像。 3. Olivetti 人脸数据集 脸数据集由 40 个不同主题的 10 张 64x64 图像组成。 模型 模型包含一对编码器和解码器。 编码器 将 2D 图像x压缩为较低维度空间中的向量z ,该空间通常称为潜在空间,而解码器 接收潜在空间中的向量,并在与编码器输入相同的空间中输出对象。 训练目标是让encoder和decoder的组合“尽可能接近identity”。
2021-11-19 02:51:19 10.88MB vae resnet transfer-learning variational-autoencoder
1
va 结点树变分自动编码器实现尝试 回购现在处于存档模式原始文件的工作源 我的叉子具有python3兼容性和一些性能改进
2021-09-29 10:54:07 3.19MB JupyterNotebook
1
[英语] 这个例子展示了如何在 MATLAB 中创建一个条件变分自动编码器 (VAE) 来生成数字图像。VAE 生成具有 MNIST 数据集样式的手绘数字。与变分自动编码器 (VAE) 不同的是,条件 VAE 可以输入要生成的类标签,可以合成更清晰的图像。条件GAN(生成对抗网络)也是合成图像的变量。来自VAE的合成图像往往会模糊,因为此类图像的损失值变低。使用GANs ,问题可能会得到解决。 https://jp.mathworks.com/matlabcentral/fileexchange/74921-conditional-gan-generative-adversarial-network-with-mnist [日本人]这个演示实现了一个条件变分自动编码器。与普通变分自编码器的不同之处在于,您可以指定要生成的图像的标签。这将允许您生成更清晰的图像。 由于VAE的机制,当生成的
2021-09-21 17:05:09 5MB matlab
1