CVAE-GAN-ZOOS-PyTorch-初学者 首先先感谢给小透明点赞的几个朋友。 中文讲解: 如果你是第一次接触AE自编码器和GAN生成对抗网络,那这将会是一个非常有用且效率的学习资源。所有的内容使用PyTorch编写,编写格式清晰,非常适合PyTorch新手作为学习资源。本项目的所有模型当前都是基于MNIST数据库进行图片生成。MNIST数据集是一个比较小,一个光CPU可以运行起来的小数据库。新人友好数据库。 本项目包含以下模型:AE(自编码器),DAE(降噪自编码器),VAE(变分自编码器),GAN(对抗生成网络),CGAN(条件对抗生成网络),DCGAN(深度)卷积对抗生成网络),WGAN(Wasserstain对抗生成网络),WGAN-GP(基于渐变惩罚的WGAN),VAE-GAN(变分自编码对抗生成网络),CVAE-GAN(条件变分自编码对抗生成)网络)PS:部分英文翻译的
2021-05-12 17:22:58 42.61MB Python
1
PyTorch的FID分数 这是FréchetInception 到PyTorch正式实施的端口。 有关使用Tensorflow的原始实现,请参见 。 FID是两个图像数据集之间相似度的度量。 它被证明与人类对视觉质量的判断具有很好的相关性,并且最常用于评估生成对抗网络的样本质量。 通过计算两个高斯函数之间的来计算FID,这些高斯函数适合于Inception网络的特征表示。 有关可以找到进一步的见解和对FID分数的独立评估 。 权重和模型的权重和模型完全相同,并经过测试得出了非常相似的结果(例如,使用ProGAN生成的图像,LSUN上的.08绝对误差和0.0009相对误差)。 但是,由于
1
使用Pix2Pix GAN将Google Satelite Image转换为Streetmap图像 Pix2Pix GAN是图像到图像转换的通用方法。 它基于条件生成对抗网络,其中生成目标图像,该目标图像以给定输入图像为条件。 提出了Pix2Pix GAN的思想。 根据该论文,该模型不仅学习从源图像到目标图像的映射,而且学习损失函数以训练该映射。 网络架构 生成器是经过修改的U-net模型,它将RGB图像作为输入,然后尝试将其映射到相同形状的另一个RGB图像。 鉴别器是一个PatchGan,输出一个30x30的矩阵,然后用于计算对抗损失。 数据集 可以使用此从Kaggle下载数据集。 下载数据集后,将其提取到data / dataset文件夹中。 超参数 source_images = 1096 target_images = 1096 IMAGE_HEIGHT = 256 IMAGE_W
2021-05-11 17:29:52 5.14MB computer-vision deep-learning tensorflow gan
1
手写数字生成 PyTorch实现-使用MNIST数据集的GAN模型生成/识别手写数字 项目目标 目标是使用在MNIST数据集上训练的生成对抗网络(GAN)生成新的手写数字。 GAN(生成对抗网络) GAN最早是在2014年由Ian Goodfellow和Yoshua Bengio实验室的其他人报道的。 从那时起,GAN爆炸式增长。 GAN的思想是使用两个网络相互竞争,即生成器G和鉴别器D。 生成器使“伪”数据传递到鉴别器。 鉴别器还可以看到真实的训练数据,并预测接收到的数据是真实的还是伪造的。 训练了生成器以欺骗鉴别器,它希望输出看起来尽可能接近真实训练数据的数据。 鉴别器是经过训练的分类器,用于确定哪些数据是真实的,哪些数据是伪造的。 最终发生的事情是,生成器学会了将与真实数据无法区分的数据制作到鉴别器。 参考 [Pix2Pix]
2021-05-11 16:31:11 2.49MB
1
半监督学习生成对抗网络的Tensorflow实现
2021-05-11 10:06:34 19.76MB Python开发-机器学习
1
该资源中,论文中英文版本资源都有,Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network 这篇文章的中文翻译 中文名:使用生成对抗网络的逼真的单图像超分辨率 通过谷歌翻译百度翻译等多种翻译单句单句翻译的,格式和公式已经矫正过了,没有乱码。GAN的经典文章,学习生成对抗网络的著名论文,优质翻译你值得拥有,谁用谁知道!
2021-05-10 23:24:33 15.74MB GAN 翻译 生成对抗网络 photo-realistic
1
提出一种结合群体交互信息和个体运动信息的生成对抗网络GI-GAN。首先,利用编码层中的双向长短期记忆网络BiLSTM提取观测时段内所有行人自身的运动行为隐藏特征;其次,基于双注意力模块,计算与轨迹生成关联度较高的个体运动信息和群体交互信息;最后,利用生成对抗网络进行全局联合训练,获得反向传播误差和各层的合理网络参数,解码器利用已获取的上下文信息生成多条合理预测轨迹。实验表明,与S-GAN模型相比,GI-GAN模型的平均位移误差和绝对位移误差分别降低了8.8%和9.2%,并且预测轨迹具有更高的精度和合理多样性。
2021-05-10 21:46:02 9.35MB 图像处理 行人轨迹 双注意力 生成对抗
1