阿根 | | PyTorch实现可控制的人的图像合成。 ,,,,,北京大学和ByteDance人工智能实验室,CVPR 2020(口服)。 组件属性传递 姿势转移 要求 Python3 pytorch(> = 1.0) 火炬视觉 麻木 科学的 scikit图像 枕头 大熊猫 tqdm 支配 入门 您可以直接从下载我们生成的图像(在Deepfashion中)。 安装 克隆此仓库: git clone https://github.com/menyifang/ADGAN.git cd ADGAN 数据准备 为了方便起见,我们使用DeepFashion数据集并提供数据集拆分文件,提取的关键点文件和提取的细分文件。 推荐数据集结构为: +—deepfashion | +—fashion_resize | +--train (files in 'train.l
1
UNet Stylegan2 使用UNet Discriminator实现Stylegan2。该存储库的工作方式与大致相同。只需将所有stylegan2_pytorch命令替换为stylegan2_pytorch unet_stylegan2 。 更新:结果非常好。将需要研究将其与其他一些技术结合起来,然后我将编写完整的使用说明。 安装 $ pip install unet-stylegan2 用法 $ unet_stylegan2 --data ./path/to/data 引文 @misc { karras2019analyzing , title = { Analyzing and Improving the Image Quality of StyleGAN } , author = { Tero Karras and Samuli Laine and Miika
1
EdgeConnect:具有对抗性边缘学习的生成图像修复 | 介绍: 我们开发了一种新的图像修补方法,可以更好地再现填充区域,这些填充区域显示出精细的细节,这是受我们对艺术家工作方式的理解所启发:首先是线条,然后是颜色。 我们提出了一个两阶段对抗模型EdgeConnect,该模型由一个边缘生成器和一个图像完成网络组成。 边缘生成器使图像的缺失区域(规则的和不规则的)产生幻觉,并且图像完成网络使用幻觉的边缘作为先验来填充缺失区域。 该系统的详细说明可以在我们的找到。 (a)输入缺少区域的图像。 缺失的区域以白色表示。 (b)计算的边缘遮罩。 黑色绘制的边缘是使用Canny边缘检测器(针
1
生成压缩 TensorFlow实现,用于使用生成对抗网络来学习图像压缩。 该方法由Agustsson等开发。 等基于。 提出的想法非常有趣,并且对它们的方法进行了详细描述。 用法 代码取决于 # Clone $ git clone https://github.com/Justin-Tan/generative-compression.git $ cd generative-compression # To train, check command line arguments $ python3 train.py -h # Run $ python3 train.py -opt momen
1
TensorLayer中的DCGAN 这是的TensorLayer实现。 寻找文本到图像合成? :NEW_button: :fire: 2019年5月:我们只是更新了此项目以支持TF2和TL2。 请享用! :NEW_button: :fire: 2019年5月:该项目被选为TL项目的默认模板。 先决条件 的Python3.5 3.6 TensorFlow == 2.0.0a0 pip3 install tensorflow-gpu==2.0.0a0 TensorLayer = 2.1.0 pip3 install tensorlayer==2.1.0 用法 首先,将对齐的面部图像从或到data文件夹。 其次,训练GAN: $ python
1
在TensorFlow / TensorLayer中开始 BEGAN的TensorFlow / TensorLayer实现 先决条件 Python 2.7或Python 3.3+ 用法 首先,将图像下载到data/celebA : $ python download.py celebA [202599 face images] 其次,训练GAN: $ python main.py --point "25 58" 第三,使用训练有素的生成器生成人脸: $ python generate.py --num_imgs 1000 CelebA的结果 从头到60k(每500次迭代捕获帧)。 gamma=0.5
1
借助生成对抗网络实现无人监督的深度图像增强 IEEE图像处理事务(T-IP) 1 ,1 ,1 ,2 , 1 [ ] [ ] 1香港城市大学, 2美团集团 介绍 该网站共享IEEE图像处理事务(T-IP),第一卷,“通过生成的对抗网络实现无监督的深度图像增强”的代码。 2020年9月29日,第9140-9151页。 抽象的 对于公众而言,提高图像的美学质量是充满挑战和渴望的。 为了解决这个问题,大多数现有算法都是基于监督学习方法来学习用于配对数据的自动照片增强器,该照片增强器由低质量的照片和相应的专家修饰版本组成。 但是,专家修饰的照片的样式和特征可能无法满足一般用户的需求或偏好。 在本文中,我们提出了一种无监督的图像增强生成对抗网络(UEGAN),该网络以无监督的方式从一组具有所需特征的图像中学习相应的图像到图像的映射,而不是学习大量的成对图像。 所提出的模型基于单个深层GAN,该
1
从开源项目 网站: : 文档: : 仓库: : 执照: 发展状况: 概述 CTGAN是用于单个表数据的基于深度学习的合成数据生成器的集合,这些数据生成器能够从真实数据中学习并生成高保真度的合成克隆。 当前,该库论文实现在提出的CTGAN和TVAE模型。 有关这些型号的更多信息,请查阅相应的用户指南: 。 。 安装 要求 CTGAN已在 3.6、3.7上进行开发和测试 从PyPI安装 推荐的安装CTGAN的方法是使用 : pip install ctgan 这将从提取并安装最新的稳定版本。 用conda安装 CTGAN也可以使用安装: conda install -c sdv-dev -c pytorch -c conda-forge ctgan 这将从提取并安装最新的稳定版本。 使用范例 :warning_selector: 警告:如果您只是开始使用综合数据,我们建议您使用SDV库,该库提供
1
seqGAN PyTorch实现的“ SeqGAN:具有策略梯度的序列生成对抗网络”。 (于兰涛等)。 该代码经过高度简化,注释和(希望)易于理解。 实施的策略梯度也比原始工作( )简单得多,并且不涉及推广-整个句子使用单一奖励(受的示例启发) )。 使用的体系结构与原始工作中的体系结构不同。 具体而言,将循环双向GRU网络用作鉴别器。 该代码按论文中所述对合成数据进行实验。 我们鼓励您对代码作为问题的工作方式提出任何疑问。 要运行代码: python main.py main.py应该是您进入代码的入口。 技巧与观察 在这种情况下,以下黑客(从借来)似乎有效: 培训鉴别器
1
在PyTorch和PyTorch Lightning中生成深度学习模型的实现 DCGAN 论文: 作者:Alec Radford,Luke Metz,Soumith Chintala 代码(PyTorch): 由 码(闪电): 由 去做 DCGAN Pix2Pix 循环GAN SRGAN
2021-11-02 11:09:05 2.24MB pytorch generative-adversarial-network dcgan gans
1