这是介绍的TAC-GAN模型的Tensorflow实现。 文本条件辅助分类器生成对抗网络(TAC-GAN)是一种文本到图像的生成对抗网络(GAN),用于从文本描述中合成图像。 TAC-GAN在 -GAN的基础上,通过将生成的图像置于文本描述而不是类标签进行调节。 在提出的TAC-GAN模型中,基于噪声矢量和另一个包含文本描述的嵌入式表示的矢量来构建生成网络的输入矢量。 尽管鉴别器类似于AC-GAN的鉴别器,但在进行分类之前,它也得到了增强,可以接收文本信息作为输入。 为了将图像的文本描述嵌入到矢量中,我们使用了 以下是TAC-GAN模型的体系结构 先决条件 以下是一些重要的依赖项,其余的可以使用requirements.txt安装 的Python 3.5 :用于跳过思想向量 :用于跳过思想向量 :用于跳过思想向量 建议使用虚拟环境来运行此项目,并通过使用文件在其中安装所需的依赖
2023-02-22 01:29:52 57KB Python
1
打包一键 运行cpu 可以使用 打包一键 运行cpu 可以使用打包一键 运行cpu 可以使用
2022-11-22 15:29:37 229B texttoimage AI绘画
很小巧的文字转为图片工具,可设置文字的背景图片,文字可设置字体与颜色
2022-10-05 09:05:17 3.83MB text-to-image-
1
CLIP-GEN 是一个 Language-Free 的文本生成图像的方法,它不依赖图文训练样本,通过预训练 CLIP 模型的强大表征能力,只需要图片数据就可以训练出一个文本生成图像的模型。该方法的基本原理是:CLIP-GEN 首先会训练一个 VQ-GAN,把图片映射到离散空间;然后再训练一个 GPT 模型,把 CLIP embedding 映射到 VQ-GAN 的离散空间;由于在 CLIP 中,文本和图像共享一个特征空间,在 inference 的时候我们就可以通过同样的方法把文本映射到 VQ-GAN 的离散空间,然后 decode 为 RGB 图像。
2022-08-23 11:05:54 6.5MB CLIP-GEN Text-to-ImageGe
1
VQGAN-CLIP 概述 用于在本地运行 VQGAN+CLIP 的存储库。 这最初是 Katherine Crowson VQGAN+CLIP 派生的 Google colab 笔记本。 原笔记本: 一些示例图像: 环境: 在 Ubuntu 20.04 上测试 GPU:英伟达RTX 3090 典型的 VRAM 要求: 24 GB 用于 900x900 图像 10 GB 用于 512x512 图像 8 GB 用于 380x380 图像 设置 使用 Anaconda 创建具有先决条件的虚拟 Python 环境的示例设置: conda create --name vqgan python=3.9 conda activate vqgan pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 torchaudio==0.
2021-12-28 15:31:36 30.57MB text-to-image text2image Python
1
matlab加密代码文本到图像加密MATLAB encryption.m: 一种使用字符串的ascii码作为像素颜色将字符串加密成图像的函数。 DEcryption.m: 另一个将图片解密为原始字符串的功能。
2021-12-03 22:49:35 1KB 系统开源
1
OpenAI 成功训练了一个能够从文本标题生成图像的网络。 它与 GPT-3 和 Image GPT 非常相似,并产生了惊人的结果。
2021-11-25 20:02:04 9.13MB ai ieee论文 代码 复现
unsupervised text-to-image synthesis代码 无注释。
2021-11-12 11:05:34 153KB python
1
通过预训练模型进行AttnGAN推理 运行推断 涉及三个步骤。 创建容器(可选地,选择cpu或gpu dockerfile: docker build -t "attngan" -f dockerfile.cpu . 运行容器: docker run -it --name attngan -p 8888:8888 attngan bash 运行jupyter笔记本。 学分 所有代码均已从借用。 此回购协议只是将评估api简化为一个Jupyter笔记本,而不是托管在Azure上。
1