地理信息系统网 介绍 这是通过单阶段很少学习的艺术字形图像合成的PyTorch官方实现。 抽象 自动生成艺术字形图像是一项艰巨的任务,吸引了许多研究兴趣。 先前的方法要么专门设计用于形状合成,要么专注于纹理转移。 在本文中,我们提出了一种新颖的模型AGIS-Net,该模型可以仅用几个样式化的样本就可以在一个阶段中同时传递形状和纹理样式。 为了实现这一目标,我们首先通过使用两个编码器来解开内容和样式的表示形式,以确保多内容和多样式的生成。 然后,我们利用两个协同工作的解码器来同时生成字形形状图像及其纹理图像。 此外,我们引入了局部纹理细化损失,以进一步提高合成纹理的质量。 通过这种方式,我们的单
2022-11-03 20:56:33 34.58MB font glyphs style-transfer gans
1
风格转移火炬 在PyTorch中实现神经风格转换(),支持CPU和Nvidia GPU。 它会自动进行多尺度(从粗到细)样式化,以生成高质量的高分辨率样式化,如果GPU有足够的内存,甚至可以达到打印分辨率。 如果有两个GPU,则它们都可以用来提高最大分辨率。 (使用两个GPU并不比使用一个GPU快。) 该算法已通过以下方式从文献中进行了修改: 使用PyTorch预训练的VGG-19砝码代替原始的VGG-19砝码 将VGG-19第一层的填充模式更改为“复制”,以减少边缘伪像 使用平均值池或L2池时,请根据经验得出的因子对结果进行缩放,以确保结果的幅度平均保持不变(Gatys等人(2015年)未执行此操作) 使用MSE损失的近似值,使其内容和样式损失的梯度L1范数约为1(以近似梯度归一化的效果,从而产生更好的视觉质量) 通过每个特征图通道中的元素数量而不是元素总数(Johnson等人)
2022-04-12 20:15:01 53KB pytorch style-transfer neural-art Python
1
pystiche:基于PyTorch的神经风格转移(NST)框架
2022-04-12 16:30:43 7.05MB python framework pytorch neural-style-transfer
1
的PyTorch实现 从原始存储库转换重量(需要TensorFlow 1.x) git clone https://github.com/TachibanaYoshino/AnimeGANv2 python convert_weights.py 推理 python test.py --input_dir [image_folder_path] --device [cpu/cuda] 转换后的[ ]样式模型的结果 (输入图像,原始tensorflow结果,pytorch结果从左到右) 脸部模型:从此提取出来,带有L2 + VGG + GAN损失和CelebA-HQ图像。 有关推断,请参见test_faces.ipynb 。 可以从下载模型文件(8MB)。 享受! 注意:不包含培训代码/在RTX3090 + PyTorch1.7.1上进行了测试/由于,转换后的权重结果略有不同
2022-03-16 21:14:50 7.37MB style-transfer image2image JupyterNotebook
1
超分辨率matlab代码小波域样式转移在单图像超分辨率中实现有效的感知失真权衡 ICCV 2019口头报告可以从以下链接下载不同数据集的结果: 这是ICCV论文“在单图像超分辨率中有效实现感知失真权衡的小波域样式转换”的实现。 第一步,您需要运行SWT.m来生成LL子带和六个高频子带。 第二步,请将上面生成的高频子带分别复制到Content和Style文件中,然后运行command.sh进行小波域风格传输。 可以从下载VGG文件,然后将其放在pre-trained_model文件中。 在第三步骤中,通过VDSR网络进一步增强了在第一步骤中生成的LL子带。 注意,需要针对不同的小波滤波器对网络进行重新训练。 所提供的模型仅适用于哈尔过滤器。 在第四步中,通过运行ISWT.m,使用逆SWT将生成的LL和高频子带重新组合为图像。 样式传送软件代码基于进行了修改。 NRQM分数是使用PIRM挑战提供的matlab代码计算的。
2021-12-19 09:33:28 10.99MB 系统开源
1
Android NDK上的GPU加速TensorFlow Lite应用程序。 在Android NDK上运行并测量TensorFlow Lite GPU委托的性能。 1.应用 轻巧的人脸检测。 更高精确度的人脸检测。 检测面部并估计其年龄和性别 基于预训练模型 使用Moilenet进行图像分类。 物体检测 使用MobileNet SSD进行对象检测。 头发分割 头发分割和重新着色。 3D姿势 从单个RGB图像进行3D姿势估计。 虹膜检测 通过检测虹膜来估计眼睛位置。 姿势网 姿势估计。 深度估计(DenseDepth) 从单个图像进行深度估计。 基于https://github.com/ialhashim/DenseDepth的预训练模型 语义分割 为输入图像中的每个像素分配语义标签。 动漫自拍照 生成动漫风格的人脸图像。 基于https://githu
2021-12-11 20:15:30 234.93MB opengles style-transfer segmentation object-detection
1
快速的神经风格转换 Pytorch实现快速神经样式转换,结合3篇论文: , 神奈川大浪 春天的街角 用法 火车 如果您只想快速预览一些预训练的样式,请跳过 下载COCO 2014数据集(),假设您放入~/Data/COCO/train2014 准备样式图像,例如assets/styles/bxphai.jpg 基础训练: python fnst/train.py --dataset ~/Data/COCO/ --style assets/styles/bxphai.jpg 如果您想调整超参数和批处理大小,时期等的数量。 python fnst/train.py --help 程式化 您可以自己训练或使用一些预先训练的样式: 神奈川大浪( checkpoints/wave.pth ) 春天的街角checkpoints/dnson.pth Ngoc Son ( checkp
2021-10-02 14:51:40 25.1MB pytorch neural-style-transfer Python
1
PyTorch的深照片样式转换 PyTorch实施的“深层照片样式转换”: ://arxiv.org/abs/1703.07511 其他实施 信用 closed_form_matting.py是从“closed_form_matting.py中借用的。 neural_style.py是neural_style.py对的修改。
1
神经风格转换过渡视频处理 Brycen Westgarth和Tristan Jogminas 描述 该代码通过在视频帧之间的一系列参考样式图像之间生成平滑过渡,将图像处理技术扩展到视频。 生成的输出视频是输入视频的高度变化的艺术表现形式,包括不断变化的抽象图案和颜色,它们模仿了视频的原始内容。 用户对样式参考图像,样式序列顺序和样式序列长度的选择可以进行无限的用户实验,并可以创建无穷无尽的艺术趣味视频。 系统要求 该算法需要大量计算,因此如果您可以访问CUDA兼容的GPU,我强烈建议您通过安装驱动程序来优化其性能。 另外,您可以利用Google Colab笔记本提供的免费GPU资源。 即使使用GPU加速,该程序也可能需要花费几分钟来渲染视频。 配置 用户可以在config.py中设置视频属性和输入/输出文件位置的所有配置。 config.py中的可配置变量 描述 ROOT_PATH 输
2021-08-16 14:01:15 27.73MB Python
1
style-transfer-master.zip
2021-03-27 20:34:01 4.01MB 强化学习 深度学习
1