unet++ 预训练模型,conv2d
2022-04-13 17:33:47 271.04MB python
1
今天小编就为大家分享一篇pytorch载入预训练模型后,实现训练指定层,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2022-04-08 12:23:31 45KB pytorch 训练 指定层
1
该文件是SkyAR项目的预训练模型。Castle in the Sky: Dynamic Sky Replacement and Harmonization in Videos
2022-04-07 15:16:14 563.07MB 预训练模型 SkyAR 天空置换 深度学习
1
Learnable Triangulation of Human Pose文章代码中的有关human36m数据集的预训练模型,包括基于体积和三角化的模型以及pose_resnet的预训练模型。放在data\pretrained目录下解压。
2022-04-06 22:32:54 843.68MB human36m 人体姿态识别 预训练模型
1
EfficientDet官方预训练模型,关注即可免积分下载,解决下载过慢的问题。资源会按照官方及时更新,欢迎下载哦~
1
史上最齐全的YOLOv5预训练模型,共10种预训练权重。附带各个权重性能比对图。使用后可以实现目标检测多达80种物体
2022-04-06 12:05:19 768.31MB 目标检测 人工智能 计算机视觉 YOLOv5
1
pretrained_model-使用pytorch/examples/mnist训练的 MNIST 模型的路径。 为简单起见,请在此处下载预训练模型
2022-04-06 03:12:16 80KB pytorch python 机器学习 人工智能
1
deblurGAN V2预训练模型.zip
2022-04-01 23:22:29 240.5MB deblurGANV2预训练模
1
Pretrained-Unilm-Chinese 中文版unilm预训练语言模型 Table of Contents Background 最近由于公司业务的需要,做了一些基于预训练seq2seq模型的文本生成式任务,研究了、、之后,发现unilm这风格的seq2seq非常优雅。但是作者只开源了英文版的预训练模型,在git上也没找到合适的中文版unilm的预训练模型以及预训练代码,于是自己写了一个tensorflow版本。本项中预训练基于tensorflow-gpu==1.14.0,后续的微调任务基于。 Pretrain Training Data 简体中文维基百科数据,处理成一行一行句子对的形式。 Input Mask And Attention Mask 在一条数据中随机mask15%的token,被mask的token中80%用[MASK]表示,10%从vocab中随机选择一个tok
2022-04-01 20:52:33 1.55MB Python
1
基于Transformer的预训练语言模型(T-PTLMs)在几乎所有的自然语言处理任务中都取得了巨大的成功。这些模型的发展始于GPT和BERT。这些模型建立在Transformer、自监督学习和迁移学习的基础上。基于转换的PTLMs通过自监督学习从大量文本数据中学习通用语言表示,并将这些知识转移到下游任务中。这些模型为下游任务提供了良好的背景知识,避免了对下游模型从头开始的训练。
2022-03-29 22:14:18 5.63MB #资源达人分享计划# 预训练模型
1