史上最齐全的YOLOv5预训练模型,共10种预训练权重。附带各个权重性能比对图。使用后可以实现目标检测多达80种物体
2022-04-06 12:05:19 768.31MB 目标检测 人工智能 计算机视觉 YOLOv5
1
pretrained_model-使用pytorch/examples/mnist训练的 MNIST 模型的路径。 为简单起见,请在此处下载预训练模型。
2022-04-06 03:12:16 80KB pytorch python 机器学习 人工智能
1
已经配置好了预训练模型和训练好的模型 已经配置好了下载为鸟类预处理的元数据 除了没有CUB-birds的图像数据集,其他文件都已经下载并配置好了。 AttnGAN: Fine-Grained TexttoImage Generation with Attention(带有注意的生成对抗网络细化文本到图像生成)的代码复现 下载后需要安装环境 >pip install python-dateutil > pip install easydict > pip install pandas > pip install torchfile nltk > pip install scikit-image 可能需要额外安装的环境,根据提示进行补充: > pip install torchvision
2022-04-06 03:11:56 232.57MB GAN t2i 文本生成图像
swinUet官方代码中需要的预训练权重 权重名称:swin_tiny_patch4_window7_224.pth
2022-04-06 03:11:29 109.05MB 神经网路权重
1
细节增强的matlab代码预训练的EfficientDet-D0网络用于物体检测 该存储库为MATLAB:registered:提供了预训练的EfficientDet-D0 [1]对象检测网络。 要求 MATLAB:registered:R2021a或更高版本 深度学习工具箱:trade_mark: 计算机视觉工具箱:trade_mark: 适用于ONNX Model Format:trade_mark:支持包的深度学习工具箱转换器 概述 该存储库提供经过训练可检测不同物体类别(包括人,汽车,交通信号灯等)的EfficientDet-D0网络。该预训练模型使用COCO 2017 [3]数据集进行训练,该数据集具有80个不同的物体类别。 EfficientDet-D0很大程度上遵循一级对象检测器范例,并使用预定义的锚点来检测对象。 借助通过快速归一化增强的加权双向特征金字塔网络,它利用了来自不同级别骨干网络的便捷,快速的多尺度特征融合。 入门 将此存储库下载或克隆到您的计算机,然后在MATLAB:registered:中打开它。 设置 将路径添加到源目录。 addpath('src'); 下载预训练的网络 使用下面的帮助程序来下载预训练的网络。 model = helper.downloadPretrainedEff
2022-04-05 10:40:01 353KB 系统开源
1
deblurGAN V2预训练模型.zip
2022-04-01 23:22:29 240.5MB deblurGANV2预训练模
1
Pretrained-Unilm-Chinese 中文版unilm预训练语言模型 Table of Contents Background 最近由于公司业务的需要,做了一些基于预训练seq2seq模型的文本生成式任务,研究了、、之后,发现unilm这风格的seq2seq非常优雅。但是作者只开源了英文版的预训练模型,在git上也没找到合适的中文版unilm的预训练模型以及预训练代码,于是自己写了一个tensorflow版本。本项中预训练基于tensorflow-gpu==1.14.0,后续的微调任务基于。 Pretrain Training Data 简体中文维基百科数据,处理成一行一行句子对的形式。 Input Mask And Attention Mask 在一条数据中随机mask15%的token,被mask的token中80%用[MASK]表示,10%从vocab中随机选择一个tok
2022-04-01 20:52:33 1.55MB Python
1
内包含ResNet50网络模型,模型预训练参数(.h5文件,基于tf2),以及一项使用tf2实现的对ResNet50的网络结构和预训练参数的分开调用。
2022-04-01 20:19:54 90.77MB 卷积神经网络 ResNet50 模型预训练参数
1
基于Transformer的预训练语言模型(T-PTLMs)在几乎所有的自然语言处理任务中都取得了巨大的成功。这些模型的发展始于GPT和BERT。这些模型建立在Transformer、自监督学习和迁移学习的基础上。基于转换的PTLMs通过自监督学习从大量文本数据中学习通用语言表示,并将这些知识转移到下游任务中。这些模型为下游任务提供了良好的背景知识,避免了对下游模型从头开始的训练。
2022-03-29 22:14:18 5.63MB #资源达人分享计划# 预训练模型
1
https://github.com/NathanUA/U-2-Net工程的预训练模型,u2netp.pth,u2net.pth已有作者上传
2022-03-29 14:10:00 4.47MB 深度学习
1