在CIFAR-10数据集上训练的PyTorch模型 我修改了官方实施的流行CNN模型,并对CIFAR-10数据集进行了训练。 我在原始代码中更改了类的数量,过滤器大小,步幅和填充,以便它可以与CIFAR-10一起使用。 我也共享这些模型的权重,因此您只需加载权重并使用它们即可。 通过使用PyTorch-Lightning,该代码具有很高的可复制性和可读性。 支持模型的统计 不。 模型 值累积 否。参数 尺寸 1个 vgg11_bn 92.39% 28.150百万 108兆字节 2个 vgg13_bn 94.22% 28.334百万 109兆字节 3 vgg16_bn 94.00% 33.647百万 129兆字节 4 vgg19_bn 93.95% 38.959百万 149兆字节 5 网路18 93.07% 11.174百万 43兆字节 6 资源34 9
1
ViT PyTorch 快速开始 使用pip install pytorch_pretrained_vit安装,并使用以下命令加载经过预训练的ViT: from pytorch_pretrained_vit import ViT model = ViT ( 'B_16_imagenet1k' , pretrained = True ) 或找到Google Colab示例。 概述 该存储库包含来自的架构的按需PyTorch重新实现,以及预训练的模型和示例。 此实现的目标是简单,高度可扩展且易于集成到您自己的项目中。 目前,您可以轻松地: 加载预训练的ViT模型 评估ImageNet或您自己的数据 在您自己的数据集上微调ViT (即将推出的功能)即将推出: 在ImageNet(1K)上从头训练ViT 导出到ONNX以进行有效推理 目录 关于ViT 视觉变压器(ViT)是在图像
2021-12-08 17:30:52 1.14MB Python
1
C3D的视频分类: 对于一段视频来说,它是连续的帧图像叠加起来的,所以可以考虑在生成通道图像的时候,把多帧图像叠加的特性讨论进去。3D ConvNets比2D ConvNets更适用于时空特征的学习;
2021-12-06 20:52:37 305.14MB C3D
1
PyTorch预训练的伯特 该存储库包含的PyTorch重新实现,该论文与雅各布·德夫林,张明伟,张建伟,李健和克里斯蒂娜·图塔诺娃(Kristina Toutanova)。 ,示例,笔记本和命令行界面都提供了此实现,还可以为BERT加载任何预训练的TensorFlow检查点。 内容 部分 描述 如何安装套件 包装概述 快速入门示例 详细文件 有关如何微调Bert的详细示例 随附的Jupyter笔记本简介 有关TPU支持和预培训脚本的说明 在PyTorch转储中转换TensorFlow检查点 安装 此仓库已在Python 3.5+和PyTorch 0.4.1 / 1.0.0上进行了测试 带点子 PyTorch预训练的bert可以通过pip安装,如下所示: pip install pytorch-pretrained-bert 从来源 克隆存储库并运行: pip install [--e
2021-11-24 18:05:00 124KB 附件源码 文章源码
1
PyTorch图像模型 赞助商 非常感谢我的的支持! 除了以上链接的赞助商之外,我还从以下位置获得了硬件和/或云资源: 英伟达( ) TFRC( ) 我很幸运能够自己投入大量时间和金钱来支持这个项目和其他开源项目。 但是,随着项目范围的扩大,需要外部支持来继续当前的硬件,基础设施和电力成本轨迹。 什么是新的 2021年5月5日 从添加MLP-Mixer模型和端口预训练权重 从添加CaiT模型和预训练权重 从添加ResNet-RS模型和权重。 添加CoaT模型和权重。 感谢 为TResNet,MobileNet-V3,ViT模型添加新的ImageNet-21k权重和微调的权重。 谢谢 添加GhostNet模型和权重。 谢 更新ByoaNet注意模型 改进SA模块的初始化 将基于实验的独立Swin attn模块和swinnet 实验的一致“ 26t”模型定义。 添加改进的
2021-11-16 15:52:37 14.12MB pytorch resnet pretrained-models mixnet
1
PyTorch图像模型 赞助商 非常感谢我的的支持! 除了以上链接的赞助商之外,我还从以下位置获得了硬件和/或云资源: 英伟达( ) TFRC( ) 我很幸运能够自己投入大量时间和金钱来支持这个项目和其他开源项目。 但是,随着项目范围的扩大,需要外部支持来继续当前的硬件,基础设施和电力成本轨迹。 什么是新的 2021年5月5日 从添加MLP-Mixer模型和端口预训练权重 从添加CaiT模型和预训练权重 从添加ResNet-RS模型和权重。 添加CoaT模型和权重。 感谢 为TResNet,MobileNet-V3,ViT模型添加新的ImageNet-21k权重和微调的权重。 谢谢 添加GhostNet模型和权重。 谢 更新ByoaNet注意模型 改进SA模块的初始化 将基于实验的独立Swin attn模块和swinnet 实验的一致“ 26t”模型定义。 添加改进的E
2021-11-14 12:09:56 14.12MB pytorch resnet pretrained-models mixnet
1
今天小编就为大家分享一篇PyTorch加载预训练模型实例(pretrained),具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2021-11-05 16:56:15 29KB PyTorch 预训练 模型 pretrained
1
MNIST / CIFAR10的预训练GAN,VAE +分类器 在pytorch中使用GAN / VAE建模的简单起点。 包括模型类定义+培训脚本 包括笔记本电脑,其中显示了如何加载预训练的网络/如何使用它们 用pytorch 1.0+测试 生成与数据集图像大小相同的图像 mnist 使用基于的体系结构生成MNIST数据集(28x28)大小的图像。 训练了100个纪元。 重量。 数据样本 dcgan样本 样品 为了与不那么复杂的体系结构进行比较,我还在文件夹中包含了一个预训练的非卷积GAN,它基于代码(训练了300个纪元)。 我还基于在文件夹中包含了经过预训练的LeNet分类器,该分类器可实现99%的测试准确性。 cifar10 cifar10 gan来自pytorch示例回购,并实现了DCGAN论文。 它只需要很小的改动就可以生成大小为cifar10数据集(32x32x3)的
2021-10-10 13:40:14 88.1MB python machine-learning statistics ai
1
NFNet Pytorch实施 此回购包含来自未经归一化的高性能大型图像识别论文的,具有ImageNet高精度的预训练NFNet模型F0-F6。 小型模型的精度与EfficientNet-B7一样,但训练速度快了8.7倍。 大型模型在ImageNet上设置了新的SOTA top-1精度。 NFNet F0 F1 F2 F3 F4 F5 F6 + SAM 最高为1的准确性Brock等人。 83.6 84.7 85.1 85.7 85.9 86.0 86.5 此实现的Top-1精度 82.82 84.63 84.90 85.46 85.66 85.62 待定 所有学分归的作者所有。 该在很大程度上受到其在出色的JAX实现的启发。 拜访他们的回购网站以作参考。 开始吧 git clone https://github.com/benjs/nfnet
1
使用PyTorch对预训练的卷积神经网络进行微调。 产品特点 可以访问ImageNet上经过预训练的最受欢迎的CNN架构。 自动替换网络顶部的分类器,使您可以使用具有不同类数的数据集训练网络。 使您可以使用任何分辨率的图像(不仅限于在ImageNet上用于训练原始模型的分辨率)。 允许添加一个Dropout层或一个自定义池层。 支持的架构和模型 从包中: ResNet( resnet18 , resnet34 , resnet50 , resnet101 , resnet152 ) ResNeXt( resnext50_32x4d , resnext101_32x8d ) Dens
1