在CIFAR-10数据集上训练的PyTorch模型 我修改了官方实施的流行CNN模型,并对CIFAR-10数据集进行了训练。 我在原始代码中更改了类的数量,过滤器大小,步幅和填充,以便它可以与CIFAR-10一起使用。 我也共享这些模型的权重,因此您只需加载权重并使用它们即可。 通过使用PyTorch-Lightning,该代码具有很高的可复制性和可读性。 支持模型的统计 不。 模型 值累积 否。参数 尺寸 1个 vgg11_bn 92.39% 28.150百万 108兆字节 2个 vgg13_bn 94.22% 28.334百万 109兆字节 3 vgg16_bn 94.00% 33.647百万 129兆字节 4 vgg19_bn 93.95% 38.959百万 149兆字节 5 网路18 93.07% 11.174百万 43兆字节 6 资源34 9
1
PyTorch图像模型 赞助商 非常感谢我的的支持! 除了以上链接的赞助商之外,我还从以下位置获得了硬件和/或云资源: 英伟达( ) TFRC( ) 我很幸运能够自己投入大量时间和金钱来支持这个项目和其他开源项目。 但是,随着项目范围的扩大,需要外部支持来继续当前的硬件,基础设施和电力成本轨迹。 什么是新的 2021年5月5日 从添加MLP-Mixer模型和端口预训练权重 从添加CaiT模型和预训练权重 从添加ResNet-RS模型和权重。 添加CoaT模型和权重。 感谢 为TResNet,MobileNet-V3,ViT模型添加新的ImageNet-21k权重和微调的权重。 谢谢 添加GhostNet模型和权重。 谢 更新ByoaNet注意模型 改进SA模块的初始化 将基于实验的独立Swin attn模块和swinnet 实验的一致“ 26t”模型定义。 添加改进的
2021-11-16 15:52:37 14.12MB pytorch resnet pretrained-models mixnet
1
PyTorch图像模型 赞助商 非常感谢我的的支持! 除了以上链接的赞助商之外,我还从以下位置获得了硬件和/或云资源: 英伟达( ) TFRC( ) 我很幸运能够自己投入大量时间和金钱来支持这个项目和其他开源项目。 但是,随着项目范围的扩大,需要外部支持来继续当前的硬件,基础设施和电力成本轨迹。 什么是新的 2021年5月5日 从添加MLP-Mixer模型和端口预训练权重 从添加CaiT模型和预训练权重 从添加ResNet-RS模型和权重。 添加CoaT模型和权重。 感谢 为TResNet,MobileNet-V3,ViT模型添加新的ImageNet-21k权重和微调的权重。 谢谢 添加GhostNet模型和权重。 谢 更新ByoaNet注意模型 改进SA模块的初始化 将基于实验的独立Swin attn模块和swinnet 实验的一致“ 26t”模型定义。 添加改进的E
2021-11-14 12:09:56 14.12MB pytorch resnet pretrained-models mixnet
1
NFNet Pytorch实施 此回购包含来自未经归一化的高性能大型图像识别论文的,具有ImageNet高精度的预训练NFNet模型F0-F6。 小型模型的精度与EfficientNet-B7一样,但训练速度快了8.7倍。 大型模型在ImageNet上设置了新的SOTA top-1精度。 NFNet F0 F1 F2 F3 F4 F5 F6 + SAM 最高为1的准确性Brock等人。 83.6 84.7 85.1 85.7 85.9 86.0 86.5 此实现的Top-1精度 82.82 84.63 84.90 85.46 85.66 85.62 待定 所有学分归的作者所有。 该在很大程度上受到其在出色的JAX实现的启发。 拜访他们的回购网站以作参考。 开始吧 git clone https://github.com/benjs/nfnet
1
使用PyTorch对预训练的卷积神经网络进行微调。 产品特点 可以访问ImageNet上经过预训练的最受欢迎的CNN架构。 自动替换网络顶部的分类器,使您可以使用具有不同类数的数据集训练网络。 使您可以使用任何分辨率的图像(不仅限于在ImageNet上用于训练原始模型的分辨率)。 允许添加一个Dropout层或一个自定义池层。 支持的架构和模型 从包中: ResNet( resnet18 , resnet34 , resnet50 , resnet101 , resnet152 ) ResNeXt( resnext50_32x4d , resnext101_32x8d ) Dens
1
PubLayNet PubLayNet是文档图像的大型数据集,其布局用边框和多边形分割标注。 有关更多信息,请参见 PMC4334925_00006.jpg PMC538274_00004.jpg 最近更新 15/Sept/2020年15/Sept/2020 -添加培训代码。 29/Feb/2020年29/Feb/2020 -为maskrcnn_resnet50_fpn添加基准测试。 22/Feb/2020年22/Feb/2020 -(Pytorch)中的预训练Mask-RCNN模型。 标杆管理 建筑学 Iter num(x16) 美联社 AP50 AP75 AP小 AP培养基 AP大 MD5SUM 196k 0.91 0.98 0.96 0.41 0.76 0.95 393e6700095a673065fcecf5e8f264f7 演示版 在上面的基准测试
1
EfficientNet PyTorch 快速开始 使用pip install efficientnet_pytorch的net_pytorch并使用以下命令加载经过预训练的EfficientNet: from efficientnet_pytorch import EfficientNet model = EfficientNet . from_pretrained ( 'efficientnet-b0' ) 更新 更新(2021年4月2日) 已发布! 当您阅读本文时,我正在努力实现它:) 关于EfficientNetV2: EfficientNetV2是卷积网络的新家族,与以前的模型相比,它具有更快的训练速度和更好的参数效率。 为了开发该系列模型,我们将训练感知的神经体系结构搜索和缩放结合使用,以共同优化训练速度和参数效率。 从富含新操作(例如Fused-MBConv)的搜索空
1
ELECTRA 中文 预训练 ELECTREA 模型: 基于对抗学习 pretrain Chinese Model code Repost from google official code: 具体使用说明:参考 官方链接 Electra Chinese tiny模型路径 google drive electra-tiny baidu drive electra-tiny code:rs99 模型说明 与 tinyBERT 的 配置相同 generator 为 discriminator的 1/4 How to use official code Steps 修改 configure_pretraining.py 里面的 数据路径、tpu、gpu 配置 修改 model_size:可在 code/util/training_utils.py 里面 自行定义模型大小 数据输入格式:原始的
1
mask-rcnn:在MATLAB中进行Mask-RCNN训练和预测以进行实例分割
1