伊莱克特拉-火炬 详细介绍了一种用于快速训练语言模型的简单工作包装。 与普通的屏蔽语言建模相比,它可以将训练速度提高4倍,并且如果训练时间更长,最终可以达到更好的性能。 特别感谢抽出时间为GLUE复制了结果。 安装 $ pip install electra-pytorch 用法 以下示例使用了reformer-pytorch ,可以通过pip安装。 import torch from torch import nn from reformer_pytorch import ReformerLM from electra_pytorch import Electra # (1) instantiate the generator and discriminator, making sure that the generator is roughly a quarter to a half
1
ResNet-101在ImageNet数据集上的caffe预训练模型,可以用于分类和目标检测网络。
2021-12-09 16:51:52 170.4MB ResNet101 预训练模型 ImageNet 分类
1
bert中文预训练模型,字典,有相关参数json等完整资源,可以直接通过bert的from_pretrained函数加载,可以直接拿来用,pytorch,tensorflow版本的都有,非常方便
2021-12-09 15:59:02 364.37MB bert nlp tensorflow pytorch
1
半监督序列学习 此回购记录了重现论文给出的结果的实验​​。 简而言之,我们在未标记的文本数据上对序列自动编码器或语言模型进行预训练,然后使用标记的文本数据对使用预训练权重初始化的基于RNN的序列分类器进行微调,与随机初始化的权重相比,分类精度更高。 资料准备 IMDB数据集 我们为此实验使用。 下载并解压缩,导航至目录aclImdb/train ,该目录aclImdb/train中包含带aclImdb/train/pos的正( aclImdb/train/pos )和带标签的负性( aclImdb/train/neg )以及未标签的评论( aclImdb/train/unsup )。 然后cd进入每个子目录并运行 for f in *.txt; do (cat "${f}"; echo) >> pos.txt; done for f in *.txt; do (cat "${f}"; ec
1
官网发布的tensorflow2.0版本以后可使用的BERT中文预训练模型文件,适合无法的伙伴使用tf2 进行fine tuning
2021-12-08 11:10:15 362.4MB 深度学习 自然语言处理 NLP BERT
1
Inception-ResNet-v2 是一个预训练模型,已经在 ImageNet 数据库的一个子集上进行了训练。 该模型在超过一百万张图像上进行了训练,共有 825 层,可以将图像分为 1000 个对象类别(例如键盘、鼠标、铅笔和许多动物)。 从您的操作系统或 MATLAB 中打开 inceptionresnetv2.mlpkginstall 文件将启动您拥有的版本的安装过程。 用法示例: net = inceptionresnetv2() 网络层情节(净) % 读取图像进行分类I = imread('peppers.png'); %将图片裁剪为网络的输入大小sz = net.Layers(1).InputSize I = I(1:sz(1), 1:sz(2), 1:sz(3)); % 使用 Inception-ResNet-v2 对图像进行分类标签 = 分类(净,我) % 显示图像和分
2021-12-07 21:10:36 6KB matlab
1
vision transformer self-supervised
2021-12-06 17:01:57 1.7MB 自监督 transformer 计算机视觉
1
vgg脸 使用PyTorch的人脸分类Python脚本 需要安装PyTorch 运行test.py文件 从获得的原始Caffe模型和测试图像/names.txt 从获得的.h5和
2021-12-04 11:12:15 78KB python face-recognition caffemodel pytorch-cnn
1
用于BERT预训练,Bidirectional Encoder Representation from Transformers
2021-12-02 19:41:40 489.93MB BERT
1
今天小编就为大家分享一篇Tensorflow加载预训练模型和保存模型的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2021-12-02 16:11:49 68KB Tensorflow 预训练 保存 模型
1