mobilenet_v2_weights_tf_dim_ordering_tf_kernels_1.0_192_no_top.h5,mobilenetv2 tf.keras预训练模型,可用于迁移学习。
2021-09-09 19:56:25 8.97MB mobilenetv2 迁移学习 imagenet预训练模型
1
随着BERT等预训练模型横空出世,NLP方向迎来了一波革命,预训练模型在各类任务上均取得了惊人的成绩。随着各类预训练任务层出不穷,也有部分研究者考虑如何在BERT这一类模型中引入或者强化知识图谱中包含的信息,进而增强BERT对背景知识或常识信息的编码能力。
2021-09-09 11:33:39 10.7MB BERT 知识图谱
1
facenet预训练模型
2021-09-08 18:11:33 91.31MB facenet预训练模型 20180402-114759
1
BERT 、GPT 等大规模预训练模型(PTM)近年来取得了巨大成功,成为人工智能领域的一个里程碑。由于复杂的预训练目标和巨大的模型参数,大规模 PTM 可以有效地从大量标记和未标记的数据中获取知识。
2021-09-07 19:05:52 2.92MB 预训练模型 过去 现在 未来
1
训练数据来自https://xueqiu.com,为中文。正样本(pos):6873条,负样本(neg):3591条; 使用albert_chinese_small,参数全调,epoch=10,lr=0.001,准确率97%; 使用albert_chinese_small只调节原始模型的一层,一层密集与后接的两层密集,epoch=30,lr=0.004,准确率92%;
2021-09-07 13:03:44 32.02MB bert
该资源为caffe框架训练出来的以googlenet特征识别网络加上imagenet数据集的预训练模型,可以预测1000个分类图片,
2021-09-03 13:30:32 47.59MB 图片分类,预训练模型
1
哈工大的那本书,很好的一本书。 html/website/markdown 格式请查阅本人博客:https://zenmoore.github.io
2021-09-02 09:13:31 21.5MB 自然语言处理 预训练 深度学习 多模态
1
腾讯TEG NLP中文预训练模型探索与应用
2021-08-30 19:11:12 4.75MB 深度学习
预训练模型专题_GPT2_模型代码学习笔记-附件资源
2021-08-29 17:55:07 106B
1
使用ARCFACE-Pytorch的人脸识别 介绍 此存储库包含face_verify.py和app.py,它们能够执行以下任务- 从图像,视频或网络摄像头中检测脸部并进行脸部识别。 app.py用于部署项目。 所需文件 requirements.txt 预训练模型或 。 自定义数据集 新训练的模型(facebank.pth和names.npy) 用户说明 首先下载项目后,您必须安装以下库。 安装 您可以通过从终端运行以下命令来一次安装所有依赖项。 $ pip install - r requirements . txt 对于使用“ pip”安装割炬,请运行以下命令 $ pip3 install torch == = 1.2 . 0 torchvision == = 0.4 . 0 - f https : // download . pytorch . org /
1