facenet预训练模型
2021-09-08 18:11:33 91.31MB facenet预训练模型 20180402-114759
1
BERT 、GPT 等大规模预训练模型(PTM)近年来取得了巨大成功,成为人工智能领域的一个里程碑。由于复杂的预训练目标和巨大的模型参数,大规模 PTM 可以有效地从大量标记和未标记的数据中获取知识。
2021-09-07 19:05:52 2.92MB 预训练模型 过去 现在 未来
1
训练数据来自https://xueqiu.com,为中文。正样本(pos):6873条,负样本(neg):3591条; 使用albert_chinese_small,参数全调,epoch=10,lr=0.001,准确率97%; 使用albert_chinese_small只调节原始模型的一层,一层密集与后接的两层密集,epoch=30,lr=0.004,准确率92%;
2021-09-07 13:03:44 32.02MB bert
基于中文预训练的安全事件实体识别研究 安全运营 安全防御 云安全 移动安全 解决方案
无规范化网络和SGD的Tensorflow实现-自适应梯度剪切 论文: : 原始代码: : 安装及使用 我建议使用Docker运行代码: docker build -t nfnets/imagenet:latest --build-arg USER_ID=$(id -u) --build-arg GROUP_ID=$(id -g) . 要在imagenet数据集上训练NFNet,请执行以下操作: docker run --rm -it --gpus all -v $(pwd):/tf -p 8889:8888 -p 6006:6006 nfnets/imagenet:latest python train.py --variant F0 --batch_size 4096 --num_epochs 360 请参阅train.py模块以获取更多参数。 预先训练的权重已转换为
1
该资源为caffe框架训练出来的以googlenet特征识别网络加上imagenet数据集的预训练模型,可以预测1000个分类图片,
2021-09-03 13:30:32 47.59MB 图片分类,预训练模型
1
哈工大的那本书,很好的一本书。 html/website/markdown 格式请查阅本人博客:https://zenmoore.github.io
2021-09-02 09:13:31 21.5MB 自然语言处理 预训练 深度学习 多模态
1
云原声时代,视觉预训练大模型:探索与实
2021-08-30 21:05:16 66.46MB 视觉训练
腾讯TEG NLP中文预训练模型探索与应用
2021-08-30 19:11:12 4.75MB 深度学习
预训练模型专题_GPT2_模型代码学习笔记-附件资源
2021-08-29 17:55:07 106B
1