pytorch到tflite的例子 将在PyTorch中定义和预训练的MobileNetV3Small转换为TFLite量化模型 要求 Python> = 3.6.0 Python套件: Keras==2.2.4 onnx==1.5.0 onnx2keras==0.0.3 tensorflow==1.14.0 torch==1.1.0 Pillow==6.1.0 用法 下载砝码 ./download_weight.sh 运行脚本 python3 main.py
2021-12-01 21:19:45 199KB Python
1
EfficienDet一般有好几个版本,可以根据自己的计算资源下载不同的预训练权重,但是预训练权重一般不太好下载,我上传到这里可供大家下载
2021-12-01 01:01:27 129.56MB 预训练权重
1
yolov5预训练
2021-11-28 21:40:03 14.48MB yolo 预训练集
1
yolov5预训练
2021-11-27 21:10:43 170.24MB yolov5 预训练集
1
5个程序员刷题网站| 凯拉斯-伯特-纳 中文 NER 任务使用BiLSTM-CRF/BiGRU-CRF/IDCNN-CRF模型和预训练语言模型的Keras解决方案:支持BERT/RoBERTa/ALBERT )。 更新日志 2020年2月27日重构的代码keras_bert_ner并删除了一些多余的文件。 bert4keras == 0.2.5现在已集成为该项目的主要部分。 2019.11.14 bert4keras现在作为一个包使用,因为它没有太大变化。 albert 模型现在只能支持谷歌的版本。 2019.11.04修复计算句子准确率和做预测时结果错误的问题。 2019.11.01将keras-contrib crf_accuracy/ crf_loss替换为自定义的 crf_accuracy/crf_loss 来处理掩码标签。 未来的工作 迁移到 tensorflow 2.0。 添加其他 BERT 模型,例如 Distill_Bert、Tiny_Bert。 依赖关系 烧瓶== 1.1.1 keras == 2.3.1 numpy == 1.18.1 loguru == 0.4.1
2021-11-24 11:14:06 10.6MB 系统开源
1
MobileNetV2的PyTorch实现这是MobileNetV2架构的PyTorch实现,如本文中所述反向残差和线性瓶颈:用于分类,检测和分段的移动网络MobileNetV2的PyTorch实现这是本文中描述的MobileNetV2架构的PyTorch实现反向残差和线性瓶颈:用于分类,检测和分段的移动网络。 [NEW]添加代码以自动下载预先训练的砝码。 训练食谱最近,我找到了一个很好的训练环境:时期数:150学习率时间表:余弦学习率,初始lr = 0.05体重减轻:4e-5消除辍学您
2021-11-23 22:19:33 7KB Python Deep Learning
1
来自 https://huggingface.co/distilbert-base-uncased-finetuned-sst-2-english/tree/main#
2021-11-20 15:43:53 255.44MB 自然语言处理 预训练模型
1
蒙古BERT型号 该存储库包含由 , 和训练的经过预训练的蒙古模型。 特别感谢提供了5个TPU。 该存储库基于以下开源项目: ,和 。 楷模 词汇量为32000的用作文本标记器。 您可以使用蒙版语言模型笔记本 测试经过预训练的模型可以预测蒙面蒙语单词的效果如何。 BERT-Base: 和 BERT-Large: HuggingFace 未装箱的BERT-Base: TensorFlow检查点和PyTorch模型 未装箱的BERT-Large: HuggingFace 盒装BERT-Base 下载TensorFlow检查点或PyTorch模型。 评估结果: global_step = 4000000 loss = 1.3476765 masked_lm_accuracy = 0.7069192 masked_lm_loss = 1.2822781 next_sentence_a
1
GPT-2的中文预训练模型。GPT-2是逆天的语言AI模型,编故事以假乱真,问答翻译写摘要都行。问世之后横扫各大语言建模任务,引发了大量关注以及研究者跟进研究。
2021-11-19 00:26:42 757KB gpt2 训练模型
1
mask rcnn 模型在COCO数据集上预训练权重mask_rcnn_coco.h5
2021-11-18 19:24:17 229.15MB mask_rcnn
1