包含四个版本的预训练模型 yolor-p6.pt yolor-w6.pt yolor-e6.pt yolor-d6.pt
2022-10-24 16:09:04 683.41MB yolor 预训练模型 yolor-1280
1
包含两个个版本的预训练模型 yolor_csp.pt yolor_csp_x.pt
2022-10-24 16:09:03 299.85MB yolor yolor-640 预训练模型
1
u2net网络的预训练模型+抠图人群+通过python库backgroundremover直接抠图+冲吧
2022-10-22 22:05:36 168.12MB u2net u2net.pth backgroundremove
1
预训练语言模型,可用于文本分类等NLP任务,序列标注任务,情感分析任务,采用业界通用的技术实现,接下游文本分类,序列标注,情感分析等任务,性能良好
2022-10-12 14:57:35 547KB 语言模型
1
百度ernie1.0 百度ernie1.0 百度ernie1.0 百度ernie1.0 百度ernie1.0 百度ernie1.0 百度ernie1.0 建议去官网下载最新版,这里实验结果仅供参考
2022-09-21 21:05:17 356.17MB 预训练模型
1
MXNet 深度学习,人脸识别预训练模型:(1) arcface_r100_v1 :model-0000.params ,model-symbol.json (2) retinaface-R50: R50-0000.params, R50-symbol.json
2022-09-21 12:05:22 336.79MB mxnet 人脸识别 预训练模型 arcface_r100_v1
1
1 介绍 BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一种预训练模型,该模
2022-09-19 09:00:15 474KB 技术
1
mmdet3d预训练模型
2022-08-30 21:05:32 20.28MB mmdet3d
1
vgg16利用相似性损失函数预训练模型(cpu)
2022-08-10 17:05:58 449.25MB 深度学习
1
这是dakknet官方发布的yolov7-tiny版本的weights和预训练模型
2022-08-06 14:00:52 24.18MB yolov7 darknet
1