crnn 预训练模型
2021-03-16 12:03:23 35.64MB 深度学习 文字识别
1
MedicalNet项目提供了一系列3D-ResNet预训练模型和相关代码
2021-03-14 15:12:43 38.49MB Python开发-机器学习
1
xlm-r-distilroberta-base-paraphase-v1,在释义识别(释义识别是判断两个句子是否有相同含义的任务,是自然语言理解的标准。)方面表现出色。 使用参考sentence_transformers 的文档。
2021-03-13 22:19:40 967.08MB 预训练模型 bert 文本相似度 nlp
1
韩国BERT预训练案例(KoBERT) 为什么'?' 구글 训练环境 建筑学 predefined_args = { 'attention_cell' : 'multi_head' , 'num_layers' : 12 , 'units' : 768 , 'hidden_size' : 3072 , 'max_length' : 512 , 'num_heads' : 12 , 'scaled' : True , 'dropout' : 0.1 , 'use_residual' : True , 'embed_size' : 768 , 'embed_dropout' : 0.1 , 'token
2021-03-13 16:07:32 93KB language-model korean-nlp JupyterNotebook
1
HRNet的官方预训练权重,包含3个权重,这是其中一个: COCO w48 384x288 (more accurate, but slower) - Used as default in live_demo.py and the other scripts pose_hrnet_w48_384x288.pth
2021-03-11 18:40:06 243.25MB HRNet 预训练权重
1
从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史.pdf
2021-03-08 13:06:43 4.29MB embedding NLP BERT machine
1
chinese_L-12_H-768_A-12中文预训练模型
2021-03-07 09:01:53 364.2MB NLP bert
1
pytorch alexnet预训练模型,对应torchvision中的alexnet。有时候服务器下载会受到限制,可以下载到本地在转移到服务器上
2021-03-05 11:44:12 233.1MB alexnet预训练模型
1
个人学习记录——MRC_02
2021-03-02 22:08:57 209KB MRC
1
pytorch vgg19预训练模型的索引和类别对应表
2021-03-02 14:02:06 30KB 预训练模型 vgg19 cnn 图像识别
1