使用方法; from transformers import AutoTokenizer from transformers import TFAutoModelForSeq2SeqLM pre_trained_model_path = './t5/' model = TFAutoModelForSeq2SeqLM.from_pretrained(pre_trained_model_path) tokenizer = AutoTokenizer.from_pretrained(pre_trained_model_path) 模型加载完毕之后就可以对接下游任务或用自己的数据继续对模型进行微调。
2021-06-21 14:11:08 789.27MB tensorflow
1
DLA-34 COCO pretrained model: DLA-34 official.
2021-06-20 13:14:18 41.05MB fairmot 预训练模型
1
yoloV5预训练模型,官方给的是谷歌网盘下载地址,下载速度较慢,压缩包包含yolov3-spp.pt,yolov5l.pt,yolov5m.pt,yolov5s.pt,yolov5x.pt
2021-06-18 11:24:27 846.34MB 深度学习 yolov5 预训练模型
1
中文全词覆盖(Whole Word Masking)BERT的预训练模型
2021-06-17 17:13:24 15.42MB Python开发-自然语言处理
1
ultralytics / yolov5,官方预训练权重yolov5s.pt,从drive.google下载下来的
2021-06-15 16:42:53 27.18MB yolov5 yolo 目标检测
1
如何在pytorch中使用word2vec训练好的词向量 torch.nn.Embedding() 这个方法是在pytorch中将词向量和词对应起来的一个方法. 一般情况下,如果我们直接使用下面的这种: self.embedding = torch.nn.Embedding(num_embeddings=vocab_size, embedding_dim=embeding_dim) num_embeddings=vocab_size 表示词汇量的大小 embedding_dim=embeding_dim 表示词向量的维度 这种情况下, 因为没有指定训练好的词向量, 所以embedding
2021-06-13 12:10:25 60KB c OR pytorch
1
所有下载链接都是跳到官方地址,可是早已经失效了,找了好久才找到,分享一下
2021-06-12 13:05:00 49B VGG_ILSVRC 16 深度学习 预训练
1
复现yolov3所需的各种预训练权重,最重要的是yolov3.tiny.weight.15这个文件,看了很多人发布的资源都是要积分的,这里免费拿走不写
2021-06-12 12:05:53 278.68MB yolov3所需的各种预训练权重
1
https://github.com/davidsandberg/facenet VGGFace2数据及
2021-06-10 09:08:11 183.41MB 预训练模型
1
中文单词向量 该项目提供了100多个中文单词向量(嵌入),它们经过不同表示(密集和稀疏),上下文特征(单词,ngram,字符等)和语料库的训练。 可以轻松获得具有不同属性的预训练向量,并将其用于下游任务。 此外,我们提供了一个中文类比推理数据集CA8和一个评估工具包,供用户评估其词向量的质量。 参考 如果使用这些嵌入和CA8数据集,请引用该论文。 沉力,赵哲,胡仁芬,李文思,刘涛,杜小勇, ,ACL 2018。 @InProceedings{P18-2023, author = "Li, Shen and Zhao, Zhe and Hu, Renfen and Li, Wensi and Liu, Tao and Du, Xiaoyong", title = "Analogical Reasoning on Chinese M
2021-06-03 19:26:17 354KB word-embeddings embeddings chinese embedding
1