BERT中文预训练模型chinese_L-12_H-768_A-12
2023-03-03 15:13:35 364.49MB python 机器学习 中文预训练模型
1
speechbrain中文预训练模型
2022-06-16 17:59:14 112.16MB 综合资源
1
资源来自 https://github.com/Embedding/Chinese-Word-Vectors
2022-01-31 16:08:27 531.43MB 自然语言处理 人工智能 nlp
1
资源来源 https://github.com/Embedding/Chinese-Word-Vectors
2022-01-31 16:08:26 707.81MB 自然语言处理 人工智能 nlp 中文词向量
1
bert中文预训练模型,字典,有相关参数json等完整资源,可以直接通过bert的from_pretrained函数加载,可以直接拿来用,pytorch,tensorflow版本的都有,非常方便
2021-12-09 15:59:02 364.37MB bert nlp tensorflow pytorch
1
官网发布的tensorflow2.0版本以后可使用的BERT中文预训练模型文件,适合无法的伙伴使用tf2 进行fine tuning
2021-12-08 11:10:15 362.4MB 深度学习 自然语言处理 NLP BERT
1
GPT-2的中文预训练模型。GPT-2是逆天的语言AI模型,编故事以假乱真,问答翻译写摘要都行。问世之后横扫各大语言建模任务,引发了大量关注以及研究者跟进研究。
2021-11-19 00:26:42 757KB gpt2 训练模型
1
中文XLNet预训练模型,该版本是XLNet-base,12-layer, 768-hidden, 12-heads, 117M parameters。
1
腾讯TEG NLP中文预训练模型探索与应用
2021-08-30 19:11:12 4.75MB 深度学习
Google官方中文Bert预训练模型,当前模型为bert base模型,省去爬梯下载的烦恼,需要其他模型的可以私信
2021-05-24 12:32:47 364.49MB google官方中文bert预训
1