ERNIE 3.0中文预训练模型进行MSRA序列标注 文章链接:https://blog.csdn.net/sinat_39620217/article/details/125071909?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22125071909%22%2C%22source%22%3A%22sinat_39620217%22%7D&ctrtid=UfDbk
2024-06-06 14:22:35 2KB 文档资料
1
BERT中文预训练模型chinese_L-12_H-768_A-12
2023-03-03 15:13:35 364.49MB python 机器学习 中文预训练模型
1
speechbrain中文预训练模型
2022-06-16 17:59:14 112.16MB 综合资源
1
资源来自 https://github.com/Embedding/Chinese-Word-Vectors
2022-01-31 16:08:27 531.43MB 自然语言处理 人工智能 nlp
1
资源来源 https://github.com/Embedding/Chinese-Word-Vectors
2022-01-31 16:08:26 707.81MB 自然语言处理 人工智能 nlp 中文词向量
1
bert中文预训练模型,字典,有相关参数json等完整资源,可以直接通过bert的from_pretrained函数加载,可以直接拿来用,pytorch,tensorflow版本的都有,非常方便
2021-12-09 15:59:02 364.37MB bert nlp tensorflow pytorch
1
官网发布的tensorflow2.0版本以后可使用的BERT中文预训练模型文件,适合无法的伙伴使用tf2 进行fine tuning
2021-12-08 11:10:15 362.4MB 深度学习 自然语言处理 NLP BERT
1
GPT-2的中文预训练模型。GPT-2是逆天的语言AI模型,编故事以假乱真,问答翻译写摘要都行。问世之后横扫各大语言建模任务,引发了大量关注以及研究者跟进研究。
2021-11-19 00:26:42 757KB gpt2 训练模型
1
中文XLNet预训练模型,该版本是XLNet-base,12-layer, 768-hidden, 12-heads, 117M parameters。
1
腾讯TEG NLP中文预训练模型探索与应用
2021-08-30 19:11:12 4.75MB 深度学习