基于pytorch的中文语言模型预训练 ACL2020最佳论文有一篇论文提名奖,《不要停止预训练:使语言模型适应领域和任务》。本文涉及很多语言模型预训练的实验,系统的分析了语言模型预训练对子任务的效果提升情况。有几个主要方面: 在目标领域的数据集上继续预训练(DAPT)可以提高效果;目标领域的语料与RoBERTa的原始预训练语料越不相关,DAPT效果则提升更明显。 在具体任务的数据集上继续预训练(TAPT)可以十分“廉价”地提升效果。 结合两者(先进行DAPT,再进行TAPT)可以进一步提升效果。 如果能获取更多的,任务相关的无标注数据继续预训练(Curated-TAPT),效果则最佳。 如果
2022-03-02 13:28:37 29KB nlp pytorch bert NaturallanguageprocessingPython
1
pre_efficientnetv2-s.pth
2021-08-03 09:49:47 82.66MB pretrain
1
pre_efficientnetv2-m.pth
2021-08-03 09:49:44 207.94MB pretrain
1
pre_efficientnetv2-l.pth
2021-08-03 09:49:40 454.48MB pretrain
1
资源来源于https://drive.google.com/file/d/1oem0w5y5pjo2whBhAqTtuaYuyBu1OG8l/view?usp=sharing 我已下载,供大家使用
2021-04-29 14:27:42 21.32MB votenet_pretrain
1
resnet18-5c106cde.pth
2020-02-13 03:07:48 44.66MB pytorc resnet
1