|
本项目提供了针对中文的XLNet预训练模型,扩展了丰富的自然语言处理资源,提供多种中文预训练模型选择。我们欢迎各位专家学者下载使用,并共同促进和发展中文资源建设。
本项目基于CMU /谷歌官方的XLNet: :
其他相关资源:
MacBERT预训练模型: :
中文ELECTRA预训练模型: :
中文BERT-wwm预训练模型: :
知识蒸馏工具TextBrewer: :
查看更多哈工大讯飞联合实验室(HFL)发布的资源: :
新闻
2021年1月27日所有模型已支持TensorFlow 2,请通过变压器库进行调用或下载。
2020/9/15我们的论文被录用为长文。
2020/8/27哈工大讯飞联合实验室在通用自然语言理解评论GLUE中荣登榜首,查看,。
2020/3/11为了更好地了解需求,邀请您填写,刹车为大家提供更好的资源。
2020/2/26哈工大讯飞联合实验室发布
历史新闻2019/12/19本目录发布的模型已接受[Huggingface-Transformers]( ) 2019/9/5 XLNet-base已可下载,查看
2019/8/1
1