XLNet的预训练好的模型文件,来自 https://github.com/zihangdai/xlnet
2021-12-22 15:42:32 413.55MB BERT
1
NLP项目 自然语言处理项目,其中包括有关以下方面的概念和脚本: gensim , fastText和tensorflow实现。 参见, doc2vec , word2vec averaging和Smooth Inverse Frequency实现 对话系统的类别和组成 tensorflow LSTM (请参阅 ,和 , ) fastText实现 ELMo,ULMFit,GPT,BERT,XLNet的原理 HMM Viterbi实现。 参见,中文解读 Named_Entity_Recognition 通过双向LSTM + CRF,张量tensorflow实现对NER品牌。 参见中文注释,中文解读 7_Information_retrieval 8_Information_extraction 9_Knowledge_graph 10_Text_generation 11
1
| 本项目提供了针对中文的XLNet预训练模型,扩展了丰富的自然语言处理资源,提供多种中文预训练模型选择。我们欢迎各位专家学者下载使用,并共同促进和发展中文资源建设。 本项目基于CMU /谷歌官方的XLNet: : 其他相关资源: MacBERT预训练模型: : 中文ELECTRA预训练模型: : 中文BERT-wwm预训练模型: : 知识蒸馏工具TextBrewer: : 查看更多哈工大讯飞联合实验室(HFL)发布的资源: : 新闻 2021年1月27日所有模型已支持TensorFlow 2,请通过变压器库进行调用或下载。 2020/9/15我们的论文被录用为长文。 2020/8/27哈工大讯飞联合实验室在通用自然语言理解评论GLUE中荣登榜首,查看,。 2020/3/11为了更好地了解需求,邀请您填写,刹车为大家提供更好的资源。 2020/2/26哈工大讯飞联合实验室发布 历史新闻2019/12/19本目录发布的模型已接受[Huggingface-Transformers]( ) 2019/9/5 XLNet-base已可下载,查看 2019/8/1
1
基于Pytorch的中文语义相似度匹配模型 基于Pytorch的中文语义相似度匹配模型 本项目将持续更新,对比目前业界主流文本匹配模型在中文的效果 运行环境:python3.7,pytorch1.2,transformers2.5.1 数据集采用LCQMC数据(将一个句子对进行分类,判断两个句子的语义是否相同(二分类任务)),因数据存在涉嫌嫌疑,故不提供下载,需要者可向官方提出数据申请 ,将数据解压到数据文件夹即可。模型评价指标为:ACC,AUC以及预测总计耗时。 嵌入:本项目输入都统一采用分字策略,故通过维基百科中文语料,训练了字向量作为嵌入。训练语料,矢量模型以及词表,可通过百度网盘下载。链接: : 提取码:s830 模型文件:本项目训练的模型文件(不一定最优,可通过超参继续调优),也可通过网盘下载。链接: : 提取码:s830 测试集结果对比: 模型 行政协调会 AUC 耗时(s
2021-11-03 12:47:32 126KB Python
1
xlnet+bilstm实现正负评价分类。transformers版本的,下载下来就可以使用
2021-11-02 17:08:10 418.24MB xlnet
中文XLNet预训练模型,该版本是XLNet-base,12-layer, 768-hidden, 12-heads, 117M parameters。
1
XLNet-Pytorch 使用Pytorch包装器可轻松实现XLNet! 您可以看到XLNet Architecture如何以小批量(= 1)进行预训练的示例。 用法 $ git clone https://github.com/graykode/xlnet-Pytorch && cd xlnet-Pytorch # To use Sentence Piece Tokenizer(pretrained-BERT Tokenizer) $ pip install pytorch_pretrained_bert $ python main.py --data ./data.txt --tokenizer bert-base-uncased \ --seq_len 512 --reuse_len 256 --perm_size 256 \ --bi_data True --mask_alpha 6 --mask_beta 1 \ --num_predict 85 --mem_len 384 --num_epoch 100 另外,您可以轻松地在运行代码。 纸中预训练的
2021-10-12 09:54:59 545KB nlp natural-language-processing pytorch bert
1
知识蒸馏在文本方向上的应用 模型相关等内容在有具体介绍。 目录 更新日志 2020.08.28 整理代码结构,抛弃借鉴的Bert模型,增加xlnet模型,预训练xlnet模型效果较差,可以在模型基础上再进行预训练,因此添加了模型预训练代码。 2020.07.15 修复bug,添加textGCN模型(单独训练,模型效果较差)。 2020.07.06 移除模型介绍&部分模型实现,增加使用说明及运行环境。 2020.05.28 增加了直接使用学生模型训练代码,并使用公开测试集完成测试。 运行环境 python 3.7 pytorch 1.1 (BERT模型参考Bert-Chinese-Text-Classification-Pytorch,有较多改动) transformers 3.0.2 torch 1.5.0 使用说明 下载Wikipedia_zh 中文维基百科 预训练词向量放入Knowl
2021-10-03 16:16:24 1.11MB pytorch knowledge-distillation bert Python
1
口语填空和意图检测任务 插槽填充和意图检测的基本模型: 论文“具有焦点机制的编码器-解码器用于基于序列标签的口语理解”的“焦点”部分的实现 。 基于的BLSTM-CRF的实现 插槽填充和意图检测任务联合培训的实施 。 基本型号+ / / 数据集教程: (英语/西班牙语/泰语) (无意图) (无意图) (无意图) 部分 描述 所需的包 如何在ATIS数据集上报告意图检测的性能 教程A:带有预训练的单词嵌入 教程A:使用预训练的单词嵌入进行插槽填充和意图检测 教程B:使用ELMo 教程B:使用ElMo进行插槽填充和意图检测 教程C:使用BERT 教程C:插槽填充和BERT意图检测 教程D:使用XLNET 教程D:使用XLNET进行插槽填充和意图检测 结果 某些数据集上不同方法的结果 推论模式 推论模式 参考 如何引用? 设置 python 3.6.x py
1
An auto-regressive model that captures bidirectional context
2021-08-24 12:35:19 3.06MB BERT
1