伊莱克特拉-火炬 详细介绍了一种用于快速训练语言模型的简单工作包装。 与普通的屏蔽语言建模相比,它可以将训练速度提高4倍,并且如果训练时间更长,最终可以达到更好的性能。 特别感谢抽出时间为GLUE复制了结果。 安装 $ pip install electra-pytorch 用法 以下示例使用了reformer-pytorch ,可以通过pip安装。 import torch from torch import nn from reformer_pytorch import ReformerLM from electra_pytorch import Electra # (1) instantiate the generator and discriminator, making sure that the generator is roughly a quarter to a half
1
R语言模型分析案例及代码步骤
2021-12-08 10:05:33 3MB r语言 数据分析
1
训练n-gram语言模型的工具包含srilm 和 tcl8.6.12.zip
2021-12-07 19:09:55 72.46MB tcl n-gram语言模型 srilm
1
ecco:可视化和探索NLP语言模型。 Ecco直接在Jupyter笔记本中创建交互式可视化文件,解释基于Transformer的语言模型(例如GPT2)的行为
1
lstm-char-cnn, 基于CNN的LSTM语言模型 基于的字符识别神经语言模型论文字符识别神经语言模型 ( AAAI 2016 )的代码。基于字符输入的神经语言模型( NLM ) 。 预测仍在单词级别进行。 模型采用卷积神经网络( CNN ) 作为输入,作为长周期记忆( LSTM )
2021-12-04 00:18:00 1.92MB 开源
1
语言模型 python实现uni-gram和bi-gram 使用ppl困惑度对比模型效果 山东大学2019 NLP实验1
2021-12-01 15:52:47 78KB 语言模型
1
语言模型和自动人格预测 该存储库包含论文“ 代码,该论文发表在2020年IEEE国际数据挖掘大会上。 这是一组用tensorflow + pytorch编写的实验,旨在探索Essays数据集(使用Big-五个人格标记的特征)和Kaggle MBTI数据集上使用语言模型进行自动人格检测。 安装 通过以下方式从GitLab提取此存储库: git clone git@gitlab.com:ml-automated-personality-detection/personality.git 有关可通过以下方式安装的相关软件包的列表,请参见requirements.txt: pip -r requirements.txt 用法 首先运行LM提取器代码,该代码将数据集通过语言模型传递,并将(所有图层的)嵌入存储在pickle文件中。 创建此“新数据集”可为我们节省大量计算时间,并允许有效搜索超
1
基于N元语言模型的文本分类方法.pdf 汉语n元模型统计软件.ppt 基于N元语法的汉语自动分词系统研究.pdf 一种基于N元语法分布的语言模型自适应方法.pdf 语言模型的基本概念.doc N元语言模型的解码算法.doc N元语言模型的训练方法.doc 自动文本分类.pdf
2021-11-27 18:24:19 1.53MB N元语言模型 文本分类
1
语言模型 python实现uni-gram和bi-gram 使用ppl困惑度对比模型效果 山东大学2019NLP实验1
2021-11-27 14:49:28 6.81MB 语言模型
1
P-调整 一种新的方法来调整语言模型。 代码和数据集纸``GPT了解到,太“”。
2021-11-26 14:52:04 1KB
1