Bert测试数据集,MRPC数据集,方便下载不了的朋友进行测试、实验与学习。数据集中有用的为三部分,train.tsv,dev.tsv和test.tsv。
2021-09-25 15:30:07 855KB Bert
1
本实验,是用BERT进行中文情感分类,记录了详细操作及完整程序
2021-09-24 17:42:54 2.26MB Python开发-自然语言处理
1
皮托伯特 使用PyTorch TransformerEncoder和预训练模型的BERT实现。 安装 pip install pytorch-bert 用法 config = BertConfig . from_json ( "path-to-pretarined-weights/bert_config.json" ) model = Bert ( config ) load_tf_weight_to_pytorch_bert ( model , config , "path-to-pretarined-weights/bert_model.ckpt" ) 将模型文件下载到存储库中。
2021-09-24 00:19:13 18KB nlp machine-learning python3 pytorch
1
使用BERT的细粒度情感分类 此存储库包含用于获取的结果的代码。 用法 可以使用run.py运行各种配置的实验。 首先,安装python软件包(最好在一个干净的virtualenv中): pip install -r requirements.txt Usage: run.py [OPTIONS] Train BERT sentiment classifier. Options: -c, --bert-config TEXT Pretrained BERT configuration -b, --binary Use binary labels, ignore neutrals -r, --root Use only root nodes of SST -s, --save
1
基伯特 KeyBERT是一种最小且易于使用的关键字提取技术,它利用BERT嵌入来创建与文档最相似的关键字和关键字短语。 相应的媒体帖子可以在 找到。 目录 2.1。2.2。2.3。2.4。2.5。 1.关于项目 尽管已经有很多方法可用于关键字生成(例如 , ,TF-IDF等),但我想创建一种非常基本但功能强大的方法来提取关键字和关键字。这就是KeyBERT进来的地方!它使用BERT嵌入和简单的余弦相似性来查找文档中与文档本身最相似的子短语。 首先,使用BERT提取文档嵌入,以获得文档级表示。然后,针对N元语法词/短语提取词嵌入。最后,我们使用余弦相似度来查找与文档最相似的词/短语。然后,可以将最相似的词识别为最能描述整个文档的词。 KeyBERT绝不是唯一的,它是一种用于创建关键字和关键词的快速简便的方法。虽然有许多伟大的论文和解决方案,在那里,使用BERT-嵌入物(如, , ,
2021-09-22 21:15:31 77KB mmr keyword-extraction bert keyphrase-extraction
1
BERT模型的原理,并采用keras微调BERT实现了情感分析。BERT作为一个目前热门的预训练模型,其效果突出,在文本特征提取阶段均可采用该模型,再根据具体的业务场景对损失函数进行修改即可实现对应的模型搭建。当然在使用keras-bert之前建议读者务必弄清楚其原理,毕竟知其然还需知其所以然。
2021-09-19 20:31:23 234KB bert 深度学习 NLP
1
BERT歌词生成 使用预训练的BERT模型生成English Rock歌词(Devlin,J. et al。,2018)。 数据是从Kaggle 380,000+歌词数据集中获得的。 使用langdetect Python库来过滤除英语以外的其他语言的歌曲。 用于发音的Python库用于搜索诸如电话,音节和押韵单词之类的单词的属性。 使用预训练的BERT MLM进行掩码预测,使用预训练的BERT NextSentence进行连续性预测。 很少有结果: 使用BERT MLM仅在目标歌词中预测最后一个字- 编号 歌词 预测词 真话 1个 我必须清空脑袋 我想把这个地方变成我的[面具]
2021-09-19 04:16:41 62.19MB jupyter-notebook songs transformer bert
1
口语填空和意图检测任务 插槽填充和意图检测的基本模型: 论文“具有焦点机制的编码器-解码器用于基于序列标签的口语理解”的“焦点”部分的实现 。 基于的BLSTM-CRF的实现 插槽填充和意图检测任务联合培训的实施 。 基本型号+ / / 数据集教程: (英语/西班牙语/泰语) (无意图) (无意图) (无意图) 部分 描述 所需的包 如何在ATIS数据集上报告意图检测的性能 教程A:带有预训练的单词嵌入 教程A:使用预训练的单词嵌入进行插槽填充和意图检测 教程B:使用ELMo 教程B:使用ElMo进行插槽填充和意图检测 教程C:使用BERT 教程C:插槽填充和BERT意图检测 教程D:使用XLNET 教程D:使用XLNET进行插槽填充和意图检测 结果 某些数据集上不同方法的结果 推论模式 推论模式 参考 如何引用? 设置 python 3.6.x py
1
BERT模型具有遮罩功能的正确错误字符 实在抱歉,之前做项目比较急,然后没有完全上传完文件,导致大家使用受阻,替换更新有人提醒该模型,近期发生,特意将奉上,提取码为:hhxx另外其中某些得文件也有发表,安心食用。 使用说明 保存预训练模型在数据文件夹下├──数据│├──bert_config.json │├──config.json │├──pytorch_model.bin │└──vocab.txt ├──bert_corrector.py ├──config.py ├──logger.py ├──Forecast_mask.py ├──README.md └──text_utils.py 运行bert_corrector.py可以进行bert_corrector.py 。 python bert_corrector.py 运行'predict_mask.py'可以直接观察用[m
2021-09-18 11:54:45 17.04MB Python
1
无监督方面提取 基于tensorflow2.3的BERT实现 依存关系 Python3 张量流2.3
2021-09-15 22:05:34 16KB Python
1