RBERT:R中的BERT实现
2021-11-24 22:54:39 1.85MB nlp natural-language-processing tensorflow rstudio
1
PyTorch预训练的伯特 该存储库包含的PyTorch重新实现,该论文与雅各布·德夫林,张明伟,张建伟,李健和克里斯蒂娜·图塔诺娃(Kristina Toutanova)。 ,示例,笔记本和命令行界面都提供了此实现,还可以为BERT加载任何预训练的TensorFlow检查点。 内容 部分 描述 如何安装套件 包装概述 快速入门示例 详细文件 有关如何微调Bert的详细示例 随附的Jupyter笔记本简介 有关TPU支持和预培训脚本的说明 在PyTorch转储中转换TensorFlow检查点 安装 此仓库已在Python 3.5+和PyTorch 0.4.1 / 1.0.0上进行了测试 带点子 PyTorch预训练的bert可以通过pip安装,如下所示: pip install pytorch-pretrained-bert 从来源 克隆存储库并运行: pip install [--e
2021-11-24 18:05:00 124KB 附件源码 文章源码
1
5个程序员刷题网站| 凯拉斯-伯特-纳 中文 NER 任务使用BiLSTM-CRF/BiGRU-CRF/IDCNN-CRF模型和预训练语言模型的Keras解决方案:支持BERT/RoBERTa/ALBERT )。 更新日志 2020年2月27日重构的代码keras_bert_ner并删除了一些多余的文件。 bert4keras == 0.2.5现在已集成为该项目的主要部分。 2019.11.14 bert4keras现在作为一个包使用,因为它没有太大变化。 albert 模型现在只能支持谷歌的版本。 2019.11.04修复计算句子准确率和做预测时结果错误的问题。 2019.11.01将keras-contrib crf_accuracy/ crf_loss替换为自定义的 crf_accuracy/crf_loss 来处理掩码标签。 未来的工作 迁移到 tensorflow 2.0。 添加其他 BERT 模型,例如 Distill_Bert、Tiny_Bert。 依赖关系 烧瓶== 1.1.1 keras == 2.3.1 numpy == 1.18.1 loguru == 0.4.1
2021-11-24 11:14:06 10.6MB 系统开源
1
bert_sentiment_analysis:使用BERT进行深度学习的情感分析
2021-11-20 22:56:53 3.48MB JupyterNotebook
1
Pytorch生成式聊天机器人(对话系统) 基于RNN,Transformer,Bert和GPT2 NLP深度学习 1.基于RNN的ChatBot(对话系统) 2.基于Transformer和Bert的ChatBot(对话系统) 3.基于Bert和GPT2的ChatBot(对话系统) 参考 [1] [2] [3] PS:数据集的格式是两列来自两个人的聊天句子。
2021-11-20 18:23:24 118KB Python
1
蒙古BERT型号 该存储库包含由 , 和训练的经过预训练的蒙古模型。 特别感谢提供了5个TPU。 该存储库基于以下开源项目: ,和 。 楷模 词汇量为32000的用作文本标记器。 您可以使用蒙版语言模型笔记本 测试经过预训练的模型可以预测蒙面蒙语单词的效果如何。 BERT-Base: 和 BERT-Large: HuggingFace 未装箱的BERT-Base: TensorFlow检查点和PyTorch模型 未装箱的BERT-Large: HuggingFace 盒装BERT-Base 下载TensorFlow检查点或PyTorch模型。 评估结果: global_step = 4000000 loss = 1.3476765 masked_lm_accuracy = 0.7069192 masked_lm_loss = 1.2822781 next_sentence_a
1
BERT-CRF-for-Chinese-NER Using BERT+CRF model to do Chinese NER task 如何运行 链接: 密码: 0qtc 请从网盘链接下载bert-chinese预训练模型,放在chinese-bert文件夹下 直接python run_ner.py即可
2021-11-18 10:06:09 2.36MB 附件源码 文章源码
1
购买课程后,添加小助手微信(微信号:itxy41)回复【唐宇迪】 进入学习群,获取唐宇迪老师答疑 Python自然语言处理-BERT模型实战课程旨在帮助同学们快速掌握当下NLP领域最核心的算法模型BERT的原理构造与应用实例。通俗讲解BERT模型中所涉及的核心知识点(Transformer,self-attention等),基于google开源BERT项目从零开始讲解如何搭建自然语言处理通用框架,通过debug源码详细解读其中每一核心代码模块的功能与作用。最后基于BERT框架进行中文情感分析与命名实体识别等主流项目实战,提供全部课程资料,包括PPT,数据,代码。
1
KBQA-BERT 基于知识图谱的问答系统,BERT做命名实体识别和句子相似度,分为在线和大纲模式 介绍 本项目主要由两个重要的点组成,一是基于BERT的命名实体识别,二是基于BERT的句子相似度计算,本项目将这两个模块进行融合,并基于BERT的KBQA问答系统,在命名实体识别上分为在线预测和轮廓预测;在句子相似度上,也分为在线预测和轮廓预测,2个模块互不干扰,做到了高内聚低掺杂的效果,最后的kbqa相当于融合这2个模块进行概述,具体介绍请见! ------------------------------------------- 2019/6/15更新- --------------------------------------- 把过去毕业生同学们遇到的主要问题汇总一下,下面是一些FAQ: 问:运行run_ner.py时未找到dev.txt,请问这个文件是怎么生成的呢? 答:这一部
2021-11-16 19:41:51 1.51MB 系统开源
1
与BERT进行对话评估 该存储库包含拟议的DEB模型的代码以及与之进行比较的基线,以及拟议的DailyDialog ++数据集。 (在TACL接受的相应论文的链接将在此处立即更新。)如有任何疑问,请联系和
2021-11-15 15:32:48 6.79MB Python
1