Bert base uncased 英文模型文件
2021-10-25 21:05:53 389.2MB Bert
1
按word2vec格式存储的BERT预训练模型
2021-10-22 22:11:10 98KB Python开发-自然语言处理
1
BERT和知识提炼的问题解答 该存储库包含必要的代码,以便微调SQuAD 2.0数据集上的BERT。 此外,的技术是通过微调施加使用BERT作为教师模型小队2.0数据集。 使用Google Colab的1个Tesla V100 GPU获得了所有结果。 1.什么是SQuAD? 斯坦福问答数据集(SQuAD)是一种阅读理解数据集,由人群工作人员在一组Wikipedia文章上提出的问题组成,其中每个问题的答案是对应阅读段落或问题的一段文本或跨度可能无法回答。 SQuAD 2.0将SQuAD 1.1中的100,000个问题与超过50,000个由对抗性工作者对抗性编写的问题相结合,看起来类似于可回答的问题。 为了在SQuAD 2.0上取得出色的成绩,系统不仅必须在可能的情况下回答问题,而且还必须确定该段落何时不支持任何答案并放弃回答。 有关SQuAD数据集和当前排行榜的更多信息,您可以访问以下。
1
基于BERT的中文阅读理解多步注意力网络,周志善,闫丹凤,阅读理解是当前自然语言理解中一个重要的任务,它可以很好的衡量一个自然语言处理模型的能力。为了促进阅读理解任务的发展,有很多�
2021-10-22 10:52:21 1.09MB 首发论文
1
多任务学习专家 注意:从0.4.0开始,tf版本必须大于等于2.1。 安装 pip install bert-multitask-learning 它是什么 这个项目使用变压器(基于拥抱面部变压器)进行多模式多任务学习。 我为什么需要这个 在原始的BERT代码中,多任务学习或多GPU训练都不可行。 另外,该项目的初衷是NER,它在原始BERT代码中没有有效的脚本。 总而言之,与原始bert回购相比,此回购具有以下功能: 多模式多任务学习(重写大部分代码的主要原因)。 多GPU训练 支持序列标记(例如NER)和Encoder-Decoder Seq2Seq(带变压器解码器)。 支持哪些类型
1
投资知道 问题答案匹配 本项目基于BERT中文预训练模型,使用huggingface transformers开源工具库实现中文关于投资知道的问题答案匹配检测系统的模型实现。 问题适用场景:投资问答/论坛等,自动检测问题答案是否匹配,代替人工审核。 模型、代码及数据下载地址 所有数据、模型及代码下载链接:百度网盘地址,提取码: doh9 原始BERT预训练模型为chinese_wwm_pytorch,下载地址哈工大崔一鸣开源的中文预训练模型,网盘上也有,主要需3个文件,按huggingface库要求改名,具体见file_utils.py,模型bin文件,配置json文件和词表txt文件。 数
2021-10-20 11:17:19 1.22MB 大数据 投资
1
Deep text matching 1、前言 Github 上面有很多文本匹配项目,本项目工作主要借鉴了 和 ,模型的代码风格来自前者。另外模型是使用 keras 深度学习框架进行复现的,主要也是使用的前者的复现代码,只是增加了个别模型的复现,也去除了一些我觉得不太重要的模型;另外,由于本项目只是实验层面探索,所以将 matchzoo 源码中一些和模型无关的很多代码进行了删减,同时对部分模型的结构进行了细微的调整,没有完全遵从论文里的设置。 我使用这些模型在2018年蚂蚁金服的文本匹配竞赛数据集(数据集来自text matching 上传,因此数据的预处理代码也使用的该项目的代码)上进行了一些实验,另外我借鉴了 项目的代码测试了几个 bert 系列模型(bert 及其变体)。由于训练集、验证集、测试集中的正负样本比例都是1:1,因此我使用了准确率这一评价指标来衡量了这些模型的性能,结果
2021-10-19 14:55:46 18.35MB Python
1
bert-base-chinese 0积分下载
2021-10-18 22:11:00 787.76MB BERT
1
将训练集、测试集、验证集、标签集放到THUCNews/data文件夹下即可。数据格式为每行一个句子加它的标签,用\t分隔开。文件中已经包含了BERT的预训练模型。项目的详解博客在https://blog.csdn.net/Q_M_X_D_D_/article/details/120583820
2021-10-18 22:10:56 365.95MB BERT 自然语言处理 文本分类
1
BERT-BiLSTM-CRF-NER Tensorflow solution of NER task Using BiLSTM-CRF model with Google BERT Fine-tuning 使用谷歌的BERT模型在BLSTM-CRF模型上进行预训练用于中文命名实体识别的Tensorflow代码' 中文文档请查看 如果对您有帮助,麻烦点个star,谢谢~~ Welcome to star this repository! The Chinese training data($PATH/NERdata/) come from: The CoNLL-2003 data($PATH/NERdata/ori/) come from: The evaluation codes come from: Try to implement NER work based on google'
2021-10-17 21:06:39 482KB crf named-entity-recognition ner bert
1