chinese_L-12_H-768_A-12 BERT 中文配置文件及预训练参数。
2021-05-10 16:58:05 200MB bert
1
命名实体识别代码,解压即可用 # BERT-BiLSTM-CRF BERT-BiLSTM-CRF的Keras版实现 ## BERT配置 1. 首先需要下载Pre-trained的BERT模型,本文用的是Google开源的中文BERT模型: - https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip 2. 安装BERT客户端和服务器 pip install bert-serving-server pip install bert-serving-client,源项目如下: - https://github.com/hanxiao/bert-as-service 3. 打开服务器,在BERT根目录下,打开终端,输入命令: - bert-serving-start -pooling_strategy NONE -max_seq_len 144 -mask_cls_sep -model_dir chinese_L-12_H-768_A-12/ -num_worker 1
2021-05-10 11:42:36 883KB 文本分类
1
本文将介绍两个使用BERT编码句子(从BERT中提取向量)的例子。 (1)BERT预训练模型字向量提取工具 本工具直接读取BERT预训练模型,从中提取样本文件中所有使用到字向量,保存成向量文件,为后续模型提供embdding。 本工具直接读取预训练模型,不需要其它的依赖,同时把样本中所有 出现的字符对应的字向量全部提取,后续的模型可以非常快速进行embdding github完整源码 #!/usr/bin/env python # coding: utf-8 __author__ = 'xmxoxo' ''' BERT预训练模型字向量提取工具 版本: v 0.3.2 更新: 2020/3/2
2021-05-08 11:06:48 58KB 句子 工具 模型
1
中文分词 本项目为中文分词任务baseline的代码实现,模型包括 BiLSTM-CRF 基于BERT的+ X(softmax / CRF / BiLSTM + CRF) 罗伯塔+ X(softmax / CRF / BiLSTM + CRF) 本项目是的项目。 数据集 数据集第二届中文分词任务中的北京大学数据集。 模型 本项目实现了中文分词任务的baseline模型,对应路径分别为: BiLSTM-CRF BERT-Softmax BERT-CRF BERT-LSTM-CRF 其中,根据使用的预训练模型的不同,BERT-base-X模型可转换为Roberta-X模型。 要求 此仓库已在Python 3.6+和PyTorch 1.5.1上进行了测试。 主要要求是: tqdm scikit学习 火炬> = 1.5.1 :hugging_face: 变压器== 2.2.2 要解决环境问题,请运行:
1
BERTScore 论文(ICLR 2020)中介绍了自动评估指标。 新闻: 更新至版本0.3.7 与Huggingface的变压器版本> = 4.0.0兼容。 感谢公共贡献者( , , )。 如果您想在COCO字幕数据集上复制我们的实验,请参见 。 更新至版本0.3.6 支持自定义基准文件 选项--rescale-with-baseline更改为--rescale_with_baseline以便与其他选项一致。 更新至版本0.3.5 与Huggingface的变形金刚> = v3.0.0和次要修复程序( , , )兼容 与效率相关的几项改进( , ) 更新至版本0.3.4 立即与变形金刚v2.11.0兼容(#58) 对于中国人来说,下载预先训练的体重可能很慢。 我们在百度盘上提供了一些模型的副本。 密码:dhe5 密码:jvk7 cased密码:yx3q 库在其度量标准集合中包括BERTScore。 更新至版本0.3.3 使用空字符串修复错误。 支持6种模型和24种较小的模型。 新增了一个用于保持WMT16英制上不同模型的性能(即
1
简单高效的Bert中文文本分类模型开发和部署
2021-04-30 12:56:42 659KB Python开发-自然语言处理
1
甘伯特 论文代码GAN-BERT:具有健壮标签分类示例的生成式对抗性学习和一堆带标签的示例已在2020年ACL上发表-Danilo Croce (罗马大学Tor Vergata),朱塞佩·卡斯特鲁奇( Giuseppe Castellucci) (亚马逊)和Roberto Basili的短文(罗马大学的Tor Vergata)。该文件可以在找到。 GAN-BERTBERT的扩展,它使用“生成对抗”设置来实现有效的半监督学习模式。它允许使用由有限数量的标记示例和未标记材料的较大子集组成的数据集训练BERT。 GAN-BERT可用于序列分类任务(也涉及对文本对)。 该代码在TREC数据集上运行GAN-BERT实验,以实现细粒度的“问题分类”任务。我们在此程序包中提供了代码和用于运行实验的数据,方法是使用2%的标记材料(109个示例)和5343个未标记的示例。测试集由500个带注释的示例组成
1
Entity and Relation Extraction Based on TensorFlow and BERT. 基于TensorFlow和BERT的管道式实体及关系抽取,2019语言与智能技术竞赛信息抽取任务解决方案。Schema based Knowledge Extraction, SKE 2019
2021-04-25 13:50:28 3.46MB Python开发-自然语言处理
1
bert中文模型,bert中文模型, bert中文模型, bert中文模型, bert中文模型,bert中文模型
2021-04-21 09:55:29 367.22MB bert
1
https://github.com/google-research/bert 里的预训练好的模型,中文的
2021-04-21 09:48:45 364.49MB BERT
1