Google-Bert模型在医疗领域的运用,实体关系三元组抽取模型(结合网上下载的两个相关模型进行修改) 该资源仅提供模型程序(无医疗相关数据)
2021-10-05 12:06:19 383.19MB bert nlp 三元组抽取
1
中国临床神经内科 CCKS2019中文命名实体识别任务。从医疗文本中识别疾病和诊断,解剖部位,影像检查,实验室检查,手术和药物6种命名实体。实现基于捷巴和AC自动机的基线构建,基于BiLSTM和CRF的序列标注模型构造。伯尔尼的部分代码源于感谢作者。模型最终测试集重叠0.81,还有更多改进空间。
2021-10-04 20:01:00 42.36MB 系统开源
1
知识蒸馏在文本方向上的应用 模型相关等内容在有具体介绍。 目录 更新日志 2020.08.28 整理代码结构,抛弃借鉴的Bert模型,增加xlnet模型,预训练xlnet模型效果较差,可以在模型基础上再进行预训练,因此添加了模型预训练代码。 2020.07.15 修复bug,添加textGCN模型(单独训练,模型效果较差)。 2020.07.06 移除模型介绍&部分模型实现,增加使用说明及运行环境。 2020.05.28 增加了直接使用学生模型训练代码,并使用公开测试集完成测试。 运行环境 python 3.7 pytorch 1.1 (BERT模型参考Bert-Chinese-Text-Classification-Pytorch,有较多改动) transformers 3.0.2 torch 1.5.0 使用说明 下载Wikipedia_zh 中文维基百科 预训练词向量放入Knowl
2021-10-03 16:16:24 1.11MB pytorch knowledge-distillation bert Python
1
EasyBert 基于Pytorch的Bert应用,包括命名实体识别、情感分析、文本分类以及文本相似度等(后续更新其他方向相关模块),并有相关数据与深度训练优化方式api。各个子项目大都为开源工作,本项目仅做相应处理以及提供一个已训练的预测接口,方便需求者进行快速的使用。本项目仅作为学习与研究使用,若存在侵权行为,请原作者务必联系我进行协商处理。 使用示例 使用前需下载相应的已训练模型,并导入相应位置 模型下载地址: 在此目录下各以需求名命名的文件中提供相应的使用演示,本阶段所训练的模型效果可以满足相应任务的基本需求。 现阶段通过各任务接口的时间相对慢,大都是在模型加载阶段。若想提升相应的速度,请使用者在接受相应精度损失的前提下更换AlBert进行相应任务的重新预训练。 依赖项 环境依赖 python >= 3.7 Pytorch >= 1.14 transformers >= 2.8.0
2021-10-02 19:01:24 720KB Python
1
使用google BERT进行CoNLL-2003 NER! 为了获得更好的性能,您可以尝试使用fennlp,有关更多详细信息,请参见fennlp。 BERT-NER版本2使用Google的BERT进行命名实体识别(CoNLL-2003作为数据集)。 原始版本(请参阅old_version以获得更多详细信息)包含一些硬代码,并且缺少相应的注释,因此不方便理解。 因此,在此更新版本中,有一些新的思想和技巧(关于数据预处理和图层设计)可以帮助您快速实现微调模型(您只需要
2021-09-29 15:08:15 2.09MB Python Deep Learning
1
代码已上传至github https://github.com/danan0755/Bert_Classifier 数据来源cnews,可以通过百度云下载 链接:https://pan.baidu.com/s/1LzTidW_LrdYMokN—Nyag 提取码:zejw   数据格式如下: bert中文预训练模型下载地址: 链接:https://pan.baidu.com/s/14JcQXIBSaWyY7bRWdJW7yg 提取码:mvtl 复制run_classifier.py,命名为run_cnews_cls.py。添加自定义的Processor class MyProcessor(D
2021-09-29 12:54:30 185KB 分类 多分类 多分类任务
1
TensorFlow 2.0教程 我们的回购。 是的赢家 。 时间线: 2019年10月1日:TensorFlow 2.0稳定! 2019年8月24日: 2019年6月8日: 2019年3月7日: 2019年1月11日: 2018年8月14日: 安装 确保您使用的是python3.x。 CPU安装 pip install tensorflow - U GPU安装 自己安装CUDA 10.0 (或cudnn )和cudnn 。 并设置LD_LIBRARY_PATH 。 pip install tensorflow - gpu - U 测试安装: In [ 2 ]: import tensorflow as tf In [ 3 ]: tf . __version__ Out [ 3 ]: '2.0.0' In [ 4 ]: tf . test . is_gpu_available () ... totalMemory : 3.95 GiB freeMemory : 3.00 GiB ... Out [ 4 ]: True 配套TF2视频教程 TensorFl
1
命名实体识别实战(BERT)-附件资源
2021-09-26 16:52:26 106B
1
伯特·纳尔 使用google BERT进行CoNLL-2003 NER! 使用Python训练模型并使用C ++进行推理 要求 python3 pip3 install -r requirements.txt 跑步 python run_ner.py --data_dir=data/ --bert_model=bert-base-cased --task_name=ner --output_dir=out_base --max_seq_length=128 --do_train --num_train_epochs 5 --do_eval --warmup_proportion=0.1 结果 BERT库 验证数据 precision recall f1-score support PER 0.9677 0.9745
2021-09-26 14:36:03 1.61MB curl inference pytorch cpp11
1
Dureader-Bert 2019 Dureader机器阅读理解单模型代码。 哈工大讯飞联合实验室发布的中文全词覆盖BERT 只需将要加载的预训练模型换为压缩包内的chinese_wwm_pytorch.bin,即从_pretrained函数中weights_path和config_file即可。 谷歌发布的中文伯特与哈工大发布的中文全词覆盖BERT在Dureader上的效果对比 模型 ROUGE-L BLEU-4 谷歌bert 49.3 50.2 哈工大伯特 50.32 51.4 由于官方没有指定测试集,实验数据是在验证集上跑出来的 许多人询问,说明一下: 1,数据处理是自己写
2021-09-26 14:01:37 86.97MB nlp qa pytorch transfer-learning
1