基于BERT的中文数据集下的命名实体识别(NER) 基于tensorflow官方代码修改。 环境 Tensorflow:1.13 的Python:3.6 tensorflow2.0会报错。 搜狐比赛 在搜狐这个文本比赛中写了一个基准,使用了bert以及bert + lstm + crf来进行实体识别。 其后只使用BERT的结果如下,具体评估方案请看比赛说明,这里的话只做了实体部分,情感全部为POS进行的测试嘲笑。 使用bert + lstm + crf结果如下 训练验证测试 export BERT_BASE_DIR=/opt/hanyaopeng/souhu/data/chinese_L-
2022-03-24 12:22:48 1.7MB nlp deeplearning ner bert
1
斯坦福NLP的信息提取,包括命名实体识别和关系提取等。
2022-03-16 16:20:42 318KB NER NLP
1
使用预训练语言模型BERT做中文NER
2022-03-08 22:41:19 3.72MB Python开发-自然语言处理
1
超全的ALtuim元器件及封装库 通用电阻电容库、STM32单片机库 电池、电感 二极管 光耦 互感器 继电器 晶体管 常用芯片等等等
2022-03-08 11:08:47 167.36MB ALtuim库
1
https://github.com/google-research/bert 里的预训练好的中文的NER模型,该模型是中文命名实体识别的预训练模型chinese_L-12_H-768_A-12.zip,这个链接下载只需3积分,主要是想给大家提供方便,供大家学习使用。
2022-03-03 16:41:35 365.79MB 中文NER预训练模型 chinese_L-12_H-7 BERT
1
给大家分享一套课程——【完整版11章】自然语言处理之动手学NER视频教程 课程大纲: 章节1 动手命名实体识别开篇 章节2 动手学命名实体识别之环境搭建 章节3 深度学习基础之卷积神经网络 章节4 深度学习基础之循环神经网络 章节5 深度学习基础之LSTM 章节6 基于BiLSTM+CRF的中文命名实体识别实战 章节7 命名实体识别项目案例 章节8 基于IDCNN+CRF的中文命名实体识别实战 章节9 Bert相关理论详细详解 章节10 基于Bert+LSTM+CRF的中文命名实体识别实战 章节11 基于Tensorflow2.x的命名实体识别实战
2022-02-05 20:03:11 786B 自然语言处理 NER 深度学习
1
NLP常用数据集:BosonNLP_NER_6C、Chinese-NLP-Corpus(NER:Weibo、People's Daily、MSRA;识别:BDCI_Car_2018)、CoNLL、OntoNotes-5.0-NER-BIO-master
2022-01-12 12:08:04 128.7MB NLP 数据集 NER实体识别
1
CCKS2019-任务5 引言 目前,PDF已成为电子文档发行和数字化信息传播的一个标准,其广泛的学术界的交流以及各类公告的发行。如何从非结构化的PDF文档中抽取结构化数据是知识图谱领域所面临的的一大挑战。此处利用Adobe公司开发的Acrobat DC SDK对PDF进行格式转换,从半结构化的中间文件进行信息转移。引用现有的开源PDF解析方法,Acrobat导出的中间文件保存了更完整在CCKS 2019年公众公司公告评论中,我们的方法获得总成绩第三名。在本次评估中,我们将公告文件(PDF)格式)转换成XML。对于任务一,我们通过查找表标签,获取PDF中所有的表格;然后根据表格的一部分,确定其
2021-12-28 14:36:08 54.12MB flask web-api event-extraction ner
1
2014年的人民日报数据,总共有28万行,可直接做词性标注训练使用,处理后也可以做实体识别模型训练用。
2021-12-27 19:55:45 124.07MB nlp 词性标注 NER 命名实体识别
1
政治网络 斯洛文尼亚政治数据的命名实体识别项目。 安装开发 # Python 2.7.6 mkvirtualenv --no-site-packages politiki workon politiki pip install --upgrade -r requirements.txt 使用的库和工具 准备和抓取数据 手动抓取每个门户或运行“./bin/small_crawl.sh”脚本 scrapy crawl delo -o data/urls/delo.csv -t csv -O --nolog 将 URL 列表合并为一个巨大的列表。 cat data/urls/*.csv | cut -d ',' -f1 | grep -v -e "url" | uniq -u > data/lists/big.txt 使用 Aria2 下载所有内容以供离线处理 aria2c --con
2021-12-17 22:38:57 9KB Python
1