bilstmcrf.zip
2022-01-16 12:05:33 11KB bilstm-crf 命名实体识别
1
NER的BERT-BILSTM-GCN-CRF 在原本BERT-BILSTM-CRF上融合GCN和词性标签等做NER任务 数据格式 高B-剧种B-名词腔I-剧种I-名词:OO马B-人名B-名词平I-人名I-名词所OO着O B动词扶O B动词贫O I动词小O B -名词I O-名词 运行
2021-12-06 16:00:54 182KB Python
1
BiLSTM + CRF用于顺序标记任务 :rocket: :rocket: :rocket: BiLSTM + CRF模型的TensorFlow实现,用于序列标记任务。 项目特色 基于Tensorflow API。 高度可扩展; 一切都是可配置的。 模块化,结构清晰。 对初学者非常友好。 容易DIY。 任务与模型 Sequential labeling是对NLP中的序列预测任务进行建模的一种典型方法。 常见的顺序标记任务包括例如 词性(POS)标记, 块, 命名实体识别(NER) 标点恢复 句子边界检测 范围检测 中文分词(CWG) , 语义角色标签(SRL) 口语理解能力 事件提取 等等... 以命名实体识别(NER)任务为例: Stanford University located at California . B-ORG I-ORG O O B-LOC O 在这里,将提取两个实体, Stanford University和California 。 特别是,文本中的每个token都用相应的label 。 例如
2021-12-01 11:51:53 73.89MB nlp tensorflow ner python35
1
国科大自然语言处理第三次作业
2021-11-29 17:05:46 181.53MB TensorFlow nlp 命名实体识别
1
5个程序员刷题网站| 凯拉斯-伯特-纳 中文 NER 任务使用BiLSTM-CRF/BiGRU-CRF/IDCNN-CRF模型和预训练语言模型的Keras解决方案:支持BERT/RoBERTa/ALBERT )。 更新日志 2020年2月27日重构的代码keras_bert_ner并删除了一些多余的文件。 bert4keras == 0.2.5现在已集成为该项目的主要部分。 2019.11.14 bert4keras现在作为一个包使用,因为它没有太大变化。 albert 模型现在只能支持谷歌的版本。 2019.11.04修复计算句子准确率和做预测时结果错误的问题。 2019.11.01将keras-contrib crf_accuracy/ crf_loss替换为自定义的 crf_accuracy/crf_loss 来处理掩码标签。 未来的工作 迁移到 tensorflow 2.0。 添加其他 BERT 模型,例如 Distill_Bert、Tiny_Bert。 依赖关系 烧瓶== 1.1.1 keras == 2.3.1 numpy == 1.18.1 loguru == 0.4.1
2021-11-24 11:14:06 10.6MB 系统开源
1
中文命名实体识别 数据集 本项目尝试使用了多种不同的模型(包括HMM,CRF,Bi-LSTM,Bi-LSTM + CRF)来解决中文命名实体识别问题,数据集用的是论文ACL 2018 中收集的简历数据,数据的格式如下,它的每个行由一个字及其对应的标注组成,标注集采用BIOES,句子之间用一个空行替换。 美 B-LOC 国 E-LOC 的 O 华 B-PER 莱 I-PER 士 E-PER 我 O 跟 O 他 O 谈 O 笑 O 风 O 生 O 该数据集就位于项目目录下的ResumeNER文件夹里。 运行结果 下面是多种不同的模型以及这Ensemble这四个模型预测结果的准确率(取最好): HMM 慢性肾功能衰竭 双线性STM BiLSTM + CRF 合奏 召回率 91.22% 95.43% 95.32% 95.72% 95.65% 准确率 91.49% 95.43% 95.37% 95.74% 95.69% F1分数 91.30% 95.42% 95.32% 95.70% 95.64% 最后一列Ensemble是将这四个模型的预测结果结合起来,使用“
2021-11-13 17:18:20 24.44MB nlp hmm crf named-entity-recognition
1
命名实体识别是自然语言处理的一项关键技术. 基于深度学习的方法已被广泛应用到中文实体识别研究中. 大多数深度学习模型的预处理主要注重词和字符的特征抽取, 却忽略词上下文的语义信息, 使其无法表征一词多义, 因而实体识别性能有待进一步提高. 为解决该问题, 本文提出了一种基于BERT-BiLSTM-CRF模型的研究方法. 首先通过BERT模型预处理生成基于上下文信息的词向量, 其次将训练出来的词向量输入BiLSTM-CRF模型做进一步训练处理. 实验结果表明, 该模型在MSRA语料和人民日报语料库上都达到相当不错的结果, F1值分别为94.65%和95.67%.
1
为解决旅游文本在特征表示时的一词多义问题, 针对旅游游记文本景点实体识别中景点别名的问题, 研究了一种融合语言模型的中文景点实体识别模型. 首先使用BERT语言模型进行文本特征提取获取字粒度向量矩阵, BiLSTM用于上下文信息的提取, 同时结合CRF模型提取全局最优序列, 最终得到景点命名实体. 实验表明, 提出的模型性能提升显著, 在实际旅游领域内景点识别的测试中, 与以往研究者方法比较下准确率, 召回率分别提升了8.33%, 1.71%.
1
NER-Sequence-labeling--Textcnn-bilstm-crf-pytorch pytorch用Textcnn-bilstm-crf模型实现命名实体识别 数据处理 数据处理文件是'data_preprocess.py' 模型和训练过程 模型和训练过程都在同一个文件中‘cnn-bilistm-crf.py’ 预测 预测文件为‘predict.py’   数据 数据存在data文件夹中
2021-11-05 14:04:29 16KB Python
1
裁判文书中的命名实体识别是自动化审判的关键一步,如何能够有效的分辨出案件的关键命名实体是本文的研究重点.因此本文针对财产纠纷审判案件,提出了一种基于SVM-BiLSTM-CRF的神经网络模型.首先利用SVM筛选出包含关键命名实体的句子,然后将正确包含此类实体的句子转化为字符级向量作为输入,构建适合财产纠纷裁判文书命名实体识别的BiLSTM-CRF深层神经网络模型.通过构建训练数据进行验证和对比,该模型比其他相关模型表现出更高的召回率和准确率.
2021-10-31 16:58:52 1.1MB 命名实体识别 SVM BiLSTM CRF
1