NER的BERT-BILSTM-GCN-CRF 在原本BERT-BILSTM-CRF上融合GCN和词性标签等做NER任务 数据格式 高B-剧种B-名词腔I-剧种I-名词:OO马B-人名B-名词平I-人名I-名词所OO着O B动词扶O B动词贫O I动词小O B -名词I O-名词 运行
2021-12-06 16:00:54 182KB Python
1
BiLSTM + CRF用于顺序标记任务 :rocket: :rocket: :rocket: BiLSTM + CRF模型的TensorFlow实现,用于序列标记任务。 项目特色 基于Tensorflow API。 高度可扩展; 一切都是可配置的。 模块化,结构清晰。 对初学者非常友好。 容易DIY。 任务与模型 Sequential labeling是对NLP中的序列预测任务进行建模的一种典型方法。 常见的顺序标记任务包括例如 词性(POS)标记, 块, 命名实体识别(NER) 标点恢复 句子边界检测 范围检测 中文分词(CWG) , 语义角色标签(SRL) 口语理解能力 事件提取 等等... 以命名实体识别(NER)任务为例: Stanford University located at California . B-ORG I-ORG O O B-LOC O 在这里,将提取两个实体, Stanford University和California 。 特别是,文本中的每个token都用相应的label 。 例如
2021-12-01 11:51:53 73.89MB nlp tensorflow ner python35
1
Chinese NER Project 本项目为CLUENER2020任务baseline的代码实现,模型包括 BiLSTM-CRF BERT-base + X (softmax/CRF/BiLSTM+CRF) Roberta + X (softmax/CRF/BiLSTM+CRF) 本项目BERT-base-X部分的代码编写思路参考 。 项目说明参考知乎文章: Dataset 实验数据来自。这是一个中文细粒度命名实体识别数据集,是基于清华大学开源的文本分类数据集THUCNEWS,选出部分数据进行细粒度标注得到的。该数据集的训练集、验证集和测试集的大小分别为10748,1343,1345,平均句子长度37.4字,最长50字。由于测试集不直接提供,考虑到leaderboard上提交次数有限,本项目使用CLUENER2020的验证集作为模型表现评判的测试集。 CLUENER2020共有10个
2021-11-29 23:16:05 12.45MB pytorch named-entity-recognition ner bert
1
国科大自然语言处理第三次作业
2021-11-29 17:05:46 181.53MB TensorFlow nlp 命名实体识别
1
针对中文文本自动校对提出了一种新的基于Seq2Seq和Bi-LSTM结合的深度学习模型。与传统的基于规则和概率统计的方法不同,基于Seq2Seq基础结构改进,加入了Bi-LSTM单元和注意力机制,实现了一个中文文本自动校对模型。采用F0.5与GLEU指标评价,通过公开的数据集进行不同模型的对比实验。实验结果表明,新模型能有效地处理长距离的文本错误以及语义错误,Bi-RNN以及注意力机制的加入对中文文本校对模型的性能有显著提升。
2021-11-27 21:00:59 542KB 中文文本校对
1
需要调用的模块及整体Bi-lstm流程 import torch import pandas as pd import numpy as np from tensorflow import keras import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torch.utils.data import DataLoader from torch.utils.data import TensorDataset import gensim from sklearn.model_s
2021-11-25 19:48:48 54KB c OR tor
1
5个程序员刷题网站| 凯拉斯-伯特-纳 中文 NER 任务使用BiLSTM-CRF/BiGRU-CRF/IDCNN-CRF模型和预训练语言模型的Keras解决方案:支持BERT/RoBERTa/ALBERT )。 更新日志 2020年2月27日重构的代码keras_bert_ner并删除了一些多余的文件。 bert4keras == 0.2.5现在已集成为该项目的主要部分。 2019.11.14 bert4keras现在作为一个包使用,因为它没有太大变化。 albert 模型现在只能支持谷歌的版本。 2019.11.04修复计算句子准确率和做预测时结果错误的问题。 2019.11.01将keras-contrib crf_accuracy/ crf_loss替换为自定义的 crf_accuracy/crf_loss 来处理掩码标签。 未来的工作 迁移到 tensorflow 2.0。 添加其他 BERT 模型,例如 Distill_Bert、Tiny_Bert。 依赖关系 烧瓶== 1.1.1 keras == 2.3.1 numpy == 1.18.1 loguru == 0.4.1
2021-11-24 11:14:06 10.6MB 系统开源
1
其中包括程序项目三个, Text CNN,RNN+CRT,CNN+LSTM的文本分类。包括数据训练集和测试集。文本分类是NLP的基础任务,掌握它是进阶的基础 enjoy
2021-11-23 20:31:22 253.94MB rnn nlp 分类算法 lstm
1
PyTorch中的LSTM-CRF 用于序列标记的双向LSTM-CRF的最小PyTorch(1.7.1)实现。 支持的功能: CUDA的小批量培训 嵌入层中的查找,CNN,RNN和/或自我关注 分层递归编码(HRE) 条件随机场(CRF)的PyTorch实现 CRF损失的矢量化计算 矢量化维特比解码 用法 培训数据的格式应如下: token/tag token/tag token/tag ... token/tag token/tag token/tag ... ... 有关更多详细信息,请参见每个子目录中的README.md。 准备数据: python3 prepare.py training_data 训练: python3 train.py model char_to_idx word_to_idx tag_to_idx training_data.csv (v
2021-11-23 17:30:40 18KB crf pytorch sequence-labeling lstm-crf
1
背景介绍 建了仓库,地址在这里: 点star不迷路,相关文章在github上更新的会更交替一点QAQ 之前做过调整的命名体识别,项目背景实际上也很简单,就是我要做一个关键词匹配的功能,第一步我需要挖掘关键词。 ,明星领域,财经领域等等吧,这些领域的文本很有特色,一般人名/地名/公司名称/书名/电影名称都可以很好的表示文本关键信息。 在这种项目背景之下,很自然的就会想到使用命名体识别。我把在做这个项目的过程中,积累的一些资料汇总了一下,希望对大家有所帮助。 关于命名体识别,这是一个很大的领域,要做好,有很多工作要做。标题完全是为了能增加曝光,自己还是知道只是一个小学生,我会把自己看过的有用的东西都列出来,给大家提供一些先验信息。 之后看到的关于nert的文章会在此基础继续更新(最近存了好多新文章还没看/苦逼码农/ QAQ),不过建议大家star一下Github,不迷路,我给自己的计划是精读一
2021-11-20 14:11:54 4KB 系统开源
1