LAnn标注工具 当前情况 目前为封闭域关系三元组标注,不提供新关系的标注,之前开放域关系三元组版本将不再维护,不再维护,不再维护,存在BUG!存在BUG!存在BUG!。 计划脱离对Django框架的依赖,借助PyQt的WebEngine实现标注界面和Python程序数据传输,更好地支持Pytorch和数据处理,已基本打通JS和Python之间的墙壁。 计划加入预训练BERT模型。 LAnn简介 LAnn(Little Annotator)是一个用于标注三元组的纯前段中文标注工具。具有使用简单的特点,采用网页的形式,使用浏览器便可运行。标注过程、结果直观,易后处理。基本不用配置,快速上手。可只用于NER标注,也可以适当修改,改为POS标注(实体类型改为词性,只进行实体标注)或者分词标注(设置特殊的实体类型“词语”,只进行实体标注)。 可以先后导入test.txt、entity_dict,然
2021-10-20 13:24:27 6.82MB vim annotator ner relation-extraction
1
CwsPosNerEntityRecognition 中英文Cws Pos Ner实体识别工具,使用CNN双向lstm和crf模型,并带有char嵌入。基于字向量的CNN池化双向BiLSTM与CRF模型的网络,可能一体化的完成中文和英文分词,词性标注,实体识别。主要包括原始文本数据,数据转换,训练脚本,预训练模型,可用于序列标注研究。注意:唯一需要实现的逻辑是将用户数据转化为序列模型。分词准确率约为93%,词性标注准确率约为90%,实体标注(在本样本上)约为85%。 提示 中文分词,词性标注,实体识别,在使用上述模型时,本质是就是标注问题!!!如果您第一次使用相关的模型,只需加上self.c
2021-10-18 22:10:58 52.4MB nlp tensorflow crf keras
1
中文命名实体识别数据集
2021-10-18 17:12:25 2.33MB 命名实体识别
1
BERT-BiLSTM-CRF-NER Tensorflow solution of NER task Using BiLSTM-CRF model with Google BERT Fine-tuning 使用谷歌的BERT模型在BLSTM-CRF模型上进行预训练用于中文命名实体识别的Tensorflow代码' 中文文档请查看 如果对您有帮助,麻烦点个star,谢谢~~ Welcome to star this repository! The Chinese training data($PATH/NERdata/) come from: The CoNLL-2003 data($PATH/NERdata/ori/) come from: The evaluation codes come from: Try to implement NER work based on google'
2021-10-17 21:06:39 482KB crf named-entity-recognition ner bert
1
BERT-NER-Pytorch:三种不同模式的BERT中文NER实验
2021-10-14 18:04:19 280KB 自然语言处理
1
https://blog.csdn.net/weixin_43975374/article/details/118969476
2021-10-14 16:16:57 889.69MB 词性 NER
1
BI-LSTM-CRF模型的PyTorch实现。 特征: 与相比,执行了以下改进: 全面支持小批量计算 完全矢量化的实现。 特别是,删除了“得分句”算法中的所有循环,从而极大地提高了训练效果 支持CUDA 用于非常简单的API START / STOP标签会自动添加到CRF中 包含一个内部线性层,该线性层可从要素空间转换为标签空间 专门用于NLP序列标记任务 轻松训练自己的序列标记模型 麻省理工学院执照 安装 依存关系 的Python 3 安装$ pip install bi-lstm-crf 训练 语料库 以指定的准备语料库 也有一个示例语料库 训练 $ python -m bi_lstm_crf corpus_dir --model_dir " model_xxx " 更多 训练曲线 import pandas as pd import matplotlib . pyplot
2021-10-09 14:34:48 16KB nlp crf pytorch ner
1
简单的变形金刚 该库基于HuggingFace的库。 使用简单的Transformers,您可以快速训练和评估Transformer模型。 初始化模型,训练模型和评估模型仅需要三行代码。 技术支持 序列分类 代币分类(NER) 问题回答 语言模型微调 语言模型训练 语言生成 T5型号 Seq2Seq任务 多模态分类 对话式AI。 文本表示生成。 目录 设置 与conda 从安装Anaconda或Miniconda Package Manager 创建一个新的虚拟环境并安装软件包。 conda create -n st python pandas tqdm conda activate st如果使用cuda: conda install pytorch>=1.6 cudatoolkit=11.0 -c pytorch否则: conda install pytorch cpuonly
1
中文-DeepNER-Pytorch 天池中药说明书实体识别挑战冠军方案开源 贡献者: zxx飞翔​​的鱼: : 我是蛋糕王: : 数青峰: : 后续官方开放数据集后DeepNER项目会进行优化升级,包含完整的数据处理,训练,验证,测试,部署流程,提供详细的代码注释,模型介绍,实验结果,提供更普适的基础预训练的中文命名实体识别方案,开箱即用,欢迎星级! (代码框架基于火炬和变压器,框架进行性,解耦性,易读性较高,很容易修改迁移至其他NLP任务中) 环境 python3 . 7 pytorch == 1.6 . 0 + transformers == 2.10 . 0 pytorch - crf == 0.7 . 2 项目目录说明 DeepNER │ ├── data # 数据文件夹 │ ├── mid
2021-10-07 23:10:39 3.04MB Python
1
为了获得更好的性能,您可以尝试NLPGNN,有关更多详细信息,请参见 。 BERT-NER版本2 使用Google的BERT进行命名实体识别(CoNLL-2003作为数据集)。 原始版本(有关更多详细信息,请参见old_version)包含一些硬代码,并且缺少相应的注释,因此不方便理解。 因此,在此更新版本中,有一些新的想法和技巧(关于数据预处理和图层设计)可以帮助您快速实现微调模型(您只需尝试修改crf_layer或softmax_layer)。 资料夹说明: BERT-NER |____ bert # need git from [h
2021-10-06 20:26:59 2.09MB tensorflow ner bert conll-2003
1