中文分词 本项目为中文分词任务baseline的代码实现,模型包括 BiLSTM-CRF 基于BERT的+ X(softmax / CRF / BiLSTM + CRF) 罗伯塔+ X(softmax / CRF / BiLSTM + CRF) 本项目是的项目。 数据集 数据集第二届中文分词任务中的北京大学数据集。 模型 本项目实现了中文分词任务的baseline模型,对应路径分别为: BiLSTM-CRF BERT-Softmax BERT-CRF BERT-LSTM-CRF 其中,根据使用的预训练模型的不同,BERT-base-X模型可转换为Roberta-X模型。 要求 此仓库已在Python 3.6+和PyTorch 1.5.1上进行了测试。 主要要求是: tqdm scikit学习 火炬> = 1.5.1 :hugging_face: 变压器== 2.2.2 要解决环境问题,请运行:
1
用于视频的压缩和转档(转换格式),类似于格式工厂的功能
2021-05-05 09:05:48 197.09MB 视频转档 视频压缩
1
除了crf+ngram这种基于统计纠错的方法外还有一种基于深度学习的seq2seq方法,有简单的注释,有训练集和测试集数据,属于很基础的模型。
2021-05-03 09:01:48 4.54MB nlp crf ngram
1
用于中文命名实体识别的简单BiLSTM-CRF模型 该存储库包含用于为中文命名实体识别任务构建非常简单的基于字符的BiLSTM-CRF序列标签模型的代码。 其目标是识别三种类型的命名实体:PERSON,LOCATION和ORGANIZATION。 这段代码可在Python 3和TensorFlow 1.2上运行,以下存储库给了我很多帮助。 模型 此模型类似于论文[1]和[2]提供的模型。 其结构如下图所示: 对于一个中文句子,该句子中的每个字符都有/将具有属于{O,B-PER,I-PER,B-LOC,I-LOC,B-ORG,I-ORG}集的标记。 第一层是查找层,旨在将每个字符表示从一个
1
SqueezeSeg点云目标识别的翻译版,虽然还存在一些翻译上的细节,但是相对于英文好多了。
2021-04-22 23:54:34 1.85MB 点云目标识别 深度学习 目标检测
1
BERT只是一个预训练的语言模型,在各大任务上都刷新了榜单。我们本次实验的任务也是一个序列标注问题,简而言之,就是是基于BERT预训练模型,在中文NER(Named Entity Recognition,命名实体识别)任务上进行fine-tune。 Fine-tune是什么意思,中文译为微调。在transfer learning中,对事先训练好的特征抽取网络,直接拿来用在下游任务上。固定其特征抽取层的网络参数,只在原有的网络上增加少量神经元,做最后的分类任务,而且只更新分类参数。
2021-04-20 19:51:43 479KB nlp bert
1
注意: 该软件包已停止更新,请参阅我们的新 参考: 纸: 用于命名实体识别的神经架构通过BLSTM-CNN-CRF进行端到端序列标记码: 用法: python train.py 性能 f1 91.00%
1
论文《End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF》的代码实现
2021-04-20 15:47:18 115KB Bi-LSTM CNN CRF
1
基于Tensorflow1.x实现BiLstm+CRF,代码可运行,包括中药说明书实体识别挑战的比赛数据。
2021-04-18 18:54:56 2.64MB 命名实体识别 BiLstm CRF
1
条件随机场CRF图像处理工具CRFalMTALAB工具,可以运行 没有错误哈,处理图片
2021-04-15 10:02:17 1.47MB crf
1