BERT只是一个预训练的语言模型,在各大任务上都刷新了榜单。我们本次实验的任务也是一个序列标注问题,简而言之,就是是基于BERT预训练模型,在中文NER(Named Entity Recognition,命名实体识别)任务上进行fine-tune。 Fine-tune是什么意思,中文译为微调。在transfer learning中,对事先训练好的特征抽取网络,直接拿来用在下游任务上。固定其特征抽取层的网络参数,只在原有的网络上增加少量神经元,做最后的分类任务,而且只更新分类参数。
2021-04-20 19:51:43 479KB nlp bert
1
注意: 该软件包已停止更新,请参阅我们的新 参考: 纸: 用于命名实体识别的神经架构通过BLSTM-CNN-CRF进行端到端序列标记码: 用法: python train.py 性能 f1 91.00%
1
论文《End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF》的代码实现
2021-04-20 15:47:18 115KB Bi-LSTM CNN CRF
1
基于Tensorflow1.x实现BiLstm+CRF,代码可运行,包括中药说明书实体识别挑战的比赛数据。
2021-04-18 18:54:56 2.64MB 命名实体识别 BiLstm CRF
1
条件随机场CRF图像处理工具CRFalMTALAB工具,可以运行 没有错误哈,处理图片
2021-04-15 10:02:17 1.47MB crf
1
深入理解条件随机场:包含其原理、应用及举例。CRF 就像一个反向的隐马尔可夫模型(HMM),两者都是用了马尔科夫链作为隐含变量的概率转移模型,只不过 HMM 使用隐含变量生成可观测状态,其生成概率有标注集统计得到,是一个生成模型;而 CRF 反过来通过可观测状态判别隐含变量,其概率亦通过标注集统计得来,是一个判别模型。由于两者模型主干相同,其能够应用的领域往往是重叠的,但在命名实体、句法分析等领域 CRF 更胜一筹。
2021-04-13 22:34:32 991KB 条件随机场
1
使用 CRF++ 训练命名实体识别模型
2021-04-11 14:10:53 10.25MB 源代码
1
CRF++的使用 CRF用于中文分词-附件资源
2021-04-04 12:49:59 23B
1
信息提取中文 中文信息提取(包括命名实体识别,关系提取等)专注于最新的深度学习方法。 为了清楚起见,该项目有几个子任务,分别带有详细的README.md。 文件夹RE_BGRU_2ATT /中的详细信息 文件夹NER_IDCNN_CRF /中的详细信息 详情 参考
1
适用于大规模多中心RCT研究,抗生素CRF数据提取,excel格式,方便自调
2021-03-25 09:06:37 119KB 多中心RCT研究 CRF模板 医疗数据提取
1