SqueezeSeg点云目标识别的翻译版,虽然还存在一些翻译上的细节,但是相对于英文好多了。
2021-04-22 23:54:34 1.85MB 点云目标识别 深度学习 目标检测
1
BERT只是一个预训练的语言模型,在各大任务上都刷新了榜单。我们本次实验的任务也是一个序列标注问题,简而言之,就是是基于BERT预训练模型,在中文NER(Named Entity Recognition,命名实体识别)任务上进行fine-tune。 Fine-tune是什么意思,中文译为微调。在transfer learning中,对事先训练好的特征抽取网络,直接拿来用在下游任务上。固定其特征抽取层的网络参数,只在原有的网络上增加少量神经元,做最后的分类任务,而且只更新分类参数。
2021-04-20 19:51:43 479KB nlp bert
1
注意: 该软件包已停止更新,请参阅我们的新 参考: 纸: 用于命名实体识别的神经架构通过BLSTM-CNN-CRF进行端到端序列标记码: 用法: python train.py 性能 f1 91.00%
1
论文《End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF》的代码实现
2021-04-20 15:47:18 115KB Bi-LSTM CNN CRF
1
基于Tensorflow1.x实现BiLstm+CRF,代码可运行,包括中药说明书实体识别挑战的比赛数据。
2021-04-18 18:54:56 2.64MB 命名实体识别 BiLstm CRF
1
MHA自动化主服务器故障转移,快速将从服务器晋级为主服务器(通常在10-30s),而不影响复制的一致性,不需要花钱买更多的新服务器,不会有性能损耗,容易安装,不必更改现有的部署环境,适用于任何存储引擎。
2021-04-18 17:01:30 35KB mha node mysql masterha-nod
1
条件随机场CRF图像处理工具CRFalMTALAB工具,可以运行 没有错误哈,处理图片
2021-04-15 10:02:17 1.47MB crf
1
深入理解条件随机场:包含其原理、应用及举例。CRF 就像一个反向的隐马尔可夫模型(HMM),两者都是用了马尔科夫链作为隐含变量的概率转移模型,只不过 HMM 使用隐含变量生成可观测状态,其生成概率有标注集统计得到,是一个生成模型;而 CRF 反过来通过可观测状态判别隐含变量,其概率亦通过标注集统计得来,是一个判别模型。由于两者模型主干相同,其能够应用的领域往往是重叠的,但在命名实体、句法分析等领域 CRF 更胜一筹。
2021-04-13 22:34:32 991KB 条件随机场
1
使用 CRF++ 训练命名实体识别模型
2021-04-11 14:10:53 10.25MB 源代码
1
CRF++的使用 CRF用于中文分词-附件资源
2021-04-04 12:49:59 23B
1