命名实体识别代码,解压即可用
# BERT-BiLSTM-CRF
BERT-BiLSTM-CRF的Keras版实现
## BERT配置
1. 首先需要下载Pre-trained的BERT模型,本文用的是Google开源的中文BERT模型:
- https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip
2. 安装BERT客户端和服务器 pip install bert-serving-server pip install bert-serving-client,源项目如下:
- https://github.com/hanxiao/bert-as-service
3. 打开服务器,在BERT根目录下,打开终端,输入命令:
- bert-serving-start -pooling_strategy NONE -max_seq_len 144 -mask_cls_sep -model_dir chinese_L-12_H-768_A-12/ -num_worker 1
2021-05-10 11:42:36
883KB
文本分类
1