实验 词汇分析 1)使用任意分词方法编写算法实现汉语自动分词程序; 2)编写直接调用分词工具(jieba分词,中科院分词等)进行分词的程序; 3)用两种方法,给出至少50个句子的分词结果(以附件形式); 4)分别计算出两种分词结果的正确率,给出计算依据。
2021-06-07 14:07:10 33.55MB 自然语言处理 中文分词 jieba分词
1
jieba分词的自定义词典:使用jieba分词对语料进行分词之前,需要先载入,载入代码为jieba.load_userdict("userdict.txt")。
对字符串进行分词
2021-06-03 13:03:17 7.38MB 分词
1
python3.7 windows 64位 jieba 安装包,命令 pip install jieba-0.42.1-cp37-none-any.whl
2021-06-03 11:22:17 18.42MB jieba python
1
jieba停用词
2021-06-02 18:03:18 11KB jieba 停用词
1
jieba+百度分词词库,数据大概60w左右,可以做情感分析用。
2021-06-01 17:58:31 2.25MB jieba
1
python中中文分词的模块jieba,在python项目中对中文的词组进行自动划分,可以通过jieba模块进行划分
2021-05-19 10:39:04 35.42MB python jieba 中文分词模块
1
结巴分词用到的资源文件sougou.dict,使用方式见本人的博客。https://blog.csdn.net/JohnnyChu/article/details/100920349
2021-05-10 03:07:11 1.05MB jieba分词包 结巴分词包 sougou.dict
1
本人最近在用lucene做一些东西,需要用到jieba分词器。但csdn上的资源都是需要积分的,一个开源软件竟然还要积分。。。从github找的,分享给大家吧
2021-05-09 17:35:27 2.45MB java jieba
1
基于TensorFlow的中文文本情感分析完整项目,提供环境配置信息、保姆级注释,新手小白也可搭建。
2021-04-30 13:06:28 540.28MB NLP TensorFlow jieba
1