该文件是jieba分词jar包,其中包括主要的jar包,源码,文档等。
2021-03-29 12:06:58 4.24MB java jar jieba
1
网上MMAnalyzer资源太少了,大多数初学者都会少导入JAR包,因为网上的贴的代码只有jeasy.analysis.MMAnalyzer,而没有依赖包lucene-core-2.4.1.jar!
2021-03-28 14:32:55 1.57MB jeasy analysis MMAnalyzer lucene-core
1
elasticsearch7.4.0 ik 分词器
2021-03-27 20:17:42 4.27MB elasticsearch ik 分词
1
elasticsearch 的中文分词插件,用于中文分词,使用方法,直接把压缩包解压放到elasticsearch 的plugins\ik 文件夹下
2021-03-26 11:40:46 4.3MB elastic search ik 分词
1
如果是Ubuntu系统,请把m修改为mu即可,通过pip 安装,Linux不需要编译 pyltp-0.2.1-cp35-cp35m-linux_x86_64.whl
2021-03-25 19:59:09 30.66MB ltp pyltp 哈工大分词
1
Scala中文分词+SparkML逻辑回归 实现 中文文本分类
2021-03-25 19:13:54 13.89MB SparkML Scala中文分词
1
结巴中文分词停用表,整合百度分词、哈工大等停用词表2000余条数据 即拿即用,效果好,提升分词速度准确率。
2021-03-25 14:23:10 16KB 中文分词 分词停用表 结巴分词
1
哈工大分词window 64位
2021-03-24 18:01:28 608KB 分词 文本处理 词性标注
1
主要介绍了Django实现whoosh搜索引擎使用jieba分词,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
2021-03-24 14:16:24 236KB Django jieba分词 Django whoosh引擎
1
将源码做部分修改,打成jar包,适合于lucene3.6版本。注意paoding-dic-home.properties的配置
2021-03-22 23:41:19 107KB 庖丁 分词器 中文分词
1