elasticsearch的压缩包,解压下来即用,有两个版本的分别是elasticsearch-6.4.3,还附带6.4.3的IK分词器
2020-03-04 03:19:08 89.81MB elasticsearch
1
具体描述请看这里http://ansjsun.github.io/ansj_seg/ 这是最新的ANSJ版本,需要配合另一个tree-split jar包使用,请从这里下载:http://maven.ansj.org/org/ansj/
2020-03-04 03:04:50 42MB ANSJ 分词工具
1
简介 SCWS 是 Simple Chinese Word Segmentation 的首字母缩写(即:简易中文分词系统)。
2020-02-01 03:08:53 5.83MB scws php中文分词 中文分词
1
金融词条 25万 分词处理,金融数据分析 ,金融词条 25万 分词处理,金融数据分析 ,结巴分词
2020-01-15 03:10:56 4.92MB 结巴分词 金融数据分析 金融词条
1
mvn重新打包过的压缩包,适用最新6.2.4版本es,没有安装mvn的朋友可以直接下载,希望能帮到你
2020-01-06 03:04:53 4.29MB ik分词
1
jieba分词所需要使用的jar包 结巴分词的使用比较方便,效果也不错,也无需连接网络即可使用。在项目中使用到了结巴分词,故在此保存备份。
2020-01-06 03:04:12 2.09MB jieba分词jar包
1
中文分词一直都是中文自然语言处理领域的基础研究。目前,分词系统绝大多数都是基于中文词典的匹配算法。其中最为常见的是最大匹配算法 (Maximum Matching,以下简称MM算法) 。MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了正向最大匹配算法。 本程序还可以从我的github上面下载:https://github.com/Zehua-Zeng/Maximum-Matching-Algorithm
2020-01-04 03:15:05 9.29MB 正向 最大匹配 中文分词 自然语言处理
1
参考网络资源使用IKAnalyzer分词组件,实现了在Spark框架下使用Scala语言对唐诗宋词等国学经典进行中文分词统计排序的功能,你可以轻松发现唐诗宋词中最常用的词是那几个。
2020-01-03 11:43:20 395KB Spark Scala 中文分词 IKAnalyzer
1
中科院ICTCLAS2014分词系统下载包,文本分析工具,方便使用。
2020-01-03 11:39:43 73.73MB 文本分析工具
1
包内包含中文分词作业描述、C语言源程序、可执行文件和说明文档
2020-01-03 11:38:39 3.59MB 分词 C 中文分词
1