2016年上传过搜狗12个分类词库,两年没更新了,今天用程序重新跑了下数据获取到2018最新的数据,导出为txt格式,方便大家做分词用,我不生成词,我只是词的搬运工,版权归搜狗公司所有。
2019-12-21 18:49:26 37.08MB 搜狗 词库 分词 2018
1
词库的各分类数据(已去重)来源于搜狗,考虑到各行各业需要的分词规则不同,故没有合并,需要的可以下载下来自行合并
2019-12-21 18:49:26 48.76MB 搜狗 词库
1
网站站长必备,违禁关键词词库近2万条,做好网站内容,防止被封站
2019-12-21 18:49:17 1.55MB 违禁关键词
1
综合多种停用词表,进行合并去重处理,http://blog.csdn.net/kevinelstri/article/details/70227981
2019-12-21 18:49:06 10KB 停用词 文本分析
1
103976个英语单词库txt版本 分隔符是制表符 方便大家用python判断单词,也方便大家转为自己想要的数据库
2019-12-18 10:55:47 3.98MB python 字典 数据库
1
同义词词典 中文同义词词库,access版本
2019-12-12 16:48:11 892KB 同义词词典 中文同义词词库
1
103976条数据,已处理完美,方便开发集成,别的版本有一些多余的冒号,我这版本已去除,可自行用数据库工具导入数据库,也可通过数据库工具导成其他格式,如txt,csv;或者下载我的其他对应格式的资源
2019-10-15 17:05:48 5.78MB 数据库 单词库 英语 10万条
1
SEO伪原创词库15万同义词(已整理)好用哦最新的,我们自己都在用的,推荐使用,做网络优化的有福了·!
2019-08-16 11:50:25 1.99MB 伪原创词库 SEO词库
1
solr6.0需要的IK分词资料,其中包括IK分词的jar和配置文件还有搜狗词库
2016-06-01 00:00:00 16.16MB solr6.0 IK分词 搜狗词库
1
此版本是基于IK-Analyzer-2012FF修改而来,专门适用于Lucene 5.2.1。 IK Analyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本中,IK实现了简单的分词歧义排除算法,标志着IK分词器从单纯的词典分词向模拟语义分词衍化。
2015-07-08 00:00:00 1.1MB IKAnalyzer
1