HMM隐马尔可夫模型用于中文分词HMM隐马尔可夫模型用于中文分词
2019-12-21 21:02:59 1.52MB 隐马尔可夫 中文分词
1
中文分词词典 适合最大正向匹配算法使用 共计548389条词语
1
NLPIR(ICTCLAS2013)是由张华平博士发布的中文分词系统,可用多种语言进行二次开发,该资源是用C#语言在VS2010环境下在http://www.nlpir.org/提供的原示例基础上进行改进后的示例程序。
2019-12-21 21:02:11 3.85MB NLPIR ICTCLS2013 分词 C#
1
Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。
2019-12-21 21:02:09 7.08MB Jieba 分词
1
文档中包含Lucene4.0.0版本jar包,中文分词器jar包,Lucene实例代码 1:建立索引 2:各种搜索方式方法 3:删除索引 4:检查索引文件 5:恢复删除的索引 6:强制删除 7:更新索引 8:合并索引 9:高亮回显 供大家参考学习 public static void main(String[] args) { LuceneUtil luceneUtil = new LuceneUtil(); // 创建索引 // luceneUtil.index(); // 搜索 luceneUtil.search(); // 删除索引 // luceneUtil.delete(); // 检查索引文件 // luceneUtil.check(); // 恢复删除的索引 // luceneUtil.unDelete(); // 强制删除 // luceneUtil.forceDelete(); // 更新索引 // luceneUtil.update(); // 合并索引 // luceneUtil.merge(); }
2019-12-21 21:01:08 60.02MB lucene 检索 索引 中文分词器
1
分词词库字典,主要为百度中文分词,主要用于中文jieba分词的自定义词典,或者其他分词工具的自定义词典等。
2019-12-21 20:50:47 8.71MB 分词
1
进行中文文本分词时,使用的是jieba分词工具。文档中演示了结巴分词器的.Net版本在VS2013中的使用流程。新人上货,请指正!
2019-12-21 20:49:25 320KB C# 中文分词 Jieba分词
1
java中文分词,协同过滤算法词频分析,javaGUI界面初步,生成java数据词云
2019-12-21 20:47:42 207KB java
1
JAVA中maven的使用,中文分词,以及了解协同过滤算法如何做词频分析
2019-12-21 20:47:41 44.81MB JAVA
1
自然语言处理课程的小作业,以新闻语料为基础,用HMM算法实现中文分词。按照每个字为B,E,S,M进行划分。以新闻语料为基础,用HMM算法实现中文分词。按照每个字为B,E,S,M进行划分。
2019-12-21 20:46:15 2.25MB HMM
1