3种中文分词方法:最大后向匹配法,CRF,LSTM。其中LSTM又用了三种方法输入,glove向量,Word2vec向量,还有将字映射成整数再通过embedding层映射成字向量作为输入。还包含中文分词的评分脚本。
2019-12-21 21:07:39 14.89MB 中文分词
1
Java实现分词(正向最大匹配和逆向最大匹配)两种方法实现
2019-12-21 21:03:41 5KB java分词
1
基于深度学习、语音识别的结巴分词Jieba-Analysis项目,可在Eclipse 和 Android Studio下运行,识别语音的同时,可将关键词分割并输出
2019-12-21 21:03:04 5.29MB 语音识别 结巴分词
1
HMM隐马尔可夫模型用于中文分词HMM隐马尔可夫模型用于中文分词
2019-12-21 21:02:59 1.52MB 隐马尔可夫 中文分词
1
中文分词词典 适合最大正向匹配算法使用 共计548389条词语
1
Python分词系统jieba代码(有注释,无报错)!!!!!!!!!!!!!!!!!!!
2019-12-21 21:02:20 2KB jieba phthon 分词系统 分词
1
NLPIR(ICTCLAS2013)是由张华平博士发布的中文分词系统,可用多种语言进行二次开发,该资源是用C#语言在VS2010环境下在http://www.nlpir.org/提供的原示例基础上进行改进后的示例程序。
2019-12-21 21:02:11 3.85MB NLPIR ICTCLS2013 分词 C#
1
Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。
2019-12-21 21:02:09 7.08MB Jieba 分词
1
文档中包含Lucene4.0.0版本jar包,中文分词器jar包,Lucene实例代码 1:建立索引 2:各种搜索方式方法 3:删除索引 4:检查索引文件 5:恢复删除的索引 6:强制删除 7:更新索引 8:合并索引 9:高亮回显 供大家参考学习 public static void main(String[] args) { LuceneUtil luceneUtil = new LuceneUtil(); // 创建索引 // luceneUtil.index(); // 搜索 luceneUtil.search(); // 删除索引 // luceneUtil.delete(); // 检查索引文件 // luceneUtil.check(); // 恢复删除的索引 // luceneUtil.unDelete(); // 强制删除 // luceneUtil.forceDelete(); // 更新索引 // luceneUtil.update(); // 合并索引 // luceneUtil.merge(); }
2019-12-21 21:01:08 60.02MB lucene 检索 索引 中文分词器
1
jieba分词器所用的字典,包含词频以及词性,可自行调整频次等属性。(仅做学习交流用,禁止商用)
2019-12-21 21:00:04 4.84MB NLP 自然语言处理 人工智能 词性字典
1