中文分词源代码,java语言。以及词典txt文本。代码通过读词典获取数据,进行中文分词。将词典读取的数据利用map去重,然后进行前缀扫面,详情见博客:https://blog.csdn.net/qq_40142391/article/details/82945556#commentsedit
2021-04-05 13:34:14 202KB 中文分词 词典(txt
1
最新搜狗200万词库词典,已经清洗去重,可作为词库使用,用于分词或者搜索系统,该分词词库质量很高,可以很好的提高机器学习效果,可以尝试下
2021-03-08 22:45:41 15.05MB 词库 搜狗 分词 词典
1
在使用jiba分词的情况下,使用这个词典有助于提高你的分词准确度,因为这个分词词典包含了众多领域词汇,这些词汇出自某dog的几十个细胞词库。已使用转换器转换成txt,欢迎下载。
2021-02-28 22:02:34 7.29MB 分词词典 中文分词 jieba gensim
1
含有43万条非重复语料
2019-12-21 21:36:00 4.46MB 中分文分词 词典
1
22万词条,供大家学习使用。中文分词词典 中文自然语言处理基础
2019-12-21 21:11:04 2.09MB 中文 分词 词典 自然语言处理
1
中文分词词典 适合最大正向匹配算法使用 共计548389条词语
1
利用jieba分词进行文本的处理这里面是jieba分词所需要的词典和停用词
2019-12-21 20:42:12 2.9MB jieba
1
自己搜集来的词典,有重复的一些,自己甄别,里面包了清华大学词典,台湾大学词典,知网词典等,褒义词,贬义词,情感词一类的,反正挺多的
1
金融方面的常见词汇形成的词典/语料库,jieba.load_userdict()即可使用
2019-12-21 18:53:33 15KB NLP 语料库 jieba 分词词典
1