结巴中文分词停用表,整合百度分词、哈工大等停用词表2000余条数据 即拿即用,效果好,提升分词速度准确率。
2021-03-25 14:23:10 16KB 中文分词 分词停用表 结巴分词
1
主要介绍了Django实现whoosh搜索引擎使用jieba分词,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
2021-03-24 14:16:24 236KB Django jieba分词 Django whoosh引擎
1
金融方面的常见词汇形成的词典/语料库,jieba.load_userdict()即可使用
2021-03-08 17:07:08 8KB NLP 语料库 jieba 分词
1
结巴分词用到的资源文件,使用方式见博客 结巴分词用到的资源文件,使用方式见博客 结巴分词用到的资源文件,使用方式见博客 结巴分词用到的资源文件,使用方式见博客
2021-02-09 13:04:08 1.88MB jieba分词
1
jieba分词所需要使用的jar包 结巴分词的使用比较方便,效果也不错,也无需连接网络即可使用。在项目中使用到了结巴分词,故在此保存备份。
2020-01-06 03:04:12 2.09MB jieba分词jar包
1
运用Jieba分词对红楼婪进行词云分析,可以分析红楼梦中词频及人物关系。
2020-01-03 11:17:35 107KB Jieba分词
1
结巴分词用到的资源文件,使用方式见博客
2019-12-21 21:36:01 1.88MB jieba分词
1
jieba分词java版项目,解压文件后,用eclipse导入项目后,执行run包下的test程序即可。
2019-12-21 21:25:21 4.17MB jieba分词
1
Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。
2019-12-21 21:02:09 7.08MB Jieba 分词
1
jieba分词器所用的字典,包含词频以及词性,可自行调整频次等属性。(仅做学习交流用,禁止商用)
2019-12-21 21:00:04 4.84MB NLP 自然语言处理 人工智能 词性字典
1