python中中文分词的模块jieba,在python项目中对中文的词组进行自动划分,可以通过jieba模块进行划分
2021-05-19 10:39:04 35.42MB python jieba 中文分词模块
1
结巴分词用到的资源文件sougou.dict,使用方式见本人的博客。https://blog.csdn.net/JohnnyChu/article/details/100920349
2021-05-10 03:07:11 1.05MB jieba分词包 结巴分词包 sougou.dict
1
本人最近在用lucene做一些东西,需要用到jieba分词器。但csdn上的资源都是需要积分的,一个开源软件竟然还要积分。。。从github找的,分享给大家吧
2021-05-09 17:35:27 2.45MB java jieba
1
基于TensorFlow的中文文本情感分析完整项目,提供环境配置信息、保姆级注释,新手小白也可搭建。
2021-04-30 13:06:28 540.28MB NLP TensorFlow jieba
1
爬虫获取电影信息影评并分词写入Excel表 使用Java中基本的Jsoup来进行爬虫操作,分词工具使用jieba分词,excel写入使用jxl
2021-04-26 15:41:00 16KB jsoup jieba java 爬虫
1
利用python代码生成词云,里面包含完整代码和多张二位图、运行效果图、字体文件以及备用词语文件。需要依赖的包请参考博客具体描述。
2021-04-25 12:17:30 2.27MB python numpy wordcloud jieba
1
将需要分词进行词性标注的句子存放在corpus文本文件(自建)中,最好是每句话存为一行。注:corpus文件需放在代码所在文件夹里。运行代码,自动生成一个outcome文本文件,分词词性标注结果就在此文本里。
2021-04-24 18:41:13 715B jieba分词 词性标注 自动
1
转换为txt版UTF8且格式已修改为一行一词的搜狗金融词库,可直接导入作为jieba的自定义词库使用
2021-04-22 19:02:12 165KB jieba txt 搜狗词库 金融词库
1
前向最大匹配算法、后向最大匹配算法、jieba分词,使用python,完整的代码和运行结果
2021-04-15 13:03:27 108KB 分词 python jieba
该资源包括jieba中文分词所需要的词库,中文中国知网Hownet,清华大学李军词库,情感词典词库,词性分词词库等资源,众多词库资源方便与分词使用,在人工智能和nlp上使用方便
2021-04-14 13:53:52 5.23MB jieba 分词 nlp
1