分析三国演义和红楼梦,进行中文分词,统计人物出场频次,生成词云图。分享给广大python爱好者学习交流。
2022-01-08 22:54:06 10.73MB python wordcloud jieba
1
NULL 博文链接:https://xiaofancn.iteye.com/blog/2205024
2021-12-31 15:32:23 2.08MB 源码 工具
1
Python3绘制词云,同时实现 文章分析,分词统计,文本检索,并制作词云
2021-12-21 09:07:51 621KB Python 词云 词频
python实现豆瓣短评的爬虫程序,并经过数据预处理和JieBa分词,统计词频,最终生成次云.zip
2021-12-08 16:02:50 8.12MB python 爬虫
python使用jieba对txt文本进行分词统计,并将结果输出到控制台。 程序包含示例+注释说明。
2021-08-04 22:02:18 46KB jieaba 分词统计
1
参考网络资源使用IKAnalyzer分词组件,实现了在Spark框架下使用Scala语言对唐诗宋词等国学经典进行中文分词统计排序的功能,你可以轻松发现唐诗宋词中最常用的词是那几个。
2020-01-03 11:43:20 395KB Spark Scala 中文分词 IKAnalyzer
1
参考网络资源使用IKAnalyzer分词组件,实现了纯Java语言、MapReduce模式及Spark 框架三种方式对唐诗宋词等国学经典进行中文分词统计排序的功能,你可以轻松发现唐诗宋词中最常用的词是那几个。
2019-12-21 22:08:28 379KB Spark Java MapReduce IKAnalyzer
1
结巴分词,jieba分词,统计分词出现的频率,按频率统计分词出现的频率。分词器功能,建议参考 elasticsearch的分词器,此分词器为入门级的分词拆分和分词频率统计
2019-12-21 20:36:08 6.44MB jieba分词 java 分词统计 结巴
1