爬虫获取电影信息影评并分词写入Excel表 使用Java中基本的Jsoup来进行爬虫操作,分词工具使用jieba分词,excel写入使用jxl
2021-04-26 15:41:00 16KB jsoup jieba java 爬虫
1
利用python代码生成词云,里面包含完整代码和多张二位图、运行效果图、字体文件以及备用词语文件。需要依赖的包请参考博客具体描述。
2021-04-25 12:17:30 2.27MB python numpy wordcloud jieba
1
将需要分词进行词性标注的句子存放在corpus文本文件(自建)中,最好是每句话存为一行。注:corpus文件需放在代码所在文件夹里。运行代码,自动生成一个outcome文本文件,分词词性标注结果就在此文本里。
2021-04-24 18:41:13 715B jieba分词 词性标注 自动
1
转换为txt版UTF8且格式已修改为一行一词的搜狗金融词库,可直接导入作为jieba的自定义词库使用
2021-04-22 19:02:12 165KB jieba txt 搜狗词库 金融词库
1
前向最大匹配算法、后向最大匹配算法、jieba分词,使用python,完整的代码和运行结果
2021-04-15 13:03:27 108KB 分词 python jieba
该资源包括jieba中文分词所需要的词库,中文中国知网Hownet,清华大学李军词库,情感词典词库,词性分词词库等资源,众多词库资源方便与分词使用,在人工智能和nlp上使用方便
2021-04-14 13:53:52 5.23MB jieba 分词 nlp
1
该文件是jieba分词jar包,其中包括主要的jar包,源码,文档等。
2021-03-29 12:06:58 4.24MB java jar jieba
1
结巴中文分词停用表,整合百度分词、哈工大等停用词表2000余条数据 即拿即用,效果好,提升分词速度准确率。
2021-03-25 14:23:10 16KB 中文分词 分词停用表 结巴分词
1
主要介绍了Django实现whoosh搜索引擎使用jieba分词,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
2021-03-24 14:16:24 236KB Django jieba分词 Django whoosh引擎
1
基于jiagu和jieba的中文地区提取算法,用python语言编写,并用fastapi包装,可以被Java等请求结果
2021-03-23 21:50:16 947B fastapi jieba 地区提取 命名实体识别
1