jieba分词,连接数据库,分析数据库中的文本,并提取时间、地点、目标,整个完整流程/
1
进行中文文本分词时,使用的是jieba分词工具。文档中演示了结巴分词器的.Net版本在VS2013中的使用流程。新人上货,请指正!
2019-12-21 20:49:25 320KB C# 中文分词 Jieba分词
1
利用jieba分词进行文本的处理这里面是jieba分词所需要的词典和停用词
2019-12-21 20:42:12 2.9MB jieba
1
结巴分词,jieba分词,统计分词出现的频率,按频率统计分词出现的频率。分词器功能,建议参考 elasticsearch的分词器,此分词器为入门级的分词拆分和分词频率统计
2019-12-21 20:36:08 6.44MB jieba分词 java 分词统计 结巴
1
自己搜集来的词典,有重复的一些,自己甄别,里面包了清华大学词典,台湾大学词典,知网词典等,褒义词,贬义词,情感词一类的,反正挺多的
1
Java使用结巴分词时,必须应用的 jar包。应用于 分词器
2019-12-21 20:16:32 2.09MB 资源包
1
使用Python,对爬取微博的评论,进行jieba分词,统计词频,修改路径即可。
2019-12-21 19:33:13 835B jieba 分词 微博评论
1
金融方面的常见词汇形成的词典/语料库,jieba.load_userdict()即可使用
2019-12-21 18:53:33 15KB NLP 语料库 jieba 分词词典
1
搜狗实验室新闻数据精简版,将xml文本进行处理后分类如下: 奥运 5595个txt 房产 14695 个txt 互联网 2200个txt 健康 1153个txt 教育 2075个txt 旅游 1802个txt 汽车 1405个txt 商业 12465个txt 时尚 3490 个txt 体育 17237 个txt 文化 628个txt 娱乐 6757个txt 招聘 18个txt 由于是个人xml文本处理过的,处理了部分文档,如果需要更多可以联系我。 免费下载链接:https://share.weiyun.com/X0prakLr
2019-12-21 18:52:17 83.69MB 搜狗语料库 jieba分词 文本分类
1