结巴分词包
2021-12-04 10:03:40 11.83MB 分词
1
jieba分词器包含关键词提取(java版,可以使用scala调用)
2021-12-02 16:38:26 7.31MB jieba分
1
1.默认情况 语句中关键字在含有英文和特殊字符时(machine-1234),使用jieba往往将我们的关键词分割的非常零碎,比如: # 默认情况 import jieba str1 = 查找machine-1234的产品说明书 for w in jieba.cut(str1): print(w) # 运行结果 >>>查找 >>>machine >>>- >>>1234 >>>的 >>>产品 >>>说明书 2.利用自定义字典 通常情况下,我们可以加载预定义字典来包含词库里不存在的词,以达到正确分词的效果 # 利用用户自定义字典 import jieba str1 = 查找mac
2021-11-30 19:12:55 32KB ie jieba 关键
1
自然语言处理 / jieba分词自定义停用词,共2600行 / txt文件 / stopwords / 学习工作都用得上
2021-10-29 17:52:50 20KB stopwords jieba nlp jieba分词停用词
1
通过jieba分词工具,载入自定义词典和停用词库,来获取词频高的关键词,本脚本只获取top10的关键词; 其中,停用词库是结合了目前很多常见停用库的合并;
2021-10-07 10:44:11 3KB jieba 分词
1
jieba分词支持关键词带空格和特殊字符
2021-08-02 20:46:40 19KB jieba分词 空格
1
jieba snownlp bs4 等包的使用,包括tf-idf算法等,具体方法见代码注释部分。练习数据也在文件夹中 11111111111
2021-08-01 10:42:07 5.34MB 分词 jieba python
1
主要介绍了python同义词替换的实现(jieba分词),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
1
中文停用词表, 哈工大停用词表, 百度停用词表, 四川大学机器智能实验室停用词库四份停用词表进行了合并去重
2021-07-10 09:10:01 16KB 数据分析 jieba分词 情感分析
1
列举出常用的汉字3550个,还有生僻字
2021-07-10 09:10:01 12KB jieba分词 评论分析 情感分析
1