| 中文停用词表 | cn\_stopwords.txt | | 哈工大停用词表 | hit\_stopwords.txt | | 百度停用词表 | baidu\_stopwords.txt | | 四川大学机器智能实验室停用词库 | scu\_stopwords.txt |
2022-01-06 18:28:11 13KB NLP 自然语言处理 停用词
1
英文停用词表,1000个停用词左右,满足大部分的去停用词情况
2022-01-05 16:49:20 7KB 去停用词
1
中文停用词表、哈工大停用词表、百度停用词表、四川大学机器智能实验室停用词库
2021-12-30 09:08:14 13KB 停用词 stopwords 自然语言处理 nlp
1
适用于分词、nlp等过程的英文停用词。
2021-12-29 23:16:10 7KB 分词 nlp python 停用词
1
文件内包含 jieba 百度60万+分词词库(带词性权重和不带词性权重的文件各一份),附带停用词词库,词性和权重由机器学习等技术手段生成,持续优化中,欢迎私信提供宝贵意见。
2021-12-27 16:04:54 5.78MB python nlp jieba 分词
词云图博客对应的资源文件 https://blog.csdn.net/m0_37816922/article/details/122139282
2021-12-27 10:06:54 3.64MB 停用词表
1
python实现词云时所需要的词典以及相应的停用词,设置的应该是不需要积分
2021-12-22 14:03:49 11KB 词云词典 停用词
1
ElasticSearch安装包整理,包含Hanlp分词,IK分词,x-pack,,Mysql动态加载停用词、基础词、同义词,个人整理的ElasticSearch7.9.0安装压缩包,其中的同义词,基础词,停用词mysql动态加载属于个人完善并编译,多年运用于不同生产环境的部署,Hanlp 分词模型太大,CSDN上传资源限制小于1G,所以压缩包不含Hanlp分词插件,需要的留言。
2021-12-21 16:01:13 991.92MB ElasticSearch Hanlp分词 IK分词 x-pack
本资源包含各个版本的中英文停用词。停用词是指在信息检索中,为节省存储空间和提高搜索效率,在处理自然语言数据(或文本)之前或之后会自动过滤掉某些字或词,这些字或词即被称为Stop Words(停用词)。这些停用词都是人工输入、非自动化生成的,生成后的停用词会形成一个停用词表。
2021-12-19 16:42:01 43KB 停用词
1
IKAnalyzer配置文件、扩展词典和停用词词典.zip
2021-12-12 20:45:33 1.08MB IKAnalyzer
1