ElasticSearch安装包整理,包含Hanlp分词,IK分词,x-pack,,Mysql动态加载停用词、基础词、同义词,个人整理的ElasticSearch7.9.0安装压缩包,其中的同义词,基础词,停用词mysql动态加载属于个人完善并编译,多年运用于不同生产环境的部署,Hanlp 分词模型太大,CSDN上传资源限制小于1G,所以压缩包不含Hanlp分词插件,需要的留言。
2021-12-21 16:01:13 991.92MB ElasticSearch Hanlp分词 IK分词 x-pack
本资源包含各个版本的中英文停用词。停用词是指在信息检索中,为节省存储空间和提高搜索效率,在处理自然语言数据(或文本)之前或之后会自动过滤掉某些字或词,这些字或词即被称为Stop Words(停用词)。这些停用词都是人工输入、非自动化生成的,生成后的停用词会形成一个停用词表。
2021-12-19 16:42:01 43KB 停用词
1
IKAnalyzer配置文件、扩展词典和停用词词典.zip
2021-12-12 20:45:33 1.08MB IKAnalyzer
1
自然语言处理中可能会用的停用词表,
2021-12-07 21:05:30 13KB 停用词
1
分词词典: 综合了百度、搜狗等词库,以及手动整理的若干人名和新近出现的热词 中文停用词: 综合了"百度停用词表","哈工大停用词表","四川大学机器学习实验室停用词表"等若干停用词表,取交集并去除了不需要的标点符号和英文单词
2021-12-04 10:12:41 21.58MB nlp 停用词
1
采用SetupDi函数集,实现USB设备的动态卸载、动态加载、枚举信息。
1
nltk的停用词,用于学习nltk库的资源
2021-11-28 15:02:13 32KB nltk
1
中英文停用词stop_words,共3018个
2021-11-25 18:01:56 23KB 停用词 stopword nlp 数据预处理
1
NLP民工的乐园 最强大的NLP武器库 NLP民工的乐园:几乎最全的中文NLP资源库 词库 工具包 学习资料 在入门到熟悉NLP的过程中,用到了很多github上的包,遂整理了一下,分享在这里。 很多包非常有趣,值得收藏,满足大家的收集癖!如果觉得有用,请分享并star,谢谢! 长期不定时更新,欢迎手表和叉子! 涉及内容包括但不限于:中英文敏感词,语言检测,中外手机/电话归属​​地/运营商查询,名字,名称,性别,手机号撤回,身份证删除,邮箱删除,中日文人名库,中文缩写库,拆字字典,词汇情感值,替换词,反动词表,暴恐词表,繁简体转换,英文模拟中文最佳,汪峰歌词生成器,职业名称词库,词典库,反义词库,否定词库,汽车品牌词库,汽车零件词库,连续英语切割,各种中文词向量,公司名称大全,古诗词库,IT词库,财经词库,成语词库,地名库,历史名人词库,诗词词库,医学词库,饮食词库,法律词库,汽车词库,动
2021-11-25 15:48:32 69.21MB Python
1
前言 jieba 基于Python的中文分词工具,安装使用非常方便,直接pip即可,2/3都可以,功能强悍,十分推荐。 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。 分词模块jieba,它是python比较好用的分词模块。待分词的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建议直接输入 GBK 字符串,可能无法预料地错误解码成 UTF-8 支持三种分词模式       1 精确模式,试图将句子最精确地切开,适合文本分析;       2 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快
2021-11-24 22:49:33 50KB ie jieba python
1