机器学习算法中自然语言处理常用数据集(新闻数据集news.csv)及jieba_dict字典、停用词等相关文件,包括以下文件 data/news.csv jieba_dict/dict.txt.big jieba_dict/stopwords.txt jieba_dict/stopwords_s.txt
2021-07-19 15:41:33 3.94MB 新闻数据集 自然语言处理数据集
1
其中包含的val(已整理的搜狗实验室新闻文本数据)、stopwords数据来源于网课资源,能够帮助新手尽快完成一次新闻文本分类的实战项目
1
一个文本文件,包含中文停用词集合,对文本处理过程中,方便剔除停用词
2021-07-09 09:11:21 4KB 文本,停用词
1
该资源是本人博客《文本聚类(一)—— LDA 主题模型》中所使用的停用词表,是在百度停用词表的基础上加入了一些分词后产生的单个字以及数字信息等内容,不建议作为通用性质的停用词表使用
2021-07-08 19:06:10 26KB 停用词
1
论文中用到的部分基础文本分析技术(包括分词、去除停用词、word2vec、TF-IDF、词云图、名称提取、词性标注、LDA主题模型)
2021-07-08 15:02:47 6MB 分词 去除停用词 word2vec TF-IDF
英、法、德、意、葡、土耳其等14种语言中的停用词
2021-07-07 15:12:32 8KB 停用词
1
最近做了些关于关键词(敏感词)过滤、lucene搜索方面的编码工作,整理了一些词库,共享给大家,希望用得着。所有词库都是纯文本格式的。
2021-07-06 17:37:04 255KB 搜狗 词库 敏感词 停用
1
中文停用词,txt文档,做python的nlp必要的资源
2021-07-05 15:01:36 17KB 停用词 stopwords 中文nlp python
1
本资源是对贝叶斯新闻分类实战项目详解博客一文中的数据资料补充,包含了文本数据,停用词,ipynb文件,仅供读者参考
2021-06-22 21:10:03 9.33MB 文本分类 贝叶斯 停用词 邮件过滤
1
1、资源中有语料,本语料库由复旦大学李荣陆提供。test_corpus为测试语料,共9833篇文档;train_corpus为训练语料,共9804篇文档,两个预料各分为20个相同类别。训练语料和测试语料基本按照1:1的比例来划分。使用时尽量注明来源(复旦大学计算机信息与技术系国际数据库中心自然语言处理小组)。 2、资源中还附有一份停用词
2021-06-14 10:38:46 86.75MB 中文文本分类 文本分类 语料 停用词
1