keras实现中文文本分类;实现中文分析,词向量引入;基于语义的特征卷积计算,实现文本分类。
2019-12-21 21:42:31 6KB textCNN
1
本语料库由复旦大学李荣陆提供。 train.zip共9804篇文档,test.zip共9832篇文档,都分为20个类别。 下载后可以自己重新切分数据,也可以直接用。 免费下载地址:链接:https://pan.baidu.com/s/1E2vUjyBtrlG0SBCkO-_IAQ 密码:dq9m 使用时尽量注明来源(复旦大学计算机信息与技术系国际数据库中心自然语言处理小组)。
2019-12-21 20:24:05 106.17MB 中文文本分类 数据集
1
新闻栏目中文文本分类,新闻栏目一共有: 体育 5000 时政 5000 房产 5000 家居 5000 财经 5000 时尚 5000 科技 5000 教育 5000 娱乐 5000 游戏 5000 每个新闻栏目拥有5000条新闻,通过对新闻内容作为样本训练模型,使得该模型能够预测出该条新闻所属的栏目。
2019-12-21 20:19:49 66.03MB 文本分类数据集
1
中文文本分类,停用词表
2019-12-21 20:05:36 3KB 停用词表
1
中文文本分类语料(复旦)训练集+测试集(100M)完整版
2019-12-21 18:58:20 103.25MB 中文文本分类 分类语料 训练集 测试集
1
基于卷积神经网络处理中文文本分类
2019-12-21 18:58:15 20KB cnn 中文文本分类
1
资源为新闻类的中文文本分类数据集,能够满足机器学习,文字分析方面的需求
2019-12-21 18:56:23 61.06MB 11
1
NLP小白入门——超全中文文本分类系统(train set & test set + stop word*4 + word2vec + TF-IDF + Naive Bayes)
2019-12-21 18:54:41 13.63MB 自然语言处理
1
本语料库由复旦大学李荣陆提供。训练语料和测试语料两个预料各分为20个相同类别。训练语料和测试语料基本按照1:1的比例来划分。使用时尽量注明来源(复旦大学计算机信息与技术系国际数据库中心自然语言处理小组)
2019-12-21 18:51:02 111.24MB 文本分类
1
共50.38MB。本语料库由复旦大学李荣陆提供。test_corpus.rar为测试语料,共9833篇文档;train_corpus.rar为训练语料,共9804篇文档,两个预料各分为20个相同类别。训练语料和测试语料基本按照1:1的比例来划分。使用时尽量注明来源(复旦大学计算机信息与技术系国际数据库中心自然语言处理小组)
2019-12-21 18:49:48 51.14MB 文本分类 语料 测试集
1