新浪新闻文本分类
语料库重建
本项目的语料来源新浪新闻网,通过spider.py爬虫模块获得全部语料,总计获得10类新闻文本,每一类新闻文本有10条。
采纳新浪新闻网的一个api获取新闻文本,api的url为
使用进度池并发执行爬虫,加快抓取速度。
数据预处理
本项目的数据预处理包括:分词处理,去噪,向量化,由stopwords.py模块,text2term.py模块,vectorizer.py模块实现。
本项目借助第三方库解霸完成文本的分词处理。
通过停用词表移除中文停用词,通过正则表达式消除数字(中文数字&阿拉伯数字)。
filter_pattern = re . compile ( ur'[-+]?[\w\d]+|零|一|二|三|四|五|六|七|八|九|十|百|千|万|亿' )
使用进程池并发执行数据的分词和去噪,加快数据预处理的过程。
把数据集1:1划分为训练集和测试集,各50w篇文档。
通过scikit-learn提供的CountVectorizer类完成矢量化,得到训练集和测试集两个文本的特征矩阵,矩阵类型为稀疏矩阵。
移除文档中文档频率小于0.1%的特征,这些特征我们认
1