引入Attention 机制,对 LSTM 模型进行改进,设计了LSTM-Attention 模型。
实验环境:开python3.6.5、tensorflow==1.12、keras==2.2.4
本文的实验数据集来源于搜狗实验室中的搜狐新闻 数据,从中提取出用于训练中文词向量的中文语料, 大小约为 4GB 左右.然后选取了10 个类别的新闻数据,分别为体育, 财经, 房产, 家居, 教育, 科技, 时尚, 时政, 游戏, 娱乐.每个类别 新闻为5000 条,共 50000 条新闻,利用这 50000 条 数据来训练模型.其测试集和验证集如下
验证集: 500*10
测试集: 1000*10