引入Attention 机制,对 LSTM 模型进行改进,设计了LSTM-Attention 模型。 实验环境:开python3.6.5、tensorflow==1.12、keras==2.2.4 本文的实验数据集来源于搜狗实验室中的搜狐新闻 数据,从中提取出用于训练中文词向量的中文语料, 大小约为 4GB 左右.然后选取了10 个类别的新闻数据,分别为体育, 财经, 房产, 家居, 教育, 科技, 时尚, 时政, 游戏, 娱乐.每个类别 新闻为5000 条,共 50000 条新闻,利用这 50000 条 数据来训练模型.其测试集和验证集如下 验证集: 500*10 测试集: 1000*10
情感分析分类 先决条件 安装依赖项 pip install -r requirements.txt 安装Spacy英语数据 python -m spacy download en 框架 火炬 数据集 Cornell MR(电影评论)数据集 实施 RNN LSTM 双LSTM LSTM +注意 有线电视新闻网
2021-11-02 09:33:23 6.45MB pytorch lstm rnn bi-lstm
1
针对长短时记忆网络(LSTM)不能有效地提取动作前后之间相互关联的信息导致行为识别率偏低的问题,提出了一种基于Bi-LSTM-Attention模型的人体行为识别算法。该算法首先从每个视频中提取20帧图像,通过Inceptionv3模型提取图像中的深层特征,然后构建向前和向后的Bi-LSTM神经网络学习特征向量中的时序信息,接着利用注意力机制自适应地感知对识别结果有较大影响的网络权重,使模型能够根据行为的前后关系实现更精确的识别,最后通过一层全连接层连接Softmax分类器并对视频进行分类。通过Action Youtobe和KTH人体行为数据集与现有的方法进行比较,实验结果表明,本文算法有效地提高了行为识别率。
2021-09-24 02:23:54 4.73MB 机器视觉 行为识别 注意力机 Inception
1
CNN_LSTM加注意力机制对股票预测,文件有数据
2021-08-24 11:03:45 325KB CNN_LSTM
对联AI 用PyTorch实现的自动对对联系统,支持多种模型。一般而言,给定一句话生成另一句话是序列生成问题,本项目根据上下联字数不同的特点将其转化为序列标注问题,即用下联去标注上联。 依存关系 python 3.6+ pytorch 1.2+ 烧瓶(可选) 数据集 数据集包含70多万条对联数据(26MB),下载请,或者(提取码:wude)。 用法 将下载到的数据集解压到当前目录(解压后的文件夹名称为couplet ) 运行preprocess.py进行数据预 运行main.py [-m model type]进行训练 运行clidemo.py <-p model path>可在控制台进行AI对对联 运行webdemo.py 可在Web端进行AI对对联 命令行参数的详细说明见文件内,你也可以在module/model.py中定义你自己的模型。 使用Docker
2021-08-23 10:46:23 33KB 系统开源
1
经典的LSTM分类模型,一种是利用LSTM最后时刻的输出作为高一级的表示,而另一种是将所有时刻的LSTM输出求平均作为高一级的表示.这两种表示都存在一定的缺陷,第一种缺失了前面的输出信息,另一种没有体现每个时刻输出信息的不同重要程度.为了解决此问题,引入 Attention 机制,对 LSTM 模型进行改进,设计了 LSTM-Attention 模型.实验结果表明: LSTM 分类模型比传统的机器学习方法分类效果更好,而引入 Attention 机制后的 LSTM 模型相比于经典的文本分类模型,分类效果也有了一定程度的提升.
2021-04-14 13:05:15 468KB LSTM Attention
1