基于DEAP的四分类脑电情绪识别算法。 使用该模型从价-觉醒平面对四个情绪区域进行分类:高价-高觉醒(HVHA)、高价-低觉醒(HVLA)、低价-高觉醒(LVHA)和低价-低觉醒(LVLA)。 并提出了两种模型来解决这一问题:一维卷积神经网络(CNN-1D)结合LSTM,第二个模型为一维卷积神经网络(CNN-1D)结合GRU。 实验结果表明,该方法在1DCNN-GRU模型和1DCNN-LSTM模型中的训练准确率分别为96.3%和97.8%。因此,这两种模型对执行这种情绪分类任务都非常好。 这是专门为解决消失梯度问题而设计的,消失梯度问题通常成为时间序列数据集中的一个问题。
2022-03-29 09:33:31 1005KB 脑电情绪识别 deap cnn lstm
CNN-LSTM-Caption-Generator-master.zip CNN-LSTM-Caption-Generator-master.zip CNN-LSTM-Caption-Generator-master.zip
2022-03-17 21:02:28 323KB CNN,LSTM
1
CNN-LSTM-ATT论文评分模型 这是用于自动作文评分的纸质基于注意力的循环卷积神经网络的Pytorch实现。 [ ] 版本 我们的版本是: Python 3.6 PyTorch 1.8.0 训练 python train.py --oov嵌入--embeddding手套--embedding_dict Gloves.6B.50d.txt --embedding_dim 50 --datapath data / fold_ --prompt_id 1 请注意,您应该下载Gloves.6B.50d.txt。
2022-03-10 09:59:07 23.92MB Python
1
DEAP数据集自动情感识别 该项目使用来自DEAP数据集的EEG信号,使用集成的一维CNN,LSTM和2D,3D CNN以及带有LSTM的级联CNN将情绪分为4类。
2022-03-08 12:18:36 22.96MB JupyterNotebook
1
CNN-LSTM Matlab源码,稳定运行
2022-02-15 19:10:01 13.17MB cnn lstm matlab 人工智能
一个模型+主程序,然后里面还有CWRU轴承的数据,直接可以运行。 想修改模型可以在model.py里修改,这样就可以拿来自己搞点东西。
2022-02-05 17:06:58 17.51MB pytorch lstm cnn 深度学习
使用LSTM +CNN对EGG 进行分类预测,一维CNN提取数字信息特征,LSTM 进行分类预测
2022-01-08 21:30:53 2.49MB LSTM lstm分类 lstm预测 分类预测
该项目有两部分: 1.预处理: 预处理脚本使用小波变换对EEG信号进行去噪,降低采样频率并将10分钟片段分成15个时间序列。项目的这部分是用MATLAB编写的。该脚本位于source/Preprocessing/Preprocess_data.m下。 2.CNN+LSTM:预处理完成后,将使用此数据训练CNN+LSTM模型。 架构如下图所示: source/DataGenerator.py脚本是一个自定义类,用于将数据批量加载到内存中,而不是一次加载整个数据集。有关该类的更多信息,请参阅脚本中的注释。
2022-01-06 18:07:17 86.76MB matlab python LSTM CNN
台风是一种极端天气事件,每年夏天都会对沿海地区的城市经济造成重大损失。 预测台风的形成和强度以对台风灾害进行预警是非常重要的。 传统的基于流体理论的数值预报模型仍然很难准确地预测台风强度。 一些研究尝试使用机器倾斜方法来预测台风的形成和强度,但是他们并未考虑台风形成变量之间的时空关系。 在这里,我们提出了一个混合的CNNLSTM模型来学习大气和海洋变量的时空相关性。 我们的CNN-LSTM模型引入了3D卷积神经网络(3DCNN)和2D卷积神经网络(2DCNN),以了解台风形成特征之间的空间关系。 我们利用LSTM来学习台风路径中特征的时间序列关系。 在三个数据集上进行的广泛实验表明,我们的CNN-LSTM混合模型优于现有方法,包括许多官方组织使用的传统数值预测模型,统计预测方法和基于机器学习的方法。
2022-01-04 13:05:11 4.32MB 研究论文
1
Keras 示例代码,包括CNN,LSTM,CNN-LSTM等,非常全面。(Keras sample code, including CNN, LSTM, CNN-LSTM, and so on, is very comprehensive.)
2021-12-20 18:03:23 559KB KERAS