这篇论文的思路特别好: 我们提出了一种用于脑电情感识别的端到端深度学习方法。该神经网络综合考虑了脑电信号的空间信息、时间信息和注意力信息。将CNN,RNN和通道注意力机制(channel-wise attention)和扩展自我注意力机制(self-attention mechanisms)混合起来,同时通过通过注意力机制计算出各个通道权重,筛选出更有价值的通道。同时采用DE作为频域特征,结合时域特征和空间特征三大特征相融合考虑。模型方面:CNN+RNN(CNN-RNN)、通道性注意机制+CNN+RNN(A-CNN-RNN)和CNN+RNN+扩展自我注意机制(CNN-RNN-A)、连续卷积神经网络(Conti-CNN)、图卷积神经网络(GCNN)和卷积复发注意力模型(CRAM)。介绍了六种深度学习方法和两种传统方法进行比较,六大模型相互对比,在DEAP数据库的效价和觉醒分类任务中,平均情绪识别准确率分别为92.74%和93.14%!希望大家能好好理解阅读。 我们将通道性注意整合到CNN中,CNN可以提取空间注意特征,通道性注意可以提取通道间的注意信息。
2022-04-06 03:12:02 20.97MB cnn rnn 人工智能 深度学习
Tensorflow v2 双向LSTM完整模型 具有输入和输出 包括训练、预测、精度评估 具有三种模型精度评价指标 双向LSTM具有更强的稳定性、可靠性和精度
2022-04-06 03:10:19 5KB tensorflow lstm 架构 人工智能
事件抽取是自然语言处理中一项具有挑战性的任务,对于后续的信息处理有重要作用。本文采用BiLSTM模型与Attention层结合,完成了事件触发词检测,实现了事件类别的分类。与以往的事件检测方法相比,本文将两类任务视作同一个任务,避免了上游任务对下游任务的影响,使用神经网络学习特征,引入注意力机制突出重点信息。在MELL语料上进行生物事件抽取实验,结果表明准确率和召回率较高,F1值为81.66%,优于以往的方法。
2022-04-05 13:17:16 1.47MB 事件抽取; 注意力机制; BiLSTM
1
传统的推荐系统存在数据高度稀疏、冷启动及用户偏好建模难等问题,而把情境信息融入推荐系统中能有效缓解此类问题.深度学习技术已经成为人工智能领域研究热点,把深度学习应用在情境感知推荐系统当中,为推荐领域的研究带来新的机遇与挑战.本文从情境感知推荐系统相关概念出发,综合整理国内外研究相关文献,介绍深度学习技术融入情境感知推荐系统相关应用模型,提出了基于深度学习的情境感知推荐系统研究的不足以及对未来的展望.
2022-03-23 01:52:26 1.15MB 情境 情境感知 深度学习 注意力机制
1
随着视频技术的飞速发展,越来越多的视频应用逐步进入人们的生活中,因此对视频质量的研究很有意义。基于卷积神经网络和循环神经网络强大的特征提取能力并结合注意力机制,提出一种无参考视频质量评价算法。该算法首先利用VGG(Visual Geometry Group)网络提取失真视频的空域特征,然后利用循环神经网络提取失真视频的时域特征,引入注意力机制对视频的空时特征进行重要度计算,根据重要度得到视频的整体特征,最后通过全连接层回归得到视频质量的评价分数。在3个公开视频数据库上的实验结果表明,预测结果与人类主观质量评分具有较好的一致性,与最新的视频质量评价算法相比具有更好的性能。
2022-03-16 13:10:57 3.98MB 机器视觉 视频质量 卷积神经 循环神经
1
与经典的卷积神经网络(CNN)相比,提出的胶囊网络欣顿可以使用更少的网络层来很好地完成分类任务,并以更快的速度达到收敛。 胶囊网络的原理是基于CNN,只是将神经元形式从标量转换为向量,即一个胶囊,然后通过动态路由方法选择适合最终输出的胶囊1 。在胶囊网络的基础上,使用反卷积来还原图像并优化原始图像和还原图像之间的误差。 通过数据增强处理的名为Cohn- Kanade Database Plus(CK +)的经典面部情绪数据库用于进行实验。 最近,分类结果与NAO机器人结合在一起。 NAO机器人可以通过改变眼睛的颜色并说出结果来形象化情感,从而达到将理论与实践相结合的目的。
2022-03-12 14:47:31 235KB Capsule Convolution Neural Network
1
机器学习,胶囊网络代码。 适合于研究深度学习的适合于研究深度学习的
2022-03-11 23:00:24 3KB 胶囊网络
1
针对全卷积孪生(SiamFC)网络算法在相似目标共存和目标外观发生显著变化时跟踪失败的问题,提出一种基于注意力机制的在线自适应孪生网络跟踪算法(AAM-Siam)来增强网络模型的判别能力,实现在线学习目标外观变化并抑制背景。首先,分别在模板分支和搜索分支中加入前一帧跟踪所得到的结果,弥补网络在应对目标外观变化的不足;然后通过在孪生网络中加入空间注意力模块和通道注意力模块实现不同帧之间的特征融合,从而在线学习目标形变并抑制背景,进一步提升模型的特征表达能力;最后,在OTB和VOT2016跟踪基准库上进行实验。实验结果表明,本文算法在OTB50数据集上的精确度和平均成功率比基础算法SiamFC分别高出了4.3个百分点和3.6个百分点。
2022-03-11 13:53:36 8.75MB 机器视觉 孪生网络 注意力机 卷积神经
1
胶囊网络 PyTorch实现以下文件: Sara Sabour,Nicholas Frosst和Geoffrey Hinton的 正式执行 Sara Sabour的(TensorFlow) 视觉表现 图片来源: Mike Ross , 运行实验 有关详细信息,请运行python main.py --help 重构图像与原始图像的示例 要求: PyTorch( ) NumPy( ) 显卡 默认的超参数(类似于纸张): 每个GPU batch_size = 128 初始learning_rate = 0.001 指数lr_decay = 0.96 路由迭代次数( num_routing )= 3 损失函数超参数(请参阅 ): 保证金亏损的Lambda = 0.5 重建损失的比例因子= 0.0005 GPU Speed基准: (具有上述超参数) 单个GeForce
2022-03-08 14:09:20 38KB Python
1
注意力机制使用;卷积神经网络的变体keras实现
2022-01-25 14:39:29 512KB keras densenet 残差网络 inceptionnet
1