谷歌提出的Transformer结构
2021-06-30 16:54:19 2.13MB 注意力机制
1
近年来, 随着人工智能的发展, 深度学习模型已在ECG数据分析(尤其是房颤的检测)中得到广泛应用. 本文提出了一种基于多头注意力机制的算法来实现房颤的分类, 并通过PhysioNet 2017年挑战赛的公开数据集对其进行训练和验证. 该算法首先采用深度残差网络提取心电信号的局部特征, 随后采用双向长短期记忆网络在此基础上提取全局特征, 最后传入多头注意力机制层对特征进行重点提取, 通过级联的方式将多个模块相连接并发挥各自模块的作用, 整体模型的性能有了很大的提升. 实验结果表明, 本文所提出的heads-8模型可以达到精度0.861, 召回率0.862, F1得分0.861和准确率0.860, 这优于目前针对心电信号的房颤分类的最新方法.
1
为什么需要视觉注意力计算机视觉(computervision)中的注意力机制(attention)的基本思想就是想让系统学会注意力——能够忽略无关信息而关注重点信息。为什么要忽略无关信息呢?注意力分类与基本概念神经网络中的「注意力」是什么?怎么用?该文分为:硬注意力、软注意力、此外,还有高斯注意力、空间变换就注意力的可微性来分:Hard-attention,就是0/1问题,哪些区域是被attentioned,哪些区域不关注.硬注意力在图像中的应用已经被人们熟知多年:图像裁剪(imagecropping)硬注意力(强注意力)与软注意力不同点在于,首先强注意力是更加关注点,也就是图像中的每个点都有
1
使用双隐层LSTM模型(DHLSTM)和双向LSTM(Bi-LSTM)模型两种方法,实现MNIST数据集分类
2021-06-01 11:08:53 11.06MB DHLSTM Bi-LSTM LSTM MNIST
1
提出一种结合群体交互信息和个体运动信息的生成对抗网络GI-GAN。首先,利用编码层中的双向长短期记忆网络BiLSTM提取观测时段内所有行人自身的运动行为隐藏特征;其次,基于双注意力模块,计算与轨迹生成关联度较高的个体运动信息和群体交互信息;最后,利用生成对抗网络进行全局联合训练,获得反向传播误差和各层的合理网络参数,解码器利用已获取的上下文信息生成多条合理预测轨迹。实验表明,与S-GAN模型相比,GI-GAN模型的平均位移误差和绝对位移误差分别降低了8.8%和9.2%,并且预测轨迹具有更高的精度和合理多样性。
2021-05-10 21:46:02 9.35MB 图像处理 行人轨迹 双注意力 生成对抗
1
基于Pytorch实现的CapsuleNet,适配最新1.2.0pytorch亲测可运行。 一个关于MNIST的基本实现。包括了动态路由和反传。 胶囊网络。胶囊网络:一种全新的富有吸引力的AI架构。
2021-05-10 11:12:44 13KB CapsuleNet CNN Pytorch Python
1
对于语音的情感识别,针对单层长短期记忆(LSTM)网络在解决复杂问题时的泛化能力不足,提出一种嵌入自注意力机制的堆叠LSTM模型,并引入惩罚项来提升网络性能。对于视频序列的情感识别,引入注意力机制,根据每个视频帧所包含情感信息的多少为其分配权重后再进行分类。最后利用加权决策融合方法融合表情和语音信号,实现最终的情感识别。实验结果表明,与单模态情感识别相比,所提方法在所选数据集上的识别准确率提升4%左右,具有较好的识别结果。
2021-05-08 15:47:48 2.99MB 图像处理 情感识别 全卷积神 长短期记
1
网络视觉 NeAt(Neural Attention)Vision是一种可视化工具,用于自然语言处理(NLP)任务的深度学习模型的注意力机制。 产品特点 可视化注意力得分,有很多选择。 将可视化文件导出为SVG格式。 如果要在学术论文中使用可视化效果,这将非常方便。 但是,您可能必须将SVG转换为PDF。 可视化模型预测。 显示类的后验分布,回归任务中的错误等。 对于调试模型和检查其行为很有用。 支持分类,多标签分类和回归。 进行了整齐的可视化,以可视化自然语言处理(任务)任务的注意机制的权重。 目前,整洁的视觉只支持可视化的自我注意机制,在句子级别上执行以下任务: 回归:预测单个连
2021-05-04 19:04:07 13.58MB visualization nlp natural-language-processing vuejs
1