回归预测 | MATLAB实现TPA-LSTM(时间注意力注意力机制长短期记忆神经网络)多输入单输出(完整源码和数据) 多输入单输出,运行环境MATLAB2020b及以上,运行主文件TPAMain.m即可。
深度视觉注意力预测 该存储库包含Keras实现的“深度视觉注意力预测”论文,该论文发表在IEEE Transactions on Image Processing
1
matlab出图,运行保障,代码有详细说明,适用初学者。
2022-06-07 20:06:50 139KB matlab lstm 源码软件 开发语言
注意力机制(AttentionMechanism)最初在机器翻译模型中被引入并使用,现在已经成 为自然语 言 处 理 (NaturalLanguageProcessing,NLP)、计 算 机 视 觉 (ComputerVision, CV)、语音识别(SpeechRecognition,SR)领域中神经网络模型的重要组成部分。近年来,有 些研究人员将注意力机制应用到图神经网络模型中,取得了很好的效果。本章聚焦于图注意力网络模型,依次介绍注意力机制的概念、图注意力网络的分类,以及四个典型的注意力模型: 图注意力 网 络 模 型(GraphAttentionNetworks,GAT)、异 质 图 注 意 力 网 络(Heterogeneous GraphAttentionNetworks,HAN)、门控注意力网络(GatedAttentionNetworks,GaAN)和层 次图注意力网络(HierarchicalGraphAttentionNetworks,HGAT)
2022-06-06 19:10:36 830KB 文档资料 网络
论文代码的压缩文件,具体GitHub地址为:https://github.com/zixuannnnnn/DRAAN
1
(python)论文“时变转速下基于改进图注意力网络的轴承半监督故障诊断”源码
2022-05-23 19:04:04 44.36MB python 源码软件 网络 开发语言
跨模态注意力引导卷积网络用于多模态心脏分割
2022-05-22 20:34:52 1.24MB 研究论文
1
实体关系抽取旨在识别网络文本中的实体,并提取出文本中实体之间隐含的关系。研究表明,深度神经网络在实体关系抽取任务上具有可行性,并优于传统关系抽取方法。目前的关系抽取方法大都使用卷积神经网络(CNN)和长短期记忆神经网络(LSTM),然而CNN只考虑连续词之间的相关性而忽略了非连续词之间的相关性。另外,LSTM虽然考虑了长距离词的相关性,但提取特征不够充分。针对这些问题,提出了一种CNN和LSTM结合的实体关系抽取方法,采用3种结合方法进行了实验,验证了该方法的有效性,在F1值上有一定的提升。
1
NIPS-2017-attention-is-all-you-need-Paper 中文翻译版 有导航目录,看起来很方便
2022-05-19 09:10:19 636KB 深度学习 transformer 注意力 论文翻译
1