基于Convolutional Block Attention Module (CBAM)的Multi-Attention模型设计与实现。模型本质上是并行添加了 CBAM 和 DeepMoji 注意力机制,并在最后将它们的特征进行合并。
BiLSTM4Rec 双向LSTM网络基于序列的推荐
2021-08-17 18:27:35 2.52MB JupyterNotebook
1
SE Attention pytorch源代码
1
清华大学图形学实验室Jittor团队在2021年5月5日提出了一种新的注意机制,称之为“External Attention”。资源包括论文原文、中文翻译、源代码。
2021-08-17 13:23:59 10.26MB 注意力机制 深度学习 图像 计算机视觉
DANet Attention资源包括论文原文和源代码
1
两篇论文 《CBAM: Convolutional Block Attention Module》2018 ECCV 《BAM: Bottleneck Attention Module》2018 BWVC channel attention 通道注意力 spatial attention 空间注意力
2021-08-16 22:35:48 2.06MB 注意力机制 深度学习 attention
1
深度学习中的注意力可以广义地解释为重要性权重的向量:为了预测一个元素,例如句子中的单词,使用注意力向量来估计它与其他元素的相关程度有多强,并将其值的总和作为目标的近似值。
2021-08-15 02:00:23 3.95MB NLP 注意力机制
BiLSTM-POS-Tagger 基于双向LSTM网络(PyTorch)的词性标注器 要训​​练网络,请使用rnn_train.py(确保提供带标签的数据集) 要加载网络并标记句子,请使用rnn_annotate.py Data.py和TaggerModel.py包含各自的类
2021-08-14 23:05:58 10.85MB Io
1
行业分类-作业装置-一种基于图注意力机制强化学习的多基站协同无线网络资源分配方法.7
行业分类-物理装置-一种基于注意力机制的合成孔径雷达舰船目标检测方法.zip