在本研究中,我们提出了一种基于自我关注的区域流感预测模型,称为SAIFlu-Net。该模型利用一个较长的短期记忆网络来提取每个区域的时间序列模式,并利用自我注意机制来发现发生模式之间的相似性。为了评估其性能,我们使用每周区域流感数据集对现有的预测模型进行了广泛的实验。结果表明,该模型在均方根误差和皮尔逊相关系数方面均优于其他模型。
2022-10-11 16:05:18 1.84MB LSTM GNN
1
CBAM: Convolutional Block Attention Module,CBAM是2018年ECCV上的一篇论文CBAM: Convolutional Block Attention Module中提出的基于注意力机制的卷积网络模型。BAM是2018年BMVC上的一篇论文BAM: Bottleneck Attention Module中提出的基于注意力机制的网络模型。 CBAM网络的核心思想是提出了CBAM模块。该模块对输入先经过通道注意力模块,和输入相乘后再经过空间注意力模块,和输入再次相乘后得到调整参数的注意力特征图
2022-08-23 11:05:55 1.32MB CBAM ConvolutionalBl 注意力机制
1
Gobal Attention的目的:是为了在生成上下文向量(也可以认为是句向量)时将所有的hidden state都考虑进去。Attention机制认为每个单词在一句话中的重要程度是不一样的,通过学习得到一句话中每个单词的权重。即为关注重要特征,忽略无关特征。 本代码采样keras2.2.4\tensorflow1.12进行实现的。
1
    该模型设计的思想就是利用attention机制,在普通ResNet网络中,增加侧分支,侧分支通过一系列的卷积和池化操作,逐渐提取高层特征并增大模型的感受野,前面已经说过高层特征的激活对应位置能够反映attention的区域,然后再对这种具有attention特征的feature map进行上采样,使其大小回到原始feature map的大小,就将attention对应到原始图片的每一个位置上,这个feature map叫做 attention map,与原来的feature map 进行element-wise product的操作,相当于一个权重器,增强有意义的特征,抑制无意义的信息。
1
批量给图像画注意力热图
2022-07-09 21:07:19 4KB heatmap
WOA+BILSTM+注意力机制电力系统短期负荷预测 python tensorflow2.x运行环境 numpy pandas sklearn 包含负荷数据 bp神经网络 lstm bilstm WOA+bilstm+lstm+bp优化的预测结果图 以及各预测结果与真实值的对比图
2022-07-04 19:09:58 940KB 机器学习 python tensorflow
双通道注意力机制驾驶员异常行为检测研究,yolov3,超级详细
2022-06-29 21:05:25 1.88MB yolov3
注意力机制情况下 手写字体的识别
2022-06-29 17:05:15 34.13MB 手写
SSD 算法利用多尺度特征图进行分类和位置回归,检测小目标效果优于 YOLO 算法,但 SSD 算法在进行车辆检测时存在漏检问题。为此,提出一种改进 SSD 算法。为提取更多的车辆特征信息,设计改进 Inception 模块替代 SSD 网络中的 Conv8、Conv9 和 Conv10 层。将浅层特征的位置信息和深层特征的语义信息进行均衡化融合,构建多尺度特征融合均衡化网络,提高小目标车辆识别率。在特征提取层均引入 SENet,对不同特征通道的重要性进行重标定以提高模型性能。实验结果表明,改进后 SSD 算法在自制的车辆数据集上平均精度为 90.89%,检测速度达到 59.42 frame/s,相比改进前的 SSD 算法,在精度和速度上分别提高 2.65 个百分点和 17.41 frame/s,能够更快速、准确地对图像中的车辆进行识别和定位。
2022-06-26 16:08:34 1.94MB 小目标检测 SSD 注意力机制 车辆检测