这里的即插即用模块主要分为注意力模块和其他模块。即插即用模块一般是作为一个独立的模块,可以用于取代普通的卷积结构,或者直接插入网络结构中。最常见的即插即用模块莫过于注意力模块了,近些年好多略显水的工作都用到了注意力模块,仅仅需要简单添加这些注意力模块即可作为论文的创新点,比如SENet+Darknet53 组合。
1
图神经网络——图注意力网络(GAT)原始论文与源码
2021-10-14 21:07:31 1.52MB 图神经网络 GAT 图注意力网络 深度学习
1
爱马仕 动画的注意力多模态学习。
2021-10-13 11:16:45 1.44MB MATLAB
1
Self-Attention Generative Adversarial Networks (SAGAN,自注意力机制GAN) 论文、代码 DeOldify 是用于着色和恢复旧图像及视频的深度学习项目 代码资源
2021-10-11 10:20:13 10.61MB 照片修复 GAN SAGAN deoldifyNoGAN
1
传统的文本检测方法大多采用自下而上的流程,它们通常从低级语义字符或笔画检测开始,然后进行非文本组件过滤、文本行构建和文本行验证。复杂场景中文字的造型、尺度、排版以及周围环境的剧烈变化,导致人的视觉系统是在不同的视觉粒度下完成文本检测任务的,而这些自底向上的传统方法的性能很大程度上依赖于低级特征的检测,难以鲁棒地适应不同粒度下的文本特征。近年来,深度学习方法被应用于文本检测中来保留不同分辨率下的文本特征,但已有的方法在对网络中各层特征提取的过程中没有明确重点特征信息,在各层之间的特征映射中会有信息丢失,造成一些非文本目标被误判,使得检测过程不仅耗时,而且会产生大量误检和漏检。为此,提出一种基于注意力机制的复杂场景文本检测方法,该方法的主要贡献是在VGG16中引入了视觉注意层,在细粒度下利用注意力机制増强网络内全局信息中的显著信息。实验表明,在载有GPU的Ubuntu环境下,该方法在复杂场景文本图片的检测中能保证文本区域的完整性,减少检测区域的碎片化,同时能获得高达87%的查全率和89%的查准率。
2021-10-11 08:32:17 3.47MB 深度学习网络
1
基于最大池化的图双注意力网络计算机研究及应用.docx
2021-10-08 23:11:42 127KB C语言
深度连接注意力网络(DCANet) 插图 图1. DCANet的示意图。 我们使用Grad-CAM可视化中间特征激活。 Vanilla SE-ResNet50在不同阶段的关注点发生了巨大变化。 相比之下,我们的DCA逐步增强了SE-ResNet50的递归调整焦点,并密切关注目标对象。 方法 图2.深度连接注意力网络概述。 我们将先前关注块中的转换模块的输出连接到当前关注块中的提取模块的输出。 在多个关注维度的上下文中,我们将关注沿着每个维度连接起来。 在这里,我们展示了一个具有两个注意维度的示例。 可以扩展到更大的尺寸。 执行 在此存储库中,所有模型都由实现。 我们在使用标准的数据扩充策略。 要复制我们的DCANet作品,请参考 。 训练有素的模型 :smiling_face_with_smiling_eyes: All trained models and training log files are submitted to an an
2021-10-06 20:02:47 11.3MB Python
1
自下而上的注意力 该存储库包含基于Caffe的项目的PyTorch重新实现。 我们使用作为后端来提供完整的功能,包括培训,测试和特征提取。 此外,我们从原始存储库中迁移了经过预训练的基于Caffe的模型,该模型可以提取与原始模型相同的视觉特征(偏差 = 3.6 > = 1.4 > = 9.2和cuDNN 顶尖 侦探2 射线 OpenCV Pycocotools 请注意,Detectron2需要上述大多数要求。 安装 克隆包含Detectron2所需版本(v0.2.1)的项目 # clone the repository inclduing Detectron2(@be792b9) $ git clone --recursive https:
1
基于循环神经网络和注意力模型的文本情感分析.pdf
2021-09-25 22:05:23 1.13MB 神经网络 深度学习 机器学习 数据建模
密集连接的注意力金字塔残差网络用于人体姿势估计。
2021-09-25 15:30:51 1.75MB 研究论文
1