感兴趣区域(Region of interests, ROI)是图像中可能引起人眼视觉关注的区域。根据视觉注意机制的经典模型Itti模型来提取图像的低层特征,利用局部迭代的特征合并策略并在此基础上综合自动阈值分割和种子点的区域生长方法得到感兴趣区域的提取方法。实验结果表明该方法符合生物的视觉注意机制,具有良好的鲁棒性。
1
音视频-图像处理-视觉注意机制及其在红外图像处理中的应用研究.pdf
2022-04-18 09:07:23 3.93MB 图像处理 音视频 人工智能
本代码是在了解学习视觉注意机制时所编写的MATLAB图形界面小系统,含测试图片,readme文档,可进行图像滤波,多尺度采样,对比映射,子特征融合,获取显著图,实现基本的显著区域识别,亲测好用,仅供参考,高手勿喷
2022-04-12 14:00:05 795KB itti 显著区域识别 MATLAB
1
利用相位谱的非常高效的视觉注意机制源代码。主要是matlab版。
2022-04-12 13:31:12 4.13MB 注意源代码 matlab
1
神经机器翻译 这是使用Encoder-Decoder机制以及Attention机制(( )于2016年引入的神经机器翻译的一种实现。Encoder-decoder体系结构通常使用一种编码器,该编码器对将源句子转换成固定长度的向量,解码器根据该向量生成翻译。 本文推测使用固定长度向量是提高此基本编码器-解码器体系结构性能的瓶颈,并建议通过允许模型自动(软)搜索源语句的一部分来扩展此范围。与预测目标词相关,而不必明确地将这些部分形成为一个困难的部分。 编码器: seq2seq网络的编码器是RNN,它为输入句子中的每个单词输出一些值。 对于每个输入字,编码器输出一个向量和一个隐藏状态,并将隐藏状态用于下一个输入字。 解码器: 在最简单的seq2seq解码器中,我们仅使用编码器的最后一个输出。 最后的输出有时称为上下文向量,因为它对整个序列中的上下文进行编码。 该上下文向量用作解码器的初始隐
2022-03-28 11:05:27 5.82MB encoder decoder attention mt
1
目标跟踪; 视觉注意; 显著性; 选择性注意; 视觉认知;
2022-02-24 14:39:01 1.44MB 引入视觉 注意机制 目标跟踪方法
1
小样本细粒度图像分类的混合注意机制
2021-10-09 16:22:49 479KB 研究论文
1
基于视觉注意机制深度强化学习的行人检测方法.pdf
2021-08-31 18:03:03 6.11MB 互联网 资料
轴承matlab代码CWRU-注意机制-ResNet 该库包括源代码,数据集和论文“用于核电站旋转机械中轴承故障诊断的时间注意机制”的结果。 本文中的分类和识别任务在代码中称为case1。 运行Tresnet_case1.py通过传统Resnet解决识别任务。 运行Aresnet_case1.py通过Attention Augmented Resnet解决识别任务。 运行结果将保存在“结果”文件夹中。 运行Computeconf.m(matlab代码)以进一步处理结果以获得混淆矩阵。 钟宪平,王菲2020年7月22日
2021-08-04 10:47:09 604.05MB 系统开源
1
Keras注意机制 Keras的多对一注意力机制。 通过pip安装 pip install attention 导入源代码 from attention import Attention # [...] m = Sequential ([ LSTM ( 128 , input_shape = ( seq_length , 1 ), return_sequences = True ), Attention (), # <--------- here. Dense ( 1 , activation = 'linear' ) ]) 例子 在运行示例之前,请先
1