针对现有图像超分辨重建方法难以充分重建图像的细节信息且易出现重建的图像缺乏层次的问题,提出一种基于自注意力深度网络的图像超分辨重建方法。以深度神经网络为基础,通过提取低分辨率图像特征,建立低分辨率图像特征到高分辨率图像特征的非线性映射,重建高分辨率图像。在进行非线性映射时,引入自注意力机制,获取图像中全部像素间的依赖关系,利用图像的全局特征指导图像重建,增强图像层次。在训练深度神经网络时,使用图像像素级损失和感知损失作为损失函数,以强化网络对图像细节信息的重建能力。在3类数据集上的对比测试结果表明,所提方法能够提升图像超分辨重建结果的细节信息,且重建图像的视觉效果更好。
2021-03-01 17:05:38 7.66MB 图像处理 图像超分 自注意力 感知损失
1
基于视觉注意力模型的大规模高分辨率遥感影像的矿区识别
2021-02-26 09:06:10 1.81MB 研究论文
1
注意力不集中现象在儿童中比较普遍,目前,国内外存在的注意力训练方法有纸质量表、行为观察、生物反馈、计算机辅助训练等方式。这些方法无法便捷实现大量人群的训练和训练结果的持续有效追踪。而对儿童进行注意力训练提高他们的注意力水平。本设计以移动终端的触摸屏操作代替传统的纸笔训练,借助阿里云数据的分布式存储,实现高可用,高性能,可弹性伸缩的目标,免去数据库安全和运维烦恼,借助微信公众平台实现训练结果的一站式追踪。这种B/S模型为注意力训练提供持久的服务支持,帮助提高儿童的注意力。通过功能测试和性能测试,验证了该设计的方便操作和可维护性。
1
Attention Mechanism注意力机制介绍,文本识别、语音识别、机器翻译
2020-02-10 03:07:05 1.91MB Slide
1
深度工作,每个人都需要的高阶能力,助力你的漫漫学习之路。
2020-01-03 11:38:12 343KB 学习方法 注意力 高级程序员
1
Attention.zip文件中总结了几种关于注意力机制的代码,有keras和tensorflow,还有PyTorch框架的
2019-12-21 22:17:10 5KB Attention 注意力机制 代码 keras
1
注意力机制是一种信息获取的通用机制,应用于从大量源数据中获取特定关键信息而避免对所有数据进行处理的场景。 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。
2019-12-21 21:58:18 2.87MB attention 注意力机制
1
基于卷积神经网络和注意力模型的文本情感分析 CNN Attention
2019-12-21 21:50:54 438KB CNN Attention
1
Attention-CNN 注意力机制细腻度图片分类。 ResNet改造
2019-12-21 20:47:23 20KB CNN ResNet 注意力机制
1
本项目实现了视觉注意力区域的提取和检测,里面包含了详细的代码注释,算法解释,对实现很有帮助
2019-12-21 20:43:17 40.25MB 视觉注意力 计算机视觉
1