针对现有图像超分辨重建方法难以充分重建图像的细节信息且易出现重建的图像缺乏层次的问题,提出一种基于自注意力深度网络的图像超分辨重建方法。以深度神经网络为基础,通过提取低分辨率图像特征,建立低分辨率图像特征到高分辨率图像特征的非线性映射,重建高分辨率图像。在进行非线性映射时,引入自注意力机制,获取图像中全部像素间的依赖关系,利用图像的全局特征指导图像重建,增强图像层次。在训练深度神经网络时,使用图像像素级损失和感知损失作为损失函数,以强化网络对图像细节信息的重建能力。在3类数据集上的对比测试结果表明,所提方法能够提升图像超分辨重建结果的细节信息,且重建图像的视觉效果更好。
2021-03-01 17:05:38 7.66MB 图像处理 图像超分 自注意力 感知损失
1
通过2D非局部稀疏表示的单图像超分辨率
2021-02-26 13:05:04 1.25MB 研究论文
1
基于自适应联合分布建模的图像超分辨率
2021-02-26 12:05:11 1.37MB 研究论文
1
SRGAN-PyTorch 概述 该存储库包含对进行的逐点PyTorch重新实现。 目录 关于使用生成对抗网络的逼真的单图像超分辨率 如果您不熟悉SRGAN,请直接从本文中摘录以下内容: 尽管使用更快,更深的卷积神经网络在单图像超分辨率的准确性和速度方面取得了突破,但仍然存在一个主要问题仍未解决:当在较大的放大比例下进行超分辨率处理时,如何恢复更精细的纹理细节? 基于优化的超分辨率方法的行为主要由目标函数的选择决定。 最近的工作主要集中在最小化均方重构误差上。 得出的估计值具有很高的峰值信噪比,但是它们通常缺少高频细节,并且在某种意义上说它们无法满足更高分辨率下的保真度,因此在感觉上并不令人满意。 在本文中,我们介绍了SRGAN,这是一种用于图像超分辨率(SR)的生成对抗网络(GAN)。 据我们所知,它是第一个能够为4倍放大因子推断出逼真的自然图像的框架。 为此,我们提出了一种感知损失函
2021-02-26 12:05:10 624KB resolution pytorch gan aritificial-intelligence
1
通过2D稀疏表示实现单图像超分辨率
2021-02-26 12:04:11 3.62MB 研究论文
1
一种无源毫米波成像超分辨率算法
2021-02-24 09:08:57 388KB 研究论文
1
CoreML和Keras实现超分辨率卷积神经网络(SRCNN)
2021-02-13 20:20:28 81KB Python开发-机器学习
1
基于参考的图像超分辨率重建相关工作.doc
2021-02-10 16:09:43 1.14MB 基于参考的超分辨率重建
1
4类SR超分辨率模型: EDSR_x2.pb;EDSR_x3.pb;EDSR_x4.pb ESPCN_x2.pb;ESPCN_x3.pb;ESPCN_x4.pb FSRCNN_x2.pb;FSRCNN_x3.pb;FSRCNN_x4.pb LapSRN_x2.pb;LapSRN_x4.pb;LapSRN_x8.pb
2021-02-06 12:02:54 99.21MB opencv SR模型
1
本代码实现了单帧超分辨率重建,效果比传统的样条插值好很多,关于本代码的IEEE文献后期再上传 本代码实现了单帧超分辨率重建,效果比传统的样条插值好很多,关于本代码的IEEE文献后期再上传
2021-02-03 12:37:21 1.63MB 单帧 重建
1