超分辨率matlab代码韩 我们的ECCV 2020论文“通过整体注意力网络实现单图像超分辨率”的PyTorch代码 该存储库适用于以下论文中介绍的HAN 张玉伦,李坤鹏,李凯,王丽晨,钟斌能和付云,“通过整体注意力网络实现单图像超分辨率”,ECCV 2020, 该代码基于RCAN(PyTorch)构建并在具有Titan X / 1080Ti / Xp GPU的Ubuntu 16.04 / 18.04环境(Python3.6,PyTorch_0.4.0,CUDA8.0,cuDNN5.1)上进行了测试。 内容 介绍 信息功能在单图像超分辨率任务中起着至关重要的作用。 事实证明,渠道关注对于保留每一层中信息量丰富的功能是有效的。 但是,频道注意力将每个卷积层视为一个单独的过程,从而错过了不同层之间的相关性。 为了解决这个问题,我们提出了一个新的整体注意网络(HAN),该网络由一个图层注意模块(LAM)和一个通道空间注意模块(CSAM)组成,以对图层,通道和位置之间的整体相互依赖性进行建模。 具体地,提出的LAM通过考虑各层之间的相关性来自适应地强调分层特征。 同时,CSAM学习每个通道所有
2023-03-09 20:25:00 15.31MB 系统开源
1
(新)还对DecoupleSegNets进行了验证,以处理边界对于任务很重要的分割情况。我们将在此仓库中发布相关代码和文件。 解耦隔离网 此回购包含我们ECCV-2020工作的实施:通过分离的主体和边缘监督改进语义分割。 这是北京大学,牛津大学和Sensetime Research的联合工作。 (非常感谢Sensetimes的GPU服务器) 欢迎任何建议/问题/拉取请求。 它还包含对我们之前的AAAI-2020工作(口头)的重新实施。 GFFNet:Gated Fully Fusion用于语义分割,它也可以在CityScapes上获得最新的结果: 解耦隔离网 GFFNet 数据集准备 提供了适用于Cityscapes,Mapillary,Camvid,BDD和Kitti的加载器。可以在找到准备每个数据集的详细信息。 要求 pytorch> = 1.2.0顶点opencv-python 模
2022-11-15 15:14:06 493KB bdd semantic-segmentation cityscapes camvid
1
颜色分类leetcode 官方实施: CMC:对比多视图编码 () 非官方实现: MoCo:无监督视觉表示学习的动量对比 () InsDis:通过非参数实例级判别的无监督特征学习 () 引文 如果你发现这个 repo 对你的研究有用,请考虑引用这篇论文 @article{tian2019contrastive, title={Contrastive Multiview Coding}, author={Tian, Yonglong and Krishnan, Dilip and Isola, Phillip}, journal={arXiv preprint arXiv:1906.05849}, year={2019} } 对比多视图编码 这个 repo 涵盖了 CMC(以及 Momentum Contrast 和 Instance Discrimination)的实现,它以自我监督的方式从多视图数据中学习表示(通过多视图,我们指的是多感官、多模态数据或字面上的多视点数据。它是灵活定义什么是“视图”): 《对比多视图编码》,。 强调 (1) 作为对比视图数量的函数的表示质量。 我们发现
2022-06-26 14:16:51 31KB 系统开源
1
无监督的高光谱超分辨率耦合解混网中的交叉注意 ,, ,,和 论文代码:。 图。1。 受频谱分解技术启发的拟议的无监督超光谱超分辨率网络的图示,即具有交叉注意的耦合解混网(CUCaNet) ,该网络主要由两个重要模块组成:交叉注意和空间光谱一致性。 训练 请简单地运行./Main_CAVE.py演示,以在两个HSI(伪造的和真实的食物,图表和玩具)上重现我们的HSISR结果(将与在Windows OS上实现的Python 3.7使用)。 之前:有关必需的软件包,请参阅详细的.py文件。 参数:可以更好地调整权衡参数train_opt.lambda_* ,并且网络超参数灵活。 结果:请查看登录到./checkpoints/CAVE_*name*/precision.txt的五个评估指标(PSNR,SAM,ERGAS,SSIM和UIQI)以及保存在./Results/CAVE/的输出.m
2022-04-14 10:41:42 45.26MB Python
1
CelebA-Spoof:具有丰富注释的大规模面部防欺骗数据集 CelebA-Spoof:具有丰富注释的大规模面部防欺骗数据集 ,,,,,, 在ECCV 2020中。 [] | [] 摘要: CelebA-Spoof是一个大规模的人脸反欺骗数据集,具有来自10,177个对象的625,537张图像,其中包括关于脸部,光照,环境和欺骗类型的43种丰富属性。从CelebA数据集中选择的实时图像。我们收集并注释CelebA-Spoof的欺骗图像。在43个丰富的属性中,有40个属性属于实时图像,包括所有面部组件和附件,例如皮肤,鼻子,眼睛,眉毛,嘴唇,头发,帽子,眼镜。欺骗图像包含3个属性,包括欺骗类型,环境和照明条件.CelebA-Spoof可用于训练和评估面部反欺骗算法。 更新 [02/2021] CelebA-Spoof Challenge 2020的已在arXiv上发布。 [08/20
2022-04-04 19:00:13 93.45MB Python
1
走向端到端基于视频的眼动追踪 ECCV 2020出版物和数据集EVE随附的代码。 作者: , , 和 项目页面: : 设置 最好为此存储库设置Docker映像或虚拟环境(建议使用 )。 请注意,我们已经在以下环境中测试了此代码库: Ubuntu 18.04 /基于Linux的集群系统(CentOS 7.8) Python 3.6 / Python 3.7 PyTorch 1.5.1 使用以下命令在某个地方克隆该存储库: git clone git@github.com:swook/EVE cd EVE/ 然后从该存储库的基本目录中,使用以下命令安装所有依赖项: pip install -r requirements.txt 请注意, 设立的torch和torchvision您的特定系统上的软件包。 您还需要设置ffmpeg进行视频解码。 在Linux上,我们建
2022-03-26 10:27:09 1.18MB Python
1
多任务学习 此仓库旨在在PyTorch中实施几种多任务学习模型和培训策略。 该代码库是对以下工作的补充: , ,Wouter Van Gansbeke,Marc Proesmans,Dengxin Dai和Luc Van Gool。 , 和Luc Van Gool。 在可以找到有关多任务学习的最新作品列表。 安装 该代码与最新的Pytorch版本一起运行,例如1.4。 假设 ,最重要的软件包可以按以下方式安装: conda install pytorch torchvision cudatoolkit=10.2 -c pytorch conda install imageio scikit-image # Image operations conda install -c conda-forge opencv # OpenCV cond
2021-11-10 15:53:53 22.02MB pascal computer-vision pytorch segmentation
1
用于真实图像超分辨率的深循环生成对抗性残差卷积网络(SRResCycGAN) 网络的官方PyTorch实现,如论文。 这项工作以高x4放大系数参加了挑战赛道3。 抽象的 最近基于深度学习的单图像超分辨率(SISR)方法主要是在干净的数据域中训练其模型,其中低分辨率(LR)和高分辨率(HR)图像来自无噪声设置(相同域)到双三次降采样假设。 但是,这种降级过程在实际环境中不可用。 我们考虑到深度循环网络结构,以保持LR和HR数据分布之间的域一致性,这是受CycleGAN在图像到图像翻译应用程序中最近成功的启发。 通过以端对端方式从LR到HR域转换的生成对抗网络(GAN)框架进行训练,我们提出了超分辨率残留循环生成对抗网络(SRResCycGAN)。 我们在定量和定性实验中证明了我们提出的方法,该方法很好地推广到了真实图像的超分辨率,并且很容易部署到移动/嵌入式设备中。 此外,我们在AIM 2
1
ECCV2020:具有本地计数图的人群混合自适应回归网络 介绍 在这项工作中,我们介绍了一个称为局部计数图的新学习目标,并显示了其在局部计数回归中的可行性和优势。 同时,我们提出了一种从粗到精的方式的自适应混合回归框架。 它报告了计数准确性和训练阶段稳定性的显着提高,并在几个权威数据集上实现了最先进的性能。 有关更多详细信息,请参阅我们的。 框架 演示版 入门 先决条件 Python> = 3.5 火炬> = 1.0.1 其他库在requirements.txt ,运行pip install -r requirements.txt 。 资料准备 从官方网站下载ShanghaiTech, UCF-QNRF, UCF_CC_50数据集,并将其解压缩到./ProcessedData 。 运行cd ./datasets/XXX/和python prepare_XXX_mod64.py调整图
2021-07-13 19:30:09 3.85MB 附件源码 文章源码
1