LIIF 该存储库包含以下论文中介绍的LIIF的正式实现: ,,CVPR 2021(口服) 带有视频的项目页面位于 。 引文 如果您发现我们的工作对您的研究有用,请引用: @article{chen2020learning, title={Learning Continuous Image Representation with Local Implicit Image Function}, author={Chen, Yinbo and Liu, Sifei and Wang, Xiaolong}, journal={arXiv preprint arXiv:2012.09161}, year={2020} } 环境 的Python 3 火炬1.6.0 TensorboardX yaml,numpy,tqdm,imageio 快速开始 下载DIV2K预训练模
1
我们的 CVPR 2019 论文 Distilling Object Detectors with Fine-grained Feature Imitation 的实现 我们提出了一种基于锚点的对象检测模型的通用蒸馏方法,以利用大型教师模型的知识获得增强的小型学生模型,该模型是正交的,可以进一步与量化和剪枝等其他模型压缩方法相结合。 香草知识蒸馏技术的关键观察是预测置信度的类间差异揭示了笨拙的模型如何趋于泛化(例如,当输入实际上是一只狗时,模型将在猫标签上放置多少置信度)。 虽然我们的想法是物体附近特征响应的位置间差异也揭示了检测器倾向于泛化的程度(例如,模型的响应对于不同的近物体锚点位置有何不同)。 我们发布了基于 shufflenet 的检测器和基于VGG11的Faster R-CNN 的提取代码,该代码库实现了基于Faster R-CNN模仿。 检查以获取基于 Shufflene
1
RandLA-Net - 大规模点云的高效语义分割的Tensorflow实现(CVPR 2020) RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds (CVPR 2020) 这是 RandLA-Net (CVPR2020, Oralpresentation) 的官方实现,这是一种用于大规模 3D 点云语义分割的简单高效的神经架构。 技术细节请参考:RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds 胡庆勇、杨博*、谢林海、Stefano Rosa、郭玉兰、王志华、Niki Trigoni、Andrew Markham。 [Paper] [Video] [Blog] (1) Setup 此代码已在 Ubuntu 16.04 上使用 Python 3.5、Tensorflow 1.11、CUDA 9.0 和 cuDNN 7.4.1 进行测试。 克隆仓库 git clone --depth=1 http
2021-09-11 21:18:13 73.76MB 机器学习
1
Skorokhodov_Adversarial_Generation_of_Continuous_Images_CVPR_2021_paper
2021-09-11 14:11:30 1.93MB Generation CVPR
1
SIXray:用于重叠图像中禁止物品发现的大规模安全检查X射线基准 要求 推荐使用: conda env create -f environment.yml Python3.5 火炬:0.3.1 软件包:torch,numpy,tqdm 用法 克隆CHR存储库: git clone https://github.com/MeioJane/CHR.git 运行培训演示: cd CHR/ bash CHR/runme.sh 检查站 如果您只想测试图像,则可以在此处下载。 引文 如果您在研究中使用该代码,请引用: @INPROCEEDINGS { Miao2019SIXray ,
1
CVPR2021全论文.txt
2021-09-09 18:10:22 64B CVPR
1
Roy J. Jevnisek 和Shai Avidan在2017年,CVPR上 Co-Occurrence Filter的源代码,matlab类型的,
2021-09-07 17:09:38 381KB CVPR 共现滤波 matlab
1
具有交叉一致性训练 (CCT) 的半监督语义分割 , 本 repo 包含 CVPR 2020 论文的官方实现:Semi-Supervised Semantic Segmentation with Cross-Consistecy Training,它采用了传统的半监督学习的一致性训练框架进行语义分割,扩展到弱监督学习和在多个域。 强调 (1) 语义分割的一致性训练。 我们观察到,对于语义分割,由于任务的密集性,集群假设更容易在隐藏表示而不是输入上强制执行。 (2) 交叉培训。 我们为半监督语义分割提出了 CCT(Cross-Consistency Training),我们在其中定义了许多新的扰动,并展示了对编码器输出而不是输入执行一致性的有效性。 (3) 使用来自多个域的弱标签和像素级标签。 所提出的方法非常简单灵活,并且可以很容易地扩展到使用来自多个域的图像级标签和像素级标签。 要求
1
CinCGAN-火炬 Pytorch实施 ,CVPR 2018 实验结果 NTIRE2020跟踪1-验证集的平均PSNR(x4) 名称 信噪比 双三次 24.21 EDSR 23.93 CinCGAN 24.92 训练细节 在使用默认设置训练了400K迭代的内部循环之后,我冻结了内部循环,并对外部循环进行了微调,进行了数百次迭代。 在训练外部循环时,将gamma0设置为0.1,将gamma2设置为150,将external_lr设置为1e-5。 其他参数设置为默认值。 检查点 我从使用EDSR实现。 NTIRE2020 x4检查点: ://drive.google.com/file/d/1ctTPy0dxHd5PgGvDc6rtJ8-8wNIjx86w/view?usp sharing 开始训练 训练内循环 python3 main . py - - phase train
2021-09-06 19:45:55 33KB Python
1