(免费下载)CVPR 2022 Oral | TCFormer论文翻译(word版),使用DeepL翻译
2022-10-24 21:05:09 1.89MB
1
自我监督视觉预训练的密集对比学习 该项目托管用于实现DenseCL算法以进行自我监督表示学习的代码。 王新龙,张如凤,沉春华,Kong涛,李磊在:Proc。 IEEE Con​​f。 2021年的计算机视觉和模式识别(CVPR) arXiv预印本( ) 强调 增强密集预测: DenseCL预训练模型在很大程度上有利于密集预测任务,包括对象检测和语义分段(最高+ 2%AP和+ 3%mIoU)。 简单的实现: DenseCL的核心部分可以用10行代码实现,因此易于使用和修改。 灵活的用法: DenseCL与数据预处理脱钩,因此可以快速灵活地进行培训,同时不知道使用哪种增强方法以及如何对图像进行采样。 高效的培训:与基准方法相比,我们的方法引入的计算开销可忽略不计(仅慢1%)。 更新 发布了DenseCL的代码和预训练模型。 (02/03/2021) 安装 请参考进行安装和数据集准备。
1
具有自适应时间特征分辨率的3D CNN CVPR 2021论文的源代码: 。 即将推出! 敬请关注! @inproceedings{sgs2021, Author = {Mohsen Fayyaz, Emad Bahrami, Ali Diba, Mehdi Noroozi, Ehsan Adeli, Luc Van Gool, Juergen Gall}, Title = {{3D CNNs with Adaptive Temporal Feature Resolutions}}, Booktitle = {{The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) }}, Year = {2021} }
1
使用点对特征进行曲面匹配 高效稳健的 3D 对象识别 drost2010CVPR(Computer Vision and Pattern Recognition) 示例文件包含在主模块中,也包含测试数据。
2022-08-31 09:07:10 353.54MB opencv ppf CVPR
1
先决条件 正在安装 只需在config.py文件中设置数据集路径。 # -*- coding: utf-8 -*- paths = dict( ANNOTATIONS='/example/of/path/MIT67/Annotations/', IMAGES='/example/of/path/MIT67/Images/' ) 跑步 $ python mit67.py 例子
2022-08-04 17:08:45 3KB Python
1
参考文献: 原论文名称:EfficientNetV2: Smaller Models and Faster Training 论文下载地址:https://arxiv.org/abs/2104.00298 原论文提供代码:https://github.com/google/automl/tree/master/efficientnetv2 参考博文:https://blog.csdn.net/qq_37541097/article/details/116933569?spm=1001.2014.3001.5502 参考在bilibili上的讲解视频:https://b23.tv/M4hagB
2022-06-20 16:05:39 5.73MB EfficientNetV2 CVPR2021 论文 CV
1
RDN 该存储库是。 要求 PyTorch 1.0.0 脾气暴躁的1.15.4 枕头5.4.1 h5py 2.8.0 tqdm 4.30.0 火车 可以从下面的链接下载转换为HDF5的DIV2K,Set5数据集。 数据集 规模 类型 关联 DIV2K 2个 火车 DIV2K 3 火车 DIV2K 4 火车 第5集 2个 评估 第5集 3 评估 第5集 4 评估 否则,您可以使用prepare.py创建自定义数据集。 python train.py --train-file " BLAH_BLAH/DIV2K_x4.h5 " \ --eval-file " BLAH_BLAH/Set5_x4.h5 " \ --outputs-dir " BLAH_BLAH/outputs " \
2022-06-08 09:07:56 3.57MB 网络 源码软件
pytorch-polygon-rnn Pytorch实现。 注意,我使用另一种方法来处理第一个顶点,而不是像本文中那样训练另一个模型。 与原纸的不同 我使用两个虚拟起始顶点来处理第一个顶点,如图像标题所示。 我需要在ConvLSTM层之后添加一个LSTM层,因为我需要输出为D * D + 1维度才能处理结束符号。 如何训练和测试 从下载数据,组织图像文件和注释json文件,如下所示: img ├── train │ ├── cityname1 │ │ ├── pic.png │ │ ├── ... │ ├── cityname2 │ │ ├── pic.png │ │ ├── ... ├── val │ ├── cityname │ │ ├── pic.png │ │ ├── ... ├── test │ ├── ci
1
通过隐式模块化视听表示进行姿势可控的会说话脸生成(CVPR 2021) ,孙亚生,,,和。 | | 我们提出了可姿势控制的视听系统(PC-AVS) ,该系统可在驱动带有声音的任意说话的面部时实现自由姿势控制。 代替从音频中学习姿势运动,我们利用另一个姿势源视频来仅补偿头部运动。 关键是设计一种隐含的低维姿势代码,该代码不包含嘴巴形状或身份信息。 通过这种方式,将视听表示模块化为三个关键因素的空间:语音内容,头部姿势和身份信息。 要求 使用Python 3.6和 1.3.0。 基本要求在“ requirements.txt”中列出。 pip install -r requirements.txt 快速入门:生成演示结果 下载预训练的检查点。 创建默认的文件夹./checkpoints并解压demo.zip在./checkpoints/demo 。 其中应该有5 pth 。 解压缩mi
2022-05-18 16:34:32 28.48MB Python
1