Contrastive Self-supervised Learning for Graph Classification
2022-12-21 16:28:36 525KB 对比学习
1
自监督学习用于推荐
2022-12-21 11:27:22 3.75MB self-supervised
1
自导网络快速图像去噪 SGN的PyTorch实现以及给定噪声范围的估计PSNR 训练 我在Python 3.6和PyTorch 1.0环境上训练了此SGN。 培训策略与论文相同。 您可以使用以下脚本对自己的数据进行训练(请注意,您需要修改数据集路径): cd SGN python train.py or sh zyz.sh 测验 我使用ILSVRC2012验证集对4个NVIDIA TITAN Xp GPU进行了培训,并在1个TITAN Xp GPU上进行了测试。 详细信息显示在代码train.py 。 该演示来自SGN的ILSVRC2012验证集(mu = 0,sigma = 30,batchsize = 32、1000000次迭代)。 左:干净的图像(从COCO2014验证集中选择,COCO_val2014_000000264615.jpg) 中:加性高斯噪声+清晰图像 右
2022-12-15 22:52:09 2.47MB Python
1
self-organizing-maps Teuvo Kohonen 2001 第三版 扫描版
2022-12-15 20:54:37 109.18MB self-organizing- Teuvo Kohonen
1
DeepGTAV:GTAV的插件,可将其转变为基于视觉的自动驾驶汽车研究环境
1
Camera self-calibration method based on two vanishing points
2022-11-07 17:41:30 1.63MB 研究论文
1
人工解析的自我校正 开箱即用的人类解析表示提取器。 在第三项LIP挑战中,我们的解决方案在所有人工解析轨道(包括单个,多个和视频)中排名第一! 特征: 开箱即用的人类解析提取器,可用于其他下游应用程序。 在三个流行的单人人类解析数据集上进行预训练的模型。 训练和伪造的代码。 对多人和视频人的解析任务的简单而有效的扩展。 要求 conda env create -f environment.yaml conda activate schp pip install -r requirements.txt 简单的开箱即用提取器 最简单的入门方法是在您自己的图像上使用我们训练有素的SCHP模型来提取人工解析表示形式。 在这里,我们在三个流行的数据集上提供了最新的。 这三个数据集具有不同的标签系统,您可以选择最适合自己任务的数据集。 LIP( ) 进行LIP验证的费用:59.36
1
自我监督视觉预训练的密集对比学习 该项目托管用于实现DenseCL算法以进行自我监督表示学习的代码。 王新龙,张如凤,沉春华,Kong涛,李磊在:Proc。 IEEE Con​​f。 2021年的计算机视觉和模式识别(CVPR) arXiv预印本( ) 强调 增强密集预测: DenseCL预训练模型在很大程度上有利于密集预测任务,包括对象检测和语义分段(最高+ 2%AP和+ 3%mIoU)。 简单的实现: DenseCL的核心部分可以用10行代码实现,因此易于使用和修改。 灵活的用法: DenseCL与数据预处理脱钩,因此可以快速灵活地进行培训,同时不知道使用哪种增强方法以及如何对图像进行采样。 高效的培训:与基准方法相比,我们的方法引入的计算开销可忽略不计(仅慢1%)。 更新 发布了DenseCL的代码和预训练模型。 (02/03/2021) 安装 请参考进行安装和数据集准备。
1
本文设计了一个自我监督的注意模块,该模块可以识别感兴趣的显着区域,而无需明确的手工标记注释。在现有的以CNNs为特征提取器的深度RL方法中,可以直接即插即用。 注意模块学习的是前景注意掩码,而不是预定义的关键点数量。
2022-10-12 17:06:59 7.33MB 自注意力
1
能够让你自学Logistic Regression 的参考书
2022-09-28 14:20:19 11.61MB logistic regression
1