自监督学习相关论文 Self-supervised Learning for Linking Knowledge Graphs(TKDE21)
2022-12-21 16:28:38 3MB 自监督
1
本文对基于深度学习的自监督一般性视觉特征学习方法做了综述。首先,描述了该领域的动机和一些专业性术语。在此基础上,总结了常用的用于自监督学习的深度神经网络体系结构。接下来,回顾了自监督学习方法的模式和评价指标,并介绍了常用的图像和视频数据集以及现有的自监督视觉特征学习方法。最后,总结和讨论了基于标准数据集的性能比较方法在图像和视频特征学习中的应用。
2022-08-16 01:47:50 23.57MB self_supervised_
1
这些年在计算机视觉领域中的自监督学习- 计算机视觉.pdf
2022-04-21 19:10:36 2.94MB 计算机视觉 学习 人工智能
OpenIBL 介绍 OpenIBL是基于PyTorch的开源代码库,用于基于图像的本地化(换句话说,就是位置识别)。 它支持多种最新方法,还涵盖了ECCV-2020聚光灯SFRS的正式实施。 我们支持由slurm或pytorch启动的单/多节点多GPU分布式培训和测试。 正式执行: :用于大规模图像定位的自监督细粒度区域相似性(ECCV'20 Spotlight ) 非官方实施: NetVLAD:用于弱监督位置识别的CNN架构(CVPR'16) SARE:用于大规模图像定位的随机吸引-排斥嵌入(ICCV'19) 常问问题 如何提取单个图像的描述符? 请参阅。 如何在论文中
1
对比学习综述 介绍了对比学习损失InfoNCE的起源 详细介绍了对比学习的起源,发展,从CPC到MAE,从图像到文本SimCSE,再到表格数据Tabular
2022-02-08 12:05:41 3.53MB 对比学习 自监督 综述 表格数据
1
自监督学习(Self-supervised learning)最近获得了很多关注,因为其可以避免对数据集进行大量的标签标注。它可以把自己定义的伪标签当作训练的信号,然后把学习到的表示(representation)用作下游任务里。最近,对比学习被当作自监督学习中一个非常重要的一部分,被广泛运用在计算机视觉、自然语言处理等领域。它的目标是:将一个样本的不同的、增强过的新样本们在嵌入空间中尽可能地近,然后让不同的样本之间尽可能地远。这篇论文提供了一个非常详尽的对比自监督学习综述。
2022-01-23 22:33:07 5.72MB 对比学习
1
vision transformer self-supervised
2021-12-06 17:01:57 1.7MB 自监督 transformer 计算机视觉
1
机器学习 深度学习 pytorch tensorflow 贝叶斯 神经网络 算法
2021-11-30 13:01:25 8.06MB 机器学习 深度学习 tensorflow pytorch
国际表示学习大会(The International Conference on Learning Representations)是致力于人工智能领域发展的国际知名学术会议之一。为了分析最新研究动向,本文精选了涵盖自监督学习、Transformer、图神经网络、自然语言处理、模型压缩等热点领域,将分多期为大家带来系列论文解读。
2021-11-14 21:37:05 14.41MB 自监督学习 Transformer
1
自监督算法的Pytorch-Lightning实现 这是一个实现,和使用。可以对配置进行调整,以实现一系列可能的自我监督实现。 我们最近添加了必要的功能来运行和进行比较。 有关更多详细信息,请参见博客文章。 安装 确保你在一个新的很conda或venv环境中,然后运行: git clone https://github.com/untitled-ai/self_supervised cd self_supervised pip install -r requirements.txt 复制我们的结果 您可以通过运行python train_blog.py复制我们博客文章的结果。 z和z'之间的余弦相似度报告为step_neg_cos (对于负面示例)和step_pos_cos (对于正面示例)。分类准确性报告为valid_class_acc 。 入门 要开始在STL-10(默认配置)上使用
2021-11-11 14:21:09 21KB Python
1