SelfSAGCN Self-Supervised Semantic Alignment for Graph Convolution Network
2021-11-18 10:01:19 1.8MB
自我监督的拼图游戏 TensorFlow和Keras中“解决拼图难题的无监督学习视觉表示”的论文实施
2021-11-16 11:24:45 808KB Python
1
与GCN和LP进行半监督 数据集有两种:图形数据集(例如Cora),普通数据集(例如MNIST和Cifar10) python main.py --dataset cora --dataset_path --baselines gcn lgc
2021-11-15 14:33:48 8.83MB Python
1
机器学习 这些是我用一些数据集实现的一些流行的机器学习算法。 其中包括线性回归(多变量)的实现,逻辑和线性回归的梯度下降,决策树,随机森林,朴素贝叶斯。 它们都是用python 3.5编写的。
2021-11-13 19:48:43 4.12MB JupyterNotebook
1
自监督算法的Pytorch-Lightning实现 这是一个实现,和使用。可以对配置进行调整,以实现一系列可能的自我监督实现。 我们最近添加了必要的功能来运行和进行比较。 有关更多详细信息,请参见博客文章。 安装 确保你在一个新的很conda或venv环境中,然后运行: git clone https://github.com/untitled-ai/self_supervised cd self_supervised pip install -r requirements.txt 复制我们的结果 您可以通过运行python train_blog.py复制我们博客文章的结果。 z和z'之间的余弦相似度报告为step_neg_cos (对于负面示例)和step_pos_cos (对于正面示例)。分类准确性报告为valid_class_acc 。 入门 要开始在STL-10(默认配置)上使用
2021-11-11 14:21:09 21KB Python
1
任务4:智能汽车的大型弱监督声音事件检测 协调员 本杰明·埃里扎德(Benjamin Elizalde),伊曼纽尔·文森特(Emmanuel Vincent),比克莎·拉吉(Bhiksha Raj) 数据准备,注释 Ankit Shah( ),Benjamin Elizalde( ) 注释,基线和子任务的度量 Rohan Badlani( ),Benjamin Elizalde( ),Ankit Shah( ) 指数 直接下载开发和评估套件的音频 用于下载任务4的开发数据的脚本 评估任务4的脚本-子任务A(音频标记)和子任务B Strong Label的测试注释 1.直接下载用于开发和评估集的音频 评估集的注释尚未发布。 可以通过向Ankit Shah( )或Benjamin Elizalde( )发送请求电子邮件来共享密码。 (Psswd培训文件:DCASE_2017_
2021-11-11 11:04:54 2.39MB machine-learning acoustics dcase dcase2017
1
图像模糊matlab代码自我监督 用于训练神经网络的自监督算法。 该算法可以利用结构化的未标记样本来提高网络的性能。 存储库的结构 所提出方法的第一个版本由 Matlab 实现,第二个版本由 Pytorch 实现,因此该存储库中既有 Matlab 也有 Jupyter notebook 文件。 神经核心:用于使用 matlab 构建我们的网络的核心单元 神经模型:网络和数据模型类 data_transfer : 用于划分数据集并使用 PCA 将图像传输到向量的 api data : 论文中使用的南瓜数据集 ss_net.m :使用建议方法的示例 同轴错误检测:应用示例 epfl_car : epfl car 数据集的实验 EPFL 汽车数据集的结果 方法 平均AE 中位数AE 有标签 无标签 我们的方法 1 9.28 3.5 1079 0 我们的方法 2 12.02 3.65 123 1389 我们的方法 3 17.22 4.78 123 0 芬兹等人。 (2015) 13.6 3.3 1179 0 他等人。 (2014) 15.8 6.2 1179 0 杨等人。 (2017) 20.
2021-11-04 15:01:48 76.97MB 系统开源
1
本文解析的代码是论文Semi-Supervised Classification with Graph Convolutional Networks作者提供的实现代码。 原GitHub:Graph Convolutional Networks in PyTorch 本人增加结果可视化 (使用 t-SNE 算法) 的GitHub:Visualization of Graph Convolutional Networks in PyTorch。本文作代码解析的也是这一个。 文章目录train.py函数定义版本兼容路径初始化所需要的函数库显示超参数函数:show_Hyperparameter(arg
2021-10-26 20:04:15 483KB al AS c
1
深度神经网络自监督视觉特征学习综述 为了在计算机视觉应用中学习得到更好的图像和视频特征,通常需要大规模的标记数据来训练深度神经网络。为了避免收集和标注大量的数据所需的巨大开销,作为无监督学习方法的一个子方法——自监督学习方法,可以在不使用任何人类标注的标签的情况下,从大规模无标记数据中学习图像和视频的一般性特征。本文对基于深度学习的自监督一般性视觉特征学习方法做了综述。首先,描述了该领域的动机和一些专业性术语。在此基础上,总结了常用的用于自监督学习的深度神经网络体系结构。接下来,回顾了自监督学习方法的模式和评价指标,并介绍了常用的图像和视频数据集以及现有的自监督视觉特征学习方法。最后,总结和讨论了基于标准数据集的性能比较方法在图像和视频特征学习中的应用。 https://ieeexplore.ieee.org/document/9086055 https://www.zhuanzhi.ai/paper/0e9852bb57c7fe00cc59723fc0ee899f 引言 由于深度神经网络具有学习不同层次一般视觉特征的强大能力,它已被作为基本结构应用于许多计算机视觉应用,如目标检测[1]、[2]、[3]、语义分割[4]、[5]、[6]、图像描述[7]等。从像ImageNet这样的大规模图像数据集训练出来的模型被广泛地用作预训练模型和用于其他任务的微调模型,主要有两个原因:(2)在大规模数据集上训练的网络已经学习了层次特征,有助于减少在训练其他任务时的过拟合问题;特别是当其他任务的数据集很小或者训练标签很少的时候。 深度卷积神经网络(ConvNets)的性能在很大程度上取决于其能力和训练数据量。为了增加网络模型的容量,人们开发了不同类型的网络架构,收集的数据集也越来越大。各种网络,包括AlexNet [9], VGG [10], GoogLeNet [11], ResNet [12], DenseNet[13]和大规模数据集,如ImageNet [14], OpenImage[15]已经被提出训练非常深的ConvNets。通过复杂的架构和大规模的数据集,ConvNets的性能在许多计算机视觉任务[1],[4],[7],[16],[17],[18]方面不断突破先进水平。 然而,大规模数据集的收集和标注是费时和昂贵的。ImageNet[14]是pre-training very deep 2D convolutional neural networks (2DConvNets)中应用最广泛的数据集之一,包含约130万张已标记的图像,覆盖1000个类,而每一幅图像由人工使用一个类标签进行标记。与图像数据集相比,视频数据集由于时间维度的原因,其采集和标注成本较高。Kinetics数据集[19]主要用于训练ConvNets进行视频人体动作识别,该数据集由50万个视频组成,共600个类别,每个视频时长约10秒。许多Amazon Turk工作人员花了大量时间来收集和注释如此大规模的数据集。 为了避免费时和昂贵的数据标注,提出了许多自监督方法来学习大规模无标记图像或视频的视觉特征,而不需要任何人工标注。一种流行的解决方案是提出各种各样的前置任务让网络来解决,通过学习前置任务的目标函数来训练网络,通过这个过程来学习特征。人们提出了各种各样的自监督学习任务,包括灰度图像着色[20]、图像填充[21]、玩图像拼图[22]等。藉口任务有两个共同的特性:(1)图像或视频的视觉特征需要被ConvNets捕捉来解决前置任务;(2)监控信号是利用数据本身的结构(自我监控)产生的。 自监督学习的一般流程如图1所示。在自监督训练阶段,为ConvNets设计预定义的前置任务,并根据数据的某些属性自动生成前置任务的伪标签。然后训练卷积神经网络学习任务的目标函数。当使用前置任务进行训练时,ConvNet的较浅的块集中于低级的一般特征,如角、边和纹理,而较深的块集中于高级任务特定的特征,如对象、场景和对象部分[23]。因此,通过藉由任务训练的ConvNets可以学习内核来捕获低级特征和高级特征,这对其他下游任务是有帮助的。在自监督训练结束后,学习到的视觉特征可以作为预训练的模型进一步转移到下游任务中(特别是在数据相对较少的情况下),以提高性能和克服过拟合。通常,在有监督的下游任务训练阶段,仅从前几层传递视觉特征。
2021-10-26 17:06:00 2.55MB 深度学习
1
意味着老师是更好的榜样 ---- ---- ---- 作者:Harti Valpola()Antti Tarvainen 方法 平均老师是半监督学习的一种简单方法。 它包括以下步骤: 采用受监管的体系结构并复制它。 让我们将原始模型称为学生,将新模型称为老师。 在每个训练步骤中,将相同的小批量用作学生和老师的输入,但分别向输入添加随机增强或噪声。 在softmax之后,在学生和教师的输出之间增加额外的一致性成本。 让优化器正常更新学生权重。 让教师权重为学生权重的指数移动平均值(EMA)。 也就是说,在每个训练步骤之后,将教师的权重向学生的权重稍作更新。 我们的贡献是最后一步。 莱
1