PG学习 一种用于半监督学习的高效有效的学习图算法。 (MATLAB代码) 说明:运行代码和示例 在使用代码之前,您应该编译util / lib / mtimesx /文件夹中的mtimesx lib。 请参考 。 对于Mac OS用户,您可以首先使用Homebrew安装openblas库,然后运行 bias_lib = 'path to libblas.dylib' mex('-DDEFINEUNIX','-largeArrayDims','mtimesx.c',blas_lib) 安装所需的库后,您应该在根文件夹EXCUTE的main.m。 之后,您可以在根文件夹下运行所有​​的matlab文件。 在示例文件夹中,我们提供了有关单线程版本PG-Learn,超宽带并行版本PG-Learn以及一些基线的示例,其中包括网格搜索,随机搜索,MinEnt,AEW和IDML。 此外,我们还提供
2022-03-24 10:14:54 10.63MB semi-supervised-learning MATLAB
1
具有成对约束的聚类最近在聚类社区中引起了很多关注。 特别地,数据集中给定实例对之间的必须链接约束和不能链接约束是当今许多聚类算法中所包​​含的常识。 事实证明,这种方法可以成功地指导许多著名的聚类算法获得更准确的结果。 但是,最近的工作还表明,必须链接约束和不能链接约束的合并使聚类算法对“实例的分配顺序”过于敏感,因此导致了随后的约束冲突。 本文的主要贡献有两个方面。 一种方法是在执行“无法链接”集合的“广度优先”搜索后,通过强调无法链接实例的有序分配来解决Cop-Kmeans中违反约束的问题。 另一个是通过采用MapReduce框架来降低大数据集的Cop-Kmeans计算复杂度。 实验结果表明,我们的方法在海量数据集上表现良好,同时可以克服约束冲突的问题。
2022-03-17 19:27:29 388KB Semi-supervised clustering; Pairwise constraints;
1
半监督学习的最新大作, MIT 出版 Olivier Chapelle, Bernhard Schölkopf, and Alexander Zien
2022-03-17 10:42:16 5.99MB bookl semi-supervised; ssl
1
专门请人翻译
2022-03-08 10:26:35 4.83MB SEMI E05
1
半监督的svm 数据科学分配解决方案。 使用支持向量机作为基础分类器的半监督分类器的实现。 该数据集是在代码中随机生成的。 依存关系: 麻木 斯克莱恩 分类问题 给定数据: 大量未标记的数据 少量标注数据 能够正确标记未标记数据集中任何样本的人类专家,其费用与新标记样本的数量成正比 目标: 降低成本 提高分类器的准确性 解决方案 该解决方案将具有最高置信度的预测标签添加到标签数据集中。 置信度最低的标签表明分类器需要人工专家的帮助。 这些真实的标签将添加到数据集中,并且成本会增加。 人类专家的提示数量不能超过标记样本的初始数量-标记数据的数量只能加倍。 如果准确性为100%,成本达到先前说明的限制或没有将任何样本添加到标记的数据集中,则算法终止。 例子 设置: 数据集:10000个样本,3个类,每个类2个类,3个信息性特征。 最大限度。 迭代次数:100 数据集中未标记数据的
2022-03-06 11:48:49 2KB Python
1
NIPS'14-SSL 使用深度生成模型重现我们的 NIPS 2014 论文关于半监督学习 (SSL) 的一些关键结果的代码。 DP Kingma、DJ Rezende、S. Mohamed、M. Welling 具有深度生成模型的半监督学习神经信息处理系统的进展 27 ( NIPS 2014 ),蒙特利尔 使用此代码进行研究时,请引用本文。 警告:此代码远未完全注释。 对于问题和错误报告,请发送电子邮件至dpkingma[at]gmail.com 。 先决条件 确保安装了以下最新版本: Python(2.7 或更高版本) Numpy(例如pip install numpy ) Theano(例如pip install Theano ) 在 Theano 配置的[global]部分(通常是~/.theanorc )中设置floatX = float32 。 或者,您可以在
2022-02-20 17:46:43 152.14MB Python
1
半监督转移学习的自适应一致性正则化 该存储库用于以下论文中介绍的自适应知识一致性和自适应表示表示一致性: Abulikemu Abuduweili,Li Xingjian Li,Humphrey Shi,徐成中和Dou Dedou,“半监督转移学习的自适应一致性正则化”。 该代码是在具有Tesla V100 GPU的CentOS 6.3环境(Python 3.6,PyTorch 1.1,CUDA 9.0)上开发的。 内容 介绍 在这项工作中,我们考虑半监督学习和转移学习的结合,从而导致一种更实用和更具竞争力的范例,该范例可以利用源域中强大的预训练模型以及目标域中的带标签/未带标签的数据。 为了更好地利用预训练权重和未标记目标示例的价值,我们引入了自适应一致性正则化,它由两个互补组成部分:源模型和目标模型之间((标记和未标记)示例上的自适应知识一致性(AKC);以及目标模型上带标签和未
2022-01-16 10:30:29 708KB Python
1
事实证明,极限学习机(ELM)是广泛领域中一种有效的学习范例。 使用内核函数方法而不是隐藏层,KernelELM克服了由随机分配的权重引起的变化问题。 本文在半监督极限学习机(SSELM)中引入了基于核的优化,并通过实验对性能的改进进行了评估。 结果表明,通过内核功能的优化,KernelSSELM可以实现更高的分类精度和鲁棒性。 另外,内核SSELM用于在城市交通评估和预测系统中训练交通拥堵评估框架。
2022-01-16 10:21:52 714KB Semi-supervised ELM; Kernel function;
1
三重态SemiHardLoss PyTorch半硬。基于可在找到的tensorflow插件版本。无需使用此实现来创建暹罗体系结构,就像创建main_train_triplet.py cnn创建过程一样简单! 对于具有N_CLASSES >> N_SAMPLES_PER_CLASS的分类问题,三元组损失是一个不错的选择。例如,人脸识别问题。 在分类层之前,我们需要切断具有三重态损失的CNN架构。另外,必须添加L2归一化层。 MNIST上的结果 我在MNIST数据集上测试了三重态损失。我们无法直接与TF插件进行比较,因为我没有进行实验,但是从性能的角度来看这可能很有趣。如果您想比较结果,这是训练日志。准确性无关紧要,因为我们不训练分类模型,所以准确性不应该存在。 阶段1 首先,我们训练最后一层和批次归一化层,使验证损失接近0.079。 阶段2 最后,解冻所有层,经过足够的训练和超参数调整
1
混合搭配 这是MixMatch的非官方PyTorch实现。 Tensorflow的官方实现在。 现在只有在CIFAR-10上的实验可用。 该存储库认真执行了官方实施的重要细节,以重现结果。 要求 Python 3.6+ PyTorch 1.0 torchvision 0.2.2(旧版本与此代码不兼容) 张量板 进步 matplotlib 麻木 用法 火车 通过CIFAR-10数据集的250个标记数据训练模型: python train.py --gpu --n-labeled 250 --out cifar10@250 通过CIFAR-10数据集的4000个标记数据训练模型: python train.py --gpu --n-labeled 4000 --out cifar10@4000 监控培训进度 tensorboard.sh --
1