具有成对约束的聚类最近在聚类社区中引起了很多关注。 特别地,数据集中给定实例对之间的必须链接约束和不能链接约束是当今许多聚类算法中所包​​含的常识。 事实证明,这种方法可以成功地指导许多著名的聚类算法获得更准确的结果。 但是,最近的工作还表明,必须链接约束和不能链接约束的合并使聚类算法对“实例的分配顺序”过于敏感,因此导致了随后的约束冲突。 本文的主要贡献有两个方面。 一种方法是在执行“无法链接”集合的“广度优先”搜索后,通过强调无法链接实例的有序分配来解决Cop-Kmeans中违反约束的问题。 另一个是通过采用MapReduce框架来降低大数据集的Cop-Kmeans计算复杂度。 实验结果表明,我们的方法在海量数据集上表现良好,同时可以克服约束冲突的问题。
2022-03-17 19:27:29 388KB Semi-supervised clustering; Pairwise constraints;
1
半监督学习的最新大作, MIT 出版 Olivier Chapelle, Bernhard Schölkopf, and Alexander Zien
2022-03-17 10:42:16 5.99MB bookl semi-supervised; ssl
1
半监督的svm 数据科学分配解决方案。 使用支持向量机作为基础分类器的半监督分类器的实现。 该数据集是在代码中随机生成的。 依存关系: 麻木 斯克莱恩 分类问题 给定数据: 大量未标记的数据 少量标注数据 能够正确标记未标记数据集中任何样本的人类专家,其费用与新标记样本的数量成正比 目标: 降低成本 提高分类器的准确性 解决方案 该解决方案将具有最高置信度的预测标签添加到标签数据集中。 置信度最低的标签表明分类器需要人工专家的帮助。 这些真实的标签将添加到数据集中,并且成本会增加。 人类专家的提示数量不能超过标记样本的初始数量-标记数据的数量只能加倍。 如果准确性为100%,成本达到先前说明的限制或没有将任何样本添加到标记的数据集中,则算法终止。 例子 设置: 数据集:10000个样本,3个类,每个类2个类,3个信息性特征。 最大限度。 迭代次数:100 数据集中未标记数据的
2022-03-06 11:48:49 2KB Python
1
NIPS'14-SSL 使用深度生成模型重现我们的 NIPS 2014 论文关于半监督学习 (SSL) 的一些关键结果的代码。 DP Kingma、DJ Rezende、S. Mohamed、M. Welling 具有深度生成模型的半监督学习神经信息处理系统的进展 27 ( NIPS 2014 ),蒙特利尔 使用此代码进行研究时,请引用本文。 警告:此代码远未完全注释。 对于问题和错误报告,请发送电子邮件至dpkingma[at]gmail.com 。 先决条件 确保安装了以下最新版本: Python(2.7 或更高版本) Numpy(例如pip install numpy ) Theano(例如pip install Theano ) 在 Theano 配置的[global]部分(通常是~/.theanorc )中设置floatX = float32 。 或者,您可以在
2022-02-20 17:46:43 152.14MB Python
1
半监督转移学习的自适应一致性正则化 该存储库用于以下论文中介绍的自适应知识一致性和自适应表示表示一致性: Abulikemu Abuduweili,Li Xingjian Li,Humphrey Shi,徐成中和Dou Dedou,“半监督转移学习的自适应一致性正则化”。 该代码是在具有Tesla V100 GPU的CentOS 6.3环境(Python 3.6,PyTorch 1.1,CUDA 9.0)上开发的。 内容 介绍 在这项工作中,我们考虑半监督学习和转移学习的结合,从而导致一种更实用和更具竞争力的范例,该范例可以利用源域中强大的预训练模型以及目标域中的带标签/未带标签的数据。 为了更好地利用预训练权重和未标记目标示例的价值,我们引入了自适应一致性正则化,它由两个互补组成部分:源模型和目标模型之间((标记和未标记)示例上的自适应知识一致性(AKC);以及目标模型上带标签和未
2022-01-16 10:30:29 708KB Python
1
事实证明,极限学习机(ELM)是广泛领域中一种有效的学习范例。 使用内核函数方法而不是隐藏层,KernelELM克服了由随机分配的权重引起的变化问题。 本文在半监督极限学习机(SSELM)中引入了基于核的优化,并通过实验对性能的改进进行了评估。 结果表明,通过内核功能的优化,KernelSSELM可以实现更高的分类精度和鲁棒性。 另外,内核SSELM用于在城市交通评估和预测系统中训练交通拥堵评估框架。
2022-01-16 10:21:52 714KB Semi-supervised ELM; Kernel function;
1
混合搭配 这是MixMatch的非官方PyTorch实现。 Tensorflow的官方实现在。 现在只有在CIFAR-10上的实验可用。 该存储库认真执行了官方实施的重要细节,以重现结果。 要求 Python 3.6+ PyTorch 1.0 torchvision 0.2.2(旧版本与此代码不兼容) 张量板 进步 matplotlib 麻木 用法 火车 通过CIFAR-10数据集的250个标记数据训练模型: python train.py --gpu --n-labeled 250 --out cifar10@250 通过CIFAR-10数据集的4000个标记数据训练模型: python train.py --gpu --n-labeled 4000 --out cifar10@4000 监控培训进度 tensorboard.sh --
1
半监督学习很好的入门文献,简单易懂,该文是半监督学习领域的代表之作。
2021-12-20 17:48:51 1.15MB 半监督学习
1
semi-supervised-learning半监督学习详细介绍PPT——共61页
2021-12-13 14:00:17 4.67MB ssl
semi-supervised-learning 深度学习半监督相关算法,主要是文献《Mean teachers are better role models》算法,经测试在一般分类问题上精度都会有几个点的提升。 1.数据存放到data目录,每个类别图片存放到一个文件里面,然后用makelist生成列表文件:path label,把无标签的数据标签设置为:-1 2.运行mean_teacher.py
2021-12-13 05:40:49 6KB Python
1