半监督学习的最新大作, MIT 出版 Olivier Chapelle, Bernhard Schölkopf, and Alexander Zien
2022-03-17 10:42:16 5.99MB bookl semi-supervised; ssl
1
半监督的svm 数据科学分配解决方案。 使用支持向量机作为基础分类器的半监督分类器的实现。 该数据集是在代码中随机生成的。 依存关系: 麻木 斯克莱恩 分类问题 给定数据: 大量未标记的数据 少量标注数据 能够正确标记未标记数据集中任何样本的人类专家,其费用与新标记样本的数量成正比 目标: 降低成本 提高分类器的准确性 解决方案 该解决方案将具有最高置信度的预测标签添加到标签数据集中。 置信度最低的标签表明分类器需要人工专家的帮助。 这些真实的标签将添加到数据集中,并且成本会增加。 人类专家的提示数量不能超过标记样本的初始数量-标记数据的数量只能加倍。 如果准确性为100%,成本达到先前说明的限制或没有将任何样本添加到标记的数据集中,则算法终止。 例子 设置: 数据集:10000个样本,3个类,每个类2个类,3个信息性特征。 最大限度。 迭代次数:100 数据集中未标记数据的
2022-03-06 11:48:49 2KB Python
1
NIPS'14-SSL 使用深度生成模型重现我们的 NIPS 2014 论文关于半监督学习 (SSL) 的一些关键结果的代码。 DP Kingma、DJ Rezende、S. Mohamed、M. Welling 具有深度生成模型的半监督学习神经信息处理系统的进展 27 ( NIPS 2014 ),蒙特利尔 使用此代码进行研究时,请引用本文。 警告:此代码远未完全注释。 对于问题和错误报告,请发送电子邮件至dpkingma[at]gmail.com 。 先决条件 确保安装了以下最新版本: Python(2.7 或更高版本) Numpy(例如pip install numpy ) Theano(例如pip install Theano ) 在 Theano 配置的[global]部分(通常是~/.theanorc )中设置floatX = float32 。 或者,您可以在
2022-02-20 17:46:43 152.14MB Python
1
半监督转移学习的自适应一致性正则化 该存储库用于以下论文中介绍的自适应知识一致性和自适应表示表示一致性: Abulikemu Abuduweili,Li Xingjian Li,Humphrey Shi,徐成中和Dou Dedou,“半监督转移学习的自适应一致性正则化”。 该代码是在具有Tesla V100 GPU的CentOS 6.3环境(Python 3.6,PyTorch 1.1,CUDA 9.0)上开发的。 内容 介绍 在这项工作中,我们考虑半监督学习和转移学习的结合,从而导致一种更实用和更具竞争力的范例,该范例可以利用源域中强大的预训练模型以及目标域中的带标签/未带标签的数据。 为了更好地利用预训练权重和未标记目标示例的价值,我们引入了自适应一致性正则化,它由两个互补组成部分:源模型和目标模型之间((标记和未标记)示例上的自适应知识一致性(AKC);以及目标模型上带标签和未
2022-01-16 10:30:29 708KB Python
1
事实证明,极限学习机(ELM)是广泛领域中一种有效的学习范例。 使用内核函数方法而不是隐藏层,KernelELM克服了由随机分配的权重引起的变化问题。 本文在半监督极限学习机(SSELM)中引入了基于核的优化,并通过实验对性能的改进进行了评估。 结果表明,通过内核功能的优化,KernelSSELM可以实现更高的分类精度和鲁棒性。 另外,内核SSELM用于在城市交通评估和预测系统中训练交通拥堵评估框架。
2022-01-16 10:21:52 714KB Semi-supervised ELM; Kernel function;
1
混合搭配 这是MixMatch的非官方PyTorch实现。 Tensorflow的官方实现在。 现在只有在CIFAR-10上的实验可用。 该存储库认真执行了官方实施的重要细节,以重现结果。 要求 Python 3.6+ PyTorch 1.0 torchvision 0.2.2(旧版本与此代码不兼容) 张量板 进步 matplotlib 麻木 用法 火车 通过CIFAR-10数据集的250个标记数据训练模型: python train.py --gpu --n-labeled 250 --out cifar10@250 通过CIFAR-10数据集的4000个标记数据训练模型: python train.py --gpu --n-labeled 4000 --out cifar10@4000 监控培训进度 tensorboard.sh --
1
半监督学习很好的入门文献,简单易懂,该文是半监督学习领域的代表之作。
2021-12-20 17:48:51 1.15MB 半监督学习
1
semi-supervised-learning半监督学习详细介绍PPT——共61页
2021-12-13 14:00:17 4.67MB ssl
semi-supervised-learning 深度学习半监督相关算法,主要是文献《Mean teachers are better role models》算法,经测试在一般分类问题上精度都会有几个点的提升。 1.数据存放到data目录,每个类别图片存放到一个文件里面,然后用makelist生成列表文件:path label,把无标签的数据标签设置为:-1 2.运行mean_teacher.py
2021-12-13 05:40:49 6KB Python
1
半监督序列学习 此回购记录了重现论文给出的结果的实验​​。 简而言之,我们在未标记的文本数据上对序列自动编码器或语言模型进行预训练,然后使用标记的文本数据对使用预训练权重初始化的基于RNN的序列分类器进行微调,与随机初始化的权重相比,分类精度更高。 资料准备 IMDB数据集 我们为此实验使用。 下载并解压缩,导航至目录aclImdb/train ,该目录aclImdb/train中包含带aclImdb/train/pos的正( aclImdb/train/pos )和带标签的负性( aclImdb/train/neg )以及未标签的评论( aclImdb/train/unsup )。 然后cd进入每个子目录并运行 for f in *.txt; do (cat "${f}"; echo) >> pos.txt; done for f in *.txt; do (cat "${f}"; ec
1