半监督的svm 数据科学分配解决方案。 使用支持向量机作为基础分类器的半监督分类器的实现。 该数据集是在代码中随机生成的。 依存关系: 麻木 斯克莱恩 分类问题 给定数据: 大量未标记的数据 少量标注数据 能够正确标记未标记数据集中任何样本的人类专家,其费用与新标记样本的数量成正比 目标: 降低成本 提高分类器的准确性 解决方案 该解决方案将具有最高置信度的预测标签添加到标签数据集中。 置信度最低的标签表明分类器需要人工专家的帮助。 这些真实的标签将添加到数据集中,并且成本会增加。 人类专家的提示数量不能超过标记样本的初始数量-标记数据的数量只能加倍。 如果准确性为100%,成本达到先前说明的限制或没有将任何样本添加到标记的数据集中,则算法终止。 例子 设置: 数据集:10000个样本,3个类,每个类2个类,3个信息性特征。 最大限度。 迭代次数:100 数据集中未标记数据的
2022-03-06 11:48:49 2KB Python
1
Supervised Sequence Labelling with Recurrent Neural Networks,Supervised Sequence Labelling with Recurrent Neural Networks,Supervised Sequence Labelling with Recurrent Neural Networks,
2022-02-25 21:12:03 2.89MB Recurrent Neural Networks deep
1
Nb2Nb 该项目旨在了解论文“ Neighbor2Neighbor:来自单噪声图像的自我监督降噪”的思想。 由于此代码是非官方的实现,因此某些细节可能与本文的原始说明有所不同。 为了更容易理解基础理论,所有代码均由Python和Tensorflow编写。 样品结果 所有结果均在上进行了测试 嘈杂的影像 去噪结果 更新 测试文件(包括经过训练的模型)已上传。 主要测试文件是“ test.py”,可以通过输入命令轻松运行。 python test . py - s saves - n nets . Unet - d dataDir - r resultDir “ dataDir”指定测试数据目录,“ resultDir”是保存结果的路径。 要渲染“ .mat”数据,请使用“ 。 更多培训文件将尽快上载。 未完待续 ...
2022-02-21 10:45:39 214.92MB denoising self-supervised-learning Python
1
NIPS'14-SSL 使用深度生成模型重现我们的 NIPS 2014 论文关于半监督学习 (SSL) 的一些关键结果的代码。 DP Kingma、DJ Rezende、S. Mohamed、M. Welling 具有深度生成模型的半监督学习神经信息处理系统的进展 27 ( NIPS 2014 ),蒙特利尔 使用此代码进行研究时,请引用本文。 警告:此代码远未完全注释。 对于问题和错误报告,请发送电子邮件至dpkingma[at]gmail.com 。 先决条件 确保安装了以下最新版本: Python(2.7 或更高版本) Numpy(例如pip install numpy ) Theano(例如pip install Theano ) 在 Theano 配置的[global]部分(通常是~/.theanorc )中设置floatX = float32 。 或者,您可以在
2022-02-20 17:46:43 152.14MB Python
1
自监督学习(Self-supervised learning)最近获得了很多关注,因为其可以避免对数据集进行大量的标签标注。它可以把自己定义的伪标签当作训练的信号,然后把学习到的表示(representation)用作下游任务里。最近,对比学习被当作自监督学习中一个非常重要的一部分,被广泛运用在计算机视觉、自然语言处理等领域。它的目标是:将一个样本的不同的、增强过的新样本们在嵌入空间中尽可能地近,然后让不同的样本之间尽可能地远。这篇论文提供了一个非常详尽的对比自监督学习综述。
2022-01-23 22:33:07 5.72MB 对比学习
1
半监督转移学习的自适应一致性正则化 该存储库用于以下论文中介绍的自适应知识一致性和自适应表示表示一致性: Abulikemu Abuduweili,Li Xingjian Li,Humphrey Shi,徐成中和Dou Dedou,“半监督转移学习的自适应一致性正则化”。 该代码是在具有Tesla V100 GPU的CentOS 6.3环境(Python 3.6,PyTorch 1.1,CUDA 9.0)上开发的。 内容 介绍 在这项工作中,我们考虑半监督学习和转移学习的结合,从而导致一种更实用和更具竞争力的范例,该范例可以利用源域中强大的预训练模型以及目标域中的带标签/未带标签的数据。 为了更好地利用预训练权重和未标记目标示例的价值,我们引入了自适应一致性正则化,它由两个互补组成部分:源模型和目标模型之间((标记和未标记)示例上的自适应知识一致性(AKC);以及目标模型上带标签和未
2022-01-16 10:30:29 708KB Python
1
事实证明,极限学习机(ELM)是广泛领域中一种有效的学习范例。 使用内核函数方法而不是隐藏层,KernelELM克服了由随机分配的权重引起的变化问题。 本文在半监督极限学习机(SSELM)中引入了基于核的优化,并通过实验对性能的改进进行了评估。 结果表明,通过内核功能的优化,KernelSSELM可以实现更高的分类精度和鲁棒性。 另外,内核SSELM用于在城市交通评估和预测系统中训练交通拥堵评估框架。
2022-01-16 10:21:52 714KB Semi-supervised ELM; Kernel function;
1
此安装方法仅适用于高级用户 确保您了解 在监督下安装家庭助理 这种安装方法可在常规操作系统上提供完整的Home Assistant体验。 这意味着,将使用Home Assistant方法中的所有组件,但Home Assistant操作系统除外。 该系统将运行家庭助理主管。 Supervisor不仅是一个应用程序,还是管理整个系统的完整设备。 如果设置不再符合期望值,它将清除,修复或将设置重置为默认设置。 通过不使用Home Assistant操作系统,用户有责任确保安装和维护所有必需的组件。 所需的组件及其版本将随时间而变化。 受监督的家庭助理按原样提供,是社区支持的“自己动手”解决方案的基础。 对于仅在全新安装的,完全更新的Debian上再现的问题,我们仅接受错误报告,不包含其他程序包。 这种方法被认为是高级的,只有在管理Linux操作系统,Docker和网络方面的专家才可以使用。
2021-12-31 07:59:37 13KB hacktoberfest Shell
1
混合搭配 这是MixMatch的非官方PyTorch实现。 Tensorflow的官方实现在。 现在只有在CIFAR-10上的实验可用。 该存储库认真执行了官方实施的重要细节,以重现结果。 要求 Python 3.6+ PyTorch 1.0 torchvision 0.2.2(旧版本与此代码不兼容) 张量板 进步 matplotlib 麻木 用法 火车 通过CIFAR-10数据集的250个标记数据训练模型: python train.py --gpu --n-labeled 250 --out cifar10@250 通过CIFAR-10数据集的4000个标记数据训练模型: python train.py --gpu --n-labeled 4000 --out cifar10@4000 监控培训进度 tensorboard.sh --
1
自我训练自我监督的流落感 结合自我训练和自我监督学习进行无监督的泄气检测 此存储库包含用于将自训练和自监督学习相结合以进行无监督流失检测的代码和模型(EMNLP 2020)。 所有代码和模型均已发布。 感谢您的耐心等待! 关于模型 我们发布了由伪数据和语法检查模型训练的自我监督模型。 请在以下链接中下载它,并将模型放在“ self_supervised_model”和“ grammar_check_model”文件夹中。 如何使用 conda create -n ss_disfluency python=3.7 conda activate ss_disfluency conda install pytorch torchvision torchaudio cudatoolkit=10.1 -c pytorch cd transformers python setup.py insta
2021-12-28 16:03:44 1.24MB Python
1