解开变分自编码器 PyTorch 实现的论文 团队成员: 安德烈亚斯·斯帕诺普洛斯 ( ) Demetrios Konstantinidis ( ) 存储库结构 目录包含我们迄今为止创建的模型。 一路上还会有更多。 python脚本是主要的可执行文件。 目录包含可用于训练和测试的 colab notebook。 在目录中有一个 ,其中详细解释了变分自动编码器的基本数学概念。 在目录中有一些配置文件可用于创建模型。 在目录中有我们通过使用各种配置运行模型得到的结果。 楷模 目前支持两种模型,一个简单的变分自动编码器和一个解开版本 (beta-VAE)。 模型实现可以在目录中找到。 这些模型是使用PyTorch Lightning开发的。 变分自编码器 变分自编码器是一个生成模型。 它的目标是学习数据集的分布,然后从相同的分布中生成新的(看不见的)数据点。 在下图中,我们可
1
SimCLR-视觉表示形式对比学习的简单框架 消息! 我们发布了SimCLR的TF2实现(以及TF2中的转换后的检查点),它们位于。 消息! 新增了用于Colabs,请参见。 SimCLR的插图(来自 )。 SimCLRv2的预训练模型 我们在这里开源了总共65个经过预训练的模型,与论文的表1中的模型相对应: 深度 宽度 SK 参数(M) 金融时报(1%) FT(10%) FT(100%) 线性评估 监督下 50 1倍 错误的 24 57.9 68.4 76.3 71.7 76.6 50 1倍 真的 35 64.5 72.1 78.7 74.6 78.5 50 2倍 错误的 94 66.3 73.9 79.1 75.6 77.8 50 2倍 真的 140 70.6 77.0 81.3 77.7 79.3 101 1
1
拟无监督的颜色恒定性 本文所述方法的实现: 西蒙妮·比安科(Simone Bianco),克劳迪奥·库萨诺(Claudio Cusano),“准无监督色彩恒定性”-CVPR 2019 该文件可。 另请参见或尝试。
1
Coursera, 机器学习专项课程, Machine Learning:Unsupervised Learning, Recommenders, Reinforcement Learning第一周所有jupyter notebook文件(包括实验室练习文件)
2022-12-03 16:27:03 3.47MB ML-新课代码
1
Coursera, 机器学习专项课程, Machine Learning:Unsupervised Learning, Recommenders, Reinforcement Learning第二周所有jupyter notebook文件(包括实验室练习文件)
2022-12-03 16:27:02 1.88MB ML-新课代码
1
Coursera, 机器学习专项课程, Machine Learning:Unsupervised Learning, Recommenders, Reinforcement Learning第三周所有jupyter notebook文件(包括实验室练习文件)
2022-12-03 16:27:02 4.66MB ML-新课代码
1
均值漂移聚类matlab代码使用从卷积自动编码器中学到的功能进行无监督图像分割 通过训练深度卷积自动编码器,已经从图像中学到了一些有用的功能。 我们使用PCA进行了特征变换。 最后,采用均值漂移聚类算法以无监督的方式对图像进行分割。 EDISON分割:基于EDISON工具箱的图像分割 均值漂移马替代方案:Weizmann马数据集下均值漂移聚类的替代试验 Training BSDS500 :BSDS 500数据集下的培训网络代码 训练马:Weizmann马数据集下的训练网络代码 可视化PCA功能:可视化PCA转换后的功能 替补:计算图像分割的BSDS测试分数 EDISON matlab接口:用于均值漂移聚类的matlab包装器
2022-10-13 22:02:52 1.54MB 系统开源
1
TensorFlow自组织图 TensorFlow 1.5和Python 3.6的Kohonen自组织映射1的实现。 提供了一个Tensorflow V2版本,该版本位于tfv2分支中。 (感谢Dragan!)这最初是基于代码,但进行了一些关键的修改: 使用TensorFlow广播语义而不是tf.pack和for循环。 输入数据应该来自Tensor而不是tf.placeholder ,从而可以与更快,更复杂的输入数据管道一起使用。 培训使用批处理算法而不是在线算法,如果您具有GPU RAM,则可以大大提高速度。 另外,因此,我添加了... 多GPU支持(对于具有多个GPU的单机,它没有多节点培训)。 Tensorboard可视化的一些摘要操作 example.py通过在3个群集玩具数据集上训练SOM来包含其用法的简单示例。 产生的u-matrix应该看起来像这样: 请注意,该示
1
BELMKN:贝叶斯极限学习机Kohonen网络 无监督的极限学习机(ELM)是一种用于特征提取的非迭代算法。 该方法应用于IRIS数据集以进行非线性特征提取,聚类预测,最后使用k-means进行聚类。 客观的 要使用Unsuoervised Extreme Learning Machine执行非线性特征学习,使用贝叶斯信息准则(BIC)预测数据集中的聚类数,最后使用k-means,自组织图/ Kohonen网络和EM算法进行聚类 模组 无监督的极限学习机:在此模块中,使用无监督的极限学习机执行数据集的特征提取。 这是具有单个隐藏层的非迭代算法,其中输入层和隐藏层之间的权重被随机初始化,并且使用目标函数计算隐藏层和输出层之间的权重。 因此,可以保证收敛于全局最小值。 贝叶斯信息准则:贝叶斯信息准则是一种统计方法,使用d来找出数据集中的聚类数。 它使用期望最大化(EM)算法来查找数据集中的
1
无监督多跳质量检查 该存储库包含该论文的代码和模型: 。 我们提出了MQA-QG,这是一种无监督的问答框架,可以从同构和异构数据源生成类似于人的多跳训练对。 我们发现我们可以仅使用生成的数据来训练胜任的多跳质量检查模型。 在和数据集中,无监督模型和完全监督模型之间的F1差距小于20。 使用我们生成的数据对多跳质量检查模型进行预训练将大大减少对多步质量检查的人工注释训练数据的需求。 介绍 该模型首先定义了一组基本运算符,以从每个输入源检索/生成相关信息或汇总不同的信息,如下所示。 然后,我们定义六个推理图。 每个都对应一种类型的多跳问题,并被公式化为基于运算符的计算图。 我们通过执行推理图来生成多跳问答对。 要求 的Python 3.7.3 火炬1.7.1 tqdm 4.49.0 变压器4.3.3 资料准备 a)HotpotQA 首先,下载hotpotQA的原始数据集。 H
2022-06-16 20:43:53 1.42MB Python
1