均值漂移聚类matlab代码使用从卷积自动编码器中学到的功能进行无监督图像分割 通过训练深度卷积自动编码器,已经从图像中学到了一些有用的功能。 我们使用PCA进行了特征变换。 最后,采用均值漂移聚类算法以无监督的方式对图像进行分割。 EDISON分割:基于EDISON工具箱的图像分割 均值漂移马替代方案:Weizmann马数据集下均值漂移聚类的替代试验 Training BSDS500 :BSDS 500数据集下的培训网络代码 训练马:Weizmann马数据集下的训练网络代码 可视化PCA功能:可视化PCA转换后的功能 替补:计算图像分割的BSDS测试分数 EDISON matlab接口:用于均值漂移聚类的matlab包装器
2022-10-13 22:02:52 1.54MB 系统开源
1
TensorFlow自组织图 TensorFlow 1.5和Python 3.6的Kohonen自组织映射1的实现。 提供了一个Tensorflow V2版本,该版本位于tfv2分支中。 (感谢Dragan!)这最初是基于代码,但进行了一些关键的修改: 使用TensorFlow广播语义而不是tf.pack和for循环。 输入数据应该来自Tensor而不是tf.placeholder ,从而可以与更快,更复杂的输入数据管道一起使用。 培训使用批处理算法而不是在线算法,如果您具有GPU RAM,则可以大大提高速度。 另外,因此,我添加了... 多GPU支持(对于具有多个GPU的单机,它没有多节点培训)。 Tensorboard可视化的一些摘要操作 example.py通过在3个群集玩具数据集上训练SOM来包含其用法的简单示例。 产生的u-matrix应该看起来像这样: 请注意,该示
1
BELMKN:贝叶斯极限学习机Kohonen网络 无监督的极限学习机(ELM)是一种用于特征提取的非迭代算法。 该方法应用于IRIS数据集以进行非线性特征提取,聚类预测,最后使用k-means进行聚类。 客观的 要使用Unsuoervised Extreme Learning Machine执行非线性特征学习,使用贝叶斯信息准则(BIC)预测数据集中的聚类数,最后使用k-means,自组织图/ Kohonen网络和EM算法进行聚类 模组 无监督的极限学习机:在此模块中,使用无监督的极限学习机执行数据集的特征提取。 这是具有单个隐藏层的非迭代算法,其中输入层和隐藏层之间的权重被随机初始化,并且使用目标函数计算隐藏层和输出层之间的权重。 因此,可以保证收敛于全局最小值。 贝叶斯信息准则:贝叶斯信息准则是一种统计方法,使用d来找出数据集中的聚类数。 它使用期望最大化(EM)算法来查找数据集中的
1
无监督多跳质量检查 该存储库包含该论文的代码和模型: 。 我们提出了MQA-QG,这是一种无监督的问答框架,可以从同构和异构数据源生成类似于人的多跳训练对。 我们发现我们可以仅使用生成的数据来训练胜任的多跳质量检查模型。 在和数据集中,无监督模型和完全监督模型之间的F1差距小于20。 使用我们生成的数据对多跳质量检查模型进行预训练将大大减少对多步质量检查的人工注释训练数据的需求。 介绍 该模型首先定义了一组基本运算符,以从每个输入源检索/生成相关信息或汇总不同的信息,如下所示。 然后,我们定义六个推理图。 每个都对应一种类型的多跳问题,并被公式化为基于运算符的计算图。 我们通过执行推理图来生成多跳问答对。 要求 的Python 3.7.3 火炬1.7.1 tqdm 4.49.0 变压器4.3.3 资料准备 a)HotpotQA 首先,下载hotpotQA的原始数据集。 H
2022-06-16 20:43:53 1.42MB Python
1
无监督文本聚类 使用无监督学习对单词进行聚类的代码这将一段文本作为输入,并使用无监督聚类对每个单词进行聚类。
2022-05-05 23:43:56 5KB Python
1
本文提出了一种新的无监督显着性合成Kong径雷达(SAR)图像变化检测方法。 图像的显着区域始终是有区别的,并且与其他区域不同,这使得它们很容易被注意到。 局部区域的强烈视觉对比度使显着性适合于指导SAR图像的变化检测,这两个图像之间存在差异。 通过将显着性提取应用于通过对数比运算符获得的初始差异图,可以得到显着性图,其中包括了大多数变化区域,并且同时很好地忽略了由斑点噪声引起的伪变化像素。 然后,通过对显着性图进行阈值处理,可以保留大多数兴趣区域,并进一步将其用于从初始SAR图像中提取区域以生成差异图像。 主成分分析(PCA)方法用于从局部补丁中提取特征,以合并空间信息并减少孤立像素的影响。 最后,采用k均值聚类来获得所提取特征的变化图,将其聚类为两类:变化区域和不变区域。 在五个真实和两个模拟SAR图像数据集上的实验结果证明了该方法的有效性。
2022-04-29 10:51:32 3.5MB Unsupervised change detection Saliency map Principal
1
SESF保险丝 SESF-Fuse:用于多焦点图像融合的无监督深度模型 抽象的 在这项工作中,我们提出了一种无监督的深度学习模型来解决多焦点图像融合问题。 首先,我们以无监督的方式训练编码器-解码器体系结构,以获取输入图像的深层特征。 然后,我们利用这些特征和空间频率来测量活动水平,这在多焦点融合任务中起着至关重要的作用。 该方法背后的关键点在于,只有景深(DOF)内的对象在照片中才具有清晰的外观,而其他对象则很可能被模糊。 与以前的工作相比,我们的方法分析的是深层特征的锐利外观,而不是原始图像。 实验结果表明,与现有的16种融合方法相比,该方法在客观和主观评估中均达到了最新的融合性能。 可视化 我们在下图中显示融合结果的可视化。 第一行是近焦点源图像,第二行是远焦点源图像。 第三行是我们方法的决策图,最后一行是融合结果。 分行介绍 我们在该分支机构中提供SESF-Fuse的培训和测试方法
1
Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker DiscoveryUnsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery
2022-03-11 14:29:25 1.13MB GAN
1
Hands-On Unsupervised Learning Using Python How to Build Applied Machine Learning Solutions from Unlabeled Data Ankur A. Patel
2022-03-09 11:09:09 4.57MB 无监督学习 机器学习 Python 深度学习
1
SfM学习者 该代码库实现了本文所述的系统: 通过视频无监督地学习深度和自我运动 ,,, 在CVPR 2017(口头)中。 有关更多详细信息,请参见。 如有任何疑问,请联系( )。 先决条件 该代码库是使用Tensorflow 1.0,CUDA 8.0和Ubuntu 16.04开发和测试的。 运行单视图深度演示 我们提供了用于运行我们的单视图深度预测模型的演示代码。 首先,通过运行以下命令下载预训练的模型 bash ./models/download_depth_model.sh 然后,您可以使用提供的ipython-notebook demo.ipynb来运行演示。 准备训练数据 为
1