dbn matlab代码deep_autoencoder 深度信念网络自动编码器 这种深层信念的网络自动编码器基于Ruslan Salakhutdinov和Geoff Hinton()以及相关的MATLAB代码()的工作。 我已将其翻译为PyTorch,并合并了GPU计算以使其运行更快。 操作很简单。 使用多个受限的Boltzmann机器层初始化DBN对象,例如dbn = DBN(visible_units = 512,hidden_​​units = [256,128])将初始化具有512个输入神经元和两个RBM层的DBN对象,其中一个具有256个输出神经元,其中一个具有128个输出神经元。 然后对网络进行预训练,例如dbn.pretrain(data,labels,num_epochs),其中data是火炬。大小的张量(num_samples x num_dimensions),labels是火炬.size的标签的张量(num_samples),以及num_epochs是整数,表示要预训练每个RBM层多少个时期。 接下来,对网络进行微调,例如dbn.fine_tuning(data
2021-11-10 16:48:47 5KB 系统开源
1
自动编码器异常检测 使用自动编码器检测mnist数据集中的异常 说明 异常被定义为偏离标准,很少发生并且不遵循其余“模式”的事件。只有在我们的类标签中存在巨大的不平衡这一事实,问题才会复杂化。要完成此任务,自动编码器使用两个组件:编码器和解码器。编码器接受输入数据并将其压缩为潜在空间表示形式。 解码器然后尝试从潜在空间重构输入数据,当以端到端的方式训练时,网络的隐藏层将学习强大且甚至能够对输入数据进行去噪的滤波器。用一个数字,并告诉它如下重建: 我们希望自动编码器在重建数字方面做得非常好,因为这正是自动编码器受过训练的工作-如果我们要查看输入图像和重建图像之间的MSE,我们会发现现在让我们假设我们给自动编码器提供了一张大象的照片,并要求它重建它: 由于自动编码器以前从未见过大象,更重要的是从未接受过重建大象的训练,因此我们的MSE很高,如果重建的MSE很高,那么我们可能会有异常值。 数
2021-11-10 10:28:00 2KB
1
数据融合matlab代码基于卷积自动编码器的多光谱图像融合 概述 该存储库包含运行基于深度学习的全色锐化方法以在遥感应用中融合全色和多光谱图像所必需的代码。 有关该算法的详细信息,请参见我们的论文。 用法:泛锐化 基于卷积自动编码器的多光谱图像融合是基于卷积自动编码器体系结构的一种基于深度学习的多光谱图像融合新方法。 有关更多信息,请参见以下文章: A. Azarang,HE Manoochehri,N。Kehtarnavaz,基于卷积自动编码器的多光谱图像融合,IEEE Access。 怎么跑 首先,您需要使用Data_Generation.m来准备要在我们的锐化框架中使用的数据。 我们仅使用4波段多光谱(MS)数据进行研究。 (B,G,R,NIR频段) Add path of your data 该路径应包含MS和PAN​​colour(PAN)数据。 另外,它可以是.mat文件(MAT文件)。 Importing the MS and PAN data 运行Data_Generation.m之后,将3个文件保存到该目录: Input.m // it is used to serv
2021-11-09 19:11:24 521KB 系统开源
1
基于对称显着性的对抗攻击自动编码器。 安装 > git clone https://github.com/BravoLu/SSAE.git > cd SSAE > pip -r install requirements.txt 开始使用 演示版 我们在上部署了一个resnet18模型,您可以使用目录./images/original_examples/中的图像进行测试。
2021-11-09 17:09:50 37.67MB JupyterNotebook
1
matlab精度检验代码微型计算机 基于Chen等人的论文“用于域自适应的边缘化堆叠降噪自动编码器”,对边缘化堆叠降噪自动编码器(mSDA)的实现和使用。 al(2012)。 本文提供了MATLAB代码,并在处提供了MATLAB和Python的实现(后者是对MATLAB代码的严格翻译)。 mSDA的此实现基于作者提供的示例代码以及本文中的方程式。 最终,该Python实现比其提供的实现稍有优化,并且希望包含更多说明性的变量名和注释。 此外,尽管在本文中作者提供了主要mSDA算法的字面MATLAB实现,但他们也进行了描述,但没有给出对高维数据的更快逼近的实现。 该项目还包含此近似值的实现。 所有这些都在msda.py中完成。 最后,为了演示mSDA的功能,该项目包含一个简单的示例应用程序:从几个类别中进行文档分类,即众所周知的20个新闻组数据集。 数据预处理(将原始数据转换为单词包)在process_data.py中从头开始,并且stop_words.txt中包含一个常用的停用词列表。 process_data.py还包含将数据分为训练集和测试集并选择最常用功能(如作者所暗示的那样)的方
2021-11-06 09:57:21 13.38MB 系统开源
1
自动编码器这是本文所述的(可变)图自动编码器模型的TensorFlow实现:TN Kipf,M.Welling,变分图自动编码器,关于贝叶斯深度学习的NIPS研讨会(2图自动编码器)这是(可变)图自动编码器模型的TensorFlow实现,如我们的论文所述:TN Kipf,M.Welling,变图自动编码器,关于贝叶斯深度学习的NIPS研讨会(2016)图自动编码器(GAE) GAE是成功用于图上无监督学习,聚类和链接预测的端到端可训练神经网络模型:大规模关系数据中的链接预测:M。Schlichtkrull和TN Kipf等。
2021-10-30 20:27:19 5.09MB Python Deep Learning
1
自动编码器降维 自动编码器可用于特征提取和降维。 它们也可以与受限玻尔兹曼机器结合使用深度学习应用程序,例如“深层信念网络”。 它具有“编码器”和“解码器”两个阶段,“编码器”将逐步压缩输入,在压缩过程中选择最重要的功能。 解码器与编码器相反,它可以尽可能地重新创建输入。 要求 Python 3.6及更高版本 TensorFlow 1.6.0及更高版本 脾气暴躁的 Matplotlib 执行 该实现使用MNIST数据集来重建输入。 由于MNIST图像的形状为28 * 28,因此输入为784。我们的模型将是3层,每层减少特征,并在解码器阶段重建inut, Encoder Decoder [784] -> [256] -> [128] -> [64] -> [128] -> [256] -> [784] 此实现的最
1
3D自动编码器 该项目旨在开发具有3D卷积层的自动编码器。 图书馆Tensorflow 2
2021-10-26 13:43:39 10.48MB Python
1
稀疏自动编码器和LSTM网络相结合的水质预测模型
2021-10-22 14:45:51 1.03MB 研究论文
1
利用自动编码器实现手写数字图像数据集的二维平面的展示 import tensorflow as tf import matplotlib.pyplot as plt from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=False)#独热编码设为False # xs, ys = mnist.train.next_batch(10) #这个函数是取出一些数据。是从训练集里一次提取10张图片。则xs中存储的是图像的数据,ys存储的是这些图像对应的类别 # print (ys) #此时打印的应该是类别 # mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) # xs,ys = mnist.train.next_batch(10) # print (ys) #此时打印的应该是独热编码的形式
1