自动编码器这是本文所述的(可变)图自动编码器模型的TensorFlow实现:TN Kipf,M.Welling,变分图自动编码器,关于贝叶斯深度学习的NIPS研讨会(2图自动编码器)这是(可变)图自动编码器模型的TensorFlow实现,如我们的论文所述:TN Kipf,M.Welling,变图自动编码器,关于贝叶斯深度学习的NIPS研讨会(2016)图自动编码器(GAE) GAE是成功用于图上无监督学习,聚类和链接预测的端到端可训练神经网络模型:大规模关系数据中的链接预测:M。Schlichtkrull和TN Kipf等。
2021-10-30 20:27:19 5.09MB Python Deep Learning
1
自动编码器降维 自动编码器可用于特征提取和降维。 它们也可以与受限玻尔兹曼机器结合使用深度学习应用程序,例如“深层信念网络”。 它具有“编码器”和“解码器”两个阶段,“编码器”将逐步压缩输入,在压缩过程中选择最重要的功能。 解码器与编码器相反,它可以尽可能地重新创建输入。 要求 Python 3.6及更高版本 TensorFlow 1.6.0及更高版本 脾气暴躁的 Matplotlib 执行 该实现使用MNIST数据集来重建输入。 由于MNIST图像的形状为28 * 28,因此输入为784。我们的模型将是3层,每层减少特征,并在解码器阶段重建inut, Encoder Decoder [784] -> [256] -> [128] -> [64] -> [128] -> [256] -> [784] 此实现的最
1
3D自动编码器 该项目旨在开发具有3D卷积层的自动编码器。 图书馆Tensorflow 2
2021-10-26 13:43:39 10.48MB Python
1
稀疏自动编码器和LSTM网络相结合的水质预测模型
2021-10-22 14:45:51 1.03MB 研究论文
1
利用自动编码器实现手写数字图像数据集的二维平面的展示 import tensorflow as tf import matplotlib.pyplot as plt from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=False)#独热编码设为False # xs, ys = mnist.train.next_batch(10) #这个函数是取出一些数据。是从训练集里一次提取10张图片。则xs中存储的是图像的数据,ys存储的是这些图像对应的类别 # print (ys) #此时打印的应该是类别 # mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) # xs,ys = mnist.train.next_batch(10) # print (ys) #此时打印的应该是独热编码的形式
1
CAE模型 将压缩自动编码器(CAE)应用于来自USC-SIPI图像数据库的图像数据。 将压缩自动编码器(CAE)应用于来自USC-SIPI图像数据库的图像数据。 CAE模型来自 ,基于[1]。 这是一个正在进行的工作,模型的训练和模型本身是一个正在进行的工作 参考 [1]使用自动压缩编码器的有损图像压缩( )
2021-10-19 16:42:20 12.87MB Python
1
基于三维卷积自动编码器的高光谱分类无监督空间光谱特征学习 通过,,,张治,,。 拟议框架 介绍 与传统的手工特征提取算法相比,使用深度神经网络(DNN)的特征学习技术表现出卓越的性能。 但是,DNN通常需要大量的训练样本来学习有效的特征,而在高光谱图像中很难获得有效的特征。 因此,在本文中,提出了一种使用三维卷积自动编码器(3D-CAE)的无监督空间光谱特征学习策略。 提出的3D-CAE仅包含3D或元素操作,例如3D卷积,3D池化和3D批处理归一化,以最大程度地探索空间光谱结构信息以进行特征提取。 还设计了一个配套的3D卷积解码器网络来重建输入模式,通过该模式,可以训练网络中涉及的所有参数而无需标记训练样本。 在多个基准高光谱数据集上的实验结果表明,我们提出的3D-CAE在提取空间光谱特征方面非常有效,不仅在传统的非监督特征提取算法方面表现出色,而且在分类应用中也优于许多监督特征提取算
2021-10-18 16:31:36 6.09MB Python
1
这是墨尔本大学 AES/MathWorks/NIH 癫痫发作预测 ( https://www.kaggle.com/c/melbourne-university-seizure-prediction ) 的 MATLAB 解决方案。 它建立在使用神经网络工具箱中的自动编码器和神经网络的基础上。 压缩文件包含: 1. autoencoder_train.m, 使用自动编码器构建深度网络的脚本,如以下示例中所述: http : //www.mathworks.com/help/nnet/ug/construct-deep-network-using-autoencoders.html 。 在构建深度或堆叠网络后,深度网络将适应更多的训练数据。 2. autoencoder_test.m, 一个脚本,用于加载从训练数据构建的神经网络,并对验证和测试数据进行预测。
2021-10-13 19:52:03 5KB matlab
1
注重多元时间序列的LSTM自动编码器 该存储库包含用于多变量时间序列预测的自动编码器。 它具有描述的两种注意力机制,并且受启发。 下载和依赖项 要克隆存储库,请运行: git clone https://github.com/JulesBelveze/time-series-autoencoder.git 要安装所有必需的依赖项,请运行: pip install -r requirements.txt 用法 python main.py [-h] [--batch-size BATCH_SIZE] [--output-size OUTPUT_SIZE] [--label-col LABEL_COL] [--input-att INPUT_ATT] [--temporal-att TEMPORAL_ATT] [--seq-le
1
演示代码(请参阅jupyter笔记本): 使用深度卷积自动编码器对地震信号进行非监督(自我监督)区分 您可以从这里获取论文: 连结1: 连结2: 您可以从此处获取训练数据集: 参考: Mousavi, S. M., W. Zhu, W. Ellsworth, G. Beroza (2019). Unsupervised Clustering of Seismic Signals Using Deep Convolutional Autoencoders, IEEE Geoscience and Remote Sensing Letters, 1 - 5, doi:10.1109/LGRS.2019.2909218.
1