论文An Introduction to Deep Learning for the Physical Layer 和 Deep Learning for Wireless Physical Layer:Opportunities and Challenges中提到的AutoEncoder代码实现,有两个版本。
2022-02-19 20:48:04 1.33MB PYTHON AutoEncoder An Introduct
1
脑电情绪识别 HSE计算机科学学生项目 作者:Soboleva Natalia和Glazkova Ekaterina 脑电信号的准确分类可以为医学研究提供解决方案,以在早期阶段检测异常脑部行为以对其进行威胁。 在这项研究中,我们从另一个角度来看这个任务-情绪识别。 我们设计了卷积神经网络和递归神经网络的联合,使用自动编码器来压缩数据的高维数。 当前项目包括EEG数据处理,并使用AutoEncoder + CNN + RNN进行卷积 前处理 伪影-这是所有非脑源记录的活动的术语。 伪影可分为两类:生理伪影(来自大脑其他部位的虹膜,例如,身体)和外部生理伪影(例如,技术设备的北极)。 为了提取脑电图观察的最重要特征,必须进行预处理。 为了进行数据处理和可视化, 选择了用于人类神经生理数据(包括EEG)的开源Python软件。 在这一领域,有两种主要的最新方法可以处理EEG信号:小波变换和
2022-01-17 14:22:58 3.3MB JupyterNotebook
1
TF_Convolutional_Autoencoder 用于在TensorFlow中以高压缩率对RGB图像进行编码/解码的卷积自动编码器 这是从Arash Saber Tehrani的Deep-Convolutional-AutoEncoder教程教程改编而成的示例模板,用于对3通道图像进行编码/解码。 该模板已被完全注释。 我已经在来自香港中文大学的CelebA数据集的重新缩放后的样本上测试了此实现,以在短时间的训练中产生相当不错的结果。 此实现的压缩比为108。即,对于形状为[-1、48、48、3]的输入张量,瓶颈层已减小为形状为[-1、64]的张量。 附加功能: 将3通道图像而不是MNIST用作输入 培训现在执行检查点保存和还原 可以在TensorBoard中查看编码器的输入和解码器的输出 输入自动重定标 用ReakyReLU代替ReLU激活来解决垂死的ReLU 注意事项:
2022-01-12 19:17:54 524KB tensorflow autoencoder rgb-image face-recognition
1
基于递归神经网络的自动编码器 PyTorch实现, 目录: 项目结构: 项目结构基于以下 ├── agents | └── rnn_autoencoder.py # the main training agent for the recurrent NN-based AE ├── graphs | └── models | | └── recurrent_autoencoder.py # recurrent NN-based AE model definition | └── losses | | └── MAELoss.py # contains the Mean Absolute Error (MAE) loss | | └── MSELoss.py # contains the Mean Squared Error (MSE) loss ├── datasets
2021-12-10 15:59:37 146KB Python
1
变分自编码器 (VAE) + 迁移学习 (ResNet + VAE) 该存储库在 PyTorch 中实现了 VAE,使用预训练的 ResNet 模型作为其编码器,使用转置卷积网络作为解码器。 数据集 1. MNIST 数据库包含 60,000 张训练图像和 10,000 张测试图像。 每个图像均保存为28x28矩阵。 2. CIFAR10 数据集包含10个类别的60000个32x32彩色图像,每个类别6000个图像。 3. Olivetti 人脸数据集 脸数据集由 40 个不同主题的 10 张 64x64 图像组成。 模型 模型包含一对编码器和解码器。 编码器 将 2D 图像x压缩为较低维度空间中的向量z ,该空间通常称为潜在空间,而解码器 接收潜在空间中的向量,并在与编码器输入相同的空间中输出对象。 训练目标是让encoder和decoder的组合“尽可能接近identity”。
2021-11-19 02:51:19 10.88MB vae resnet transfer-learning variational-autoencoder
1
jpeg压缩的matlab代码 JPEG-JPEG2000-autoencoder 静止图像压缩编码——传统方法和深度学习方法对比 JPEG_gray MATLAB实现,只针对灰度图像进行JPEG压缩,没有进行熵编码,只做理论上的压缩率计算 JPEG2000 MATLAB实现,详见JPEG2000的README CAE Python实现,一种典型的自动编码器实现图像压缩,训练数据集选用STL10 不提供分类网络 分类网络采用的是简单的Resnet18实现,有需要的话,可以自己找经典的分类代码。数据集同样选用STL10
2021-11-15 15:55:03 5.38MB 系统开源
1
瑕疵检测代码-matlab 使用可变自动编码器-VAE进行异常检测 在化学材料,衣物和食品材料等的运输检查中,有必要检测正常产品中的缺陷和杂质。 在以下链接中,我共享了仅使用图像进行训练的,使用CAE来检测和定位异常的代码。 在此演示中,您可以学习如何将变式自动编码器(VAE)应用于此任务而不是CAE。 VAE使用潜在空间上的概率分布,并从该分布中采样以生成新​​数据。 要求 MATLAB版本应为R2019b及更高版本 用法 EN_VAE_Anomalydetection.mlx ・显示如何用英语训练VAE模型的示例 JP_VAE_Anomalydetection.mlx ・显示如何用日语训练VAE模型的示例 参考 自动编码变数贝叶斯[2013] Diederik P Kingma,Max Welling 版权所有2019-2020 The MathWorks,Inc.
2021-11-12 13:19:19 16.78MB 系统开源
1
dbn matlab代码deep_autoencoder 深度信念网络自动编码器 这种深层信念的网络自动编码器基于Ruslan Salakhutdinov和Geoff Hinton()以及相关的MATLAB代码()的工作。 我已将其翻译为PyTorch,并合并了GPU计算以使其运行更快。 操作很简单。 使用多个受限的Boltzmann机器层初始化DBN对象,例如dbn = DBN(visible_units = 512,hidden_​​units = [256,128])将初始化具有512个输入神经元和两个RBM层的DBN对象,其中一个具有256个输出神经元,其中一个具有128个输出神经元。 然后对网络进行预训练,例如dbn.pretrain(data,labels,num_epochs),其中data是火炬。大小的张量(num_samples x num_dimensions),labels是火炬.size的标签的张量(num_samples),以及num_epochs是整数,表示要预训练每个RBM层多少个时期。 接下来,对网络进行微调,例如dbn.fine_tuning(data
2021-11-10 16:48:47 5KB 系统开源
1
自动编码器异常检测 使用自动编码器检测mnist数据集中的异常 说明 异常被定义为偏离标准,很少发生并且不遵循其余“模式”的事件。只有在我们的类标签中存在巨大的不平衡这一事实,问题才会复杂化。要完成此任务,自动编码器使用两个组件:编码器和解码器。编码器接受输入数据并将其压缩为潜在空间表示形式。 解码器然后尝试从潜在空间重构输入数据,当以端到端的方式训练时,网络的隐藏层将学习强大且甚至能够对输入数据进行去噪的滤波器。用一个数字,并告诉它如下重建: 我们希望自动编码器在重建数字方面做得非常好,因为这正是自动编码器受过训练的工作-如果我们要查看输入图像和重建图像之间的MSE,我们会发现现在让我们假设我们给自动编码器提供了一张大象的照片,并要求它重建它: 由于自动编码器以前从未见过大象,更重要的是从未接受过重建大象的训练,因此我们的MSE很高,如果重建的MSE很高,那么我们可能会有异常值。 数
2021-11-10 10:28:00 2KB
1
自动编码器降维 自动编码器可用于特征提取和降维。 它们也可以与受限玻尔兹曼机器结合使用深度学习应用程序,例如“深层信念网络”。 它具有“编码器”和“解码器”两个阶段,“编码器”将逐步压缩输入,在压缩过程中选择最重要的功能。 解码器与编码器相反,它可以尽可能地重新创建输入。 要求 Python 3.6及更高版本 TensorFlow 1.6.0及更高版本 脾气暴躁的 Matplotlib 执行 该实现使用MNIST数据集来重建输入。 由于MNIST图像的形状为28 * 28,因此输入为784。我们的模型将是3层,每层减少特征,并在解码器阶段重建inut, Encoder Decoder [784] -> [256] -> [128] -> [64] -> [128] -> [256] -> [784] 此实现的最
1