注重多元时间序列的LSTM自动编码器 该存储库包含用于多变量时间序列预测的自动编码器。 它具有描述的两种注意力机制,并且受启发。 下载和依赖项 要克隆存储库,请运行: git clone https://github.com/JulesBelveze/time-series-autoencoder.git 要安装所有必需的依赖项,请运行: pip install -r requirements.txt 用法 python main.py [-h] [--batch-size BATCH_SIZE] [--output-size OUTPUT_SIZE] [--label-col LABEL_COL] [--input-att INPUT_ATT] [--temporal-att TEMPORAL_ATT] [--seq-le
1
演示代码(请参阅jupyter笔记本): 使用深度卷积自动编码器对地震信号进行非监督(自我监督)区分 您可以从这里获取论文: 连结1: 连结2: 您可以从此处获取训练数据集: 参考: Mousavi, S. M., W. Zhu, W. Ellsworth, G. Beroza (2019). Unsupervised Clustering of Seismic Signals Using Deep Convolutional Autoencoders, IEEE Geoscience and Remote Sensing Letters, 1 - 5, doi:10.1109/LGRS.2019.2909218.
1
变种火炬自动编码器 Pytorch中针对MNIST数据集的VAE实现 嘿大家! 在这里,我将展示我创建VAE来复制MNIST数据集的项目的所有代码 目录 基本信息 该项目的灵感来自Sovit Ranjan Rath的文章 技术领域 使用以下项目创建项目: Python版本:3.8.5 Pytorch版本:1.8.0 脾气暴躁:1.19.2
2021-10-10 13:32:56 5.4MB JupyterNotebook
1
使用自动编码器神经网络检测恶意URL 该存储库包含使用自动编码器神经网络检测恶意URL的代码源。 中提供了有关其工作原理的文章。 要构建和测试模型,可以运行: $ python train_and_test_urls_autoencoder.py 如果您想生成新的丰富数据,可以运行: $ python enrich_urls_data.py
1
机器学习中的稀疏表示。含有standford课程及其练习,最后代码都完成实现。
2021-09-22 21:56:24 10.85MB 稀疏 自编码器
1
#4.4_AutoEncoder_自编码_(PyTorch_tutorial_神经网络_教学)
2021-09-01 21:00:19 27.77MB 学习资源
自动编码器在脑MR图像中的无监督异常分割:比较研究 该存储库包含我们的论文的代码,该论文是。 如果您使用我们的任何代码,请引用: @article{Baur2020, title = {Autoencoders for Unsupervised Anomaly Segmentation in Brain MR Images: A Comparative Study}, author = {Baur, Christoph and Denner, Stefan and Wiestler, Benedikt and Albarqouni, Shadi and Navab, Nassir}, url = {http://arxiv.org/abs/2004.03271}, year = {2020} } @article{baur2021autoencoders, tit
2021-08-30 09:47:06 122KB deep-learning mri gan autoencoder
1
主要为大家详细介绍了TensorFlow实现AutoEncoder自编码器,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
2021-08-17 21:44:52 175KB TensorFlow AutoEncoder 自编码器
1
Tensorflow中的LSTM自动编码器和LSTM未来预测器。 这是基于本文的简单实现: : 要求 Tensorflow 1.4.0 的Python 3.5.4 Python软件包:numpy,matplotlib,os,argparse,scipy 用法 数据生成后实施重建或未来预测 使用旋转和移位生成数据:Image_generation.ipynb 使用LSTM自动编码器重建数据:Autoencoder.ipynb 输入重构和未来预测:AE_with_Predictor 结果 从复合模型 数据序列(从左到右):0,1,...,t-1,t 轮换数据 在LSTM模型中输入序列数据后,重建数据并预测旋转多少 输入顺序 输入重构 未来预测 移位数据 在LSTM模型中输入序列数据后,重建数据并预测多少位移 输入顺序 输入重构 未来预测 参考实现 https://githu
2021-08-17 21:39:52 449KB JupyterNotebook
1
Autoencoder 主要包括自编码器及其变形的理论+实践。 PDF整理 PDF来源于本人的理解+整理,部分图片来源于网上,已有标注,PDF对应博客详见: 。 因时间原因,代码中epoch设置的较小,实际状况下,肯定要更大。 主要内容 暂时代码包括普通自编码器(Autoencoder.py)、栈式自编码器(StackAutoencoder)、稀疏自编码器(SparseAutoencoder.py)和去噪自编码器(DenoisingAutoencoder.py)的简单实现,代码每一步都有注释。 关于收缩自编码器、变分自编码器、CNN自编码器等后更。 基于框架:Keras2.0.4 数据集:Mnist 具体设置等请参见代码或者博客 代码运行结果: 1、普通自编码器: 简单自动编码器架构图 Encoder层输出结果可视化 Autoencoder生成图片和原图片对比 2、栈式自编码器: 栈式自动
2021-08-04 14:25:05 2.94MB 附件源码 文章源码
1