机器学习中的稀疏表示。含有standford课程及其练习,最后代码都完成实现。
2021-09-22 21:56:24 10.85MB 稀疏 自编码器
1
【ch12-自编码器】 AE实战.pdf
2021-09-21 11:01:36 470KB 互联网
TF-VAE-GAN-DRAW ,和TensorFlow实现。 跑 VAE / GAN: python main.py --working_directory /tmp/gan --model vae 画: python main-draw.py --working_directory /tmp/gan 深度卷积生成对抗网络在使用默认参数的10个星期后产生了不错的结果。 ###去做: 更复杂的数据。 添加 用空间变压器层替换当前的注意力机制
2021-09-10 11:10:56 13KB tensorflow draw recurrent-neural-networks gan
1
首先、wt(小波分析)过滤噪声 然后 saes(自编码器)提取强特征 最后用lstm进行学习训练
2021-09-04 11:02:46 9.58MB lstm wt saes
1
主要为大家详细介绍了TensorFlow实现AutoEncoder自编码器,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
2021-08-17 21:44:52 175KB TensorFlow AutoEncoder 自编码器
1
P40 P40 PRO MATE40 MATE40 PRO 荣耀30 荣耀30 Pro geriber文件PCB Thumbs.db
2021-08-06 23:39:50 19KB 自编码器
1
Autoencoder 主要包括自编码器及其变形的理论+实践。 PDF整理 PDF来源于本人的理解+整理,部分图片来源于网上,已有标注,PDF对应博客详见: 。 因时间原因,代码中epoch设置的较小,实际状况下,肯定要更大。 主要内容 暂时代码包括普通自编码器(Autoencoder.py)、栈式自编码器(StackAutoencoder)、稀疏自编码器(SparseAutoencoder.py)和去噪自编码器(DenoisingAutoencoder.py)的简单实现,代码每一步都有注释。 关于收缩自编码器、变分自编码器、CNN自编码器等后更。 基于框架:Keras2.0.4 数据集:Mnist 具体设置等请参见代码或者博客 代码运行结果: 1、普通自编码器: 简单自动编码器架构图 Encoder层输出结果可视化 Autoencoder生成图片和原图片对比 2、栈式自编码器: 栈式自动
2021-08-04 14:25:05 2.94MB 附件源码 文章源码
1
针对雷达辐射源个体识别中特征提取困难和低信噪比下识别率低的问题,从图像角度出发提出了一种基于变分自编码器的雷达辐射源个体识别算法。基于信号时频分析,利用变分自编码器(variational auto-encoder, VAE )提取时频图像的深层特征,并采用核主成分分析(kernel principal component analysis,KPCA)获取特征中的主成分,最后将特征送入支持向量机进行分类识别。仿真结果表明:文中所提算法在识别效率和抗噪声性能等方面均优于其他传统算法。当信噪比(signal-to-noise ratio,SNR)为0 dB时针对6个辐射源进行识别,可获得93%以上的识别率。该算法特征提取简单、系统实时性高,具有较高的工程应用价值。
1
自编码器生成手写数字,并实现隐空间插值
2021-06-30 09:10:21 33.08MB 自编码器 MNIST手写数字
1
自编码器生成手写数字,并实现隐空间插值
2021-06-30 09:10:20 33.08MB 自编码器 MNIST手写数字
1