不平衡数据在分类时往往会偏向"多数",传统过采样生成的样本不能较好的表达原始数据集分布特征.改进的变分自编码器结合数据预处理方法,通过少数类样本训练,使用变分自编码器的生成器生成样本,用于以均衡训练数据集,从而解决传统采样导致的不平衡数据引起分类过拟合问题.我们在UCI四个常用的数据集上进行了实验,结果表明该算法在保证准确率的同时提高了F_measure和G_mean.
2023-10-30 10:20:07 3.33MB 不平衡数据 分类 变分自编码器 过采样
1
pytorch实现变分自编码器
2022-12-21 11:27:23 53.33MB 神经网络
1
VAE总结 VAE的本质是什么?VAE虽然也称是AE(AutoEncoder)的一种,但它的做法(或者说它对网络的诠释)是别具一格的。在VAE中,它的Encoder有两个,一个用来计算均值,一个用来计算方差,让人意外:Encoder不是用来Encode的,是用来算均值和方差的;此外均值和方差都是统计量,这里是用神经网络来计算。 事实上,VAE本质上就是在我们常规的自编码器的基础上,对encoder的结果(在VAE中对应着计算均值的网络)加上了“高斯噪声”,使得结果decoder能够对噪声有鲁棒性;而那个额外的KL loss(目的是让均值为0,方差为1),事实上就是相当于对encoder的一个正则项,希望encoder出来的东西均有零均值。 另外一个encoder(对应着计算方差的网络)的作用用来动态调节噪声的强度的。直觉上来想,当decoder还没有训练好时(重构误差远大于KL loss),就会适当降低噪声(KL loss增加),使得拟合起来容易一些(重构误差开始下降);反之,如果decoder训练得还不错时(重构误差小于KL loss),这时候噪声就会增加(KL loss减少),使得拟合更加困难了(重构误差又开始增加),这时候decoder就要想办法提高它的生成能力了。两者是对抗的过程。重构损失希望p(Z|X)的方差越小越好(噪声越小,重构越容易),KL损失希望它的方差越接近1越好。
2022-10-04 15:45:06 7.96MB 自编码器 变分自编码器
1
从单文档中生成简短精炼的摘要文本可有效缓解信息爆炸给人们带来的阅读压力。近年来,序列到序列(sequence-to-sequence,Seq2Seq)模型在各文本生成任务中广泛应用,其中结合注意力机制的Seq2Seq模型已成为生成式文本摘要的基本框架。为生成能体现摘要的特定写作风格特征的摘要,在基于注意力和覆盖率机制的Seq2Seq模型基础上,在解码阶段利用变分自编码器(variational auto-encoder,VAE)刻画摘要风格特征并用于指导摘要文本生成;最后,利用指针生成网络来缓解模型中可能出现的未登录词问题。基于新浪微博LCSTS数据集的实验结果表明,该方法能有效刻画摘要风格特征、缓解未登录词及重复生成问题,使得生成的摘要准确性高于基准模型。
2021-12-12 10:35:17 1.16MB 文本摘要 变分自编码器 Seq2Seq模型
1
TF-VAE-GAN-DRAW ,和TensorFlow实现。 跑 VAE / GAN: python main.py --working_directory /tmp/gan --model vae 画: python main-draw.py --working_directory /tmp/gan 深度卷积生成对抗网络在使用默认参数的10个星期后产生了不错的结果。 ###去做: 更复杂的数据。 添加 用空间变压器层替换当前的注意力机制
2021-09-10 11:10:56 13KB tensorflow draw recurrent-neural-networks gan
1
针对雷达辐射源个体识别中特征提取困难和低信噪比下识别率低的问题,从图像角度出发提出了一种基于变分自编码器的雷达辐射源个体识别算法。基于信号时频分析,利用变分自编码器(variational auto-encoder, VAE )提取时频图像的深层特征,并采用核主成分分析(kernel principal component analysis,KPCA)获取特征中的主成分,最后将特征送入支持向量机进行分类识别。仿真结果表明:文中所提算法在识别效率和抗噪声性能等方面均优于其他传统算法。当信噪比(signal-to-noise ratio,SNR)为0 dB时针对6个辐射源进行识别,可获得93%以上的识别率。该算法特征提取简单、系统实时性高,具有较高的工程应用价值。
1
自己汇报总结的有关编码器和变分自编码器的相关ppt,写的大概很清楚了,上传上来,敬请参考。
2021-06-07 14:19:11 7.96MB 自编码器 变分自编码器
1
在很少或没有监督的情况下学习有用的表示是人工智能的一个关键挑战。我们深入回顾了表示学习的最新进展,重点关注基于自编码器的模型。为了组织这些结果,我们使用了被认为对下游任务有用的元先验,比如特征的解缠和分层组织。特别地,我们揭示了三种主要机制来执行这些特性,即(i)正则化(近似或聚集)后验分布,(ii)分解编码和解码分布,或(iii)引入结构化的先验分布。虽然有一些有希望的结果,隐性或显性监督仍然是一个关键的促成因素,所有当前的方法使用强烈的归纳偏差和建模假设。最后,我们通过率失真理论分析了基于自编码器的表示学习,并明确了关于下游任务的现有知识量和表示对该任务的有用程度之间的权衡。
2021-06-01 22:06:06 2.36MB 深度学习 变分自编码器 表示学习 综述
1
generate.py; model.py; train.py; read.py四个代码文件,实现vae。
2021-05-19 14:49:30 5KB 变分自编码器
1