Convolutional Auto-Encoders卷积自编码器的Matlab代码,可以运行caeexamples.m对手写数据mnist_uint8进行训练测试
2022-07-06 08:42:35 10KB CAE 卷积自编码器 Matlab 深度学习
1
torch实现自编码器-Pytorch卷积自动编码器
2022-06-08 09:44:43 29KB pytorch python 人工智能 深度学习
1
python读取csv 文件,提供了神经网络的程序,以及自编码器
一、概述 AutoEncoder大致是一个将数据的高维特征进行压缩降维编码,再经过相反的解码过程的一种学习方法。学习过程中通过解码得到的最终结果与原数据进行比较,通过修正权重偏置参数降低损失函数,不断提高对原数据的复原能力。学习完成后,前半段的编码过程得到结果即可代表原数据的低维“特征值”。通过学习得到的自编码器模型可以实现将高维数据压缩至所期望的维度,原理与PCA相似。 二、模型实现 1. AutoEncoder 首先在MNIST数据集上,实现特征压缩和特征解压并可视化比较解压后的数据与原数据的对照。 先看代码: import tensorflow as tf import numpy
2022-05-05 22:10:44 176KB autoencoder c input
1
在 github 上看到的一个非常好的 autoencoder 讲解
2022-04-18 12:05:47 1.78MB github
1
这是实现UFLDL第二单元“矢量化编程”中用MNIST数据集训练稀疏自编码器主程序,调用了上传的其它几个函数。我的机器上运行10000个样本集的训练大约需要45分钟
2022-03-24 09:57:56 1KB UFLDL 稀疏自编码器 训练
1
堆叠去噪自编码器matlab代码微型计算机 (线性)边际化堆叠降噪自动编码器(mSDA)以及密集词组(dCoT)的Python实现,这是基于mSDA的降维算法。 基于Minmin Chen的Matlab代码。 有关原始论文和代码,请参见。 该代码尚未经过广泛的测试,因此实际上请不要依靠它来产生正确的表示形式。 继续关注此存储库以保持最新。 减少文字尺寸的用法示例: from linear_msda import mSDA # load your corpus, should be bag of words format (as in e.g. gensim) preprocessed_bow_documents = MmCorpus ( "test_corpus.mm" ) # load your dictionary id2word = Dictionary ( "..." ) dimensions = 1000 # select prototype word IDs, e.g. by finding the most frequent terms prototype_ids = [
2022-01-29 10:47:11 16KB 系统开源
1
从单文档中生成简短精炼的摘要文本可有效缓解信息爆炸给人们带来的阅读压力。近年来,序列到序列(sequence-to-sequence,Seq2Seq)模型在各文本生成任务中广泛应用,其中结合注意力机制的Seq2Seq模型已成为生成式文本摘要的基本框架。为生成能体现摘要的特定写作风格特征的摘要,在基于注意力和覆盖率机制的Seq2Seq模型基础上,在解码阶段利用变分自编码器(variational auto-encoder,VAE)刻画摘要风格特征并用于指导摘要文本生成;最后,利用指针生成网络来缓解模型中可能出现的未登录词问题。基于新浪微博LCSTS数据集的实验结果表明,该方法能有效刻画摘要风格特征、缓解未登录词及重复生成问题,使得生成的摘要准确性高于基准模型。
2021-12-12 10:35:17 1.16MB 文本摘要 变分自编码器 Seq2Seq模型
1
堆叠降噪自编码器,python实现
2021-11-14 18:07:24 8KB 堆叠降噪自编码器python代码
1