python读取csv 文件,提供了神经网络的程序,以及自编码器
一、概述 AutoEncoder大致是一个将数据的高维特征进行压缩降维编码,再经过相反的解码过程的一种学习方法。学习过程中通过解码得到的最终结果与原数据进行比较,通过修正权重偏置参数降低损失函数,不断提高对原数据的复原能力。学习完成后,前半段的编码过程得到结果即可代表原数据的低维“特征值”。通过学习得到的自编码器模型可以实现将高维数据压缩至所期望的维度,原理与PCA相似。 二、模型实现 1. AutoEncoder 首先在MNIST数据集上,实现特征压缩和特征解压并可视化比较解压后的数据与原数据的对照。 先看代码: import tensorflow as tf import numpy
2022-05-05 22:10:44 176KB autoencoder c input
1
在 github 上看到的一个非常好的 autoencoder 讲解
2022-04-18 12:05:47 1.78MB github
1
这是实现UFLDL第二单元“矢量化编程”中用MNIST数据集训练稀疏自编码器主程序,调用了上传的其它几个函数。我的机器上运行10000个样本集的训练大约需要45分钟
2022-03-24 09:57:56 1KB UFLDL 稀疏自编码器 训练
1
堆叠去噪自编码器matlab代码微型计算机 (线性)边际化堆叠降噪自动编码器(mSDA)以及密集词组(dCoT)的Python实现,这是基于mSDA的降维算法。 基于Minmin Chen的Matlab代码。 有关原始论文和代码,请参见。 该代码尚未经过广泛的测试,因此实际上请不要依靠它来产生正确的表示形式。 继续关注此存储库以保持最新。 减少文字尺寸的用法示例: from linear_msda import mSDA # load your corpus, should be bag of words format (as in e.g. gensim) preprocessed_bow_documents = MmCorpus ( "test_corpus.mm" ) # load your dictionary id2word = Dictionary ( "..." ) dimensions = 1000 # select prototype word IDs, e.g. by finding the most frequent terms prototype_ids = [
2022-01-29 10:47:11 16KB 系统开源
1
从单文档中生成简短精炼的摘要文本可有效缓解信息爆炸给人们带来的阅读压力。近年来,序列到序列(sequence-to-sequence,Seq2Seq)模型在各文本生成任务中广泛应用,其中结合注意力机制的Seq2Seq模型已成为生成式文本摘要的基本框架。为生成能体现摘要的特定写作风格特征的摘要,在基于注意力和覆盖率机制的Seq2Seq模型基础上,在解码阶段利用变分自编码器(variational auto-encoder,VAE)刻画摘要风格特征并用于指导摘要文本生成;最后,利用指针生成网络来缓解模型中可能出现的未登录词问题。基于新浪微博LCSTS数据集的实验结果表明,该方法能有效刻画摘要风格特征、缓解未登录词及重复生成问题,使得生成的摘要准确性高于基准模型。
2021-12-12 10:35:17 1.16MB 文本摘要 变分自编码器 Seq2Seq模型
1
堆叠降噪自编码器,python实现
2021-11-14 18:07:24 8KB 堆叠降噪自编码器python代码
1
该压缩包包含Omniglot数据集以及完整的代码(保证可以运行)、文档说明、训练集。使用Tensor Flow框架深度学习实现,最终效果基本接近于100%,效果较好,大家可以自己进行下载研究,良心作品,期末作业进行实现的,现在供大家参考。
1
自编码器作为典型的深度无监督学习模型,能够从无标签样本中自动学习样本的有效抽象特征。近年来,自编码器受到广泛关注,已应用于目标识别、入侵检测、故障诊断等众多领域中。基于此,对自编码器的理论基础、改进技术、应用领域与研究方向进行了较全面的阐述与总结。首先,介绍了传统自编码器的网络结构与理论推导,分析了自编码器的算法流程,并与其他无监督学习算法进行了比较。然后,讨论了常用的自编码器改进算法,分析了其出发点、改进方式与优缺点。接着,介绍了自编码器在目标识别、入侵检测等具体领域的实际应用现状。最后,总结了现有自编码器及其改进算法存在的问题,并展望了自编码器的研究方向。
2021-10-18 22:10:50 791KB 自编码器
1