量子自动编码器:经典量子(变分)自动编码器的实现
2022-03-22 18:40:30 942KB quantum-computing autoencoders JupyterNotebook
1
Deep_auto_encoders 深度自动编码器的 Python 实现
2022-03-11 17:00:10 55KB Python
1
从高光谱数据中学习 此处提供的代码基于我编写的用于完成练习的代码,可在此处找到。 一旦实现并测试了解决方案,我便扩展了自动编码器和softmax分类器,以处理高光谱数据。 但是,当前的解决方案并不优于现有技术。 上图显示了基本事实 上图显示了分类结果。 上图显示了隐藏层的可视化 上面的这些图显示了两个光谱带。
2022-03-10 10:35:32 39.18MB MATLAB
1
此预测性维护示例根据来自工业机器的正常操作数据训练深度学习自动编码器。 该示例演练: -使用Diagnostic Feature Designer应用程序从工业振动时间序列数据中提取相关特征- 设置和训练基于 LSTM 的自动编码器来检测异常行为- 评估结果 设置: 该演示是作为 MATLAB:registered: 项目实现的,需要您打开该项目才能运行它。 该项目将管理您需要的所有路径和快捷方式。 跑步: - 打开 MATLAB 项目 AnomalyDetection.prj - 运行第 1 部分 - 数据准备和特征提取- 运行第 2 部分 - 建模
2022-03-06 11:08:52 64.18MB matlab
1
集群编码器 尝试在论文《法》中提出的GraphEncodersF.Tian,B.Gao,Q.Cui,E.Chen和T.-Y. Liu,“学习图聚类的深度表示法”,在AAAI中,2014年,第1293-1299页。 使用
2022-02-27 18:21:49 53KB JupyterNotebook
1
颜色分类leetcode 时间序列聚类 时间序列聚类是一项无监督学习任务,旨在将未标记的时间序列对象划分为同质的组/集群。 与其他集群中的时间序列相比,同一集群中的时间序列彼此更相似 该算法能够: 识别跨序列的联合动态 消除序列间的滞后(时移)(通常称为滞后不变性) 生成可解释的特征。 一般来说,时间序列聚类算法有两种类型: 基于特征- 使用特征提取转换原始数据,在生成的特征之上运行聚类 基于原始数据- 直接应用于时间序列向量,无需任何空间变换 变分循环自动编码器 (VRAE) VRAE 是一种基于特征的时间序列聚类算法,因为基于原始数据的方法受到维数灾难的影响,并且对嘈杂的输入数据很敏感。 中间的瓶颈层将作为整个输入时间序列的特征表示。 建筑学 网络 从这里开始,RNN 指的是循环神经网络架构,即 LSTM/GRU 块。 我们的模型主要由四个块组成 编码器:输入向量序列被馈送到 RNN,最后一个隐藏层h_end从 RNN 中提取并传递到下一层 编码器到潜在层: h_end通过使用线性层映射到均值和标准差 给定均值和标准差。 偏差,在训练期间执行重新参数化。 这实质上意味着从由其均值和
2022-02-23 15:46:38 4.5MB 系统开源
1
骇客深度学习:使用TensorFlow 2和Keras和Python的机器学习教程(包括Jupyter笔记本)-(LSTM,超电流表调整,数据预处理,偏差方差折衷,异常检测,自动编码器,时间序列预测,对象检测,情感分析,使用BERT进行意图识别)
1
堆叠去噪自编码器matlab代码微型计算机 (线性)边际化堆叠降噪自动编码器(mSDA)以及密集词组(dCoT)的Python实现,这是基于mSDA的降维算法。 基于Minmin Chen的Matlab代码。 有关原始论文和代码,请参见。 该代码尚未经过广泛的测试,因此实际上请不要依靠它来产生正确的表示形式。 继续关注此存储库以保持最新。 减少文字尺寸的用法示例: from linear_msda import mSDA # load your corpus, should be bag of words format (as in e.g. gensim) preprocessed_bow_documents = MmCorpus ( "test_corpus.mm" ) # load your dictionary id2word = Dictionary ( "..." ) dimensions = 1000 # select prototype word IDs, e.g. by finding the most frequent terms prototype_ids = [
2022-01-29 10:47:11 16KB 系统开源
1
TF_Convolutional_Autoencoder 用于在TensorFlow中以高压缩率对RGB图像进行编码/解码的卷积自动编码器 这是从Arash Saber Tehrani的Deep-Convolutional-AutoEncoder教程教程改编而成的示例模板,用于对3通道图像进行编码/解码。 该模板已被完全注释。 我已经在来自香港中文大学的CelebA数据集的重新缩放后的样本上测试了此实现,以在短时间的训练中产生相当不错的结果。 此实现的压缩比为108。即,对于形状为[-1、48、48、3]的输入张量,瓶颈层已减小为形状为[-1、64]的张量。 附加功能: 将3通道图像而不是MNIST用作输入 培训现在执行检查点保存和还原 可以在TensorBoard中查看编码器的输入和解码器的输出 输入自动重定标 用ReakyReLU代替ReLU激活来解决垂死的ReLU 注意事项:
2022-01-12 19:17:54 524KB tensorflow autoencoder rgb-image face-recognition
1
GTEx数据集(V8)的条件变量自动编码器 该项目旨在使用生成模型生成合成基因表达数据。 我们首先研究数据的3D表示形式以及可能要依据的变量,以便有效地分离分布。 当前模型以组织为条件。 组织着色的GTEx数据集(1000个随机基因)的3D表示形式(UMAP,TSNE,PCA): CVAE当前的重建质量,取决于组织。 基于: 对VAE方差损失论文: , , 项目进度: 基准模型创建 评估潜在空间中的均值,绝对差和分组的函数 模型调整 潜在空间大小 批次大小,学习率(应尽早确定时期数) 附加致密层的数量,每个附加层中神经元的数量 有条件的VAE模型(条件之一:组织或年龄) b-VAE模型(损失函数中的MSE / KL散度权重) 相关的VAE( ) torch_model.py神经网络的层和属性 gtex_loder.py加载基因表达数据集 torch_train
2022-01-10 10:05:56 1.65MB gene-expression pytorch gtex vae-implementation
1