去噪声代码matlab Vconv-dae:无对象标签的深度体积形状学习 VCONV-DAE中用于重现实验的代码是3D体积降噪自动编码器。 该存储库提供用于训练模型并可视化最终结果以完成形状和混合的数据以及代码工具。 如果使用此代码,请引用以下文章: VConv-DAE:没有对象标签的深度体积形状学习 在2016年欧洲计算机视觉会议(ECCVW)上。 对此代码有任何疑问,请发送电子邮件至。 请注意,最近的各种工作都将Vconv-dae视为基线,因此在不同的框架中可能具有相同的实现方式。 先决条件 该存储库混合了用lua和Matlab编写的脚本。 需要安装割炬来训练模型。 出于可视化目的,需要Matlab。 请注意,此代码仅出于研究目的而编写。 请阅读以下简要说明,以充分利用脚本。 --train_vol_autoencoder.lua是用于在体积数据上训练去噪自动编码器的主文件。 -数据存储在“数据”文件夹中。 形状分类和完成定量结果 --mess_classifer以二进制格式保存所有测试集的固定长度描述符。 稍后由matlab中的eval_classification脚本读取,该脚
2022-06-23 10:54:08 128.11MB 系统开源
1
# Pytorch实现VAE变分自动编码器生成MNIST手写数字图像 1. VAE模型的Pytorch源码,训练后其解码器就是生成模型; 2. 在MNIST数据集上训练了50个epochs,训练过程的生成效果放在result文件夹下,训练后的模型保存为model.pth,可用于生成新的手写数字图像; 3. 训练代码会自动下载MNIST数据集,运行代码即可自行训练。
2022-06-11 11:06:27 5.53MB pytorch vae 变分自动编码器 手写数字
半监督文本分类的变体自动编码器 所有这些存储库都在标题为“用于半监督文本分类的可变自动编码器”的论文中使用。 列表: data:所有数据文件都保存在此目录中,包括数据,单词嵌入,pretrained_weights。 结果:保存结果模型的目录。 assistant_vae和avae_fixed:在VAE中使用辅助变量的模型,可以产生良好的结果。 它们的不同之处在于是否在生成中固定潜在变量。 SemiSample-S1是带有基于EMA基准的基于采样的优化器的模型 SemiSample-S2是带有VIMCO基线的基于采样的优化器的模型 笔记 该代码有点多余,因为最初的模型是使用辅助变量提出的,但是事实证明,如果没有辅助变量,它也可以很好地工作。 要运行此代码,您可能需要预处理的数据,可以通过给我发送电子邮件(pku.edu.cn上的wead_hsu)获得这些数据。 或者,您也可以使用
2022-06-09 15:45:56 485KB Python
1
torch实现自编码器-Pytorch卷积自动编码
2022-06-08 09:44:43 29KB pytorch python 人工智能 深度学习
1
治愈算法的matlab代码语义可解释和可控制的过滤器集 这是本文的MATLAB实现: ,,和,“语义可解释和可控制的滤波器集”,2018年第25届IEEE国际图像处理会议(ICIP),雅典,2018年,第1053-1057页。 (*:均等) [] 抽象的 在本文中,我们生成和控制语义可解释的过滤器,这些过滤器可以无监督的方式从自然图像中直接学习。 每个语义过滤器都会与其他过滤器一起学习视觉上可解释的局部结构。 学习这些可解释的过滤器集的重要性在两个对比的应用程序中得到了证明。 第一个应用是渐进式脱色下的图像识别,其中识别算法应对颜色不敏感以实现稳定的性能。 第二个应用是图像质量评估,其中客观方法应对颜色退化敏感。 在提出的工作中,通过基于语义过滤器表示的局部结构对语义过滤器进行加权来控制其敏感性和不足。 为了验证所提出的方法,我们利用CURE-TSR数据集进行图像识别,并利用TID 2013数据集进行图像质量评估。 我们表明,提出的语义过滤器集在两个数据集中均实现了最新的性能,同时保持了其在渐进式失真中的鲁棒性。 语义自动编码器 我们研究了不同的正则化技术,包括l 1 ((a),(d)
2022-05-24 11:27:03 38.93MB 系统开源
1
使用半监督递归自动编码器来学习句子的含义并预测电影评论的极性。 通过对轮虫的电影评论数据集进行随机单词初始化,可以达到72%的准确性。 该代码基于Richard Socher的工作,如论文“用于预测情绪分布的半监督递归自动编码器”中所述,以及它们的MATLAB代码。 主文件是main.py
2022-05-18 17:42:37 374KB Python
1
kmeans 分析matlab代码CS 221 最终项目代码 2015 年 12 月 8 日 我的大部分分析都是在 python 中完成的。 请按以下顺序查看代码: 自编码器.ipynb。 在这个 ipython notebook 中,我加载数据,然后使用 Keras 训练各种自动编码器。 我还测试了另一个 python 包 Theanet,但它没有给我想要的那么多控制权。 训练完自动编码器后,我会保存它并将其传输到服务器,在那里我可以执行更重的计算。 Method_pipeline.m。 此 MATLAB 文件加载编码数据和表达式矩阵。 它运行 ADMM (jz_ADMM.m),在某些点使用收缩算子 (jz_shrink.m),求解方程。 5 在纸上。 此代码为各种 lambda 输出一系列 U。 分析.ipynb。 在这个 ipython notebook 中,我使用各种函数对 Method_pipeline.m 生成的矩阵执行 kmeans 聚类和可视化 (PCA)。 请参阅代码中的注释以获取更多详细信息。
2022-05-18 09:26:55 3.33MB 系统开源
1
用卷积滤波器matlab代码Matlab卷积自动编码器 卷积自动编码器的成本函数(cautoCost2.m)和成本梯度函数(dcautoCost2.m)。 网络体系结构相当有限,但是这些功能对于将输入与一组过滤器进行卷积然后重构的无监督学习应用程序应该是有用的。 这对于发现数据的平移不变特征也很有用。 输入被输入到卷积层,该卷积层是应用于所有用户定义的数据子集的一组过滤器。 卷积层的输入输出功能是S形的。 重建层(或输出层)是线性的。 夹在卷积和重建层之间的可选附加隐藏层是S形。 可以在文件cautoCost2.m的注释中找到更多信息。 注意:此代码在一些地方使用了parfor,这是并行的for循环。 这需要并行化工具箱。 如果没有并行化工具箱,请将parfor循环替换为for循环。
2022-05-09 19:16:31 9KB 系统开源
1
通过改进的机器学习模型,破产预测研究显示出更高的准确性。 本文提出了三种相对较新的基于实际数据的破产预测方法。 结果表明,在方法(支持向量机,带缺失的神经网络,自动编码器)中,具有带缺失的添加层的神经网络的精度最高。 与以前的方法(逻辑回归,遗传算法,归纳学习)进行比较显示出更高的准确性。
2022-05-06 12:32:31 2.06MB 支持向量机 自动编码器 神经网络 破产
1
曲波-NN 9个问题及其各自的QUBO矩阵。 QUBO矩阵用于将优化问题描述为矩阵,以便量子退火器(例如D-Wave QA)可以解决该问题。 现在,这些矩阵是一个非常有趣的构造。因此,出现了一些问题: 是否可以根据QUBO矩阵对问题类别进行分类? 自动编码QUBO矩阵时,要权衡些什么呢,也就是说,在解决方案质量显着下降之前,还能走多远? 让我们找出答案。 项目结构 文件 目的 nn / 包含神经网络模型。 问题/ 包含针对特定问题(例如3SAT或TSP)的生成器和评估器。 曲/ 将包含通用QUBO库。 数据集/ 包含生成的数据集。 楷模/ 包含训练有素的模型。 config.py 配置(json)处理。 main.py 主入口点。 pipe.py 在QUBO矩阵上对NN进行端到端训练和测试。 Simulations.json 所有实验和配置。
1