Denoise Convolutional neural network(DnCNN)代码的tensorflow实现,内含完整代码,可以直接使用
2022-03-22 13:03:15 16.11MB DnCNN TF
1
递归神经网络预测Google股票价格 我试图使用LSTM预测Google股票价格 长短期记忆(LSTM)单元(或块)是递归神经网络(RNN)层的构建单元。 由LSTM单元组成的RNN通常称为LSTM网络。 常见的LSTM单元由单元,输入门,输出门和忘记门组成。 该单元负责在任意时间间隔内“记住”值。 因此,LSTM中的“内存”一词。 就像多层(或前馈)神经网络中一样,这三个门中的每一个都可以被认为是“常规”人工神经元:也就是说,它们计算加权和的激活(使用激活函数)。 从直觉上讲,它们可以看作是通过LSTM连接的值流的调节器。 因此表示“门”。 这些门与单元之间存在连接。 更好的预测模型的结果是:
2022-03-19 15:06:49 690KB google prediction recurrent-neural-networks lstm
1
深度神经网络计算库(clDNN) 停产的仓库 现在,该项目是Intel:registered:OpenVino:trade_mark:Toolkit分发的组成部分。 它的内容和开发已移至 。 要获取最新的clDNN来源,请参考DLDT回购。 深度神经网络计算库( clDNN )是用于深度学习(DL)应用程序的开源性能库,旨在加速英特尔:registered:处理器图形(包括HD图形和Iris:registered:图形)上的DL推理。 clDNN包括高度优化的构建块,用于使用C和C ++接口实现卷积神经网络(CNN)。 我们创建了这个项目,以使DL社区能够在Intel:registered:处理器上进行创新。 支持的用法:图像识别,图像检测和图像分割。 经验证的拓扑: AlexNet *,VG
1
Matlab kpca程序 动态神经正交映射用于故障检测 可以直接运行文件“ Comparison_DPCA_DKPCA_DNOM.m”以获取图1中的DPCA,DKPCA和DNOM的结果。 文件“ Comparison_DPCA_DKPCA_DNOM.m”,“ KPCA.m”和“ constructKernel.m”应位于同一目录中。 我们使用的Matlab版本是R2017b。 我们没有在其他版本的Matlab上测试代码。 为了GPU加速和快速计算,使用PyTorch软件包开发了python代码。 请在运行python代码之前安装所需的python库 文件“ dnom.py”设计用于对TE数据执行DNOM 在运行代码“ dnom.py”之前,请安装以下python库 python == 3.52 numpy == 1.13.3 PyTorch == 0.20 scikit-learn == 0.19.0 有关使用PyTorch进行GPU加速的信息,请参阅 跑步 在Linux上: python3 dnom.py
2022-03-17 14:43:08 4.38MB 系统开源
1
提出了一种基于RBF网络和启发式Q学习的改进,更强大的RNH-QL方法,用于在较大状态空间中进行路径搜索。 首先,如果增加了给定问题的状态空间并且缺少关于环境的先验信息,则解决了强化学习效率低下的问题。 其次,作为权重更新规则的RBF网络,奖励整形可以在某些中间状态下向代理提供额外的反馈,这将有助于以更可控的方式将代理引导至目标状态。 同时,通过Q学习的过程,底层动态知识可以访问它,而不需要上层RBF网络的背景知识。 第三,结合贪婪开发策略训练神经网络,提高了学习效率,实验结果证明了这一点。
1
多任务物理信息神经网络 研究代码库。
2022-03-14 18:48:01 151KB JupyterNotebook
1
fastMRI可再现基准 该存储库的想法是要有一种方法可以在fastMRI数据集单线圈磁道上针对现有的重建算法快速对新解决方案进行基准测试。 迄今为止,已实现或适用于fastMRI数据集的重建算法包括: 零填充重建 ,使用 使用的基于小波的重构(即用贪婪的FISTA解决基于L1的分析公式优化问题) 网络 ,适用于MRI重建 ,一种模块化的展开重建算法,您可以在其中插入最佳的降噪器。 ,一种用于非笛卡尔采集的展开式重建算法,具有密度补偿。 所有神经网络都通过Keras API在TensorFlow中实现。 较旧的(不要认为这是我论文的开始)是使用功能性API进行编码的。 最新的版本在子类API中进行了编码,并且更加模块化。 对于LORAKS重建,由于A / D过采样,您将无法重建正确的fastMRI数据。 重建设置 主要的重建设置是具有随机和“定期采样”的笛卡尔单线圈和多线
1
Hinton - Toronto University - Neural Network for Machine Learning Lecture Notes 课件 有 ppt & pdf 两个版本
2022-03-13 11:30:09 31.7MB machine learning
1
与经典的卷积神经网络(CNN)相比,提出的胶囊网络欣顿可以使用更少的网络层来很好地完成分类任务,并以更快的速度达到收敛。 胶囊网络的原理是基于CNN,只是将神经元形式从标量转换为向量,即一个胶囊,然后通过动态路由方法选择适合最终输出的胶囊1 。在胶囊网络的基础上,使用反卷积来还原图像并优化原始图像和还原图像之间的误差。 通过数据增强处理的名为Cohn- Kanade Database Plus(CK +)的经典面部情绪数据库用于进行实验。 最近,分类结果与NAO机器人结合在一起。 NAO机器人可以通过改变眼睛的颜色并说出结果来形象化情感,从而达到将理论与实践相结合的目的。
2022-03-12 14:47:31 235KB Capsule Convolution Neural Network
1
深度共鸣论文 最近的论文包括神经符号推理,逻辑推理,视觉推理,自然语言推理以及其他与深度学习和推理相关的主题。 0调查或谈话 [1] Yoshua Bengio,从系统1深度学习到系统2深度学习 [2] Yann Lecun,自我监督学习 [3]用于算法推理的PetarVeličković图表示学习 1数学问题 [1] Saxton,David等。 分析神经模型的数学推理能力。 arXiv预印本arXiv:1904.01557(2019)。 [2] Ortega,Pedro A.等人。 顺序策略的元学习。 arXiv预印本arXiv:1905.03030(2019)。 [3] Lample,Guillaume和FrançoisCharton。 象征性数学的深度学习。 arXiv预印本arXiv:1912.01412(2019)。 [4]卓,陶和莫汉·坎坎哈利(Mohan K
1