递归神经网络模型用于纠错 该存储库提供了在描述的各种模型的源代码。 该项目旨在实现和评估神经网络模型,特别是递归神经网络(RNN),双向递归神经网络(BRNN),序列到序列(seq-to-seq)模型以及最终基于注意力的机制。序列到序列模型。 下图说明了预测给定不正确短语的正确形式的编码器-解码器模型。 DyNet库 在当前项目的实施中,我们一直在使用DyNet。 动态神经网络工具包或DyNet是一个神经网络库,适用于具有动态结构的网络。 DyNet支持在神经网络计算中使用的静态和动态声明策略。 在动态声明中,每个网络都是通过使用有向和无环计算图构建的,该图由定义模型的表达式和参数组成。 DyNet在CPU或GPU上有效工作,最近为许多NLP研究论文和项目提供了支持。 您可以找到有关DyNet的更多信息。 资料集 我们的方法与语言无关。 专门针对我们的项目,我们使用对模型进行了训练和评估,
1
免责声明 没有积极维护该存储库。 这是一篇硕士论文的结果,如果有人想复制论文的结果,可以将该代码作为参考。 鸟类种类分类 这些是在Chalmers University of Technology进行的硕士学位论文的项目文件。 该项目的目的是通过使用深度残差神经网络,多宽度频率增量数据增强和元数据融合来构建和训练鸟类分类器,从而改进最先进的鸟类分类器。带有相应物种标签的鸟类歌曲数据。 如果该资料库对您的研究有用,请引用硕士论文。 设置 $ git clone https://github.com/johnmartinsson/bird-species-classification $ virtualenv -p /usr/bin/python3.6 venv $ source venv/bin/activate (venv)$ pip install -r requirements.txt
1
深度学习模型转换器:针对不同深度学习框架软件的深度学习模型的转换器转换
2021-11-29 17:49:45 8KB caffe deep-learning neural-network mxnet
1
High computational complexity hinders the widespread usage of Convolutional Neural Networks (CNNs), especially in mobile devices. Hardware accelerators are arguably the most promising approach for reducing both execution time and power consumption. One of the most important steps in accelerator development is hardware-oriented model approximation. In this paper we present Ristretto, a model approximation framework that analyzes a given CNN with respect to numerical resolution used in representing weights and outputs of convolutional and fully connected layers. Ristretto can condense models by using fixed point arithmetic and representation instead of floating point. Moreover, Ristretto fine-tunes the resulting fixed point network. Given a maximum error tolerance of 1%, Ristretto can successfully condense CaffeNet and SqueezeNet to 8-bit. The code for Ristretto is available. Comments: 8 pages, 4 figures, Accepted as a workshop contribution at ICLR 2016. Updated comparison to other works Subjects: Computer Vision and Pattern Recognition (cs.CV)
1
从头开始实现一些经典的机器学习模型,并针对流行的ML库进行基准测试 从零开始机器学习! 更新:代码实现已移至 python 模块。 Notebook 只会显示结果和模型比较 为了刷新我的知识,我将尝试仅使用 python 和有限的 numpy/pandas 函数从头开始实现一些基本的机器学习算法。 我的模型实现将与来自流行的 ML 库 (sklearn) 的现有模型进行比较 权重衰减的线性回归 (L2 正则化) 权重衰减的逻辑回归 具有置换特征重要性的随机森林 随机森林回归器 随机森林分类器 K 最近邻:监督和无监督神经用于分类的网络随机梯度下降多个隐藏层为每个隐藏层定制的各种激活函数 + 梯度(Sigmoid、Softmax、ReLU ...) L2 正则化 Dropout 动态学习率优化器(动量、RMSProp 和 Adam) TODO:batchnorm 以下笔记本使用 Pytorch 库,因此它们不是从头开始实现的。 但是,我尽量不使用任何高级 Pytorch 函数 Pytorch 神经网络:自定义数据加载器 1 通道图像上的数据增强:torchvision vs fa
2021-11-29 10:38:10 32.74MB 机器学习
1
通过超高分辨率实现无损图像压缩 ,, 。 引文 @article { cao2020lossless , title = { Lossless Image Compression through Super-Resolution } , author = { Cao, Sheng and Wu, Chao-Yuan and and Kr{\"a}henb{\"u}hl, Philipp } , year = { 2020 } , journal = { arXiv preprint arXiv:2004.02872 } , } 如果您使用我们的代码库,也请考虑 概述 这是SreC在的正式实现。 SReC将无损压缩称为超分辨率问题,并将神经网络应用于图像压缩。 SReC可以在实际运行时对大型数据集实现最新的压缩率。训练,压缩和解压缩得到完全支持,并且是开源的。 入门 我们建
2021-11-28 22:36:30 41.67MB compression neural-network pytorch lossless
1
斯坦福机器学习编程作业machine-learning-ex4,神经网络模型,Neural Networks Learning题目,满分,2015最新作业答案 MATLAB 满分
2021-11-27 16:56:08 7.61MB Neural Networks Learning
1
时空分割 该存储库包含的随附代码 。 变更记录 2020-05-19自提交以来,最新的Minkowski引擎不需要明确的缓存清除,并且可以更有效地使用内存。 2020-05-04:正如Thomas Chaton在上指出的那样,我还发现训练脚本包含一些错误,这些错误使模型无法达到使用最新MinkowskiEngine的Model Zoo中描述的目标性能。 我正在调试错误,但是发现错误有些困难。 因此,我从另一个私有创建了另一个git repo ,该达到了目标性能。 请参阅以获得ScanNet培训。 一旦发现错误,我将更新此存储库,并将SpatioTemporalSegmentation-ScanNet与该存储库合并。 抱歉,添麻烦了。 要求 Ubuntu 14.04或更高版本 CUDA 10.1或更高版本 pytorch 1.3或更高版本 python 3.6或更高版本 GCC 6或更高 安装 您需要通过pip或anaconda安装pytorch和 。 点子 MinkowskiEngine通过分发,可以通过pip进行简单安装。 首先,按照安装pytorch。 接下来,安装openbl
1
[PYTORCH]用于文档分类的分层注意网络 介绍 下面是我的文件分层关注网络的文档分类描述的模型的pytorch实现。 Dbpedia数据集模型输出结果的应用程序演示示例。 我的模型对Dbpedia数据集的性能示例。 如何使用我的代码 使用我的代码,您可以: 使用任何数据集训练模型 给定我训练有素的模型或您的模型,您可以评估具有相同类集的任何测试数据集 运行一个简单的Web应用进行测试 要求: python 3.6 火炬0.4 张量板 tensorboardX (如果不使用SummaryWriter,则可以跳过此库) 麻木 数据集: 我用于实验的数据集的统计信息。 这些数
2021-11-26 21:50:56 49.66MB python nlp deep-neural-networks deep-learning
1
暹罗深度神经网络的语义相似性。 该存储库包含Tensorflow中的暹罗神经网络的实现,该实现基于3种不同的主要深度学习架构构建: 卷积神经网络 递归神经网络 多头注意力网络 创建该存储库的主要原因是将GitHub上主要基于CNN和RNN架构构建的Siamese神经网络的知名实现方案与基于Transformer模型最初由提出的基于多头注意力机制构建的Siamese神经网络进行比较,这论文。 。 支持的数据集 当前版本的管道支持使用3个数据集: :NEW_button: 对抗自然语言推论(ANLI)基准: , 安装 资料准备 为了下载数据,请执行以下命令(此过程可能需要一段时间,具体取决于您的网络吞吐量):
1