ESRGAN:增强的超分辨率生成对抗网络 用于图像超分辨率的Pipeine任务基于经常引用的论文(Wang Xintao等人),于2018年发布。 简而言之,图像超分辨率(SR)技术可从观察到的较低分辨率(LR)图像重建高分辨率(HR)图像或序列,例如将720p图像放大为1080p。 解决此任务的常用方法之一是使用能够从LR图像中恢复HR图像的深度卷积神经网络。 而ESRGAN(增强型SRGAN)就是其中之一。 ESRGAN的要点: 基于SRResNet的架构,带有残存残存块; 上下文,感性和对抗性损失的混合体。 使用上下文损失和感知损失来进行适当的图像放大,而对抗损失则使用鉴别器网络将神经网络推向自然图像流形,该鉴别器网络经过训练以区分超分辨图像和原始照片级逼真的图像。 技术领域 作为深度学习任务的管道运行者的Catalyst 。 这个新的,发展Swift的。 可以大大减少样板代
1
ERFNET-PyTorch 一个PyTorch实施 ,对于语义分割帕斯卡VOC。 目录: 项目结构: ├── agents | └── erfnet.py # the main training agent ├── graphs | └── models | | └── erfnet.py # model definition for semantic segmentation | | └── erfnet_imagenet.py # model definition for imagenet | └── losses | | └── loss.py # contains the cross entropy ├── datasets # contains all dataloaders for the project | └── voc2012.py #
1
MiniSom 自组织图 MiniSom是自组织图(SOM)的一种基于Numpy的简约实现。 SOM是一种人工神经网络,能够将高维数据项之间的复杂,非线性统计关系转换为低维显示器上的简单几何关系。 Minisom旨在使研究人员可以轻松地在其之上进行构建,并使学生能够快速掌握其细节。 有关MiniSom的更新发布在。 安装 只需使用pip: pip install minisom 或将MiniSom下载到您选择的目录并使用安装脚本: git clone https://github.com/JustGlowing/minisom.git python setup.py install 如何使用它 为了使用MiniSom,您需要将数据组织成一个Numpy矩阵,其中每一行都对应一个观测值,或者组织成如下列表的列表: data = [[ 0.80 , 0.55 , 0.22 , 0.03 ], [ 0.82 , 0.50 , 0.23 , 0.03 ], [ 0.80 , 0.54 , 0.22 , 0.03 ], [
2021-10-15 09:45:19 5.21MB machine-learning clustering som neural-networks
1
带火炬的递归神经网络 有几种模型,例如RNN,LSTM,GRU和双向LSTM / GRU。 我的一个项目与使用LSTM,GRU等从每日天气温度预测数据获得的时间序列数据有关。 数据集下载链接 减少上传文件的容量。 这是所需数据集的下载链接:
2021-10-14 20:32:26 6.33MB JupyterNotebook
1
Neural Bellman-Ford Networks: A General Graph Neural Network Framework for Link Prediction 【NeurIPS 2021】神经Bellman-Ford网络:用于链路预测的一般图神经网络框架 链接预测是图的一项非常基础的任务。在传统路径学习方法的启发下,本文提出了一种通用的、灵活的基于路径的链接预测表示学习框架。具体来说,我们将节点对的表示定义为所有路径表示的广义和,每个路径表示都是路径中各边表示的广义乘积。受求解最短路径问题的Bellman-Ford算法的启发,我们证明了所提出的路径公式可以被广义Bellman-Ford算法有效地求解。为了进一步提高路径表示的能力,我们提出了神经BellmanFord网络(NBFNet),这是一个通用的图神经网络框架,用于解决广义Bellman-Ford算法中使用学习算子的路径表示。NBFNet将广义Bellman-Ford算法参数化,采用3个神经单元,分别对应边界条件、乘法算子和求和算子。NBFNet是非常通用的,涵盖了许多传统的基于路径的方法,并且可以应用于同构图和多关系图(例如,知识图)在转换和归纳设置。在同构图和知识图谱上的实验表明,所提出的NBFNet在转导和归纳设置方面都大大优于现有方法,取得了最新的研究结果。
2021-10-14 11:08:20 332KB 图神经网络
1
文本分割作为监督学习任务 该存储库包含代码和补充材料,这些信息和补充材料是训练和评估模型所必需的,如论文“将 Downalod所需资源 wiki-727K,wiki-50数据集: word2vec: 在configgenerator.py中填充相关路径,并执行脚本(git存储库包括Choi数据集) 创建环境: conda create -n textseg python=2.7 numpy scipy gensim ipython source activate textseg pip install http://download.pytorch.org/whl/cu80/torch
2021-10-14 10:06:22 5.05MB nlp machine-learning deep-learning neural-network
1
神经格兰杰因果关系 Neural-GC存储库包含用于在多元时间序列中发现Granger因果网络的基于深度学习的方法的代码。 介绍了此处实现的方法。 安装 要安装代码,请克隆存储库。 您只需要Python 3 , PyTorch (>= 0.4.0) , numpy和scipy 。 用法 在笔记本cmlp_lagged_var_demo.ipynb , clstm_lorenz_demo.ipynb和crnn_lorenz_demo.ipynb查看有关如何应用我们的方法的crnn_lorenz_demo.ipynb 。 这个怎么运作 在此存储库中实现的模型称为cMLP,cLSTM和cRNN,是通过分别预测每个时间序列对多元时间序列进行建模的神经网络。 在训练期间,对输入层权重矩阵的稀疏惩罚会将参数组设置为零,这可以解释为发现格兰杰非因果关系。 可以使用三种不同的惩罚训练cMLP模型:组套索
2021-10-14 08:48:18 1.3MB Python
1
neural-networks-and-deep-learning.pdf
2021-10-13 14:09:52 3.57MB 神经网络 机器学习 深度学习
基于NNAEC-神经网络的声学回声消除:基于NNAEC-神经网络的声学回声消除
1
描述 根据论文,我有Keras的开放源代码XinLi,LidongBing,WaiLam and BeiShi. A Dual-Stage Attention-Based Recurrent Neural Network for Time Series Prediction layer_definition 这部分包括编写自己的图层。 双重注意 这部分包括数据的预处理,模型的构建和模型的训练。 数据 从( )下载
2021-10-12 11:50:26 6.37MB Python
1