MiniSom 自组织图 MiniSom是自组织图(SOM)的一种基于Numpy的简约实现。 SOM是一种人工神经网络,能够将高维数据项之间的复杂,非线性统计关系转换为低维显示器上的简单几何关系。 Minisom旨在使研究人员可以轻松地在其之上进行构建,并使学生能够快速掌握其细节。 有关MiniSom的更新发布在。 安装 只需使用pip: pip install minisom 或将MiniSom下载到您选择的目录并使用安装脚本: git clone https://github.com/JustGlowing/minisom.git python setup.py install 如何使用它 为了使用MiniSom,您需要将数据组织成一个Numpy矩阵,其中每一行都对应一个观测值,或者组织成如下列表的列表: data = [[ 0.80 , 0.55 , 0.22 , 0.03 ], [ 0.82 , 0.50 , 0.23 , 0.03 ], [ 0.80 , 0.54 , 0.22 , 0.03 ], [
2021-10-15 09:45:19 5.21MB machine-learning clustering som neural-networks
1
带火炬的递归神经网络 有几种模型,例如RNN,LSTM,GRU和双向LSTM / GRU。 我的一个项目与使用LSTM,GRU等从每日天气温度预测数据获得的时间序列数据有关。 数据集下载链接 减少上传文件的容量。 这是所需数据集的下载链接:
2021-10-14 20:32:26 6.33MB JupyterNotebook
1
Neural Bellman-Ford Networks: A General Graph Neural Network Framework for Link Prediction 【NeurIPS 2021】神经Bellman-Ford网络:用于链路预测的一般图神经网络框架 链接预测是图的一项非常基础的任务。在传统路径学习方法的启发下,本文提出了一种通用的、灵活的基于路径的链接预测表示学习框架。具体来说,我们将节点对的表示定义为所有路径表示的广义和,每个路径表示都是路径中各边表示的广义乘积。受求解最短路径问题的Bellman-Ford算法的启发,我们证明了所提出的路径公式可以被广义Bellman-Ford算法有效地求解。为了进一步提高路径表示的能力,我们提出了神经BellmanFord网络(NBFNet),这是一个通用的图神经网络框架,用于解决广义Bellman-Ford算法中使用学习算子的路径表示。NBFNet将广义Bellman-Ford算法参数化,采用3个神经单元,分别对应边界条件、乘法算子和求和算子。NBFNet是非常通用的,涵盖了许多传统的基于路径的方法,并且可以应用于同构图和多关系图(例如,知识图)在转换和归纳设置。在同构图和知识图谱上的实验表明,所提出的NBFNet在转导和归纳设置方面都大大优于现有方法,取得了最新的研究结果。
2021-10-14 11:08:20 332KB 图神经网络
1
文本分割作为监督学习任务 该存储库包含代码和补充材料,这些信息和补充材料是训练和评估模型所必需的,如论文“将 Downalod所需资源 wiki-727K,wiki-50数据集: word2vec: 在configgenerator.py中填充相关路径,并执行脚本(git存储库包括Choi数据集) 创建环境: conda create -n textseg python=2.7 numpy scipy gensim ipython source activate textseg pip install http://download.pytorch.org/whl/cu80/torch
2021-10-14 10:06:22 5.05MB nlp machine-learning deep-learning neural-network
1
神经格兰杰因果关系 Neural-GC存储库包含用于在多元时间序列中发现Granger因果网络的基于深度学习的方法的代码。 介绍了此处实现的方法。 安装 要安装代码,请克隆存储库。 您只需要Python 3 , PyTorch (>= 0.4.0) , numpy和scipy 。 用法 在笔记本cmlp_lagged_var_demo.ipynb , clstm_lorenz_demo.ipynb和crnn_lorenz_demo.ipynb查看有关如何应用我们的方法的crnn_lorenz_demo.ipynb 。 这个怎么运作 在此存储库中实现的模型称为cMLP,cLSTM和cRNN,是通过分别预测每个时间序列对多元时间序列进行建模的神经网络。 在训练期间,对输入层权重矩阵的稀疏惩罚会将参数组设置为零,这可以解释为发现格兰杰非因果关系。 可以使用三种不同的惩罚训练cMLP模型:组套索
2021-10-14 08:48:18 1.3MB Python
1
neural-networks-and-deep-learning.pdf
2021-10-13 14:09:52 3.57MB 神经网络 机器学习 深度学习
基于NNAEC-神经网络的声学回声消除:基于NNAEC-神经网络的声学回声消除
1
描述 根据论文,我有Keras的开放源代码XinLi,LidongBing,WaiLam and BeiShi. A Dual-Stage Attention-Based Recurrent Neural Network for Time Series Prediction layer_definition 这部分包括编写自己的图层。 双重注意 这部分包括数据的预处理,模型的构建和模型的训练。 数据 从( )下载
2021-10-12 11:50:26 6.37MB Python
1
A very good textbook for researchers working on the NN theory, yet if you just want to know what is NN, it perhaps is too much for you to digest!
2021-10-11 22:54:55 40.44MB Neural networks
1
PyTorch-NEAT NEAT(增强拓扑的神经进化)方法的PyTorch实现,最初是由Kenneth O. Stanley创建的,是进化神经网络的一种有原则的方法。 。 实验 PyTorch-NEAT当前包含三个内置实验:XOR,单极平衡和汽车爬山。 异或实验 使用以下命令运行: python xor_run.py将运行多达150代,初始种群为150个基因组。 当/如果找到解决方案,将显示解决方案网络以及有关试验的统计信息。 随意运行多个试用版-只需​​增加xor_run.py文件中外部for循环的范围即可。 单极平衡 使用以下命令运行: python pole_run.py将运行多达150代,初始种群为150个基因组。 在OpenAI体育馆环境中跑步。 当/如果找到解决方案,则将在OpenAI体育馆中显示解决方案网络以及评估结果。 汽车登山实验 使用以下命令运行: python m
2021-10-11 22:39:46 41KB neat neuroevolution pytorch neural-networks
1