张量流-cnn-finetune 这个仓库是关于使用TensorFlow对一些著名的卷积神经网络进行微调的。 ConvNets: 要求: Python 2.7或3.x Tensorflow 1.x(已通过1.15.1测试) OpenCV2(用于数据扩充) 数据集文件 您需要设置两个数据集文件以进行训练和验证。 格式必须如下所示: /absolute/path/to/image1.jpg class_index /absolute/path/to/image2.jpg class_index ... class_index必须从0开始。 可以在和找到样本数据集文件。 不要忘了通过--num_classes运行时,标志finetune.py脚本。 亚历克斯网 进入alexnet文件夹 cd alexnet 微调 如果您以前没有下载过砝码,请下载。 ./download_we
1
TF-VAE-GAN-DRAW ,和TensorFlow实现。 跑 VAE / GAN: python main.py --working_directory /tmp/gan --model vae 画: python main-draw.py --working_directory /tmp/gan 深度卷积生成对抗网络在使用默认参数的10个星期后产生了不错的结果。 ###去做: 更复杂的数据。 添加 用空间变压器层替换当前的注意力机制
2021-09-10 11:10:56 13KB tensorflow draw recurrent-neural-networks gan
1
论文阅读ICCV_2019_paper How Do Neural Networks See Depth in Single Images相关ppt
2021-09-10 09:10:39 924KB 神经网络 深度学习
1
介绍 一维(1D)信号/时间序列数据上的多个SOTA骨干深度神经网络(例如ResNet [1],ResNeXt [2],RegNet [3])的PyTorch实现。 如果您在工作中使用此代码,请引用我们的论文 @inproceedings{hong2020holmes, title={HOLMES: Health OnLine Model Ensemble Serving for Deep Learning Models in Intensive Care Units}, author={Hong, Shenda and Xu, Yanbo and Khare, Alind and Priambada, Satria and Maher, Kevin and Aljiffry, Alaa and Sun, Jimeng and Tumanov, Alexey}, bookt
1
PredRNN:时空预测学习的递归神经网络 时空序列的预测性学习旨在通过从历史情境中学习来生成未来的图像,其中视觉动态被认为具有可通过成分子系统学习的模块化结构。 NeurIPS 2017的第一个版本 此存储库首先包含PredRNN (2017)的PyTorch实现[ ],这是一个循环网络,具有一对以几乎独立的过渡方式运行的存储单元,最后形成了复杂环境的统一表示。 具体而言,除了LSTM的原始存储单元外,该网络还具有锯齿形存储流,该存储流以自下而上和自上而下的方式在所有层中传播,从而使学习到的RNN级别的视觉动态能够进行通信。 PredRNN-V2(2021)的新功能 此回购还包括PredRNN-V2 (2021)的实现[],它在以下两个方面改进了PredRNN。 1.内存解耦 我们发现PredRNN中的一对存储单元包含不良的冗余功能,因此会出现存储解耦损失,从而鼓励他们学习视觉动力学的
1
快速核磁共振 | | 通过获取更少的测量值来加快磁共振成像(MRI)的潜力,可以降低医疗成本,将对患者的压力降到最低,并使MR成像在目前速度缓慢或昂贵的应用中成为可能。 是Facebook AI Research(FAIR)和NYU Langone Health的一项合作研究项目,旨在研究使用AI来加快MRI扫描的速度。 纽约大学朗格健康中心已经发布了完全匿名的膝盖和大脑MRI数据集,可以从下载。 可以找到与fastMRI项目相关的出版物。 该存储库包含方便的PyTorch数据加载器,子采样功能,评估指标以及简单基准方法的参考实现。 它还包含fastMRI项目的某些出版物中方法的实现
1
通过深度学习进行语音分离和提取 此仓库总结了用于语音分离和说话人提取任务的教程,数据集,论文,代码和工具。诚挚地邀请您提出要求。 目录 讲解 [语音分离,李鸿-,2020年] [端到端神经源分离的进展,伊洛,2020] [音频源分离和语音增强,伊曼纽尔·文森特,2018年] [音频源分离,牧野昌司,2018年] [概述论文] 【概述幻灯片] [手册] 数据集 [数据集介绍] [WSJ0] [WSJ0-2mix] [WSJ0-2mix-extr] [WHAM&WHAMR] [LibriMix] [LibriCSS] [SparseLibriMix] [VCTK-2Mix] [CHIME5和CHIME6挑战赛] [音频 [Microsoft DNS挑战] [AVSpeech] [LRW]
1
http://nlp.csai.tsinghua.edu.cn/~lzy/books/gnn_2020.html 这本书的脑图笔记,iPad 下载 MarginNote 查阅。
1
Graph Neural Networks: Methods, Applications, and Opportunities 在过去十年左右的时间里,我们见证了深度学习重振机器学习领域。它以最先进的性能解决了计算机视觉、语音识别、自然语言处理和各种其他任务领域的许多问题。数据通常在这些域中的欧几里得空间中表示。各种其他域符合非欧几里得空间,图是其中的理想表示。图适用于表示各种实体之间的依赖关系和相互关系。传统上,图形的手工特征无法从这种复杂的数据表示中为各种任务提供必要的推理。最近,出现了利用深度学习中的各种进步来绘制基于数据的任务的趋势。本文对每个学习设置中的图神经网络 (GNN) 进行了全面调查:监督学习、无监督学习、半监督学习和自监督学习。每个基于图的学习设置的分类都提供了属于给定学习设置的方法的逻辑划分。从理论和经验的角度分析每个学习任务的方法。此外,我们提供了构建 GNN 的通用架构指南。还提供了各种应用程序和基准数据集,以及仍然困扰 GNN 普遍适用性的开放挑战。
1
许多学习任务需要处理包含丰富元素之间关系信息的图形数据。物理系统建模、学习分子指纹、预测蛋白质界面和疾病分类需要一个模型来从图形输入中学习。在其他领域,例如从文本和图像等非结构数据中学习,对提取的结构(如句子的依赖树和图像的场景图)进行推理是一个重要的研究课题,也需要图推理模型。图神经网络 (GNN) 是神经模型,它通过图节点之间的消息传递来捕获图的依赖性。近年来,图卷积网络 (GCN)、图注意力网络 (GAT)、图循环网络 (GRN) 等 GNN 的变体在许多深度学习任务上都表现出了突破性的表现。在本次调查中,我们为 GNN 模型提出了一个通用的设计流程,并讨论了每个组件的变体,系统地对应用程序进行了分类,并为未来的研究提出了四个开放性问题。
1