非常清晰非常清晰!!!Michael Nielsen 大神的 《Neural Networks and Deep Learning》 网络教程一直是很多如我一样的小白入门深度学习的很好的一本初级教程。不过其原版为英文,对于初期来说我们应该以了解原理和基本用法为主,所以中文版其实更适合初学者。幸好国内有不少同好辛苦翻译了一个不错的中文版本,并且使用 LaTex 进行排版以方便阅读。
2022-04-08 20:39:24 2.85MB 人工智能 机器学习 深度学习 神经网络
1
Neural Network and Deep Learning-中文版
2022-04-06 13:03:52 5.03MB 深度学习 机器学习 人工智能 神经网络
深度卷积神经网络用于多波段卫星图像的语义分割 准备 从下载3频段和16频段并提取到数据文件夹 通过执行以下命令来安装需求: $ pip install -r requirements.txt 此外,您需要安装tensorflow或tensorflow-gpu 训练 $ python train.py 争论 描述 选项 --algorithm 训练算法 unet , fcn_densenet , tiramisu , pspnet --size 补丁大小 整型 --epochs 训练的纪元 整型 --batch 每批样品 整型 --channels 影像频道 3 , 8 , 16 --loss 损失函数 crossentropy , jaccard , dice , cejaccard , cedice --verbose 打印更多信息 布尔 --noaugment
2022-04-06 12:19:16 41.03MB tiramisu neural-network master-thesis tensorflow
1
Artificial Neural Networks人工神经网络.ppt
2022-04-06 01:44:07 1.42MB 计算机 .net
论文《Neural Collaborative Filtering》原文,其中有NAIS模型实验中使用的两个数据集详细描述
2022-04-05 13:25:02 1.42MB 机器学习 神经网络 CF方法
1
matlab界面选择代码深层神经网络转移学习EEG-MEG- 该代码具有两个基于SGD和adam的CNN模型(模型1和2)。 还包括维格纳维尔(Wigner-ville)分发代码 功能:RAW EEG,短时傅立叶变换,Wigner-ville分布 深度学习参数适应:贝叶斯优化 平台:Matlab,Python 该代码用于复制题为“单一模型深度学习方法可以增强基于EEG的脑机接口的分类精度吗?”的论文。 如果您使用的是部分代码,请引用这些论文: 罗伊·苏吉特(Roy,Sujit)等。 “通道选择改善了基于MEG的脑机接口。” 2019年第9届国际IEEE / EMBS神经工程会议(NER)。 IEEE,2019年。 Roy,S.,McCreadie,K.和Prasad,G.,2019年10月。 单一模型深度学习方法能否提高基于EEG的脑机接口的分类精度? 在2019年IEEE系统,人与控制论国际会议(SMC)(pp.1317-1321)中。 IEEE。 正在开发中
2022-04-04 10:47:47 18KB 系统开源
1
TFCudnnLSTM TensorFlow的高效CudnnLSTM模块的简单模板 依存关系 TensorFlow v1.8 + CUDA v9.0 + cuDNN v7.0 + scikit学习 tqdm 计算性能 TensorFlow的性能指南包括 ,其中指出: 在NVIDIA GPU上,始终应首选使用tf.contrib.cudnn_rnn除非您需要不支持的图层归一化。 根据,与TensorFlow的其他LSTM实现相比, CudnnLSTM实现了显着的加速(比LSTMBlockFused快约2倍,比BasicLSTM快约5倍)。 语言建模实验 我们还采用并尝试运行在那里实现的三个LSTM版本: BasicLSTMCell , LSTMBlockCell和CudnnLSTM 。 我们发现由于API的更改, CudnnLSTM示例无法在TF v1.8中运行,但是在解决了一些
1
matlab代码abs 卷积神经织物 介绍 在我们的工作中,我们提出了一种嵌入数量呈指数级的 CNN 架构的“结构”。 结构避免了指定、训练和测试单个网络的繁琐过程,以便找到好的架构。 该结构绕过了 CNN 架构的 10 个超参数中的 8 个,并且只有 2 个超参数。 我们的 arXiv 技术报告中提供了该系统的详细描述:[出现在 NIPS16]。 收集的资源可在我们的 . 引文 如果您在出版物中使用此代码,请引用我们的论文。 @InProceedings{saxena2016convolutional, title={Convolutional Neural Fabrics}, author={Saxena, Shreyas and Verbeek, Jakob}, BookTitle={NIPS}, year={2016} } 系统要求 该软件在 Fedora 21 版(64 位)上进行了测试。 MATLAB(在 64 位 Linux 上用 2013b 测试) caffe () 的先决条件。 入门 代码:我们基于 caffe 的实现是 - 的修改版本。 其他平台需要重新编译caff
2022-03-31 20:31:02 6.38MB 系统开源
1
神经控制微分方程用于不规则时间序列[ , ] 基于对受控微分方程的深入理解的数学理论,我们演示了如何构建以下模型: 直接作用于不规则采样的部分观测的多元时间序列。 可能会进行记忆有效的伴随反向传播训练-即使是跨观测也是如此。 展示最先进的性能。 使用现有工具(尤其是PyTorch和库)可以轻松实现和评估它们。 图书馆 参见 。 例子 我们鼓励您看一下 ,它演示了如何使用该库来训练Neural CDE模型来预测螺旋的手征性。 有关如何处理可变长度输入,不规则采样或丢失数据的演示,另请参见 ,所有这些都可以在不更改模型的情况下轻松处理。 一个自包含的简短示例: import torch import torchcde # Create some data batch , length , input_channels = 1 , 10 , 2 hidden_channels = 3 t
1
NIMA:神经影像评估 实现 Keras + Tensorflow中的,并在AVA数据集上训练MobileNet模型的权重。 NIMA为图像分配了“均值+标准偏差”得分,可以用作自动检查图像质量的工具,也可以用作损失函数来进一步改善生成的图像的质量。 包含在AVA数据集上针对以下模型训练的权重: NASNet Mobile(由于 !而在valset上的EMD为0.067 EMD,仅需预训练即可0.0848 EMD) Inception ResNet v2(在valset上约为0.07 EMD,感谢 !) MobileNet(valset上为0.0804 EMD) 用法 评价 有eva
2022-03-29 14:25:05 14.01MB tensorflow keras ava-dataset neural-image-assessment
1