深度卷积神经网络用于多波段卫星图像的语义分割 准备 从下载3频段和16频段并提取到数据文件夹 通过执行以下命令来安装需求: $ pip install -r requirements.txt 此外,您需要安装tensorflow或tensorflow-gpu 训练 $ python train.py 争论 描述 选项 --algorithm 训练算法 unet , fcn_densenet , tiramisu , pspnet --size 补丁大小 整型 --epochs 训练的纪元 整型 --batch 每批样品 整型 --channels 影像频道 3 , 8 , 16 --loss 损失函数 crossentropy , jaccard , dice , cejaccard , cedice --verbose 打印更多信息 布尔 --noaugment
2022-04-06 12:19:16 41.03MB tiramisu neural-network master-thesis tensorflow
1
Artificial Neural Networks人工神经网络.ppt
2022-04-06 01:44:07 1.42MB 计算机 .net
论文《Neural Collaborative Filtering》原文,其中有NAIS模型实验中使用的两个数据集详细描述
2022-04-05 13:25:02 1.42MB 机器学习 神经网络 CF方法
1
matlab界面选择代码深层神经网络转移学习EEG-MEG- 该代码具有两个基于SGD和adam的CNN模型(模型1和2)。 还包括维格纳维尔(Wigner-ville)分发代码 功能:RAW EEG,短时傅立叶变换,Wigner-ville分布 深度学习参数适应:贝叶斯优化 平台:Matlab,Python 该代码用于复制题为“单一模型深度学习方法可以增强基于EEG的脑机接口的分类精度吗?”的论文。 如果您使用的是部分代码,请引用这些论文: 罗伊·苏吉特(Roy,Sujit)等。 “通道选择改善了基于MEG的脑机接口。” 2019年第9届国际IEEE / EMBS神经工程会议(NER)。 IEEE,2019年。 Roy,S.,McCreadie,K.和Prasad,G.,2019年10月。 单一模型深度学习方法能否提高基于EEG的脑机接口的分类精度? 在2019年IEEE系统,人与控制论国际会议(SMC)(pp.1317-1321)中。 IEEE。 正在开发中
2022-04-04 10:47:47 18KB 系统开源
1
TFCudnnLSTM TensorFlow的高效CudnnLSTM模块的简单模板 依存关系 TensorFlow v1.8 + CUDA v9.0 + cuDNN v7.0 + scikit学习 tqdm 计算性能 TensorFlow的性能指南包括 ,其中指出: 在NVIDIA GPU上,始终应首选使用tf.contrib.cudnn_rnn除非您需要不支持的图层归一化。 根据,与TensorFlow的其他LSTM实现相比, CudnnLSTM实现了显着的加速(比LSTMBlockFused快约2倍,比BasicLSTM快约5倍)。 语言建模实验 我们还采用并尝试运行在那里实现的三个LSTM版本: BasicLSTMCell , LSTMBlockCell和CudnnLSTM 。 我们发现由于API的更改, CudnnLSTM示例无法在TF v1.8中运行,但是在解决了一些
1
matlab代码abs 卷积神经织物 介绍 在我们的工作中,我们提出了一种嵌入数量呈指数级的 CNN 架构的“结构”。 结构避免了指定、训练和测试单个网络的繁琐过程,以便找到好的架构。 该结构绕过了 CNN 架构的 10 个超参数中的 8 个,并且只有 2 个超参数。 我们的 arXiv 技术报告中提供了该系统的详细描述:[出现在 NIPS16]。 收集的资源可在我们的 . 引文 如果您在出版物中使用此代码,请引用我们的论文。 @InProceedings{saxena2016convolutional, title={Convolutional Neural Fabrics}, author={Saxena, Shreyas and Verbeek, Jakob}, BookTitle={NIPS}, year={2016} } 系统要求 该软件在 Fedora 21 版(64 位)上进行了测试。 MATLAB(在 64 位 Linux 上用 2013b 测试) caffe () 的先决条件。 入门 代码:我们基于 caffe 的实现是 - 的修改版本。 其他平台需要重新编译caff
2022-03-31 20:31:02 6.38MB 系统开源
1
神经控制微分方程用于不规则时间序列[ , ] 基于对受控微分方程的深入理解的数学理论,我们演示了如何构建以下模型: 直接作用于不规则采样的部分观测的多元时间序列。 可能会进行记忆有效的伴随反向传播训练-即使是跨观测也是如此。 展示最先进的性能。 使用现有工具(尤其是PyTorch和库)可以轻松实现和评估它们。 图书馆 参见 。 例子 我们鼓励您看一下 ,它演示了如何使用该库来训练Neural CDE模型来预测螺旋的手征性。 有关如何处理可变长度输入,不规则采样或丢失数据的演示,另请参见 ,所有这些都可以在不更改模型的情况下轻松处理。 一个自包含的简短示例: import torch import torchcde # Create some data batch , length , input_channels = 1 , 10 , 2 hidden_channels = 3 t
1
NIMA:神经影像评估 实现 Keras + Tensorflow中的,并在AVA数据集上训练MobileNet模型的权重。 NIMA为图像分配了“均值+标准偏差”得分,可以用作自动检查图像质量的工具,也可以用作损失函数来进一步改善生成的图像的质量。 包含在AVA数据集上针对以下模型训练的权重: NASNet Mobile(由于 !而在valset上的EMD为0.067 EMD,仅需预训练即可0.0848 EMD) Inception ResNet v2(在valset上约为0.07 EMD,感谢 !) MobileNet(valset上为0.0804 EMD) 用法 评价 有eva
2022-03-29 14:25:05 14.01MB tensorflow keras ava-dataset neural-image-assessment
1
图神经网络 这是一个PyTorch库,用于实现图神经网络和图递归神经网络。 如有任何问题,意见或建议,请发送电子邮件至Fernando Gama(电子邮件至和/或Luana Ruiz(至 。 在可以找到有关源代码本地化示例的深入教程。 () 每当使用此代码的任何部分时,请引用以下论文 F. Gama,AG Marques,G。Leus和A. Ribeiro,“”, IEEE Trans。 信号处理。 ,卷。 67号4,第1034-1049页,2019年2月。 我们注意到,某些特定的具有特定的论文引文,以充分认可各自的贡献者。 作者关于GNN的其他论文是 提交给IEEE Trans的E. Isufi,F。Gama和A. Ribeiro,“ EdgeNets:边变图神经网络” 。 模式分析和马赫数。 智力 F. Gama,E。Isufi,G。Leus和A. Ribeiro,“图,卷积和神经
2022-03-29 14:10:28 46.7MB Python
1
matlab精度检验代码神经网络修剪 描述 神经网络修剪是压缩单个隐藏层神经网络以减小模型大小的方法。 该机器学习算法专门针对物联网设备和其他边缘设备等资源受限的环境而开发。 修剪方法基于通过将相应的权重设为零来从网络中删除神经连接。 该策略源自以下论文:“学习有效的神经网络的权重和连接”,宋涵,杰夫·普尔,约翰·特兰,威廉·J·达利。 NIPS,2015年。 用法 源文件:存储库包含五个用于神经网络修剪的Matlab(.m)文件。 NeuralNetSparse.m,train.m和predict.m是主要的源文件。 nnCostFunction.m和fmincg.m是有助于使用梯度下降训练网络的支持文件。 源文件说明: “ NeuralNetSparse.m”是主文件,其中包含训练网络所需的所有超参数,数据集和训练参数。 不同的超参数可帮助用户训练具有不同配置的神经网络,从而有助于优化精度与模型尺寸之间的权衡。 给定内存预算约束取决于底层设备的限制,那么在稀疏网络和超薄网络之间要进行权衡。 这种权衡取决于所使用的数据集,学习率和内存预算。 因此,为了找出最佳配置,NeuralNet
2022-03-29 09:35:21 48KB 系统开源
1