Net2Vis :check_mark_button: 自动网络可视化 :check_mark_button: 抽象级别 :check_mark_button: 统一设计 由 , 和。 可访问。 这是什么? Net2Vis从Keras代码自动为卷积神经网络生成抽象可视化。 这对我有什么帮助? 当查看使用神经网络技术的出版物时,仍然很明显它们之间的区别。 它们大多数是手工制作的,因此缺乏统一的视觉语法。 手工制作这种可视化效果还会造成歧义和误解。 有了Net2Vis,这些问题就解决了。 它旨在提供抽象的网络可视化效果,同时仍提供有关各个层的常规信息。 我们在字形设计中反映了特征的数量以及张量的空间分辨率。 可以通过颜色识别图层类型。 由于这些网络可能变得相当复杂,因此我们增加了对层进行分组的可能性,从而通过替换公共层序列来压缩网络。 最好的是:一旦应用程序运行,您只需要将Keras代码粘贴到浏览器中,并根据该代码自动生成可视化。 您仍然可以调整可视化效果并创建抽象,然后再将其下载
1
细分数据集 确保使用--recurse-submodules签出,有一个子模块'tools'用于常见的点滴)它会加载一个包含图像和遮罩的文件夹,其中包含配置文件(像素值对应于类)。 可在以下上进行训练的示例数据集: : 或者可以从import /文件夹中的脚本中导入COCO / Pascal VOC数据集中的类/图像。 查看训练或测试集和蒙版注释: python -m dataset.view --input /path/to/dataset --train (or --test) 对检查图像的预处理很有用。 查看遮罩文件 python view_labels.py some/file.jpg.mask 训练模型: python main.py --lr 0.1 --batch_size 4 --input /path/to/dataset --model "unet --
1
递归神经网络预测Google股票价格 我试图使用LSTM预测Google股票价格 长短期记忆(LSTM)单元(或块)是递归神经网络(RNN)层的构建单元。 由LSTM单元组成的RNN通常称为LSTM网络。 常见的LSTM单元由单元,输入门,输出门和忘记门组成。 该单元负责在任意时间间隔内“记住”值。 因此,LSTM中的“内存”一词。 就像多层(或前馈)神经网络中一样,这三个门中的每一个都可以被认为是“常规”人工神经元:也就是说,它们计算加权和的激活(使用激活函数)。 从直觉上讲,它们可以看作是通过LSTM连接的值流的调节器。 因此表示“门”。 这些门与单元之间存在连接。 更好的预测模型的结果是:
2022-03-19 15:06:49 690KB google prediction recurrent-neural-networks lstm
1
深度神经网络计算库(clDNN) 停产的仓库 现在,该项目是Intel:registered:OpenVino:trade_mark:Toolkit分发的组成部分。 它的内容和开发已移至 。 要获取最新的clDNN来源,请参考DLDT回购。 深度神经网络计算库( clDNN )是用于深度学习(DL)应用程序的开源性能库,旨在加速英特尔:registered:处理器图形(包括HD图形和Iris:registered:图形)上的DL推理。 clDNN包括高度优化的构建块,用于使用C和C ++接口实现卷积神经网络(CNN)。 我们创建了这个项目,以使DL社区能够在Intel:registered:处理器上进行创新。 支持的用法:图像识别,图像检测和图像分割。 经验证的拓扑: AlexNet *,VG
1
多任务物理信息神经网络 研究代码库。
2022-03-14 18:48:01 151KB JupyterNotebook
1
fastMRI可再现基准 该存储库的想法是要有一种方法可以在fastMRI数据集单线圈磁道上针对现有的重建算法快速对新解决方案进行基准测试。 迄今为止,已实现或适用于fastMRI数据集的重建算法包括: 零填充重建 ,使用 使用的基于小波的重构(即用贪婪的FISTA解决基于L1的分析公式优化问题) 网络 ,适用于MRI重建 ,一种模块化的展开重建算法,您可以在其中插入最佳的降噪器。 ,一种用于非笛卡尔采集的展开式重建算法,具有密度补偿。 所有神经网络都通过Keras API在TensorFlow中实现。 较旧的(不要认为这是我论文的开始)是使用功能性API进行编码的。 最新的版本在子类API中进行了编码,并且更加模块化。 对于LORAKS重建,由于A / D过采样,您将无法重建正确的fastMRI数据。 重建设置 主要的重建设置是具有随机和“定期采样”的笛卡尔单线圈和多线
1
CMD 域不变表示学习的中心矩差异-ICLR 2017 注意:及其和均可使用 该存储库包含用于重现实验的代码,该论文在Werner Zellinger,Edwin Lughofer和Susanne Saminger-Platz的美国国际学习表示会议(ICLR2017)上发表了报告的实验。 JKU Linz的基于知识的数学系统,以及软件能力Hagenberg的数据分析系统小组的Thomas Grubinger和ThomasNatschläger。 在源代码中,CMD域正则化器用'mmatch'表示。 要求 该实现基于Theano和神经网络库Keras。 要安装Theano和Keras,请按照各自github页面上的安装说明进行操作。 您还需要:numpy,熊猫,seaborn,matplotlib,sklearn和scipy 数据集 我们在论文中报告两个不同基准数据集的结果:Amazo
1
使用PyTorch进行深度学习 该存储库包含由Manning Publications出版的Eli Stevens,Luca Antiga和Thomas Viehmann撰写的《用PyTorch进行深度学习》一书的代码。 该书的曼宁网站是: : 这本书也可以在亚马逊上购买: : (会员链接;根据规则:“作为亚马逊合作伙伴,我从有资格的购买中获得收入。”) 该书的勘误表可在配员网站上找到,或在 关于使用PyTorch进行深度学习 本书旨在为PyTorch提供深度学习的基础,并在实际项目中展示它们的实际作用。 我们努力提供深度学习的关键概念,并展示PyTorch如何将其交到从业者手中
2022-03-08 02:27:05 171.29MB python deep-neural-networks deep-learning python3
1
连体神经网络的单次图像识别 PyTorch中的的实现,在数据集上进行了培训和测试。 要求 火炬视觉== 0.5.0 火炬== 1.4.0 numpy == 1.16.3 pytorch_lightning == 0.5.3.2 枕头== 7.0.0 提供requirements.txt 指示 该项目使用 ,它是上的轻量级包装。 该项目遵循格式。 只需运行cpu_run.py或gpu_run.py即可下载MNIST数据集并开始训练。 结果 保持测试集上的最高10次单发准确性为97.5%,可与监督分类模型相提并论。 手动选择支持集。 参考 暹罗火炬
2022-03-07 09:47:33 189KB Python
1
MevonAI-语音情感识别 识别音频段中多个发言人的情绪· 在这里尝试演示 目录 说话人二值化 特征提取 CNN模型 训练模型 贡献 执照 致谢 常问问题 关于该项目 该项目的主要目的是识别呼叫音频中多个说话者的情绪,作为呼叫中心客户满意度反馈的应用程序。 建于 的Python 3.6.9 Tensorflow-Keras 解放军 入门 按照以下说明在本地计算机上设置项目。 安装 创建一个python虚拟环境 sudo apt install python3-venv mkdir mevonAI cd mevonAI python3 -m venv mevon-env source mevon-env/bin/activate 克隆仓库 git clone https://github.com/SuyashMore/MevonAI-Speech-Emotion-Recog
1