用于分布式TensorFlow,Keras,PyTorch,Apache Spark / Flink和Ray的统一数据分析和AI平台什么是Analytics Zoo? Analytics Zoo提供了一个统一的数据分析和AI平台,可以无缝地使用一个统一的Data Analytics和AI平台,用于Apache Spark / Flink和Ray上的分布式TensorFlow,Keras和PyTorch。什么是Analytics Zoo? Analytics Zoo无缝地将TensorFlow,Keras和PyTorch扩展到分布式大数据(使用Spark,Flink和Ray)。 用于将AI模型(TensorFlow,PyTorch,OpenVINO等)应用到分布式大数据的端到端管道 原生深度学习(TensorFlow / Keras / Py
2021-12-09 22:37:41 45.76MB Python Deep Learning
1
瑜伽姿势估计应用程序 表中的内容 概述:- 这是一个瑜伽姿势估计应用程序,它可以通过使用posenet和KNN分类器实时检测瑜伽姿势。 这里使用的数据集是自定义数据集,由 3 个视频组成,用于表示 3 种不同的姿势。 它部署在heroku中。 需要注意的一件事,即这将适用于所有移动和边缘设备。 动机:- 这个项目是我在 ShapeAI 实习的一部分,担任机器学习工程师实习生。 该项目可以扩展为完美的瑜伽教练,以使用 AI 跟踪姿势并保持健康。 技术方面:- 该项目主要分为前端,后端两部分。 让我们详细讨论它们中的每一个。 前端部分:-主要是从前摄像头采集姿态图像,用于姿态识别。 该图像被传递给在 ml5.js 中预训练的posenet模型并获取计数部分位置x和y并将它们保存以以json的形式获取数据。 我们将从图像中检测到 17 个姿势,其中有 2 个与之相关的值,总共 34 个
2021-12-09 19:09:14 75.32MB flask machine-learning deep-learning p5js
1
matlab图像分割肿瘤代码深度学习神经影像 一般深度学习 教科书 深度学习书(Yoshua Bengio) 评论论文 2013表征学习:回顾与新观点(Yushua Bengio) 2014神经影像深度学习:一项验证研究 2015 Nature深度学习(Yann LeCun,Yoshua Bengio,Geoffrey Hinton) 2015年神经网络中的深度学习:概述(J.Schmidhuber) 2016了解深度卷积网络 2016年医学影像深度学习:令人兴奋的新技术概述和未来前景 2016.07深度学习与神经科学的融合 网络模型 2012使用深度卷积神经网络进行ImageNet分类(A.Krizhevsky等人.Hinton) 2015全卷积网络的语义分割(J.Long等人) 2014非常深的卷积网络,用于大规模图像识别(K. Simonyan和A. Zisserman) 2014可视化和理解卷积网络(M. Zeiler和R. Fergus) 2015快速R-CNN(R.Girshick) 2015通过卷积深化(C. Szegedy等人,Google) 2016用于图像识别的深度
2021-12-09 15:58:32 6KB 系统开源
1
object_detection_hog_svm 使用HOG和SVM进行目标检测,主要代码来源于,可直接参考该仓库,本仓库仅仅为了自己的理解对文中代码进行阅读,后期加入定制的目标检测方法以及数据集。 基本思路 训练过程 准备一个数据集,包含pos(存在检测物体)和neg(不存在检测物体),这个数据集中的图像大小相同,比如(40, 100)高度x宽度,那么使用HOG检测子对数据集检测HOG特征,pos标记为正例样本,neg标记为负例样本,输入到SVM分类起进行训练,得到分类模型。 测试过程 输入一张图像,使用图像金字塔对图像进行下采样,每一个octave的图像进行滑窗操作,滑窗大小与训练数据集中的图像大小相同,比如(40, 100)高度x宽度,每一次滑窗后的图像提取HOG特征子,输入训练好的SVM分类器中进行预测,如果检测结果为正例样本,即pos存在检测物体,那么记录该检测结果,detect
2021-12-09 14:13:37 140KB deep-learning svm object-detection hog
1
使用YOLOv3,深度排序和Tensorflow进行对象跟踪 该存储库实现了YOLOv3和Deep SORT,以便进行实时对象跟踪。 Yolov3是一种使用深度卷积神经网络执行对象检测的算法。我们可以将这些对象检测结果馈入Deep SORT(具有Deep Association Metric的简单在线和实时跟踪),以便创建实时对象跟踪器。 入门 conda(推荐) # Tensorflow CPU conda env create -f conda-cpu.yml conda activate tracker-cpu # Tensorflow GPU conda env create -f conda-gpu.yml conda activate tracker-gpu 点子 # TensorFlow CPU pip install -r requirements.txt # Tenso
2021-12-08 21:40:02 42.58MB tensorflow object-tracker yolov3 deep-sort
1
画残差图的matlab代码 标题 类别 我的计算机视觉混乱 计算机视觉 来自joshua19881228.github.io的叉子 我将维护此页面,以记录我已阅读,正在做或将要看的有关计算机视觉的一些事情。 以前,我想写一些我读过的论文的简短笔记。 这是记住和理解作者思想的好方法。 但是渐渐地,我发现我忘记了所学到的大部分内容,因为除了论文之外,我还从其他人的博客,在线课程和报告中获得知识,而根本没有记录这些知识。 此外,我需要一个地方来保存我应该查看的列表,但是当我发现它们时就不需要。 此页面将非常类似于目录。 表中的内容 内容{:toc} 论文和项目 对象/显着性检测 野外中文文本(,) TSSD:基于注意力和LSTM的时间性单发检测器用于机器人智能感知() Tiny SSD:用于实时嵌入式对象检测的Tiny单次检测深度卷积神经网络(,) 通过短距离和远程对象链接对视频中的对象进行检测() 学习带有可旋转边界框的旋转不变检测器(,) 野外检测曲线文本:新数据集和新解决方案(,) 具有区域注意力的单发文本检测器(,) 用于目标检测的单发细化神经网络(,,) $ S ^ 3 $ FD:
2021-12-08 15:56:26 37KB 系统开源
1
Inception-ResNet-v2 是一个预训练模型,已经在 ImageNet 数据库的一个子集上进行了训练。 该模型在超过一百万张图像上进行了训练,共有 825 层,可以将图像分为 1000 个对象类别(例如键盘、鼠标、铅笔和许多动物)。 从您的操作系统或 MATLAB 中打开 inceptionresnetv2.mlpkginstall 文件将启动您拥有的版本的安装过程。 用法示例: net = inceptionresnetv2() 网络层情节(净) % 读取图像进行分类I = imread('peppers.png'); %将图片裁剪为网络的输入大小sz = net.Layers(1).InputSize I = I(1:sz(1), 1:sz(2), 1:sz(3)); % 使用 Inception-ResNet-v2 对图像进行分类标签 = 分类(净,我) % 显示图像和分
2021-12-07 21:10:36 6KB matlab
1
零生产 不建议按如下所示部署生产模型。 这只是一个快速入门的端到端示例。 本指南向您展示如何: 建立一个可预测纽约市Airbnb价格的深度神经网络(使用scikit-learn和Keras) 建立一个REST API,根据模型预测价格(使用Flask和gunicorn) 在Google App Engine上将模型部署到生产环境 快速开始 要求: Python 3.7 Google Cloud Engine帐户 克隆此存储库: git clone git@github.com:curiousily/End-to-End-Machine-Learning-with-Keras.gi
1
Deep Learning pooling.pdf
2021-12-07 17:10:24 91KB Deep Learning
1