添加了双语字幕 感谢打赏支持 你的打赏就是我的动力 资源涵盖test5的视频、步骤、字幕 整合的github和网络资源 看清再够买哈 读研不易 可帮你节省时间
2021-08-29 20:01:19 37KB deepstream test5
test5的视频教程、代码步骤、AI双语字幕、学习方法步骤。 整合资源和提供了双语字幕,帮你节省时间,你的打赏就是我最大的动力~读研不易,节约时间少走弯路~与你共勉~
2021-08-29 20:01:18 37KB deepstream tensorrt test5
使用NVIDIA预训练模型和Transfer Learning Toolkit 3.0与机器人创建基于手势的交互 在这个项目中,我们演示如何训练您自己的手势识别深度学习管道。 我们从预先训练的检测模型开始,使用Transfer Learning Toolkit 3.0将其重新用于手部检测,然后将其与专用手势识别模型一起使用。 经过培训后,我们将在NVIDIA:registered:Jetson:trade_mark:上部署此模型。 可以将这种手势识别应用程序部署在机器人上以理解人类手势并与人类进行交互。 该演示可以作为点播网络研讨会提供: : 第1部分。训练对象检测网络 1.环境设置 先决条件 Ubuntu 18.04 LTS python> = 3.6.9 = 19.03.5 docker-API 1.40 nvidia-container-toolkit> = 1.3.0-1
2021-08-26 15:23:37 257KB C
1
deepstream_sdk_v5.0.0_jetson.tbz2
2021-08-13 01:14:04 361.89MB NVIDIA deepstream_sdk
1
deepstream-test1-app_rtsp 基于官方deepstream-test1修改,调用rtsp摄像头,并触发显示结果。 依赖:GStreamer Deepstream 编译: mkdir build cd build cmake .. make 运行:(注:需要先将dstest1_pgie_config.txt复制到生成下,运行时需要加载。) ./deepstream_test1_app_demo_rtsp_
2021-07-27 10:27:33 64KB 系统开源
1
学习需要自备JetsonNano开发板,提供百度网盘下载连接及密码,内容包含: 1、示例运行环境IMG文件以及TF卡写入程序 2、教程的中文翻译操作说明以及演示视频
2021-07-26 16:18:17 201B nano Gstream DeepStream Jetson
1
0.说明 此存储库包含如何在DeepStream 5.0中运行yolov5模型 1.生成yolov5引擎模型 我们可以使用 yolov5生成引擎模型 重要的提示: 您应该替换tensorrtx / yolov5中的yololayer.cu和hardswish.cu文件 如何运行,以yolov5s为例 - 一种)。 用yolov5s.pt从pytorch生成yolov5s.wts git clone https://github.com/wang-xinyu/tensorrtx.git git clone https://github.com/ultralytics/yolov5.git // download its weights 'yolov5s.pt' // copy tensorrtx/yolov5/gen_wts.py into ultralytics/yolov5 //
2021-07-04 15:50:50 131KB 附件源码 文章源码
1
目标完成25个点的OpenPose加载到Deepstream4.0完成加速,这里是25个点的prototxt,还需要engine和caffemodel,我的资源里都有的
2021-05-31 14:22:32 41KB deepstream openpose tensorrt prototxt
1
NVIDIA DeepStream入门介绍,包含DeepStream、TLT、TensorRT的介绍
2021-05-12 09:01:58 4.05MB DeepStream
1
DeepStream 基于 Python 的行人统计模块代码解析,三十分钟搭建
2021-05-12 09:01:58 3.32MB DeepStream 行人统计
1