yolov5权重文件下载
2021-05-26 19:05:38 294.96MB yolov5
1
原版仓库: 修改版 yolov5 使用方法 环境要求:python version >= 3.6 模型训练:python3 train.py 模型导出:python3 models/export.py --weights "xxx.pt" 转换rknn:python3 onnx_to_rknn.py 模型推理:python3 rknn_detect_yolov5.py 注意事项:如果训练尺寸不是640那么,anchors会自动聚类重新生成,生成的结果在训练时打印在控制台,或者通过动态查看torch模型类属性获取,如果anchors不对应那么结果就会出现问题。 建议:在训练时如果size不是640,那么可以先通过聚类得到anchors并将新的anchors写入到模型配置文件中,然后再训练,防止动态获取的anchors在rknn上预测不准的问题。训练参数别忘记加上 --noautoanchor
2021-05-26 11:23:10 6.66MB pytorch onnx yolov5 rknn
1
Yolov5 +使用PyTorch进行深度排序 介绍 该存储库包含PyTorch YOLOv5的简化版( )。 它过滤掉不是人的所有检测。 然后,将对人员的检测传递给跟踪人员的深度排序算法( )。 它仅跟踪人员这一事实背后的原因是,深度关联度量仅在人员数据集上进行训练。 描述 该实现基于两篇文章: 使用深度关联指标进行简单的在线和实时跟踪 YOLOv4:物体检测的最佳速度和准确性 要求 安装了所有requirements.txt依赖关系的Python 3.8或更高版本,包括torch> = 1.7。 要安装运行: pip install -U -r requirements.txt 所有依赖项都包含在关联的docker映像中。 Docker要求是: nvidia-docker Nvidia驱动程序版本> = 440.44 在运行跟踪器之前 递归克隆存储库: git clo
2021-05-25 17:09:44 665KB real-time video pytorch computer-camera
1
YOLOV5口罩检测数据集,含有训练集和测试集,标签为yolo格式的txt文件,每行表示一个目标,从左向右依次为labelid centerx centery w h
2021-05-24 14:06:44 570.7MB yolov5 口罩识别 目标检测
yolov5行人识别 qt 鼠标检测 绘制区域 检测超界系统 视频:https://live.csdn.net/v/164262
2021-05-20 12:06:06 13.45MB yolov5 pyqt5
包含Yolov5的四个pt权重,对应转换为onxx的Yolov5s.onnx、Yolov5m.onnx、Yolov5l.onnx、Yolov5x.onnx共4个文件。 此外完整详细的Yolov5网络结构的讲解可参考江大白的博文。
2021-05-18 16:45:54 536.58MB Yolov5 目标检测 Yolov3 深度学习
1
官方云盘下载的权重,包含yolov5s、5x、5m、5l,同时包含yolov5-fpn的权重,包含训练的result,需要的自取。
2021-05-12 11:13:36 714.76MB yolov5
1
flexible-yolov5 基于 。 原始的Yolo V5是一个了不起的项目。 对于专业人士而言,理解和修改其代码应该不难。 我不是专家。 当我想对网络进行一些更改时,这并不是一件容易的事,例如添加分支和尝试其他骨干网。 也许会有像我这样的人,所以我将yolov5模型拆分为{主干,脖子,头部},以方便各种模块的操作并支持更多的主干。基本上,我只更改了模型,而没有更改架构,培训和测试yolov5。 因此,如果原始代码被更新,则更新该代码也非常方便。 目录 [培训与测试](#培训与测试) 特征 重组骨干,脖子,头部等模型结构,可以灵活方便地修改网络 更多主干,mobilenetV3,shufflenetV2,resnet18、50、101等 先决条件 请参阅requirements.txt 入门 数据集准备 以yolov5格式制作数据。 您可以使用utils / make_yolov5
2021-05-12 09:28:12 1.37MB Python
1
yolov5 1.0源码
2021-05-11 09:01:42 3MB 深度学习
1
yolov5 2.0源码
2021-05-11 09:01:41 3.03MB 深度学习
1