1.标注好的头安全帽数据集。 2.数据格式是voc和yolov5两种。 3.下载后可以直接训练。 4.参考博文:https://blog.csdn.net/matt45m/article/details/124702919?spm=1001.2014.3001.5502
1、YOLOv5安全帽检测,代码和训练好的模型,两种训练好的模型,并有pyqt界面,训练精度达90%多,内含各种训练曲线图,并有5000多张标注好的安全帽检测数据集,标签是VOC和YOLO格式的,类别名为person,hat两类; 2、数据集和检测结果参考:https://blog.csdn.net/zhiqingAI/article/details/124230743 3、采用pytrch框架,代码是python的
2022-05-12 21:05:30 933.37MB YOLOv5安全帽检测 pyqt界面
本项目中使用的预训练模型为官方提供的 yolov5m.pt 来训练数据集,另外三种模型分别为:yolov5l.pt、yolov5s.pt、yolov5x.pt。可以更换预训练模型来训练数据集。 一:下载模型 二:将模型放入weights文件夹下(实际上可以放入任何位置,只需要做相应的路径更改) 三:更改 train.py 下预训练模型的路径以及对应模型cfg配置文件的对应位置 --weights 参数的 default 更改为:例如 weights/yolov5m.pt(使用命令行运行则直接 --weights 指定即可) --cfg 参数的 default 更改为:例如对应的 models/yolov5m.yaml(使用命令行运行则直接 --cfg 指定即可) **强调一点:**cfg 官方默认的 4 个 yaml 文件的配置为 coco 数据集的 80 个识别类别。如果你更换了预训练模型,yaml 里面的参数nc也需要修改为对应你自己项目的类别个数,例如本项目中 nc: 2。 四:命令行或者直接运行 train.py 训练 2:添加数据集 可
2022-04-29 21:06:25 3.92MB yolov5 python
关于数据 请参考YOLO-V3-Tensorflow 1. 训练模型前的准备 A.数据准备 数据的标注仍然采用VOC格式的数据标注形式,如果是其他的标注形式比如COCO请自行实现相关代码。将数据最终转化为如下形式: # 单行数据的结构: (path_filename, x1, y1, x2, y2, class_name) # Note: # 一个path_filename 可能对应多个类别(class_name),每个类别占用一行数据 # x1, y1, x2, y2 是原图像的坐标, 而不是ratio后图像上的坐标 # (x1, y1) 标注框的左上坐标; (x2, y2) 标注框的右下坐标 # x1,y1------------------- # | | # | | # | |
2022-04-29 21:06:24 5.46MB keras python
A minimal PyTorch implementation of YOLOv3, with support for training, inference and evaluation. $ cd PyTorch-YOLOv3/ $ sudo pip3 install -r requirements.txt Download $ cd weights/ $ bash download_weights.sh Download COCO数据集 $ cd data/ $ bash get_coco_dataset.sh Test Evaluates the model on COCO test.
2022-04-29 16:08:31 625KB yolov3 python
1、yolov5x模型 2、安全帽佩戴识别 3、视频识别(代码) 4、图片识别(代码)
2022-04-26 16:12:12 151.14MB pytorch 图像识别
1
YOLOv5安全帽检测训练好的模型和代码,几千张数据训练了150轮得到的权重文件,mAP和召回率recall达到了90%多,PR曲线等图保存在runs文件夹中 ,配置好YOLOv5的环境就可以直接运行 数据集和检测结果:https://blog.csdn.net/zhiqingAI/article/details/124230743
2022-04-20 18:08:32 336.46MB YOLOv5安全帽检测
jpg图像 & xml标记文件
2022-04-16 14:07:45 725.38MB 深度学习 人工智能
针对已有安全帽佩戴检测算法对部分遮挡、尺寸不一和小目标存在检测难度大、准确率低的问题,提出了基于改进的Faster RCNN和多部件结合的安全帽佩戴检测方法。在原始Faster RCNN上运用多尺度训练和增加锚点数量增强网络检测不同尺寸目标的鲁棒性,并引入防止正负样本不均衡的在线困难样本挖掘策略,然后对检测出的佩戴安全帽工人和安全帽等采用多部件结合方法剔除误检目标。实验表明,相比于原始Faster RCNN,检测准确率提高了7%,对环境的适应性更强。
2022-04-15 16:04:28 1.9MB 安全帽佩戴检测 Faster RCNN
1