YOLOv5在建筑工地中安全帽佩戴检测的应用(已开源+数据集)

您所在的位置:网站首页 安全帽检测方法 YOLOv5在建筑工地中安全帽佩戴检测的应用(已开源+数据集)

YOLOv5在建筑工地中安全帽佩戴检测的应用(已开源+数据集)

2023-07-20 09:08| 来源: 网络整理| 查看: 265

前言

Amusi 发现一个很棒的开源项目,利用YOLOv5进行目标检测的"落地化"应用:安全帽佩戴检测。

该项目使用了YOLOv5s、YOLOv5m、YOLOv5l来训练安全帽佩戴检测数据集,代码和权重均已开源!安全帽佩戴检测数据集也是开源的(共含7581 张图像)!

项目教程也相当详细,推荐入门练手学习!而且有意思的是,该项目和数据集的两位作者均是中国人,点赞!

项目链接(文末附下载): https://github.com/PeterH0323/Smart_Construction

数据集链接(文末附下载): https://github.com/njvisionpower/Safety-Helmet-Wearing-Dataset

如果帮到您请给个 star ✨✨✨,您的 star 是我最大的鼓励!

Smart_Construction

该项目是使用 YOLOv5 来训练在智能工地安全领域中头盔目标检测的应用在这里插入图片描述在这里插入图片描述

指标 yolov5s 为基础训练,epoch = 50 分类PRmAP0.5总体0.8840.8990.888人体0.8460.8930.877头0.8890.8830.871安全帽0.9170.9210.917

对应的权重文件:百度云,提取码: b981

yolov5m 为基础训练,epoch = 100 分类PRmAP0.5总体0.8860.9150.901人体0.8440.9060.887头0.90.9110.9安全帽0.9130.9290.916

对应的权重文件:百度云,提取码: psst

yolov5l 为基础训练,epoch = 100 分类PRmAP0.5总体0.8920.9190.906人体0.8560.9140.897头0.8930.9130.901安全帽0.9270.9290.919

对应的权重文件:百度云,提取码: a66e

1.YOLO v5训练自己数据集教程

使用的数据集:Safety-Helmet-Wearing-Dataset ,感谢这位大神的开源数据集!

本文结合 YOLOv5官方教程 来写

环境准备

首先确保自己的环境:

Python >= 3.7 Pytorch == 1.5.x 12 训练自己的数据

提示:

关于增加数据集分类的方法,请看【5. 增加数据集的分类】

1.1 创建自己的数据集配置文件

因为我这里只是判断 【人没有带安全帽】、【人有带安全帽】、【人体】 3个类别 ,基于 data/coco128.yaml 文件,创建自己的数据集配置文件 custom_data.yaml

# 训练集和验证集的 labels 和 image 文件的位置 train: ./score/images/train val: ./score/images/val # number of classes nc: 3 # class names names: ['person', 'head', 'helmet'] 123456789 1.2 创建每个图片对应的标签文件

使用标注工具类似于 Labelbox 、CVAT 、精灵标注助手 标注之后,需要生成每个图片对应的 .txt 文件,其规范如下:

每一行都是一个目标类别序号是零索引开始的(从0开始)每一行的坐标 class x_center y_center width height 格式框坐标必须采用归一化的 xywh格式(从0到1)。如果您的框以像素为单位,则将x_center和width除以图像宽度,将y_center和height除以图像高度。代码如下: import numpy as np def convert(size, box): """ 将标注的 xml 文件生成的【左上角x,左上角y,右下角x,右下角y】标注转换为yolov5训练的坐标 :param size: 图片的尺寸: [w,h] :param box: anchor box 的坐标 [左上角x,左上角y,右下角x,右下角y,] :return: 转换后的 [x,y,w,h] """ x1 = int(box[0]) y1 = int(box[1]) x2 = int(box[2]) y2 = int(box[3]) dw = np.float32(1. / int(size[0])) dh = np.float32(1. / int(size[1])) w = x2 - x1 h = y2 - y1 x = x1 + (w / 2) y = y1 + (h / 2) x = x * dw w = w * dw y = y * dh h = h * dh return [x, y, w, h] 123456789101112131415161718192021222324252627

生成的 .txt 文件放置的名字是图片的名字,放置在 label 文件夹中,例如:

./score/images/train/00001.jpg # image ./score/labels/train/00001.txt # label 12

生成的 .txt 例子:

1 0.1830000086920336 0.1396396430209279 0.13400000636465847 0.15915916301310062 1 0.5240000248886645 0.29129129834473133 0.0800000037997961 0.16816817224025726 1 0.6060000287834555 0.29579580295830965 0.08400000398978591 0.1771771814674139 1 0.6760000321082771 0.25375375989824533 0.10000000474974513 0.21321321837604046 0 0.39300001866649836 0.2552552614361048 0.17800000845454633 0.2822822891175747 0 0.7200000341981649 0.5570570705458522 0.25200001196935773 0.4294294398277998 0 0.7720000366680324 0.2567567629739642 0.1520000072196126 0.23123123683035374 1234567 1.3 文件放置规范

文件树如下[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pSllV3mF-1605144047398)(./doc/File_tree.png)]

1.4 聚类得出先验框(可选)

使用代码 ./data/gen_anchors/clauculate_anchors.py ,修改数据集的路径

FILE_ROOT = r"xxx" # 根路径 ANNOTATION_ROOT = r"xxx" # 数据集标签文件夹路径 ANNOTATION_PATH = FILE_ROOT + ANNOTATION_ROOT 123

跑完会生成一个文件 anchors.txt,里面有得出的建议先验框:

Best Accuracy = 79.72% Best Anchors = [[14.74, 27.64], [23.48, 46.04], [28.88, 130.0], [39.33, 148.07], [52.62, 186.18], [62.33, 279.11], [85.19, 237.87], [88.0, 360.89], [145.33, 514.67]] 123 1.5 选择一个你需要的模型

在文件夹 ./models 下选择一个你需要的模型然后复制一份出来,将文件开头的 nc = 修改为数据集的分类数,下面是借鉴 ./models/yolov5s.yaml来修改的

# parameters nc: 3 # number of classes


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3