CN113553977B - 一种基于改进yolo v5的安全帽检测方法和系统 - Google Patents
一种基于改进yolo v5的安全帽检测方法和系统 Download PDFInfo
- Publication number
- CN113553977B CN113553977B CN202110870222.9A CN202110870222A CN113553977B CN 113553977 B CN113553977 B CN 113553977B CN 202110870222 A CN202110870222 A CN 202110870222A CN 113553977 B CN113553977 B CN 113553977B
- Authority
- CN
- China
- Prior art keywords
- helmet
- detection
- yolo
- wearing
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 99
- 238000012549 training Methods 0.000 claims abstract description 19
- 239000000284 extract Substances 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 27
- 238000003064 k means clustering Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 6
- 238000007621 cluster analysis Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 12
- 238000005070 sampling Methods 0.000 abstract 1
- 230000006872 improvement Effects 0.000 description 15
- 238000012544 monitoring process Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000007781 pre-processing Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000009776 industrial production Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于改进YOLO V5的安全帽检测方法和系统,属于目标检测领域。包括:采用安全帽佩戴状态训练集训练改进YOLO V5,训练集中的训练样本为包含工作人员的图片帧,标签为工作人员安全帽佩戴状态,得到训练好的检测模型;将工业监控视频的每一帧输入至训练好的检测模型,得到安全帽检测结果。本发明对Prediction进行改进,新增检测头特征图尺度为160*160,专门用于检测微小目标。本发明对Neck进行改进,在模块十七提取特征并完成卷积操作之后,对提取到的特征图增加上采样操作,进一步扩大网络中特征图的尺寸;增加网络结构中的连接层,将提取得到的浅层特征信息与Backbone模块提取得到的深层特征信息进行拼接融合,增强YOLO V5算法模型多尺度特征提取能力。
Description
技术领域
本发明属于目标检测领域,更具体地,涉及一种基于改进YOLO V5的安全帽检测方法和系统。
背景技术
安全帽是工业生产过程中保障人身安全的防护设备,其穿戴检测研究属于智慧工业建设中重要一环。通过对安全帽穿戴情况检测,可以对施工作业中的安全隐患及时预警,保障工作人员的生命安全,辅助工业智能化监控管理。
专利CN112784821A公开一种基于YOLO V5的工地行为安全检测识别方法及系统,主要思想为:获取待识别的工地现场图像信息;采用预训练检测模型对所述待识别的工地现场图像信息进行识别,对安全帽的佩戴情况进行检测,其中,检测模型为基于深度学习模型,用于训练检测模型的训练集包括标注安全帽佩戴位置的图像信息;当识别到工人未佩戴安全帽或者佩戴位置不正确时,发出警示,所述检测模型为YOLO V5模型。
论文“改进YOLO V5的口罩和安全帽佩戴人工智能检测识别算法”主要思想为:首先采用K-means++算法进行Anchor维度聚类,确定Anchor参数;并通过Ciou,Diou_nms等方法计算YOLO V5网络中的损失函数,通过Ciou,Diou_nms等方法改进YOLO V5网络识别安全帽和口罩佩戴检测情况。
然而,上述技术均采用原始YOLO V5网络模型结构,由于真实工业生产环境极为复杂,待检测目标容易受到光照变化、遮挡情况造成的检测困难,直接采用原始YOLO V5检测安全帽佩戴检测,存在对于大面积遮挡的目标与小目标检测困难的缺点。
发明内容
针对现有技术的缺陷和改进需求,本发明提供了一种基于改进YOLO V5的安全帽检测方法和系统,其目的在于在保证实时性与检测速度要求的前提下,对于此类安全帽目标在检测准确率与鲁棒性方面均有较大性能的提升。
为实现上述目的,按照本发明的第一方面,提供了一种基于改进YOLO V5的安全帽检测方法,该方法包括:
采用安全帽佩戴状态训练集训练改进YOLO V5,所述训练集中的训练样本为包含工作人员的图片帧,标签为工作人员安全帽佩戴状态,得到训练好的检测模型;训练好的检测模型堆工业监控视频流的每一帧进行检测,并返回安全帽检测结果;
所述改进YOLO V5包括串联的Input、Backbone、改进Neck和改进Prediction,所述改进Neck包括串联的模块十~模块三十,模块十、十四、十八、二十二、二十五和二十八为CBL,模块十一、十五和十九为上采样操作,模块十二、十六、二十、二十三、二十六和二十九为Concat操作,模块二十的输入端接模块十七和十九输出端,模块二十三的输入端接模块二十和二十二输出端,模块二十六的输入端接模块二十五和十四输出端,模块二十九的输入端接模块二十八和十输出端,模块十三、十七、二十一、二十四、二十七和三十为BottleneckCSP,所述改进Prediction包括检测尺度降序的第一预测头~第四预测头,模块二十四、二十一、二十七、三十的输出端依次接第一、第二、第三、第四预测头。
优选地,采用以下方式构建安全帽佩戴状态训练集:
从真实工业场景监控视频中提取包含工作人员的图片帧;
根据工作人员安全帽佩戴状态,对每个图片帧中工作人员头部区域进行标注,标注内容包括:是否佩戴安全帽和佩戴何种颜色安全帽,得到安全帽佩戴状态检测数据集和与安全帽佩戴颜色检测数据集。
优选地,提取图片帧的方式如下:将读取到的监控视频流第一帧图像设为背景帧,将静止不动对象设置为背景,使用背景建模算法提取运动目标对象;并计算后续帧与当前背景帧之间的差值,如果差值大于阈值T,则更新背景帧,否则继续读取直到视频结束为止;如果差值小于阈值T,则计算运动目标对象的移动轮廓面积,如果移动轮廓面积大于阈值T’,保存该图像帧,否则继续读取下一帧。
有益效果:本发明提出一种关键帧提取算法,将对监控视频感兴趣片段中的行人检测转换为对视频画面中运动目标对象的检测,对监控视频数据进行自动挑选,极大地提高了数据预处理效率。
优选地,使用LabelImg软件对安全帽数据集中工作人员佩戴安全帽的情况进行标注,正确佩戴安全帽标注为“Helmet”,没有佩戴安全帽标注为“No_Helmet”,佩戴蓝色安全帽标注为“Blue”,佩戴黄色安全帽标注为“Yellow”,佩戴红色安全帽标注为“Red”,佩戴白色安全帽标注为“White”。
优选地,采用k-means聚类算法对于数据集图片中的安全帽目标检测框进行聚类分析,得到新的适用于真实工业场景安全帽的Anchor数量与尺寸;依据k-means聚类算法得到的参数修改YOLO V5网络配置文件中Anchor数量与尺寸。
有益效果:原始YOLO V5的三组Anchor是基于COCO数据集聚类得到,并不适用于安全帽目标检测数据集。本发明使用k-means聚类算法对安全帽数据集重新进行聚类分析,在YOLO V5的Head模块网络结构增加一组专门针对于小目标的Anchor。
优选地,在Input模块采用Mosaic和MixUp数据增强技术对训练过程中同一批次图片进行不同程度的混合。
有益效果:由于人体头部区域面积较小,不易被遮挡,本发明优选采用Mosaic和MixUp数据增强技术对训练过程中一个Batch图片进行不同程度的混合,模拟真实工业场景中的多种遮挡情况,增强模型的鲁棒性。
为实现上述目的,按照本发明的第二方面,提供了一种基于改进YOLO V5的安全帽检测系统,包括:计算机可读存储介质和处理器;
所述计算机可读存储介质用于存储可执行指令;
所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行第一方面所述的基于改进YOLO V5的安全帽检测方法。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
(1)为解决安全帽数据集部分目标在复杂背景中受到光照变化、多遮挡导致的检测困难问题与小目标检测问题,本发明对Prediction进行改进,新增的第一预测头尺度为160*160,专门用于检测尺度为12*12至32*32的微小目标。
(2)为了在图像输入中对于较小检测区域尽可能多的提取到更加完整与丰富的特征信息,本发明对Neck模块进行改进,在模块十七(CSP)提取特征完成卷积操作之后,对提取到的特征图增加上采样(模块十九)操作,进一步扩大网络中特征图的尺寸;增加网络结构中的连接层,模块二十三、二十六与二十九将Backbone模块提取得到的浅层特征信息与Neck模块提取得到的深层特征信息进行拼接融合,增强YOLO V5算法模型多尺度特征提取能力。
附图说明
图1是本发明提供的改进YOLO V5中的改进Neck和改进Prediction结构示意图;
图2是本发明提供的面向工业监控视频的安全帽检测方法的流程图;
图3是本发明提供的采用人工挑选的方式对于所获取到的工业监控视频数据进行预处理过程示意图;
图4本发明提供的关键帧提取算法对于所获取到的工业监控视频数据预处理过程示意图;
图5是本发明提供的Anchor的概念示意图;
图6是改进前的YOLO V5算法中Head模块预测输出端三个检测头示意图;
图7是改进前的YOLO V5算法中Head模块网络结构示意图;
图8是本发明提供的改进后的YOLO V5算法中Head模块网络结构示意图;
图9是本发明提供的改进前后的YOLO V5算法,调整不同的MixUp参数,对于安全帽佩戴状态进行检测准确率对比示意图;
图10是本发明提供的改进前后的YOLO V5算法,调整不同的MixUp参数,对于安全帽佩戴颜色进行检测准确率对比示意图;
图11是本发明提供的改进前后的YOLO V5算法对工业安全帽数据集检测准确率的对比示意图;
图12是本发明提供的改进前后的YOLO V5算法对工业安全帽数据集检测结果的对比示意图;
图13是本发明提供的改进前后的YOLO V5算法对工业安全帽数据集中不同尺寸的目标检测准确率对比示意图
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明对原始YOLO V5进行改进,改进YOLO V5包括串联的Input、Backbone、改进Neck模块和改进Prediction模块。如图1所示,所述改进Neck包括串联的模块十~模块三十,模块十、十四、十八、二十二、二十五和二十八为CBL模块,模块十一、十五和十九为上采样,模块十二、十六、二十、二十三、二十六和二十九为Concat模块,模块二十的输入端接模块十七和十九输出端,模块二十三的输入端接模块二十和二十二输出端,模块二十六的输入端接模块二十五和十四输出端,模块二十九的输入端接模块二十八和十输出端,模块十三、十七、二十一、二十四、二十七和三十为BottleneckCSP模块,所述改进Prediction包括检测尺度降序的第一预测头~第四预测头,模块二十四、二十一、二十七、三十的输出端依次接第一、第二、第三、第四预测头。
如图2所示,本发明提供了一种基于改进YOLO V5的安全帽检测方法,包括以下步骤:
步骤S1、收集基于真实工业场景中的监控视频数据,对视频数据进行预处理,将没有包含工作人员的图像画面定义为检测背景,并对背景图像筛除,通过对收集到的数据进行分析,判断是否需要更新安全帽数据集内容,若需要,则对得到的新数据集图像进行标注,转至步骤S2;否则,操作结束。
步骤S2、对于工业安全帽数据集内容进行更新,分别对数据集图像中的工作人员是否佩戴安全帽、佩戴安全帽的颜色情况采用LabelImg标注工具进行标注。
步骤S2中,对于工业监控视频数据的预处理方式包括图像背景的定义、人工挑选、关键帧提取算法、图像的标注与分类,本发明的工业监控视频数据预处理的具体方法为:
S21、收集真实工业场景中的监控视频数据,与数据集内容进行对比,判断数据集内容是否需要更新,如没有,则操作结束,如更新,则进行下一步操作。
S22、将原始监控视频画面中不存在工作人员的图像定义为检测背景,将存在工作人员的监控视频画面片段定义为感兴趣片段(Region of Interest Segment,ROI),如图3所示,采用人工挑选的方式对于所获取到的工业监控视频数据进行预处理,筛除监控视频数据中检测背景图像,保留监控画面中存在工作人员经过的图像,人工挑选预处理方式效率不高。
S23、采用关键帧提取算法代替人工挑选方式对监控视频数据进行预处理。
如图4所示,将读取到的监控视频流第一帧定义为背景帧,使用背景建模方法提取运动目标对象,并计算后续帧与当前背景帧之间的差值,如果差值大于阈值T,则更新背景帧,否则继续读取直到视频结束为止。如果差值小于阈值T,则计算运动目标对象的移动轮廓面积,如果移动轮廓面积大于阈值T’,保存该图像帧,否则继续读取下一帧。通过关键帧提取算法对监控视频数据进行预挑选,极大地提高了数据预处理效率。本发明实施例中,阈值T取值为50,阈值T’取值为200。
S24、使用LabelImg软件对安全帽数据集中工作人员佩戴安全帽的情况进行标注,正确佩戴安全帽标注为“Helmet”,没有佩戴安全帽标注为“No_Helmet”,佩戴蓝色安全帽标注为“Blue”,佩戴黄色安全帽标注为“Yellow”,佩戴红色安全帽标注为“Red”,佩戴白色安全帽标注为“White”。
步骤S3、采用k-means聚类算法对于S2标注得到的数据集进行重新聚类分析,得到基于真实工业场景监控视频中安全帽的Anchor数量与尺寸,并对YOLO V5神经网络中的Anchor数量与尺寸进行调整。
步骤S3中,使用基于k-means聚类算法对工业安全帽数据集重新聚类分析的具体方法为:
S31、基于S2标注完成的实际工业场景中的安全帽数据集,采用k-means聚类算法对于数据集原始图片进行聚类分析,得到新的适用于工业场景中安全帽的Anchor数量与尺寸,生成9组Anchor尺寸分别为:(8×18)、(11×25)、(14×32)、(17×39)、(21×47)、(26×60)、(33×72)、(43×94)、(60×123);其中,本发明所指的Anchor的概念为计算机视觉领域目标检测算法中的专属概念,如图5所示。
S32、替换原有的YOLO V5网络基于COCO数据集聚类生成的Anchor,原有的9组Anchor分别为:(14×27)、(23×46)、(28×130)、(39×148)、(52×186)、(62×279)、(85×237)、(88×360)、(145×514),原始的Anchor并不适用于工业场景中的安全帽检测任务。将新Anchor应用到YOLO V5网络模型的训练过程中,将YOLO V5网络配置文件中Anchor数量与尺寸修正为k-means聚类算法得到的参数。
在目标检测领域,对于检测区域面积小于322像素的目标定义为小目标,对于检测区域面积在(322,962)像素范围内的目标定义为中目标,对于检测区域面积大于962像素的目标定义为大目标。如图6所示,YOLO V5算法中Head模块预测输出端由三个检测头组成,每个检测头对应一组Anchor参数值,对于输入图像尺寸为640×640时,#P3/8网络层检测头尺度为80×80,用于检测尺度为8×8的较小目标,#P4/16网络层检测头尺度为40×40,用于检测尺度为16×16的中等目标,#P5/32网络层检测头尺度为20×20,用于检测尺度为32×32的较大目标。对于本文构建的工业安全帽数据集,其中图片尺寸为1920×1080,则以上三种检测头映射到安全帽数据集中图片所能检测到的目标尺寸分别为:(24×24)、(48×48)与(96×96),也就是说,如果安全帽数据集图片中的检测区域面积小于242像素,原始YOLO V5网络进行相应的特征提取与学习就会非常困难,导致对于小目标检测准确率不高。
步骤S4、对YOLO V5算法模型中的Head模块的神经网络结构进行改进,增加Head模块中的检测头与自顶向下特征提取网络中的上采样模块,对提取到的特征图进一步扩大,将深层网络特征信息与浅层网络特征信息进行融合,增强YOLO V5算法模型多尺度特征提取能力,将改进后适用于真实工业场景中受到光照变化、遮挡等因素影响的安全帽检测,以及对于距离摄像头较远的小目标安全帽检测算法模型命名为YOLO V5小目标检测算法(YOLO V5 Small Object Detection,YOLO V5-SOD),作为面向工业监控视频的安全帽检测方法。
步骤S4中,对YOLO V5算法模型中的Head模块的神经网络结构进行改进的具体方法为:
S41、增加一个YOLO V5神经网络中Head模块的检测头,YOLO V5检测头与Anchor匹配规则为,第一个#P3/8网络层检测头与第一组Anchor[10,13,16,30,33,23]进行匹配,第二个#P4/16网络层检测头与第二组Anchor[30,61,62,45,59,119]进行匹配,第三个#P5/32网络层检测头与第三组Anchor[116,90,156,198,373,326]进行匹配,在网络的预测输出层增加小目标检测层,与新增Anchor[5,6,8,14,15,11]进行匹配,该检测头专门负责检测工业监控视频中的小目标安全帽;
S42、在图像输入中对于较小检测区域尽可能多的提取到更完整丰富的特征信息,如图7所示,对YOLO V5算法中Head模块的网络结构进行改进,在Head网络BottleneckCSP网络提取特征完成卷积操作之后,对提取到的特征图增加上采样操作,进一步扩大网络中特征图的尺寸。
S43、将YOLO V5中Head模块神经网络中提取得到的浅层特征信息与YOLO V5中Backbone模块提取得到的深层特征信息进行拼接融合,增强YOLO V5算法模型多尺度特征提取能力,得到图8改进后的YOLO V5算法Head模块的网络结构,其中,18-24均为新增模块。将改进后适用于真实工业场景中受到光照变化、遮挡等因素影响的安全帽检测,以及对于距离摄像头较远的小目标安全帽检测算法模型命名为YOLO V5小目标检测算法(YOLO V5Small Object Detection,YOLO V5-SOD),作为面向工业监控视频的安全帽检测方法。
步骤S5、对改进后的YOLO V5-SOD神经网络进行训练,得到面向工业监控视频的安全帽检测算法模型。
步骤S5中,对改进后的YOLO V5-SOD算法进行训练,得到面向工业监控视频的安全帽检测算法模型的具体内容为:
S51、从YOLO V5官网下载预训练模型与网络结构的配置文件,配置文件中包含YOLO V5模型训练的默认超参数与相关权重值,加载到改进后的YOLO V5-SOD神经网络中,可以看到原始YOLO V5使用了Mosaic数据增强与MixUp两种数据增强技术,但是MixUp数据增强超参数初始值为0,其中,相关参数具体细节如表1所示:
表1权重参数与超参数数值
Parameter Name | Parameter Value |
lr0 | 0.01 |
momentum | 0.937 |
weight_decay | 0.0005 |
Epoch | 100 |
GIoU | 0.05 |
cls | 0.5 |
IoU_t | 0.2 |
Mosaic | 1.0 |
MixUp | 0.0 |
S52、根据S4的改进方法调整YOLO V5网络配置文件中神经网络结构的描述,为了得到改进前后的YOLO V5算法在安全帽数据集上的最优MixUp超参数值,采用标注好的工业安全帽数据集对该模型进行训练并调整MixUp参数,如图9、图10所示,直至模型收敛。
S53、如图11所示,分别测试改进前后的YOLO V5算法对于真实工业场景安全帽数据集中安全帽佩戴状态与颜色的检测准确率与结果,如图12所示,改进前的YOLO V5算法对于远距离的小目标以及受到遮挡和阴影中的困难目标无法检测到,而改进后的YOLO V5-SOD算法对于真实工业场景中受到光照变化、遮挡等因素影响的安全帽检测,以及对于距离摄像头较远的小目标安全帽都具有较高检测准确率与鲁棒性。并测试改进前后的YOLO V5算法对于不同尺寸目标的安全帽检测准确率,得到如图13所示的结果。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于改进YOLO V5的安全帽检测方法,其特征在于,该方法包括:
采用安全帽佩戴状态训练集训练改进YOLO V5,所述训练集中的训练样本为包含工作人员的图片帧,标签为工作人员安全帽佩戴状态,得到训练好的检测模型;将工业监控视频的每一帧输入至训练好的检测模型,得到安全帽检测结果;
所述改进YOLO V5包括串联的Input、Backbone、改进Neck和改进Prediction,所述改进Neck包括串联的模块十~模块三十,模块十、十四、十八、二十二、二十五和二十八为CBL,模块十一、十五和十九为上采样操作,模块十二、十六、二十、二十三、二十六和二十九为Concat操作,模块二十的输入端接模块十七和十九输出端,模块二十三的输入端接模块二十和二十二输出端,模块二十六的输入端接模块二十五和十四输出端,模块二十九的输入端接模块二十八和十输出端,模块十三、十七、二十一、二十四、二十七和三十为BottleneckCSP,所述改进Prediction包括检测尺度降序的第一预测头~第四预测头,模块二十四、二十一、二十七、三十的输出端依次接第一、第二、第三、第四预测头;
采用以下方式构建安全帽佩戴状态训练集:
从真实工业场景监控视频中提取包含工作人员的图片帧;
根据工作人员安全帽佩戴状态,对每个图片帧中工作人员头部区域进行标注,标注内容包括:是否佩戴安全帽和佩戴何种颜色安全帽,得到安全帽佩戴状态检测数据集和与安全帽佩戴颜色检测数据集;
提取图片帧的方式如下:将读取到的监控视频流第一帧图像设为背景帧,将静止不动对象设置为背景,使用背景建模算法提取运动目标对象;并计算后续帧与当前背景帧之间的差值,如果差值大于阈值T,则更新背景帧,否则继续读取直到视频结束为止;如果差值小于阈值T,则计算运动目标对象的移动轮廓面积,如果移动轮廓面积大于阈值T’,保存图片帧,否则继续读取下一帧。
2.如权利要求1所述的方法,其特征在于,使用LabelImg软件对安全帽数据集中工作人员佩戴安全帽的情况进行标注,正确佩戴安全帽标注为“Helmet”,没有佩戴安全帽标注为“No_Helmet”,佩戴蓝色安全帽标注为“Blue”,佩戴黄色安全帽标注为“Yellow”,佩戴红色安全帽标注为“Red”,佩戴白色安全帽标注为“White”。
3.如权利要求1或2所述的方法,其特征在于,采用k-means聚类算法对于数据集图片中的安全帽目标检测框进行聚类分析,得到新的适用于真实工业场景安全帽的Anchor数量与尺寸;依据k-means聚类算法得到的参数修改YOLO V5网络配置文件中Anchor数量与尺寸。
4.如权利要求1所述的方法,其特征在于,在Input模块采用Mosaic和MixUp数据增强技术对训练过程中同一批次图片进行不同程度的混合。
5.一种基于改进YOLO V5的安全帽检测系统,其特征在于,包括:计算机可读存储介质和处理器;
所述计算机可读存储介质用于存储可执行指令;
所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行权利要求1至4任一项所述的基于改进YOLO V5的安全帽检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110870222.9A CN113553977B (zh) | 2021-07-30 | 2021-07-30 | 一种基于改进yolo v5的安全帽检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110870222.9A CN113553977B (zh) | 2021-07-30 | 2021-07-30 | 一种基于改进yolo v5的安全帽检测方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113553977A CN113553977A (zh) | 2021-10-26 |
CN113553977B true CN113553977B (zh) | 2023-02-10 |
Family
ID=78105004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110870222.9A Active CN113553977B (zh) | 2021-07-30 | 2021-07-30 | 一种基于改进yolo v5的安全帽检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113553977B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114120220A (zh) * | 2021-10-29 | 2022-03-01 | 北京航天自动控制研究所 | 一种基于计算机视觉的目标检测方法和装置 |
CN114399799A (zh) * | 2021-11-22 | 2022-04-26 | 电子科技大学 | 一种基于YOLOv5网络的口罩佩戴检测方法 |
CN114187508B (zh) * | 2021-11-30 | 2024-10-22 | 武汉理工大学 | 基于动态卷积神经网络的火灾探测方法、装置及电子设备 |
CN114332752B (zh) * | 2021-12-09 | 2024-06-21 | 国能宁夏灵武发电有限公司 | 一种作业人员安全装备异常佩戴状态检测方法与装置 |
CN114581860A (zh) * | 2022-05-09 | 2022-06-03 | 武汉纺织大学 | 一种基于改进的YOLOv5模型的安全帽检测算法 |
CN116229570B (zh) * | 2023-02-21 | 2024-01-23 | 四川轻化工大学 | 一种基于机器视觉的高空作业人员行为态势识别方法 |
CN116205895B (zh) * | 2023-03-16 | 2024-04-02 | 四川轻化工大学 | 一种基于改进YOLOv5的变压器漏油检测方法 |
CN116188502B (zh) * | 2023-04-27 | 2023-07-21 | 尚特杰电力科技有限公司 | 光伏板红外图像分割方法、存储介质以及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2019101133A4 (en) * | 2019-09-30 | 2019-10-31 | Bo, Yaxin MISS | Fast vehicle detection using augmented dataset based on RetinaNet |
CN112861646A (zh) * | 2021-01-18 | 2021-05-28 | 浙江大学 | 复杂环境小目标识别场景下的卸油工安全帽级联检测方法 |
CN113139419A (zh) * | 2020-12-28 | 2021-07-20 | 西安天和防务技术股份有限公司 | 一种无人机检测方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200394384A1 (en) * | 2019-06-14 | 2020-12-17 | Amarjot Singh | Real-time Aerial Suspicious Analysis (ASANA) System and Method for Identification of Suspicious individuals in public areas |
AU2020100711A4 (en) * | 2020-05-05 | 2020-06-11 | Chang, Cheng Mr | The retrieval system of wearing safety helmet based on deep learning |
CN111881730A (zh) * | 2020-06-16 | 2020-11-03 | 北京华电天仁电力控制技术有限公司 | 一种火电厂现场安全帽佩戴检测方法 |
CN112733929B (zh) * | 2021-01-07 | 2024-07-19 | 南京工程学院 | 一种改进Yolo水下图像小目标和遮挡目标的检测方法 |
CN112926405B (zh) * | 2021-02-01 | 2024-04-02 | 西安建筑科技大学 | 一种安全帽佩戴检测方法、系统、设备及存储介质 |
-
2021
- 2021-07-30 CN CN202110870222.9A patent/CN113553977B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2019101133A4 (en) * | 2019-09-30 | 2019-10-31 | Bo, Yaxin MISS | Fast vehicle detection using augmented dataset based on RetinaNet |
CN113139419A (zh) * | 2020-12-28 | 2021-07-20 | 西安天和防务技术股份有限公司 | 一种无人机检测方法及装置 |
CN112861646A (zh) * | 2021-01-18 | 2021-05-28 | 浙江大学 | 复杂环境小目标识别场景下的卸油工安全帽级联检测方法 |
Non-Patent Citations (1)
Title |
---|
Safety Helmet Detection Based on YOLOv5;Fangbo Zhou等;《2021 IEEE International Conference on Power Electronics, Computer Applications (ICPECA)》;20210124;第6-11页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113553977A (zh) | 2021-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113553977B (zh) | 一种基于改进yolo v5的安全帽检测方法和系统 | |
CN113553979B (zh) | 一种基于改进yolo v5的安全服检测方法和系统 | |
CN113516076B (zh) | 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法 | |
CN110070033A (zh) | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 | |
CN111582092B (zh) | 一种基于人体骨架的行人异常行为检测方法 | |
CN111814638A (zh) | 基于深度学习的安防场景火焰检测方法 | |
CN114997279A (zh) | 一种基于改进Yolov5模型的建筑工人危险区域入侵检测方法 | |
CN112541393A (zh) | 一种基于深度学习的变电站人员检测方法及装置 | |
CN114662605A (zh) | 基于改进的YOLOv5模型的火焰检测方法 | |
CN114565891A (zh) | 一种基于图形生成技术的烟火监测方法及系统 | |
CN116092115A (zh) | 一种实时轻量的施工人员安全着装检测方法 | |
CN115719368A (zh) | 一种多目标船舶跟踪方法及系统 | |
CN107330441B (zh) | 火焰图像前景提取算法 | |
CN116798117A (zh) | 一种基于视频理解的矿井下异常动作识别方法 | |
CN113221667B (zh) | 一种基于深度学习的人脸口罩属性分类方法及系统 | |
CN103927517B (zh) | 一种基于人体全局特征直方图熵的动作检测方法 | |
CN117475353A (zh) | 基于视频的异常烟雾识别方法及系统 | |
CN117351409A (zh) | 混凝土坝面作业风险智能识别方法 | |
CN115100681B (zh) | 一种衣着识别方法、系统、介质及设备 | |
CN116977904A (zh) | 一种基于YOLOv5的快速识别大场景多人工衣检测方法 | |
CN113792629B (zh) | 一种基于深度神经网络的安全帽佩戴检测方法及系统 | |
Jin et al. | Video streaming helmet detection algorithm based on feature map fusion and faster RCNN | |
CN115995097A (zh) | 一种基于深度学习的安全头盔佩戴标准判断方法 | |
CN112818881B (zh) | 一种人体行为识别方法 | |
Sun et al. | Flame Image Detection Algorithm Based onComputer Vision. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |