[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN118172714B - 油田井下作业环境下的多尺度施工装备鲁棒性识别方法 - Google Patents

油田井下作业环境下的多尺度施工装备鲁棒性识别方法 Download PDF

Info

Publication number
CN118172714B
CN118172714B CN202410598200.5A CN202410598200A CN118172714B CN 118172714 B CN118172714 B CN 118172714B CN 202410598200 A CN202410598200 A CN 202410598200A CN 118172714 B CN118172714 B CN 118172714B
Authority
CN
China
Prior art keywords
scale
model
image
module
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410598200.5A
Other languages
English (en)
Other versions
CN118172714A (zh
Inventor
张凯
宋泽文
夏小龙
张华清
张黎明
刘丕养
严侠
王阳
张文娟
姚军
樊灵
孙海
杨永飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Petroleum East China
Original Assignee
China University of Petroleum East China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Petroleum East China filed Critical China University of Petroleum East China
Priority to CN202410598200.5A priority Critical patent/CN118172714B/zh
Publication of CN118172714A publication Critical patent/CN118172714A/zh
Application granted granted Critical
Publication of CN118172714B publication Critical patent/CN118172714B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种油田井下作业环境下的多尺度施工装备鲁棒性识别方法,属于石油工程领域,包括如下步骤:步骤1、获取井场历史图像及历史视频并进行标注处理,建立数据集并划分为训练集和验证集;步骤2、构建多尺度鲁棒性识别模型,初始化模型的对抗训练参数;步骤3、进行多阶段对抗学习,构建对抗训练集;步骤4、将对抗训练集输入多尺度鲁棒性识别模型,优化模型参数,输出训练完成的多尺度鲁棒性识别模型;步骤5、实时获取当前井场井下作业环境下的视频及图像数据,输入训练完成的多尺度鲁棒性识别模型获取不同施工装备的空间位置,进而进行井场情况分析。本发明能够更好地适应井下环境中的各种复杂情况,从而提高识别的准确率和稳定性。

Description

油田井下作业环境下的多尺度施工装备鲁棒性识别方法
技术领域
本发明属于石油工程领域,具体涉及一种油田井下作业环境下的多尺度施工装备鲁棒性识别方法。
背景技术
油气田开发过程中的井下作业是一个高风险的工作,需要高度的专业知识和技能。井下作业现场设施的智能监控可以确保工作人员的安全,及时发现井下作业现场的异常情况,从而避免事故的发生,同时提高生产效率,及时发现生产过程中的问题,从而保证生产的正常进行。
传统的监控方法往往存在着监控范围有限、监控效果不佳等问题,并且监控对人工依赖性非常高。因此,如何利用井场图像数据,通过深度学习的方法对井下作业现场施工装备进行检测,实时反馈井场设施的情况,对于井下作业过程人员安全保障和油气田开发正常生产具有重要意义。但是在复杂的现场环境中,设施的识别难度较大。目前,单阶段算法已经成为了目标检测的主流方法之一,但是该系列网络在井下环境中仍然存在一些缺陷,如对于小物体识别、设施遮挡等情况的适应性不足,因此难以在现场得到应用。
发明内容
为了解决上述问题,本发明提出了一种油田井下作业环境下的多尺度施工装备鲁棒性识别方法,通过对单阶段算法的改进,使其能够更好地适应井下环境中的各种复杂情况,从而提高识别的准确率和稳定性,极大地提高井下作业现场设施识别的效率,提高作业现场人员的安全性。
本发明的技术方案如下:
一种油田井下作业环境下的多尺度施工装备鲁棒性识别方法,包括如下步骤:
步骤1、获取井场历史图像及历史视频并进行标注处理,建立数据集并划分为训练集和验证集;
步骤2、构建多尺度鲁棒性识别模型,初始化模型的对抗训练参数;
步骤3、基于训练集和多尺度鲁棒性识别模型进行多阶段对抗学习,构建对抗训练集;
步骤4、将对抗训练集输入多尺度鲁棒性识别模型,优化模型参数,输出训练完成的多尺度鲁棒性识别模型;
步骤5、实时获取当前井场井下作业环境下的视频及图像数据,输入训练完成的多尺度鲁棒性识别模型获取不同施工装备的空间位置,进而进行井场情况分析。
进一步地,所述步骤1的具体过程为:
步骤1.1、采集井场井下作业环境下各个井场施工装备的各个位置视角与多种光照条件下的图像及视频,井场施工装备包含防喷器、修井车、井架、大钩、天车、储水罐、采油树、抽油机、板房、油管、猫道、套管头、管桥、吊卡、消防15种施工装备;
步骤1.2、将收集到的视频转为图像,视频中每间隔10帧取一张图像作为原始图像;
步骤1.3、采用开源软件Labelimg对所有原始图像进行标注处理,将原始图像和标注信息共同构建为数据集;标注信息为每张原始图像中每种施工装备的施工装备类别索引及位置关系;
步骤1.4、将数据集按照训练集:验证集=0.85:0.15的比例划分为训练集和验证集
进一步地,所述步骤2中,搭建的多尺度鲁棒性识别模型包括骨干部分、颈部网络、头部网络;
多尺度鲁棒性识别模型输入分辨率为640×640的图像,由骨干部分提取图像信息,图像首先通过两个卷积模块进行下采样,特征图分辨率转变为160×160,然后通过包含3个瓶颈层的特征融合模块进行特征提取,特征提取后通过轻量型注意力模块使注意力机制看到160×160尺度下的局部特征;再次通过卷积模块进行下采样,6个瓶颈层的特征融合模块特征提取,特征提取后通过轻量型注意力模块添加注意力机制,重复三次以后特征图分辨率转变为20×20,最后通过空间金字塔池化模块将局部特征和全局特征的进行融合,从而实现自适应尺度的输出;
骨干部分输出的特征图在颈部网络进行特征融合;首先将空间金字塔池化模块输出特征图通过上采样模块进行上采样,将骨干部分中分辨率为40×40的特征融合模块输出与上采样结果进行通道数相加,输出分辨率40×40融合特征图,之后经过3个瓶颈层的特征融合模块及上采样模块,输出结果与骨干部分中分辨率为80×80的特征融合模块输出通道数相加,输出分辨率80×80融合特征图,然后再依次经过3个瓶颈层的特征融合模块特征提取、卷积模块进行下采样,输出结果与分辨率40×40融合特征图对应特征融合模块输出通道数相加,输出分辨率为40×40的二次特征融合图,接着再次经过3个瓶颈层的特征融合模块特征提取、卷积模块进行下采样,输出结果与骨干部分空间金字塔池化模块输出通道数相加,输出分辨率为20×20融合特征图,最后经过3个瓶颈层的特征融合模块进行特征提取;
颈部网络提取特征的结果在头部网络进行识别;头部网络由三个检测头模块组成,输入分别对应80×80、40×40、20×20三种分辨率下特征融合模块输出的特征图。
进一步地,所述卷积模块由一个卷积层、一个批归一化层和一个SiLU激活函数层组成;
所述特征融合模块依次由第一卷积层、通道分割层、m个相同结构的瓶颈层、通道相加层和第二卷积层组成;第一卷积层和第二卷积层的结构相同,卷积核为,步长为1;每个瓶颈层均由串联的卷积核为,步长为1的两个卷积层组成;m个瓶颈层的结果在通道相加层进行通道相加;
所述轻量型注意力模块的公式为:
(1);
式中,为增强后的图像特征;为图像的原始特征;代表图像原始特征重要性矩阵;为sigmoid激活函数,具体表达式为为激活函数的输入;
所述空间金字塔池化模块依次由第一卷积层、三个相同结构的二维最大池化层、通道相加层和第二卷积层组成;三个最大池化层依次连接,三个最大池化层的结果在通道相加层进行通道相加;第一卷积层和第二卷积层的结构相同,卷积核为,步长为1;
所述检测头模块使用的解耦头结构,包含分类与回归两个分支,每个分支的结构相同,每个分支依次由两个串联的卷积核为,步长为1的卷积层和一个卷积核为,步长为1的卷积层组成。
进一步地,所述多尺度鲁棒性识别模型将含有目标对象的图片及其边界框作为正样本,用于模型学习如何识别和定位目标;不含有目标对象或目标对象以外的区域则被标记为负样本,帮助模型学习背景与目标之间的区分能力;正负样本分配策略模型根据分类与回归的分数加权的分数选择正样本,具体为:
(2);
式中,是综合分数;是标注类别对应的预测概率;分别用来控制预测概率和交并比对综合分数的影响程度;是预测框和真实框的交并比,如下所示:
(3);
式中,分别代表预测框和真实框的两个对象。
进一步地,所述步骤2中,构建损失函数训练模型,损失函数包括分类分支损失函数与回归分支损失函数两个分支;
分类分支损失函数计算采用二元交叉熵,如下:
(4);
式中,是二元交叉熵损失函数值;是当前图像特征;为样本的类别属性;为模型的所有可优化参数;是总样本数;是第个样本所属类别;是第个样本的概率值;
回归分支损失函数计算采用分布焦点损失函数和定位损失函数,分布焦点损失函数具体为:
(5);
式中,是分布焦点损失值;分别是第个样本、第个样本质量分数的极值;为样本质量分数的极值;
定位损失函数具体为:
(6);
(7);
式中,为EIoU损失函数的值;是定位框数量;代表预测框与真实框不同属性间距的最大距离;是预测框中心点;是真实框中心点;代表覆盖预测框与真实框最小框的对角线长度;是预测框水平边;是真实框水平边;是覆盖预测框与真实框最小框的水平边长;是预测框垂直边;是真实框垂直边;是覆盖预测框与真实框最小框的垂直边长;是定位损失函数值;代表控制异常值抑制程度的参数;
从互联网上获取开源通用识别领域数据集COCO预训练模型,得到初始化模型参数,同时随机初始化对抗扰动参数,初始化累积梯度损失
进一步地,所述步骤3的具体过程为:
步骤3.1、将训练集输入步骤2建立的多尺度鲁棒性识别模型,计算扰动梯度下多尺度鲁棒性识别模型的梯度结果,如下所示:
(8);
(9);
(10);
式中,代表对进行最大化正则化处理;为公式(8)约束条件,仅针对公式(4)(7)中的两个损失函数;为当前图像特征;为不同损失函数对应的属性;为样本的类别属性;为定位框数量;为损失函数的集合;为损失函数对应的最大上限的集合;为最大上限的索引集合;代表模型总损失函数;代表一张图像中类别的数量;代表第个类别在该图像中的数量;为第个类别数量的序列索引;代表单项损失之间的不同权重系数,用以控制不同损失函数的大小关系;为添加约束后的二元交叉熵损失函数为添加约束后的定位损失函数为图中第个类别样本属性;为第个类别在图像中的定位框数量;代表在对抗扰动参数下的梯度损失;代表在数据集中寻找最优化参数;为对抗扰动参数的梯度计算;
步骤3.2、更新对抗扰动参数的梯度,经过多次循环步骤3.1迭代更新扰动:
(11);
式中,为返回某个数的符号,即代表梯度更新的方向;代表将某个数限制在范围中;为更新符号;为对抗扰动参数的阈值;
步骤3.3、利用最后一次更新后得到的对抗扰动参数生成对抗样本:
(12);
式中,代表生成的对抗样本集,代表训练集;
步骤3.4、将生成的对抗样本集添加到训练集中得到对抗训练集
进一步地,所述步骤4的具体过程为:
步骤4.1、利用对抗训练集,对参数迭代更新:
(13);
(14);
(15);
式中,为累积梯度损失;为不考虑约束条件下的总损失函数;为单张图像中总的定位框数量;代表第个定位框的类别;代表第个定位框;为参数的梯度计算;代表在对抗训练集中寻找最优化参数;均为超参数,分别代表衰减因子和学习率;
步骤4.2、将验证集输入当前回合训练好的模型进行验证,利用平均精度进行模型效果评价:
(16);
式中,代表平均精度;代表总的类别数量;分别代表验证集在第个类别下预测的精度和召回率;代表对微分;
步骤4.3、将当前训练模型在验证集上的平均精度与上一回合在上的平均精度进行比较,保存效果最佳的模型参数
步骤4.4、重复步骤4.1-步骤4.3,直至达到训练结束条件,保存最佳权重,具有最佳权重的模型即为训练完成的多尺度鲁棒性识别模型;训练结束条件为达到预先设定的最大训练回合数,或在训练过程中,50回合内训练模型在上平均精度没有提升。
本发明所带来的有益技术效果:本发明结合了注意力机制与单阶段目标检测框架,与单阶段算法相比,具有对小目标检测精度高、训练速度快等优点,可以提高作业现场设施识别的准确率和稳定性,有效地减少误判和漏检的情况,可满足井下作业对安全性的应用需求;在本发明方法中采用对抗学习的技术,进一步增强了模型的鲁棒性,使其在面对复杂、多变的工作环境时能够保持稳定的识别性能。这种方法有效提高了作业现场设施识别的准确率,为井下作业的安全保障提供了强有力的技术支持;利用井场历史图像做数据集,可快速高效训练生成现场识别的模型,基于该模型的智能监控可以实现对于整个井下作业现场设施的全面监控,从而提高监控效果和监控范围,减小大量的人力和财力耗费,对于井下作业有重要的指导意义。
附图说明
图1是本发明油田井下作业环境下的多尺度施工装备鲁棒性识别方法流程图。
图2是本发明多尺度鲁棒性识别模型的整体结构图。
图3是图2中卷积模块的具体结构图。
图4是图2中特征融合模块的具体结构图。
图5是图2中空间金字塔池化模块的具体结构图。
图6是图2中检测头模块的具体结构图。
图7是本发明对比实验1中采用现有技术单阶段算法YOLOv8的精度-召回率曲线图。
图8是本发明对比实验1中采用本发明多尺度鲁棒性模型算法的精度-召回率曲线图。
图9是本发明对比实验2中的第一原始图像。
图10是本发明对比实验2中针对第一原始图像采用现有技术单阶段算法YOLOv8的检测结果图。
图11是本发明对比实验2中针对第一原始图像采用本发明多尺度鲁棒性算法的检测结果图。
图12是本发明对比实验2中的第二原始图像。
图13是本发明对比实验2中针对第二原始图像采用现有技术单阶段算法YOLOv8的检测结果图。
图14是本发明对比实验2中针对第二原始图像采用本发明多尺度鲁棒性算法的检测结果图。
具体实施方式
下面结合附图以及具体实施方式对本发明作进一步详细说明:
为了更好的适应井场井下作业过程中施工装备复杂、尺度差异大的问题,本发明提供了油田井下作业环境下的多尺度施工装备鲁棒性识别方法,通过在检测模型中引入对抗学习和注意力机制提高对专业场景的适应性。具体包括以下步骤:首先获取井场的历史图片及视频,将所有图像做标注建立数据集,图像输入识别网络模型,经预处理后进行训练,优化过程引入对抗训练加强鲁棒性,不断迭代模型参数,得到最佳权重数据,最后基于训练完成的网络模型,进行井场情况分析。本发明具有检测速度快,识别精准等优点,能够快速判断和预测井场施工装备问题,实时的监测井场的情况,以满足井场井下作业过程的实际应用需求,对于监控井场井下作业过程具有重要的指导意义。
如图1所示,一种油田井下作业环境下的多尺度施工装备鲁棒性识别方法,具体包括如下步骤:
步骤1、获取井场历史图像及历史视频并进行标注处理,建立数据集并划分为训练集和验证集;具体过程为:
步骤1.1、采集井场井下作业环境下各个井场施工装备的各个位置视角与多种光照条件下的图像及视频,井场施工装备包含防喷器、修井车、井架、大钩、天车、储水罐、采油树、抽油机、板房、油管、猫道、套管头、管桥、吊卡、消防15种施工装备;
步骤1.2、将收集到的视频转为图像,视频中每间隔10帧取一张图像作为原始图像;
步骤1.3、采用开源软件Labelimg对所有原始图像进行标注处理,将原始图像和标注信息共同构建为数据集;标注信息为每张原始图像中每种施工装备的施工装备类别索引及位置关系;
标注处理时,先将所有原始图像存放于名为原始图像的一个文本文件,然后采用开源软件Labelimg使原始图像中的每个目标物体都具有标注,将每张图像中每种施工装备的施工装备类别索引及位置关系进行标注,将每张原始图像的标注信息存放于名为标注结果的另一个文本文件,两个文本文件共同组成数据集;
步骤1.4、将数据集按照训练集:验证集=0.85:0.15的比例划分为训练集和验证集。原始图像文本文件中包括训练集原始图像子文件和验证集原始图像子文件;同样,标注结果文本文件包括训练集标注结果子文件和验证集标注结果子文件。
步骤2、构建多尺度鲁棒性识别模型,初始化模型的对抗训练参数;具体过程为:
构建的多尺度鲁棒性识别模型包括骨干部分、颈部网络、头部网络;骨干部分用于提取图像信息,颈部网络进行特征融合,头部网络根据提取特征进行识别;模型的整体结构如图2所示,涉及到的各个模块结构如图3-图6所示,图2-图6中k为卷积核尺寸,s为步长,n为特征融合模块的瓶颈层数量,p为边界扩充;卷积核尺寸k=3代表卷积为3*3;
多尺度鲁棒性识别模型的输入是分辨率为640×640的图像,由骨干部分提取图像信息,图像首先通过两个卷积模块进行下采样,特征图分辨率转变为160×160,然后通过包含3个瓶颈层的特征融合模块进行特征提取,特征提取后通过轻量型注意力模块使注意力机制看到160×160尺度下的局部特征;再次通过卷积模块进行下采样,6个瓶颈层的特征融合模块特征提取,特征提取后通过轻量型注意力模块添加注意力机制,重复三次以后特征图分辨率转变为20×20,最后通过空间金字塔池化模块将局部特征和全局特征的进行融合,从而实现自适应尺度的输出。
骨干部分输出的特征图在颈部网络进行特征融合。首先将空间金字塔池化模块输出特征图通过上采样模块进行上采样,将骨干部分中分辨率为40×40的特征融合模块输出与上采样结果进行通道数相加,输出分辨率40×40融合特征图,之后经过3个瓶颈层的特征融合模块及上采样模块,输出结果与骨干部分中分辨率为80×80的特征融合模块输出通道数相加,输出分辨率80×80融合特征图,然后再依次经过3个瓶颈层的特征融合模块特征提取、卷积模块进行下采样,输出结果与分辨率40×40融合特征图对应特征融合模块输出通道数相加,输出分辨率为40×40的二次特征融合图,接着再次经过3个瓶颈层的特征融合模块特征提取、卷积模块进行下采样,输出结果与骨干部分空间金字塔池化模块输出通道数相加,输出分辨率为20×20融合特征图,最后经过3个瓶颈层的特征融合模块进行特征提取。
颈部网络提取特征的结果在头部网络进行识别。头部网络由三个检测头模块组成,输入分别对应80×80、40×40、20×20三种分辨率下特征融合模块输出的特征图,多尺度的探测头可以更好地适应大中小目标的检测效果。
如图3所示,卷积模块由一个卷积层、一个批归一化层和一个SiLU激活函数层组成。其中,卷积层的卷积核为,步长为2;SiLU激活函数层的计算公式为:为激活函数的输入。卷积模块的主要目的是对特征图进行下采样,生成对应图像的缩略图,使网络结构能够更好的适应多尺度的目标检测。
如图4所示,特征融合模块依次由第一卷积层、通道分割层、m个相同结构的瓶颈层、通道相加层和第二卷积层组成。第一卷积层和第二卷积层的结构相同,卷积核为,步长为1;每个瓶颈层均由串联的卷积核为,步长为1的两个卷积层组成;m个瓶颈层的结果在通道相加层进行通道相加。特征融合模块使模型可以在保证轻量化的同时获得更加丰富的梯度流信息,可以提取高阶语义信息并利用特征融合技术提高检测精度。
上述轻量型注意力模块是一个零参数权值分配模块,考虑到显示出明显的空间抑制效应的神经元在视觉处理中应该被给予更高的优先级,因此需要测量一个目标神经元和其他神经元之间的线性可分离性,该模块处理方式具体为:
(1);
式中,为增强后的图像特征;为图像的原始特征;代表图像原始特征重要性矩阵;为sigmoid激活函数,用于限制中值过大,具体表达式为为激活函数的输入。
如图5所示,空间金字塔池化模块依次由第一卷积层、三个相同结构的二维最大池化层、通道相加层和第二卷积层组成;三个最大池化层依次连接,三个最大池化层的结果在通道相加层进行通道相加。第一卷积层和第二卷积层的结构相同,卷积核为,步长为1;经过三个相同结构的二维最大池化层可以提取不同尺寸的特征信息,提升模型的鲁棒性,相比普通空间金字塔池化模块需要指定三次卷积核大小,最大池化层只需指定一个卷积核,每次池化结果会被下一次继承,速度更快;
如图6所示,检测头模块使用的解耦头结构,包含分类与回归两个分支,每个分支的结构相同,每个分支依次由两个串联的卷积核为,步长为1的卷积层和一个卷积核为,步长为1的卷积层组成。
多尺度鲁棒性识别模型将含有目标对象的图片及其边界框作为正样本,用于模型学习如何识别和定位目标;不含有目标对象或目标对象以外的区域则被标记为负样本,帮助模型学习背景与目标之间的区分能力。正负样本分配策略模型根据分类与回归的分数加权的分数选择正样本,具体为:
(2);
式中,是综合分数;是标注类别对应的预测概率;分别用来控制预测概率和交并比对综合分数的影响程度;是预测框和真实框的交并比,如下:
(3);
式中,分别代表预测框和真实框的两个对象。
构建损失函数训练模型,损失函数包括分类分支损失函数与回归分支损失函数两个分支。
分类分支损失函数计算采用二元交叉熵,如下:
(4);
式中,是二元交叉熵损失函数值;是当前图像特征;为样本的类别属性;为模型的所有可优化参数;是总样本数;是第个样本所属类别;是第个样本的概率值。
回归分支损失函数计算采用分布焦点损失函数和定位损失函数,分布焦点损失函数具体为:
(5);
式中,是分布焦点损失值;分别是第个样本、第个样本质量分数的极值;为样本质量分数的极值;
定位损失函数具体为:
(6);
(7);
式中,为EIoU损失函数的值;是定位框数量;代表预测框与真实框不同属性间距的最大距离;是预测框中心点;是真实框中心点;代表覆盖预测框与真实框最小框的对角线长度;是预测框水平边;是真实框水平边;是覆盖预测框与真实框最小框的水平边长;是预测框垂直边;是真实框垂直边;是覆盖预测框与真实框最小框的垂直边长;是定位损失函数值;代表控制异常值抑制程度的参数;
从互联网上获取开源通用识别领域数据集COCO(Common Objects in Context)预训练模型,得到初始化模型参数,同时随机初始化对抗扰动参数,初始化累积梯度损失
步骤3、基于训练集和多尺度鲁棒性识别模型进行多阶段对抗学习,构建对抗训练集;所述多阶段指对抗扰动参数在训练回合内会进行多次更新,最后一次的更新结果用于对抗样本生成;具体过程为:
步骤3.1、将训练集输入步骤2建立的多尺度鲁棒性识别模型,计算扰动梯度下多尺度鲁棒性识别模型的梯度结果,如下所示:
(8);
(9);
(10);
式中,代表对进行最大化正则化处理;为公式(8)约束条件,仅针对公式(4)(7)中的两个损失函数;为当前图像特征;为不同损失函数对应的属性;为样本的类别属性;为定位框数量;为损失函数的集合;为损失函数对应的最大上限的集合,防止单个损失函数项过大造成梯度爆炸;为最大上限的索引集合;代表模型总损失函数;代表一张图像中类别的数量,代表第个类别在该图像中的数量;为第个类别数量的序列索引;代表单项损失之间的不同权重系数,用以控制不同损失函数的大小关系;为添加约束后的二元交叉熵损失函数为添加约束后的定位损失函数为图中第个类别样本属性;为第个类别在图像中的定位框数量;代表在对抗扰动参数下的梯度损失;代表在数据集中寻找最优化参数;为对抗扰动参数的梯度计算。
步骤3.2、更新对抗扰动参数的梯度,经过多次循环步骤3.1迭代更新扰动:
(11);
式中,为对抗扰动参数;为返回某个数的符号,即代表梯度更新的方向;代表将某个数限制在范围中;为更新符号;为对抗扰动参数的阈值;
步骤3.3、利用最后一次更新后得到的对抗扰动参数生成对抗样本:
(12);
式中,代表生成的对抗样本集,代表训练集。
步骤3.4、将生成的对抗样本集添加到训练集中得到对抗训练集
步骤4、将对抗训练集输入多尺度鲁棒性识别模型,优化模型参数,输出训练完成的多尺度鲁棒性识别模型;具体过程为:
步骤4.1、利用对抗训练集,对参数迭代更新:
(13);
(14);
(15);
式中,为累积梯度损失;为不考虑约束条件下的总损失函数;为单张图像中总的定位框数量;代表第个定位框的类别;代表第个定位框;为参数的梯度计算;代表在对抗训练集中寻找最优化参数;均为超参数,分别代表衰减因子和学习率。
步骤4.2、将验证集输入当前回合训练好的模型进行验证,利用平均精度进行模型效果评价:
(16);
式中,代表平均精度;代表总的类别数量;分别代表验证集在第个类别下预测的精度和召回率;代表对微分。
步骤4.3、将当前训练模型在验证集上的平均精度与上一回合在上的平均精度进行比较,保存效果最佳的模型参数
步骤4.4、重复步骤4.1-步骤4.3,直至达到训练结束条件,保存最佳权重,具有最佳权重的模型即为训练完成的多尺度鲁棒性识别模型;本发明设定最大的训练回合数为500,并同时设置训练终止条件,即若在训练过程中,50回合内训练模型在上平均精度没有提升,则提前终止训练,保存当前训练得到的最佳的模型参数
步骤5、实时获取当前井场井下作业环境下的视频及图像数据,输入训练完成的多尺度鲁棒性识别模型获取不同施工装备的空间位置,进而进行井场情况分析;以起下管柱场景为例,井场环境视频数据输入识别模型可以获取大钩在视频中的空间位置,检测结果结合视频时间序列可以有效识别大钩工作的运动状态,避免管柱起下的速度过快引发井涌,有效减小安全监督的人力成本。
为了证明本发明的可行性与优越性,进行了如下对比实验。
对比实验1:本发明多尺度鲁棒性模型算法与现有技术单阶段算法YOLOv8的精度-召回率对比;
将上述采用多尺度鲁棒性识别模型的技术方案简称为多尺度鲁棒性模型算法,图7和图8为现有技术单阶段算法YOLOv8和本发明多尺度鲁棒性算法的精度-召回率曲线对比,图中横坐标为召回率,表征样本中的预测正确率,纵坐标为精确度,表征预测为正的样本正确率,在召回率增加时精确率减小趋势越小表明效果越好,从图中可以看出本发明改进过后效果有一定提升。此外,右上角图例的值是mAP@0.5,mAP@0.5代表每一类目标曲线与坐标轴围成面积的平均值,可用于表征目标检测算法效果,图中可以看出改进后mAP@0.5有所提升。注意到某些施工装备的mAP@0.5高达0.995,因此其对应数字位于右上角,和坐标轴几乎重叠。
对比实验2:本发明多尺度鲁棒性模型算法与现有技术单阶段算法YOLOv8的实际图像检测结果对比;
图9-图14为本发明多尺度鲁棒性算法与单阶段算法YOLOv8在现场实际图像应用中的检测结果对比。
图9为第一原始图像,在示例图9的检测结果中,本发明多尺度鲁棒性算法模型的识别结果图11相比于现有技术单阶段算法YOLOv8识别结果图10有以下提升:将原来未识别到的猫道、防喷器、井架、修井车、套管头都成功检测到,并且对识别不完全的远方抽油机和较远处的管桥都能完整识别。
图12为第二原始图像,在示例图12的检测结果中,本发明多尺度鲁棒性算法模型的识别结果图14相比于现有技术单阶段算法YOLOv8识别结果图13有以下提升:将原先井口未识别到的防喷器检测到。
总的来说,从图中可以看出本发明模型改进过后对小目标检测有效果提升,实现了不同尺度目标的检测和对小目标检测的改进。
当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。

Claims (7)

1.一种油田井下作业环境下的多尺度施工装备鲁棒性识别方法,其特征在于,包括如下步骤:
步骤1、获取井场历史图像及历史视频并进行标注处理,建立数据集并划分为训练集和验证集;
步骤2、构建多尺度鲁棒性识别模型,初始化模型的对抗训练参数;
搭建的多尺度鲁棒性识别模型包括骨干部分、颈部网络、头部网络;
多尺度鲁棒性识别模型输入分辨率为640×640的图像,由骨干部分提取图像信息,图像首先通过两个卷积模块进行下采样,特征图分辨率转变为160×160,然后通过包含3个瓶颈层的特征融合模块进行特征提取,特征提取后通过轻量型注意力模块使注意力机制看到160×160尺度下的局部特征;再次通过卷积模块进行下采样,6个瓶颈层的特征融合模块特征提取,特征提取后通过轻量型注意力模块添加注意力机制,重复三次以后特征图分辨率转变为20×20,最后通过空间金字塔池化模块将局部特征和全局特征的进行融合,从而实现自适应尺度的输出;
骨干部分输出的特征图在颈部网络进行特征融合;首先将空间金字塔池化模块输出特征图通过上采样模块进行上采样,将骨干部分中分辨率为40×40的特征融合模块输出与上采样结果进行通道数相加,输出分辨率40×40融合特征图,之后经过3个瓶颈层的特征融合模块及上采样模块,输出结果与骨干部分中分辨率为80×80的特征融合模块输出通道数相加,输出分辨率80×80融合特征图,然后再依次经过3个瓶颈层的特征融合模块特征提取、卷积模块进行下采样,输出结果与分辨率40×40融合特征图对应特征融合模块输出通道数相加,输出分辨率为40×40的二次特征融合图,接着再次经过3个瓶颈层的特征融合模块特征提取、卷积模块进行下采样,输出结果与骨干部分空间金字塔池化模块输出通道数相加,输出分辨率为20×20融合特征图,最后经过3个瓶颈层的特征融合模块进行特征提取;
颈部网络提取特征的结果在头部网络进行识别;头部网络由三个检测头模块组成,输入分别对应80×80、40×40、20×20三种分辨率下特征融合模块输出的特征图;
步骤3、基于训练集和多尺度鲁棒性识别模型进行多阶段对抗学习,构建对抗训练集;
步骤4、将对抗训练集输入多尺度鲁棒性识别模型,优化模型参数,输出训练完成的多尺度鲁棒性识别模型;
步骤5、实时获取当前井场井下作业环境下的视频及图像数据,输入训练完成的多尺度鲁棒性识别模型获取不同施工装备的空间位置,进而进行井场情况分析。
2.根据权利要求1所述油田井下作业环境下的多尺度施工装备鲁棒性识别方法,其特征在于,所述步骤1的具体过程为:
步骤1.1、采集井场井下作业环境下各个井场施工装备的各个位置视角与多种光照条件下的图像及视频,井场施工装备包含防喷器、修井车、井架、大钩、天车、储水罐、采油树、抽油机、板房、油管、猫道、套管头、管桥、吊卡、消防15种施工装备;
步骤1.2、将收集到的视频转为图像,视频中每间隔10帧取一张图像作为原始图像;
步骤1.3、采用开源软件Labelimg对所有原始图像进行标注处理,将原始图像和标注信息共同构建为数据集D;标注信息为每张原始图像中每种施工装备的施工装备类别索引及位置关系;
步骤1.4、将数据集D按照训练集:验证集=0.85:0.15的比例划分为训练集Dtra和验证集Dval
3.根据权利要求1所述油田井下作业环境下的多尺度施工装备鲁棒性识别方法,其特征在于,所述卷积模块由一个卷积层、一个批归一化层和一个SiLU激活函数层组成;
所述特征融合模块依次由第一卷积层、通道分割层、m个相同结构的瓶颈层、通道相加层和第二卷积层组成;第一卷积层和第二卷积层的结构相同,卷积核为1×1,步长为1;每个瓶颈层均由串联的卷积核为1×1,步长为1的两个卷积层组成;m个瓶颈层的结果在通道相加层进行通道相加;
所述轻量型注意力模块的公式为:
式中,为增强后的图像特征;ζ为图像的原始特征;代表图像原始特征重要性矩阵;sigmoid(·)为sigmoid激活函数,具体表达式为χ为激活函数的输入;
所述空间金字塔池化模块依次由第一卷积层、三个相同结构的二维最大池化层、通道相加层和第二卷积层组成;三个最大池化层依次连接,三个最大池化层的结果在通道相加层进行通道相加;第一卷积层和第二卷积层的结构相同,卷积核为1×1,步长为1;
所述检测头模块使用的解耦头结构,包含分类与回归两个分支,每个分支的结构相同,每个分支依次由两个串联的卷积核为3×3,步长为1的卷积层和一个卷积核为1×1,步长为1的卷积层组成。
4.根据权利要求3所述油田井下作业环境下的多尺度施工装备鲁棒性识别方法,其特征在于,所述多尺度鲁棒性识别模型将含有目标对象的图片及其边界框作为正样本,用于模型学习如何识别和定位目标;不含有目标对象或目标对象以外的区域则被标记为负样本,帮助模型学习背景与目标之间的区分能力;正负样本分配策略模型根据分类与回归的分数加权的分数选择正样本,具体为:
t=sα·uβ (2);
式中,t是综合分数;s是标注类别对应的预测概率;α和β分别用来控制预测概率和交并比对综合分数的影响程度;u是预测框和真实框的交并比IoU,如下所示:
式中,A和B分别代表预测框和真实框的两个对象。
5.根据权利要求4所述油田井下作业环境下的多尺度施工装备鲁棒性识别方法,其特征在于,所述步骤2中,构建损失函数训练模型,损失函数包括分类分支损失函数与回归分支损失函数两个分支;
分类分支损失函数计算采用二元交叉熵,如下:
式中,L1是二元交叉熵损失函数值;x是当前图像特征;y为样本的类别属性;θ为模型的所有可优化参数;N是总样本数;yi是第i个样本所属类别;pi是第i个样本的概率值;
回归分支损失函数计算采用分布焦点损失函数和定位损失函数,分布焦点损失函数具体为:
式中,L2是分布焦点损失值;ψi、ψi+1分别是第i个样本、第i+1个样本质量分数的极值;ψ为样本质量分数的极值;
定位损失函数具体为:
L3=uγLEIoU (7);
式中,LEIoU为EIoU损失函数的值;b是定位框数量;ρ2(·)代表预测框与真实框不同属性间距的最大距离;m是预测框中心点;mgt是真实框中心点;c代表覆盖预测框与真实框最小框的对角线长度;w是预测框水平边;wgt是真实框水平边;cw是覆盖预测框与真实框最小框的水平边长;h是预测框垂直边;hgt是真实框垂直边;ch是覆盖预测框与真实框最小框的垂直边长;L3是定位损失函数值;γ代表控制异常值抑制程度的参数;
从互联网上获取开源通用识别领域数据集COCO预训练模型,得到初始化模型参数θ0,同时随机初始化对抗扰动参数δ,初始化累积梯度损失gθ=0。
6.根据权利要求5所述油田井下作业环境下的多尺度施工装备鲁棒性识别方法,其特征在于,所述步骤3的具体过程为:
步骤3.1、将训练集Dtra输入步骤2建立的多尺度鲁棒性识别模型,计算扰动梯度下多尺度鲁棒性识别模型的梯度结果,如下所示:
L′t∈{1,3}(x,T∈{y,b})=min[Lt∈{1,3}(x,T∈{y,b},θ),βs∈{1,3}] (8);
式中,L′t∈{1,3}代表对L1、L3进行最大化正则化处理;t∈{1,3}为公式(8)约束条件,仅针对公式(4)(7)中的L1、L3两个损失函数;x为当前图像特征;T为不同损失函数对应的属性;y为样本的类别属性;b为定位框数量;Lt∈{1,3}为损失函数L1、L3的集合;βs∈{1,3}为损失函数L1、L3对应的最大上限的集合;s∈{1,3}为最大上限的索引集合;L′C代表模型总损失函数;C代表一张图像中类别的数量;nj代表第j个类别在该图像中的数量;k为第j个类别数量的序列索引;λ1、λ2、λ3代表单项损失之间的不同权重系数,用以控制不同损失函数的大小关系;L′1为添加约束后的二元交叉熵损失函数L1;L′3为添加约束后的定位损失函数L3;yj为图中第j个类别样本属性;bk为第j个类别在图像中的定位框数量;gadv代表在对抗扰动参数δ下的梯度损失;Ex∈D代表在数据集D中寻找最优化参数;为对抗扰动参数δ的梯度计算;
步骤3.2、更新对抗扰动参数δ的梯度,经过多次循环步骤3.1迭代更新扰动:
δ←Clip(δ+εsign(gadv),-ε,ε) (11);
式中,sign(·)为返回某个数的符号,即代表梯度更新的方向;Clip(·,-ε,ε)代表将某个数限制在范围[-ε,ε]中;←为更新符号;ε为对抗扰动参数的阈值;
步骤3.3、利用最后一次更新后得到的对抗扰动参数δ生成对抗样本:
D′tra=Dtra(x+δ) (12);
式中,D′tra代表生成的对抗样本集,Dtra代表训练集;
步骤3.4、将生成的对抗样本集D′tra添加到训练集Dtra中得到对抗训练集D′train
7.根据权利要求6所述油田井下作业环境下的多尺度施工装备鲁棒性识别方法,其特征在于,所述步骤4的具体过程为:
步骤4.1、利用对抗训练集D′train,对参数θ迭代更新:
θ←θ+αgθ (15);
式中,gθ为累积梯度损失;L(·)为不考虑约束条件下的总损失函数;为单张图像中总的定位框数量;代表第个定位框的类别;代表第个定位框;为参数θ的梯度计算;代表在对抗训练集D′train中寻找最优化参数;μ、α均为超参数,分别代表衰减因子和学习率;
步骤4.2、将验证集Dval输入当前回合训练好的模型进行验证,利用平均精度进行模型效果评价:
式中,mAP代表平均精度;Call代表总的类别数量;Pf和Rf分别代表验证集在第f个类别下预测的精度和召回率;dRf代表对Rf微分;
步骤4.3、将当前训练模型在验证集Dval上的平均精度与上一回合在Dval上的平均精度进行比较,保存效果最佳的模型参数θbest
步骤4.4、重复步骤4.1-步骤4.3,直至达到训练结束条件,保存最佳权重θbest,具有最佳权重的模型即为训练完成的多尺度鲁棒性识别模型;训练结束条件为达到预先设定的最大训练回合数,或在训练过程中,50回合内训练模型在Dval上平均精度没有提升。
CN202410598200.5A 2024-05-15 2024-05-15 油田井下作业环境下的多尺度施工装备鲁棒性识别方法 Active CN118172714B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410598200.5A CN118172714B (zh) 2024-05-15 2024-05-15 油田井下作业环境下的多尺度施工装备鲁棒性识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410598200.5A CN118172714B (zh) 2024-05-15 2024-05-15 油田井下作业环境下的多尺度施工装备鲁棒性识别方法

Publications (2)

Publication Number Publication Date
CN118172714A CN118172714A (zh) 2024-06-11
CN118172714B true CN118172714B (zh) 2024-07-30

Family

ID=91359126

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410598200.5A Active CN118172714B (zh) 2024-05-15 2024-05-15 油田井下作业环境下的多尺度施工装备鲁棒性识别方法

Country Status (1)

Country Link
CN (1) CN118172714B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118366104B (zh) * 2024-06-19 2024-09-13 中国石油大学(华东) 一种基于姿态估计的视频监控识别抽油机工况分析方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464883A (zh) * 2020-12-11 2021-03-09 武汉工程大学 一种自然场景下船舶目标自动检测识别方法与系统
CN116486185A (zh) * 2022-01-11 2023-07-25 中国石油化工股份有限公司 油井工况识别方法、装置、设备和存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111259930B (zh) * 2020-01-09 2023-04-25 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN111476219B (zh) * 2020-06-02 2024-09-17 苏州科技大学 智能家居环境中图像目标检测方法
CN111950457A (zh) * 2020-08-12 2020-11-17 海默潘多拉数据科技(深圳)有限公司 油田安全生产图像识别方法及系统
CN116012672A (zh) * 2023-01-17 2023-04-25 太原科技大学 一种基于线性分段损失函数的对抗训练方法
CN117152625B (zh) * 2023-08-07 2024-10-22 西安电子科技大学 一种基于CoordConv和YOLOv5的遥感小目标识别方法、系统、设备及介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464883A (zh) * 2020-12-11 2021-03-09 武汉工程大学 一种自然场景下船舶目标自动检测识别方法与系统
CN116486185A (zh) * 2022-01-11 2023-07-25 中国石油化工股份有限公司 油井工况识别方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN118172714A (zh) 2024-06-11

Similar Documents

Publication Publication Date Title
CN111666843B (zh) 一种基于全局特征和局部特征拼接的行人重识别方法
WO2022033095A1 (zh) 一种文本区域的定位方法及装置
CN118172714B (zh) 油田井下作业环境下的多尺度施工装备鲁棒性识别方法
Yeum Computer vision-based structural assessment exploiting large volumes of images
CN113688797A (zh) 一种基于骨架提取的异常行为识别方法及系统
CN111275058A (zh) 一种基于行人重识别的安全帽佩戴与颜色识别方法及装置
Nath et al. Deep learning models for content-based retrieval of construction visual data
CN114841151B (zh) 基于分解-重组策略的医学文本实体关系联合抽取方法
CN110516569B (zh) 一种基于身份和非身份属性交互学习的行人属性识别方法
Prasomphan Toward Fine-grained Image Retrieval with Adaptive Deep Learning for Cultural Heritage Image.
Chen et al. Multiscale Salient Alignment Learning for Remote Sensing Image-Text Retrieval
CN114491041A (zh) 基于网络表示学习和层次标签嵌入的专利分类方法及系统
Ding et al. Human activity recognition and location based on temporal analysis
CN114882403B (zh) 基于渐进注意力超图的视频时空动作定位方法
CN113516118B (zh) 一种图像与文本联合嵌入的多模态文化资源加工方法
Choe et al. Deep learning-based image data processing and archival system for object detection of endangered species
CN111768214A (zh) 产品属性的预测方法、系统、设备和存储介质
Xin et al. A real-time detection for miner behavior via DYS-YOLOv8n model
CN113887504A (zh) 强泛化性的遥感图像目标识别方法
Chauhan et al. Feature Extraction from Image Sensing (Remote): Image Segmentation
al Atrash et al. Detecting and Counting People's Faces in Images Using Convolutional Neural Networks
Akbulut et al. Smart Arms Detection System Using YOLO Algorithm and OpenCV Libraries
Badis et al. Machine Learning/Artificial Intelligence Driven Computer Vision for Cuttings Analysis Under Drilling and Completions
Peng et al. Research on intelligent oil drilling pipe column detection method based on improved lightweight target detection algorithm
Zhang Deep Learning-Based Species Classification Using Joint ResNet and Data Augmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant