[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN113191352A - 一种基于目标检测和二值图像检测的水表指针读数识别方法 - Google Patents

一种基于目标检测和二值图像检测的水表指针读数识别方法 Download PDF

Info

Publication number
CN113191352A
CN113191352A CN202110309083.2A CN202110309083A CN113191352A CN 113191352 A CN113191352 A CN 113191352A CN 202110309083 A CN202110309083 A CN 202110309083A CN 113191352 A CN113191352 A CN 113191352A
Authority
CN
China
Prior art keywords
pointer
detection
binary image
target
water meter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110309083.2A
Other languages
English (en)
Inventor
包晓安
张庆琪
张娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110309083.2A priority Critical patent/CN113191352A/zh
Publication of CN113191352A publication Critical patent/CN113191352A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于目标检测和二值图像检测的水表指针读数识别方法,涉及计算机视觉深度学习领域。本发明的目标‑二值图像检测模型由指针目标检测模块、目标区域分割模块和二值图像检测模块构成,通过指针目标检测模块进行实时检测,获得水表图像中指针的类别信息和位置信息;目标区域分割模块根据指针位置信息对水表图像进行截取得到指针图像;二值图像检测模块再对指针图像进行图像分割,得到指针图像的二值图像,根据二值图像计算指针的质心和针尖的坐标,由两点确定的一条直线计算指针的偏转角度并结合该指针的类别信息进行单位换算,最后读出水表指针的正确读数。本发明有效解决了指针读数识别效率低、准确率低、鲁棒性差的问题。

Description

一种基于目标检测和二值图像检测的水表指针读数识别方法
技术领域
本发明涉及计算机视觉、机器学习等领域,具体设计一种基于目标检测和二值图像检测的水表指针读数识别方法。
背景技术
由于技术成熟、制造成本低、计量准确的特点,我国民用水表仍以机械式水表为主。目前机械式水表的抄表方式还是人工抄表,这种方法成本高、效率低、准确率受人为因素影响大。近年来,随着图像视频处理技术的进一步发展,智能抄表因其成本低、效率高、准确率高等优点而得到高度的重视。水表指针读数的准确率与水表所处的具体环境密切相关,环境条件不同,识别的准确率也难以保证。
尽管现在关于水表读数识别已经有很多研究,但是依然存在一些未解决好的问题。目前对水表读数识别的研究大多采用传统的特征匹配算法,即通过提取水表图像的特征点与水表表盘模板进行特征点匹配,利用K-means聚类算法对匹配点进行分类实现水表表盘的自动定位,接着利用色差模型提取并识别水表指针。由于特征匹配算法对水表图像的特征提取能力较弱,一旦水表表盘附着大量污物或表盘内有大量的水珠,这会大大影响到水表图像特征的提取。且水表图像与模板之间的特征点匹配计算量很大,非常消耗时间。此外,经过水珠的浸泡和使用的磨损,水表的指针会出现褪色情况,此时色差模型很难得到较好的效果。在进行识别的过程中,由于水表表盘会有反光的情况,所以环境光线也是影响识别效果的一大因素。
所以如何提高在复杂环境下水表指针读数识别的效率和准确性是有待解决的问题。
发明内容
为了解决上述的问题,本发明提供一种基于目标检测和二值图像检测的水表指针读数识别方法。相比于传统的模板匹配方法来定位指针的位置坐标,利用目标检测模块定位指针位置更快更准确,二值图像检测模块相比于色差模块有更好的特征提取能力和鲁棒性。
为了实现上述目的,本发明采用的技术方案如下:
一种基于目标检测和二值图像检测的水表指针读数识别方法,包括以下步骤:
步骤1:采集实际应用场景下的水表图像作为样本数据集,并对样本水表图像的每一个指针区域以及指针像素点进行标注,其中指针区域的标注信息对应的是指针的计量单位信息;
步骤2:建立目标-二值图像检测模型,所述的目标-二值图像检测模型由指针目标检测模块、目标区域分割模块和二值图像检测模块构成;
步骤3:利用步骤1采集到的样本数据集对目标-二值图像检测模型进行训练,具体为:
步骤3.1:将标注后的水表图像作为目标-二值图像检测模型的输入,首先通过指针目标检测模块获取水表图像中的所有指针的检测框和类别信息(指针的类别信息对应的是该指针的计量单位),然后通过目标区域分割模块获取指针的检测框并从原始水表图像中截取感兴趣区域得到指针图像,最后将指针图像作为二值图像检测模块的输入,得到指针的二值图像连通区域;
步骤3.2:将样本水表图像中标注的指针区域和指针像素点作为标签,分别得到指针目标检测模块的目标检测损失、以及二值图像检测模块的二值图像检测损失;将目标检测损失和二值图像检测损失作为总损失,完成目标-二值图像检测模型的训练;
步骤4:实时获取水表图像,将实时图像作为训练好的目标-二值图像检测模型的输入,得到图像中指针的二值图像连通区域;
步骤5:提取所述二值图像连通区域的针尖坐标和质心坐标;计算所述的针尖坐标和质心坐标两点连线的实时偏转角度,并进行单位换算,完成指针读数。
本发明的水表读数识别方法与传统的特征匹配方法相比,具备以下优势:
与现有方法相比,本发明目标检测模块采用YOLOv4网络进对指针进行定位和分类,减少光线、灰尘、水珠等环境因素的干扰,提高了特征提取能力的同时节省了大量的时间;定位后提取原水表图像指针的感兴趣区域得到指针图像,减少了背景中大量无用信息的干扰;二值图像检测模块采用U-Net算法进行指针二值图像的提取,通过三次下采样和三次上采样之间的联合,能够准确提取出指针的二值图像;通过计算得出指针针尖和质心的坐标,然后计算针尖与质心的连线和竖直方向的偏转角度并进行单位换算,最后得到指针的正确读数。
附图说明
图1是目标-二值图像检测模型网络结构图;
图2是本方法的整体流程图;
图3是本方法的步骤图;
图4是YOLOv4实时检测水表图像中的指针目标的流程图;
图5是U-Net网络对指针图像进行分割;
图6是计算指针偏转的角度;
图7是数据集样例。
具体实施方式
以下结合附图和具体实施对本发明进行详细描述,但不作为对发明的限定。
一种基于目标检测和二值图像检测的水表指针读数识别方法,如图2所示,包括以下步骤:
步骤1:采集实际应用场景下的水表图像作为样本数据集,并对样本水表图像的每一个指针区域以及指针像素点进行标注,其中指针区域的标注信息对应的是指针的计量单位信息;
步骤2:建立目标-二值图像检测模型,所述的目标-二值图像检测模型由指针目标检测模块、目标区域分割模块和二值图像检测模块构成;
步骤3:利用步骤1采集到的样本数据集对目标-二值图像检测模型进行训练,具体为:
步骤3.1:将标注后的水表图像作为目标-二值图像检测模型的输入,目标- 二值图像检测模型网络结构图如图1所示。首先通过指针目标检测模块获取水表图像中的所有指针的检测框和类别信息(指针的类别信息对应的是该指针的计量单位),然后通过目标区域分割模块获取指针的检测框并从原始水表图像中截取感兴趣区域得到指针图像,最后将指针图像作为二值图像检测模块的输入,得到指针的二值图像连通区域;
所述的指针目标检测模块包括多尺度特征提取层、特征融合层、多尺度特征预测层;
所述的水表图像首先通过多尺度特征提取层获得不同尺寸的特征图;然后经特征融合层对不同尺寸的特征图进行融合,融合之后得到的特征图数量不变;最后经多尺度特征预测层获得每一个尺度特征图的一系列检测框、以及每一个检测框的坐标值和置信度,对所有的检测框进行筛选,将筛选后检测框的坐标值及其类别作为指针目标检测模块的最终输出。所述的对所有的检测框进行筛选,具体为:
1)预过滤:过滤掉置信度得分低于阈值的检测框;
2)去重:对预过滤后的检测框进行极大值抑制处理,去掉重复的检测框;
3)提取目标类别出现概率较高的检测框及其坐标值。
所述的目标区域分割模块根据指针的检测框坐标值,从原始水表图像中截取感兴趣区域得到指针图像。
所述的二值图像检测模块采用对称的三层下采样层和三层上采样层结构;
首先将指针图像作为第一层下采样层的输入,然后将第一层下采样层的输出作为下一层下采样层的输入,最后一层下采样层的输出作为第一层上采样层的输入;且第i层下采样层得到的特征图与第6-i层上采样层的输出采用双线性插值方式相融合,将融合结果作为下一层上采样层的输入,直至获得第三层上采样层的输出作为最终特征图;
利用激活函数将最终特征图转换为概率图,将大于阈值的像素点置为1否则置为0,得到目标指针的二值图像连通域。
步骤3.2:将样本水表图像中标注的指针区域和指针像素点作为标签,分别得到指针目标检测模块的目标检测损失、以及二值图像检测模块的二值图像检测损失;将目标检测损失和二值图像检测损失作为总损失,完成目标-二值图像检测模型的训练;
步骤4:实时获取水表图像,将实时图像作为训练好的目标-二值图像检测模型的输入,得到图像中指针的二值图像连通区域;
步骤5:提取所述二值图像连通区域的针尖坐标和质心坐标;计算所述的针尖坐标和质心坐标两点连线的实时偏转角度,并进行单位换算,完成指针读数。本实施例中,以竖直方向0刻度为基准,所述的针尖坐标和所述的质心坐标构成一条直线,将直线与竖直方向之间的夹角作为实时偏转角度,由实时偏转角度乘以指针所对应的单位,最后得出指针的读数。将二值图像连通区域中距离质心最远的点坐标作为针尖坐标,指针所对应的单位由指针目标检测模块检测到的指针类别信息获得。
本实施例中,指针目标检测模块采用YOLOv4模型,二值图像检测模块采用U-Net模型,如图3,实现步骤如下:
A、YOLOv4对水表图像中的指针目标进行定位和分类:
首先对YOLOv4进行初始化操作,读取参数文件,解析YOLO模型,加载模型权重。
如图4所示,YOLOv4实时检测目标过程:A步骤图像缩放后的视频图像数据同步到GPU中,进入YOLOv4的主干网络,经过卷积、归一化、激活函数和残差块的交替处理,得到76*76、38*38、19*19三种尺度的特征图。然后将特征图送入空间金字塔模块,使用k={1*1,5*5,9*9,13*13}大小的核进行最大池化,将不同尺寸的特征图进行连接操作。连接后的特征图送入特征金字塔网络和路径聚合网络,其中特征金字塔网络自顶向下传递强语义特征,路径聚合网络自底向上传递强定位特征,将二者进行结合,得到最终进行预测的特征图。
预测层在特征图的每个cell上生成5个预测框,同时每个预测框有5个参数,分别表示预测框的左上角坐标,宽,高和预测框的置信度。
通过整合预测层的输出数据,得到一系列目标框,设置阈值过滤掉置信度得分低的预测框,最后对保留的预测框进行极大值抑制,去掉重复框,选取目标类别出现概率较高的预测框,并输出其具体坐标。
B、根据指针目标的坐标对原水表图像进行截取,得到指针图像:
根据步骤A所得到的坐标在当前水表图像中截取出指针的感兴趣区域,得到指针图像。
C、二值图像检测模块对指针感兴趣区域进行语义分割,得到指针的二值图像:
如图5所示,将B步骤得到的指针图像利用Max Pool2x2来进行三次下采样,下采样之间是两个卷积层,通过卷积和上采样来降低图像尺寸,提取指针的浅层特征。再经过三次双线性插值方式的上采样,恢复图像维度并获取指针的深层特征。将下采样阶段获得的feature map和上采样阶段获得的feature map结合在一起,得到最后要进行语义分割的特征图。
通过激活函数将最终的特征图转换为概率图,根据设置的阈值输出指针图像的二值图像。
D、计算二值图像中指针质心和针尖的坐标:
根据C步骤得到的二值图像,遍历二值图像的每个像素点,计算二值图像连通区域的质心,由质心坐标再计算连通区域中离质心最远的点。
E、计算指针的偏转角度并进行单位换算,得出指针读数:
如图6所示,步骤D的两个点坐标可计算出一条直线,再计算该直线与竖直垂线的夹角的角度,最后结合指针目标检测模块的分类信息,经过单位换算得到待识别指针的读数。
下面结合具体实施例来说明本发明的效果。
数据集:为了评估本文算法的性能,共选取了800张图片作为数据集(如图 7所示),并将数据集按照4:1的比例随机取640张图片作为训练集和160张图片作为测试集。模型训练结束后,对160张图像进行测试。
实验参数:
设置初始学习率为0.00261,采用按需调整学习率的策略,总的迭代次数为60000,在迭代次数为48000,54000时调整学习率,下降率gamma=0.1,设置 batch为64,网络权重更新方式为SGD,并采用L2正则化避免模型过拟合,其中momentum设置为0.9,decay设置为0.0005。下面为训练目标-二值图像检测网络步骤。
输入:水表指针目标检测数据集。
输出:指针目标的位置坐标。
加载经过VOC数据集训练了的网络模型初始化YOLOv4网络;
加载水表数据集;
for训练次数=1 to 1000
特征图=主干网络(水表数据集)
目标检测损失=指针目标检测模块损失函数(特征图)
二值图像检测损失=二值图像检测模块损失函数(特征图)
总的损失值=目标检测损失+二值图像检测损失
总的损失值经过SGD反向传播更新网络参数
保存模型参数
评判标准:采用召回率(Recall)、准确率(Accuracy)和每秒帧率(Frame PerSecond FPS)指标来评价目标-二值图像检测模型的检测效果。
实验数据:召回率86.65%,准确率98.5%,56fps。可见,指针读数识别效率高、准确率高。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。

Claims (9)

1.一种基于目标检测和二值图像检测的水表指针读数识别方法,其特征在于,包括以下步骤:
步骤1:采集实际应用场景下的水表图像作为样本数据集,并对样本水表图像的每一个指针区域以及指针像素点进行标注,其中指针区域的标注信息对应的是指针的计量单位信息;
步骤2:建立目标-二值图像检测模型,所述的目标-二值图像检测模型由指针目标检测模块、目标区域分割模块和二值图像检测模块构成;
步骤3:利用步骤1采集到的样本数据集对目标-二值图像检测模型进行训练,具体为:
步骤3.1:将标注后的水表图像作为目标-二值图像检测模型的输入,首先通过指针目标检测模块获取水表图像中的所有指针的检测框和类别信息,然后通过目标区域分割模块获取指针的检测框并从原始水表图像中截取感兴趣区域得到指针图像,最后将指针图像作为二值图像检测模块的输入,得到指针的二值图像连通区域;
步骤3.2:将样本水表图像中标注的指针区域和指针像素点作为标签,分别得到指针目标检测模块的目标检测损失、以及二值图像检测模块的二值图像检测损失;将目标检测损失和二值图像检测损失作为总损失,完成目标-二值图像检测模型的训练;
步骤4:实时获取水表图像,将实时图像作为训练好的目标-二值图像检测模型的输入,得到图像中指针的二值图像连通区域;
步骤5:提取所述二值图像连通区域的针尖坐标和质心坐标;计算所述的针尖坐标和质心坐标两点连线的实时偏转角度,并进行单位换算,完成指针读数。
2.根据权利要求1所述的基于目标检测和二值图像检测的水表指针读数识别方法,其特征在于,所述的步骤5中,以竖直方向0刻度为基准,所述的针尖坐标和所述的质心坐标构成一条直线,将直线与竖直方向之间的夹角作为实时偏转角度,由实时偏转角度乘以指针所对应的单位,最后得出指针的读数。
3.根据权利要求2所述的基于目标检测和二值图像检测的水表指针读数识别方法,其特征在于,将二值图像连通区域中距离质心最远的点坐标作为针尖坐标,指针所对应的单位由指针目标检测模块检测到的指针类别信息获得。
4.根据权利要求1所述的基于目标检测和二值图像检测的水表指针读数识别方法,其特征在于,所述的指针目标检测模块包括多尺度特征提取层、特征融合层、多尺度特征预测层;
所述的水表图像首先通过多尺度特征提取层获得不同尺寸的特征图;然后经特征融合层对不同尺寸的特征图进行融合,融合之后得到的特征图数量不变;最后经多尺度特征预测层获得每一个尺度特征图的一系列检测框、以及每一个检测框的坐标值和置信度,对所有的检测框进行筛选,将筛选后检测框的坐标值及其类别作为指针目标检测模块的最终输出。
5.根据权利要求1所述的基于目标检测和二值图像检测的水表指针读数识别方法,其特征在于,所述的对所有的检测框进行筛选,具体为:
1)预过滤:过滤掉置信度得分低于阈值的检测框;
2)去重:对预过滤后的检测框进行极大值抑制处理,去掉重复的检测框;
3)提取目标类别出现概率较高的检测框及其坐标值。
6.根据权利要求1所述的基于目标检测和二值图像检测的水表指针读数识别方法,其特征在于,所述的指针目标检测模块采用YOLOv4模型。
7.根据权利要求1所述的基于目标检测和二值图像检测的水表指针读数识别方法,其特征在于,所述的目标区域分割模块根据指针的检测框坐标值,从原始水表图像中截取感兴趣区域得到指针图像。
8.根据权利要求1所述的基于目标检测和二值图像检测的水表指针读数识别方法,其特征在于,所述的二值图像检测模块采用对称的三层下采样层和三层上采样层结构;
首先将指针图像作为第一层下采样层的输入,然后将第一层下采样层的输出作为下一层下采样层的输入,最后一层下采样层的输出作为第一层上采样层的输入;且第i层下采样层得到的特征图与第6-i层上采样层的输出采用双线性插值方式相融合,将融合结果作为下一层上采样层的输入,直至获得第三层上采样层的输出作为最终特征图;
利用激活函数将最终特征图转换为概率图,将大于阈值的像素点置为1否则置为0,得到目标指针的二值图像连通域。
9.根据权利要求1所述的基于目标检测和二值图像检测的水表指针读数识别方法,其特征在于,所述的二值图像检测模块采用U-Net模型。
CN202110309083.2A 2021-03-23 2021-03-23 一种基于目标检测和二值图像检测的水表指针读数识别方法 Pending CN113191352A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110309083.2A CN113191352A (zh) 2021-03-23 2021-03-23 一种基于目标检测和二值图像检测的水表指针读数识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110309083.2A CN113191352A (zh) 2021-03-23 2021-03-23 一种基于目标检测和二值图像检测的水表指针读数识别方法

Publications (1)

Publication Number Publication Date
CN113191352A true CN113191352A (zh) 2021-07-30

Family

ID=76973669

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110309083.2A Pending CN113191352A (zh) 2021-03-23 2021-03-23 一种基于目标检测和二值图像检测的水表指针读数识别方法

Country Status (1)

Country Link
CN (1) CN113191352A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569835A (zh) * 2021-08-16 2021-10-29 浙江广厦建设职业技术大学 一种基于目标检测和分割识别的水表数值读取方法
CN117079295A (zh) * 2023-09-19 2023-11-17 中航西安飞机工业集团股份有限公司 一种航空电缆张力计指针识别与读数方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521560A (zh) * 2011-11-14 2012-06-27 上海交通大学 高鲁棒仪表指针图像识别方法
CN103714329A (zh) * 2013-12-31 2014-04-09 长安大学 一种仪表指针识别的检测算法
CN111382738A (zh) * 2020-02-11 2020-07-07 济南信通达电气科技有限公司 一种指针式仪表的读数方法及装置
CN112115895A (zh) * 2020-09-24 2020-12-22 深圳市赛为智能股份有限公司 指针型仪表读数识别方法、装置、计算机设备及存储介质
CN112183369A (zh) * 2020-09-29 2021-01-05 国网上海市电力公司 一种用于变电站无人巡检的指针仪表读数识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521560A (zh) * 2011-11-14 2012-06-27 上海交通大学 高鲁棒仪表指针图像识别方法
CN103714329A (zh) * 2013-12-31 2014-04-09 长安大学 一种仪表指针识别的检测算法
CN111382738A (zh) * 2020-02-11 2020-07-07 济南信通达电气科技有限公司 一种指针式仪表的读数方法及装置
CN112115895A (zh) * 2020-09-24 2020-12-22 深圳市赛为智能股份有限公司 指针型仪表读数识别方法、装置、计算机设备及存储介质
CN112183369A (zh) * 2020-09-29 2021-01-05 国网上海市电力公司 一种用于变电站无人巡检的指针仪表读数识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ALEXEY BOCHKOVSKIY ET AL: "YOLOv4: Optimal Speed and Accuracy of Object Detection", 《ARXIV:2004.10934V1》, pages 1 - 17 *
OLAF RONNEBERGER ET AL: "U-Net: Convolutional Networks for Biomedical Image Segmentation", 《ARXIV:1505.04597V1》, pages 1 - 8 *
万吉林等: "基于Faster R-CNN和U-Net的变电站指针式仪表读数自动识别方法", 《电网技术》, vol. 44, no. 8, pages 3097 - 3105 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569835A (zh) * 2021-08-16 2021-10-29 浙江广厦建设职业技术大学 一种基于目标检测和分割识别的水表数值读取方法
CN117079295A (zh) * 2023-09-19 2023-11-17 中航西安飞机工业集团股份有限公司 一种航空电缆张力计指针识别与读数方法及系统
CN117079295B (zh) * 2023-09-19 2024-05-03 中航西安飞机工业集团股份有限公司 一种航空电缆张力计指针识别与读数方法及系统

Similar Documents

Publication Publication Date Title
CN110363182B (zh) 基于深度学习的车道线检测方法
CN111723748B (zh) 一种红外遥感图像舰船检测方法
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
CN108460356B (zh) 一种基于监控系统的人脸图像自动处理系统
CN110929593B (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN108520226B (zh) 一种基于躯体分解和显著性检测的行人重识别方法
CN114758288B (zh) 一种配电网工程安全管控检测方法及装置
CN112784736B (zh) 一种多模态特征融合的人物交互行为识别方法
CN111738344A (zh) 一种基于多尺度融合的快速目标检测方法
CN112364931A (zh) 基于元特征和权重调整的少样本目标检测方法及网络模型
CN111652273B (zh) 一种基于深度学习的rgb-d图像分类方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN111210417B (zh) 基于卷积神经网络的布匹缺陷检测方法
CN112836625A (zh) 人脸活体检测方法、装置、电子设备
CN107025444A (zh) 分块协同表示嵌入核稀疏表示遮挡人脸识别方法和装置
CN110110603A (zh) 一种基于面部生理信息的多模态唇读方法
CN110599463A (zh) 一种基于轻量级联神经网络的舌像检测及定位算法
CN106845456A (zh) 一种视频监控系统中人体摔倒监测的方法
CN113191352A (zh) 一种基于目标检测和二值图像检测的水表指针读数识别方法
CN110991374B (zh) 一种基于rcnn的指纹奇异点检测方法
CN110458019B (zh) 稀缺认知样本条件下的排除倒影干扰的水面目标检测方法
CN113569835A (zh) 一种基于目标检测和分割识别的水表数值读取方法
CN106846377A (zh) 一种基于颜色属性和主动特征提取的目标跟踪算法
CN114782979A (zh) 一种行人重识别模型的训练方法、装置、存储介质及终端
CN109948432A (zh) 一种行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210730