[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN115310469B - 条形码定位模型训练方法、定位方法、系统、设备及介质 - Google Patents

条形码定位模型训练方法、定位方法、系统、设备及介质 Download PDF

Info

Publication number
CN115310469B
CN115310469B CN202211243818.7A CN202211243818A CN115310469B CN 115310469 B CN115310469 B CN 115310469B CN 202211243818 A CN202211243818 A CN 202211243818A CN 115310469 B CN115310469 B CN 115310469B
Authority
CN
China
Prior art keywords
training
bar code
sample data
barcode
positioning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211243818.7A
Other languages
English (en)
Other versions
CN115310469A (zh
Inventor
高红超
江维
李昌源
刘华祠
曹继华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong OPT Machine Vision Co Ltd
Original Assignee
Guangdong OPT Machine Vision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong OPT Machine Vision Co Ltd filed Critical Guangdong OPT Machine Vision Co Ltd
Priority to CN202211243818.7A priority Critical patent/CN115310469B/zh
Publication of CN115310469A publication Critical patent/CN115310469A/zh
Application granted granted Critical
Publication of CN115310469B publication Critical patent/CN115310469B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1443Methods for optical code recognition including a method step for retrieval of the optical code locating of the code in an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/146Methods for optical code recognition the method including quality enhancement steps
    • G06K7/1482Methods for optical code recognition the method including quality enhancement steps using fuzzy logic or natural solvers, such as neural networks, genetic algorithms and simulated annealing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Toxicology (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种条形码定位模型训练方法、定位方法、系统、设备及介质,包括:获取工业场景下的少量样本数据,少量样本数据包括带旋转角度或不带旋转角度的条形码图片;根据少量样本数据,生成大量的矩形框表示的实例级标注信息的训练样本数据;将大量的实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据;根据大量的像素级标注信息的训练样本数据对条形码定位模型进行训练,得到基于语义分割算法的条形码定位模型。本发明不依赖于像素级的条形码标注信息,仅需少量的工业条形码数据就能完成条形码定位模型的训练,显著降低条形码标注和数据收集成本,具有通用性强、鲁棒性高的特点,适于任意尺度、任意角度的条形码定位。

Description

条形码定位模型训练方法、定位方法、系统、设备及介质
技术领域
本发明涉及机器视觉技术领域,尤其涉及一种条形码定位模型训练方法、定位方法、系统、设备及介质。
背景技术
近几年,随着智能化工业生产需求的不断提高,智能制造系统的复杂性不断增加,利用一维码、二维码等条形码对工业产品及零部件进行标识,实现对产品及零部件的生成追踪,装配管理,生命周期维护等已经成为自动化工业的行业标准。同时,条形码在仓储物流、文件管理、票务信息存储和处理等方面的应用使得这些领域的便捷性有了显著提升。
与民用条形码不同的是,工业条形码的应用环境通常较为复杂,例如存在失真、模糊、磨损、对比度低、无静止区、噪声干扰严重等问题,导致常规的定位算法无法满足其需求,于是出现了一种在鲁棒性、准确率方面都优于常规的定位算法的基于深度学习的定位方法。现有的主流工业级基于深度学习的条形码定位技术是基于目标检测算法实现的。该技术通常把一个条形码区域作为目标检测算法中的一个目标框,在训练和推理尺寸相同或者相差较小的情况下能够具有较优的检测效果,特别是基于一阶段的目标检测算法,例如,YOLO、SSD等。然而,当训练尺寸和推理尺寸相差较大或者条形码形状变化较大时,基于目标检测的条形码定位精度便大打折扣,出现漏检、误检的概率显著增加。
因此,需要对现有技术进行改进。
以上信息作为背景信息给出只是为了辅助理解本公开,并没有确定或者承认任意上述内容是否可用作相对于本公开的现有技术。
发明内容
本发明提供一种基于语义分割的条形码定位模型训练方法、定位方法、系统、设备及介质,以解决现有技术的不足。
为实现上述目的,本发明提供以下的技术方案:
第一方面,本发明提供一种基于语义分割的条形码定位模型的训练方法,所述方法包括:
获取工业场景下的少量样本数据,所述少量样本数据包括带旋转角度或不带旋转角度的条形码图片;
根据所述少量样本数据,生成大量的矩形框表示的实例级标注信息的训练样本数据;
将大量的所述实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据;
根据大量的所述像素级标注信息的训练样本数据对条形码定位模型进行训练,得到基于语义分割算法的条形码定位模型。
第二方面,本发明提供一种条形码定位模型的训练系统,所述系统包括:
数据获取模块,用于获取工业场景下的少量样本数据,所述少量样本数据包括带旋转角度或不带旋转角度的条形码图片;
数据扩充模块,用于根据所述少量样本数据,生成大量的矩形框表示的实例级标注信息的训练样本数据;
数据转化模块,用于将大量的所述实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据;
模型训练模块,用于根据大量的所述像素级标注信息的训练样本数据对条形码定位模型进行训练,得到基于语义分割算法的条形码定位模型。
第三方面,本发明提供一种基于语义分割算法的条形码定位方法,所述方法包括:
获取待检测目标产品的图片;
将所述图片输入到基于语义分割算法的条形码定位模型中,以得到所述图片中条形码的位置和类别;所述基于语义分割算法的条形码定位模型由如权利要求1-12中任一项所述的条形码定位模型的训练方法训练得到。
第四方面,本发明提供一种基于语义分割算法的条形码定位系统,所述系统包括:
图片获取模块,用于获取待检测目标产品的图片;
条形码定位模块,用于将所述图片输入到基于语义分割算法的条形码定位模型中,以得到所述图片中条形码的位置和类别。
第五方面,本发明提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如上任一方面所述的条形码定位模型的训练方法以及如所述第三方面所述的基于语义分割算法的条形码定位方法。
第六方面,本发明提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令由计算机处理器执行,以实现如上任一方面所述的条形码定位模型的训练方法以及如所述第三方面所述的基于语义分割算法的条形码定位方法。
与现有技术相比,本发明具有以下有益效果:
本发明提供的一种基于语义分割的条形码定位模型训练方法、定位方法、系统、设备及介质,通过构建条形码定位模型,并基于工业场景下的少量样本数据训练基于语义分割算法的条形码定位模型,相比于现有的基于目标检测算法的技术而言,本发明可以显著降低条形码标注和数据收集成本,具有通用性强、鲁棒性高的特点,适于任意尺度、任意角度的条形码定位。另外,相比于常规的语义分割定位技术,本发明不依赖于大量的像素级的条形码标注信息,仅需少量的工业条形码数据就能完成条形码定位模型的训练,减少数据收集和数据标注成本,缩短模型训练时间。因此本发明有利于大范围推广应用。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例一提供的一种基于语义分割算法的条形码定位方法的流程示意图;
图2是本发明实施例一提供的基于语义分割算法的条形码定位模型的网络结构示意图;
图3是本发明实施例一中提及的截取到的条形码的集合的示意图;
图4是本发明实施例一中提及的标签的转化示意图;
图5是本发明实施例二提供的一种基于语义分割算法的条形码定位系统的功能模块示意图;
图6是本发明实施例三提供的一种基于语义分割算法的条形码定位方法的流程示意图;
图7是本发明实施例三中提及的条形码+二维码的检测效果的示意图;
图8是本发明实施例三中提及的数据矩阵码的检测效果的示意图;
图9是本发明实施例三中提及的二维码的检测效果的示意图;
图10是本发明实施例三中提及的条形码的检测效果的示意图;
图11是本发明实施例三中提及的条形码+数据矩阵码的检测效果的示意图;
图12是本发明实施例三中提及的数据矩阵码的检测效果的示意图;
图13是本发明实施例三中提及的条形码的检测效果的示意图;
图14是本发明实施例三中提及的条形码+二维码+数据矩阵码的检测效果的示意图;
图15是本发明实施例三中提及的二维码的检测效果的示意图;
图16是本发明实施例四提供的一种基于语义分割算法的条形码定位系统的功能模块示意图;
图17是本发明实施例五提供的一种计算机设备的结构示意图。
具体实施方式
为使得本发明的目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明的描述中,需要理解的是,当一个组件被认为是“连接”另一个组件,它可以是直接连接到另一个组件或者可能同时存在居中设置的组件。当一个组件被认为是“设置在”另一个组件,它可以是直接设置在另一个组件上或者可能同时存在居中设置的组件。
此外,术语“长”“短”“内”“外”等指示方位或位置关系为基于附图所展示的方位或者位置关系,仅是为了便于描述本发明,而不是指示或暗示所指的装置或原件必须具有此特定的方位、以特定的方位构造进行操作,以此不能理解为本发明的限制。
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。
实施例一
请参考图1,图1是本发明实施例公开的一种条形码定位模型的训练方法的流程示意图,该方法适用于对图片中的条形码进行定位的场景,该方法由条形码定位模型的训练系统来执行,该系统可以由软件和/或硬件实现。如图1所示,该条形码定位模型的训练方法可以包括以下步骤:
S101、获取工业场景下的少量样本数据,所述少量样本数据包括带旋转角度或不带旋转角度的条形码图片。
S102、根据所述少量样本数据,生成大量的矩形框表示的实例级标注信息的训练样本数据。
S103、将大量的所述实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据。
S104、根据大量的所述像素级标注信息的训练样本数据对条形码定位模型进行训练,得到基于语义分割算法的条形码定位模型。
需要说明的是,少量样本数据包括带旋转角度或不带旋转角度的一维码和二维码图片。
在本实施例中,所述根据所述少量样本数据,生成大量的矩形框表示的实例级标注信息的训练样本数据的步骤还可以进一步地细化为包括如下步骤:
对所述少量样本数据中的条形码图片用带角度的矩形框进行标注,并截取所述矩形框内的条形码,截取到的条形码的集合如图3所示;
获取大量不带条形码的背景图片;
将截取的条形码随机粘贴、融合到所述背景图片中,以生成大量的矩形框表示的实例级标注信息的训练样本数据。
需要说明的是,背景图片可以是工业相机拍摄的图片,也可以自然场景的图片。
在本实施例中,在所述将截取的条形码随机粘贴、融合到所述背景图片中,以生成大量的矩形框表示的实例级标注信息的训练样本数据的步骤之前,所述方法还包括如下步骤:
对截取的条形码进行图像变化处理。
需要说明的是,所述图像变化处理包括几何图像变化、颜色空间变换、模糊、锐化、生成对抗网络等随机操作;其中,所述几何图像变化又可以进一步包括翻转、旋转、缩放等操作。图像变化处理的目的是增加贴到所述背景图片中的条形码的随机性。
在本实施例中,所述将截取的条形码随机粘贴、融合到所述背景图片中,以生成大量的矩形框表示的实例级标注信息的训练样本数据的步骤还可以进一步地细化为包括如下步骤:
在所述背景图片中对选中的条形码进行不重叠的随机融合操作并记录相对应的数据标签信息;
对粘贴有条形码的所述背景图片进行常规的数据扩充操作以及相对应的标签变化。
需要说明的是,所述常规的数据扩充操作包括随机翻转、随机裁剪、随机颜色抖动、灰度化、高斯模糊和复制粘贴中的一种或多种。所述常规的数据扩充操作的目的是增加数据量、丰富数据多样性、提高模型的泛化能力。
在本实施例中,所述将大量的所述实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据的步骤还可以进一步地细化为包括如下步骤:
将大量的所述实例级标注信息的训练样本数据中的每个矩形框的标注信息转化成四个坐标信息;
将每个矩形框对应的四个坐标信息转化成多边形表示,并利用多边形填充的方式将多边形内所有的像素赋值为标注框的标签,以转化成相应的像素级标注信息的训练样本数据。
需要说明的是,本实施例具体是将每个矩形框的标注信息(cx,cy,w,h,θ)转化成四个坐标信息p1(x1,y1),p2(x2,y2),p3(x3,y3),p4(x4,y4),上述步骤的目的是最终将大量的所述矩形框表示的实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据,标签的转化如图4所示。
在本实施例中,所述基于语义分割算法的条形码定位模型的检测头的输出维度的数量等于条形码的类别数量+1(背景)。
需要说明的是,本发明检测的是qr code(二维码)、data matrix(dm,数据矩阵码)code、barcode(条形码,或称一维码)这三种常用的条形码,所述基于语义分割算法的条形码定位模型的(seg head)输出的维度是4(3+1),细节网络和语义网络各含有辅助的检测头的输出维度也是4。输出维度随着需检测的条形码类别变化的,可以扩展为多种检测定位类型。也就是说,待检测的条形码类别为N时,检测头的输出维度是N+1。
所述基于语义分割算法的条形码定位模型的损失函数为:
Figure 45666DEST_PATH_IMAGE001
其中,
Figure 152687DEST_PATH_IMAGE002
为交叉熵损失,
Figure 870107DEST_PATH_IMAGE003
为两个子网络的dice损失,
Figure 265316DEST_PATH_IMAGE004
Figure 266639DEST_PATH_IMAGE005
Figure 89102DEST_PATH_IMAGE006
分别为三个损失对应的系数;
所述基于语义分割算法的条形码定位模型的优化器选用Adam优化算法,momentum为0.937,初始化学习率为0.01。
示例性地,训练数据规模3万张图片,在训练90轮后停止。
本发明的条形码定位模型的网络结构如图2所示,常规的语义分割网络通常由轻量化的特征提取模块和特征解码模块两个部分组成。本发明针对条形码的特点,从以下两个方面设计基于深度学习语义分割算法的条形码定位模型的网络结构Seg_Net。
首先,对于定位模型的特征提取模块,轻量化的设计一方面可以是,分别减少网络结构中每一层卷积核的个数C,以及减少卷积层数N;另一方面可以是用空洞卷积代替常规的卷积,当然也还可以是以上两者的结合。此步骤的目的是减少定位模型的参数量;降低模型的计算量。
模型的参数量计算公式为:
Figure 293818DEST_PATH_IMAGE007
模型的计算量计算公式为:
Figure 492718DEST_PATH_IMAGE008
其中,Cl为卷积核个数,l为第l层卷积,N为卷积层的层数,Fw为宽,Fh为高;
示例性地,比如卷积层的层数N的范围为6-12,为通用卷积层的层数的1/2到1/3;卷积核的个数Cl的范围为16-128,为通用卷积核的个数的1/4到1/8;
其次,本发明对定位模型的特征解码模块进行两个方面的优化。一方面,设计语义网络和细节网络两个子网络分别提取条形码的宏观语义信息和局部细节信息。在此基础上,融合两种不同粒度的信息。根据多粒度的信息对条形码进行分割。另一方面,模型训练时,对语义网络和细节网络分别增加一个分割头(segmentation head),对两个子网络利用监督信息进行训练,从而提升模型的训练效果。由于该操作仅在训练时进行,因此不影响模型预测速度。
本发明实施例提供的一种条形码定位模型训练方法,通过构建条形码定位模型,并基于工业场景下的少量样本数据训练基于语义分割算法的条形码定位模型,相比于现有的基于目标检测算法的技术而言,本发明可以显著降低条形码标注和数据收集成本,具有通用性强、鲁棒性高的特点,适于任意尺度、任意角度的条形码定位。另外,相比于常规的语义分割定位技术,本发明不依赖于大量的像素级的条形码标注信息,仅需少量的工业条形码数据就能完成条形码定位模型的训练,减少数据收集和数据标注成本,缩短模型训练时间。因此本发明有利于大范围推广应用。
实施例二
请参考图5,图5为本发明实施例二提供的一种条形码定位模型训练系统的功能模块示意图,该系统适用于执行本发明实施例提供的条形码定位模型训练方法。该系统具体包含如下模块:
数据获取模块201,用于获取工业场景下的少量样本数据,所述少量样本数据包括带旋转角度或不带旋转角度的条形码图片;
数据扩充模块202,用于根据所述少量样本数据,生成大量的矩形框表示的实例级标注信息的训练样本数据;
数据转化模块203,用于将大量的所述实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据;
模型训练模块204,用于根据大量的所述像素级标注信息的训练样本数据对条形码定位模型进行训练,得到基于语义分割算法的条形码定位模型。
优选地,所述条形码定位模型训练系统中,所述基于语义分割算法的条形码定位模型由轻量化的特征提取模块和特征解码模块组成。
优选地,所述条形码定位模型训练系统中,所述轻量化的特征提取模块中的卷积层为空洞卷积层。
优选地,所述条形码定位模型训练系统中,所述轻量化的特征提取模块中的卷积层的层数N的范围为6-12,为通用卷积层的层数的1/2到1/3;卷积核的个数Cl的范围为16-128,为通用卷积核的个数的1/4到1/8。
优选地,所述条形码定位模型训练系统中,所述特征解码模块包括语义网络和细节网络,所述语义网络和所述细节网络分别提取条形码的宏观语义信息和局部细节信息,以融合两种不同粒度的信息对条形码进行分割;
训练时,分别给所述语义网络和所述细节网络增加一个分割头,并利用监督信息对所述语义网络和所述细节网络进行训练。
优选地,所述条形码定位模型训练系统中,所述数据扩量模块202具体用于:
对所述少量样本数据中的条形码图片用带角度的矩形框进行标注,并截取所述矩形框内的条形码;
获取多张不带条形码的背景图片;
将截取的条形码随机粘贴、融合到所述背景图片中,以生成大量的矩形框表示的实例级标注信息的训练样本数据。
优选地,所述条形码定位模型训练系统中,还包括图像变化处理模块,用于:
在所述将截取的条形码随机粘贴、融合到所述背景图片中,以生成大量的矩形框表示的实例级标注信息的训练样本数据的步骤之前,对所述截取的条形码进行图像变化处理。
优选地,所述条形码定位模型训练系统中,所述图像变化处理包括几何图像变化、颜色空间变换、模糊、锐化、生成对抗网络中的一种或多种。
优选地,所述条形码定位模型训练系统中,所述数据扩量模块202执行的“将截取的条形码随机粘贴、融合到所述背景图片中,以生成大量的矩形框表示的实例级标注信息的训练样本数据”这一步骤具体包括:
在所述背景图片中对选中的条形码进行不重叠的随机融合操作并记录相对应的数据标签信息;
对粘贴有条形码的所述背景图片进行常规的数据扩充操作以及相对应的标签变化。
优选地,所述条形码定位模型训练系统中,所述常规的数据扩充操作包括随机翻转、随机裁剪、随机颜色抖动、灰度化、高斯模糊和复制粘贴中的一种或多种。
优选地,所述条形码定位模型训练系统中,所述数据转化模块203具体用于:
将大量的所述实例级标注信息的训练样本数据中的每个矩形框的标注信息转化成四个坐标信息;
将每个矩形框对应的四个坐标信息转化成多边形表示,并利用多边形填充的方式将多边形内所有的像素赋值为标注框的标签,以转化成相应的像素级标注信息的训练样本数据。
优选地,所述条形码定位模型训练系统中,所述基于语义分割算法的条形码定位模型的检测头的输出维度的数量等于条形码的类别数量+1;
所述基于语义分割算法的条形码定位模型的损失函数为:
Figure 161597DEST_PATH_IMAGE001
其中,
Figure 154961DEST_PATH_IMAGE002
为交叉熵损失,
Figure 96241DEST_PATH_IMAGE003
为两个子网络的dice损失,
Figure 833253DEST_PATH_IMAGE004
Figure 356638DEST_PATH_IMAGE005
Figure 786482DEST_PATH_IMAGE006
分别为三个损失对应的系数。
本发明实施例提供的一种条形码定位模型训练系统,通过构建条形码定位模型,并基于工业场景下的少量样本数据训练基于语义分割算法的条形码定位模型,相比于现有的基于目标检测算法的技术而言,本发明不依赖于像素级的条形码标注信息,仅需少量的工业条形码数据就能完成条形码定位模型的训练,可以显著降低条形码标注和数据收集成本,具有通用性强、鲁棒性高的特点,适于任意尺度、任意角度的条形码定位,有利于大范围推广应用。
上述系统可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
实施例三
请参考图6,图6是本发明实施例公开的一种基于语义分割算法的条形码定位方法的流程示意图,该方法适用于对图片中的条形码进行定位的场景,该方法由基于语义分割算法的条形码定位系统来执行,该系统可以由软件和/或硬件实现。如图6所示,该基于语义分割算法的条形码定位方法可以包括以下步骤:
S301、获取待检测目标产品的图片。
需要说明的是,本实施例适用于任意尺度、任意角度的条形码检测的,即获取的待检测目标产品的图片中的条形码也可任意。
S302、将所述图片输入到基于语义分割算法的条形码定位模型中,以得到所述图片中条形码的位置和类别;所述基于语义分割算法的条形码定位模型由如实施例一所述的条形码定位模型的训练方法训练得到。
在本实施例中,所述S302的步骤还可以进一步地细化为包括如下步骤:
将所述图片输入到基于语义分割算法的条形码定位模型中,以通过所述基于语义分割算法的条形码定位模型对所述图片进行不同粒度的特征提取,并对不同粒度的特征进行融合,再根据融合的特征图进行条形码的推理得到分割图;所述基于语义分割算法的条形码定位模型在推理时不需要用到训练阶段增加的分割头;
对所述分割图进行Softmax计算,得到三个类别的概率;
选择概率最大的类别作为所述图片中条形码的类别;
分别计算每个类别的连通域,并将所述连通域的外接矩形作为所述图片中条形码的位置,检测效果图如图7-15所示。具体地,图7是条形码(qr code)+二维码(barcode)的检测效果的示意图;图8和图12是数据矩阵码(dm code)的检测效果的示意图;图9和图15是二维码的检测效果的示意图;图10和图13是条形码的检测效果的示意图;图11是条形码+数据矩阵码的检测效果的示意图;图14是条形码+二维码+数据矩阵码的检测效果的示意图。
本发明实施例提供的一种基于语义分割算法的条形码定位方法,通过将待检测目标产品的图片输入到基于语义分割算法的条形码定位模型中,可对图片中条形码的位置和类别进行快速识别和定位,与现有技术相比,适于任意尺度、任意角度的条形码定位,具有通用性强、鲁棒性高的特点,有利于大范围推广应用。
实施例四
请参考图16,图16为本发明实施例二提供的一种基于语义分割算法的条形码定位系统的功能模块示意图,该系统适用于执行本发明实施例提供的基于语义分割算法的条形码定位方法。该系统具体包含如下模块:
图片获取模块401,用于获取待检测目标产品的图片;
条形码定位模块402,用于将所述图片输入到基于语义分割算法的条形码定位模型中,以得到所述图片中条形码的位置和类别。
优选地,所述条形码定位模块402具体用于:
将所述图片输入到基于语义分割算法的条形码定位模型中,以通过所述基于语义分割算法的条形码定位模型对所述图片进行不同粒度的特征提取,并对不同粒度的特征进行融合,再根据融合的特征图进行条形码的推理得到分割图;所述基于语义分割算法的条形码定位模型在推理时不需要用到训练时增加的分割头;
对所述分割图进行Softmax计算,得到三个类别的概率;
选择概率最大的类别作为所述图片中条形码的类别;
分别计算每个类别的连通域,并将所述连通域的外接矩形作为所述图片中条形码的位置。
本发明实施例提供的一种基于语义分割算法的条形码定位系统,通过将待检测目标产品的图片输入到基于语义分割算法的条形码定位模型中,可对图片中条形码的位置和类别进行快速识别和定位,与现有技术相比,适于任意尺度、任意角度的条形码定位,具有通用性强、鲁棒性高的特点,有利于大范围推广应用。
上述系统可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
实施例五
图17为本发明实施例五提供的一种计算机设备的结构示意图。图17示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图17显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图17所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图17未显示,通常称为“硬盘驱动器”)。尽管图17中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图17中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明任意实施例所提供的条形码定位模型的训练方法以及基于语义分割算法的条形码定位方法。
实施例六
本发明实施例六提供了一种计算机可读存储介质,其上存储有计算机可执行指令,该指令被处理器执行时实现如本申请所有发明任意实施例所提供的条形码定位模型的训练方法以及基于语义分割算法的条形码定位方法;
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
至此,以说明和描述的目的提供上述实施例的描述。不意指穷举或者限制本公开。特定的实施例的单独元件或者特征通常不受到特定的实施例的限制,但是在适用时,即使没有具体地示出或者描述,其可以互换和用于选定的实施例。在许多方面,相同的元件或者特征也可以改变。这种变化不被认为是偏离本公开,并且所有的这种修改意指为包括在本公开的范围内。
提供示例实施例,从而本公开将变得透彻,并且将会完全地将该范围传达至本领域内技术人员。为了透彻理解本公开的实施例,阐明了众多细节,诸如特定零件、装置和方法的示例。显然,对于本领域内技术人员,不需要使用特定的细节,示例实施例可以以许多不同的形式实施,而且两者都不应当解释为限制本公开的范围。在某些示例实施例中,不对公知的工序、公知的装置结构和公知的技术进行详细地描述。
在此,仅为了描述特定的示例实施例的目的使用专业词汇,并且不是意指为限制的目的。除非上下文清楚地作出相反的表示,在此使用的单数形式“一个”和“该”可以意指为也包括复数形式。术语“包括”和“具有”是包括在内的意思,并且因此指定存在所声明的特征、整体、步骤、操作、元件和/或组件,但是不排除存在或额外地具有一个或以上的其他特征、整体、步骤、操作、元件、组件和/或其组合。除非明确地指示了执行的次序,在此描述的该方法步骤、处理和操作不解释为一定需要按照所论述和示出的特定的次序执行。还应当理解的是,可以采用附加的或者可选择的步骤。
当元件或者层称为是“在……上”、“与……接合”、“连接到”或者“联接到”另一个元件或层,其可以是直接在另一个元件或者层上、与另一个元件或层接合、连接到或者联接到另一个元件或层,也可以存在介于其间的元件或者层。与此相反,当元件或层称为是“直接在……上”、“与……直接接合”、“直接连接到”或者“直接联接到”另一个元件或层,则可能不存在介于其间的元件或者层。其他用于描述元件关系的词应当以类似的方式解释(例如,“在……之间”和“直接在……之间”、“相邻”和“直接相邻”等)。在此使用的术语“和/或”包括该相关联的所罗列的项目的一个或以上的任一和所有的组合。虽然此处可能使用了术语第一、第二、第三等以描述各种的元件、组件、区域、层和/或部分,这些元件、组件、区域、层和/或部分不受到这些术语的限制。这些术语可以只用于将一个元件、组件、区域或部分与另一个元件、组件、区域或部分区分。除非由上下文清楚地表示,在此使用诸如术语“第一”、“第二”及其他数值的术语不意味序列或者次序。因此,在下方论述的第一元件、组件、区域、层或者部分可以采用第二元件、组件、区域、层或者部分的术语而不脱离该示例实施例的教导。
空间的相对术语,诸如“内”、“外”、“在下面”、“在……的下方”、“下部”、“上方”、“上部”等,在此可出于便于描述的目的使用,以描述如图中所示的一个元件或者特征和另外一个或多个元件或者特征之间的关系。空间的相对术语可以意指包含除该图描绘的取向之外该装置的不同的取向。例如如果翻转该图中的装置,则描述为“在其他元件或者特征的下方”或者“在元件或者特征的下面”的元件将取向为“在其他元件或者特征的上方”。因此,示例术语“在……的下方”可以包含朝上和朝下的两种取向。该装置可以以其他方式取向(旋转90度或者其他取向)并且以此处的空间的相对描述解释。

Claims (17)

1.一种条形码定位模型的训练方法,其特征在于,所述方法包括:
获取工业场景下的少量样本数据,所述少量样本数据包括带旋转角度或不带旋转角度的条形码图片;
根据所述少量样本数据,生成大量的矩形框表示的实例级标注信息的训练样本数据;
将大量的所述实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据;
根据大量的所述像素级标注信息的训练样本数据对条形码定位模型进行训练,得到基于语义分割算法的条形码定位模型;所述将大量的所述实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据的步骤包括:将大量的所述实例级标注信息的训练样本数据中的每个矩形框的标注信息转化成四个坐标信息;将每个矩形框对应的四个坐标信息转化成多边形表示,并利用多边形填充的方式将多边形内所有的像素赋值为标注框的标签,以转化成相应的像素级标注信息的训练样本数据。
2.根据权利要求1所述的条形码定位模型的训练方法,其特征在于,所述基于语义分割算法的条形码定位模型由轻量化的特征提取模块和特征解码模块组成。
3.根据权利要求2所述的条形码定位模型的训练方法,其特征在于,所述轻量化的特征提取模块中的卷积层为空洞卷积层。
4.根据权利要求2或3所述的条形码定位模型的训练方法,其特征在于,所述轻量化的特征提取模块中的卷积层的层数N的范围为6-12,为通用卷积层的层数的1/2到1/3;卷积核的个数Cl的范围为16-128,为通用卷积核的个数的1/4到1/8。
5.根据权利要求2所述的条形码定位模型的训练方法,其特征在于,所述特征解码模块包括语义网络和细节网络,所述语义网络和所述细节网络分别提取条形码的宏观语义信息和局部细节信息,以融合两种不同粒度的信息对条形码进行分割;
训练时,分别给所述语义网络和所述细节网络增加一个分割头,并利用监督信息对所述语义网络和所述细节网络进行训练。
6.根据权利要求1所述的条形码定位模型的训练方法,其特征在于,所述根据所述少量样本数据,生成大量的矩形框表示的实例级标注信息的训练样本数据的步骤包括:
对所述少量样本数据中的条形码图片用带角度的矩形框进行标注,并截取所述矩形框内的条形码;
获取多张不带条形码的背景图片;
将截取的条形码随机粘贴、融合到所述背景图片中,以生成大量的矩形框表示的实例级标注信息的训练样本数据。
7.根据权利要求6所述的条形码定位模型的训练方法,其特征在于,在所述将截取的条形码随机粘贴、融合到所述背景图片中,以生成大量的矩形框表示的实例级标注信息的训练样本数据的步骤之前,所述方法还包括:
对所述截取的条形码进行图像变化处理。
8.根据权利要求7所述的条形码定位模型的训练方法,其特征在于,所述图像变化处理包括几何图像变化、颜色空间变换、模糊、锐化、生成对抗网络中的一种或多种。
9.根据权利要求6所述的条形码定位模型的训练方法,其特征在于,所述将截取的条形码随机粘贴、融合到所述背景图片中,以生成大量的矩形框表示的实例级标注信息的训练样本数据的步骤包括:
在所述背景图片中对选中的条形码进行不重叠的随机融合操作并记录相对应的数据标签信息;
对粘贴有条形码的所述背景图片进行常规的数据扩充操作以及相对应的标签变化。
10.根据权利要求9所述的条形码定位模型的训练方法,其特征在于,所述常规的数据扩充操作包括随机翻转、随机裁剪、随机颜色抖动、灰度化、高斯模糊和复制粘贴中的一种或多种。
11.根据权利要求1所述的条形码定位模型的训练方法,其特征在于,所述基于语义分割算法的条形码定位模型的检测头的输出维度的数量等于条形码的类别数量+1;
所述基于语义分割算法的条形码定位模型的损失函数为:
Figure 543606DEST_PATH_IMAGE001
其中,
Figure 460746DEST_PATH_IMAGE002
为交叉熵损失,
Figure 178167DEST_PATH_IMAGE003
为两个子网络的dice损失,
Figure 573376DEST_PATH_IMAGE004
Figure 316642DEST_PATH_IMAGE005
Figure 139105DEST_PATH_IMAGE006
分别为三个损失对应的系数。
12.一种基于语义分割算法的条形码定位方法,其特征在于,所述方法包括:
获取待检测目标产品的图片;
将所述图片输入到基于语义分割算法的条形码定位模型中,以得到所述图片中条形码的位置和类别;所述基于语义分割算法的条形码定位模型由如权利要求1-11中任一项所述的条形码定位模型的训练方法训练得到。
13.根据权利要求12所述的基于语义分割算法的条形码定位方法,其特征在于,所述将所述图片输入到基于语义分割算法的条形码定位模型中,以得到所述图片中条形码的位置和类别的步骤包括:
将所述图片输入到基于语义分割算法的条形码定位模型中,以通过所述基于语义分割算法的条形码定位模型对所述图片进行不同粒度的特征提取,并对不同粒度的特征进行融合,再根据融合的特征图进行条形码的推理得到分割图;所述基于语义分割算法的条形码定位模型在推理时不需要用到训练阶段增加的分割头;
对所述分割图进行Softmax计算,得到三个类别的概率;
选择概率最大的类别作为所述图片中条形码的类别;
分别计算每个类别的连通域,并将所述连通域的外接矩形作为所述图片中条形码的位置。
14.一种条形码定位模型的训练系统,其特征在于,所述系统包括:
数据获取模块,用于获取工业场景下的少量样本数据,所述少量样本数据包括带旋转角度或不带旋转角度的条形码图片;
数据扩充模块,用于根据所述少量样本数据,生成大量的矩形框表示的实例级标注信息的训练样本数据;
数据转化模块,用于将大量的所述实例级标注信息的训练样本数据转化成相应的像素级标注信息的训练样本数据;
模型训练模块,用于根据大量的所述像素级标注信息的训练样本数据对条形码定位模型进行训练,得到基于语义分割算法的条形码定位模型;所述数据转化模块具体用于:将大量的所述实例级标注信息的训练样本数据中的每个矩形框的标注信息转化成四个坐标信息;将每个矩形框对应的四个坐标信息转化成多边形表示,并利用多边形填充的方式将多边形内所有的像素赋值为标注框的标签,以转化成相应的像素级标注信息的训练样本数据。
15.一种基于语义分割算法的条形码定位系统,其特征在于,所述系统包括:
图片获取模块,用于获取待检测目标产品的图片;
条形码定位模块,用于将所述图片输入到基于语义分割算法的条形码定位模型中,以得到所述图片中条形码的位置和类别;所述基于语义分割算法的条形码定位模型由如权利要求1-11中任一项所述的条形码定位模型的训练方法训练得到。
16.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-11中任一项所述的条形码定位模型的训练方法以及如权利要求12-13中任一项所述的基于语义分割算法的条形码定位方法。
17.一种包含计算机可执行指令的存储介质,所述计算机可执行指令由计算机处理器执行,以实现如权利要求1-11中任一项所述的条形码定位模型的训练方法以及如权利要求12-13中任一项所述的基于语义分割算法的条形码定位方法。
CN202211243818.7A 2022-10-12 2022-10-12 条形码定位模型训练方法、定位方法、系统、设备及介质 Active CN115310469B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211243818.7A CN115310469B (zh) 2022-10-12 2022-10-12 条形码定位模型训练方法、定位方法、系统、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211243818.7A CN115310469B (zh) 2022-10-12 2022-10-12 条形码定位模型训练方法、定位方法、系统、设备及介质

Publications (2)

Publication Number Publication Date
CN115310469A CN115310469A (zh) 2022-11-08
CN115310469B true CN115310469B (zh) 2023-02-14

Family

ID=83868276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211243818.7A Active CN115310469B (zh) 2022-10-12 2022-10-12 条形码定位模型训练方法、定位方法、系统、设备及介质

Country Status (1)

Country Link
CN (1) CN115310469B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036767B (zh) * 2023-04-10 2024-08-20 广东奥普特科技股份有限公司 二维码识别方法、装置、设备和存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11182603B1 (en) * 2018-08-31 2021-11-23 Snap Inc. Weakly supervised semantic parsing
CN110046530B (zh) * 2019-03-15 2022-03-25 中科微至智能制造科技江苏股份有限公司 一种基于多任务目标检测的条形码倾斜矫正方法
CN113723136B (zh) * 2021-08-31 2024-10-11 杭州海康威视数字技术股份有限公司 条码矫正方法、装置、设备及存储介质
CN113963008A (zh) * 2021-11-26 2022-01-21 广东奥普特科技股份有限公司 一种高分辨率图像的小目标语义分割方法及系统
CN114529834A (zh) * 2022-02-21 2022-05-24 中国工商银行股份有限公司 小目标对象的检测方法和检测装置
CN114528865B (zh) * 2022-02-22 2024-02-20 广东奥普特科技股份有限公司 条形码检测模型的训练方法、装置及条形码检测方法、装置

Also Published As

Publication number Publication date
CN115310469A (zh) 2022-11-08

Similar Documents

Publication Publication Date Title
Liu et al. Abcnet v2: Adaptive bezier-curve network for real-time end-to-end text spotting
Xu et al. Detecting tiny objects in aerial images: A normalized Wasserstein distance and a new benchmark
CN113673425B (zh) 一种基于Transformer的多视角目标检测方法及系统
CN112966684A (zh) 一种注意力机制下的协同学习文字识别方法
Shi et al. Single‐shot detector with enriched semantics for PCB tiny defect detection
Berwo et al. Deep learning techniques for vehicle detection and classification from images/videos: A survey
Liu et al. Exploring the capacity of an orderless box discretization network for multi-orientation scene text detection
Shrivastava et al. Deep learning model for text recognition in images
Dong et al. Learning a robust CNN-based rotation insensitive model for ship detection in VHR remote sensing images
CN113903022B (zh) 基于特征金字塔与注意力融合的文本检测方法及系统
Huang et al. Image saliency detection via multi-scale iterative CNN
CN115310469B (zh) 条形码定位模型训练方法、定位方法、系统、设备及介质
CN114528865A (zh) 条形码检测模型的训练方法、装置及条形码检测方法、装置
Naosekpam et al. Multi-lingual Indian text detector for mobile devices
Liang et al. Hybrid transformer-CNN networks using superpixel segmentation for remote sensing building change detection
CN113111674A (zh) Aztec码定位与解码方法、系统、设备及存储介质
CN116030050A (zh) 基于无人机与深度学习的风机表面缺陷在线检测分割方法
Zhang et al. Pixel adapter: A graph-based post-processing approach for scene text image super-resolution
CN115909378A (zh) 单据文本检测模型的训练方法及单据文本检测方法
Yang et al. An effective and lightweight hybrid network for object detection in remote sensing images
Ma et al. Banknote serial number recognition using deep learning
Ke et al. Dense small face detection based on regional cascade multi‐scale method
Cheng et al. Multitask multisource deep correlation filter for remote sensing data fusion
CN117496240A (zh) 一种光伏面板表面缺陷分类方法及系统
Yu et al. Multiscale fully convolutional network‐based approach for multilingual character segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant