CN108197623A - 用于检测目标的方法和装置 - Google Patents
用于检测目标的方法和装置 Download PDFInfo
- Publication number
- CN108197623A CN108197623A CN201810055231.0A CN201810055231A CN108197623A CN 108197623 A CN108197623 A CN 108197623A CN 201810055231 A CN201810055231 A CN 201810055231A CN 108197623 A CN108197623 A CN 108197623A
- Authority
- CN
- China
- Prior art keywords
- image
- frame
- pixel
- target
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了用于检测目标的方法和装置。该方法的一具体实施方式包括:获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像;连接M个差值图像,得到连接差值图像;对连接差值图像进行语义分割,得到差值掩膜图像;融合目标帧图像和差值掩膜图像,得到融合图像,以及将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像。该实施方式提高了目标检测的速度。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及图像识别技术领域,尤其涉及用于检测目标的方法和装置。
背景技术
视频中的目标检测,即对视频中的各帧图像,检测该帧图像所包括的目标的类别和/或位置信息。现有的对视频中各帧图像进行目标检测方法通常直接在视频的各帧图像的原始图像中进行检测。
发明内容
本申请实施例提出了用于检测目标的方法和装置。
第一方面,本申请实施例提供了一种用于检测目标的方法,该方法包括:获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像,其中,M为正整数;连接M个差值图像,得到连接差值图像,其中,M个差值图像是目标帧图像与M个前帧图像中各个前帧图像的差值图像;对连接差值图像进行语义分割,得到差值掩膜图像,其中,差值掩膜图像中的每个像素点包括N个初始置信度,每个像素点的N个初始置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数;融合目标帧图像和差值掩膜图像,得到融合图像,以及将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像,其中,检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度,目标检测模型用于表征图像与图像对应的检测结果图像之间的对应关系。
在一些实施例中,融合目标帧图像和差值掩膜图像,得到融合图像,包括:将M个前帧图像和目标帧图像输入至预先训练的图像对齐模型,得到与目标帧图像对应的对齐后图像,其中,图像对齐模型用于表征M个待调整图像和调整基准图像二者与将M个待调整图像对齐到调整基准图像后的图像之间的对应关系;融合对齐后图像和差值掩膜图像,得到融合图像。
在一些实施例中,连接M个差值图像,得到连接差值图像,包括:将目标帧图像输入至预先训练的第一卷积神经网络,得到目标帧特征图像,其中,第一卷积神经网络用于提取图像特征;对于M个前帧图像中的每个前帧图像,将该前帧图像输入至第一卷积神经网络,得到该前帧图像的特征图像,以及将目标帧特征图像与该前帧图像的特征图像的差值图像确定为该前帧图像的差值图像;连接M个前帧图像中各前帧图像的差值图像,得到连接差值图像。
在一些实施例中,对连接差值图像进行语义分割,得到差值掩膜图像,包括:将连接差值图像输入至预先训练的第二卷积神经网络,得到差值掩膜图像,其中,第二卷积神经网络用于对图像进行语义分割。
在一些实施例中,将M个前帧图像和目标帧图像输入至预先训练的图像对齐模型,得到与目标帧图像对应的对齐后图像,包括:将M个前帧图像中的每个前帧图像的特征图像和目标帧特征图像输入至图像对齐模型,得到与目标帧图像对应的对齐后特征图像;以及融合对齐后图像和差值掩膜图像,得到融合图像,包括:融合对齐后特征图像和差值掩膜图像,得到融合图像。
在一些实施例中,融合对齐后特征图像和差值掩膜图像,得到融合图像,包括:将对齐后特征图像和差值掩膜图像对应像素点的数据的乘积作为融合图像中对应像素点的数据;或者将对对齐后特征图像中的像素点按照差值掩膜图像中的对应像素点的N个初始置信度进行阈值截断后的数据作为融合图像中对应像素点的数据;或者将对齐后特征图像中的像素点所包括的数据和差值掩膜图像中对应像素点所包括的N个初始置信度作为融合图像中对应像素点的数据。
在一些实施例中,将M个前帧图像中的每个前帧图像的特征图像和目标帧特征图像输入至图像对齐模型,得到与目标帧图像对应的对齐后特征图像,包括:将M个前帧图像中的每个前帧图像的特征图像和目标帧特征图像输入至预先训练的第三卷积神经网络,得到与目标帧图像对应的对齐后特征图像,其中,第三卷积神经网络用于对齐图像。
在一些实施例中,将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像,包括:将融合图像输入至预先训练的第四卷积神经网络,得到与目标帧图像对应的检测结果图像,其中,第四卷积神经网络用于检测图像中的目标。
在一些实施例中,第二卷积神经网络、第三卷积神经网络和第四卷积神经网络是通过如下训练步骤得到的:初始化第二卷积神经网络、第三卷积神经网络和第四卷积神经网络的网络参数;获取训练样本集,其中,每个训练样本包括视频中连续的(M+1)帧图像、与(M+1)帧图像中的第(M+1)帧图像对应的标注差值掩膜图像、标注对齐后特征图像和标注检测结果图像;对于训练样本集中的每个训练样本,执行以下操作:将该训练样本中的(M+1)帧图像中的第(M+1)帧图像输入至第一卷积神经网络,得到第一特征图像;对于该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像,将该帧图像输入至第一卷积神经网络,得到该帧图像的特征图像,以及将第一特征图像与该帧图像的特征图像的差值图像确定为该帧图像的差值图像;连接该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的差值图像,得到与该训练样本对应的连接差值图像;将与该训练样本对应的连接差值图像输入至第二卷积神经网络,得到与该训练样本对应的差值掩膜图像;将该训练样本的中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的特征图像和第一特征图像输入至第三卷积神经网络,得到与该训练样本对应的对齐后特征图像;融合与该训练样本对应的对齐后特征图像和与该训练样本对应的差值掩膜图像,得到与该训练样本对应的融合图像;将与该训练样本对应的融合图像输入至第四卷积神经网络,得到与该训练样本对应的检测结果图像;基于第一差异、第二差异和第三差异调整第二卷积神经网络、第三卷积神经网络和第四卷积神经网络的网络参数,其中,第一差异是与该训练样本对应的差值掩膜图像和与该训练样本对应的标注差值掩膜图像之间的差异,第二差异是与该训练样本对应的对齐后特征图像和与该训练样本对应的标注对齐后特征图像之间的差异,第三差异是与该训练样本对应的检测结果图像和与该训练样本对应的标注检测结果图像之间的差异。
第二方面,本申请实施例提供了一种用于检测目标的装置,该装置包括:获取单元,配置用于获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像,其中,M为正整数;连接单元,配置用于连接M个差值图像,得到连接差值图像,其中,M个差值图像是目标帧图像与M个前帧图像中各个前帧图像的差值图像;语义分割单元,配置用于对连接差值图像进行语义分割,得到差值掩膜图像,其中,差值掩膜图像中的每个像素点包括N个初始置信度,每个像素点的N个初始置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数;融合及检测单元,配置用于融合目标帧图像和差值掩膜图像,得到融合图像,以及将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像,其中,检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度,目标检测模型用于表征图像与图像对应的检测结果图像之间的对应关系。
在一些实施例中,融合及检测单元包括:对齐模块,配置用于将M个前帧图像和目标帧图像输入至预先训练的图像对齐模型,得到与目标帧图像对应的对齐后图像,其中,图像对齐模型用于表征M个待调整图像和调整基准图像二者与将M个待调整图像对齐到调整基准图像后的图像之间的对应关系;融合模块,配置用于融合对齐后图像和差值掩膜图像,得到融合图像。
在一些实施例中,连接单元包括:第一输入模块,配置用于将目标帧图像输入至预先训练的第一卷积神经网络,得到目标帧特征图像,其中,第一卷积神经网络用于提取图像特征;第二输入模块,配置用于对于M个前帧图像中的每个前帧图像,将该前帧图像输入至第一卷积神经网络,得到该前帧图像的特征图像,以及将目标帧特征图像与该前帧图像的特征图像的差值图像确定为该前帧图像的差值图像;连接模块,配置用于连接M个前帧图像中各前帧图像的差值图像,得到连接差值图像。
在一些实施例中,语义分割单元进一步用于:将连接差值图像输入至预先训练的第二卷积神经网络,得到差值掩膜图像,其中,第二卷积神经网络用于对图像进行语义分割。
在一些实施例中,对齐模块进一步用于:将M个前帧图像中的每个前帧图像的特征图像和目标帧特征图像输入至图像对齐模型,得到与目标帧图像对应的对齐后特征图像;以及融合模块进一步用于:融合对齐后特征图像和差值掩膜图像,得到融合图像。
在一些实施例中,融合模块进一步用于:将对齐后特征图像和差值掩膜图像对应像素点的数据的乘积作为融合图像中对应像素点的数据;或者将对对齐后特征图像中的像素点按照差值掩膜图像中的对应像素点的N个初始置信度进行阈值截断后的数据作为融合图像中对应像素点的数据;或者将对齐后特征图像中的像素点所包括的数据和差值掩膜图像中对应像素点所包括的N个初始置信度作为融合图像中对应像素点的数据。
在一些实施例中,对齐模块进一步用于:将M个前帧图像中的每个前帧图像的特征图像和目标帧特征图像输入至预先训练的第三卷积神经网络,得到与目标帧图像对应的对齐后特征图像,其中,第三卷积神经网络用于对齐图像。
在一些实施例中,融合及检测单元还包括:检测模块,配置用于将融合图像输入至预先训练的第四卷积神经网络,得到与目标帧图像对应的检测结果图像,其中,第四卷积神经网络用于检测图像中的目标。
在一些实施例中,第二卷积神经网络、第三卷积神经网络和第四卷积神经网络是通过如下训练步骤得到的:初始化第二卷积神经网络、第三卷积神经网络和第四卷积神经网络的网络参数;获取训练样本集,其中,每个训练样本包括视频中连续的(M+1)帧图像、与(M+1)帧图像中的第(M+1)帧图像对应的标注差值掩膜图像、标注对齐后特征图像和标注检测结果图像;对于训练样本集中的每个训练样本,执行以下操作:将该训练样本中的(M+1)帧图像中的第(M+1)帧图像输入至第一卷积神经网络,得到第一特征图像;对于该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像,将该帧图像输入至第一卷积神经网络,得到该帧图像的特征图像,以及将第一特征图像与该帧图像的特征图像的差值图像确定为该帧图像的差值图像;连接该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的差值图像,得到与该训练样本对应的连接差值图像;将与该训练样本对应的连接差值图像输入至第二卷积神经网络,得到与该训练样本对应的差值掩膜图像;将该训练样本的中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的特征图像和第一特征图像输入至第三卷积神经网络,得到与该训练样本对应的对齐后特征图像;融合与该训练样本对应的对齐后特征图像和与该训练样本对应的差值掩膜图像,得到与该训练样本对应的融合图像;将与该训练样本对应的融合图像输入至第四卷积神经网络,得到与该训练样本对应的检测结果图像;基于第一差异、第二差异和第三差异调整第二卷积神经网络、第三卷积神经网络和第四卷积神经网络的网络参数,其中,第一差异是与该训练样本对应的差值掩膜图像和与该训练样本对应的标注差值掩膜图像之间的差异,第二差异是与该训练样本对应的对齐后特征图像和与该训练样本对应的标注对齐后特征图像之间的差异,第三差异是与该训练样本对应的检测结果图像和与该训练样本对应的标注检测结果图像之间的差异。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于检测目标的方法和装置,通过首先获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像;然后连接M个差值图像,得到连接差值图像;再对连接差值图像进行语义分割,得到差值掩膜图像,其中,差值掩膜图像中的每个像素点包括N个初始置信度,每个像素点的N个初始置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度;接着,融合目标帧图像和差值掩膜图像,得到融合图像;最后将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像。而不是直接对待检测视频中的目标帧图像进行目标检测,由于融合图像中包括了差值掩膜图像中的初始置信度,从而使得融合图像中目标检测的搜索空间少于目标帧图像中目标检测的搜索空间,进而提高了目标检测的速度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用于检测目标的方法的一个实施例的流程图;
图3是与图2所示的用于检测目标的方法对应的一个原理示意图;
图4是根据本申请的用于检测目标的方法的又一个实施例的流程图;
图5是与图4所示的用于检测目标的方法对应的一个原理示意图;
图6是根据本申请的用于检测目标的方法的另一个实施例的流程图;
图7是与图6所示的用于检测目标的方法对应的一个原理示意图;
图8是根据本申请的用于检测目标的方法的还一个实施例的流程图;
图9是与图8所示的用于检测目标的方法对应的一个原理示意图;
图10是根据本申请的用于检测目标的装置的一个实施例的结构示意图;
图11是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于检测目标的方法或用于检测目标的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频监控类应用、图像处理类应用、搜索类应用等。
终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的视频进行目标检测的后台服务器。后台服务器可以对接收到的待检测视频等进行分析等处理,并将处理结果(例如,待检测视频中每一帧的检测结果图像)反馈给终端设备或者与后台服务器连接的显示设备。
需要说明的是,本申请实施例所提供的用于检测目标的方法一般由服务器105执行,相应地,用于检测目标的装置一般设置于服务器105中。
需要指出的是,服务器105的本地也可以直接存储待检测视频,服务器105可以直接提取本地的待检测视频进行检测,此时,示例性系统架构100可以不包括终端设备101、102、103和网络104。
但需要指出的是,终端设备101、102、103中也可以安装有视频监控类应用,终端设备101、102、103也可以基于视频监控类应用对待检测视频进行目标检测,此时,用于检测目标的方法也可以由终端设备101、102、103执行,相应地,用于检测目标的装置也可以设置于终端设备101、102、103中。此时,示例性系统架构100可以不包括服务器105和网络104。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于检测目标的方法的一个实施例的流程200。该用于检测目标的方法,包括以下步骤:
步骤201,获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像。
在本实施例中,用于检测目标的方法运行于其上的电子设备(例如图1所示的服务器)可以获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像。其中,M为正整数。
这里,待检测视频可以是各种视频数据格式的视频。例如,待检测视频可以是固定摄像头所采集的视频。
这里,上述待检测视频可以是与上述电子设备通信连接的客户端(例如图1所示的终端设备101、102、103)通过有线连接方式或无线连接方式上传至上述电子设备中的,也可以是上述电子设备本地所存储的。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
这里,待检测视频中的目标帧图像可以是待检测视频中第M帧之后的任何一帧图像。可以理解的是,对于待检测视频中第M帧之前的任何一帧图像,可以采用各种对图像进行语义分割的方法进行目标检测。这里,上述各种语义分割方法可以是:基于阈值的分割方法、基于区域的分割方法(例如,区域生长和分裂合并法)、基于边缘的分割方法、基于直方图的方法、基于特定理论的分割方法、以及其他现在已知或将来开发的语义分割方法。
步骤202,连接M个差值图像,得到连接差值图像。
在本实施例中,上述电子设备(例如图1所示的服务器)可以首先计算目标帧图像与M个前帧图像中各个前帧图像的差值图像。然后,可以连接上述所得到的M个差值图像,得到连接差值图像。作为示例,可以采用JavaScript中的concat()方法连接M个差值图像,得到连接差值图像。
作为示例,假设M为5。目标帧图像和5个前帧图像中的每个前帧图像均有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数,且每个像素点包括3个通道的数据,分别是R通道、G通道和B通道,分别表示红色、绿色和蓝色三个通道的颜色强度值。即,目标帧图像和5个前帧图像中的每个前帧图像均包括w×h×3个颜色强度值。而5个差值图像中的每个差值图像也有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数,且每个像素点也包括3个通道的数据,分别是R通道、G通道和B通道,即,5个差值图像中的每个差值图像也包括w×h×3个颜色强度值。那么,连接5个差值图像后所得到的连接差值图像也包括w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数,且每个像素点包括15(3×5=15)个通道的数据,分别对应:第1个差值图像的R通道颜色值、G通道颜色值和B通道颜色值、第2个差值图像的R通道颜色值、G通道颜色值和B通道颜色值、第3个差值图像的R通道颜色值、G通道颜色值和B通道颜色值、第4个差值图像的R通道颜色值、G通道颜色值和B通道颜色值和第5个差值图像的R通道颜色值、G通道颜色值和B通道颜色值。
步骤203,对连接差值图像进行语义分割,得到差值掩膜图像。
在本实施例中,上述电子设备(例如图1所示的服务器)可以采用各种语义分割方法,对连接差值图像进行语义分割,得到差值掩膜图像。其中,上述差值掩膜图像中的每个像素点可以包括N个初始置信度,每个像素点的N个初始置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数。即,对于差值掩膜图像中的每个像素点包括N个通道的数据,每个通道对应预设N种目标中的一种目标,每个像素点的每个通道的数据对应目标帧图像中与该像素点相对应的区域存在与该种通道对应的目标的初始置信度(可以用于表征该区域存在与该种通道对应的目标的初始可能性或概率)。
这里,预设N种目标可以是物理世界中的各种目标。作为示例,目标可以是物理世界中的人、物品、动物、植物、建筑、地点等。作为示例,目标也可以是具体的人或者动物的身体某部分,例如,人脸、动物的头部等。作为示例,目标还可以是具体某种动物或植物,比如,猴子、大象、灌木丛等等。
作为示例,N个初始置信度可以包括(N-1)个目标初始置信度和1个背景初始置信度,其中,(N-1)个目标初始置信度中每个目标初始置信度用于表征目标帧图像中与该像素点相对应的区域存在预设(N-1)种目标中每种目标的初始置信度,1个背景初始置信度用于表征目标帧图像中与该像素点相对应的区域不存在上述预设(N-1)种目标中任何一种目标的初始置信度。
这里,差值掩膜图像的像素点分布可以与目标帧图像的像素点分布相同。例如,目标帧图像中有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。M个差值图像中的每个差值图像也有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。连接差值图像也有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。对连接差值图像进行语义分割,得到差值掩膜图像中也可以有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。
这里,差值掩膜图像的像素点分布也可以与目标帧图像的像素点分布不同。例如,目标帧图像中有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。M个差值图像中的每个差值图像可以有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数,且w’<w,h’<h。连接差值图像也有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数。对连接差值图像进行语义分割,得到差值掩膜图像中也可以有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数。
这里,上述各种语义分割方法可以是:基于阈值的分割方法、基于区域的分割方法(例如,区域生长和分裂合并法)、基于边缘的分割方法、基于直方图的方法、基于特定理论的分割方法、以及其他现在已知或将来开发的语义分割方法。
步骤204,融合目标帧图像和差值掩膜图像,得到融合图像,以及将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像。
在本实施例中,用于检测目标的方法运行于其上的电子设备可以首先采用各种实现方式,将步骤201所获取的目标帧图像和步骤203所得到的差值掩膜图像进行融合,得到融合图像。
可以理解的是,理想情况下,目标帧图像和差值掩膜图像的像素点分布可以是相同的,这样,可以直接融合目标帧图像和差值掩膜图像,得到融合图像。如果目标帧图像和差值掩膜图像的像素点分布不同,则可以首先将目标帧图像和差值掩膜图像变换到相同的像素点分布之后,再进行融合操作。具体可以采用各种图像变换方法,图像变换方法是本领域的公知技术,且不是本申请的重点,在此不再赘述。
在本实施例的一些可选的实现方式中,融合目标帧图像和差值掩膜图像,得到融合图像可以如下进行:将目标帧图像和差值掩膜图像对应像素点的数据的乘积作为融合图像中对应像素点的数据。
例如,假设目标帧图像的像素点分布为:w×h,其中,w和h均为正整数,即目标帧图像横向有w个像素点,纵向有h个像素点,且,目标帧图像中每个像素点包括三个通道的数据,分别是R通道、G通道和B通道,分别表示红色、绿色和蓝色三个通道的颜色强度值。即,目标帧图像包括w×h×3个颜色强度值。再假设差值掩膜图像的像素点分布也是w×h,且,差值掩膜图像中每个像素点包括2个初始置信度,分别对应人脸和动物这两个目标,且初始置信度为大于等于0且小于等于1的数值,即,差值掩膜图像中每个像素点包括2个通道的初始置信度。
那么,将目标帧图像和差值掩膜图像对应像素点的数据的乘积作为融合图像中对应像素点的数据,则所得到的融合图像的像素点分布还是w×h,且,融合图像中每个像素点包括6(3×2)个通道的数据,分别对应目标帧图像中该像素点的R通道颜色强度值×差值掩膜图像中该像素点存在人脸的初始置信度、目标帧图像中该像素点的R通道颜色强度值×差值掩膜图像中该像素点存在动物的初始置信度、目标帧图像中该像素点的G通道颜色强度值×差值掩膜图像中该像素点存在人脸的初始置信度、目标帧图像中该像素点的G通道颜色强度值×差值掩膜图像中该像素点存在动物的初始置信度、目标帧图像中该像素点的B通道颜色强度值×差值掩膜图像中该像素点存在人脸的初始置信度、目标帧图像中该像素点的B通道颜色强度值×差值掩膜图像中该像素点存在动物的初始置信度。
在本实施例的一些可选的实现方式中,融合目标帧图像和差值掩膜图像,得到融合图像也可以如下进行:将对目标帧图像中的像素点按照差值掩膜图像中的对应像素点的N个初始置信度进行阈值截断后的数据作为融合图像中对应像素点的数据。
作为示例,仍然采用上述对于目标帧图像和差值掩膜图像的像素点分布的假设,那么,将对目标帧图像中的像素点按照差值掩膜图像中的对应像素点的N个初始置信度进行阈值截断后的数据作为融合图像中对应像素点的数据,则所得到的融合图像的像素点分布还是w×h,且,融合图像中每个像素点包括6(3×2)个通道的数据,分别对应R通道-人脸、R通道-动物、G通道-人脸、G通道-动物、B通道-人脸和B通道-动物,且,融合图像中该像素点的6个通道的取值分别为:目标帧图像中该像素点的R通道颜色强度值×差值掩膜图像中该像素点存在人脸的置信度阈值截断结果、目标帧图像中该像素点的R通道颜色强度值×差值掩膜图像中该像素点存在动物的置信度阈值截断结果、目标帧图像中该像素点的G通道颜色强度值×差值掩膜图像中该像素点存在人脸的置信度阈值截断结果、目标帧图像中该像素点的G通道颜色强度值×差值掩膜图像中该像素点存在动物的置信度阈值截断结果、目标帧图像中该像素点的B通道颜色强度值×差值掩膜图像中该像素点存在人脸的置信度阈值截断结果、目标帧图像中该像素点的B通道颜色强度值×差值掩膜图像中该像素点存在动物的置信度阈值截断结果,其中,差值掩膜图像中该像素点存在人脸的置信度阈值截断结果的计算方法如下:在差值掩膜图像中该像素点存在人脸的初始置信度大于第一预设置信度阈值时,差值掩膜图像中该像素点存在人脸的置信度阈值截断结果为1;反之,在差值掩膜图像中该像素点存在人脸的初始置信度不大于第一预设置信度阈值时,差值掩膜图像中该像素点存在人脸的置信度阈值截断结果为0。可以按照同样的方法计算差值掩膜图像中该像素点存在动物的置信度阈值截断结果。综上,即,在差值掩膜图像中该像素点存在人脸的初始置信度大于第一预设置信度阈值时,融合图像中该像素点的R通道-人脸、G通道-人脸和B通道-人脸这三个通道上的取值分别为目标帧图像中R通道、G通道和B通道的取值;反之,在差值掩膜图像中该像素点存在人脸的初始置信度不大于第一预设置信度阈值时,融合图像中该像素点的R通道-人脸、G通道-人脸和B通道-人脸这三个通道上的取值均为0。同理,在差值掩膜图像中该像素点存在动物的初始置信度大于第二预设置信度阈值时,融合图像中该像素点的R通道-动物、G通道-动物和B通道-动物这三个通道上的取值分别为目标帧图像中R通道、G通道和B通道的取值;反之,在差值掩膜图像中该像素点存在动物的初始置信度不大于第一预设置信度阈值时,融合图像中该像素点的R通道-动物、G通道-动物和B通道-动物这三个通道上的取值均为0。
在本实施例的一些可选的实现方式中,融合目标帧图像和差值掩膜图像,得到融合图像还可以如下进行:将目标帧图像中的像素点所包括的数据和差值掩膜图像中对应像素点所包括的N个初始置信度作为融合图像中对应像素点的数据。
作为示例,仍然采用上述对于目标帧图像和差值掩膜图像的像素点分布的假设,那么,将目标帧图像中的像素点所包括的数据和差值掩膜图像中对应像素点所包括的N个初始置信度作为融合图像中对应像素点的数据,则所得到的融合图像的像素点分布还是w×h,且,融合图像中每个像素点包括5(3+2)个通道的数据,分别包括R通道、G通道、B通道、存在人脸的初始置信度通道和存在动物的初始置信度通道,融合图像中该像素点的这五个通道的取值分别为:目标帧图像中该像素点的R通道颜色强度值、目标帧图像中该像素点的G通道颜色强度值、目标帧图像中该像素点的B通道颜色强度值、差值掩膜图像中该像素点存在人脸的初始置信度和差值掩膜图像中该像素点存在动物的初始置信度。
在本实施例中,上述电子设备可以在得到融合图像后,将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像。其中,检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度,目标检测模型用于表征图像与图像对应的检测结果图像之间的对应关系。
需要说明的是,上述目标检测模型可以是利用各种机器学习方法和训练样本对现有的机器学习模型(例如各种人工神经网络等)进行有监督训练而得到的。其中,上述训练样本可以包括大量的样本融合图像和标注检测结果图像,这里,训练样本中的样本融合图像可以是经过如下步骤得到的:(1)、获取样本视频中的连续(M+1)帧图像。(2)、计算上述连续(M+1)帧图像中第(M+1)帧图像与第一帧到第M帧图像中每帧图像的差值图像。(3)、连接上述计算所得的M个差值图像。(4)、对上述连接差值图像进行语义分割,得到差值掩膜图像。(5)、融合上述第(M+1)帧图像和上述差值掩膜图像,得到样本融合图像。训练样本中的标注检测结果图像中的每个像素点可以包括区域信息和N个置信度,每个像素点的区域信息用于指示上述所获取的第(M+1帧)图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征上述所获取的第(M+1帧)图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度。
本申请的上述实施例提供的方法通过首先获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像;然后连接M个差值图像,得到连接差值图像;再对连接差值图像进行语义分割,得到差值掩膜图像,其中,差值掩膜图像中的每个像素点包括N个初始置信度,每个像素点的N个初始置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度;接着,融合目标帧图像和差值掩膜图像,得到融合图像;最后将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像。而不是直接对待检测视频中的目标帧图像进行目标检测,由于融合图像中融合了差值掩膜图像中的初始置信度,从而使得融合图像中目标检测的搜索空间少于目标帧图像中目标检测的搜索空间,进而提高了目标检测的速度。
继续参见图3,图3是与图2所示的用于检测目标的方法对应的一个原理示意图。在图3的应用场景中,目标帧图像为Ft,目标帧图像之前的连续M个前帧图像分别为Ft-M,…,Ft-2和Ft-1。Ft-Ft-M是目标帧图像Ft与前帧图像Ft-M的差值图像,…,Ft-Ft-2是目标帧图像Ft与前帧图像Ft-2的差值图像,Ft-Ft-1是目标帧图像Ft与前帧图像Ft-1的差值图像。连接上述M个差值图像后得到连接差值图像。对连接差值图像进行语义分割得到差值掩膜图像。融合目标帧图像Ft和上述差值掩膜图像得到融合图像。将所得到的融合图像输入目标检测模型,得到检测结果图像。
进一步参考图4,其示出了用于检测目标的方法的又一个实施例的流程400。该用于检测目标的方法的流程400,包括以下步骤:
步骤401,获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像。
在本实施例中,步骤401的具体操作与图2所示的实施例中步骤201的操作基本相同,在此不再赘述。
步骤402,连接M个差值图像,得到连接差值图像。
在本实施例中,步骤402的具体操作与图2所示的实施例中步骤202的操作基本相同,在此不再赘述。
步骤403,将M个前帧图像和目标帧图像输入至预先训练的图像对齐模型,得到与目标帧图像对应的对齐后图像。
在本实施例中,用于检测目标的方法运行于其上的电子设备(例如图1所示的服务器)可以将步骤401中所获取的M个前帧图像和目标帧图像输入至预先训练的图像对齐模型,得到与目标帧图像对应的对齐后图像。其中,上述图像对齐模型用于表征M个待调整图像和调整基准图像二者与将M个待调整图像对齐到调整基准图像后的图像之间的对应关系。这里,将M个待调整图像对齐到调整基准图像可以是以调整基准图像为基准,对M个待调整图像的至少一种图像特征进行调整,并得到与调整基准图像对应的对齐后图像的过程。这里,至少一种图像特征可以但不限于:图像中目标的运动信息(比如,位置、姿态)、图像纹理、图像亮度、图像对比度。
需要说明的是,上述图像对齐模型可以是利用各种现有的图像对齐方法和训练样本对该图像对齐方法中的参数进行有监督训练而得到的。比如,这里的图像对齐方法可以包括以下至少一项:平移变换、旋转变换、欧式变换或者仿射变换。上述图像对齐模型也可以是利用各种机器学习方法和训练样本对现有的机器学习模型(例如各种人工神经网络等)进行有监督训练而得到的。其中,上述训练样本可以包括大量的从视频中提取的连续(M+1)帧图像和标注对齐后图像,其中,标注对齐后图像可以是根据连续(M+1)帧图像,以第M+1帧图像为基准,对前M帧图像的至少一种图像特征进行调整后所得出的比上述连续(M+1)帧图像中第(M+1)帧图像更清晰的图像。
需要说明的是,上述电子设备可以同时执行上述步骤402和上述步骤403。
步骤404,融合对齐后图像和差值掩膜图像,得到融合图像。
在本实施例中,上述电子设备可以融合步骤403中所得到的对齐后图像和步骤402中所得到的差值掩膜图像,得到融合图像。
在本实施例中,由于对齐后图像可能与差值掩膜图像的像素点分布不同,为了融合对齐后图像和差值掩膜图像,可以将对齐后图像和差值掩膜图像转换到相同的像素点分布,然后再将转换后的对齐后图像和差值掩膜图像进行融合,得到融合图像。
这里,关于如何融合两幅图像的方法可以参考图2所示的实施例中步骤204中的相关描述,在此不再赘述。
步骤405,将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像。
在本实施例中,用于检测目标的方法运行于其上的电子设备可以将步骤404中所得到的融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像。其中,检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度,目标检测模型用于表征图像与图像对应的检测结果图像之间的对应关系。
需要说明的是,上述目标检测模型可以是利用各种机器学习方法和训练样本对现有的机器学习模型(例如各种人工神经网络等)进行有监督训练而得到的。其中,上述训练样本可以包括大量的样本融合图像和标注检测结果图像,这里,训练样本中的样本融合图像可以是经过如下步骤得到的:(1)、获取样本视频中的连续(M+1)帧图像。(2)、计算上述连续(M+1)帧图像中第(M+1)帧图像与第一帧到第M帧图像中每帧图像的差值图像。(3)、连接上述计算所得的M个差值图像。(4)、对上述连接差值图像进行语义分割,得到差值掩膜图像。(5)、将上述连续(M+1)帧图像输入至预先训练的图像对齐模型,得到与上述连续(M+1)帧图像中的第(M+1)帧图像对应的对齐后图像。(6)、融合上述对齐后图像和上述差值掩膜图像,得到样本融合图像。训练样本中的标注检测结果图像中的每个像素点可以包括区域信息和N个置信度,每个像素点的区域信息用于指示上述所获取的第(M+1帧)图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征上述所获取的第(M+1帧)图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于检测目标的方法的流程400多出了将M个前帧图像和目标帧图像输入至预先训练的图像对齐模型,得到与目标帧图像对应的对齐后图像的步骤,以及在得到融合图像时,不再是融合目标帧图像和差值掩膜图像,而是融合比目标帧图像更为清晰的对齐后图像和差值掩膜图像。由此,本实施例描述的方案可以通过图像对齐操作,提高目标帧图像的清晰度,进而提高目标检测的精度。
继续参见图5,图5是与图4所示的用于检测目标的方法对应的原理示意图。在图5的应用场景中,目标帧图像为Ft,目标帧图像之前的连续M个前帧图像分别为Ft-M,…,Ft-2和Ft-1。Ft-Ft-M是目标帧图像Ft与前帧图像Ft-M的差值图像,…,Ft-Ft-2是目标帧图像Ft与前帧图像Ft-2的差值图像,Ft-Ft-1是目标帧图像Ft与前帧图像Ft-1的差值图像。连接上述M个差值图像后得到连接差值图像。对连接差值图像进行语义分割得到差值掩膜图像。将M个前帧图像Ft-M,…,Ft-2和Ft-1和目标帧图像Ft输入至图像对齐模型,得到与对齐后图像。融合上述对齐后图像和上述差值掩膜图像得到融合图像。将所得到的融合图像输入目标检测模型,得到检测结果图像。
进一步参考图6,其示出了用于检测目标的方法的另一个实施例的流程600。该用于检测目标的方法的流程600,包括以下步骤:
步骤601,获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像。
在本实施例中,步骤601的具体操作与图2所示的实施例中步骤201的操作基本相同,在此不再赘述。
步骤602,将目标帧图像输入至预先训练的第一卷积神经网络,得到目标帧特征图像。
在本实施例中,用于检测目标的方法运行于其上的电子设备(例如图1所示的服务器)可以将步骤601中所获取的目标帧图像输入至预先训练的第一卷积神经网络,得到目标帧特征图像。其中,上述第一卷积神经网络用于提取图像特征。这里,第一卷积神经网络可以包括至少一个卷积层和至少一个池化层,其中,卷积层可以用于提取图像特征,池化层可以用于对输入的信息进行下采样(Down Sample)。实践中,卷积神经网络(ConvolutionalNeural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有出色表现,因而,可以利用卷积神经网络进行图像特征的提取,图像的特征可以是图像的各种基本要素(例如颜色、线条、纹理等)。此处,目标帧特征图像可以用于对目标帧图像中的特征进行表征,同时实现对目标帧图像进行降维,以减少后期计算量。
需要说明的是,上述第一卷积神经网络可以是利用机器学习方法和训练样本对现有的卷积神经网络进行有监督训练而得到的。其中,上述训练样本可以包括大量的图像和每一个图像的标注特征图像。
可以理解的是,目标帧特征图像可以是至少一个特征图像。例如,当第一卷积神经网络的卷积层包括F个卷积核时,相应的特征图像可以是F个特征图像,这里,F为正整数。另外,目标帧特征图像的像素点分布可以与目标帧图像的像素点分布不同。例如,目标帧图像中有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。将目标帧图像输入至第一卷积神经网络后,得到了C个特征图像,C为正整数,且C个特征图像中的每个特征图像有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数,且w’<w,h’<h。
步骤603,对于M个前帧图像中的每个前帧图像,将该前帧图像输入至第一卷积神经网络,得到该前帧图像的特征图像,以及将目标帧特征图像与该前帧图像的特征图像的差值图像确定为该前帧图像的差值图像。
可以理解的是,M个前帧图像中的每个前帧图像的特征图像也可以是至少一个特征图像,那么,目标帧特征图像与M个前帧图像中的每个前帧图像的特征图像的差值图像也可以是至少一个差值图像,即,M个前帧图像中的每个前帧图像的差值图像可以是至少一个差值图像。
另外,由于目标帧图像和M个前帧图像中的每个前帧图像输入的是同一个第一卷积神经网络,目标帧特征图像的像素点分布可以与M个前帧图像中的每个前帧图像的特征图像的像素点分布相同,且均可以与目标帧图像的像素点分布不同。例如,目标帧图像中有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。目标帧特征图像和M个前帧图像中的每个前帧图像的特征图像可以均有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数,且w’<w,h’<h。故此,M个前帧图像中的每个前帧图像的差值图像的像素点分布也可以与目标帧特征图像的像素点分布以及M个前帧图像中的每个前帧图像的特征图像的像素点分布均相同,即,M个前帧图像中的每个前帧图像的差值图像也有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数。
步骤604,连接M个前帧图像中各前帧图像的差值图像,得到连接差值图像。
这里,关于如何连接M个差值图像得到连接差值图像的具体方法可以参考图2所示的实施例中步骤202的相关描述,在此不再赘述。
可以理解的是,这里,连接差值图像的像素点分布可以与目标帧特征图像的像素点分布、M个前帧图像中的每个前帧图像的特征图像的像素点分布均相同。
步骤605,对连接差值图像进行语义分割,得到差值掩膜图像。
在本实施例中,上述电子设备可以采用各种实现方式,对步骤604中所得到的连接差值图像进行语义分割,得到差值掩膜图像。其中,上述差值掩膜图像中的每个像素点包括N个初始置信度,每个像素点的N个初始置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数。
这里,语义分割方法可以参考图2所示的实施例中步骤203中的相关描述,在此不再赘述。
可以理解的是,这里,对连接差值图像进行语义分割后所得到的差值掩膜图像的像素点分布可以与连接差值图像的像素点分布相同,也就是说,差值掩膜图像的像素点分布可以与目标帧特征图像的像素点分布相同,且,差值掩膜图像中的像素点个数要少于目标帧图像中的像素点个数。例如,目标帧图像中有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。目标帧特征图像、M个前帧图像中的每个前帧图像的特征图像、连接差值图像和差值掩膜图像均可以有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数,且w’<w,h’<h。
这里,虽然差值掩膜图像的像素点分布与目标帧图像的像素点分布可能不同,但是,差值掩膜图像的像素点分布与目标帧特征图像的像素点分布相同,因此,差值掩膜图像中的每个像素点对应了目标帧特征图像中的相应像素点,而目标帧特征图像是由目标帧图像经过第一卷积神经网络后输出的,由卷积神经网络的特性可知,目标帧特征图像中每个像素点均对应了目标帧图像中的相应区域,因此,差值掩膜图像中的每个像素点也就对应了目标帧图像中的相应区域,即,差值掩膜图像中的每个像素点的N个初始置信度可以用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度。
步骤606,将M个前帧图像中的每个前帧图像的特征图像和目标帧特征图像输入至图像对齐模型,得到与目标帧图像对应的对齐后特征图像。
在本实施例中,上述电子设备可以将步骤603中所得到的M个前帧图像中的每个前帧图像的特征图像和步骤602中所得到的目标帧特征图像输入至图像对齐模型,得到与目标帧图像对应的对齐后特征图像。
这里,与目标帧图像对应的对齐后特征图像的像素点分布可以与目标帧特征图像的像素点分布相同,也就是可以与M个前帧图像中的每个前帧图像的特征图像的像素点分布相同。
步骤607,融合对齐后特征图像和差值掩膜图像,得到融合图像。
这里,由于对齐后特征图像和差值掩膜图像的像素点分布均与目标帧特征图像的像素点分布相同,因此,可以直接融合对齐后特征图像和差值掩膜图像,得到融合图像。并且,所得到的融合图像的像素点分布也可以与目标帧特征图像的像素点分布相同。
这里,关于如何融合两个图像可以参考图2所示的实施例中步骤204中的相关描述,在此不再赘述。
步骤608,将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像。
在本实施例中,用于检测目标的方法运行于其上的电子设备可以将步骤607中所得到的融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像。其中,检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度,目标检测模型用于表征图像与图像对应的检测结果图像之间的对应关系。
需要说明的是,上述目标检测模型可以是利用各种机器学习方法和训练样本对现有的机器学习模型(例如各种人工神经网络等)进行有监督训练而得到的。其中,上述训练样本可以包括大量的样本融合图像和标注检测结果图像,这里,训练样本中的样本融合图像可以是经过如下步骤得到的:(1)、获取样本视频中的连续(M+1)帧图像。(2)、将上述连续(M+1)帧图像中的每帧图像均输入至第一卷积神经网络,得到每帧图像对应的特征图像。(3)、计算上述第(M+1)帧图像的特征图像与上述连续(M+1)帧图像中第一帧到第M帧图像中每帧图像的特征图像的差值图像。(4)、连接上述计算所得的M个差值图像,得到连接差值图像。(5)、对上述连接差值图像进行语义分割,得到差值掩膜图像。(6)、将上述连续(M+1)帧图像中每帧图像的特征图像输入至预先训练的图像对齐模型,得到与上述连续(M+1)帧图像中的第(M+1)帧图像对应的对齐后图像。(7)、融合上述对齐后图像和上述差值掩膜图像,得到样本融合图像。训练样本中的标注检测结果图像中的每个像素点可以包括区域信息和N个置信度,每个像素点的区域信息用于指示上述所获取的第(M+1帧)图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征上述所获取的第(M+1帧)图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度。
这里,所得到的与目标帧图像对应的检测结果图像的像素点分布可以与融合图像的像素点分布相同,并且,由于融合图像的像素点分布与目标帧特征图像的像素点分布相同,因此,所得到的与目标帧图像对应的检测结果图像的像素点分布与目标帧特征图像的像素点分布相同。例如,目标帧图像中有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。目标帧特征图像、M个前帧图像中的每个前帧图像的特征图像、差值掩膜图像、对齐后特征图像、融合图像以及检测结果图像均可以有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数,且w’<w,h’<h。
这里,虽然检测结果图像的像素点分布与目标帧图像的像素点分布可能不同,但是,检测结果图像的像素点分布与目标帧特征图像的像素点分布相同,因此,检测结果图像中的每个像素点对应了目标帧特征图像中的相应像素点,而目标帧特征图像是由目标帧图像经过第一卷积神经网络后输出的,由卷积神经网络的特性可知,目标帧特征图像中每个像素点均对应了目标帧图像中的相应区域,因此,检测结果图像中的每个像素点也就对应了目标帧图像中的相应区域,即,检测结果图像中的每个像素点的区域信息用于指示目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度可以用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度。
从图6中可以看出,与图4对应的实施例相比,本实施例中的用于检测目标的方法的流程400多出了将M个前帧图像和目标帧图像输入至第一卷积神经网络的步骤。由此,本实施例描述的方案可以通过输入第一卷积神经网络进行特征降维,减少了后期计算量,进一步提高了目标检测的速度。
继续参见图7,图7是与图6所示的用于检测目标的方法对应的一个原理示意图。在图7的应用场景中,目标帧图像为Ft,目标帧图像之前的连续M个前帧图像分别为Ft-M,…,Ft-2和Ft-1。Ft输入到第一卷积神经网络CNN1之后得到了目标帧特征图像(feature map)FPt,Ft-M,…,Ft-2和Ft-1输入到第一卷积神经网络CNN1之后分别得到了特征图像FPt-M,…,FPt-2和FPt-1。FPt-FPt-M是目标帧特征图像FPt与特征图像FPt-M的差值图像,…,FPt-FPt-2是目标帧特征图像FPt与特征图像FPt-2的差值图像,FPt-FPt-1是目标帧特征图像FPt与特征图像FPt-1的差值图像。连接上述M个差值图像后得到连接差值图像。对连接差值图像进行语义分割得到差值掩膜图像。将M个特征图像FPt-M,…,FPt-2和FPt-1和目标帧图像FPt输入至图像对齐模型,得到与对齐后图像,融合上述对齐后图像和差值掩膜图像得到融合图像,将所得到的融合图像输入目标检测模型,得到检测结果图像。
进一步参考图8,其示出了用于检测目标的方法的另一个实施例的流程800。该用于检测目标的方法的流程800,包括以下步骤:
步骤801,获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像。
步骤802,将目标帧图像输入至预先训练的第一卷积神经网络,得到目标帧特征图像。
步骤803,对于M个前帧图像中的每个前帧图像,将该前帧图像输入至第一卷积神经网络,得到该前帧图像的特征图像,以及将目标帧特征图像与该前帧图像的特征图像的差值图像确定为该前帧图像的差值图像。
步骤804,连接M个前帧图像中各前帧图像的差值图像,得到连接差值图像。
在本实施例中,步骤801、步骤802、步骤803和步骤804的具体操作与图6所示的实施例中步骤601、步骤602、步骤603和步骤604的操作基本相同,在此不再赘述。
步骤805,将连接差值图像输入至预先训练的第二卷积神经网络,得到差值掩膜图像。
在本实施例中,用于检测目标的方法运行于其上的电子设备(例如图1所示的服务器)可以将步骤804中所得到的连接差值图像输入至预先训练的第二卷积神经网络,得到差值掩膜图像。其中,上述差值掩膜图像中的每个像素点可以包括N个初始置信度,每个像素点的N个初始置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数。即,对于差值掩膜图像中的每个像素点包括N个通道的数据,每个通道对应预设N种目标中的一种目标,每个像素点的每个通道的数据对应目标帧图像中与该像素点相对应的区域存在与该种通道对应的目标的初始置信度(可以用于表征该区域存在与该种通道对应的目标的初始可能性或概率)。
这里,第二卷积神经网络用于对图像进行语义分割。第二卷积神经网络可以包括至少一个卷积层、至少一个池化层、至少一个反卷积层以及至少一个卷积核大小为1×1的卷积层。其中,卷积层可以用于提取图像特征,图像的特征可以是图像的各种基本要素(例如颜色、线条、纹理等)。池化层可以用于对输入的信息进行降采样(Down Sample)。反卷积层可以用于对所输入的信息进行上采样(Up Sample)操作。卷积核大小为1×1的卷积层可以用于特征降维或升维。位于上述第二卷积神经网络的最后一层的卷积核大小为1×1的卷积层用于将连接差值图像的每个像素点的数据经过第二卷积神经网络的前期多个层后输入到该层的数据变换到N维,其中,N维用于表征该像素点存在预设N种目标中每种目标的初始置信度。此外,上述第二卷积神经网络还可以使用各种非线性激活函数(例如ReLU(Rectified Linear Units,修正线性单元)函数、Sigmoid函数等)对信息进行非线性计算。
需要说明的是,上述第二卷积神经网络可以是利用机器学习方法和训练样本对现有的卷积神经网络进行有监督训练而得到的。其中,上述训练样本可以包括大量的差值掩膜图像和每一个差值掩膜图像的标注差值掩膜图像。
可以理解的是,这里,所得到的差值掩膜图像的像素点分布可以与连接差值图像的像素点分布相同。并且,由于连接差值图像的像素点分布与目标帧特征图像的像素点分布以及M个前帧图像中每个前帧图像的特征图像的像素点分布均相同,即,差值掩膜图像的像素点分布、连接差值图像的像素点分布、目标帧特征图像的像素点分布以及M个前帧图像中每帧图像的特征图像的像素点分布均相同。例如,目标帧图像中有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。差值掩膜图像、连接差值图像、目标帧特征图像以及M个前帧图像中每个前帧图像的特征图像均有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数,且w’<w,h’<h。
这里,虽然差值掩膜图像的像素点分布与目标帧图像的像素点分布可能不同,但是,差值掩膜图像的像素点分布与目标帧特征图像的像素点分布相同,因此,差值掩膜图像中的每个像素点对应了目标帧特征图像中的相应像素点,而目标帧特征图像是由目标帧图像经过第一卷积神经网络后输出的,由卷积神经网络的特性可知,目标帧特征图像中每个像素点均对应了目标帧图像中的相应区域,因此,差值掩膜图像中的每个像素点也就对应了目标帧图像中的相应区域,即,差值掩膜图像中的每个像素点的N个初始置信度可以用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数。
步骤806,将M个前帧图像中的每个前帧图像的特征图像和目标帧特征图像输入至预先训练的第三卷积神经网络,得到与目标帧图像对应的对齐后特征图像。
在本实施例中,上述电子设备可以将步骤803中所得到的将M个前帧图像中的每个前帧图像的特征图像和步骤802中所得到的目标帧特征图像输入至预先训练的第三卷积神经网络,得到与目标帧图像对应的对齐后特征图像。其中,上述第三卷积神经网络用于对齐图像。
这里,第三卷积神经网络可以包括至少一个卷积层和至少一个池化层,其中,卷积层可以用于提取图像特征,池化层可以用于对输入的信息进行下采样。
需要说明的是,上述第三卷积神经网络可以是利用机器学习方法和训练样本对现有的卷积神经网络进行有监督训练而得到的。其中,上述训练样本可以包括大量的从视频中提取的连续(M+1)帧图像的特征图像和标注对齐后特征图像,其中,标注对齐后特征图像是根据连续(M+1)帧图像综合后所得出的比连续(M+1)帧图像中第(M+1)帧图像更清晰的图像的特征图像。
步骤807,融合对齐后特征图像和差值掩膜图像,得到融合图像。
在本实施例中,步骤807的具体操作与图6所示的实施例中步骤607的操作基本相同,在此不再赘述。
步骤808,将融合图像输入至预先训练的第四卷积神经网络,得到与目标帧图像对应的检测结果图像。
在本实施例中,上述电子设备可以将步骤807中所得到的融合图像输入至预先训练的第四卷积神经网络,得到与目标帧图像对应的检测结果图像。其中,上述第四卷积神经网络用于检测图像中的目标。上述检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度。
这里,第四卷积神经网络可以包括至少一个卷积层、至少一个池化层以及至少一个卷积核大小为1×1的卷积层。其中,卷积层可以用于提取图像特征,图像的特征可以是图像的各种基本要素(例如,颜色、线条、纹理等)。池化层可以用于对输入的信息进行降采样。卷积核大小为1×1的卷积层用于特征降维或升维。位于第四卷积神经网络的最后一层的卷积核大小为1×1的卷积层用于将融合图像的每个像素点的数据经过第四卷积神经网络的前期多个层后输入到该层的数据转换到(N+1)维,其中,N维用于表征该像素点存在预设N种目标中每种目标的置信度,另外的1维为用于表征像素点在目标帧图像中的对应区域的区域信息。这里的1维并不一定是一个数值也可能是多个数值,这里将用于表征像素点在目标帧图像中的对应区域的区域信息至少一个数值统称为1维。例如,区域信息可以包括以该像素点为中心的矩形的左上角顶点的横坐标、左上角顶点的纵坐标、右下角顶点的横坐标和右下角顶点的纵坐标。
此外,上述第四卷积神经网络还可以使用各种非线性激活函数(例如ReLU(Rectified Linear Units,修正线性单元)函数、Sigmoid函数等)对信息进行非线性计算。
需要说明的是,上述第四卷积神经网络可以是利用机器学习方法和训练样本对现有的卷积神经网络进行有监督训练而得到的。其中,上述训练样本可以包括大量的样本融合图像和每一个样本融合图像的标注检测结果图像。这里,训练样本中的样本融合图像可以是经过如下步骤得到的:(1)、获取样本视频中的连续(M+1)帧图像。(2)、将上述连续(M+1)帧图像中的每帧图像均输入至第一卷积神经网络,得到每帧图像对应的特征图像。(3)、计算上述第(M+1)帧图像的特征图像与上述连续(M+1)帧图像中第一帧到第M帧图像中每帧图像的特征图像的差值图像。(4)、连接上述计算所得的M个差值图像,得到连接差值图像。(5)、将上述连接差值图像输入至第二卷积神经网络,得到差值掩膜图像。(6)、将上述连续(M+1)帧图像中每帧图像的特征图像输入至第三卷积神经网络,得到与上述连续(M+1)帧图像中的第(M+1)帧图像对应的对齐后图像。(7)、融合上述对齐后图像和上述差值掩膜图像,得到样本融合图像。训练样本中的标注检测结果图像中的每个像素点可以包括区域信息和N个置信度,每个像素点的区域信息用于指示上述所获取的第(M+1帧)图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征上述所获取的第(M+1帧)图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度。
这里,所得到的与目标帧图像对应的检测结果图像的像素点分布、融合图像的像素点分布、差值掩膜图像的像素点分布、对齐后特征图像的像素点分布、目标帧特征图像的像素点分布、M个前帧图像中每个前帧图像的特征图像到的像素点分布可以是相同的。例如,目标帧图像中有w×h个像素点,其中,w为横向像素点个数,h为纵向像素点个数。检测结果图像、融合图像、差值掩膜图像、对齐后特征图像、目标帧特征图像、M个前帧图像中每个前帧图像的特征图像均有w’×h’个像素点,其中,w’为横向像素点个数,h’为纵向像素点个数,且w’<w,h’<h。
需要说明的是,虽然检测结果图像的像素点分布与目标帧图像的像素点分布可能不同,但是,检测结果图像的像素点分布与目标帧特征图像的像素点分布相同,因此,检测结果图像中的每个像素点对应了目标帧特征图像中的相应像素点,而目标帧特征图像是由目标帧图像经过第一卷积神经网络后输出的,由卷积神经网络的特性可知,目标帧特征图像中每个像素点均对应了目标帧图像中的相应区域,因此,检测结果图像中的每个像素点也就对应了目标帧图像中的相应区域,即,检测结果图像中的每个像素点的区域信息用于指示目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度可以用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度。
在本实施例的一些可选的实现方式中,上述第二卷积神经网络、第三卷积神经网络和第四卷积神经网络可以是通过如下训练步骤得到的:
第一、初始化第二卷积神经网络、第三卷积神经网络和第四卷积神经网络的网络参数。
实践中,可以将第二卷积神经网络、第三卷积神经网络和第四卷积神经网络的各个网络参数(例如,权值参数和偏置参数)用一些不同的小随机数进行初始化。“小随机数”用来保证网络不会因权值过大而进入饱和状态,从而导致训练失败,“不同”用来保证网络可以正常地学习。
第二、获取训练样本集。
这里,训练样本集中的每个训练样本可以包括视频中连续的(M+1)帧图像、与(M+1)帧图像中的第(M+1)帧图像对应的标注差值掩膜图像、标注对齐后特征图像和标注检测结果图像。
第三、对于训练样本集中的每个训练样本,执行以下操作:
1、将该训练样本中的(M+1)帧图像中的第(M+1)帧图像输入至第一卷积神经网络,得到第一特征图像。
2、对于该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像,将该帧图像输入至第一卷积神经网络,得到该帧图像的特征图像,以及将第一特征图像与该帧图像的特征图像的差值图像确定为该帧图像的差值图像。
3、连接该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的差值图像,得到与该训练样本对应的连接差值图像。
4、将与该训练样本对应的连接差值图像输入至第二卷积神经网络,得到与该训练样本对应的差值掩膜图像。
5、将该训练样本的中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的特征图像和第一特征图像输入至第三卷积神经网络,得到与该训练样本对应的对齐后特征图像。
6、融合与该训练样本对应的对齐后特征图像和与该训练样本对应的差值掩膜图像,得到与该训练样本对应的融合图像。
7、将与该训练样本对应的融合图像输入至第四卷积神经网络,得到与该训练样本对应的检测结果图像。
8、基于第一差异、第二差异和第三差异调整第二卷积神经网络、第三卷积神经网络和第四卷积神经网络的网络参数,其中,第一差异是与该训练样本对应的差值掩膜图像和与该训练样本对应的标注差值掩膜图像之间的差异,第二差异是与该训练样本对应的对齐后特征图像和与该训练样本对应的标注对齐后特征图像之间的差异,第三差异是与该训练样本对应的检测结果图像和与该训练样本对应的标注检测结果图像之间的差异。
这里,可以采用各种实现方式基于第一差异、第二差异和第三差异调整第二卷积神经网络、第三卷积神经网络和第四卷积神经网络的网络参数。例如,可以采用BP(BackPropagation,反向传播)算法或者SGD(Stochastic Gradient Descent,随机梯度下降)算法来调整二卷积神经网络、第三卷积神经网络和第四卷积神经网络的网络参数。
另外,关于第一差异、第二差异和第三差异,可以采用各种损失函数来确定。作为示例,可以按照以下公式计算第一差异、第二差异和第三差异的和:
l=l1+l21+l22+l3(1)
其中:
l1是第一差异的损失函数的值,实践中,具体可以采用softmax损失函数;
l21是第二差异中与该训练样本对应的检测结果图像中各个像素点的N个置信度和与该训练样本对应的标注检测结果图像中相应像素点的N个置信度之间差异的损失函数的值的和,实践中,具体可以采用softmax损失函数、center loss损失函数或者focal loss损失函数。
l22是第二差异中与该训练样本对应的检测结果图像中各个像素点的区域信息和与该训练样本对应的标注检测结果图像中相应像素点的区域信息之间差异的损失函数的值的和。实践中,具体可以采用Smooth L1(平滑L1范数)损失函数;
l3是第三差异的损失函数的值。实践中,具体可以采用L2范数损失函数;
l是计算所得的第一差异、第二差异和第三差异之和。
从图8中可以看出,与图6对应的实施例相比,本实施例中的用于检测目标的方法的流程800突出了通过第二卷积神经网络实现对连接差值图像进行语义分割、通过第三卷积神经网络实现图像对齐以及通过第四卷积神经网络实现目标检测的步骤。由此,本实施例描述的方案可以通过引入第二卷积神经网络、第三卷积神经网络和第四卷积神经网络,丰富了语义分割、图像对齐以及目标检测的实现方式。
继续参见图9,图9是与图8所示的用于检测目标的方法对应的一个原理示意图。在图8的应用场景中,目标帧图像为Ft,目标帧图像之前的连续M个前帧图像分别为Ft-M,…,Ft-2和Ft-1。Ft输入到第一卷积神经网络CNN1之后得到了目标帧特征图像(feature map)FPt,Ft-M,…,Ft-2和Ft-1输入到第一卷积神经网络CNN1之后分别得到了特征图像FPt-M,…,FPt-2和FPt-1。其中,FPt-FPt-M是目标帧特征图像FPt与特征图像FPt-M的差值图像,…,FPt-FPt-2是目标帧特征图像FPt与特征图像FPt-2的差值图像,FPt-FPt-1是目标帧特征图像FPt与特征图像FPt-1的差值图像。连接上述M个差值图像后得到连接差值图像。将连接差值图像输入至第二卷积神经网络CNN2之后得到差值掩膜图像。将M个特征图像FPt-M,…,FPt-2和FPt-1和目标帧图像FPt输入至第三卷积神经网络CNN3,得到对齐后特征图像,融合上述对齐后特征图像和差值掩膜图像得到融合图像。将所得到的融合图像输入至第四卷积神经网络CNN4,得到检测结果图像。
进一步参考图10,作为对上述各图所示方法的实现,本申请提供了一种用于检测目标的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图10所示,本实施例的用于检测目标的装置1000包括:获取单元1001、连接单元1002、语义分割单元1003和融合及检测单元1004。其中,获取单元1001,配置用于获取待检测视频中的目标帧图像以及位于上述目标帧图像之前且与上述目标帧图像连续相邻的M个前帧图像,其中,M为正整数;连接单元1002,配置用于连接M个差值图像,得到连接差值图像,其中,上述M个差值图像是上述目标帧图像与上述M个前帧图像中各个前帧图像的差值图像;语义分割单元1003,配置用于对上述连接差值图像进行语义分割,得到差值掩膜图像,其中,上述差值掩膜图像中的每个像素点包括N个初始置信度,每个像素点的N个初始置信度用于表征上述目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数;融合及检测单元1004,配置用于融合上述目标帧图像和上述差值掩膜图像,得到融合图像,以及将上述融合图像输入至预先训练的目标检测模型,得到与上述目标帧图像对应的检测结果图像,其中,上述检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示上述目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征上述目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度,上述目标检测模型用于表征图像与图像对应的检测结果图像之间的对应关系。
在本实施例中,用于检测目标的装置1000的获取单元1001、连接单元1002、语义分割单元1003和融合及检测单元1004的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述融合及检测单元1004可以包括:对齐模块10041,配置用于将上述M个前帧图像和上述目标帧图像输入至预先训练的图像对齐模型,得到与上述目标帧图像对应的对齐后图像,其中,上述图像对齐模型用于表征M个待调整图像和调整基准图像二者与将M个待调整图像对齐到调整基准图像后的图像之间的对应关系;融合模块10042,配置用于融合上述对齐后图像和上述差值掩膜图像,得到上述融合图像。
在本实施例的一些可选的实现方式中,上述连接单元1002可以包括:第一输入模块10021,配置用于将上述目标帧图像输入至预先训练的第一卷积神经网络,得到目标帧特征图像,其中,上述第一卷积神经网络用于提取图像特征;第二输入模块10022,配置用于对于上述M个前帧图像中的每个前帧图像,将该前帧图像输入至上述第一卷积神经网络,得到该前帧图像的特征图像,以及将上述目标帧特征图像与该前帧图像的特征图像的差值图像确定为该前帧图像的差值图像;连接模块10023,配置用于连接上述M个前帧图像中各前帧图像的差值图像,得到连接差值图像。
在本实施例的一些可选的实现方式中,上述语义分割单元1003可以进一步用于:将上述连接差值图像输入至预先训练的第二卷积神经网络,得到上述差值掩膜图像,其中,上述第二卷积神经网络用于对图像进行语义分割。
在本实施例的一些可选的实现方式中,上述对齐模块10041可以进一步用于:将上述M个前帧图像中的每个前帧图像的特征图像和上述目标帧特征图像输入至上述图像对齐模型,得到与上述目标帧图像对应的对齐后特征图像;以及上述融合模块10042可以进一步用于:融合上述对齐后特征图像和上述差值掩膜图像,得到上述融合图像。
在本实施例的一些可选的实现方式中,上述融合模块10042可以进一步用于:将上述对齐后特征图像和上述差值掩膜图像对应像素点的数据的乘积作为上述融合图像中对应像素点的数据;或者将对上述对齐后特征图像中的像素点按照上述差值掩膜图像中的对应像素点的N个初始置信度进行阈值截断后的数据作为上述融合图像中对应像素点的数据;或者将上述对齐后特征图像中的像素点所包括的数据和上述差值掩膜图像中对应像素点所包括的N个初始置信度作为上述融合图像中对应像素点的数据。
在本实施例的一些可选的实现方式中,上述对齐模块10041可以进一步用于:将上述M个前帧图像中的每个前帧图像的特征图像和上述目标帧特征图像输入至预先训练的第三卷积神经网络,得到与上述目标帧图像对应的对齐后特征图像,其中,上述第三卷积神经网络用于对齐图像。
在本实施例的一些可选的实现方式中,上述融合及检测单元1004还可以包括:检测模块10043,配置用于将上述融合图像输入至预先训练的第四卷积神经网络,得到与上述目标帧图像对应的检测结果图像,其中,上述第四卷积神经网络用于检测图像中的目标。
在本实施例的一些可选的实现方式中,上述第二卷积神经网络、上述第三卷积神经网络和上述第四卷积神经网络可以是通过如下训练步骤得到的:初始化上述第二卷积神经网络、上述第三卷积神经网络和上述第四卷积神经网络的网络参数;获取训练样本集,其中,每个训练样本包括视频中连续的(M+1)帧图像、与(M+1)帧图像中的第(M+1)帧图像对应的标注差值掩膜图像、标注对齐后特征图像和标注检测结果图像;对于上述训练样本集中的每个训练样本,执行以下操作:将该训练样本中的(M+1)帧图像中的第(M+1)帧图像输入至上述第一卷积神经网络,得到第一特征图像;对于该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像,将该帧图像输入至上述第一卷积神经网络,得到该帧图像的特征图像,以及将上述第一特征图像与该帧图像的特征图像的差值图像确定为该帧图像的差值图像;连接该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的差值图像,得到与该训练样本对应的连接差值图像;将与该训练样本对应的连接差值图像输入至上述第二卷积神经网络,得到与该训练样本对应的差值掩膜图像;将该训练样本的中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的特征图像和上述第一特征图像输入至上述第三卷积神经网络,得到与该训练样本对应的对齐后特征图像;融合与该训练样本对应的对齐后特征图像和与该训练样本对应的差值掩膜图像,得到与该训练样本对应的融合图像;将与该训练样本对应的融合图像输入至上述第四卷积神经网络,得到与该训练样本对应的检测结果图像;基于第一差异、第二差异和第三差异调整上述第二卷积神经网络、上述第三卷积神经网络和上述第四卷积神经网络的网络参数,其中,上述第一差异是与该训练样本对应的差值掩膜图像和与该训练样本对应的标注差值掩膜图像之间的差异,上述第二差异是与该训练样本对应的对齐后特征图像和与该训练样本对应的标注对齐后特征图像之间的差异,上述第三差异是与该训练样本对应的检测结果图像和与该训练样本对应的标注检测结果图像之间的差异。
需要说明的是,本申请实施例提供的用于检测目标的装置中各单元的实现细节和技术效果可以参考本申请中其它实施例的说明,在此不再赘述。
下面参考图11,其示出了适于用来实现本申请实施例的服务器的计算机系统1100的结构示意图。图11示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图11所示,计算机系统1100包括中央处理单元(CPU,Central ProcessingUnit)1101,其可以根据存储在只读存储器(ROM,Read Only Memory)1102中的程序或者从存储部分1108加载到随机访问存储器(RAM,Random Access Memory)1103中的程序而执行各种适当的动作和处理。在RAM 1103中,还存储有系统1100操作所需的各种程序和数据。CPU 1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O,Input/Output)接口1105也连接至总线1104。
以下部件连接至I/O接口1105:包括键盘、鼠标等的输入部分1106;包括诸如阴极射线管(CRT,Cathode Ray Tube)、液晶显示器(LCD,Liquid Crystal Display)等以及扬声器等的输出部分1107;包括硬盘等的存储部分1108;以及包括诸如LAN(局域网,Local AreaNetwork)卡、调制解调器等的网络接口卡的通信部分1109。通信部分1109经由诸如因特网的网络执行通信处理。驱动器1110也根据需要连接至I/O接口1105。可拆卸介质1111,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1110上,以便于从其上读出的计算机程序根据需要被安装入存储部分1108。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1109从网络上被下载和安装,和/或从可拆卸介质1111被安装。在该计算机程序被中央处理单元(CPU)1101执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、连接单元、语义分割单元和融合及检测单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,连接单元还可以被描述为“连接差值图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取待检测视频中的目标帧图像以及位于目标帧图像之前且与目标帧图像连续相邻的M个前帧图像,其中,M为正整数;连接M个差值图像,得到连接差值图像,其中,M个差值图像是目标帧图像与M个前帧图像中各个前帧图像的差值图像;对连接差值图像进行语义分割,得到差值掩膜图像,其中,差值掩膜图像中的每个像素点包括N个初始置信度,每个像素点的N个初始置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数;融合目标帧图像和差值掩膜图像,得到融合图像,以及将融合图像输入至预先训练的目标检测模型,得到与目标帧图像对应的检测结果图像,其中,检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度,目标检测模型用于表征图像与图像对应的检测结果图像之间的对应关系。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (20)
1.一种用于检测目标的方法,包括:
获取待检测视频中的目标帧图像以及位于所述目标帧图像之前且与所述目标帧图像连续相邻的M个前帧图像,其中,M为正整数;
连接M个差值图像,得到连接差值图像,其中,所述M个差值图像是所述目标帧图像与所述M个前帧图像中各个前帧图像的差值图像;
对所述连接差值图像进行语义分割,得到差值掩膜图像,其中,所述差值掩膜图像中的每个像素点包括N个初始置信度,每个像素点的N个初始置信度用于表征所述目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数;
融合所述目标帧图像和所述差值掩膜图像,得到融合图像,以及将所述融合图像输入至预先训练的目标检测模型,得到与所述目标帧图像对应的检测结果图像,其中,所述检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示所述目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征所述目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度,所述目标检测模型用于表征图像与图像对应的检测结果图像之间的对应关系。
2.根据权利要求1所述的方法,其中,所述融合所述目标帧图像和所述差值掩膜图像,得到融合图像,包括:
将所述M个前帧图像和所述目标帧图像输入至预先训练的图像对齐模型,得到与所述目标帧图像对应的对齐后图像,其中,所述图像对齐模型用于表征M个待调整图像和调整基准图像二者与将M个待调整图像对齐到调整基准图像后的图像之间的对应关系;
融合所述对齐后图像和所述差值掩膜图像,得到所述融合图像。
3.根据权利要求2所述的方法,其中,所述连接M个差值图像,得到连接差值图像,包括:
将所述目标帧图像输入至预先训练的第一卷积神经网络,得到目标帧特征图像,其中,所述第一卷积神经网络用于提取图像特征;
对于所述M个前帧图像中的每个前帧图像,将该前帧图像输入至所述第一卷积神经网络,得到该前帧图像的特征图像,以及将所述目标帧特征图像与该前帧图像的特征图像的差值图像确定为该前帧图像的差值图像;
连接所述M个前帧图像中各前帧图像的差值图像,得到连接差值图像。
4.根据权利要求3所述的方法,其中,所述对所述连接差值图像进行语义分割,得到差值掩膜图像,包括:
将所述连接差值图像输入至预先训练的第二卷积神经网络,得到所述差值掩膜图像,其中,所述第二卷积神经网络用于对图像进行语义分割。
5.根据权利要求4所述的方法,其中,所述将所述M个前帧图像和所述目标帧图像输入至预先训练的图像对齐模型,得到与所述目标帧图像对应的对齐后图像,包括:
将所述M个前帧图像中的每个前帧图像的特征图像和所述目标帧特征图像输入至所述图像对齐模型,得到与所述目标帧图像对应的对齐后特征图像;以及
所述融合所述对齐后图像和所述差值掩膜图像,得到所述融合图像,包括:
融合所述对齐后特征图像和所述差值掩膜图像,得到所述融合图像。
6.根据权利要求5所述的方法,其中,所述融合所述对齐后特征图像和所述差值掩膜图像,得到所述融合图像,包括:
将所述对齐后特征图像和所述差值掩膜图像对应像素点的数据的乘积作为所述融合图像中对应像素点的数据;或者
将对所述对齐后特征图像中的像素点按照所述差值掩膜图像中的对应像素点的N个初始置信度进行阈值截断后的数据作为所述融合图像中对应像素点的数据;或者
将所述对齐后特征图像中的像素点所包括的数据和所述差值掩膜图像中对应像素点所包括的N个初始置信度作为所述融合图像中对应像素点的数据。
7.根据权利要求6所述的方法,其中,所述将所述M个前帧图像中的每个前帧图像的特征图像和所述目标帧特征图像输入至所述图像对齐模型,得到与所述目标帧图像对应的对齐后特征图像,包括:
将所述M个前帧图像中的每个前帧图像的特征图像和所述目标帧特征图像输入至预先训练的第三卷积神经网络,得到与所述目标帧图像对应的对齐后特征图像,其中,所述第三卷积神经网络用于对齐图像。
8.根据权利要求7所述的方法,其中,所述将所述融合图像输入至预先训练的目标检测模型,得到与所述目标帧图像对应的检测结果图像,包括:
将所述融合图像输入至预先训练的第四卷积神经网络,得到与所述目标帧图像对应的检测结果图像,其中,所述第四卷积神经网络用于检测图像中的目标。
9.根据权利要求8所述的方法,其中,所述第二卷积神经网络、所述第三卷积神经网络和所述第四卷积神经网络是通过如下训练步骤得到的:
初始化所述第二卷积神经网络、所述第三卷积神经网络和所述第四卷积神经网络的网络参数;
获取训练样本集,其中,每个训练样本包括视频中连续的(M+1)帧图像、与(M+1)帧图像中的第(M+1)帧图像对应的标注差值掩膜图像、标注对齐后特征图像和标注检测结果图像;
对于所述训练样本集中的每个训练样本,执行以下操作:将该训练样本中的(M+1)帧图像中的第(M+1)帧图像输入至所述第一卷积神经网络,得到第一特征图像;对于该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像,将该帧图像输入至所述第一卷积神经网络,得到该帧图像的特征图像,以及将所述第一特征图像与该帧图像的特征图像的差值图像确定为该帧图像的差值图像;连接该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的差值图像,得到与该训练样本对应的连接差值图像;将与该训练样本对应的连接差值图像输入至所述第二卷积神经网络,得到与该训练样本对应的差值掩膜图像;将该训练样本的中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的特征图像和所述第一特征图像输入至所述第三卷积神经网络,得到与该训练样本对应的对齐后特征图像;融合与该训练样本对应的对齐后特征图像和与该训练样本对应的差值掩膜图像,得到与该训练样本对应的融合图像;将与该训练样本对应的融合图像输入至所述第四卷积神经网络,得到与该训练样本对应的检测结果图像;基于第一差异、第二差异和第三差异调整所述第二卷积神经网络、所述第三卷积神经网络和所述第四卷积神经网络的网络参数,其中,所述第一差异是与该训练样本对应的差值掩膜图像和与该训练样本对应的标注差值掩膜图像之间的差异,所述第二差异是与该训练样本对应的对齐后特征图像和与该训练样本对应的标注对齐后特征图像之间的差异,所述第三差异是与该训练样本对应的检测结果图像和与该训练样本对应的标注检测结果图像之间的差异。
10.一种用于检测目标的装置,包括:
获取单元,配置用于获取待检测视频中的目标帧图像以及位于所述目标帧图像之前且与所述目标帧图像连续相邻的M个前帧图像,其中,M为正整数;
连接单元,配置用于连接M个差值图像,得到连接差值图像,其中,所述M个差值图像是所述目标帧图像与所述M个前帧图像中各个前帧图像的差值图像;
语义分割单元,配置用于对所述连接差值图像进行语义分割,得到差值掩膜图像,其中,所述差值掩膜图像中的每个像素点包括N个初始置信度,每个像素点的N个初始置信度用于表征所述目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的初始置信度,N为正整数;
融合及检测单元,配置用于融合所述目标帧图像和所述差值掩膜图像,得到融合图像,以及将所述融合图像输入至预先训练的目标检测模型,得到与所述目标帧图像对应的检测结果图像,其中,所述检测结果图像的中的每个像素点包括区域信息和N个置信度,每个像素点的区域信息用于指示所述目标帧图像中与该像素点相对应的区域,每个像素点的N个置信度用于表征所述目标帧图像中与该像素点相对应的区域存在预设N种目标中每种目标的置信度,所述目标检测模型用于表征图像与图像对应的检测结果图像之间的对应关系。
11.根据权利要求10所述的装置,其中,所述融合及检测单元包括:
对齐模块,配置用于将所述M个前帧图像和所述目标帧图像输入至预先训练的图像对齐模型,得到与所述目标帧图像对应的对齐后图像,其中,所述图像对齐模型用于表征M个待调整图像和调整基准图像二者与将M个待调整图像对齐到调整基准图像后的图像之间的对应关系;
融合模块,配置用于融合所述对齐后图像和所述差值掩膜图像,得到所述融合图像。
12.根据权利要求11所述的装置,其中,所述连接单元包括:
第一输入模块,配置用于将所述目标帧图像输入至预先训练的第一卷积神经网络,得到目标帧特征图像,其中,所述第一卷积神经网络用于提取图像特征;
第二输入模块,配置用于对于所述M个前帧图像中的每个前帧图像,将该前帧图像输入至所述第一卷积神经网络,得到该前帧图像的特征图像,以及将所述目标帧特征图像与该前帧图像的特征图像的差值图像确定为该前帧图像的差值图像;
连接模块,配置用于连接所述M个前帧图像中各前帧图像的差值图像,得到连接差值图像。
13.根据权利要求12所述的装置,其中,所述语义分割单元进一步用于:
将所述连接差值图像输入至预先训练的第二卷积神经网络,得到所述差值掩膜图像,其中,所述第二卷积神经网络用于对图像进行语义分割。
14.根据权利要求13所述的装置,其中,所述对齐模块进一步用于:
将所述M个前帧图像中的每个前帧图像的特征图像和所述目标帧特征图像输入至所述图像对齐模型,得到与所述目标帧图像对应的对齐后特征图像;以及
所述融合模块进一步用于:
融合所述对齐后特征图像和所述差值掩膜图像,得到所述融合图像。
15.根据权利要求14所述的装置,其中,所述融合模块进一步用于:
将所述对齐后特征图像和所述差值掩膜图像对应像素点的数据的乘积作为所述融合图像中对应像素点的数据;或者
将对所述对齐后特征图像中的像素点按照所述差值掩膜图像中的对应像素点的N个初始置信度进行阈值截断后的数据作为所述融合图像中对应像素点的数据;或者
将所述对齐后特征图像中的像素点所包括的数据和所述差值掩膜图像中对应像素点所包括的N个初始置信度作为所述融合图像中对应像素点的数据。
16.根据权利要求15所述的装置,其中,所述对齐模块进一步用于:
将所述M个前帧图像中的每个前帧图像的特征图像和所述目标帧特征图像输入至预先训练的第三卷积神经网络,得到与所述目标帧图像对应的对齐后特征图像,其中,所述第三卷积神经网络用于对齐图像。
17.根据权利要求16所述的装置,其中,所述融合及检测单元还包括:
检测模块,配置用于将所述融合图像输入至预先训练的第四卷积神经网络,得到与所述目标帧图像对应的检测结果图像,其中,所述第四卷积神经网络用于检测图像中的目标。
18.根据权利要求17所述的装置,其中,所述第二卷积神经网络、所述第三卷积神经网络和所述第四卷积神经网络是通过如下训练步骤得到的:
初始化所述第二卷积神经网络、所述第三卷积神经网络和所述第四卷积神经网络的网络参数;
获取训练样本集,其中,每个训练样本包括视频中连续的(M+1)帧图像、与(M+1)帧图像中的第(M+1)帧图像对应的标注差值掩膜图像、标注对齐后特征图像和标注检测结果图像;
对于所述训练样本集中的每个训练样本,执行以下操作:将该训练样本中的(M+1)帧图像中的第(M+1)帧图像输入至所述第一卷积神经网络,得到第一特征图像;对于该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像,将该帧图像输入至所述第一卷积神经网络,得到该帧图像的特征图像,以及将所述第一特征图像与该帧图像的特征图像的差值图像确定为该帧图像的差值图像;连接该训练样本中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的差值图像,得到与该训练样本对应的连接差值图像;将与该训练样本对应的连接差值图像输入至所述第二卷积神经网络,得到与该训练样本对应的差值掩膜图像;将该训练样本的中的(M+1)帧图像中的第1帧到第M帧中的每帧图像的特征图像和所述第一特征图像输入至所述第三卷积神经网络,得到与该训练样本对应的对齐后特征图像;融合与该训练样本对应的对齐后特征图像和与该训练样本对应的差值掩膜图像,得到与该训练样本对应的融合图像;将与该训练样本对应的融合图像输入至所述第四卷积神经网络,得到与该训练样本对应的检测结果图像;基于第一差异、第二差异和第三差异调整所述第二卷积神经网络、所述第三卷积神经网络和所述第四卷积神经网络的网络参数,其中,所述第一差异是与该训练样本对应的差值掩膜图像和与该训练样本对应的标注差值掩膜图像之间的差异,所述第二差异是与该训练样本对应的对齐后特征图像和与该训练样本对应的标注对齐后特征图像之间的差异,所述第三差异是与该训练样本对应的检测结果图像和与该训练样本对应的标注检测结果图像之间的差异。
19.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-9中任一所述的方法。
20.一种计算机可读存储介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-9中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810055231.0A CN108197623A (zh) | 2018-01-19 | 2018-01-19 | 用于检测目标的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810055231.0A CN108197623A (zh) | 2018-01-19 | 2018-01-19 | 用于检测目标的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108197623A true CN108197623A (zh) | 2018-06-22 |
Family
ID=62590364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810055231.0A Pending CN108197623A (zh) | 2018-01-19 | 2018-01-19 | 用于检测目标的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108197623A (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109145784A (zh) * | 2018-08-03 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 用于处理视频的方法和装置 |
CN109272457A (zh) * | 2018-08-09 | 2019-01-25 | 腾讯科技(深圳)有限公司 | 一种图像掩膜生成方法、装置及服务器 |
CN109409214A (zh) * | 2018-09-14 | 2019-03-01 | 浙江大华技术股份有限公司 | 一种对运动的目标物体进行分类的方法与设备 |
CN109784144A (zh) * | 2018-11-29 | 2019-05-21 | 北京邮电大学 | 一种亲属关系识别方法及系统 |
CN109816011A (zh) * | 2019-01-21 | 2019-05-28 | 厦门美图之家科技有限公司 | 生成人像分割模型的方法和视频关键帧提取方法 |
CN109859217A (zh) * | 2019-02-20 | 2019-06-07 | 厦门美图之家科技有限公司 | 人脸图像中毛孔区域的分割方法及计算设备 |
CN109993091A (zh) * | 2019-03-25 | 2019-07-09 | 浙江大学 | 一种基于背景消除的监控视频目标检测方法 |
CN110287877A (zh) * | 2019-06-25 | 2019-09-27 | 腾讯科技(深圳)有限公司 | 视频目标的处理方法及装置 |
CN110650379A (zh) * | 2019-09-26 | 2020-01-03 | 北京达佳互联信息技术有限公司 | 视频摘要生成方法、装置、电子设备及存储介质 |
CN110766611A (zh) * | 2019-10-31 | 2020-02-07 | 北京沃东天骏信息技术有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110852240A (zh) * | 2019-11-06 | 2020-02-28 | 创新奇智(成都)科技有限公司 | 零售商品检测系统及检测方法 |
CN111079546A (zh) * | 2019-11-22 | 2020-04-28 | 重庆师范大学 | 一种无人机害虫检测方法 |
CN111145192A (zh) * | 2019-12-30 | 2020-05-12 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN111160410A (zh) * | 2019-12-11 | 2020-05-15 | 北京京东乾石科技有限公司 | 一种物体检测方法和装置 |
CN111507981A (zh) * | 2019-01-31 | 2020-08-07 | 数坤(北京)网络科技有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN111753574A (zh) * | 2019-03-26 | 2020-10-09 | 顺丰科技有限公司 | 抛扔区域定位方法、装置、设备及存储介质 |
CN111783729A (zh) * | 2020-07-17 | 2020-10-16 | 商汤集团有限公司 | 视频分类方法、装置、设备及存储介质 |
CN111783497A (zh) * | 2019-04-03 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 视频中目标的特征确定方法、装置和计算机可读存储介质 |
CN112101302A (zh) * | 2020-11-05 | 2020-12-18 | 杭州追猎科技有限公司 | 非法张贴物检测方法、系统和电子设备 |
CN113393465A (zh) * | 2021-05-26 | 2021-09-14 | 浙江吉利控股集团有限公司 | 一种图像生成方法及装置 |
WO2021196050A1 (zh) * | 2020-03-31 | 2021-10-07 | 华为技术有限公司 | 一种基于神经网络的图像处理方法及装置 |
CN113591509A (zh) * | 2020-04-30 | 2021-11-02 | 深圳市丰驰顺行信息技术有限公司 | 车道线检测模型的训练方法、图像处理方法及装置 |
CN113706614A (zh) * | 2021-08-27 | 2021-11-26 | 重庆赛迪奇智人工智能科技有限公司 | 一种小目标检测方法、装置、存储介质和电子设备 |
CN113808123A (zh) * | 2021-09-27 | 2021-12-17 | 杭州跨视科技有限公司 | 一种基于机器视觉的药液袋动态检测方法 |
CN113989763A (zh) * | 2021-12-30 | 2022-01-28 | 江西省云眼大视界科技有限公司 | 一种视频结构化分析方法和分析系统 |
WO2023044935A1 (zh) * | 2021-09-27 | 2023-03-30 | 西门子股份公司 | 分割块状物体图像的方法、装置及计算机可读存储介质 |
CN116229337A (zh) * | 2023-05-10 | 2023-06-06 | 瀚博半导体(上海)有限公司 | 用于视频处理的方法、装置、系统、设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105574513A (zh) * | 2015-12-22 | 2016-05-11 | 北京旷视科技有限公司 | 文字检测方法和装置 |
CN105913003A (zh) * | 2016-04-07 | 2016-08-31 | 国家电网公司 | 一种多特征多模型的行人检测方法 |
CN106157310A (zh) * | 2016-07-06 | 2016-11-23 | 南京汇川图像视觉技术有限公司 | 基于混合自适应水平集模型与多通道结合的TFT LCD mura缺陷检测方法 |
CN106886801A (zh) * | 2017-04-14 | 2017-06-23 | 北京图森未来科技有限公司 | 一种图像语义分割方法及装置 |
-
2018
- 2018-01-19 CN CN201810055231.0A patent/CN108197623A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105574513A (zh) * | 2015-12-22 | 2016-05-11 | 北京旷视科技有限公司 | 文字检测方法和装置 |
CN105913003A (zh) * | 2016-04-07 | 2016-08-31 | 国家电网公司 | 一种多特征多模型的行人检测方法 |
CN106157310A (zh) * | 2016-07-06 | 2016-11-23 | 南京汇川图像视觉技术有限公司 | 基于混合自适应水平集模型与多通道结合的TFT LCD mura缺陷检测方法 |
CN106886801A (zh) * | 2017-04-14 | 2017-06-23 | 北京图森未来科技有限公司 | 一种图像语义分割方法及装置 |
Non-Patent Citations (1)
Title |
---|
王晓霞: "复杂场景中运动目标的检测", 《计算机应用与软件》 * |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109145784A (zh) * | 2018-08-03 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 用于处理视频的方法和装置 |
CN109272457A (zh) * | 2018-08-09 | 2019-01-25 | 腾讯科技(深圳)有限公司 | 一种图像掩膜生成方法、装置及服务器 |
CN109409214A (zh) * | 2018-09-14 | 2019-03-01 | 浙江大华技术股份有限公司 | 一种对运动的目标物体进行分类的方法与设备 |
CN109784144A (zh) * | 2018-11-29 | 2019-05-21 | 北京邮电大学 | 一种亲属关系识别方法及系统 |
CN109816011A (zh) * | 2019-01-21 | 2019-05-28 | 厦门美图之家科技有限公司 | 生成人像分割模型的方法和视频关键帧提取方法 |
CN111507981B (zh) * | 2019-01-31 | 2021-07-13 | 数坤(北京)网络科技股份有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN111507981A (zh) * | 2019-01-31 | 2020-08-07 | 数坤(北京)网络科技有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN109859217A (zh) * | 2019-02-20 | 2019-06-07 | 厦门美图之家科技有限公司 | 人脸图像中毛孔区域的分割方法及计算设备 |
CN109993091A (zh) * | 2019-03-25 | 2019-07-09 | 浙江大学 | 一种基于背景消除的监控视频目标检测方法 |
CN109993091B (zh) * | 2019-03-25 | 2020-12-15 | 浙江大学 | 一种基于背景消除的监控视频目标检测方法 |
CN111753574A (zh) * | 2019-03-26 | 2020-10-09 | 顺丰科技有限公司 | 抛扔区域定位方法、装置、设备及存储介质 |
CN111783497A (zh) * | 2019-04-03 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 视频中目标的特征确定方法、装置和计算机可读存储介质 |
CN110287877A (zh) * | 2019-06-25 | 2019-09-27 | 腾讯科技(深圳)有限公司 | 视频目标的处理方法及装置 |
CN110287877B (zh) * | 2019-06-25 | 2023-01-06 | 腾讯科技(深圳)有限公司 | 视频目标的处理方法及装置 |
CN110650379A (zh) * | 2019-09-26 | 2020-01-03 | 北京达佳互联信息技术有限公司 | 视频摘要生成方法、装置、电子设备及存储介质 |
CN110766611A (zh) * | 2019-10-31 | 2020-02-07 | 北京沃东天骏信息技术有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110852240A (zh) * | 2019-11-06 | 2020-02-28 | 创新奇智(成都)科技有限公司 | 零售商品检测系统及检测方法 |
CN111079546A (zh) * | 2019-11-22 | 2020-04-28 | 重庆师范大学 | 一种无人机害虫检测方法 |
CN111160410A (zh) * | 2019-12-11 | 2020-05-15 | 北京京东乾石科技有限公司 | 一种物体检测方法和装置 |
CN111160410B (zh) * | 2019-12-11 | 2023-08-08 | 北京京东乾石科技有限公司 | 一种物体检测方法和装置 |
CN111145192A (zh) * | 2019-12-30 | 2020-05-12 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
WO2021196050A1 (zh) * | 2020-03-31 | 2021-10-07 | 华为技术有限公司 | 一种基于神经网络的图像处理方法及装置 |
CN113591509A (zh) * | 2020-04-30 | 2021-11-02 | 深圳市丰驰顺行信息技术有限公司 | 车道线检测模型的训练方法、图像处理方法及装置 |
CN111783729A (zh) * | 2020-07-17 | 2020-10-16 | 商汤集团有限公司 | 视频分类方法、装置、设备及存储介质 |
CN112101302A (zh) * | 2020-11-05 | 2020-12-18 | 杭州追猎科技有限公司 | 非法张贴物检测方法、系统和电子设备 |
CN112101302B (zh) * | 2020-11-05 | 2021-04-27 | 杭州追猎科技有限公司 | 非法张贴物检测方法、系统和电子设备 |
CN113393465A (zh) * | 2021-05-26 | 2021-09-14 | 浙江吉利控股集团有限公司 | 一种图像生成方法及装置 |
CN113706614A (zh) * | 2021-08-27 | 2021-11-26 | 重庆赛迪奇智人工智能科技有限公司 | 一种小目标检测方法、装置、存储介质和电子设备 |
CN113808123A (zh) * | 2021-09-27 | 2021-12-17 | 杭州跨视科技有限公司 | 一种基于机器视觉的药液袋动态检测方法 |
WO2023044935A1 (zh) * | 2021-09-27 | 2023-03-30 | 西门子股份公司 | 分割块状物体图像的方法、装置及计算机可读存储介质 |
CN113808123B (zh) * | 2021-09-27 | 2024-03-29 | 杭州跨视科技有限公司 | 一种基于机器视觉的药液袋动态检测方法 |
CN113989763B (zh) * | 2021-12-30 | 2022-04-15 | 江西省云眼大视界科技有限公司 | 一种视频结构化分析方法和分析系统 |
CN113989763A (zh) * | 2021-12-30 | 2022-01-28 | 江西省云眼大视界科技有限公司 | 一种视频结构化分析方法和分析系统 |
CN116229337A (zh) * | 2023-05-10 | 2023-06-06 | 瀚博半导体(上海)有限公司 | 用于视频处理的方法、装置、系统、设备和介质 |
CN116229337B (zh) * | 2023-05-10 | 2023-09-26 | 瀚博半导体(上海)有限公司 | 用于视频处理的方法、装置、系统、设备和介质 |
CN117152658A (zh) * | 2023-05-10 | 2023-12-01 | 瀚博半导体(上海)有限公司 | 用于视频处理的方法、装置、系统、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108197623A (zh) | 用于检测目标的方法和装置 | |
CN108229575A (zh) | 用于检测目标的方法和装置 | |
US20210182616A1 (en) | Method and apparatus for training neural network model used for image processing, and storage medium | |
CN108171212A (zh) | 用于检测目标的方法和装置 | |
CN107644209A (zh) | 人脸检测方法和装置 | |
CN107491771A (zh) | 人脸检测方法和装置 | |
CN108154196A (zh) | 用于输出图像的方法和装置 | |
CN110119757A (zh) | 模型训练方法、视频类别检测方法、装置、电子设备和计算机可读介质 | |
CN108256479A (zh) | 人脸跟踪方法和装置 | |
CN108062780A (zh) | 图像压缩方法和装置 | |
CN109543627A (zh) | 一种判断驾驶行为类别的方法、装置、及计算机设备 | |
CN107832735A (zh) | 用于识别人脸的方法和装置 | |
CN110163188B (zh) | 视频处理以及在视频中嵌入目标对象的方法、装置和设备 | |
CN107590807A (zh) | 用于检测图像质量的方法和装置 | |
CN108509892A (zh) | 用于生成近红外图像的方法和装置 | |
CN107273870A (zh) | 一种监控场景下融合上下文信息的行人位置检测方法 | |
CN107679466A (zh) | 信息输出方法和装置 | |
CN108491823A (zh) | 用于生成人眼识别模型的方法和装置 | |
CN108337505A (zh) | 信息获取方法和装置 | |
CN107945181A (zh) | 用于乳腺癌淋巴转移病理图像的处理方法和装置 | |
CN108389172A (zh) | 用于生成信息的方法和装置 | |
CN110443824A (zh) | 用于生成信息的方法和装置 | |
CN107622504A (zh) | 用于处理图片的方法和装置 | |
CN108184075A (zh) | 用于生成图像的方法和装置 | |
CN109308687A (zh) | 用于调节图像亮度的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |