CN112766021A - 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 - Google Patents
一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 Download PDFInfo
- Publication number
- CN112766021A CN112766021A CN201911064930.2A CN201911064930A CN112766021A CN 112766021 A CN112766021 A CN 112766021A CN 201911064930 A CN201911064930 A CN 201911064930A CN 112766021 A CN112766021 A CN 112766021A
- Authority
- CN
- China
- Prior art keywords
- layer
- key point
- semantic segmentation
- fcn
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000011218 segmentation Effects 0.000 title claims abstract description 30
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 26
- 238000013507 mapping Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000001174 ascending effect Effects 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及行人重识别技术领域,尤其是一种基于行人的关键点信息与语义分割信息进行行人重识别的方法;包括:目标检测,语义分割,人脸识别,关键点检测,行人重识别,通过关键点信息锁定行人,在行走过程中行人的各种动作甚至脸部关键信息的缺失都不会造成目标丢失,通过语义分割可快速将我们感兴趣的区域/目标呈现,减少追踪的工作量。
Description
技术领域
本发明涉及行人重识别技术领域,尤其是一种基于行人的关键点信息与语义分割信息进行行人重识别的方法。
背景技术
中国专利公开了一种行人重识别方法,专利号为201610922236.X,其中记载:包括行人特征提取和特征的度量;行人特征提取主要采用滑动窗口提取图像颜色直方图,对主颜色进行扩展,再在每一行滑窗中统计每一颜色模式出现的次数,选取较大的几次之和作为该颜色的特征输出,滑窗遍历整幅图像,归一化后形...
上述方案计算量较小可快速得出结果,但显而易见的,行人是一种姿态多变且周围环境在不断变换的目标,甚至会出现换装等情况,现有技术难以识别。
发明内容
针对现有技术的不足,本发明提供一种基于行人的关键点信息与语义分割信息进行行人重识别的方法。
本发明的技术方案为:
一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,包括以下步骤:
S1,目标检测,在图片中找到目标的位置,输出目标的位置信息;
S2,语义分割,在图片中找到目标的位置,输出目标的具体形状掩码;
S3,人脸识别,识别出人脸的具体类别,包括身份、性别和年龄段;
S4,关键点检测,定位人在图像中的位置以及人体各个关键点的位置;
S5,行人重识别,以人的身体属性识别出人的身份,可以理解的,此时的图片可能是视频中的一帧,故分辨率可以较低,甚至可以看不见其脸部信息。
其中,语义分割方法:具体步骤如下:
Encoder:使用预先培训过的VGG16作为编码器。解码器从VGG16的第7层开始。
FCN Layer-8:最后一个完全连接的VGG16层被1x1卷积替换。
FCN Layer-9:fcn layer-8升序2次,与VGG16的layer 4匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding='same')。之后,在VGG16的第4层和fcn的第9层之间添加了一个跳过连接。
FCN Layer-10:fcn layer-9被放大2倍,以便与VGG16第3层的尺寸匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding=(相同))。之后,在VGG16的第3层和fcn第10层之间添加了一个跳过连接。
FCN Layer-11:fcn layer-10被放大4倍以匹配输入图像大小的尺寸,因此我们得到实际图像,深度等于类数,使用带参数的转置卷积:(kernel=(16,16),step=(8,8),padding='same')。
进一步地,所述语义分割的具体实现步骤:
步骤1
我们首先将预先培训过的VGG-16模型加载到TensorFlow中。
步骤2
现在,我们主要使用vgg模型中的张量为fcn创建层。给定vgg层输出的张量和要分类的类数,我们返回该输出最后一层的张量。特别地,我们将1X1卷积应用于编码器层,然后将解码器层添加到具有跳过连接和升序采样的网络中。
步骤3
优化神经网络,也就是建立TensorFlow损失函数和优化器操作。
步骤4
定义了train-nn函数,它接受重要的参数,包括epoch数、批大小、丢失函数、优化器操作和输入图像的占位符、标签图像、学习速率。
步骤5
训练网络,在这个run函数中,首先使用load_vgg、layers和optimize函数构建网络;然后,使用train_nn函数对网络进行训练,并保存推理数据以备记录。
具体的,所述关键点检测的方法采用二维人体骨骼关键点检测或者三维人体骨骼关键点检测。
具体的,所述二维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,将处理后的图像输出(输出方式为RGB)。
具体的,所述三维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,转到三维空间,将处理后的图像输出(输出方式为RGBD)。
本发明的有益效果为:通过关键点信息锁定行人,在行走过程中行人的各种动作甚至脸部关键信息的缺失都不会造成目标丢失,通过语义分割可快速将我们感兴趣的区域/目标呈现,减少追踪的工作量。
附图说明
图1为本发明中语义分割的示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明:
实施例1
如图1所示,一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,包括以下步骤:
S1,目标检测,在图片中找到目标的位置,输出目标的位置信息;
S2,语义分割,在图片中找到目标的位置,输出目标的具体形状掩码;
S3,人脸识别,识别出人脸的具体类别,包括身份、性别和年龄段;
S4,关键点检测,定位人在图像中的位置以及人体各个关键点的位置;
S5,行人重识别,以人的身体属性识别出人的身份,可以理解的,此时的图片可能是视频中的一帧,故分辨率可以较低,甚至可以看不见其脸部信息。
其中,语义分割方法:具体步骤如下:
Encoder:使用预先培训过的VGG16作为编码器。解码器从VGG16的第7层开始。
FCN Layer-8:最后一个完全连接的VGG16层被1x1卷积替换。
FCN Layer-9:fcn layer-8升序2次,与VGG16的layer 4匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding='same')。之后,在VGG16的第4层和fcn的第9层之间添加了一个跳过连接。
FCN Layer-10:fcn layer-9被放大2倍,以便与VGG16第3层的尺寸匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding=(相同))。之后,在VGG16的第3层和fcn第10层之间添加了一个跳过连接。
FCN Layer-11:fcn layer-10被放大4倍以匹配输入图像大小的尺寸,因此我们得到实际图像,深度等于类数,使用带参数的转置卷积:(kernel=(16,16),step=(8,8),padding='same')。
进一步地,所述语义分割的具体实现步骤:
步骤1
我们首先将预先培训过的VGG-16模型加载到TensorFlow中。以TensorFlowsession和vgg文件夹的路径(可在此处下载)为例,我们返回vgg模型中的张量元组,包括图像输入、keep-prob(控制辍学率)、第3层、第4层和第7层。
步骤2
现在,我们主要使用vgg模型中的张量为fcn创建层。给定vgg层输出的张量和要分类的类数,我们返回该输出最后一层的张量。特别地,我们将1X1卷积应用于编码器层,然后将解码器层添加到具有跳过连接和升序采样的网络中。
步骤3
下一步是优化我们的神经网络,也就是建立TensorFlow损失函数和优化器操作。这里我们使用交叉熵作为损失函数,使用Adam作为优化算法。
步骤4
这里我们定义了train-nn函数,它接受重要的参数,包括epoch数、批大小、丢失函数、优化器操作和输入图像的占位符、标签图像、学习速率。对于培训过程,我们还将保持概率设置为0.5,学习率设置为0.001。为了跟踪进度,我们还打印出培训期间的损失。
步骤5
最后,是时候训练我们的网络了!在这个run函数中,我们首先使用load_vgg、layers和optimize函数构建网络。然后,我们使用train_nn函数对网络进行训练,并保存推理数据以备记录。
选择epochs=40,batch_size=16,num_classes=2,image_shape=(160,576)。
具体的,所述关键点检测的方法采用二维人体骨骼关键点检测。
具体的,所述二维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,将处理后的图像输出(输出方式为RGB)。
实施例2
如图1所示,一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,包括以下步骤:
S1,目标检测,在图片中找到目标的位置,输出目标的位置信息;
S2,语义分割,在图片中找到目标的位置,输出目标的具体形状掩码;
S3,人脸识别,识别出人脸的具体类别,包括身份、性别和年龄段;
S4,关键点检测,定位人在图像中的位置以及人体各个关键点的位置;
S5,行人重识别,以人的身体属性识别出人的身份,可以理解的,此时的图片可能是视频中的一帧,故分辨率可以较低,甚至可以看不见其脸部信息。
其中,语义分割方法:具体步骤如下:
Encoder:使用预先培训过的VGG16作为编码器。解码器从VGG16的第7层开始。
FCN Layer-8:最后一个完全连接的VGG16层被1x1卷积替换。
FCN Layer-9:fcn layer-8升序2次,与VGG16的layer 4匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding='same')。之后,在VGG16的第4层和fcn的第9层之间添加了一个跳过连接。
FCN Layer-10:fcn layer-9被放大2倍,以便与VGG16第3层的尺寸匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding=(相同))。之后,在VGG16的第3层和fcn第10层之间添加了一个跳过连接。
FCN Layer-11:fcn layer-10被放大4倍以匹配输入图像大小的尺寸,因此我们得到实际图像,深度等于类数,使用带参数的转置卷积:(kernel=(16,16),step=(8,8),padding='same')。
进一步地,所述语义分割的具体实现步骤:
步骤1
我们首先将预先培训过的VGG-16模型加载到TensorFlow中。以TensorFlowsession和vgg文件夹的路径(可在此处下载)为例,我们返回vgg模型中的张量元组,包括图像输入、keep-prob(控制辍学率)、第3层、第4层和第7层。
步骤2
现在,我们主要使用vgg模型中的张量为fcn创建层。给定vgg层输出的张量和要分类的类数,我们返回该输出最后一层的张量。特别地,我们将1X1卷积应用于编码器层,然后将解码器层添加到具有跳过连接和升序采样的网络中。
步骤3
下一步是优化我们的神经网络,也就是建立TensorFlow损失函数和优化器操作。这里我们使用交叉熵作为损失函数,使用Adam作为优化算法。
步骤4
这里我们定义了train-nn函数,它接受重要的参数,包括epoch数、批大小、丢失函数、优化器操作和输入图像的占位符、标签图像、学习速率。对于培训过程,我们还将保持概率设置为0.5,学习率设置为0.001。为了跟踪进度,我们还打印出培训期间的损失。
步骤5
最后,是时候训练我们的网络了!在这个run函数中,我们首先使用load_vgg、layers和optimize函数构建网络。然后,我们使用train_nn函数对网络进行训练,并保存推理数据以备记录。
选择epochs=40,batch_size=16,num_classes=2,image_shape=(160,576)。
具体的,所述关键点检测的方法采用三维人体骨骼关键点检测。
具体的,所述三维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,转到三维空间,将处理后的图像输出(输出方式为RGBD)。
上述实施例和说明书中描述的只是说明本发明的原理和最佳实施例,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。
Claims (6)
1.一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,包括以下步骤:
S1,目标检测,在图片中找到目标的位置,输出目标的位置信息;
S2,语义分割,在图片中找到目标的位置,输出目标的具体形状掩码;
S3,人脸识别,识别出人脸的具体类别,包括身份、性别和年龄段;
S4,关键点检测,定位人在图像中的位置以及人体各个关键点的位置;
S5,行人重识别,以人的身体属性识别出人的身份。
2.根据权利要求1所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:语义分割方法:具体步骤如下:
Encoder:使用预先培训过的VGG16作为编码器;解码器从VGG16的第7层开始;
FCN Layer-8:最后一个完全连接的VGG16层被1x1卷积替换;
FCN Layer-9:fcn layer-8升序2次,与VGG16的layer 4匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding='same');之后,在VGG16的第4层和fcn的第9层之间添加了一个跳过连接;
FCN Layer-10:fcn layer-9被放大2倍,以便与VGG16第3层的尺寸匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding=(相同));之后,在VGG16的第3层和fcn第10层之间添加了一个跳过连接;
FCN Layer-11:fcn layer-10被放大4倍以匹配输入图像大小的尺寸,因此我们得到实际图像,深度等于类数,使用带参数的转置卷积:(kernel=(16,16),step=(8,8),padding='same')。
3.根据权利要求1所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:所述语义分割的具体实现步骤:
步骤1
首先将预先培训过的VGG-16模型加载到TensorFlow中;
步骤2
使用vgg模型中的张量为fcn创建层;给定vgg层输出的张量和要分类的类数,返回该输出最后一层的张量;特别地,将1X1卷积应用于编码器层,然后将解码器层添加到具有跳过连接和升序采样的网络中;
步骤3
优化神经网络,也就是建立TensorFlow损失函数和优化器操作;
步骤4
定义了train-nn函数,它接受重要的参数,包括epoch数、批大小、丢失函数、优化器操作和输入图像的占位符、标签图像、学习速率;
步骤5
训练网络,在这个run函数中,首先使用load_vgg、layers和optimize函数构建网络;然后,使用train_nn函数对网络进行训练,并保存推理数据以备记录。
4.根据权利要求1所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:所述关键点检测的方法采用二维人体骨骼关键点检测或者三维人体骨骼关键点检测。
5.根据权利要求4所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:所述二维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,将处理后的图像输出。
6.根据权利要求4所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:所述三维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,转到三维空间,将处理后的图像输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911064930.2A CN112766021A (zh) | 2019-11-04 | 2019-11-04 | 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911064930.2A CN112766021A (zh) | 2019-11-04 | 2019-11-04 | 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112766021A true CN112766021A (zh) | 2021-05-07 |
Family
ID=75692266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911064930.2A Pending CN112766021A (zh) | 2019-11-04 | 2019-11-04 | 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766021A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256574A (zh) * | 2021-05-13 | 2021-08-13 | 中国科学院长春光学精密机械与物理研究所 | 一种三维目标检测方法 |
CN113469081A (zh) * | 2021-07-08 | 2021-10-01 | 西南交通大学 | 一种运动状态识别方法 |
CN113569853A (zh) * | 2021-06-25 | 2021-10-29 | 北京机械设备研究所 | 一种基于多任务学习的特征点提取与语义分割方法 |
WO2023273102A1 (zh) * | 2021-06-30 | 2023-01-05 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、计算机设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344787A (zh) * | 2018-10-15 | 2019-02-15 | 浙江工业大学 | 一种基于人脸识别与行人重识别的特定目标跟踪方法 |
CN109740541A (zh) * | 2019-01-04 | 2019-05-10 | 重庆大学 | 一种行人重识别系统与方法 |
CN110334675A (zh) * | 2019-07-11 | 2019-10-15 | 山东大学 | 一种基于人体骨骼关键点分割和列卷积的行人重识别方法 |
-
2019
- 2019-11-04 CN CN201911064930.2A patent/CN112766021A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344787A (zh) * | 2018-10-15 | 2019-02-15 | 浙江工业大学 | 一种基于人脸识别与行人重识别的特定目标跟踪方法 |
CN109740541A (zh) * | 2019-01-04 | 2019-05-10 | 重庆大学 | 一种行人重识别系统与方法 |
CN110334675A (zh) * | 2019-07-11 | 2019-10-15 | 山东大学 | 一种基于人体骨骼关键点分割和列卷积的行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
蓝三金: "使用深度学习实现简单语义分割(FCN)", pages 1 - 11, Retrieved from the Internet <URL:https://blog.csdn.net/qq_20084101/article/details/80501502> * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256574A (zh) * | 2021-05-13 | 2021-08-13 | 中国科学院长春光学精密机械与物理研究所 | 一种三维目标检测方法 |
CN113256574B (zh) * | 2021-05-13 | 2022-10-25 | 中国科学院长春光学精密机械与物理研究所 | 一种三维目标检测方法 |
CN113569853A (zh) * | 2021-06-25 | 2021-10-29 | 北京机械设备研究所 | 一种基于多任务学习的特征点提取与语义分割方法 |
CN113569853B (zh) * | 2021-06-25 | 2024-04-09 | 北京机械设备研究所 | 一种基于多任务学习的特征点提取与语义分割方法 |
WO2023273102A1 (zh) * | 2021-06-30 | 2023-01-05 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、计算机设备和存储介质 |
CN113469081A (zh) * | 2021-07-08 | 2021-10-01 | 西南交通大学 | 一种运动状态识别方法 |
CN113469081B (zh) * | 2021-07-08 | 2023-06-06 | 西南交通大学 | 一种运动状态识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109583340B (zh) | 一种基于深度学习的视频目标检测方法 | |
CN113496217B (zh) | 视频图像序列中人脸微表情识别方法 | |
CN112307958A (zh) | 基于时空外观运动注意力网络的微表情识别方法 | |
CN112766021A (zh) | 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 | |
CN108133188A (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN109934158B (zh) | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 | |
CN107516316B (zh) | 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法 | |
CN108960059A (zh) | 一种视频动作识别方法及装置 | |
CN105718873A (zh) | 基于双目视觉的人流分析方法 | |
CN113076905B (zh) | 一种基于上下文交互关系的情绪识别方法 | |
CN112070010B (zh) | 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法 | |
CN111476178A (zh) | 一种基于2d-3d cnn的微表情识别方法 | |
CN112861718A (zh) | 一种轻量级特征融合人群计数方法及系统 | |
CN112883931A (zh) | 基于长短期记忆网络的实时真假运动判断方法 | |
Wang et al. | Facial expression recognition based on CNN | |
Vanaja et al. | Hand Gesture Recognition for Deaf and Dumb Using CNN Technique | |
Zia et al. | An adaptive training based on classification system for patterns in facial expressions using SURF descriptor templates | |
CN114764941A (zh) | 一种表情识别方法、装置以及电子设备 | |
Shukla et al. | Deep Learning Model to Identify Hide Images using CNN Algorithm | |
CN118229548A (zh) | 基于渐进多分支和改进UNet3+深监督的红外与可见光图像融合方法 | |
KR20180092453A (ko) | Cnn과 스테레오 이미지를 이용한 얼굴 인식 방법 | |
Safar et al. | Learning shape priors for object segmentation via neural networks | |
CN117173677A (zh) | 手势识别方法、装置、设备及存储介质 | |
CN113033263B (zh) | 一种人脸图像年龄特征识别方法 | |
CN112270220B (zh) | 一种基于深度学习的缝纫手势识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |