CN112668359A - 动作识别方法、动作识别装置和电子设备 - Google Patents
动作识别方法、动作识别装置和电子设备 Download PDFInfo
- Publication number
- CN112668359A CN112668359A CN201910977125.2A CN201910977125A CN112668359A CN 112668359 A CN112668359 A CN 112668359A CN 201910977125 A CN201910977125 A CN 201910977125A CN 112668359 A CN112668359 A CN 112668359A
- Authority
- CN
- China
- Prior art keywords
- human body
- image frame
- motion
- target human
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000009471 action Effects 0.000 claims abstract description 41
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 24
- 210000003423 ankle Anatomy 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 7
- 238000004148 unit process Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 19
- 238000013135 deep learning Methods 0.000 description 7
- 210000003127 knee Anatomy 0.000 description 7
- 230000009193 crawling Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000009191 jumping Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本申请实施例提供一种动作识别方法、动作识别装置和电子设备,该动作识别装置包括:关键点特征提取单元,其对图像帧中目标人体上的关键点的信息进行处理,从而计算所述目标人体的关键点特征,所述关键点特征包括所述目标人体上的预定关键点的位置和预定关节的角度;以及第一识别单元,其根据所述关键点特征,识别所述目标人体的动作,输出第一识别结果。
Description
技术领域
本申请涉及电子信息技术领域。
背景技术
人体的动作识别(action recognition)具有广泛的应用前景,例如,人体的动作识别可以被应用于消费者行为分析、健康看护、智能工厂等场景中。
现有技术中,常见的动作识别方法包括:基于摄像机拍摄到的图像帧来进行人体的动作识别,例如,使用基于深度学习网络的分类器对图像帧进行分类,从而对图像帧中的人体的动作进行识别;或者,从摄像机拍摄到的图像帧中提取人体的关键点,根据关键点来识别人体的动作。
应该注意,上面对技术背景的介绍只是为了方便对本申请的技术方案进行清楚、完整的说明,并方便本领域技术人员的理解而阐述的。不能仅仅因为这些方案在本申请的背景技术部分进行了阐述而认为上述技术方案为本领域技术人员所公知。
发明内容
本申请的申请人发现,常见的动作识别方法存在一些局限性,例如:在使用基于深度学习网络的分类器的方法中,需要大量的训练数据对深度学习网络进行训练,并且,该方法是针对图像信号直接进行分类,所以计算量大,而且会受到图像中其它信息的干扰,识别的效率并不高,此外,如果要对新的动作进行识别,需要针对该新的动作重新训练该深度学习网络,因而该方法的可扩展性较低;在根据人体的关键点来识别动作的方法中,由于使用的参数较单一,识别结果的准确性也难以保证。
本申请实施例提供一种动作识别方法、动作识别装置以及电子设备,该动作识别装置根据图像帧中人体上的关键点的位置以及关节的角度来识别人体的动作,不仅计算量小,而且准确性较高。
根据本申请实施例的第一方面,提供一种动作识别装置,包括:关键点特征提取单元,其对图像帧中目标人体上的关键点的信息进行处理,从而计算所述目标人体的关键点特征,所述关键点特征包括所述目标人体上的预定关键点的位置和预定关节的角度;以及第一识别单元,其根据所述关键点特征,识别所述目标人体的动作,输出第一识别结果。
根据本实施例的第二方面,提供一种动作识别方法,包括:对图像帧中目标人体上的关键点的信息进行处理,从而计算所述目标人体的关键点特征,所述关键点特征包括所述目标人体上的预定关键点的位置和预定关节的角度;以及根据所述关键点特征,识别所述目标人体的动作,输出第一识别结果。
根据本实施例的第三方面,提供一种电子设备,其包括实施例的第一方面的动作识别装置。
本申请的有益效果在于:根据图像帧中人体上的关键点的位置以及关节的角度来识别人体的动作,不仅计算量小,而且准确性较高。
参照后文的说明和附图,详细公开了本发明的特定实施方式,指明了本发明的原理可以被采用的方式。应该理解,本发明的实施方式在范围上并不因而受到限制。在所附附记的精神和条款的范围内,本发明的实施方式包括许多改变、修改和等同。
针对一种实施方式描述和/或示出的特征可以以相同或类似的方式在一个或更多个其它实施方式中使用,与其它实施方式中的特征相组合,或替代其它实施方式中的特征。
应该强调,术语“包括/包含”在本文使用时指特征、整件、步骤或组件的存在,但并不排除一个或更多个其它特征、整件、步骤或组件的存在或附加。
附图说明
所包括的附图用来提供对本发明实施例的进一步的理解,其构成了说明书的一部分,用于例示本发明的实施方式,并与文字描述一起来阐释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1是本申请实施例的第一方面的动作识别装置的一个示意图;
图2是当前图像帧中目标人体上的关键点的一个示意图;
图3是预定关键点的一个示意图;
图4是关键点特征提取单元计算关键点特征的方法的一个示意图;
图5是第二识别单元对第一识别结果进行调整的一个示意图;
图6是本申请实施例的第二方面的动作识别方法的一个示意图;
图7是实施例的第三方面的电子设备的一个构成示意图。
具体实施方式
参照附图,通过下面的说明书,本发明的前述以及其它特征将变得明显。在说明书和附图中,具体公开了本发明的特定实施方式,其表明了其中可以采用本发明的原则的部分实施方式,应了解的是,本发明不限于所描述的实施方式,相反,本发明包括落入所附附记的范围内的全部修改、变型以及等同物。
在本申请实施例中,术语“第一”、“第二”等用于对不同元素从称谓上进行区分,但并不表示这些元素的空间排列或时间顺序等,这些元素不应被这些术语所限制。术语“和/或”包括相关联列出的术语的一种或多个中的任何一个和所有组合。术语“包含”、“包括”、“具有”等是指所陈述的特征、元素、元件或组件的存在,但并不排除存在或添加一个或多个其他特征、元素、元件或组件。
在本申请实施例中,单数形式“一”、“该”等包括复数形式,应广义地理解为“一种”或“一类”而并不是限定为“一个”的含义;此外术语“该”应理解为既包括单数形式也包括复数形式,除非上下文另外明确指出。此外术语“根据”应理解为“至少部分根据……”,术语“基于”应理解为“至少部分基于……”,除非上下文另外明确指出。
实施例的第一方面
本申请实施例的第一方面提供一种动作识别装置。
图1是本申请实施例的第一方面的动作识别装置的一个示意图,如图1所示,该动作识别装置1包括:关键点特征提取单元11和第一识别单元12。
其中,关键点特征提取单元11对图像帧中目标人体上的关键点的信息进行处理,从而获得目标人体的关键点特征,该关键点特征包括目标人体上的预定关键点的位置和预定关节的角度;第一识别单元12根据由关键点特征提取单元11计算出的关键点特征,识别图像帧中目标人体的动作,输出第一识别结果。
根据本申请实施例的第一方面,动作识别装置1根据图像帧中人体上的关键点的位置以及来识别人体的动作,由于关键点的位置以及关节的角度是图像帧中的一部分信息,因而第一识别单元12无需使用深度学习网络就可以以较小的计算量进行准确的分类;并且,与仅基于关键点的位置进行动作识别的方案相比,本申请的动作识别装置1还根据人体的关节的角度进行动作识别,因而识别的准确度更高;此外,如果需要增加或改变需要识别的动作,可以通过对预定关键点和/或预定关节进行调整来实现,而无需进行大量的训练,因此,本申请的动作识别装置1的可扩展性较强,灵活度较高。
在至少一个实施例中,图像帧例如可以是由摄像机拍摄所得到的视频中的某一个图像帧。各图像帧在时间序列上可以具有先后顺序,例如,第n图像帧对应于时间序列上的时刻Tn,其中,n为自然数。
在本申请下面的描述中,在识别该第n图像帧中的目标人体的动作的情况下,该第n图像帧被称为当前图像帧(current image frame),在时间序列上比当前图像帧靠前的图像帧称为历史图像帧(historical image frame),例如,历史图像帧对应时间序列上的时刻T(n-k)。
在至少一个实施例中,当前图像帧中目标人体上的关键点的信息可以被输入到关键点特征提取单元11。
其中,当前图像帧中目标人体上的关键点的信息例如可以是当前图像帧中目标人体上的各关键点的坐标值,该坐标值可以用相互垂直的两个方向上的像素数来表示,其中,当前图像帧中最左上角的像素的坐标值可以被设定为(0,0),该相互垂直的两个方向可以是当前图像帧的宽度方向和高度方向。
图2是当前图像帧中目标人体上的关键点的一个示意图,如图2所示,关键点例如可以是该目标人体的鼻子21、左肩22、右肩23、左髋24、右髋25、左膝盖26、右膝盖27、左脚踝28、右脚踝29、左肘30、右肘31、左手腕32、右手腕33、左眼34、右眼35、左耳36、右耳37。图2所示的关键点的分布只是一个示例,本申请不限于此。
在至少一个实施例中,图2中的各关键点的信息可以通过对当前图像帧进行目标检测来得到。例如,使用模板法等方法对当前图像帧中的目标人体,以及该目标人体的身体部位进行检测,在检测到的各部位中设定关键点来表示该部位,并输出各关键点的坐标值作为当前图像帧中目标人体上的关键点的信息;又例如,可以在作为摄像机的被摄体的人体上设置传感器,根据传感器所感测到的信息来确定当前图像帧中目标人体上的关键点的信息。
在至少一个实施例中,关键点特征提取单元11对于输入到其中的当前图像帧中目标人体上的关键点的信息,可以从中选取至少一部分关键点作为预定关键点,并对该预定关键点的信息进行处理。
图3是预定关键点的一个示意图,如图3所示,预定关键点例如可以是目标人体的鼻子21、左肩22、右肩23、左髋24、右髋25、左膝盖26、右膝盖27、左脚踝28、右脚踝29。此外,如图3所示,左髋24处的关节241、右髋25处的关节251、左膝盖26处的关节261、右膝盖27处的关节271可以是预定关节。
图3所示的只是预定关键点和预定关节的一个举例,本申请并不限于此,可以根据需要识别的动作来设定该预定关键点和预定关节。例如,在需要识别人体的躯干和腿部相关的动作的情况下,可以按照图2所示设定9个预定关键点和4个预定关节,该9个关键点可以不位于胳膊等部位;又例如,在需要识别人体的其它动作的情况下,比如需要识别手臂的举起或张开等动作时,就可以将胳膊上的关键点(例如图2的左肘30、右肘31、左手腕32、右手腕33)设置为预定关键点,并将左肘30和右肘31处的关节设置为预定关节。
在至少一个实施例中,关键点特征提取单元11提取出的当前图像帧中目标人体的关键点特征包括:该当前图像帧中目标人体上的预定关键点的位置和预定关节的角度。
图4是关键点特征提取单元11计算关键点特征的方法的一个示意图。如图4所示,该方法包括:
操作401、根据图像帧中目标人体的高度,调整图像帧中目标人体上的预定关键点的坐标值;以及
操作402、根据图像帧中目标人体上的预定关键点的调整后的坐标值,计算预定关节的角度。
在操作401中,当前图像帧中的目标人体的高度可以如图2的H所示,即:当前图像帧中目标人体的眼睛所在的关键点(例如,图2的左眼34或右眼35)的高度方向的坐标值与当前图像帧中目标人体的脚踝所在的关键点(例如,图2的左脚踝28、右脚踝29)的高度方向的坐标值之差。
在操作401中,可以计算当前图像帧中的目标人体的高度H与预设的标准高度H0的比值,将当前图像帧中的目标人体的各预定像素的坐标值(高度方向的坐标值和宽度方向的坐标值)除以该比值,得到调整后的坐标值。
通过操作401,能够使对当前图像帧中的目标人体的各预定关键点的坐标值进行归一化处理,避免由于被摄体与摄像机的距离或视场角的差异带来的各预定关键点的坐标值的变化,从而提高识别准确性。
此外,本申请可以不限于此,在操作401中,也可以采用其他方法调整各预定关键点的坐标值,此外,也可以根据目标人体的其它尺寸来调整各预定关键点的坐标值。
在操作402中,可以针对调整后的坐标值,计算关节241、关节251、关节261以及关节271的角度,其中,关节241的角度例如是图3中左肩22和左髋24的连线L1与左髋24和左膝盖26的连线L2的夹角,其它关节的角度的计算方式与之类似。
在至少一个实施例中,关键点特征提取单元11提取出的当前图像帧中目标人体的关键点特征被输入到第一识别单元12,第一识别单元12根据该关键点信息特征,识别目标人体的动作,输出第一识别结果。该第一识别单元12可以基于浅层学习网络进行识别,因此,可以以较小的计算量进行准确的识别。
例如,该第一识别单元12可以基于多层感知机(Multilayer Perception)模型进行识别,该多层感知机模型可以包括一个输入层(input layer),两个隐含层(hiddenlayer)和一个输出层(output layer),其中,该输入层可以被输入一个1*22的向量,该向量中例如包含有图3所示的9个预定关键点的高度方向的坐标值和宽度方向的坐标值以及4个预定关节的角度,各隐含层例如可以分别具有100个节点(nodes),输出层可以输出6种动作的概率,这6种动作例如是行走(walking)、站立(standing)、坐(sitting)、蹲(squatting)、躺(lying)、弯腰(bending),其中,概率最大的动作就是第一识别单元12的第一识别结果。
在本申请中,多层感知机(Multilayer Perception)模型仅是举例,第一识别单元12也可以基于其它模型进行识别,例如支持向量机(SVM)模型等。
在至少一个实施例中,如图1所示,动作识别装置1还可以包括:第二识别单元13。
其中,第二识别单元13根据目标人体上的预定关键点的运动参量,和/或第二识别单元13针对该当前图像帧之前的历史图像帧中的该目标人体的动作输出的第二识别结果(即,历史第二识别结果),对第一识别单元12针对当前图像帧中目标人体的动作的第一识别结果进行修正,输出针对当前图像帧中的该目标人体的动作的第二识别结果。
在至少一个实施例中,目标人体上的预定关键点的运动参量可以根据当前图像帧中目标人体上的预定关键点的调整后的位置和历史图像帧中该目标人体上的预定关键点的调整后的位置来得到,例如,如图1所示,动作识别装置1还可以包括关键点运动参量计算单元14,关键点运动参量计算单元14计算当前图像帧中的该目标人体上的各预定关键点与历史图像帧中的该目标人体上的各预定关键点之间的运动向量,根据各预定关键点的运动向量计算目标人体上的预定关键点的运动参量。
其中,关键点特征提取单元11可以对是历史图像帧中目标人体上的关键点的信息进行如图4的操作401所述的处理,得到该历史图像帧中该目标人体上的预定关键点的调整后的位置。
在至少一个实施例中,目标人体上的预定关键点的运动参量包括:各预定关键点的坐标值的差的均值(mean)、和/或各预定关键点的坐标值的差的标准偏差(variances)、和/或各预定关键点的运动方向、和/或沿预定方向运动的预定关键点的数量。此外,本实施例可以不限于此,目标人体上的预定关键点的运动参量还可以是其它的参量。
需要说明的是,在第二识别单元13和关键点运动参量计算单元14中,当前图像帧中的目标人体和历史图像帧中的目标人体对应于同一个被拍摄人物,可以基于目标追踪技术来对当前图像帧和历史图像帧中对应于同一个被拍摄人物的目标人体进行确定。
此外,第二识别单元13的针对当前图像帧输出的第二识别结果可以被输入到第二识别单元13中,用于对当前图像帧之后的后来图像帧中的该目标人体进行动作识别。
图5是第二识别单元13对第一识别结果进行调整的一个示意图。如图5所示,51表示第一识别结果,52表示第二识别结果,53表示第二识别单元13生成第二识别结果53的依据。
如图5所示,第二识别结果例如可以是行走(walking)、站立(standing)、坐(sitting)、蹲(squatting)、躺(lying)、弯腰(bending)、跑(running)、爬行(crawling)、起立(getting up)、跌倒(falling down)、跳起(jumping)等。
如图5所示,各依据531~539可以是:
依据531、如果第一识别结果是“行走”,并且,各预定关键点的运动向量的均值小于第一阈值(thread_walk),那么第二识别结果为“站立”;
依据532、如果第一识别结果是“站立”,并且,各预定关键点的运动向量的均值大于或等于第一阈值(thread_walk),那么第二识别结果为“行走”;
依据533、如果第一识别结果是“弯腰”或“躺”,那么第二识别结果与第一识别结果相同;
依据534、如果第一识别结果是“站立”或“行走”,并且,各预定关键点的运动向量的均值大于或等于第二阈值(thread_run),那么第二识别结果为“跑”;
依据535、如果第一识别结果是“躺”,并且,各预定关键点的运动向量的均值大于或等于第三阈值(thread_crawl),那么第二识别结果为“爬行”;
依据536、如果第一识别结果是“站立”或“行走”或“弯腰”,并且,历史图像帧的第二识别结果是“坐”或“爬行”或“躺”,并且,向上运动的预定关键点的数量大于9,那么第二识别结果为“起立”;
依据537、如果第一识别结果是“躺”,并且,历史图像帧的第二识别结果是“站立”或“行走”或“弯腰”,并且,向上运动的预定关键点的数量小于或等于3,那么第二识别结果为“跌倒”;
依据538、如果第一识别结果是“站立”或“行走”或“弯腰”,并且,向上运动的预定关键点的数量等于13或等于0,并且,各预定关键点的运动向量的均值大于或等于第四阈值(thread_jump),那么第二识别结果为“跳起”;
依据539、如果第一识别结果是“坐”或“蹲”,那么第二识别结果与第一识别结果相同。
图5所示出的第一识别结果51,第二识别结果52,各依据531~539只是举例,本申请的各实施例并不限于此。
根据该第二识别单元13,能够基于人体的动作与时间的关系对动作识别的结果进行调整,因此,能够更加准确地识别出人体的动作。
在至少一个实施例中,如图1所示,动作识别装置1还可以包括:图像帧间隔确定单元15。其中,图像帧间隔确定单元15根据图像帧取得速率(例如,摄像机拍摄图像帧的帧速率,即,每秒的帧数量FPS),确定历史图像帧和当前图像帧之间间隔的图像帧的数量。
表1示出了一个图像帧的帧速率与历史图像帧的一个对应关系。
在表1中,在当前图像帧为第n帧的情况下:如果帧率是3~8,那么历史图像帧为第n-1帧;如果帧率是9~14,那么历史图像帧为第n-2帧;如果帧率是15~20,那么历史图像帧为第n-3帧;如果帧率是21~26,那么历史图像帧为第n-4帧;如果帧率是27~32,那么历史图像帧为第n-5帧。
由此,通过设置图像帧间隔确定单元15,在图像帧的帧速率变化的情况下,可以选择历史图像帧和当前图像帧之间间隔的图像帧的数量,从而在保持上述设定的阈值(例如,图5所涉及的第一阈值~第四阈值)不变的情况下使用该动作识别装置1,扩大了动作识别装置1的适用范围,并提高了其可扩展性。
根据本申请实施例的第一方面,动作识别装置1根据图像帧中人体上的关键点的位置以及来识别人体的动作,由于关键点的位置以及关节的角度是图像帧中的一部分信息,因而第一识别单元12无需使用深度学习网络就可以以较小的计算量进行准确的分类;并且,与仅基于关键点的位置进行动作识别的方案相比,本申请的动作识别装置1还根据人体的关节的角度进行动作识别,因而识别的准确度更高;此外,如果需要增加或改变需要识别的动作,可以通过对预定关键点和/或预定关节进行调整来实现,而无需进行大量的训练,因此,本申请的动作识别装置1的可扩展性较强,灵活度较高;此外,本申请的动作识别装置1能够基于人体的动作与时间的关系对动作识别的结果进行调整,因此,能够更加准确地识别出人体的动作。
实施例的第二方面
本申请实施例的第二方面提供一种动作识别方法,与本申请实施例的第一方面的动作识别装置对应。
图6是本申请实施例的第二方面的动作识别方法的一个示意图,如图6所示,该方法包括:
操作601、对图像帧中目标人体上的关键点的信息进行处理,从而计算所述目标人体的关键点特征,所述关键点特征包括所述目标人体上的预定关键点的位置和预定关节的角度;以及
操作602、根据所述关键点特征,识别所述目标人体的动作,输出第一识别结果。
其中,操作601例如可以根据图4的操作401和操作402来实现。
如图6所示,该方法还包括:
操作603、根据所述目标人体上的所述预定关键点的运动参量,和/或针对所述图像帧之前的历史图像帧中的所述目标人体的动作输出的第二识别结果,对所述第一识别结果进行修正,输出针对所述图像帧中的所述目标人体的动作的第二识别结果。
如图6所示,该方法还包括:
操作604、计算所述图像帧中的所述目标人体上的各所述预定关键点与所述历史图像帧中的所述目标人体上的各所述预定关键点之间的运动向量,根据各所述预定关键点的运动向量计算所述运动参量。
在操作604中,运动参量包括:各所述预定关键点的运动向量的均值、和/或各所述预定关键点的运动向量的标准偏差、和/或各所述预定关键点的运动方向、和/或沿预定方向运动的所述预定关键点的数量。
如图6所示,该方法还包括:
操作605、根据所述图像帧的取得速率,确定历史图像帧和所述图像帧之间间隔的图像帧数量。
根据本申请实施例的第二方面,动作识别方法根据图像帧中人体上的关键点的位置以及来识别人体的动作,由于关键点的位置以及关节的角度是图像帧中的一部分信息,无需使用深度学习网络就可以以较小的计算量进行准确的分类;并且,与仅基于关键点的位置进行动作识别的方案相比,本申请的动作识别方法还根据人体的关节的角度进行动作识别,因而识别的准确度更高;此外,如果需要增加或改变需要识别的动作,可以通过对预定关键点和/或预定关节进行调整来实现,而无需进行大量的训练,因此,本申请的动作识别方法的可扩展性较强,灵活度较高;此外,本申请的动作识别方法能够基于人体的动作与时间的关系对动作识别的结果进行调整,因此,能够更加准确地识别出人体的动作。
实施例的第三方面
本申请实施例的第三方面提供一种电子设备,该电子设备包括:如实施例的第一方面所述的动作识别装置。
图7是实施例的第三方面的电子设备的一个构成示意图。如图7所示,电子设备700可以包括:中央处理器(CPU)701和存储器702;存储器702耦合到中央处理器701。其中该存储器702可存储各种数据;此外还存储用于进行控制的程序,并且在中央处理器701的控制下执行该程序。
在一个实施方式中,动作识别装置1中的功能可以被集成到中央处理器701中。
其中,中央处理器701可以被配置为,执行实施例的第二方面所述的动作识别方法。
此外,如图7所示,电子设备700还可以包括:输入输出单元703和显示单元704等;其中,上述部件的功能与现有技术类似,此处不再赘述。值得注意的是,电子设备700也并不是必须要包括图7中所示的所有部件;此外,电子设备700还可以包括图7中没有示出的部件,可以参考现有技术。
本申请实施例还提供一种计算机可读程序,其中当在动作识别装置或电子设备中执行所述程序时,所述程序使得所述动作识别装置或电子设备执行实施例的第二方面所述的动作识别方法。
本申请实施例还提供一种存储有计算机可读程序的存储介质,其中,所述存储介质存储上述计算机可读程序,所述计算机可读程序使得动作识别装置或电子设备执行实施例的第二方面所述的动作识别方法。
结合本发明实施例描述的动作识别装置可直接体现为硬件、由处理器执行的软件模块或二者组合。例如,附图中所示的功能框图中的一个或多个和/或功能框图的一个或多个组合,既可以对应于计算机程序流程的各个软件模块,亦可以对应于各个硬件模块。这些软件模块,可以分别对应于实施例1所示的各个步骤。这些硬件模块例如可利用现场可编程门阵列(FPGA)将这些软件模块固化而实现。
软件模块可以位于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、移动磁盘、CD-ROM或者本领域已知的任何其它形式的存储介质。可以将一种存储介质耦接至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息;或者该存储介质可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。该软件模块可以存储在移动终端的存储器中,也可以存储在可插入移动终端的存储卡中。例如,若电子设备采用的是较大容量的MEGA-SIM卡或者大容量的闪存装置,则该软件模块可存储在该MEGA-SIM卡或者大容量的闪存装置中。
针对附图描述的功能框图中的一个或多个和/或功能框图的一个或多个组合,可以实现为用于执行本申请所描述功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑器件、分立硬件组件、或者其任意适当组合。针对附图描述的功能框图中的一个或多个和/或功能框图的一个或多个组合,还可以实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、与DSP通信结合的一个或多个微处理器或者任何其它这种配置。
以上结合具体的实施方式对本申请进行了描述,但本领域技术人员应该清楚,这些描述都是示例性的,并不是对本申请保护范围的限制。本领域技术人员可以根据本申请的原理对本申请做出各种变型和修改,这些变型和修改也在本申请的范围内。
关于包括以上实施例的实施方式,还公开下述的附记:
1.一种动作识别装置,包括:
关键点特征提取单元,其对图像帧中目标人体上的关键点的信息进行处理,从而计算所述目标人体的关键点特征,所述关键点特征包括所述目标人体上的预定关键点的位置和预定关节的角度;以及
第一识别单元,其根据所述关键点特征,识别所述目标人体的动作,输出第一识别结果。
2.如附记1所述的动作识别装置,其中,所述关键点特征提取单元对图像帧中目标人体上的关键点的信息进行处理,包括:
根据所述图像帧中所述目标人体的高度,调整所述图像帧中所述目标人体上的预定关键点的坐标值;以及
根据所述图像帧中所述目标人体上的预定关键点的调整后的坐标值,计算所述预定关节的角度。
3.如附记2所述的动作识别装置,其中,
所述图像帧中所述目标人体的高度为:所述图像帧中所述目标人体的眼睛所在的关键点的高度方向的坐标值与所述图像帧中所述目标人体的脚踝所在的关键点的高度方向的坐标值之差。
4.如附记1所述的动作识别装置,其中,所述动作识别装置还包括:
第二识别单元,其根据所述目标人体上的所述预定关键点的运动参量,和/或所述第二识别单元针对所述图像帧之前的历史图像帧中的所述目标人体的动作输出的第二识别结果,对所述第一识别结果进行修正,输出针对所述图像帧中的所述目标人体的动作的第二识别结果。
5.如附记4所述的动作识别装置,其中,所述动作识别装置还包括:
关键点运动参量计算单元,其计算所述图像帧中的所述目标人体上的各所述预定关键点与所述历史图像帧中的所述目标人体上的各所述预定关键点之间的运动向量,根据各所述预定关键点的运动向量计算所述运动参量。
6.如附记5所述的动作识别装置,其中,
所述运动参量包括:各所述预定关键点的运动向量的均值、和/或各所述预定关键点的运动向量的标准偏差、和/或各所述预定关键点的运动方向、和/或沿预定方向运动的所述预定关键点的数量。
7.如附记4所述的动作识别装置,其中,所述动作识别装置还包括:
图像帧间隔确定单元,其根据所述图像帧的取得速率,确定历史图像帧和所述图像帧之间间隔的图像帧数量。
8.一种电子设备,其具有如附记1-7中任一项所述的动作识别装置。
9.一种动作识别方法,包括:
对图像帧中目标人体上的关键点的信息进行处理,从而计算所述目标人体的关键点特征,所述关键点特征包括所述目标人体上的预定关键点的位置和预定关节的角度;以及
根据所述关键点特征,识别所述目标人体的动作,输出第一识别结果。
10.如附记9所述的动作识别方法,其中,对图像帧中目标人体上的关键点的信息进行处理,包括:
根据所述图像帧中所述目标人体的高度,调整所述图像帧中所述目标人体上的预定关键点的坐标值;以及
根据所述图像帧中所述目标人体上的预定关键点的调整后的坐标值,计算所述预定关节的角度。
11.如附记10所述的动作识别方法,其中,
所述图像帧中所述目标人体的高度为:所述图像帧中所述目标人体的眼睛所在的关键点的高度方向的坐标值与所述图像帧中所述目标人体的脚踝所在的关键点的高度方向的坐标值之差。
12.如附记9所述的动作识别方法,其中,所述动作识别方法还包括:
根据所述目标人体上的所述预定关键点的运动参量,和/或针对所述图像帧之前的历史图像帧中的所述目标人体的动作输出的第二识别结果,对所述第一识别结果进行修正,输出针对所述图像帧中的所述目标人体的动作的第二识别结果。
13.如附记12所述的动作识别方法,其中,所述动作识别方法还包括:
计算所述图像帧中的所述目标人体上的各所述预定关键点与所述历史图像帧中的所述目标人体上的各所述预定关键点之间的运动向量,根据各所述预定关键点的运动向量计算所述运动参量。
14.如附记13所述的动作识别方法,其中,
所述运动参量包括:各所述预定关键点的运动向量的均值、和/或各所述预定关键点的运动向量的标准偏差、和/或各所述预定关键点的运动方向、和/或沿预定方向运动的所述预定关键点的数量。
15.如附记12所述的动作识别方法,其中,所述动作识别方法还包括:
根据所述图像帧的取得速率,确定历史图像帧和所述图像帧之间间隔的图像帧数量。
Claims (10)
1.一种动作识别装置,其特征在于,所述动作识别装置包括:
关键点特征提取单元,其对图像帧中目标人体上的关键点的信息进行处理,从而计算所述目标人体的关键点特征,所述关键点特征包括所述目标人体上的预定关键点的位置和预定关节的角度;以及
第一识别单元,其根据所述关键点特征,识别所述目标人体的动作,输出第一识别结果。
2.如权利要求1所述的动作识别装置,其中,所述关键点特征提取单元对图像帧中目标人体上的关键点的信息进行处理,包括:
根据所述图像帧中所述目标人体的高度,调整所述图像帧中所述目标人体上的预定关键点的坐标值;以及
根据所述图像帧中所述目标人体上的预定关键点的调整后的坐标值,计算所述预定关节的角度。
3.如权利要求2所述的动作识别装置,其中,
所述图像帧中所述目标人体的高度为:所述图像帧中所述目标人体的眼睛所在的关键点的高度方向的坐标值与所述图像帧中所述目标人体的脚踝所在的关键点的高度方向的坐标值之差。
4.如权利要求1所述的动作识别装置,其中,所述动作识别装置还包括:
第二识别单元,其根据所述目标人体上的所述预定关键点的运动参量,和/或所述第二识别单元针对所述图像帧之前的历史图像帧中的所述目标人体的动作输出的第二识别结果,对所述第一识别结果进行修正,输出针对所述图像帧中的所述目标人体的动作的第二识别结果。
5.如权利要求4所述的动作识别装置,其中,所述装置动作识别还包括:
关键点运动参量计算单元,其计算所述图像帧中的所述目标人体上的各所述预定关键点与所述历史图像帧中的所述目标人体上的各所述预定关键点之间的运动向量,根据各所述预定关键点的运动向量计算所述运动参量。
6.如权利要求5所述的动作识别装置,其中,
所述运动参量包括:各所述预定关键点的运动向量的均值、和/或各所述预定关键点的运动向量的标准偏差、和/或各所述预定关键点的运动方向、和/或沿预定方向运动的所述预定关键点的数量。
7.如权利要求4所述的动作识别装置,其中,所述动作识别装置还包括:
图像帧间隔确定单元,其根据所述图像帧的取得速率,确定历史图像帧和所述图像帧之间间隔的图像帧数量。
8.一种电子设备,其具有如权利要求1-7中任一项所述的动作识别装置。
9.一种动作识别方法,其特征在于,所述动作识别方法包括:
对图像帧中目标人体上的关键点的信息进行处理,从而计算所述目标人体的关键点特征,所述关键点特征包括所述目标人体上的预定关键点的位置和预定关节的角度;以及
根据所述关键点特征,识别所述目标人体的动作,输出第一识别结果。
10.如权利要求9所述的动作识别方法,其中,所述动作识别方法还包括:
根据所述目标人体上的所述预定关键点的运动参量,和/或针对所述图像帧之前的历史图像帧中的所述目标人体的动作输出的第二识别结果,对所述第一识别结果进行修正,输出针对所述图像帧中的所述目标人体的动作的第二识别结果。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910977125.2A CN112668359A (zh) | 2019-10-15 | 2019-10-15 | 动作识别方法、动作识别装置和电子设备 |
EP20198943.1A EP3809321B1 (en) | 2019-10-15 | 2020-09-29 | Action recognition method and apparatus and electronic equipment |
US17/035,775 US11423699B2 (en) | 2019-10-15 | 2020-09-29 | Action recognition method and apparatus and electronic equipment |
JP2020169125A JP7581753B2 (ja) | 2019-10-15 | 2020-10-06 | 動作認識方法、動作認識装置及び電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910977125.2A CN112668359A (zh) | 2019-10-15 | 2019-10-15 | 动作识别方法、动作识别装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112668359A true CN112668359A (zh) | 2021-04-16 |
Family
ID=72670559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910977125.2A Pending CN112668359A (zh) | 2019-10-15 | 2019-10-15 | 动作识别方法、动作识别装置和电子设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11423699B2 (zh) |
EP (1) | EP3809321B1 (zh) |
JP (1) | JP7581753B2 (zh) |
CN (1) | CN112668359A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115205750A (zh) * | 2022-07-05 | 2022-10-18 | 北京甲板智慧科技有限公司 | 基于深度学习模型的运动实时计数方法和系统 |
CN115457518A (zh) * | 2022-08-30 | 2022-12-09 | 淮阴工学院 | 基于姿态感知与几何约束下的驾驶员行为识别方法及系统 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033526A (zh) * | 2021-05-27 | 2021-06-25 | 北京欧应信息技术有限公司 | 基于计算机实现的方法、电子设备和计算机程序产品 |
CN113657163B (zh) * | 2021-07-15 | 2024-06-28 | 浙江大华技术股份有限公司 | 行为识别方法、电子装置和存储介质 |
CN113627365A (zh) * | 2021-08-16 | 2021-11-09 | 南通大学 | 一种群体运动识别与时序分析方法 |
CN113627369A (zh) * | 2021-08-16 | 2021-11-09 | 南通大学 | 一种竞拍场景下的动作识别与跟踪方法 |
CN113780253B (zh) * | 2021-11-12 | 2022-02-18 | 佛山科学技术学院 | 一种人体关节运动关键点识别方法及系统 |
CN115153517B (zh) * | 2022-07-18 | 2023-03-28 | 北京中科睿医信息科技有限公司 | 计时起立行走测试的测试方法、装置、设备及存储介质 |
WO2024176289A1 (ja) * | 2023-02-20 | 2024-08-29 | 日本電信電話株式会社 | 映像処理装置、方法およびプログラム |
CN116580231A (zh) * | 2023-07-13 | 2023-08-11 | 常熟理工学院 | 一种社交肢体动作识别控制方法、装置、设备及存储介质 |
CN116719417B (zh) * | 2023-08-07 | 2024-01-26 | 海马云(天津)信息技术有限公司 | 虚拟数字人的运动约束方法和装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN107832708A (zh) * | 2017-11-09 | 2018-03-23 | 云丁网络技术(北京)有限公司 | 一种人体动作识别方法及装置 |
CN108229332A (zh) * | 2017-12-08 | 2018-06-29 | 华为技术有限公司 | 骨骼姿态确定方法、装置及计算机可读存储介质 |
CN108960192A (zh) * | 2018-07-23 | 2018-12-07 | 北京旷视科技有限公司 | 动作识别方法及其神经网络生成方法、装置和电子设备 |
CN108985259A (zh) * | 2018-08-03 | 2018-12-11 | 百度在线网络技术(北京)有限公司 | 人体动作识别方法和装置 |
US20190220657A1 (en) * | 2016-10-11 | 2019-07-18 | Fujitsu Limited | Motion recognition device and motion recognition method |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9165199B2 (en) * | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US8428311B2 (en) * | 2009-02-25 | 2013-04-23 | Honda Motor Co., Ltd. | Capturing and recognizing hand postures using inner distance shape contexts |
US8744121B2 (en) * | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
WO2012046392A1 (ja) * | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
US20140145936A1 (en) * | 2012-11-29 | 2014-05-29 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for 3d gesture behavior recognition |
WO2014104360A1 (ja) * | 2012-12-28 | 2014-07-03 | 株式会社東芝 | 動作情報処理装置及び方法 |
TWI488071B (zh) * | 2013-08-30 | 2015-06-11 | Nat Univ Tsing Hua | 非接觸式三度空間人體資料擷取系統及方法 |
CN105138995B (zh) * | 2015-09-01 | 2019-06-25 | 重庆理工大学 | 基于骨架信息的时不变及视不变的人体行为识别方法 |
US10509957B2 (en) * | 2016-02-05 | 2019-12-17 | University Of Central Florida Research Foundation, Inc. | System and method for human pose estimation in unconstrained video |
JP6760490B2 (ja) * | 2017-04-10 | 2020-09-23 | 富士通株式会社 | 認識装置、認識方法および認識プログラム |
JP6831769B2 (ja) * | 2017-11-13 | 2021-02-17 | 株式会社日立製作所 | 画像検索装置、画像検索方法、及び、それに用いる設定画面 |
CN109960962B (zh) * | 2017-12-14 | 2022-10-21 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、电子设备以及可读存储介质 |
JP6904651B2 (ja) | 2018-02-20 | 2021-07-21 | Kddi株式会社 | 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法 |
US11179064B2 (en) * | 2018-12-30 | 2021-11-23 | Altum View Systems Inc. | Method and system for privacy-preserving fall detection |
CN109840500B (zh) * | 2019-01-31 | 2021-07-02 | 深圳市商汤科技有限公司 | 一种三维人体姿态信息检测方法及装置 |
EP3796209A1 (en) * | 2019-09-17 | 2021-03-24 | Aptiv Technologies Limited | Method and system for determining an activity of an occupant of a vehicle |
-
2019
- 2019-10-15 CN CN201910977125.2A patent/CN112668359A/zh active Pending
-
2020
- 2020-09-29 EP EP20198943.1A patent/EP3809321B1/en active Active
- 2020-09-29 US US17/035,775 patent/US11423699B2/en active Active
- 2020-10-06 JP JP2020169125A patent/JP7581753B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
US20190220657A1 (en) * | 2016-10-11 | 2019-07-18 | Fujitsu Limited | Motion recognition device and motion recognition method |
CN107832708A (zh) * | 2017-11-09 | 2018-03-23 | 云丁网络技术(北京)有限公司 | 一种人体动作识别方法及装置 |
CN108229332A (zh) * | 2017-12-08 | 2018-06-29 | 华为技术有限公司 | 骨骼姿态确定方法、装置及计算机可读存储介质 |
CN108960192A (zh) * | 2018-07-23 | 2018-12-07 | 北京旷视科技有限公司 | 动作识别方法及其神经网络生成方法、装置和电子设备 |
CN108985259A (zh) * | 2018-08-03 | 2018-12-11 | 百度在线网络技术(北京)有限公司 | 人体动作识别方法和装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115205750A (zh) * | 2022-07-05 | 2022-10-18 | 北京甲板智慧科技有限公司 | 基于深度学习模型的运动实时计数方法和系统 |
CN115457518A (zh) * | 2022-08-30 | 2022-12-09 | 淮阴工学院 | 基于姿态感知与几何约束下的驾驶员行为识别方法及系统 |
CN115457518B (zh) * | 2022-08-30 | 2024-01-26 | 淮阴工学院 | 基于姿态感知与几何约束下的驾驶员行为识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3809321A1 (en) | 2021-04-21 |
JP7581753B2 (ja) | 2024-11-13 |
US20210110146A1 (en) | 2021-04-15 |
EP3809321B1 (en) | 2025-01-29 |
US11423699B2 (en) | 2022-08-23 |
JP2021064367A (ja) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112668359A (zh) | 动作识别方法、动作识别装置和电子设备 | |
CN111666857B (zh) | 基于环境语义理解的人体行为识别方法、装置及存储介质 | |
JP5873442B2 (ja) | 物体検出装置および物体検出方法 | |
WO2017161734A1 (zh) | 通过电视和体感配件矫正人体动作及系统 | |
CN109949341A (zh) | 一种基于人体骨架结构化特征的行人目标跟踪方法 | |
CN106951826B (zh) | 人脸检测方法及装置 | |
CN110688929A (zh) | 一种人体骨架关节点定位方法及装置 | |
CN111104830A (zh) | 用于图像识别的深度学习模型、该模型的训练装置及方法 | |
JP2011210126A (ja) | パターン認識装置及びパターン認識方法 | |
CN115294660B (zh) | 健身动作识别模型、模型的训练方法及健身动作识别方法 | |
CN115482580A (zh) | 一种基于机器视觉骨骼追踪术的多人评测系统 | |
CN111898571A (zh) | 动作识别系统及方法 | |
JP6381368B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN108985227A (zh) | 一种基于空间三角平面特征的动作描述与评价方法 | |
CN114495241A (zh) | 一种图像识别方法及装置、电子设备、存储介质 | |
CN117523456A (zh) | 异常行为识别方法、装置、非易失性存储介质及电子设备 | |
CN108875506B (zh) | 人脸形状点跟踪方法、装置和系统及存储介质 | |
JP5648452B2 (ja) | 画像処理プログラムおよび画像処理装置 | |
WO2021054217A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN113963202A (zh) | 一种骨骼点动作识别方法、装置、电子设备及存储介质 | |
CN112132110A (zh) | 一种智能判断人体姿态的方法及看护设备 | |
CN112036324A (zh) | 一种用于复杂多人场景的人体姿态判定方法及系统 | |
CN116824697A (zh) | 运动动作识别方法、装置及电子设备 | |
CN113916223B (zh) | 定位方法及装置、设备、存储介质 | |
Ayi et al. | Face Tracking and Recognition Using MATLAB and Arduino |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |