CN102906788B - 动线制作装置及动线制作方法 - Google Patents
动线制作装置及动线制作方法 Download PDFInfo
- Publication number
- CN102906788B CN102906788B CN201180025323.0A CN201180025323A CN102906788B CN 102906788 B CN102906788 B CN 102906788B CN 201180025323 A CN201180025323 A CN 201180025323A CN 102906788 B CN102906788 B CN 102906788B
- Authority
- CN
- China
- Prior art keywords
- state
- line
- reference point
- moving
- tracking object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种动线制作装置及动线制作方法,能够不增大处理负担,减少制作没有正确地反映追踪对象的移动的动线等错误的动线的制作。制作表示追踪对象的移动轨迹的动线的动线制作装置(1)具备:物体检测部(20),从图像帧检测追踪对象,生成包含追踪对象的检测区域在内的检测结果信息;状态判定部(50),根据检测结果信息判定追踪对象的状态;基准点制作部(60),通过与由状态判定部(50)判定的状态对应的方法使用检测区域来制作追踪对象的基准点;以及动线制作部(70),连接对于多个图像帧制作出的多个基准点来生成表示追踪对象的移动轨迹的动线。
Description
关联申请
本申请主张于2010年5月21日在日本提交的专利申请编号2010-117284的优先权,该申请的内容通过引用并入本文中。
技术领域
本发明涉及一种检测图像中的追踪对象并制作表示该追踪对象的移动轨迹的动线的动线制作装置以及动线制作方法。
背景技术
以往,为了记录并分析工厂内的工作人员的移动或店铺内的客人的移动,使用制作表示追踪对象的移动轨迹的动线的动线制作装置。动线制作装置例如用设置在较高位置上的摄像机拍摄成为对象的空间,根据摄影图像识别追踪对象(例如人),并进行追踪,从而制作动线。
如此,动线用来追踪图像所反映的追踪对象在对象空间内的所在位置。因此,图像空间内追踪对象的纵向(y方向)的移动表示对象空间内的以摄像机为基准的追踪对象向近前方向或纵深方向的移动。另外,图像空间内追踪对象的横向(x方向)的移动表示对象空间内的以摄像机为基准的追踪对象向左右方向的移动。
在以往的动线制作装置中,例如为了制作动线,通过识别图像中的追踪对象,制作包含该追踪对象的矩形框,并按照一定的时间间隔连接该框的中心点来制作动线(例如参照专利文献1)。
现有技术文献
专利文献
专利文献1:专利第4429337号公报
发明内容
发明要解决的问题
但是,在追踪对象是人的情况下,有时尽管人在对象空间中的所在位置没有移动,但在图像空间内框的中心点移动。因此,总是追踪框的中心点来制作动线的话,会将对于追踪人在对象空间中所在位置不需要的中心点的移动作为动线生成,不能制作正确地表示实际的对象空间内的人的移动的动线。
例如,在人蹲下的情况下,虽然人的所在位置没有改变,但包含人的矩形框在上下方向上变小,与此相随,矩形的中心点在图像空间内向下方移动。若反映这样的中心点的移动而制作动线的话,则会制作出表示人在对象空间内向以摄像机为基准的近前方移动的动线。另外,在人展开手臂的情况下或人的局部被遮蔽物所遮蔽等情况下也一样,有时不能制作正确地表示实际的对象空间内的人的移动的动线。
通过在利用图像识别技术来识别出“蹲着”、“手臂伸开着”等的人的动作之后制作动线,能够解决上述的问题,但是该情况下处理负担变大。
本发明是为解决以往的问题而作出的,目的在于提供一种动线制作装置以及动线制作方法,能够不增大处理负担,减少制作没有正确地反映追踪对象的移动的动线等错误的动线的制作。
用于解决问题的手段
本发明的动线制作装置是一种制作表示追踪对象的移动轨迹的动线的动线制作装置,其具备以下结构,具有:物体检测部,从图像帧检测追踪对象,生成包含追踪对象的检测区域在内的检测结果信息;状态判定部,根据检测结果信息判定追踪对象的状态;基准点制作部,通过与由状态判定部判定的状态对应的方法使用检测区域来制作追踪对象的基准点;以及动线制作部,连接对于多个图像帧制作出的多个基准点来生成表示追踪对象的移动轨迹的动线。
本发明另外的形态是一种制作表示追踪对象的移动轨迹的动线的动线制作方法,包含:物体检测步骤,从图像帧检测追踪对象,生成包含追踪对象的检测区域在内的检测结果信息;状态判定步骤,根据检测结果信息判定追踪对象的状态;基准点制作步骤,通过与由状态判定步骤判定的状态对应的方法使用检测区域来制作追踪对象的基准点;以及动线制作步骤,连接对于多个图像帧制作出的多个基准点来生成表示追踪对象的移动轨迹的动线。
发明效果
本发明能够不增大处理负担,减少制作没有正确地反映追踪对象的移动的动线等错误的动线的制作。
如以下说明,本发明存在其他的形态。因此,该发明的公开意在提供本发明的一部分,并不旨在限制在此所述的要求的发明的范围。
附图说明
图1是本发明的实施方式中的动线制作装置的框图。
图2是表示本发明的实施方式中的矩形框的图。
图3是表示本发明的实施方式中的检测结果信息的例子的图。
图4是表示本发明的实施方式中的环境信息的例子的图。
图5是表示本发明的实施方式中的保存于环境数据库的环境信息的例子的图。
图6是说明本发明的实施方式中从“通常”状态向“蹲下”状态转变的判定条件以及“蹲下”状态下的基准点的制作的图。
图7是说明本发明的实施方式中从“通常”状态向“手臂伸开”状态转变的判定条件以及“手臂伸开”状态下的基准点的制作的图。
图8是说明本发明的实施方式中从“通常”状态向“地面反射”状态转变的判定条件以及“地面反射”状态下的基准点的制作的图。
图9是说明本发明的实施方式中从“通常”状态向“遮蔽”状态转变的判定条件以及“遮蔽”状态下的基准点的制作的图。
图10是说明本发明的实施方式中“噪声”状态下的基准点的制作的图。
图11是表示本发明的实施方式中状态判定部的动作的流程图。
图12是表示本发明的实施方式中“蹲下”状态的处理的流程图。
图13是表示本发明的实施方式中“手臂伸开”状态的处理的流程图。
图14是表示本发明的实施方式中“地面反射”状态的处理的流程图。
图15是表示本发明的实施方式中“遮蔽”状态的处理的流程图。
图16是表示本发明的实施方式中“噪声”状态的处理的流程图。
图标记
1动线制作装置
10摄像机
20物体检测部
30检测区域数据库
40环境数据库
50状态判定部
60基准点制作部
70动线制作部
具体实施方式
以下描述本发明的详细说明。以下说明的实施方式仅是本发明的例子,本发明能够变形为各种各样的形态。因此,以下公开的特定的结构以及功能不限定权利要求的范围。
本发明的实施方式的动线制作装置是一种制作表示追踪对象的移动轨迹的动线的动线制作装置,其具备以下结构,具有:物体检测部,从图像帧检测追踪对象,生成包含追踪对象的检测区域在内的检测结果信息;状态判定部,根据检测结果信息判定追踪对象的状态;基准点制作部,通过与由状态判定部判定的状态对应的方法使用检测区域来制作追踪对象的基准点;以及动线制作部,连接对于多个图像帧制作出的多个基准点来生成表示追踪对象的移动轨迹的动线。
根据此结构,用与追踪对象的状态对应的方法来制作该追踪对象的基准点,所以能够减少制作没有正确地反映追踪对象的移动的动线等错误的动线的制作。并且,基于含有检测区域的检测结果信息判定追踪对象的状态,所以与识别追踪对象的动作的情况相比较,能够抑制处理负担。
并且,在所述的动线制作装置中,状态判定部基于检测区域的变化判定追踪对象的状态。
根据此结构,基于检测区域的变化能够判定检测区域是随着追踪对象的移动而变化了、还是检测区域随着追踪对象的状态的变化而变化了。
并且,在上述的动线制作装置中,状态判定部基于在动线制定的对象空间所设定的环境信息与检测区域之间的位置关系来判定追踪对象的状态。
根据此结构,能够判定检测区域是随着追踪对象的移动而变化了、还是检测区域由于处于环境信息所设定的位置而变化了。
并且,在上述的动线制作装置中,在由状态判定部判定为并非通常状态的特定状态时基准点制作部使用当前以及过去的检测区域来制作基准点。
根据此构成,在用于制作基准点的检测区域中存在使用当前的检测区域不适合的部分的情况下,能够用过去的检测区域的一部分代替使用。
并且,在上述的动线制作装置中,物体检测部生成矩形框作为检测区域,该矩形框由上线、下线、右线以及左线构成,包含检测出的追踪对象。
根据此结构,使用作为追踪对象而被检测出的区域的x轴方向以及y轴方向的各坐标值的最大值能够容易地生成检测区域、减轻处理负担。
并且,在上述的动线制作装置中,状态判定部比较当前的矩形框和过去的矩形框,当下线的移动比第一阈值小且上线向下方的移动比第二阈值大时,判定为处于蹲下状态,基准点制作部在由状态判定部判定为处于蹲下状态时,采用过去的矩形框的上线作为矩形框的上线,来制作基准点。
根据此结构,即使检测区域因不伴随有追踪对象的移动的蹲下的动作而变化,基准点也无需根据该检测区域的变化而变化,从而能够防止制作没有正确地反映追踪对象的移动的动线等错误的动线的制作。
并且,在上述的动线制作装置中,状态判定部比较当前的矩形框和过去的矩形框,当上线以及下线的移动比第三阈值小且右线向右方的移动或左线向左方的移动比第四阈值大时,判定为处于手臂伸开状态,基准点制作部在由状态判定部判定为处于手臂伸开状态时,采用过去的矩形框的右线或左线作为矩形框的右线或左线来制作基准点。
根据此结构,即使检测区域因不伴随有追踪对象的移动的手臂伸开的动作而变化,基准点也无需根据该检测区域的变化而变化,从而能够防止制作没有正确地反映追踪对象的移动的动线等错误的动线的制作。
并且,在上述的动线制作装置中,状态判定部在当前的检测结果信息的矩形框的下线的端点的至少一个被包含在设定于动线制作的对象空间的地面反射区域时,判定为处于地面反射状态,基准点制作部在由状态判定部判定为处于地面反射状态时,采用过去的检测结果信息的矩形框的下线作为矩形框的下线来制作基准点。
根据此结构,即使检测区域由于追踪对象进入地面反射区域并产生了其反射像而变化,基准点也无需根据该检测区域的变化而变化,从而能够防止制作没有正确地反映追踪对象的移动的动线等错误的动线的制作。
并且,在上述的动作线路制作装置中,状态判定部在当前的检出结果信息的矩形框的下线被包含在设定于动线制作的对象空间的遮蔽区域时,判定为处于遮蔽状态,基准点制作部在由状态判定部判定为处于遮蔽状态时,采用过去的检测结果信息的矩形框的下线作为矩形框的下线来制作基准点。
根据此结构,即使检测区域由于追踪对象向遮蔽区域的后方移动且其图像相对于摄像机被遮蔽了而变化,基准点也无需根据该检测区域的变化而变化,从而能够防止制作没有正确地反映追踪对象的移动的动线等错误的动线的制作。
并且,在上述的动线制作装置中,在不属于通常状态以外的特定状态但检测结果信息的矩形框的纵横比或大小变化超过第五阈值时,状态判定部判定为处于噪声状态,基准点制作部在由状态判定部判定为处于噪声状态时,将被判定为处于噪声状态的期间的多个矩形框平均化来制作基准点。
根据此结构,在发生了难以理解的矩形框的变化时,判定为噪声并将该期间的矩形框平均化,从而能够防止制作原封不动反映了噪声的动线。
本发明另外的形态是一种制作表示追踪对象的移动轨迹的动线的动线制作方法,包括:物体检测步骤,从图像帧检测追踪对象,生成包含追踪对象的检测区域在内的检测结果信息;状态判定步骤,根据检测结果信息判定追踪对象的状态;基准点制作步骤,通过与由状态判定步骤判定的状态对应的方法使用检测区域来制作追踪对象的基准点;以及动线制作步骤,连接对于多个图像帧制作出的多个基准点来生成表示追踪对象的移动轨迹的动线。
即使根据该结构,也和上述的动线制作装置一样,用与追踪对象的状态对应的方法来制作该追踪对象的基准点,从而能够减少制作没有正确地反映追踪对象的移动的动线等错误的动线的制作。并且,基于含有检测区域的检测结果信息来判定追踪对象的状态,所以与识别追踪对象的动作的情况相比较,能够抑制处理负担。
以下,对于本发明的实施方式的动线制作装置,使用附图进行说明。
将本发明的第一实施方式的动线制作装置示于图1。在图1中,本发明的实施方式的动线制作装置1具有具备摄像机10、物体检测部20、检测区域数据库30、环境数据库40、状态判定部50、基准点制作部60、和动线制作部70的结构。
摄像机10具有透镜、摄影元件等被摄体的摄影所必需的模块。摄像机10为了拍摄成为动线制作的对象的空间(以下称为“对象空间”),被设置在对象空间内较高的位置上。摄像机10拍摄对象空间并生成图像数据,将生成的图像数据向物体检测部20输出。
物体检测部20从摄像机10生成的图像数据检测追踪对象,将含有表示追踪对象的区域的检测区域在内的检测结果信息向检测区域数据库30输出。物体检测部20作为检测方法采用使用了背景差分的方法。具体来说,物体检测部20以作为追踪对象的人不存在的状态的图像作为基准图像,对基准图像和当前的图像进行比较,将有差分的像素的集合当作作为追踪对象的人的区域来识别。然后,物体检测部20作为检测区域生成包含识别出的人的区域在内的矩形框。
在实施方式的说明中,将矩形框的上线的y坐标称为上坐标,下线的y坐标称为下坐标,右线的x坐标称为右坐标,左线的x坐标称为左坐标。物体检测部20在相比基准图像有差分的像素的坐标之中,将最大的y坐标加上规定的余量而得到的坐标作为上坐标yo,将最小的y坐标减去规定的余量而得到的坐标作为下坐标yu,将最右边的x坐标加上规定的余量而得到的坐标作为右坐标xr,将最左边的x坐标减去规定的余量而得到的坐标作为左坐标xl。
图2是表示本实施方式中矩形框的图。若将检测位置(左上角坐标)设为(x0,y0),框宽设为w,框高设为h,则如图2所示,上坐标yo是y0(检测位置的y坐标),下坐标yu是y0-h(检测位置的y坐标-框高),右坐标xr是x0+w(检测位置的x坐标+框宽),左坐标xl是x0(检测位置的x坐标)。
物体检测部20识别出人的区域,便将此时的时刻、追踪ID和所设定的框的左上角坐标、框宽及框高作为检测结果信息向检测区域数据库30输出。检测区域数据库30保存物体检测部20输出的检测结果信息。
图3是表示保存于检测区域数据库30的检测结果信息的例子的图。如图3所示,在检测区域数据库30中,作为检测结果信息,检测时刻、检测ID、检测位置、框宽及框高的信息被保存。检测时刻是指追踪对象被检测出的时刻。检测ID是指向追踪对象固定分配的追踪ID。对判断出为相同的追踪对象分配相同的检测ID。检测位置是指包围追踪对象的矩形框的左上角的坐标,框宽和框高是指包围追踪对象的矩形的框宽和高度。
环境数据库40保存表示摄像机10的摄影环境的信息(以下称为“环境信息”)。摄影环境中包含地面反射区域的信息以及遮蔽区域的信息。地面反射区域以及遮蔽区域是由摄像机10生成的图像空间内的区域。地面反射区域是追踪对象容易反射到地面上的区域。遮蔽区域是追踪对象相对于摄像机10被遮蔽的区域。这些环境信息基于摄像机10的设置状态(位置、角度、视场角等)被预先保存在环境数据库40。
图4是表示环境信息的例子的图,图5是表示保存于环境数据库40的环境信息的例子的图。在图4的例子中,以x=300、y=400的点为中心的圆形区域作为地面反射区域被设定,x=100~200、y=250~350的四边形区域作为遮蔽区域被设定。在环境数据库40中,如图5所示,保存有环境信息的类别和图像上的区域的信息。
状态判定部50根据当前的检测结果信息、过去的检测结果信息、以及保存于环境数据库40的环境信息来判定追踪对象的状态并生成状态类别信息。而且,将状态类别信息与此时的时刻及追踪ID一起向基准点制作部60输出。
状态类别信息是表示当前的追踪对象的状态的信息。状态类别中有“通常”、“蹲下”、“手臂伸开”、“地面反射”、“遮蔽”、及“噪声”6种状态。关于“手臂伸开”状态进一步有“右手臂伸开”状态和“左手臂伸开”状态。
状态类别信息用于由基准点制作部60制作基准点。状态判定部50尤其是判定是否从“通常”状态转变到“蹲下”、“手臂伸开”、“地面反射”、“遮蔽”、以及“噪声”的任何一个状态,和是否从“蹲下”、“手臂伸开”、“地面反射”、“遮蔽”、以及“噪声”的任何一个状态返回到“通常”状态。后面对状态判定部50中的状态判定的方法进行讲述。
基准点制作部60基于从状态判定部50输入的状态类别信息,从检索信息数据库3读出必要的当前及过去的检测结果信息并制作基准点,将其坐标输出到动线制作部70。后面对基准点制作部60中的基准点制作的方法进行讲述。
动线制作部70制作将基准点制作部60制作的基准点以时刻顺序连接的动线。连接基准点时,不是用直线连接而是可以用平滑的曲线连接。
以下,对状态判定部50中的状态判定的方法以及基准点制作60中的基准点制作的方法进行说明。在以下的说明中,设时刻t的下坐标为yut,上坐标为yot,右坐标为xrt,左坐标为xlt。状态判定部50及基准点制作部60使用这些下坐标yut、上坐标yot、右坐标xrt、及左坐标xlt来判定状态并求出基准点。对于上坐标yot、左坐标xlt,如上述,由于在检测区域数据库30保存有各时刻的上坐标yot、左坐标xlt,所以照原样使用。
对于下坐标yut及右坐标xrt,由于在检测区域数据库30中,关于各时刻,除了上坐标yot、左坐标xlt之外还保存有框宽wt、及框高ht的信息,所以状态判定部50以及基准点制作部60使用这些信息并根据下式(1)及(2)来求出下坐标yut及右坐标xrt。
yut=yot-ht……(1)
xrt=xlt+wt……(2)
1.“通常”状态的情况
首先,对“通常”状态的情况的基准点的制作方法进行说明。“通常”状态的情况以矩形框的中心点为基准点。即,若在某时刻t1为“通常”状态,则该t1时刻的基准点的x坐标及y坐标分别根据下式(3)及(4)表示。
x=(xrt1+xlt1)/2……(3)
y=(yot1+yut1)/2……(4)
将上述的式(1)及(2)代入式(3)及式(4),得到如下所述的式(3’)及(4’)。基准点制作部60使用保存在检测区域数据库30的上坐标yot1、左坐标xlt1、框宽wt1、及框高ht1的信息并根据下述式(3’)及(4’)来求出基准点。
x=xlt1+wt1/2……(3’)
y=yot1-ht1/2……(4’)
2-1.从“通常”状态向“蹲下”状态转变的情况
图6是说明从“通常”状态向“蹲下”状态转变的判定条件以及“蹲下”状态的基准点的制作的图。图6表示在t1时刻是“通常”状态的追踪对象在t2时刻变为“蹲下”状态的情况。通常,人在蹲下的时候,脚下的位置不改变,头部的位置降低。此时,矩形框的下线的位置大体没有改变,仅下线的位置向下降低较大。
利用这些特征,状态判定部50在下线之差处于规定的范围内且上线下降了规定的量以上的情况下,判断为是蹲下。具体来说,在t1时刻某追踪ID的追踪对象处于“通常”状态时,在t2时刻相同的追踪ID的追踪对象满足下述的“蹲下”状态的判定条件的情况下,判定为该追踪ID的追踪对象在t2时刻转变成“蹲下”的状态。
从“通常”状态向“蹲下”状态转变的判定条件是下述的条件1和条件2两者都为真。
条件1:|yut1-yut2|<ε1
条件2:yot1-yot2>a
条件1是将ε1设为误差范围,矩形框的下坐标之差处于该误差范围内的条件。条件2是矩形框的上坐标变小阈值a以上的条件。另外,该条件持续一定时间以上而被满足了的情况下,也可以判定为追踪对象变为了“蹲下”状态。
状态判定部50若用“蹲下”状态的判定条件判定为是“蹲下”状态的话,则将表示“蹲下”状态的状态类别信息与变成了“蹲下”状态的时刻(t2时刻)及追踪ID一起输出到基准点制作部60。
基准点制作部60若取得表示“蹲下”状态的状态类别信息,则从检测区域数据库30中读出变成了“蹲下”状态的时刻(t2时刻)的状态检测信息、及处于“通常”状态的最后的时刻(t1时刻)的状态检测信息,并根据下式(5)及(6)来求出t2时刻的“蹲下”状态的基准点的x坐标以及y坐标。
x=(xrt2+xlt2)/2……(5)
y=(yot1+yut2)/2……(6)
在此,特征在于使用处于“通常”状态的最后的时刻(t1时刻)的上坐标yot1来求出处于“蹲下”状态的t2时刻的基准点的y坐标。即,即便在处于“蹲下”状态的情况下也和“通常”状态的情况相同,以该矩形框的中心点为基准点,但作为该矩形框的上坐标,不是变为了“蹲下”状态的时刻的上坐标,而是采用最后处于“通常”状态的时刻的上坐标。
2-2.从“蹲下”状态向“通常”状态转变的情况
状态判定部50在t2时刻某追踪ID的追踪对象是“蹲下”状态时,对于相同的追踪ID的追踪对象,在t3时刻满足了下述的条件3及条件4的至少任意一方的情况下,判定为在该t3时刻从“蹲下”状态返回到“通常”状态。
条件3:|yut2-yut3|>b
条件4:yot1-yot3<ε2
条件3是将b设为阈值,矩形框的下坐标变化了该阈值以上的条件。即,如果作为追踪对象的人是蹲着的话,那么下坐标应该是不会转变的,但在矩形框的下坐标变化较大的情况下,判定为处于“蹲下”状态已经不合适了。因此,在这样的情况下,解除“蹲下”状态,使状态类别返回到“通常”状态。
条件4是将误差范围设为ε2,矩形框的上坐标变为和即将要变成“蹲下”状态之前的“通常”状态的t1时刻的上坐标大致相同的坐标。这意味着蹲下的人站了起来,这种情况下也使状态类别从“蹲下”状态返回到“通常”状态。在“通常”状态中,基准点制作部60根据上述的式(3’)及(4’)以矩形框的中心点为基准点。
3-1.从“通常”状态向“手臂伸开”状态转变的情况
图7是说明从“通常”状态向“手臂伸开”状态转变的判定条件以及“手臂伸开”状态的基准点的制作的图。图7表示在t1时刻处于“通常”状态的追踪对象在t2时刻变为“手臂伸开”状态的情况。通常,在人伸开手臂的情况下,头部及脚部的位置不变,手臂向左或右伸开。此时,矩形框的上线及下线的位置大致不变,框宽增大。
利用这些特征,状态判定部50在上线及下线之差处于规定的范围内并且框宽增大为规定的阈值以上时,判断为作为追踪对象的人伸开了手臂。具体来说,在t1时刻某追踪ID的追踪对象处在“通常”状态时,在t2时刻相同的追踪ID的追踪对象满足下述的“手臂伸开”状态的判定条件的情况下,判定为该追踪ID的追踪对象在t2时刻转变为“手臂伸开”状态。
从“通常”状态向“手臂伸开”状态转变的判定条件是下述的条5~7全部都为真。
条件5:|yut1-yut2|<ε3
条件6:|yot1-yot2|<ε4
条件7:(xrt2-xlt2)-(xrt1-xlt1)>c
条件5是将ε3设为误差范围,矩形框的下坐标之差处于该误差范围之内的条件。条件6是将ε4设为误差范围,矩形框的上坐标之差在该误差范围之内的条件。条件7是矩形框的框宽增大阈值以上的条件。另外,也可以在该条件持续一定时间以上而被满足了的情况下,判定为追踪对象变成了“手臂伸开”状态。
状态判定部50进一步比较|xlt1-x1t2|和|xrt1-xrt2|,若|xlt1-x1t2|较大,则判定为处于手臂向右伸开了的“右手臂伸开”状态;若xrt1-xrt2|较大,则判定为处于手臂向左伸开了的“左手臂伸开”状态。
状态判定部50使用上述的“手臂伸开”状态的判定条件,判定为追踪对象处于“手臂伸开”状态,则进一步根据上述的判定条件来判定该状态是“右手臂伸开”状态,还是“左手臂伸开”状态,并将表示“右手臂伸开”状态的状态类别信息或表示“左手臂伸开”状态的状态类别信息与变为了“手臂伸开”状态的时刻(t2时刻)及追踪ID一起输出到基准点制作部60。
基准点制作部60若取得表示“右手臂伸开”状态的状态类别信息,则从检测区域数据库30中读出变为了“右手臂伸开”状态的时刻(t2时刻)的状态检测信息、及处于“通常”状态的最后的时刻(t1时刻)的状态检测信息,并根据下式(7)及(8)来求出t2时刻的“右手臂伸开”状态的基准点的x坐标以及y坐标。
x=(xrt2+xlt1)/2……(7)
y=(yot2+yut2)/2……(8)
在此,特征在于使用处于“通常”状态的最后的时刻(t1时刻)的左坐标xlt1来求出处于“右手臂伸开”状态的t2时刻的基准点的x坐标。即,即便在处于“右手臂伸开”状态的情况下也和“通常”状态的情况相同,以矩形框的中心点为基准点,但作为该矩形框的左坐标,不是变为了“右手臂伸开”状态的时刻的左坐标,而是采用最后处于“通常”状态的时刻的左坐标。
基准点制作部60若取得表示“左手臂伸开”状态的状态类别信息,则从检测区域数据库30中读出变为了“左手臂伸开”状态的时刻(t2时刻)的状态检测信息、及处于“通常”状态的最后的时刻(t1时刻)的状态检测信息,并根据下式(9)及(10)来求出t2时刻的“左手臂伸开”状态的基准点的x坐标以及y坐标。
x=(xrt1+xlt2)/2……(9)
y=(yot2+yut2)/2……(10)
在此,特征在于使用处于“通常”状态的最后的时刻(t1时刻)的右坐标xrt1来求出处于“左手臂伸开”状态的t2时刻的基准点的x坐标。即,即便在处于“左手臂伸开”状态的情况下也和“通常”状态的情况相同,以矩形框的中心点为基准点,但作为该矩形框的右坐标,不是变为了“左手臂伸开”状态的时刻的右坐标,而是采用最后处于“通常”状态的时刻的右坐标。
3-2.从“手臂伸开”状态向“通常”状态转变的情况
状态判定部50在t2时刻某追踪ID的追踪对象为“手臂伸开”状态时,对于相同的追踪ID的追踪对象,在t3时刻满足下述的条件8或满足条件9及条件10两者的情况下,判定为在该t3时刻从“手臂伸开”状态返回到“通常”状态。
条件8:|(yot2-yut2)-(yot3-yut3)|>d
条件9:|(yot2-yut2)-(yot3-yut3)|<ε5
条件10:|(xrt3-xlt3)-(xrt1-xlt1)|<ε6
条件8是将d设为阈值,矩形框的框高变化了该阈值以上的条件。即,框高变化了较大表示作为追踪对象的人可能向靠近摄像机10的方向移动,将此时框宽的增大判断为处于“手臂伸开”状态是不恰当的。因此,在这样的情况下,解除“手臂伸开”状态,使状态类别返回到“通常”状态。
条件9是将ε5设为误差范围,矩形框的框高大体没有变化的条件。条件10是将误差范围设为ε6,矩形框的框宽大体没有变化的条件。同时满足条件9和条件10的情况意味着伸开手臂的人停止了手臂伸开。因此,该情况下,也使状态类别从“手臂伸开”状态返回到“通常”状态。
4-1.从“通常”状态向“地面反射”状态转变的情况
图8是说明从“通常”状态向“地面反射”状态转变的判定条件以及“地面反射”状态的基准点的制作的图。图8表示在t1时刻处于“通常”状态的追踪对象在t2时刻变为了“地面反射”状态的情况。如上所述,物体检测部20使用过去的图像和当前的图像的差分来检测追踪对象,所以人处于易反射的区域的情况下,反射人的地面的局部也变为差分区域,矩形框被设定得比实际的人大。
因此,状态判定部50在下线的端点至少一方进入到地面反射区域时,判断为处于“地面反射”状态。状态判定部50为了判定“地面反射”状态而参照保存于环境数据库40中的环境信息。具体来说,假设在环境数据库40中保存有如图5所示的环境信息,在t2时刻追踪对象满足下述的“地面反射”状态的判定条件时,判定为该追踪对象在t2时刻处于“地面反射”状态。
“地面反射”状态的判定条件是下述的条件11及条件12中至少任意一方为真。
条件11:(xrt2-300)2+(yut2-400)2<1600
条件12:(xlt2-300)2+(yut2-400)2<1600
条件11是下线的右端点处于地面反射区域内的条件。条件12是下线的左端点处于地面反射区域内的条件。另外,也可以这些条件持续一定时间以上而被满足了的情况下,判定为追踪对象处于各自的“地面反射”状态。
状态判定部50若使用上述的“地面反射”状态的判定条件而判定为处于“地面反射”状态,则将表示“地面反射”状态的状态类别信息与变为了“地面反射”状态的时刻(t2时刻)及追踪ID一起输出到基准点制作部60。
基准点制作部60若取得表示“地面反射”状态的状态类别信息,则从检测区域数据库30中读出变为了“地面反射”状态的时刻(t2时刻)的状态检测信息、及处于“通常”状态的最后的时刻(t1时刻)的状态检测信息,并根据下式(11)及(12)来求出t2时刻的“地面反射”状态的基准点的x坐标及y坐标。
x=(xrt2+xlt2)/2……(11)
y=(yot2+yut1)/2……(12)
在此,特征在于使用处于“通常”状态的最后的时刻(t1时刻)的下坐标yut1来求出处于“地面反射”状态的t2时刻的基准点的y坐标。即,即便在处于“地面反射”状态的情况下也和“通常”状态的情况相同,以矩形框的中心点为基准点,但作为该矩形框的下坐标,不是处于“地面反射”状态的时刻的下坐标,而是采用最后处于“通常”状态的时刻的下坐标。
4-2.从“地面反射”状态向“通常”状态转变的情况
状态判定部50在t2时刻某追踪ID的追踪对象为“地面反射”状态时,对于相同的追踪ID的追踪对象,在t3时刻下线的端点上述的条件11及条件12全都不满足的情况下,判定为在该t3时刻从“地面反射”状态返回到“通常”状态。
5-1.从“通常”状态向“遮蔽”状态转变的情况
图9是说明从“通常”状态向“遮蔽”状态转变的判定条件以及“遮蔽”状态的基准点的制作的图。图9表示在t1时刻处于“通常”状态的追踪对象在t2时刻变为“遮蔽”状态的情况。通常,在人隐藏在遮蔽物的背面时,若使用过去的图像和当前图像的差分来检测追踪对象,则矩形框被设定得比实际的人小。
因此,状态判定部50在矩形框的下线完全进入遮蔽区域时,判定为处于“遮蔽”状态。状态判定部50为了判定这些状态而参照保存在环境数据库40中的环境信息。具体来说,假设在环境数据库40中保存有如图5所示的环境信息,在t2时刻追踪对象满足下述的“遮蔽”状态的判定条件时,判定为该追踪对象在t2时刻处于“遮蔽”状态。
“遮蔽”状态的判定条件是下述的条件13、条件14、及条件15全都为真。
条件13:100<xlt2<200
条件14:100<xrt2<200
条件15:250<yut2<350
条件13及条件15是下线的左端点处于遮蔽区域内的条件。条件14及条件15是下线的右端点处于遮蔽区域内的条件。因此,条件13、条件14、及条件15全都为真的情况即为下线完全处于遮蔽区域内的情况。如上所述,确保距离与基准图像之间有差分的像素的坐标中的最下面的y坐标具有规定的余量m而设定矩形框的下线,所以如图9所示,人的下部分隐藏在遮蔽物的背面时,该下线进入遮蔽区域。因此,根据上述的条件能够判定“遮蔽”状态。另外,也可以在上述的条件持续一定时间以上而被满足了的情况下,判定为追踪对象处于“遮蔽”状态。
状态判定部50若使用上述的“遮蔽”状态的判定条件而判定为处于“遮蔽”状态,则将表示“遮蔽”状态的状态类别信息与变为了“遮蔽”状态的时刻(t2时刻)及追踪ID一起输出到基准点制作部60。
基准点制作部60若取得表示“遮蔽”状态的状态类别信息,则从检测区域数据库30中读出变为了“遮蔽”状态的时刻(t2时刻)的状态检测信息、及处于“通常”状态的最后的时刻(t1时刻)的状态检测信息,并根据下式(13)及(14)来求出t2时刻的“遮蔽”状态的基准点的x坐标及y坐标。
x=(xrt2+xlt2)/2……(13)
y=(yot2+yut1)/2……(14)
在此,特征在于使用处于“通常”状态的最后的时刻(t1时刻)的下坐标yut1来求出处于“遮蔽”状态的t2时刻的基准点的y坐标。即,即便在处于“遮蔽”状态的情况下也和“通常”状态的情况相同,以矩形框的中心点为基准点,但作为该矩形框的下坐标,不是变为了“遮蔽”状态的时刻的下坐标,而是采用最后处于“通常”状态的时刻的下坐标。
并且,作为追踪对象的人隐藏到壁后的情况下也发生遮蔽,这样的情况下矩形框的中心点不处于人的左右方向的中心。但是,关于这样的左右方向的遮蔽,不进行特别的处理。原因是例如人边向右方移动边渐渐地隐藏到壁后时,若根据通常的处理来设定矩形框而取得其中心点的轨迹,那么其中心点也渐渐地靠近壁,在人完全隐藏于壁后的瞬间,中心点到达壁边,所以这样的中心点的轨迹作为人的动线是正确的。因此,对于与人的身高相比足够高的遮蔽物,没有必要作为遮蔽区域保存到环境数据库40。
另外,根据上述说明的判断方法,人在遮蔽物的前方时,矩形框重合在遮蔽区域上,但矩形框的下线没有被遮蔽区域包含。因此,人在遮蔽物的前方时,不会错误地被判定为处于“遮蔽”状态。
5-2.从“遮蔽”状态向“通常”状态转变的情况
在t2时刻某追踪ID的追踪对象为“遮蔽”状态时,对于相同的追踪ID的追踪对象,在t3时刻不满足上述的条件13至条件15中至少任何一个的情况下,状态判定部50判定为在该t3时刻从“遮蔽”状态返回到“通常”状态。
6.“噪声”状态的情况
即便使用上述说明的判定条件,也不属于“蹲下”、“手臂伸开”、“地面反射”、“遮蔽”中的任何状态,而在矩形框的框宽和框高的比或框的大小短时间变化较大的情况下,能够判断为是由某种噪声引起的。
因此,在不属于“蹲下”、“手臂伸开”、“地面反射”、“遮蔽”中的任何状态且矩形框的框宽或框高中任何一个的变化量比规定的阈值大时,状态判定部50判定为处于“噪声”状态。状态判定部50若判定为是噪声,则将表示“噪声”状态的状态类别信息与判定为“噪声”状态的时刻及追踪ID一起输出到基准点制作部60。
由于噪声是经过多个图像帧而产生的,所以将表示“噪声”状态的状态类别信息连续地从状态判定部50向基准点制作部60输入。基准点制作部60从接收到表示“噪声”状态的状态类别信息开始,等待到接收到表示除“噪声”状态以外的状态的状态类别信息为止,即等待到“噪声”状态解除为止,从检测区域数据库30中读出处于“噪声”状态的时刻的检测结果信息、及处于“通常”状态的最后的时刻的检测结果信息。
图10是说明“噪声”状态的基准点的制作的图。在图10的例子中,在t1时刻被判定为处于“通常”状态,而在t2时刻不是地面反射区域而下线的位置却极度地向下降,在t3时刻不是遮蔽区域而下线的位置却极度地向上升,在t4时刻下线的位置再次向下降。并且,t4时刻以后矩形框没有大的变化,因此判定为在t5时刻返回到“通常”状态。
在这样的情况下,基准点制作部60从检测区域数据库30中读出处于“噪声”状态的时刻(t2~t4时刻)的检测结果信息、及处于“通常”状态的最后的时刻(t1时刻)的检测结果信息。然后对读出的检测结果信息的矩形框关于处于“噪声”状态的时刻(t2~t4时刻)及处于“通常”状态的最后的时刻(t1时刻)进行平均化。
具体来说,假设处于“噪声”状态期间的帧数为n,基准点制作部60根据下式(15)及(16)来求出该期间的基准点的x坐标及y坐标。
x=(Σ(xrt+xlt)/2)/n……(15)
y=(Σ(yot+yut)/2)/n……(16)
对于如上述而构成的动线制作装置1,说明状态判定部50的动作。图11是表示状态判定部50的动作的流程图。若动线制作装置1开始动作,则首先摄像机10开始摄影并依次将图像帧输出到物体检测部20,物体检测部20从输入的图像帧中检测出追踪对象的物体,将检测结果信息保存于检测区域数据库30。状态判定部50对保存在检测区域数据库30中的检测结果信息进行状态判定,最初作为处于“通常”状态来开始判定。
状态判定部50参照检测区域数据库30(步骤S10),进行是否转变为“蹲下”状态的判定(步骤S11)。若判定为没有转变为“蹲下”状态(步骤S11中为否),则接着进行是否转变为“手臂伸开”状态的判定(步骤S12)。若判定为没有转变为“手臂伸开”状态(步骤S12中为否),则接着进行是否转变为“地面反射”状态的判定(步骤S13)。若判定为没有转变为“地面反射”状态(步骤S13中为否),则接着进行是否转变为“遮蔽”状态的判定(步骤S14)。若判定为没有转变为“遮蔽”状态(步骤S14中为否),则接着进行是否转变为“噪声”状态的判定(步骤S15)。若判定为没有转变为“噪声”状态(步骤S15中为否),则将表示“通常”状态的状态类别信息输出到基准点制作部60(步骤16)。
在上述的“蹲下”判定(步骤S11)中,若判定为处于“蹲下”状态(步骤S11中为是),则转移到“蹲下”状态的处理(步骤S17)。在“手臂伸开”判定(步骤S12)中,若判定为处于“手臂伸开”状态(步骤S12中为是),则转移到“手臂伸开”状态的处理(步骤S18)。在“地面反射”判定(步骤S13)中,若判定为处于“地面反射”状态(步骤S13中为是),则转移到“地面反射”状态的处理(步骤S19)。在“遮蔽”判定(步骤S14)中,若判定为处于“遮蔽”状态(步骤S14中为是),则转移到“遮蔽”状态的处理(步骤S20)。在“噪声”判定(步骤S15)中,若判定为处于“噪声”状态(步骤S15中为是),则转移到“噪声”状态的处理(步骤S21)。
图12是状态判定部50进行的“蹲下”状态的处理的流程图。状态判定部50参照检测区域数据库30(步骤S171)来取得最新的检测结果信息和过去的检测结果信息。状态判定部50使用最新的检测结果信息和过去的检测结果信息来进行是否向“通常”状态返回的判定(步骤S172)。在满足向“通常”状态返回的条件的情况下(步骤S172中为是),向“通常”状态转变(步骤S173)并返回步骤S10。在不满足向“通常”状态返回的条件的情况下(步骤S172中为否),将表示“蹲下”状态的状态类别信息输出到基准点制作部60(步骤S174),等待下一个图像帧的检测结果信息被积存到检测区域数据库30,返回步骤S171。
图13是状态判定部50进行的“手臂伸开”状态的处理的流程图。状态判定部50若开始进行“手臂伸开”状态的处理,则首先进行是“右手臂伸开”状态还是“左手臂伸开”状态的判定(步骤S181)。接着,参照检测区域数据库30(步骤S182)来取得最新的检测结果信息和过去的检测结果信息。状态判定部50使用最新的检测结果信息和过去的检测结果信息来进行是否向“通常”状态返回的判定(步骤S183)。在满足返回到“通常”状态的条件的情况下(步骤S183中为是),向“通常”状态转变(步骤S184),返回步骤S10。在不满足向“通常”状态返回的条件的情况下(步骤S183中为否),将表示“手臂伸开”状态的状态类别信息输出到基准点制作部60(步骤S185),并等待下一个图像帧的检测结果信息被积存到检测区域数据库30,返回步骤S182。
图14是状态判定部50进行的“地面反射”状态的处理的流程图。状态判定部50若开始进行“地面反射”状态的处理,则首先参照检测区域数据库30(步骤S191)来取得最新的检测结果信息和过去的检测结果信息。状态判定部50使用最新的检测结果信息和过去的检测结果信息来进行是否向“通常”状态返回的判定(步骤S192)。在满足向“通常”状态返回的条件的情况下(步骤S192中为是),向“通常”状态转变(步骤S193)并返回步骤S10。在不满足向“通常”状态返回的条件的情况下(步骤S192中为否),将表示“地面反射”状态的状态类别信息输出到基准点制作部60(步骤S194),并等待下一个图像帧的检测结果信息被积存到检测区域数据库30,返回步骤S191。
图15是状态判定部50进行的“遮蔽”状态的处理的流程图。状态判定部50参照检测区域数据库30(步骤S201)来取得最新的检测结果信息和过去的检测结果信息。状态判定部50使用最新的检测结果信息和过去的检测结果信息来进行是否向“通常”状态返回的判定(步骤S202)。在满足向“通常”状态返回的条件的情况下(步骤S202中为是),向“通常”状态转变(步骤S203)并返回步骤S10。在不满足向“通常”状态返回的条件的情况下(步骤S202中为否),将表示“遮蔽”状态的状态类别信息输出到基准点制作部60(步骤S204),并等待下一个图像帧的检测结果信息被积存到检测区域数据库30,返回步骤S201。
图16是状态判定部50进行的“噪声”状态的处理的流程图。状态判定部50参照检测区域数据库30(步骤S211)来取得最新的检测结果信息和过去的检测结果信息。状态判定部50使用最新的检测结果信息和过去的检测结果信息来进行是否向“通常”状态返回的判定(步骤S212)。在满足向“通常”状态返回的条件的情况下(步骤S212中为是),向“通常”状态转变(步骤S213)并返回步骤S10。在不满足向“通常”状态返回的条件的情况下(步骤S212中为否),将表示“噪声”状态的状态类别信息输出到基准点制作部60(步骤S214),并等待下一个图像帧的检测结果信息被积存到检测区域数据库30,返回步骤S211。
此外,状态判定部50每对一个检测结果信息判定为处于“噪声”状态,就向基准点制作部60输出表示“噪声”状态的状态类别信息,如上所述,基准点制作部60若接收到表示“噪声”状态的状态类别信息,不直接制作基准点,而使用“噪声”状态连续的多个检测结果信息(进行平均化)来制作基准点,但本发明不仅限于这样的处理。取而代之,也可以状态判定部50在判断出为从“通常”状态转变到了“噪声”状态的时间点不向基准点制作部60输出状态类别信息,而是在返回到“通常”状态之后将表示“噪声”状态的状态类别信息与该期间的时刻的信息一起向基准点制作部60输出。
综上所述,根据本发明的实施方式的动线制作装置1,状态判定部50判定追踪对象的状态,基准点制作部60制作与状态判定部50判定的状态相对应的基准点,所以能够减少虽然追踪对象没有移动但却制作表示追踪对象移动了的动线等错误的动线的制作。
此外,在上述的实施方式中,就对追踪对象分派“通常”、“蹲下”、“手臂伸开”、“地面反射”、“遮蔽”、“噪声”中任何一个状态的情况进行了说明,但除“通常”状态时以外也可以分派多个状态。状态判定部50例如也可以是能够判定“蹲下”兼“地面反射”的状态的结构。
并且,在上述的实施方式中,对于作为“通常”状态下的基准点制作方法利用矩形框的中心的情况进行了说明,但基准点也可以利用例如矩形的下线的中心等别的部分。在该情况下,“蹲下”、“手臂伸开”、“地面反射”、“遮蔽”、及“噪声”的各状态下的基准点的制作方法也只要与“通常”状态下的基准点的位置相应地进行变更即可。
并且,在上述的实施方式中,对从“蹲下”状态、“手臂伸开”状态、“地面反射”状态、“遮蔽”状态、及“噪声”状态仅仅向“通常”状态转变的情况进行了说明,但也可以从“蹲下”状态、“手臂伸开”状态、“地面反射”状态、“遮蔽”状态、及“噪声”状态向除“通常”状态以外的其他的状态转变。状态判定部50例如也可以是能够判定为从“蹲下”状态转变到了“手臂伸开”状态的结构。
并且,在上述的实施方式的状态判定部50的动作中,“蹲下”判定、“手臂伸开”判定、“地面反射”判定、“遮蔽”判定、及“噪声”判定不是一定以图11所示的动作流程的顺序来进行,该顺序是任意的,也可以同时并行地进行多个判定。
并且,在上述的实施方式中,对“蹲下”判定、“手臂伸开”判定、“地面反射”判定、“遮蔽”判定、及“噪声”判定的全部进行判定的动线制作装置作了说明,但本发明的动线制作装置也可以仅进行这些判定中的部分判定。
以上说明了目前认为的本发明的适合的实施方式,但对于本实施方式能进行各式各样的变形,而且意味着所附的权利要求书包含本发明的真实精神和范围内的这种所有的变形。
产业上的可利用性
综上所述,本发明的动线制作装置具有下述效果:能够不增大处理负担,减少制作没有正确地反映追踪对象的移动的动线等错误的动线的制作,能够适用于检测图像中的追踪对象而制作表示该追踪对象的移动轨迹的动线的动线制作装置等。
Claims (12)
1.一种动线制作装置,制作表示追踪对象的移动轨迹的动线,其特征在于,具备:
物体检测部,从图像帧检测追踪对象,生成包含所述追踪对象的检测区域在内的检测结果信息;
状态判定部,基于所述检测区域的变化,判定所述追踪对象的状态;
基准点制作部,通过与由所述状态判定部判定的状态对应的方法使用所述检测区域制作所述追踪对象的基准点;以及
动线制作部,连接对于多个所述图像帧制作出的多个所述基准点,生成表示所述追踪对象的移动轨迹的动线。
2.根据权利要求1所述的动线制作装置,其特征在于,在由所述状态判定部判定为处于特定状态时,所述基准点制作部使用当前的所述检测区域以及过去的时刻的所述检测区域来制作所述基准点。
3.根据权利要求1所述的动线制作装置,其特征在于,所述物体检测部生成矩形框作为所述检测区域,该矩形框由上线、下线、右线以及左线构成,包含检测出的追踪对象。
4.根据权利要求3所述的动线制作装置,其特征在于,
所述状态判定部比较当前的矩形框和过去的矩形框,当下线的移动比第一阈值小且上线向下方的移动比第二阈值大时,判定为处于蹲下状态,
在由所述状态判定部判定为处于蹲下状态时,所述基准点制作部采用所述过去的矩形框的上线作为所述矩形框的上线来制作基准点。
5.根据权利要求3所述的动线制作装置,其特征在于,
所述状态判定部比较当前的矩形框和过去的矩形框,当上线以及下线的移动比第三阈值小且右线向右方的移动或左线向左方的移动比第四阈值大时,判定为处于手臂伸开状态,
在由所述状态判定部判定为处于手臂伸开状态时,所述基准点制作部采用所述过去的矩形框的右线或左线作为所述矩形框的右线或左线来制作基准点。
6.根据权利要求3所述的动线制作装置,其特征在于,
在判定所述追踪对象的状态的结果不属于特定状态但检测结果信息的矩形框的纵横比或大小发生了变化而超过第五阈值时,所述状态判定部将所述追踪对象的状态判定为处于噪声状态,
在由所述状态判定部判定为处于噪声状态时,所述基准点制作部将被判定为处于噪声状态的期间的多个所述矩形框平均化来制作基准点。
7.一种动线制作装置,制作表示追踪对象的移动轨迹的动线,其特征在于,具备:
物体检测部,从图像帧检测追踪对象,生成包含所述追踪对象的检测区域在内的检测结果信息;
状态判定部,基于对动线制作的对象空间所设定的环境信息与所述检测区域之间的位置关系,判定所述追踪对象的状态;
基准点制作部,通过与由所述状态判定部判定的状态对应的方法使用所述检测区域制作所述追踪对象的基准点;以及
动线制作部,连接对于多个所述图像帧制作出的多个所述基准点,生成表示所述追踪对象的移动轨迹的动线。
8.根据权利要求7所述的动线制作装置,其特征在于,所述物体检测部生成矩形框作为所述检测区域,该矩形框由上线、下线、右线以及左线构成,包含检测出的追踪对象。
9.根据权利要求8所述的动线制作装置,其特征在于,
所述状态判定部在当前的检测结果信息的矩形框的下线的端点的至少一个被包含在设定于动线制作的对象空间的地面反射区域时,判定为处于地面反射状态,
在由所述状态判定部判定为处于地面反射状态时,所述基准点制作部采用被判定为处于地面反射状态以前的矩形框的下线作为所述矩形框的下线来制作基准点。
10.根据权利要求8所述的动线制作装置,其特征在于,
所述状态判定部在当前的检出结果信息的矩形框的下线被包含在设定于动线制作的对象空间的遮蔽区域时,判定为处于遮蔽状态,
在由所述状态判定部判定为处于遮蔽状态时,所述基准点制作部采用被判定为处于遮蔽状态以前的矩形框的下线作为所述矩形框的下线来制作基准点。
11.一种动线制作方法,制作表示追踪对象的移动轨迹的动线,其特征在于,包括:
物体检测步骤,从图像帧检测追踪对象,生成包含所述追踪对象的检测区域在内的检测结果信息;
状态判定步骤,基于所述检测区域的变化,判定所述追踪对象的状态;
基准点制作步骤,通过与由所述状态判定步骤判定的状态对应的方法使用所述检测区域来制作所述追踪对象的基准点;以及
动线制作步骤,连接对于多个所述图像帧制作出的多个所述基准点,生成表示所述追踪对象的移动轨迹的动线。
12.一种动线制作方法,制作表示追踪对象的移动轨迹的动线,其特征在于,包括:
物体检测步骤,从图像帧检测追踪对象,生成包含所述追踪对象的检测区域在内的检测结果信息;
状态判定步骤,基于对动线制作的对象空间所设定的环境信息与所述检测区域之间的位置关系,判定所述追踪对象的状态;
基准点制作步骤,通过与由所述状态判定步骤判定的状态对应的方法使用所述检测区域来制作所述追踪对象的基准点;以及
动线制作步骤,连接对于多个所述图像帧制作出的多个所述基准点,生成表示所述追踪对象的移动轨迹的动线。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010-117284 | 2010-05-21 | ||
JP2010117284A JP5567899B2 (ja) | 2010-05-21 | 2010-05-21 | 動線作成装置及び動線作成方法 |
PCT/JP2011/000030 WO2011145236A1 (ja) | 2010-05-21 | 2011-01-07 | 動線作成装置及び動線作成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102906788A CN102906788A (zh) | 2013-01-30 |
CN102906788B true CN102906788B (zh) | 2016-06-08 |
Family
ID=44991359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180025323.0A Expired - Fee Related CN102906788B (zh) | 2010-05-21 | 2011-01-07 | 动线制作装置及动线制作方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8934671B2 (zh) |
JP (1) | JP5567899B2 (zh) |
CN (1) | CN102906788B (zh) |
WO (1) | WO2011145236A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2811736A4 (en) | 2012-01-30 | 2014-12-10 | Panasonic Corp | OPTIMUM CAMERA SETUP DEVICE AND OPTIMUM CAMERA SETTING METHOD |
JP6206804B2 (ja) | 2013-09-27 | 2017-10-04 | パナソニックIpマネジメント株式会社 | 移動体追跡装置、移動体追跡システムおよび移動体追跡方法 |
JP6336872B2 (ja) * | 2014-09-29 | 2018-06-06 | Kddi株式会社 | オブジェクト追跡方法、装置およびプログラム |
JP6119794B2 (ja) * | 2015-04-28 | 2017-04-26 | マツダ株式会社 | 歩行者移動推定方法および推定装置 |
US10277836B2 (en) | 2016-03-07 | 2019-04-30 | Ricoh Company, Ltd. | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product |
JP6812643B2 (ja) * | 2016-03-07 | 2021-01-13 | 株式会社リコー | 通信端末、画像通信システム、表示方法、及びプログラム |
JP6972798B2 (ja) * | 2016-11-22 | 2021-11-24 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム |
JP2022539936A (ja) * | 2019-01-16 | 2022-09-14 | ハイ ロボティクス カンパニー リミテッド | 障害物回避方法、装置及び倉庫ロボット |
CN111444892B (zh) * | 2020-05-05 | 2023-12-15 | 商志营 | 一种基于动线的轨迹追踪系统、查询方法及装置 |
WO2022195837A1 (ja) * | 2021-03-19 | 2022-09-22 | 株式会社日立国際電気 | 画像解析装置、画像解析システム及び画像解析方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1770204A (zh) * | 2004-10-29 | 2006-05-10 | 中国科学院计算技术研究所 | 从具有静态背景的运动视频提取运动对象重心轨迹的方法 |
CN101465033A (zh) * | 2008-05-28 | 2009-06-24 | 丁国锋 | 一种自动追踪识别系统及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH056434A (ja) * | 1991-06-27 | 1993-01-14 | Matsushita Electric Ind Co Ltd | 自動追尾装置 |
JPH09130784A (ja) * | 1995-08-25 | 1997-05-16 | Matsushita Electric Works Ltd | 自動追尾方法及びその装置 |
JP2000268173A (ja) | 1999-03-17 | 2000-09-29 | Hitachi Denshi Ltd | 物体認識画像処理方法 |
US7606411B2 (en) | 2006-10-05 | 2009-10-20 | The United States Of America As Represented By The Secretary Of The Navy | Robotic gesture recognition system |
JP4760655B2 (ja) | 2006-10-12 | 2011-08-31 | パナソニック電工株式会社 | 人体検出装置 |
JP4429337B2 (ja) | 2007-06-28 | 2010-03-10 | 東芝テック株式会社 | 動線処理装置,方法及びプログラム |
-
2010
- 2010-05-21 JP JP2010117284A patent/JP5567899B2/ja not_active Expired - Fee Related
-
2011
- 2011-01-07 CN CN201180025323.0A patent/CN102906788B/zh not_active Expired - Fee Related
- 2011-01-07 WO PCT/JP2011/000030 patent/WO2011145236A1/ja active Application Filing
- 2011-01-07 US US13/639,655 patent/US8934671B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1770204A (zh) * | 2004-10-29 | 2006-05-10 | 中国科学院计算技术研究所 | 从具有静态背景的运动视频提取运动对象重心轨迹的方法 |
CN101465033A (zh) * | 2008-05-28 | 2009-06-24 | 丁国锋 | 一种自动追踪识别系统及方法 |
Non-Patent Citations (3)
Title |
---|
A robust appearance model for tracking human motions;N.Thome等;《IEEE Conference on Advanced Video and Signal Based Surveillance, 2005》;20051231;第528-533页 * |
The PSO-Based Adaptive Window for People Tracking;Yuhua Zheng等;《Proceedings of the 2007 IEEE Symposium on Computational Intelligence in Security and Defense Applications (CISDA 2007)》;20071231;第23-29页 * |
人体运动目标检测与跟踪方法的研究与实现;徐雷等;《现代电子技术》;20100421;第33卷(第4期);第128-131页 * |
Also Published As
Publication number | Publication date |
---|---|
US8934671B2 (en) | 2015-01-13 |
WO2011145236A1 (ja) | 2011-11-24 |
JP5567899B2 (ja) | 2014-08-06 |
US20130022246A1 (en) | 2013-01-24 |
JP2011243155A (ja) | 2011-12-01 |
CN102906788A (zh) | 2013-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102906788B (zh) | 动线制作装置及动线制作方法 | |
JP4855556B1 (ja) | 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム | |
JP5263694B2 (ja) | 物体位置推定用情報作成装置、物体位置推定用情報作成方法およびプログラム | |
JP6707022B2 (ja) | ステレオカメラ | |
CN112506340B (zh) | 设备控制方法、装置、电子设备及存储介质 | |
CN114616588A (zh) | 图像处理装置、图像处理方法以及存储图像处理程序的非暂时性计算机可读介质 | |
KR20170133269A (ko) | 영상 처리장치, 영상 처리방법 및 프로그램 | |
CN112363629B (zh) | 一种新的非接触式人机交互方法及系统 | |
JP5510907B2 (ja) | タッチ位置入力装置及びタッチ位置入力方法 | |
JP2018113021A (ja) | 情報処理装置およびその制御方法、プログラム | |
KR101681104B1 (ko) | 부분적 가림을 갖는 영상 객체 내의 주요 특징점 기반 다중 객체 추적 방법 | |
JP7188240B2 (ja) | 人検出装置および人検出方法 | |
JP3577875B2 (ja) | 移動物体抽出装置 | |
WO2022237026A1 (zh) | 平面信息检测方法及系统 | |
KR101337423B1 (ko) | 깊이 정보와 움직임 정보를 이용한 움직임 객체 검출 및 추적방법 | |
US9025022B2 (en) | Method and apparatus for gesture recognition using a two dimensional imaging device | |
JP7615725B2 (ja) | ホモグラフィ算出方法及びプログラム | |
KR20170070298A (ko) | 물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치 | |
JP7491035B2 (ja) | 情報処理装置、情報処理システム、情報処理方法およびプログラム | |
JP7485040B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2019075051A (ja) | 画像処理装置 | |
JP2017151536A (ja) | 画像処理装置、制御プログラム及び領域特定方法 | |
JP6038643B2 (ja) | 背景情報生成装置及び対象物検出装置 | |
JP7287430B2 (ja) | 魚検出装置、魚検出方法及びプログラム | |
JP7619161B2 (ja) | 画像認識装置、画像認識装置の方法、および画像認識装置プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160608 Termination date: 20200107 |