JP5756709B2 - Height estimation device, height estimation method, and height estimation program - Google Patents
Height estimation device, height estimation method, and height estimation program Download PDFInfo
- Publication number
- JP5756709B2 JP5756709B2 JP2011170549A JP2011170549A JP5756709B2 JP 5756709 B2 JP5756709 B2 JP 5756709B2 JP 2011170549 A JP2011170549 A JP 2011170549A JP 2011170549 A JP2011170549 A JP 2011170549A JP 5756709 B2 JP5756709 B2 JP 5756709B2
- Authority
- JP
- Japan
- Prior art keywords
- height
- target person
- assumed
- estimated
- real space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000003384 imaging method Methods 0.000 claims description 43
- 238000001514 detection method Methods 0.000 claims description 20
- 238000012986 modification Methods 0.000 description 20
- 230000004048 modification Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 241000282414 Homo sapiens Species 0.000 description 7
- 238000012545 processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、身長推定装置、身長推定方法、及び身長推定プログラムに関する。 The present invention relates to a height estimation device, a height estimation method, and a height estimation program.
従来から、画像上の人物の足元位置から当該人物の実空間上の位置を推定し、推定した実空間上の位置から当該人物の身長を推定し、推定した身長を用いて当該人物の画像上の隠蔽箇所を特定し、当該人物の実空間上の正確な位置を推定・追跡する技術が知られている(例えば、特許文献1参照)。 Conventionally, the position of the person in the real space is estimated from the position of the person's foot on the image, the height of the person is estimated from the estimated position in the real space, and the estimated height is used to A technique for identifying a concealed portion of the person and estimating and tracking the exact position of the person in the real space is known (see, for example, Patent Document 1).
しかしながら、上述したような従来技術では、画像上の人物の足元位置が隠蔽されている場合、身長の推定精度が低下してしまう。 However, in the conventional technology as described above, when the foot position of the person on the image is concealed, the estimation accuracy of the height is lowered.
本発明は、上記事情に鑑みてなされたものであり、画像上で人物の足元位置が隠蔽されていても当該人物の身長を精度よく推定する身長推定装置、身長推定方法、及び身長推定プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and includes a height estimation device, a height estimation method, and a height estimation program for accurately estimating the height of a person even if the foot position of the person is concealed on an image. The purpose is to provide.
上述した課題を解決し、目的を達成するために、本発明の一態様にかかる身長推定装置は、対象人物を含む画像を時系列で撮像する撮像部と、時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出部と、検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定部と、推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定部と、前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, a height estimation apparatus according to one aspect of the present invention includes an imaging unit that captures an image including a target person in time series, and each of the images captured in time series. A head detecting unit that detects the head of the target person from the above, and a foot that estimates the foot position of the target person for each assumed height from each of the images captured in time series using the detected head A position estimation unit, a real space position estimation unit that estimates the position of the target person in real space in time series for each assumed height, using the estimated foot position, and is estimated for each assumed height. And a height estimation unit that creates a human-like movement trajectory using a time-series position in the real space and estimates the assumed height from which the most human-like movement trajectory was created to the height of the target person. To do.
また、本発明の別の態様にかかる身長推定方法は、撮像部が、対象人物を含む画像を時系列で撮像する撮像ステップと、頭部検出部が、時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出ステップと、足元位置推定部が、検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定ステップと、実空間位置推定部が、推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定ステップと、身長推定部が、前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定ステップと、を含むことを特徴とする。 The height estimation method according to another aspect of the present invention includes an imaging step in which an imaging unit images an image including a target person in time series, and a head detection unit from each of the images captured in time series. A head detection step for detecting the head of the target person, and a foot position estimation unit assuming the foot position of the target person from each of the images captured in time series using the detected head. A step of estimating a foot position every time, and a real space position estimating unit that estimates the position of the target person in real space in time series for each assumed height using the estimated foot position. An estimation step and a height estimation unit creates a human-like movement trajectory using the estimated time-series position in the real space for each of the assumed heights, and uses the assumed height from which the most human-like movement trajectory was created as the target. Person's height Characterized in that it comprises a body height estimating step of estimating, the.
また、本発明の別の態様にかかる身長推定プログラムは、対象人物を含む画像を時系列で撮像する撮像ステップと、時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出ステップと、検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定ステップと、推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定ステップと、前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定ステップと、をコンピュータに実行させるためのものである。 The height estimation program according to another aspect of the present invention includes an imaging step of capturing an image including a target person in time series, and a head for detecting the head of the target person from each of the images captured in time series. A step of estimating a foot position of the target person for each assumed height from each of the images captured in time series using the detected head, and the estimated foot position A real space position estimation step for estimating the position of the target person in real space for each assumed height in a time series, and the estimated time series position in the real space for each assumed height. A human-like movement trajectory, and a computer that executes a height estimation step of estimating the assumed height from which the most human-like movement trajectory was created to the height of the target person. .
本発明によれば、画像上で人物の足元位置が隠蔽されていても当該人物の身長を精度よく推定することができるという効果を奏する。 According to the present invention, there is an effect that the height of a person can be accurately estimated even if the foot position of the person is concealed on the image.
以下、添付図面を参照しながら、本発明にかかる身長推定装置、身長推定方法、及び身長推定プログラムの実施形態を詳細に説明する。 Hereinafter, embodiments of a height estimation device, a height estimation method, and a height estimation program according to the present invention will be described in detail with reference to the accompanying drawings.
(第1実施形態)
まず、第1実施形態の身長推定装置の構成について説明する。
(First embodiment)
First, the structure of the height estimation apparatus of 1st Embodiment is demonstrated.
図1は、第1実施形態の身長推定装置100の構成の一例を示すブロック図である。図1に示すように、身長推定装置100は、入力部110と、記憶部120と、撮像部130と、制御部140と、表示部150とを、備える。
FIG. 1 is a block diagram illustrating an example of the configuration of the
入力部110は、各種データを入力するものであり、例えば、キーボードやマウスなどの既存の入力装置により実現できる。入力部110は、例えば、複数の仮定身長、後述の撮像部130の撮像パラメータ、及び基準データなどを入力する。
The input unit 110 inputs various data, and can be realized by an existing input device such as a keyboard or a mouse. The input unit 110 inputs, for example, a plurality of assumed heights, imaging parameters of the
撮像パラメータは、本実施形態では、撮像部130の設置高、俯角、画角、及び画像上の消失点とするが、これに限定されるものではない。基準データは、本実施形態では、基準物の高さ、撮像部130から基準物の距離、基準物の画像上の位置とするが、これに限定されるものではない。基準データは、撮像部130の内部・外部パラメータなどであってもよい。
In this embodiment, the imaging parameters are the installation height of the
記憶部120には、入力部110から入力された各種データや後述の制御部140により処理されたデータなどが記憶される。記憶部120は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びRAM(Random Access Memory)などの磁気的、光学的、又は電気的に記憶可能な既存の各種記憶装置の少なくともいずれかにより実現できる。 The storage unit 120 stores various data input from the input unit 110 and data processed by the control unit 140 described later. The storage unit 120 is, for example, at least one of various existing storage devices that can store magnetically, optically, or electrically such as a hard disk drive (HDD), a solid state drive (SSD), and a random access memory (RAM). It can be realized by either.
撮像部130は、対象人物を含む画像を時系列で撮像するものであり、例えば、デジタルカメラなどにより実現できる。
The
制御部140は、身長推定装置100の各部を制御するものであり、例えば、CPU(Central Processing Unit)などにより実現できる。制御部140は、頭部検出部141と、足元位置推定部143と、実空間位置推定部145と、身長推定部147とを、備える。
The control unit 140 controls each unit of the
頭部検出部141は、撮像部130により時系列で撮像された画像それぞれから対象人物の頭部を検出する。頭部検出部141は、例えば、フィルタを用いて画像から対象人物の頭部を検出する。フィルタは、例えば、「移動体の上端を頭部上端とする」など頭部と思われる位置を検出できれば、どのようなものであってもよい。
The head detection unit 141 detects the head of the target person from each of the images captured in time series by the
足元位置推定部143は、頭部検出部141により検出された頭部を用いて、撮像部130により時系列で撮像された画像それぞれから対象人物の足元位置を仮定身長毎に推定する。具体的には、足元位置推定部143は、入力部110により入力され記憶部120に記憶されている複数の仮定身長及び撮像パラメータと頭部検出部141により検出された頭部とを用いて、撮像部130により時系列で撮像された画像それぞれから対象人物の足元位置を仮定身長毎に推定する。
The foot position estimation unit 143 uses the head detected by the head detection unit 141 to estimate the foot position of the target person for each assumed height from each of the images captured in time series by the
図2は、第1実施形態の足元位置推定部143による足元位置推定手法の一例の説明図である。図2に示す例では、設置高Hcam、俯角α、垂直画角βv(図示省略)、及び消失点Pv(Xv,Yv)は、撮像パラメータに該当し、既知である。また、対象人物160の画像上の頭部座標Ph(Xh,Yh)は、頭部検出部141により検出される頭部に該当し、既知である。また、対象人物160の身長Hman、は、仮定身長に該当し、既知である。なお本実施形態では、仮定身長は、155cm〜185cmの範囲で5cm刻みに設定されているものとする。つまり、仮定身長は、155cm、160cm、165cm、170cm、175cm、180cm、及び185cmであるものとする。
FIG. 2 is an explanatory diagram illustrating an example of a foot position estimation method performed by the foot position estimation unit 143 according to the first embodiment. In the example shown in FIG. 2, the installation height H cam , the depression angle α, the vertical angle of view β v (not shown), and the vanishing point P v (X v , Y v ) correspond to the imaging parameters and are known. The head coordinates P h (X h , Y h ) on the
ここで、対象人物160の画像上の足元位置座標をPf(Xf,Yf)とすると、足元位置推定部143は、対象人物160の身長Hman(仮定身長)毎に、数式(1)を用いて、対象人物160の足元位置Yfを推定する。
Here, assuming that the foot position coordinates on the image of the
ここで、Aは、数式(2)により表され、Bは、数式(3)により表される。 Here, A is represented by Equation (2), and B is represented by Equation (3).
ここで、撮像部130から対象人物160の頭部に向かう第1ベクトルV1と、当該第1ベクトルとX軸及びY軸方向の成分が同一で且つZ軸方向の成分が撮像部130の光軸と同一な第2ベクトルV2とのなす角ρhは、数式(4)により表される。なお、撮像部130の正面に対象人物160が存在する場合には、図2に示すように、撮像部130から対象人物160の頭部に向かう第1ベクトルV1と、撮像部130の光軸(第2ベクトルV2)とのなす角がρ h となる。
Here, the first vector V1 heading from the
なお、imgHeightは、画像の高さ(縦方向の画素数)であり、既知であるものとする。 Note that imgHeight is the height of the image (the number of pixels in the vertical direction) and is known.
実空間位置推定部145は、足元位置推定部143により推定された足元位置を用いて、対象人物の実空間上の位置を仮定身長毎に時系列で推定する。具体的には、実空間位置推定部145は、入力部110により入力され記憶部120に記憶されている撮像パラメータ及び基準データと足元位置推定部143により推定された足元位置とを用いて、対象人物の実空間上の位置を仮定身長毎に時系列で推定する。 The real space position estimation unit 145 uses the foot position estimated by the foot position estimation unit 143 to estimate the position of the target person in real space for each assumed height in time series. Specifically, the real space position estimation unit 145 uses the imaging parameters and reference data input by the input unit 110 and stored in the storage unit 120, and the foot position estimated by the foot position estimation unit 143, The position of a person in real space is estimated in time series for each assumed height.
実空間位置推定部145は、例えば、特開2008−286638号公報に記載されている手法を用いて、対象人物の実空間上の位置を仮定身長毎に時系列で推定することができる。但し、特開2008−286638号公報に記載されている手法では、カメラを水平設置(俯角=0)とすることを条件としているため、俯角の影響を取り除く必要がある。 The real space position estimation unit 145 can estimate the position of the target person in the real space for each assumed height in time series using, for example, the method described in Japanese Patent Application Laid-Open No. 2008-286638. However, the technique described in Japanese Patent Application Laid-Open No. 2008-286638 requires that the camera be installed horizontally (angle of depression = 0), and therefore it is necessary to remove the influence of the depression angle.
具体的に説明すると、特開2008−286638号公報に記載されている手法では、遠近法を用いて、人物の見かけ上の大きさ(画像上の人物の高さに相当する画素数)から人物とカメラとの距離を求めている。しかし、画像上の人物の高さに相当する画素数は、俯角が0でない場合、人物とカメラとの距離だけではなく、俯角の影響も受けることになる。 Specifically, in the method described in Japanese Patent Application Laid-Open No. 2008-286638, the perspective is used to calculate the person's apparent size (the number of pixels corresponding to the person's height on the image) from the person. Find the distance between the camera and the camera. However, if the depression angle is not 0, the number of pixels corresponding to the height of the person on the image is affected not only by the distance between the person and the camera but also by the depression angle.
このため、本実施形態において特開2008−286638号公報に記載されている手法を用いる場合、実空間位置推定部145は、俯角の影響により変化してしまった画像上の人物の高さに相当する画素数を数式(5)で補正する。そして実空間位置推定部145は、補正後の画像上の人物の高さに相当する画素数に遠近法を適用することにより、俯角の影響を取り除いた人物の大きさを求め、実空間上の人物の位置を推定する。 For this reason, when using the method described in Japanese Patent Application Laid-Open No. 2008-286638 in this embodiment, the real space position estimation unit 145 corresponds to the height of the person on the image that has changed due to the influence of the depression angle. The number of pixels to be corrected is corrected by equation (5). Then, the real space position estimation unit 145 obtains the size of the person from which the influence of the depression angle is removed by applying a perspective method to the number of pixels corresponding to the height of the person on the corrected image, Estimate the position of a person.
S’=S(cosα+sinαtan(α+ρh)) …(5) S ′ = S (cos α + sin α tan (α + ρ h )) (5)
なお、S’[pixels]は、補正後の画像上の人物の高さに相当する画素数であり、S[pixels]は、補正前の画像上の人物の高さに相当する画素数である。 Note that S ′ [pixels] is the number of pixels corresponding to the height of the person on the image after correction, and S [pixels] is the number of pixels corresponding to the height of the person on the image before correction. .
そして実空間位置推定部145は、推定した各仮定身長の対象人物の実空間上の位置を時系列(フレーム)毎に記憶部120に記憶する。なお実空間位置推定部145は、仮定身長毎の対象人物の実空間上の位置を、直近Fフレーム分記憶部120に記憶しておく。つまり、実空間位置推定部145は、最古フレームにおける仮定身長毎の対象人物の実空間上の位置を記憶部120から削除した後に、最新フレームにおける仮定身長毎の対象人物の実空間上の位置を記憶部120に記憶する。なお本実施形態では、Fを10とするが、これに限定されるものではなく、適宜設定することができる。 Then, the real space position estimation unit 145 stores the estimated position of the target person of each assumed height in real space in the storage unit 120 for each time series (frame). The real space position estimation unit 145 stores the position of the target person in real space for each assumed height in the storage unit 120 for the latest F frames. That is, the real space position estimation unit 145 deletes the position of the target person in the oldest frame for each assumed height in real space from the storage unit 120, and then deletes the position of the target person in the latest frame in real space for each assumed height. Is stored in the storage unit 120. In this embodiment, F is set to 10. However, the present invention is not limited to this, and can be set as appropriate.
図3は、第1実施形態の記憶部120に記憶される仮定身長毎の対象人物の実空間上の位置の一例の説明図である。図3に示す例では、実空間位置推定部145は、フレームNo、日時、身長(複数の仮定身長)、及び位置(仮定身長に対応する実空間上の位置)を対応付けて記憶部120に記憶している。 FIG. 3 is an explanatory diagram illustrating an example of a position in the real space of the target person for each assumed height stored in the storage unit 120 according to the first embodiment. In the example illustrated in FIG. 3, the real space position estimation unit 145 associates the frame number, date and time, height (a plurality of assumed heights), and position (a position in the real space corresponding to the assumed height) in the storage unit 120. I remember it.
身長推定部147は、仮定身長毎に、推定された実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を対象人物の身長に推定する。 The height estimation unit 147 creates a human-like movement trajectory using the estimated time-series position in the real space for each assumed height, and estimates the assumed height from which the most human-like movement trajectory was created to the height of the target person. .
具体的には、身長推定部147は、仮定身長それぞれに対し、推定された実空間上の時系列の位置毎に当該位置の次の位置へ対象人物が移動可能か否かを判定する。本実施形態では、身長推定部147は、時系列の間隔、即ち、フレーム間で対象人物が移動可能な範囲を予め定めており、推定された実空間上の時系列の位置毎に当該位置と次の位置との距離が予め定めた移動可能な範囲に収まるか否かで対象人物が移動可能か否かを判定する。ここで、人間の平均歩行速度をV、フレーム間をΔtとすると、移動可能な範囲Rは、R=V×Δtとなる。そして身長推定部147は、移動可能である場合に当該位置と当該次の位置とを結ぶ移動軌跡を作成し、所定数以上の移動軌跡が作成された仮定身長を対象人物の身長に推定する。なお身長推定部147は、対象人物の身長の推定に使用した位置などの情報を記憶部120から削除する。 Specifically, the height estimation unit 147 determines, for each assumed height, whether or not the target person can move to a position next to the position for each estimated time-series position in the real space. In the present embodiment, the height estimation unit 147 predetermines a time series interval, that is, a range in which the target person can move between frames, and calculates the position for each estimated time series position in the real space. Whether or not the target person can move is determined based on whether or not the distance to the next position is within a predetermined movable range. Here, assuming that the average walking speed of humans is V and the interval between frames is Δt, the movable range R is R = V × Δt. Then, the height estimation unit 147 creates a movement trajectory connecting the position and the next position when the movement is possible, and estimates the assumed height on which the predetermined number or more of movement trajectories are created as the height of the target person. The height estimation unit 147 deletes information such as the position used for estimating the height of the target person from the storage unit 120.
図4は、第1実施形態の身長推定部147により作成された移動軌跡の一例を示す図である。なお図4に示す例では、仮定身長が155cm、165cm、175cm、及び185cmの場合の移動軌跡を示している。身長推定部147は、図4に示す例の場合、仮定身長を175cmとした場合に最も多くの移動軌跡が作成されているため、対象人物の身長を175cmに推定する。 FIG. 4 is a diagram illustrating an example of a movement trajectory created by the height estimation unit 147 of the first embodiment. In the example shown in FIG. 4, the movement trajectory when the assumed height is 155 cm, 165 cm, 175 cm, and 185 cm is shown. In the example shown in FIG. 4, the height estimation unit 147 estimates the height of the target person to 175 cm because the most movement trajectory is created when the assumed height is 175 cm.
ここで、仮定身長と当該仮定身長から推定される実空間上の位置及び移動距離との関係について説明する。 Here, the relationship between the assumed height and the position and movement distance in the real space estimated from the assumed height will be described.
図5は、仮定身長と当該仮定身長から推定される対象人物の実空間上の位置との関係の一例を示す図である。なお、対象人物160〜162は同一人物であるが、説明の関係上異なる符号を付している。
FIG. 5 is a diagram illustrating an example of the relationship between the assumed height and the position of the target person in real space estimated from the assumed height. Although the
仮定身長が対象人物160の実際の身長よりも大きい場合、対象人物160の実空間上の位置は、実空間位置推定部145により実際の位置よりも手前側に推定される。つまり、図5に示す例の場合、仮定身長が対象人物160の実際の身長よりも大きいと、実空間位置推定部145は、対象人物160を対象人物161として推定する。
When the assumed height is larger than the actual height of the
同様に、仮定身長が対象人物160の実際の身長よりも小さい場合、対象人物160の実空間上の位置は、実空間位置推定部145により実際の位置よりも奥側に推定される。つまり、図5に示す例の場合、仮定身長が対象人物160の実際の身長よりも小さいと、実空間位置推定部145は、対象人物160を対象人物162として推定する。
Similarly, when the assumed height is smaller than the actual height of the
図6は、仮定身長と当該仮定身長から推定される対象人物の横移動との関係の一例を示す図である。 FIG. 6 is a diagram illustrating an example of the relationship between the assumed height and the lateral movement of the target person estimated from the assumed height.
図6に示すように、仮定身長が対象人物160の実際の身長よりも大きい場合、即ち、対象人物160が対象人物161として推定された場合、対象人物161が撮像部130を横切る方向、即ち、横方向に移動すると、対象人物161のフレーム毎の位置の横方向の間隔は、対象人物160のフレーム毎の位置の横方向の間隔よりも小さくなる。このため、対象人物160の隣接する各位置の距離が移動可能な範囲に収まれば、対象人物161の隣接する各位置の距離も移動可能な範囲に収まるので、身長推定部147は、対象人物161の隣接する各位置を移動軌跡で結ぶことができる。
As shown in FIG. 6, when the assumed height is larger than the actual height of the
一方、仮定身長が対象人物160の実際の身長よりも小さい場合、即ち、対象人物160が対象人物162として推定された場合、対象人物162が撮像部130を横切る方向、即ち、横方向に移動すると、対象人物162のフレーム毎の位置の横方向の間隔は、対象人物160のフレーム毎の位置の横方向の間隔よりも大きくなる。このため、対象人物160の隣接する各位置の距離が移動可能な範囲に収まっても、対象人物162の隣接する各位置の距離が移動可能な範囲に収まるとは限らず、この場合、身長推定部147は、対象人物162の隣接する各位置を移動軌跡で結ぶことができない。
On the other hand, when the assumed height is smaller than the actual height of the
つまり、仮定身長が対象人物160の実際の身長よりも小さくなればなるほど、身長推定部147により作成される移動軌跡は人間らしい移動軌跡とはならないことになる。
That is, as the assumed height becomes smaller than the actual height of the
図7及び図8は、仮定身長と当該仮定身長から推定される対象人物の実空間上の移動距離との関係の一例を示す図である。 7 and 8 are diagrams showing an example of the relationship between the assumed height and the movement distance of the target person in real space estimated from the assumed height.
図7に示すように、仮定身長が対象人物160の実際の身長に一致する場合に、対象人物160の頭部が画像上の縦方向(実空間上の奥行き方向)にp[pixels]移動したとする。この場合、対象人物160の実空間上の位置は、実空間位置推定部145によりx1[m]奥側の位置に推定される。
As shown in FIG. 7, when the assumed height matches the actual height of the
一方、図8に示すように、仮定身長が対象人物160の実際の身長よりも大きい場合、即ち、対象人物160が対象人物161として推定された場合に、対象人物161の頭部が画像上の縦方向(実空間上の奥行き方向)にp[pixels]移動したとする。この場合、対象人物161の実空間上の位置は、実空間位置推定部145によりx2(x2>x1)[m]奥側の位置に推定される。
On the other hand, as shown in FIG. 8, when the assumed height is larger than the actual height of the
図9は、仮定身長と当該仮定身長から推定される対象人物の縦移動との関係の一例を示す図である。 FIG. 9 is a diagram illustrating an example of the relationship between the assumed height and the vertical movement of the target person estimated from the assumed height.
図9に示すように、仮定身長が対象人物160の実際の身長よりも小さい場合、即ち、対象人物160が対象人物162として推定された場合、対象人物162が撮像部130に対して前進・後退する方向、即ち、縦方向に移動すると、対象人物162のフレーム毎の位置の縦方向の間隔は、対象人物160のフレーム毎の位置の縦方向の間隔よりも小さくなる。このため、対象人物160の隣接する各位置の距離が移動可能な範囲に収まれば、対象人物162の隣接する各位置の距離も移動可能な範囲に収まるので、身長推定部147は、対象人物162の隣接する各位置を移動軌跡で結ぶことができる。
As shown in FIG. 9, when the assumed height is smaller than the actual height of the
一方、仮定身長が対象人物160の実際の身長よりも大きい場合、即ち、対象人物160が対象人物161として推定された場合、対象人物161が撮像部130に対して前進・後退する方向、即ち、縦方向に移動すると、対象人物161のフレーム毎の位置の縦方向の間隔は、対象人物160のフレーム毎の位置の縦方向の間隔よりも大きくなる。このため、対象人物160の隣接する各位置の距離が移動可能な範囲に収まっても、対象人物161の隣接する各位置の距離が移動可能な範囲に収まるとは限らず、この場合、身長推定部147は、対象人物161の隣接する各位置を移動軌跡で結ぶことができない。
On the other hand, when the assumed height is larger than the actual height of the
つまり、仮定身長が対象人物160の実際の身長よりも大きくなればなるほど、身長推定部147により作成される移動軌跡は人間らしい移動軌跡とはならないことになる。
That is, as the assumed height becomes larger than the actual height of the
以上より、仮定身長が対象人物160の実際の身長に近くなればなるほど、身長推定部147により作成される移動軌跡は人間らしい移動軌跡となる。
From the above, as the assumed height becomes closer to the actual height of the
また、身長推定部147は、所定数以上の移動軌跡が作成された仮定身長が複数存在する場合、当該複数の仮定身長、及び当該複数の仮定身長それぞれの移動軌跡数を用いて、対象人物の身長を推定する。上述したように、仮定身長が対象人物の実際の身長に近いほど人間らしい移動軌跡が作成されるため、所定数以上の移動軌跡が作成された仮定身長が複数存在する場合、これらの仮定身長は隣接している可能性が高い。このため本実施形態では、例えば、所定数以上の移動軌跡が作成された仮定身長が2つ存在する場合、身長推定部147は、数式(6)を用いて、対象人物の身長を推定する。 In addition, when there are a plurality of assumed heights for which a predetermined number or more of movement trajectories have been created, the height estimation unit 147 uses the plurality of assumed heights and the number of movement trajectories for each of the plurality of assumed heights. Estimate height. As described above, as the assumed height is closer to the actual height of the target person, a human-like movement trajectory is created. Therefore, when there are a plurality of assumed heights in which a predetermined number or more of movement trajectories are created, these assumed heights are adjacent. It is highly possible that For this reason, in this embodiment, for example, when there are two assumed heights in which a predetermined number or more of movement trajectories are created, the height estimation unit 147 estimates the height of the target person using Equation (6).
ここで、Hは、対象人物の推定身長であり、Ha、Hbは、それぞれ隣接する仮定身長であり、Naは、Haの移動軌跡数であり、Nbは、Hbの移動軌跡数である。 Here, H is the estimated height of the target person, H a and H b are adjacent assumed heights, N a is the number of trajectories of H a , and N b is the movement of H b The number of trajectories.
本実施形態では、身長推定部147は、移動軌跡が作成された数を基準として最も人間らしい移動軌跡を判断しているが、これに限定されず、連続して作成された移動軌跡の数や、作成された移動軌跡の形などを基準として最も人間らしい移動軌跡を判断するようにしてもよい。 In the present embodiment, the height estimation unit 147 determines the most human-like movement trajectory based on the number of movement trajectories created, but is not limited thereto, and the number of movement trajectories created continuously, The most human-like movement locus may be determined based on the shape of the created movement locus.
表示部150は、各種情報を表示するものであり、例えば、ディスプレイなどにより実現できる。表示部150は、身長推定部147により推定された身長を表示する。なお表示部150は、身長推定部147により推定された身長とともに作成された軌跡を表示するようにしてもよい。更に表示部150は、仮定身長毎に身長推定部147により作成された軌跡を表示するようにしてもよい。 The display unit 150 displays various types of information, and can be realized by, for example, a display. The display unit 150 displays the height estimated by the height estimation unit 147. The display unit 150 may display a trajectory created together with the height estimated by the height estimation unit 147. Further, the display unit 150 may display the trajectory created by the height estimation unit 147 for each assumed height.
次に、第1実施形態の身長推定装置の動作について説明する。 Next, the operation of the height estimation device of the first embodiment will be described.
図10は、第1実施形態の身長推定装置100で行われる身長推定処理の手順の流れの一例を示すフローチャートである。
FIG. 10 is a flowchart illustrating an example of a flow of a height estimation process performed by the
まず、入力部110は、複数の仮定身長、撮像パラメータ、及び基準データを入力する(ステップS100)。 First, the input unit 110 inputs a plurality of assumed heights, imaging parameters, and reference data (step S100).
続いて、撮像部130は、対象人物を含む画像を時系列で撮像する(ステップS102)。
Subsequently, the
続いて、頭部検出部141は、撮像部130により時系列で撮像された画像それぞれから対象人物の頭部を検出する(ステップS104)。撮像された画像それぞれから対象人物の頭部を検出できなかった場合(ステップS104でNo)、再度、頭部検出を行う(ステップS104)。 Subsequently, the head detection unit 141 detects the head of the target person from each of the images captured in time series by the imaging unit 130 (step S104). When the head of the target person cannot be detected from each of the captured images (No in step S104), head detection is performed again (step S104).
撮像された画像それぞれから対象人物の頭部を検出できた場合(ステップS104でYes)、足元位置推定部143は、頭部検出部141により検出された頭部を用いて、撮像部130により時系列で撮像された画像それぞれから対象人物の足元位置を仮定身長毎に推定する(ステップS106)。 When the head of the target person can be detected from each of the captured images (Yes in step S104), the foot position estimation unit 143 uses the head detected by the head detection unit 141 to detect the time. The foot position of the target person is estimated for each assumed height from each of the images captured in the series (step S106).
続いて、実空間位置推定部145は、足元位置推定部143により推定された足元位置を用いて、対象人物の実空間上の位置を仮定身長毎に時系列で推定する(ステップS108)。そして実空間位置推定部145は、記憶部120に時系列で仮定身長毎に実空間上の位置を記憶する(ステップS110)。 Subsequently, the real space position estimation unit 145 estimates the position of the target person in the real space in time series for each assumed height using the foot position estimated by the foot position estimation unit 143 (step S108). Then, the real space position estimation unit 145 stores the position in the real space in the storage unit 120 for each assumed height in time series (step S110).
続いて、身長推定部147は、仮定身長毎に、実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、基準を超える移動軌跡が作成されたか否かを確認する(ステップS112)。基準を超える移動軌跡が作成された場合(ステップS112でYes)、当該移動軌跡を最も人間らしい移動軌跡とし、当該移動軌跡が作成された仮定身長を対象人物の身長に推定する(ステップS114)。一方、基準を超える移動軌跡が作成されなかった場合(ステップS112でNo)、ステップS104へ戻る。 Subsequently, the height estimation unit 147 creates a human-like movement trajectory for each assumed height using a time-series position in the real space, and confirms whether or not a movement trajectory exceeding the reference has been created (step S112). . When a movement trajectory exceeding the reference is created (Yes in step S112), the movement trajectory is regarded as the most human-like movement trajectory, and the assumed height from which the movement trajectory is created is estimated as the height of the target person (step S114). On the other hand, when the movement locus exceeding the reference is not created (No in step S112), the process returns to step S104.
図11は、第1実施形態の身長推定装置100の身長推定部147で行われる処理の手順の流れの一例を示すフローチャートである。
FIG. 11 is a flowchart illustrating an example of a flow of processes performed by the height estimation unit 147 of the
身長推定部147は、全ての仮定身長を確認すると処理を終了する(ステップS120でYes)。身長推定部147は、全ての仮定身長を確認していない場合(ステップS120でNo)、未確認の仮定身長を取得し、仮定身長Haとする(ステップS122)。 If all the assumed heights are confirmed, the height estimation unit 147 ends the process (Yes in step S120). Height estimating unit 147, if not sure all assumed height (No at step S120), obtains the unconfirmed assumption height, and assumes height H a (step S122).
続いて、身長推定部147は、仮定身長Haについて、直近Fフレーム中の隣接フレームを全て処理していない場合(ステップS124でNo)、未処理の隣接フレームを取得し、フレームFi、Fjとする(ステップS126)。なお、仮定身長Haについて、直近Fフレーム中の隣接フレームを全て処理している場合(ステップS124でYes)、ステップS120へ戻る。 Subsequently, when the height estimation unit 147 has not processed all adjacent frames in the latest F frame for the assumed height H a (No in step S124), the unestimated adjacent frame is acquired and the frames F i , F j (step S126). Note that the assumption height H a, if it is processing all of the adjacent frames in the last F frames (Yes in step S124), the flow returns to step S120.
続いて、身長推定部147は、フレームFi、Fjの時間Δtを計算し、対象人物がフレームFi、Fj間で移動可能な範囲Rを計算する(ステップS128)。 Subsequently, height estimating section 147 calculates the time Δt of the frame F i, F j, the target person is the frame F i, to calculate the movable range R between F j (step S128).
続いて、身長推定部147は、フレームFi、Fjで推定された実空間上の位置の距離が範囲R以下であるか否かを確認する(ステップS130)。 Subsequently, the height estimation unit 147 confirms whether the distance between the positions in the real space estimated by the frames F i and F j is equal to or less than the range R (step S130).
フレームFi、Fjで推定された実空間上の位置の距離が範囲R以下である場合(ステップS130でYes)、身長推定部147は、フレームFi、Fjで推定された実空間上の位置を紐付け、両位置を結ぶ移動軌跡を作成する(ステップS132)。なお、フレームFi、Fjで推定された実空間上の位置の距離が範囲R以下でない場合(ステップS130でNo)、ステップS124へ戻る。 When the distance between the positions in the real space estimated in the frames F i and F j is equal to or smaller than the range R (Yes in step S130), the height estimation unit 147 determines the distance in the real space estimated in the frames F i and F j. Are linked, and a movement trajectory connecting the two positions is created (step S132). If the distance between the positions in the real space estimated by the frames F i and F j is not equal to or less than the range R (No in step S130), the process returns to step S124.
続いて、身長推定部147は、N(0<N<F)フレーム以上連結した場合、即ち、N以上の移動軌跡を作成した場合(ステップS134でYes)、仮定身長Haを対象人物の身長に推定し、作成した移動軌跡とともに出力する(ステップS136)。そして、ステップS124へ戻る。なお、N(0<N<F)フレーム以上連結しなかった場合も(ステップS134でNo)、ステップS124へ戻る。 Subsequently, height estimation unit 147, when linked N (0 <N <F) or more frames, i.e., when you create a more movement trajectory N (in step S134 Yes), the target person assumptions height H a height And output together with the created movement trajectory (step S136). Then, the process returns to step S124. Note that if N (0 <N <F) frames or more are not connected (No in step S134), the process returns to step S124.
以上のように第1実施形態によれば、人物の頭部さえ撮像されていれば、当該人物の足元を推定することにより、身長を推定できるので、画像上で人物の足元位置が隠蔽されていても当該人物の身長を推定することができる。特に、足元は、影や鏡面反射など誤検知の要因となり易いので、足元を検知せずに身長を推定することにより、当該人物の身長を精度よく推定することができる。 As described above, according to the first embodiment, as long as a person's head is imaged, the height of the person can be estimated by estimating the person's foot, so the position of the person's foot is hidden on the image. However, the height of the person can be estimated. In particular, since the feet are likely to cause erroneous detection such as shadows and specular reflections, the height of the person can be accurately estimated by estimating the height without detecting the feet.
(第2実施形態)
第2実施形態では、推定した身長を用いて対象人物を追跡する例について説明する。なお以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
(Second Embodiment)
In the second embodiment, an example in which the target person is tracked using the estimated height will be described. In the following, differences from the first embodiment will be mainly described, and components having the same functions as those in the first embodiment will be given the same names and symbols as those in the first embodiment, and description thereof will be given. Is omitted.
図12は、第2実施形態の身長推定装置200の構成の一例を示すブロック図である。第2実施形態の身長推定装置200では、足元位置推定部243及び実空間位置推定部245が第1実施形態と相違し、追跡部249を更に備える。
FIG. 12 is a block diagram illustrating an example of a configuration of the
足元位置推定部243は、身長推定部147により対象人物の身長が推定された後に撮像部130により撮像された画像から、対象人物の足元位置を身長推定部147により推定された身長である推定身長を用いて推定する。
The foot position estimation unit 243 estimates the height of the target person whose height is estimated by the height estimation unit 147 from the image captured by the
実空間位置推定部245は、足元位置推定部243により推定された足元位置を用いて、推定身長の対象人物の実空間上の位置を推定する。
The real space
追跡部249は、実空間位置推定部245により推定された推定身長の対象人物の実空間上の位置を追跡する。
The
図13は、第2実施形態の身長推定装置200で行われる追跡処理の手順の流れの一例を示すフローチャートである。
FIG. 13 is a flowchart illustrating an example of a flow of a tracking process performed by the
まず、撮像部130は、対象人物を含む画像を撮像する(ステップS200)。
First, the
続いて、頭部検出部141は、撮像部130により撮像された画像から対象人物の頭部を検出する(ステップS202)。撮像された画像から対象人物の頭部を検出できなかった場合(ステップS202でNo)、ステップS200へ戻る。 Subsequently, the head detection unit 141 detects the head of the target person from the image captured by the imaging unit 130 (step S202). When the head of the target person cannot be detected from the captured image (No in step S202), the process returns to step S200.
撮像された画像から対象人物の頭部を検出できた場合(ステップS202でYes)、足元位置推定部243は、頭部検出部141により検出された頭部及び身長推定部147により推定された推定身長を用いて、撮像部130により撮像された画像から対象人物の足元位置を推定する(ステップS204)。 When the head of the target person can be detected from the captured image (Yes in step S202), the foot position estimation unit 243 estimates the head detected by the head detection unit 141 and the height estimation unit 147. Using the height, the foot position of the target person is estimated from the image captured by the imaging unit 130 (step S204).
続いて、実空間位置推定部245は、足元位置推定部243により推定された足元位置を用いて、推定身長の対象人物の実空間上の位置を推定する(ステップS206)。
Subsequently, the real space
続いて、追跡部249は、新たな追跡情報を作成した場合には(ステップS208でYes)、追跡情報を更新する(ステップS210)。これにより、追跡部249は、推定身長の対象人物の実空間上の位置を追跡する。そして、ステップS200へ戻る。一方、新たな追跡情報が作成されなかった場合も(ステップS208でNo)、ステップS200へ戻る。
Subsequently, when the
ここで、追跡情報の更新について説明する。 Here, the update of the tracking information will be described.
まず、追跡部249は、実空間位置推定部245により推定身長の対象人物の実空間上の位置が推定されると、距離閾値Dtに初期値Dt0を設定する。なお、初期値Dt0は100[m]など十分に大きな値が好ましい。
First, when the real space
続いて、追跡部249は、記憶部120に記憶されている追跡情報から、推定身長の対象人物の前回の実空間上の位置Piとその取得時刻Tiを取得する。そして、追跡部249は、位置PiとステップS206で実空間位置推定部245により推定された推定身長の対象人物の最新の実空間上の位置Pとを用いて、両位置の距離Diを計算する(Di=P−Pi)。更に、追跡部249は、人間の平均歩行速度V、時刻Ti、及び対象人物の最新の実空間上の位置Pの取得時刻Tを用いて、推定身長の対象人物の時刻T−時刻Ti間に移動可能な範囲Rを計算する(R=V×(T−Ti))。
Subsequently, the
続いて、追跡部249は、距離Diが範囲R以下かつ距離閾値Dt以下である場合、位置P及び時刻Tを新たな追跡情報として記憶部120に記憶し、追跡情報を更新する。この際、追跡部249は、位置Piと位置Pとを紐付け、両位置を結ぶ移動軌跡を作成する。また追跡部249は、距離閾値Dtに距離Diを設定し、次回の追跡情報の更新時に用いる。
Subsequently, when the distance D i is not more than the range R and not more than the distance threshold value D t , the
但し、上述の手法で追跡情報を更新すると、光や影などによるノイズによって、推定された実空間上の位置に誤差が生じ、追跡が失敗してしまうおそれがある。このため、移動速度の移動平均を用いて追跡情報を更新するようにしてもよい。これにより、ノイズによって突発的に発生する誤差を抑制することができる。 However, if the tracking information is updated by the above-described method, an error occurs in the estimated position in the real space due to noise due to light or shadow, and the tracking may fail. For this reason, you may make it update tracking information using the moving average of a moving speed. Thereby, the error which generate | occur | produces suddenly by noise can be suppressed.
この場合、まず、追跡部249は、実空間位置推定部245により推定身長の対象人物の実空間上の位置が推定されると、分散閾値Vtに初期値Vt0を設定する。なお、初期値Vt0は100[m/s]など十分に大きな値が好ましい。
In this case, first, when the real space
続いて、追跡部249は、記憶部120に記憶されている追跡情報から、推定身長の対象人物の直近nフレーム分の実空間上の位置Pi_1〜Pi_nとその取得時刻Ti_1〜Ti−nを取得する。なお、時系列は、i_n、i_n−1、…i_1の順番であるものとする。
Subsequently, the
続いて、追跡部249は、隣接する位置間の移動速度Vi_1〜Vi_nを計算する。例えば、Vi_1は、Vi_1=D(P,Pi_1)/(T−Ti_1)で表され、Vi_nは、Vi_n=D(Pi_n−1,Pi_n)/(Ti_n−1−Ti_n)で表される。なお、D(x,y)は、位置xと位置y間の距離を求める関数である。
Subsequently, the
続いて、追跡部249は、移動速度Vi_1〜Vi_nから移動平均Miと分散Viとを計算する。
Subsequently, the
続いて、追跡部249は、移動平均Miが人らしい移動速度の上限値Th以下かつ分散Viが分散閾値Vt以下である場合、位置P及び時刻Tを新たな追跡情報として記憶部120に記憶し、追跡情報を更新する。この際、追跡部249は、位置Pi_1と位置Pとを紐付け、両位置を結ぶ移動軌跡を作成する。また追跡部249は、分散閾値Vtに分散Viを設定し、次回の追跡情報の更新時に用いる。
Subsequently, the
ここで、位置を紐付けるために、分散Viと分散閾値Vtとを比較しているのは、人は、急に止まれないため、移動速度の分散が小さい移動の方が人らしい移動と判断できるためである。 Here, in order to link the positions, the variance V i is compared with the variance threshold value V t because a person cannot stop suddenly. This is because it can be judged.
以上のように、第2実施形態によれば、影や鏡面反射など誤検知の要因となり易い足元を考慮せずに人物を追跡することができるため、精度よく追跡することができる。 As described above, according to the second embodiment, since a person can be tracked without considering a step that is likely to cause a false detection such as a shadow or a specular reflection, the person can be accurately tracked.
(変形例)
なお、本発明は、上記実施形態に限定されるものではなく、種々の変形が可能である。
(Modification)
In addition, this invention is not limited to the said embodiment, A various deformation | transformation is possible.
(変形例1)
例えば、対象人物を追跡中に対象人物がしゃがんでしまうと、対象人物の頭部の高さが変化してしまうため、対象人物の実空間上の正しい位置を推定できなくなってしまう。このため第2実施形態において、対象人物の追跡時にしゃがみ込み判定を行うようにしてもよい。
(Modification 1)
For example, if the target person crouches while tracking the target person, the height of the target person's head changes, and the correct position of the target person in real space cannot be estimated. For this reason, in the second embodiment, the squatting determination may be performed when tracking the target person.
対象人物がしゃがみ込む場合、実空間上の同一位置にいる対象人物の身長が徐々に低くなるという現象が生じる。このため、追跡部249は、この現象を認識することで、対象人物がしゃがみ込んだのか、身長が低い別の人物が現れたのかを判定すればよい。
When the target person crouches, a phenomenon occurs in which the height of the target person at the same position in the real space gradually decreases. Therefore, the
図14は、変形例1の身長推定装置200で行われるしゃがみ込み判定処理の手順の流れの一例を示すフローチャートである。
FIG. 14 is a flowchart illustrating an example of a flow of a squatting determination process performed by the
まず、撮像部130は、対象人物を含む画像を撮像する(ステップS300)。
First, the
続いて、追跡部249は、対象人物の実空間上の位置を追跡する(ステップS302)。そして、追跡部249が新規の人物を検知した場合(ステップS304でYes)、実空間位置推定部245は、新規の人物の実空間上の位置Pc(Xc,Yc)および身長Hcを推定する(ステップS306)。
Subsequently, the
続いて、追跡部249は、対象人物の追跡情報から、対象人物の身長Hiと位置Pi(Xi,Yi)を参照し(ステップS308)、位置Pcと位置Piとが一定範囲内に存在するか否かを確認する(ステップS310)。
Subsequently, the
そして、追跡部249は、位置Pcと位置Piとが一定範囲内に存在する場合(ステップS310でYes)、しゃがみ込み判定用の情報として、追跡番号i、位置Pcの取得時刻Tc、身長Hcを記憶部120に記憶し(ステップS312)、処理を終了する。
Then, when the position P c and the position P i are within a certain range (Yes in step S310), the
一方、位置Pcと位置Piとが一定範囲内に存在せず(ステップS310でNo)、しゃがみ込み判定用の情報が記憶部120に記憶されており(ステップS314でYes)、しゃがみ込み判定用の情報が同一の追跡番号で所定数ある場合(ステップS316でYes)、追跡部249は、時刻Tcの時間経過に伴い、身長HcがΔHの範囲内で低くなっているか否か判定する(ステップS318)。そして追跡部249は、身長HcがΔHの範囲内で低くなっている場合(ステップS320でYes)、しゃがみ込みありと判定する(ステップS322)。
On the other hand, it does not exist within a predetermined a position P c and the position P i in the range (No at step S310), information for determining narrowing squatting is stored in the storage unit 120 (Yes at step S314), determination narrowing squatting If the information for use is a predetermined number of the same tracking number (Yes at step S316), the
なお、ステップS304で新規の人物を検知しなかった場合(ステップS304でNo)、ステップS314でしゃがみ込み判定用の情報が記憶部120に記憶されていない場合(ステップS314でNo)、ステップS316でしゃがみ込み判定用の情報が同一の追跡番号で所定数ない場合(ステップS316でNo)、及びステップS320で身長HcがΔHの範囲内で低くなっていない場合(ステップS320でNo)、追跡部249は、しゃがみ込みなしと判定する(ステップS324)。
If no new person is detected in step S304 (No in step S304), or if information for squatting determination is not stored in the storage unit 120 in step S314 (No in step S314), in step S316. If information for determining narrowing squatting is not a predetermined number in the same tracking number (no at step S316), and if the height H c is not lower in the range of ΔH in step S320 (no at step S320), the
(変形例2)
上記変形例1のしゃがみ込み判定手法は、撮像部130と対象人物の足元との間に遮蔽物がなく、画像上の足元位置から実空間上の人物位置を推定できることが前提である。変形例2では、このような前提を用いることなく、対象人物のしゃがみ込み判定を行う例について説明する。
(Modification 2)
The squatting determination method of Modification 1 is based on the premise that there is no obstacle between the
図15は、変形例2の身長推定装置200で行われるしゃがみ込み判定処理の手順の流れの一例を示すフローチャートである。
FIG. 15 is a flowchart illustrating an example of a flow of a squatting determination process performed by the
まず、撮像部130は、対象人物を含む画像を撮像する(ステップS400)。
First, the
続いて、追跡部249は、対象人物の実空間上の位置を追跡する(ステップS402)。そして、追跡部249が新規の人物を検知し(ステップS404でYes)、所定時間内に対象人物が消失した追跡情報が記憶部120に記憶されている場合(ステップS406でYes)、追跡部249は、追跡情報から消失した人物(対象人物)の身長Haと移動軌跡Qa{Pa1,…,PaN}を参照するとともに(ステップS408)、新規の人物の身長Hbと移動軌跡Qb{Pb1,…,PbM}を参照する(ステップS410)。
Subsequently, the
続いて、追跡部249は、身長Haが身長Hbよりも大きい場合(ステップS412でYes)、移動軌跡Qaと移動軌跡Qbとから連続性を判定し(ステップS414)、連続性がある場合(ステップS416でYes)、しゃがみ込みありと判定する(ステップS418)。
Subsequently, when the height H a is larger than the height H b (Yes in Step S412), the
ここで、連続性の判断については、前述した移動範囲や移動速度による判定方法を用いればよい。例えば、移動範囲を用いて判定する場合、追跡部249は、移動軌跡Qaのうち消失する直前の位置Pa1と、移動軌跡Qbのうち最初に検出された位置PbMとが、人らしい移動範囲内に入るか否かを判定すればよい。また例えば、移動速度を用いて判定する場合、追跡部249は、消失する直前のK個の位置Qa’{Pa1,…,PaK}(K<N)と検出された直後の位置Qb’{PM−L+1,…,PbM}(L<M)から連続性を判定すればよい。
Here, for the determination of continuity, the determination method based on the movement range and movement speed described above may be used. For example, when determining using the movement range, the
一方、ステップS404で新規の人物を検知しなかった場合(ステップS404でNo)、ステップS406で所定時間内に対象人物が消失した追跡情報が記憶部120に記憶されていない場合(ステップS406でNo)、ステップS412で身長Haが身長Hbよりも小さい場合(ステップS412でNo)、及びステップS416で連続性がない場合(ステップS416でNo)、追跡部249は、しゃがみ込みなしと判定する(ステップS420)。
On the other hand, when no new person is detected in step S404 (No in step S404), tracking information in which the target person disappears within a predetermined time is not stored in the storage unit 120 in step S406 (No in step S406). ), if the height H a is smaller than the height H b at step S412 (no at step S412), and if there is no continuity in step S416 (no at step S416), the
(変形例3)
上記実施形態では、身長推定部147は、所定数以上の移動軌跡が作成された仮定身長が複数存在する場合、当該複数の仮定身長、及び当該複数の仮定身長それぞれの移動軌跡数を用いて、対象人物の身長を推定したが、当該複数の仮定身長それぞれの移動速度の分散を用いて、対象人物の身長を推定するようにしてもよい。
(Modification 3)
In the above embodiment, when there are a plurality of assumed heights where a predetermined number or more of movement trajectories are created, the height estimation unit 147 uses the plurality of assumed heights and the number of movement trajectories of each of the plurality of assumed heights. Although the height of the target person is estimated, the height of the target person may be estimated using the variance of the moving speed of each of the plurality of assumed heights.
この場合、身長推定部147は、仮定身長Haから算出した移動軌跡Qa{Pa1(Xa1,Ya1),…,Pai,…,PaN}を求める。ここで、位置Pai(i=1,…,N)が推定されたときの時刻をTaiとし、i=1のとき、最新のデータが入力されるものとする。そして身長推定部147は、求めた移動軌跡Qaから移動速度の分散値Vaを求める(数式(7)参照)。ここで、数式(7)の変数は、数式(9)及び数式(11)に示すとおりである。 In this case, the height estimation unit 147 obtains the movement locus Q a {P a1 (X a1 , Y a1 ),..., P ai ,..., P aN } calculated from the assumed height H a . Here, T ai is the time when the position P ai (i = 1,..., N) is estimated, and the latest data is input when i = 1. Then, the height estimation unit 147 obtains a variance value V a of the movement speed from the obtained movement locus Q a (see Expression (7)). Here, the variables of Equation (7) are as shown in Equation (9) and Equation (11).
同様に、身長推定部147は、仮定身長Hbから算出した移動軌跡Qb{Pb1(Xb1,Yb1),…,Pbi,…,PbM}を求める。ここで、位置Pbi(i=1,…,M)が推定されたときの時刻をTbiとし、i=1のとき、最新のデータが入力されるものとする。そして身長推定部147は、求めた移動軌跡Qbから移動速度の分散値Vbを求める(数式(8)参照)。ここで、数式(8)の変数は、数式(10)及び数式(12)に示すとおりである。 Similarly, the height estimation unit 147 obtains a movement locus Q b {P b1 (X b1 , Y b1 ),..., P bi ,..., P bM } calculated from the assumed height H b . Here, it is assumed that the time when the position P bi (i = 1,..., M) is estimated is T bi, and the latest data is input when i = 1. The height estimating section 147 obtains the variance value V b of the moving speed from the movement locus Q b determined (see Equation (8)). Here, the variables of Equation (8) are as shown in Equation (10) and Equation (12).
そして、身長推定部147は、数式(13)を用いて、対象人物の身長を推定する。 Then, the height estimation unit 147 estimates the height of the target person using Equation (13).
(変形例4)
上記第2実施形態では、推定身長を用いて対象人物を追跡したが、追跡中に対象人物の足元を確実に撮像できた場合には、当該足元から推定した身長に置き換えて対象人物を追跡するようにしてもよい。
(Modification 4)
In the second embodiment, the target person is tracked using the estimated height. However, if the target person's feet can be reliably imaged during tracking, the target person is tracked by replacing the height estimated from the step. You may do it.
(変形例5)
上記各実施形態及び各変形例の身長推定装置を、例えば、強盗の身長推定及び追跡に使用する場合、推定身長や移動軌跡に加え、他の特徴(人相や服装)を出力するようにしてもよい。また、上記各実施形態及び各変形例の身長推定装置は、棚などで人物の足元が見えないことが多い小売店舗や人ごみなどの場所において用いると好適であり、マーケティングや人流解析などへの応用が期待できる。
(Modification 5)
For example, when the height estimation device of each embodiment and each modification is used for height estimation and tracking of a robber, in addition to the estimated height and movement trajectory, other characteristics (human phase and clothes) are output. Also good. Further, the height estimation device of each of the above embodiments and modifications is preferably used in places such as retail stores and crowds where a person's feet are often not visible on a shelf or the like, and is applied to marketing, human flow analysis, etc. Can be expected.
(ハードウェア構成)
上記各実施形態及び各変形例の身長推定装置は、CPU(Central Processing Unit)などの制御装置と、ROMやRAMなどの記憶装置と、HDDやSSDなどの外部記憶装置と、ディスプレイなどの表示装置と、マウスやキーボードなどの入力装置と、通信I/Fなどの通信装置とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
(Hardware configuration)
The height estimation device according to each of the above embodiments and modifications includes a control device such as a CPU (Central Processing Unit), a storage device such as a ROM and a RAM, an external storage device such as an HDD and an SSD, and a display device such as a display. And an input device such as a mouse and a keyboard and a communication device such as a communication I / F, and has a hardware configuration using a normal computer.
上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。 The height estimation program executed by the height estimation device of each of the above embodiments and modifications is a file in an installable format or an executable format, and is a CD-ROM, CD-R, memory card, DVD, flexible disk (FD). And the like stored in a computer-readable storage medium.
また、上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムを、ROM等に予め組み込んで提供するようにしてもよい。 Further, the height estimation program executed by the height estimation device of each of the above embodiments and modifications may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Good. Further, the height estimation program executed by the height estimation device of each of the above embodiments and modifications may be provided or distributed via a network such as the Internet. Further, a height estimation program executed by the height estimation device of each of the above embodiments and modifications may be provided by being incorporated in advance in a ROM or the like.
上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、CPUがHDDからプログラムをRAM上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。 The height estimation program executed by the height estimation device according to each of the embodiments and the modifications has a module configuration for realizing the above-described units on a computer. As actual hardware, for example, the CPU reads out a program from the HDD to the RAM and executes it, so that the above-described units are realized on the computer.
100、200 身長推定装置
110 入力部
120 記憶部
130 撮像部
140 制御部
141 頭部検出部
143、243 足元位置推定部
145、245 実空間位置推定部
147 身長推定部
249 追跡部
150 表示部
100, 200 Height estimation device 110 Input unit 120
Claims (8)
時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出部と、
検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定部と、
推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定部と、
前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定部と、
を備えることを特徴とする身長推定装置。 An imaging unit that captures images including the target person in time series;
A head detection unit that detects the head of the target person from each of the images captured in time series;
Using the detected head, a foot position estimation unit that estimates the foot position of the target person for each assumed height from each of the images captured in time series,
Using the estimated foot position, a real space position estimation unit that estimates the position of the target person in real space in time series for each assumed height;
A height estimation unit that creates a human-like movement trajectory using the estimated time-series position in the real space for each assumed height, and estimates the assumed height from which the most human-like movement trajectory was created to the height of the target person When,
A height estimation apparatus comprising:
前記実空間位置推定部は、推定された前記足元位置を用いて、前記推定身長の前記対象人物の実空間上の位置を推定し、
推定された前記推定身長の前記対象人物の実空間上の位置を追跡する追跡部を更に備えることを特徴とする請求項1〜4のいずれか1つに記載の身長推定装置。 The foot position estimation unit estimates the foot position of the target person from an image captured after the height of the target person is estimated using an estimated height that is the height estimated by the height estimation unit,
The real space position estimating unit estimates the position of the target person in real space of the estimated height using the estimated foot position,
The height estimation apparatus according to claim 1, further comprising a tracking unit that tracks a position of the estimated height of the target person in real space.
頭部検出部が、時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出ステップと、
足元位置推定部が、検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定ステップと、
実空間位置推定部が、推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定ステップと、
身長推定部が、前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定ステップと、
を含むことを特徴とする身長推定方法。 An imaging step in which the imaging unit captures an image including the target person in time series; and
A head detection step in which a head detection unit detects the head of the target person from each of the images captured in time series;
A foot position estimation unit that estimates the foot position of the target person for each assumed height from each of the images captured in time series using the detected head; and
A real space position estimation unit that estimates the position of the target person in real space in time series for each assumed height using the estimated foot position;
The height estimation unit creates a human-like movement trajectory using the estimated time-series position in the real space for each assumed height, and the assumed height from which the most human-like movement trajectory was created is used as the height of the target person. A height estimation step to estimate;
A height estimation method characterized by comprising:
時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出ステップと、
検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定ステップと、
推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定ステップと、
前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定ステップと、
をコンピュータに実行させるための身長推定プログラム。 An imaging step of imaging an image including the target person in time series;
A head detection step of detecting the head of the target person from each of the images captured in time series;
Using the detected head, a foot position estimation step for estimating the foot position of the target person for each assumed height from each of the images captured in time series,
Using the estimated foot position, a real space position estimating step for estimating the position of the target person in real space in time series for each assumed height;
For each assumed height, a human-like movement trajectory is created using the estimated time-series position in the real space, and a height estimation step is performed to estimate the assumed height from which the most human-like movement trajectory was created to the height of the target person. When,
Height estimation program to make the computer execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011170549A JP5756709B2 (en) | 2011-08-03 | 2011-08-03 | Height estimation device, height estimation method, and height estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011170549A JP5756709B2 (en) | 2011-08-03 | 2011-08-03 | Height estimation device, height estimation method, and height estimation program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013037406A JP2013037406A (en) | 2013-02-21 |
JP2013037406A5 JP2013037406A5 (en) | 2014-09-18 |
JP5756709B2 true JP5756709B2 (en) | 2015-07-29 |
Family
ID=47886995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011170549A Active JP5756709B2 (en) | 2011-08-03 | 2011-08-03 | Height estimation device, height estimation method, and height estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5756709B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6276519B2 (en) * | 2013-05-22 | 2018-02-07 | 株式会社 日立産業制御ソリューションズ | Person counting device and human flow line analyzing device |
JP6331270B2 (en) * | 2013-06-06 | 2018-05-30 | 日本電気株式会社 | Information processing system, information processing method, and program |
EP3154024B1 (en) * | 2014-06-03 | 2023-08-09 | Sumitomo Heavy Industries, Ltd. | Human detection system for construction machine |
JP6428144B2 (en) | 2014-10-17 | 2018-11-28 | オムロン株式会社 | Area information estimation device, area information estimation method, and air conditioner |
JP6969611B2 (en) * | 2017-09-27 | 2021-11-24 | 日本電気株式会社 | Information processing systems, control methods, and programs |
JP2020008929A (en) * | 2018-07-03 | 2020-01-16 | 富士ゼロックス株式会社 | Height calculation system, information processing apparatus, and program |
US12067735B2 (en) | 2019-03-19 | 2024-08-20 | Nec Corporation | Information processing device, estimation method, and nontransitory computer readable medium for estimating a position of a target |
CN110992397B (en) * | 2019-10-21 | 2023-07-21 | 浙江大华技术股份有限公司 | Personnel access track tracking method, system, computer equipment and storage medium |
JP7286586B2 (en) * | 2020-05-14 | 2023-06-05 | 株式会社日立エルジーデータストレージ | Ranging system and ranging sensor calibration method |
JPWO2024023893A1 (en) * | 2022-07-25 | 2024-02-01 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001056853A (en) * | 1999-08-19 | 2001-02-27 | Matsushita Electric Ind Co Ltd | Behavior detecting device and kind discriminating device, behavior detecting method, and recording medium where behavior detecting program is recorded |
JP5147761B2 (en) * | 2009-03-02 | 2013-02-20 | セコム株式会社 | Image monitoring device |
-
2011
- 2011-08-03 JP JP2011170549A patent/JP5756709B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013037406A (en) | 2013-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5756709B2 (en) | Height estimation device, height estimation method, and height estimation program | |
JP4367475B2 (en) | Moving object recognition apparatus, moving object recognition method, and computer program | |
EP2858008B1 (en) | Target detecting method and system | |
JP4919036B2 (en) | Moving object recognition device | |
JP6554169B2 (en) | Object recognition device and object recognition system | |
US8005266B2 (en) | Vehicle surroundings monitoring apparatus | |
US8126210B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
US9105104B2 (en) | Image processing apparatus,image processing method, and program | |
WO2015125298A1 (en) | Local location computation device and local location computation method | |
JP5710752B2 (en) | Detection apparatus, method and program | |
JP5754470B2 (en) | Road surface shape estimation device | |
JP5567899B2 (en) | Flow line creating apparatus and flow line creating method | |
JP2007249309A (en) | Obstacle tracking system and method | |
JP2011065338A (en) | Object tracking device and program | |
JP2008176504A (en) | Object detector and method therefor | |
WO2018139461A1 (en) | Moving object detection device, moving object detection method and storage medium | |
JP6188592B2 (en) | Object detection apparatus, object detection method, and object detection program | |
JP5048609B2 (en) | Object tracking device and program | |
JP6962365B2 (en) | Object detection system and program | |
US9836655B2 (en) | Information processing apparatus, information processing method, and computer-readable medium | |
JP6336935B2 (en) | Moving object tracking device | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
JP7391907B2 (en) | Anomaly detection device, anomaly detection method, and anomaly detection program | |
JP4151631B2 (en) | Object detection device | |
JP2019207607A (en) | Moving body tracking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140804 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5756709 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |