JP6977730B2 - 人流推定装置、人流推定方法およびプログラム - Google Patents
人流推定装置、人流推定方法およびプログラム Download PDFInfo
- Publication number
- JP6977730B2 JP6977730B2 JP2018539703A JP2018539703A JP6977730B2 JP 6977730 B2 JP6977730 B2 JP 6977730B2 JP 2018539703 A JP2018539703 A JP 2018539703A JP 2018539703 A JP2018539703 A JP 2018539703A JP 6977730 B2 JP6977730 B2 JP 6977730B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- particles
- people
- state
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 84
- 239000002245 particle Substances 0.000 claims description 534
- 238000012937 correction Methods 0.000 claims description 88
- 230000008569 process Effects 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 description 49
- 239000013598 vector Substances 0.000 description 34
- 238000010586 diagram Methods 0.000 description 29
- 238000011156 evaluation Methods 0.000 description 12
- 238000012952 Resampling Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000000047 product Substances 0.000 description 5
- 239000006185 dispersion Substances 0.000 description 3
- 230000009192 sprinting Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Description
実施形態1.
図1は、本発明の第1の実施形態の人流推定装置の構成例を示すブロック図である。第1の実施形態の人流推定装置は、画像取得装置1と、プログラム制御により動作するデータ処理装置2と、情報を記憶する記憶装置3とを備える。画像取得装置1は、カメラ等の撮像装置の出力や、ビデオ機器等の映像装置の出力から画像を取得する。
(例1)
観測値を、画像上の人の位置とする。ここでは、より具体的に、観測値を、画像上の人の頭部位置とする。この場合、大略人位置決定手段22は、画像上の人の頭部のおおよその位置を決定する。その人の頭部のおおよその位置に、観測値(画像上の頭部位置)が近付く程、その観測値は“人らしい”(人であることが確からしい)と想定される。例えば、画像上の人の頭部位置が観測値である場合、観測モデル生成手段24は、以下の式(1)で表される観測モデルを生成することができる。なお、観測値は、粒子の状態に基づいて求められる。
(例2)
観測値を、画像上の人のサイズとする。ここでは、より具体的に、観測値を、画像上の人の頭部サイズとする。また、頭部サイズは、頭部の縦サイズであるものとする。この場合、大略人位置決定手段22は、画像上の人の頭部のおおよその位置を決定する。そのおおよその位置と、画像を撮像する撮像装置のカメラパラメータ(撮像装置の焦点距離、レンズ歪み、位置、姿勢等を表すパラメータ)と、人の実身長とに基づいて得られる頭部サイズに、観測値(粒子の状態に基づいて算出される画像上の頭部サイズ)が近い程、その観測値は人らしいと想定される。例えば、画像上の人の頭部サイズが観測値である場合、観測モデル生成手段24は、以下の式(2)で表される観測モデルを生成することができる。なお、人の実身長として、予め定められた定数を用いてもよい。また、粒子の状態に人の身長も含まれているならば、その身長を、人の実身長として用いてもよい。
(例3)
観測値を、画像上の人の移動速度とする。ここでは、より具体的に、観測値を、画像上の人の頭部の動きベクトルとする。この場合、大略人位置決定手段22は、画像上の人の頭部のおおよその位置を決定する。そして、観測モデル生成手段24は、そのおおよその位置の周辺の動きベクトルから、動きベクトルの平均を求める。観測モデル生成手段24は、頭部のおおよその位置の周辺の動きベクトル(すなわち、動きベクトルの平均を求める元になる動きベクトル)を、動き情報取得手段23が算出した動きベクトルと、頭部のおおよその位置とに基づいて求めればよい。動きベクトルの平均に、観測値(粒子の状態に基づいて算出される画像上の頭部の動きベクトル)が近い程、その観測値はより人らしいと想定される。例えば、観測値が画像上の人の頭部の動きベクトルである場合、観測モデル生成手段24は、以下の式(3)で表される観測モデルを生成することができる。
(例4)
観測値を、画像上の人の移動速度とする。ここでは、より具体的に、観測値を、画像上の頭部の動きベクトルが示す方向および速さとする。この方向(移動方向)および速さは、2次元特徴と称することができる。この場合、観測された人に対応する部分領域内の動きベクトルが示す方向および粒子の速さに、観測値(粒子の状態から求まる動きベクトルが示す方向および速さ)が近いほど、その観測値は人らしいと想定される。この場合、観測モデル生成手段24は、観測された人に対応する部分領域内の動きベクトルが示す方向および粒子の速さを用いて、二次元ヒストグラムを観測モデルとして生成する。観測モデル生成手段24は、二次元ヒストグラムの頻度の合計を1に正規化する。
(例5)
観測値を、画像上の人の移動方向とする。ここでは、より具体的に、観測値を、画像上の頭部の動きベクトルが示す方向とする。この場合、観測された人に対応する部分領域内の動きベクトルが示す方向に、観測値(粒子の状態から求まる動きベクトルが示す方向)が近い程、その観測値は人らしいと想定される。この場合、観測モデル生成手段24は、観測された人に対応する部分領域内の動きベクトルが示す方向を用いて、方向のヒストグラムを観測モデルとして生成する。観測モデル生成手段24は、ヒストグラムの頻度の合計を1に正規化する。
(例6)
観測値を、画像上の人の移動の速さとする。ここでは、より具体的に、観測値を、画像上の頭部の動きベクトルが示す速さとする。この場合、観測された人に対応する部分領域内の動きベクトルが示す速さに、観測値(粒子の状態から求まる動きベクトルが示す速さ)が近い程、その観測値は人らしいと想定される。この場合、観測モデル生成手段24は、観測された人に対応する部分領域内の動きベクトルが示す速さを用いて、速さのヒストグラムを観測モデルとして生成する。観測モデル生成手段24は、ヒストグラムの頻度の合計を1に正規化する。
L(z(j) t|x(i) t)=L(z’(j) t|x(i) t)×L(z’ ’(j) t|x(i) t)
×L(z’ ’ ’(j) t|x(i) t)
さらに、人状態更新手段253は、粒子の重みを“1/一人当たりの粒子数”という基本的な重みに復元するために、以下の処理を行う。以下、“1/一人当たりの粒子数”を基本的重みと記す。人状態更新手段253は、更新された粒子の重みの総和と基本的重みの総和が等しくなるような粒子数を決定する。この粒子数をQ個とすると、人状態更新手段253は、更新された粒子の重みの総和=基本的重み×QをQについて解くことによって、上記の粒子数を決定する。次に、人状態更新手段253は、決定した数(Q個)の粒子を、更新された粒子の重みに比例した確率で、抽出する。例えば、1回の抽出処理で1個の粒子を抽出するものとする。この場合、人状態更新手段253は、更新された各粒子の重みに比例した確率に基づいて、1個の粒子を抽出する。人状態更新手段253は、この処理をQ回実行することによって、Q個の粒子を抽出すればよい(リサンプリング)。人状態更新手段253は、この処理によって、更新後の重みが大きい粒子の数を増やし、更新後の重みが小さい粒子を破棄するように、粒子に対するフィルタリングを行っている。そして、人状態更新手段253は、抽出したQ個の粒子の重みをそれぞれ基本的重み(1/一人当たりの粒子数)に変更する。さらに、人状態更新手段253は、それらの粒子の状態を人状態記憶手段32に記憶するとともに、それらの粒子の状態を人流として出力する。具体的には、人状態推定手段25は、粒子の状態が示す人の位置、人の移動速度、および、人の数を人流として出力する。なお、人の数は、粒子の重みの総和で表される。また、人流は、人の位置、人の移動速度、および、人の数で表される。
実施形態2.
図6は、本発明の第2の実施形態の人流推定装置の構成例を示すブロック図である。第1の実施形態における構成要素と同様の構成要素については、図1に示す構成要素と同一の符号を付し、説明を省略する。
実施形態3.
図8は、本発明の第3の実施形態の人流推定装置の構成例を示すブロック図である。第1の実施形態における構成要素と同様の構成要素については、図1に示す構成要素と同一の符号を付し、説明を省略する。
(表示例1)
表示制御手段27は、人の位置、移動速度、および重みの組み合わせが全く同じである全ての粒子を1つの粒子にマージする。このとき、表示制御手段27は、マージされる各粒子の重みの総和を、マージ後の1つの粒子の重みとして定める。表示制御手段27は、このマージ処理を、全ての粒子に対して行う。表示制御手段27は、このマージ処理後の個々の粒子をそれぞれオブジェクトとして表示装置7上に表示する。図9は、表示制御手段27がマージ処理後の個々の粒子をそれぞれオブジェクトとして表示する場合の表示例を示す模式図である。図9(a)は、オブジェクトが円と矢印の組み合わせである場合の表示例を示し、図9(b)は、オブジェクトが二等辺三角形である場合の例を示す。
(表示例2)
図10は、表示例2における粒子の表示態様を示す模式図である。表示制御手段27は、例えば、ユーザインタフェースを介して、外部から、画面上または実空間平面上に対する閉空間の設定を受け付ける。閉空間を設定するユーザは、一部の粒子を囲むように閉空間を設定する。なお、ユーザではなく、外部のシステム等が、閉空間を設定してもよい。
(表示例3)
図11は、表示例3における粒子の表示態様を示す模式図である。本例では、画像や実空間平面に予め格子状の複数の閉空間が設定される(図11参照)。表示制御手段27は、閉空間毎に、閉空間内の粒子の重みの総和を計算し、その総和から、閉空間内の人数を算出する。表示制御手段27は、算出した人数が「0」よりも大きい閉空間を対象にして、閉空間内の粒子の移動速度から、代表速度(代表となる移動速度)を算出する。例えば、表示制御手段27は、粒子の移動速度の平均値や最頻値等に基づいて、代表速度を求める。表示制御手段27は、格子状の各閉空間と、閉空間毎に算出した人数を、表示装置7上に表示する。さらに、表示制御手段27は、算出した人数が「0」よりも大きい閉空間では、算出した代表速度を表す矢印も表示装置7上に表示する(図11参照)。このとき、表示例2と同様に、表示制御手段27は、代表速度の速さに応じた矢印の長さを定め、代表速度の向きに矢印の向きを定め、その矢印の始点を閉空間の中心に配置して、矢印を表示すればよい。
(表示例4)
図12は、表示例4における粒子の表示態様を示す模式図である。本例では、表示制御手段27は、粒子をクラスタリングし、同一のクラスタに属する粒子を囲む閉空間を設定する。クラスタリングの態様は特に限定されない。例えば、表示制御手段27は、粒子の位置に基づいて、粒子をクラスタリングしてもよい。また、例えば、表示制御手段27は、粒子の位置と、移動速度の方向とに基づいて、粒子をクラスタリングしてもよい。また、例えば、表示制御手段27は、粒子の位置と、移動速度の速さとに基づいて、粒子をクラスタリングしてもよい。また、例えば、表示制御手段27は、粒子の位置と移動速度とに基づいて、粒子をクラスタリングしてもよい。
(付記1)
画像の部分領域毎に、該部分領域で特定される部分領域画像に基づいて、前記部分領域内の人数を推定する人数推定手段と、
前記部分領域毎に、前記部分領域内の人数を整数に補正し、前記部分領域に関する情報に基づいて前記画像上に補正された人数分の人のおおよその位置を決定し、補正前の人数と補正後の人数とに基づいて人数補正係数を算出し、前記おおよその位置に人が観測されたものとする大略人位置決定手段と、
前記観測された人毎に、前記観測された人に対応する人のおおよその位置と、前記部分領域に関する情報とに基づいて、人を表す観測値に関する観測モデルを生成する観測モデル生成手段と、
記憶手段に記憶された過去の人の状態を表す粒子の状態から、現在の粒子の状態を予測するとともに、新たな粒子を追加し、観測された人毎に生成された観測モデルと前記人数補正係数とに基づいて、予測された前記粒子及び追加した前記粒子の状態の確からしさを評価して、粒子の重みを更新し、更新した前記重みに比例した確率で、粒子をリサンプリングすることによって得られた粒子の状態を、前記記憶手段に記憶するとともに、前記得られた粒子の状態を人流の情報として出力する人状態推定手段とを備える
ことを特徴とする人流推定装置。
(付記2)
前記大略人位置決定手段は、部分領域内のランダムな位置、部分領域の中心位置、または、部分領域内の人の領域におけるランダムな位置を、人のおおよその位置として決定する
付記1に記載の人流推定装置。
(付記3)
前記大略人位置決定手段は、前記補正前の人数を前記補正後の人数で除算することによって前記人数補正係数を算出する
付記1または付記2に記載の人流推定装置。
(付記4)
前記観測モデル生成手段は、観測された人毎に、観測された人に対応する人のおおよその位置と、部分領域に関する情報とに基づいて、前記画像上の人の位置と前記画像上の人のサイズの少なくとも一方を観測値とする観測モデルを生成する
付記1から付記3のうちのいずれかに記載の人流推定装置。
(付記5)
前記画像から、画像上の動き情報を取得する動き情報取得手段を備え、
前記観測モデル生成手段は、観測された人毎に、観測された人に対応する人のおおよその位置と、前記おおよその位置に関連する動き情報と、部分領域に関する情報とに基づいて、前記画像上の人の速さおよび移動の方向の少なくとも一方または両方を観測値とする観測モデルを生成する
付記1から付記4のうちのいずれかに記載の人流推定装置。
(付記6)
前記画像から、画像上の動き情報を取得する動き情報取得手段を備え、
前記観測モデル生成手段は、観測された人毎に、観測された人に対応する部分領域内の動き情報に基づいて、前記画像上の人の速さおよび移動の方向の少なくとも一方または両方を観測値とする観測モデルを、速さと方向の少なくとも一方または両方のヒストグラムとして生成する
付記1から付記5のうちのいずれかに記載の人流推定装置。
(付記7)
前記人状態推定手段は、部分領域内の人数と一人当たりの粒子数と人の出現確率との積を計算することによって、部分領域毎に、新たな粒子として追加する粒子数を決定し、前記粒子数分の粒子を、対応する部分領域に基づく位置に追加する
付記1から付記6のうちのいずれかに記載の人流推定装置。
(付記8)
人流として出力された現在の粒子の状態と、前記粒子の状態から推定された過去の粒子の位置と、1回前に人流として出力された過去の粒子の状態と、前記粒子の状態から予測された現在の粒子の位置とに基づいて、予め定められた通過ラインを通過する粒子を通過方向別に抽出し、抽出した粒子の重みを用いて、通過方向別の通過人数を算出する通過人数算出手段を備える
付記1から付記7のうちのいずれかに記載の人流推定装置。
(付記9)
粒子をクラスタリングし、同一のクラスタに属する粒子を囲む閉空間を設定した場合、または、外部から閉空間が設定された場合に、前記閉空間内の粒子の重みから閉空間内の人数を算出し、前記閉空間内の粒子の移動速度から代表速度を算出し、前記閉空間と、前記人数と、前記代表速度を表す矢印と、前記代表速度の速さに応じた数値または文言とを表示装置上に表示する表示制御手段を備える
付記1から付記8のうちのいずれかに記載の人流推定装置。
(付記10)
入力される画像の部分領域毎に、前記部分領域内の人数として推定された人数と、当該人数を補正した補正値とに基づいて、人数補正係数を算出する係数算出手段と、
パーティクルPHD(Probability Hypothesis Density)フィルタと前記人数補正係数とに基づいて、人の状態を表す粒子の重みを更新し、更新後の重みに基づいてリサンプリングした粒子の状態を人流として出力する人流出力手段とを備える
ことを特徴とする人流推定装置。
(付記11)
画像の部分領域毎に、該部分領域で特定される部分領域画像に基づいて、前記部分領域内の人数を推定し、
前記部分領域毎に、前記部分領域内の人数を整数に補正し、前記部分領域に関する情報に基づいて前記画像上に補正された人数分の人のおおよその位置を決定し、補正前の人数と補正後の人数とに基づいて人数補正係数を算出し、前記おおよその位置に人が観測されたものとし、
前記観測された人毎に、前記観測された人に対応する人のおおよその位置と、前記部分領域に関する情報とに基づいて、人を表す観測値に関する観測モデルを生成し、
記憶手段に記憶された過去の人の状態を表す粒子の状態から、現在の粒子の状態を予測するとともに、新たな粒子を追加し、観測された人毎に生成された観測モデルと前記人数補正係数とに基づいて、予測された前記粒子及び追加した前記粒子の状態の確からしさを評価して、粒子の重みを更新し、更新した前記重みに比例した確率で、粒子をリサンプリングすることによって得られた粒子の状態を、前記記憶手段に記憶するとともに、前記得られた粒子の状態を人流の情報として出力する
ことを特徴とする人流推定方法。
(付記12)
部分領域内のランダムな位置、部分領域の中心位置、または、部分領域内の人の領域におけるランダムな位置を、人のおおよその位置として決定する
付記11に記載の人流推定方法。
(付記13)
前記補正前の人数を前記補正後の人数で除算することによって前記人数補正係数を算出する
付記11または付記12に記載の人流推定方法。
(付記14)
観測された人毎に、観測された人に対応する人のおおよその位置と、部分領域に関する情報とに基づいて、前記画像上の人の位置と前記画像上の人のサイズの少なくとも一方を観測値とする観測モデルを生成する
付記11から付記13のうちのいずれかに記載の人流推定方法。
(付記15)
前記画像から、画像上の動き情報を取得し、
観測された人毎に、観測された人に対応する人のおおよその位置と、前記おおよその位置に関連する動き情報と、部分領域に関する情報とに基づいて、前記画像上の人の速さおよび移動の方向の少なくとも一方または両方を観測値とする観測モデルを生成する
付記11から付記14のうちのいずれかに記載の人流推定方法。
(付記16)
前記画像から、画像上の動き情報を取得し、
観測された人毎に、観測された人に対応する部分領域内の動き情報に基づいて、前記画像上の人の速さおよび移動の方向の少なくとも一方または両方を観測値とする観測モデルを、速さと方向の少なくとも一方または両方のヒストグラムとして生成する
付記11から付記15のうちのいずれかに記載の人流推定方法。
(付記17)
部分領域内の人数と一人当たりの粒子数と人の出現確率との積を計算することによって、部分領域毎に、新たな粒子として追加する粒子数を決定し、前記粒子数分の粒子を、対応する部分領域に基づく位置に追加する
付記11から付記16のうちのいずれかに記載の人流推定方法。
(付記18)
人流として出力された現在の粒子の状態と、前記粒子の状態から推定された過去の粒子の位置と、1回前に人流として出力された過去の粒子の状態と、前記粒子の状態から予測された現在の粒子の位置とに基づいて、予め定められた通過ラインを通過する粒子を通過方向別に抽出し、抽出した粒子の重みを用いて、通過方向別の通過人数を算出する
付記11から付記17のうちのいずれかに記載の人流推定方法。
(付記19)
粒子をクラスタリングし、同一のクラスタに属する粒子を囲む閉空間を設定した場合、または、外部から閉空間が設定された場合に、前記閉空間内の粒子の重みから閉空間内の人数を算出し、前記閉空間内の粒子の移動速度から代表速度を算出し、前記閉空間と、前記人数と、前記代表速度を表す矢印と、前記代表速度の速さに応じた数値または文言とを表示装置上に表示する
付記11から付記18のうちのいずれかに記載の人流推定方法。
(付記20)
入力される画像の部分領域毎に、前記部分領域内の人数として推定された人数と、当該人数を補正した補正値とに基づいて、人数補正係数を算出し、
パーティクルPHD(Probability Hypothesis Density)フィルタと前記人数補正係数とに基づいて、人の状態を表す粒子の重みを更新し、更新後の重みに基づいてリサンプリングした粒子の状態を人流として出力する
ことを特徴とする人流推定方法。
(付記21)
コンピュータに、
画像の部分領域毎に、該部分領域で特定される部分領域画像に基づいて、前記部分領域内の人数を推定する人数推定処理、
前記部分領域毎に、前記部分領域内の人数を整数に補正し、前記部分領域に関する情報に基づいて前記画像上に補正された人数分の人のおおよその位置を決定し、補正前の人数と補正後の人数とに基づいて人数補正係数を算出し、前記おおよその位置に人が観測されたものとする大略人位置決定処理、
前記観測された人毎に、前記観測された人に対応する人のおおよその位置と、前記部分領域に関する情報とに基づいて、人を表す観測値に関する観測モデルを生成する観測モデル生成処理、および、
記憶手段に記憶された過去の人の状態を表す粒子の状態から、現在の粒子の状態を予測するとともに、新たな粒子を追加し、観測された人毎に生成された観測モデルと前記人数補正係数とに基づいて、予測された前記粒子及び追加した前記粒子の状態の確からしさを評価して、粒子の重みを更新し、更新した前記重みに比例した確率で、粒子をリサンプリングすることによって得られた粒子の状態を、前記記憶手段に記憶するとともに、前記得られた粒子の状態を人流の情報として出力する人状態推定処理
を実行させるための人流推定プログラムを記録した、一時的でない記録媒体。
(付記22)
前記人流推定プログラムは、
前記コンピュータに、
前記大略人位置決定処理で、部分領域内のランダムな位置、部分領域の中心位置、または、部分領域内の人の領域におけるランダムな位置を、人のおおよその位置として決定させる
付記21に記載の記録媒体。
(付記23)
前記人流推定プログラムは、
前記コンピュータに、
前記大略人位置決定処理で、前記補正前の人数を前記補正後の人数で除算することによって前記人数補正係数を算出させる
付記21または付記22に記載の記録媒体。
(付記24)
前記人流推定プログラムは、
前記コンピュータに、
前記観測モデル生成処理で、観測された人毎に、観測された人に対応する人のおおよその位置と、部分領域に関する情報とに基づいて、前記画像上の人の位置と前記画像上の人のサイズの少なくとも一方を観測値とする観測モデルを生成させる
付記21から付記23のうちのいずれかに記載の記録媒体。
(付記25)
前記人流推定プログラムは、
前記コンピュータに、
前記画像から、画像上の動き情報を取得する動き情報取得処理を実行させ、
前記観測モデル生成処理で、観測された人毎に、観測された人に対応する人のおおよその位置と、前記おおよその位置に関連する動き情報と、部分領域に関する情報とに基づいて、前記画像上の人の速さおよび移動の方向の少なくとも一方または両方を観測値とする観測モデルを生成させる
付記21から付記24のうちのいずれかに記載の記録媒体。
(付記26)
前記人流推定プログラムは、
前記コンピュータに、
前記画像から、画像上の動き情報を取得する動き情報取得処理を実行させ、
前記観測モデル生成処理で、観測された人毎に、観測された人に対応する部分領域内の動き情報に基づいて、前記画像上の人の速さおよび移動の方向の少なくとも一方または両方を観測値とする観測モデルを、速さと方向の少なくとも一方または両方のヒストグラムとして生成させる
付記21から付記25のうちのいずれかに記載の記録媒体。
(付記27)
前記人流推定プログラムは、
前記コンピュータに、
前記人状態推定処理で、部分領域内の人数と一人当たりの粒子数と人の出現確率との積を計算することによって、部分領域毎に、新たな粒子として追加する粒子数を決定させ、前記粒子数分の粒子を、対応する部分領域に基づく位置に追加させる
付記21から付記26のうちのいずれかに記載の記録媒体。
(付記28)
前記人流推定プログラムは、
前記コンピュータに、
人流として出力された現在の粒子の状態と、前記粒子の状態から推定された過去の粒子の位置と、1回前に人流として出力された過去の粒子の状態と、前記粒子の状態から予測された現在の粒子の位置とに基づいて、予め定められた通過ラインを通過する粒子を通過方向別に抽出し、抽出した粒子の重みを用いて、通過方向別の通過人数を算出する通過人数算出処理を実行させる
付記21から付記27のうちのいずれかに記載の記録媒体。
(付記29)
前記人流推定プログラムは、
前記コンピュータに、
粒子をクラスタリングし、同一のクラスタに属する粒子を囲む閉空間を設定した場合、または、外部から閉空間が設定された場合に、前記閉空間内の粒子の重みから閉空間内の人数を算出し、前記閉空間内の粒子の移動速度から代表速度を算出し、前記閉空間と、前記人数と、前記代表速度を表す矢印と、前記代表速度の速さに応じた数値または文言とを表示装置上に表示する表示制御処理を実行させる
付記21から付記28のうちのいずれかに記載の記録媒体。
(付記30)
コンピュータに、
入力される画像の部分領域毎に、前記部分領域内の人数として推定された人数と、当該人数を補正した補正値とに基づいて、人数補正係数を算出する係数算出処理、および、
パーティクルPHD(Probability Hypothesis Density)フィルタと前記人数補正係数とに基づいて、人の状態を表す粒子の重みを更新し、更新後の重みに基づいてリサンプリングした粒子の状態を人流として出力する人流出力処理
を実行させるための人流推定プログラムを記録した、一時的でない記録媒体。
2,4,6 データ処理装置
3,5 記憶装置
7 表示装置
21 人数推定手段
22 大略人位置決定手段
23 動き情報取得手段
24 観測モデル生成手段
25 人状態推定手段
26 通過人数算出手段
27 表示制御手段
31 部分領域群記憶手段
32 人状態記憶手段
33 通過ライン記憶手段
71 係数算出手段
72 人流出力手段
251 人状態予測手段
252 人状態評価手段
253 人状態更新手段
Claims (10)
- 画像の部分領域毎に、該部分領域で特定される部分領域画像に基づいて、前記部分領域内の人数を推定する人数推定手段と、
前記部分領域毎に、前記部分領域内の人数を整数に補正し、前記部分領域に関する情報に基づいて前記画像上に補正された人数分の人のおおよその位置を決定し、補正前の人数と補正後の人数とに基づいて人数補正係数を算出し、前記おおよその位置に人が観測されたものとする大略人位置決定手段と、
前記観測された人毎に、前記観測された人に対応する人のおおよその位置と、前記部分領域に関する情報とに基づいて、人を表す観測値に関する観測モデルを生成する観測モデル生成手段と、
記憶手段に記憶された過去の人の状態を表す粒子の状態から、現在の粒子の状態を予測するとともに、新たな粒子を追加し、観測された人毎に生成された観測モデルと前記人数補正係数とに基づいて、予測された前記粒子及び追加した前記粒子の状態の確からしさを評価して、粒子の重みを更新し、更新した前記重みに比例した確率で、粒子をリサンプリングすることによって得られた粒子の状態を、前記記憶手段に記憶するとともに、前記得られた粒子の状態を人流の情報として出力する人状態推定手段とを備える
ことを特徴とする人流推定装置。 - 前記大略人位置決定手段は、部分領域内のランダムな位置、部分領域の中心位置、または、部分領域内の人の領域におけるランダムな位置を、人のおおよその位置として決定する
請求項1に記載の人流推定装置。 - 前記大略人位置決定手段は、前記補正前の人数を前記補正後の人数で除算することによって前記人数補正係数を算出する
請求項1または請求項2に記載の人流推定装置。 - 前記観測モデル生成手段は、観測された人毎に、観測された人に対応する人のおおよその位置と、部分領域に関する情報とに基づいて、前記画像上の人の位置と前記画像上の人のサイズの少なくとも一方を観測値とする観測モデルを生成する
請求項1から請求項3のうちのいずれか1項に記載の人流推定装置。 - 前記画像から、画像上の動き情報を取得する動き情報取得手段を備え、
前記観測モデル生成手段は、観測された人毎に、観測された人に対応する人のおおよその位置と、前記おおよその位置に関連する動き情報と、部分領域に関する情報とに基づいて、前記画像上の人の速さおよび移動の方向の少なくとも一方または両方を観測値とする観測モデルを生成する
請求項1から請求項4のうちのいずれか1項に記載の人流推定装置。 - 前記画像から、画像上の動き情報を取得する動き情報取得手段を備え、
前記観測モデル生成手段は、観測された人毎に、観測された人に対応する部分領域内の動き情報に基づいて、前記画像上の人の速さおよび移動の方向の少なくとも一方または両方を観測値とする観測モデルを、速さと方向の少なくとも一方または両方のヒストグラムとして生成する
請求項1から請求項5のうちのいずれか1項に記載の人流推定装置。 - 前記人状態推定手段は、部分領域内の人数と一人当たりの粒子数と人の出現確率との積を計算することによって、部分領域毎に、新たな粒子として追加する粒子数を決定し、前記粒子数分の粒子を、対応する部分領域に基づく位置に追加する
請求項1から請求項6のうちのいずれか1項に記載の人流推定装置。 - 人流として出力された現在の粒子の状態と、前記粒子の状態から推定された過去の粒子の位置と、1回前に人流として出力された過去の粒子の状態と、前記粒子の状態から予測された現在の粒子の位置とに基づいて、予め定められた通過ラインを通過する粒子を通過方向別に抽出し、抽出した粒子の重みを用いて、通過方向別の通過人数を算出する通過人数算出手段を備える
請求項1から請求項7のうちのいずれか1項に記載の人流推定装置。 - 画像の部分領域毎に、該部分領域で特定される部分領域画像に基づいて、前記部分領域内の人数を推定し、
前記部分領域毎に、前記部分領域内の人数を整数に補正し、前記部分領域に関する情報に基づいて前記画像上に補正された人数分の人のおおよその位置を決定し、補正前の人数と補正後の人数とに基づいて人数補正係数を算出し、前記おおよその位置に人が観測されたものとし、
前記観測された人毎に、前記観測された人に対応する人のおおよその位置と、前記部分領域に関する情報とに基づいて、人を表す観測値に関する観測モデルを生成し、
記憶手段に記憶された過去の人の状態を表す粒子の状態から、現在の粒子の状態を予測するとともに、新たな粒子を追加し、観測された人毎に生成された観測モデルと前記人数補正係数とに基づいて、予測された前記粒子及び追加した前記粒子の状態の確からしさを評価して、粒子の重みを更新し、更新した前記重みに比例した確率で、粒子をリサンプリングすることによって得られた粒子の状態を、前記記憶手段に記憶するとともに、前記得られた粒子の状態を人流の情報として出力する
ことを特徴とする人流推定方法。 - コンピュータに、
画像の部分領域毎に、該部分領域で特定される部分領域画像に基づいて、前記部分領域内の人数を推定する人数推定処理、
前記部分領域毎に、前記部分領域内の人数を整数に補正し、前記部分領域に関する情報に基づいて前記画像上に補正された人数分の人のおおよその位置を決定し、補正前の人数と補正後の人数とに基づいて人数補正係数を算出し、前記おおよその位置に人が観測されたものとする大略人位置決定処理、
前記観測された人毎に、前記観測された人に対応する人のおおよその位置と、前記部分領域に関する情報とに基づいて、人を表す観測値に関する観測モデルを生成する観測モデル生成処理、および、
記憶手段に記憶された過去の人の状態を表す粒子の状態から、現在の粒子の状態を予測するとともに、新たな粒子を追加し、観測された人毎に生成された観測モデルと前記人数補正係数とに基づいて、予測された前記粒子及び追加した前記粒子の状態の確からしさを評価して、粒子の重みを更新し、更新した前記重みに比例した確率で、粒子をリサンプリングすることによって得られた粒子の状態を、前記記憶手段に記憶するとともに、前記得られた粒子の状態を人流の情報として出力する人状態推定処理
を実行させるための人流推定プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016178132 | 2016-09-13 | ||
JP2016178132 | 2016-09-13 | ||
PCT/JP2017/032664 WO2018051944A1 (ja) | 2016-09-13 | 2017-09-11 | 人流推定装置、人流推定方法および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018051944A1 JPWO2018051944A1 (ja) | 2019-07-04 |
JP6977730B2 true JP6977730B2 (ja) | 2021-12-08 |
Family
ID=61619134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018539703A Active JP6977730B2 (ja) | 2016-09-13 | 2017-09-11 | 人流推定装置、人流推定方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (3) | US10810442B2 (ja) |
JP (1) | JP6977730B2 (ja) |
WO (1) | WO2018051944A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6977730B2 (ja) | 2016-09-13 | 2021-12-08 | 日本電気株式会社 | 人流推定装置、人流推定方法およびプログラム |
JP6787075B2 (ja) * | 2016-11-22 | 2020-11-18 | 富士通株式会社 | 画像処理システム、画像処理装置および画像処理方法 |
JP7216487B2 (ja) * | 2018-06-21 | 2023-02-01 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP2019220087A (ja) * | 2018-06-22 | 2019-12-26 | 日本電信電話株式会社 | 推定方法、推定装置及び推定プログラム |
US11727727B2 (en) * | 2018-09-25 | 2023-08-15 | Nec Corporation | Information processing apparatus |
JP6898288B2 (ja) * | 2018-11-05 | 2021-07-07 | リュウ シー−ハオ | 所定期間に特定の位置を通過するアウトオブホーム(ооh)広告の視聴者数の推定のための、広告視聴者動的測定回路、コンピュータプログラムプロダクトおよびその方法 |
TWI686748B (zh) * | 2018-12-07 | 2020-03-01 | 國立交通大學 | 人流分析系統及人流分析方法 |
JP2020170252A (ja) * | 2019-04-01 | 2020-10-15 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
WO2021033316A1 (ja) * | 2019-08-22 | 2021-02-25 | 日本電信電話株式会社 | 人数推定装置、人数推定方法、及び人数推定プログラム |
JP7456590B2 (ja) * | 2020-03-06 | 2024-03-27 | 株式会社アイシン | 追跡装置、及び追跡プログラム |
KR20210121628A (ko) * | 2020-03-31 | 2021-10-08 | 주식회사 만도 | 강화학습 기반 포인트 클라우드 자동화 처리 방법 및 그 시스템 |
CN111710009B (zh) * | 2020-05-29 | 2023-06-23 | 北京百度网讯科技有限公司 | 人流密度的生成方法、装置、电子设备以及存储介质 |
CN113836976A (zh) * | 2020-06-23 | 2021-12-24 | 江苏翼视智能科技有限公司 | 一种监控视频中全局异常事件的检测方法 |
JP2022091547A (ja) | 2020-12-09 | 2022-06-21 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN113093100A (zh) * | 2021-03-09 | 2021-07-09 | 惠州Tcl移动通信有限公司 | 一种定位方法、智能终端及计算机可读存储介质 |
JP2022184574A (ja) * | 2021-06-01 | 2022-12-13 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20240212331A1 (en) * | 2021-10-15 | 2024-06-27 | Rakuten Group, Inc. | Information processing apparatus, information processing method, and non-transitory computer readable medium |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009211311A (ja) | 2008-03-03 | 2009-09-17 | Canon Inc | 画像処理装置及び方法 |
JP2010198566A (ja) | 2009-02-27 | 2010-09-09 | Nec Corp | 人数計測装置、方法及びプログラム |
JP6008045B2 (ja) | 2013-06-28 | 2016-10-19 | 日本電気株式会社 | 教師データ生成装置、方法、プログラム、および群衆状態認識装置、方法、プログラム |
WO2015008432A1 (ja) * | 2013-07-17 | 2015-01-22 | 日本電気株式会社 | 物体追跡装置、物体追跡方法および物体追跡プログラム |
JP5613815B1 (ja) * | 2013-10-29 | 2014-10-29 | パナソニック株式会社 | 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法 |
FR3017481B1 (fr) * | 2014-02-07 | 2016-02-26 | Sagem Defense Securite | Procede de detection et de pistage de cibles |
JP5866523B2 (ja) * | 2014-07-16 | 2016-02-17 | パナソニックIpマネジメント株式会社 | 施設利用状況計測装置、施設利用状況計測システムおよび施設利用状況計測方法 |
JP2016091326A (ja) | 2014-11-05 | 2016-05-23 | 日本電信電話株式会社 | カメラ画像人数計数方法及びカメラ画像人数計数装置 |
US10325160B2 (en) * | 2015-01-14 | 2019-06-18 | Nec Corporation | Movement state estimation device, movement state estimation method and program recording medium |
JP2017097510A (ja) * | 2015-11-20 | 2017-06-01 | ソニー株式会社 | 画像処理装置と画像処理方法およびプログラム |
JP6950692B2 (ja) * | 2016-08-04 | 2021-10-13 | 日本電気株式会社 | 人流推定装置、人流推定方法およびプログラム |
JP6977730B2 (ja) * | 2016-09-13 | 2021-12-08 | 日本電気株式会社 | 人流推定装置、人流推定方法およびプログラム |
US10922820B2 (en) * | 2017-07-31 | 2021-02-16 | National Technology & Engineering Solutions Of Sandia, Llc | Data-driven delta-generalized labeled multi-bernoulli tracker |
-
2017
- 2017-09-11 JP JP2018539703A patent/JP6977730B2/ja active Active
- 2017-09-11 US US16/332,529 patent/US10810442B2/en active Active
- 2017-09-11 WO PCT/JP2017/032664 patent/WO2018051944A1/ja active Application Filing
-
2019
- 2019-10-02 US US16/590,468 patent/US10970558B2/en active Active
- 2019-10-02 US US16/590,481 patent/US10970559B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190220673A1 (en) | 2019-07-18 |
WO2018051944A1 (ja) | 2018-03-22 |
US10970558B2 (en) | 2021-04-06 |
US10810442B2 (en) | 2020-10-20 |
JPWO2018051944A1 (ja) | 2019-07-04 |
US10970559B2 (en) | 2021-04-06 |
US20200034633A1 (en) | 2020-01-30 |
US20200034632A1 (en) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6977730B2 (ja) | 人流推定装置、人流推定方法およびプログラム | |
JP7428213B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP6950692B2 (ja) | 人流推定装置、人流推定方法およびプログラム | |
JP6333844B2 (ja) | 機械学習用リソース割り当て | |
US20060195199A1 (en) | Monitoring device | |
JP2016006626A (ja) | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 | |
JP2016099941A (ja) | オブジェクト位置推定システム、及びそのプログラム | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
WO2013012091A1 (ja) | 情報処理装置、物体追跡方法およびプログラム記憶媒体 | |
JPWO2012127815A1 (ja) | 移動体検出装置および移動体検出方法 | |
CN111105495A (zh) | 一种融合视觉语义信息的激光雷达建图方法及系统 | |
JPWO2013005815A1 (ja) | 物体検出装置、物体検出方法及びプログラム | |
JP2007209008A (ja) | 監視装置 | |
JPWO2019220589A1 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
WO2020217368A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP2010123019A (ja) | 動作認識装置及び方法 | |
JP6336935B2 (ja) | 移動物体追跡装置 | |
JP2020109644A (ja) | 転倒検出方法、転倒検出装置及び電子機器 | |
KR101542206B1 (ko) | 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법 | |
JP2009182624A (ja) | 目標追尾装置 | |
JP2018049369A (ja) | 画像照合装置および画像照合方法 | |
JP2021149687A (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
JP2021047538A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP4879257B2 (ja) | 移動対象追跡装置、移動対象追跡方法及び移動対象追跡プログラム | |
JP6893812B2 (ja) | 物体検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190311 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6977730 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |