JP7229698B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7229698B2 JP7229698B2 JP2018154108A JP2018154108A JP7229698B2 JP 7229698 B2 JP7229698 B2 JP 7229698B2 JP 2018154108 A JP2018154108 A JP 2018154108A JP 2018154108 A JP2018154108 A JP 2018154108A JP 7229698 B2 JP7229698 B2 JP 7229698B2
- Authority
- JP
- Japan
- Prior art keywords
- degree
- attention
- factor
- caution
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Closed-Circuit Television Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
例えば特許文献1では、観測者の視野画像と実空間地図から注目している座標を算出して、注視の頻度と業務知識を用いてエリアの重要度を算出する手法が提案されている。
また、特許文献2では、通行人からの通報を検出して、通報位置と数に応じてカメラごとに注目度を算出する手法が提案されている。
図1は、情報処理装置100のハードウェア構成の一例を示す図である。
情報処理装置100は、ハードウェア構成として、CPU(Central Processing Unit)101、表示部102、操作部103、記録部104、通信部105、を含む。
CPU101は、情報処理装置100の全体を制御する。表示部102は、液晶画面等で構成され、ネットワーク等を介して情報処理装置100と接続された複数の監視カメラで撮影された映像等を表示する。監視カメラで撮影された映像は、撮影画像の一例である。操作部103は、スイッチ及びタッチパネル等によって構成され、利用者による操作を感知して操作情報を入力する。タッチパネルの代わりにマウス、トラックボール等の他のポインティングデバイスが用いられてもよい。記録部104は、ハードディスク等の記録メディア等によって構成され、複数の監視カメラで撮影された映像を、撮影時刻及び撮影カメラパラメータ等のメタデータ情報と共に逐次保存する。記録メディアの代わりに、情報処理装置100は、記録部104としてNAS(Network Attached Storage)、又はSAN(Storage Area Network)等のネットワーク上のストレージを用いてもよい。通信部105は、情報処理装置100をネットワーク等に接続し、監視カメラとの通信等を制御する。CPU101が記録部104に記録されたプログラムに基づき処理を実行することによって、後述する図2に示す情報処理装置100の機能構成、及び図4、図6、図8、図10、図13のフローチャートの処理が実現される。他の例としては、情報処理装置100の機能の少なくとも一部は、例えば複数のCPU、記憶部を協働させることにより実現してもよい。また、他の例としては、情報処理装置100の機能の少なくとも一部は、ハードウェア回路を用いて実現してもよい。また、他の例としては、情報処理装置100の機能は、複数の装置が協働して実現してもよい。
情報処理装置100は、機能構成として、制御部111、表示情報管理部112、情報入力ターゲット検知部113、注視要因管理部114、要注視度設定部115、を含む。
制御部111は、情報処理装置100の全体を制御する。表示情報管理部112は、表示部102の表示画面を管理して、利用者が操作を行うユーザーインターフェース(UI)画面を作成する。情報入力ターゲット検知部113は、利用者が情報を入力する対象となるターゲットとして情報入力ターゲットを検知する。情報入力ターゲット検知部113は、監視カメラで撮影された映像及び記録部104に記録された情報等を用いて、所定の物体、状態、情報等を情報入力ターゲットとして検知して、実空間上での位置を推定する。注視要因管理部114は、注視すべきであると判断するための要因(注視要因)となる情報を取得し、その要因の程度の大きさとして注視要因の値を決定する。また、注視要因管理部114は、複数の注視要因について、それぞれの重要度を管理する。より具体的な注視要因については後述する。注視要因の値を決定するための情報は、監視カメラで撮影された映像、操作部103で利用者が操作した操作履歴、記録部104に記録された情報、情報入力ターゲット検知部113によって検知された情報入力ターゲット及びその属性等の情報を用いる。また、注視要因管理部114は、情報処理装置100の外部のシステム、又はサービスと通信を行うことによって情報を得て、それらから得られる情報を用いることによっても注視要因の値を決定する。要注視度設定部115は、注視要因管理部114による要注視要因の情報を用いて、実空間上の位置について要注視度を設定する。
図3は、実施形態1の表示部102に表示され、表示情報管理部112によって制御されるユーザーインターフェース画面の模式図である。利用者の目的は、過去に記録された監視映像に出現した人物について人物ごとに視認して、それが異常であるか否かのラベル情報を付与することである。付与したラベルは後に異常行動の統計モデルを学習したり、監視状況の分析を行って警備計画を見直したりするために用いられる。
まず、表示情報管理部112は、表示部102に監視範囲の平面図画像201を表示する。平面図画像201は要注視度表示の例でもある。要注視度設定部115によって設定された要注視度の情報が、表示情報管理部112によって対応する平面図画像上の位置にマッピングされ、表示される。要注視度の情報は色の濃淡によるヒートマップとして表示され、色が濃いほど要注視度が高いものとして示される。
図3の例では、3か所に監視カメラが設置され、位置と方向とが202、203、204の記号で示されている。
また、情報入力ターゲット表示の例として、情報入力ターゲット検知部113は、監視カメラの映像から人体を検出する。そして、表示情報管理部112は、208、209、210のように人物映像を並べてリスト表示する。また、表示情報管理部112は、平面図画像201上に、マーカー記号205、207、206を表示して位置を示し、合わせてマーカー記号と人物映像とを結んで対応させる線を表示する。
表示情報管理部112は、人物映像208、209、210を、平面図画像201における要注視度の降順で上から順に並べて表示する。これによって、利用者へ要注視度の高い位置に発見された人物映像を優先的に提示することができる。利用者は人物映像の隣に配置されるドロップダウンリスト211、212、213を操作して、人物が異常であるか否かのラベル情報を付与する。例えば、人物映像208は倒れた人物が映った映像であるため、利用者は対応するドロップダウンリスト211を操作して「異常あり」に設定する。また、人物映像209は普通に歩行している人物なので、利用者は対応するドロップダウンリスト212を操作して「異常なし」に設定する。表示情報管理部112は、このようにして付与された情報を記録部104に蓄積する。
平面図画像201に表示される時刻は、タイムライン214を操作することによって利用者が変更できる。タイムライン214は左から右の時間軸に沿って平面図画像のサムネイルが並んで表示され、カーソル215を利用者が左右に動かすことで時刻を選択することができる。時刻が変更されると、平面図画像201の要注視度のヒートマップが更新され、人物映像のリストもその時刻に発見される人体へと更新される。
このようにすることで、利用者が要注視度の高い時刻と場所とを選んで、要注視度の高い個所を重点的に注視してラベル情報を付与していくと、映像全体の要注視度が低減していくことになる。利用者はそれによって、ラベル情報を付与するために注視すべき個所を探しやすくなり、また作業の進捗もわかりやすくなる効果がある。
S301において、制御部111は、操作部103を介した利用者の作業対象としたい環境情報の指定を受け付け、設定する。指定される環境情報には、現場の平面図画像、一つ又は複数の撮影された映像、撮影時間、カメラ位置と高さの情報、注視要因管理部114で管理する注視要因の重みが含まれる。映像は予め監視カメラで撮影された映像で、記録部104に記録されている。この映像は個別の動画ファイルでもよいし、データベース、又はビデオマネジメントシステム(VMS)に蓄積された映像から日時の範囲を指定して取り出すようなものでもよい。また、カメラの映像ストリームを指定して、記録部104に映像を逐次記録しながら利用者が情報を付与するようにしてもよい。
次に、S302において、表示情報管理部112は、初期の表示時刻tを0に設定する。表示情報管理部112は、最初に表示する時刻を映像の先頭とする。表示情報管理部112は、前回の作業中断時の時刻、又は最も要注視度の高い時刻を初期時刻としてtに設定してもよい。
次に、S304において、情報入力ターゲット検知部113は、指定された環境情報に基づき、対象の場所及び時間の映像から人物検出及び動体追尾の手法を用いて、人物を検出してそれぞれの位置を推定する。また、情報入力ターゲット検知部113は、異なるカメラの映像、及び異なる時間帯の映像に出現した人物について、人物再同定の手法を用いて同一人物かどうかを判定して、検出した人物に同一人物ごとのID番号を付与する。
情報入力ターゲット検知部113が検出する情報入力ターゲットは人物に限らず、例えば道路を監視するものであれば自動車等の物体を検出するようにしてもよいし、牧場を監視するものであれば牛、又は羊を情報入力ターゲットにしてもよい。また、種類を特定せずに動体をすべて情報入力ターゲットとするようにしてもよい。また、物体に限らず、実空間の領域、又は特定の時刻、また人物の特定の行動、又はカメラ等、装置の特定の状態、又は警報等の発生を情報入力ターゲットとしてもよい。
また、S303及びS304については、記録部104に記録された映像について事前に行って結果を記録しておき、本フローにおいてはその結果を読み込むものとしてもよい。これは要注視度の算出、人体検出に時間がかかる場合に有効である。また、映像ストリームに対する逐次処理を行う場合は、ストリームの入力に対してS303及びS304の処理を並列に行って、逐次、要注視度の算出や人体検出を行うようにする。
ヒートマップの表示方法はこれに限らず、青色、緑色、白色等その他の色の強さ、明度、彩度、色相の強さで表示してもよく、モノクロ映像ならばドットパターンの密度で表示してもよい。また、表示情報管理部112は、平面図画像の対応する点から鉛直方向に延びる棒等の長さとして立体画像で表現してもよい。
次に、S306において、表示情報管理部112は、時刻tを中心とするタイムラインの表示画像を作成し、表示部102で表示する。例えば、表示情報管理部112は、時刻(t-10秒)、時刻t、時刻(t+10秒)の要注視度を要注視度設定部115から取得して、それぞれS304と同様の方法でサムネイル画像を作成して、縮小して時系列順に配列する。
サムネイル画像の表示数、表示の範囲はこれに限るものではなく、例えば、表示情報管理部112は、表示部102の画面の横幅に応じて可変的に表示数を定めてもよい。
次に、S307において、表示情報管理部112は、情報入力ターゲット検知部113で検出された人物のうち、時刻tにおいて出現する人物を取得する。
次に、S308において、表示情報管理部112は、時刻tにおいて出現する人物のそれぞれについて、その位置に対応する要注視度を要注視度設定部115から取得して、要注視度の高いほうから順に並べて表示する。S308の処理は、撮影画像から検出された複数のターゲットを、複数のターゲットのそれぞれに対応する要注視度に基づいて表示する第2の表示処理の一例である。
以上のS305からS308までの処理によって、時刻tにおけるUI画面が表示情報管理部112によって構成されて表示部102に表示される。
S321において、表示情報管理部112は、タイムラインの画面上の、操作部103よって選択された位置を取得して、その位置に対応したタイムラインの時刻を新たにtとして設定する。
S321の次はS305に進んで、表示情報管理部112は、新たなtに基づいて表示画面を更新して、再びS309で入力を待つ。
S331において、表示情報管理部112は、操作部103で操作されたドロップダウンリストの新しい値を、対応する人物のラベル情報として記録部104に記録する。また、表示情報管理部112は、その操作が行われた際にUI画面で表示していた時刻tの情報を合わせて記録部104に記録する。
次に、S332において、要注視度設定部115は、S303と同様に要注視度を算出して更新する。S332の処理は、入力された情報に基づき複数の要注視度のうちの少なくとも一つの要注視度を再設定する処理の一例である。また、S332の処理は、入力された情報に基づき入力された情報に関するターゲットに対応付けられた要注視度を再設定する処理の一例でもある。後述するように、要注視度設定部115は、ラベル情報が入力されたかどうかの情報も用いて要注視度を算出する。その結果としてラベル情報を入力した個所の要注視度が低下する。
S332の次はS305に進んで、表示情報管理部112は、更新された要注視度に基づいて表示画面を更新して、再びS309で入力を待つ。この処理は、再設定された要注視度を前記実空間上の位置と時刻とに応じてマッピングして表示する処理の一例である。
S341においては、表示情報管理部112は、操作部103で指定された人物の時刻tにおける位置での、それぞれの注視要因における要因値を注視要因管理部114から取得して表示する。
本実施形態においては、注視要因として初出現人物、カメラ映り、人流、警備員巡回、POS(販売地点情報管理)記録、入力操作とする。
要注視度設定部115は、初出現人物の注視要因を、情報入力ターゲット検知部113が検出した人物が新たに出現した人物であるかどうかによって定める。要注視度設定部115は、情報入力ターゲット検知部113が人物ごとに付与するID番号を用いて、初めて新しいID番号が付与された人物映像については100、そうでなければ0を、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、カメラ映りの注視要因を、情報入力ターゲット検知部113が検出した人物を撮影した監視カメラのカメラ画角における、人物映像の大きさと位置とによって定める。より具体的には、要注視度設定部115は、すべての監視カメラについて、人物映像の人物を囲う矩形の面積とカメラ映像全体の面積との比の逆数と、人物映像の中心の方向とカメラ光軸との角度と、の積を計算して総和をとる。要注視度設定部115は、映像が小さく、カメラ画角の中心から遠く、映っているカメラが少ないほど、注視要因の値が高くなるようにする。
要注視度設定部115は、警備員巡回の注視要因を、外部の警備システムの警備員巡回記録に基づいて、平面図画像上の位置ごとに定める。要注視度設定部115は、平面図画像上で対象とする位置を中心に例えば半径30mの円を描き、例えば直近の60分間に、その円の内部において警備員の巡回が行われたかどうかを判定して、最近の巡回から経過した時間を60分で割る。要注視度設定部115は、警備員が巡回した時間が遠いほど、注視要因の値が高くなるようにする。
要注視度設定部115は、入力操作の注視要因を、利用者が操作部103を用いて入力した情報に基づいて定める。利用者が時刻tにある人物についてドロップダウンリストへの入力を行うと、要注視度設定部115は、tの周辺の時刻の対応する人物の位置の周辺において、負の注視要因の値、例えば-50を設定する。要注視度設定部115は、入力が行われたことによって、利用者が注視を行ったと推定して、その要注視度を低減するようにする。
注視要因ウィンドウ401には、各注視要因の説明と、選択した人物映像208におけるそれぞれの注視要因の値と、が表示される。また、注視要因ごとにスライドバー402と重み403とが合わせて表示され、利用者は操作部103によってスライドバーを操作することにより、注視要因の重みを修正することができる。要注視度設定部115が、利用者によるスライドバーの操作に基づき、注視要因の重みを修正する処理は、一の注視要因の重要度、又は複数の注視要因のそれぞれの重要度を設定する第2の設定処理の一例である。また、ユーザ操作に基づき一の注視要因の重要度、又は複数の注視要因のそれぞれの重要度を設定する処理の一例でもある。
図5に示した注視要因ウィンドウは注視要因表示の一例であり、例えば、要注視度設定部115は、重みを棒グラフ、又は円グラフで表示してもよい。また、注視要因重要度設定の方法として、利用者は、スライドバーの代わりに重みを直接入力したり、0か100かを選択するトグルスイッチで入力したりしてもよい。
図6を用いて、S303及びS332において要注視度設定部115が要注視度を設定するための処理を説明する。
まず、S501において、要注視度設定部115は、注視要因管理部114において管理されている注視要因を含むリストを作成する。ここでは要注視度の計算に用いる注視要因をリストアップするため、要注視度設定部115は、重みが0に指定されたもの、及び外部条件によって使用できない注視要因は除外する。例えば、外部のPOSに接続できない場合、要注視度設定部115は、POS情報の注視要因を除外する。
次に、S502において、要注視度設定部115は、注視要因リストが空かどうかを判定する。要注視度設定部115は、空でなければS503に進み、空ならばS506に進む。
次に、S504において、要注視度設定部115は、注視要因eの値を計算する。例えば、注視要因eが初出現人物の注視要因であれば、先に図5の説明で述べたようにして、要注視度設定部115は、初めて新しいID番号が付与された人物映像については100、そうでなければ0を、対応する人物が出現した位置での注視要因の値として定める。その他の注視要因についても、要注視度設定部115は先に図5の説明で述べたように求める。
次に、S505において、要注視度設定部115は、注視要因eを注視要因リストから除去し、S502に戻る。
S506においては、要注視度設定部115は、それぞれの時刻及び実空間位置について、以下の式で重み付き平均を算出し、その時刻t及び実空間位置xにおける要注視度A(x、t)とする。
要注視度の計算方法はここに示したものに限らず、例えば対数値の平均をとったり、加算してから上限値でクリップしたり、注視要因eごとに重みと値の積をとってから最大値を選択する等して計算してもよい。
実施形態1では、利用者が手動で注視要因の重みを定め、要注視度の算出において重視する要因を設定する必要があった。しかし、情報処理装置100が利用者の注視している要因を推定し、重みを自動で設定することで利用者の作業を減らすことができる。
本実施形態においては、注視要因の重みweを利用者の操作履歴から推定することを可能とするものである。以下では実施形態1へ追加する部分について説明する。
これらの要確認チェックボックスは、人物映像のそれぞれについて設けられ、利用者が要確認であると判断した場合にチェックを入れる目的で追加されたものである。図7の例では、利用者は人物映像209を見て、それ自体については異常ではないと判断してドロップダウンリスト212は「異常なし」を選択する。しかし同時に、例えば歩き方が怪しい等、後で異常を起こす可能性が高く注意して確認するべきであると判断して、対応する要確認チェックボックス602をチェックする。
このとき、要注視度設定部115は、要確認チェックボックスがチェックされた同一IDの人物が再び出現した時間については、その個所の要注視度が上昇するようにする。要注視度設定部115は、要確認とした人物の出現範囲について注視を促すようにする。
これに加えて、表示情報管理部112は、要確認チェックボックスへの入力を記録部104に記録しておく。注視要因管理部114は、この入力記録に基づいて注視要因の重みを再設定する。
本実施形態では、注視要因の重みは自動で設定されるため、S341の処理は省かれ、人物映像を選択しても注視要因ウィンドウ401は表示されない。
但し、S341の処理を省かずに、自動と手動との両方で注視要因を設定できるようにしてもよい。
S309において、表示情報管理部112は、操作部103による入力として、要確認チェックボックスがチェックされたことを検知すると、S701に進む。
S701においては、表示情報管理部112は、操作部103で操作された要確認チェックボックスの変更後の状態、チェックされたか否かの情報を、対応する人物に紐づけた情報として記録部104に記録する。
注視要因管理部114は、注視要因eの重みweを、要確認チェックボックスがチェックされた人物についての要注視度を用いて、以下の式によって算出する。
S702の次は、S332に進み、要注視度設定部115は、新しい注視要因の重みに応じて要注視度を再計算する。そして、S305において、表示情報管理部112は、更新された要注視度に基づいて表示画面を更新する。
実施形態3では、実施形態1及び実施形態2とは異なる要注視度の利用方法として、要注視度を用いて映像中から所望の人物の出現を検索する方法を説明する。
図9を用いて、本実施形態における表示部の動作及び利用者の操作について説明する。
本実施形態においては、表示情報管理部112は、要注視度を図9(A)のように三次元時空間上の時空間立体として表示する。時空間立体は直方体であり、二辺は平面図画像の縦横であるx軸とy軸とに対応する。これらに垂直なt軸は時間軸であり、この三軸の座標で定まる立体画素が、その場所と時刻とに対応する要注視度に対応した色合いで表示される。
t軸に垂直な平面で切り取ったスライスは、その時刻における要注視度の平面図画像に相当する。t軸に沿って動くカーソル801で切り取ったスライスを平面図画像に重畳した画像がウィンドウ802に表示され、利用者は操作部103を用いてカーソルを動かすと、カーソルの時刻に対応した要注視度の平面図画像をウィンドウ802で確認することができる。また、カーソル801による時空間立体の断面にも、平面図画像が重畳される。
時空間立体においては、人物の出現は803のように要注視度の高い部分がt軸方向に伸びているような形で現れる。本実施形態における利用者の目的は、この時空間立体から人物を探し出すことである。本実施形態においては、注視要因として、人物が存在し、その人物に指定した属性があることによって、要注視度が上昇するように注視要因管理部114で定める。
探している人物の条件を新たに加えると、要注視度の高い個所が絞り込まれる。利用者が注視要因ウィンドウを操作して、注視要因ウィンドウ805のように条件を追加すると、図9(B)のように表示が変化する。
また、利用者は得られた情報を時空間立体上に直接反映することができる。例えば、ある時間と場所との範囲において、例えば工事中で人の侵入ができないということが分かっていれば、利用者は806のように時空間立体の範囲を指定して、その範囲の要注視度を下げるように指示する。また、ある時刻において、例えば犯罪が行われて犯人が近くにいる可能性が高いことが分かっていれば、利用者は807のように時刻を指定して、その前後の時刻について要注視度が高くなるように設定する。これらの利用者が時空間立体上に入力した情報は、注視要因の一つとして注視要因管理部114において管理される。
S901において、表示情報管理部112は、要注視度設定部115の設定した要注視度に基づいて、時空間立体を表示する。
時空間立体は、x軸とy軸との方向に広がる長方形の平面図画像を、これらと垂直なt軸方向に積み重ねた直方体である。より具体的には、図11(A)のように、平面図画像の画素と、時間軸方向の最小単位とが成す立方体を立体画素として、それぞれの立方体に着色することによって立体のヒートマップとして表示される。
表示情報管理部112は、t軸の同じ値を持つ立体画素から成る面を取り出したときに、そのt軸の位置に対応する時刻の平面図画像に一致するようにする。時空間立体のt軸方向の長さ(直方体の個数)は表示部102の表示画面の大きさに依存して決まり、その時刻は、対象映像の長さを等分するようにして決定される。対象映像のフレーム数が時空間立体のt軸方向の長さに対して不足する場合は、表示情報管理部112は、隣り合った面から線形補完によって面を補充する。
表示情報管理部112は、時空間立体の立体画素をそれぞれ、内部を視認しやすいように透過して表示するようにする。それぞれの立体画素は不透明度を示すアルファチャンネルを持ち、表示情報管理部112は、色調と同様に要注視度の大きさに応じて定める。表示情報管理部112は、要注視度が大きいほど不透明にして、要注視度が所定の値よりも小さければ透明度を最大にするようにする。こうすることによって、要注視度の高い個所が時空間立体の画面に向かって奥側にあっても、利用者の視認が容易になる。
図11(B)及び図11(C)は、要注視度が高い領域をそれぞれ持つ時空間立体である。図11(B)の要注視度が高い領域が、図11(C)の要注視度が高い領域よりも手前側にあるものとする。なお、図11では3色の同心円状のパターンとして図示しているが、実際にはなめらかに色調が変化しているものとする。つまり、点線で示している同心円の枠線は実際に表示されているものではない。
図11(B)と図11(C)の要注視度が高い2つの領域を同時に表示しようとすると、図11(B)の領域の後ろに図11(C)が隠れ、視認できなくなってしまう。このような場合は、表示情報管理部112は、図11(D)のようにして、後ろ側の領域について、要注視度のある高さについての等高線1201を時空間立体の最も手前側に表示し、要注視度の高い領域の奥側に異なる要注視度の高い個所があることが視認できるようにする。このようにして、表示情報管理部112は、等高線の表示の有無を、要注視度の分布によって定める。
S902において、注視要因管理部114は、注視要因ウィンドウの操作に応じて注視要因の重みを変更する。
S903において、要注視度設定部115は、注視要因の重みの変更に応じて、要注視度を再設定する。
要注視度設定部115は、服装色の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、被服の領域の画素値を平均して、注視要因管理部114で指定された色との距離、例えばL*a*b*色空間等の均等色空間における距離の逆数をとって100倍したものを、対応する人物が出現した位置での注視要因の値とする。即ち、要注視度設定部115は、服装の色合いが指定された色に近いほど注視要因の値が大きくなるように定める。
要注視度設定部115は、髪型の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、頭部のパターンマッチングを行い、注視要因管理部114で指定された髪型のモデルへの一致度を、対応する人物が出現した位置での注視要因の値とする。髪型のモデルについては、注視要因管理部114で指定可能なものについて予め準備しておく。
要注視度設定部115は、身長の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、姿勢が最も直立に近い時点の画像をカメラとの距離によって正規化し、頭頂点と足底点の距離を求める。そして、要注視度設定部115は、注視要因管理部114で指定された範囲、例えば160cm以上等と比較して、含まれれば100、そうでなければ0を、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、様子の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、感情認識の手法を用いて人物の感情を認識して、注視要因管理部114で指定された感情の成分の量に基づいて定め、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、所持品の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、人物の周辺にあり人物に追従して動く動体を検知して、注視要因管理部114で指定された物体のカテゴリに含まれるかどうかによって定める。要注視度設定部115は、含まれれば100、そうでなければ0を、対応する人物が出現した位置での注視要因の値とする。
実施形態4では、実施形態1及び実施形態2とは異なる要注視度の利用方法として、要注視度を市場分析のために用いる方法について説明する。
図12を用いて、本実施形態における表示部の動作及び利用者の操作について説明する。
本実施形態においては、情報処理装置100が要注視度を算出して表示し、利用者が人物を情報入力ターゲットとして情報を付与する点は実施形態1と同様である。要注視度の表示方法としては、表示情報管理部112は、実施形態3と同様に時空間立体を用いて1000のように表示する。
本実施形態における、注視要因管理部114で管理する注視要因は、年代性別、滞留度、購入額、アプローチ形態、お勧め商品である。
利用者は本実施形態における注視要因ウィンドウ1001を操作部103によって操作して、調べたい注視要因の重みを決定する。また、利用者は属性情報、入力情報については、対象としたい項目をドロップダウンリスト1002、テキストボックス1003によって指定する。
利用者は、店員からアプローチして口紅Xを勧めた際の売れ行きを調査したいとする。利用者は注視要因ウィンドウ1001を操作して、アプローチ形態を「店員から」、お勧め商品を「口紅X」に設定するが、アプローチ形態とお勧め商品との注視要因については情報処理装置100が自動で判定できないため、利用者がラベル情報として入力を行う必要がある。人物映像1011、1012、1013が、要注視度の高い順にソートされて表示される。また、それぞれに対応してアプローチ形態を入力するドロップダウンリスト1021、1022、1023と、お勧め商品を入力するテキストボックス1031、1032、1033とが表示される。利用者はこれらの情報を、要注視度の高い人物に注意して入力する。
入力が進むと、時空間立体1000が変化し、店員からアプローチして口紅Xを勧めた人物が要注視度の高い個所として絞り込まれる。利用者はこの時空間立体を観察することによって、指定した条件での売り上げと売り場の位置及び時間帯との関係を把握したり、また注視要因ウィンドウ1001を操作して条件を変えた際にどのように変化するかを観察したりできる。
S305及びS306の代わりに、表示情報管理部112が時空間立体を表示するため、実施形態3のS901と同様の処理を行う。
S1101において、表示情報管理部112は、情報入力ターゲット検知部113で検出された人物の全体を取得する。本実施形態では時空間立体を用いて人物映像をラベル付けするため、表示情報管理部112は、時刻スライスに限らず対象の映像全体から人物を取得するようにする。
S1102において、表示情報管理部112は、S1101で得られた対象の映像に出現する人物の全体を要注視度でソートして表示する。人物の要注視度としては、以下の式で得られるahを用いる。
要注視度設定部115は、年代性別の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、年代性別推定の手法を用いて人物について年齢と性別とを指定し、注視要因管理部114で指定された年齢と性別に対応する人物について100、そうでなければ0を、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、滞留度の注視要因を、情報入力ターゲット検知部113が検出した人物らの対象の位置での速度に応じて定める。例えば、要注視度設定部115は、直近の5分間に、対象の位置を中心とする円の内部を通過した人物を収集して、その円内での速さの時間平均をとって、その逆数の100倍を注視要因の値とする。要注視度設定部115は、直前に近傍を通過した人物の速度が小さいほど、注視要因の値が大きくなるようにする。
要注視度設定部115は、アプローチ形態及びお勧め商品の注視要因を、利用者が操作部103を用いて入力したラベル情報に基づいて定める。要注視度設定部115は、注視要因管理部114で指定されたアプローチ形態と一致するラベル情報が付与された人物について、アプローチ形態の注視要因の値を100とする。また、要注視度設定部115は、注視要因管理部114で指定されたお勧め商品の文字列を部分文字列として含むラベル情報が付与された人物について、お勧め商品の注視要因の値を100とする。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した実施形態を任意に組み合わせて実施してもよい。
101 CPU
Claims (14)
- 所定の時刻で撮像された画像から検出されたターゲットに対応する要注意度を、該ターゲットが検出された位置を示すマップに表示する表示手段と、
前記ターゲットに対する前記要注意度を、少なくとも1つ以上の注視要因に基づいて設定する設定手段と、
ユーザによる前記ターゲットに対する情報の入力に基づいて、前記ターゲットに対する前記要注意度を更新する更新手段と、を有し、
前記表示手段は、前記更新された前記要注意度に基づいて、前記マップの表示を変更することを特徴とする情報処理装置。 - 前記更新手段は、前記ターゲットが要注意であるか否かを示すラベル情報に基づいて、前記ラベル情報が入力された前記ターゲットに対する前記要注意度を、前記ラベル情報が入力される前の前記ターゲットの前記要注意度よりも小さくするように前記要注意度を更新することを特徴とする請求項1に記載の情報処理装置。
- 前記表示手段は、複数の時刻において撮像された画像から算出された前記要注意度を前記マップに表示し、
前記更新手段は、前記ラベル情報によって要注意であると示されたターゲットが出現した時刻に撮像された画像に基づいて、前記ターゲットが出現した位置の前記要注意度を、前記ターゲットが出現する前より大きくするように更新することを特徴とする請求項2に記載の情報処理装置。 - 前記設定手段は、前記要注意度に対する前記注視要因の重み付けを変更するための前記情報を受け付けることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記表示手段は、複数の前記ターゲットに対してそれぞれ前記要注意度を表示し、
前記設定手段は、前記複数のターゲットに対する前記要注意度のそれぞれについて、前記注視要因の重み付けを設定することを特徴とする請求項4に記載の情報処理装置。 - 前記表示手段は、前記要注意度に対する前記注視要因の重み付けを設定するための設定画面を表示することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 前記設定手段は、前記情報が入力された前記ターゲットの前記要注意度と前記注視要因とに基づいて、前記要注意度に対する前記注視要因の重み付けを設定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記設定手段は、ユーザ操作の操作履歴に基づき前記注視要因の重み付けを推定し、設定することを特徴とする請求項7に記載の情報処理装置。
- 前記表示手段は、三次元時空間を示す前記マップとして表示することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
- 前記表示手段は、複数の前記ターゲットのうち、対応する前記要注意度が高い順に前記ターゲットが検出された画像を更に表示することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
- 前記表示手段は、前記要注意度の等高線を、前記マップに表示することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
- 前記表示手段は、前記要注意度の等高線を、前記要注意度の分布に基づいて決定することを特徴とする請求項11に記載の情報処理装置。
- 所定の時刻で撮像された画像から検出されたターゲットに対応する要注意度を、該ターゲットが検出された位置を示すマップに表示する表示工程と、
前記ターゲットに対する前記要注意度を、少なくとも1つ以上の注視要因に基づいて設定する設定工程と、
ユーザによる前記ターゲットに対する情報の入力に基づいて、前記ターゲットに対する前記要注意度を更新する更新工程と、を有し、
前記表示工程は、前記更新された前記要注意度に基づいて、前記マップの表示を変更することを特徴とする情報処理方法。 - コンピュータを、請求項1乃至12のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154108A JP7229698B2 (ja) | 2018-08-20 | 2018-08-20 | 情報処理装置、情報処理方法及びプログラム |
US16/535,973 US11210531B2 (en) | 2018-08-20 | 2019-08-08 | Information processing apparatus for presenting location to be observed, and method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154108A JP7229698B2 (ja) | 2018-08-20 | 2018-08-20 | 情報処理装置、情報処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020031276A JP2020031276A (ja) | 2020-02-27 |
JP2020031276A5 JP2020031276A5 (ja) | 2021-09-09 |
JP7229698B2 true JP7229698B2 (ja) | 2023-02-28 |
Family
ID=69523175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018154108A Active JP7229698B2 (ja) | 2018-08-20 | 2018-08-20 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11210531B2 (ja) |
JP (1) | JP7229698B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11575837B2 (en) * | 2020-04-27 | 2023-02-07 | Canon Kabushiki Kaisha | Method, apparatus and computer program for generating and displaying a heatmap based on video surveillance data |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134688A (ja) | 2007-11-28 | 2009-06-18 | Fuji Xerox Co Ltd | センサデータ内の活動の地理分布に基づく時間のセグメント化 |
JP2011113255A (ja) | 2009-11-26 | 2011-06-09 | Toyota Home Kk | 地域警備システム |
WO2017122258A1 (ja) | 2016-01-12 | 2017-07-20 | 株式会社日立国際電気 | 混雑状況監視システム |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NZ536913A (en) * | 2003-12-03 | 2006-09-29 | Safehouse Internat Inc | Displaying graphical output representing the topographical relationship of detectors and their alert status |
US20060222206A1 (en) * | 2005-03-30 | 2006-10-05 | Cernium, Inc. | Intelligent video behavior recognition with multiple masks and configurable logic inference module |
US8665333B1 (en) * | 2007-01-30 | 2014-03-04 | Videomining Corporation | Method and system for optimizing the observation and annotation of complex human behavior from video sources |
US8295597B1 (en) * | 2007-03-14 | 2012-10-23 | Videomining Corporation | Method and system for segmenting people in a physical space based on automatic behavior analysis |
IL199763B (en) * | 2009-07-08 | 2018-07-31 | Elbit Systems Ltd | Automatic contractual system and method for observation |
JP5740210B2 (ja) * | 2011-06-06 | 2015-06-24 | 株式会社東芝 | 顔画像検索システム、及び顔画像検索方法 |
US9111147B2 (en) * | 2011-11-14 | 2015-08-18 | Massachusetts Institute Of Technology | Assisted video surveillance of persons-of-interest |
BR112015005258A2 (pt) * | 2012-09-13 | 2017-07-04 | Nec Corp | sistema de processamento de imagem, método de processamento de imagem e programa |
JP6210234B2 (ja) * | 2012-09-19 | 2017-10-11 | 日本電気株式会社 | 画像処理システム、画像処理方法及びプログラム |
WO2014050432A1 (ja) * | 2012-09-27 | 2014-04-03 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP6171374B2 (ja) * | 2013-02-06 | 2017-08-02 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
US9122708B2 (en) * | 2013-02-19 | 2015-09-01 | Digitalglobe Inc. | Crowdsourced search and locate platform |
JP2014182628A (ja) | 2013-03-19 | 2014-09-29 | Nec Corp | 空間重要度判定装置、空間重要度判定方法、及びプログラム |
US9471849B2 (en) * | 2013-05-05 | 2016-10-18 | Qognify Ltd. | System and method for suspect search |
JP2015056697A (ja) | 2013-09-10 | 2015-03-23 | キヤノン株式会社 | 監視システムおよびその制御方法 |
JP5906556B1 (ja) * | 2014-10-17 | 2016-04-20 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
JP6286394B2 (ja) * | 2015-07-24 | 2018-02-28 | セコム株式会社 | 画像監視システム |
JP6256885B2 (ja) * | 2016-03-31 | 2018-01-10 | パナソニックIpマネジメント株式会社 | 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法 |
WO2018012389A1 (ja) * | 2016-07-11 | 2018-01-18 | パナソニックIpマネジメント株式会社 | 施設運営支援装置、ユーザ端末装置、および施設運営支援方法 |
SG11201901599QA (en) * | 2016-09-23 | 2019-04-29 | Hitachi Int Electric Inc | Monitoring device |
JP6616521B2 (ja) * | 2016-09-28 | 2019-12-04 | 株式会社日立国際電気 | 画像処理装置 |
WO2018067684A1 (en) * | 2016-10-04 | 2018-04-12 | The Johns Hopkins University | Measuring patient mobility in the icu using a novel non-invasive sensor |
US10586433B2 (en) * | 2017-02-13 | 2020-03-10 | Google Llc | Automatic detection of zones of interest in a video |
JP6914724B2 (ja) * | 2017-05-17 | 2021-08-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
EP3673650A4 (en) * | 2017-08-23 | 2020-07-15 | Siemens Healthcare Diagnostics Inc. | VISION SYSTEM FOR LABORATORY WORK |
US20190108561A1 (en) * | 2017-10-05 | 2019-04-11 | Mindtree Ltd. | Purchase Intent Determination And Real Time In-store Shopper Assistance |
EP3487161B1 (en) * | 2017-11-15 | 2019-10-30 | Axis AB | Splitting of a wide angle view |
JP2019096006A (ja) * | 2017-11-21 | 2019-06-20 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US10891741B2 (en) * | 2017-12-29 | 2021-01-12 | RetailNext, Inc. | Human analytics using fusion of image and depth modalities |
US10558862B2 (en) * | 2018-01-12 | 2020-02-11 | Intel Corporation | Emotion heat mapping |
CN108399381B (zh) * | 2018-02-12 | 2020-10-30 | 北京市商汤科技开发有限公司 | 行人再识别方法、装置、电子设备和存储介质 |
JP7088281B2 (ja) * | 2018-03-09 | 2022-06-21 | 日本電気株式会社 | 商品分析システム、商品分析方法および商品分析プログラム |
FR3081591B1 (fr) * | 2018-05-23 | 2020-07-31 | Idemia Identity & Security France | Procede de traitement d'un flux d'images video |
KR102588413B1 (ko) * | 2019-01-31 | 2023-10-12 | 한화비전 주식회사 | 히트맵을 생성하는 장치 및 방법 |
JP6989572B2 (ja) * | 2019-09-03 | 2022-01-05 | パナソニックi−PROセンシングソリューションズ株式会社 | 捜査支援システム、捜査支援方法およびコンピュータプログラム |
-
2018
- 2018-08-20 JP JP2018154108A patent/JP7229698B2/ja active Active
-
2019
- 2019-08-08 US US16/535,973 patent/US11210531B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134688A (ja) | 2007-11-28 | 2009-06-18 | Fuji Xerox Co Ltd | センサデータ内の活動の地理分布に基づく時間のセグメント化 |
JP2011113255A (ja) | 2009-11-26 | 2011-06-09 | Toyota Home Kk | 地域警備システム |
WO2017122258A1 (ja) | 2016-01-12 | 2017-07-20 | 株式会社日立国際電気 | 混雑状況監視システム |
Also Published As
Publication number | Publication date |
---|---|
US11210531B2 (en) | 2021-12-28 |
JP2020031276A (ja) | 2020-02-27 |
US20200057893A1 (en) | 2020-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10796138B2 (en) | Intra-facility activity analysis device, intra-facility activity analysis system, and intra-facility activity analysis method | |
Gupta et al. | Aligning 3D models to RGB-D images of cluttered scenes | |
JP4876687B2 (ja) | 注目度計測装置及び注目度計測システム | |
US8861801B2 (en) | Facial image search system and facial image search method | |
US9875408B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
US20190146991A1 (en) | Image search device, image search system, and image search method | |
JP2020078058A (ja) | 画像処理装置、監視システム、画像処理方法、及びプログラム | |
JP2011029737A (ja) | 監視映像検索装置及び監視システム | |
US9245247B2 (en) | Queue analysis | |
JP2013003964A (ja) | 顔画像検索システム、及び顔画像検索方法 | |
WO2022160592A1 (zh) | 一种信息处理方法、装置、电子设备及存储介质 | |
JP5180922B2 (ja) | 画像検索システム及び画像検索方法 | |
JP2016224919A (ja) | データ閲覧装置、データ閲覧方法、及びプログラム | |
JP6593949B1 (ja) | 情報処理装置、及び、マーケティング活動支援装置 | |
US9898666B2 (en) | Apparatus and method for providing primitive visual knowledge | |
JP2016015579A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JPWO2019171574A1 (ja) | 商品分析システム、商品分析方法および商品分析プログラム | |
JP7229698B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019029747A (ja) | 画像監視システム | |
WO2022113453A1 (ja) | 異常検知装置、異常検知方法 | |
JP2010245983A (ja) | 映像構造化装置,映像構造化方法および映像構造化プログラム | |
Allegra et al. | Exploiting egocentric vision on shopping cart for out-of-stock detection in retail environments | |
JP2009289210A (ja) | 重要物体認識装置および重要物体認識方法ならびにそのプログラム | |
US20220276705A1 (en) | Information processing method, information processing device, and non-transitory computer readable storage medium | |
JP2019200456A (ja) | プログラム、情報処理装置、及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230215 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7229698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |