JP2006081053A - System for supporting trace of mobile body - Google Patents
System for supporting trace of mobile body Download PDFInfo
- Publication number
- JP2006081053A JP2006081053A JP2004264942A JP2004264942A JP2006081053A JP 2006081053 A JP2006081053 A JP 2006081053A JP 2004264942 A JP2004264942 A JP 2004264942A JP 2004264942 A JP2004264942 A JP 2004264942A JP 2006081053 A JP2006081053 A JP 2006081053A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- tracking
- user
- cameras
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、複数のカメラを用いて所定の監視空間を移動する移動体の追跡を行うユーザーを支援する移動体追跡支援システムに関する。 The present invention relates to a moving body tracking support system that supports a user who tracks a moving body that moves in a predetermined monitoring space using a plurality of cameras.
複数のカメラを用い、所定の監視空間を移動する、例えば、車や人などの移動体を追跡する移動体追跡システムとして、例えば、非特許文献1のものがある。この移動体追跡システムは、所定の監視空間内の複数の予め決められた空間それぞれを撮影する複数のカメラを有し、まず、カメラの撮影映像に映されている追跡対象である移動体の特徴(特徴量)を画像処理によって抽出する。カメラの撮影映像に移動体が現れたとき(映されたとき)、画像処理により、特徴量に基づいて該移動体が追跡対象の移動体であることを自動的に認識する。追跡対象の移動体が認識された映像を、自動的に表示装置に表示することにより、ユーザーは表示された映像を見て追跡対象の移動体を追跡することができる。
しかしながら、上述の移動体追跡システムにおいて、特徴量に基づいて映像に映されている移動体を追跡対象の移動体と認識するための画像処理は、多大な計算量を必要とするため、非常に高価な計算装置が必要であった。また、画像処理を行うには、カメラが撮影する空間を重ねなければならず、そのため、多くのカメラを高密度で配置する必要があり、その結果、移動体追跡システムは高価なものになっていた。 However, in the above-described moving body tracking system, the image processing for recognizing the moving body shown in the video based on the feature amount as the tracking target moving body requires a large amount of calculation. An expensive computing device was required. In addition, in order to perform image processing, it is necessary to overlap the space taken by the camera, and therefore, it is necessary to arrange many cameras at high density, and as a result, the moving body tracking system is expensive. It was.
そこで、本発明は、ユーザーとの対話処理を行えるようにした、ユーザーによる追跡を支援するシステムであって、高価な計算装置を必要とせず、また、カメラを密に配置する必要がないものを提供することを目的とする。 Therefore, the present invention is a system that supports user tracking that enables interactive processing with a user, that does not require an expensive computing device and that does not require dense camera arrangement. The purpose is to provide.
本発明の移動体追跡支援システムは、複数のカメラを用いて移動体の追跡を行うユーザーを支援する移動体追跡支援システムにおいて、
個々の撮影領域をそれぞれ撮影する複数のカメラと、
複数のカメラのうち二つまたはそれ以上のカメラの撮影映像を表示する表示手段と、
ユーザーにより移動体を撮影する第1のカメラを選択できるようにしたカメラ選択手段と、
各カメラの撮影領域同士の接続関係を記憶する接続関係記憶手段と、
カメラ選択手段を介して第1のカメラが選択されると、接続関係記憶手段を参照して、第1のカメラの撮影領域と接続関係にある撮影領域を撮影する一つまたはそれ以上の第2のカメラの撮影映像を、第1のカメラの撮影映像とともに表示手段に表示させる表示撮影映像決定手段とを備えることを特徴とする。
The mobile tracking support system of the present invention is a mobile tracking support system that supports a user who tracks a mobile using a plurality of cameras.
Multiple cameras that shoot each individual shooting area,
Display means for displaying video images taken by two or more of a plurality of cameras;
Camera selection means for enabling the user to select a first camera for photographing the moving body;
A connection relationship storage means for storing the connection relationship between the shooting areas of each camera;
When the first camera is selected via the camera selection means, the connection relation storage means is referred to, and one or more second images for photographing the photographing area connected to the photographing area of the first camera. And a display photographed video determining means for displaying the photographed video of the first camera together with the photographed video of the first camera on the display means.
本願において、接続関係とは、以下のように定義されるものである。撮影領域AとBとがあって、撮影領域AとBが接続関係を有するとは、複数の撮影領域を有する追跡領域内において、撮影領域Aを通過した移動体が、他の撮影領域を通過することなく、撮影領域Bに移動できるような場合をいう。 In the present application, the connection relationship is defined as follows. There are imaging areas A and B, and the imaging areas A and B have a connection relationship. In a tracking area having a plurality of imaging areas, a moving object that has passed the imaging area A passes through another imaging area. This is a case where the user can move to the shooting area B without doing.
本発明によれば、高価な計算装置を必要とせず、また、カメラを密に配置する必要がなく、ユーザーと協力しながら移動体を追跡することができる移動体追跡支援システムを提供することができる。 According to the present invention, it is possible to provide a moving body tracking support system that can track a moving body in cooperation with a user without the need for an expensive computing device and the need for densely arranging cameras. it can.
実施の形態1.
図1は、本発明の実施の形態1に係る移動体追跡支援システムの構成図を示している。移動体追跡支援システム10は、所定の監視領域、例えば、道路や通路などの監視を行うユーザー(監視者)を支援するものである。しかしながら、本発明の移動体追跡支援システムは、移動体を監視することに限定しておらず、移動体の移動の様子(移動経路や移動中の様子など)を観察するためにも使用でき、例えば、移動しながら変態する微生物の観察などにも使用できる。
FIG. 1 shows a configuration diagram of a mobile tracking support system according to
移動体追跡支援システム10は、所定の監視領域内の複数の予め決められた領域それぞれを撮影する複数のカメラ12−1〜12−M(Mは2以上の整数)、ネットワーク14を介して複数のカメラ12−1〜12−Mと接続されている移動体追跡支援サーバ16を有する。
The moving body
複数のカメラ12−1〜12−Mは、撮影映像を映像データに変換する変換装置(図示せず)、例えば、映像をMPEG−2/4(Motion Picture Expert Group Phase 2/4)データに変換するMPEGエンコーダを有し、変換された映像データを、常時ネットワーク14に送信するようにしてある。また、送信される映像データには、映像データの映像が撮影された時期(年月日と時刻)の情報が付加される。
The plurality of cameras 12-1 to 12 -M convert a captured video into video data (not shown), for example, convert video into MPEG-2 / 4 (Motion Picture Expert Group Phase 2/4) data. The converted video data is always transmitted to the
複数のカメラ12−1〜12−Mはそれぞれ、所定の監視領域内の予め決められた領域を撮影することが可能な位置に配置されている。以下、予め決められた領域を撮影領域と称する。複数のカメラ12−1〜12−Mが撮影する撮影領域は、以下に述べるように、相互に接続関係を有する場合と有さない場合に分けられる。 Each of the plurality of cameras 12-1 to 12-M is arranged at a position where a predetermined area within a predetermined monitoring area can be photographed. Hereinafter, the predetermined area is referred to as an imaging area. The imaging areas captured by the plurality of cameras 12-1 to 12 -M are classified into cases where they have a connection relationship with each other and cases where they do not have a connection as described below.
接続関係について1つの例を挙げて説明する。図2は、接続関係を理解するための、複数の撮影領域を有する監視領域の一例である。図中の監視領域20は、中央分離帯22を有する片側1車線の道路24を有する。監視領域20において、複数のカメラC1〜C7それぞれが、対応する道路24上の撮影領域A1〜A7を撮影している(例えば、カメラC1は撮影領域A1を撮影する。)。カメラC2が撮影する撮影領域A2を例に接続関係を説明すると、撮影領域A2と接続関係にあるのは撮影領域A1とA5である。撮影領域A3とA4は撮影領域A2と隣接しているが、これらは撮影領域A2と接続関係を有しない。つまり、撮影領域A2を通過した移動体(車)が、次に移動する可能性があるのは撮影領域A1とA5である。これに対し、撮影領域A2を通過した移動体が、他の撮影領域を通過することなく、次に、中央分離帯22を介して反対車線上の撮影領域A3またはA4に移動することはない。
The connection relationship will be described with an example. FIG. 2 is an example of a monitoring area having a plurality of imaging areas for understanding the connection relationship. The
確認のために、例えば、撮影領域A6を通過した追跡対象の移動体(以下、追跡対象の移動体を、「被追跡体」と称する。)が、監視領域20の外部に出て、再び監視領域20内に入って撮影領域A7に移動した場合、撮影領域A6とA7は、接続関係を有していないものとする。
For confirmation, for example, a tracking target moving body that has passed through the imaging area A6 (hereinafter, the tracking target moving body is referred to as a “tracked object”) goes out of the
更に確認のために、複数のカメラ12−1〜12−Mは、監視領域内に必ず配置されているわけでなく、複数のカメラ12−1〜12−Mの撮影領域が監視領域内にあるだけである。例えば、監視領域外部に配置されたカメラが、監視領域内のある空間を撮影していてもよい。 For further confirmation, the plurality of cameras 12-1 to 12-M are not necessarily arranged in the monitoring area, and the imaging areas of the plurality of cameras 12-1 to 12-M are in the monitoring area. Only. For example, a camera arranged outside the monitoring area may photograph a certain space in the monitoring area.
なお、本実施の形態において、複数の撮影領域を有する領域は、監視の対象である監視領域であるが、広義には、ユーザーが移動体の追跡を行う追跡領域であって、この場合も上述の記載は成り立つ。 In this embodiment, an area having a plurality of imaging areas is a monitoring area to be monitored, but in a broad sense, a tracking area in which a user tracks a moving object. Is valid.
複数のカメラ12−1〜12−Mが撮影する撮影領域の接続関係を示す接続関係情報は、後述する移動体追跡支援サーバの接続関係記憶部に記憶されている。 The connection relationship information indicating the connection relationship of the imaging areas captured by the plurality of cameras 12-1 to 12-M is stored in the connection relationship storage unit of the moving body tracking support server described later.
図3は、本実施の形態に係る移動体追跡支援サーバ16の概略的構成を示す図である。移動体追跡支援サーバ16は、概略、複数のカメラ12−1〜12−Mから送信された映像データを蓄積する映像蓄積部30、ユーザーによる指令を入力するための入力部32、カメラの撮影映像を表示する表示部34、移動体追跡支援サーバ16全体を制御する制御部36とを有する。
FIG. 3 is a diagram showing a schematic configuration of the moving object
また、移動体追跡支援サーバ16は、ユーザーによる被追跡体の追跡を支援する際に使用される情報をそれぞれ有する、接続関係記憶部38、カメラ情報記憶部40、監視領域情報記憶部42と、追跡結果の情報が記録される追跡結果情報記録部44とを有する。
In addition, the mobile body
映像蓄積部30は、ネットワーク14を介して送信される複数のカメラ12−1〜12−Mそれぞれからの映像データを受信して蓄積(記録)していく。映像データの記録は、例えば、エンドレス記録(新しい映像データが記録される際に、最も古い映像データを消去する記録法)で行う。映像蓄積部30は、記録している映像データを、制御部36からの読み出し指令に基づいて、制御部36に送出するようにしてある。なお、制御部36に送出する映像データは過去に記録されたものに限らない。複数のカメラ12−1〜12−Mそれぞれからのリアルタイムの映像データが、映像蓄積部30に記録されるとともに、映像蓄積部30を介して送出されることもある。表示部34に表示する撮影映像が、リアルタイムのものであるか過去のものであるかは、ユーザーが入力部32を介して制御部36に指示する。
The
入力部32は、制御部36に接続されており、ユーザーが選択したカメラの撮影映像を表示部34の表示画面に表示させるユーザーの選択表示指令など(他の指令については後述する。)を制御部36に入力するものであり(言い換えれば、入力部は、ユーザーにより被追跡体を撮影するカメラを選択させるカメラ選択手段として機能する。)、入力部は例えば、キーボードやマウスなどである。また、タッチパネルで構成してもよい。
The
表示部34は、制御部36に接続されており、例えば、液晶ディスプレイなどである。
The
制御部36は、表示部34の表示を制御する表示制御部46およびカメラの選択履歴を作成するカメラ選択履歴作成部48を有する。
The
表示制御部46は、表示部34に表示する撮影映像を決定する表示撮影映像決定部50、ユーザーの被追跡体の追跡を支援する情報を表示部34に表示する追跡支援情報表示制御部52を有する。
The
以下、制御部36内の表示制御部46、カメラ選択履歴作成部48、表示撮影映像決定部50、追跡支援情報表示制御部52の詳細を、表示部34の表示画面を参照しながら説明する。
Hereinafter, details of the
図4は、表示部34の表示画面を示す図である。表示撮影映像決定部50は、ユーザーの入力部32を介する選択表示指示に基づいて、ユーザーが選択したカメラ(第1のカメラ)の撮影映像(複数のカメラ12−1〜12−Mから送信されるリアルタイムの映像データの映像または映像蓄積部30に記録されている過去に撮影された映像データの映像)60を、表示部34の表示画面62に表示するようにしてある。それと並行して、表示撮影映像決定部50は、接続関係記憶部38を参照して、第1のカメラの撮影領域と接続関係にある撮影領域を有する1つまたはそれ以上のカメラ(第2のカメラ)の撮影映像64を表示部34の表示画面62に表示するようにしてある。なお、表示画面62に表示される第2のカメラの撮影映像64の数は、第1のカメラの撮影領域と接続関係にある撮影領域の数(第2のカメラの数)によって決定される。このとき、第1のカメラの撮影映像の撮影時刻と、同一の撮影時刻の第2のカメラの撮影映像が表示される。撮影時刻も表示部34の表示画面62の撮影時刻カウンタ66に表示されている。
FIG. 4 is a diagram showing a display screen of the
ユーザーにより、第1のカメラの撮影映像60から被追跡体が消えて(映っていない状態になって)1つまたはそれ以上の第2のカメラの撮影映像64の1つに追跡対象の移動体が出現した(映されている状態になった)ことを確認され、確認された撮影映像を撮影している第2のカメラを入力部32を介して選択されると、表示撮影映像決定部50は、選択された第2のカメラを新たな第1のカメラと決定し、その撮影映像を新たな第1のカメラのものとして表示部34の表示画面62の第1のカメラの撮影映像表示位置に表示する。続いて、接続関係記憶部38を参照して、新たな第1のカメラの撮影領域と接続関係にある撮影領域を撮影するカメラを新たな第2のカメラとし、新たな第2のカメラの撮影映像を新たな第1のカメラの撮影映像とともに、表示部34の表示画面62の第2のカメラの撮影映像表示位置に表示する。
The tracked object disappears from the captured
このように、表示撮影映像決定部50は、ユーザーによって第2のカメラの撮影映像から新たな第1のカメラが選択され、新たな第1のカメラに基づいて新たな第2のカメラの撮影映像を表示部34の表示画面62に表示することを繰り返す、すなわち、ユーザーの指示に基づいてカメラを切り替えることにより、ユーザーの被追跡体の追跡を支援する。
In this way, the display photographed
追跡支援情報表示制御部52は、ユーザーの被追跡体の追跡を支援するためのさまざまな情報(以下、追跡支援情報と称する。)の1つとして、所定の監視領域の地図70を示すようにしてある(図4参照。)。監視領域の地図70には、複数のカメラ12−1〜12−Mが撮影する撮影領域の位置(または、複数のカメラ12−1〜12−Mの配置位置)が示されている。このような地図の情報は、監視領域情報に含まれており、監視領域情報は、監視領域情報記憶部42に記憶されている。監視領域情報は、単なる地図情報だけでなく、複数の撮影領域の間の距離などの数値情報や、例えば、監視領域が道路である場合は、道路の交通規制情報(制限速度や一方通行など)などが含まれている。
The tracking support information
また、追跡支援情報表示制御部52は、追跡支援情報の1つとして、ユーザーが決定した被追跡体の画像(被追跡体画像)72を表示部34の表示画面62に表示することができるようにしてある。これにより、ユーザーは、撮影映像に複数の移動体が映されていても間違えることなく、被追跡体画像72を参照することにより、被追跡体が映されている撮影映像64を撮影している第2のカメラを選択することができる。このような被追跡体画像72を、追跡対象参照画像72と称する。
Further, the tracking support information
さらに、追跡支援情報表示制御部52は、追跡支援情報の1つとして、表示部34の表示画面62に表示されている第2のカメラの撮影映像64において、被追跡体が最初に出現しうる位置に印74(例えば、矢印)を付すように構成されている。
Further, the tracking support information
第2のカメラの撮影映像64が表示部34の表示画面62に複数表示される場合、第1のカメラの撮影映像60から被追跡体が消え、複数の第2のカメラの撮影映像64の1つに被追跡体が出現したとき、ユーザーが出現を確認できずにそのまま該複数の第2のカメラの撮影映像64の1つから該被追跡体が消えることがある。これは、第2のカメラの撮影映像64が複数あるためにユーザーが撮影映像64全てを見きれず、また、第2のカメラの撮影映像64において、どの場所から被追跡体が出現するか分からないためである。
When a plurality of captured
第1のカメラの撮影映像60から消えた被追跡体が、複数の第2のカメラの撮影映像64において最初に出現しうる位置に印74があれば、ユーザーは複数の第2のカメラの撮影映像64の印74近傍を見るだけで済み、該被追跡体が出現したことを見逃す可能性が低くなる。以下、このような印74を出現場所特定マーク74と称する。
If the tracked object disappeared from the captured
出現場所特定マーク74は、第2のカメラの配置位置や撮影方向によって異なる。このことを、図5を用いて説明する。図5は、複数のカメラC10〜C12と、複数のカメラC10〜C12によって撮影される撮影領域A10〜A12を有する直線道路76の概略的なモデルを示している。図5(a)は、直線道路76を側面から見た図であり、図5(b)は、直線道路76を上方から見た図である。複数のカメラC10〜C12は、直線道路76の幅方向中央線78上方の直線道路76から略等距離の位置に配置されている。カメラC10とC12は、それぞれの撮影領域A10とA12に対して略同一位置に配置されており(撮影方向80―10と80−12が略同じである)、カメラC11の撮影方向80−11が、カメラC10とC12の撮影方向80−10と80−12と、幅方向中央線78の伸張方向に関して略対称である。
The appearance
ここで、カメラC10が第2のカメラとした場合、出現場所特定マーク74は、第1のカメラがC11であるまたはC12であるかによって異なる。第1のカメラがC11であるとき、カメラC11の撮影領域A11を通過した移動体M1は、第2のカメラの撮影映像の上方から出現して該撮影映像に映される。一方、第1のカメラがC12であるとき、カメラC12の撮影領域A12を通過した移動体M2は、第2のカメラの撮影映像の下方から出現して該撮影映像に映される。
Here, when the camera C10 is the second camera, the appearance
このように、出現場所特定マーク74は、第1のカメラとともに、第2のカメラの配置位置や撮影方向によって決定される。追跡支援情報表示制御部52は、接続関係記憶部38を参照するとともに、カメラの配置位置や撮影方向に関する情報を記憶しているカメラ情報記憶部40を参照して、第1のカメラの撮影領域内の被追跡体が第2のカメラの撮影領域内に移動したときに第2のカメラの撮影映像64内に出現しうる位置に、出現場所特定マーク74を付する。
Thus, the appearance
加えて、追跡支援情報表示制御部52は、追跡支援情報の1つとして、監視領域情報記憶部42を参照して、複数の第2のカメラの中、第1のカメラの撮影映像60から被追跡体が消えて、次に該被追跡体が移動してくる可能性が高い撮影領域を撮影している第2のカメラの撮影映像64に印82(例えば、枠状印)を付すように構成されてもよい。
In addition, the tracking support information
具体的に説明するために、図2を用いる。図に示される道路24において、移動体(車)は、矢印方向(進行方向)26に進行するものとする。この場合、撮影領域A2に注目して考えると、撮影領域A2と接続関係にある撮影領域A1とA5である。撮影領域A2から消えた移動体が次に移動する可能性が高いのは、進行方向26の先にある撮影領域A5である。撮影領域A1に移動するのは、移動体が逆走した場合であってその可能性は低い。
For specific description, FIG. 2 is used. In the
このように、監視領域記憶部42を参照して、複数の第2のカメラにおいて、第1のカメラの撮影映像60から被追跡体が消えて、次に該被追跡体が移動する可能性が高い撮影領域を撮影している第2のカメラの撮影映像64に印82を付すことにより、ユーザーは該印82が付された第2の撮影映像64に重きをおいて複数の第2のカメラの撮影映像64を見ることができる。以下、このような印82を、出現候補マーク82と称する。
In this way, with reference to the monitoring
監視領域が、例えば道路である場合、被追跡体(移動体)の速度は制限されている。この制限速度(監視領域情報に含まれている)と、第1のカメラの撮影領域と複数の第2のカメラの撮影領域それぞれとの間の距離(監視領域情報に含まれている)から、第1のカメラの撮影映像から被追跡体が消え、第2のカメラの撮影映像に該被追跡体が出現するまでの出現時間を予測することができる。この予測出現時間を利用して、出現候補マークは、例えば、複数の第2のカメラの撮影映像中、最先に被追跡体が出現する可能性がある第2のカメラの撮影映像のみに付されてもよい。また、第1のカメラの撮影映像から被追跡体が消えて時間が経過する毎に、出現候補マークを付する第2のカメラの撮影映像を変更してもよい。これは、出現候補マークが付され、複数の第2のカメラの撮影映像中、最先に被追跡体が現れうる第2のカメラの撮影映像に該被追跡体が現れるまでの予測出現時間経過後は、該第2のカメラの撮影領域に被追跡体が移動しなかったことを示し、次に被追跡体が現れうる第2のカメラの撮影映像に出現候補マークを付することを意味する。 When the monitoring area is, for example, a road, the speed of the tracked body (moving body) is limited. From this speed limit (included in the monitoring area information) and the distance (included in the monitoring area information) between the imaging area of the first camera and each of the imaging areas of the plurality of second cameras, The appearance time until the tracked object disappears from the captured image of the first camera and the tracked object appears in the captured image of the second camera can be predicted. Using this predicted appearance time, the appearance candidate mark is attached only to, for example, a captured image of the second camera in which the tracked object may appear first in the captured images of the plurality of second cameras. May be. Further, every time when the tracked object disappears from the video captured by the first camera and the time elapses, the video captured by the second camera to which the appearance candidate mark is attached may be changed. This is because an expected appearance time elapses until the tracked object appears in the captured image of the second camera, to which the tracked object appears first, among the captured images of the plurality of second cameras with the appearance candidate mark attached. After that, it indicates that the tracked object has not moved to the shooting area of the second camera, and means that an appearance candidate mark is attached to the shot image of the second camera where the tracked object can appear. .
表示制御部46は、ユーザーの入力部32を介する再生速度の変更や巻き戻し再生などの指令に基づいて、例えば、ユーザーによって図4の表示画面62に表示されている再生速度調整ボタン84がマウスを介してクリックされることにより、撮影映像(第1のカメラと第2カメラの撮影映像)の再生速度を速める、または遅らせて表示部34の表示画面62に表示する、または、巻き戻し再生で表示するように構成されている。
The
また、表示制御部46は、複数のカメラ12−1〜12−Mの撮影映像を表示部34の表示画面62に示すようにしてある。例えば、カメラが9台ある場合、図6に示すように、9台のカメラの撮影映像85−1〜85−9を表示部34の表示画面62に表示する。これは、上述するように第2のカメラから第1のカメラを選択するためには、まず、最初に第1のカメラ(最初の第1のカメラ)が決定されていなければならず(第1のカメラが決定されないと第2のカメラが決定されない。)、そのために、複数のカメラ12−1〜12−Mの撮影映像を表示部34の表示画面62に示し、ユーザーに最初の第1のカメラを選択させるためである。
Further, the
図3に戻って、カメラ選択履歴作成部48は、被追跡体を追跡する際に第1のカメラの選択履歴をカメラ選択履歴情報として作成記録する。第1のカメラの選択履歴によって被追跡体が通過した撮影領域がわかり、その結果、所定の監視領域内において、被追跡体が移動した軌跡が分かる。カメラ選択履歴作成部48が作成したカメラ選択履歴情報は、追跡結果情報記憶部44に保存されている追跡結果情報に付加される。
Returning to FIG. 3, the camera selection
移動体追跡支援サーバ16は、ユーザーの入力部32を介する追跡終了の指示に基づいて、追跡を終了するように構成されており、例えば、ユーザーによって図4の表示画面62に表示されている追跡完了ボタン86がマウスを介してクリックされることにより、表示撮影映像決定部50による第2のカメラの撮影映像の表示を終了する。
The mobile body tracking
なお、図4に示す表示部34の表示画面62において、説明されていないボタンや表示画像に関しては、後述する実施例において説明する。
Note that buttons and display images that are not described in the
次に、ユーザーとの対話処理をしながら移動体追跡支援サーバ16が行う追跡支援処理を、図7に一例として示す処理フローに沿って説明する。
Next, a tracking support process performed by the mobile body tracking
まず、ステップS10において、制御部36は、ユーザーの入力部32を介する第1のカメラ選択指令の入力を確認する。第1のカメラ選択指令の入力が確認されるとステップS20に進む。なお、ステップ10におけるユーザーによる第1のカメラの選択指令として、ユーザーは、表示部34に、図6に示すように表示画面62に複数のカメラ12−1〜12−Mの撮影映像を表示させ、その撮影映像を参照してあるカメラを第1のカメラと選択する選択指令を行う。代わりに、ユーザーが、例えば、不審な移動体がある領域を移動中との連絡を受けてなどして、ある領域を撮影しているカメラを第1のカメラと選択する選択指令もある。第1のカメラ選択指令の入力が確認されるまで、制御部36は、追跡支援処理の実施を待機する。
First, in step S <b> 10, the
ステップS20において、表示撮影映像決定部50は、ステップS10におけるユーザーによって選択された第1のカメラの撮影映像60を表示部34の表示画面62に表示するとともに、接続関係記憶部38を参照して、第2のカメラを決定し、その撮影映像64を表示部34の表示画面62に表示する。
In step S20, the displayed captured
ステップS30において、追跡支援情報表示制御部52は、ステップS20において決定された第2のカメラに基づき、カメラ情報記憶部40と監視領域情報記憶部42とを参照して、追跡支援情報を表示部34の表示画面62に表示する。
In step S30, the tracking support information
ステップS40において、制御部36は、ユーザーが複数の第2のカメラの撮影映像64から新たな第1のカメラを選択して入力部32を介して入力した新たな第1のカメラ選択指令の入力を確認する。新たな第1のカメラ選択指令の入力が確認されるとステップS50に進む。第1のカメラ選択指令の入力が確認されるまで、制御部36はステップS40を繰り返す。
In step S <b> 40, the
ステップS50において、カメラ選択履歴作成部48は、新たな第1のカメラの選択履歴情報を作成し、作成された新たな第1のカメラの選択履歴情報は追跡結果情報記憶部44に保存されている追跡結果情報に付加される。
In
ステップS60において、表示撮影映像決定部50は、ステップS40におけるユーザーによって選択された新たな第1のカメラの撮影映像を表示部34の表示画面62に表示するとともに、接続関係記憶部38を参照して、新たな第2のカメラを決定し、その撮影映像を表示部34の表示画面62に表示する。
In step S60, the display shooting
ステップS70において、追跡支援情報表示制御部52は、ステップS60において決定された新たな第2のカメラに基づき、カメラ情報記憶部40と監視領域情報記憶部42とを参照して、追跡支援情報(例えば、矢印74や枠状印82)を表示部34の表示画面62に表示する。
In step S70, the tracking support information
ステップS80において、制御部36は、ユーザーの入力部32を介する追跡完了指令の入力を確認する。入力が確認された場合、制御部36は、追跡を完了する。入力が確認されない場合、ステップS40に戻り、追跡支援を続行する。
In step S <b> 80, the
本実施形態によれば、高価な計算装置を必要とせず、また、カメラを密に配置する必要がない、ユーザーと協力して(ユーザーを支援して)移動体を追跡する移動体追跡支援システムを提供することができる。また、追跡対象の移動体が映されているカメラの撮影映像の確認を行うユーザーの負担が軽減されるため、ユーザーは追跡対象の移動体を楽に追跡することができる。 According to the present embodiment, a mobile object tracking support system that tracks a mobile object in cooperation with a user (in support of the user), which does not require an expensive computing device and does not require a dense arrangement of cameras. Can be provided. In addition, since the burden on the user who confirms the captured image of the camera on which the tracking target moving body is displayed is reduced, the user can easily track the tracking target moving body.
以下、実施例を挙げて移動体追跡支援サーバ16が行うユーザーの移動体追跡の支援の流れを説明する。
Hereinafter, the flow of support for tracking a user's moving object performed by the moving object tracking
ここで挙げる移動体追跡支援サーバ16は、コンピュータ(パーソナルコンピュータ)に専用のソフトウェアが組み込まれて構成されており、二つまたはそれ以上のカメラ12−1〜12−Mの撮影映像を表示部34であるディスプレイ(以下、ディスプレイ34と称する。)の表示画面に表示するようにしてある。
The moving body tracking
また、移動体追跡支援サーバ16は、ユーザーから指令される移動体の追跡に関する指令が割り当てられた複数の指令ボタンをディスプレイ34の表示画面に表示するとともに、マウスと連動して移動するポインタ(マウスポインタ)をディスプレイ34の表示画面に表示している。マウス、指令ボタン、マウスポインタが入力部32に含まれる。移動体追跡支援サーバ16は、ディスプレイ34の表示画面上において、ユーザーによってマウスを介してマウスポインタが指令ボタン上に移動され、そこでマウスに設けられた決定ボタン(図示せず)がクリックされることによって指令ボタンに割り当てられた移動体の追跡に関する指令を実行するようにしてある。指令ボタンに割り当てられた指令については、後で説明する。また、文章や数字を入力するためのキーボードも入力部32に含まれる。
In addition, the moving body tracking
ここで説明する実施例は、複数のカメラA〜Hそれぞれが道路上の予め決められた撮影領域を撮影して映像蓄積部30に蓄積された過去の撮影映像(映像データ)を用いて、カメラAの撮影領域内の道路に荷物を落としたトラック(被追跡体)を追跡していくものである。移動体追跡支援サーバ16が行うユーザーの移動体追跡の支援の流れに従って表示されるディスプレイ34の表示画面を図に示す。
In the embodiment described here, each of the plurality of cameras A to H captures a predetermined shooting area on the road and uses the past shot video (video data) stored in the
まず、移動体追跡支援サーバ16は、ユーザーによって起動されると、複数のカメラ12−1〜12−Mが撮影している今現在の映像、または、撮影して映像蓄積サーバ16に蓄積されている過去の映像を表示する。表示される映像、すなわち、今現在の映像を表示するか過去の映像を表示するかは、例えば、ユーザーが見たい時期をキーボードによって撮影時刻カウンタ108に入力することによって決定される。撮影時刻カウンタ108は、表示されている撮影映像の撮影時刻を示すとともに、ユーザーが所望する撮影時刻を入力させることにより、所望の撮影時刻の撮影映像の部分を表示制御部46が頭出しできるようにしてある。
First, when activated by the user, the moving body tracking
ユーザーが、カメラAの過去の撮影映像を表示するように入力部32を介して移動体追跡支援サーバ16に指令すると、カメラAの過去の撮影映像が第1のカメラの撮影映像としてディスプレイ34の表示画面に表示される。
When the user instructs the moving body tracking
図8(a)は、表示撮影映像決定部50により、ユーザーが所望する撮影時刻のカメラAの撮影映像が表示されているとともに、接続関係記憶部38を参照して、第2のカメラB、C、D、Eの撮影映像が表示されているディスプレイ34の表示画面100を示している。
In FIG. 8A, the display shooting
第1のカメラの撮影映像110と第2のカメラの撮影映像112とを区別するために表示撮影映像決定部48は、第1のカメラであるカメラAの撮影映像110を、第2のカメラであるカメラB、C、D、Eの撮影映像112より大きく表示している。表示画面100の左上隅には、追跡支援情報表示制御部52により、監視領域情報である監視領域の地図114が表示されており、地図114には、複数のカメラA〜Hの配置位置が示されている。また、表示画面100において、第2のカメラB、C、D、Eの撮影映像112には、追跡支援情報表示制御部52により、出現場所特定マーク116が付されている。
In order to distinguish between the photographed
また、表示画面100には、入力装置44のマウスと連動して表示画面100上を移動するマウスポインタ118によってクリックされる複数の指令ボタン120、122、124、126、128、130が示されている。以下、省略するために、ユーザーがマウスによってマウスポインタ118をボタン上に移動させ、マウスの決定ボタンをクリックすることによって動作ボタンをクリックするという動作を、単に、ユーザーが指令ボタンをクリックすると表現する。
Also, the
再生速度調整ボタン120は、表示されている撮影映像の再生速度を調整する際にクリックされるボタンである。表示画面100に表示されている複数の撮影映像(第1のカメラと第2のカメラの撮影映像)は、表示制御部46により、同期再生され、同期して再生速度が調整される。再生速度調整ボタン120がクリックされると、表示制御部50は、撮影映像に対し、早送り再生、スロー再生、逆再生、コマ送り再生、スチル再生を行う。ユーザーは追跡しやすい再生速度で撮影映像に映されているトラックを追跡する。
The playback
ユーザーは、第1のカメラのカメラAの撮影映像110に映されているトラックを追跡することを決定すると、出現ボタン124を押す。出現ボタン124が押されると、カメラ選択履歴作成部48により、カメラAの情報と出現ボタン124がクリックされたときの撮影時刻の情報が付加されたトラックに関するカメラ選択履歴情報が作成される。
When the user decides to track the track shown in the captured
次に、ユーザーは、追跡対象であるトラックの画像を追跡対象参照情報として表示させる。図8(b)は、トラックの画像132を追跡対象参照情報表示領域134に表示した表示画面100である。まず、ユーザーは、再生速度調整ボタン120によって撮影映像の再生を停止させる。再生停止している第1のカメラのカメラAの撮影映像110からトラックの像をキャプチャリング(捕捉)する。キャプチャリングは、記録ボタン122を押し、第1のカメラの撮影映像に映されているトラックの像をマウスポインタ118によって矩形枠138を描いて囲み、マウスの決定ボタンを押すことで行われる。キャプチャリングされたトラックの像は、トラックの画像132として追跡対象参照情報表示領域134に表示される。以後、ユーザーは、トラックの画像132を参照しながら、トラックを追跡していく。
Next, the user displays an image of the track that is the tracking target as tracking target reference information. FIG. 8B is a
図9(c)に示すように、追跡支援情報表示制御部52により、第1のカメラのカメラAの撮影映像110に映されているトラックの像が該撮影映像110から消えたとき、次に出現する可能性が高い第2のカメラの撮影映像112には出現候補マーク140が付されている。出現候補マーク140は、例えば、第2のカメラの撮影映像112を囲む枠であり、ここでは、カメラD、Eの撮影映像112を囲んでいる。
As shown in FIG. 9C, when the track image displayed on the captured
図9(d)は、第1のカメラの撮影映像110からトラックの像が消えた後の表示画面100である。第2のカメラであるカメラEにトラックらしき像が映されているが、この段階では、ユーザーはトラックらしき像が追跡対象のトラックであるとは確認できていない。
FIG. 9D shows the
図10(e)は、第2のカメラのカメラEの撮影映像を拡大表示したときの表示画面100である。第2のカメラの撮影映像112の拡大表示は、マウスポインタ118を拡大したい撮影映像上に移動させ、マウスの決定ボタンを押すことで実行される。ユーザーは、一時的に第1のカメラの撮影映像と置き換えられ、拡大表示された第2のカメラのカメラEの撮影映像112Lを見て、第2のカメラのカメラEに映されているトラックが追跡対象であるトラックであることを確認する。
FIG. 10E shows a
図10(f)に示すように、確認後、ユーザーが、出現ボタン124を押すと、表示撮影映像決定部50により、カメラEが新たな第1のカメラと決定され、カメラEの撮影映像が新たな第1のカメラの撮影映像110’となる。また、表示撮影映像決定部50により、カメラEの撮影領域と接続関係がある撮影領域を撮影しているカメラA、D、G、Fが新たな第2のカメラと決定され、カメラA、D、G、Fの撮影映像が新たな第2のカメラの撮影映像112’となる。さらに、カメラ選択履歴作成部48により、トラックに関するカメラ選択履歴情報に、カメラEと出現ボタン124がクリックされたときの撮影時刻の情報が付加される。
As shown in FIG. 10 (f), after confirmation, when the user presses the
以上のように、ユーザーは、第2のカメラの撮影映像から新たな第1のカメラを選択し、新たな第1のカメラに基づいて新たに表示された第2のカメラの撮影映像から更に新たな第1のカメラを選択することを繰り返す、すなわち、カメラを切り替えることにより、トラックを追跡する。 As described above, the user selects a new first camera from the captured image of the second camera, and further adds a new one from the captured image of the second camera newly displayed based on the new first camera. Repeat the selection of the first camera, i.e., track the track by switching cameras.
ユーザーは、追跡完了ボタン128をクリックしてトラックの追跡を完了する。追跡完了ボタン128がクリックされると、図11(g)に示すように、トラックに関する追跡結果情報を示すウインドウ142が表示される。ウインドウ142には、トラックが映されている撮影映像が撮影された時期、トラックに関する追跡結果情報のファイル名、ユーザーのコメント、カメラの選択履歴情報、及びトラックの画像132などが表示される。また、トラックに関する追跡結果情報をファイルとして保存するか否か、または、情報142の内容で保存するか否かをユーザーに問う保存確認ボタン144が表示される。ユーザーは、トラックに関する追跡結果情報を保存する場合、保存確認ボタン144の「はい」ボタンをクリックする。ユーザーは、トラックに関する追跡結果情報を示すウインドウ142に表示されているファイル名を変更する場合やユーザーのコメントを加える場合、例えば、キーボードによってファイル名を変更する又はコメントを加える。トラックに関する追跡結果情報は、追加結果情報記録部44に保存される。
The user clicks the
ユーザーが保存されている追跡結果情報を閲覧する場合、追跡履歴再生ボタン130をクリックする(図8(a)参照。)。追跡履歴再生ボタン130がクリックされると、表示制御部46により、図12(a)に示すように、保存されている複数の移動体に関する追跡履歴情報146の一覧が表示される。閲覧したい追跡履歴情報上にマウスポインタ118を移動させ、マウスの決定ボタンを押すと追跡履歴情報が表示される。
When the user browses the stored tracking result information, the user clicks the tracking history playback button 130 (see FIG. 8A). When the tracking
追跡履歴情報は、図12(b)に示すように表示画面100に表示される。追跡履歴情報に付加されている詳細情報148が、表示画面100の上部に表示される。また、時系列に沿ったカメラの切り替え履歴を示す情報150が表示される。さらに、追跡時に複数のカメラに撮影された撮影映像(第1のカメラに選択された複数のカメラの撮影映像)が連続してなる追跡映像152が表示される。
The tracking history information is displayed on the
また、追跡履歴情報を閲覧する場合、新たな指令ボタン(スキップボタン154、モードボタン156、通過ボタン158)が表示され、追跡映像152の「スキップ再生」、「モード再生」の実行が可能になる。
Further, when browsing the tracking history information, new command buttons (
「スキップ再生」は、追跡映像152において、例えば、スキップボタン150が押され続けられている撮影時刻の間の撮影映像を飛ばして再生するためのものである。
“Skip playback” is for skipping and playing back the shot video during the shooting time when the
「モード再生」は、一度、ユーザーが追跡映像152を見て、追跡対象の移動体が映されていない部分を追跡映像152からトリミング(削除)したものを再生するものである。例えば、追跡映像152を再生中、ある第1のカメラの撮影映像(追跡映像152に含まれ、第1のカメラに選択された複数のカメラの撮影映像の1つ)から被追跡体が消えたことを確認したユーザーによって通過ボタン158がクリックされると、ある第1のカメラの撮影映像の再生が終了し、次の第1のカメラの撮影映像を再生するようにしてある。このとき、追跡映像152は、通過ボタン158がクリックされたときに再生していたある第1のカメラの撮影映像の部分から次の第1のカメラの撮影映像の最初の部分(ある第1のカメラの撮影映像の最後の部分)までトリミングされる。このトリミング処理を繰り返すことにより、追跡映像152から被追跡体が映されていない部分がトリミングされる。トリミング処理された追跡映像152を新たなファイルとして保存した後(または、保存前に)、モードボタン156がクリックされると、トリミング処理された追跡映像152が再生される。トリミング処理された追跡画像152に常に被追跡体が映り続けることになり、ユーザーは被追跡体の移動の様子がよくわかるようになる。
The “mode playback” is a mode in which the user once views the tracking
追跡映像152において、被追跡体が映されていない部分が発生するのは、例えば、第1のカメラXから被追跡体が消えたとき、第2のカメラYに被追跡体が出現するまでに、カメラXの撮影領域とカメラYの撮影領域とが離れている理由から時間がかかることがあり、この間、被追跡体が存在しない状態をカメラXは撮影しているためである。カメラYに被追跡体が出現してユーザーが出現ボタン124をクリックするまで、カメラの選択履歴には被追跡体が存在しない状態を撮影しているカメラXの情報が残ることになる。
For example, when the tracked object disappears from the first camera X, the portion in which the tracked object is not reflected in the
実施例1において、荷物を落とした以後のトラックを追跡したが、荷物を落とす以前のトラックの走行を逆方向に追跡することも、映像蓄積部により蓄積される過去に撮影した映像を表示制御部が逆再生することにより可能である。また、表示画面において、第1のカメラの撮影映像と第2のカメラの撮影映像は、異なる大きさで表示されているが、これに限定するわけでなく、例えば、XGAやSXGAの高解像度のディスプレイであれば、第1のカメラの撮影映像と第2のカメラの撮影映像を同じ大きさで表示してもよい。さらに、第1のカメラと第2のカメラの位置が直感的にわかるように、それぞれの撮影映像を表示画面上に配置してもよい。例えば、背景画面に監視領域の地図を示し、地図において複数の撮影領域位置に、複数の撮影領域を撮影しているカメラの撮影映像を表示してもよい。加えて、表示画面において、撮影領域や追跡支援情報などの表示のレイアウトは、ユーザーによって自由に変更できるようにしてもよい。 In the first embodiment, the track after the load is dropped is tracked, but the traveling of the track before the load is dropped can be traced in the reverse direction. Is possible by reverse playback. In addition, on the display screen, the video image captured by the first camera and the video image captured by the second camera are displayed in different sizes. However, the present invention is not limited to this. For example, a high resolution XGA or SXGA In the case of a display, the captured image of the first camera and the captured image of the second camera may be displayed in the same size. Furthermore, each captured image may be arranged on the display screen so that the positions of the first camera and the second camera can be intuitively understood. For example, a map of the monitoring area may be shown on the background screen, and captured images of a camera that is capturing a plurality of imaging areas may be displayed at a plurality of imaging area positions on the map. In addition, on the display screen, the layout of the display such as the shooting area and the tracking support information may be freely changed by the user.
実施の形態2.
本実施の形態の移動体追跡支援システムは、実施の形態1の移動体追跡支援システムにおいて、第1のカメラの撮影映像に映されている被追跡体の第1のカメラの撮影領域での追跡を容易にするものである。第1のカメラの撮影映像に複数の移動体が映されている場合、被追跡体をマーキング(例えば、被追跡体を色付けしたり、被追跡体の像に特定の形状のマークを重ねるなど)することで、ユーザーはマーキングされた移動体だけを追跡すればよく、複数の移動体から被追跡体を見付ける負荷が低減される。
Embodiment 2. FIG.
The moving body tracking support system according to the present embodiment is the same as the moving body tracking support system according to the first embodiment, except that the tracked object shown in the captured image of the first camera is tracked in the shooting area of the first camera. To make it easier. When a plurality of moving objects are shown in the captured image of the first camera, the tracked object is marked (for example, the tracked object is colored or a mark of a specific shape is superimposed on the image of the tracked object). Thus, the user only needs to track the marked moving body, and the load of finding the tracked body from the plurality of moving bodies is reduced.
本実施の形態の移動体追跡支援システムは、第1のカメラの撮影映像に映されている被追跡体を第1のカメラの撮影映像上で追跡するために、第1のカメラの撮影映像をなす画像フレーム上でユーザーにより移動体を指定できるように入力部(移動体指定手段)を構成するとともに、入力部を介して指定した移動体に関する第1のカメラの撮影領域内での移動を、画像処理を用いて追跡する移動体追跡部を設ける以外、実施の形態1と同じ構成である。従って、入力部と移動体追跡部に関して説明する。 The moving body tracking support system according to the present embodiment uses a captured image of the first camera in order to track the tracked object reflected in the captured image of the first camera on the captured image of the first camera. The input unit (moving body specifying means) is configured so that the moving body can be specified by the user on the image frame formed, and the movement of the first camera with respect to the moving body specified through the input unit is moved within the imaging region. The configuration is the same as that of the first embodiment except that a moving body tracking unit that tracks using image processing is provided. Therefore, the input unit and the moving body tracking unit will be described.
図13は、本実施の形態に係る移動体追跡支援サーバ316の概略的構成を示す図である。入力部388と制御部336内の移動体追跡部390以外は、実施の形態1のものとほぼ同じであり、実施の形態1の符号に300を付して表し、説明を適宜省略する。
FIG. 13 is a diagram showing a schematic configuration of the mobile
入力部388は、第1のカメラの撮影映像において、ユーザーが被追跡体を指定するためのものである。被追跡体は、ユーザーが入力部388を介して再生停止させた過去の撮影映像(映像蓄積部330内の撮影映像)の画像フレーム、またはリアルタイム映像から取得した画像フレーム(静止映像)から指定される。被追跡体の指定は、例えば、静止映像上において、被追跡体の像の部分とそれ以外の部分の境界をユーザーが入力部388を介して示すことによって行われる。指定された被追跡体の情報(指定指令)は、制御部336の移動体追跡部390に入力される。
The
移動体追跡部390は、画像処理を行うことにより、ユーザーが入力部388によって指定した被追跡体から特徴量(例えば、色成分や輝度など)を抽出し、抽出した特徴量に基づいて第1のカメラの撮影映像を構成する画像フレーム毎に被追跡体を特定する。このように移動体の特徴量に基づいて移動体を特定する方法は、例えば、非特許文献1に詳細に説明されている。
The moving
表示制御部346は、移動体追跡部390が画像フレーム毎に特定した被追跡体の像にマーキング(追跡マークを付す。)した撮影映像を表示部334の表示画面に表示する。これにより、ユーザーは、被追跡体と追跡マークとがともに第1のカメラの撮影映像において移動しているように見える。
The
被追跡体の特徴量と類似の特徴量を有する別の移動体が第1のカメラの撮影映像上に存在し、該撮影映像において被追跡体と別の移動体が重なって映された場合、追跡マークが別の移動体に付されることがある。この場合、ユーザーは、第1のカメラの撮影映像において、被追跡体の追跡マークが別の移動体に付されているのに気がついて、被追跡体に追跡マークが再び付すために、撮影映像を停止させる。ユーザーによって被追跡体が再び指定されると、別の移動体に付されていた追跡マークを消去するように表示制御部346は構成されている。
When another moving body having a feature amount similar to the feature amount of the tracked object is present on the captured image of the first camera, and the tracked object and another moving body are overlapped in the captured image, A tracking mark may be attached to another moving body. In this case, the user notices that the tracking mark of the tracked object is attached to another moving object in the captured image of the first camera, and the tracking image is attached again to the tracked object. Stop. When the tracked object is designated again by the user, the
第1のカメラの撮影映像上の被追跡体の追跡は、必ず行わなければならないことはなく、追跡の実施はユーザーによって任意に決定される。基本的には、第1のカメラの撮影映像に被追跡体が写されていれば、実行可能である。以下、ユーザーとの対話処理をしながら移動体追跡支援サーバ316が行う第1のカメラの撮影映像上での追跡支援処理を、図14に一例として示す処理フローに沿って説明する。
The tracking of the tracked object on the captured image of the first camera is not necessarily performed, and the execution of the tracking is arbitrarily determined by the user. Basically, it can be executed if the tracked object is captured in the image captured by the first camera. Hereinafter, the tracking support process on the captured image of the first camera performed by the moving body tracking
まず、ステップS110において、制御部336は、ユーザーによって過去またはリアルタイムの撮影映像が再生停止されていることを確認する。撮影映像が再生停止が確認された場合、ステップS120に進む。
First, in step S110, the
ステップS120において、制御部336は、ユーザーが入力部332を介して撮影映像が再生停止されて表示されている画像フレーム上で被追跡体を指定したか否かを確認する。被追跡体が指定されたことが確認できない場合、ステップS130に進む。指定されたことが確認されるとステップS150に進み、第1のカメラの撮影映像上での追跡支援処理が開始される。
In step S <b> 120, the
ステップS130において、ユーザーの入力部332を介する再生指令の入力を確認する。再生指令の入力が確認されると、ステップS140に進む。再生指令の入力が確認されない場合、ステップS120に戻る。 In step S130, the input of the reproduction command via the user input unit 332 is confirmed. When the input of the reproduction command is confirmed, the process proceeds to step S140. When the input of the reproduction command is not confirmed, the process returns to step S120.
ステップS140において、表示制御部346が再生停止されている撮影映像を再生する。次に、ステップS110に戻る。
In step S140, the
ステップS150において、移動体追跡部390は、画像処理により、指定された被追跡体の像から特徴量を抽出する。
In step S150, the moving
ステップS160において、制御部336は、ユーザーの入力部332を介する再生指令の入力を確認する。再生指令の入力が確認されると、ステップS170に進む。
In step S <b> 160, the
ステップS170において、表示制御部346が再生停止されている撮影映像を再生する。
In step S170, the
ステップS180において、移動体追跡処理部390は、ステップS150において抽出した特徴量に基づいて、再生されている撮影映像の画像フレーム毎に被追跡体を特定する。
In step S180, the moving body
ステップS190において、表示制御部346は、ステップS180において特定され、再生されている撮影映像の画像フレーム毎の被追跡体にマーキングを行う。
In step S190, the
ステップS200において、制御部336は、ユーザーの入力部332を介する再生停止指令の入力を確認する。再生停止指令の入力がある場合、ステップS210に進む。再生停止指令の入力がない場合、ステップS220に進む。
In step S <b> 200, the
ステップS210において、制御部336は、ユーザーが入力部332を介して撮影映像が再生停止されて表示されている画像フレーム上で被追跡体を指定したか否かを確認する。被追跡体が指定されたことが確認されるとステップS150に戻る。指定されたことが確認されない場合、ステップS160に戻る。なお、このステップS210は、ユーザーが、第1のカメラの撮影映像において、被追跡体の追跡マークが別の移動体に付されているのに気がついて、被追跡体に追跡マークが再び付するために、被追跡体を再指定したか否かを確認している。
In step S <b> 210, the
ステップS220において、制御部336は、ユーザーの入力部332を介する新たな第1のカメラ(被追跡体をマーキングして追跡している第1のカメラの撮影領域と接続関係にある第2のカメラから選択される新たな第1のカメラ)選択指令の入力を確認する。入力が確認された場合、第1のカメラの撮影映像上から被追跡体が消えたとユーザーが判断したとして、第1のカメラの撮影映像上での追跡支援処理を終了する。
In step S <b> 220, the
新たな第1のカメラ選択指令入力が確認されない場合、第1のカメラの撮影映像上に被追跡体が存在するとして、ステップS180に戻って、第1のカメラの撮影映像上での追跡支援処理を続行する。 If a new first camera selection command input is not confirmed, it is determined that there is a tracked object on the captured image of the first camera, and the process returns to step S180 to perform tracking support processing on the captured image of the first camera. To continue.
本実施形態によれば、第1のカメラの撮影映像に複数の移動体が映されている場合、ユーザーはマーキングされた移動体だけを追跡すればよく、複数の移動体から被追跡体を見付ける負荷が低減される。 According to the present embodiment, when a plurality of moving objects are shown in the captured image of the first camera, the user only needs to track the marked moving object, and find the tracked object from the plurality of moving objects. The load is reduced.
以下、実施例を挙げて、第1のカメラの撮影映像上において行われる被追跡体の追跡の流れを説明する。ここで、挙げる実施例は、複数のカメラT〜Zが配置された建物空間において、人物を追跡するものである。 Hereinafter, the flow of tracking of the tracked object performed on the captured image of the first camera will be described with an example. Here, the example given trackss a person in a building space where a plurality of cameras T to Z are arranged.
図15(a)は、カメラXが追跡対象の不審人物をライブ撮影しているときの表示装置の表示画面200を示している。表示制御部346により、表示画面200には、カメラXの撮影映像210が表示されている。また、表示画面200の左上隅には、追跡支援情報表示制御部352により、監視領域情報である建物内部の空間図214が表示されており、空間図214には、複数のカメラT〜Zの配置位置が示されている。また、表示画面200には、複数の指令ボタン220と260が表示されている。指令ボタン220は、実施の形態1の再生速度調整ボタン120と同一であるため説明を省略する。追跡ボタン260は、移動体(不審人物)261を追跡する際に押されるボタンである。
FIG. 15A shows a
図15(b)は、図15(a)の表示画面200において、追跡ボタン260がユーザーによって押されたとき切り替わり、再生速度調整ボタン220がクリックされて再生停止している状態の表示部334の表示画面200を示している。カメラXの撮影映像が第1のカメラの撮影映像として表示されるとともに、カメラXの撮影領域と接続関係がある撮影領域を撮影するカメラV、Zが撮影映像212が第2のカメラの撮影映像として表示されている。
FIG. 15 (b) is switched when the
ユーザーは、第1のカメラのカメラXの撮影映像上で(カメラXの撮影領域内において)、不審人物261を追跡するための追跡マークを付与する不審人物261を特定するために、不審人物261を指定する。指定は、停止中の撮影映像210の画像フレームに映されている不審人物261の像をマウスポインタ218により、例えば、楕円形枠262を描いて囲み、マウスの決定ボタンを押すことで行われる。その結果、移動体追跡部390は、画像処理によって不審人物261の特徴量を抽出する。
In order to specify the
続いて、ユーザーがライブ監視ボタン264を押すと、表示画面200に表示されている第1のカメラのカメラXの撮影映像が、リアルタイムのカメラXの撮影映像に切り替わる(図16(c)参照。)。第1のカメラのカメラXの撮影映像210に映されている不審人物261の像に、表示制御部346によって追跡マーク266が付与されている。
Subsequently, when the user presses the
停止中の撮影映像210の画像フレーム上の不審人物261を指定する間の実際の不審人物261の追跡は、映像蓄積部340に蓄積されている映像データによって行ってもよい。または、蓄積された撮影映像を、リアルタイムの撮影映像の撮影時刻に追いつくまでユーザーまたは表示性制御部346が不審人物261を追跡できる速さで早送りし、追いつくと同時に、表示制御部346がリアルタイムの撮影映像に切り替えることによって追跡を行ってもよい。
The tracking of the actual
また、不審人物261の像をマウスポインタ218で、例えば、楕円を描いて囲むことによって指定した際、追跡支援情報表示制御部352が、囲んだ不審人物261の像を、不審人物の画像268として追跡対象参照情報表示領域232に表示してもよい。
Further, when the image of the
図16(d)に示すように、第1のカメラのカメラXの撮影映像210から不審人物261が消え、第2のカメラのカメラZに不審人物261が出現したことを確認すると、ユーザーは、実施例1と同様に、カメラZを第1のカメラと選択する。
As shown in FIG. 16D, when it is confirmed that the
図17(e)は、表示撮影映像決定部350により、カメラZが第1のカメラと決定され、接続関係記憶部338を参照して、カメラX、Yが第2のカメラと決定されたときの表示部334の表示画面200を示している。
FIG. 17E shows the case where the camera Z is determined as the first camera by the display shooting
ユーザーは、カメラZの撮影領域において不審人物261を追跡する場合、上述したように、不審人物261を指定する。ユーザーは、指定前に、再生速度調整ボタン220により、撮影映像を停止させる。このとき、不審人物261を指定する際、不審人物261の像をマウスポインタ218で、例えば、楕円を描いて囲むことによって指定した不審人物261の像が、追跡支援情報表示制御部352により、画像として追跡対象参照情報表示領域232に表示されることを考慮して、例えば、不審人物261の顔が見える頭部分を囲んで指定してもよい。この場合、追跡対象参照情報表示領域232に、不審人物261の別の画像として、不審人物261の顔が見える頭部分の画像270が表示される。
When the user tracks the
不審人物261の特徴量と類似の特徴量を有する別の人物272がカメラZの撮影領域に存在し、カメラZの撮影映像210において不審人物261と別の人物272が重なって映された場合、追跡マーク274が別の人物272に付されることがある(図17(f)参照。)。この場合、ユーザーは、不審人物261に追跡マークが再び付されるように、上述するように該不審人物261を指定する。このとき、別の人物272に付された追跡マーク274を消去するように表示制御部346は構成されている。
When another
第1のカメラの撮影映像上で被追跡体を追跡したが、第2のカメラの撮影映像上でも被追跡体の追跡を行ってもよい。この場合、第1のカメラの撮影領域と第2のカメラの撮影領域との一部が重なるように撮影領域を設定する。こうすることにより、第1のカメラの撮影映像上と、第2のカメラの撮影映像上に同一の被追跡体が出現する。このとき、第1のカメラの撮影映像上で被追跡体にマーキングすると、第2のカメラの撮影映像上でも被追跡体に自動的にマーキングされるように移動体追跡支援システムを構成してもよい。この場合、ユーザーが第2のカメラに被追跡体が映されているか確認する際に役立つ。 Although the tracked object is tracked on the captured image of the first camera, the tracked object may be tracked on the captured image of the second camera. In this case, the shooting area is set so that the shooting area of the first camera and the shooting area of the second camera partially overlap. By doing so, the same tracked object appears on the captured image of the first camera and on the captured image of the second camera. At this time, even if the moving body tracking support system is configured such that when the tracked object is marked on the captured image of the first camera, the tracked object is automatically marked also on the captured image of the second camera. Good. In this case, it is useful when the user confirms whether the tracked object is reflected on the second camera.
また、カメラは、映像データの映像に映されている被追跡体にマーキングした状態で映像データを送信できるようにしてもよい。この場合、カメラが被追跡体を特定するための特徴量を移動体追跡支援サーバから取得する特徴量取得部と、特徴量に基づいて画像フレーム毎に被追跡体を特定する移動体特定部と、映像データの画像フレーム上の被追跡体の像に追跡マークを付する画像変換部とを有すればよい(これらの構成要素が、対応するカメラが第1のカメラと決定されたとき、入力部を介して指定した被追跡体に関する第1のカメラの撮影領域内での移動を、画像処理を用いて追跡する移動体追跡手段を構成する。)。この場合、移動体追跡支援サーバの制御部内の移動体追跡部が省略される。 The camera may be capable of transmitting the video data in a state where the tracked object shown in the video of the video data is marked. In this case, a feature amount acquisition unit for the camera to acquire a feature amount for specifying the tracked object from the moving body tracking support server, a mobile object specification unit for specifying the tracked object for each image frame based on the feature amount, And an image conversion unit that attaches a tracking mark to the image of the tracked object on the image frame of the video data. (These components are input when the corresponding camera is determined to be the first camera. And moving body tracking means for tracking the movement of the first camera in the imaging region with respect to the tracked object specified via the unit using image processing. In this case, the moving body tracking unit in the control unit of the moving body tracking support server is omitted.
以上、2つの実施形態を挙げて、本発明の移動体追跡支援システムを説明したが、本発明はこれに限定される訳でない。また、様々な変形例を当業者が考えるのは容易である。例えば、1つの移動体Mを追跡中、移動体Mが映されている、あるカメラCのある撮影時刻Pの撮影映像に映されている別の移動体M’を追跡したい場合がある。この場合、移動体Mの追跡が完了した後、別の移動体M’を直ぐに追跡できるように、あるカメラCのある撮影時刻Pの撮影映像を直ぐに頭出しできるように、カメラCの撮影時刻Pの撮影映像に「しおり」として機能する頭出し信号を付する。ユーザーは、「しおり」が付された撮影映像の部分が、別の移動体M’が映されている撮影映像の部分とわかり、別の移動体M’の追跡がすぐに実施できるようになる。 The mobile tracking support system of the present invention has been described with reference to two embodiments, but the present invention is not limited to this. In addition, it is easy for those skilled in the art to consider various modifications. For example, while tracking one moving body M, there is a case where it is desired to track another moving body M ′ shown in a captured image at a certain shooting time P of a certain camera C in which the moving body M is shown. In this case, after the tracking of the moving body M is completed, the shooting time of the camera C is set so that the shooting video of the shooting time P of a certain camera C can be quickly found so that another moving body M ′ can be tracked immediately. A cueing signal that functions as a “bookmark” is attached to the P video. The user recognizes the portion of the photographed image with the “bookmark” attached as the portion of the photographed image on which another moving body M ′ is reflected, and the tracking of another moving body M ′ can be immediately performed. .
16 移動体追跡支援サーバ、 32 入力部(カメラ選択手段)、 34 表示部(表示手段)、 38 接続関係記憶部(接続関係記憶手段)、 50 表示撮影映像決定部(表示撮影映像決定手段)
16 moving body tracking support server, 32 input unit (camera selection unit), 34 display unit (display unit), 38 connection relationship storage unit (connection relationship storage unit), 50 display shooting video determination unit (display shooting video determination unit)
Claims (7)
個々の撮影領域をそれぞれ撮影する複数のカメラと、
複数のカメラのうち二つまたはそれ以上のカメラの撮影映像を表示する表示手段と、
ユーザーにより移動体を撮影する第1のカメラを選択できるようにしたカメラ選択手段と、
各カメラの撮影領域同士の接続関係を記憶する接続関係記憶手段と、
カメラ選択手段を介して第1のカメラが選択されると、接続関係記憶手段を参照して、第1のカメラの撮影領域と接続関係にある撮影領域を撮影する一つまたはそれ以上の第2のカメラの撮影映像を、第1のカメラの撮影映像とともに表示手段に表示させる表示撮影映像決定手段とを備えることを特徴とする移動体追跡支援システム。 In a moving body tracking support system that supports a user who tracks a moving body using a plurality of cameras,
Multiple cameras that shoot each individual shooting area,
Display means for displaying video images taken by two or more of a plurality of cameras;
Camera selection means for enabling the user to select a first camera for photographing the moving body;
A connection relationship storage means for storing the connection relationship between the shooting areas of each camera;
When the first camera is selected via the camera selection unit, the connection relationship storage unit is referred to, and one or more second ones that shoot a shooting region that is connected to the shooting region of the first camera. A moving body tracking support system comprising: a display photographing image determining means for displaying a photographing image of the first camera together with a photographing image of the first camera on a display means.
個々の撮影領域を有する複数のカメラにより取得された映像データを蓄積する映像蓄積手段と、
映像蓄積手段に蓄積された映像データに基づいて、複数のカメラのうち二つまたはそれ以上のカメラの撮影映像を表示する表示手段と、
ユーザーにより移動体を撮影する第1のカメラを選択できるようにしたカメラ選択手段と、
各カメラの撮影領域同士の接続関係を記憶する接続関係記憶手段と、
カメラ選択手段を介して第1のカメラが選択されると、接続関係記憶手段を参照して、第1のカメラの撮影領域と接続関係にある撮影領域を撮影する一つまたはそれ以上の第2のカメラの撮影映像を、第1のカメラの撮影映像とともに表示手段に表示させる表示撮影映像決定手段とを備えることを特徴とする移動体追跡支援システム。 In a moving body tracking support system that supports a user who tracks a moving body using a plurality of cameras,
Video storage means for storing video data acquired by a plurality of cameras having individual shooting areas;
Display means for displaying shot images of two or more cameras out of a plurality of cameras based on the video data stored in the video storage means;
Camera selection means for enabling the user to select a first camera for photographing the moving body;
A connection relationship storage means for storing the connection relationship between the shooting areas of each camera;
When the first camera is selected via the camera selection unit, the connection relationship storage unit is referred to, and one or more second ones that shoot a shooting region that is connected to the shooting region of the first camera. A moving body tracking support system comprising: a display photographing image determining means for displaying a photographing image of the first camera together with a photographing image of the first camera on a display means.
追跡支援情報表示制御手段は、カメラ情報記憶手段に記憶された情報に基づいて、第1のカメラの撮影領域内の移動体が第2のカメラの撮影領域内に移動したときに第2のカメラの撮影映像内に出現しうる位置を、追跡支援情報として表示手段に表示させることを特徴とする請求項4記載の移動体追跡支援システム。 Camera information storage means for storing information on the arrangement position and shooting direction of each camera;
The tracking support information display control means, based on the information stored in the camera information storage means, moves the second camera when the moving body in the shooting area of the first camera moves into the shooting area of the second camera. 5. The moving body tracking support system according to claim 4, wherein a position that can appear in the captured video is displayed on the display means as tracking support information.
移動体指定手段を介して指定した移動体に関する第1のカメラの撮影領域内での移動を、画像処理を用いて追跡する移動体追跡手段をさらに備えた請求項1〜5のいずれか一つに記載の移動体追跡支援システム。 A moving object designating means for allowing a user to designate a moving object on an image frame forming a video image taken by the first camera;
The mobile object tracking means for tracking the movement within the imaging region of the first camera related to the mobile object specified through the mobile object specifying means using image processing is further provided. The moving body tracking support system described in 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004264942A JP4572099B2 (en) | 2004-09-13 | 2004-09-13 | Mobile tracking support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004264942A JP4572099B2 (en) | 2004-09-13 | 2004-09-13 | Mobile tracking support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006081053A true JP2006081053A (en) | 2006-03-23 |
JP4572099B2 JP4572099B2 (en) | 2010-10-27 |
Family
ID=36160112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004264942A Expired - Fee Related JP4572099B2 (en) | 2004-09-13 | 2004-09-13 | Mobile tracking support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4572099B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007267294A (en) * | 2006-03-30 | 2007-10-11 | Hitachi Ltd | Moving object monitoring apparatus using a plurality of cameras |
JP2009017416A (en) * | 2007-07-09 | 2009-01-22 | Mitsubishi Electric Corp | Device and method for monitoring, and program |
JP2009188905A (en) * | 2008-02-08 | 2009-08-20 | Mitsubishi Electric Corp | Auto traceable image pickup device, auto traceable image pickup method, and program therefor |
JP2010136099A (en) * | 2008-12-04 | 2010-06-17 | Sony Corp | Image processing device and method, image processing system, and image processing program |
JP2013081039A (en) * | 2011-10-03 | 2013-05-02 | Hitachi Kokusai Electric Inc | Image display device |
JP2013257689A (en) * | 2012-06-12 | 2013-12-26 | Tokyu Corp | Cooperative security system and control center server |
WO2014069088A1 (en) * | 2012-10-29 | 2014-05-08 | 日本電気株式会社 | Information processing system, information processing method, and program |
JP2014155159A (en) * | 2013-02-13 | 2014-08-25 | Nec Corp | Information processing system, information processing method, and program |
KR20160103459A (en) * | 2015-02-24 | 2016-09-01 | 주식회사세오 | node-link based camera network monitoring system and method of monitoring the same |
JPWO2014061342A1 (en) * | 2012-10-18 | 2016-09-05 | 日本電気株式会社 | Information processing system, information processing method, and program |
JP2019125053A (en) * | 2018-01-12 | 2019-07-25 | 京セラドキュメントソリューションズ株式会社 | Information terminal device, information processing system, and display control program |
US10368010B2 (en) | 2012-07-31 | 2019-07-30 | Nec Corporation | Image processing system, image processing method, and program |
JP2020014210A (en) * | 2013-04-16 | 2020-01-23 | 日本電気株式会社 | Information processing system, information processing method, and program |
CN111768433A (en) * | 2020-06-30 | 2020-10-13 | 杭州海康威视数字技术股份有限公司 | Method and device for realizing tracking of moving target and electronic equipment |
JP2022027568A (en) * | 2020-07-30 | 2022-02-10 | ネイバーラボス コーポレーション | Robot control method and system |
EP3952281A4 (en) * | 2019-03-29 | 2022-05-04 | Sony Group Corporation | Information processing device, information processing method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1139589A (en) * | 1997-07-18 | 1999-02-12 | Fuji Electric Co Ltd | Traffic monitoring device and method |
JPH11161880A (en) * | 1997-09-17 | 1999-06-18 | Sony United Kingdom Ltd | Device for monitoring system |
JP2000032435A (en) * | 1998-07-10 | 2000-01-28 | Mega Chips Corp | Monitoring system |
JP2001111987A (en) * | 1999-10-07 | 2001-04-20 | Daikoku Denki Co Ltd | Monitoring device |
JP2002239180A (en) * | 2001-02-22 | 2002-08-27 | Sankyo Kk | Game parlor monitoring device |
-
2004
- 2004-09-13 JP JP2004264942A patent/JP4572099B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1139589A (en) * | 1997-07-18 | 1999-02-12 | Fuji Electric Co Ltd | Traffic monitoring device and method |
JPH11161880A (en) * | 1997-09-17 | 1999-06-18 | Sony United Kingdom Ltd | Device for monitoring system |
JP2000032435A (en) * | 1998-07-10 | 2000-01-28 | Mega Chips Corp | Monitoring system |
JP2001111987A (en) * | 1999-10-07 | 2001-04-20 | Daikoku Denki Co Ltd | Monitoring device |
JP2002239180A (en) * | 2001-02-22 | 2002-08-27 | Sankyo Kk | Game parlor monitoring device |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4706535B2 (en) * | 2006-03-30 | 2011-06-22 | 株式会社日立製作所 | Moving object monitoring device using multiple cameras |
JP2007267294A (en) * | 2006-03-30 | 2007-10-11 | Hitachi Ltd | Moving object monitoring apparatus using a plurality of cameras |
JP2009017416A (en) * | 2007-07-09 | 2009-01-22 | Mitsubishi Electric Corp | Device and method for monitoring, and program |
JP2009188905A (en) * | 2008-02-08 | 2009-08-20 | Mitsubishi Electric Corp | Auto traceable image pickup device, auto traceable image pickup method, and program therefor |
US8957971B2 (en) | 2008-12-04 | 2015-02-17 | Sony Corporation | Image processing device and method, image processing system, and image processing program |
JP2010136099A (en) * | 2008-12-04 | 2010-06-17 | Sony Corp | Image processing device and method, image processing system, and image processing program |
JP4715909B2 (en) * | 2008-12-04 | 2011-07-06 | ソニー株式会社 | Image processing apparatus and method, image processing system, and image processing program |
US8363107B2 (en) | 2008-12-04 | 2013-01-29 | Sony Corporation | Image processing device and method, image processing system, and image processing program |
US9786144B2 (en) | 2008-12-04 | 2017-10-10 | Sony Corporation | Image processing device and method, image processing system, and image processing program |
US9886770B2 (en) | 2008-12-04 | 2018-02-06 | Sony Corporation | Image processing device and method, image processing system, and image processing program |
JP2013081039A (en) * | 2011-10-03 | 2013-05-02 | Hitachi Kokusai Electric Inc | Image display device |
JP2013257689A (en) * | 2012-06-12 | 2013-12-26 | Tokyu Corp | Cooperative security system and control center server |
US10554905B2 (en) | 2012-07-31 | 2020-02-04 | Nec Corporation | Image processing system, image processing method, and program |
US10623659B2 (en) | 2012-07-31 | 2020-04-14 | Nec Corporation | Image processing system, image processing method, and program |
US10368010B2 (en) | 2012-07-31 | 2019-07-30 | Nec Corporation | Image processing system, image processing method, and program |
US11082634B2 (en) | 2012-07-31 | 2021-08-03 | Nec Corporation | Image processing system, image processing method, and program |
JPWO2014061342A1 (en) * | 2012-10-18 | 2016-09-05 | 日本電気株式会社 | Information processing system, information processing method, and program |
JPWO2014069088A1 (en) * | 2012-10-29 | 2016-09-08 | 日本電気株式会社 | Information processing system, information processing method, and program |
US9633253B2 (en) | 2012-10-29 | 2017-04-25 | Nec Corporation | Moving body appearance prediction information processing system, and method |
WO2014069088A1 (en) * | 2012-10-29 | 2014-05-08 | 日本電気株式会社 | Information processing system, information processing method, and program |
JP2014155159A (en) * | 2013-02-13 | 2014-08-25 | Nec Corp | Information processing system, information processing method, and program |
JP2020014210A (en) * | 2013-04-16 | 2020-01-23 | 日本電気株式会社 | Information processing system, information processing method, and program |
US11483521B2 (en) | 2013-04-16 | 2022-10-25 | Nec Corporation | Information processing system, information processing method, and program |
KR101678004B1 (en) * | 2015-02-24 | 2016-11-21 | 주식회사세오 | node-link based camera network monitoring system and method of monitoring the same |
KR20160103459A (en) * | 2015-02-24 | 2016-09-01 | 주식회사세오 | node-link based camera network monitoring system and method of monitoring the same |
JP2019125053A (en) * | 2018-01-12 | 2019-07-25 | 京セラドキュメントソリューションズ株式会社 | Information terminal device, information processing system, and display control program |
EP3952281A4 (en) * | 2019-03-29 | 2022-05-04 | Sony Group Corporation | Information processing device, information processing method, and program |
CN111768433A (en) * | 2020-06-30 | 2020-10-13 | 杭州海康威视数字技术股份有限公司 | Method and device for realizing tracking of moving target and electronic equipment |
CN111768433B (en) * | 2020-06-30 | 2024-05-24 | 杭州海康威视数字技术股份有限公司 | Method and device for realizing tracking of moving target and electronic equipment |
JP2022027568A (en) * | 2020-07-30 | 2022-02-10 | ネイバーラボス コーポレーション | Robot control method and system |
US12105508B2 (en) | 2020-07-30 | 2024-10-01 | Naver Labs Corporation | Control method and system for robot |
Also Published As
Publication number | Publication date |
---|---|
JP4572099B2 (en) | 2010-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4572099B2 (en) | Mobile tracking support system | |
CN108292364B (en) | Tracking objects of interest in omnidirectional video | |
WO2017119034A1 (en) | Image capture system, image capture method, and program | |
JP2008271522A (en) | Nonlinear video playback control method and program | |
CN105210379A (en) | Display control apparatus, display control method, and program | |
WO2018037631A1 (en) | Tracking assistance device, tracking assistance system and tracking assistance method | |
JP2011050038A (en) | Image reproducing apparatus and image sensing apparatus | |
KR101484844B1 (en) | Apparatus and method for privacy masking tool that provides real-time video | |
JP2005123667A (en) | Generation of still picture data from a plurality of image data | |
US9773523B2 (en) | Apparatus, method and computer program | |
US20160381290A1 (en) | Apparatus, method and computer program | |
CN101627623A (en) | Image processing device, dynamic image reproduction device, and processing method and program in them | |
JP4325541B2 (en) | Image processing apparatus, reproduction image processing apparatus, image processing method, and reproduction image processing apparatus | |
JP2002341755A (en) | Video display device | |
JP5612457B2 (en) | Moving image display device, moving image object search system, moving image display method and program | |
JP5785038B2 (en) | Photography equipment | |
TW201504089A (en) | Method for operating the playback of a video file of an event data recorder | |
JP4185376B2 (en) | Image processing system | |
JP6112436B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
JP2000209541A (en) | Moving picture reproducing device and storage medium storing moving picture reproduction program | |
JP5554214B2 (en) | Minutes system and program | |
JP2013162154A (en) | Photographing apparatus and photographing system | |
JP3426997B2 (en) | Editing video shooting method and apparatus with subject information acquisition function, and storage medium storing program describing the method | |
JP2006140605A (en) | Photographing apparatus and its method | |
JP2003324723A (en) | Monitoring system and method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100810 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100816 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130820 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |