JP5456175B2 - 映像監視装置 - Google Patents
映像監視装置 Download PDFInfo
- Publication number
- JP5456175B2 JP5456175B2 JP2012548696A JP2012548696A JP5456175B2 JP 5456175 B2 JP5456175 B2 JP 5456175B2 JP 2012548696 A JP2012548696 A JP 2012548696A JP 2012548696 A JP2012548696 A JP 2012548696A JP 5456175 B2 JP5456175 B2 JP 5456175B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- database
- control unit
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 claims description 70
- 238000012545 processing Methods 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 18
- 238000000034 method Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 13
- 238000012937 correction Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000001174 ascending effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Closed-Circuit Television Systems (AREA)
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Studio Devices (AREA)
Description
本発明は、映像監視装置に関するものである。
画像を用いて監視作業を実施する際に、効率的な監視作業を実現するため、監視カメラ映像に対して追加情報(テキスト、画像、音声など)を重畳させる場合がある。例えば、プラントの保守・管理業務においては、作業手順の指示や注意部位の確認をスムーズに行うために、監視カメラ映像に情報を重畳させることが望まれている。
監視カメラ映像に情報を重畳表示する際に、その情報の用途に合わせて、画面内の適切な位置に情報を表示する必要がある。したがって、現在の画面がどのような映像を表示しているかを特定する必要が生じる。現在の映像を特定する手法として、各種センサ(磁気センサ、ジャイロセンサ、赤外線センサ、GPS)を用いてカメラの位置姿勢を求める、センサベースの位置合わせ手法が知られている。
下記特許文献1には、コンパスを用いてカメラの姿勢を決定する姿勢決定手段と、カメラの緯度及び経度からカメラの位置を決定する位置決定手段を用いて、ディスプレイフィールド領域の情報の内容または形状を変化させる、グラフィック・ユーザ・インタフェイス生成装置が示されている。この技術を用いれば、任意の実空間上にメッセージなどの情報を対応付け、ディスプレイに表示することができる。
下記特許文献2には、磁界発生手段と磁界検出手段を用いて3次元空間座標を演算し、その3次元空間座標に基づいて、3次元の仮想物体をカメラ映像上に重畳させた合成画像を生成する方法が記載されている。
一方で、センサ情報を用いずに、カメラから取得した映像を解析することによりカメラの位置姿勢を求める、ビジョンベースの位置合わせ手法が知られている。ビジョンベースの位置合わせ手法として、画像認識しやすい特定パターンのマーカを使用する方法が知られている。
下記特許文献3には、所定の画像パターンを認識することにより、画像パターンに応じた情報を、カメラから取得した画像に重畳して描画する方法が記載されている。
下記非特許文献1には、特定のマーカを用いずに、カメラから取得した画像から検出した特徴的な点や線を利用することで、カメラの位置姿勢を推定し、カメラ映像に情報を重畳させる方法が記載されている。
以上の手法は、カメラの設置位置が変化することを想定して姿勢位置を決定する方法である。しかし、カメラが固定されている場合、より単純な方法を用いることができる。
下記特許文献4には、架台角・ズーム情報をもとにカメラ映像上で付加情報を表示するための位置を決定する手法が記載されている。同文献では、被写体と説明文字が重ならないように、重畳させる説明文字の外枠に囲まれる範囲で隣り合う画素間の輝度差の総和が最小になる説明文字の外枠の配置位置を探し出している。
下記特許文献5には、カメラ制御情報を用いて合成映像を表示する手法が記載されている。同文献では、ズーム倍率に応じて、付加情報を表示させるか否かを判定している。
G. Klein and D. Murray. Parallel tracking and mapping for small AR workspaces. In Proc. Sixth IEEE and ACM Int’l Symp. Mixed and Augmented Reality, 2007.
上記各文献に記載されている技術では、同じ場所の監視カメラ映像に対して多数の追加情報が登録される可能性がある。このとき、多数の追加情報のなかから重畳表示すべきものを選び出すための処理負荷が大きくなり、装置に負担をかける。
本発明は、上記のような課題を解決するためになされたものであり、監視カメラ映像に追加情報を効率的に重畳させることのできる映像監視装置を提供することを目的とする。
本発明に係る映像監視装置は、カメラが撮像する画像を特定する画像特定情報と追加情報を対応付けて保持しておく。追加情報を画像に重畳する際には、対応する画像間の距離が所定範囲内に収まる追加情報を検索し、そのなかから、カメラが現在撮像している画像内に収まるものをカメラ画像に重畳する。
本発明に係る映像監視装置によれば、対応する画像間の距離が所定範囲内に収まる追加情報を先に検索することにより、重畳表示する候補となる追加情報を限定することができる。これにより、全ての追加情報について重畳表示する必要があるか否かを判断する必要がなくなるので、処理負荷を軽減することができる。
<実施の形態1>
図1は、本発明の実施形態1に係る映像監視装置100の機能ブロック図である。映像監視装置100は、監視映像にテキストや画像などの追加情報を重畳して表示する装置である。以下では追加情報としてテキストを用いて説明するが、その他の追加情報を用いることもできる。以下では、特に区別する場合を除いて映像と画像は概ね同義で用いる。
図1は、本発明の実施形態1に係る映像監視装置100の機能ブロック図である。映像監視装置100は、監視映像にテキストや画像などの追加情報を重畳して表示する装置である。以下では追加情報としてテキストを用いて説明するが、その他の追加情報を用いることもできる。以下では、特に区別する場合を除いて映像と画像は概ね同義で用いる。
映像監視装置100は、カメラ101、カメラ制御部102、カメラ情報取得部103、カメラ映像取得部104、映像制御部105、メッセージ登録部106、特徴量抽出部107、データベース制御部108、データベース109、映像出力部110、操作情報入力部111、表示装置112、入力装置113を備える。
カメラ101は、監視画像を撮像する装置であり、撮像視野を変更する駆動装置を有する。例えば、パン、チルト、ズームなどの撮像パラメータを変更することができる。カメラ101は、外部から制御信号を受け取り、その制御信号に応じて撮像パラメータ(パン、チルト、ズームの値)を変更する。また、現在の撮像パラメータを外部に通知することができる。市販の監視カメラなどをカメラ101として用いることができる。
カメラ制御部102は、カメラ101のパン、チルト、ズームを変更するための制御信号をカメラ101に送信する。カメラ制御部102は、カメラ101の機種間の通信プロトコル差異を吸収し、カメラ101の仕様に応じた制御信号を送信するように構成することもできる。
カメラ情報取得部103は、カメラ101の駆動装置の状態(パン、チルト、ズームの値)を取得する要求をカメラ101に対して送信し、取得した情報を映像制御部105、メッセージ登録部106に出力する。
カメラ映像取得部103は、カメラ101が撮像した映像(静止画像)を取得し、映像制御部105、メッセージ登録部106に出力する。
映像制御部105は、操作情報入力部111からユーザのシステムに対する操作指示を受け取り、カメラ情報取得部103から受け取ったカメラ101の駆動装置の現在の状態(パン、チルト、ズームの値)に応じてカメラ制御部102にパン、チルト、ズームの制御指示を出す。また、映像制御部105は、カメラ映像取得部104からカメラ映像を取得し、データベース制御部108からデータベース109に登録されているテキストメッセージを取得し、これらを重畳して映像出力部110に出力する。また、映像制御部105は、データベース制御部108からテキストメッセージを取得する際に、カメラ映像を特徴量抽出部107に出力し、特徴量抽出部107が計算したカメラ映像の画像特徴量を条件としてテキストメッセージを絞り込む。
メッセージ登録部106は、操作情報入力部111からデータベース109に登録するテキストメッセージとその監視画面上の位置情報を受け取る。メッセージ登録部106は、カメラ情報取得部103から取得したカメラ101のパン、チルト、ズーム値と、テキストメッセージの監視画面上の位置情報とを用いて、テキストメッセージを監視画面中央に表示させるためのパン、チルト、ズーム値を計算し、カメラ映像取得部104から取得したカメラ映像と併せてデータベース制御部108に出力する。また、画像特徴量を計算するため、カメラ映像を特徴量抽出部107に出力する。
特徴量抽出部107は、映像制御部105やメッセージ登録部106から送られてきたカメラ映像の画像特徴量を計算し、データベース制御部108に出力する。
データベース制御部108は、メッセージ登録部106から送られてきたメッセージ、カメラ映像、パン、チルト、ズームの値、特徴量抽出部107が計算したカメラ映像の画像特徴量、および登録時刻などの書誌情報を関連付けてデータベース109に登録する。データベース制御部108は、これらの情報をデータベース109に登録する際に、パン、チルト、ズーム値によってデータをクラスタリングする。クラスタリングについては図5を用いて後述する。またデータベース制御部108は、映像制御部105からの要求に応じて、データベース109から条件に一致するテキストメッセージを読み出す。この条件としては、例えば、パン、チルト、ズームの値、時刻、画像特徴量の類似度などがある。
データベース109は、テキストメッセージ、カメラ映像、パン、チルト、ズームの値、画像特徴量、時刻などの情報を関連づけて格納する。たとえば、ハードディスクや半導体メモリなどの記憶装置上に上記データを保持するデータを格納することによって構築される。データベース109の詳細は、後述の図3で改めて説明する。
映像出力部110は、映像制御部105が生成した監視映像を表示装置112に出力する。
操作情報入力部111は、入力装置113から入力されたユーザによる操作指示を、映像制御部105やメッセージ登録部106に出力する。
表示装置112は、液晶ディスプレイなどの画面表示部を備えた表示デバイスであり、映像出力部110から受け取った監視映像を画面表示する。
入力装置113は、マウス、キーボード、タッチデバイスなど、ユーザの操作をシステムに伝えるための入力インタフェースである。
図2は、データベース109の構成とデータ例を示す図である。ここではテーブル形式の構成例を示したが、データ形式は任意でよい。
データベース109は、メッセージIDフィールド201、メッセージフィールド202、時刻フィールド203、パンフィールド204、チルトフィールド205、ズームフィールド206、カメラ映像フィールド207、画像特徴量フィールド208を有する。
メッセージIDフィールド201は、各テキストメッセージの識別番号を保持する。メッセージフィールド202は、監視画像に重畳表示するためユーザが入力したメッセージを保持する。例えばテキストメッセージであれば、そのメッセージ文字列を保持する。時刻フィールド203は、メッセージフィールド202が保持するメッセージがデータベース109に登録された日時を保持する。
パンフィールド204、チルトフィールド205、ズームフィールド206は、メッセージフィールド202が保持するメッセージを表示装置112の監視画面中央に表示するときのカメラ101のパン、チルト、ズーム値を保持する。これらフィールドが保持するパラメータは、カメラ101の撮像視野を特定することにより、カメラ101が撮像する画像を特定する、画像特定情報としての意義を有する。これら以外のパラメータ、例えばカメラ101の地理的位置や設置角度などを画像特定情報として用いてもよい。
カメラ映像フィールド207は、メッセージフィールド202が保持するメッセージを監視画面中央に表示するときの、カメラ映像の静止画(バイナリデータ)を保持する。画像特徴量フィールド208は、カメラ映像フィールド207が保持するカメラ映像から抽出した画像特徴量を保持する。画像特徴量は、色特徴や形状特徴など画像そのものが有する特徴を数値化したものであり、例えば固定長のベクトルデータで表される。
メッセージの画面上位置を指定する場合は、図2で説明した各フィールドに加え、画面上位置を記述する座標フィールドを設けてもよい。画面上位置を指定しない場合は、例えば画面中央などの固定位置にメッセージを表示すればよい。
図3は、映像制御部105がカメラ映像へメッセージを重畳する様子を示す図である。映像制御部105は、カメラ101から取得したカメラ映像301に対して、データベース109に登録されているメッセージ303を重畳描画し、表示装置112に監視画面304として表示する。これにより、監視画面304上でカメラ映像にメッセージを重畳して表示することができる。
映像制御部105は、カメラ101の駆動装置の状態(パン、チルト、ズーム値)302、メッセージ303に関連付けられたパン、チルト、ズーム値、およびカメラ101の仕様である水平画角305と垂直画角306から、メッセージ303の表示場所を計算する。
図3の例では、カメラ101のズーム値が1.0の時の水平画角305が70°、垂直画角306が50°である。カメラ101のパン、チルトがそれぞれ0.0、0.0であるため、重畳表示するメッセージは関連付けられたパンの値が−35.0〜35.0の範囲かつチルトの値が−25.0〜25.0の範囲であることが条件となる。映像制御部105は、この条件を満たすテキストメッセージをデータベース109から検索する。
message2は、パン=0.0、チルト=0.0であるため、画面中央に表示する。message1は、パン=−15.0、チルト=−10.0であるため、画面左下に表示する。メッセージ303として、文字列そのものを単純表示してもよいし、メッセージが収まるボックスや吹き出しで囲んで表示してもよい。また、例えばズーム1.5で登録されたmessage1は、ズーム1.0で登録されたmessage2より小さく表示する、というように、ズーム値に応じてメッセージの表示サイズを変えてもよい。
図4は、メッセージ登録部106がデータベース109に登録するメッセージを、ユーザがシステムに入力するための画面例を示す図である。ユーザは、メッセージをデータベース109に登録する際に、表示装置112、入力装置113を用いる。ここでは入力装置113として、キーボード406とマウス407を例示するが、これに限られるものではない。
ユーザは、監視画面401の任意の場所にマウスカーソル402を移動させ、クリックボタンを押す。映像制御部105は、監視画面401上にメッセージの表示範囲403を描画する。ユーザは、キーボード406を用いて、メッセージボックス404に、重畳表示させたいメッセージを入力する。このとき、キーボード406が押されるたびに画面上に入力中のメッセージを描画することにより、入力後の画面表示を確認できるようにしてもよい。ユーザは、メッセージを入力し終わったら、マウス407を操作して登録ボタン405をクリックする。この結果、ユーザが入力したテキストメッセージが、操作情報入力部111を通じてメッセージ登録部106へ送信される。
図5は、メッセージ登録部106がメッセージをデータベース109に登録する処理を説明するフローチャートである。以下、図5の各ステップについて説明する。
(図5:ステップS501)
操作情報入力部111は、ユーザが入力したメッセージと画面上の位置を取得し、メッセージ登録部106に出力する。
操作情報入力部111は、ユーザが入力したメッセージと画面上の位置を取得し、メッセージ登録部106に出力する。
(図5:ステップS502)
メッセージ登録部106は、カメラ情報取得部103から、カメラ101のパン、チルト、ズームの値を取得する。
メッセージ登録部106は、カメラ情報取得部103から、カメラ101のパン、チルト、ズームの値を取得する。
(図5:ステップS503)
メッセージ登録部106は、ステップS501で取得したメッセージの画面上の位置、ステップS502で取得したカメラのパン、チルト、ズーム値、およびカメラの水平画角と垂直画角から、メッセージをカメラ映像の中央に表示するためのパン、チルト値を計算する。具体的には、後述する図6のステップS607において、パン、チルト値からカメラ映像上の座標を求める計算の逆計算を実施すればよい。
メッセージ登録部106は、ステップS501で取得したメッセージの画面上の位置、ステップS502で取得したカメラのパン、チルト、ズーム値、およびカメラの水平画角と垂直画角から、メッセージをカメラ映像の中央に表示するためのパン、チルト値を計算する。具体的には、後述する図6のステップS607において、パン、チルト値からカメラ映像上の座標を求める計算の逆計算を実施すればよい。
(図5:ステップS504)
メッセージ登録部106は、カメラ映像取得部104から、カメラ映像を取得する。
メッセージ登録部106は、カメラ映像取得部104から、カメラ映像を取得する。
(図5:ステップS505)
メッセージ登録部106は、ステップS504で取得したカメラ映像を特徴量抽出部107に出力する。特徴量抽出部107は、画像特徴量を計算する。
メッセージ登録部106は、ステップS504で取得したカメラ映像を特徴量抽出部107に出力する。特徴量抽出部107は、画像特徴量を計算する。
(図5:ステップS506)
メッセージ登録部106は、ステップS501で取得したメッセージ本文とズーム値、ステップS502で求めたパン、チルトの値、ステップS504で取得したカメラ映像、ステップS505で計算した画像特徴量を、データベース制御部108に出力する。データベース制御部108は、これらデータを関連付けて、データベース109に登録する。
メッセージ登録部106は、ステップS501で取得したメッセージ本文とズーム値、ステップS502で求めたパン、チルトの値、ステップS504で取得したカメラ映像、ステップS505で計算した画像特徴量を、データベース制御部108に出力する。データベース制御部108は、これらデータを関連付けて、データベース109に登録する。
図6は、映像制御部105がカメラ映像へメッセージを重畳表示する動作を示すフローチャートである。以下、図6の各ステップについて説明する。
(図6:ステップS601)
映像制御部105は、カメラ映像取得部103からカメラ映像を取得する。
映像制御部105は、カメラ映像取得部103からカメラ映像を取得する。
(図6:ステップS602)
映像制御部105は、カメラ情報取得部104からカメラ101のパン、チルト、ズーム値を取得する。
映像制御部105は、カメラ情報取得部104からカメラ101のパン、チルト、ズーム値を取得する。
(図6:ステップS603)
映像制御部105は、表示するメッセージのパン、チルト値の条件を計算する。カメラの水平画角と垂直画角は、カメラの仕様とステップS602で取得したズーム値から求める。パンの条件Rpは、ステップS602で取得したパンの値pと水平画角Ahから、p−Ah/2〜p+Ah/2と計算される。チルトの条件Rtは、ステップS602で取得したチルトの値tと水平画角Avから、t−Av/2〜t+Av/2と計算される。
映像制御部105は、表示するメッセージのパン、チルト値の条件を計算する。カメラの水平画角と垂直画角は、カメラの仕様とステップS602で取得したズーム値から求める。パンの条件Rpは、ステップS602で取得したパンの値pと水平画角Ahから、p−Ah/2〜p+Ah/2と計算される。チルトの条件Rtは、ステップS602で取得したチルトの値tと水平画角Avから、t−Av/2〜t+Av/2と計算される。
(図6:ステップS604)
映像制御部105は、ステップS603で求めたパン条件Rpとチルト条件Rtを満たすメッセージをデータベース109から取得し、メッセージのリストを作成する。
映像制御部105は、ステップS603で求めたパン条件Rpとチルト条件Rtを満たすメッセージをデータベース109から取得し、メッセージのリストを作成する。
(図6:ステップS603〜S604:補足)
映像制御部105は、データベース109に登録されている全てのメッセージを検索するのではなく、所定範囲内にあるメッセージのみを検索する。詳細は後述する図7で改めて説明する。
映像制御部105は、データベース109に登録されている全てのメッセージを検索するのではなく、所定範囲内にあるメッセージのみを検索する。詳細は後述する図7で改めて説明する。
(図6:ステップS605)
映像制御部105は、条件を満たすメッセージが存在しない場合は本処理フローを終了する。この場合、ステップS601で取得したカメラ映像をそのまま映像出力部110へ出力する。条件を満たすメッセージが1つでも存在している場合は、ステップS606へ進む。
映像制御部105は、条件を満たすメッセージが存在しない場合は本処理フローを終了する。この場合、ステップS601で取得したカメラ映像をそのまま映像出力部110へ出力する。条件を満たすメッセージが1つでも存在している場合は、ステップS606へ進む。
(図6:ステップS606)
映像制御部105は、ステップS604で取得したメッセージのリストから1つのメッセージを選択する。
映像制御部105は、ステップS604で取得したメッセージのリストから1つのメッセージを選択する。
(図6:ステップS607)
映像制御部105は、メッセージに関連付けられたパン値p’とチルト値t’、およびカメラ映像の幅wと高さhから、カメラ映像上でメッセージを表示する座標を計算する。例えば、カメラ映像の左上の座標(x,y)を(0,0)としたとき、メッセージの表示座標(x,y)は、下記式で近似計算することができる。
映像制御部105は、メッセージに関連付けられたパン値p’とチルト値t’、およびカメラ映像の幅wと高さhから、カメラ映像上でメッセージを表示する座標を計算する。例えば、カメラ映像の左上の座標(x,y)を(0,0)としたとき、メッセージの表示座標(x,y)は、下記式で近似計算することができる。
(図6:ステップS607:計算式)
x=(p’−(p−Ah/2))/Ah×w
y=h−(t’−(t−At/2))/At×h
x=(p’−(p−Ah/2))/Ah×w
y=h−(t’−(t−At/2))/At×h
(図6:ステップS608)
映像制御部105は、ステップS601で取得したカメラ映像に対して、ステップS607で計算した座標上で、ステップS606で選択したメッセージを重畳描画する。
映像制御部105は、ステップS601で取得したカメラ映像に対して、ステップS607で計算した座標上で、ステップS606で選択したメッセージを重畳描画する。
(図6:ステップS609)
映像制御部105は、ステップS604でデータベース109から取得した全メッセージの重畳表示処理が完了した場合は、本処理フローを終了する。処理が済んでいないメッセージが残っている場合は、ステップS606に戻り次のメッセージを処理する。
映像制御部105は、ステップS604でデータベース109から取得した全メッセージの重畳表示処理が完了した場合は、本処理フローを終了する。処理が済んでいないメッセージが残っている場合は、ステップS606に戻り次のメッセージを処理する。
以上、映像監視装置100の構成と全体動作について説明した。次に、データベース109に登録されている多数のメッセージのなかから重畳表示すべきメッセージを効率的に検索する手法を説明する。
映像監視装置100は、ユーザがカメラのパン、チルト、ズームを操作するたびに、画面に表示するメッセージをデータベース109から取得してくる必要がある。データベース109に登録されたメッセージ数が増加すると、全データに対して重畳表示すべきか否かの条件を判定する処理コストが増大し、描画処理に支障を来す可能性がある。
そこで、映像監視装置100は、データベース109に登録されているメッセージを、そのパン、チルト、ズーム値によって、あらかじめクラスタリングしておく。メッセージを重畳表示する際は、データベース109に登録されている全メッセージについて条件判定するのではなく、クラスタの要素平均がカメラのパン、チルト、ズーム値の現在値と近いクラスタに属する要素についてのみ条件判定する。
図7は、パン、チルト、ズーム値によってメッセージをクラスタリングする概念を説明する図である。監視画像に重畳するメッセージは、その時点でカメラ101が撮像している画像の撮像視野、すなわちカメラ101のパン、チルト、ズーム値と対応付けることができる。そこでデータベース制御部108は、データベース109に登録するメッセージを、パン、チルト、ズームの3軸座標値によってクラスタリングする。クラスタリングとは、座標が近いメッセージをグループ化する処理である。クラスタリングの結果は、後述する図8で説明するクラスタ情報として、データベース109に別途登録される。
図7に示すパン、チルト、ズームの3軸で表される空間上には、○で記された位置においてデータベース109上にメッセージが登録されているものとする。図7の例では、領域701、702、703に示す3つのクラスタが形成されている。
データベース制御部108は、各クラスタについて、その要素の平均であるクラスタ平均(図7の×印)を計算しておく。また、映像制御部105は、カメラ101のパン、チルト、ズーム値がクラスタに属するか否かを判定する閾値をあらかじめ保持しておく。例えば、データベース109上の任意の領域などに格納しておけばよい。図7の点線は、クラスタ中心からこの閾値の範囲内にある距離を示す。
図7において、カメラ101の駆動装置のパン、チルト、ズーム値が座標704にあると仮定する。座標704に対応する表示装置112上の画面表示範囲705は、座標704を中心とする矩形領域で表される。このとき、クラスタ701のクラスタ中心と座標704の間の距離は、点線で示す閾値以下の距離にある。
映像制御部105は、クラスタ701に属するメッセージが画面表示範囲705に含まれるかどうかを判定する。この処理により、映像制御部105は、データベース109に登録されている全てのデータを調べることなく、画面表示範囲705内に重畳表示すべきメッセージを効率的に抽出することができる。
図8は、クラスタ情報の構造とデータ例を示す図である。クラスタ情報は、図7で説明したクラスタリングの結果を保持するデータであり、クラスタIDフィールド801、クラスタ中心フィールド802、メッセージIDリストフィールド803を有する。
クラスタIDフィールド801は、各クラスタの識別番号を保持する。クラスタ中心フィールド802は、クラスタIDフィールド801の値で識別されるクラスタに属するメッセージのパン、チルト、ズーム値を平均した値を表すベクトルを保持する。メッセージIDリストフィールド803は、クラスタIDフィールド801の値で識別されるクラスタに属するメッセージの識別番号のリストを保持する。各メッセージの識別番号は、図2のメッセージIDフィールド201の値に対応している。
映像制御部105は、図6のステップS603〜S604において、カメラ101が現在撮像している画像がいずれのクラスタに属するかを判断する。このとき、まずカメラ101のパン、チルト、ズーム値をカメラ情報取得部103から取得し、クラスタ中心フィールド802が保持している各座標との間の距離を求める。その距離が図7の点線で示す所定範囲内にある場合、カメラ101が現在撮像している画像はそのクラスタに属すると判断する。次に映像制御部105は、そのクラスタに属するメッセージIDをメッセージIDリストフィールド803から取得する。各メッセージが画面表示範囲705に含まれるか否かは、カメラ101の現在のパン、チルト、ズーム値などのパラメータを用いて撮像視野を算出し、その撮像視野内に各メッセージが収まるか否かによって判断すればよい。
以上、映像監視装置100が重畳表示すべきメッセージを効率的に検索する手法を説明した。同手法は、特にデータベース109に登録されているメッセージ間の画面上距離がカメラ101の撮像画像サイズ未満であるものが複数存在する場合において、画面内に各メッセージを重畳すべきか否かを判断する対象をクラスタ範囲内に限定することができる点で効率的である。一方、各クラスタに属するメッセージが1つのみである場合は、全メッセージについて重畳表示するか否かを判断することになるため、同手法の効果は従来と同程度であると考えられる。
<実施の形態1:まとめ>
以上のように、本実施形態1に係る映像監視装置100は、カメラ101が現在撮像している画像との間の距離が所定範囲内にあるメッセージ、すなわちクラスタ中心と現在の撮像画像との間の距離が所定範囲内にあるクラスタを、データベース109が格納しているパン、チルト、ズーム値に基づき検索する。次に、そのクラスタに含まれるメッセージのうち、カメラ101が現在撮像している画像範囲に含まれるものを抽出し、画像に重畳表示する。これにより、重畳表示すべきメッセージを検索する処理回数は、クラスタ個数とクラスタ内のメッセージ個数に準じることとなり、全てのメッセージについて重畳表示の要否を判断する必要はなくなるので、検索処理負荷を軽減することができる。
以上のように、本実施形態1に係る映像監視装置100は、カメラ101が現在撮像している画像との間の距離が所定範囲内にあるメッセージ、すなわちクラスタ中心と現在の撮像画像との間の距離が所定範囲内にあるクラスタを、データベース109が格納しているパン、チルト、ズーム値に基づき検索する。次に、そのクラスタに含まれるメッセージのうち、カメラ101が現在撮像している画像範囲に含まれるものを抽出し、画像に重畳表示する。これにより、重畳表示すべきメッセージを検索する処理回数は、クラスタ個数とクラスタ内のメッセージ個数に準じることとなり、全てのメッセージについて重畳表示の要否を判断する必要はなくなるので、検索処理負荷を軽減することができる。
<実施の形態2>
実施形態1では、重畳表示するメッセージをクラスタリングして検索負荷を軽減する手法を説明した。一方、1画面内に重畳表示すべきメッセージが多数存在する場合、全てのメッセージを監視カメラ映像に重畳させると、監視カメラ映像がテキスト情報によって覆われ、本来監視すべき映像の視認性を損ねてしまう。
実施形態1では、重畳表示するメッセージをクラスタリングして検索負荷を軽減する手法を説明した。一方、1画面内に重畳表示すべきメッセージが多数存在する場合、全てのメッセージを監視カメラ映像に重畳させると、監視カメラ映像がテキスト情報によって覆われ、本来監視すべき映像の視認性を損ねてしまう。
そこで本発明の実施形態2では、メッセージに優先度を付与し、優先度の高いメッセージのみを画像に重畳表示する手法を説明する。映像監視装置100の構成は実施形態1と同様であるため、以下では差異点を中心に説明する。
図9は、映像監視装置100が監視画像上に重畳すべきメッセージを絞り込む処理を示すフローチャートである。図9の処理は、図6のステップS606〜S609において重畳描画するメッセージを絞り込むために実施するものである。以下、図9の各ステップについて説明する。
(図9:ステップS901)
本ステップは、ステップS606と同様である。
本ステップは、ステップS606と同様である。
(図9:ステップS902)
映像制御部105は、ステップS901で選択したメッセージの優先度を計算する。優先度の計算手法として、以下のような例が挙げられる。
映像制御部105は、ステップS901で選択したメッセージの優先度を計算する。優先度の計算手法として、以下のような例が挙げられる。
(図9:ステップS902:計算例その1)
カメラ101が現在撮像している画像との間の距離が近いメッセージほど、優先度を高くする。画像とメッセージの間の距離は、例えばカメラ101の現在のパン、チルト、ズーム値と、各メッセージに対応付けられているパン、チルト、ズーム値とを用いて算出することができる。
カメラ101が現在撮像している画像との間の距離が近いメッセージほど、優先度を高くする。画像とメッセージの間の距離は、例えばカメラ101の現在のパン、チルト、ズーム値と、各メッセージに対応付けられているパン、チルト、ズーム値とを用いて算出することができる。
(図9:ステップS902:計算例その2)
データベース109に登録された日時が新しいメッセージほど、優先度を高くする。
データベース109に登録された日時が新しいメッセージほど、優先度を高くする。
(図9:ステップS902:計算例その3)
カメラ101が現在撮像している画像と、カメラ映像フィールド207が保持している画像とが類似しているメッセージほど、優先度を高くする。
カメラ101が現在撮像している画像と、カメラ映像フィールド207が保持している画像とが類似しているメッセージほど、優先度を高くする。
(図9:ステップS903)
ステップS902で計算した優先度が所定閾値以上であればステップS904へ進み、それ以外であればステップS906へスキップする。
ステップS902で計算した優先度が所定閾値以上であればステップS904へ進み、それ以外であればステップS906へスキップする。
(図9:ステップS904〜S906)
これらのステップは、図6のステップS606〜S608と同様である。
これらのステップは、図6のステップS606〜S608と同様である。
図10は、画像が類似しているメッセージの優先度を高くすることにより、重畳表示するメッセージを絞り込む様子を示す図である。図10に示す手法は、ステップS902において計算例3を採用した場合に相当する。
映像制御部105は、メッセージを絞り込まない場合、カメラ映像1001に対して、その画角に収まるメッセージをデータベース109から読み出し、重畳描画する。これにより、表示装置112に監視画面1002を表示する。
このとき、データベース109に該当するメッセージが多数登録されていると、図10の監視画面1002に例示するように、メッセージ同士が重なって表示され、カメラ映像自体の視認性が損なわれる。
そこで、映像制御部105は、現在のカメラ映像1001に類似する画像を、データベース109のカメラ映像フィールド207から検索する。映像制御部105は、カメラ映像フィールド207が保持する画像を、画像特徴量のベクトル間距離(特徴量距離)が小さい順にソートする。図10の検索結果1003は、特徴量間の距離が小さい順(=類似度の高い順)に並んだ画像のリストとなる。
カメラ映像フィールド207の類似度が高いほどメッセージの優先度を高くするのは、同フィールドの類似度が高いほど、そのメッセージは現在のカメラ映像と同じような状況において登録されたメッセージであると考えられるからである。
映像制御部105は、類似度が高い順に優先度を高くするなどの基準によって検索結果1003内のメッセージに優先度を付与し、優先度が所定閾値以上のメッセージをカメラ映像に重畳描画する。これにより、監視画面1004に例示するように、監視映像の視認性を保つことができる。
<実施の形態2:まとめ>
以上のように、本実施形態2に係る映像監視装置100は、重畳すべきメッセージをデータベース109から検索した後、各メッセージの優先度を算出し、優先度の高いメッセージのみを画像に重畳する。これにより、多数のメッセージを同時に重畳表示して監視画像の視認性を妨げることを回避できる。
以上のように、本実施形態2に係る映像監視装置100は、重畳すべきメッセージをデータベース109から検索した後、各メッセージの優先度を算出し、優先度の高いメッセージのみを画像に重畳する。これにより、多数のメッセージを同時に重畳表示して監視画像の視認性を妨げることを回避できる。
<実施の形態3>
実施形態2において、カメラ101が現在撮像している画像と類似するカメラ映像フィールド207を検索し、類似度が高いものを優先することを説明した。この場合、画像全体が類似するか否かによって類似度を算出しているため、メッセージ表示位置が画面端部に設定されている場合には、画像間の類似度は必然的に低くなり、そのメッセージが選択されにくくなる傾向がある。
実施形態2において、カメラ101が現在撮像している画像と類似するカメラ映像フィールド207を検索し、類似度が高いものを優先することを説明した。この場合、画像全体が類似するか否かによって類似度を算出しているため、メッセージ表示位置が画面端部に設定されている場合には、画像間の類似度は必然的に低くなり、そのメッセージが選択されにくくなる傾向がある。
そこで本発明の実施形態3では、カメラ101が撮像した画像の部分画像と類似するカメラ映像フィールド207を検索し、画面上位置に応じて適切な類似度を算出することにより、表示位置が画面端部に設定されているメッセージも選択できるようにする。
図11は、カメラ101が撮像した画像の部分画像と類似するカメラ映像フィールド207を検索する様子を示す図である。
図11において、カメラ画像1101に対して多数のメッセージが対応付けられているため、重畳表示するメッセージを絞り込まない場合、監視画面1102のように多数のメッセージが重畳されて監視画像の視認性を損なう。
そこで映像制御部105は、カメラ画像1101の部分画像1103を複数の部分について生成し、これら部分画像と類似するカメラ映像フィールド207を検索する。映像制御部105は、検索結果1104を類似度順にソートし、類似度が所定閾値以上であるカメラ映像フィールド207を抽出する。映像制御部105は、抽出結果1105に関連付けられたメッセージのみをカメラ映像に重畳描画し、監視画面1106を構成する。
図12は、カメラ101が撮像した画像の部分画像と類似するカメラ映像フィールド207を検索する処理フローである。図12の処理フローは、図11で説明した手法の詳細を説明するものである。以下、図12の各ステップについて説明する。
(図12:ステップS1201〜S1203)
これらのステップは、図6のステップS601〜S604と同様である。
これらのステップは、図6のステップS601〜S604と同様である。
(図12:ステップS1204)
映像制御部105は、ステップS1203で取得したメッセージ候補に関連付けられたパン、チルト、ズーム値を元に、メッセージの周辺領域の位置とサイズを計算する。この周辺領域は、後のステップS1205において、図11で説明した部分画像として用いられる。
映像制御部105は、ステップS1203で取得したメッセージ候補に関連付けられたパン、チルト、ズーム値を元に、メッセージの周辺領域の位置とサイズを計算する。この周辺領域は、後のステップS1205において、図11で説明した部分画像として用いられる。
(図12:ステップS1204:補足)
本ステップにおいて、重複する部分画像については適宜除外してもよい。また、メッセージ候補のパン、チルト、ズーム値を用いて実施形態1で説明したようなクラスタリング処理を実施し、各クラスタの中心値のみを用いることにより、部分画像の数を減らすこともできる。すなわち、各クラスタの中心値に最も近い部分画像のみを、データベース109が格納しているカメラ映像フィールド207と比較する対象としてもよい。
本ステップにおいて、重複する部分画像については適宜除外してもよい。また、メッセージ候補のパン、チルト、ズーム値を用いて実施形態1で説明したようなクラスタリング処理を実施し、各クラスタの中心値のみを用いることにより、部分画像の数を減らすこともできる。すなわち、各クラスタの中心値に最も近い部分画像のみを、データベース109が格納しているカメラ映像フィールド207と比較する対象としてもよい。
(図12:ステップS1205)
映像制御部105は、ステップS1204で求めた周辺領域を1つ選び、部分画像として取得する。
映像制御部105は、ステップS1204で求めた周辺領域を1つ選び、部分画像として取得する。
(図12:ステップS1206)
映像制御部105は、部分画像と類似するカメラ映像フィールド207を検索する。
映像制御部105は、部分画像と類似するカメラ映像フィールド207を検索する。
(図12:ステップS1207)
映像制御部105は、検索結果をリストに追加する。リストには、メッセージIDと特徴量距離(類似度)をセットで登録しておく。
映像制御部105は、検索結果をリストに追加する。リストには、メッセージIDと特徴量距離(類似度)をセットで登録しておく。
(図12:ステップS1208)
映像制御部105は、全周辺領域を処理済みであればステップS1209へ進み、処理が済んでいない周辺領域があればステップS1205へ戻って同様の処理を繰り返す。
映像制御部105は、全周辺領域を処理済みであればステップS1209へ進み、処理が済んでいない周辺領域があればステップS1205へ戻って同様の処理を繰り返す。
(図12:ステップS1209)
映像制御部105は、検索結果のリストを特徴量距離(類似度)でソートする。また、メッセージIDが重複した場合は、特徴量距離がもっとも小さい(最も類似度が高い)メッセージだけをリストに残す。この結果、特徴量距離が小さい(類似度が高い)順に並べられたメッセージIDのリストが得られる。映像制御部105は、このリストに記載されているメッセージを、重畳表示する候補とすることができる。
映像制御部105は、検索結果のリストを特徴量距離(類似度)でソートする。また、メッセージIDが重複した場合は、特徴量距離がもっとも小さい(最も類似度が高い)メッセージだけをリストに残す。この結果、特徴量距離が小さい(類似度が高い)順に並べられたメッセージIDのリストが得られる。映像制御部105は、このリストに記載されているメッセージを、重畳表示する候補とすることができる。
<実施の形態3:まとめ>
以上のように、本実施形態3に係る映像監視装置100は、カメラ101が撮像している画像の部分画像と類似するカメラ映像フィールド207を検索し、類似度が高いカメラ映像フィールド207に対応するメッセージほど優先度を高くする。これにより、表示位置が画面端部に設定されているメッセージであっても、その周辺画像がカメラ映像と類似する場合には類似度が高いものと判定される。したがって、画面端部のメッセージであっても類似度を適切に判定し、重畳表示する対象として選択することができる。
以上のように、本実施形態3に係る映像監視装置100は、カメラ101が撮像している画像の部分画像と類似するカメラ映像フィールド207を検索し、類似度が高いカメラ映像フィールド207に対応するメッセージほど優先度を高くする。これにより、表示位置が画面端部に設定されているメッセージであっても、その周辺画像がカメラ映像と類似する場合には類似度が高いものと判定される。したがって、画面端部のメッセージであっても類似度を適切に判定し、重畳表示する対象として選択することができる。
<実施の形態4>
実施形態2〜3では、カメラ101のパン、チルト、ズーム値とカメラ映像フィールド207を対応付け、カメラ映像フィールド207が保持している画像の特徴量を用いて画像間の類似度を算出することを説明した。カメラ101のパン、チルト、ズーム値が変化したとき、特定の画像特徴量のみが大きく変化し、その他の画像特徴量はあまり変化しない場合には、大きく変化する画像特徴量のみを用いて類似度を算出することもできる。
実施形態2〜3では、カメラ101のパン、チルト、ズーム値とカメラ映像フィールド207を対応付け、カメラ映像フィールド207が保持している画像の特徴量を用いて画像間の類似度を算出することを説明した。カメラ101のパン、チルト、ズーム値が変化したとき、特定の画像特徴量のみが大きく変化し、その他の画像特徴量はあまり変化しない場合には、大きく変化する画像特徴量のみを用いて類似度を算出することもできる。
そこで本発明の実施形態4では、カメラ101の現在のパン、チルト、ズーム値に応じて、一部の画像特徴量のみを用いて画像間の類似度を算出する手法を説明する。
図13は、本実施形態4におけるデータベース109が格納している画像特徴量情報1301と、これを用いて画像間の類似度を算出する様子を示す図である。本実施形態4において、データベース109は、図2で説明した各データに加え、画等特徴量情報1301を格納している。図13の例では、画像特徴量1301の前半部分1302は色特徴量を保持し、後半部分1303は形状特徴量を保持する。
監視対象空間1304において、その上部1305については構造的な変化が起きにくく、ライトなどの明暗の差異が類似シーン検索において重要な意味を持つ。そこで、カメラ101のチルトが画面上部1305に相当する値である場合、映像制御部105は、特徴量距離を計算する際に色特徴を表す前半部分1302のみを使用する。
一方で、監視対象空間1304の下部1306においては、明度の変化よりも、人や機材が存在するか否かといった形状的な特徴が類似度算出において大きな影響を有する。そこで、カメラ101のチルトが画面下部1306に相当する値である場合、映像制御部105は、特徴量距離を計算する際に形状特徴を表す後半部分1303のみを使用する。
カメラ101の撮像視野と、上記のような画像特徴量との関係は、カメラ101の設置場所によってあらかじめ定まる。カメラ101のパン、チルト、ズーム値がどの範囲のときにどの画像特徴量を使用して類似度を算出するかについては、映像監視装置100にプリセットしておいてもよいし、表示装置112が表示する監視画面からユーザが指定できるようにしてもよい。
<実施の形態4:まとめ>
以上のように、本実施形態4に係る映像監視装置100は、カメラ101が現在撮像している撮像視野に応じて、画像類似度を算出するために用いるパラメータを変更する。これにより、カメラ画像の特性に合わせて適切なパラメータを選択し、効率的に画像類似度を算出することができる。
以上のように、本実施形態4に係る映像監視装置100は、カメラ101が現在撮像している撮像視野に応じて、画像類似度を算出するために用いるパラメータを変更する。これにより、カメラ画像の特性に合わせて適切なパラメータを選択し、効率的に画像類似度を算出することができる。
<実施の形態5>
以上の実施形態1〜4において、映像監視装置100が監視画像とメッセージを表示装置112上で表示しているとき、ユーザがメッセージの内容に着目し、その周辺を観察しようとする場合が考えられる。本発明の実施形態5では、ユーザがメッセージを選択することによってカメラ101の撮像視野を移動させる動作例を説明する。
以上の実施形態1〜4において、映像監視装置100が監視画像とメッセージを表示装置112上で表示しているとき、ユーザがメッセージの内容に着目し、その周辺を観察しようとする場合が考えられる。本発明の実施形態5では、ユーザがメッセージを選択することによってカメラ101の撮像視野を移動させる動作例を説明する。
図14は、ユーザがメッセージを選択することによりカメラ101の撮像視野を制御する様子を示す図である。図14において、表示装置112には、監視画面1401と登録メッセージ一覧1402が並べて表示してある。
ユーザは、マウス407を用いてマウスカーソル1403を操作し、メッセージ一覧から1つのメッセージをクリックする。映像制御部105は、その操作指示を受け取り、クリックされたメッセージに関連付けられているパン、チルト、ズーム値に合致するようにカメラ101の撮像視野を制御する。これにより、監視画面1404に示すように、クリックされたメッセージが画面中央に表示される。
図14では、メッセージに関連づけられたパン、チルト、ズーム値を用いてカメラ101を制御しているが、例えば図7で説明したパン、チルト、ズーム値によるクラスタリングを利用して、選択されたメッセージが属するクラスタの中心値に合致するようにカメラ101を制御してもよい。これにより、選択されたメッセージだけでなく、周辺のメッセージも画面表示することができる。
また、映像制御部105は、登録メッセージ一覧1402にメッセージ一覧を表示する際に、クラスタに属するメッセージをパン、チルト、ズーム値でソートして表示するようにしてもよい。これにより、近接するメッセージが順序よく画面表示されるので、ユーザにとって便宜である。
また、ユーザが選択するメッセージの個数は1つに限られない。ユーザが複数のメッセージを選択した場合、映像制御部105は、それらのメッセージができる限り1画面内に収まるようにカメラ101を制御するようにしてもよい。
<実施の形態6>
以上の実施形態1〜5において、メッセージを重畳表示する位置は、カメラ101のパン、チルト、ズーム値のように、カメラ101が撮像している画像を特定する画像特定情報を対応付けられている。しかし、振動などの周辺環境の変化やカメラ駆動装置の劣化により微少な位置ずれがおきると、メッセージの表示位置が狂ってしまう可能性がある。
以上の実施形態1〜5において、メッセージを重畳表示する位置は、カメラ101のパン、チルト、ズーム値のように、カメラ101が撮像している画像を特定する画像特定情報を対応付けられている。しかし、振動などの周辺環境の変化やカメラ駆動装置の劣化により微少な位置ずれがおきると、メッセージの表示位置が狂ってしまう可能性がある。
そこで本発明の実施形態6では、データベース109に登録されているパン、チルト、ズーム値と、画像または画像特徴量を使用することにより、パン、チルト、ズーム値を補正する。
図15は、映像監視装置100がカメラ101のパン、チルト、ズーム値を補正する処理を示す図である。以下、補正手順について説明する。
(補正手順1)映像制御部105は、データベース109から任意のデータを1件選び、パン、チルト、ズーム値を取得する。
(補正手順2)映像制御部105は、このパン、チルト、ズーム値に合致するように、カメラ101を制御する。
(補正手順3)映像制御部105は、カメラ101からカメラ映像1501を取得する。
(補正手順4)映像制御部105は、取得したカメラ映像1501と、データベース109が格納しているカメラ映像フィールド207(カメラ映像1502)との間でマッチングを実施し、位置ずれ量を推定する。
(補正手順5)映像制御部105は、この結果得られた画像上の位置ずれを、パン、チルトのずれに換算して、補正パラメータを求める。
(補正手順6)データベース制御部108は、以後メッセージをデータベース109に登録する際は補正パラメータを引いてから登録し、カメラ映像にメッセージを重畳させる際には、補正パラメータを足してから表示位置を計算する。これにより、補正後の正しい位置にメッセージを表示することができる。
以上、本発明者によってなされた発明を実施形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
また、上記各構成、機能、処理部などは、それらの全部または一部を、例えば集積回路で設計することによりハードウェアとして実現することもできるし、プロセッサがそれぞれの機能を実現するプログラムを実行することによりソフトウェアとして実現することもできる。各機能を実現するプログラム、テーブルなどの情報は、メモリやハードディスクなどの記憶装置、ICカード、DVDなどの記憶媒体に格納することができる。
100:映像監視装置、101:カメラ、102:カメラ制御部、103:カメラ情報取得部、104:カメラ映像取得部、105:映像制御部、106:メッセージ登録部、107:特徴量抽出部、108:データベース制御部、109:データベース、110:映像出力部、111:操作情報入力部、112:表示装置、113:入力装置、201:メッセージIDフィールド、202:メッセージフィールド、203:時刻フィールド、204:パンフィールド、205:チルトフィールド、206:ズームフィールド、207:カメラ映像フィールド、208:画像特徴量フィールド、801:クラスタIDフィールド、802:クラスタ中心フィールド、803:メッセージIDリストフィールド。
Claims (13)
- 画像を撮像するカメラと、
前記カメラが撮像した画像に追加情報を重畳した画像を生成する映像制御部と、
前記映像制御部が生成した画像を出力する画像出力部と、
前記カメラが撮像する画像を特定する画像特定情報と前記追加情報を関連付けるレコードを格納するデータベースと、
を備え、
前記データベースは、
前記画像特定情報が特定する画像間の距離が前記カメラの撮像画像サイズ未満である前記レコードを複数格納しており、
前記映像制御部は、
前記画像特定情報のうち、前記画像特定情報が特定する画像と、前記カメラが現在撮像している画像との間の距離が所定範囲内にある、1以上の前記画像特定情報を前記データベースから検索し、
前記検索の結果得られた1以上の前記画像特定情報のなかから、前記画像特定情報が特定する画像が、前記カメラが現在撮像している画像内に収まるものを抽出し、
前記抽出した前記画像特定情報に対応する前記追加情報を、前記カメラが撮像した画像に重畳する
ことを特徴とする映像監視装置。 - 前記映像制御部は、
前記抽出した前記画像特定情報に対応する前記追加情報の優先度を算出し、
前記優先度が所定閾値以上の前記追加情報のみを、前記カメラが撮像した画像に重畳する
ことを特徴とする請求項1記載の映像監視装置。 - 前記映像制御部は、
前記抽出した前記画像特定情報のうち、前記抽出した前記画像特定情報が特定する画像と、前記カメラが現在撮像している画像との間の距離が近いものほど、前記優先度を高くする
ことを特徴とする請求項2記載の映像監視装置。 - 前記映像制御部は、前記データベースに格納された日時が新しい前記追加情報ほど、前記優先度を高くする
ことを特徴とする請求項2記載の映像監視装置。 - 前記レコードを前記データベースに格納するデータベース制御部を備え、
前記データベース制御部は、
前記カメラの撮像視野を特徴付けるパラメータを前記画像特定情報として前記データベースに格納し、
前記パラメータをクラスタリング処理することにより、前記パラメータが特定する前記画像のうち互いに所定範囲内の距離にあるものをクラスタ化する
ことを特徴とする請求項1記載の映像監視装置。 - 前記データベースは、
前記カメラが撮像した画像を前記画像特定情報と関連付けて格納しており、
前記映像制御部は、
前記カメラが撮像した画像と類似する画像を前記データベースから検索し、類似度の高い画像に対応する前記追加情報ほど前記優先度を高くする
ことを特徴とする請求項2記載の映像監視装置。 - 前記データベースは、
前記カメラが撮像した画像を前記画像特定情報と関連付けて格納しており、
前記映像制御部は、
前記カメラが撮像した画像から一部を取り出して生成した部分画像と類似する画像を前記データベースが格納している画像から検索し、類似度の高い画像に対応する前記追加情報ほど前記優先度を高くする
ことを特徴とする請求項2記載の映像監視装置。 - 前記レコードを前記データベースに格納するデータベース制御部を備え、
前記データベース制御部は、
前記カメラの撮像視野を特徴付けるパラメータを前記画像特定情報として前記データベースに格納し、
前記パラメータをクラスタリング処理することにより、前記パラメータが特定する前記画像のうち互いに所定範囲内の距離にあるものをクラスタ化し、
前記映像制御部は、
前記部分画像のうち前記クラスタの中心に最も近いもののみを、前記データベースが格納している画像との間で類似度を判定する対象とする
ことを特徴とする請求項7記載の映像監視装置。 - 前記映像制御部は、
前記カメラが現在撮像している画像の撮像視野に応じて、類似度を算出するために用いるパラメータを変更する
ことを特徴とする請求項6記載の映像監視装置。 - 前記レコードを前記データベースに格納するデータベース制御部と、
前記画像出力部が出力している前記画像に対する操作を受け取る操作入力部と、
を備え、
前記データベース制御部は、
前記カメラの撮像視野を特徴付けるパラメータを前記画像特定情報として前記データベースに格納し、
前記映像制御部は、
前記画像出力部が出力している前記画像に重畳されている前記追加情報が画面中央領域に位置するように指示する前記操作を前記操作入力部が受け取ると、
前記追加情報に対応する前記パラメータを用いて、前記追加情報が画面中央領域に位置する前記カメラの撮像視野を特定し、その撮像視野を撮像するように前記カメラを制御する
ことを特徴とする請求項1記載の映像監視装置。 - 前記データベース制御部は、
前記パラメータをクラスタリング処理することにより、前記パラメータが特定する前記画像のうち互いに所定範囲内の距離にあるものをクラスタ化し、
前記映像制御部は、
前記画像出力部が出力している前記画像に重畳されている前記追加情報が画面中央領域に位置するように指示する前記操作を前記操作入力部が受け取ると、
その追加情報が属する前記クラスタの中心が画面中央に合致するように前記カメラを制御する
ことを特徴とする請求項10記載の映像監視装置。 - 前記映像制御部は、
前記クラスタに属する前記追加情報を前記パラメータの値で整列し、整列した前記追加情報のリストを前記画像と併せて前記画像出力部から出力する
ことを特徴とする請求項11記載の映像監視装置。 - 前記データベースは、
前記カメラが撮像した画像を前記画像特定情報と関連付けて格納しており、
前記映像制御部は、
前記画像特定情報が特定する画像を撮像するように前記カメラへ指示し、
前記カメラが現在撮像している画像と前記データベースが格納している画像を比較することにより両者の差分を求め、
前記追加情報を重畳する際に前記差分を適用して表示位置を補正する
ことを特徴とする請求項1記載の映像監視装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012548696A JP5456175B2 (ja) | 2010-12-15 | 2011-10-31 | 映像監視装置 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010279537 | 2010-12-15 | ||
JP2010279537 | 2010-12-15 | ||
PCT/JP2011/075053 WO2012081319A1 (ja) | 2010-12-15 | 2011-10-31 | 映像監視装置 |
JP2012548696A JP5456175B2 (ja) | 2010-12-15 | 2011-10-31 | 映像監視装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5456175B2 true JP5456175B2 (ja) | 2014-03-26 |
JPWO2012081319A1 JPWO2012081319A1 (ja) | 2014-05-22 |
Family
ID=46244434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012548696A Active JP5456175B2 (ja) | 2010-12-15 | 2011-10-31 | 映像監視装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9083891B2 (ja) |
JP (1) | JP5456175B2 (ja) |
CN (1) | CN103262530B (ja) |
WO (1) | WO2012081319A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101873525B1 (ko) * | 2011-12-08 | 2018-07-03 | 삼성전자 주식회사 | 휴대단말기의 콘텐츠 표시장치 및 방법 |
JP6315895B2 (ja) * | 2013-05-31 | 2018-04-25 | キヤノン株式会社 | 撮像装置、画像処理装置、撮像装置の制御方法、画像処理装置の制御方法、プログラム |
JP6335468B2 (ja) * | 2013-10-10 | 2018-05-30 | キヤノン株式会社 | 撮像装置、外部装置、撮像システム、撮像装置の制御方法、外部装置の制御方法、撮像システムの制御方法、及びプログラム |
JP2016015009A (ja) * | 2014-07-02 | 2016-01-28 | ソニー株式会社 | 情報処理システム、情報処理端末、および情報処理方法 |
US20180198983A1 (en) * | 2017-01-06 | 2018-07-12 | Olympus Corporation | Image pickup apparatus, image pickup system, image pickup method, image pickup program, and display apparatus for image pickup |
CN110659376A (zh) * | 2019-08-14 | 2020-01-07 | 浙江大华技术股份有限公司 | 图片查找方法、装置、计算机设备和存储介质 |
JPWO2021205574A1 (ja) * | 2020-04-08 | 2021-10-14 | ||
CN116069976B (zh) * | 2023-03-06 | 2023-09-12 | 南京和电科技有限公司 | 一种区域视频分析方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10136345A (ja) * | 1996-11-01 | 1998-05-22 | Matsushita Electric Ind Co Ltd | 情報提供システム |
JP2005175712A (ja) * | 2003-12-09 | 2005-06-30 | Ricoh Co Ltd | 情報提供方法及び情報提供プログラム |
JP2005354461A (ja) * | 2004-06-11 | 2005-12-22 | Toshiba Corp | 監視カメラシステム、ビデオ処理装置およびその文字表示方法 |
JP2007067975A (ja) * | 2005-08-31 | 2007-03-15 | Toshiba Corp | 映像監視システムおよび映像監視方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5815411A (en) | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
US6037936A (en) | 1993-09-10 | 2000-03-14 | Criticom Corp. | Computer vision system with a graphic user interface and remote camera control |
JP3558104B2 (ja) | 1996-08-05 | 2004-08-25 | ソニー株式会社 | 3次元仮想物体表示装置および方法 |
EP1450275A3 (en) * | 1996-10-31 | 2007-08-08 | Sensormatic Electronics Corporation | Intelligent video information management system |
JPH10336503A (ja) | 1997-06-04 | 1998-12-18 | Canon Inc | 画像処理装置及び方法及び記憶媒体 |
US6654060B1 (en) | 1997-01-07 | 2003-11-25 | Canon Kabushiki Kaisha | Video-image control apparatus and method and storage medium |
TW548572B (en) | 1998-06-30 | 2003-08-21 | Sony Corp | Image processing apparatus, image processing method and storage medium |
JP3786166B2 (ja) | 1998-06-30 | 2006-06-14 | ソニー株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
US7232064B1 (en) * | 1999-01-29 | 2007-06-19 | Transcore, Inc. | Digital video audit system |
US20070126871A1 (en) * | 2005-12-06 | 2007-06-07 | Henninger Paul E Iii | Modular surveillance camera system with self-identification capability |
JP4818816B2 (ja) * | 2006-06-05 | 2011-11-16 | 富士通株式会社 | 駐車支援プログラム及び駐車支援装置 |
CN101511002B (zh) * | 2009-03-04 | 2011-03-16 | 中兴通讯股份有限公司 | 一种联动监视系统及实现方法 |
-
2011
- 2011-10-31 WO PCT/JP2011/075053 patent/WO2012081319A1/ja active Application Filing
- 2011-10-31 US US13/882,673 patent/US9083891B2/en active Active
- 2011-10-31 CN CN201180059301.6A patent/CN103262530B/zh active Active
- 2011-10-31 JP JP2012548696A patent/JP5456175B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10136345A (ja) * | 1996-11-01 | 1998-05-22 | Matsushita Electric Ind Co Ltd | 情報提供システム |
JP2005175712A (ja) * | 2003-12-09 | 2005-06-30 | Ricoh Co Ltd | 情報提供方法及び情報提供プログラム |
JP2005354461A (ja) * | 2004-06-11 | 2005-12-22 | Toshiba Corp | 監視カメラシステム、ビデオ処理装置およびその文字表示方法 |
JP2007067975A (ja) * | 2005-08-31 | 2007-03-15 | Toshiba Corp | 映像監視システムおよび映像監視方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2012081319A1 (ja) | 2014-05-22 |
WO2012081319A1 (ja) | 2012-06-21 |
CN103262530A (zh) | 2013-08-21 |
US20130250111A1 (en) | 2013-09-26 |
CN103262530B (zh) | 2016-03-02 |
US9083891B2 (en) | 2015-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5456175B2 (ja) | 映像監視装置 | |
US10499002B2 (en) | Information processing apparatus and information processing method | |
US10964108B2 (en) | Augmentation of captured 3D scenes with contextual information | |
US11710322B2 (en) | Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program | |
US8154616B2 (en) | Data processing apparatus and method, and recording medium | |
US10462406B2 (en) | Information processing apparatus and information processing method | |
JP4547040B1 (ja) | 表示画像切替装置及び表示画像切替方法 | |
WO2012132334A1 (en) | Display control device, display control method, and program | |
TW201715476A (zh) | 運用擴增實境技術之導航系統 | |
JP5668587B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2017211811A (ja) | 表示制御プログラム、表示制御方法および表示制御装置 | |
CN112949375A (zh) | 计算系统、计算方法及存储介质 | |
JP3860560B2 (ja) | 表示インタフェース方法および装置 | |
JP2018032991A (ja) | 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム | |
WO2022239291A1 (ja) | 物体検知装置及び方法 | |
JP5493581B2 (ja) | 情報処理システム、情報処理装置、情報管理装置及びプログラム | |
JP2013257830A (ja) | 情報処理装置 | |
KR20190048738A (ko) | 증강현실용 컨텐츠 제공 장치 및 방법 | |
JP2015197429A (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
JP2024078339A (ja) | 画像処理システム、制御方法、及びプログラム | |
JP5925007B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2014010684A (ja) | 情報処理装置 | |
JP2011232982A (ja) | 画像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140107 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5456175 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |