JP2005277726A - Image monitoring device - Google Patents
Image monitoring device Download PDFInfo
- Publication number
- JP2005277726A JP2005277726A JP2004087326A JP2004087326A JP2005277726A JP 2005277726 A JP2005277726 A JP 2005277726A JP 2004087326 A JP2004087326 A JP 2004087326A JP 2004087326 A JP2004087326 A JP 2004087326A JP 2005277726 A JP2005277726 A JP 2005277726A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- face
- face image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数の監視カメラを備え、監視領域内に侵入する人物を検出して追跡しながら監視する画像監視装置に関する。 The present invention relates to an image monitoring apparatus that includes a plurality of monitoring cameras and monitors a person who enters a monitoring area while detecting and tracking the person.
この種の画像監視装置は、監視領域を撮影するように設置された監視カメラから画像を取込み、この取込んだ画像を計算機により処理することにより、監視領域内の人物および当該人物の顔を検出し、人物および顔が検出されたときには、表示装置において警報を出力して監視員に報知することで、監視員の画像の見落しを防ぐようにしている。
また、監視領域内に現れた人物についての情報を、後で参照する目的で、人物およびその顔の画像をハードディスクなどの記憶装置に保存する。
This type of image monitoring apparatus detects a person in the monitoring area and the face of the person by capturing an image from a monitoring camera installed to capture the monitoring area and processing the captured image with a computer. When a person and a face are detected, an alarm is output on the display device to notify the monitor, thereby preventing an image of the monitor from being overlooked.
In addition, the person and the face image are stored in a storage device such as a hard disk for the purpose of referring to the information about the person appearing in the monitoring area later.
このような画像監視装置に関わる従来技術として、たとえば、特許文献1および特許文献2に開示されているものがある。
特許文献1の技術は、2つの監視カメラで、1つの監視領域を監視するもので、1つの監視カメラは監視領域全体を撮影する固定視野カメラであり、もう1つの監視カメラは人物のズームショット(拡大画像)を得るためのズームカメラである。固定視野カメラからの画像により監視領域内に侵入した人物を検出した場合に、ズームカメラにより当該人物のズーム撮影(拡大撮影)を行なう。
For example,
The technology of
この特許文献1の目的は、広い監視領域を1つのカメラで撮影すると人物が画面中では小さく、人物の特徴がとらえにくくなるという問題を解決するための発明である。人物をズーム撮影することによリ、人物の特徴をよりとらえやすい画像を得ることができる。
The purpose of
特許文献2の技術は、特許文献1と同様、2つのカメラを用いて1つの監視領域を監視するもので、ズームカメラのズーム対象が、人物全体ではなく、人物の顔である。
The technique of
図11に、ズーム対象を決定する従来の処理方法を示す。この処理方法は、既にズーム撮影の対象となる人物がある場合には、対象人物が監視領域から立ち去るまで、あるいは、対象人物のズームショットが得られるまでズーム撮影を行なう。ズーム対象の人物がなく、ズーム撮影をまだ行なっていない人物がいる場合、または、固定視野カメラで新たな人物が検出された場合、その人物に対してズーム撮影を行なうものである。
しかしながら、従来の技術では、一旦顔のズームショットを撮影し、その後、当該人物について、より良い顔画像得られる場合でも、ズーム撮影が行なわれないという問題がある。ここで、より良い顔画像とは、人物の特徴をとらえる点において良い画像とする。たとえば、横向きの顔よりも、正面向きの顔の方が良い画像とする。 However, the conventional technique has a problem in that zoom photography is not performed even when a zoom shot of a face is once taken and then a better face image is obtained for the person. Here, a better face image is a good image in that it captures the characteristics of a person. For example, an image with a face facing front is better than a face facing sideways.
図12を例にして詳細に説明する。図12は、監視領域内における固定視野カメラからの画像の系列であり、図12(a)、(b)、…、(f)の順に時間が経過しているものとする。人物Aは、図12(a)で監視領域内に出現し、図面に対し右から左方向に移動するものとする。このとき、人物Aの顔は、カメラに対して横向きである。人物Aは、図12(e)において、カメラに対して正面に顔を向け、図12(f)では、カメラに向かって移動する。人物Bは、図12(c)において監視領域内に出現し、カメラに向かって移動し、図12(e)では、消失する。 This will be described in detail with reference to FIG. FIG. 12 shows a series of images from the fixed-field camera in the monitoring area, and it is assumed that time elapses in the order of FIGS. 12 (a), (b),..., (F). The person A appears in the monitoring area in FIG. 12A and moves from the right to the left with respect to the drawing. At this time, the face of the person A is sideways with respect to the camera. The person A faces in front of the camera in FIG. 12E and moves toward the camera in FIG. The person B appears in the monitoring area in FIG. 12C, moves toward the camera, and disappears in FIG. 12E.
従来の技術では、図12(a)において、固定視野カメラから人物Aを検出し、ズームカメラにより人物Aの顔のズーム撮影を行なう。この場合、人物Aについてのズームショットは、横向きのみの顔画像となる。図12(c)において、人物Bが検出され、ズームカメラにより人物Bの顔のズーム撮影を行なう。 In the prior art, in FIG. 12A, a person A is detected from a fixed-field camera, and a zoom camera is used to zoom in on the face of the person A. In this case, the zoom shot for the person A is a face image only in landscape orientation. In FIG. 12C, the person B is detected, and the zoom camera is used to zoom in on the face of the person B.
図12(e)〜(f)においては、人物Aについては既に顔のズーム撮影を行なっているので、人物Aの顔のズーム撮影は行なわれない。この結果、最終的に得られる顔のズームショットは、人物Aは、図12(e)、(f)において正面を向いているにも関わらず、図13に示すように横顔のみとなる。 In FIGS. 12E to 12F, since the person A has already performed zoom photography of the face, zoom photography of the face of the person A is not performed. As a result, the finally obtained zoom shot of the face is only the side face as shown in FIG. 13, although the person A is facing the front in FIGS. 12 (e) and 12 (f).
そこで、本発明は、より人物の特徴をとらえやすい顔の拡大画像が得られる画像監視装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image monitoring device that can obtain an enlarged image of a face that can more easily capture the characteristics of a person.
本発明の画像監視装置は、監視領域内の画像を撮影して入力する第1の監視カメラと、前記監視領域内の画像を撮影して入力する撮影倍率を変更可能な第2の監視カメラと、前記第1の監視カメラから得られる画像に基づき前記監視領域内の人物を検出し追跡する人物検出追跡手段と、前記第2の監視カメラから得られる画像に基づき前記監視領域内の人物の顔画像を検出する顔検出手段と、この顔検出手段により検出された顔画像を評価して評価値を得る顔画像評価手段と、前記人物検出追跡手段により人物が検出されると、前記顔画像評価手段から得られる評価値があらかじめ設定される第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを制御する第1の制御手段と、前記第2の監視カメラによる当該人物の顔画像の拡大撮影が終了したのに基づき、前記顔画像評価手段から得られる評価値があらかじめ設定される第2の閾値よりも小さい人物が前記監視領域内に存在するか否かを判定する第1の判定手段と、この第1の判定手段による判定の結果、前記顔画像評価手段から得られる評価値があらかじめ設定される第2の閾値よりも小さい人物が前記監視領域内に存在する場合、前記顔画像評価手段から得られる評価値が前記第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを再度制御する第2の制御手段とを具備している。 An image monitoring apparatus of the present invention includes a first monitoring camera that captures and inputs an image in a monitoring area, and a second monitoring camera that can change a shooting magnification for capturing and inputting an image in the monitoring area. A person detection and tracking means for detecting and tracking a person in the monitoring area based on an image obtained from the first monitoring camera; and a person's face in the monitoring area based on an image obtained from the second monitoring camera. Face detection means for detecting an image; face image evaluation means for evaluating the face image detected by the face detection means to obtain an evaluation value; and when the person is detected by the person detection tracking means, the face image evaluation First control means for controlling the second surveillance camera so as to magnify the face image of the person until the evaluation value obtained from the means becomes larger than a first threshold value set in advance; 2 surveillance turtles Whether or not there is a person in the monitoring area whose evaluation value obtained from the face image evaluation means is smaller than a second threshold value set in advance based on the fact that the enlargement of the face image of the person by And a person who is smaller than a second threshold value set in advance as the evaluation value obtained from the face image evaluation means as a result of the determination by the first determination means. If present, the second monitoring camera is again controlled to magnify the face image of the person until the evaluation value obtained from the face image evaluation means becomes larger than the first threshold. Control means.
本発明によれば、より人物の特徴をとらえやすい顔の拡大画像が得られる画像監視装置を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the image monitoring apparatus from which the enlarged image of the face which can catch a person's feature more easily can be provided.
以下、本発明の実施の形態について図面を参照して説明する。
図1は、本実施の形態に係る画像監視装置の構成を概略的に示すものである。この画像監視装置は、第1の監視カメラとしての固定監視カメラ11、第2の監視カメラとしてのズームカメラ12、人物検出追跡手段としての人物検出追跡部13、顔検出手段としての顔検出部14、制御手段および判定手段としての人物管理部15、顔画像評価手段としての顔画像評価部16、制御手段としてのズームカメラ制御部17、表示手段としての検出結果表示部18、および、記憶手段としての検出結果蓄積部19を具備して構成されており、以下、各部の機能について詳細に説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 schematically shows a configuration of an image monitoring apparatus according to the present embodiment. This image monitoring apparatus includes a fixed
固定監視カメラ11およびズームカメラ12は、図2に示すように、あらかじめ定められた監視領域E内の画像を撮影するように設置されている。すなわち、一方の固定視野カメラ11は、監視領域E全体を撮影するもので、監視領域E内での人物Mを検出し追跡する目的で用いられる。もう1つのズームカメラ12は、監視領域E内に存在する人物の顔画像を検出し、ズーム撮影する目的で用いられる。ズームカメラ12は、その撮影方向を上下および左右に制御可能であるとともに、ズーム率(撮影倍率)も制御可能である。
なお、ズームカメラ12は、監視領域E内に人物Mが検出されない場合には、固定視野カメラ11とほぼ同じ画像が得られるような方向およびレンズのズーム率の設定で撮影するようになっている。
As shown in FIG. 2, the fixed
Note that the
人物検出追跡部13および顔検出部14では、それぞれ固定視野カメラ11およびズームカメラ12からの画像信号を一定の時間間隔で画像情報として逐次取込み、処理を行なう。ここに、逐次取込まれる画像をフレームとも呼ぶ。
The person
人物検出追跡部13は、固定視野カメラ11から得られる画像に基づき人物領域(人物)を検出し追跡する。検出した人物領域には固有のID(識別情報)を付与する。検出した人物領域は、その後、当該人物領域が監視領域内から存在しなくなるまで追跡される。図3に人物検出追跡部13における処理の流れを示す。
The person detection /
まず、人物検出追跡部13における処理の流れの概略を説明する。固定視野カメラ11の画像信号を画像として取込み、得られた画像から変化領域を検出する。変化領域の検出は、たとえば、文献1(中井,“事後確率を用いた移動物体検出手法”,情処研報,94−CV90,pp.1−8,1994)の手法のように、背景画像との差分から検出する。これは、監視領域Eに人物が存在しない場合の画像を背景画像として持ち、背景画像と現在のフレームとの差分から変化のある領域を、変化領域として検出する。検出された変化領域の大きさや縦横比から、人間らしいと判定される領域を人物領域として検出する。
First, an outline of the processing flow in the person
現在のフレームの人物領域は、追跡中の人物領域との対応付けを行なう。対応付けは、たとえば、1つ前のフレームでの人物領域との大きさと位置が近いもの同士を対応付けることにより行なう。現在のフレームで検出された人物領域のうち、追跡中の人物領域との対応付けが行なわれなかったたものは、新たなIDを付与し、追跡する人物として追加する。追跡中の人物で一定フレームTf以上見付からない場合には、その人物が監視領域Eから立ち去ったものとして追跡を中止する。 The person area of the current frame is associated with the person area being tracked. The association is performed, for example, by associating objects that are close in size and position with the person area in the previous frame. Of the person areas detected in the current frame, those that have not been associated with the person area being tracked are assigned new IDs and added as persons to be tracked. If the person being tracked finds no more than a certain frame Tf, the tracking is stopped because the person has left the monitoring area E.
以下、人物検出追跡部13における処理の流れを図3を用いて具体的に説明する。まず、固定視野カメラ11の画像信号を画像として取込み(ステップS1)、得られた画像から変化領域を検出する(ステップS2)。次に、検出された変化領域の大きさや縦横比から、人間らしいと判定される領域を人物領域として検出する(ステップS3)。
Hereinafter, the flow of processing in the person
次に、現在のフレームから検出された人物領域と、過去に検出された人物領域(追跡中の人物領域)との対応付けを行なう(ステップS4)。次に、一定フレームTf以上対応する人物領域が見付からない人物のIDがあるか否かをチェックし(ステップS5)、ない場合にはその人物が監視領域Eから立ち去ったものとして当該IDを破棄して追跡を中止する(ステップS6)。 Next, the person area detected from the current frame is associated with the person area detected in the past (the person area being tracked) (step S4). Next, it is checked whether or not there is a person ID for which a person area corresponding to a certain frame Tf or more is not found (step S5). If not, the ID is discarded as if the person has left the monitoring area E. Tracking is stopped (step S6).
ステップS5におけるチェックの結果、一定フレームTf以上対応する人物領域が見付からない人物のIDがある場合、現在のフレームでの人物領域で対応付けできないものがあるか否かをチェックし(ステップS7)、ある場合にはその人物領域を新たな人物領域として生成し、新たなIDを付加する(ステップS8)。
ステップS7におけるチェックの結果、現在のフレームでの人物領域で対応付けできないものがない場合、あるいは、ステップS8の処理が終了すると、ステップS1に戻り、上記同様な処理を繰り返す。
As a result of the check in step S5, if there is a person ID for which a person area corresponding to a certain frame Tf or more cannot be found, it is checked whether there is any person area in the current frame that cannot be associated (step S7). If there is, the person area is generated as a new person area, and a new ID is added (step S8).
As a result of the check in step S7, if there is no person region in the current frame that cannot be associated, or when the process in step S8 is completed, the process returns to step S1 and the same process as described above is repeated.
図4に人物検出追跡部13の処理例を示す。図中の破線で示す矩形は、各フレームで検出された人物領域である。図4において、(a)、(b)、…、(h)の順に時間が経過しているものとする。人物領域ME1は、図4(a)で監視領域E内に出現し、図面に対し右から左方向に移動する。このとき、人物領域ME1の顔は、カメラに対して横向きである。人物領域ME1は、図4(e)において、カメラに対して正面に顔を向け、図4(f)では、カメラに向かって移動する。人物領域ME1は、図4(g)において、図面に対し左から右方向に移動しする。このとき、人物領域ME1の顔は、カメラに対して横向きである。人物領域ME1は、図4(h)において、カメラに対して顔を後ろ向きとし、カメラから遠ざかる方向に移動する。人物領域ME2は、図4(c)において監視領域E内に出現し、図4(e)で消失する。
図4の例では、人物領域ME1は「ID=1」、人物領域ME2は「ID=2」が付与された場合を示している。
FIG. 4 shows a processing example of the person
In the example of FIG. 4, “ID = 1” is assigned to the person area ME1, and “ID = 2” is assigned to the person area ME2.
顔検出部14は、ズームカメラ12から、一定時間間隔で複数の画像を連続的に取込み、この取込んだ複数の画像についてそれぞれ顔領域を検出する。顔領域の検出手法は、たとえば、文献2(三田,金子,堀“微小な差異を含む画像の照合に適した空間差分確率テンプレートの提案”,第9会画像センシングシンポジウム講演論文集,SSII03,2003)の手法を用いることができる。
The
人物管理部15は、人物検出追跡部13で検出された人物についての情報を管理する。具体的には、人物検出追跡部13で検出された人物のIDごとに人物領域、顔領域、代表顔画像、および、ズーム撮影が行なわれたか否かの情報を記憶する。図5に人物管理部15における処理の流れを示す。
The
まず、人物管理部15における処理の流れの概略を説明する。各人物のIDについて、人物検出追跡部13から人物領域を得て、情報を更新する。次に、顔検出部14から顔領域(少なくとも顔を含む画像、以下、顔画像と称す)と人物IDを得る。顔画像は、1つの人物IDについて複数得られる。得られた顔画像の集合を顔画像評価部16に送り、最も評価値の高いものを代表顔画像とする。
First, an outline of the processing flow in the
ズーム撮影が行なわれていない人物については、ズーム撮影の対象とするように、ズームカメラ制御部17に指示し、ズーム対象の人物の代表顔画像の評価値Eeが第1の閾値Te1よりも大きくなるまでズーム撮影を続ける。
For a person who has not been zoomed, the zoom
監視領域E内の人物で、全ての人物についてズームショットを撮影した場合で、代表顔画像の評価値Eeが第2の閾値Te2よりも低い人物がいる場合には、その人物について再度、ズームショットの撮影を行なう。ただし、より大きな評価値の顔画像が得られる可能性を表す評価値Ebが第3の閾値Tbよりも大きい場合とする。 If a person in the monitoring area E has taken a zoom shot for all persons and there is a person whose representative face image evaluation value Ee is lower than the second threshold value Te2, the person is zoomed in again for that person. Take a photo of However, it is assumed that the evaluation value Eb indicating the possibility of obtaining a face image having a larger evaluation value is larger than the third threshold value Tb.
以下、人物管理部15における処理の流れを図5を用いて具体的に説明する。まず、各人物のIDについて、人物検出追跡部13から人物領域を得て、情報を更新する(ステップS11)。次に、顔検出部14から顔領域(顔画像)と人物IDを得て、情報を更新する(ステップS12)。顔画像は、1つの人物IDについて複数得られる。得られた顔画像の集合を顔画像評価部16に送り、最も評価値の高いものを代表顔画像とする。
Hereinafter, the flow of processing in the
次に、ズーム撮影を行なっている人物(IDa)が存在するか否かをチェックし(ステップS13)、存在する場合、顔画像評価部16から得られる評価値Eeが第1の閾値Te1よりも大きくなる人物(IDa)が存在するか否かをチェックし(ステップS14)、存在しない場合、ステップS11に戻って上記同様な動作を繰り返す。
ステップS14におけるチェックの結果、評価値Eeが第1の閾値Te1よりも大きくなる人物(IDa)が存在する場合、人物(IDa)に対するズーム撮影を終了し、ステップS11に戻って上記同様な動作を繰り返す。
Next, it is checked whether or not there is a person (IDa) who is performing zoom shooting (step S13). If there is, the evaluation value Ee obtained from the face
If there is a person (IDa) whose evaluation value Ee is larger than the first threshold value Te1 as a result of the check in step S14, zoom shooting for the person (IDa) is terminated, and the process returns to step S11 and performs the same operation as above. repeat.
ステップS13におけるチェックの結果、ズーム撮影を行なっている人物(IDa)が存在しない場合、まだズームショットを撮影していない人物(IDb)が存在するか否かをチェックし(ステップS16)、存在する場合、ズーム対象を当該人物(IDb)に設定し、ステップS11に戻って上記同様な動作を繰り返す。 If the result of the check in step S13 is that there is no person (IDa) performing zoom shooting, it is checked whether there is a person (IDb) who has not yet taken a zoom shot (step S16). In this case, the zoom target is set to the person (IDb), and the process returns to step S11 to repeat the same operation.
ステップS16におけるチェックの結果、まだズームショットを撮影していない人物(IDb)が存在しない場合、顔画像評価部16から得られる評価値Eeが第2の閾値Te2よりも小さくなる人物(IDc)が存在するか否かをチェックし(ステップS18)、存在しない場合、ステップS11に戻って上記同様な動作を繰り返す。
As a result of the check in step S16, if there is no person (IDb) who has not yet taken a zoom shot, a person (IDc) whose evaluation value Ee obtained from the face
ステップS18におけるチェックの結果、評価値Eeが第2の閾値Te2よりも小さくなる人物(IDc)が存在する場合、当該人物(IDc)について、より大きな評価値の顔画像が得られる可能性を表わす評価値Ebが第3の閾値Tbよりも大きいか否かをチェックし(ステップS19)、評価値Ebが第3の閾値Tbよりも大きくない場合、ステップS11に戻って上記同様な動作を繰り返す。
ステップS19におけるチェックの結果、評価値Ebが第3の閾値Tbよりも大きい場合、ズーム対象を当該人物(IDc)に設定し(ステップS20)、ステップS11に戻って上記同様な動作を繰り返す。
If there is a person (IDc) whose evaluation value Ee is smaller than the second threshold value Te2 as a result of the check in step S18, this represents the possibility that a face image with a higher evaluation value will be obtained for that person (IDc). It is checked whether or not the evaluation value Eb is larger than the third threshold value Tb (step S19). If the evaluation value Eb is not larger than the third threshold value Tb, the process returns to step S11 and the same operation is repeated.
As a result of the check in step S19, if the evaluation value Eb is larger than the third threshold value Tb, the zoom target is set to the person (IDc) (step S20), the process returns to step S11, and the same operation is repeated.
ここに、上記評価値Ebは、固定視野カメラ11から得られる画像内における当該人物の移動方向に基づき計算する。たとえば、カメラの方向に向かって移動する場合に高い評価値となるように定義する。図6の例を用いて説明する。図6(a)のように、人物Mがカメラに対して向かって移動する場合には、高い評価値Ebを与える。また、図6(b)のように、人物Mがカメラに対して横向きに移動する場合には、図6(a)よリも低い評価値Ebを与える。図6(c)のように、人物Mがカメラから遠ざかるような移動の場合には、図6(a),(b)よりも小さな評価値Ebを与えるようにする。
Here, the evaluation value Eb is calculated based on the moving direction of the person in the image obtained from the fixed-
ただし、Ee<Te2かつEb>Tbを満たす人物が複数いる場合には、人物Mが監視領域Eからいなくなるまでの時間を予測し、その時間が最も短い人物Mをズーム対象にする。監視領域Eからいなくなるまでの時間は、たとえば、人物Mの追跡結果から移動速度を計算し、画像の端に到達するまでの時間として予測する。 However, when there are a plurality of persons satisfying Ee <Te2 and Eb> Tb, a time until the person M disappears from the monitoring area E is predicted, and the person M with the shortest time is set as a zoom target. The time until it disappears from the monitoring region E is calculated as, for example, the time required to calculate the moving speed from the tracking result of the person M and reach the end of the image.
顔画像評価部16では、与えられた顔画像について評価値を計算する。この場合、評価値は、たとえば、特開P2002−191044号公報に開示されているように、顔領域の方向、顔領域の面積、顔領域コントラストなどから計算する。具体的には、顔領域の方向が正面向きに近いほど評価値が高くなるようにする。また、顔領域の面積が大きいほど評価値が高くなるようにする。顔領域のコントラストについても、コントラストが高いほど評価値が高くなるようにする。
The face
ズームカメラ制御部17は、ズーム対象の人物の顔に向かってズームを行ない、顔のズームショットを得る。図7にズームカメラ制御部17における処理の流れを示す。
The zoom
まず、ズームカメラ制御部17における処理の流れの概略を説明する。ズーム対象の人物が設定されてなければ、ズームカメラ12をニュートラルの位置に設定にする。ここに、ニュートラルの位置に設定とは、固定視野カメラ11とほぼ同じ画像が得られるような方向およびレンズのズーム率の設定である。
First, an outline of the flow of processing in the zoom
ズーム対象の人物が設定されると、当該人物の顔領域に向かってズームを行なう。ズーム対象の人物は、人物管理部15から固定視野カメラ11の画像上での領域として与えられる。ズーム対象の設定が行なわれた時点では、ズームカメラ12は、固定視野カメラ11とほぼ同じ画像を得られるような視野設定になっているので、人物管理部15から与えられた人物領域の頭部に向かってズームを行なう。
When a person to be zoomed is set, zooming is performed toward the face area of the person. The person to be zoomed is given as an area on the image of the fixed
顔検出部14で、与えられた人物領域中に顔領域が検出されれば、その顔領域を対象とし、検出されなければ、人物領域の上部を対象としてズームを行なう。この場合、ズームカメラ12から得られる画像の中央部に顔領域が位置するように、ズームカメラ12の向きを制御する。顔領域が画像の中央部に位置したら、顔領域が大きくなるようにズームインを行なう。ズームインは、顔領域の大きさが一定値以上になるまで行なう。顔領域が大きくなり過ぎた場合には、ズームカメラ12をズームアウトする。
If the
以下、ズームカメラ制御部17における処理の流れを図7を用いて具体的に説明する。まず、ズーム対象の人物が設定されているか否かをチェックし(ステップS31)、設定されていない場合は、ズームカメラ12をニュートラルの位置に戻し(ステップS32)、ステップS31に戻って上記同様な動作を繰り返す。
Hereinafter, the flow of processing in the zoom
ステップS31におけるチェックの結果、ズーム対象の人物が設定されている場合、人物管理部15から当該人物の顔領域を取得し(ステップS33)、その顔領域がズームカメラ12から得られる画像の中央部に位置するか否かをチェックする(ステップS34)。このチェックの結果、画像の中央部に位置しない場合、ズームカメラ12から得られる画像の中央部に当該顔領域が位置するように、ズームカメラ12の向きを制御し(ステップS35)、ステップS31に戻って上記同様な動作を繰り返す。
If the person to be zoomed is set as a result of the check in step S31, the face area of the person is acquired from the person management unit 15 (step S33), and the face area is the center of the image obtained from the
ステップS34におけるチェックの結果、顔領域がズームカメラ12から得られる画像の中央部に位置している場合、当該顔領域の大きさが小さすぎるか否かをチェックする(ステップS36)。このチェックの結果、当該顔領域の大きさが小さすぎる場合、ズームカメラ12に対しズームイン制御を行なう(ステップS37)。ズームイン制御は、顔領域の大きさが一定値以上になるまで行なう。その後、ステップS31に戻って上記同様な動作を繰り返す。
If the result of the check in step S34 is that the face area is located at the center of the image obtained from the
ステップS36におけるチェックの結果、当該顔領域の大きさが小さすぎない場合、当該顔領域の大きさが大きすぎるか否かをチェックする(ステップS38)。このチェックの結果、当該顔領域の大きさが大きすぎる場合、ズームカメラ12に対しズームアウト制御を行なう(ステップS39)。ズームアウト制御は、顔領域の大きさが一定値以上になるまで行なう。 If it is determined in step S36 that the face area is not too small, it is checked whether the face area is too large (step S38). If the result of this check is that the face area is too large, zoom-out control is performed on the zoom camera 12 (step S39). The zoom-out control is performed until the size of the face area becomes a certain value or more.
ステップS38におけるチェックの結果、当該顔領域の大きさが大きすぎない場合、あるいは、ステップS39の処理が終了すると、ステップS31に戻り、上記同様な動作を繰り返す。 If the result of the check in step S38 is that the size of the face area is not too large, or when the processing in step S39 is completed, the process returns to step S31 and repeats the same operation as described above.
検出結果表示部18は、固定視野カメラ11から得られる画像において、追跡中の人物領域(人物)の付近に代表顔画像を付加し、人物領域の移動に応じて当該代表顔画像の位置を変えて表示する。また、代表顔画像が更新された場合には、表示している代表顔画像も変更する。
The detection
図8に検出結果表示部18の表示例を示す。図中、MEは検出し追跡中の人物領域(人物)を示し、FEは当該人物領域の検出した代表顔画像を示している。なお、図8(a)は図4(a)から(g)までの処理例に対応し、図8(b)は図4(a)から(h)までの処理例に対応している。
FIG. 8 shows a display example of the detection
検出結果蓄積部19は、監視領域E内に人物が存在するときの固定視野カメラ11の画像と、各人物の侵入時刻、存在時間、各人物の各時刻の領域、および、各人物の代表顔画像などを履歴情報として保存する。
検出結果蓄積部19に保存された情報は、たとえば、図9に示すような一覧画像で検出結果表示部18に表示することが可能である。図9の例では、図面に対し左から順に、顔画像、人物の全身の画像、侵入時刻、および、存在時間である。
The detection
The information stored in the detection
以上説明したように、上記実施の形態によれば、前述した従来のズーム撮影の制御方法と比較して、より人物の特徴をとらえやすい顔のズームショットが得られる。
すなわち、人物管理部15において、人物ごとに顔のズームショットを撮影したか否かを管理し、一旦ズーム撮影が行なわれた人物でも、より大きな評価値の顔画像が得られると予測される場合には、ズーム撮影を再度行ない、代表顔画像を更新する処理によるものである。
As described above, according to the above-described embodiment, a zoom shot of a face that makes it easier to capture the characteristics of a person can be obtained as compared with the conventional zoom imaging control method described above.
That is, the
前記実施の形態によれば、たとえば、図12(a)において人物Aを検出し、人物Aの顔のズーム撮影を行なう。この時点で、人物Aの代表顔画像は横向きの顔画像である。図12(c)において人物Bが検出され、人物Bの顔のズームショットの撮影を行なう。図12(e)〜(f)においては、人物Aについては既に顔のズームショットを撮影しているが、充分大きな評価値を持つ代表顔画像が得られておらず、かつ、人物Aがカメラに向かって移動しており、より大きな評価値の顔画像が得られると判断され、ズーム対象となる。その結果、最終的に図10に示すような正面の顔のズームショットが、人物Aの代表顔画像となる。 According to the embodiment, for example, the person A is detected in FIG. 12A and the face of the person A is zoomed. At this time, the representative face image of the person A is a side face image. In FIG. 12C, the person B is detected, and a zoom shot of the face of the person B is taken. 12E to 12F, a zoom shot of the face has already been taken for the person A, but a representative face image having a sufficiently large evaluation value has not been obtained, and the person A is a camera. It is determined that a face image having a larger evaluation value can be obtained, and the image is to be zoomed. As a result, a zoom shot of the front face as shown in FIG. 10 finally becomes the representative face image of the person A.
また、検出結果の表示において、人物の特徴をとらえやすい顔のズームショットが、人物との対応が分かりやすいように表示される。
すなわち、検出結果表示部18において、人物の近傍に逐次更新される代表顔画像を表示し、常に人物の正面の顔がわかるようにする表示によるものである。図8に示す例の場合には、人物(人物領域)MEがカメラに対して横を向いていたり(図8(a))、後ろを向いている(図8(b))にも関わらず、その時点でその人物の特徴を最もとらえやすい顔画像FEが、人物MEの対応関係とともにわかりやすく、人物MEの近傍に表示されている。
In the detection result display, a zoom shot of a face that easily captures the characteristics of a person is displayed so that the correspondence with the person can be easily understood.
In other words, the detection
11…固定監視カメラ(第1の監視カメラ)、12…ズームカメラ(第2の監視カメラ)、13…人物検出追跡部(人物検出追跡手段)、14…顔検出部(顔検出手段)、15…人物管理部(制御手段、判定手段)、16…顔画像評価部(顔画像評価手段)、17…ズームカメラ制御部(制御手段)、18…検出結果表示部(表示手段)、19…検出結果蓄積部(記憶手段)、E…監視領域、M,A,B…人物、ME…人物領域、FE…顔画像。
DESCRIPTION OF
Claims (5)
前記監視領域内の画像を撮影して入力する撮影倍率を変更可能な第2の監視カメラと、
前記第1の監視カメラから得られる画像に基づき前記監視領域内の人物を検出し追跡する人物検出追跡手段と、
前記第2の監視カメラから得られる画像に基づき前記監視領域内の人物の顔画像を検出する顔検出手段と、
この顔検出手段により検出された顔画像を評価して評価値を得る顔画像評価手段と、
前記人物検出追跡手段により人物が検出されると、前記顔画像評価手段から得られる評価値があらかじめ設定される第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを制御する第1の制御手段と、
前記第2の監視カメラによる当該人物の顔画像の拡大撮影が終了したのに基づき、前記顔画像評価手段から得られる評価値があらかじめ設定される第2の閾値よりも小さい人物が前記監視領域内に存在するか否かを判定する第1の判定手段と、
この第1の判定手段による判定の結果、前記顔画像評価手段から得られる評価値があらかじめ設定される第2の閾値よりも小さい人物が前記監視領域内に存在する場合、前記顔画像評価手段から得られる評価値が前記第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを再度制御する第2の制御手段と、
を具備したことを特徴とする画像監視装置。 A first surveillance camera that captures and inputs an image within the surveillance area;
A second surveillance camera capable of changing a photographing magnification for photographing and inputting an image in the surveillance area;
Human detection tracking means for detecting and tracking a person in the monitoring area based on an image obtained from the first monitoring camera;
Face detection means for detecting a face image of a person in the monitoring area based on an image obtained from the second monitoring camera;
Face image evaluation means for evaluating the face image detected by the face detection means to obtain an evaluation value;
When a person is detected by the person detection and tracking means, the face image of the person is magnified until the evaluation value obtained from the face image evaluation means becomes larger than a first threshold value set in advance. First control means for controlling the second surveillance camera;
A person whose evaluation value obtained from the face image evaluation means is smaller than a preset second threshold value is within the monitoring area based on the end of the enlarged photographing of the person's face image by the second monitoring camera. First determination means for determining whether or not the
As a result of the determination by the first determination unit, when a person whose evaluation value obtained from the face image evaluation unit is smaller than a second threshold value set in advance is present in the monitoring area, from the face image evaluation unit Second control means for controlling the second monitoring camera again so as to magnify the face image of the person until the obtained evaluation value is greater than the first threshold;
An image monitoring apparatus comprising:
前記顔画像評価手段は、前記顔検出手段から得られる複数の顔画像に対しそれぞれ評価し、最も高い評価値を評価結果として出力することを特徴とする請求項1記載の画像監視装置。 The face detection means continuously receives a plurality of images from the second monitoring camera, and performs face image detection for each of the plurality of images.
The image monitoring apparatus according to claim 1, wherein the face image evaluation unit evaluates each of the plurality of face images obtained from the face detection unit, and outputs the highest evaluation value as an evaluation result.
前記第2の制御手段は、前記第2の判定手段による判定の結果、当該人物はより大きな評価値の顔画像が得られると予測される人物である場合、前記顔画像評価手段から得られる評価値が前記第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを再度制御することを特徴とする請求項1記載の画像監視装置。 As a result of the determination by the first determination unit, when a person whose evaluation value obtained from the face image evaluation unit is smaller than a second threshold value set in advance is present in the monitoring area, the person has a higher evaluation. Second determining means for determining whether or not the face image of the value is predicted to be obtained;
The second control means evaluates from the face image evaluation means if the person is predicted to obtain a face image having a larger evaluation value as a result of the determination by the second determination means. 2. The image monitoring apparatus according to claim 1, wherein the second monitoring camera is controlled again so that the face image of the person is magnified until the value becomes larger than the first threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004087326A JP2005277726A (en) | 2004-03-24 | 2004-03-24 | Image monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004087326A JP2005277726A (en) | 2004-03-24 | 2004-03-24 | Image monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005277726A true JP2005277726A (en) | 2005-10-06 |
Family
ID=35176929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004087326A Abandoned JP2005277726A (en) | 2004-03-24 | 2004-03-24 | Image monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005277726A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008252296A (en) * | 2007-03-29 | 2008-10-16 | Kddi Corp | Face index preparation apparatus for moving image and face image tracking method thereof |
JP2008271458A (en) * | 2007-04-25 | 2008-11-06 | Hitachi Ltd | Imaging apparatus |
JP2009206695A (en) * | 2008-02-27 | 2009-09-10 | Canon Inc | Imaging apparatus |
JP2010088072A (en) * | 2008-10-03 | 2010-04-15 | Mitsubishi Denki Information Technology Corp | Monitor image storage system and monitor image storage method for monitor image storage system |
JP2011070629A (en) * | 2009-08-25 | 2011-04-07 | Dainippon Printing Co Ltd | Advertising effect measurement system and advertising effect measurement device |
CN101079964B (en) * | 2006-04-24 | 2011-08-03 | 富士胶片株式会社 | Image reproducing device, image reproducing method, and image capturing device |
US8615112B2 (en) | 2007-03-30 | 2013-12-24 | Casio Computer Co., Ltd. | Image pickup apparatus equipped with face-recognition function |
JP2016219949A (en) * | 2015-05-18 | 2016-12-22 | キヤノン株式会社 | Imaging apparatus, and control method and control program of the same |
US9697746B2 (en) | 2009-09-30 | 2017-07-04 | National Ict Australia Limited | Object tracking for artificial vision |
-
2004
- 2004-03-24 JP JP2004087326A patent/JP2005277726A/en not_active Abandoned
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101079964B (en) * | 2006-04-24 | 2011-08-03 | 富士胶片株式会社 | Image reproducing device, image reproducing method, and image capturing device |
JP2008252296A (en) * | 2007-03-29 | 2008-10-16 | Kddi Corp | Face index preparation apparatus for moving image and face image tracking method thereof |
US8615112B2 (en) | 2007-03-30 | 2013-12-24 | Casio Computer Co., Ltd. | Image pickup apparatus equipped with face-recognition function |
US9042610B2 (en) | 2007-03-30 | 2015-05-26 | Casio Computer Co., Ltd. | Image pickup apparatus equipped with face-recognition function |
JP2008271458A (en) * | 2007-04-25 | 2008-11-06 | Hitachi Ltd | Imaging apparatus |
JP2009206695A (en) * | 2008-02-27 | 2009-09-10 | Canon Inc | Imaging apparatus |
JP2010088072A (en) * | 2008-10-03 | 2010-04-15 | Mitsubishi Denki Information Technology Corp | Monitor image storage system and monitor image storage method for monitor image storage system |
JP2011070629A (en) * | 2009-08-25 | 2011-04-07 | Dainippon Printing Co Ltd | Advertising effect measurement system and advertising effect measurement device |
US9697746B2 (en) | 2009-09-30 | 2017-07-04 | National Ict Australia Limited | Object tracking for artificial vision |
US10062303B2 (en) | 2009-09-30 | 2018-08-28 | National Ict Australia Limited | Object tracking for artificial vision |
JP2016219949A (en) * | 2015-05-18 | 2016-12-22 | キヤノン株式会社 | Imaging apparatus, and control method and control program of the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
JP4912117B2 (en) | Imaging device with tracking function | |
JP5954106B2 (en) | Information processing apparatus, information processing method, program, and information processing system | |
JP5810296B2 (en) | Image display device and image display method | |
JP4140567B2 (en) | Object tracking device and object tracking method | |
JP5227911B2 (en) | Surveillance video retrieval device and surveillance system | |
CN105723703B (en) | Monitoring device, monitoring system and monitoring method | |
US10719946B2 (en) | Information processing apparatus, method thereof, and computer-readable storage medium | |
JP2003284053A (en) | Monitoring camera system and monitoring camera control device | |
JP2014153813A (en) | Information process device, information process method, program and information process system | |
JP2006229322A (en) | Automatic tracking controller and automatic tracking control method, program, and automatic tracking system | |
KR101530255B1 (en) | Cctv system having auto tracking function of moving target | |
KR100849689B1 (en) | watching control system having an auto picture pop-up function and controlling method for the same | |
JP6218089B2 (en) | Imaging position determination device and imaging position determination method | |
JP4309900B2 (en) | Video surveillance system | |
JP6758834B2 (en) | Display device, display method and program | |
JP2005277726A (en) | Image monitoring device | |
JP6233721B2 (en) | Information processing system, information processing method, and program | |
US20200311438A1 (en) | Representative image generation device and representative image generation method | |
JP2021196741A (en) | Image processing device, image processing method and program | |
JP4607394B2 (en) | Person detection system and person detection program | |
KR101288881B1 (en) | Set up a number of areas of surveillance and monitoring of surveillance cameras in the area to shoot enlarged system | |
JP3858018B2 (en) | Video surveillance system | |
JP5015121B2 (en) | Imaging device | |
KR101924336B1 (en) | Method for Setting Region for Video Surveillance, Apparatus Therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070207 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20100104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100113 |