[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005277726A - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP2005277726A
JP2005277726A JP2004087326A JP2004087326A JP2005277726A JP 2005277726 A JP2005277726 A JP 2005277726A JP 2004087326 A JP2004087326 A JP 2004087326A JP 2004087326 A JP2004087326 A JP 2004087326A JP 2005277726 A JP2005277726 A JP 2005277726A
Authority
JP
Japan
Prior art keywords
person
image
face
face image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2004087326A
Other languages
Japanese (ja)
Inventor
Kei Takizawa
圭 滝沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004087326A priority Critical patent/JP2005277726A/en
Publication of JP2005277726A publication Critical patent/JP2005277726A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image monitoring device capable of obtaining the magnified image of a face by which characteristics of a person can be further easily obtained. <P>SOLUTION: Detection and tracing of a person are executed. It is managed whether a zoom shot of a face for each person is photographed or not. Zoom photography of a face of a person is executed whose zoom shot is not obtained. A representative face image is obtained. When it is predicted that a face image with a larger evaluation value can be obtained even regarding a person to whom zoom photography is executed once, the zoom photography is executed to the person again. Then, the representative face image is updated. It is determined whether a representative face image with a larger evaluation value can be obtained or not from the moving direction of a person. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数の監視カメラを備え、監視領域内に侵入する人物を検出して追跡しながら監視する画像監視装置に関する。   The present invention relates to an image monitoring apparatus that includes a plurality of monitoring cameras and monitors a person who enters a monitoring area while detecting and tracking the person.

この種の画像監視装置は、監視領域を撮影するように設置された監視カメラから画像を取込み、この取込んだ画像を計算機により処理することにより、監視領域内の人物および当該人物の顔を検出し、人物および顔が検出されたときには、表示装置において警報を出力して監視員に報知することで、監視員の画像の見落しを防ぐようにしている。
また、監視領域内に現れた人物についての情報を、後で参照する目的で、人物およびその顔の画像をハードディスクなどの記憶装置に保存する。
This type of image monitoring apparatus detects a person in the monitoring area and the face of the person by capturing an image from a monitoring camera installed to capture the monitoring area and processing the captured image with a computer. When a person and a face are detected, an alarm is output on the display device to notify the monitor, thereby preventing an image of the monitor from being overlooked.
In addition, the person and the face image are stored in a storage device such as a hard disk for the purpose of referring to the information about the person appearing in the monitoring area later.

このような画像監視装置に関わる従来技術として、たとえば、特許文献1および特許文献2に開示されているものがある。
特許文献1の技術は、2つの監視カメラで、1つの監視領域を監視するもので、1つの監視カメラは監視領域全体を撮影する固定視野カメラであり、もう1つの監視カメラは人物のズームショット(拡大画像)を得るためのズームカメラである。固定視野カメラからの画像により監視領域内に侵入した人物を検出した場合に、ズームカメラにより当該人物のズーム撮影(拡大撮影)を行なう。
For example, Patent Document 1 and Patent Document 2 disclose conventional techniques related to such an image monitoring apparatus.
The technology of Patent Document 1 is to monitor one monitoring area with two monitoring cameras. One monitoring camera is a fixed-field camera that captures the entire monitoring area, and the other monitoring camera is a zoom shot of a person. This is a zoom camera for obtaining (enlarged image). When a person who has entered the surveillance area is detected from an image from the fixed-field camera, the zoom camera performs zoom photography (enlarged photography) of the person.

この特許文献1の目的は、広い監視領域を1つのカメラで撮影すると人物が画面中では小さく、人物の特徴がとらえにくくなるという問題を解決するための発明である。人物をズーム撮影することによリ、人物の特徴をよりとらえやすい画像を得ることができる。   The purpose of Patent Document 1 is an invention for solving the problem that when a wide monitoring area is photographed by a single camera, the person is small on the screen and the characteristics of the person are difficult to grasp. By zooming in on a person, an image that makes it easier to capture the characteristics of the person can be obtained.

特許文献2の技術は、特許文献1と同様、2つのカメラを用いて1つの監視領域を監視するもので、ズームカメラのズーム対象が、人物全体ではなく、人物の顔である。   The technique of Patent Document 2 is to monitor one monitoring area using two cameras, as in Patent Document 1, and the zoom target of the zoom camera is not the whole person but the face of the person.

図11に、ズーム対象を決定する従来の処理方法を示す。この処理方法は、既にズーム撮影の対象となる人物がある場合には、対象人物が監視領域から立ち去るまで、あるいは、対象人物のズームショットが得られるまでズーム撮影を行なう。ズーム対象の人物がなく、ズーム撮影をまだ行なっていない人物がいる場合、または、固定視野カメラで新たな人物が検出された場合、その人物に対してズーム撮影を行なうものである。
特開平6−217316号公報 特開2003−284053号公報
FIG. 11 shows a conventional processing method for determining a zoom target. In this processing method, when there is a person who is already subject to zoom shooting, zoom shooting is performed until the target person leaves the monitoring area or a zoom shot of the target person is obtained. When there is no person to be zoomed and there is a person who has not yet performed zoom shooting, or when a new person is detected by a fixed-field camera, zoom shooting is performed on that person.
JP-A-6-217316 JP 2003-284053 A

しかしながら、従来の技術では、一旦顔のズームショットを撮影し、その後、当該人物について、より良い顔画像得られる場合でも、ズーム撮影が行なわれないという問題がある。ここで、より良い顔画像とは、人物の特徴をとらえる点において良い画像とする。たとえば、横向きの顔よりも、正面向きの顔の方が良い画像とする。   However, the conventional technique has a problem in that zoom photography is not performed even when a zoom shot of a face is once taken and then a better face image is obtained for the person. Here, a better face image is a good image in that it captures the characteristics of a person. For example, an image with a face facing front is better than a face facing sideways.

図12を例にして詳細に説明する。図12は、監視領域内における固定視野カメラからの画像の系列であり、図12(a)、(b)、…、(f)の順に時間が経過しているものとする。人物Aは、図12(a)で監視領域内に出現し、図面に対し右から左方向に移動するものとする。このとき、人物Aの顔は、カメラに対して横向きである。人物Aは、図12(e)において、カメラに対して正面に顔を向け、図12(f)では、カメラに向かって移動する。人物Bは、図12(c)において監視領域内に出現し、カメラに向かって移動し、図12(e)では、消失する。   This will be described in detail with reference to FIG. FIG. 12 shows a series of images from the fixed-field camera in the monitoring area, and it is assumed that time elapses in the order of FIGS. 12 (a), (b),..., (F). The person A appears in the monitoring area in FIG. 12A and moves from the right to the left with respect to the drawing. At this time, the face of the person A is sideways with respect to the camera. The person A faces in front of the camera in FIG. 12E and moves toward the camera in FIG. The person B appears in the monitoring area in FIG. 12C, moves toward the camera, and disappears in FIG. 12E.

従来の技術では、図12(a)において、固定視野カメラから人物Aを検出し、ズームカメラにより人物Aの顔のズーム撮影を行なう。この場合、人物Aについてのズームショットは、横向きのみの顔画像となる。図12(c)において、人物Bが検出され、ズームカメラにより人物Bの顔のズーム撮影を行なう。   In the prior art, in FIG. 12A, a person A is detected from a fixed-field camera, and a zoom camera is used to zoom in on the face of the person A. In this case, the zoom shot for the person A is a face image only in landscape orientation. In FIG. 12C, the person B is detected, and the zoom camera is used to zoom in on the face of the person B.

図12(e)〜(f)においては、人物Aについては既に顔のズーム撮影を行なっているので、人物Aの顔のズーム撮影は行なわれない。この結果、最終的に得られる顔のズームショットは、人物Aは、図12(e)、(f)において正面を向いているにも関わらず、図13に示すように横顔のみとなる。   In FIGS. 12E to 12F, since the person A has already performed zoom photography of the face, zoom photography of the face of the person A is not performed. As a result, the finally obtained zoom shot of the face is only the side face as shown in FIG. 13, although the person A is facing the front in FIGS. 12 (e) and 12 (f).

そこで、本発明は、より人物の特徴をとらえやすい顔の拡大画像が得られる画像監視装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image monitoring device that can obtain an enlarged image of a face that can more easily capture the characteristics of a person.

本発明の画像監視装置は、監視領域内の画像を撮影して入力する第1の監視カメラと、前記監視領域内の画像を撮影して入力する撮影倍率を変更可能な第2の監視カメラと、前記第1の監視カメラから得られる画像に基づき前記監視領域内の人物を検出し追跡する人物検出追跡手段と、前記第2の監視カメラから得られる画像に基づき前記監視領域内の人物の顔画像を検出する顔検出手段と、この顔検出手段により検出された顔画像を評価して評価値を得る顔画像評価手段と、前記人物検出追跡手段により人物が検出されると、前記顔画像評価手段から得られる評価値があらかじめ設定される第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを制御する第1の制御手段と、前記第2の監視カメラによる当該人物の顔画像の拡大撮影が終了したのに基づき、前記顔画像評価手段から得られる評価値があらかじめ設定される第2の閾値よりも小さい人物が前記監視領域内に存在するか否かを判定する第1の判定手段と、この第1の判定手段による判定の結果、前記顔画像評価手段から得られる評価値があらかじめ設定される第2の閾値よりも小さい人物が前記監視領域内に存在する場合、前記顔画像評価手段から得られる評価値が前記第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを再度制御する第2の制御手段とを具備している。   An image monitoring apparatus of the present invention includes a first monitoring camera that captures and inputs an image in a monitoring area, and a second monitoring camera that can change a shooting magnification for capturing and inputting an image in the monitoring area. A person detection and tracking means for detecting and tracking a person in the monitoring area based on an image obtained from the first monitoring camera; and a person's face in the monitoring area based on an image obtained from the second monitoring camera. Face detection means for detecting an image; face image evaluation means for evaluating the face image detected by the face detection means to obtain an evaluation value; and when the person is detected by the person detection tracking means, the face image evaluation First control means for controlling the second surveillance camera so as to magnify the face image of the person until the evaluation value obtained from the means becomes larger than a first threshold value set in advance; 2 surveillance turtles Whether or not there is a person in the monitoring area whose evaluation value obtained from the face image evaluation means is smaller than a second threshold value set in advance based on the fact that the enlargement of the face image of the person by And a person who is smaller than a second threshold value set in advance as the evaluation value obtained from the face image evaluation means as a result of the determination by the first determination means. If present, the second monitoring camera is again controlled to magnify the face image of the person until the evaluation value obtained from the face image evaluation means becomes larger than the first threshold. Control means.

本発明によれば、より人物の特徴をとらえやすい顔の拡大画像が得られる画像監視装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the image monitoring apparatus from which the enlarged image of the face which can catch a person's feature more easily can be provided.

以下、本発明の実施の形態について図面を参照して説明する。
図1は、本実施の形態に係る画像監視装置の構成を概略的に示すものである。この画像監視装置は、第1の監視カメラとしての固定監視カメラ11、第2の監視カメラとしてのズームカメラ12、人物検出追跡手段としての人物検出追跡部13、顔検出手段としての顔検出部14、制御手段および判定手段としての人物管理部15、顔画像評価手段としての顔画像評価部16、制御手段としてのズームカメラ制御部17、表示手段としての検出結果表示部18、および、記憶手段としての検出結果蓄積部19を具備して構成されており、以下、各部の機能について詳細に説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 schematically shows a configuration of an image monitoring apparatus according to the present embodiment. This image monitoring apparatus includes a fixed monitoring camera 11 as a first monitoring camera, a zoom camera 12 as a second monitoring camera, a person detection tracking unit 13 as a person detection tracking unit, and a face detection unit 14 as a face detection unit. A person management unit 15 as a control unit and a determination unit, a face image evaluation unit 16 as a face image evaluation unit, a zoom camera control unit 17 as a control unit, a detection result display unit 18 as a display unit, and a storage unit The detection result storage unit 19 is provided, and the function of each unit will be described in detail below.

固定監視カメラ11およびズームカメラ12は、図2に示すように、あらかじめ定められた監視領域E内の画像を撮影するように設置されている。すなわち、一方の固定視野カメラ11は、監視領域E全体を撮影するもので、監視領域E内での人物Mを検出し追跡する目的で用いられる。もう1つのズームカメラ12は、監視領域E内に存在する人物の顔画像を検出し、ズーム撮影する目的で用いられる。ズームカメラ12は、その撮影方向を上下および左右に制御可能であるとともに、ズーム率(撮影倍率)も制御可能である。
なお、ズームカメラ12は、監視領域E内に人物Mが検出されない場合には、固定視野カメラ11とほぼ同じ画像が得られるような方向およびレンズのズーム率の設定で撮影するようになっている。
As shown in FIG. 2, the fixed monitoring camera 11 and the zoom camera 12 are installed so as to capture an image in a predetermined monitoring area E. That is, one fixed-field camera 11 captures the entire monitoring area E and is used for the purpose of detecting and tracking the person M in the monitoring area E. Another zoom camera 12 is used for the purpose of detecting a face image of a person existing in the monitoring area E and performing zoom photography. The zoom camera 12 can control the shooting direction vertically and horizontally and can also control the zoom rate (shooting magnification).
Note that the zoom camera 12 shoots with a setting of a direction and a zoom ratio of the lens so that substantially the same image as the fixed-field camera 11 is obtained when the person M is not detected in the monitoring area E. .

人物検出追跡部13および顔検出部14では、それぞれ固定視野カメラ11およびズームカメラ12からの画像信号を一定の時間間隔で画像情報として逐次取込み、処理を行なう。ここに、逐次取込まれる画像をフレームとも呼ぶ。   The person detection tracking unit 13 and the face detection unit 14 sequentially capture and process image signals from the fixed-field camera 11 and the zoom camera 12 as image information at regular time intervals, respectively. Here, images that are sequentially captured are also referred to as frames.

人物検出追跡部13は、固定視野カメラ11から得られる画像に基づき人物領域(人物)を検出し追跡する。検出した人物領域には固有のID(識別情報)を付与する。検出した人物領域は、その後、当該人物領域が監視領域内から存在しなくなるまで追跡される。図3に人物検出追跡部13における処理の流れを示す。   The person detection / tracking unit 13 detects and tracks a person region (person) based on an image obtained from the fixed-field camera 11. A unique ID (identification information) is assigned to the detected person area. The detected person area is then tracked until the person area no longer exists from within the monitoring area. FIG. 3 shows a flow of processing in the person detection tracking unit 13.

まず、人物検出追跡部13における処理の流れの概略を説明する。固定視野カメラ11の画像信号を画像として取込み、得られた画像から変化領域を検出する。変化領域の検出は、たとえば、文献1(中井,“事後確率を用いた移動物体検出手法”,情処研報,94−CV90,pp.1−8,1994)の手法のように、背景画像との差分から検出する。これは、監視領域Eに人物が存在しない場合の画像を背景画像として持ち、背景画像と現在のフレームとの差分から変化のある領域を、変化領域として検出する。検出された変化領域の大きさや縦横比から、人間らしいと判定される領域を人物領域として検出する。   First, an outline of the processing flow in the person detection tracking unit 13 will be described. The image signal of the fixed field camera 11 is taken in as an image, and a change area is detected from the obtained image. For example, the change area is detected by using a background image as described in the literature 1 (Nakai, “A moving object detection method using posterior probabilities”, Information Processing Research Reports, 94-CV90, pp. 1-8, 1994). It detects from the difference. This has an image when no person is present in the monitoring area E as a background image, and detects an area that has changed from the difference between the background image and the current frame as a change area. An area determined to be human is detected as a person area from the size and aspect ratio of the detected change area.

現在のフレームの人物領域は、追跡中の人物領域との対応付けを行なう。対応付けは、たとえば、1つ前のフレームでの人物領域との大きさと位置が近いもの同士を対応付けることにより行なう。現在のフレームで検出された人物領域のうち、追跡中の人物領域との対応付けが行なわれなかったたものは、新たなIDを付与し、追跡する人物として追加する。追跡中の人物で一定フレームTf以上見付からない場合には、その人物が監視領域Eから立ち去ったものとして追跡を中止する。   The person area of the current frame is associated with the person area being tracked. The association is performed, for example, by associating objects that are close in size and position with the person area in the previous frame. Of the person areas detected in the current frame, those that have not been associated with the person area being tracked are assigned new IDs and added as persons to be tracked. If the person being tracked finds no more than a certain frame Tf, the tracking is stopped because the person has left the monitoring area E.

以下、人物検出追跡部13における処理の流れを図3を用いて具体的に説明する。まず、固定視野カメラ11の画像信号を画像として取込み(ステップS1)、得られた画像から変化領域を検出する(ステップS2)。次に、検出された変化領域の大きさや縦横比から、人間らしいと判定される領域を人物領域として検出する(ステップS3)。   Hereinafter, the flow of processing in the person detection tracking unit 13 will be specifically described with reference to FIG. First, the image signal of the fixed field camera 11 is captured as an image (step S1), and a change area is detected from the obtained image (step S2). Next, an area determined to be human is detected as a person area from the size and aspect ratio of the detected change area (step S3).

次に、現在のフレームから検出された人物領域と、過去に検出された人物領域(追跡中の人物領域)との対応付けを行なう(ステップS4)。次に、一定フレームTf以上対応する人物領域が見付からない人物のIDがあるか否かをチェックし(ステップS5)、ない場合にはその人物が監視領域Eから立ち去ったものとして当該IDを破棄して追跡を中止する(ステップS6)。   Next, the person area detected from the current frame is associated with the person area detected in the past (the person area being tracked) (step S4). Next, it is checked whether or not there is a person ID for which a person area corresponding to a certain frame Tf or more is not found (step S5). If not, the ID is discarded as if the person has left the monitoring area E. Tracking is stopped (step S6).

ステップS5におけるチェックの結果、一定フレームTf以上対応する人物領域が見付からない人物のIDがある場合、現在のフレームでの人物領域で対応付けできないものがあるか否かをチェックし(ステップS7)、ある場合にはその人物領域を新たな人物領域として生成し、新たなIDを付加する(ステップS8)。
ステップS7におけるチェックの結果、現在のフレームでの人物領域で対応付けできないものがない場合、あるいは、ステップS8の処理が終了すると、ステップS1に戻り、上記同様な処理を繰り返す。
As a result of the check in step S5, if there is a person ID for which a person area corresponding to a certain frame Tf or more cannot be found, it is checked whether there is any person area in the current frame that cannot be associated (step S7). If there is, the person area is generated as a new person area, and a new ID is added (step S8).
As a result of the check in step S7, if there is no person region in the current frame that cannot be associated, or when the process in step S8 is completed, the process returns to step S1 and the same process as described above is repeated.

図4に人物検出追跡部13の処理例を示す。図中の破線で示す矩形は、各フレームで検出された人物領域である。図4において、(a)、(b)、…、(h)の順に時間が経過しているものとする。人物領域ME1は、図4(a)で監視領域E内に出現し、図面に対し右から左方向に移動する。このとき、人物領域ME1の顔は、カメラに対して横向きである。人物領域ME1は、図4(e)において、カメラに対して正面に顔を向け、図4(f)では、カメラに向かって移動する。人物領域ME1は、図4(g)において、図面に対し左から右方向に移動しする。このとき、人物領域ME1の顔は、カメラに対して横向きである。人物領域ME1は、図4(h)において、カメラに対して顔を後ろ向きとし、カメラから遠ざかる方向に移動する。人物領域ME2は、図4(c)において監視領域E内に出現し、図4(e)で消失する。
図4の例では、人物領域ME1は「ID=1」、人物領域ME2は「ID=2」が付与された場合を示している。
FIG. 4 shows a processing example of the person detection tracking unit 13. A rectangle indicated by a broken line in the figure is a person area detected in each frame. In FIG. 4, it is assumed that time has passed in the order of (a), (b),..., (H). The person area ME1 appears in the monitoring area E in FIG. 4A and moves from the right to the left with respect to the drawing. At this time, the face of the person area ME1 is lateral to the camera. The person area ME1 faces in front of the camera in FIG. 4 (e) and moves toward the camera in FIG. 4 (f). The person area ME1 moves from the left to the right in FIG. At this time, the face of the person area ME1 is lateral to the camera. The person area ME1 moves in a direction away from the camera with the face facing backward with respect to the camera in FIG. 4 (h). The person area ME2 appears in the monitoring area E in FIG. 4 (c) and disappears in FIG. 4 (e).
In the example of FIG. 4, “ID = 1” is assigned to the person area ME1, and “ID = 2” is assigned to the person area ME2.

顔検出部14は、ズームカメラ12から、一定時間間隔で複数の画像を連続的に取込み、この取込んだ複数の画像についてそれぞれ顔領域を検出する。顔領域の検出手法は、たとえば、文献2(三田,金子,堀“微小な差異を含む画像の照合に適した空間差分確率テンプレートの提案”,第9会画像センシングシンポジウム講演論文集,SSII03,2003)の手法を用いることができる。   The face detection unit 14 continuously captures a plurality of images from the zoom camera 12 at regular time intervals, and detects a face area for each of the captured plurality of images. For example, reference 2 (Mita, Kaneko, Hori “Proposal of Spatial Difference Probability Template Suitable for Matching Images Containing Minute Differences”, Proceedings of the 9th Meeting of Image Sensing Symposium, SSII03, 2003. ) Method can be used.

人物管理部15は、人物検出追跡部13で検出された人物についての情報を管理する。具体的には、人物検出追跡部13で検出された人物のIDごとに人物領域、顔領域、代表顔画像、および、ズーム撮影が行なわれたか否かの情報を記憶する。図5に人物管理部15における処理の流れを示す。   The person management unit 15 manages information about the person detected by the person detection tracking unit 13. Specifically, a person area, a face area, a representative face image, and information on whether or not zoom shooting has been performed are stored for each person ID detected by the person detection tracking unit 13. FIG. 5 shows a flow of processing in the person management unit 15.

まず、人物管理部15における処理の流れの概略を説明する。各人物のIDについて、人物検出追跡部13から人物領域を得て、情報を更新する。次に、顔検出部14から顔領域(少なくとも顔を含む画像、以下、顔画像と称す)と人物IDを得る。顔画像は、1つの人物IDについて複数得られる。得られた顔画像の集合を顔画像評価部16に送り、最も評価値の高いものを代表顔画像とする。   First, an outline of the processing flow in the person management unit 15 will be described. For each person's ID, a person region is obtained from the person detection tracking unit 13 and the information is updated. Next, a face area (an image including at least a face, hereinafter referred to as a face image) and a person ID are obtained from the face detection unit 14. A plurality of face images are obtained for one person ID. The obtained set of face images is sent to the face image evaluation unit 16, and the one with the highest evaluation value is set as the representative face image.

ズーム撮影が行なわれていない人物については、ズーム撮影の対象とするように、ズームカメラ制御部17に指示し、ズーム対象の人物の代表顔画像の評価値Eeが第1の閾値Te1よりも大きくなるまでズーム撮影を続ける。   For a person who has not been zoomed, the zoom camera control unit 17 is instructed to make a subject for zoom shooting, and the evaluation value Ee of the representative face image of the person to be zoomed is larger than the first threshold Te1. Continue zooming until

監視領域E内の人物で、全ての人物についてズームショットを撮影した場合で、代表顔画像の評価値Eeが第2の閾値Te2よりも低い人物がいる場合には、その人物について再度、ズームショットの撮影を行なう。ただし、より大きな評価値の顔画像が得られる可能性を表す評価値Ebが第3の閾値Tbよりも大きい場合とする。   If a person in the monitoring area E has taken a zoom shot for all persons and there is a person whose representative face image evaluation value Ee is lower than the second threshold value Te2, the person is zoomed in again for that person. Take a photo of However, it is assumed that the evaluation value Eb indicating the possibility of obtaining a face image having a larger evaluation value is larger than the third threshold value Tb.

以下、人物管理部15における処理の流れを図5を用いて具体的に説明する。まず、各人物のIDについて、人物検出追跡部13から人物領域を得て、情報を更新する(ステップS11)。次に、顔検出部14から顔領域(顔画像)と人物IDを得て、情報を更新する(ステップS12)。顔画像は、1つの人物IDについて複数得られる。得られた顔画像の集合を顔画像評価部16に送り、最も評価値の高いものを代表顔画像とする。   Hereinafter, the flow of processing in the person management unit 15 will be specifically described with reference to FIG. First, for each person's ID, a person region is obtained from the person detection tracking unit 13 and the information is updated (step S11). Next, a face area (face image) and a person ID are obtained from the face detection unit 14, and the information is updated (step S12). A plurality of face images are obtained for one person ID. The obtained set of face images is sent to the face image evaluation unit 16, and the one with the highest evaluation value is set as the representative face image.

次に、ズーム撮影を行なっている人物(IDa)が存在するか否かをチェックし(ステップS13)、存在する場合、顔画像評価部16から得られる評価値Eeが第1の閾値Te1よりも大きくなる人物(IDa)が存在するか否かをチェックし(ステップS14)、存在しない場合、ステップS11に戻って上記同様な動作を繰り返す。
ステップS14におけるチェックの結果、評価値Eeが第1の閾値Te1よりも大きくなる人物(IDa)が存在する場合、人物(IDa)に対するズーム撮影を終了し、ステップS11に戻って上記同様な動作を繰り返す。
Next, it is checked whether or not there is a person (IDa) who is performing zoom shooting (step S13). If there is, the evaluation value Ee obtained from the face image evaluation unit 16 is greater than the first threshold Te1. It is checked whether or not there is a person (IDa) to be enlarged (step S14). If there is no person (IDa), the process returns to step S11 and the same operation as described above is repeated.
If there is a person (IDa) whose evaluation value Ee is larger than the first threshold value Te1 as a result of the check in step S14, zoom shooting for the person (IDa) is terminated, and the process returns to step S11 and performs the same operation as above. repeat.

ステップS13におけるチェックの結果、ズーム撮影を行なっている人物(IDa)が存在しない場合、まだズームショットを撮影していない人物(IDb)が存在するか否かをチェックし(ステップS16)、存在する場合、ズーム対象を当該人物(IDb)に設定し、ステップS11に戻って上記同様な動作を繰り返す。   If the result of the check in step S13 is that there is no person (IDa) performing zoom shooting, it is checked whether there is a person (IDb) who has not yet taken a zoom shot (step S16). In this case, the zoom target is set to the person (IDb), and the process returns to step S11 to repeat the same operation.

ステップS16におけるチェックの結果、まだズームショットを撮影していない人物(IDb)が存在しない場合、顔画像評価部16から得られる評価値Eeが第2の閾値Te2よりも小さくなる人物(IDc)が存在するか否かをチェックし(ステップS18)、存在しない場合、ステップS11に戻って上記同様な動作を繰り返す。   As a result of the check in step S16, if there is no person (IDb) who has not yet taken a zoom shot, a person (IDc) whose evaluation value Ee obtained from the face image evaluation unit 16 is smaller than the second threshold Te2 is obtained. It is checked whether or not it exists (step S18), and if it does not exist, the process returns to step S11 and the same operation is repeated.

ステップS18におけるチェックの結果、評価値Eeが第2の閾値Te2よりも小さくなる人物(IDc)が存在する場合、当該人物(IDc)について、より大きな評価値の顔画像が得られる可能性を表わす評価値Ebが第3の閾値Tbよりも大きいか否かをチェックし(ステップS19)、評価値Ebが第3の閾値Tbよりも大きくない場合、ステップS11に戻って上記同様な動作を繰り返す。
ステップS19におけるチェックの結果、評価値Ebが第3の閾値Tbよりも大きい場合、ズーム対象を当該人物(IDc)に設定し(ステップS20)、ステップS11に戻って上記同様な動作を繰り返す。
If there is a person (IDc) whose evaluation value Ee is smaller than the second threshold value Te2 as a result of the check in step S18, this represents the possibility that a face image with a higher evaluation value will be obtained for that person (IDc). It is checked whether or not the evaluation value Eb is larger than the third threshold value Tb (step S19). If the evaluation value Eb is not larger than the third threshold value Tb, the process returns to step S11 and the same operation is repeated.
As a result of the check in step S19, if the evaluation value Eb is larger than the third threshold value Tb, the zoom target is set to the person (IDc) (step S20), the process returns to step S11, and the same operation is repeated.

ここに、上記評価値Ebは、固定視野カメラ11から得られる画像内における当該人物の移動方向に基づき計算する。たとえば、カメラの方向に向かって移動する場合に高い評価値となるように定義する。図6の例を用いて説明する。図6(a)のように、人物Mがカメラに対して向かって移動する場合には、高い評価値Ebを与える。また、図6(b)のように、人物Mがカメラに対して横向きに移動する場合には、図6(a)よリも低い評価値Ebを与える。図6(c)のように、人物Mがカメラから遠ざかるような移動の場合には、図6(a),(b)よりも小さな評価値Ebを与えるようにする。   Here, the evaluation value Eb is calculated based on the moving direction of the person in the image obtained from the fixed-field camera 11. For example, it defines so that it may become a high evaluation value, when moving toward the direction of a camera. This will be described with reference to the example of FIG. As shown in FIG. 6A, when the person M moves toward the camera, a high evaluation value Eb is given. Also, as shown in FIG. 6B, when the person M moves sideways with respect to the camera, an evaluation value Eb lower than that in FIG. 6A is given. When the person M moves away from the camera as shown in FIG. 6C, an evaluation value Eb smaller than those in FIGS. 6A and 6B is given.

ただし、Ee<Te2かつEb>Tbを満たす人物が複数いる場合には、人物Mが監視領域Eからいなくなるまでの時間を予測し、その時間が最も短い人物Mをズーム対象にする。監視領域Eからいなくなるまでの時間は、たとえば、人物Mの追跡結果から移動速度を計算し、画像の端に到達するまでの時間として予測する。   However, when there are a plurality of persons satisfying Ee <Te2 and Eb> Tb, a time until the person M disappears from the monitoring area E is predicted, and the person M with the shortest time is set as a zoom target. The time until it disappears from the monitoring region E is calculated as, for example, the time required to calculate the moving speed from the tracking result of the person M and reach the end of the image.

顔画像評価部16では、与えられた顔画像について評価値を計算する。この場合、評価値は、たとえば、特開P2002−191044号公報に開示されているように、顔領域の方向、顔領域の面積、顔領域コントラストなどから計算する。具体的には、顔領域の方向が正面向きに近いほど評価値が高くなるようにする。また、顔領域の面積が大きいほど評価値が高くなるようにする。顔領域のコントラストについても、コントラストが高いほど評価値が高くなるようにする。   The face image evaluation unit 16 calculates an evaluation value for the given face image. In this case, the evaluation value is calculated from the direction of the face area, the area of the face area, the face area contrast, and the like as disclosed in, for example, Japanese Patent Application Laid-Open No. 2002-191044. Specifically, the evaluation value is set higher as the direction of the face region is closer to the front. Also, the evaluation value is set higher as the area of the face region is larger. As for the contrast of the face area, the higher the contrast is, the higher the evaluation value is.

ズームカメラ制御部17は、ズーム対象の人物の顔に向かってズームを行ない、顔のズームショットを得る。図7にズームカメラ制御部17における処理の流れを示す。   The zoom camera control unit 17 zooms toward the face of the person to be zoomed to obtain a zoom shot of the face. FIG. 7 shows the flow of processing in the zoom camera control unit 17.

まず、ズームカメラ制御部17における処理の流れの概略を説明する。ズーム対象の人物が設定されてなければ、ズームカメラ12をニュートラルの位置に設定にする。ここに、ニュートラルの位置に設定とは、固定視野カメラ11とほぼ同じ画像が得られるような方向およびレンズのズーム率の設定である。   First, an outline of the flow of processing in the zoom camera control unit 17 will be described. If the person to be zoomed is not set, the zoom camera 12 is set to the neutral position. Here, the setting at the neutral position is the setting of the direction and the zoom ratio of the lens so that substantially the same image as that of the fixed-field camera 11 can be obtained.

ズーム対象の人物が設定されると、当該人物の顔領域に向かってズームを行なう。ズーム対象の人物は、人物管理部15から固定視野カメラ11の画像上での領域として与えられる。ズーム対象の設定が行なわれた時点では、ズームカメラ12は、固定視野カメラ11とほぼ同じ画像を得られるような視野設定になっているので、人物管理部15から与えられた人物領域の頭部に向かってズームを行なう。   When a person to be zoomed is set, zooming is performed toward the face area of the person. The person to be zoomed is given as an area on the image of the fixed field camera 11 from the person management unit 15. At the time when the zoom target is set, the zoom camera 12 is set to a field of view so that substantially the same image as that of the fixed field camera 11 can be obtained, so the head of the person area given from the person management unit 15 Zoom in toward.

顔検出部14で、与えられた人物領域中に顔領域が検出されれば、その顔領域を対象とし、検出されなければ、人物領域の上部を対象としてズームを行なう。この場合、ズームカメラ12から得られる画像の中央部に顔領域が位置するように、ズームカメラ12の向きを制御する。顔領域が画像の中央部に位置したら、顔領域が大きくなるようにズームインを行なう。ズームインは、顔領域の大きさが一定値以上になるまで行なう。顔領域が大きくなり過ぎた場合には、ズームカメラ12をズームアウトする。   If the face detection unit 14 detects a face area in the given person area, the face area is targeted, and if not, zooming is performed on the upper part of the person area. In this case, the orientation of the zoom camera 12 is controlled so that the face area is located at the center of the image obtained from the zoom camera 12. When the face area is located at the center of the image, zoom in is performed so that the face area becomes larger. The zoom-in is performed until the size of the face area exceeds a certain value. If the face area becomes too large, the zoom camera 12 is zoomed out.

以下、ズームカメラ制御部17における処理の流れを図7を用いて具体的に説明する。まず、ズーム対象の人物が設定されているか否かをチェックし(ステップS31)、設定されていない場合は、ズームカメラ12をニュートラルの位置に戻し(ステップS32)、ステップS31に戻って上記同様な動作を繰り返す。   Hereinafter, the flow of processing in the zoom camera control unit 17 will be specifically described with reference to FIG. First, it is checked whether or not a person to be zoomed is set (step S31). If not set, the zoom camera 12 is returned to the neutral position (step S32), and the process returns to step S31 and the same as above. Repeat the operation.

ステップS31におけるチェックの結果、ズーム対象の人物が設定されている場合、人物管理部15から当該人物の顔領域を取得し(ステップS33)、その顔領域がズームカメラ12から得られる画像の中央部に位置するか否かをチェックする(ステップS34)。このチェックの結果、画像の中央部に位置しない場合、ズームカメラ12から得られる画像の中央部に当該顔領域が位置するように、ズームカメラ12の向きを制御し(ステップS35)、ステップS31に戻って上記同様な動作を繰り返す。   If the person to be zoomed is set as a result of the check in step S31, the face area of the person is acquired from the person management unit 15 (step S33), and the face area is the center of the image obtained from the zoom camera 12 It is checked whether it is located at (step S34). If the result of this check is that it is not located at the center of the image, the orientation of the zoom camera 12 is controlled so that the face area is located at the center of the image obtained from the zoom camera 12 (step S35). Return and repeat the same operation as above.

ステップS34におけるチェックの結果、顔領域がズームカメラ12から得られる画像の中央部に位置している場合、当該顔領域の大きさが小さすぎるか否かをチェックする(ステップS36)。このチェックの結果、当該顔領域の大きさが小さすぎる場合、ズームカメラ12に対しズームイン制御を行なう(ステップS37)。ズームイン制御は、顔領域の大きさが一定値以上になるまで行なう。その後、ステップS31に戻って上記同様な動作を繰り返す。   If the result of the check in step S34 is that the face area is located at the center of the image obtained from the zoom camera 12, it is checked whether the face area is too small (step S36). If the size of the face area is too small as a result of this check, zoom-in control is performed on the zoom camera 12 (step S37). The zoom-in control is performed until the size of the face area becomes a certain value or more. Then, it returns to step S31 and repeats the same operation as described above.

ステップS36におけるチェックの結果、当該顔領域の大きさが小さすぎない場合、当該顔領域の大きさが大きすぎるか否かをチェックする(ステップS38)。このチェックの結果、当該顔領域の大きさが大きすぎる場合、ズームカメラ12に対しズームアウト制御を行なう(ステップS39)。ズームアウト制御は、顔領域の大きさが一定値以上になるまで行なう。   If it is determined in step S36 that the face area is not too small, it is checked whether the face area is too large (step S38). If the result of this check is that the face area is too large, zoom-out control is performed on the zoom camera 12 (step S39). The zoom-out control is performed until the size of the face area becomes a certain value or more.

ステップS38におけるチェックの結果、当該顔領域の大きさが大きすぎない場合、あるいは、ステップS39の処理が終了すると、ステップS31に戻り、上記同様な動作を繰り返す。   If the result of the check in step S38 is that the size of the face area is not too large, or when the processing in step S39 is completed, the process returns to step S31 and repeats the same operation as described above.

検出結果表示部18は、固定視野カメラ11から得られる画像において、追跡中の人物領域(人物)の付近に代表顔画像を付加し、人物領域の移動に応じて当該代表顔画像の位置を変えて表示する。また、代表顔画像が更新された場合には、表示している代表顔画像も変更する。   The detection result display unit 18 adds a representative face image in the vicinity of the person area (person) being tracked in the image obtained from the fixed-field camera 11, and changes the position of the representative face image according to the movement of the person area. To display. When the representative face image is updated, the displayed representative face image is also changed.

図8に検出結果表示部18の表示例を示す。図中、MEは検出し追跡中の人物領域(人物)を示し、FEは当該人物領域の検出した代表顔画像を示している。なお、図8(a)は図4(a)から(g)までの処理例に対応し、図8(b)は図4(a)から(h)までの処理例に対応している。   FIG. 8 shows a display example of the detection result display unit 18. In the figure, ME indicates a person area (person) being detected and tracked, and FE indicates a representative face image detected in the person area. 8A corresponds to the processing examples of FIGS. 4A to 4G, and FIG. 8B corresponds to the processing examples of FIGS. 4A to 4H.

検出結果蓄積部19は、監視領域E内に人物が存在するときの固定視野カメラ11の画像と、各人物の侵入時刻、存在時間、各人物の各時刻の領域、および、各人物の代表顔画像などを履歴情報として保存する。
検出結果蓄積部19に保存された情報は、たとえば、図9に示すような一覧画像で検出結果表示部18に表示することが可能である。図9の例では、図面に対し左から順に、顔画像、人物の全身の画像、侵入時刻、および、存在時間である。
The detection result accumulating unit 19 includes an image of the fixed-field camera 11 when a person is present in the monitoring area E, an entry time of each person, an existence time, an area of each person, and a representative face of each person. Save images etc. as history information.
The information stored in the detection result storage unit 19 can be displayed on the detection result display unit 18 as a list image as shown in FIG. 9, for example. In the example of FIG. 9, the face image, the image of the whole body of the person, the intrusion time, and the existence time are shown in order from the left with respect to the drawing.

以上説明したように、上記実施の形態によれば、前述した従来のズーム撮影の制御方法と比較して、より人物の特徴をとらえやすい顔のズームショットが得られる。
すなわち、人物管理部15において、人物ごとに顔のズームショットを撮影したか否かを管理し、一旦ズーム撮影が行なわれた人物でも、より大きな評価値の顔画像が得られると予測される場合には、ズーム撮影を再度行ない、代表顔画像を更新する処理によるものである。
As described above, according to the above-described embodiment, a zoom shot of a face that makes it easier to capture the characteristics of a person can be obtained as compared with the conventional zoom imaging control method described above.
That is, the person management unit 15 manages whether or not a zoom shot of a face has been taken for each person, and it is predicted that a face image having a larger evaluation value can be obtained even for a person who has once performed zoom photography. This is because the zoom photographing is performed again and the representative face image is updated.

前記実施の形態によれば、たとえば、図12(a)において人物Aを検出し、人物Aの顔のズーム撮影を行なう。この時点で、人物Aの代表顔画像は横向きの顔画像である。図12(c)において人物Bが検出され、人物Bの顔のズームショットの撮影を行なう。図12(e)〜(f)においては、人物Aについては既に顔のズームショットを撮影しているが、充分大きな評価値を持つ代表顔画像が得られておらず、かつ、人物Aがカメラに向かって移動しており、より大きな評価値の顔画像が得られると判断され、ズーム対象となる。その結果、最終的に図10に示すような正面の顔のズームショットが、人物Aの代表顔画像となる。   According to the embodiment, for example, the person A is detected in FIG. 12A and the face of the person A is zoomed. At this time, the representative face image of the person A is a side face image. In FIG. 12C, the person B is detected, and a zoom shot of the face of the person B is taken. 12E to 12F, a zoom shot of the face has already been taken for the person A, but a representative face image having a sufficiently large evaluation value has not been obtained, and the person A is a camera. It is determined that a face image having a larger evaluation value can be obtained, and the image is to be zoomed. As a result, a zoom shot of the front face as shown in FIG. 10 finally becomes the representative face image of the person A.

また、検出結果の表示において、人物の特徴をとらえやすい顔のズームショットが、人物との対応が分かりやすいように表示される。
すなわち、検出結果表示部18において、人物の近傍に逐次更新される代表顔画像を表示し、常に人物の正面の顔がわかるようにする表示によるものである。図8に示す例の場合には、人物(人物領域)MEがカメラに対して横を向いていたり(図8(a))、後ろを向いている(図8(b))にも関わらず、その時点でその人物の特徴を最もとらえやすい顔画像FEが、人物MEの対応関係とともにわかりやすく、人物MEの近傍に表示されている。
In the detection result display, a zoom shot of a face that easily captures the characteristics of a person is displayed so that the correspondence with the person can be easily understood.
In other words, the detection result display unit 18 displays a representative face image that is sequentially updated in the vicinity of the person, and always displays the face in front of the person. In the case of the example shown in FIG. 8, the person (person area) ME is facing sideways with respect to the camera (FIG. 8A) or facing back (FIG. 8B). The face image FE that most easily captures the characteristics of the person at that time is displayed in the vicinity of the person ME in an easy-to-understand manner together with the correspondence relationship of the person ME.

本発明の実施の形態に係る画像監視装置の構成を概略的に示すブロック図。1 is a block diagram schematically showing a configuration of an image monitoring apparatus according to an embodiment of the present invention. 固定監視カメラおよびズームカメラの配置状態を示す模式図。The schematic diagram which shows the arrangement | positioning state of a fixed surveillance camera and a zoom camera. 人物検出追跡部における処理の流れを具体的に説明するフローチャート。The flowchart which demonstrates the flow of a process in a person detection tracking part concretely. 人物検出追跡部の処理例を説明するための模式図。The schematic diagram for demonstrating the process example of a person detection tracking part. 人物管理部における処理の流れを具体的に説明するフローチャート。The flowchart which demonstrates the flow of a process in a person management part concretely. 監視領域内おける人物の移動方向例を説明するための模式図。The schematic diagram for demonstrating the example of a moving direction of the person in the monitoring area | region. ズームカメラ制御部における処理の流れを具体的に説明するフローチャート。5 is a flowchart for specifically explaining the flow of processing in a zoom camera control unit. 検出結果表示部における検出結果の表示例を示す模式図。The schematic diagram which shows the example of a display of the detection result in a detection result display part. 検出結果蓄積部に蓄積された情報の一覧表示例を示す模式図。The schematic diagram which shows the example of a list display of the information accumulate | stored in the detection result storage part. 最終的に得られる正面の顔のズームショットを示す模式図。The schematic diagram which shows the zoom shot of the front face finally obtained. ズーム対象を決定する従来の処理方法を説明するフローチャート。The flowchart explaining the conventional processing method which determines a zoom object. 固定視野カメラからの入力画像系列の例を示す模式図。The schematic diagram which shows the example of the input image series from a fixed visual field camera. 従来技術における顔のズームショットを示す模式図。The schematic diagram which shows the zoom shot of the face in a prior art.

符号の説明Explanation of symbols

11…固定監視カメラ(第1の監視カメラ)、12…ズームカメラ(第2の監視カメラ)、13…人物検出追跡部(人物検出追跡手段)、14…顔検出部(顔検出手段)、15…人物管理部(制御手段、判定手段)、16…顔画像評価部(顔画像評価手段)、17…ズームカメラ制御部(制御手段)、18…検出結果表示部(表示手段)、19…検出結果蓄積部(記憶手段)、E…監視領域、M,A,B…人物、ME…人物領域、FE…顔画像。   DESCRIPTION OF SYMBOLS 11 ... Fixed surveillance camera (1st surveillance camera), 12 ... Zoom camera (2nd surveillance camera), 13 ... Person detection tracking part (person detection tracking means), 14 ... Face detection part (face detection means), 15 ... person management unit (control means, determination means), 16 ... face image evaluation section (face image evaluation means), 17 ... zoom camera control section (control means), 18 ... detection result display section (display means), 19 ... detection Result accumulating unit (storage means), E ... monitoring area, M, A, B ... person, ME ... person area, FE ... face image.

Claims (5)

監視領域内の画像を撮影して入力する第1の監視カメラと、
前記監視領域内の画像を撮影して入力する撮影倍率を変更可能な第2の監視カメラと、
前記第1の監視カメラから得られる画像に基づき前記監視領域内の人物を検出し追跡する人物検出追跡手段と、
前記第2の監視カメラから得られる画像に基づき前記監視領域内の人物の顔画像を検出する顔検出手段と、
この顔検出手段により検出された顔画像を評価して評価値を得る顔画像評価手段と、
前記人物検出追跡手段により人物が検出されると、前記顔画像評価手段から得られる評価値があらかじめ設定される第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを制御する第1の制御手段と、
前記第2の監視カメラによる当該人物の顔画像の拡大撮影が終了したのに基づき、前記顔画像評価手段から得られる評価値があらかじめ設定される第2の閾値よりも小さい人物が前記監視領域内に存在するか否かを判定する第1の判定手段と、
この第1の判定手段による判定の結果、前記顔画像評価手段から得られる評価値があらかじめ設定される第2の閾値よりも小さい人物が前記監視領域内に存在する場合、前記顔画像評価手段から得られる評価値が前記第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを再度制御する第2の制御手段と、
を具備したことを特徴とする画像監視装置。
A first surveillance camera that captures and inputs an image within the surveillance area;
A second surveillance camera capable of changing a photographing magnification for photographing and inputting an image in the surveillance area;
Human detection tracking means for detecting and tracking a person in the monitoring area based on an image obtained from the first monitoring camera;
Face detection means for detecting a face image of a person in the monitoring area based on an image obtained from the second monitoring camera;
Face image evaluation means for evaluating the face image detected by the face detection means to obtain an evaluation value;
When a person is detected by the person detection and tracking means, the face image of the person is magnified until the evaluation value obtained from the face image evaluation means becomes larger than a first threshold value set in advance. First control means for controlling the second surveillance camera;
A person whose evaluation value obtained from the face image evaluation means is smaller than a preset second threshold value is within the monitoring area based on the end of the enlarged photographing of the person's face image by the second monitoring camera. First determination means for determining whether or not the
As a result of the determination by the first determination unit, when a person whose evaluation value obtained from the face image evaluation unit is smaller than a second threshold value set in advance is present in the monitoring area, from the face image evaluation unit Second control means for controlling the second monitoring camera again so as to magnify the face image of the person until the obtained evaluation value is greater than the first threshold;
An image monitoring apparatus comprising:
前記第1の監視カメラから得られる画像において、前記人物検出追跡手段により検出され追跡している人物の近傍に前記第2の監視カメラにより拡大撮影された当該人物の顔画像を付加し、かつ、当該人物の移動に応じて当該顔画像の位置を変えて表示する表示手段をさらに具備したことを特徴とする請求項1記載の画像監視装置。   In the image obtained from the first monitoring camera, add a face image of the person magnified by the second monitoring camera in the vicinity of the person detected and tracked by the person detection and tracking means; and The image monitoring apparatus according to claim 1, further comprising display means for displaying the face image by changing the position according to the movement of the person. 前記顔検出手段は、前記第2の監視カメラから複数の画像を連続的に受取り、この複数の画像に対しそれぞれ顔画像の検出を行ない、
前記顔画像評価手段は、前記顔検出手段から得られる複数の顔画像に対しそれぞれ評価し、最も高い評価値を評価結果として出力することを特徴とする請求項1記載の画像監視装置。
The face detection means continuously receives a plurality of images from the second monitoring camera, and performs face image detection for each of the plurality of images.
The image monitoring apparatus according to claim 1, wherein the face image evaluation unit evaluates each of the plurality of face images obtained from the face detection unit, and outputs the highest evaluation value as an evaluation result.
前記第1の判定手段による判定の結果、前記顔画像評価手段から得られる評価値があらかじめ設定される第2の閾値よりも小さい人物が前記監視領域内に存在する場合、当該人物はより大きな評価値の顔画像が得られると予測される人物であるか否かを判定する第2の判定手段をさらに具備し、
前記第2の制御手段は、前記第2の判定手段による判定の結果、当該人物はより大きな評価値の顔画像が得られると予測される人物である場合、前記顔画像評価手段から得られる評価値が前記第1の閾値よりも大きくなるまで、当該人物の顔画像を拡大撮影するように前記第2の監視カメラを再度制御することを特徴とする請求項1記載の画像監視装置。
As a result of the determination by the first determination unit, when a person whose evaluation value obtained from the face image evaluation unit is smaller than a second threshold value set in advance is present in the monitoring area, the person has a higher evaluation. Second determining means for determining whether or not the face image of the value is predicted to be obtained;
The second control means evaluates from the face image evaluation means if the person is predicted to obtain a face image having a larger evaluation value as a result of the determination by the second determination means. 2. The image monitoring apparatus according to claim 1, wherein the second monitoring camera is controlled again so that the face image of the person is magnified until the value becomes larger than the first threshold value.
前記第2の判定手段は、前記第1の監視カメラから得られる画像内における当該人物の移動方向に基づき、当該人物はより大きな評価値の顔画像が得られると予測される人物であるか否かを判定することを特徴とする請求項4記載の画像監視装置。   The second determination means determines whether or not the person is predicted to obtain a face image having a larger evaluation value based on the moving direction of the person in the image obtained from the first monitoring camera. The image monitoring apparatus according to claim 4, wherein the image monitoring apparatus determines whether or not.
JP2004087326A 2004-03-24 2004-03-24 Image monitoring device Abandoned JP2005277726A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004087326A JP2005277726A (en) 2004-03-24 2004-03-24 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004087326A JP2005277726A (en) 2004-03-24 2004-03-24 Image monitoring device

Publications (1)

Publication Number Publication Date
JP2005277726A true JP2005277726A (en) 2005-10-06

Family

ID=35176929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004087326A Abandoned JP2005277726A (en) 2004-03-24 2004-03-24 Image monitoring device

Country Status (1)

Country Link
JP (1) JP2005277726A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252296A (en) * 2007-03-29 2008-10-16 Kddi Corp Face index preparation apparatus for moving image and face image tracking method thereof
JP2008271458A (en) * 2007-04-25 2008-11-06 Hitachi Ltd Imaging apparatus
JP2009206695A (en) * 2008-02-27 2009-09-10 Canon Inc Imaging apparatus
JP2010088072A (en) * 2008-10-03 2010-04-15 Mitsubishi Denki Information Technology Corp Monitor image storage system and monitor image storage method for monitor image storage system
JP2011070629A (en) * 2009-08-25 2011-04-07 Dainippon Printing Co Ltd Advertising effect measurement system and advertising effect measurement device
CN101079964B (en) * 2006-04-24 2011-08-03 富士胶片株式会社 Image reproducing device, image reproducing method, and image capturing device
US8615112B2 (en) 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
JP2016219949A (en) * 2015-05-18 2016-12-22 キヤノン株式会社 Imaging apparatus, and control method and control program of the same
US9697746B2 (en) 2009-09-30 2017-07-04 National Ict Australia Limited Object tracking for artificial vision

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101079964B (en) * 2006-04-24 2011-08-03 富士胶片株式会社 Image reproducing device, image reproducing method, and image capturing device
JP2008252296A (en) * 2007-03-29 2008-10-16 Kddi Corp Face index preparation apparatus for moving image and face image tracking method thereof
US8615112B2 (en) 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
US9042610B2 (en) 2007-03-30 2015-05-26 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
JP2008271458A (en) * 2007-04-25 2008-11-06 Hitachi Ltd Imaging apparatus
JP2009206695A (en) * 2008-02-27 2009-09-10 Canon Inc Imaging apparatus
JP2010088072A (en) * 2008-10-03 2010-04-15 Mitsubishi Denki Information Technology Corp Monitor image storage system and monitor image storage method for monitor image storage system
JP2011070629A (en) * 2009-08-25 2011-04-07 Dainippon Printing Co Ltd Advertising effect measurement system and advertising effect measurement device
US9697746B2 (en) 2009-09-30 2017-07-04 National Ict Australia Limited Object tracking for artificial vision
US10062303B2 (en) 2009-09-30 2018-08-28 National Ict Australia Limited Object tracking for artificial vision
JP2016219949A (en) * 2015-05-18 2016-12-22 キヤノン株式会社 Imaging apparatus, and control method and control program of the same

Similar Documents

Publication Publication Date Title
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP4912117B2 (en) Imaging device with tracking function
JP5954106B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP5810296B2 (en) Image display device and image display method
JP4140567B2 (en) Object tracking device and object tracking method
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
CN105723703B (en) Monitoring device, monitoring system and monitoring method
US10719946B2 (en) Information processing apparatus, method thereof, and computer-readable storage medium
JP2003284053A (en) Monitoring camera system and monitoring camera control device
JP2014153813A (en) Information process device, information process method, program and information process system
JP2006229322A (en) Automatic tracking controller and automatic tracking control method, program, and automatic tracking system
KR101530255B1 (en) Cctv system having auto tracking function of moving target
KR100849689B1 (en) watching control system having an auto picture pop-up function and controlling method for the same
JP6218089B2 (en) Imaging position determination device and imaging position determination method
JP4309900B2 (en) Video surveillance system
JP6758834B2 (en) Display device, display method and program
JP2005277726A (en) Image monitoring device
JP6233721B2 (en) Information processing system, information processing method, and program
US20200311438A1 (en) Representative image generation device and representative image generation method
JP2021196741A (en) Image processing device, image processing method and program
JP4607394B2 (en) Person detection system and person detection program
KR101288881B1 (en) Set up a number of areas of surveillance and monitoring of surveillance cameras in the area to shoot enlarged system
JP3858018B2 (en) Video surveillance system
JP5015121B2 (en) Imaging device
KR101924336B1 (en) Method for Setting Region for Video Surveillance, Apparatus Therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070207

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20100104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100113