[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008146136A - Image recognition device, image recognition system, image recognition method, and control program - Google Patents

Image recognition device, image recognition system, image recognition method, and control program Download PDF

Info

Publication number
JP2008146136A
JP2008146136A JP2006329220A JP2006329220A JP2008146136A JP 2008146136 A JP2008146136 A JP 2008146136A JP 2006329220 A JP2006329220 A JP 2006329220A JP 2006329220 A JP2006329220 A JP 2006329220A JP 2008146136 A JP2008146136 A JP 2008146136A
Authority
JP
Japan
Prior art keywords
image
image recognition
group
candidate
collation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006329220A
Other languages
Japanese (ja)
Inventor
Tetsuya Furukawa
哲也 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006329220A priority Critical patent/JP2008146136A/en
Publication of JP2008146136A publication Critical patent/JP2008146136A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image recognition device for recognizing an image at high speed and high accuracy by comparing a taken image with a prepared image, an image recognition system, an image recognition method, and a control program. <P>SOLUTION: The image recognition device 1, when an image taken by an imaging device 10 is input thereto, detects a face image from the image taken, and determines the order of collating a plurality of registrants based on information indicating the relationship between the probability with which each registrant will be imaged and imaging time, and on the imaging time of the image taken; in accordance with the order of collating, the device collates each registrant's image with the detected face image to specify the registrant who corresponds to the face image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像に写っているオブジェクトを認識する画像認識装置、この画像認識装置
を備えた画像認識システム、画像認識方法、および、制御プログラムに関する。
The present invention relates to an image recognition device that recognizes an object in an image, an image recognition system including the image recognition device, an image recognition method, and a control program.

撮影した画像と、予め登録された多数の候補画像とを照合することにより、候補画像の
中から該当する画像を探すことで、撮影画像中の候補を認識する画像認識技術が知られて
いる。このような技術の一適用例として、管理地点で撮影した画像を用いて本人認証およ
び入退室管理を行うセキュリティシステムが知られている(例えば、特許文献1参照)。
特開2004−127285号公報
There is known an image recognition technique for recognizing a candidate in a photographed image by collating a photographed image with a large number of candidate images registered in advance and searching for a corresponding image from the candidate images. As one application example of such a technique, a security system that performs personal authentication and entrance / exit management using an image taken at a management point is known (see, for example, Patent Document 1).
JP 2004-127285 A

上記のように撮影画像と複数の候補画像を照合して画像認識を行う場合、候補画像が増
加するほど、処理速度が低下する。この処理を高速化するため、認識精度の低下を許容し
てアルゴリズムを簡略化する方法が提案されたが、精度低下による実用性の低下が懸念さ
れる。
そこで本発明は、候補画像が増加した場合でも、高速かつ高精度で画像を認識する画像
認識装置、画像認識システム、画像認識方法、および、制御プログラムを提供することを
目的とする。
When image recognition is performed by comparing a captured image with a plurality of candidate images as described above, the processing speed decreases as the number of candidate images increases. In order to increase the speed of this process, a method for simplifying the algorithm while permitting a decrease in recognition accuracy has been proposed, but there is a concern that the practicality may be decreased due to a decrease in accuracy.
Therefore, an object of the present invention is to provide an image recognition apparatus, an image recognition system, an image recognition method, and a control program for recognizing images with high speed and high accuracy even when the number of candidate images increases.

上記目的を達成するため、本発明は、撮影画像からオブジェクト画像を検出する検出手
段と、前記検出手段により検出された前記オブジェクト画像について、予め用意された複
数の候補オブジェクトの画像との照合を行うことにより、前記オブジェクト画像がどの前
記候補オブジェクトの画像であるかを特定する照合手段と、前記照合手段によって複数の
前記候補オブジェクトの画像を照合する際の照合順序を制御する制御手段と、を備え、前
記制御手段は、各々の前記候補オブジェクトが撮影される確率と撮影時刻との関連を示す
情報と、前記撮影画像の撮影時刻情報とに基づいて、複数の前記候補オブジェクトの照合
順序を決定すること、を特徴とする画像認識装置を提供する。
この構成によれば、撮影画像中のオブジェクト画像と候補オブジェクト画像とを照合す
る際の照合順序を、各々の候補オブジェクトが撮影される確率と撮影時刻との関連を示す
情報と、撮影画像の撮影時刻情報とに基づいて決定するので、撮影画像に写っている可能
性が高い候補オブジェクトを優先して照合することが可能になり、候補オブジェクト画像
が多数であっても、オブジェクト画像を速やかに特定でき、画像認識の効率化および高速
化を図ることができる。
In order to achieve the above object, according to the present invention, a detection unit that detects an object image from a captured image, and the object image detected by the detection unit are collated with images of a plurality of candidate objects prepared in advance. By this means, collation means for specifying which candidate object the object image is, and control means for controlling a collation order when collating the images of the plurality of candidate objects by the collation means. The control means determines the collation order of the plurality of candidate objects based on information indicating the relationship between the probability that each candidate object is shot and the shooting time and the shooting time information of the shot image. An image recognition apparatus characterized by the above is provided.
According to this configuration, the collation order when collating the object image in the photographed image with the candidate object image, the information indicating the relationship between the probability that each candidate object is photographed and the photographing time, and the photographing of the photographed image Because it is determined based on the time information, it is possible to preferentially collate candidate objects that are highly likely to appear in the captured image, and quickly identify object images even if there are many candidate object images. This makes it possible to increase the efficiency and speed of image recognition.

上記構成において、各々の前記候補オブジェクトが過去に撮影された時刻情報を記憶す
る履歴情報記憶手段を備え、前記制御手段は、前記履歴情報記憶手段に記憶された情報に
基づいて、前記各々の前記候補オブジェクトが撮影される確率と撮影時刻との関連を示す
情報を生成し、この情報に基づいて、前記候補オブジェクトの照合順序を決定するものと
してもよい。
この場合、過去に候補オブジェクトが撮影された時刻を示す情報を記憶し、この情報に
基づいて候補オブジェクトが撮影される確率と撮影時刻との関連を示す情報を生成するの
で、より適切な照合順位を決定できる。また、撮影画像におけるオブジェクト画像が候補
オブジェクト画像と特定される毎に、新たに該当する候補オブジェクトの撮影時刻情報が
更新されるので、各々の前記候補オブジェクトが撮影される確率と撮影時刻との関連が変
化した場合にも、その変化に応じた照合順序決定が可能となる。
In the above-described configuration, there is provided history information storage means for storing time information when each of the candidate objects was photographed in the past, and the control means is configured based on the information stored in the history information storage means. Information indicating the relationship between the probability that the candidate object is shot and the shooting time may be generated, and the collation order of the candidate objects may be determined based on this information.
In this case, information indicating the time when the candidate object was photographed in the past is stored, and information indicating the relationship between the probability that the candidate object is photographed and the photographing time is generated based on this information. Can be determined. In addition, each time an object image in a captured image is identified as a candidate object image, the shooting time information of the newly corresponding candidate object is updated, so the relationship between the probability that each candidate object is shot and the shooting time Even when the change occurs, the collation order can be determined according to the change.

また、上記構成において、前記照合手段は複数種類の照合処理を実行可能であり、前記
各々の前記候補オブジェクトが撮影される確率と撮影時刻との関連を示す情報と、前記撮
影画像の撮影時刻情報とに基づいて、前記照合処理の種類を変更するものとしてもよい。
この場合、照合処理の種類を高精度な処理に変更すると、撮影される確率が低い候補オ
ブジェクトについては高精度の照合が適用されることになり、より確実な画像認識を行え
る。また、照合処理の種類を、処理負荷が高く高精度な処理に変更した場合は照合に時間
がかかる可能性があるが、上記の変更は限られた場合にしか行われないので、照合全体に
要する時間に与える影響を最小限に抑えることが可能となる。
Further, in the above configuration, the collating means can execute a plurality of types of collating processes, information indicating a relationship between the probability that each of the candidate objects is photographed and a photographing time, and photographing time information of the photographed image Based on the above, the type of the collation process may be changed.
In this case, when the type of collation processing is changed to high-precision processing, high-precision collation is applied to candidate objects with a low probability of being photographed, so that more reliable image recognition can be performed. In addition, if the type of collation processing is changed to processing with high processing load and high accuracy, collation may take time, but the above changes can be made only in limited cases, so It is possible to minimize the influence on the time required.

上記構成において、複数の前記候補オブジェクトは複数のグループに分類されており、
前記照合手段は、複数の前記グループから一つの前記グループを選択し、選択した前記グ
ループに属する前記候補オブジェクトを順次選択して照合を行い、前記制御手段は、各グ
ループに属する各々の前記候補オブジェクトが過去に撮影された時刻情報と、前記撮影画
像の撮影時刻情報とに基づいて、前記照合手段によって前記グループを選択する順序を決
定するものとしてもよい。
この場合、グループ毎の照合順位を決定して、この照合順位に従ってグループ毎に処理
を行うため、撮影時刻と撮影される確率との関連が共通または類似する複数の候補オブジ
ェクトを、グループ単位で処理することで、処理の負荷を軽減でき、効率化および高速化
を図ることができる。
In the above configuration, the plurality of candidate objects are classified into a plurality of groups,
The collating unit selects one group from the plurality of groups, sequentially selects the candidate objects belonging to the selected group, performs collation, and the control unit performs each of the candidate objects belonging to each group. The order in which the group is selected by the collating unit may be determined based on time information when the image was captured in the past and shooting time information of the captured image.
In this case, since the collation order for each group is determined and processing is performed for each group according to the collation order, a plurality of candidate objects having a common or similar relationship between the photographing time and the probability of photographing are processed in groups. By doing so, processing load can be reduced, and efficiency and speed can be increased.

上記構成において、特定の前記グループについて、そのグループに属する前記候補オブ
ジェクトが撮影される確率と撮影時刻との関連を変化させる要因が発生したことを指示す
る指示手段を備え、前記制御手段は、前記指示手段による指示に従って、変化した後の関
連を示す情報をもとに前記照合手段によって前記グループを選択する順序を決定するもの
としてもよい。
この場合、外的要因によって前記候補オブジェクトが撮影される確率と撮影時刻との関
連が変化する場合に、この変化に対応してグループ単位で上記関連を変化させるので、外
的要因に対応して適切な照合順序を決定できる。また、撮影時刻と撮影される確率との関
連が共通または類似する複数の候補オブジェクトを、グループ単位でまとめて処理するの
で、各々の候補オブジェクトについて指示を行う場合に比べて作業負担が軽く、特に候補
オブジェクトが多数である場合には大幅な省力化を図ることができる。
In the above-described configuration, for the specific group, the control unit includes an instruction unit that instructs that a factor that changes the association between the probability that the candidate object belonging to the group is shot and the shooting time has occurred. According to an instruction by the instruction unit, the order of selecting the group by the collating unit may be determined based on information indicating the relationship after the change.
In this case, when the relationship between the probability that the candidate object is shot and the shooting time changes due to an external factor, the relationship is changed in units of groups corresponding to this change. An appropriate collating sequence can be determined. In addition, since a plurality of candidate objects having the same or similar relationship between the shooting time and the shooting probability are processed together in units of groups, the work load is lighter than when instructions are given for each candidate object. When there are a large number of candidate objects, significant labor saving can be achieved.

また、上記構成において、特定の前記グループについて、そのグループに属する前記候
補オブジェクトが撮影される確率と撮影時刻との関連を変化させる要因が発生したことを
推定する推定手段を備え、前記制御手段は、前記推定手段による推定結果に基づいて、変
化した後の関連を示す情報をもとに前記照合手段によって前記グループを選択する順序を
決定するものとしてもよい。
この場合、何らかの要因によって前記候補オブジェクトが撮影される確率と撮影時刻と
の関連が変化することを推定し、この変化に対応してグループ単位で上記関連を変化させ
る。これにより、要因の発生に係る入力を省くことでより一層の省力化を図るとともに、
グループ単位で候補オブジェクトの順位を決定することで高速化を図ることができる。
Further, in the above configuration, for the specific group, the control unit includes an estimation unit that estimates that a factor that changes an association between a probability that the candidate object belonging to the group is shot and a shooting time has occurred. The order in which the group is selected by the collating unit may be determined based on the information indicating the relationship after the change based on the estimation result by the estimating unit.
In this case, it is estimated that the relationship between the probability that the candidate object is shot and the shooting time changes due to some factor, and the relationship is changed in units of groups corresponding to this change. As a result, further labor saving is achieved by omitting the input related to the occurrence of the factors,
Speeding up can be achieved by determining the ranking of candidate objects in units of groups.

上記構成において、前記検出手段は前記オブジェクト画像として人の顔画像を検出し、
前記照合手段は、前記検出手段により検出された顔画像について、予め登録された人物の
顔画像との照合を行うことにより、前記顔画像が前記登録された人物のうち、いずれかの
顔画像であるかを特定するものとしてもよい。
この場合、撮影画像における人の顔画像を予め登録された人物のうちいずれかに特定す
る処理を、登録された人物が多数であっても高速に行うことができる。
In the above configuration, the detection means detects a human face image as the object image,
The collation means collates the face image detected by the detection means with a face image of a person registered in advance, so that the face image is one of the registered face images. It is good also as what specifies whether there exists.
In this case, the process of specifying a person's face image in a captured image as one of pre-registered persons can be performed at high speed even if there are many registered persons.

本発明は、撮影画像を出力する撮影装置と、画像認識装置とを備え、前記画像認識装置
は、前記撮影装置により出力された撮影画像からオブジェクト画像を検出する検出手段と
、前記検出手段により検出された前記オブジェクト画像について、予め用意された複数の
候補オブジェクトの画像との照合を行うことにより、前記オブジェクト画像がどの前記候
補オブジェクトの画像であるかを特定する照合手段と、前記照合手段によって複数の前記
候補オブジェクトの画像を照合する際の照合順序を制御する制御手段と、を備え、前記制
御手段は、各々の前記候補オブジェクトが撮影される確率と撮影時刻との関連を示す情報
と、前記撮影画像の撮影時刻情報とに基づいて、複数の前記候補オブジェクトの照合順序
を決定すること、を特徴とする画像認識システムを提供する。
この構成によれば、撮影装置によって撮影した画像中のオブジェクト画像と候補オブジ
ェクト画像とを照合する際の照合順序を、各々の候補オブジェクトが撮影される確率と撮
影時刻との関連を示す情報と、撮影画像の撮影時刻情報とに基づいて決定するので、撮影
画像に写っている可能性が高い候補オブジェクトを優先して照合するので、候補オブジェ
クト画像が多数であってもオブジェクト画像を速やかに特定でき、撮影から画像認識に至
る一連の処理の効率化および高速化を図ることができる。
The present invention includes a photographing device that outputs a photographed image and an image recognition device, and the image recognition device detects the object image from the photographed image output by the photographing device, and the detection means detects the object image. The object image is collated with images of a plurality of candidate objects prepared in advance, thereby identifying which candidate object image the object image is, and a plurality of collation means by the collation means. Control means for controlling a collation order when collating images of the candidate objects, and the control means includes information indicating the relationship between the probability that each candidate object is photographed and the photographing time, Determining a collation order of the plurality of candidate objects based on shooting time information of a shot image; To provide an image recognition system.
According to this configuration, the collation order when collating the object image in the image photographed by the photographing device with the candidate object image, information indicating the relationship between the probability that each candidate object is photographed and the photographing time, Because it is determined based on the shooting time information of the shot image, candidate objects that have a high possibility of appearing in the shot image are preferentially checked, so even if there are many candidate object images, the object image can be quickly identified. Thus, it is possible to improve the efficiency and speed of a series of processes from photographing to image recognition.

本発明は、撮影画像からオブジェクト画像を検出する一方、予め用意された複数の前記
候補オブジェクトについて、各々の前記候補オブジェクトが撮影される確率と撮影時刻と
の関連を示す情報と前記撮影画像の撮影時刻情報とに基づいて照合順序を決定し、この照
合順序に従って、前記候補オブジェクトの画像と検出した前記オブジェクト画像とを照合
することにより、前記オブジェクト画像がどの前記候補オブジェクトの画像であるかを特
定すること、を特徴とする画像認識方法を提供する。
この方法によれば、撮影画像中のオブジェクト画像と候補オブジェクト画像とを照合す
る際の照合順序を、各々の候補オブジェクトが撮影される確率と撮影時刻との関連を示す
情報と、撮影画像の撮影時刻情報とに基づいて決定するので、撮影画像に写っている可能
性が高い候補オブジェクトを優先して照合するので、候補オブジェクト画像が多数であっ
ても、オブジェクト画像を速やかに特定でき、高速かつ効率よく画像認識を行うことがで
きる。
The present invention detects an object image from a photographed image, and for a plurality of candidate objects prepared in advance, information indicating the relationship between the probability that each candidate object is photographed and the photographing time and photographing of the photographed image The collation order is determined based on the time information, and according to the collation order, the candidate object image and the detected object image are collated to identify which candidate object image the object image is. An image recognition method is provided.
According to this method, the collation order when collating the object image in the photographed image with the candidate object image, the information indicating the relationship between the probability that each candidate object is photographed and the photographing time, and the photographing of the photographed image Since it is determined based on the time information, candidate objects that are highly likely to appear in the captured image are preferentially collated, so even if there are many candidate object images, the object images can be quickly identified, Image recognition can be performed efficiently.

本発明は、コンピュータを、撮影画像からオブジェクト画像を検出する検出手段と、前
記検出手段により検出された前記オブジェクト画像について、予め用意された複数の候補
オブジェクトの画像との照合を行うことにより、前記オブジェクト画像がどの前記候補オ
ブジェクトの画像であるかを特定する照合手段と、各々の前記候補オブジェクトが撮影さ
れる確率と撮影時刻との関連を示す情報と、前記撮影画像の撮影時刻情報とに基づいて、
前記照合手段によって複数の前記候補オブジェクトの画像を照合する際の照合順序を制御
する制御手段と、して機能させるための制御プログラムを提供する。
この制御プログラムをコンピュータで実行すれば、撮影画像中のオブジェクト画像と候
補オブジェクト画像とを照合する際の照合順序を、各々の候補オブジェクトが撮影される
確率と撮影時刻との関連を示す情報と、撮影画像の撮影時刻情報とに基づいて決定し、撮
影画像に写っている可能性が高い候補オブジェクトを優先して照合することで、画像認識
の高速化および効率化を実現できる。
According to the present invention, the computer detects the object image from the captured image, and compares the object image detected by the detection unit with images of a plurality of candidate objects prepared in advance. Based on collating means for identifying which candidate object the object image is, information indicating the relationship between the probability that each candidate object is shot and the shooting time, and the shooting time information of the shot image And
Provided is a control program for functioning as a control unit that controls a collation order when collating images of a plurality of candidate objects by the collation unit.
If this control program is executed by a computer, the collation order when collating the object image in the photographed image with the candidate object image, information indicating the relationship between the probability that each candidate object is photographed and the photographing time, It is possible to realize speeding up and efficiency of image recognition by determining based on the shooting time information of the shot image and preferentially collating candidate objects that are highly likely to appear in the shot image.

以下、図面を参照して本発明を適用した実施形態について説明する。
[第1の実施形態]
図1は、第1の実施形態に係る画像認識システム100の構成を示すブロック図である

この画像認識システム100は、複数台のカメラ12を備えた撮影装置10を、画像認
識装置1に接続して構成される。
撮影装置10は、カメラ12によって所定時間毎に撮影を行い、撮影画像データを画像
認識装置1に出力する。
画像認識装置1は、撮影装置10から入力される撮影画像中のオブジェクト(被写体と
して写っている人および物)を特定する画像認識処理を行う。画像認識装置1は、動画像
と静止画像のいずれに対しても画像認識処理を実行可能であり、また、オブジェクトとし
て人および物のいずれも認識できる。本第1の実施形態及び後述する他の実施形態では、
あくまで一例として、静止画像に対する画像認識処理を行い、オブジェクトとして人間の
顔を認識する場合について説明する。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of an image recognition system 100 according to the first embodiment.
The image recognition system 100 is configured by connecting a photographing apparatus 10 including a plurality of cameras 12 to the image recognition apparatus 1.
The imaging device 10 captures images at predetermined time intervals with the camera 12 and outputs captured image data to the image recognition device 1.
The image recognition apparatus 1 performs an image recognition process for specifying an object (a person and an object shown as a subject) in a captured image input from the imaging apparatus 10. The image recognition apparatus 1 can execute image recognition processing for both moving images and still images, and can recognize both people and objects as objects. In the first embodiment and other embodiments described later,
As an example, a case will be described in which image recognition processing is performed on a still image and a human face is recognized as an object.

まず、画像認識装置1の構成について説明する。
図1に示すように、画像認識装置1は、画像認識装置1の各部の制御、および、後述す
る画像認識処理を実行する制御部2と、制御部2によって実行される各種プログラムを記
憶したROM3と、制御部2によって処理されるプログラムやデータ等を一時的に記憶す
るRAM4とを備えている。ROM3は、半導体記憶デバイス等を用いた記録媒体であり
、制御部2により実行される制御プログラム31、および、制御プログラム31に関する
データ等を不揮発的に記憶している。
また、画像認識装置1は、制御部2によって処理される画像等を記憶する記憶部5と、
画像認識装置1に対する指示入力を行うための入力部6と、制御部2によって実行される
処理の結果等を出力する出力部7と、外部の装置(図示略)に接続される外部インタフェ
ース(I/F)8とを備えている。これらの各部はバス9により相互に接続されている。
First, the configuration of the image recognition device 1 will be described.
As shown in FIG. 1, an image recognition device 1 includes a control unit 2 that executes control of each unit of the image recognition device 1 and an image recognition process described later, and a ROM 3 that stores various programs executed by the control unit 2. And a RAM 4 for temporarily storing programs and data processed by the control unit 2. The ROM 3 is a recording medium using a semiconductor storage device or the like, and stores a control program 31 executed by the control unit 2 and data related to the control program 31 in a nonvolatile manner.
In addition, the image recognition device 1 includes a storage unit 5 that stores an image processed by the control unit 2, and the like.
An input unit 6 for inputting an instruction to the image recognition apparatus 1, an output unit 7 for outputting a result of processing executed by the control unit 2, and an external interface (I not shown) connected to an external device (not shown). / F) 8. These units are connected to each other by a bus 9.

記憶部5は、磁気的記録媒体、光学的記録媒体、或いは半導体記憶デバイスを用いて各
種情報を不揮発的に記憶する。記憶部5は複数の記憶領域を有し、これらの記憶領域に、
画像認識処理において参照および処理する各種データを記憶する。
図2は、記憶部5の構成を模式的に示す図である。この図2に示すように、記憶部5が
有する記憶領域には、画像を認識するために利用される情報を格納した認識用DB(デー
タベース)51、認識履歴情報記憶部52(履歴情報記憶手段)、および時刻分布情報記
憶部53が含まれる。
認識用DB51は、後述する画像認識処理において、顔画像の認識を行うために用いる
情報を格納したデータベースであり、具体的には、オブジェクトの画像の特徴を示す情報
を格納する。本第1の実施形態ではオブジェクトとして人の顔を認識するので、認識用D
B51には、複数の人物の顔について、顔画像の特徴を示す情報が、顔を識別するための
情報(人物の名前等)に対応づけて格納されている。
制御部2は、画像認識処理において、認識対象画像から顔画像を検出し、検出した顔画
像と、認識用DB51に格納された情報とを照合することで、検出した顔画像が誰の顔で
あるかを特定する。従って、認識用DB51に格納された複数の人物は、画像認識処理で
認識候補として扱われる。すなわち、画像認識の候補として画像認識装置1に登録された
とみなすことができるので、以下の説明では認識用DB51に格納された複数の人物を「
登録者」と呼ぶ。
The storage unit 5 stores various information in a nonvolatile manner using a magnetic recording medium, an optical recording medium, or a semiconductor storage device. The storage unit 5 has a plurality of storage areas, and in these storage areas,
Various data referred to and processed in the image recognition process are stored.
FIG. 2 is a diagram schematically illustrating the configuration of the storage unit 5. As shown in FIG. 2, the storage area of the storage unit 5 includes a recognition DB (database) 51 that stores information used for recognizing images, and a recognition history information storage unit 52 (history information storage means). ), And a time distribution information storage unit 53.
The recognition DB 51 is a database that stores information used for recognizing a face image in image recognition processing to be described later. Specifically, the recognition DB 51 stores information indicating the characteristics of an object image. In the first embodiment, since a human face is recognized as an object, the recognition D
In B51, information indicating the characteristics of the face image for a plurality of human faces is stored in association with information for identifying the faces (person names, etc.).
In the image recognition process, the control unit 2 detects a face image from the recognition target image, and collates the detected face image with information stored in the recognition DB 51, so that the detected face image is a person's face. Determine if it exists. Accordingly, a plurality of persons stored in the recognition DB 51 are treated as recognition candidates in the image recognition process. That is, since it can be regarded as registered in the image recognition apparatus 1 as a candidate for image recognition, in the following description, a plurality of persons stored in the recognition DB 51 are represented as “
Called "registrant".

認識履歴情報記憶部52は、認識用DB51に情報が記憶された登録者毎に、過去に認
識された履歴を示す認識履歴情報52Aを記憶する。
図3は、認識履歴情報52Aの構成例を模式的に示す図である。この図3に示す認識履
歴情報52Aには、登録者「A」、「B」、「C」、「D」…の各々の登録者について、
11月1日から11月5日までの5日間における認識時刻が格納されている。
ここで、認識時刻とは、撮影装置10により撮影された撮影画像の撮影時刻である。例
えば、11月1日の午前8時27分に撮影された撮影画像に登録者「A」が写っていた場
合、11月1日の登録者「A」の認識時刻は「8:27」となる。
認識履歴情報52Aには、画像認識装置1が画像認識処理を行って、撮影画像に写って
いる人物(登録者)を特定する毎に、特定した登録者の履歴が追加される。
この図3に示す構成はあくまで一例であり、認識履歴情報52Aに情報が記憶される登
録者の数や、認識時刻が記憶される日数は任意である。
The recognition history information storage unit 52 stores recognition history information 52 </ b> A indicating a history recognized in the past for each registrant whose information is stored in the recognition DB 51.
FIG. 3 is a diagram schematically illustrating a configuration example of the recognition history information 52A. The recognition history information 52A shown in FIG. 3 includes the registrants “A”, “B”, “C”, “D”,.
The recognition times for 5 days from November 1 to November 5 are stored.
Here, the recognition time is the photographing time of the photographed image photographed by the photographing device 10. For example, when the registrant “A” appears in the captured image taken at 8:27 am on November 1, the recognition time of the registrant “A” on November 1 is “8:27”. Become.
Each time the image recognition apparatus 1 performs image recognition processing and identifies a person (registrant) shown in the captured image, the history of the identified registrant is added to the recognition history information 52A.
The configuration shown in FIG. 3 is merely an example, and the number of registrants whose information is stored in the recognition history information 52A and the number of days in which the recognition time is stored are arbitrary.

図2に示す時刻分布情報記憶部53は、認識履歴情報記憶部52に記憶された認識履歴
情報52Aに基づいて、各登録者の認識時刻の分布を示す時刻分布情報を記憶する。
図4は、時刻分布情報の概要を説明する図であり、図4(A)は各登録者の撮影時刻の
分布を示し、図4(B)は各撮影者が撮影される確率と撮影時刻との関連を示す。
図3に例示した認識履歴情報52Aによれば、5日間の登録者「A」〜「D」の認識時
刻は、図4(A)に示すように分布する。例えば、登録者「A」の認識時刻は午前8時3
0分付近に集中しており、登録者「B」の認識時刻は午前8時30分付近と午前9時とに
分かれている。
The time distribution information storage unit 53 illustrated in FIG. 2 stores time distribution information indicating the distribution of recognition times of each registrant based on the recognition history information 52A stored in the recognition history information storage unit 52.
4A and 4B are diagrams for explaining the outline of the time distribution information. FIG. 4A shows the distribution of photographing times of each registrant, and FIG. 4B shows the probability that each photographer is photographed and the photographing time. The relationship with is shown.
According to the recognition history information 52A illustrated in FIG. 3, the recognition times of the registrants “A” to “D” for five days are distributed as shown in FIG. For example, the recognition time of the registrant “A” is 8:03 am
It is concentrated around 0 minutes, and the recognition time of the registrant “B” is divided into around 8:30 am and 9 am.

この認識履歴情報52Aの情報をもとに、各登録者が撮影される確率を変数とする分布
関数が求められる。この分布関数をグラフ化すると、図4(B)に示すような関連が現れ
る。例えば、登録者「A」については午前8時30分付近をピークとする関連が現れ、登
録者「B」については午前7時50分頃から午前9時30分頃までに跨る幅広い関連が現
れる。時刻分布情報記憶部53には、図4(B)に示すような、各登録者が撮影される確
率と撮影時刻との関連を示す時刻分布情報が記憶される。
この時刻分布情報を用いると、ある時刻において、撮影される可能性が高い順に各登録
者の順位付けを行える。例えば、図4(B)を参照して、午前8時30分に撮影される確
率は、登録者「A」が最も高く、以下、登録者「C」、「B」、「D」の順になる。また
、午前9時に撮影される確率が高い順に各登録者を順位付けすると、登録者「D」、「B
」、「A」、「C」の順になる。
なお、時刻分布情報の具体的態様は特に限定されるものではなく、ヒストグラム分布、
ガンマ分布、正規分布、混合分布など任意の確率分布を用いることができる。
Based on the information of the recognition history information 52A, a distribution function having the probability that each registrant is photographed as a variable is obtained. When this distribution function is graphed, a relationship as shown in FIG. 4B appears. For example, for registrant “A”, a relationship that peaks at around 8:30 am appears, and for registrant “B”, a wide range of relationships spanning from about 7:50 am to about 9:30 am appears. . The time distribution information storage unit 53 stores time distribution information indicating the relationship between the probability that each registrant is photographed and the photographing time, as shown in FIG.
By using this time distribution information, it is possible to rank each registrant in descending order of the possibility of being photographed at a certain time. For example, referring to FIG. 4B, the probability of shooting at 8:30 am is the highest for the registrant “A”, and in the order of the registrants “C”, “B”, and “D”. Become. Also, if the registrants are ranked in descending order of the probability of shooting at 9 am, the registrants “D”, “B
”,“ A ”, and“ C ”.
In addition, the specific aspect of time distribution information is not specifically limited, Histogram distribution,
Any probability distribution such as a gamma distribution, a normal distribution, or a mixed distribution can be used.

図1に示す入力部6は、数字・文字・記号等を入力するキーや特定の動作を指示する機
能キー等の各種キースイッチ、ロータリースイッチ、電源ON/OFFボタン等を備え、
これらスイッチ或いはボタン等の操作に対応する操作信号を生成して、制御部2に出力す
る。
また、出力部7は、撮影装置10により撮影された撮影画像や制御部2による処理結果
等を、LCD(液晶ディスプレイ)等を備えた表示画面71に映像として表示させ、或い
は、図示しない印刷装置により印刷させる。
The input unit 6 shown in FIG. 1 includes various key switches such as keys for inputting numbers, letters, symbols, etc., function keys for instructing specific operations, a rotary switch, a power ON / OFF button, and the like.
An operation signal corresponding to the operation of these switches or buttons is generated and output to the control unit 2.
Further, the output unit 7 displays a photographed image taken by the photographing device 10, a processing result by the control unit 2, and the like as an image on a display screen 71 provided with an LCD (liquid crystal display) or the like, or a printing device (not shown). To print.

外部インタフェース8は、画像認識装置1の外部の装置に接続されるインタフェースで
ある。ここで外部の装置としては、ハードディスクドライブや半導体メモリを内蔵したス
トレージデバイス、パーソナルコンピュータ、デジタルスチルカメラ、デジタルビデオカ
メラ、携帯型電話機等が挙げられる。外部インタフェース8の具体的な構成としては、US
B(Universal Serial Bus)、IEEE1394、Ethernet(登録商標)等の通信方式に対応し
た有線接続インタフェース、および、IEEE802.11、Bluetooth(登録商標)、UWB、ZigBee
(登録商標)等の通信方式に対応した無線通信インタフェース等が挙げられる。
また、外部インタフェース8は、上記各種規格に準じたコネクタの他、上記各種規格に
より規定されたプロトコルを実行可能なインタフェース回路を備えていてもよい。
The external interface 8 is an interface connected to a device external to the image recognition device 1. Here, examples of the external device include a storage device incorporating a hard disk drive and a semiconductor memory, a personal computer, a digital still camera, a digital video camera, and a mobile phone. The specific configuration of the external interface 8 is US
B (Universal Serial Bus), IEEE1394, Ethernet (registered trademark) and other wired connection interfaces that support communication systems, IEEE802.11, Bluetooth (registered trademark), UWB, ZigBee
And a wireless communication interface corresponding to a communication method such as (registered trademark).
The external interface 8 may include an interface circuit capable of executing protocols defined by the various standards, in addition to the connectors conforming to the various standards.

そして、画像認識装置1には、外部インタフェース8を介して撮影装置10が接続され
ている。
撮影装置10は、例えば建物の入口付近に設置された複数のカメラ12と、これらカメ
ラ12により撮影を実行させるとともに撮影画像データを取得する撮影制御部11とを備
える。
撮影制御部11は、予め設定された時間毎にカメラ12によって撮影を行わせ、取得し
た撮影画像データを画像認識装置1に出力する。ここで、撮影制御部11は、撮影画像デ
ータとともに、撮影時刻を示す情報を画像認識装置1に出力する。
カメラ12はデジタルカメラであり、撮影制御部11の制御に従って可視光または赤外
線による撮影を行い、撮影画像データを撮影制御部11に出力する。
A photographing device 10 is connected to the image recognition device 1 via an external interface 8.
The photographing apparatus 10 includes, for example, a plurality of cameras 12 installed near the entrance of a building, and a photographing control unit 11 that performs photographing with the cameras 12 and acquires photographed image data.
The imaging control unit 11 causes the camera 12 to perform imaging every preset time, and outputs the acquired captured image data to the image recognition device 1. Here, the photographing control unit 11 outputs information indicating the photographing time to the image recognition apparatus 1 together with the photographed image data.
The camera 12 is a digital camera, performs imaging using visible light or infrared light according to the control of the imaging control unit 11, and outputs captured image data to the imaging control unit 11.

図5は、画像認識装置1が実行する画像認識処理を示すフローチャートである。
この図5に示す画像認識処理において、制御部2は、検出手段、照合手段、および制御
手段として機能する。
この画像認識処理は、撮影装置10から画像認識装置1に対して撮影画像が入力される
毎に実行される。
制御部2は、撮影装置10から入力された撮影画像と、この撮影画像の撮影時刻を取得
し(ステップS11)、取得した撮影画像から顔画像を検出する(ステップS12)。こ
のステップS12で、制御部2は、取得した撮影画像において人間の顔の画像と思われる
領域を検出し、検出した領域を切り出す処理を行う。この処理において切り出された領域
は、以下の処理で顔画像として処理される。ここで、顔の画像を検出する処理は、例えば
、輝度パターンに基づくSVM(サポートベクタマシン)による顔検出技術を利用できる
FIG. 5 is a flowchart showing image recognition processing executed by the image recognition apparatus 1.
In the image recognition process shown in FIG. 5, the control unit 2 functions as a detection unit, a collation unit, and a control unit.
This image recognition process is executed each time a photographed image is input from the photographing apparatus 10 to the image recognition apparatus 1.
The control unit 2 acquires the captured image input from the imaging device 10 and the capturing time of the captured image (step S11), and detects a face image from the acquired captured image (step S12). In step S12, the control unit 2 detects a region that appears to be an image of a human face in the acquired captured image, and performs a process of cutting out the detected region. The region cut out in this process is processed as a face image by the following process. Here, for the process of detecting the face image, for example, a face detection technique using an SVM (support vector machine) based on a luminance pattern can be used.

また、制御部2は、認識履歴情報記憶部52に記憶された認識履歴情報52Aを参照し
て、認識履歴情報52Aに含まれる情報を演算することにより、各登録者の時刻分布情報
を生成して時刻分布情報記憶部53に記憶させる(ステップS13)。ここで生成した時
刻分布情報をもとに、制御部2は、ステップS11で取得した撮影時刻に撮影される確率
が高い順に、各登録者の照合順序を決定する(ステップS14)。
Further, the control unit 2 refers to the recognition history information 52A stored in the recognition history information storage unit 52 and calculates information included in the recognition history information 52A, thereby generating time distribution information of each registrant. Is stored in the time distribution information storage unit 53 (step S13). Based on the time distribution information generated here, the control unit 2 determines the collation order of each registrant in descending order of the probability of being photographed at the photographing time acquired in step S11 (step S14).

その後、制御部2は、決定した照合順序に従って一人の登録者を選択する(ステップS
15)。この選択では、照合順序の上位から順に登録者が選択され、最初にステップS1
5の処理を行う場合は最上位の登録者が選択される。
制御部2は、選択した登録者の顔画像の特徴に関する情報を認識用DB51から読み出
し、読み出した情報と、ステップS12で検出した顔画像とを照合し(ステップS16)
、顔画像の特徴が一致するか否かを判別する(ステップS17)。
ここで、顔画像の特徴が一致しなかった場合(ステップS17;No)、制御部2は、
ステップS15に戻って、照合順位に従って次の登録者を選択し、再び照合を行う。
Thereafter, the control unit 2 selects one registrant according to the determined collation order (step S
15). In this selection, registrants are selected in order from the top of the collation order.
When performing the process 5, the highest registrant is selected.
The control unit 2 reads information on the feature of the selected registrant's face image from the recognition DB 51, and collates the read information with the face image detected in step S12 (step S16).
Then, it is determined whether or not the features of the face image match (step S17).
Here, when the features of the face image do not match (step S17; No), the control unit 2
Returning to step S15, the next registrant is selected according to the collation order, and collation is performed again.

一方、顔画像の特徴が一致した場合(ステップS17;Yes)、制御部2は、撮影画
像に写っている人物が選択している登録者であると特定して、特定した登録者の名前等を
出力部7によって出力し(ステップS18)、この登録者に対応する認識履歴情報52A
を更新して(ステップS19)、画像認識処理を終了する。
On the other hand, when the features of the face image match (step S17; Yes), the control unit 2 specifies that the person shown in the captured image is the selected registrant, and specifies the name of the specified registrant. Is output by the output unit 7 (step S18), and the recognition history information 52A corresponding to this registrant.
Is updated (step S19), and the image recognition process is terminated.

以上のように、第1の実施形態に係る画像認識システム100においては、撮影装置1
0により撮影した撮影画像について、画像認識装置1が画像認識処理を実行する。この画
像認識処理において、画像認識装置1は、撮影画像に写った顔が誰の顔であるかを特定す
る。この画像認識処理において、画像認識装置1は、時刻分布情報記憶部53に記憶され
た時刻分布情報をもとに、撮影時刻と同時刻において各登録者が撮影される確率が高い順
に、登録者の照合順位を決定し、この照合順位に従って登録者を選択しながら、撮影画像
で検出した顔画像と、複数の登録者の顔画像とを照合する。このため、撮影される確率が
高い登録者が先に照合されるため、先に照合される登録者の顔と撮影画像中の顔画像とが
一致する可能性が極めて高い。これにより、画像認識処理を開始してから顔画像が一致す
るまでの時間を大幅に短縮でき、処理の高速化を図ることができる。
特に、登録者が多数である場合には、顔画像と一致する可能性を考慮せずに照合を行っ
てしまうと、顔画像が一致するまでに膨大な処理を行う必要があり、処理に要する時間が
長く、また、膨大なハードウェア資源を占有してしまう。上記第1の実施形態に係る画像
認識システム100では、顔画像と一致する可能性が高い登録者を優先して照合すること
によって、登録者の数が多くても短時間で顔画像が一致して、誰の顔であるかを特定でき
る。従って、非常に効率よく、高速に画像認識処理を実行できる。
As described above, in the image recognition system 100 according to the first embodiment, the imaging device 1
The image recognition device 1 executes an image recognition process on the photographed image photographed by 0. In this image recognition process, the image recognition apparatus 1 specifies who the face shown in the photographed image is. In this image recognition processing, the image recognition device 1 uses the time distribution information stored in the time distribution information storage unit 53 in order of increasing probability that each registrant is photographed at the same time as the photographing time. The collation order is determined, and the face image detected in the captured image is collated with the face images of a plurality of registrants while selecting the registrant according to the collation order. For this reason, since a registrant who has a high probability of being photographed is collated first, there is a high possibility that the face of the registrant to be collated first matches the face image in the photographed image. As a result, the time from the start of the image recognition process to the matching of the face images can be significantly shortened, and the processing speed can be increased.
In particular, when there are many registrants, if collation is performed without considering the possibility of matching with the face image, it is necessary to perform enormous processing until the face images match, which is necessary for the processing. It takes a long time and occupies a huge amount of hardware resources. In the image recognition system 100 according to the first embodiment, face images can be matched in a short time even if the number of registrants is large by preferentially collating registrants who are highly likely to match face images. Who can be identified. Therefore, the image recognition process can be executed very efficiently and at high speed.

上記画像認識処理においては、ステップS14で照合順序を決定する際、制御部2は、
認識履歴情報52Aを参照して、既に同日の前の時刻で特定された登録者を、時刻分布情
報に関わらず照合順序の下位にしてもよい。例えば、画像認識システム100を入退場管
理システムに適用した場合、入場の時間帯には、登録者の殆どが入口近傍に設置されたカ
メラ12によって1回ずつ撮影される。入場時間帯において既に特定された登録者が再び
カメラ12によって撮影される可能性は非常に低いので、この登録者の時刻分布情報には
関係なく照合順位を下位にして、より一層の効率化と高速化を図ることができる。
また、画像認識処理を開始する際に、画像認識装置1が撮影装置10に対して撮影画像
の出力を指示する制御情報を送信し、この制御情報に応じて撮影制御部11が撮影画像を
画像認識装置1に出力してもよい。
また、制御部2は、画像認識処理を行う毎に時刻分布情報を生成する(ステップS13
)ものとして説明したが、画像認識処理を行う前に時刻分布情報を生成し、時刻分布情報
記憶部53に記憶させてもよい。この場合、より一層の画像認識処理の高速化を図ること
ができる。
In the image recognition process, when the collation order is determined in step S14, the control unit 2
With reference to the recognition history information 52A, a registrant who has already been identified at a time before the same day may be placed in a lower order in the collation order regardless of the time distribution information. For example, when the image recognition system 100 is applied to an entrance / exit management system, most of the registrants are photographed once by the camera 12 installed near the entrance during the entrance time zone. Since it is very unlikely that a registrant who has already been identified in the entrance time zone will be photographed by the camera 12 again, the collation order will be lowered regardless of the time distribution information of the registrant, thereby further improving efficiency. The speed can be increased.
Further, when starting the image recognition processing, the image recognition apparatus 1 transmits control information for instructing the photographing apparatus 10 to output a photographed image, and the photographing control unit 11 captures the photographed image according to the control information. You may output to the recognition apparatus 1.
Moreover, the control part 2 produces | generates time distribution information, whenever it performs an image recognition process (step S13).
The time distribution information may be generated and stored in the time distribution information storage unit 53 before performing the image recognition process. In this case, it is possible to further speed up the image recognition process.

なお、画像認識装置1は、画像認識処理において特定した登録者の名前等を、撮影画像
にメタデータとして付加してもよい。ここで生成されるメタデータは、文字で表現される
情報(いわゆるテキストデータ)であるから、静止画像や動画像のデータに比べて高速に
検索できる。このため、画像にメタデータを付与すると画像の検索および抽出が格段に容
易になり、画像管理の負担が軽減されるという利点がある。
Note that the image recognition apparatus 1 may add the name of the registrant specified in the image recognition process as metadata to the captured image. Since the metadata generated here is information expressed by characters (so-called text data), it can be searched at a higher speed than still image and moving image data. For this reason, when metadata is added to an image, there is an advantage that the search and extraction of the image becomes much easier and the burden of image management is reduced.

[第2の実施形態]
以下、第2の実施形態に係る画像認識装置1について説明する。本第2の実施形態に係
る画像認識装置1の構成は、上記第1の実施形態で説明したものと同様であるから、共通
する構成部に同符号を付すことにより説明を省略する。
本第2の実施形態に係る画像認識装置1は、画像認識処理において、照合順位の下位の
登録者を選択した場合に、認識方法を、より高精度で信頼性の高い方法に変更する。
認識方法を変更する動作としては、例えば、撮影画像から検出された顔画像と登録者の
顔画像との特徴を照合するアルゴリズムを変更する動作、照合の際に用いるパラメータを
変更する動作が挙げられる。また、通常は一台のカメラ12により撮影された一枚の撮影
画像について画像認識処理を行うのに対し、複数のカメラ12により撮影された複数の画
像からそれぞれ顔画像を検出して、これら複数の顔画像を選択した登録者と照合するよう
に変更してもよい。
[Second Embodiment]
Hereinafter, the image recognition apparatus 1 according to the second embodiment will be described. Since the configuration of the image recognition apparatus 1 according to the second embodiment is the same as that described in the first embodiment, the description is omitted by assigning the same reference numerals to the common components.
In the image recognition processing, the image recognition apparatus 1 according to the second embodiment changes the recognition method to a more accurate and reliable method when a lower-order registrant is selected in the image recognition process.
The operation for changing the recognition method includes, for example, an operation for changing an algorithm for comparing features of a face image detected from a photographed image and a registrant's face image, and an operation for changing a parameter used for the comparison. . In addition, image recognition processing is usually performed on a single photographed image taken by one camera 12, whereas face images are detected from a plurality of images taken by a plurality of cameras 12, respectively. The face image may be changed so as to collate with the selected registrant.

画像認識システム100をセキュリティに関係する用途で利用する場合には、認識精度
が高いほど良いが、認識精度の高い方法は処理の負荷が高いために時間がかかってしまう
。そこで、本第2の実施形態に係る画像認識システム100は、照合順位の下位の登録者
を選択した場合にのみ、認識方法を変更する。照合順位が下位の登録者は、その撮影時刻
に撮影される確率が低いといえる。言い換えれば、照合順位が高い登録者が、その撮影時
刻に撮影されることは自然であり、照合順位が下位の登録者が、その撮影時刻に撮影され
ることは不自然であるということができる。従って、照合順位の下位の登録者を選択した
場合にのみ認識方法を高精度の方法に変更すれば、画像認識処理の長時間化を回避しつつ
、信頼性を向上させることができる。
When the image recognition system 100 is used for security-related applications, the higher the recognition accuracy, the better. However, a method with high recognition accuracy takes a long time because the processing load is high. Therefore, the image recognition system 100 according to the second embodiment changes the recognition method only when a registrant with a lower collation order is selected. It can be said that a registrant whose collation order is low has a low probability of being photographed at the photographing time. In other words, it can be said that a registrant with a high collation order is photographed at the photographing time, and a registrant with a lower collation order is unnatural at the photographing time. . Therefore, if the recognition method is changed to a high-accuracy method only when a registrant having a lower collation order is selected, reliability can be improved while avoiding a long image recognition process.

図6は、第2の実施形態に係る画像認識システム100の動作を示すフローチャートで
あり、詳細には、画像認識装置1が実行する画像認識処理を示す。
この図6に示す画像認識処理において、制御部2は、撮影装置10から入力された撮影
画像と、この撮影画像の撮影時刻を取得し(ステップS21)、取得した撮影画像から顔
画像を検出する(ステップS22)。このステップS22の処理は、上述したステップS
12(図5)と同様である。
続いて、制御部2は、認識履歴情報52Aに含まれる情報を演算することにより、各登
録者の時刻分布情報を生成して時刻分布情報記憶部53に記憶させる(ステップS23)
。ここで生成した時刻分布情報をもとに、制御部2は、ステップS21で取得した撮影時
刻に撮影される確率が高い順に、各登録者の照合順序を決定する(ステップS24)。
FIG. 6 is a flowchart showing an operation of the image recognition system 100 according to the second embodiment, and specifically shows an image recognition process executed by the image recognition apparatus 1.
In the image recognition process shown in FIG. 6, the control unit 2 acquires a captured image input from the imaging device 10 and a capturing time of the captured image (step S <b> 21), and detects a face image from the acquired captured image. (Step S22). The process of step S22 is the same as step S22 described above.
12 (FIG. 5).
Subsequently, the control unit 2 calculates the information included in the recognition history information 52A, thereby generating time distribution information for each registrant and storing it in the time distribution information storage unit 53 (step S23).
. Based on the time distribution information generated here, the control unit 2 determines the collation order of each registrant in descending order of the probability of being photographed at the photographing time acquired in step S21 (step S24).

その後、制御部2は、決定した照合順序に従って一人の登録者を選択し(ステップS2
5)、選択した登録者の顔画像の特徴に関する情報を認識用DB51から読み出して、読
み出した情報とステップS22で検出した顔画像とを照合し(ステップS26)、顔画像
の特徴が一致するか否かを判別する(ステップS27)。
ここで、顔画像の特徴が一致しなかった場合(ステップS27;No)、制御部2は、
照合順位のn位の登録者(nは予め設定された自然数)までの照合が済んだか否かを判別
する(ステップS28)。そして、n位の登録者までの照合が済んでいなければ、制御部
2はステップS25に戻って、照合順位に従って次の登録者を選択し、再び照合を行う。
一方、照合順位の上位n人の照合が済んでいる場合(ステップS28;No)、制御部
2は、認識方法を変更する(ステップS29)。この認識方法の変更は、上述したように
高精度な認識方法への変更である。その後、制御部2はステップSS25に戻って、照合
順位に従って次の登録者を選択し、照合を行う。
Thereafter, the control unit 2 selects one registrant according to the determined collation order (step S2
5) Information related to the feature of the face image of the selected registrant is read from the recognition DB 51, and the read information and the face image detected in step S22 are collated (step S26). It is determined whether or not (step S27).
Here, when the features of the face image do not match (step S27; No), the control unit 2
It is determined whether or not collation has been completed up to the nth registered person in the collation order (n is a preset natural number) (step S28). If the collation up to the nth registrant has not been completed, the control unit 2 returns to step S25, selects the next registrant in accordance with the collation order, and collates again.
On the other hand, when the collation of the top n persons in the collation order has been completed (step S28; No), the control unit 2 changes the recognition method (step S29). This change in the recognition method is a change to a highly accurate recognition method as described above. Then, the control part 2 returns to step SS25, selects the next registrant according to collation order, and performs collation.

また、顔画像の特徴が一致した場合(ステップS27;Yes)、制御部2は、撮影画
像に写っている人物が選択している登録者であると特定して、特定した登録者の名前等を
出力部7によって出力し(ステップS30)、この登録者に対応する認識履歴情報52A
を更新して(ステップS31)、画像認識処理を終了する。
If the features of the face image match (step S27; Yes), the control unit 2 specifies that the person shown in the captured image is the selected registrant, and specifies the name of the specified registrant. Is output by the output unit 7 (step S30), and the recognition history information 52A corresponding to this registrant.
Is updated (step S31), and the image recognition process is terminated.

以上のように、第2の実施形態に係る画像認識システム100においては、撮影装置1
0により撮影した撮影画像について、画像認識装置1が画像認識処理を実行し、撮影画像
に写っている人物を特定する。この画像認識処理において、画像認識装置1は、時刻分布
情報記憶部53に記憶された時刻分布情報をもとに、撮影時刻と同時刻において各登録者
が撮影される確率が高い順に登録者の照合順位を決定し、この照合順位に従って登録者を
選択しながら、撮影画像で検出した顔画像と、複数の登録者の顔画像とを照合する。
さらに、画像認識装置1は、照合順位の上位n人の照合が終わっても顔画像の人物が特
定されない場合に、認識方法を変更して高精度の認識を実行する。
これにより、撮影時刻において撮影される確率が低い登録者を照合する場合の認識精度
を高めることで、より確実な画像認識を行い、高い信頼性を確保できる。また、認識精度
が高い認識方法を適用する登録者を、照合順位の下位に限定することで、画像認識処理の
長時間化を回避しつつ、信頼性の向上を図ることができる。
なお、nに関しては常に同じ値を用いるのではなく、状況に応じて変化させてもよいし
、nを規定することなく、その時刻における撮影確率が一定以下になる候補者に関して、
照合方法を変化させるようにしてもよい。例えば、ある時刻の照合順序が登録者A、B、
C、Dの順序となっており、過去の撮影時刻の分布から算出された確率が登録者Aは35
%、登録者Bは30%、登録者Cは25%、登録者Dは10%の場合には、算出された確
率の差が大きい照合順位第4位の登録者Dから照合方法を変更する。
一方、ある時刻の照合順序が同様に登録者A、B、C、Dの順序となっており、過去の
撮影時刻の分布から算出された確率が登録者Aは90%、登録者Bは7%、登録者Cは2
%、登録者Dは1%の場合には、照合順位第2位から第4位はほぼ同程度の確率とみなし
、照合順位第2位の登録者Bから照合方法を変更する。
As described above, in the image recognition system 100 according to the second embodiment, the imaging device 1
The image recognition apparatus 1 executes an image recognition process on the photographed image photographed by 0, and specifies a person shown in the photographed image. In this image recognition process, the image recognition device 1 uses the time distribution information stored in the time distribution information storage unit 53 to determine the registrants in descending order of probability that each registrant will be photographed at the same time as the photographing time. A collation order is determined, and a registrant is selected according to the collation order, and the face image detected in the captured image is collated with the face images of a plurality of registrants.
Furthermore, the image recognition apparatus 1 changes the recognition method and executes highly accurate recognition when the person of the face image is not specified even after the collation of the top n persons in the collation order is completed.
Thereby, by increasing the recognition accuracy in the case of collating registrants with a low probability of being photographed at the photographing time, more reliable image recognition can be performed and high reliability can be ensured. Further, by limiting the registrants who apply the recognition method with high recognition accuracy to the lower rank of the collation order, it is possible to improve the reliability while avoiding a long image recognition process.
It should be noted that the same value is not always used for n, but may be changed according to the situation. For a candidate whose shooting probability at that time is less than a fixed value without specifying n,
The verification method may be changed. For example, the collation order at a certain time is registrant A, B,
In the order of C and D, the probability calculated from the distribution of the past shooting times is 35 for the registrant A.
%, The registrant B is 30%, the registrant C is 25%, and the registrant D is 10%. .
On the other hand, the collation order at a certain time is the order of registrants A, B, C, and D, and the probability calculated from the distribution of the past shooting times is 90% for registrant A and 7 for registrant B. %, Registrant C is 2
% And the registrant D is 1%, the collation ranking second to fourth is regarded as almost the same probability, and the collation method is changed from the registrant B second in the collation ranking.

[第3の実施形態]
次に、第3の実施形態に係る画像認識装置1について説明する。本第3の実施形態に係
る画像認識システム100の構成は、上記第1の実施形態で説明したものとほぼ同様であ
るから、共通する構成部に同符号を付すことにより説明を省略する。
本第3の実施形態に係る画像認識装置1は、画像認識処理において、複数の登録者が属
するグループを単位として、撮影時間と撮影される確率との関連を示すグループ毎時刻分
布情報を求め、このグループ毎時刻分布情報に基づいてグループ毎の照合順位を決定する
。照合を行う際には、グループ毎の照合順位に従ってグループを選択し、そのグループに
属する登録者を順次選択して照合する。
[Third Embodiment]
Next, an image recognition apparatus 1 according to the third embodiment will be described. Since the configuration of the image recognition system 100 according to the third embodiment is substantially the same as that described in the first embodiment, description thereof will be omitted by attaching the same reference numerals to the common components.
In the image recognition processing, the image recognition device 1 according to the third embodiment obtains time distribution information for each group indicating the relationship between the shooting time and the probability of shooting in units of groups to which a plurality of registrants belong. The collation order for each group is determined based on the time distribution information for each group. When collating, a group is selected according to the collation order for each group, and registrants belonging to the group are sequentially selected and collated.

図7は、第3の実施形態に係る記憶部5の構成例を示す図である。
この図7に示すように、第3の実施形態における記憶部5は、認識用DB51、認識履
歴情報記憶部52、時刻分布情報記憶部53に加え、登録者グループ情報記憶部54、お
よびグループ毎時刻分布情報記憶部55を有する。
登録者グループ情報記憶部54は、認識用DB51に情報が格納された登録者をグルー
プに分類するための情報を記憶する。登録者グループ情報記憶部54に記憶された情報に
より、各登録者が属するグループが定められる。なお、本第3の実施形態では全ての登録
者がいずれかのグループに属する場合を例に挙げて説明するが、例えば、一部の登録者が
グループに属しないものとしてもよい。この場合は、グループに属しない登録者を便宜的
に「所属なし」という一つのグループに属させてもよいし、グループ毎の処理とは別に処
理してもよい。
FIG. 7 is a diagram illustrating a configuration example of the storage unit 5 according to the third embodiment.
As shown in FIG. 7, the storage unit 5 in the third embodiment includes a registrant group information storage unit 54, a group for each group, in addition to the recognition DB 51, the recognition history information storage unit 52, and the time distribution information storage unit 53. A time distribution information storage unit 55 is included.
The registrant group information storage unit 54 stores information for classifying registrants whose information is stored in the recognition DB 51 into groups. The group to which each registrant belongs is determined by the information stored in the registrant group information storage unit 54. In the third embodiment, a case where all registrants belong to one of the groups will be described as an example. However, for example, some registrants may not belong to the group. In this case, a registrant who does not belong to the group may belong to one group “not affiliated” for convenience, or may be processed separately from the processing for each group.

図8は、グループ毎時刻分布情報記憶部55に記憶されるグループ毎時刻分布情報の概
要を説明する図である。
画像認識装置1は、登録者グループ情報記憶部54に記憶された情報に基づいて、ある
グループに属する全ての登録者を検出し、検出した全ての登録者に対応する認識履歴情報
を認識履歴情報記憶部52から読み出して、グループ毎の時刻分布情報を生成する。生成
したグループ毎時刻分布情報は、例えば、図8(A)に示す確率分布として表される。
図8(A)には、グループPとグループQの2つのグループについて、グループ毎時刻
分布情報を図示する。グループPに属する登録者が撮影される確率は、午前7時30分前
後から午前8時30分過ぎに跨って分布している。また、グループQに属する登録者が撮
影される確率は、午前8時頃から午前9時過ぎに跨って分布している。このため、例えば
撮影時刻が午前8時の場合の照合順位はグループPが上位となり、撮影時刻が午前9時の
場合の照合順位はグループQが上位となる。
FIG. 8 is a diagram illustrating an overview of the group time distribution information stored in the group time distribution information storage unit 55.
The image recognition apparatus 1 detects all registrants belonging to a certain group based on information stored in the registrant group information storage unit 54, and recognizes recognition history information corresponding to all detected registrants as recognition history information. Read from the storage unit 52 to generate time distribution information for each group. The generated time distribution information for each group is represented, for example, as a probability distribution shown in FIG.
FIG. 8A shows group time distribution information for two groups, group P and group Q. The probability that a registrant belonging to the group P is photographed is distributed from around 7:30 am to past 8:30 am. Further, the probability that a registrant belonging to the group Q is photographed is distributed from about 8 am to after 9 am. For this reason, for example, when the shooting time is 8:00 am, the group P is ranked higher in the collation order, and when the shooting time is 9:00 am, the group Q is ranked higher.

ところで、画像認識システム100においては、外的な要因で、何人かの登録者が過去
の認識時刻から大幅にずれた時刻に撮影されることがある。
例えば、画像認識システム100を入退場管理システムとして利用し、建物や部屋の入
口に設けたカメラ12により撮影した撮影画像を認識して、登録者の入退場を管理する場
合、多数の登録者が利用する交通機関が事故等により大幅に遅延すると、この交通機関を
利用する登録者の入場時刻は、揃って通常より遅い時刻になる。そこで、同じ交通機関を
経由する登録者を同じグループに分類すれば、一つのグループに属する全ての登録者の入
場時刻が遅れることになる。また、他のグループに属する登録者の入場時刻は影響を受け
ず、通常と同じ時刻になることが考えられる。
By the way, in the image recognition system 100, some registrants may be photographed at a time significantly deviated from the past recognition time due to an external factor.
For example, when the image recognition system 100 is used as an entrance / exit management system and a photographed image taken by a camera 12 provided at the entrance of a building or room is recognized to manage entry / exit of registrants, many registrants are registered. If the transportation system to be used is greatly delayed due to an accident or the like, the registrants who use this transportation system will enter the time later than usual. Therefore, if registrants who pass through the same transportation system are classified into the same group, the admission times of all registrants belonging to one group will be delayed. In addition, it is conceivable that the entry times of registrants belonging to other groups are not affected and become the same time as usual.

そこで、画像認識装置1は、特定のグループに属する登録者が撮影される時刻が、外的
な要因によって、過去の認識時刻とは大幅に異なることが想定される場合、入力部6から
の指示入力に応じて、該当するグループに属する登録者の照合順序を変化させる。
例えば、図8(A)に示すグループP,Qのうち、グループPに属する登録者の撮影時
刻が過去の認識時刻に比べて遅れることが予想される場合、入力部6によってグループP
の時刻が遅れる旨が入力される。画像認識装置1は、この指示入力に応じて、グループP
の時刻分布情報を、図8(B)に示すように遅い時刻にシフトさせる。
この図8(B)に示す状態では、例えば撮影時刻が午前8時の場合の照合順序は、グル
ープQが上位となり、撮影時刻が午前9時の場合の照合順位もグループQが上位となる。
Therefore, the image recognition apparatus 1 instructs the input unit 6 when the time when a registrant belonging to a specific group is photographed is significantly different from the past recognition time due to an external factor. In response to the input, the collation order of the registrants belonging to the corresponding group is changed.
For example, if it is expected that the photographing time of the registrant belonging to the group P out of the groups P and Q shown in FIG.
The fact that the time is delayed is input. In response to this instruction input, the image recognition apparatus 1 receives the group P.
The time distribution information is shifted to a later time as shown in FIG.
In the state shown in FIG. 8B, for example, the collation order when the shooting time is 8:00 am is higher in the group Q, and the collation order when the shooting time is 9:00 am is also higher in the group Q.

さらに、その後の外的要因の変化により、グループPに属する登録者が撮影される時刻
の遅れが、最初に入力部6により入力した指示よりも小さい場合、グループPに属する登
録者が撮影される時刻は図8(B)の状態よりも早まる。この場合、入力部6によって再
び指示入力を行えば、グループPの時刻分布情報は図8(C)に示すように変化する。
この図8(C)に示す状態では、例えば撮影時刻が午前8時の場合の照合順序は、グル
ープQが上位となり、撮影時刻が午前9時の場合の照合順位はグループPが上位となる。
このように、画像認識装置1は、入力部6からの指示入力に応じて、グループ毎時刻分
布情報を時間軸上でシフトさせる。具体的な処理としては、入力部6によってグループ毎
時刻分布情報をシフトさせる対象のグループと、シフトさせる時間幅とが指示されると、
制御部2は、指示されたグループに対応してグループ毎時刻分布情報記憶部55に記憶さ
れたグループ毎時刻分布情報を更新する。この更新が行われた後に撮影装置10から入力
される撮影画像を認識する場合には、更新後のグループ毎時刻分布情報に基づいて照合順
位が決定される。
これにより、画像認識装置1は、撮影時間と撮影される確率との関連が外的要因に基づ
いて変化する場合に、適切な照合順位を決定できる。また、登録者毎に照合順序を変更す
る処理を行うと、登録者の数が多い場合に処理の負荷が過大となるおそれがあるが、グル
ープ毎に処理を行うことで、処理の負荷を抑えることができ、結果として大幅な効率化を
図ることができる。
なお、上記第3の実施形態においては入力部6からの指示入力に応じて、該当するグル
ープに属する登録者の照合順序を変化させる構成としたが、画像認識装置1が自動的に外
的要因の変化を推定し、推定結果に基づいて照合順位をシフトするようにしてもよい。こ
の場合、画像認識装置1の制御部2は、推定手段として機能する。また、この場合に、外
的要因の変化に関する情報が、図示しない外部の機器から外部I/F8を介して画像認識
装置10へ入力される構成としてもよい。具体的には、外部I/F8に接続された通信回
線を介して、外部のサーバ装置から定期的に情報を取得して、取得した情報をもとに外的
要因の変化を推定する構成とすればよい。
Furthermore, when the delay of the time when the registrant belonging to the group P is photographed is smaller than the instruction first input by the input unit 6 due to a change in the external factor thereafter, the registrant belonging to the group P is photographed. The time is earlier than the state of FIG. In this case, if an instruction is input again by the input unit 6, the time distribution information of the group P changes as shown in FIG.
In the state shown in FIG. 8C, for example, in the collation order when the shooting time is 8:00 am, the group Q is higher, and in the collation order when the shooting time is 9:00 am, the group P is higher.
As described above, the image recognition apparatus 1 shifts the time distribution information for each group on the time axis in response to an instruction input from the input unit 6. As a specific process, when a group to which the time distribution information for each group is shifted and a time width to be shifted are instructed by the input unit 6,
The control unit 2 updates the group time distribution information stored in the group time distribution information storage unit 55 corresponding to the instructed group. When recognizing a photographed image input from the photographing apparatus 10 after this update is performed, the collation order is determined based on the updated time distribution information for each group.
Thereby, the image recognition apparatus 1 can determine an appropriate collation order when the relationship between the shooting time and the probability of shooting changes based on an external factor. Also, if the process of changing the collation order for each registrant is performed, the processing load may become excessive when the number of registrants is large, but the processing load is suppressed by performing the process for each group. As a result, significant efficiency can be achieved.
In the third embodiment, the collation order of the registrants belonging to the corresponding group is changed in response to an instruction input from the input unit 6, but the image recognition apparatus 1 automatically performs external factors. May be estimated, and the collation order may be shifted based on the estimation result. In this case, the control unit 2 of the image recognition apparatus 1 functions as an estimation unit. In this case, information regarding changes in external factors may be input to the image recognition apparatus 10 from an external device (not shown) via the external I / F 8. Specifically, a configuration in which information is periodically acquired from an external server device via a communication line connected to the external I / F 8, and changes in external factors are estimated based on the acquired information. do it.

図9は、第3の実施形態に係る画像認識システム100の動作を示すフローチャートで
あり、詳細には、画像認識装置1が実行する画像認識処理を示す。この図9に示す画像認
識処理の実行時、入力部6は指示手段として機能する。
制御部2は、撮影装置10から入力された撮影画像と、この撮影画像の撮影時刻を取得
し(ステップS41)、取得した撮影画像から顔画像を検出する(ステップS42)。こ
のステップS42の処理は、上述したステップS12(図5)と同様である。
続いて、制御部2は、登録者グループ情報記憶部54を参照して各グループに属する登
録者を取得し、各グループに属する登録者について認識履歴情報52Aに含まれる情報を
演算することにより、グループ毎の時刻分布情報を生成してグループ毎時刻分布情報記憶
部55に記憶させる(ステップS43)。ここで生成したグループ毎時刻分布情報をもと
に、制御部2は、ステップS41で取得した撮影時刻に撮影される確率が高い順に、各グ
ループの照合順序を決定する(ステップS44)。
FIG. 9 is a flowchart showing an operation of the image recognition system 100 according to the third embodiment, and specifically shows an image recognition process executed by the image recognition apparatus 1. When the image recognition process shown in FIG. 9 is executed, the input unit 6 functions as an instruction unit.
The control unit 2 acquires the captured image input from the imaging device 10 and the capturing time of the captured image (step S41), and detects a face image from the acquired captured image (step S42). The process in step S42 is the same as that in step S12 (FIG. 5) described above.
Subsequently, the control unit 2 refers to the registrant group information storage unit 54, acquires registrants belonging to each group, and calculates information included in the recognition history information 52A for the registrants belonging to each group, Time distribution information for each group is generated and stored in the time distribution information storage unit 55 for each group (step S43). Based on the time distribution information for each group generated here, the control unit 2 determines the collation order of the groups in descending order of the probability of being photographed at the photographing time acquired in step S41 (step S44).

その後、制御部2は、決定した照合順序に従って一つのグループを選択し(ステップS
45)、選択したグループに属する登録者から一人の登録者を選択する(ステップS46
)。制御部2は、選択した登録者の顔画像の特徴に関する情報を認識用DB51から読み
出し、読み出した情報と、ステップS42で検出した顔画像とを照合し(ステップS47
)、顔画像の特徴が一致するか否かを判別する(ステップS48)。
ここで、顔画像の特徴が一致しなかった場合(ステップS48;No)、制御部2は、
現在選択しているグループに属する全ての登録者について、照合が済んだか否かを判別す
る(ステップS49)。選択しているグループに属する登録者のうち、照合されていない
登録者がいる場合は(ステップS49;No)、制御部2はステップS46に戻り、選択
しているグループに属する別の登録者を選択して、照合を続ける。一方、現在選択してい
るグループに属する全ての登録者の照合が済んでいる場合(ステップS49;Yes)、
制御部2はステップS45に戻り、照合順序に従って次のグループを選択する。
Thereafter, the control unit 2 selects one group according to the determined collation order (step S
45) One registrant is selected from the registrants belonging to the selected group (step S46).
). The control unit 2 reads out information on the characteristics of the selected registrant's face image from the recognition DB 51, and collates the read information with the face image detected in step S42 (step S47).
), It is determined whether or not the features of the face image match (step S48).
Here, when the features of the face image do not match (step S48; No), the control unit 2
It is determined whether or not collation has been completed for all registrants belonging to the currently selected group (step S49). When there is a registrant who is not collated among the registrants belonging to the selected group (step S49; No), the control unit 2 returns to step S46 and selects another registrant belonging to the selected group. Select and continue verification. On the other hand, if all the registrants belonging to the currently selected group have been verified (step S49; Yes),
The control unit 2 returns to step S45 and selects the next group according to the collation order.

そして、顔画像の特徴が一致した場合(ステップS48;Yes)、制御部2は、撮影
画像に写っている人物が選択している登録者であると特定して、特定した登録者の名前等
を出力部7によって出力し(ステップS50)、この登録者に対応する認識履歴情報52
Aを更新して(ステップS51)、画像認識処理を終了する。
If the features of the face image match (step S48; Yes), the control unit 2 specifies that the person shown in the captured image is the selected registrant, and specifies the name of the specified registrant. Is output by the output unit 7 (step S50), and the recognition history information 52 corresponding to the registrant is output.
A is updated (step S51), and the image recognition process is terminated.

以上のように、第3の実施形態に係る画像認識システム100においては、撮影装置1
0により撮影した撮影画像について、画像認識装置1が画像認識処理を実行し、撮影画像
に写っている人物を特定する。この画像認識処理において、画像認識装置1は、複数の登
録者をグループ化し、各グループに属する登録者の時刻分布情報をもとに、グループ毎に
時刻分布情報を生成し、このグループ毎時刻分布情報に従ってグループ毎の照合順位を決
定する。そして、グループ毎の照合順位に従ってグループを選択し、選択したグループに
属する登録者を順次選択しながら、撮影画像で検出した顔画像と、複数の登録者の顔画像
とを照合する。これにより、撮影時刻と撮影される確率との関連が共通または近似してい
る登録者をまとめて処理することで、処理の負荷を軽減し、効率化および高速化を図るこ
とができる。
As described above, in the image recognition system 100 according to the third embodiment, the imaging device 1
The image recognition apparatus 1 executes an image recognition process on the photographed image photographed by 0, and specifies a person shown in the photographed image. In this image recognition processing, the image recognition apparatus 1 groups a plurality of registrants, generates time distribution information for each group based on time distribution information of registrants belonging to each group, and this time distribution for each group. The collation order for each group is determined according to the information. Then, a group is selected according to the collation order for each group, and the face image detected from the photographed image and the face images of a plurality of registrants are collated while sequentially selecting registrants belonging to the selected group. Thus, by processing together registrants whose relationship between the shooting time and the probability of shooting is common or approximate, the processing load can be reduced, and efficiency and speed can be increased.

さらに、画像認識装置1は、外的な要因によって、特定のグループに属する登録者が撮
影される時刻が過去の認識時刻とは大幅に異なることが想定される場合、入力部6からの
指示入力に応じて、該当するグループに属する登録者の照合順序を変化させる。撮影時間
と撮影される確率との関連が外的要因に基づいて変化する場合に、適切な照合順位を決定
できる。これにより、画像認識装置1は、撮影時間と撮影される確率との関連が外的要因
に基づいて変化する場合に、適切な照合順位を決定できる。また、登録者毎に照合順序を
変更する処理を行うと、特に登録者の数が多い場合に処理の負荷が過大となるおそれがあ
るが、グループ毎に処理を行うことで大幅な省力化を図ることができる。
Further, when it is assumed that the time when a registrant belonging to a specific group is photographed is significantly different from the past recognition time due to external factors, the image recognition device 1 inputs an instruction from the input unit 6. The collation order of registrants belonging to the corresponding group is changed accordingly. When the relationship between the shooting time and the probability of shooting changes based on external factors, an appropriate collation order can be determined. Thereby, the image recognition apparatus 1 can determine an appropriate collation order when the relationship between the shooting time and the probability of shooting changes based on an external factor. Also, if the process of changing the collation order for each registrant is performed, the processing load may become excessive, especially when the number of registrants is large, but significant labor savings can be achieved by performing the process for each group. Can be planned.

なお、上記第1から第3の実施形態において、撮影画像から検出した顔画像と一致する
登録者がいない場合に、表示画面71等を用いて、登録者と該当しない旨を報知するよう
にしてもよい。また、上記第1から第3の実施形態では、撮影装置10が2台のカメラ1
2を備える構成としたが、カメラ12の数等は任意である。また、これら複数のカメラ1
2が具体的に設置される場所は任意であり、異なる角度で一つの場所を撮影するよう設置
されてもよいし、異なる場所を撮影するよう設置されてもよい。さらに、この場合、撮影
制御部11は、複数のカメラ12がそれぞれ撮影した撮影画像を、画像認識装置1に対し
て順次出力してもよいし、複数のカメラ12により撮影された撮影画像のうち1の撮影画
像を選択して画像認識装置1に出力してもよい。
In the first to third embodiments, when there is no registrant that matches the face image detected from the photographed image, the display screen 71 or the like is used to notify that the registrant is not applicable. Also good. In the first to third embodiments, the photographing apparatus 10 includes two cameras 1.
However, the number of cameras 12 is arbitrary. These multiple cameras 1
The place where 2 is specifically installed is arbitrary, and may be installed so as to photograph one place at a different angle, or may be installed so as to photograph a different place. Furthermore, in this case, the shooting control unit 11 may sequentially output the shot images shot by the plurality of cameras 12 to the image recognition apparatus 1, or out of the shot images shot by the plurality of cameras 12. One captured image may be selected and output to the image recognition apparatus 1.

さらに、上記第1から第3の実施形態に係る画像認識システム100は、デジタルカメ
ラに接続され、或いはデジタルカメラを内蔵する電子機器に適用可能である。この場合、
デジタルカメラ本体に画像認識装置1の機能を実装することで、一台のデジタルカメラで
画像認識システム100を構成することも可能である。また、画像認識装置1に対してカ
メラ以外の画像入力装置を接続する構成とすることも可能であり、この場合、画像認識装
置1に対して、外部インタフェース8または入力部6を介して、入力される画像の撮影時
刻を入力すればよい。
その他、画像認識装置1を構成する各部の具体的な細部構成については、本発明の趣旨
を逸脱しない範囲において、任意に変更可能である。
Furthermore, the image recognition system 100 according to the first to third embodiments can be applied to an electronic device connected to a digital camera or incorporating a digital camera. in this case,
By mounting the function of the image recognition apparatus 1 on the digital camera body, the image recognition system 100 can be configured with a single digital camera. It is also possible to connect an image input device other than a camera to the image recognition device 1, and in this case, input to the image recognition device 1 via the external interface 8 or the input unit 6. What is necessary is just to input the imaging time of the image to be performed.
In addition, the specific detailed configuration of each part constituting the image recognition apparatus 1 can be arbitrarily changed without departing from the gist of the present invention.

第1の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment. 記憶部の構成を模式的に示す図である。It is a figure which shows the structure of a memory | storage part typically. 認識履歴情報の構成例を模式的に示す図である。It is a figure which shows the structural example of recognition history information typically. 時刻分布情報の概要を説明する図である。It is a figure explaining the outline | summary of time distribution information. 画像認識処理を示すフローチャートである。It is a flowchart which shows an image recognition process. 第2の実施形態における画像認識処理を示すフローチャートである。It is a flowchart which shows the image recognition process in 2nd Embodiment. 第3の実施形態に係る記憶部の構成例を示す図である。It is a figure which shows the structural example of the memory | storage part which concerns on 3rd Embodiment. グループ毎時刻分布情報の概要を説明する図である。It is a figure explaining the outline | summary of time distribution information for every group. 第3の実施形態における画像認識処理を示すフローチャートである。It is a flowchart which shows the image recognition process in 3rd Embodiment.

符号の説明Explanation of symbols

1…画像認識装置、2…制御部(検出手段、照合手段、制御手段、推定手段)、3…R
OM、4…RAM、5,5A…記憶部、6…入力部(指示手段)、7…出力部、8…外部
インタフェース、10…撮影装置、11…撮影制御部、12…カメラ、31…制御プログ
ラム、51…認識用DB、52…認識履歴情報記憶部(履歴情報記憶手段)、52A…認
識履歴情報、53…時刻分布情報記憶部、54…登録者グループ情報記憶部、55…グル
ープ毎時刻分布情報記憶部、71…表示画面、100…画像認識システム。
DESCRIPTION OF SYMBOLS 1 ... Image recognition apparatus, 2 ... Control part (Detection means, collation means, control means, estimation means), 3 ... R
OM, 4 ... RAM, 5, 5A ... storage unit, 6 ... input unit (instruction means), 7 ... output unit, 8 ... external interface, 10 ... imaging device, 11 ... imaging control unit, 12 ... camera, 31 ... control Program, 51 ... DB for recognition, 52 ... Recognition history information storage unit (history information storage means), 52A ... Recognition history information, 53 ... Time distribution information storage unit, 54 ... Registrant group information storage unit, 55 ... Time per group Distribution information storage unit, 71 ... display screen, 100 ... image recognition system.

Claims (10)

撮影画像からオブジェクト画像を検出する検出手段と、
前記検出手段により検出された前記オブジェクト画像について、予め用意された複数の
候補オブジェクトの画像との照合を行うことにより、前記オブジェクト画像がどの前記候
補オブジェクトの画像であるかを特定する照合手段と、
前記照合手段によって複数の前記候補オブジェクトの画像を照合する際の照合順序を制
御する制御手段と、を備え、
前記制御手段は、各々の前記候補オブジェクトが撮影される確率と撮影時刻との関連を
示す情報と、前記撮影画像の撮影時刻情報とに基づいて、複数の前記候補オブジェクトの
照合順序を決定すること、
を特徴とする画像認識装置。
Detection means for detecting an object image from the captured image;
Collating means for identifying which candidate object image the object image is by comparing the object image detected by the detecting means with images of a plurality of candidate objects prepared in advance;
Control means for controlling the collation order when collating the images of the plurality of candidate objects by the collating means,
The control means determines a collation order of the plurality of candidate objects based on information indicating a relationship between a probability that each candidate object is shot and a shooting time, and shooting time information of the shot image. ,
An image recognition apparatus.
各々の前記候補オブジェクトが過去に撮影された時刻情報を記憶する履歴情報記憶手段
を備え、
前記制御手段は、前記履歴情報記憶手段に記憶された情報に基づいて、前記各々の前記
候補オブジェクトが撮影される確率と撮影時刻との関連を示す情報を生成し、この情報に
基づいて、前記候補オブジェクトの照合順序を決定すること、
を特徴とする請求項1記載の画像認識装置。
History information storage means for storing time information when each of the candidate objects was photographed in the past,
The control means generates information indicating the relationship between the probability that each of the candidate objects is shot and the shooting time based on the information stored in the history information storage means, and based on the information, Determining the collation order of candidate objects,
The image recognition apparatus according to claim 1.
前記照合手段は複数種類の照合処理を実行可能であり、
前記各々の前記候補オブジェクトが撮影される確率と撮影時刻との関連を示す情報と、
前記撮影画像の撮影時刻情報とに基づいて、前記照合処理の種類を変更すること、
を特徴とする請求項1または2記載の画像認識装置。
The collation means can execute a plurality of types of collation processing,
Information indicating the relationship between the probability that each of the candidate objects is shot and the shooting time;
Changing the type of the matching process based on the shooting time information of the shot image;
The image recognition apparatus according to claim 1 or 2.
複数の前記候補オブジェクトは複数のグループに分類されており、
前記照合手段は、複数の前記グループから一つの前記グループを選択し、選択した前記
グループに属する前記候補オブジェクトを順次選択して照合を行い、
前記制御手段は、各グループに属する各々の前記候補オブジェクトが過去に撮影された
時刻情報と、前記撮影画像の撮影時刻情報とに基づいて、前記照合手段によって前記グル
ープを選択する順序を決定すること、
を特徴とする請求項1から3のいずれかに記載の画像認識装置。
The plurality of candidate objects are classified into a plurality of groups,
The matching unit selects one group from the plurality of groups, sequentially selects the candidate objects belonging to the selected group, and performs matching.
The control means determines the order in which the group is selected by the collating means based on time information when each of the candidate objects belonging to each group was photographed in the past and photographing time information of the photographed image. ,
The image recognition apparatus according to claim 1, wherein:
特定の前記グループについて、そのグループに属する前記候補オブジェクトが撮影され
る確率と撮影時刻との関連を変化させる要因が発生したことを指示する指示手段を備え、
前記制御手段は、前記指示手段による指示に従って、変化した後の関連を示す情報をも
とに前記照合手段によって前記グループを選択する順序を決定すること、
を特徴とする請求項4記載の画像認識装置。
Instructing means for instructing that a factor that changes the relationship between the probability that the candidate object belonging to the group is photographed and the photographing time has occurred for the specific group,
The control means determines an order in which the group is selected by the collating means based on information indicating the relationship after the change in accordance with an instruction by the instruction means;
The image recognition apparatus according to claim 4.
特定の前記グループについて、そのグループに属する前記候補オブジェクトが撮影され
る確率と撮影時刻との関連を変化させる要因が発生したことを推定する推定手段を備え、
前記制御手段は、前記推定手段による推定結果に基づいて、変化した後の関連を示す情
報をもとに前記照合手段によって前記グループを選択する順序を決定すること、
を特徴とする請求項4記載の画像認識装置。
With respect to the specific group, comprising: an estimation means for estimating that a factor that changes the association between the probability that the candidate object belonging to the group is shot and the shooting time has occurred,
The control means determines the order in which the group is selected by the matching means based on the information indicating the relationship after the change based on the estimation result by the estimation means;
The image recognition apparatus according to claim 4.
前記検出手段は前記オブジェクト画像として人の顔画像を検出し、
前記照合手段は、前記検出手段により検出された顔画像について、予め登録された人物
の顔画像との照合を行うことにより、前記顔画像が前記登録された人物のうち、いずれか
の顔画像であるかを特定すること、
を特徴とする請求項1から5のいずれかに記載の画像認識装置。
The detection means detects a human face image as the object image,
The collation means collates the face image detected by the detection means with a face image of a person registered in advance, so that the face image is one of the registered face images. Identifying whether there is,
The image recognition apparatus according to claim 1, wherein:
撮影画像を出力する撮影装置と、画像認識装置とを備え、
前記画像認識装置は、
前記撮影装置により出力された撮影画像からオブジェクト画像を検出する検出手段と、
前記検出手段により検出された前記オブジェクト画像について、予め用意された複数の
候補オブジェクトの画像との照合を行うことにより、前記オブジェクト画像がどの前記候
補オブジェクトの画像であるかを特定する照合手段と、
前記照合手段によって複数の前記候補オブジェクトの画像を照合する際の照合順序を制
御する制御手段と、を備え、
前記制御手段は、各々の前記候補オブジェクトが撮影される確率と撮影時刻との関連を
示す情報と、前記撮影画像の撮影時刻情報とに基づいて、複数の前記候補オブジェクトの
照合順序を決定すること、
を特徴とする画像認識システム。
A photographing device for outputting a photographed image and an image recognition device;
The image recognition device includes:
Detecting means for detecting an object image from a photographed image output by the photographing device;
Collating means for identifying which candidate object image the object image is by comparing the object image detected by the detecting means with images of a plurality of candidate objects prepared in advance;
Control means for controlling the collation order when collating the images of the plurality of candidate objects by the collating means,
The control means determines a collation order of the plurality of candidate objects based on information indicating a relationship between a probability that each candidate object is shot and a shooting time, and shooting time information of the shot image. ,
An image recognition system characterized by this.
撮影画像からオブジェクト画像を検出する一方、
予め用意された複数の前記候補オブジェクトについて、各々の前記候補オブジェクトが
撮影される確率と撮影時刻との関連を示す情報と前記撮影画像の撮影時刻情報とに基づい
て照合順序を決定し、
この照合順序に従って、前記候補オブジェクトの画像と検出した前記オブジェクト画像
とを照合することにより、前記オブジェクト画像がどの前記候補オブジェクトの画像であ
るかを特定すること、
を特徴とする画像認識方法。
While detecting the object image from the shot image,
For a plurality of candidate objects prepared in advance, the collation order is determined based on information indicating the relationship between the probability that each candidate object is shot and the shooting time, and the shooting time information of the shot image,
According to this collation order, by collating the image of the candidate object and the detected object image, identifying which candidate object the object image is,
An image recognition method characterized by the above.
コンピュータを、
撮影画像からオブジェクト画像を検出する検出手段と、
前記検出手段により検出された前記オブジェクト画像について、予め用意された複数の
候補オブジェクトの画像との照合を行うことにより、前記オブジェクト画像がどの前記候
補オブジェクトの画像であるかを特定する照合手段と、
各々の前記候補オブジェクトが撮影される確率と撮影時刻との関連を示す情報と、前記
撮影画像の撮影時刻情報とに基づいて、前記照合手段によって複数の前記候補オブジェク
トの画像を照合する際の照合順序を制御する制御手段と、
して機能させるための制御プログラム。
Computer
Detection means for detecting an object image from the captured image;
Collating means for identifying which candidate object image the object image is by comparing the object image detected by the detecting means with images of a plurality of candidate objects prepared in advance;
Collation when collating images of a plurality of candidate objects by the collating unit based on information indicating the relationship between the probability that each candidate object is shot and the shooting time and shooting time information of the shot image Control means for controlling the order;
Control program to function.
JP2006329220A 2006-12-06 2006-12-06 Image recognition device, image recognition system, image recognition method, and control program Withdrawn JP2008146136A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006329220A JP2008146136A (en) 2006-12-06 2006-12-06 Image recognition device, image recognition system, image recognition method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006329220A JP2008146136A (en) 2006-12-06 2006-12-06 Image recognition device, image recognition system, image recognition method, and control program

Publications (1)

Publication Number Publication Date
JP2008146136A true JP2008146136A (en) 2008-06-26

Family

ID=39606291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006329220A Withdrawn JP2008146136A (en) 2006-12-06 2006-12-06 Image recognition device, image recognition system, image recognition method, and control program

Country Status (1)

Country Link
JP (1) JP2008146136A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101551A (en) * 2011-11-09 2013-05-23 Secom Co Ltd Face image authentication device
JP2016507746A (en) * 2013-01-28 2016-03-10 ▲華▼▲為▼▲終▼端有限公司 Method and terminal for discovering augmented reality objects
JPWO2021199123A1 (en) * 2020-03-30 2021-10-07

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101551A (en) * 2011-11-09 2013-05-23 Secom Co Ltd Face image authentication device
JP2016507746A (en) * 2013-01-28 2016-03-10 ▲華▼▲為▼▲終▼端有限公司 Method and terminal for discovering augmented reality objects
JPWO2021199123A1 (en) * 2020-03-30 2021-10-07
WO2021199123A1 (en) * 2020-03-30 2021-10-07 日本電気株式会社 Individual identification system, individual identification method, and computer-readable recording medium
US20220414851A1 (en) * 2020-03-30 2022-12-29 Nec Corporation Individual identification system
JP7311033B2 (en) 2020-03-30 2023-07-19 日本電気株式会社 Individual identification system, individual identification method, and program

Similar Documents

Publication Publication Date Title
KR101423916B1 (en) Method and apparatus for recognizing the plural number of faces
US8249313B2 (en) Image recognition device for performing image recognition including object identification on each of input images
US8144207B2 (en) Computer program product for photographic subject tracking, photographic subject tracking device, and camera
JP5662670B2 (en) Image processing apparatus, image processing method, and program
EP2671208B1 (en) Image capturing apparatus, image capturing method, and computer program product
JP6132490B2 (en) Authentication apparatus, authentication method, and program
US8929611B2 (en) Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method
EP2809062B1 (en) Image processor, image processing method and program, and recording medium
CN117041729A (en) Shooting method, shooting device and computer readable storage medium
CN108596079B (en) Gesture recognition method and device and electronic equipment
JP2007158421A (en) Monitoring camera system and face image tracing recording method
US9070008B2 (en) Object recognition apparatus and dictionary data registration method
JP4939292B2 (en) APPARATUS HAVING AUTHENTICATION PROCESS FUNCTION, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP6370052B2 (en) Information processing system and control method of information processing system
JP2008146136A (en) Image recognition device, image recognition system, image recognition method, and control program
JP2006293912A (en) Information display system, information display method and portable terminal device
JP2008134868A (en) Image recognition device, electronic device, image recognition method and control program
US9549113B2 (en) Imaging control terminal, imaging system, imaging method, and program device
JP2010009440A (en) Character recognition program, character recognition apparatus, and character recognition method
JP4487247B2 (en) Human image search device
JP5016999B2 (en) Imaging apparatus, imaging method, and program
WO2017092804A1 (en) Electronic device and method for controlling cameras thereof
JPWO2014122879A1 (en) Analysis processing system
CN115269494A (en) Data archiving method and device
JP2010146581A (en) Person&#39;s image retrieval device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100302