JPH10340345A - Individual identification device - Google Patents
Individual identification deviceInfo
- Publication number
- JPH10340345A JPH10340345A JP9165120A JP16512097A JPH10340345A JP H10340345 A JPH10340345 A JP H10340345A JP 9165120 A JP9165120 A JP 9165120A JP 16512097 A JP16512097 A JP 16512097A JP H10340345 A JPH10340345 A JP H10340345A
- Authority
- JP
- Japan
- Prior art keywords
- image
- individual identification
- images
- individual
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Collating Specific Patterns (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、入力画像の画像処
理を行って個体を識別する個体識別装置に関する。[0001] 1. Field of the Invention [0002] The present invention relates to an individual identification device for identifying an individual by performing image processing on an input image.
【0002】[0002]
【従来の技術】人間や動物の生体情報(顔、虹彩、指紋
など)をカメラやスキャナ等で撮影し、得られた画像を
解析することにより、個体を識別する技術が知られてい
る。例えば、このような技術としては、米国特許第52
91560号明細書に示されているものがある。2. Description of the Related Art There is known a technique for identifying an individual by photographing biological information (face, iris, fingerprint, etc.) of a human or an animal with a camera or a scanner and analyzing the obtained image. For example, such a technique is disclosed in US Pat.
There is one shown in the specification of 91560.
【0003】上記文献に開示されている技術では、人間
の目の虹彩画像を解析し、虹彩の画像データを0と1の
コードに変換し、そのコードを予め辞書として記憶して
おく。そして、実際に識別を行う場合も同様に、入力さ
れた虹彩画像を0と1とのコードに変換し、この変換し
たコードと辞書のコードとを比較することにより個体識
別を行うものであった。In the technique disclosed in the above document, an iris image of a human eye is analyzed, image data of the iris is converted into 0 and 1 codes, and the codes are stored in advance as a dictionary. Similarly, when actually performing identification, the input iris image is converted into codes of 0 and 1, and individual identification is performed by comparing the converted code with the code of the dictionary. .
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上記の
ような従来の個体識別技術において、識別したい対象が
じっとしていない場合には、カメラにより撮影した画像
には識別対象が写らないことや、写っていた場合でも、
識別対象の一部が欠けてしまうことがあり、識別に失敗
する度合いが増すという問題があった。例えば、上記文
献の技術において、人の虹彩画像をカメラで撮影する場
合に撮影の対象となっている人が顔を動かしたり、歩き
回ったりすると、得られた入力画像において、虹彩の一
部が写っていなかったり、最悪の場合、全く虹彩が画像
中に存在しないこともあり得る。このような場合、識別
の精度が低下してしまうという問題があった。However, in the above-described conventional individual identification technology, when the object to be identified is not still, the object captured by the camera does not show the object to be identified, Even if
There is a problem that a part of the identification target may be missing, and the degree of failure in identification increases. For example, in the technique of the above-mentioned document, when a person to be photographed moves or walks around when capturing an iris image of a person with a camera, a part of the iris is captured in the obtained input image. In the worst case, or in the worst case, no iris may be present in the image. In such a case, there is a problem that the accuracy of identification is reduced.
【0005】同様に、識別対象が動物の場合、必ずしも
じっとしているとは限らないので、識別システムにとっ
て都合の良い画像が得られない可能性が増してしまう。Similarly, when the object to be identified is an animal, it is not always necessary to stay still, which increases the possibility that an image convenient for the identification system cannot be obtained.
【0006】このような点から、識別対象がじっとして
いない場合でも個体識別処理を確実に行うことのできる
個体識別装置の実現が望まれていた。[0006] In view of the above, it has been desired to realize an individual identification device that can reliably perform individual identification processing even when the identification target is not stationary.
【0007】[0007]
【課題を解決するための手段】本発明は、前述の課題を
解決するため次の構成を採用する。 〈請求項1の構成〉同一の識別対象を撮影し、かつ、各
々が異なる複数の画像を別々に記憶する画像記憶手段
と、画像記憶手段に記憶されている複数の画像から、個
体識別に直接利用できる画像が存在するかを判定し、直
接利用できる画像が存在した場合は、その画像を個体識
別用画像として選択し、直接利用できる画像が存在しな
い場合は、画像合成指示を出力する画像選択手段と、画
像選択手段から画像合成指示が出力された場合、画像記
憶手段に記憶されている複数の画像から個体識別に利用
できる画像を合成する合成画像生成手段と、画像選択手
段が選択した個体識別用画像か、この個体識別用画像が
存在しない場合は合成画像生成手段が生成した合成画像
を解析し、解析して得られた特徴量と、予め記憶されて
いる特徴量とを比較することにより、個体の識別を行う
個体識別手段とを備えたことを特徴とする個体識別装置
である。The present invention employs the following structure to solve the above-mentioned problems. <Structure of Claim 1> An image storage means for photographing the same identification target and separately storing a plurality of images different from each other, and a plurality of images stored in the image storage means for direct individual identification. Judge whether there is an image that can be used, if there is an image that can be used directly, select that image as an image for individual identification, and if there is no image that can be used directly, select an image that outputs an image synthesis instruction Means, a composite image generating means for synthesizing an image usable for individual identification from a plurality of images stored in the image storage means when an image synthesizing instruction is output from the image selecting means, and an individual selected by the image selecting means. If the identification image or the individual identification image does not exist, the synthesized image generated by the synthesized image generating means is analyzed, and the characteristic amount obtained by the analysis is compared with the previously stored characteristic amount. The Rukoto an individual identification apparatus which is characterized in that a individual identification means for performing identification of individuals.
【0008】〈請求項1の説明〉請求項1の発明は、同
一の識別対象から複数の画像を撮影し、この中でそのま
ま利用できるものがあった場合は、この画像に基づいて
個体識別を行い、なかった場合は画像合成するようにし
たものである。<Explanation of Claim 1> According to the invention of claim 1, a plurality of images are photographed from the same object to be identified, and if any of them can be used as they are, individual identification is performed based on these images. If not, the image is synthesized.
【0009】識別対象とは、例えば人間や動物であり、
その撮影画像とは目の画像であるが、これ以外の種々の
個体とその個体を撮影した画像にも適用可能である。ま
た、画像合成は、個体識別に利用できる画像が得ること
ができれば、どのような合成方法を用いてもよい。更
に、個体識別手段における特徴量とは、例えば虹彩認識
処理におけるアイリスコードであるが、個体に応じて他
の特徴量であってもよい。The object to be identified is, for example, a human or an animal.
The photographed image is an eye image, but is also applicable to various other individuals and images photographed of the individual. Further, as for the image synthesis, any synthesis method may be used as long as an image that can be used for individual identification can be obtained. Further, the characteristic amount in the individual identification means is, for example, an iris code in the iris recognition process, but may be another characteristic amount depending on the individual.
【0010】請求項1の発明は、このような構成である
ことにより、識別対象がじっとしていない場合でも、個
体識別に利用できる画像を取得する可能性を上げること
ができる。また、複数の画像の中に、個体識別に直接利
用できる画像がない場合でも画像合成により、識別用の
画像を得ることができるため、更に、個体識別処理にお
ける識別の可能性を上げることができる。According to the first aspect of the present invention, it is possible to increase the possibility of obtaining an image that can be used for individual identification even when the identification target is not stationary. Further, even when there is no image directly usable for individual identification among a plurality of images, an image for identification can be obtained by image synthesis, and thus the possibility of identification in individual identification processing can be further increased. .
【0011】〈請求項2の構成〉請求項1において、合
成画像生成手段が生成した合成画像のうち、画素値が得
られなかった領域は除外して個体識別処理を行う個体識
別手段を備えたことを特徴とする個体識別装置である。<Structure of Claim 2> In Claim 1, there is provided individual identification means for performing individual identification processing while excluding a region in which a pixel value is not obtained from the composite image generated by the composite image generation means. An individual identification device characterized in that:
【0012】〈請求項2の説明〉請求項2の発明は、合
成画像でも画素値が得られなかった部分は、識別処理の
対象からは除外するようにしたものである。これによ
り、合成画像を用いた場合の識別処理であっても処理精
度の低下を抑えることができる。<Explanation of Claim 2> According to the invention of claim 2, a portion in which a pixel value is not obtained even in a synthesized image is excluded from a target of the identification processing. As a result, it is possible to suppress a decrease in the processing accuracy even in the identification processing using the composite image.
【0013】〈請求項3の構成〉請求項1または2にお
いて、識別対象を撮影した複数の画像に共通して存在す
る固有の部分を基準点とし、この基準点が一致するよう
画像を合成する合成画像生成手段を備えたことを特徴と
する個体識別装置である。<Structure of Claim 3> In Claim 1 or 2, a unique portion common to a plurality of images of the object to be identified is used as a reference point, and the images are synthesized so that the reference points match. An individual identification device comprising a composite image generation unit.
【0014】〈請求項3の説明〉請求項3の発明は、画
像合成処理において、画像中の基準点に基づいて複数の
画像を合成するようにしたものである。ここで、基準点
とは、複数の画像に共通に存在する部分であればどのよ
うなものであってもよい。<Explanation of Claim 3> In the invention of claim 3, in the image synthesizing process, a plurality of images are synthesized based on reference points in the images. Here, the reference point may be any point as long as it is a part that is commonly present in a plurality of images.
【0015】〈請求項4の構成〉請求項1〜3のいずれ
かにおいて、同一の個体の目を撮影し、かつ、各々が異
なる複数の画像を別々に記憶する画像記憶手段と、目を
撮影した複数の画像中に存在する撮影用の照明の写り込
みの部分を基準点とし、この基準点が一致するよう画像
を合成する合成画像生成手段と、虹彩認識処理により個
体の識別を行う個体識別手段とを備えたことを特徴とす
る個体識別装置である。(Structure of Claim 4) In any one of Claims 1 to 3, an image storage means for photographing the eyes of the same individual and separately storing a plurality of images each different from each other, and photographing the eyes A composite image generating means for composing an image so that the reference point coincides with a portion of the illumination for photographing present in the plurality of images, and an individual identification unit for performing individual identification by iris recognition processing Means for identifying an individual.
【0016】〈請求項4の説明〉請求項4の発明は、複
数の画像として、目を撮影した画像とし、個体識別を虹
彩認識処理によって行うようにすると共に、画像合成の
基準点を撮影用の照明の写り込みとしたものである。こ
こで、個体とは人間だけでなく馬等の動物も含むものと
する。請求項4の発明ではこのような構成であることに
より、例えば、馬等の動物のように撮影時にじっとして
いないことが多い場合でも、確実に虹彩認識処理を行う
ことができる。また、基準点を照明の写り込みとしたた
め、画像中から基準点を検出するのが容易であり、処理
の負荷が軽いため、高性能な個体識別処理を行うことが
できる。<Explanation of Claim 4> According to a fourth aspect of the present invention, a plurality of images are taken as images of the eyes, and individual identification is performed by iris recognition processing. It is a reflection of the lighting of the. Here, the individual includes not only humans but also animals such as horses. According to the fourth aspect of the present invention, with such a configuration, the iris recognition process can be reliably performed even in the case where, for example, an animal such as a horse often stays still during photographing. In addition, since the reference point is a reflection of illumination, it is easy to detect the reference point from the image, and the processing load is light, so that a high-performance individual identification process can be performed.
【0017】[0017]
【発明の実施の形態】以下、本発明の実施の形態を図面
を用いて詳細に説明する。 《具体例》本具体例は、識別対象を複数のカメラで撮影
し、撮影して得られた複数の画像から個体識別に適した
画像を選択する。また、撮影して得られた画像の中に、
個体識別に適した画像がない場合でも、得られた複数の
画像から合成画像を生成し、個体識別に適した画像を生
成することにより、個体識別の精度を向上させるように
したものである。Embodiments of the present invention will be described below in detail with reference to the drawings. << Specific Example >> In this specific example, an object to be identified is photographed by a plurality of cameras, and an image suitable for individual identification is selected from a plurality of images obtained by photographing. Also, in the image obtained by shooting,
Even when there is no image suitable for individual identification, a composite image is generated from a plurality of obtained images, and an image suitable for individual identification is generated, thereby improving the accuracy of individual identification.
【0018】〈構成〉図1は本発明の個体識別装置の具
体例を示す構成図である。図の装置は、コンピュータで
構成され、画像記憶手段1,2,3,4、画像選択手段
5、合成画像生成手段6、合成画像記憶手段7、個体識
別手段8からなる。また、本具体例では、個体識別とし
てアイリス認識を行う場合を説明する。そして、本具体
例では、識別対象を撮影するカメラを4台用意した場合
について説明するが、必ずしも4台のカメラで撮影する
構成に限定されない。<Configuration> FIG. 1 is a configuration diagram showing a specific example of an individual identification device of the present invention. The apparatus shown in the figure is constituted by a computer and comprises image storage means 1, 2, 3, 4, image selection means 5, composite image generation means 6, composite image storage means 7, and individual identification means 8. In this specific example, a case will be described in which iris recognition is performed as individual identification. In this specific example, a case will be described in which four cameras for photographing the identification target are prepared. However, the present invention is not necessarily limited to a configuration in which four cameras are used for photographing.
【0019】画像記憶手段1〜4は、半導体メモリやデ
ィスク等の補助記憶装置に設けられ、個体識別用の4台
のビデオカメラが、同じ瞬間に撮影した画像をそれぞれ
別々に記録する機能部である。また、これら画像記憶手
段1〜4は、それぞれが独立したメモリやディスク等で
なくてもよく、メモリ領域が独立であればよい。更に、
各々の画像はビデオカメラで得られた画像をA/D変換
することにより取得できる。The image storage means 1 to 4 are provided in an auxiliary storage device such as a semiconductor memory or a disk, and are functional units for individually recording images taken by the four video cameras for individual identification at the same moment. is there. Further, these image storage means 1 to 4 need not be independent memories or disks, but may be independent memory areas. Furthermore,
Each image can be obtained by A / D converting an image obtained by a video camera.
【0020】画像選択手段5は、画像記憶手段1〜4に
記憶されている画像の中で、画像中に存在する照明の写
り込みの位置に基づいて、個体識別手段8が利用する画
像として最も適した画像を選択する機能を有している。
但し、画像記憶手段1〜4に記憶されている画像のいず
れも個体識別手段8が利用するには適さないと判断した
場合は、合成画像生成手段6に合成画像を生成するよう
指示するよう構成されている。The image selection means 5 is the most effective image among the images stored in the image storage means 1 to 4 as an image to be used by the individual identification means 8 based on the position of the reflection of the illumination present in the image. It has a function of selecting a suitable image.
However, if it is determined that none of the images stored in the image storage units 1 to 4 is suitable for use by the individual identification unit 8, the configuration is such that the composite image generation unit 6 is instructed to generate a composite image. Have been.
【0021】合成画像生成手段6は、画像選択手段5に
おいて、個体識別処理にそのまま利用できる画像が一つ
も存在しないと判断された場合に動作し、画像選択手段
5において検出された照明の写り込みの位置に基づき画
像の合成を行う機能部である。また、合成画像記憶手段
7は、半導体メモリやディスク等の補助記憶装置に設け
られ、合成画像生成手段6が生成した合成画像を記憶す
るための機能部である。The composite image generation means 6 operates when the image selection means 5 determines that there is no image which can be used as it is for the individual identification processing, and reflects the illumination detected by the image selection means 5. Is a functional unit that synthesizes images based on the position of. The composite image storage unit 7 is a functional unit that is provided in an auxiliary storage device such as a semiconductor memory or a disk and stores the composite image generated by the composite image generation unit 6.
【0022】個体識別手段8は、画像選択手段5が選択
した画像か、当該画像が存在しない場合は合成画像生成
手段6が生成した合成画像を解析し、解析して得られた
特徴量と、予め備えている識別用の辞書の特徴量とを比
較することにより、個体の識別を行う機能部である。The individual identifying means 8 analyzes the image selected by the image selecting means 5 or, if the image does not exist, the synthesized image generated by the synthesized image generating means 6, and analyzes the feature quantity obtained by the analysis. This is a functional unit for identifying an individual by comparing the feature amount of an identification dictionary provided in advance.
【0023】〈動作〉今、同一の識別対象を同じ瞬間に
4台のカメラが撮影し、それぞれの画像が画像記憶手段
1〜4に記憶されたとする。<Operation> Assume that four cameras shoot the same object at the same moment, and the respective images are stored in the image storage means 1 to 4.
【0024】図2は、画像記憶手段1〜4に記憶された
入力画像の一例を示す説明図である。図示のように、識
別対象を撮影するビデオカメラは異なる画像が得られる
ように工夫して配置されている。よって、画像記憶手段
1〜4に記憶される画像は、それぞれ異なった画像にな
っている。FIG. 2 is an explanatory diagram showing an example of an input image stored in the image storage means 1-4. As shown in the figure, the video cameras that capture the identification target are arranged so as to obtain different images. Therefore, the images stored in the image storage units 1 to 4 are different images.
【0025】画像選択手段5は、画像記憶手段1〜4に
図2に示すような画像が記憶されると、先ず、これらの
画像の中で、個体識別手段8が利用する画像として最も
適した画像を選択する。但し、いずれの画像も個体識別
手段8が利用するには適さないと判断した場合は、合成
画像生成手段6に合成画像を生成するように指示する。When the images shown in FIG. 2 are stored in the image storage units 1 to 4, the image selection unit 5 first selects the most suitable image among the images used by the individual identification unit 8. Select an image. However, when it is determined that none of the images is suitable for use by the individual identification unit 8, the image processing unit 6 instructs the composite image generation unit 6 to generate a composite image.
【0026】以下、識別対象を虹彩画像とした場合の画
像選択手段5の動作について説明する。図3に虹彩画像
の一例を示す。図中の瞳孔の中にある黒丸印は、撮影時
に照射している照明が画像中に写り込んでいることを示
している。本具体例では、この照明の写り込みの位置情
報を用いて画像の選択処理を行う。尚、本具体例では、
識別対象への照明を行うと、その写り込みの部分が瞳孔
中に位置するようなシステムを前提としている。The operation of the image selecting means 5 when the identification target is an iris image will be described below. FIG. 3 shows an example of the iris image. The black circles in the pupils in the figure indicate that the illumination illuminated during imaging is reflected in the image. In this specific example, an image selection process is performed using the position information of the reflection of the illumination. In this specific example,
It is assumed that the system is such that when the object to be identified is illuminated, the reflected part is located in the pupil.
【0027】画像中の照明の写り込みの位置検出方法に
は様々な方法が考えられる。例えば、照明が写り込んだ
場合、写り込んだ位置の画素は非常に明るいという特徴
を持っている。よって、先ず、画像中で最も明るい領域
を見つけ、その領域の明るさが予め設定した閾値よりも
明るい場合は、その領域を照明の写り込みと判断する。
それに対して、領域の明るさが予め設定した閾値よりも
暗い場合は照明の写り込みはないと判断する。Various methods can be considered as a method of detecting the position of the reflection of the illumination in the image. For example, when the light is reflected, the pixel at the position where the light is reflected is very bright. Therefore, first, the brightest area in the image is found, and if the brightness of the area is brighter than a preset threshold, the area is determined to be the reflection of illumination.
On the other hand, if the brightness of the area is darker than a preset threshold, it is determined that there is no reflection of illumination.
【0028】このようにして、先ず、画像記憶手段1〜
4に記憶されている画像それぞれについて照明の写り込
みの有無、および、写り込んでいる場合はその位置を検
出する。As described above, first, the image storage means 1 to 1
For each of the images stored in step 4, the presence or absence of the reflection of the illumination and, if it is, the position of the illumination are detected.
【0029】次に、画像選択手段5は写り込みの位置情
報を用いて画像の選択処理を行う。図4は、写り込みの
位置を用いた画像選択判定の説明図である。図に示す領
域1に写り込みの位置が存在した場合には、その画像は
個体識別手段8でそのまま利用できないと判断する。そ
れに対して、領域2に照明の写り込みの位置が存在した
場合は、その画像は個体識別手段8でそのまま利用でき
る画像であると判断する。即ち、上述したように、照明
の写り込みの位置は瞳孔部分であり、これは目の中心部
である。従って、写り込みの位置が、領域2のように中
央部に存在する場合とは、目の画像が画面中のほぼ中央
部に位置し、従って虹彩画像も完全なものが得られる可
能性が高い場合である。これに対し、写り込みの位置が
領域1のように、画面の周辺部に位置する場合とは、虹
彩画像も画面の周辺に位置し、完全な画像が得られない
可能性がある場合である。Next, the image selecting means 5 performs an image selecting process using the position information of the reflection. FIG. 4 is an explanatory diagram of the image selection determination using the position of the reflection. When the position of the reflection is present in the area 1 shown in the figure, the individual identification means 8 determines that the image cannot be used as it is. On the other hand, when the position of the reflection of the light exists in the area 2, it is determined that the image is an image that can be directly used by the individual identification unit 8. That is, as described above, the position where the illumination is reflected is the pupil portion, which is the center of the eye. Therefore, the case where the position of the reflection exists in the central part as in the region 2 means that the image of the eye is located substantially in the central part of the screen, and thus there is a high possibility that a complete iris image is obtained. Is the case. On the other hand, the case where the position of the reflection is located at the periphery of the screen as in the region 1 is the case where the iris image is also located at the periphery of the screen and a complete image may not be obtained. .
【0030】画像選択手段5は、照明の写り込みの位置
が領域2の中に存在する画像が一つの場合はその画像を
用いて個体識別を行うよう個体識別手段8に指示する。
例えば、図2の例では、画像記憶手段2に記憶されてい
る画像が選択されることになる。また、領域2の中に照
明の写り込みが存在する画像が複数ある場合は、図4に
示す写り込み判定の基準点に最も照明の写り込みが近い
画像を選択し、その画像を用いて個体識別を行うよう個
体識別手段8に指示する。The image selecting means 5 instructs the individual identifying means 8 to perform individual identification using the image when the position of the reflected light is one image in the area 2.
For example, in the example of FIG. 2, the image stored in the image storage unit 2 is selected. When there are a plurality of images in which reflection of illumination exists in the area 2, an image whose reflection of illumination is closest to the reference point of the reflection determination shown in FIG. 4 is selected, and individual images are selected using the image. The individual identification means 8 is instructed to perform identification.
【0031】それに対して、領域2に照明の写り込みが
存在する画像が一つも存在しない場合は、合成画像生成
手段6に対して合成画像を生成するよう指示する。On the other hand, when there is no image in which the reflection of the illumination exists in the area 2, the image processing unit 6 instructs the synthetic image generating means 6 to generate a synthetic image.
【0032】次に、合成画像生成手段6の動作について
説明する。合成画像生成手段6は、画像選択手段5にお
いて、個体識別処理にそのまま利用できる画像が一つも
存在しないと判断された場合に動作する。合成画像生成
手段6は、画像選択手段5において検出された照明の写
り込みの位置情報を用いて画像の合成を行う。そして、
合成画像生成手段6は、画像記憶手段1〜4に記憶され
ている画像の中で、照明の写り込みが図4の領域1の中
に存在する画像のみを用いる。Next, the operation of the composite image generating means 6 will be described. The composite image generation unit 6 operates when the image selection unit 5 determines that there is no image that can be directly used for the individual identification processing. The composite image generation unit 6 performs image synthesis using the position information of the reflection of the illumination detected by the image selection unit 5. And
The composite image generation unit 6 uses only the image in which the reflection of the illumination exists in the area 1 in FIG. 4 among the images stored in the image storage units 1 to 4.
【0033】図5に合成画像生成手段6が処理する画像
の一例を示す。図示の例では、画像記憶手段1、画像記
憶手段2、画像記憶手段3に記憶されている画像の照明
の写り込みが図4の領域1に存在しているので、この三
つの画像を用いて一つの画像を合成する。尚、画像記憶
手段4に記憶されている画像には照明の写り込みの位置
が検出されなかったので、この画像は処理の対象から除
外する。FIG. 5 shows an example of an image processed by the composite image generating means 6. In the example shown in the figure, since the reflection of the illumination of the images stored in the image storage unit 1, the image storage unit 2, and the image storage unit 3 exists in the area 1 in FIG. Combine one image. Since the position of the reflected light was not detected in the image stored in the image storage means 4, this image is excluded from the processing target.
【0034】合成画像生成手段6は、画像記憶手段1〜
3に記憶されている画像の各々の照明の写り込みの位置
を重ね合わせることにより画像の合成を行う。The composite image generation means 6 includes image storage means 1 to
The images are synthesized by superimposing the positions of the reflections of the illuminations of the images stored in the image 3.
【0035】図6は合成された画像の説明図である。図
示の例では、照明の写り込みの位置を図4の写り込み判
定の基準点に重ねた場合の例である。図6の中で、複数
の画像が重なり合っている領域の画素値の算出方法は様
々な方法が考えられる。例えば、重なり合っている画像
の平均値を用いる方法や、重なり合っている画像の中
で、照明の写り込みの位置が図4の写り込み判定の基準
点に近い画像の画素値をそのまま利用する方法等があ
る。また、図6に示した合成画像の左下の部分のように
画素値が得られなかった領域の画素値は識別対象や識別
方法に応じて予め設定した値を採用する。また、画素値
が得られなかった領域の位置情報は個体識別手段8に出
力する。個体識別手段8は、画素値が得られなかった領
域を識別処理の対象から外して処理を行う。これによ
り、識別精度の低下を抑えることが可能となる。FIG. 6 is an explanatory diagram of a synthesized image. In the illustrated example, the position of the reflection of the illumination is superimposed on the reference point of the reflection determination in FIG. In FIG. 6, various methods can be considered as a method of calculating a pixel value of a region where a plurality of images overlap. For example, a method of using the average value of the overlapping images, a method of using the pixel values of the images in which the position of the reflection of the illumination is close to the reference point of the reflection determination in FIG. There is. In addition, as a pixel value of an area where a pixel value is not obtained as in the lower left portion of the composite image illustrated in FIG. 6, a value set in advance according to an identification target or an identification method is employed. Further, the position information of the area where the pixel value is not obtained is output to the individual identification means 8. The individual identification means 8 performs processing by excluding the area where the pixel value is not obtained from the target of the identification processing. Thus, it is possible to suppress a decrease in identification accuracy.
【0036】合成画像生成手段6が生成した合成画像は
合成画像記憶手段7により記憶される。また、照明の写
り込みが存在する画像が一つもない場合は、合成画像生
成手段6では画像の合成処理は行わない。従って、この
場合個体識別手段8も識別処理を行わないことになる。The composite image generated by the composite image generation means 6 is stored in the composite image storage means 7. When there is no image in which the reflection of the light exists, the composite image generating means 6 does not perform the image compositing process. Therefore, in this case, the individual identification means 8 does not perform the identification processing.
【0037】次に、個体識別手段8の動作について説明
する。個体識別手段8は、画像選択手段5が選択した画
像があった場合は、この画像に基づいて、また、画像選
択手段5で選択した画像がなかった場合は、合成画像生
成手段6が画像を合成することにより得られた合成画像
(合成画像記憶手段7に記憶されている画像)を解析す
ることにより特徴量を求め、その特徴量と、予め識別用
の辞書等に登録されている特徴量とを比較することによ
り、個体識別を行う。但し、画像選択手段5および合成
画像生成手段6のどちらも画像が得られなかった場合は
個体識別処理は行わない。Next, the operation of the individual identification means 8 will be described. If there is an image selected by the image selection means 5, the individual identification means 8 outputs the image based on the image. If no image is selected by the image selection means 5, the composite image generation means 6 A characteristic amount is obtained by analyzing a composite image (image stored in the composite image storage means 7) obtained by the composition, and the characteristic amount is compared with the characteristic amount registered in advance in an identification dictionary or the like. By comparing with, individual identification is performed. However, if neither the image selecting unit 5 nor the composite image generating unit 6 can obtain an image, the individual identification processing is not performed.
【0038】ここで個体識別処理としてアイリス認識を
用いた場合を説明する。個体識別手段8は、画像選択手
段5が選択した画像記憶手段1〜4に記憶されている目
の画像、もしくは、合成画像生成手段6が生成した合成
画像記憶手段7に記憶されている合成画像のどちらかの
画像を解析し、瞳孔の外接円、虹彩の外接円を求める。
次に、二つの円を基準にして極座標を設定し、虹彩領域
を幾つかの領域に分割し、フィルタ処理としきい値処理
により、0と1のコード(以下、アイリスコードと呼
ぶ)を出力する。このようにして生成したアイリスコー
ドと、予め識別用の辞書等に記憶されているアイリスコ
ードとを比較することにより個体識別を行う。Here, a case where iris recognition is used as the individual identification processing will be described. The individual identification means 8 is an eye image stored in the image storage means 1 to 4 selected by the image selection means 5 or a composite image stored in the composite image storage means 7 generated by the composite image generation means 6 Is analyzed to determine the circumcircle of the pupil and the circumcircle of the iris.
Next, polar coordinates are set based on the two circles, the iris region is divided into several regions, and codes 0 and 1 (hereinafter, referred to as iris codes) are output by filtering and thresholding. . Individual identification is performed by comparing the iris code generated in this manner with an iris code stored in advance in an identification dictionary or the like.
【0039】例えば、従来の技術で述べた文献では、入
力画像から生成したアイリスコードと識別用の辞書に記
憶されているアイリスコードとのハミング距離を計算
し、最もハミング距離が小さくなる辞書を選択する。更
に、そのときのハミング距離が予め設定したしきい値を
下回った場合に本人である判定する。For example, in the literature described in the prior art, a Hamming distance between an iris code generated from an input image and an iris code stored in an identification dictionary is calculated, and a dictionary having the smallest Hamming distance is selected. I do. Further, when the Hamming distance at that time is smaller than a preset threshold value, it is determined that the user is the principal.
【0040】また、個体識別手段8において、合成画像
記憶手段7に記憶されている合成画像を識別に用いる場
合には、合成画像が得られなかった領域(例えば、図6
の左下の領域)は個体識別処理の対象から除外すること
により識別精度の向上を図る。When the individual identification means 8 uses the composite image stored in the composite image storage means 7 for identification, an area where a composite image is not obtained (for example, FIG. 6).
(Lower left area) is excluded from the target of the individual identification processing to improve the identification accuracy.
【0041】以上、上記具体例では、画像解析による個
体識別手段としてアイリス認識を用いた場合について説
明したが、画像を解析することにより個体を識別する種
々の技術に適用が可能である。また、識別対象も人間に
限るものではなく、犬や猫あるいは馬といった動物一般
に適用できる技術である。更に、複数の画像として四つ
の画像とした例を説明したが、画像の数が増減しても、
それに応じて画像記憶手段を用意することにより、容易
に対応可能である。As described above, the case where iris recognition is used as the individual identification means by image analysis has been described in the above specific example. However, the present invention can be applied to various techniques for identifying individuals by analyzing images. Also, the identification target is not limited to humans, and is a technology applicable to animals in general, such as dogs, cats, and horses. Furthermore, an example in which four images are used as a plurality of images has been described, but even if the number of images increases or decreases,
By preparing an image storage means in response to this, it can be easily handled.
【0042】また、上記具体例では、識別対象の複数の
画像として、同じ瞬間に撮影したものを用いるようにし
た。これにより、識別対象の画面内の位置は異なって
も、その大きさはほぼ同じとすることができる。従っ
て、合成画像生成手段6で画像合成を行う場合でも、虹
彩部分の大きさを合わせるといった処理は必要なく、画
像合成処理の負荷を軽くすることができる。また、複数
の画像は同一の識別対象を撮影したものであれば、必ず
しも全てが同一の瞬間に撮影したものである必要はな
い。但し、このような複数の画像に時間的な差がある場
合は、複数の画像で識別対象そのものの大きさが異なっ
てしまうことが考えられるため、画像合成を行う前処理
として、識別対象の大きさを合わせる処理を行う必要が
ある。Further, in the above specific example, as the plurality of images to be identified, images photographed at the same moment are used. Thus, even if the position of the identification target in the screen is different, the size can be made substantially the same. Therefore, even when the synthesized image is generated by the synthesized image generating means 6, processing for adjusting the size of the iris portion is not required, and the load of the image synthesis processing can be reduced. In addition, as long as a plurality of images are images of the same identification target, not all images need to be always shot at the same moment. However, if there is a temporal difference between the plurality of images, the size of the identification target itself may be different between the plurality of images. It is necessary to perform a process of adjusting the values.
【0043】〈効果〉以上のように具体例によれば、同
一の識別対象を撮影した複数の異なる画像を用いるよう
構成しているため、識別対象がじっとしていない場合で
も、個体識別に利用できる画像を取得する可能性を上げ
ることができる。<Effects> As described above, according to the specific example, since a plurality of different images obtained by photographing the same object to be identified are used, even if the object to be identified is not stationary, it can be used for individual identification. It is possible to increase the possibility of obtaining a possible image.
【0044】また、画像記憶手段1〜4に記憶されてい
る複数の画像の中に、個体識別に直接利用できる画像が
一つもない場合でも、それらの画像から個体識別に利用
できる画像を合成するようにしたので、更に個体識別処
理における識別の可能性の向上が期待できる。Even when there is no image directly usable for individual identification among a plurality of images stored in the image storage means 1 to 4, an image usable for individual identification is synthesized from those images. With this configuration, the possibility of identification in the individual identification processing can be further improved.
【0045】そして、個体識別処理において、合成画像
を識別に用いる場合には、画素値が得られなかった領域
は識別の対象から除外して処理を行うようにしたので、
このような場合でも個体識別精度の低下を抑えることが
できる。よって、システムとして高性能な個体識別が実
現可能となる。In the individual identification processing, when the composite image is used for identification, the area where no pixel value is obtained is excluded from the object of identification, and the processing is performed.
Even in such a case, it is possible to suppress a decrease in individual identification accuracy. Therefore, high-performance individual identification can be realized as a system.
【0046】また、上記具体例の全ての動作は、個体識
別装置の役割を行うコンピュータのプログラムによる制
御で実現することができる。従って、そのプログラムを
フロッピーディスクやCD−ROM等の記録媒体に記録
してから、コンピュータにインストールしたり、あるい
はネットワークからダウンロードしてインストールする
といった方法や、そのプログラムをハードディスク等に
予めインストールするといった方法によって、本発明の
個体識別装置を実現することができる。Further, all the operations of the above specific example can be realized by control by a program of a computer which plays a role of an individual identification device. Therefore, a method of recording the program on a recording medium such as a floppy disk or a CD-ROM and then installing the program on a computer, or downloading and installing the program from a network, or a method of previously installing the program on a hard disk or the like Thereby, the individual identification device of the present invention can be realized.
【図1】本発明の個体識別装置の具体例を示す構成図で
ある。FIG. 1 is a configuration diagram showing a specific example of an individual identification device of the present invention.
【図2】本発明の個体識別装置の具体例における画像記
憶手段の入力画像の説明図である。FIG. 2 is an explanatory diagram of an input image of an image storage unit in a specific example of the individual identification device of the present invention.
【図3】本発明の個体識別装置の具体例における虹彩画
像の一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of an iris image in a specific example of the individual identification device of the present invention.
【図4】本発明の個体識別装置の具体例における写り込
みの位置を用いた画像選択判定の説明図である。FIG. 4 is an explanatory diagram of an image selection determination using a reflection position in a specific example of the individual identification device of the present invention.
【図5】本発明の個体識別装置の具体例における合成画
像生成手段が処理する画像の一例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of an image processed by a synthetic image generation unit in a specific example of the individual identification device of the present invention.
【図6】本発明の個体識別装置の具体例における合成さ
れた画像の説明図である。FIG. 6 is an explanatory diagram of a combined image in a specific example of the individual identification device of the present invention.
1〜4 画像記憶手段 5 画像選択手段 6 合成画像生成手段 7 合成画像記憶手段 8 個体識別手段 1-4 Image storage means 5 Image selection means 6 Synthetic image generation means 7 Synthetic image storage means 8 Individual identification means
Claims (4)
異なる複数の画像を別々に記憶する画像記憶手段と、 前記画像記憶手段に記憶されている複数の画像から、個
体識別に直接利用できる画像が存在するかを判定し、直
接利用できる画像が存在した場合は、当該画像を個体識
別用画像として選択し、直接利用できる画像が存在しな
い場合は、画像合成指示を出力する画像選択手段と、 前記画像選択手段から画像合成指示が出力された場合、
前記画像記憶手段に記憶されている複数の画像から個体
識別に利用できる画像を合成する合成画像生成手段と、 前記画像選択手段が選択した個体識別用画像か、当該個
体識別用画像が存在しない場合は前記合成画像生成手段
が生成した合成画像を解析し、解析して得られた特徴量
と、予め記憶されている特徴量とを比較することによ
り、個体の識別を行う個体識別手段とを備えたことを特
徴とする個体識別装置。1. An image storage means for photographing the same identification target and separately storing a plurality of different images, and directly using the plurality of images stored in the image storage means for individual identification. Image selecting means for judging whether there is an image which can be used, and when there is an image which can be directly used, selecting the image as an image for individual identification, and when there is no image which can be used directly, outputting an image synthesis instruction And when an image combining instruction is output from the image selecting means,
A composite image generation unit that synthesizes an image that can be used for individual identification from a plurality of images stored in the image storage unit; and an individual identification image selected by the image selection unit, or when the individual identification image does not exist. Comprises individual identification means for identifying the individual by analyzing the composite image generated by the composite image generation means, and comparing the characteristic amount obtained by the analysis with the characteristic amount stored in advance. An individual identification device characterized in that:
得られなかった領域は除外して個体識別処理を行う個体
識別手段を備えたことを特徴とする個体識別装置。2. The apparatus according to claim 1, further comprising: an individual identification unit that performs an individual identification process by excluding a region in which no pixel value is obtained from the composite image generated by the composite image generation unit. Individual identification device.
の部分を基準点とし、この基準点が一致するよう画像を
合成する合成画像生成手段を備えたことを特徴とする個
体識別装置。3. The composite image generating means according to claim 1, wherein a unique portion common to a plurality of images of the object to be identified is used as a reference point, and the images are synthesized so that the reference points match. An individual identification device, comprising:
像を別々に記憶する画像記憶手段と、 前記目を撮影した複数の画像中に存在する撮影用の照明
の写り込みの部分を基準点とし、この基準点が一致する
よう画像を合成する合成画像生成手段と、 虹彩認識処理により個体の識別を行う個体識別手段とを
備えたことを特徴とする個体識別装置。4. The image storage device according to claim 1, wherein an image of the same individual is photographed, and a plurality of images each of which is different from each other are separately stored; A composite image generating means for composing an image in such a manner that a portion of the illumination for photographing existing in the image is included as a reference point and combining the reference points, and an individual identification means for identifying an individual by iris recognition processing An individual identification device characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9165120A JPH10340345A (en) | 1997-06-06 | 1997-06-06 | Individual identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9165120A JPH10340345A (en) | 1997-06-06 | 1997-06-06 | Individual identification device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10340345A true JPH10340345A (en) | 1998-12-22 |
Family
ID=15806305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9165120A Pending JPH10340345A (en) | 1997-06-06 | 1997-06-06 | Individual identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10340345A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018038158A1 (en) * | 2016-08-24 | 2018-03-01 | 日本電気株式会社 | Iris imaging device, iris imaging method, and recording medium |
US11734957B2 (en) | 2019-02-18 | 2023-08-22 | Nec Corporation | Image processing apparatus, method, system, and computer readable medium |
-
1997
- 1997-06-06 JP JP9165120A patent/JPH10340345A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018038158A1 (en) * | 2016-08-24 | 2018-03-01 | 日本電気株式会社 | Iris imaging device, iris imaging method, and recording medium |
JPWO2018038158A1 (en) * | 2016-08-24 | 2019-06-27 | 日本電気株式会社 | Iris imaging device, iris imaging method and recording medium |
US10503974B2 (en) | 2016-08-24 | 2019-12-10 | Nec Corporation | Iris capture apparatus, iris capture method, and storage medium |
US11093741B2 (en) | 2016-08-24 | 2021-08-17 | Nec Corporation | Iris capture apparatus, iris capture method, and storage medium |
US11776314B2 (en) | 2016-08-24 | 2023-10-03 | Nec Corporation | Iris capture apparatus, iris capture method, and storage medium |
US11830228B2 (en) | 2016-08-24 | 2023-11-28 | Nec Corporation | Iris capture apparatus, iris capture method, and storage medium |
US11861942B2 (en) | 2016-08-24 | 2024-01-02 | Nec Corporation | Iris capture apparatus, iris capture method, and storage medium |
US11900728B2 (en) | 2016-08-24 | 2024-02-13 | Nec Corporation | Iris capture apparatus, iris capture method, and storage medium |
US11734957B2 (en) | 2019-02-18 | 2023-08-22 | Nec Corporation | Image processing apparatus, method, system, and computer readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8494286B2 (en) | Face detection in mid-shot digital images | |
US6278491B1 (en) | Apparatus and a method for automatically detecting and reducing red-eye in a digital image | |
US6134339A (en) | Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame | |
US8279301B2 (en) | Red-eye filter method and apparatus | |
US8861806B2 (en) | Real-time face tracking with reference images | |
EP2198394B1 (en) | Face tracking in a camera processor | |
US8330831B2 (en) | Method of gathering visual meta data using a reference image | |
US8682097B2 (en) | Digital image enhancement with reference images | |
JP4078334B2 (en) | Image processing apparatus and image processing method | |
US20080186389A1 (en) | Image Modification Based on Red-Eye Filter Analysis | |
US20080317379A1 (en) | Digital image enhancement with reference images | |
JP4459788B2 (en) | Facial feature matching device, facial feature matching method, and program | |
EP1714252A2 (en) | Optimized red-eye filter method and apparatus involving subsample representations of selected image regions | |
JP2010511340A (en) | Artifact removal for images taken with flash | |
JP5159390B2 (en) | Object detection method and apparatus | |
JPH10340345A (en) | Individual identification device | |
JP3797839B2 (en) | Personal identification device and personal identification method | |
JP4789526B2 (en) | Image processing apparatus and image processing method | |
JPH10340343A (en) | Individual identification device | |
JP2006130325A (en) | Personal identification device | |
WO2024092526A1 (en) | Control device for camera, and camera | |
IE20080161U1 (en) | Face detection in mid-shot digital images | |
IE20050052U1 (en) | Optimized performance for red-eye filter method and apparatus | |
IES84151Y1 (en) | Optimized performance for red-eye filter method and apparatus |