JP2003317100A - Information terminal device, authentication system, and registering and authenticating method - Google Patents
Information terminal device, authentication system, and registering and authenticating methodInfo
- Publication number
- JP2003317100A JP2003317100A JP2002224573A JP2002224573A JP2003317100A JP 2003317100 A JP2003317100 A JP 2003317100A JP 2002224573 A JP2002224573 A JP 2002224573A JP 2002224573 A JP2002224573 A JP 2002224573A JP 2003317100 A JP2003317100 A JP 2003317100A
- Authority
- JP
- Japan
- Prior art keywords
- authentication
- registration
- face
- instruction
- biometric information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 54
- 230000008859 change Effects 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 79
- 238000012545 processing Methods 0.000 claims description 60
- 238000001514 detection method Methods 0.000 claims description 31
- 238000011156 evaluation Methods 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 8
- 239000013598 vector Substances 0.000 description 42
- 230000008569 process Effects 0.000 description 37
- 238000000605 extraction Methods 0.000 description 27
- 238000007726 management method Methods 0.000 description 26
- 238000013500 data storage Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 230000004044 response Effects 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 7
- 230000004397 blinking Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
Landscapes
- Collating Specific Patterns (AREA)
- Image Input (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ユーザーの生体情
報を用いて個人認証を行う機能を有する情報端末装置、
認証システム、及び登録・認証方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information terminal device having a function of performing personal authentication using biometric information of a user,
Authentication system and registration / authentication method
【0002】[0002]
【従来の技術】従来の個人認証を行う機能を有する情報
端末装置及び認証システムにおけるユーザー認証の手段
は、アクセストークン型と記憶データ型の2つに分類さ
れる。アクセストークン型には、スマートカード、クレ
ジットカード、キー等があり、記憶データ型にはパスワ
ード、ユーザー名、個人認証番号等がある。2. Description of the Related Art Conventional information terminal devices having a function of performing personal authentication and user authentication means in an authentication system are classified into an access token type and a stored data type. The access token type includes a smart card, a credit card, a key, and the like, and the stored data type includes a password, a user name, a personal authentication number, and the like.
【0003】アクセストークン型の問題点は容易に紛失
したり、盗まれることにある。一方、記憶データ型の問
題点は忘れる、あるいは忘れるのを恐れて安易なデータ
を設定することにある。両者を組み合せた手段を用いる
ことによって安全性は高まるが、同様の問題点は残る。The problem with the access token type is that it is easily lost or stolen. On the other hand, the problem of the stored data type is to set easy data because of forgetting or fear of forgetting. Although the safety can be improved by using a combination of both methods, the same problem remains.
【0004】バイオメトリクス技術は身体の特徴(生体
情報)を個人認証の手段とする技術であり、上記のよう
な紛失の問題、記憶の問題の解決が可能となる。具体的
な生体情報として、指紋、手形、顔、虹彩、網膜、声紋
等が知られている。The biometrics technology uses the characteristics of the body (biological information) as a means for personal authentication, and can solve the problems of loss and memory as described above. Fingerprints, handprints, faces, irises, retinas, voiceprints, etc. are known as specific biometric information.
【0005】顔画像を利用したユーザー認証としては、
テレビ電話装置のように装置本来の機能実現のために必
要な撮像手段(テレビカメラ)を装備した携帯型情報処
理装置で、この撮像手段から取り込まれる画像データを
利用してセキュリティ機能を実現する携帯型情報処理装
置(特開2000−137809号公報)などが知られ
ている。For user authentication using a face image,
A portable information processing device, such as a videophone device, equipped with an image pickup unit (TV camera) necessary for realizing the original function of the device, and a mobile phone that realizes a security function by using image data captured from the image pickup unit. A type information processing device (Japanese Patent Laid-Open No. 2000-137809) and the like are known.
【0006】また、近年、急速に普及している携帯電
話、あるいは携帯型パソコンにおいても、画像の入出力
機能と画像伝送機能を付加することにより、上記従来例
のユーザー認証技術を利用することも可能である。In addition, the user authentication technology of the above-mentioned conventional example can also be used by adding an image input / output function and an image transmission function to a mobile phone or a portable personal computer which has been rapidly spread in recent years. It is possible.
【0007】[0007]
【発明が解決しようとする課題】しかしながら、上記従
来例では予め登録されたユーザーの顔画像データ(また
は顔画像データから抽出した特徴パラメータ)と、認証
する際に入力するユーザーの顔画像データ(または顔画
像データから抽出した特徴パラメータ)とを照合するこ
とによりユーザー認証を行うため以下のような課題が存
在する。However, in the above-mentioned conventional example, the face image data of the user (or the characteristic parameter extracted from the face image data) registered in advance and the face image data of the user input at the time of authentication (or Since the user authentication is performed by collating with the feature parameter extracted from the face image data), there are the following problems.
【0008】(1)認識精度の課題
例えば、携帯端末に取り付けたカメラを使って顔といっ
た生体情報を抽出する場合、照明条件が変わる、背景が
変わる、あるいは自分の顔を取り込むカメラの方向、距
離が変わるため、登録した画像と同一人物であるという
認識結果を得ることが難しくなる。つまり、本人が認証
拒否される機会が従来のアクセストークン型、記憶デー
タ型に比べ増えるという問題が発生する。(1) Problem of recognition accuracy For example, when biometric information such as a face is extracted using a camera attached to a portable terminal, lighting conditions change, the background changes, or the direction and distance of the camera that captures one's face. , It becomes difficult to obtain the recognition result that the person is the same as the registered image. In other words, there is a problem that the chance that the person is denied authentication increases compared to the conventional access token type and stored data type.
【0009】(2)生体情報の認識にかかるセキュリテ
ィの課題
例えば顔認識を行うための顔画像を入力する際、本人で
はなく、他人が本人の写真を用いて本人になりすますと
いった問題が考えられる。(2) Security Issues Related to Recognition of Biometric Information For example, when a face image for face recognition is input, another person may impersonate himself / herself by using the photograph of the person himself / herself.
【0010】本発明は上記2つの課題を解決するため
の、顔画像などの生体情報入力インタフェースを有する
情報端末装置、認証システム、及び登録・認証方法を提
供することを目的とする。An object of the present invention is to provide an information terminal device having a biometric information input interface for a face image, an authentication system, and a registration / authentication method for solving the above two problems.
【0011】[0011]
【課題を解決するための手段】これらの従来の課題を解
決する本発明に係る情報端末装置は、ユーザーの生体情
報を入力するための入力手段と、その入力した生体情報
を表示する表示手段と、その入力した生体情報をもとに
予め登録されたユーザーを個人認証するための認証手段
とを有し、その表示手段は入力した生体情報の大きさや
位置を指定するための指標を表示することを特徴とす
る。An information terminal device according to the present invention for solving these conventional problems includes an input means for inputting biometric information of a user and a display means for displaying the input biometric information. A display means for displaying an index for designating the size and position of the input biometric information, the authentication means for personally authenticating a user registered in advance based on the input biometric information. Is characterized by.
【0012】そのように入力する生体情報の大きさや位
置を指定するための指標を表示するとともに入力した生
体情報の結果を表示することによって、ユーザーが、照
明の当たり方、および入力した顔の大きさ、向きなどの
ずれを確認できる入力インタフェースを提供することに
より、簡単に照明条件、カメラの方向、距離、顔などの
位置を調節することができ、ユーザーの認証に適した条
件で生体情報を取り込むことが可能となる。By displaying the index for designating the size and position of the biometric information input as described above and displaying the result of the biometric information input, the user can determine how to illuminate and the size of the input face. By providing an input interface that allows you to check deviations in orientation, direction, etc., you can easily adjust lighting conditions, camera direction, distance, face, etc., and obtain biometric information under conditions suitable for user authentication. It becomes possible to import.
【0013】また、上記情報端末装置と、その情報端末
から通信網を介して入力した生体情報をデータベースに
登録し、その生体情報と、既に登録されたデータベース
からの各生体情報とから各個人の識別関数を学習する学
習手段と、その生体情報及び各個人の識別関数とIDを
管理するシステム管理手段とを有する登録用サーバーと
を具備することにより、精度の高い認証システムが可能
となる。Further, the information terminal device and the biometric information input from the information terminal via the communication network are registered in a database, and the biometric information of each individual is registered from the biometric information and each biometric information from the already registered database. By providing the learning means for learning the identification function and the registration server having the biometric information and the system management means for managing the identification function and ID of each individual, a highly accurate authentication system can be realized.
【0014】[0014]
【発明の実施の形態】本発明の情報端末装置は、入力さ
れたユーザーの生体情報を表示する表示手段と、その生
体情報をもとに予め登録されたユーザーを個人認証する
ための認証手段とを有し、その表示手段はその生体情報
の大きさと位置を指定するための指標を表示している。
これにより、生体情報の入力を正確に行うことができ
る。BEST MODE FOR CARRYING OUT THE INVENTION The information terminal device of the present invention comprises a display means for displaying the input biometric information of the user, and an authentication means for personally authenticating a user registered in advance based on the biometric information. The display means displays an index for designating the size and position of the biometric information.
Thereby, the biometric information can be accurately input.
【0015】また、本発明の情報端末装置は、その生体
情報は、ユーザーの顔画像、及びユーザーの顔画像と音
声のいずれか一方である。これにより、入力はカメラや
マイクを使った非接触入力ができ、特別な入力装置を必
要としない。Further, in the information terminal device of the present invention, the biometric information is either the face image of the user, or the face image of the user or the voice. This allows non-contact input using a camera or a microphone, and does not require a special input device.
【0016】また、本発明の情報端末装置は、その指標
が、両目の位置を規定している。これにより、認証に適
したサイズと顔向きの顔画像を入力することができると
いう作用を有する。In the information terminal device of the present invention, the index defines the positions of both eyes. As a result, there is an effect that a face image having a size and a face orientation suitable for authentication can be input.
【0017】また、本発明の情報端末装置は、生体情報
を評価する評価手段を更に備えている。これにより、抽
出した生体情報の認証対象としての適否を判定すること
が出来、ユーザーに指示すべき内容を決定することが可
能になる。Further, the information terminal device of the present invention further comprises an evaluation means for evaluating biological information. This makes it possible to determine the suitability of the extracted biometric information as an authentication target, and to determine the content to be instructed to the user.
【0018】また、本発明の情報端末装置の評価手段
は、顔位置検出、顔サイズ検出、顔向き検出、光源方向
検出及び、瞬き検出の少なくともいずれか一つを有して
いる。これにより、抽出した生体情報の認証対象として
の適否を判定することが出来、ユーザーに指示すべき内
容を決定することが可能になる。The evaluation means of the information terminal device of the present invention has at least one of face position detection, face size detection, face orientation detection, light source direction detection, and blink detection. This makes it possible to determine the suitability of the extracted biometric information as an authentication target, and to determine the content to be instructed to the user.
【0019】また、本発明の情報端末装置は、生体情報
を入力する際に、ユーザーに指示を与える指示手段を、
更に備えている。これにより、抽出精度を上げるために
ユーザーが適当な対応を行うことができる。Further, the information terminal device of the present invention comprises an instruction means for giving an instruction to the user when the biometric information is input,
Further equipped. This allows the user to take appropriate measures to improve the extraction accuracy.
【0020】また、本発明の情報端末装置は、その指示
手段は、瞬きを行う指示、体の向きを変える指示、顔を
上下または左右に動かす指示及び、位置を移動する指示
のうちのいずれかを与える。これらにより、写真を使っ
て本人に成りすますのを牽制することや、顔にあたる照
明の条件を変えることにより認証精度を向上させること
や、顔の上下または左右の向きが原因となる認証精度の
低下を防ぐことができる。In the information terminal device of the present invention, the instruction means is one of an instruction to blink, an instruction to change the body direction, an instruction to move the face up and down or left and right, and an instruction to move the position. give. With these, it is possible to prevent people from impersonating themselves by using photos, improve the authentication accuracy by changing the condition of the lighting that hits the face, and improve the authentication accuracy due to the vertical or horizontal orientation of the face. You can prevent the decline.
【0021】また、本発明の情報端末装置の指示手段に
おいて、ユーザーに与える指示は、評価手段における検
出結果をフィードバックする指示である。これによっ
て、評価手段が評価結果により決定した指示をユーザー
に伝えることができる。Further, in the instruction means of the information terminal device of the present invention, the instruction given to the user is an instruction for feeding back the detection result in the evaluation means. As a result, the instruction determined by the evaluation means based on the evaluation result can be transmitted to the user.
【0022】また、本発明の情報端末装置は、顔画像を
鏡像に変換して表示している。これにより、カメラから
取り込んだ自分自身の顔の位置を中央に合わせやすくす
ることができる。Further, the information terminal device of the present invention converts the face image into a mirror image and displays it. This makes it easier to align the position of one's face captured from the camera with the center.
【0023】また、本発明の情報端末装置は、通信手段
を備えた携帯情報端末や、携帯型パソコンおよび携帯電
話のいずれかである。これにより、携帯型の端末により
どこでも生体情報の入力を正確に行うことができる。The information terminal device of the present invention is any one of a portable information terminal having a communication means, a portable personal computer and a portable telephone. Thereby, the biometric information can be accurately input anywhere by the portable terminal.
【0024】また、本発明の情報端末装置は、指標が2
つ以上の、点、円、十字あるいは多角形である。これに
より、生体情報の大きさと位置を正確に指定することが
できる。The index of the information terminal device of the present invention is 2
It is one or more points, circles, crosses or polygons. This makes it possible to accurately specify the size and position of the biometric information.
【0025】本発明の認証システムは、本発明の情報端
末装置と、その情報端末装置から通信網を介して入力し
た生体情報をデータベースに登録し、その生体情報と既
に登録されたデータベースからの各生体情報から各個人
の識別関数を学習する学習手段と、その生体情報及びそ
の識別関数とIDを管理するシステム管理手段とを有す
る登録用サーバーとを具備している。これにより、ネッ
トワーク上のサービス、例えば、電子商取引、エレクト
ロニックバンキングにアクセスするための個人認証手段
としての機能できる。The authentication system of the present invention registers the information terminal device of the present invention and the biometric information input from the information terminal device via the communication network in a database, and the biometric information and each of the registered biometric information from the already registered database. The registration server has a learning means for learning the identification function of each individual from the biometric information, and a registration server having a system management means for managing the biometric information and the identification function and ID. This allows it to function as a personal authentication means for accessing services on the network, such as electronic commerce and electronic banking.
【0026】また、本発明の認証システムは、個人の生
体情報が、一定期間毎に更新される。これにより、一定
期間毎に個人の生体情報を更新され、安全性が確保でき
る。Further, in the authentication system of the present invention, the biometric information of an individual is updated at regular intervals. As a result, the biometric information of the individual is updated at regular intervals, and safety can be ensured.
【0027】また、本発明の認証システムは、登録用サ
ーバーが、各情報端末装置に、一定期間毎に個人の生体
情報を更新するように促している。これにより、より安
全な認証が可能となる。Further, in the authentication system of the present invention, the registration server prompts each information terminal device to update the biometric information of an individual at regular intervals. This enables more secure authentication.
【0028】また、本発明の登録・認証方法は生体情報
の大きさと位置を指定するための指標を表示するステッ
プと、この指標に基づいて入力されたユーザーの生体情
報を表示するステップと、この生体情報が指標に対して
許容するか否かを評価するステップと、この評価結果が
許容範囲でない場合はユーザーに改善のための指示を与
え、許容範囲内の場合は生体情報を登録処理あるいは、
予め登録された情報を基に認証処理するステップと、登
録処理あるいは認証処理後に顔の向きを変える指示と瞬
きを行う指示との少なくともいずれか一つを指示し、指
示通りに変更したかを認識する本人へのなりすましの検
出をするステップと、このなりすましを検出したときに
登録処理あるいは認証処理を中止するステップとを有し
ている。これにより、顔画像の抽出精度が向上し、登録
や認証の正確さを増すことができる。また、他人が本人
になりすましていても区別しやすくなる。Further, the registration / authentication method of the present invention includes a step of displaying an index for designating the size and position of biometric information, a step of displaying biometric information of the user input based on this index, A step of evaluating whether or not the biometric information is allowed with respect to the index, and if the evaluation result is not within the allowable range, give a user an instruction for improvement, and if it is within the allowable range, register the biometric information or
Instructing at least one of the step of performing authentication processing based on pre-registered information, the instruction to change the face direction after the registration processing or the authentication processing, and the instruction to blink, and recognize whether the change has been made as instructed There is a step of detecting impersonation to the person who performs the authentication and a step of stopping the registration processing or the authentication processing when the impersonation is detected. Thereby, the extraction accuracy of the face image is improved, and the accuracy of registration and authentication can be increased. Moreover, it becomes easy to distinguish even if another person impersonates himself.
【0029】また、本発明の登録・認証方法は、顔の向
きを変える指示と瞬きを行う指示との少なくとも1つを
ランダムに指示する。これにより、なりすまし検知をよ
り効果的に行うことができる。Further, in the registration / authentication method of the present invention, at least one of the instruction to change the direction of the face and the instruction to blink is randomly given. This makes it possible to more effectively detect spoofing.
【0030】以下、本発明の実施の形態について図面を
参照しながら説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0031】(実施の形態1)図1は、本発明の実施の
形態1における認証機能を有する情報端末装置の機能構
成図を示す。図1における情報端末装置6は、生体情報
を入力する入力手段1と、ユーザーが入力した生体情報
の状況を確認する生体情報確認手段5と入力した生体情
報を評価する評価手段7と、ユーザーにこの評価結果に
従った指示を与える指示手段8と、評価された生体情報
をもとに予め登録されたユーザーを認証するための認証
手段4とを備えその生体情報確認手段5は入力した生体
情報を表示する表示手段2と、入力した生体情報の大き
さや位置を指定するための2つの点等の指標を表示する
指標表示手段3とから構成されている。ここで指標とは
両目の位置を合わせるための印であり、図22(A)に
示すような2つ点の他に、図23(A)に示すような円
や、図23(B)に示すような十字や、図23(C)に
示すような多角形などであるが、位置を決めるための印
となるものであればよく、これらに限定されるものでは
ない。(Embodiment 1) FIG. 1 is a functional block diagram of an information terminal device having an authentication function according to Embodiment 1 of the present invention. The information terminal device 6 in FIG. 1 includes an input unit 1 for inputting biometric information, a biometric information confirmation unit 5 for confirming the status of biometric information input by a user, an evaluation unit 7 for evaluating the biometric information input, and a user The biometric information confirming means 5 is provided with an instructing means 8 for giving an instruction according to the evaluation result and an authenticating means 4 for authenticating a user registered in advance based on the evaluated biometric information. Is displayed, and index display means 3 for displaying indexes such as two points for designating the size and position of the input biometric information. Here, the index is a mark for aligning the positions of both eyes, and in addition to two points as shown in FIG. 22 (A), a circle as shown in FIG. 23 (A) or a mark as shown in FIG. 23 (B). Although it is a cross as shown or a polygon as shown in FIG. 23C, it is not limited to these as long as it serves as a mark for determining the position.
【0032】本発明の情報端末装置6としては、携帯情
報端末(PDA)、携帯電話、携帯型パソコン等が含まれ
るが、これに限定されるものではない。The information terminal device 6 of the present invention includes, but is not limited to, a personal digital assistant (PDA), a mobile phone, a portable personal computer and the like.
【0033】図2は、本発明の実施の形態1における情
報端末装置の1例として携帯電話1001を使った顔に
よる個人認証の登録・認証システムの構成を示し、以下
に説明する。FIG. 2 shows the configuration of a face personal identification registration / authentication system using a mobile phone 1001 as an example of the information terminal device according to the first embodiment of the present invention, which will be described below.
【0034】このシステムは携帯電話1001と、登録
用サーバー201とがネットワーク101で接続された
構成になっている。登録用サーバー201は顔認証用に
登録した画像を用いて学習を行う機能を備えており、シ
ステム管理部202、顔画像登録・更新部203、顔画
像データベース204、データ入出力部205から構成
されている。データ入出力部205は携帯電話1001
から送信されるデータの受信と、登録用サーバー201
で処理した結果を携帯電話1001に送信する機能を備
えている。This system has a structure in which a mobile phone 1001 and a registration server 201 are connected by a network 101. The registration server 201 has a function of performing learning using images registered for face authentication, and includes a system management unit 202, a face image registration / update unit 203, a face image database 204, and a data input / output unit 205. ing. The data input / output unit 205 is a mobile phone 1001.
The data sent from the registration server 201
The mobile phone 1001 is provided with a function of transmitting the result processed in (1).
【0035】システム管理部202は、顔画像の登録に
関わる個人情報の管理と登録処理の管理を行う機能を備
え、個人情報管理部206と登録ログ管理部207とか
ら構成される。個人情報管理部206は個人情報とし
て、所有者氏名、携帯電話番号、利用者氏名とユーザー
IDを管理する機能を備え、登録ログ管理部207は、
ユーザーID、登録画像ID、登録日、更新日、学習結
果IDを管理する機能を備えている。顔画像登録・更新
部203は、登録顔画像を用いて学習を行い、入力画像
に対し、本人かどうかを判定する関数を求める機能を備
えている。顔画像データベース204は、登録顔画像や
学習によって得られた関数を蓄積する機能を備えてい
る。なお、携帯電話1001にはICカード50が装着
可能になっている。The system management unit 202 has a function of managing personal information relating to registration of a face image and a registration process, and comprises a personal information management unit 206 and a registration log management unit 207. The personal information management unit 206 has a function of managing the owner name, mobile phone number, user name and user ID as personal information, and the registration log management unit 207
It has a function of managing a user ID, a registered image ID, a registration date, an update date, and a learning result ID. The face image registration / update unit 203 has a function of performing learning using the registered face image and obtaining a function for determining whether or not the input image is the person. The face image database 204 has a function of accumulating registered face images and functions obtained by learning. An IC card 50 can be attached to the mobile phone 1001.
【0036】また、図3は情報端末装置としてカメラ付
き携帯電話1001の概観図である。図3においてカメ
ラ付き携帯電話1001は、スピーカー11、ディスプ
レイ12、顔画像を取り込むためのカメラ13、マイク
14、アンテナ15、ボタン16、ICカード50、I
Cカード読取りインタフェース51から構成されてい
る。カメラ付き携帯電話1001の全体のデータ処理は
図5に示すデータ処理部17で行う。データ処理部17
は機器制御部18およびデータ記憶部19からなる。FIG. 3 is a schematic view of a camera-equipped mobile phone 1001 as an information terminal device. In FIG. 3, a camera-equipped mobile phone 1001 includes a speaker 11, a display 12, a camera 13 for capturing a face image, a microphone 14, an antenna 15, a button 16, an IC card 50, I.
It is composed of a C card reading interface 51. The entire data processing of the camera-equipped mobile phone 1001 is performed by the data processing unit 17 shown in FIG. Data processing unit 17
Is composed of a device control unit 18 and a data storage unit 19.
【0037】図5は、本発明の実施の形態1におけるカ
メラ付き携帯電話1001の機能構成を示している。FIG. 5 shows a functional configuration of the camera-equipped mobile phone 1001 according to the first embodiment of the present invention.
【0038】図5において、データ処理部17は、カメ
ラ13やマイク14やボタン16からの入力データ、あ
るいはICカード50からICカード読取りインタフェ
ース51を介して入力したデータを処理し、スピーカー
11やディスプレイ12やアンテナ15に出力する機能
を備え、機器制御部18とデータ記憶部19から構成さ
れている。機器制御部18は様々なプログラムを用いて
データを処理するだけでなく、携帯電話1001の機器
制御も行う。データ記憶部19は、機器制御部18で用
いる様々なプログラムと、カメラ13やマイク14やボタ
ン16から入力したデータと、機器制御部18で処理した
結果データを蓄積できる。In FIG. 5, the data processing unit 17 processes the input data from the camera 13, the microphone 14 and the button 16, or the data input from the IC card 50 through the IC card reading interface 51, and the speaker 11 and the display. It has a function of outputting to the antenna 12 and the antenna 15, and is composed of a device control unit 18 and a data storage unit 19. The device control unit 18 not only processes data using various programs, but also controls the device of the mobile phone 1001. The data storage unit 19 can store various programs used by the device control unit 18, data input from the camera 13 or the microphone 14 or the button 16 and result data processed by the device control unit 18.
【0039】顔認証部20は、登録画像を学習した結果
を記憶する学習済み関数記憶部22と、ICカード50
から読み込んだ登録画像と学習済み関数記憶部22から
読み込んだ学習結果を用いて、カメラ13から取り込ん
だ顔画像の認証を行う認証部21とから構成されてい
る。The face authentication section 20 has a learned function storage section 22 for storing the result of learning the registered image, and the IC card 50.
The authentication unit 21 is configured to authenticate the face image captured from the camera 13 by using the registered image read from the learning function and the learning result read from the learned function storage unit 22.
【0040】図5の個人認証機能つき携帯電話1001
において、カメラ13は入力手段1を構成し、ディスプ
レイ12は表示手段2と指標表示手段3とを構成し、ス
ピーカー11あるいはディスプレイ12は指示手段8を
構成し、データ処理部17は評価手段7を構成し、顔認
証部20は認証手段4を構成している。Mobile phone 1001 with personal authentication function shown in FIG.
3, the camera 13 constitutes the input means 1, the display 12 constitutes the display means 2 and the index display means 3, the speaker 11 or the display 12 constitutes the instruction means 8, and the data processing section 17 constitutes the evaluation means 7. The face authentication unit 20 constitutes the authentication means 4.
【0041】次に、本発明の実施の形態1の動作につい
て説明する。Next, the operation of the first embodiment of the present invention will be described.
【0042】まず、登録の動作を図6(A)、図7及
び、図8を用いて説明する。図6(A)は、顔画像の登
録シーケンスを表しており、携帯電話1001と登録用
サーバー201との間のコマンド、携帯電話1001で
の顔画像抽出処理601、登録用サーバー201での顔
画像学習処理602から構成されている。First, the registration operation will be described with reference to FIGS. 6A, 7 and 8. FIG. 6A shows a face image registration sequence, which is a command between the mobile phone 1001 and the registration server 201, a face image extraction process 601 in the mobile phone 1001, and a face image in the registration server 201. It is composed of a learning process 602.
【0043】顔画像抽出処理601では、テンプレート
マッチングにより、顔領域の抽出処理を行う。テンプレ
ートマッチングの処理は以下のとおりである。予め複数
の画像から顔領域を抽出し、顔領域画像の濃淡パターン
からなる特徴ベクトルxの平均ベクトルxmを標準パタ
ーンとして用意する。入力画像(N×M画素)の中心座標
(Xc、Yc:0<Xc<M、0<Yc<N)が、縦n画素、横m画
素(N>n、M>m)のサイズで切り出す画像の中心とな
るように入力画像を切り出し、それを標準パターン画像
と同じサイズに変換する。その後、濃淡パターンからな
る特徴ベクトルxiを算出し、標準パターンの特徴ベク
トルxmと入力画像の特徴ベクトルxiの類似度(例え
ば、後述のユークリッド距離の逆数)が、予め設定した
しきい値以上であったら、顔画像抽出結果として出力す
る。また、同様の手法を用いて、顔領域抽出の後に、目
の抽出機能を有することも可能である。In the face image extraction processing 601, the face area extraction processing is performed by template matching. The template matching process is as follows. Face regions are extracted in advance from a plurality of images, and an average vector x m of the feature vectors x, which are gray patterns of the face region images, is prepared as a standard pattern. The center coordinates (X c , Y c : 0 <X c <M, 0 <Y c <N) of the input image (N × M pixels) have vertical n pixels and horizontal m pixels (N> n, M> m) The input image is cut out so that it becomes the center of the image to be cut out with the size of, and it is converted into the same size as the standard pattern image. After that, a feature vector x i consisting of a grayscale pattern is calculated, and the similarity between the feature vector x m of the standard pattern and the feature vector x i of the input image (for example, the reciprocal of the Euclidean distance described later) is set to a preset threshold value. If it is above, it is output as the face image extraction result. It is also possible to have an eye extraction function after the face area extraction using the same method.
【0044】携帯電話1001のボタン6を操作するこ
とにより、機器制御部18はデータ記憶部19から登録
用プログラムを読み出し、そして実行する。ただし、本
人以外が操作するのを避けるため、本人だけが記憶して
いる番号を入力した場合のみ、登録用プログラムを読み
出す。機器制御部18は登録用サーバー201に登録要
求603を送信し、登録用サーバー201からの要求受
付応答604を受信すると顔画像抽出処理601を開始
する。By operating the button 6 of the mobile phone 1001, the device control section 18 reads the registration program from the data storage section 19 and executes it. However, in order to avoid operation by anyone other than the person himself / herself, the registration program is read out only when the number stored by the person himself / herself is input. The device control unit 18 transmits a registration request 603 to the registration server 201, and when receiving a request acceptance response 604 from the registration server 201, starts the face image extraction processing 601.
【0045】一方、登録用サーバー201は登録要求6
03を受信すると、システム管理部202が個人情報の
照合を行い、新規登録か、登録情報の更新かを判断す
る。新規登録の場合は、受信した個人情報を追加し、登
録ログを新規に作成する。登録準備が完了すると、登録
用サーバー201は登録要求受付IDを含む要求受付応
答604を携帯電話1001へ送信する。On the other hand, the registration server 201 sends the registration request 6
When 03 is received, the system management unit 202 collates personal information and determines whether it is new registration or registration information update. In the case of new registration, the received personal information is added and a new registration log is created. When the preparation for registration is completed, the registration server 201 transmits a request reception response 604 including the registration request reception ID to the mobile phone 1001.
【0046】顔画像抽出処理601について図7、図2
2(A)、図22(B)を用いて説明する。Face image extraction processing 601 shown in FIGS.
2 (A) and FIG. 22 (B) will be described.
【0047】図7は、顔画像抽出処理601のフロー図
である。機器制御部18はディスプレイ12の表示切替
え(現在の表示からカメラ入力表示への切替え)を行う
(step1)。カメラ入力表示への切替え時には、ディ
スプレイ12にカメラ入力画像の左右反転した鏡像を表
示する。機器制御部18はディスプレイ12に顔あるい
は目の位置を決めるための2つの点などの指標2217
を表示する(step2)。なお、この目の位置を示す2
点の間隔及び画面上の表示位置は、サンプル顔画像の目
の間隔の平均値から求めるのが好ましい。FIG. 7 is a flow chart of the face image extraction processing 601. The device control unit 18 switches the display of the display 12 (switches the current display to the camera input display).
(Step 1). At the time of switching to the camera input display, the mirror image of the camera input image which is horizontally inverted is displayed on the display 12. The device control unit 18 displays on the display 12 an index 2217 such as two dots for determining the position of the face or eyes.
Is displayed (step 2). In addition, 2 indicating the position of this eye
It is preferable to determine the interval between the dots and the display position on the screen from the average value of the interval between the eyes of the sample face image.
【0048】そして次に、カメラ13から入力する登録
者の顔が画面いっぱいに収まるように指示を出す(st
ep3)。指示の方法は、ディスプレイ12に指示を表
示する、あるいはスピーカー11を使って音声で指示を
行う。Then, an instruction is issued so that the face of the registrant input from the camera 13 fits in the entire screen (st
ep3). As an instruction method, an instruction is displayed on the display 12, or an instruction is given by voice using the speaker 11.
【0049】次に、機器制御部18は生体情報を取り込
み(step4)、この生体情報と予め用意してあるテ
ンプレートとのマッチング処理を行う(step5)。
この処理で求めた類似度と所定のしきい値との比較を行
い(step6)、類似度が小さい場合は生体情報が正
常でないと判断し、ユーザーに改善のために顔の向きを
変える、顔を上下あるいは左右に動かす、体の向きを変
える、位置を移動するといった指示を出し(step
7)、step4に戻る。Next, the device control section 18 takes in the biometric information (step 4) and performs a matching process between the biometric information and a template prepared in advance (step 5).
The similarity calculated by this process is compared with a predetermined threshold value (step 6). If the similarity is small, it is determined that the biometric information is not normal, and the user changes the face direction for improvement. To move up and down or left and right, change the direction of the body, move the position (step
7) Return to step 4.
【0050】類似度が大きい場合は生体情報が正常であ
ると判断し、次に顔の向きを変える、あるいは瞬きをす
るといった本人へのなりすましを防止するための指示を
出す(step8)。この指示の結果、なりすましであ
ると検出した場合は登録処理を終了し、検出しなかった
場合はstep12へ進む。このなりすまし防止の指示
は顔の向きを変える指示と、瞬きをする指示との少なく
ともいずれかひとつをランダムに行うのが好ましい。こ
れはなりすまし防止に対する準備を行う機会を、少なく
することができるからである。If the degree of similarity is large, it is determined that the biometric information is normal, and then an instruction is issued to prevent the person from impersonating the person, such as changing the direction of the face or blinking (step 8). As a result of this instruction, if it is detected that it is spoofing, the registration process is ended, and if it is not detected, the process proceeds to step 12. It is preferable that at least one of the instruction to change the direction of the face and the instruction to blink is randomly given as the instruction to prevent spoofing. This is because it is possible to reduce the chances of preparing for impersonation prevention.
【0051】図22(A)は入力顔画像の例で、入力顔
画像が小さく、かつ、2つの点等の指標2217からず
れている場合の例である。機器制御部18が顔画像抽出
処理601にて、顔領域2218、および目を抽出し
(step4)、抽出した目の中心座標2219と前述
の指標2217との距離が、予め設定したしきい値より
も大きいことを検出した(step5)場合は、前述の
ように顔を上下あるいは左右に動かすようにディスプレ
イ12、あるいはスピーカー11より指示を出す(以下
「顔(目)位置検出」という)(step7)。次に、
テンプレートとして指標と同一サイズの顔画像および、
指標より大きい例えば、指標プラスしきい値のサイズの
顔画像、あるいは小さい例えば、指標マイナスしきい値
のサイズの顔画像をあらかじめ用意しておき、入力画像
から抽出した顔画像とそれぞれのサイズのテンプレート
顔画像との間で前述のテンプレートマッチングの場合と
同様にして類似度の算出を行い、入力画像と指標と同一
サイズのテンプレート間の類似度が、大きいサイズのテ
ンプレート間との類似度よりも低い場合(step6)
には、カメラから遠のくようにディスプレイ12あるい
はスピーカー11より指示を出し(step7)、入力
画像と指標と同一サイズのテンプレート間の類似度が、
小さいサイズのテンプレート間との類似度よりも低い場
合(step6)には、カメラに近づくように指示を出
す(以下「顔サイズ検出」という)(step7)。こ
のように検出結果をフィードバックした指示を出すこと
が可能である。また、このようなテンプレートを用いな
い方法としては、抽出した左目の中心座標と左目の指標
2217との距離と、右目の中心座標と右目の指標22
17との距離とがそれぞれしきい値よりも大きいか小さ
いかを検出したり、あるいはしきい値との差分の比率を
算出することにより、顔を上下左右あるいは近づくこと
や遠のくことの指示をだすことができる。FIG. 22A is an example of an input face image, which is an example in which the input face image is small and deviates from the index 2217 such as two points. The device control unit 18 extracts the face area 2218 and the eyes in the face image extraction processing 601 (step 4), and the distance between the center coordinates 2219 of the extracted eyes and the above-mentioned index 2217 is larger than a preset threshold value. If it is detected that it is also large (step 5), the display 12 or the speaker 11 gives an instruction to move the face up and down or left and right as described above (hereinafter referred to as "face (eye) position detection") (step 7). . next,
A face image of the same size as the index as a template, and
A face image larger than the index, for example, a face image with a size of the index plus a threshold, or a face image with a size smaller than the index, for example, a size of the index minus the threshold, is prepared in advance, and a face image extracted from the input image and a template of each size are prepared. Similarity is calculated between the face image and the template in the same manner as in the case of the template matching described above, and the similarity between the input image and the template having the same size as the index is lower than the similarity between the templates having a large size. Case (step6)
, An instruction is issued from the display 12 or the speaker 11 so as to move away from the camera (step 7), and the similarity between the input image and the template of the same size as the index is
If the degree of similarity between templates of a small size is lower (step 6), an instruction is issued to approach the camera (hereinafter referred to as "face size detection") (step 7). In this way, it is possible to give an instruction by feeding back the detection result. As a method not using such a template, the distance between the extracted center coordinates of the left eye and the index 2217 of the left eye, the center coordinates of the right eye, and the index 22 of the right eye are used.
By detecting whether or not the distance to 17 is larger or smaller than a threshold value, or calculating the ratio of the difference with the threshold value, an instruction to move the face up, down, left, right, approach, or far is issued. be able to.
【0052】また、上記の例では、顔(目)位置検出の
後に、顔サイズ検出を行っているが、逆の手順も可能で
ある。In the above example, the face size is detected after the face (eye) position is detected, but the reverse procedure is also possible.
【0053】そして、入力顔画像が図22(B)に示す
ような認識処理のために適当な位置、および大きさとな
るように、顔画像取り込み(step4)からマッチン
グ処理(step6)までと指示(step7)とを繰
り返す。なお、顔あるいは目の位置を決めるための指標
2217は、位置を決めるための指標となるものであれ
ば限定されるものではない。Then, an instruction is given from the face image capture (step 4) to the matching process (step 6) so that the input face image has an appropriate position and size for the recognition process as shown in FIG. 22B. Repeat step 7). The index 2217 for determining the position of the face or eyes is not limited as long as it is an index for determining the position.
【0054】前述の機器制御部18の動作は、顔(目)
位置と顔サイズの検出を適用した場合の例であるが、更
に以下のようにして「顔向き検出」を適用することも可
能である。The operation of the device control section 18 described above is performed by the face (eyes)
This is an example of the case where the detection of the position and the face size is applied, but it is also possible to apply the “face direction detection” as follows.
【0055】顔向き検出では、あらかじめテンプレート
として正面および、例えば上、下、左、右、左上、右
上、左下、右下等、複数の向きの顔画像を用意して入力
画像から抽出した顔画像とそれぞれの向きのテンプレー
ト顔画像との間で前述と同様に類似度の算出を行い、入
力画像と正面の顔画像のテンプレート間の類似度が、他
の向きのテンプレート間との類似度よりも低い場合に
は、同様に顔の向きを移動する、あるいは体の向きを移
動するよう指示を出す。In the face orientation detection, face images extracted from the input image by preparing face images in a plurality of orientations such as the front face and, for example, upper, lower, left, right, upper left, upper right, lower left, lower right in advance as templates. And the template face image in each direction are calculated in the same manner as described above, and the similarity between the template of the input image and the face image of the front is higher than the similarity between the templates of other directions. If it is low, the user similarly instructs to move the face or the body.
【0056】また、光源方向が正面および、例えば上、
下、左、右、左上、右上、左下、右下等、光源方向が異
なる複数の顔画像をあらかじめテンプレートとして用意
することにより、顔向き検出と同様な手法で光源方向を
検出し、光源方向が正面でない場合は同様に顔の向きを
移動する、あるいは体の向きを移動するよう指示を出す
ことも可能である(以下「光源検出」という)。Further, the light source direction is in the front and, for example, above,
By preparing multiple face images with different light source directions such as bottom, left, right, upper left, upper right, lower left, and lower right in advance as templates, the light source direction is detected by the same method as face direction detection, and the light source direction is If it is not in front, it is also possible to give an instruction to move the face or move the body (hereinafter, referred to as “light source detection”).
【0057】以上の顔(目)位置検出、顔サイズ検出、
顔向き検出及び、光源方向検出はシーケンシャルに行う
ことも、またこれら全てのテンプレートを同時に比較し
てまとめて指示を出すことも可能である。The above face (eye) position detection, face size detection,
Face direction detection and light source direction detection can be performed sequentially, or all of these templates can be compared at the same time and instructions can be issued collectively.
【0058】なお、顔(目)位置検出と顔サイズ検出を
行った後に、顔向き検出や光源方向検出を行う場合に
は、後述するKL展開による類似度比較を行うほうが上
記のテンプレートマッチングによるものよりも好まし
い。When the face orientation and the light source direction are detected after the face (eye) position detection and the face size detection, the above-mentioned template matching is performed by the similarity comparison by the KL expansion described later. More preferred.
【0059】さらに、本人になりすまして登録や認証を
することの防止のために目の抽出機能を有する場合は、
スピーカー11あるいはディスプレイ12より瞬きをす
る指示を出し(step8)、機器制御部18で瞬きを
検出する(step9)ことも可能である。但し、この
検出は顔(目)位置検出、顔サイズ検出を行って正しい
位置にユーザーが移動した後に行う必要がある。Furthermore, in the case of having an eye extraction function to prevent registration or authentication by impersonating the person,
It is also possible to issue a blink instruction from the speaker 11 or the display 12 (step 8), and the device control unit 18 can detect the blink (step 9). However, this detection needs to be performed after the face (eye) position detection and the face size detection are performed and the user moves to the correct position.
【0060】この瞬き検出(step9)は以下のよう
にして行う。すなわち、あらかじめテンプレートとして
目を開いている目画像、および目を閉じている目画像を
用意して、時間的に連続する入力画像から抽出した目画
像に対してそれぞれテンプレート画像との間で前述と同
様にして類似度の算出を行い、類似度の値により入力画
像が目を開いている状態か、閉じている状態かの判定を
行う。そして、入力画像の目の開閉の状態が、目を開い
ている→目を閉じている→目を開いているという状態の
時間シーケンスが検出された場合、瞬きをしたものと判
定する。この判定で瞬きを検出しなかった場合、本人へ
のなりすましをしていると判断し、登録を終了する。ま
た、このなりすまし防止の方法としては、前述した顔向
き検出や光源方向検出も有効である。これらにより、例
えば顔写真を用いてなりすまそうとすることを防止でき
る。The blink detection (step 9) is performed as follows. That is, an eye image with open eyes and an eye image with closed eyes are prepared in advance as templates, and the eye images extracted from the temporally continuous input images are respectively described above and with the template image. Similarly, the similarity is calculated, and it is determined based on the value of the similarity whether the input image has the eyes open or the eyes closed. Then, when a time sequence in which the open / closed state of the eyes of the input image is “open eyes → closed eyes → open eyes” is detected, it is determined that blinking has occurred. If no blink is detected in this determination, it is determined that the person is impersonating, and the registration is terminated. Further, the face direction detection and the light source direction detection described above are also effective as a method for preventing this spoofing. By these, for example, it is possible to prevent the person from trying to impersonate using a facial photograph.
【0061】以上のように、生体情報の大きさを指定す
ることにより、入力される生体情報の画像の解像度を、
認証に必要な所定の値で得ることができるようになる。
また、生体情報の位置を指定することにより、認証の対
象である生体情報のみを正確に抽出することができるよ
うになり、ノイズの少ない良好な情報を入手できるとい
う効果が得られる。これら、大きさと位置の両方を指定
することによってはじめて、解像度の高い、ノイズが少
ない、認証に最適な生体情報を得ることが出来るように
なる。As described above, by designating the size of the biometric information, the resolution of the input biometric information image can be
It becomes possible to obtain it with a predetermined value required for authentication.
Further, by designating the position of the biometric information, it becomes possible to accurately extract only the biometric information to be authenticated, and it is possible to obtain good information with less noise. Only by specifying both the size and the position, it becomes possible to obtain biometric information with high resolution, low noise, and optimal for authentication.
【0062】更に、顔を上下または左右に動かす指示を
行うことにより、顔の向きや光源方向などによる認証精
度の低下を防ぐことも可能になる。Furthermore, by issuing an instruction to move the face up and down or left and right, it is possible to prevent the authentication accuracy from deteriorating due to the direction of the face or the direction of the light source.
【0063】また、これらの指定により、取得する顔画
像の大きさと位置を、登録時と認証時で一致させること
が可能になり、これによっても認証性能を向上させるこ
とができる。Further, by these designations, the size and position of the acquired face image can be made to match at the time of registration and at the time of authentication, which can also improve the authentication performance.
【0064】更に、瞬きを行う指示、体の向きを変える
指示、顔を上下または左右に動かす指示及び、位置を移
動する指示のうちの少なくともいずれかひとつを与える
ことにより、写真を使って本人に成りすますのを牽制す
ることも可能になる。Furthermore, by giving at least one of an instruction to blink, an instruction to change the body direction, an instruction to move the face up and down or left and right, and an instruction to move the position, the photographer is given It will also be possible to control impersonation.
【0065】次に、機器制御部18は入力された顔画像
を圧縮し(step10)、データ記憶部19に十分な記
憶容量がない場合(step11)はstep13へ進
み、十分な記憶容量がある場合(step11)は一旦
データ記憶部19に蓄積する(step12)。そして、
登録に必要な個人情報、登録要求受付IDとともに顔画
像情報を登録用サーバー201に送信する(step1
3)。ここで、登録に必要な個人情報とは、個人情報管
理部206で管理している情報である。Next, the device control section 18 compresses the input face image (step 10). If the data storage section 19 does not have sufficient storage capacity (step 11), the process proceeds to step 13, and if there is sufficient storage capacity. (Step 11) is temporarily stored in the data storage unit 19 (step 12). And
The face image information is transmitted to the registration server 201 together with the personal information required for registration and the registration request reception ID (step 1).
3). Here, the personal information required for registration is information managed by the personal information management unit 206.
【0066】登録用サーバー201は、顔画像情報60
5を受信すると、顔画像登録処理を開始する。The registration server 201 uses the face image information 60.
When 5 is received, the face image registration process is started.
【0067】以下、顔画像登録処理を説明する。登録用
サーバー201は、顔画像を顔画像データベース204
に記録し、顔画像受信応答606を携帯電話1001に
送信する。一方、顔画像受信応答606を送信した登録
用サーバー201において、システム管理部202は顔
画像登録・更新部203に登録画像IDを渡す。登録画
像IDを受け取った顔画像登録・更新部203は顔画像
データベース204から登録画像を読み出し、学習処理
602を行う。The face image registration process will be described below. The registration server 201 stores face images in the face image database 204.
And the face image reception response 606 is transmitted to the mobile phone 1001. On the other hand, in the registration server 201 that has transmitted the face image reception response 606, the system management unit 202 passes the registered image ID to the face image registration / update unit 203. The face image registration / updating unit 203, which has received the registered image ID, reads the registered image from the face image database 204 and performs a learning process 602.
【0068】学習処理602のフロー図を図8に示す。A flow chart of the learning process 602 is shown in FIG.
【0069】学習処理602では、まず登録画像から生
成したベクトルを顔画像データベース204から読み出
し、複数の顔画像の濃淡パターンからなる特徴ベクトル
xfの分散共分散行列Wを用い、(式1)から固有ベク
トルlfを算出しておく。In the learning process 602, first, the vector generated from the registered image is read from the face image database 204, the variance-covariance matrix W of the feature vector x f consisting of the grayscale pattern of a plurality of face images is used, and the expression (1) is used. The eigenvector l f is calculated.
【0070】(W−λjI)lj=0 (1) ここで、λは固有値、Iは単位行列である。(W-λ j I) l j = 0 (1) where λ is an eigenvalue and I is an identity matrix.
【0071】さらに固有値寄与率Cjを(式2)から算
出し、その上位n個の固有ベクトルからなる行列A=(l
1、l2、・・・・、ln)を変換行列(以下、この変換
行列を学習済み関数と呼ぶ)として求める(step1
4)。Furthermore, the eigenvalue contribution rate C j is calculated from (Equation 2), and the matrix A = (l
1, l 2, ····, l n) a transformation matrix (hereinafter, this transformation matrix is called a learned function) obtained as (step1
4).
【0072】Cj=λj/tr(W) (2)
また、ここで、tr(W)は分散共分散行列Wのトレー
スを意味する。C j = λ j / tr (W) (2) Further, tr (W) means the trace of the variance-covariance matrix W.
【0073】この学習済み関数は、ユーザーの識別に使
用される識別関数である。This learned function is a discriminant function used for discriminating the user.
【0074】次に、本人の登録画像のベクトルxsと
(式3)とから、本人の登録画像の特徴ベクトルysを
生成する。この固有空間にマッピングするための学習済
み関数Aが学習結果となる(step15)。Next, the feature vector y s of the registered image of the person is generated from the vector x s of the registered image of the person and (Equation 3). The learned function A for mapping to this eigenspace becomes the learning result (step 15).
【0075】ys=Atxs (3)
これらstep14及びstep15の処理をKL展開
(Karhunen-Loeve 展開)と呼ぶ。学習処理602が終
了すると、顔画像登録・更新部203はシステム管理部
202にこの学習結果と判定のためのしきい値を渡す。
システム管理部202は学習結果IDを、学習結果と判
定のためのしきい値に付与し、顔画像データベース20
4に蓄積する。さらに、システム管理部202はデータ
入出力部205を介して学習結果と判定のためのしきい
値を登録完了応答607として携帯電話1001に送信
する。Y s = A t x s (3) The processing of these step 14 and step 15 is called KL expansion (Karhunen-Loeve expansion). When the learning process 602 ends, the face image registration / update unit 203 passes the learning result and the threshold value for the determination to the system management unit 202.
The system management unit 202 assigns the learning result ID to the learning result and a threshold value for determination, and the face image database 20
Accumulate in 4. Further, the system management unit 202 transmits the learning result and the threshold value for determination as a registration completion response 607 to the mobile phone 1001 via the data input / output unit 205.
【0076】携帯電話1001において、機器制御部1
8は登録用サーバー201からの顔画像受信応答606
を受信すると、データ記憶部19に記録した顔画像を消
去する。また、登録完了応答607を受信すると、デー
タ処理部17は受信した学習結果と判定のためのしきい
値を学習済み関数記憶部22に記録する。機器制御部1
8はユーザーに登録が完了したことをスピーカー11ま
たはディスプレイ12を用いて伝える。機器制御部18
は登録処理を終了し、デフォルトの状態に復帰する。デ
フォルトの状態とは、携帯電話1001の電源を入れた
時の初期状態と同様の状態である。In the mobile phone 1001, the device control unit 1
8 is a face image reception response 606 from the registration server 201
When the is received, the face image recorded in the data storage unit 19 is erased. Further, when the registration completion response 607 is received, the data processing unit 17 records the received learning result and the threshold value for determination in the learned function storage unit 22. Equipment control unit 1
8 notifies the user of the completion of registration using the speaker 11 or the display 12. Device control unit 18
Ends the registration process and returns to the default state. The default state is the same state as the initial state when the mobile phone 1001 is turned on.
【0077】なお、登録用サーバー201は、顔画像デ
ータベース204に蓄積した画像の中から本人の画像を
1枚抽出し、登録画像または登録画像の特徴ベクトルを
ICカード50に書き込む。この時、登録画像以外に個
人情報もICカード50に書き込む。ICカード50は
本人に送付される。The registration server 201 selects the image of the person from the images stored in the face image database 204.
One sheet is extracted and the registered image or the feature vector of the registered image is written in the IC card 50. At this time, personal information is also written in the IC card 50 in addition to the registered image. The IC card 50 is sent to the person.
【0078】なお、登録用サーバー201は、以前に登
録された以降、一定期間経過後に新たに入力した本人の
画像をICカード50に書き込む、あるいは、一定期間
経過するごとに携帯電話1001を経由してユーザーに
登録画像を入力するよう促す機能を有する。The registration server 201 writes the newly input image of the person into the IC card 50 after a certain period of time has elapsed since the registration was made before, or via the mobile phone 1001 every time a certain period of time elapses. It has a function to prompt the user to input the registered image.
【0079】次に、認証の動作について図9(A)と図
9(B)を用いて説明する。Next, the authentication operation will be described with reference to FIGS. 9 (A) and 9 (B).
【0080】携帯電話1001のボタン16を操作する
ことにより、機器制御部18はデータ記憶部19から認
識用プログラムを読み出し、実行する。また、ユーザー
は登録画像が記録されたICカード50をICカード読
取りインタフェース51に挿入する。By operating the button 16 of the mobile phone 1001, the device control section 18 reads the recognition program from the data storage section 19 and executes it. The user also inserts the IC card 50 on which the registered image is recorded into the IC card reading interface 51.
【0081】顔画像抽出処理901と顔画像認識処理9
02のフロー図を図10に示す。Face image extraction processing 901 and face image recognition processing 9
A flow chart of 02 is shown in FIG.
【0082】まず、登録時と同様に顔画像抽出処理90
1を行う(step21)。First, the face image extraction processing 90 is performed as in the registration.
1 is performed (step 21).
【0083】次に、顔画像を使った顔画像認識処理90
2を行う。機器制御部18は顔認証部20に対して顔画
像認識処理902の開始を指示する(step22)。こ
の開始指示(step22)には抽出した顔画像の格納位
置が含まれる。認証部21は抽出画像のベクトルを生成
する(step23)。Next, face image recognition processing 90 using face images
Do 2. The device control unit 18 instructs the face authentication unit 20 to start the face image recognition processing 902 (step 22). This start instruction (step 22) includes the storage position of the extracted face image. The authentication unit 21 generates a vector of the extracted image (step 23).
【0084】同様に、機器制御部18は登録画像をIC
カード50から読み出し、登録画像のベクトルを生成す
る(step24)。ただし、あらかじめ登録画像の特徴
ベクトルが生成され、ICカード50に記録されている
場合にはこの処理は不要である。Similarly, the device control section 18 displays the registered image on the IC.
The vector of the registered image is read out from the card 50 (step 24). However, if the feature vector of the registered image is generated in advance and recorded in the IC card 50, this process is unnecessary.
【0085】機器制御部18は、学習済み関数記憶部2
2から学習済み関数Aと判定のためのしきい値を読み出
す。登録画像のベクトルxsと抽出画像のベクトルxiと
学習済み関数Aを用いて、登録画像の特徴ベクトルys
を(式3)から、そして、抽出画像の特徴ベクトルyi
を(式4)からそれぞれ求める(step25)。The device control section 18 uses the learned function storage section 2
The learned function A and the threshold value for determination are read from 2. Using the registered image vector x s , the extracted image vector x i, and the learned function A, the registered image feature vector y s
From (Equation 3), and the feature vector y i of the extracted image
Are calculated from (Equation 4) (step 25).
【0086】yi=Atxi (4)
求められた登録画像の特徴ベクトルysと抽出画像の特
徴ベクトルyiを用いて類似度を計算し、類似度がしき
い値より大きいか小さいかによって本人かどうかを判定
する。類似度は、登録画像と入力画像、それぞれのベク
トルに対して、KL展開を行った結果である特徴ベクト
ルys、yiを用いて、例えば、出力結果のユークリッド
距離dの逆数として求める。認証部21は判定結果を機
器制御部18に送信する(step26)。Y i = A t x i (4) The similarity is calculated using the obtained registration image feature vector y s and the extracted image feature vector y i , and the similarity is larger or smaller than the threshold value. Whether or not the person is the person is judged. The similarity is obtained, for example, as the reciprocal of the Euclidean distance d of the output result using the feature vectors y s and y i which are the results of the KL expansion of the registered image and the input image. The authentication unit 21 transmits the determination result to the device control unit 18 (step 26).
【0087】ここで、ユークリッド距離dは、(式5)
によって求められる。Here, the Euclidean distance d is (Equation 5)
Required by.
【0088】[0088]
【数1】 [Equation 1]
【0089】本人と判定された場合、機器制御部18は
携帯電話1001のプログラムを全て有効にする(st
ep27)。本人と判定されなかった場合、step2
1に戻る。When it is determined that the user is the person, the device control section 18 validates all programs of the mobile phone 1001 (st
ep27). If the person is not identified, step2
Return to 1.
【0090】なお、上記実施の形態1では、本人の登録
画像としきい値を用いて本人かどうかの判定を行ってい
たが、しきい値を用いない方法もある。登録画像とし
て、本人の画像と他人の画像を複数枚用い、抽出した画
像と本人の画像との類似度が最も大きい場合に本人と判
定し、他人の画像との類似度が最も大きい場合には他人
と判定してもよい。In the first embodiment, the registered image of the person and the threshold value are used to determine whether or not the person is the person, but there is a method that does not use the threshold value. As the registered image, a plurality of images of the person and the image of another person are used, and if the similarity between the extracted image and the image of the person is the largest, it is determined as the person, and if the degree of similarity with the image of the other person is the largest, You may decide to be another person.
【0091】また、このstep21の顔画像抽出処理
を再度行う際に、顔を上下、あるいは左右に動かすなど
の指示を与えることも出来る。この指示は先の認証処理
において検出した顔画像の向きに基づいて行うことが可
能である。Further, when the face image extraction processing of step 21 is performed again, it is possible to give an instruction to move the face up and down, or left and right. This instruction can be issued based on the orientation of the face image detected in the previous authentication processing.
【0092】認証機能付携帯電話1001は、この顔画
像認識処理902の結果を認識成功通知903として、
登録用サーバー201に送信する。また、図9(B)に
示すように、この顔画像認識処理902の結果が認証失
敗であったとき、認証機能付携帯電話1001は登録用
サーバー201に認識失敗通知904を送信する。The mobile phone with authentication function 1001 uses the result of the face image recognition processing 902 as a recognition success notification 903.
Send to the registration server 201. Further, as shown in FIG. 9B, when the result of the face image recognition processing 902 is authentication failure, the mobile phone with authentication function 1001 transmits a recognition failure notification 904 to the registration server 201.
【0093】なお、実施の形態1では、情報端末装置と
して通信機能を有する携帯電話1001を用いたが、図
7のstep1からstep12に示した顔画像抽出処
理601はこれに限らず通信機能を有しない情報処理装
置においても同様の機能を実現し、効果を得ることがで
きる。すなわち、図7に示した顔画像抽出処理601は
認証部21による認証結果が精度良く行えるように機器
制御部18がユーザーに指示を与えたり、ディスプレイ
に指標を表示しており、これらの機能の実現には通信機
能は関係していない。Although the mobile phone 1001 having a communication function is used as the information terminal device in the first embodiment, the face image extraction processing 601 shown in steps 1 to 12 of FIG. 7 is not limited to this and has a communication function. Even in a non-information processing device, the same function can be realized and an effect can be obtained. That is, in the face image extraction processing 601 shown in FIG. 7, the device control unit 18 gives an instruction to the user or displays an index on the display so that the authentication result by the authentication unit 21 can be accurately performed. The communication function is not related to the realization.
【0094】また、本実施の形態1では登録および認証
のための情報端末として、機器制御部18が入力画像か
ら抽出した顔画像を評価し、その結果をもとにして、ユ
ーザーに指示を出す処理を示した。しかし、登録機能を
有せず、認証機能のみを有する情報端末では、機器制御
部18が有する評価機能を認証部21が有し、この認証
部21にて認証に失敗し、再認証のために画像入力を行
う際に同様な指示を出す処理とすることも可能である。Further, in the first embodiment, the device control section 18 evaluates the face image extracted from the input image as an information terminal for registration and authentication, and gives an instruction to the user based on the result. The treatment was shown. However, in an information terminal that does not have a registration function but has only an authentication function, the authentication unit 21 has an evaluation function that the device control unit 18 has, and the authentication unit 21 fails in authentication, so that re-authentication is required. It is also possible to perform a process of issuing a similar instruction when inputting an image.
【0095】なお、本実施の形態1では機器制御部18
や認証部21が入力画像を評価する機能を有している
が、この機能は必須ではなく単にユーザーが指標に顔あ
るいは目を合わせるように指示し、認証の結果を通知す
ることも可能である。In the first embodiment, the device control section 18
The authentication unit 21 has a function of evaluating the input image, but this function is not essential, and the user can simply instruct the user to make a face or eye match with the index and notify the result of the authentication. .
【0096】(実施の形態2)図11は、本発明の実施
の形態2における複数認証機能付き携帯電話の機能構成
図を示す。また、図12は、本発明の実施の形態2にお
ける登録・認証システムを示すシステム構成図を示す。
実施の形態2において、実施の形態1との構成の違い
は、携帯電話1002の構成と登録用サーバー301の
構成であり、その他は同じ構成となっている。したがっ
て、実施の形態2では実施の形態1と異なる構成につい
てのみ図11と図12を用いて説明する。(Second Embodiment) FIG. 11 is a functional block diagram of a mobile phone with a multiple authentication function according to a second embodiment of the present invention. Further, FIG. 12 is a system configuration diagram showing a registration / authentication system according to the second embodiment of the present invention.
The second embodiment is different from the first embodiment in the configuration of the mobile phone 1002 and the configuration of the registration server 301, and the other configurations are the same. Therefore, in the second embodiment, only the configuration different from the first embodiment will be described with reference to FIGS. 11 and 12.
【0097】携帯電話1002と携帯電話1001との
構成の違いは、携帯電話1002が話者の声を用いて認
証を行う話者認証部23が追加されている点である。話
者認証部23は登録音声を学習した結果を記憶する学習
済み関数記憶部25と、ICカード50からICカード
読取りインタフェース51により読み込んだ登録音声と
学習済み関数記憶部25から読み込んだ学習結果を用い
て、マイク14から入力した話者の音声の認証を行う認
証部24とから構成されている。The difference between the configurations of the mobile phone 1002 and the mobile phone 1001 is that the mobile phone 1002 is additionally provided with a speaker authenticating section 23 for authenticating using the voice of the speaker. The speaker authentication unit 23 stores the learned function storage unit 25 for storing the result of learning the registered voice, the registered voice read by the IC card reading interface 51 from the IC card 50, and the learning result read from the learned function storage unit 25. The authentication unit 24 is used to authenticate the voice of the speaker input from the microphone 14.
【0098】また、登録用サーバー301と登録用サー
バー201の構成の違いは、登録用サーバー301が顔
画像を蓄積するための顔画像データベース204が顔画
像と音声を蓄積する顔画像・音声データベース302に
なっている点と音声の学習処理を行う音声登録・更新部
303が追加されている点である。The difference between the registration server 301 and the registration server 201 is that the registration server 301 stores a face image in the face image database 204 for storing face images and voices. And that a voice registration / updating unit 303 for performing voice learning processing is added.
【0099】次に、本発明の実施の形態2の動作につい
て図6(B)を用いて説明する。顔画像の登録動作は実
施の形態1と同様である。ここでは音声の登録動作を説
明する。Next, the operation of the second embodiment of the present invention will be described with reference to FIG. The face image registration operation is the same as in the first embodiment. Here, a voice registration operation will be described.
【0100】図6(B)は、音声の登録シーケンスを表
しており、携帯電話1002と登録用サーバー301と
の間のコマンド、携帯電話1002での音声抽出処理6
08、登録用サーバー301での音声学習処理609か
ら構成されている。FIG. 6B shows a voice registration sequence. A command between the mobile phone 1002 and the registration server 301, a voice extraction process 6 in the mobile phone 1002.
08, and voice learning processing 609 in the registration server 301.
【0101】携帯電話1002のボタン16を操作する
ことにより、顔画像登録時と同様に、機器制御部18は
データ記憶部19から登録用プログラムを読み出し、実
行する。ただし、本人以外が操作するのを避けるため、
本人だけが記憶している番号を入力した場合のみ、登録
用プログラムを読み出す。By operating the button 16 of the mobile phone 1002, the device control section 18 reads out the registration program from the data storage section 19 and executes the same as in the face image registration. However, to avoid being operated by anyone other than the
The registration program is read out only when the number entered is stored only by the person himself / herself.
【0102】機器制御部18は登録用サーバー301に
生体情報を音声として、登録要求610を送信し、登録
用サーバー301からの要求受付応答611を受信する
と音声抽出処理608を開始する。一方、登録用サーバ
ー301は登録要求を受信すると、システム管理部20
2が個人情報の照合を行い、新規登録か、登録情報の更
新かを判断する。新規登録の場合は、受信した個人情報
を追加し、登録ログを新規に作成する。登録準備が完了
すると、登録用サーバー301は登録要求受付IDを含
む要求受付応答611を携帯電話1002へ送信する。The device control section 18 transmits a registration request 610 to the registration server 301 using voice as biometric information, and when receiving a request acceptance response 611 from the registration server 301, starts the voice extraction processing 608. On the other hand, when the registration server 301 receives the registration request, the system management unit 20
2 collates the personal information and judges whether it is a new registration or an update of the registered information. In the case of new registration, the received personal information is added and a new registration log is created. When the preparation for registration is completed, the registration server 301 transmits a request reception response 611 including a registration request reception ID to the mobile phone 1002.
【0103】音声抽出処理608について図13を用い
て説明する。機器制御部18は登録開始の指示をディス
プレイ12に表示する、あるいはスピーカー11を使っ
て音声で指示を行う(step51)。The voice extraction processing 608 will be described with reference to FIG. The device control unit 18 displays an instruction to start registration on the display 12 or gives an instruction by voice using the speaker 11 (step 51).
【0104】ユーザーは指示に従ってマイク14から音
声を入力する。機器制御部18は入力された音声を圧縮
し(step52)、データ記憶部19に十分な容量があ
れば圧縮した音声を一旦データ記憶部19に蓄積する
(step53)。登録に必要な個人情報、登録要求受付
IDとともに音声情報612は公開鍵暗号方式を用いて
暗号化し(step54)、登録用サーバー301に送信
する(step55)。ただし、データ記憶部19に十分
な記憶容量がない場合は、蓄積処理を行わない。The user inputs a voice from the microphone 14 according to the instruction. The device control section 18 compresses the input voice (step 52), and if the data storage section 19 has a sufficient capacity, temporarily stores the compressed voice in the data storage section 19.
(Step 53). The voice information 612 along with the personal information required for registration and the registration request acceptance ID are encrypted using the public key cryptosystem (step 54) and transmitted to the registration server 301 (step 55). However, if the data storage unit 19 does not have a sufficient storage capacity, the accumulation process is not performed.
【0105】登録用サーバー301は、音声を顔画像・
音声データベース302に記録し、音声受信応答613
を携帯電話1002に送信する。一方、受信応答を送信
した登録用サーバー301において、システム管理部2
02は音声登録・更新部303に登録画像IDを渡す。
登録画像IDを受け取った音声登録・更新部303は顔
画像・音声データベース302から登録音声を読み出
し、音声学習処理609を行う。The registration server 301 converts the voice into a face image /
Recorded in the voice database 302 and received as voice response 613
Is transmitted to the mobile phone 1002. On the other hand, in the registration server 301 that has transmitted the reception response, the system management unit 2
02 passes the registered image ID to the voice registration / update unit 303.
Upon receiving the registration image ID, the voice registration / updating unit 303 reads out the registered voice from the face image / voice database 302 and performs a voice learning process 609.
【0106】音声学習処理609のフロー図を図14に
示す。まず、顔画像・音声データベース302から読み
出した登録音声の声紋グラフを作成する(step10
1)。声紋グラフとは、音声の時系列データを周波数成
分に分解し、これを時系列に並べたベクトルである。登
録音声に使用する言葉は、あらかじめ用意された中から
ユーザーが選択する。声紋グラフを、実施の形態1と同
様にKL展開し、固有ベクトルからなる変換行列を学習
済み関数Aとして求める (step102)。A flow chart of the voice learning process 609 is shown in FIG. First, a voiceprint graph of registered voice read from the face image / voice database 302 is created (step 10).
1). The voiceprint graph is a vector in which time series data of voice is decomposed into frequency components and arranged in time series. The user selects the words to be used for the registered voice from among the prepared words. The voiceprint graph is subjected to KL expansion in the same manner as in the first embodiment, and a transformation matrix composed of eigenvectors is obtained as a learned function A (step 102).
【0107】次に、本人の登録音声のベクトルxsと
(式3)により、本人の登録音声の特徴ベクトルysを
生成する。この固有空間にマッピングするための学習済
み関数Aを学習結果とする(step103)。Next, the feature vector y s of the registered voice of the person is generated from the vector x s of the registered voice of the person and (Equation 3). The learned function A for mapping to this eigenspace is used as the learning result (step 103).
【0108】音声学習処理609が終了すると、音声登
録・更新部303はシステム管理部202に学習結果と
判定のためのしきい値を渡す。システム管理部202は
学習結果IDを学習結果と判定のためのしきい値に付与
し、顔画像・音声データベース302に蓄積する。さら
に、システム管理部202はデータ入出力部205を介
して学習結果と判定のためのしきい値を登録完了応答6
14として携帯電話1002に送信する。When the voice learning process 609 is completed, the voice registration / update unit 303 passes the learning result and the threshold value for the determination to the system management unit 202. The system management unit 202 assigns the learning result ID to the learning result and a threshold value for determination, and stores the learning result ID in the face image / voice database 302. Further, the system management unit 202 sets the learning result and the threshold value for the determination via the data input / output unit 205 as a registration completion response 6
14 is transmitted to the mobile phone 1002.
【0109】携帯電話1002において、機器制御部1
8は登録用サーバー301からの音声受信応答613を
受信すると、データ記憶部19に記録した音声を消去す
る。また、登録完了応答614を受信すると、データ処
理部17は受信した学習結果と判定のためのしきい値を
学習済み関数記憶部25に記録する。機器制御部18は
ユーザーに登録が完了したことをスピーカー11または
ディスプレイ12を用いて伝える。機器制御部18は登
録処理を終了し、デフォルトの状態に復帰する。デフォ
ルトの状態とは、携帯電話1002の電源を入れた時の
初期状態と同様の状態である。In the mobile phone 1002, the device control unit 1
When receiving the voice reception response 613 from the registration server 301, the reference numeral 8 erases the voice recorded in the data storage unit 19. Further, when the registration completion response 614 is received, the data processing unit 17 records the received learning result and the threshold value for determination in the learned function storage unit 25. The device control unit 18 notifies the user of the completion of registration using the speaker 11 or the display 12. The device control unit 18 ends the registration process and returns to the default state. The default state is the same state as the initial state when the mobile phone 1002 is turned on.
【0110】なお、登録用サーバー301は、顔画像・
音声データベース302に蓄積した音声の中から本人の
音声を1つ(1単語分)抽出し、登録音声または登録音
声の特徴ベクトルをICカード50に書き込む。この
時、登録音声以外に個人情報もICカード50に書き込
む。ICカード50は本人に送付される。この時、既に
登録されている顔画像がある場合、ユーザーの希望によ
り、登録音声とともに登録画像を1枚のICカード50
に書き込むことも可能である。The registration server 301 uses the face image /
One of the voices of the person (one word) is extracted from the voices stored in the voice database 302, and the registered voice or the feature vector of the registered voice is written in the IC card 50. At this time, personal information is also written in the IC card 50 in addition to the registered voice. The IC card 50 is sent to the person. At this time, if there is a face image that has already been registered, the registration image is recorded together with the registration image on a single IC card
It is also possible to write in.
【0111】次に、認証の動作について図15を用いて
説明する。携帯電話1002のボタン16を操作するこ
とにより、機器制御部18はデータ記憶部19から認識
用プログラムを読み出し、実行する(step153)。
また、ユーザーは登録画像あるいは登録音声が記録され
たICカード50をICカードインタフェース51に挿
入する(step152)。どちらの認証を用いるかはユ
ーザーが選択できる(step151)。選択は、認識用
プログラムを読み出す前に行う。Next, the authentication operation will be described with reference to FIG. By operating the button 16 of the mobile phone 1002, the device control section 18 reads the recognition program from the data storage section 19 and executes it (step 153).
Further, the user inserts the IC card 50 on which the registered image or the registered voice is recorded into the IC card interface 51 (step 152). The user can select which authentication is used (step 151). The selection is made before reading the recognition program.
【0112】認証が成功した場合、機器制御部18は携
帯電話1002のプログラムを全て有効にする(ste
p154)。認証に失敗した場合、処理を継続するかど
うかの判断を行い(step155)、継続する場合に
はstep151に戻る。顔画像を使った認証動作は実
施の形態1で説明したので、ここでは、話者認証の動作
を説明する。When the authentication is successful, the device control section 18 enables all the programs of the mobile phone 1002 (step
p154). If the authentication has failed, it is determined whether or not to continue the process (step 155), and if it is to be continued, the process returns to step 151. Since the authentication operation using the face image has been described in the first embodiment, the speaker authentication operation will be described here.
【0113】話者認識処理のフロー図を図16に示す。FIG. 16 shows a flow chart of the speaker recognition process.
【0114】まず、登録時と同様に音声抽出処理608
を行う(step201)。次に、話者認識処理を行う。
機器制御部18は話者認証部23に対して認証処理の開
始を指示する(step202)。この開始指示には抽出
した音声の格納位置が含まれる。認証部24は抽出した
音声グラフのベクトルを生成する(step203)。同
様に、機器制御部18は登録音声をICカード50から
読み出し、登録音声のベクトルを生成する(step2
04)。ただし、あらかじめ登録音声の特徴ベクトルが
生成され、ICカード50に記録されている場合にはこ
の処理は不要である。First, the voice extraction processing 608 is performed as in the registration.
Is performed (step 201). Next, speaker recognition processing is performed.
The device control unit 18 instructs the speaker authentication unit 23 to start the authentication process (step 202). The start instruction includes the storage position of the extracted voice. The authentication unit 24 generates a vector of the extracted voice graph (step 203). Similarly, the device control unit 18 reads out the registered voice from the IC card 50 and generates a vector of the registered voice (step 2).
04). However, if the feature vector of the registered voice is generated in advance and recorded in the IC card 50, this process is unnecessary.
【0115】機器制御部18は、学習済み関数記憶部2
5から学習済み関数Aと判定のためのしきい値を読み出
し、登録音声のベクトルと抽出音声のベクトルから学習
済み関数Aを用いて登録音声の特徴ベクトルと抽出音声
の特徴ベクトルを求める(step205)。求められた
登録音声の特徴ベクトルと抽出音声の特徴ベクトルを用
いて類似度を計算し、類似度がしきい値より大きいか小
さいかによって本人かどうかを判定する。類似度の計算
は例えば、出力結果のユークリッド距離の逆数を用い
る。認証部24は判定結果を機器制御部18に送信する
(step206)。The device control section 18 uses the learned function storage section 2
The learned function A and the threshold value for determination are read from 5, and the registered voice feature vector and the extracted voice feature vector are obtained from the registered voice vector and the extracted voice vector using the learned function A (step 205). . The similarity is calculated using the obtained feature vector of the registered voice and the feature vector of the extracted voice, and it is determined whether or not the person is the person based on whether the similarity is larger or smaller than a threshold value. The calculation of the similarity uses, for example, the reciprocal of the Euclidean distance of the output result. The authentication unit 24 transmits the determination result to the device control unit 18.
(Step 206).
【0116】なお、本実施の形態のように顔画像認識、
話者認識に関わるアルゴリズムを共通化することにより
コストを下げる効果がある。Note that face image recognition as in the present embodiment,
The cost can be reduced by sharing the algorithm related to speaker recognition.
【0117】更に、認証に失敗して継続(再認証)する
場合、認証を失敗する要因の一つである、登録時と認証
時の照明条件や背景の不一致が、体を動かす等の指示に
より改善されることが期待でき、これらの要因による認
証の失敗が繰り返されないという効果も有する。Further, when the authentication fails and continues (re-authentication), the lighting condition or background inconsistency at the time of registration and authentication, which is one of the factors of the authentication failure, is caused by an instruction such as moving the body. It can be expected to be improved, and there is also an effect that authentication failures due to these factors are not repeated.
【0118】(実施の形態3)本発明の実施の形態3の
構成について図17を用いて説明する。(Third Embodiment) The configuration of the third embodiment of the present invention will be described with reference to FIG.
【0119】実施の形態1との構成の違いは、認証機能
が登録・認証サーバー401にあるという点である。The difference in configuration from the first embodiment is that the registration / authentication server 401 has an authentication function.
【0120】図17において、携帯電話1003、登録
・認証サーバー401がネットワーク101で接続され
た構成になっている。登録・認証サーバー401は登録
・認証サーバー401全体を管理するシステム管理部4
02と顔画像の登録学習と認証を行う登録・認証部40
3とユーザーの顔画像を蓄積する顔画像データベース4
04とから構成され、システム管理部402は顔画像認
証を人手によって実施するための個人認証サポート部4
05と登録ユーザーの住所、氏名、電話番号、登録日を
含む個人情報蓄積部406と認証日時、認証判定を含む
認証ログ蓄積部407と、ディスプレイ408から構成
され、登録・認証部403は個人認証を行う個人認証部
409と顔画像の学習処理を行う顔画像登録部410と
から構成される。In FIG. 17, the mobile phone 1003 and the registration / authentication server 401 are connected by the network 101. The registration / authentication server 401 is a system management unit 4 that manages the entire registration / authentication server 401.
02 and registration of face image Registration / authentication unit 40 for learning and authentication
Face image database 4 that stores face images of users 3 and 3
04, the system management unit 402 includes a personal authentication support unit 4 for manually performing face image authentication.
05 and the registered user's address, name, telephone number, registration date, personal information storage unit 406, authentication date and time, authentication log storage unit 407 including authentication determination, and display 408. The registration / authentication unit 403 performs personal authentication. It is composed of a personal authentication unit 409 for performing the above and a face image registration unit 410 for performing a learning process of the face image.
【0121】携帯電話1003の機能構成を図4に示
す。FIG. 4 shows the functional configuration of the mobile phone 1003.
【0122】携帯電話1003は、スピーカー11、デ
ィスプレイ12、顔画像を取り込むためのカメラ13、
マイク14、アンテナ15、ボタン16、ICカード読
取りインタフェース51、データ処理部17から構成さ
れ、さらにデータ処理部17は機器制御部18とデータ
記憶部19から構成されている。The mobile phone 1003 includes a speaker 11, a display 12, a camera 13 for capturing a face image,
The microphone 14, the antenna 15, the button 16, the IC card reading interface 51, and the data processing unit 17 are provided. The data processing unit 17 is further provided with a device control unit 18 and a data storage unit 19.
【0123】次に、本発明の実施の形態3の動作につい
て説明する。登録動作は実施の形態1とほぼ同様であ
り、登録・認証サーバー401は登録用サーバー201
の機能を全て備えている。ここでは登録動作の実施の形
態1との相違のみを記述する。Next, the operation of the third embodiment of the present invention will be described. The registration operation is almost the same as that in the first embodiment, and the registration / authentication server 401 is the registration server 201.
It has all the functions of. Here, only the difference in the registration operation from the first embodiment will be described.
【0124】実施の形態1では登録画像をICカード5
0に記録する動作を行っていたが、実施の形態3では行
わない。さらに、実施の形態1では機器制御部18は登
録完了応答を受信すると、データ処理部17は受信した
学習結果と判定のためのしきい値を学習済み関数記憶部
22に記録していたが、実施の形態3ではこの動作は行
わない。In the first embodiment, the registered image is displayed on the IC card 5.
Although the operation of recording 0 is performed, it is not performed in the third embodiment. Further, in the first embodiment, when the device control unit 18 receives the registration completion response, the data processing unit 17 records the received learning result and the threshold value for determination in the learned function storage unit 22, This operation is not performed in the third embodiment.
【0125】次に、認証動作について図18を用いて説
明する。携帯電話1001のボタン16を操作すること
により、機器制御部18はデータ記憶部19から認識用
プログラムを読み出し、実行する。まず、登録時と同様
に顔画像抽出処理1801を行う。次に機器制御部18
は登録・認証サーバー401に対して認証要求1802
を送信する。認証要求1802には抽出した顔画像が含
まれている。Next, the authentication operation will be described with reference to FIG. By operating the button 16 of the mobile phone 1001, the device control unit 18 reads the recognition program from the data storage unit 19 and executes it. First, face image extraction processing 1801 is performed as in the case of registration. Next, the device control unit 18
Authentication request 1802 to registration / authentication server 401
To send. The authentication request 1802 includes the extracted face image.
【0126】登録・認証サーバー401における顔画像
認識処理1804のフロー図を図19に示す。システム
管理部402は登録・認証部403に受信した顔画像を
出力し、認証処理1804の開始を指示する(step
301)。個人認証部409は抽出した顔画像のベクト
ルを生成する(step302)。また、個人認証部40
9は顔画像データベース404から登録画像を読み出
し、登録画像のベクトルを生成する(step303)。
ただし、あらかじめ登録画像の特徴ベクトルが生成さ
れ、顔画像データベース404に記録されている場合に
はこの処理は不要である。A flow chart of the face image recognition processing 1804 in the registration / authentication server 401 is shown in FIG. The system management unit 402 outputs the received face image to the registration / authentication unit 403 and gives an instruction to start the authentication processing 1804 (step).
301). The personal authentication unit 409 generates a vector of the extracted face image (step 302). In addition, the personal authentication unit 40
Reference numeral 9 reads the registered image from the face image database 404 and generates a vector of the registered image (step 303).
However, if the feature vector of the registered image is generated in advance and recorded in the face image database 404, this process is not necessary.
【0127】個人認証部409は、顔画像登録部410
から学習済み関数Aと判定のためのしきい値を読み出
し、登録画像のベクトルと抽出画像のベクトルは学習済
み関数Aを用いて、登録画像の特徴ベクトルと抽出画像
の特徴ベクトルを(式3)と(式4)とからそれぞれ求
める(step304)。求められた登録画像の特徴ベク
トルと抽出画像の特徴ベクトルを用いて類似度を計算
し、類似度がしきい値より大きいか小さいかによって本
人かどうかを判定する(step305)。類似度の計算
は例えば、出力結果のユークリッド距離の逆数を用い
る。The personal authentication unit 409 has a face image registration unit 410.
The learned function A and the threshold value for determination are read from the registered image vector and the extracted image vector, and the learned function A is used to calculate the feature vector of the registered image and the feature vector of the extracted image (Equation 3). And (Equation 4), respectively (step 304). The similarity is calculated using the obtained feature vector of the registered image and the feature vector of the extracted image, and it is determined whether or not the person is the person depending on whether the similarity is larger or smaller than a threshold value (step 305). The calculation of the similarity uses, for example, the reciprocal of the Euclidean distance of the output result.
【0128】この顔画像認識処理1804が終了する
と、その結果を登録・認証サーバー401は携帯電話1
001に認識応答1803を送信する。When the face image recognition processing 1804 is completed, the registration / authentication server 401 stores the result thereof in the mobile phone 1.
The recognition response 1803 is transmitted to 001.
【0129】この認証に成功した場合、携帯電話100
1の機器制御部18は携帯電話1001のプログラムを
全て有効にする。また、認証に失敗した場合、ユーザー
は3つの選択が可能である。一つは、再度顔画像抽出1
801を行い、認証を行う、一つは登録・認証サーバー
401に認証サポート要求を送信する、一つは顔画像認
証1804をやめてID入力による認証に切替える、で
ある。顔画像認証1804は照明条件や顔の向きによっ
て認識に失敗する可能性があるので、照明条件を変えて
再度認証を行うことによって認証に成功する可能性があ
る。また、以下に説明するような、認証サポート要求を
行うことで、応答時間の遅れはあるが、登録・認証サー
バー401側の第三者によって確実に認証されるので安
全性は高い。また、ID入力による認証に切替えた場合
はユーザーの手間はかかるが、確実な認証が期待でき
る。If this authentication is successful, the mobile phone 100
The device control unit 18 of No. 1 enables all the programs of the mobile phone 1001. If the authentication fails, the user has three choices. One is face image extraction 1 again
Step 801 is to perform authentication, one is to send an authentication support request to the registration / authentication server 401, and one is to stop the face image authentication 1804 and switch to authentication by ID input. Since the face image authentication 1804 may fail in recognition depending on the lighting condition and the orientation of the face, there is a possibility that the authentication will succeed by changing the lighting condition and performing the authentication again. Although a response time is delayed by making an authentication support request as described below, a third party on the registration / authentication server 401 side is surely authenticated, so the security is high. Further, when switching to authentication by inputting an ID, it takes time for the user, but reliable authentication can be expected.
【0130】ここでは、認証サポート要求を行う時の動
作について説明する。認証サポート要求には携帯電話I
D、認証ログ、緊急度といった情報が含まれる。登録・
認証サーバー401は認証サポート要求を受信すると、
個人認証サポート部405のキューに追加する。個人認
証サポート部405は緊急度に応じてキューから認証サ
ポート要求を読み出す。個人認証サポート部405は認
証ログを用いて登録画像と入力画像をディスプレイ40
8に表示する。個人認証サポート担当者は目視によって
ディスプレイ408に表示された画像を確認し、判定結
果は携帯電話IDを用いて携帯電話1003に送信す
る。Here, the operation when making an authentication support request will be described. Mobile phone I for authentication support request
Information such as D, authentication log, and urgency is included. Registration /
When the authentication server 401 receives the authentication support request,
The personal authentication support unit 405 is added to the queue. The personal authentication support unit 405 reads the authentication support request from the queue according to the urgency. The personal authentication support unit 405 displays the registered image and the input image using the authentication log.
Display on 8. The person in charge of personal authentication support visually confirms the image displayed on the display 408, and transmits the determination result to the mobile phone 1003 using the mobile phone ID.
【0131】(実施の形態4)本発明の実施の形態4の
構成について図20を用いて説明する。本実施の形態の
特徴は、携帯電話1004のみの構成になっている点で
ある。(Embodiment 4) The configuration of Embodiment 4 of the present invention will be described with reference to FIG. The feature of this embodiment is that it is configured only for the mobile phone 1004.
【0132】図20において、携帯電話1004はスピ
ーカー11、ディスプレイ12、顔画像を取り込むため
のカメラ13、マイク14、アンテナ15、ボタン1
6、データ処理部17、顔認証部20とから構成され、
データ処理部17は、機器制御部18とデータ記憶部1
9から構成されている。機器制御部18は様々なプログ
ラムを用いてデータを処理するだけでなく、携帯電話1
004の機器制御も行う。In FIG. 20, a mobile phone 1004 includes a speaker 11, a display 12, a camera 13 for capturing a face image, a microphone 14, an antenna 15, and a button 1.
6, a data processing unit 17, and a face authentication unit 20,
The data processing unit 17 includes a device control unit 18 and a data storage unit 1.
It is composed of nine. The device control section 18 not only processes data using various programs, but also the mobile phone 1
The device control of 004 is also performed.
【0133】データ記憶部19は、機器制御部18で用
いる様々なプログラムと、カメラ13、マイク14、ボ
タン16から入力したデータと、機器制御部18で処理
した結果データを蓄積できる。顔認証部20は、認証の
ための学習関数を記憶する学習済み関数記憶部22と、
データ記憶部19から読み込んだ登録画像と学習済み関
数記憶部22から読み込んだ学習結果を用いて、カメラ
13から取り込んだ顔画像の認証を行う認証部21とか
ら構成されている。The data storage unit 19 can store various programs used by the device control unit 18, data input from the camera 13, the microphone 14 and the button 16, and result data processed by the device control unit 18. The face authentication unit 20 includes a learned function storage unit 22 that stores a learning function for authentication,
The authentication unit 21 includes a registration image read from the data storage unit 19 and a learning result read from the learned function storage unit 22 to authenticate the face image captured from the camera 13.
【0134】次に、本発明の実施の形態4の動作につい
て説明する。まず、学習済み関数に関して説明する。学
習済み関数は工場出荷時にあらかじめデフォルトの関数
を学習済み関数記憶部22に記録しておく。この学習済
み関数の学習には本人の顔画像が用いられていないの
で、識別能力は低いものである。Next, the operation of the fourth embodiment of the present invention will be described. First, the learned function will be described. As the learned function, a default function is recorded in the learned function storage unit 22 in advance at the time of factory shipment. Since the face image of the person himself / herself is not used for learning this learned function, the discriminating ability is low.
【0135】次に、顔画像の登録動作について図21を
用いて説明する。ユーザーがボタン16を操作すること
により、機器制御部18はデータ記憶部19から登録用
プログラムを読み出し、実行する。ただし、本人以外が
操作するのを避けるため、本人だけが記憶している番号
を入力した場合のみ、登録用プログラムを読み出す。Next, the face image registration operation will be described with reference to FIG. When the user operates the button 16, the device control unit 18 reads the registration program from the data storage unit 19 and executes it. However, in order to avoid operation by anyone other than the person himself / herself, the registration program is read out only when the number stored by the person himself / herself is input.
【0136】機器制御部18は、ディスプレイ12の表
示切替え(現在の表示からカメラ入力表示への切替え)
を行う(step401)。ディスプレイ12に目の位置
を決めるための指標を表示し(step402)、カメラ
13から入力する登録者の目の位置が指標である2つの
点に合うように指示を出す(step403)。指示の方
法は、ディスプレイ12に指示を表示する、あるいはス
ピーカー11を使って音声で指示を行う。指示内容はそ
の他に、瞬きをする、顔の向きを変える、顔を上下に動
かす、体の向きを変える、位置を移動する、といったも
のも含む。機器制御部18は入力された顔画像をディス
プレイ12に表示し、ユーザーが確認できるようにする
(step404)。ユーザーのボタン操作により確認処
理を行うと、機器制御部18は顔画像を圧縮し(ste
p405)、データ記憶部19に蓄積する(step40
6)。The device control section 18 switches the display of the display 12 (switches the current display to the camera input display).
Is performed (step 401). An index for determining the eye position is displayed on the display 12 (step 402), and an instruction is issued so that the registrant's eye position input from the camera 13 matches two points which are the index (step 403). As an instruction method, an instruction is displayed on the display 12, or an instruction is given by voice using the speaker 11. The instruction contents also include blinking, changing the direction of the face, moving the face up and down, changing the direction of the body, and moving the position. The device control unit 18 displays the input face image on the display 12 so that the user can confirm it.
(Step 404). When the confirmation process is performed by the user's button operation, the device control unit 18 compresses the face image (step
p405), and stores the data in the data storage unit 19 (step 40).
6).
【0137】認証の動作は、実施の形態1と同様であ
る。The authentication operation is the same as in the first embodiment.
【0138】本発明の実施の形態1と実施の形態4を組
み合せることにより、サービス内容を2段階に設定でき
る。一つは、携帯電話だけで認証を行うことが可能なサ
ービスであり、登録画像のみを更新することが可能であ
る。さらに認識率を向上させたいユーザーは実施の形態
1の構成で本人の画像を用いた学習を行い、認証を行う
サービスを受けることが可能である。By combining the first and fourth embodiments of the present invention, the service content can be set in two stages. One is a service that can be authenticated only by a mobile phone, and can update only registered images. A user who wants to further improve the recognition rate can receive a service of performing authentication using the image of the person and performing authentication with the configuration of the first embodiment.
【0139】[0139]
【発明の効果】以上のように本発明の情報端末装置及び
認証システムによれば、顔画像入力を行う時、顔あるい
は目の位置を決めるための2つの点等の指標を表示した
り、顔の向きを変える、瞬きをする、顔を上下に動か
す、体の向きを変える、位置を移動するという指示を与
えることで、照明条件や顔の向きが変わるので、顔画像
の抽出精度が向上する。また、例え写真を使って他人が
本人になりすましていても、写真と生体とを区別しやす
くするという有利な効果が得られる。As described above, according to the information terminal device and the authentication system of the present invention, when a face image is input, indexes such as two points for determining the position of the face or the eyes are displayed and the face is displayed. By changing the direction, blinking, moving the face up and down, changing the direction of the body, and moving the position, the lighting conditions and the direction of the face change, so the extraction accuracy of the face image improves. . Further, even if another person is masquerading as the person himself / herself by using the photograph, an advantageous effect that the photograph and the living body can be easily distinguished can be obtained.
【図1】本発明による認証機能を有する情報処理装置の
機能構成図FIG. 1 is a functional configuration diagram of an information processing apparatus having an authentication function according to the present invention.
【図2】本発明の実施の形態1における登録・認証シス
テムのシステム構成図FIG. 2 is a system configuration diagram of a registration / authentication system according to the first embodiment of the present invention.
【図3】本発明の実施の形態1におけるカメラ付き携帯
電話の概観図FIG. 3 is a schematic view of a camera-equipped mobile phone according to the first embodiment of the present invention.
【図4】本発明の実施の形態3におけるカメラ付き携帯
電話の機能構成図FIG. 4 is a functional configuration diagram of a camera-equipped mobile phone according to a third embodiment of the present invention.
【図5】本発明の実施の形態1における認証機能付き携
帯電話の機能構成図FIG. 5 is a functional configuration diagram of a mobile phone with an authentication function according to the first embodiment of the present invention.
【図6】(A)本発明の実施の形態1における顔画像の
登録処理を説明するための登録シーケンス図
(B)本発明の実施の形態2における音声の登録処理を
説明するための登録シーケンス図FIG. 6A is a registration sequence diagram for explaining a face image registration process according to the first embodiment of the present invention. FIG. 6B is a registration sequence diagram for explaining a voice registration process according to the second embodiment of the present invention. Figure
【図7】本発明の実施の形態1における顔画像抽出処理
を説明するためのフロー図FIG. 7 is a flowchart for explaining face image extraction processing according to Embodiment 1 of the present invention.
【図8】本発明の実施の形態1における顔画像学習処理
を説明するためのフロー図FIG. 8 is a flowchart for explaining face image learning processing according to the first embodiment of the present invention.
【図9】(A)本発明の実施の形態1における認識処理
が成功したときのシーケンスを説明するための認識シー
ケンス図
(B)本発明の実施の形態1における認識処理が失敗し
たときのシーケンスを説明するための認識シーケンス図FIG. 9A is a recognition sequence diagram for explaining a sequence when the recognition processing is successful in the first embodiment of the present invention. FIG. 9B is a sequence when the recognition processing is failed in the first embodiment of the present invention. Recognition sequence diagram to explain
【図10】本発明の実施の形態1における顔画像認識処
理を説明するためのフロー図FIG. 10 is a flowchart for explaining face image recognition processing according to the first embodiment of the present invention.
【図11】本発明の実施の形態2における複数認証機能
付き携帯電話の機能構成図FIG. 11 is a functional configuration diagram of a mobile phone with a multiple authentication function according to the second embodiment of the present invention.
【図12】本発明の実施の形態2における登録・認証シ
ステムを示すシステム構成図FIG. 12 is a system configuration diagram showing a registration / authentication system according to a second embodiment of the present invention.
【図13】本発明の実施の形態2における音声抽出処理
を説明するためのフロー図FIG. 13 is a flowchart for explaining voice extraction processing according to the second embodiment of the present invention.
【図14】本発明の実施の形態2における音声学習処理
を説明するためのフロー図FIG. 14 is a flowchart for explaining voice learning processing according to the second embodiment of the present invention.
【図15】本発明の実施の形態2における認証動作を説
明するためのフロー図FIG. 15 is a flowchart for explaining an authentication operation according to the second embodiment of the present invention.
【図16】本発明の実施の形態2における話者認識処理
を説明するためのフロー図FIG. 16 is a flowchart for explaining speaker recognition processing according to the second embodiment of the present invention.
【図17】本発明の実施の形態3による登録・認証シス
テムを示すシステム構成図FIG. 17 is a system configuration diagram showing a registration / authentication system according to a third embodiment of the present invention.
【図18】本発明の実施の形態3における認識処理を説
明するための認識シーケンス図FIG. 18 is a recognition sequence diagram for explaining a recognition process according to the third embodiment of the present invention.
【図19】本発明の実施の形態3における顔画像認識処
理を説明するためのフロー図FIG. 19 is a flowchart for explaining face image recognition processing according to the third embodiment of the present invention.
【図20】本発明の実施の形態4による認証機能付き携
帯電話の機能構成図FIG. 20 is a functional configuration diagram of a mobile phone with an authentication function according to a fourth embodiment of the present invention.
【図21】本発明の実施の形態4における顔画像登録処
理を説明するためのフロー図FIG. 21 is a flowchart for explaining face image registration processing according to Embodiment 4 of the present invention.
【図22】(A)本発明の実施の形態1における第1の
例である入力顔画像図
(B)本発明の実施の形態1における第2の例である入
力顔画像図FIG. 22 (A) is an input face image diagram that is the first example in the first embodiment of the present invention; and (B) is an input face image diagram that is the second example in the first embodiment of the present invention.
【図23】(A)本発明の実施の形態1における入力顔
画像図
(B)本発明の実施の形態1における入力顔画像図
(C)本発明の実施の形態1における入力顔画像図23A is a diagram of an input face image according to the first embodiment of the present invention; FIG. 23B is a diagram of an input face image according to the first embodiment of the present invention; FIG. 23C is a diagram of the input face image according to the first embodiment of the present invention.
1 入力手段 2 表示手段 3 指標表示手段 4 認証手段 5 生体情報確認手段 6 情報端末装置 7 評価手段 8 指示手段 11 スピーカー 12 ディスプレイ 13 カメラ 14 マイク 15 アンテナ 16 ボタン 17 データ処理部 18 機器制御部 19 データ記憶部 20 顔認証部 21 認証部 22 学習済み関数記憶部 23 話者認証部 24 認証部 25 学習済み関数記憶部 29 認証機能切替部 50 ICカード 51 ICカード読取りインタフェース 101 ネットワーク 201 登録用サーバー 202 システム管理部 203 顔画像登録・更新部 204 顔画像データベース 205 データ入出力部 206 個人情報管理部 207 登録ログ管理部 301 登録用サーバー 302 顔画像・音声データベース 303 音声登録・更新部 401 登録・認証サーバー 402 システム管理部 403 登録・認証部 404 顔画像データベース 405 個人認証サポート部 406 個人情報蓄積部 407 認証ログ蓄積部 408 ディスプレイ 409 個人認証部 410 顔画像登録部 1001 携帯電話 1002 携帯電話 1003 携帯電話 1004 携帯電話 2217 指標 2218 顔領域 2219 目の中心座標 1 Input means 2 display means 3 index display means 4 Authentication means 5 Biometric information confirmation means 6 Information terminal equipment 7 Evaluation means 8 instruction means 11 speakers 12 display 13 cameras 14 microphone 15 antenna 16 buttons 17 Data processing unit 18 Equipment control section 19 Data storage 20 Face recognition section 21 Authentication Department 22 Learned function memory 23 Speaker Authentication Unit 24 Authentication Department 25 Learned function memory 29 Authentication function switching unit 50 IC card 51 IC card reading interface 101 network 201 registration server 202 System Management Department 203 Face image registration / update unit 204 face image database 205 Data input / output section 206 Personal Information Management Department 207 Registration Log Management Department 301 registration server 302 Face image / voice database 303 Voice registration / update section 401 Registration / Authentication Server 402 System Management Department 403 Registration / Authentication Department 404 Face image database 405 Personal Authentication Support Department 406 Personal information storage 407 Authentication log storage unit 408 display 409 Personal Authentication Department 410 Face image registration unit 1001 mobile phone 1002 mobile phone 1003 mobile phone 1004 mobile phone 2217 indicators 2218 face area 2219 Eye center coordinates
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04L 9/32 H04L 9/00 673D (72)発明者 山田 伸 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 秋元 俊昭 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B043 AA09 BA04 DA05 GA02 5B047 AA23 CA12 CB21 5B085 AA08 AE15 AE23 AE25 BC01 BE01 BE04 BG02 5J104 AA07 KA01 KA16 PA02 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04L 9/32 H04L 9/00 673D (72) Inventor Shin Yamada 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Industrial Incorporated (72) Inventor Toshiaki Akimoto 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. F term (reference) 5B043 AA09 BA04 DA05 GA02 5B047 AA23 CA12 CB21 5B085 AA08 AE15 AE23 AE25 BC01 BE01 BE04 BG02 5J01 A07 KA16 PA02
Claims (16)
る表示手段と、前記生体情報をもとに予め登録されたユ
ーザーを個人認証するための認証手段とを有し、前記表
示手段は前記生体情報の大きさと位置を指定するための
指標を表示する情報端末装置。1. A display means for displaying the inputted biometric information of the user, and an authentication means for personally authenticating a user registered in advance based on the biometric information, wherein the display means comprises the biometric information. An information terminal device displaying an index for designating the size and position of information.
び、ユーザーの顔画像と音声のいずれか一方である請求
項1に記載の情報端末装置。2. The information terminal device according to claim 1, wherein the biometric information is a user's face image and one of a user's face image and voice.
請求項1に記載の情報端末装置。3. The information terminal device according to claim 1, wherein the index defines the positions of both eyes.
備える請求項1から請求項3のいずれかに記載の情報端
末装置。4. The information terminal device according to claim 1, further comprising an evaluation unit that evaluates the biometric information.
検出、顔向き検出、及び光源方向検出の少なくともいず
れか一つを有する請求項4に記載の情報端末装置。5. The information terminal device according to claim 4, wherein the evaluation unit has at least one of face position detection, face size detection, face orientation detection, and light source direction detection.
示を与える指示手段を更に備える請求項1から請求項5
のいずれかに記載の情報端末装置。6. The method according to claim 1, further comprising instruction means for giving an instruction to a user when the biometric information is input.
The information terminal device according to any one of 1.
示、顔を上下または左右に動かす指示、及び位置を移動
する指示のうちの少なくともいずれかひとつを与える請
求項6に記載の情報端末装置。7. The information terminal device according to claim 6, wherein the instruction unit gives at least one of an instruction to change the direction of the body, an instruction to move the face up and down or left and right, and an instruction to move the position. .
は、前記評価手段における検出結果をフィードバックす
る指示であることを特徴とする請求項6と請求項7との
いずれか一方に記載の情報端末装置。8. The information terminal device according to claim 6, wherein the instruction given to the user by the instruction means is an instruction to feed back a detection result in the evaluation means. .
求項2に記載の情報端末装置。9. The information terminal device according to claim 2, wherein the face image is converted into a mirror image and displayed.
載の情報端末装置は、通信手段を備えた携帯情報端末と
携帯型パソコン、及び携帯電話のいずれかである情報端
末装置。10. The information terminal device according to any one of claims 1 to 9, which is any one of a mobile information terminal equipped with a communication unit, a mobile personal computer, and a mobile phone.
字あるいは多角形である請求項1から請求項10のいず
れかに記載の情報端末装置。11. The information terminal device according to claim 1, wherein the index is two or more points, circles, crosses, or polygons.
記載の情報端末装置と、前記情報端末装置から通信網を
介して入力した前記生体情報をデータベースに登録し、
前記生体情報と既に登録されたデータベースからの各生
体情報から各個人の識別関数を学習する学習手段と、前
記生体情報、前記識別関数及び、IDを管理するシステ
ム管理手段とを有する登録用サーバーとを具備する認証
システム。12. The information terminal device according to claim 1, and the biometric information input from the information terminal device via a communication network are registered in a database,
A registration server having learning means for learning the identification function of each individual from the biometric information and each biometric information from the already registered database, and a system management means for managing the biometric information, the identification function and the ID. An authentication system equipped with.
新される請求項12に記載の認証システム。13. The authentication system according to claim 12, wherein the biometric information of an individual is updated at regular intervals.
に一定期間毎に個人の前記生体情報を更新するように促
す請求項13に記載の認証システム。14. The authentication system according to claim 13, wherein the registration server prompts each information terminal device to update the biometric information of an individual at regular intervals.
めの指標を表示するステップと、前記指標に基づいて入
力されたユーザーの生体情報を表示するステップと、前
記生体情報が指標に対して許容するか否かを評価するス
テップと、前記評価結果が許容範囲でない場合はユーザ
ーに改善のための指示を与え、許容範囲内の場合は前記
生体情報を登録処理あるいは、予め登録された情報を基
に認証処理するステップと、前記登録処理あるいは認証
処理後に顔の向きを変える指示と瞬きを行う指示との少
なくともいずれか一つを指示し、指示通りに変更したか
を認識する本人へのなりすましの検出をするステップ
と、前記なりすましを検出したときに前記登録処理ある
いは認証処理を中止するステップとを有する登録・認証
方法。15. A step of displaying an index for designating the size and position of the biometric information, a step of displaying biometric information of the user input based on the index, and the biometric information being permissible with respect to the index. And if the evaluation result is not within the allowable range, the user is instructed to improve, and if the evaluation result is within the allowable range, the biometric information is registered or based on pre-registered information. Authentication step, and at least one of the instruction to change the direction of the face and the instruction to blink after the registration processing or the authentication processing, and spoofing to the person who recognizes whether the change has been made as instructed. A registration / authentication method comprising: a detecting step; and a step of stopping the registration processing or the authentication processing when the impersonation is detected.
を行う指示との少なくとも1つをランダムに指示する請
求項15に記載の登録・認証方法。16. The registration / authentication method according to claim 15, wherein at least one of the instruction to change the direction of the face and the instruction to perform the blink is randomly given.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002224573A JP2003317100A (en) | 2002-02-22 | 2002-08-01 | Information terminal device, authentication system, and registering and authenticating method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002-45659 | 2002-02-22 | ||
JP2002045659 | 2002-02-22 | ||
JP2002224573A JP2003317100A (en) | 2002-02-22 | 2002-08-01 | Information terminal device, authentication system, and registering and authenticating method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003317100A true JP2003317100A (en) | 2003-11-07 |
JP2003317100A5 JP2003317100A5 (en) | 2005-10-27 |
Family
ID=29551843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002224573A Pending JP2003317100A (en) | 2002-02-22 | 2002-08-01 | Information terminal device, authentication system, and registering and authenticating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003317100A (en) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006235718A (en) * | 2005-02-22 | 2006-09-07 | Nec Corp | Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon |
JP2008257365A (en) * | 2007-04-03 | 2008-10-23 | Hitachi Omron Terminal Solutions Corp | Transaction system |
JPWO2007099834A1 (en) * | 2006-03-01 | 2009-07-16 | 日本電気株式会社 | Face authentication device, face authentication method and program |
JP2009258991A (en) * | 2008-04-16 | 2009-11-05 | Panasonic Electric Works Co Ltd | Face image registration device |
US7717336B2 (en) | 2006-04-03 | 2010-05-18 | Fuji Xerox Co., Ltd. | Information terminal device, method, and computer readable medium storing program |
WO2010134200A1 (en) * | 2009-05-22 | 2010-11-25 | 株式会社東芝 | Device, method and program for processing images |
US7894640B2 (en) | 2006-07-27 | 2011-02-22 | Panasonic Corporation | Identification apparatus and identification image displaying method |
JP2012118985A (en) * | 2009-06-16 | 2012-06-21 | Intel Corp | Electronic device, method comprising stages of performing operations in electronic device, and program |
WO2013145874A1 (en) * | 2012-03-27 | 2013-10-03 | ソニー株式会社 | Information processing device, information processing method and program |
US20130347086A1 (en) * | 2011-01-20 | 2013-12-26 | Tevfik Burak Sahin | Methods and systems for capturing biometric data |
WO2014003978A1 (en) | 2012-06-29 | 2014-01-03 | Intel Corporation | Real human detection and confirmation in personal credential verification |
JP2015504492A (en) * | 2011-11-08 | 2015-02-12 | イリテック インコーポレイテッド | Locking device with enhanced security using iris image |
JP2015090662A (en) * | 2013-11-07 | 2015-05-11 | 株式会社ソニー・コンピュータエンタテインメント | Information processor |
JP2015534199A (en) * | 2012-11-14 | 2015-11-26 | ゴラン ウェイス | Biometric authentication method and system for registration and authentication |
JP5901824B1 (en) * | 2015-06-01 | 2016-04-13 | ナレッジスイート株式会社 | Face authentication system and face authentication program |
WO2017078080A1 (en) * | 2015-11-03 | 2017-05-11 | バンクガード株式会社 | Server system for electronic authentication, electronic authentication method, and electronic authentication system |
JP2017091129A (en) * | 2015-11-09 | 2017-05-25 | グローリー株式会社 | Face authentication device, control system including face authentication device, and screen display control method in face authentication device |
WO2017146160A1 (en) * | 2016-02-26 | 2017-08-31 | 日本電気株式会社 | Facial verification system, facial verification method, and recording medium |
JP2017532617A (en) * | 2014-05-13 | 2017-11-02 | ゴラン ウェイス | Enrollment and authentication methods and systems |
KR20180066026A (en) * | 2015-07-15 | 2018-06-18 | 15 세컨즈 오브 페임, 인크. | Apparatus and methods for face recognition and video analysis for identifying individuals in contextual video streams |
JP2018524654A (en) * | 2015-06-10 | 2018-08-30 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Activity detection method and device, and identity authentication method and device |
JP6479245B1 (en) * | 2018-07-31 | 2019-03-06 | 株式会社メルカリ | Program, information processing method, information processing apparatus |
JP6481073B1 (en) * | 2018-07-31 | 2019-03-13 | 株式会社メルカリ | Program, information processing method, information processing apparatus |
JP6490860B1 (en) * | 2018-07-31 | 2019-03-27 | 株式会社メルカリ | Program, information processing method, information processing apparatus |
WO2020095350A1 (en) * | 2018-11-05 | 2020-05-14 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
JP2020095652A (en) * | 2018-12-11 | 2020-06-18 | 株式会社ダブルスタンダード | System, method, and program for authentication |
JP2020126335A (en) * | 2019-02-01 | 2020-08-20 | パナソニックIpマネジメント株式会社 | Face authentication system and face authentication method |
US10936856B2 (en) | 2018-08-31 | 2021-03-02 | 15 Seconds of Fame, Inc. | Methods and apparatus for reducing false positives in facial recognition |
US11010596B2 (en) | 2019-03-07 | 2021-05-18 | 15 Seconds of Fame, Inc. | Apparatus and methods for facial recognition systems to identify proximity-based connections |
US11286310B2 (en) | 2015-10-21 | 2022-03-29 | 15 Seconds of Fame, Inc. | Methods and apparatus for false positive minimization in facial recognition applications |
US11341351B2 (en) | 2020-01-03 | 2022-05-24 | 15 Seconds of Fame, Inc. | Methods and apparatus for facial recognition on a user device |
US11600118B2 (en) | 2018-07-25 | 2023-03-07 | Nec Corporation | Information processing apparatus, information processing method, and information processing program |
US11670111B2 (en) | 2018-07-25 | 2023-06-06 | Nec Corporation | Information processing apparatus, information processing method, and information processing program |
-
2002
- 2002-08-01 JP JP2002224573A patent/JP2003317100A/en active Pending
Cited By (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006235718A (en) * | 2005-02-22 | 2006-09-07 | Nec Corp | Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon |
JPWO2007099834A1 (en) * | 2006-03-01 | 2009-07-16 | 日本電気株式会社 | Face authentication device, face authentication method and program |
JP4924603B2 (en) * | 2006-03-01 | 2012-04-25 | 日本電気株式会社 | Face authentication device, face authentication method and program |
US8290220B2 (en) | 2006-03-01 | 2012-10-16 | Nec Corporation | Face authenticating apparatus, face authenticating method, and program |
US7717336B2 (en) | 2006-04-03 | 2010-05-18 | Fuji Xerox Co., Ltd. | Information terminal device, method, and computer readable medium storing program |
US7894640B2 (en) | 2006-07-27 | 2011-02-22 | Panasonic Corporation | Identification apparatus and identification image displaying method |
JP2008257365A (en) * | 2007-04-03 | 2008-10-23 | Hitachi Omron Terminal Solutions Corp | Transaction system |
JP2009258991A (en) * | 2008-04-16 | 2009-11-05 | Panasonic Electric Works Co Ltd | Face image registration device |
WO2010134200A1 (en) * | 2009-05-22 | 2010-11-25 | 株式会社東芝 | Device, method and program for processing images |
JPWO2010134200A1 (en) * | 2009-05-22 | 2012-11-08 | 株式会社東芝 | Image processing apparatus, method, and program |
JP2012118985A (en) * | 2009-06-16 | 2012-06-21 | Intel Corp | Electronic device, method comprising stages of performing operations in electronic device, and program |
US9112858B2 (en) * | 2011-01-20 | 2015-08-18 | Daon Holdings Limited | Methods and systems for capturing biometric data |
US20130347086A1 (en) * | 2011-01-20 | 2013-12-26 | Tevfik Burak Sahin | Methods and systems for capturing biometric data |
US9679193B2 (en) | 2011-01-20 | 2017-06-13 | Daon Holdings Limited | Methods and systems for capturing biometric data |
US10235550B2 (en) | 2011-01-20 | 2019-03-19 | Daon Holdings Limited | Methods and systems for capturing biometric data |
US9990528B2 (en) | 2011-01-20 | 2018-06-05 | Daon Holdings Limited | Methods and systems for capturing biometric data |
US10607054B2 (en) | 2011-01-20 | 2020-03-31 | Daon Holdings Limited | Methods and systems for capturing biometric data |
US9202102B1 (en) | 2011-01-20 | 2015-12-01 | Daon Holdings Limited | Methods and systems for capturing biometric data |
US9519818B2 (en) | 2011-01-20 | 2016-12-13 | Daon Holdings Limited | Methods and systems for capturing biometric data |
US9400915B2 (en) | 2011-01-20 | 2016-07-26 | Daon Holdings Limited | Methods and systems for capturing biometric data |
US9298999B2 (en) | 2011-01-20 | 2016-03-29 | Daon Holdings Limited | Methods and systems for capturing biometric data |
JP2015504492A (en) * | 2011-11-08 | 2015-02-12 | イリテック インコーポレイテッド | Locking device with enhanced security using iris image |
WO2013145874A1 (en) * | 2012-03-27 | 2013-10-03 | ソニー株式会社 | Information processing device, information processing method and program |
JPWO2013145874A1 (en) * | 2012-03-27 | 2015-12-10 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
EP2867816A4 (en) * | 2012-06-29 | 2016-02-17 | Intel Corp | Real human detection and confirmation in personal credential verification |
WO2014003978A1 (en) | 2012-06-29 | 2014-01-03 | Intel Corporation | Real human detection and confirmation in personal credential verification |
JP2015534199A (en) * | 2012-11-14 | 2015-11-26 | ゴラン ウェイス | Biometric authentication method and system for registration and authentication |
JP2019050024A (en) * | 2012-11-14 | 2019-03-28 | ゴラン ウェイス | Biometric authentication method and system for registration and authentication |
US9602803B2 (en) | 2013-11-07 | 2017-03-21 | Sony Corporation | Information processor |
JP2015090662A (en) * | 2013-11-07 | 2015-05-11 | 株式会社ソニー・コンピュータエンタテインメント | Information processor |
JP2017532617A (en) * | 2014-05-13 | 2017-11-02 | ゴラン ウェイス | Enrollment and authentication methods and systems |
JP5901824B1 (en) * | 2015-06-01 | 2016-04-13 | ナレッジスイート株式会社 | Face authentication system and face authentication program |
US10250598B2 (en) | 2015-06-10 | 2019-04-02 | Alibaba Group Holding Limited | Liveness detection method and device, and identity authentication method and device |
JP2018524654A (en) * | 2015-06-10 | 2018-08-30 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Activity detection method and device, and identity authentication method and device |
JP2018530079A (en) * | 2015-07-15 | 2018-10-11 | 15 セカンズ オブ フェイム,インコーポレイテッド | Apparatus and method for video analysis techniques for identifying individuals in face recognition and contextual video streams |
KR20180066026A (en) * | 2015-07-15 | 2018-06-18 | 15 세컨즈 오브 페임, 인크. | Apparatus and methods for face recognition and video analysis for identifying individuals in contextual video streams |
KR102638612B1 (en) * | 2015-07-15 | 2024-02-21 | 15 세컨즈 오브 페임, 인크. | Apparatus and methods for facial recognition and video analysis to identify individuals in contextual video streams |
US10591281B2 (en) | 2015-07-15 | 2020-03-17 | 15 Seconds of Fame, Inc. | Apparatus and methods for facial recognition and video analytics to identify individuals in contextual video streams |
US11286310B2 (en) | 2015-10-21 | 2022-03-29 | 15 Seconds of Fame, Inc. | Methods and apparatus for false positive minimization in facial recognition applications |
WO2017078080A1 (en) * | 2015-11-03 | 2017-05-11 | バンクガード株式会社 | Server system for electronic authentication, electronic authentication method, and electronic authentication system |
JP2017091129A (en) * | 2015-11-09 | 2017-05-25 | グローリー株式会社 | Face authentication device, control system including face authentication device, and screen display control method in face authentication device |
JPWO2017146160A1 (en) * | 2016-02-26 | 2018-12-27 | 日本電気株式会社 | Face matching system, face matching method, and program |
US11055513B2 (en) | 2016-02-26 | 2021-07-06 | Nec Corporation | Face recognition system, face recognition method, and storage medium |
US11631278B2 (en) | 2016-02-26 | 2023-04-18 | Nec Corporation | Face recognition system, face recognition method, and storage medium |
WO2017146160A1 (en) * | 2016-02-26 | 2017-08-31 | 日本電気株式会社 | Facial verification system, facial verification method, and recording medium |
JP7447978B2 (en) | 2016-02-26 | 2024-03-12 | 日本電気株式会社 | Face matching system, face matching method, and program |
JP2023036690A (en) * | 2016-02-26 | 2023-03-14 | 日本電気株式会社 | Face collation system, face collation method, and program |
JP7196893B2 (en) | 2016-02-26 | 2022-12-27 | 日本電気株式会社 | Face matching system, face matching method, and program |
JP2021015627A (en) * | 2016-02-26 | 2021-02-12 | 日本電気株式会社 | Face collation system, face collation method, and program |
US11948398B2 (en) | 2016-02-26 | 2024-04-02 | Nec Corporation | Face recognition system, face recognition method, and storage medium |
US10977483B2 (en) | 2016-02-26 | 2021-04-13 | Nec Corporation | Face recognition system, face recognition method, and storage medium |
US11670111B2 (en) | 2018-07-25 | 2023-06-06 | Nec Corporation | Information processing apparatus, information processing method, and information processing program |
US11600118B2 (en) | 2018-07-25 | 2023-03-07 | Nec Corporation | Information processing apparatus, information processing method, and information processing program |
JP2020022045A (en) * | 2018-07-31 | 2020-02-06 | 株式会社メルカリ | Program, information processing method, and information processing apparatus |
JP2020022044A (en) * | 2018-07-31 | 2020-02-06 | 株式会社メルカリ | Program, information processing method, information processing device |
JP6479245B1 (en) * | 2018-07-31 | 2019-03-06 | 株式会社メルカリ | Program, information processing method, information processing apparatus |
JP6481073B1 (en) * | 2018-07-31 | 2019-03-13 | 株式会社メルカリ | Program, information processing method, information processing apparatus |
JP6490860B1 (en) * | 2018-07-31 | 2019-03-27 | 株式会社メルカリ | Program, information processing method, information processing apparatus |
JP2020022072A (en) * | 2018-07-31 | 2020-02-06 | 株式会社メルカリ | Program, information processing method, and information processing apparatus |
US10936856B2 (en) | 2018-08-31 | 2021-03-02 | 15 Seconds of Fame, Inc. | Methods and apparatus for reducing false positives in facial recognition |
US11636710B2 (en) | 2018-08-31 | 2023-04-25 | 15 Seconds of Fame, Inc. | Methods and apparatus for reducing false positives in facial recognition |
JP2023063314A (en) * | 2018-11-05 | 2023-05-09 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
WO2020095350A1 (en) * | 2018-11-05 | 2020-05-14 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
JPWO2020095350A1 (en) * | 2018-11-05 | 2021-09-24 | 日本電気株式会社 | Information processing equipment, information processing methods and programs |
JP2020095652A (en) * | 2018-12-11 | 2020-06-18 | 株式会社ダブルスタンダード | System, method, and program for authentication |
JP2020126335A (en) * | 2019-02-01 | 2020-08-20 | パナソニックIpマネジメント株式会社 | Face authentication system and face authentication method |
US11010596B2 (en) | 2019-03-07 | 2021-05-18 | 15 Seconds of Fame, Inc. | Apparatus and methods for facial recognition systems to identify proximity-based connections |
US11341351B2 (en) | 2020-01-03 | 2022-05-24 | 15 Seconds of Fame, Inc. | Methods and apparatus for facial recognition on a user device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003317100A (en) | Information terminal device, authentication system, and registering and authenticating method | |
EP1229496A2 (en) | Information terminal apparatus and authenticating system | |
JP4177598B2 (en) | Face image recording apparatus, information management system, face image recording method, and information management method | |
KR101051365B1 (en) | Access control device with camera and access control method | |
JP4924603B2 (en) | Face authentication device, face authentication method and program | |
TWI299471B (en) | Person recognition apparatus | |
US11997087B2 (en) | Mobile enrollment using a known biometric | |
US11521208B2 (en) | System and method for authenticating transactions from a mobile device | |
JP2008305400A (en) | Face image recording apparatus, and face image recording method | |
JP4899552B2 (en) | Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same | |
JP2007135149A (en) | Mobile portable terminal | |
JP4760049B2 (en) | Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program | |
JP2006309491A (en) | Biometrics system | |
US20220253514A1 (en) | Method and system for seamless biometric system self-enrollment | |
JP2001005836A (en) | Iris registration system | |
CN117853103A (en) | Payment system activation method based on intelligent bracelet | |
KR20100116124A (en) | The remote identification method and apparatus in video phone call between computer and mobile phone | |
JP2006309562A (en) | Biological information registering device | |
KR102060563B1 (en) | Method and apparatus for providing authentication using voice and facial data | |
KR20020018496A (en) | Method and Device for Controlling The Usage of Communication Device using Image Based Face Verification Technology | |
JP2005044121A (en) | Personal identification system and method | |
JP2004086320A (en) | Individual authentication device, individual authentication system, portable terminal, and individual authentication program | |
WO2023073838A1 (en) | Authentication device, authentication system, authentication method, and non-transitory computer-readable medium | |
KR100597753B1 (en) | Computer and method for user recognition thereof | |
KR200329564Y1 (en) | Access Control System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050728 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050728 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20050816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080401 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090721 |