[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020095670A - System, method, and program for authentication - Google Patents

System, method, and program for authentication Download PDF

Info

Publication number
JP2020095670A
JP2020095670A JP2019101047A JP2019101047A JP2020095670A JP 2020095670 A JP2020095670 A JP 2020095670A JP 2019101047 A JP2019101047 A JP 2019101047A JP 2019101047 A JP2019101047 A JP 2019101047A JP 2020095670 A JP2020095670 A JP 2020095670A
Authority
JP
Japan
Prior art keywords
unit
instruction
image data
imaging
personal identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019101047A
Other languages
Japanese (ja)
Other versions
JP7068710B2 (en
Inventor
正三 中島
Shozo Nakajima
正三 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Double Standard Inc
Original Assignee
Double Standard Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=67212105&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2020095670(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Double Standard Inc filed Critical Double Standard Inc
Publication of JP2020095670A publication Critical patent/JP2020095670A/en
Application granted granted Critical
Publication of JP7068710B2 publication Critical patent/JP7068710B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

To provide an authentication system, authentication method, and authentication program, which enable highly reliable identity verification.SOLUTION: An authentication system for identity verification is provided, comprising: a captured image data acquisition unit for acquiring captured image data of an identity verification document; and a determination unit configured to analyze the captured image data acquired by the captured image acquisition unit to determine whether the identity verification document has a thickness or not.SELECTED DRAWING: Figure 1

Description

本発明は、認証システム、認証方法、認証プログラムに関し、特に本人確認のための認証システム、認証方法、認証プログラムに関する。 The present invention relates to an authentication system, an authentication method, and an authentication program, and more particularly, to an authentication system, an authentication method, and an authentication program for personal identification.

本人確認方法として、従来から顔写真を利用した認証装置が知られている。従来の認証装置には、この顔写真による「なりすまし」を防ぐため、本人認証を行う際に、記憶部に記憶された複数のフレーズから1つのフレーズをランダムに選択し、当該選択されたフレーズを表示装置に出力してユーザに発音させ、ユーザを撮像した撮像データを用いてユーザの口の動き及びユーザが発声した音声の音声データを解析し、ユーザがフレーズを発声しているのかどうかを判定することで本人認証を行うことが提案されている(例えば、特許文献1参照)。 As a personal identification method, an authentication device using a face photograph has been known. In order to prevent “spoofing” due to this facial photograph, the conventional authentication device randomly selects one phrase from a plurality of phrases stored in the storage unit when performing personal authentication, and selects the selected phrase. It is output to a display device to cause the user to pronounce, and by using the imaged data obtained by imaging the user, the movement data of the user's mouth and the voice data of the voice uttered by the user are analyzed to determine whether or not the user is uttering a phrase. It has been proposed to perform personal authentication by doing so (for example, refer to Patent Document 1).

特開2011−215942号公報JP, 2011-215942, A

特許文献1に開示される認証方法では、ユーザの口の動き及びユーザが発声した音声の音声データを解析することでユーザがフレーズを発声しているか否かを判定するため、なりすましを防止できるとしている。しかしながら、本人確認の信頼性において更なる向上の余地がある。 In the authentication method disclosed in Patent Document 1, it is possible to prevent impersonation because it is determined whether or not the user is uttering a phrase by analyzing the movement of the user's mouth and the voice data of the voice uttered by the user. There is. However, there is room for further improvement in the reliability of identity verification.

本発明は、上記課題を鑑みてなされたものであり、信頼性の高い本人確認を行うことのできる認証システム、認証方法及び認証プログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an authentication system, an authentication method, and an authentication program that can perform highly reliable identity verification.

上記の課題を解決すべく、本発明の認証システムは、本人確認のための認証システムであって、本人確認書類の撮像データを取得する撮像データ取得部と、前記撮像データ取得部で取得された前記撮像データを解析して前記本人確認書類に厚みがあるか否かを判定する判定部と、を備えることを特徴とする。 In order to solve the above problems, the authentication system of the present invention is an authentication system for identity verification, and is acquired by an imaging data acquisition unit that acquires imaging data of an identity verification document and the imaging data acquisition unit. A determination unit configured to analyze the imaged data and determine whether or not the personal identification document has a thickness.

本発明によれば、信頼性の高い本人確認を行うことのできる認証システム、認証方法及び認証プログラムを提供することができる。 According to the present invention, it is possible to provide an authentication system, an authentication method, and an authentication program that can perform highly reliable identity verification.

第1実施形態に係る認証システム1の概略構成図である。It is a schematic block diagram of the authentication system 1 which concerns on 1st Embodiment. 第1実施形態に係るユーザ端末2の構成及び機能ブロック図である。It is a structure and a functional block diagram of the user terminal 2 which concerns on 1st Embodiment. 第1実施形態に係る認証サーバ3の構成及び機能ブロック図である。It is a structure and a functional block diagram of the authentication server 3 which concerns on 1st Embodiment. 第1実施形態に係る認証サーバ3の第1乃至第4判定部の動作を説明する図である。It is a figure explaining operation|movement of the 1st thru|or 4th determination part of the authentication server 3 which concerns on 1st Embodiment. 第1実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。It is a flowchart figure which shows the process of the authentication system which concerns on 1st Embodiment (imaging process). 第1実施形態に係る認証システムの処理を示すフローチャート図である(認証処理)。It is a flowchart figure which shows the process of the authentication system which concerns on 1st Embodiment (authentication process). 第2実施形態に係るユーザ端末2及び認証サーバ3の機能ブロック図である。It is a functional block diagram of the user terminal 2 and the authentication server 3 which concern on 2nd Embodiment. 第2実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。It is a flowchart figure which shows the process of the authentication system which concerns on 2nd Embodiment (imaging process). 第2実施形態に係る認証システムの処理を示すフローチャート図である(認証処理)。It is a flowchart figure which shows the process of the authentication system which concerns on 2nd Embodiment (authentication process). 第2実施形態の変形例2に係る認証システムの処理を示すフローチャート図である(認証処理)。It is a flowchart figure which shows the process of the authentication system which concerns on the modification 2 of 2nd Embodiment (authentication process). 第3実施形態に係るユーザ端末2及び認証サーバ3の機能ブロック図である。It is a functional block diagram of user terminal 2 and authentication server 3 concerning a 3rd embodiment. 第3実施形態に係るユーザ端末2の表示装置200Dに表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display device 200D of the user terminal 2 which concerns on 3rd Embodiment. 第3実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。It is a flowchart figure which shows the process of the authentication system which concerns on 3rd Embodiment (imaging process).

以下、図面を参照して本発明の各実施形態を説明する。なお、本人確認に利用する顔写真付きの本人確認書類としては、運転免許の他、パスポート(旅券)、住民基本台帳カード(写真付のもの)、在留カードなど種々の本人確認書類を利用することができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition to the driver's license, passports (passports), Basic Resident Register cards (with photos), residence cards, etc. can be used as the identity verification documents with a face photo used for identity verification. You can

[第1実施形態]
初めに、図1を参照して認証システム1の構成について説明する。認証システム1は、ユーザ端末2及び認証サーバ3を備える。ユーザ端末2及び認証サーバ3は、ネットワーク4を介して接続された構成を有する。なお、認証システム1が具備するユーザ端末2及び認証サーバ3の数は任意である。また、ネットワーク4は、ユーザ端末2及び認証サーバ3が通信できればよくどのような通信網で構成されていてもかまわない。
[First Embodiment]
First, the configuration of the authentication system 1 will be described with reference to FIG. The authentication system 1 includes a user terminal 2 and an authentication server 3. The user terminal 2 and the authentication server 3 have a configuration in which they are connected via a network 4. The numbers of the user terminals 2 and the authentication servers 3 included in the authentication system 1 are arbitrary. The network 4 may be composed of any communication network as long as the user terminal 2 and the authentication server 3 can communicate with each other.

(ユーザ端末2)
ユーザ端末2は、ユーザU(例えば、本人確認の認証を行いたいユーザ)が利用する端末(例えば、スマートフォン、タブレット型PC(Personal Computer)、デスクトップ型PC,ノート型PCなど)である。ユーザUは、ユーザ端末2を利用して、本人確認の認証を行う。
(User terminal 2)
The user terminal 2 is a terminal (for example, a smartphone, a tablet PC (Personal Computer), a desktop PC, a notebook PC, or the like) used by a user U (for example, a user who wants to perform authentication for identity verification). The user U uses the user terminal 2 to authenticate himself/herself.

図2(a)は、ユーザ端末2のハード構成図、図2(b)は、ユーザ端末2の機能ブロック図である。図2(a)に示すように、ユーザ端末2は、通信IF200A、記憶装置200B、入力装置200C、表示装置200D、撮像装置200E、音声出力装置200F及びCPU200Gがバス200Hを介して接続された構成を備える。 2A is a hardware configuration diagram of the user terminal 2, and FIG. 2B is a functional block diagram of the user terminal 2. As shown in FIG. 2A, the user terminal 2 has a configuration in which a communication IF 200A, a storage device 200B, an input device 200C, a display device 200D, an imaging device 200E, an audio output device 200F, and a CPU 200G are connected via a bus 200H. Equipped with.

通信IF200Aは、認証サーバ3と通信するためのインターフェースである。 The communication IF 200A is an interface for communicating with the authentication server 3.

記憶装置200Bは、例えば、HDDや半導体記憶装置である。記憶装置200Bには、認証プログラム(アプリケーションソフトウェア)が記憶されている。また、記憶装置200Bには、後述する動作指示部208において利用される複数の動作を指示するためのテキストデータ及び音声データが動作IDに関連付けて記憶されたデータベースが記憶されている。 The storage device 200B is, for example, an HDD or a semiconductor storage device. An authentication program (application software) is stored in the storage device 200B. Further, the storage device 200B stores a database in which text data and voice data for instructing a plurality of operations used in an operation instruction unit 208 described later are stored in association with the operation ID.

データベースには、種々の動作のテキストデータ及び音声データが動作IDに関連付けて記憶されている。例えば、「両まぶたを3秒間閉じてください」、「左まぶたを3秒間閉じてください」、「右まぶたを3秒間閉じてください」、「口を大きく開けてください」、「画面に合わせて顔を動かしてください」、「大きくうなずいてください」、「ゆっくりと「あ・お・う・え・お」と発音してください」、「舌を出してください」などのテキストデータ及び音声データが動作IDに関連付けて記憶されている。 Text data and voice data of various actions are stored in the database in association with the action ID. For example, "Please close both eyelids for 3 seconds", "Please close your left eyelid for 3 seconds", "Please close your right eyelid for 3 seconds", "Open your mouth wide", "Face to fit the screen". "Please move your voice", "Please nod loudly", "Slowly pronounce "A-O-U-E-O"", "Put your tongue out" and other text and voice data It is stored in association with the ID.

以下、表1に上記データベースの一例を示す。表1に示すように種々の動作のテキストデータ及び音声データが動作IDに関連付けて記憶されている。

Figure 2020095670
Table 1 below shows an example of the database. As shown in Table 1, text data and voice data of various actions are stored in association with the action ID.
Figure 2020095670

第1実施形態では、表示装置200Dへの上記テキストデータの表示及び音声出力装置200Fからの上記音声データの出力により、ユーザUに対して動作の指示を行うが、表示装置200Dへの上記テキストデータの表示又は音声出力装置200Fからの上記音声データの出力のいずれかにより、ユーザUに対して動作の指示を行うようにしてもよい。 In the first embodiment, the operation instruction is given to the user U by displaying the text data on the display device 200D and outputting the voice data from the voice output device 200F. However, the text data is displayed on the display device 200D. Alternatively, the operation instruction may be given to the user U by either the display of 1 or the output of the audio data from the audio output device 200F.

入力装置200Cは、例えば、タッチパネル、キーボード、マウスなどであり、ユーザUは、入力装置200Cを操作して、本人確認の認証を行うことができる。 The input device 200C is, for example, a touch panel, a keyboard, a mouse, or the like, and the user U can operate the input device 200C to authenticate himself/herself.

表示装置200Dは、例えば、液晶モニタや有機ELモニタなどである。表示装置200Dは、第1実施形態に係る認証システム1の利用に必要な画面を表示する。 The display device 200D is, for example, a liquid crystal monitor or an organic EL monitor. The display device 200D displays a screen required for using the authentication system 1 according to the first embodiment.

撮像装置200Eは、例えば、CCD(電荷結合素子)イメージセンサやCMOS(相補型MOS)イメージセンサ等の個体撮像素子を備えたカメラである。ユーザUは、撮像装置200Eを利用して本人確認書類の動画(以下、第1撮像データともいう)及びユーザUの自撮り動画(以下、第2撮像データともいう)を撮像する。なお、本人確認書類についても動画を撮像させることで、ネット等から取得した本人確認書類の画像等でないことを確認することができ本人確認の信頼性を向上することができる。 The image pickup apparatus 200E is, for example, a camera including a solid-state image pickup element such as a CCD (charge coupled device) image sensor or a CMOS (complementary MOS) image sensor. The user U uses the image capturing apparatus 200E to capture a moving image of the identity verification document (hereinafter, also referred to as first imaged data) and a self-taken moving image of the user U (hereinafter, also referred to as second imaged data). By capturing a moving image of the personal identification document, it can be confirmed that the personal identification document is not an image of the personal identification document acquired from the internet or the like, and the reliability of the personal identification can be improved.

音声出力装置200Fは、スピーカであり、音声を出力する。 The audio output device 200F is a speaker and outputs audio.

CPU200Gは、ユーザ端末2を制御し、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。 The CPU 200G controls the user terminal 2 and includes a ROM (Read Only Memory) and a RAM (Random Access Memory) not shown.

図2(b)に示すように、ユーザ端末2は、撮像装置制御部201、入力受付部202、表示装置制御部203、送信部204、受信部205、動作抽出部206、指示タイミング決定部207、動作指示部208、音声出力装置制御部209及び記憶装置制御部210などの機能を有する。なお、図2(b)に示す機能は、ユーザ端末2のROM(不図示)に記憶された管理プログラムをCPU200Gが実行することにより実現される。 As shown in FIG. 2B, the user terminal 2 has an imaging device control unit 201, an input reception unit 202, a display device control unit 203, a transmission unit 204, a reception unit 205, an operation extraction unit 206, and an instruction timing determination unit 207. , The operation instruction unit 208, the audio output device control unit 209, the storage device control unit 210, and the like. The function shown in FIG. 2B is realized by the CPU 200G executing the management program stored in the ROM (not shown) of the user terminal 2.

撮像装置制御部201は、撮像装置200Eによる撮像を制御する。具体的には、撮像装置制御部201は、撮像装置200Eを制御する。 The imaging device control unit 201 controls imaging by the imaging device 200E. Specifically, the imaging device control unit 201 controls the imaging device 200E.

入力受付部202は、入力装置200Cでの入力操作を受け付ける。 The input receiving unit 202 receives an input operation on the input device 200C.

表示装置制御部203は、表示装置200Dを制御する。具体的には、表示装置制御部203は、第1実施形態に係る認証システム1の利用に必要な画面を表示させる。例えば、表示装置制御部203は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応するテキストデータを読み出して、表示装置200Dに表示する。表示装置200Dには、指示がテキスト(例えば、「3秒間目を閉じてください」)で表示される。 The display device control unit 203 controls the display device 200D. Specifically, the display device control unit 203 displays a screen required for using the authentication system 1 according to the first embodiment. For example, the display device control unit 203 reads the text data corresponding to the motion ID extracted by the motion extraction unit 206 based on the instruction from the motion instruction unit 208, and displays it on the display device 200D. On the display device 200D, the instruction is displayed as text (for example, "please close your eyes for 3 seconds").

送信部204は、例えば、撮像データ(第1,第2撮像データ)、動作を指示したタイミング(指示タイミング決定部207で決定された動作指示のタイミング(自撮り動画の撮像開始から何秒後か))、動作ID(動作抽出部206で抽出された動作ID)の情報を認証サーバ3へ送信する。 The transmission unit 204 may, for example, capture data (first and second capture data), a timing at which an operation is instructed (a timing of an operation instruction determined by the instruction timing determination unit 207 (how many seconds after the start of capturing a self-portrait moving image, )), and information of the motion ID (motion ID extracted by the motion extraction unit 206) is transmitted to the authentication server 3.

受信部205は、認証サーバ3から送信される情報を受信する。 The receiving unit 205 receives the information transmitted from the authentication server 3.

動作抽出部206は、記憶装置200Bに記憶されている動作IDから、1以上の動作IDをランダムに抽出する。 The motion extraction unit 206 randomly extracts one or more motion IDs from the motion IDs stored in the storage device 200B.

指示タイミング決定部207は、後述する動作指示部208がユーザUに対して動作を指示するタイミングをランダム(例えば、自撮り動画の撮像開始から3秒後や5秒後)に決定する。 The instruction timing determination unit 207 randomly determines the timing at which the operation instruction unit 208, which will be described later, instructs the user U to perform an operation (for example, 3 seconds or 5 seconds after the start of capturing a self-shooting moving image).

動作指示部208は、ユーザUに対して1以上の動作を指示タイミング決定部207で決定されたタイミングで指示する。具体的には、動作指示部208は、指示タイミング決定部207で決定されたタイミングで、動作抽出部206により抽出された動作IDに対応するテキストデータを表示するように表示装置制御部203に指示する。また、動作指示部208は、指示タイミング決定部207で決定されたタイミングで、動作抽出部206により抽出された動作IDに対応する音声データを出力するように音声出力装置制御部209に指示する。 The operation instruction unit 208 instructs the user U to perform one or more operations at the timing determined by the instruction timing determination unit 207. Specifically, the operation instruction unit 208 instructs the display device control unit 203 to display the text data corresponding to the operation ID extracted by the operation extraction unit 206 at the timing determined by the instruction timing determination unit 207. To do. Further, the operation instruction unit 208 instructs the audio output device control unit 209 to output the audio data corresponding to the operation ID extracted by the operation extraction unit 206 at the timing determined by the instruction timing determination unit 207.

音声出力装置制御部209は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応する音声データを読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、動作の指示が音声(例えば、「3秒間目を閉じてください」)として出力される。 The audio output device control unit 209 reads out audio data corresponding to the operation ID extracted by the operation extraction unit 206 based on the instruction from the operation instruction unit 208, and outputs the audio data from the audio output device 200F. From the voice output device 200F, an operation instruction is output as voice (for example, "please close your eyes for 3 seconds").

記憶装置制御部210は、記憶装置200Bを制御する。具体的には、記憶装置制御部210は、記憶装置200Bを制御して情報の書き込みや読み出しを行う。 The storage device controller 210 controls the storage device 200B. Specifically, the storage device controller 210 controls the storage device 200B to write and read information.

(認証サーバ3)
認証サーバ3は、ユーザ端末2から送信される情報(ユーザ端末2から送信された第1,第2撮像データ、動作指示のタイミング、動作ID)に基づいて、ユーザUの本人確認を行う。
(Authentication server 3)
The authentication server 3 confirms the identity of the user U based on the information transmitted from the user terminal 2 (first and second imaging data transmitted from the user terminal 2, operation instruction timing, operation ID).

図3A(a)は、認証サーバ3のハード構成図、図3A(b)は、認証サーバ3の機能ブロック図である。図3B(a)は、認証サーバ3が有する第1判定部304の動作を説明する図、図3B(b)は、認証サーバ3が有する第2判定部305の判定内容を説明する図、図3B(c)は、認証サーバ3が有する第3判定部306の判定内容を説明する図、図3B(d)は、認証サーバ3が有する第4判定部307の判定内容を説明する図である。以下、図3A及び図3Bを参照して認証サーバ3について説明する。 FIG. 3A(a) is a hardware configuration diagram of the authentication server 3, and FIG. 3A(b) is a functional block diagram of the authentication server 3. FIG. 3B(a) is a diagram illustrating the operation of the first determination unit 304 included in the authentication server 3, and FIG. 3B(b) is a diagram illustrating the determination content of the second determination unit 305 included in the authentication server 3. 3B(c) is a diagram illustrating the determination content of the third determination unit 306 included in the authentication server 3, and FIG. 3B(d) is a diagram illustrating the determination content of the fourth determination unit 307 included in the authentication server 3. .. The authentication server 3 will be described below with reference to FIGS. 3A and 3B.

図3A(a)に示すように、認証サーバ3は、通信IF300A、記憶装置300B及びCPU300Cがバス300Dを介して接続された構成を備える。 As shown in FIG. 3A(a), the authentication server 3 has a configuration in which a communication IF 300A, a storage device 300B, and a CPU 300C are connected via a bus 300D.

通信IF300Aは、ユーザ端末2と通信するためのインターフェースである。 The communication IF 300A is an interface for communicating with the user terminal 2.

記憶装置300Bは、例えば、HDDや半導体記憶装置である。記憶装置300Bには、本認証システム1で利用する認証プログラムなどが記憶されている。また、記憶装置300Bには、複数の動作内容が動作毎に動作IDに関連付けて記憶されたデータベースが記憶されている。これは、ユーザ端末2の記憶装置200Bに記憶されているデータベースに対応するものであり、認証サーバ3は、記憶装置300Bに記憶されているデータベースを参照することで、ユーザ端末2から送信される動作IDに基づいて、ユーザ端末2でどのような動作をユーザUに指示したのかを認識することができる。 The storage device 300B is, for example, an HDD or a semiconductor storage device. The storage device 300B stores an authentication program used in the authentication system 1 and the like. Further, the storage device 300B stores a database in which a plurality of operation contents are stored in association with each operation ID for each operation. This corresponds to the database stored in the storage device 200B of the user terminal 2, and the authentication server 3 is transmitted from the user terminal 2 by referring to the database stored in the storage device 300B. Based on the motion ID, it is possible to recognize what motion the user terminal 2 has instructed the user U to do.

CPU300Cは、認証サーバ3を制御し、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。 The CPU 300C controls the authentication server 3 and includes a ROM (Read Only Memory) and a RAM (Random Access Memory) not shown.

図3A(b)に示すように、認証サーバ3は、受信部301(第1,第2取得部)、動作指示タイミング認識部302、静止画像データ抽出部303、第1判定部304、第2判定部305、第3判定部306、第4判定部307、記憶装置制御部308及び送信部309などの機能を有する。なお、図3A(b)に示す機能は、認証サーバ3のROM(不図示)に記憶された管理プログラムをCPU300Cが実行することにより実現される。 As shown in FIG. 3A(b), the authentication server 3 includes a reception unit 301 (first and second acquisition units), an operation instruction timing recognition unit 302, a still image data extraction unit 303, a first determination unit 304, and a second determination unit 304. It has the functions of the determination unit 305, the third determination unit 306, the fourth determination unit 307, the storage device control unit 308, the transmission unit 309, and the like. The function shown in FIG. 3A(b) is realized by the CPU 300C executing the management program stored in the ROM (not shown) of the authentication server 3.

受信部301は、ユーザ端末2から送信される情報、例えば、撮像データ(第1,第2撮像データ)、動作指示のタイミング、動作IDの情報を受信する。 The receiving unit 301 receives information transmitted from the user terminal 2, for example, image pickup data (first and second image pickup data), operation instruction timing, and operation ID information.

動作指示タイミング認識部302は、ユーザ端末2から送信される動作指示のタイミングの情報に基づいて、自撮り動画の撮像開始から何秒後に動作が指示されたかを認識する。 The operation instruction timing recognition unit 302 recognizes, based on the information on the timing of the operation instruction transmitted from the user terminal 2, how many seconds after the start of capturing the self-taken moving image, the operation is instructed.

静止画像データ抽出部303は、受信部301で受信された撮像データ(第1,第2撮像データ)から静止画像データを抽出する(切り出す)。具体的には、静止画像データ抽出部303は、第1撮像データから本人確認書類(顔写真が写っているもの)の静止画像データ(以下、第1画像データともいう)を抽出する。また、静止画像データ抽出部303は、動作指示タイミング認識部302で認識された動作指示のタイミングに基づいて、受信部301で受信した第2撮像データから、動作の指示前の静止画像データ(第2画像データともいう)と、動作の指示後の静止画像データ(以下、第3画像データともいう)とを抽出する。例えば、動作指示タイミング認識部302で認識された動作指示のタイミングが3秒後であれば、静止画像データ抽出部303は、受信部301で受信した第2撮像データから、動作の指示前(自撮り動画の撮像開始から3秒後より前)の静止画像データ(第2画像データ)と、動作の指示後(自撮り動画の撮像開始から3秒後より後)の静止画像データ(第3画像データ)とを抽出する。 The still image data extraction unit 303 extracts (cuts out) still image data from the imaged data (first and second imaged data) received by the receiving unit 301. Specifically, the still image data extraction unit 303 extracts still image data (hereinafter, also referred to as first image data) of the personal identification document (face photograph is included) from the first imaged data. Further, the still image data extraction unit 303, based on the timing of the operation instruction recognized by the operation instruction timing recognition unit 302, extracts the still image data before the operation instruction (second image data) from the second imaging data received by the reception unit 301. 2 image data) and still image data (hereinafter also referred to as third image data) after the operation instruction is extracted. For example, if the timing of the operation instruction recognized by the operation instruction timing recognition unit 302 is 3 seconds later, the still image data extraction unit 303 determines from the second image data received by the reception unit 301 that the operation instruction before Still image data (second image data) 3 seconds after the start of capturing the moving image and still image data (third image 3 seconds after the start of capturing the self-portrait moving image) Data) and.

第1判定部304は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、本人確認書類の顔写真の人物と、ユーザUとが同一人物であるか否かを判定する(図3B(a)を参照)。 The first determination unit 304, based on the first image data and the second image data extracted by the still image data extraction unit 303 (still image data of the face photograph of the identity verification document and still image data of the user U), It is determined whether the person in the face photograph of the personal identification document and the user U are the same person (see FIG. 3B(a)).

具体的には、第1判定部304は、第1,第2画像データから顔(オブジェクト)を含む領域を切り出す。次いで、第1判定部304は、複数の箇所(顔の輪郭、目の輪郭、眉、鼻、口など、人間の顔の特徴が表れる複数の箇所)の内、特に重要視する箇所を傾斜配点(重み付けを行う)して、この傾斜配点により付与された各箇所の類似度(点数:類似しているほど点数が高い)を算出し、算出した点数を足し合わせて総点数を算出する。次いで第1判定部304は、総点数を100点満点で規格化した値を算出し、該値が所定の閾値以上である場合、同一人物であると判定する。 Specifically, the first determination unit 304 cuts out an area including a face (object) from the first and second image data. Next, the first determination unit 304, among a plurality of locations (a plurality of locations where the characteristics of a human face, such as the contour of a face, the contour of an eye, the eyebrows, the nose, and the mouth, appear), places that are particularly important are tilted. (Weighting is performed) to calculate the degree of similarity (point: the higher the degree of similarity, the higher the number of points) of each point given by this sloped point, and the calculated points are added together to calculate the total point. Next, the first determination unit 304 calculates a value obtained by normalizing the total number of points to a maximum of 100 points, and when the value is equal to or larger than a predetermined threshold value, determines that the person is the same person.

なお、類似度(点数)は、例えば、以下の観点に基づいて算出することができる。なお、下記の観点は、あくまで一例であり、他の観点(手法)により類似度を算出するようにしてもよい。
(1)距離関係(目と目の間が離れている/近い など)
(2)角度関係(釣り目/たれ目 など)
(3)輪郭中における位置関係(パーツが中心に因っている顔 など)
The degree of similarity (score) can be calculated, for example, from the following viewpoints. The following viewpoints are merely examples, and the similarity may be calculated from other viewpoints (methods).
(1) Distance relationship (eyes are separated/closer, etc.)
(2) Angle relationship (fishing/sagging, etc.)
(3) Positional relationship in the contour (face with parts centered, etc.)

第2判定部305は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、第2画像データがユーザUを撮像した画像であるか否か(本人確認書類等の顔写真の画像を流用していないか否か)を判定する(図3B(b)を参照)。 The second determination unit 305, based on the first image data and the second image data extracted by the still image data extraction unit 303 (still image data of the face photograph of the identity verification document and still image data of the user U), It is determined whether or not the second image data is an image of the user U (whether or not an image of a facial photograph such as a personal identification document is diverted) (see FIG. 3B(b)).

具体的には、第2判定部305は、第1,第2画像データから顔(オブジェクト)を含む領域を切り出す。次いで、第2判定部305は、複数の箇所(顔の輪郭、目の輪郭、眉、鼻、口など、人間の顔の特徴が表れる複数の箇所)の類似度(点数:類似しているほど点数が高い)を算出し、算出した点数を足し合わせて総点数を算出する。次いで、第2判定部305は、総点数を100点満点で規格化した値を算出し、該値が所定の閾値(例えば90点)を越える場合、なりすまし、換言すると、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工(顔写真を切り取ってユーザの自撮り撮像データとするなど)してユーザの撮像データとして利用したと判定する。なお、第1実施形態においては、第2判定部305での類似度(点数)の算出方法は、第1判定部304と同じであるが、他の方法により類似度を算出するようにしてもよい。 Specifically, the second determination unit 305 cuts out an area including a face (object) from the first and second image data. Next, the second determination unit 305 determines the degree of similarity (the number of points: the more similar the points are, the more similar the points are, the contours of the face, the contours of the eyes, the eyebrows, the nose, the mouth, and the like). (High score) is calculated, and the calculated scores are added together to calculate the total score. Next, the second determination unit 305 calculates a value obtained by normalizing the total number of points to 100 points, and if the value exceeds a predetermined threshold value (for example, 90 points), spoofing, in other words, the identity verification document is stolen. In such a case, it is determined that the face photograph of the personal identification document is processed (eg, the face photograph is cut and used as the user's self-shooting image pickup data) and used as the user's image pickup data. In the first embodiment, the method of calculating the similarity (score) in the second determining unit 305 is the same as that of the first determining unit 304, but the similarity may be calculated by another method. Good.

第1判定部304の判定方法は、例えば、顔の違い(特徴)が特によくあらわれる箇所(目、鼻、口の形状など)の配点割合を高くし(重み付けを重くする)、他の箇所の配点割合を低くする(重み付けを軽くする)傾斜配点を行うことで、同一人物の場合、総点数が略100点となり、同一人物でない場合、総点数が略0点となり、同一人物であるか否かにより総点数に極端な違いがでる。このため同一人物か否かの判定に適した特性(アルゴリズム)となる。一方、同一人物であるか否かにより総点数に極端な違いがでるため、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工(顔写真を切り取ってユーザの自撮り撮像データとするなど)してユーザの撮像データとして利用された場合に、本人確認書類の撮像データと、ユーザUの撮像データとが同一人物となるためになりすましを見抜くことが難しい。 The determination method of the first determination unit 304 is, for example, to increase the proportion of points (weight of the eyes, nose, mouth, etc.) where face differences (features) are particularly common (weighting), and If the same person has a total score of about 100 points by performing a grading with a lower proportion of points (lighter weighting), the total score will be about 0 points if they are not the same person. Depending on whether or not there is an extreme difference in the total score. Therefore, the characteristic (algorithm) is suitable for determining whether the same person or not. On the other hand, there is an extreme difference in the total score depending on whether the person is the same person, so if the identity verification document is stolen, the face photo of the identity verification document is processed (cut the face photo and take a self-portrait of the user. When the data is used as the image pickup data of the user (for example, as data), the image pickup data of the identity verification document and the image pickup data of the user U are the same person, and thus it is difficult to detect spoofing.

これに対して、第2判定部305の判定方法は、傾斜配点(重み付け)を行わないため、顔のアングル等、細かな角度の違いにより判定結果(総点数)に影響を受けやすい。このため、同一人物であっても規格化後の総点数が90点を超えることは略ないと考えられる。つまり、規格化後の総点数が所定の閾値(例えば、90点)を超えている場合、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工(顔写真を切り取ってユーザの自撮り撮像データとするなど)してユーザの撮像データとして利用していることが考えられる(本人確認書類の顔と、自撮りの顔が似すぎている場合には、本人確認書類等の顔写真の流用が疑われる)。 On the other hand, in the determination method of the second determination unit 305, since the inclination points (weighting) are not performed, the determination result (total score) is easily affected by a small angle difference such as a face angle. For this reason, it can be considered that the total number of points after standardization will not exceed 90 even for the same person. That is, if the total number of points after standardization exceeds a predetermined threshold value (for example, 90 points), or if the identity verification document is stolen, the face photo of the identity verification document is processed (the face photo is cut and the It may be used as the user's captured image data (for example, if the face of the personal identification document is too similar to the face of the self-portrait, the personal identification document, etc.) Suspected misappropriation of face photo).

このように、第1実施形態では、本人か否かの確認及び本人の画像を流用していないか否かの確認を特性(アルゴリズム)の異なる2つの判定方法を利用して判定している。このため、なりすましを非常に効果的に防止することができる。 As described above, in the first embodiment, the confirmation as to whether or not the person is the original person and the confirmation as to whether or not the image of the person himself/herself are diverted are performed using two determination methods having different characteristics (algorithms). Therefore, spoofing can be prevented very effectively.

なお、上述した第1判定部304の判定手法は、一例であり、上述した同一人物か否かの判定に適した特性(アルゴリズム)となる判定手法であれば、他の傾斜配点割合の採用や判定手法の利用を妨げるものではない。また、上述した第2判定部305の判定手法は、一例であり、上述した本人確認書類等の顔写真の流用か否かの判定に適した特性(アルゴリズム)となる判定手法であれば、他の傾斜配点割合の採用や判定手法の利用を妨げるものではない。例えば、第1判定部304及び第2判定部305の判定において、それぞれの特性が維持されるのであれば、特定箇所の傾斜配点の割合を変更するようにしてもよく、また荷重平均により判定するなど種々の手法を採用することができる。さらに、既知の顔認証の手法を利用してもよいし、既知の顔認証において特定箇所の傾斜配点の割合を変更することにより、第1判定部304及び第2判定部305による判定を行うようにしてもよい。また、人間の顔の特徴が表れる複数の箇所をどの箇所とするかについては任意である。 Note that the determination method of the first determination unit 304 described above is an example, and if the determination method has a characteristic (algorithm) suitable for determining whether or not the same person is the same person, it is possible to use another inclined point allocation ratio or It does not prevent the use of the judgment method. The determination method of the second determination unit 305 described above is an example, and any other determination method can be used as long as the determination method has a characteristic (algorithm) suitable for determining whether or not a face photograph such as the personal identification document is used. It does not hinder the adoption of the graded point ratio and the use of the judgment method. For example, in the determinations of the first determination unit 304 and the second determination unit 305, if the respective characteristics are maintained, the ratio of the sloped points at a specific location may be changed, or the weighted average determination may be performed. Various methods can be adopted. Further, a known face authentication method may be used, or the first determination unit 304 and the second determination unit 305 may make the determination by changing the ratio of the sloped points at specific locations in the known face authentication. You can In addition, it is optional as to which part is the plurality of parts in which the characteristics of the human face appear.

第3判定部306は、静止画像データ抽出部303により抽出された動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、受信部301で受信した動作IDに対応する動作、換言すると、ユーザUが指示された動作を行ったか否かを判定する(図3B(c)を参照)。なお、第3判定部306による判定には、既知の手法を利用することができる。例えば、動作ID毎に教師データとなる画像を準備して、各動作IDに対応する動作をそれぞれ機械学習させた後、第3判定部306による判定に利用してもよい。 The third determination unit 306 is based on the still image data before the operation instruction (second image data) and the still image data after the operation instruction (third image data) extracted by the still image data extraction unit 303. , The operation corresponding to the operation ID received by the receiving unit 301, in other words, it is determined whether the user U has performed the instructed operation (see FIG. 3B(c)). A known method can be used for the determination by the third determination unit 306. For example, an image serving as teacher data may be prepared for each motion ID, and the motion corresponding to each motion ID may be machine-learned, and then used for the determination by the third determination unit 306.

第4判定部307は、動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、動作の指示前及び動作の指示後の静止画像データに写ったユーザUが同一人物であるか否かを判定する(図3B(d)を参照)。なお、第4判定部307による判定方法は、第1判定部304と同じであるため重複する説明を省略する。 The fourth determination unit 307 determines, based on the still image data (second image data) before the operation instruction and the still image data (third image data) after the operation instruction, before the operation instruction and after the operation instruction. It is determined whether or not the user U shown in the still image data is the same person (see FIG. 3B(d)). Note that the determination method performed by the fourth determination unit 307 is the same as that of the first determination unit 304, and thus redundant description will be omitted.

なお、第1判定部304から第4判定部307における判定方法には、上記に説明したものに限らず種々の手法を利用することができる。 The determination methods in the first determination unit 304 to the fourth determination unit 307 are not limited to those described above, and various methods can be used.

記憶装置制御部308は、記憶装置300Bを制御する。具体的には、記憶装置制御部308は、記憶装置300Bを制御して情報の書き込みや読み出しを行う。 The storage device controller 308 controls the storage device 300B. Specifically, the storage device controller 308 controls the storage device 300B to write and read information.

送信部309は、第1判定部304、第2判定部305、第3判定部306又は第4判定部307のいずれかでの判定結果がNOである場合、認証できなかった旨(認証エラー)をユーザ端末2へ送信する。 If the determination result of any of the first determination unit 304, the second determination unit 305, the third determination unit 306, or the fourth determination unit 307 is NO, the transmission unit 309 indicates that the authentication could not be performed (authentication error). Is transmitted to the user terminal 2.

(認証システム1の処理)
以下、図4A及び図4Bを参照して、認証システム1の処理について説明する。
(Processing of Authentication System 1)
Hereinafter, the processing of the authentication system 1 will be described with reference to FIGS. 4A and 4B.

(撮像処理)
初めに、認証システム1のユーザ端末2での撮像処理について図4Aを参照して説明する。なお、図4Aには、ステップS101からステップS105の処理内容を示す参考図又は文(文字)を各ステップの左隣りに記載している。
(Imaging process)
First, the image capturing process in the user terminal 2 of the authentication system 1 will be described with reference to FIG. 4A. In FIG. 4A, reference diagrams or sentences (characters) showing the processing contents of steps S101 to S105 are shown on the left side of each step.

(ステップS101)
ユーザUは、ユーザ端末2の入力装置200Cを操作して、本人確認書類の動画を撮像する(図4Aでは免許証の両面を撮像する動作を例示)。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して撮像する。撮像装置200Eにより撮像された本人確認書類の撮像データは、一旦、記憶装置制御部210により記憶装置200Bへ記憶される。
(Step S101)
The user U operates the input device 200C of the user terminal 2 to capture a video of the identity verification document (in FIG. 4A, an operation of capturing both sides of the license is illustrated). The input receiving unit 202 receives an input operation on the input device 200C. The imaging device control unit 201 controls the imaging device 200E to capture an image based on the input operation received by the input reception unit 202. The imaging data of the identity verification document imaged by the imaging device 200E is temporarily stored in the storage device 200B by the storage device control unit 210.

(ステップS102)
次いで、ユーザUは、ユーザ端末2の入力装置200Cを操作して、動画の自撮り撮像を開始する(図4AではユーザUの顔を例示)。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して動画の撮像を開始する。撮像装置200Eにより開始された動画の撮像データ(第1撮像データ)は、一旦、記憶装置制御部210により記憶装置200Bへ記憶される。
(Step S102)
Next, the user U operates the input device 200C of the user terminal 2 to start taking a self-portrait of a moving image (in FIG. 4A, the face of the user U is illustrated). The input receiving unit 202 receives an input operation on the input device 200C. The imaging device control unit 201 controls the imaging device 200E based on the input operation accepted by the input acceptance unit 202 to start capturing a moving image. The imaging data (first imaging data) of the moving image started by the imaging device 200E is temporarily stored in the storage device 200B by the storage device control unit 210.

(ステップS103)
動作抽出部206は、記憶装置200Bに記憶されている動作から、1以上の動作IDをランダムに抽出する(図4Aでは「3秒間目を閉じてください。」を例示)。
(Step S103)
The motion extraction unit 206 randomly extracts one or more motion IDs from the motions stored in the storage device 200B (in FIG. 4A, “close the third eye.” is illustrated).

(ステップS104)
指示タイミング決定部207は、後述する動作指示部208がユーザUに対して動作を指示するタイミングをランダムに決定する(図4Aでは「3秒後」を例示)。
(Step S104)
The instruction timing determination unit 207 randomly determines the timing at which the operation instruction unit 208, which will be described later, instructs the user U to perform an operation (in FIG. 4A, “after 3 seconds” is illustrated).

(ステップS105)
動作指示部208は、ユーザUに対して1以上の動作を指示タイミング決定部207で決定されたタイミングで指示する(図4Aでは「3秒間目を閉じてください。」を例示)。表示装置制御部203は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応するテキストデータを読み出して、表示装置200Dに表示する。また、音声出力装置制御部209は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応する音声データを読み出して、音声出力装置200Fから出力する。ユーザUは、指示に従い動作を行う(図4Aでは目を閉じたユーザUの顔を例示)。
(Step S105)
The operation instruction unit 208 instructs the user U to perform one or more operations at the timing determined by the instruction timing determination unit 207 (in FIG. 4A, "close the third eye." is illustrated). The display device control unit 203 reads the text data corresponding to the motion ID extracted by the motion extraction unit 206 based on the instruction from the motion instruction unit 208, and displays it on the display device 200D. Further, the audio output device control unit 209 reads out audio data corresponding to the action ID extracted by the action extraction unit 206 based on the instruction from the action instruction unit 208, and outputs it from the audio output device 200F. The user U operates according to the instruction (in FIG. 4A, the face of the user U with his eyes closed is illustrated).

(ステップS106)
次いで、ユーザUは、ユーザ端末2の入力装置200Cを操作して、動画の撮像を終了する。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して動画の撮像を終了する。記憶装置制御部210は、撮像データ(第2撮像データ)の記憶装置200Bへの記憶を終了する。
(Step S106)
Next, the user U operates the input device 200C of the user terminal 2 to end the capturing of the moving image. The input receiving unit 202 receives an input operation on the input device 200C. The imaging device control unit 201 controls the imaging device 200E based on the input operation accepted by the input acceptance unit 202, and ends the imaging of the moving image. The storage device controller 210 ends the storage of the imaging data (second imaging data) in the storage device 200B.

(ステップS107)
送信部204は、記憶装置200Bに記憶された撮像データ(第1,第2撮像データ)、指示タイミング決定部207で決定された動作指示のタイミング、動作抽出部206により抽出された動作IDの情報を認証サーバ3へ送信する。
(Step S107)
The transmission unit 204 includes the image pickup data (first and second image pickup data) stored in the storage device 200B, the operation instruction timing determined by the instruction timing determination unit 207, and the operation ID information extracted by the operation extraction unit 206. Is transmitted to the authentication server 3.

なお上記説明では、本人確認書類の動画を撮像した後、ユーザUの自撮り動画の撮像を行っているが、ユーザUの自撮り動画の撮像を行った後、本人確認書類の動画を撮像するようにしてもよい。また、第1撮像データ及び第2撮像データを最後にまとめて認証サーバ3へ送信しているが、第1撮像データ及び第2撮像データを撮像の度に個別に認証サーバ3へ送信するようにしてもよい。また、ステップS101では、動画により本人確認書類を撮像しているが動画に代えて、本人確認書類の顔写真を含む静止画像を撮像するようにしてもよい。 In the above description, the video of the identity verification document is captured, and then the self-taken video of the user U is captured. However, after the video of the user U's self-captured video is captured, the video of the identity verification document is captured. You may do it. Further, although the first image pickup data and the second image pickup data are collectively sent to the authentication server 3 at the end, the first image pickup data and the second image pickup data are individually sent to the authentication server 3 each time the image is picked up. May be. Further, in step S101, the identity verification document is captured by a moving image, but a still image including a face photograph of the identity verification document may be captured instead of the moving image.

(認証処理)
次に、認証システム1の認証サーバ3での認証処理について図4Bを参照して説明する。
(Authentication process)
Next, the authentication processing in the authentication server 3 of the authentication system 1 will be described with reference to FIG. 4B.

(ステップS201)
受信部301は、ユーザ端末2から送信される情報、例えば、撮像データ(第1,第2撮像データ)、動作指示のタイミング、動作IDの情報を受信する。
(Step S201)
The receiving unit 301 receives information transmitted from the user terminal 2, for example, image pickup data (first and second image pickup data), operation instruction timing, and operation ID information.

(ステップS202)
動作指示タイミング認識部302は、ユーザ端末2から送信される動作指示のタイミングの情報に基づいて、自撮り動画の撮像開始から何秒後に動作が指示されたかを認識する。
(Step S202)
The operation instruction timing recognition unit 302 recognizes, based on the information on the timing of the operation instruction transmitted from the user terminal 2, how many seconds after the start of capturing the self-taken moving image, the operation is instructed.

(ステップS203)
静止画像データ抽出部303は、受信部301で受信された撮像データ(第1,第2撮像データ)から静止画像データを抽出する。具体的には、静止画像データ抽出部303は、第1撮像データから本人確認書類(顔写真が写っているもの)の静止画像データ(第1画像データ)を抽出する。また、静止画像データ抽出部303は、受信部301で受信した第2撮像データから、動作の指示前の静止画像データ(第2画像データ)及び動作の指示後の静止画像データ(第3画像データ)を抽出する。なお、静止画像データ抽出部303による第1,第2撮像データから第1乃至第3画像データを抽出する方法については既に述べたので重複する説明を省略する。
(Step S203)
The still image data extraction unit 303 extracts still image data from the image pickup data (first and second image pickup data) received by the receiving unit 301. Specifically, the still image data extraction unit 303 extracts the still image data (first image data) of the personal identification document (a face photograph is included) from the first imaged data. In addition, the still image data extraction unit 303, based on the second image data received by the reception unit 301, still image data before the operation instruction (second image data) and still image data after the operation instruction (third image data). ) Is extracted. Note that the method of extracting the first to third image data from the first and second imaged data by the still image data extraction unit 303 has already been described, and thus redundant description will be omitted.

(ステップS204)
第1判定部304は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、本人確認書類の顔写真の人物と、ユーザUとが同一人物であるか否かを判定する。なお、第1判定部304による判定方法については既に述べたので重複する説明を省略する
(Step S204)
The first determination unit 304, based on the first image data and the second image data extracted by the still image data extraction unit 303 (still image data of the face photograph of the identity verification document and still image data of the user U), It is determined whether the person in the face photograph of the identity verification document and the user U are the same person. Note that the determination method by the first determination unit 304 has already been described, so redundant description will be omitted.

(ステップS205)
第1判定部304が、本人確認書類の顔写真の人物と、ユーザUとが同一人物であると判定した場合(S204のYES)、第2判定部305は、第2判定部305は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、第2画像データがユーザUを撮像した撮像画像であるか否か(顔写真の画像を流用していないか否か)を判定する。なお、第2判定部305による判定方法については既に述べたので重複する説明を省略する。
(Step S205)
When the first determination unit 304 determines that the person in the face photograph of the identity verification document and the user U are the same person (YES in S204), the second determination unit 305, the second determination unit 305, the still Based on the first image data and the second image data extracted by the image data extraction unit 303 (still image data of the face photograph of the identity verification document and still image data of the user U), the second image data identifies the user U. It is determined whether or not the image is a captured image (whether or not the image of the facial photograph is diverted). Note that the determination method by the second determination unit 305 has already been described, so redundant description will be omitted.

(ステップS206)
第2判定部305が、撮像データがユーザUを撮像した撮像画像であると判定した場合(S205のYES)、第3判定部306は、静止画像データ抽出部303により抽出された動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、受信部301で受信した動作IDに対応する動作、換言すると、ユーザUが指示された動作を行ったか否かを判定する。なお、第3判定部306による判定方法については既に述べたので重複する説明を省略する。
(Step S206)
When the second determination unit 305 determines that the captured image data is the captured image of the user U (YES in S205), the third determination unit 306 determines that the operation instruction extracted by the still image data extraction unit 303 has not been issued. Based on the still image data (second image data) and the still image data after the operation instruction (third image data), the operation corresponding to the operation ID received by the receiving unit 301, in other words, the user U instructs It is determined whether the specified operation has been performed. Note that the determination method by the third determination unit 306 has already been described, so redundant description will be omitted.

(ステップS207)
第3判定部306が、ユーザUが指示された動作を行ったと判定した場合(ステップS205のYES)、第4判定部307は、動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、動作の指示前及び動作の指示後の静止画像データに写ったユーザUが同一人物であるか否かを判定する。なお、第4判定部307による判定方法については既に述べたので重複する説明を省略する。
(Step S207)
When the third determination unit 306 determines that the user U has performed the instructed action (YES in step S205), the fourth determination unit 307 determines the still image data (second image data) before the action instruction and the action. It is determined based on the still image data (third image data) after the instruction of (3) whether the user U shown in the still image data before the operation instruction and after the operation instruction is the same person. Note that the determination method by the fourth determination unit 307 has already been described, so redundant description will be omitted.

(ステップS208)
第1判定処理(S204)、第2判定処理(S205)、第3判定処理(S206)又は第4判定処理(S207)のいずれかでの判定結果がNOである場合、認証サーバ3は、認証エラー処理を行う。具体的には、認証サーバ3は、認証処理を停止するとともに、送信部309は、認証できなかった旨(認証エラー)をユーザ端末2へ送信する。また、第4判定部307が、ユーザUが指示された動作を行ったと判定した場合(S207のYES)、認証サーバ3は、認証処理を終了する。
(Step S208)
If the determination result in any of the first determination processing (S204), the second determination processing (S205), the third determination processing (S206), or the fourth determination processing (S207) is NO, the authentication server 3 performs authentication. Perform error handling. Specifically, the authentication server 3 stops the authentication process, and the transmitting unit 309 transmits to the user terminal 2 the fact that the authentication could not be performed (authentication error). When the fourth determination unit 307 determines that the user U has performed the instructed operation (YES in S207), the authentication server 3 ends the authentication process.

なお、図4Bの説明では、第1判定部304から第4判定部307による判定を順番に行っているが、第1判定部304から第4判定部307による判定順序は図4Bに示す順序に限られず順不同である。換言すると、図4Bに示す第1判定部304から第4判定部307による判定の順序を入れ替えてもよい。 In the description of FIG. 4B, the determinations by the first determination unit 304 to the fourth determination unit 307 are performed in order, but the determination order by the first determination unit 304 to the fourth determination unit 307 is the order shown in FIG. 4B. There is no limit to the order. In other words, the order of determination by the first determination unit 304 to the fourth determination unit 307 illustrated in FIG. 4B may be changed.

[第1実施形態の変形例]
なお、上記第1実施形態においては、認証サーバ3が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307の機能を有し、認証サーバ3において、認証処理を行っているが、ユーザ端末2が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307の機能を有し、ユーザ端末2において、認証処理を行うようにしてもよい。上記第1実施形態においては、ユーザ端末2が、動作抽出部206、指示タイミング決定部207、動作指示部208の機能を有しているが、認証サーバ3が、動作抽出部206、指示タイミング決定部207、動作指示部208の機能を有し、指示タイミング決定部207で決定されたタイミングで動作抽出部206により抽出された動作を動作指示部208が認証サーバ3の送信部309からユーザ端末2へ送信するようにしてもよい。
[Modification of First Embodiment]
In the first embodiment, the authentication server 3 has the functions of the first determination unit 304, the second determination unit 305, the still image data extraction unit 303, the third determination unit 306, and the fourth determination unit 307. Although the authentication process is performed in the authentication server 3, the user terminal 2 is configured to operate the first determination unit 304, the second determination unit 305, the still image data extraction unit 303, the third determination unit 306, and the fourth determination unit 307. The user terminal 2 having a function may perform the authentication process. In the first embodiment described above, the user terminal 2 has the functions of the motion extraction unit 206, the instruction timing determination unit 207, and the operation instruction unit 208, but the authentication server 3 uses the action extraction unit 206 and the instruction timing determination. The function instructing unit 208 has the functions of the unit 207 and the operation instructing unit 208, and the operation instructing unit 208 controls the operation extracted by the operation extracting unit 206 at the timing determined by the instruction timing determining unit 207 from the transmitting unit 309 of the authentication server 3 to the user terminal 2. May be transmitted to.

また、静止画像データ抽出部303の機能をユーザ端末2が有し、第1,第2撮像データから第1乃至第3静止画像データを抽出した後、第1乃至第3静止画像データを認証サーバ3へ送信し、認証サーバ3は、ユーザ端末2から送信された第1乃至第3静止画像データに基づいて図4Bを参照して説明した本人確認の認証を行うようにしてもよい。このようにすれば、ユーザ端末2から送信するデータ量を大幅に削減することができる。 In addition, the user terminal 2 has the function of the still image data extraction unit 303, extracts the first to third still image data from the first and second captured image data, and then outputs the first to third still image data to the authentication server. 3, the authentication server 3 may perform the authentication of the identity confirmation described with reference to FIG. 4B based on the first to third still image data transmitted from the user terminal 2. By doing so, the amount of data transmitted from the user terminal 2 can be significantly reduced.

(効果)
以上のように、第1実施形態に係る認証システム1は、本人確認のための認証システム1であって、本人確認書類の顔写真の撮像データ及びユーザの撮像データを取得する受信部301(第1,第2取得部)と、第1取得部により取得された撮像データと、第2取得部により取得された撮像データとに基づいて、本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かを判定する第1判定部304と、第1取得部により取得された撮像データと、第2取得部により取得された撮像データとに基づいて、第2取得部により取得された撮像データがユーザUを撮像した他の撮像画像の流用でないか否かを判定する第2判定部305と、を備えている。
(effect)
As described above, the authentication system 1 according to the first embodiment is the authentication system 1 for personal identification, and includes the receiving unit 301 (first image capturing data of the face photograph of the personal identification document and the image capturing data of the user). 1, second acquisition unit), the imaging data acquired by the first acquisition unit, and the imaging data acquired by the second acquisition unit, based on the imaging data acquired by the second acquisition unit. Based on the first determination unit 304 that determines whether the person is the same, the imaging data acquired by the first acquisition unit, and the imaging data acquired by the second acquisition unit, the acquisition unit acquires the second acquisition unit. The second determination unit 305 that determines whether or not the captured image data is not a diversion of another captured image of the user U.

つまり、認証システム1は、本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かの判定と、撮像データがユーザUを撮像した撮像画像であるか否かの判定を行っているため、なりすましを効果的に防止することができる。また、撮像データとしてユーザUの動画を利用しているため、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工してユーザの撮像データとして利用される虞がなく、なりすましを効果的に防止することができる。この結果、本人確認の信頼性が高まる。 That is, the authentication system 1 determines whether the person in the face photograph of the personal identification document and the user are the same person, and whether the captured data is a captured image of the user U. Since this is done, spoofing can be effectively prevented. Further, since the moving image of the user U is used as the imaging data, there is no possibility that the face photograph of the identity verification document will be processed and used as the imaging data of the user when the identity verification document is stolen, etc. Can be effectively prevented. As a result, the reliability of identity verification is enhanced.

また、第1判定部304及び第2判定部305は、互いに異なる判定アルゴリズムにより本人確認書類の顔写真の人物と、ユーザとが同一人物であるか否か及び受信部301(第2取得部)により取得された撮像データがユーザUを撮像した撮像画像であるか否かを判定している。このように、第1実施形態では、第1判定部304及び第2判定部305において、本人か否かの確認及び本人の画像を流用していないか否かの確認を特性(アルゴリズム)の異なる2つの判定方法を利用して判定している。このため、なりすましを非常に効果的に防止することができる。この結果、本人確認の信頼性がさらに高まる。 Further, the first determination unit 304 and the second determination unit 305 determine whether or not the person of the face photograph of the personal identification document and the user are the same person by different determination algorithms, and the reception unit 301 (second acquisition unit). It is determined whether or not the image pickup data acquired by is a picked-up image of the user U. As described above, in the first embodiment, the first determination unit 304 and the second determination unit 305 have different characteristics (algorithms) for confirming whether or not the person is the person and confirming whether or not the image of the person is being diverted. Judgment is made using two judgment methods. Therefore, spoofing can be prevented very effectively. As a result, the reliability of identity verification is further enhanced.

また、認証システム1は、ユーザUに対して1以上の動作を指示する動作指示部208と、ユーザUの撮像データから、指示前の静止画像データと、指示後の静止画像データとを抽出する静止画像データ抽出部303と、指示前の静止画像データと指示後の静止画像データとに基づいて、ユーザUが指示された動作を行ったか否かを判定する第3判定部306とを備えている。さらに、認証システム1は、指示前の静止画像データと指示後の静止画像データとに基づいて、指示前及び指示後の静止画像データのユーザUが同一人物であるか否かを判定する第4判定部307を備えている。このため、なりすましを更に効果的に防止することができる。例えば、本人確認書類を盗まれたユーザの動画を、ユーザの撮像データとして利用される虞がなく、なりすましを効果的に防止することができる。 Further, the authentication system 1 extracts the still image data before the instruction and the still image data after the instruction from the operation instruction unit 208 that instructs the user U to perform one or more operations, and the imaged data of the user U. A still image data extraction unit 303 and a third determination unit 306 that determines whether or not the user U has performed the instructed operation based on the still image data before the instruction and the still image data after the instruction. There is. Further, the authentication system 1 determines whether or not the user U of the still image data before the instruction and the user U of the still image data after the instruction is the same person based on the still image data before the instruction and the still image data after the instruction. The determination unit 307 is provided. Therefore, spoofing can be prevented more effectively. For example, it is possible to effectively prevent spoofing without fear that the moving image of the user whose identity verification document has been stolen is used as the imaged data of the user.

また、認証システム1は、2以上の異なる動作が記憶された記憶装置200Bを参照し、記憶装置200Bから1以上の動作をランダムに抽出する動作抽出部206を備え、動作指示部208は、動作抽出部206により抽出された動作をユーザUに対して指示している。ランダムに抽出された動作を指示することで、なりすまし犯は、事前に指示に対応した撮像データを準備することが難しくなり、なりすましを効果的に防止することができる。 The authentication system 1 also includes a motion extraction unit 206 that randomly extracts one or more motions from the storage device 200B by referring to the memory device 200B that stores two or more different motions. The operation extracted by the extraction unit 206 is instructed to the user U. By giving a randomly selected action, it is difficult for a spoofing criminal to prepare imaging data corresponding to the instruction in advance, and the spoofing can be effectively prevented.

また、認証システム1は、動作を指示するタイミングをランダムに決定する指示タイミング決定部207を備え、動作指示部208は、指示タイミング決定部207により決定されたタイミングで動作をユーザに対して指示する。動作を指示するタイミングをランダムとすることで、なりすまし犯は、事前に指示に対応した撮像データを準備することが難しくなり、なりすましを効果的に防止することができる。 The authentication system 1 also includes an instruction timing determination unit 207 that randomly determines the timing to instruct the operation, and the operation instruction unit 208 instructs the user to perform the operation at the timing determined by the instruction timing determination unit 207. .. By making the timing of instructing the operation random, it becomes difficult for the impersonator to prepare the imaging data corresponding to the instruction in advance, and the impersonation can be effectively prevented.

また、認証システム1は、動作指示部208は、2以上の異なる動作をユーザUに対して指示している。2以上の異なる動作をユーザUに対して指示することで、なりすまし犯は、事前に指示に対応した撮像データを準備することが難しくなり、なりすましを効果的に防止することができる。 Also, in the authentication system 1, the operation instruction unit 208 instructs the user U to perform two or more different operations. By instructing the user U to perform two or more different operations, it becomes difficult for the impersonator to prepare imaging data corresponding to the instruction in advance, and impersonation can be effectively prevented.

[第2実施形態]
第2実施形態では、さらに本人確認の信頼性を高めた認証システムについて説明する。以下、図面を参照して、第2実施形態に係る認証システムについて説明するが、図1から図4Bを参照して説明した第1実施形態及び変形例に係る認証システムと異なる構成について説明し、前記第1実施形態に係る認証システム及び変形例と同一の構成については重複する説明を省略する。
[Second Embodiment]
In the second embodiment, an authentication system that further enhances the reliability of identity verification will be described. Hereinafter, the authentication system according to the second embodiment will be described with reference to the drawings, but a configuration different from the authentication system according to the first embodiment and the modification described with reference to FIGS. 1 to 4B will be described. Overlapping description of the same configurations as those of the authentication system and the modification according to the first embodiment will be omitted.

図5は、第2実施形態に係るユーザ端末2及び認証サーバ3の機能ブロック図である。図5(a)は、ユーザ端末2の機能ブロック図であり、図5(b)は、認証サーバ3の機能ブロック図である。 FIG. 5 is a functional block diagram of the user terminal 2 and the authentication server 3 according to the second embodiment. FIG. 5A is a functional block diagram of the user terminal 2, and FIG. 5B is a functional block diagram of the authentication server 3.

(ユーザ端末2の機能構成)
図5(a)に示すように、第2実施形態に係るユーザ端末2は、撮像装置制御部201、入力受付部202、表示装置制御部203、送信部204、受信部205、動作抽出部206、指示タイミング決定部207、動作指示部208、音声出力装置制御部209、記憶装置制御部210及び撮像方法指示部211などの機能を有する。なお、図5(a)に示す機能は、ユーザ端末2のROM(不図示)に記憶された管理プログラムをCPU200Gが実行することにより実現される。以下、図5(a)を参照して、第2実施形態に係るユーザ端末2の機能について説明するが撮像方法指示部211以外の機能については、第1実施形態に係るユーザ端末2と同じであるため重複する説明を省略する。
(Functional configuration of the user terminal 2)
As shown in FIG. 5A, the user terminal 2 according to the second embodiment has an imaging device control unit 201, an input reception unit 202, a display device control unit 203, a transmission unit 204, a reception unit 205, and a motion extraction unit 206. , The instruction timing determination unit 207, the operation instruction unit 208, the audio output device control unit 209, the storage device control unit 210, and the imaging method instruction unit 211. The function shown in FIG. 5A is realized by the CPU 200G executing the management program stored in the ROM (not shown) of the user terminal 2. The functions of the user terminal 2 according to the second embodiment will be described below with reference to FIG. 5A, but the functions other than the imaging method instruction unit 211 are the same as those of the user terminal 2 according to the first embodiment. Therefore, duplicate description will be omitted.

初めに、第2実施形態に係るユーザ端末2の記憶装置200Bに記憶されているデータについて説明する。第2実施形態に係るユーザ端末2の記憶装置200Bには、第1実施形態に係るユーザ端末2の記憶装置200Bに記憶されているデータに加えて、撮像方法指示部211で利用されるテキストデータ及び音声データが指示IDに関連付けて記憶されている。 First, the data stored in the storage device 200B of the user terminal 2 according to the second embodiment will be described. In the storage device 200B of the user terminal 2 according to the second embodiment, in addition to the data stored in the storage device 200B of the user terminal 2 according to the first embodiment, text data used by the imaging method instruction unit 211. And voice data are stored in association with the instruction ID.

以下の表2に撮像方法指示部211で利用されるテキストデータ及び音声データの一例を示す。なお指示ID「B003」に関連付けられた「表面の撮影が終わりましたら本人確認書類をひっくり返してください。」は「表面の撮影が終わりましたら本人確認書類を裏返して返してください。」としてもよい。

Figure 2020095670
Table 2 below shows an example of text data and audio data used in the imaging method instruction unit 211. In addition, even if "Please turn over the identity verification document when you have finished shooting the front surface." associated with the instruction ID "B003", please turn over and return the identity verification document when you have finished shooting the front surface." Good.
Figure 2020095670

撮像方法指示部211は、第2実施形態に係る認証システム1の撮像処理(図4A参照)が開始されると、所定間隔(例えば、数秒間隔)で、ユーザUに対して上記表2に記載の指示IDに関連付けられた指示を昇順に提示する。具体的には、撮像方法指示部211は、撮像処理が開始されると、所定間隔で指示IDに対応するテキストデータを指示IDの昇順に表示するように表示装置制御部203に指示する。また、撮像方法指示部211は、撮像処理が開始されると、所定間隔で指示IDに対応する音声データを指示IDの昇順に出力するように音声出力装置制御部209に指示する。 When the image capturing process (see FIG. 4A) of the authentication system 1 according to the second embodiment is started, the image capturing method instructing unit 211 describes the user U in Table 2 at predetermined intervals (for example, every several seconds). The instructions associated with the instruction ID are presented in ascending order. Specifically, when the imaging process is started, the imaging method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID in ascending order of the instruction ID at predetermined intervals. Further, when the imaging process is started, the imaging method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID in ascending order of the instruction ID at predetermined intervals.

表示装置制御部203は、撮像方法指示部211による指示に基づいて、指示IDに対応するテキストデータを所定間隔で昇順に読み出して、表示装置200Dに表示する。
また、音声出力装置制御部209は、撮像方法指示部211による指示に基づいて、指示IDに対応する音声データを所定間隔で昇順に読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。
The display device control unit 203 reads the text data corresponding to the instruction ID in ascending order at predetermined intervals based on the instruction from the imaging method instruction unit 211, and displays it on the display device 200D.
Further, the audio output device control unit 209 reads the audio data corresponding to the instruction ID in ascending order at predetermined intervals based on the instruction from the imaging method instruction unit 211, and outputs the audio data from the audio output device 200F. The voice data is output as voice from the voice output device 200F.

第2実施形態では、表示装置200Dへの上記テキストデータの表示及び音声出力装置200Fからの上記音声データの出力により、ユーザUに対して本人確認書類の撮像方法を指示するが、表示装置200Dへの上記テキストデータの表示又は音声出力装置200Fからの上記音声データの出力のいずれかにより、ユーザUに対して本人確認書類の撮像方法を指示するようにしてもよい。 In the second embodiment, by displaying the text data on the display device 200D and outputting the voice data from the voice output device 200F, the user U is instructed how to capture the identity verification document. The user U may be instructed about the method of capturing the personal identification document by either displaying the text data or outputting the voice data from the voice output device 200F.

(認証サーバ3の機能構成)
図5(b)に示すように、第2実施形態に係る認証サーバ3は、受信部301(第1,第2取得部)、動作指示タイミング認識部302、静止画像データ抽出部303、第1判定部304、第2判定部305、第3判定部306、第4判定部307、記憶装置制御部308、送信部309及び第5判定部310などの機能を有する。なお、図5(b)に示す機能は、認証サーバ3のROM(不図示)に記憶された管理プログラムをCPU300Cが実行することにより実現される。以下、図5(b)を参照して、第2実施形態に係る認証サーバ3の機能について説明するが静止画像データ抽出部303及び第5判定部310以外の機能については、第1実施形態に係る認証サーバ3と同じであるため重複する説明を省略する。
(Functional configuration of the authentication server 3)
As shown in FIG. 5B, the authentication server 3 according to the second embodiment includes a reception unit 301 (first and second acquisition units), an operation instruction timing recognition unit 302, a still image data extraction unit 303, and a first image data extraction unit 303. It has functions of the determination unit 304, the second determination unit 305, the third determination unit 306, the fourth determination unit 307, the storage device control unit 308, the transmission unit 309, the fifth determination unit 310, and the like. The function shown in FIG. 5B is realized by the CPU 300C executing the management program stored in the ROM (not shown) of the authentication server 3. Hereinafter, the function of the authentication server 3 according to the second embodiment will be described with reference to FIG. 5B, but functions other than the still image data extraction unit 303 and the fifth determination unit 310 will be described in the first embodiment. Since the authentication server 3 is the same as the related authentication server 3, redundant description will be omitted.

静止画像データ抽出部303は、受信部301で受信された撮像データ(第1,第2撮像データ)から静止画像データを抽出する(切り出す)。具体的には、静止画像データ抽出部303は、第1撮像データから本人確認書類(顔写真が写っているもの)の静止画像データ(以下、第1画像データともいう)と、1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)とを抽出する。 The still image data extraction unit 303 extracts (cuts out) still image data from the imaged data (first and second imaged data) received by the receiving unit 301. Specifically, the still image data extraction unit 303 determines the still image data (hereinafter, also referred to as the first image data) of the personal identification document (the one in which the face photograph is shown) from the first imaged data and one or more persons. Still image data (hereinafter also referred to as fourth image data) when the confirmation document is turned over is extracted.

また、静止画像データ抽出部303は、動作指示タイミング認識部302で認識された動作指示のタイミングに基づいて、受信部301で受信した第2撮像データから、動作の指示前の静止画像データ(第2画像データともいう)と、動作の指示後の静止画像データ(以下、第3画像データともいう)とを抽出する。例えば、動作指示タイミング認識部302で認識された動作指示のタイミングが3秒後であれば、静止画像データ抽出部303は、受信部301で受信した第2撮像データから、動作の指示前(自撮り動画の撮像開始から3秒後より前)の静止画像データ(第2画像データ)と、動作の指示後(自撮り動画の撮像開始から3秒後より後)の静止画像データ(第3画像データ)とを抽出する。 Further, the still image data extraction unit 303, based on the timing of the operation instruction recognized by the operation instruction timing recognition unit 302, extracts the still image data before the operation instruction (second image data) from the second imaging data received by the reception unit 301. 2 image data) and still image data (hereinafter also referred to as third image data) after the operation instruction is extracted. For example, if the timing of the operation instruction recognized by the operation instruction timing recognition unit 302 is 3 seconds later, the still image data extraction unit 303 determines from the second image data received by the reception unit 301 that the operation instruction before Still image data (second image data) 3 seconds after the start of capturing the moving image and still image data (third image 3 seconds after the start of capturing the self-portrait moving image) Data) and.

第5判定部310は、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する。第5判定部310での判定には、既知の画像認識技術を利用して本人確認書類に厚みがあるか否かを判定してもよい。例えば、既知の画像認識技術を利用して本人確認書類を認識し、認識した本人確認書類の動きから厚みを有するか否かを判定するようにしてもよい。通常、本人確認に利用する顔写真付きの本人確認書類(例えば、運転免許の他、パスポート(旅券)、住民基本台帳カード(写真付のもの)、在留カードなど種々の本人確認書類)は、0.1〜数mm程度の厚みを有するため、本人確認書類を裏返すと、撮像データに本人確認書類の厚みがあることを判別することができる。一方、本人確認書類の表面及び裏面の画像データを流用した場合、本人確認書類の表面から裏面(又は裏面から表面)へと裏返す際に厚みが現れない。逆にいうと、本人確認書類の表面から裏面(又は裏面から表面)へと裏返す際に厚みが現れない場合、本人確認書類の表面及び裏面の画像データを流用した可能性がある。 The fifth determination unit 310 determines from the one or more fourth image data extracted by the still image data extraction unit 303 whether the personal identification document has a thickness. The determination by the fifth determination unit 310 may be performed by using a known image recognition technique to determine whether or not the personal identification document is thick. For example, the identity verification document may be recognized using a known image recognition technique, and whether or not the identity verification document has a thickness may be determined from the movement of the recognized identity verification document. Normally, the identity verification documents with a face photo used for identity verification (for example, driver's license, passport (passport), Basic Resident Register card (with photo), various identification documents such as residence card) are 0 Since it has a thickness of about 1 to several mm, it is possible to determine that the imaging data has the thickness of the personal identification document by turning over the personal identification document. On the other hand, when the image data of the front and back surfaces of the personal identification document is diverted, the thickness does not appear when the personal identification document is turned over from the front surface to the back surface (or back surface to front surface). Conversely, if the thickness does not appear when turning over from the front side to the back side (or the back side to the front side) of the personal identification document, it is possible that the image data of the front and back sides of the personal identification document were diverted.

第2実施形態では、第5判定部310が静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定することにより、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを確認することができる。このため、本人確認書類の表面及び裏面の画像データの流用を防止することができる。 In the second embodiment, the fifth determination unit 310 determines whether the personal identification document is thick based on the one or more fourth image data extracted by the still image data extraction unit 303, and thus the personal identification document can be obtained. It is possible to confirm whether or not the user U is at hand and the user U is performing the operation of turning over the identity verification document as instructed. Therefore, it is possible to prevent the diversion of the image data on the front surface and the back surface of the personal identification document.

(撮像処理)
図6Aは、第2実施形態に係る認証システム1の処理を示すフローチャート図である(撮像処理)。以下、図6Aを参照して第2実施形態に係る認証システム1の撮像処理について説明する。なお、第2実施形態に係る認証システム1の撮像処理のS101E以降の処理は、図4Aを参照して説明した第1実施形態に係る認証システム1の撮像処理のステップS102以降の処理と同じであるため、ステップS102以降の処理については重複する説明を省略する。なお、図6Aには、ステップS101AからステップS101Eの処理内容を示す参考図又は文(文字)を各ステップの左隣りに記載している。
(Imaging process)
FIG. 6A is a flowchart showing the processing of the authentication system 1 according to the second embodiment (imaging processing). Hereinafter, the imaging process of the authentication system 1 according to the second embodiment will be described with reference to FIG. 6A. The processing after S101E of the image capturing processing of the authentication system 1 according to the second embodiment is the same as the processing after step S102 of the image capturing processing of the authentication system 1 according to the first embodiment described with reference to FIG. 4A. Therefore, redundant description of the processing after step S102 will be omitted. In FIG. 6A, reference diagrams or sentences (characters) showing the processing contents of steps S101A to S101E are shown on the left side of each step.

(ステップS101A)
ユーザUは、ユーザ端末2の入力装置200Cを操作して、本人確認書類の動画の撮像を開始する。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して撮像処理を開始する。具体的には、撮像方法指示部211は、撮像処理が開始されると、指示ID「B001」に対応するテキストデータを表示するように表示装置制御部203に指示する。また、撮像方法指示部211は、撮像処理が開始されると、指示ID「B001」に対応する音声データを出力するように音声出力装置制御部209に指示する。
(Step S101A)
The user U operates the input device 200C of the user terminal 2 to start capturing a moving image of the identity verification document. The input receiving unit 202 receives an input operation on the input device 200C. The imaging device control unit 201 controls the imaging device 200E based on the input operation accepted by the input acceptance unit 202 to start the imaging process. Specifically, the imaging method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B001” when the imaging process is started. Further, when the imaging process is started, the imaging method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B001”.

撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B001」に対応するテキストデータ(例えば、「本人確認書類の撮影を開始します。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B001」に対応する音声データ(例えば、「本人確認書類の撮影を開始します。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。 Based on the instruction from the imaging method instruction unit 211, the display device control unit 203 reads out the text data corresponding to the instruction ID “B001” (for example, “Start photography of the personal identification document.”), and the display device. Display on 200D. Further, based on the instruction from the imaging method instructing unit 211, the audio output device control unit 209 reads out audio data (for example, “to start taking a personal identification document.”) corresponding to the instruction ID “B001”. , From the audio output device 200F. The voice data is output as voice from the voice output device 200F.

(ステップS101B)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B002」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B002」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B002」に対応するテキストデータ(例えば、「本人確認書類の表面を撮影してください。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B002」に対応する音声データ(例えば、「本人確認書類の表面を撮影してください。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に基づいて、本人確認書類の表面を撮像する。
(Step S101B)
After a lapse of a predetermined time (for example, several seconds), the imaging method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B002”. Similarly, the imaging method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B002”. Based on the instruction from the imaging method instruction unit 211, the display device control unit 203 reads out and displays the text data corresponding to the instruction ID “B002” (for example, “take a picture of the surface of the personal identification document.”). It is displayed on the device 200D. In addition, based on the instruction from the imaging method instruction unit 211, the audio output device control unit 209 reads out audio data corresponding to the instruction ID “B002” (for example, “take a picture of the front of the personal identification document.”). And outputs from the audio output device 200F. The voice data is output as voice from the voice output device 200F. The user U images the front surface of the personal identification document based on the instruction.

(ステップS101C)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B003」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B003」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B003」に対応するテキストデータ(例えば、「表面の撮影が終わりましたら本人確認書類をひっくり返してください。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B003」に対応する音声データ(例えば、「表面の撮影が終わりましたら本人確認書類をひっくり返してください。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に基づいて、撮像を続けたまま、本人確認書類を表面から裏面へひっくり返す。
(Step S101C)
After the elapse of a predetermined time (for example, several seconds), the imaging method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B003”. Similarly, the imaging method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B003”. Based on the instruction from the imaging method instruction unit 211, the display device control unit 203 displays the text data corresponding to the instruction ID “B003” (for example, “Turn the identity verification document over when the front surface is captured.”) Is read out and displayed on the display device 200D. In addition, based on the instruction from the imaging method instruction unit 211, the audio output device control unit 209 causes the audio data corresponding to the instruction ID “B003” (for example, “Turn over the identity verification document when the front surface is captured. .)) is read out and output from the audio output device 200F. The voice data is output as voice from the voice output device 200F. Based on the instruction, the user U turns over the personal identification document from the front surface to the back surface while continuing the image capturing.

(ステップS101D)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B004」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B004」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B004」に対応するテキストデータ(例えば、「本人確認書類の裏面(うらめん)を撮影してください。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B004」に対応する音声データ(例えば、「本人確認書類の裏面(うらめん)を撮影してください。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に基づいて、撮像を続けたまま、本人確認書類の裏面を撮像する。
(Step S101D)
After a lapse of a predetermined time (for example, several seconds), the imaging method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B004”. Similarly, the imaging method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B004”. Based on the instruction from the imaging method instruction unit 211, the display device control unit 203 captures the text data corresponding to the instruction ID “B004” (for example, “take an image of the back side (uramen) of the identity verification document.”). It is read and displayed on the display device 200D. Further, based on the instruction from the imaging method instruction unit 211, the audio output device control unit 209, the audio data corresponding to the instruction ID “B004” (for example, “Please shoot the back side (uramen) of the identity verification document”). )) is read and output from the audio output device 200F. The voice data is output as voice from the voice output device 200F. Based on the instruction, the user U captures the back surface of the identity verification document while continuing to capture the image.

(ステップS101E)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B005」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B005」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B005」に対応するテキストデータ(例えば、「続いて、本人動画を撮影します。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B005」に対応する音声データ(例えば、「続いて、本人動画を撮影します。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。
(Step S101E)
After a predetermined time (for example, several seconds) has elapsed, the imaging method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B005”. Similarly, the imaging method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B005”. Based on the instruction from the imaging method instruction unit 211, the display device control unit 203 reads out the text data corresponding to the instruction ID “B005” (for example, “Then, I will take a video of myself.”), and the display device. Display on 200D. Further, based on the instruction from the imaging method instruction unit 211, the audio output device control unit 209 reads out the audio data corresponding to the instruction ID “B005” (for example, “Then, I will take a video of myself.”). , From the audio output device 200F. The voice data is output as voice from the voice output device 200F.

以降、図4AのステップS102の処理へと移行し、ユーザUは、指示に基づいて、本人動画(自撮り動画)の撮像を開始する。 After that, the process moves to step S102 of FIG. 4A, and the user U starts to capture a moving image of himself (self-shooting moving image) based on the instruction.

(認証処理)
図6Bは、第2実施形態に係る認証システム1の処理を示すフローチャート図である(撮像処理)。以下、図6Bを参照して第2実施形態に係る認証システム1の認証処理について説明するが、第1実施形態に係る認証システム1の認証処理と同じ処理については同一のステップ番号を付して重複する説明を省略する(図6BのステップS203は、「第1抽出処理」となっているが、図4BのステップS203「抽出処理」と処理内容は同じである)。
(Authentication process)
FIG. 6B is a flowchart showing the process of the authentication system 1 according to the second embodiment (imaging process). Hereinafter, the authentication processing of the authentication system 1 according to the second embodiment will be described with reference to FIG. 6B, and the same processing as the authentication processing of the authentication system 1 according to the first embodiment will be denoted by the same step numbers. Overlapping description will be omitted (step S203 in FIG. 6B is “first extraction processing”, but the processing content is the same as step S203 “extraction processing” in FIG. 4B).

(ステップS301)
静止画像データ抽出部303は、1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)を抽出する。
(Step S301)
The still image data extraction unit 303 extracts still image data (hereinafter, also referred to as fourth image data) when turning over one or more identity verification documents.

(ステップS302)
第5判定部310は、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する。なお、第5判定部310による判定方法については既に述べたので重複する説明を省略する
(Step S302)
The fifth determination unit 310 determines from the one or more fourth image data extracted by the still image data extraction unit 303 whether the personal identification document has a thickness. Note that the determination method by the fifth determination unit 310 has already been described, so redundant description will be omitted.

なお、図6Bの説明では、第5判定部310による判定の後、第1判定部304から第4判定部307による判定を順番に行っているが、第1判定部304から第4判定部307及び第5判定部310による判定順序は図6Bに示す順序に限られず順不同である。換言すると、図6Bに示す第1判定部304から第4判定部307及び第5判定部310による判定の順序を入れ替えてもよい。 In the description of FIG. 6B, after the determination by the fifth determination unit 310, the determinations by the first determination unit 304 to the fourth determination unit 307 are performed in order, but the first determination unit 304 to the fourth determination unit 307. The order of determination by the fifth determination unit 310 is not limited to the order shown in FIG. 6B, and the order is random. In other words, the order of determination by the first determination unit 304 to the fourth determination unit 307 and the fifth determination unit 310 shown in FIG. 6B may be changed.

(効果)
以上のように、第2実施形態では、ユーザ端末2に本人確認書類の両面の撮影を指示する撮像方法指示部211を備え、認証サーバ3に第1撮像データから1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)を抽出する静止画像データ抽出部303と、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する第5判定部310とを備えている。
(effect)
As described above, in the second embodiment, the user terminal 2 is provided with the imaging method instructing unit 211 for instructing the imaging of both sides of the identity verification document, and the authentication server 3 flips over one or more identity verification documents from the first imaging data. The still image data extraction unit 303 that extracts still image data (hereinafter, also referred to as fourth image data) at the time, and the one or more fourth image data extracted by the still image data extraction unit 303 has a thickness in the personal identification document. And a fifth determination unit 310 that determines whether or not there is.

このため、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを確認することができ、本人確認書類の表面及び裏面の画像データの流用を防止することができる。この結果、なりすましを効果的に防止することができる。 Therefore, it is possible to confirm whether or not the identity verification document is at hand of the user U and the user U himself is performing the operation of turning over the identity verification document as instructed, and the image data of the front and back sides of the identity verification document can be confirmed. It is possible to prevent the diversion. As a result, spoofing can be effectively prevented.

[第2実施形態の変形例1]
なお、第2実施形態では、静止画像データ抽出部303は、第1撮像データ、換言すると本人確認書類を表面から裏面へと裏返すところを撮像した動画から1以上の第4画像データ、換言すると、本人確認書類を裏返す際の静止画像データ(例えば、本人確認書類に厚みがあることを確認可能な本人確認書類を厚み方向に斜めに傾けた画像データ)を抽出している。しかしながら、静止画像データ抽出部303は、本人確認書類を厚み方向に斜めに傾けた画像データを抽出することが難しい場合、以下のようにして対処してもよい。
[Modification 1 of the second embodiment]
In the second embodiment, the still image data extraction unit 303 uses the first captured image data, in other words, one or more fourth image data, that is, one or more fourth image data captured from a moving image of the identity verification document turned upside down. Still image data when the identity verification document is turned over (for example, image data obtained by inclining the identity verification document diagonally in the thickness direction, which enables confirmation that the identity verification document is thick) is extracted. However, when it is difficult to extract the image data in which the personal identification document is tilted in the thickness direction, the still image data extraction unit 303 may take the following measures.

ユーザ端末2の記憶装置200Bに「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」のテキストデータ及び音声データを記憶し、撮像方法指示部211が図6AのステップS101Cにおいて、撮像方法指示部211が「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」に対応するテキストデータを表示するように表示装置制御部203に指示し、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」に対応する音声データを出力するように音声出力装置制御部209に指示する。 The storage device 200B of the user terminal 2 stores text data and voice data of “Please shoot the personal identification document in an inclined state so that the thickness of the personal identification document can be understood.” In step S101C of FIG. 6A, the imaging method instruction unit 211 displays the text data corresponding to “Please shoot the personal identification document while tilting it so that the thickness of the personal identification document can be seen.” To the display device control unit 203, and output a voice data corresponding to "Please shoot the personal identification document with the document being tilted so that the thickness of the personal identification document can be seen." Instruct the control unit 209.

表示装置制御部203は、撮像方法指示部211による指示に基づいて、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」のテキストを表示装置200Dに表示する。また、音声出力装置制御部209は、撮像方法指示部211による指示に基づいて、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」の音声データを読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に従って本人確認書類を斜めに傾けた状態で撮影を行う。 The display device control unit 203 displays the text “Please shoot the personal identification document in a tilted state so that the thickness of the personal identification document can be seen.” based on the instruction from the imaging method instruction unit 211. Display on 200D. In addition, the voice output device control unit 209, based on the instruction from the imaging method instruction unit 211, the voice of “Please shoot the personal identification document in a state in which the personal identification document is tilted so that the thickness of the personal identification document can be understood.” The data is read and output from the audio output device 200F. The voice data is output as voice from the voice output device 200F. The user U shoots the personal identification document in a tilted state in accordance with the instruction.

認証サーバ3の静止画像データ抽出部303は、ユーザ端末2から送信された第1撮像データから、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」のテキストデータが表示された後の数秒間又は「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」の音声が出力された後の数秒間の動画から1以上の第4画像データを抽出することで、静止画像データ抽出部303は、本人確認書類を厚み方向に斜めに傾けた画像データを効果的に抽出することができる。 The still image data extraction unit 303 of the authentication server 3 refers to the first image data transmitted from the user terminal 2 and states, “Please shoot the personal identification document in a tilted state so that the thickness of the personal identification document can be understood. For a few seconds after the text data of "." is displayed or after the sound of "Please shoot the identity verification document at an angle so that you can see the thickness of the identity verification document." By extracting one or more fourth image data from the moving image for 2 seconds, the still image data extraction unit 303 can effectively extract the image data in which the identity verification document is inclined in the thickness direction.

また、第2実施形態では、ユーザUに本人確認書類の両面の撮影、換言すると本人確認書類をひっくり返す動作の撮影を指示し、本人確認書類に厚みがあるか否かを判定することにより、本人確認書類の表面及び裏面の画像データが流用されていないかを判定するようにしているが、他の方法により、本人確認書類の表面及び裏面の画像データが流用されていないかを判定するようにしてもよい。例えば、本人確認書類に光を当て、光沢具合を判定して本人確認書類の表面及び裏面の画像データが流用されていないか、換言すると本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを確認するようにしてもよい。また、偽造防止用の特殊印刷が施されている場合、特殊な光(例えば、紫外線)を当てると特殊印刷が浮かび上がるが、このような場合、本人確認書類に紫外線LEDライトを照射する指示をユーザUに対して行い、特殊印刷が浮かび上がるか否かにより本人確認書類が画像データの流用でないか、偽造されていないかなどを判定するようにしてもよい。 In addition, in the second embodiment, the user U is instructed to shoot both sides of the identity verification document, in other words, the operation of flipping over the identity verification document, and by determining whether or not the identity verification document is thick, Although it is determined whether the front and back image data of the confirmation document has not been diverted, another method is used to determine whether the front and back image data of the identity verification document has not been diverted. May be. For example, if the personal identification document is illuminated with light to determine the degree of glossiness and whether the image data of the front and back sides of the personal identification document is diverted, in other words, the personal identification document is in the hand of the user U and the user U May confirm whether or not the person is performing the operation of turning over the personal identification document as instructed. Also, if special printing for anti-counterfeiting is applied, the special printing will be exposed by applying special light (for example, ultraviolet rays). In such a case, it is necessary to instruct the identity verification document to irradiate the ultraviolet LED light. It may be performed for the user U, and it may be determined whether or not the personal identification document is diverted from the image data or is not forged, depending on whether or not the special printing appears.

また、上記第2実施形態においては、認証サーバ3が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307、第5判定部310の機能を有し、認証サーバ3において、認証処理を行っているが、ユーザ端末2が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307、第5判定部310の機能を有し、ユーザ端末2において、認証処理を行うようにしてもよい。上記第2実施形態においては、ユーザ端末2が、動作抽出部206、指示タイミング決定部207、動作指示部208、撮像方法指示部211の機能を有しているが、認証サーバ3が、動作抽出部206、指示タイミング決定部207、動作指示部208、撮像方法指示部211の機能を有し、撮像方法指示部211による指示及び指示タイミング決定部207で決定されたタイミングで動作抽出部206により抽出された動作を動作指示部208が認証サーバ3の送信部309からユーザ端末2へ送信するようにしてもよい。 Further, in the second embodiment, the authentication server 3 includes the first determination unit 304, the second determination unit 305, the still image data extraction unit 303, the third determination unit 306, the fourth determination unit 307, and the fifth determination unit. The authentication server 3 has the function of 310, and the authentication process is performed by the authentication server 3, but the user terminal 2 uses the first determination unit 304, the second determination unit 305, the still image data extraction unit 303, and the third determination unit 306. The user terminal 2 may have the functions of the fourth determination unit 307 and the fifth determination unit 310, and may perform the authentication process. In the second embodiment, the user terminal 2 has the functions of the motion extraction unit 206, the instruction timing determination unit 207, the motion instruction unit 208, and the imaging method instruction unit 211, but the authentication server 3 extracts the motion. The function extraction unit 206 has the functions of the unit 206, the instruction timing determination unit 207, the operation instruction unit 208, and the imaging method instruction unit 211, and is extracted by the operation extraction unit 206 at the timing determined by the instruction by the imaging method instruction unit 211 and the instruction timing determination unit 207. The operation instruction unit 208 may transmit the performed operation from the transmission unit 309 of the authentication server 3 to the user terminal 2.

また、静止画像データ抽出部303の機能をユーザ端末2が有し、第1,第2撮像データから第1乃至第3静止画像データを抽出した後、第1乃至第4静止画像データを認証サーバ3へ送信し、認証サーバ3は、ユーザ端末2から送信された第1乃至第4静止画像データに基づいて図6B及び図4Bを参照して説明した本人確認の認証を行うようにしてもよい。このようにすれば、ユーザ端末2から送信するデータ量を大幅に削減することができる。 In addition, the user terminal 2 has the function of the still image data extraction unit 303, extracts the first to third still image data from the first and second captured image data, and then outputs the first to fourth still image data to the authentication server. 3 and the authentication server 3 may perform the authentication of the identity verification described with reference to FIGS. 6B and 4B based on the first to fourth still image data transmitted from the user terminal 2. .. By doing so, the amount of data transmitted from the user terminal 2 can be significantly reduced.

[第2実施形態の変形例2]
また、第2実施形態及びその変形例1では、認証サーバ3に第1撮像データから1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)を抽出する静止画像データ抽出部303と、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する第5判定部310の機能を備えることにより、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを判定している。
[Modification 2 of the second embodiment]
In addition, in the second embodiment and the first modification thereof, a still image that extracts still image data (hereinafter, also referred to as fourth image data) when the one or more identity verification documents are turned over from the first imaged data to the authentication server 3. By providing the functions of the data extraction unit 303 and the fifth determination unit 310 that determines whether or not the identity verification document has thickness from the one or more fourth image data extracted by the still image data extraction unit 303, It is determined whether or not the confirmation document is in the hand of the user U himself and the user U himself is performing the operation of turning over the person confirmation document as instructed.

しかしながら、認証サーバ3に第5判定部510の機能を備えずに、例えば、認証システム1のシステム管理者等が、ユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を視聴して本人確認書類に厚みがあることを確認するように構成してもよい。この場合、認証システム1のシステム管理者等が、ユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を確認して本人確認書類に厚みがあることが確認できると、その旨の信号(以下、確認OKの信号ともいう)を認証サーバ3へ入力又は送信するようにしてもよい。 However, the authentication server 3 does not have the function of the fifth determination unit 510, and, for example, the system administrator or the like of the authentication system 1 flips over the identity verification document in the first imaging data transmitted from the user terminal 2. It may be configured to view the portion of and confirm that the identity verification document is thick. In this case, the system administrator or the like of the authentication system 1 can confirm that the personal identification document is thick by checking the part of the operation of flipping the personal identification document in the first image data transmitted from the user terminal 2. Alternatively, a signal to that effect (hereinafter, also referred to as a confirmation OK signal) may be input or transmitted to the authentication server 3.

図6Cは、第2実施形態の変形例2に係る認証システムの処理を示すフローチャート図である(認証処理)。以下、図6Cを参照して第2実施形態の変形例2に係る認証システム1の撮像処理について説明するが、ステップS303以外のステップについては、第1実施形態に係る認証システム1の撮像処理と同じであるため同一のステップ番号を付して重複する説明を省略する。 FIG. 6C is a flowchart showing a process of the authentication system according to the second modification of the second embodiment (authentication process). Hereinafter, the imaging process of the authentication system 1 according to the modified example 2 of the second embodiment will be described with reference to FIG. 6C. The steps other than step S303 are the imaging process of the authentication system 1 according to the first embodiment. Since they are the same, the same step numbers are assigned and duplicate explanations are omitted.

(ステップS303)
認証サーバ3の受信部301は、ステップS303において、認証システム1のシステム管理者等からの本人確認書類に厚みがあることが確認できた旨の信号(確認OKの信号)を受信したか否かを判定する。受信部301が確認OKの信号を受信した場合(YES)、第1判定部304は、ステップS204の第1判定処理を行う。また、受信部301が確認OKの信号を受信していない場合(NO)、認証サーバ3は、ステップS208の認証エラー処理を行う。
(Step S303)
Whether or not the reception unit 301 of the authentication server 3 has received a signal (a confirmation OK signal) from the system administrator of the authentication system 1 that the personal identification document has been confirmed to be thick in step S303. To judge. When the reception unit 301 receives the confirmation OK signal (YES), the first determination unit 304 performs the first determination process of step S204. If the receiving unit 301 has not received the confirmation OK signal (NO), the authentication server 3 performs the authentication error process of step S208.

なお、認証サーバ3に表示装置及び入力装置を備えるようにし、表示装置を利用してユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を視聴して本人確認書類に厚みがあることを確認し、入力装置を利用して確認OKの信号を入力するようにしてもよい。また、認証サーバ3と通信可能に接続された別のコンピュータを利用して、ユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を視聴して本人確認書類に厚みがあることを確認し、確認OKの信号を認証サーバ3へ送信するようにしてもよい。 Note that the authentication server 3 is provided with a display device and an input device, and among the first imaging data transmitted from the user terminal 2 using the display device, the part of the operation of flipping over the identity verification document is viewed and the identity verification is performed. It may be possible to confirm that the document is thick and input the confirmation OK signal using the input device. Also, using another computer communicably connected to the authentication server 3, of the first image data transmitted from the user terminal 2, the part of the operation of flipping over the personal identification document is viewed and used as the personal identification document. It is also possible to confirm that there is a thickness and send a confirmation OK signal to the authentication server 3.

また、第2実施形態の変形例1では、本人確認書類に光又は特殊な光(例えば、紫外線)を当て、光沢具合や特殊印刷の有無を判定して本人確認書類の表面及び裏面の画像データが流用されていないか、換言すると本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを判定するが、この判定を認証システム1のシステム管理者等が、ユーザ端末2から送信された第1撮像データのうち、光又は特殊な光(例えば、紫外線)を当てる動作の部分を視聴して光沢具合や特殊印刷の有無を確認し、その旨の信号(確認OKの信号)を認証サーバ3へ入力又は送信するようにしてもよい。 Further, in the modified example 1 of the second embodiment, the personal identification document is exposed to light or special light (for example, ultraviolet light) to determine the gloss condition and the presence or absence of special printing to determine the image data of the front and back surfaces of the personal identification document. Is diverted, in other words, it is determined whether the identity verification document is in the hand of the user U, and the user U is performing the operation of turning over the identity verification document as instructed. The system administrator, etc., of the first imaging data transmitted from the user terminal 2 checks the portion of the operation of applying light or special light (for example, ultraviolet light) to check the glossiness and the presence or absence of special printing. Alternatively, a signal to that effect (a confirmation OK signal) may be input or transmitted to the authentication server 3.

[第3実施形態]
第3実施形態では、さらに本人確認の信頼性を高めた認証システムについて説明する。以下、図面を参照して、第3実施形態に係る認証システムについて説明するが、第2実施形態及びその変形例1,2に係る認証システムと異なる構成について説明し、第2実施形態及びその変形例1,2と同一の構成については重複する説明を省略する。
[Third Embodiment]
In the third embodiment, an authentication system in which the reliability of identity verification is further enhanced will be described. Hereinafter, an authentication system according to a third embodiment will be described with reference to the drawings, but a configuration different from the authentication system according to the second embodiment and its modification examples 1 and 2 will be described, and the second embodiment and its modification will be described. Overlapping description of the same configurations as Examples 1 and 2 will be omitted.

(ユーザ端末2の機能構成)
図7は、第3実施形態に係るユーザ端末2の機能ブロック図である。第3実施形態に係るユーザ端末2は、撮像装置制御部201、入力受付部202、表示装置制御部203、送信部204、受信部205、動作抽出部206、指示タイミング決定部207、動作指示部208、音声出力装置制御部209、記憶装置制御部210、撮像方法指示部211及び撮像位置抽選部212などの機能を有する。
(Functional configuration of the user terminal 2)
FIG. 7 is a functional block diagram of the user terminal 2 according to the third embodiment. The user terminal 2 according to the third embodiment includes an imaging device control unit 201, an input reception unit 202, a display device control unit 203, a transmission unit 204, a reception unit 205, an operation extraction unit 206, an instruction timing determination unit 207, and an operation instruction unit. The audio output device control unit 209, the storage device control unit 210, the imaging method instruction unit 211, the imaging position lottery unit 212, and the like have functions.

なお、図7に示す機能は、ユーザ端末2のROM(不図示)に記憶された管理プログラムをCPU200Gが実行することにより実現される。以下、図7を参照して、第3実施形態に係るユーザ端末2の機能について説明するが、表示装置制御部203、送信部204及び撮像位置抽選部212以外の機能については、第2実施形態及びその変形例1,2に係るユーザ端末2と同じであるため重複する説明を省略する。 The functions shown in FIG. 7 are realized by the CPU 200G executing the management program stored in the ROM (not shown) of the user terminal 2. Hereinafter, functions of the user terminal 2 according to the third embodiment will be described with reference to FIG. 7, but functions other than the display device control unit 203, the transmission unit 204, and the imaging position lottery unit 212 will be described in the second embodiment. Also, since it is the same as the user terminal 2 according to Modifications 1 and 2, duplicated description will be omitted.

初めに、第3実施形態に係るユーザ端末2の記憶装置200Bに記憶されているデータについて説明する。第3実施形態に係るユーザ端末2の記憶装置200Bには、第2実施形態及びその変形例1,2に係るユーザ端末2の記憶装置200Bに記憶されているデータに加えて、撮像位置抽選部212で利用される画像データが位置IDに関連付けて記憶されている。 First, the data stored in the storage device 200B of the user terminal 2 according to the third embodiment will be described. In the storage device 200B of the user terminal 2 according to the third embodiment, in addition to the data stored in the storage device 200B of the user terminal 2 according to the second embodiment and its modifications 1 and 2, the imaging position lottery unit. The image data used in 212 is stored in association with the position ID.

図8は、第3実施形態に係るユーザ端末2の表示装置200Dに表示される画面100の一例を示す図である。図8に示すように、撮像位置の異なる4つの本人確認書類撮像用の画面100のデータ(以下、画面データともいう)が位置IDに関連付けて格納されている。図8(a)は、位置ID「C001」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって右下に位置する。図8(b)は、位置ID「C002」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって左下に位置する。図8(c)は、位置ID「C003」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって右上に位置する。図8(d)は、位置ID「C004」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって左上に位置する。また、画面100の撮像枠F1以外の領域は、マスキング(塗りつぶされている)されている。 FIG. 8 is a diagram showing an example of a screen 100 displayed on the display device 200D of the user terminal 2 according to the third embodiment. As shown in FIG. 8, data (hereinafter, also referred to as screen data) of four screens 100 for personal identification document imaging at different imaging positions are stored in association with position IDs. FIG. 8A is a screen 100 associated with the position ID “C001”, and the position of the image pickup frame F1 for picking up the personal identification document is located in the lower right direction toward the paper surface. FIG. 8B is a screen 100 associated with the position ID “C002”, and the position of the image pickup frame F1 for picking up an identity verification document is located at the lower left of the sheet. FIG. 8C is a screen 100 associated with the position ID “C003”, and the position of the image pickup frame F1 for picking up the personal identification document is located on the upper right side of the drawing. FIG. 8D shows the screen 100 associated with the position ID “C004”, and the position of the image pickup frame F1 for picking up the personal identification document is located on the upper left side of the drawing. Areas of the screen 100 other than the imaging frame F1 are masked (painted).

なお、図8に示すように、本人確認書類を撮像する画面100には、撮像方法指示部211からの指示に基づいて指示IDに対応するテキストデータが表示される。また、図8に示す画面100における本人確認書類を撮像する撮像枠F1の位置はあくまで一例であり、図8に示す位置に限られるものではない。本人確認書類を撮像する撮像枠F1の位置が互いに異なる画面を複数用意することができればよい。 Note that, as shown in FIG. 8, text data corresponding to the instruction ID is displayed on the screen 100 for capturing the personal identification document based on the instruction from the imaging method instruction unit 211. Further, the position of the image pickup frame F1 for picking up the personal identification document on the screen 100 shown in FIG. 8 is merely an example, and the position is not limited to the position shown in FIG. It is only necessary to be able to prepare a plurality of screens in which the positions of the image pickup frames F1 for picking up the personal identification document are different from each other.

撮像位置抽選部212は、図8に示した画面のうちいずれの画面でユーザUに本人確認書類を撮像させるかをランダムに抽選する。換言すると、撮像位置抽選部212は、位置IDをランダムに抽選する。 The imaging position lottery section 212 randomly selects which of the screens shown in FIG. 8 the user U should image the personal identification document with. In other words, the imaging position lottery section 212 randomly selects position IDs.

表示装置制御部203は、本人確認書類の撮像において、撮像位置抽選部212でランダムに抽選された位置IDに対応する画面100を表示装置200Dに表示させる。ユーザUは、撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像する。なお、表示装置制御部203のその他の機能ついては、第2実施形態及びその変形例1,2に係る表示装置制御部203と同じである。 The display device control unit 203 causes the display device 200D to display the screen 100 corresponding to the position ID randomly selected by the imaging position lottery unit 212 during the imaging of the personal identification document. The user U images the personal identification document while adjusting the position of the imaging device 200E of the user terminal 2 so that the personal identification document is shown in the imaging frame F1. The other functions of the display device control unit 203 are the same as those of the display device control unit 203 according to the second embodiment and the modifications 1 and 2 thereof.

なお、送信部204は、本人確認書類の撮像において、撮像装置200Eで撮像された映像のうち、撮像枠F1の領域内の撮像データだけを第1撮像データとして認証サーバ3へ送信するようにしてもよいし、撮像枠F1以外の領域がマスキングされた撮像データを第1撮像データとして認証サーバ3へ送信するようにしてもよい。 It should be noted that the transmission unit 204 transmits only the imaged data within the area of the image pickup frame F1 to the authentication server 3 as the first imaged data in the video imaged by the image pickup apparatus 200E in the image pickup of the personal identification document. Alternatively, the image pickup data in which the area other than the image pickup frame F1 is masked may be transmitted to the authentication server 3 as the first image pickup data.

認証サーバ3の静止画像データ抽出部303では、ユーザ端末2から送信された第1撮像データから本人確認書類の静止画像データ(以下、第1画像データともいう)を抽出するが、ユーザUが撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像していない場合、第1判定部304及び第2判定部305にて本人確認書類の顔画像を認識することができず認証エラーとなる。 The still image data extraction unit 303 of the authentication server 3 extracts still image data (hereinafter, also referred to as first image data) of the identity verification document from the first imaged data transmitted from the user terminal 2, but the user U takes an image. When the identity verification document is not imaged while adjusting the position of the imaging device 200E of the user terminal 2 so that the identity verification document is shown in the frame F1, the identity determination is performed by the first determination unit 304 and the second determination unit 305. The face image of the document cannot be recognized, resulting in an authentication error.

(撮像処理)
図9は、第3実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。以下、図9を参照して第3実施形態に係る認証システム1の撮像処理について説明する。なお、第3実施形態に係る認証システム1の撮像処理のS100B以降の処理は、図6Aを参照して説明した第2実施形態に係る認証システム1の撮像処理のステップS101A以降の処理と同じであるため、ステップS101A以降の処理については重複する説明を省略する。
(Imaging process)
FIG. 9 is a flowchart showing the processing of the authentication system according to the third embodiment (imaging processing). The imaging process of the authentication system 1 according to the third embodiment will be described below with reference to FIG. 9. The processing after S100B of the image capturing processing of the authentication system 1 according to the third embodiment is the same as the processing after step S101A of the image capturing processing of the authentication system 1 according to the second embodiment described with reference to FIG. 6A. Therefore, duplicated description of the processes after step S101A will be omitted.

(ステップS100A)
撮像位置抽選部212は、図8に示した画面のうちいずれの画面でユーザUに本人確認書類を撮像させるかをランダムに抽選する。換言すると、撮像位置抽選部212は、位置IDをランダムに抽選する。
(Step S100A)
The imaging position lottery section 212 randomly selects which of the screens shown in FIG. 8 the user U should image the personal identification document with. In other words, the imaging position lottery section 212 randomly selects position IDs.

(ステップS100B)
表示装置制御部203は、本人確認書類の撮像において、撮像位置抽選部212でランダムに抽選された位置IDに対応する画面100を表示装置200Dに表示させる。
(Step S100B)
The display device control unit 203 causes the display device 200D to display the screen 100 corresponding to the position ID randomly selected by the imaging position lottery unit 212 during the imaging of the personal identification document.

以降、図6AのステップS101Aの処理へと移行し、ユーザUは、指示に基づいて、本人確認書類の動画の撮像を開始する。 After that, the process proceeds to step S101A in FIG. 6A, and the user U starts capturing a moving image of the identity verification document based on the instruction.

(効果)
以上のように、第3実施形態に係る認証システム1では、図8に示した画面のうちいずれの画面でユーザUに本人確認書類を撮像させるかをランダムに抽選する撮像位置抽選部212を備え、本人確認書類の撮像において、撮像位置抽選部212でランダムに抽選された位置IDに対応する画面100を表示装置200Dに表示させている。そして、送信部204は、本人確認書類の撮像において、撮像装置200Eで撮像された映像のうち、撮像枠F1の領域内の撮像データだけ、もしくは撮像枠F1以外の領域がマスキングされた撮像データを第1撮像データとして認証サーバ3へ送信している。
(effect)
As described above, the authentication system 1 according to the third embodiment includes the imaging position lottery section 212 that randomly selects which screen of the screens shown in FIG. 8 allows the user U to image the identity verification document. In the image pickup of the personal identification document, the screen 100 corresponding to the position ID randomly selected by the imaging position lottery section 212 is displayed on the display device 200D. Then, in the image pickup of the personal identification document, the transmission unit 204 outputs only the image pickup data in the area of the image pickup frame F1 or the image pickup data in which the area other than the image pickup frame F1 is masked in the image picked up by the image pickup apparatus 200E. It is transmitted to the authentication server 3 as the first imaging data.

そして、ユーザUが撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像していない場合、第1判定部304及び第2判定部305にて本人確認書類の顔画像を認識することができず認証エラーとなる。このため、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を撮像する動作を行っているか否かを確認することができ、本人確認書類の表面及び裏面の画像データの流用を防止することができる。この結果、なりすましをより効果的に防止することができる。 When the user U is not capturing the personal identification document while adjusting the position of the imaging device 200E of the user terminal 2 so that the personal identification document is captured in the imaging frame F1, the first determination unit 304 and the second determination The face image of the personal identification document cannot be recognized by the unit 305, resulting in an authentication error. Therefore, it is possible to confirm whether or not the identity verification document is in the hand of the user U and the user U himself is performing the operation of imaging the identity verification document as instructed, and images of the front and back of the identity verification document Data diversion can be prevented. As a result, spoofing can be prevented more effectively.

[第3実施形態の変形例]
なお、第3実施形態では、ユーザ端末2の送信部204は、本人確認書類の撮像において、撮像装置200Eで撮像された映像のうち、撮像枠F1の領域内の撮像データだけ、もしくは撮像枠F1以外の領域がマスキングされた撮像データを第1撮像データとして認証サーバ3へ送信しているが、本人確認書類の撮像において、撮像装置200Eで撮像された映像を撮像位置抽選部212で抽選された位置IDとともに送信するようにしてもよい。そして、認証サーバ3の静止画像データ抽出部303は、ユーザ端末2から送信された位置IDに応じて、第1撮像データから静止画像データを抽出(切り出す)する位置を変化させるようにしてもよい。
[Modification of Third Embodiment]
In the third embodiment, the transmission unit 204 of the user terminal 2 only captures image data within the region of the image capturing frame F1 or the image capturing frame F1 in the image captured by the image capturing apparatus 200E when capturing the personal identification document. The imaged data in which the area other than is masked is transmitted to the authentication server 3 as the first imaged data. However, in the image pickup of the personal identification document, the imaged image taken by the image pickup device 200E is randomly selected by the image pickup position lottery section 212. You may make it transmit with a position ID. Then, the still image data extraction unit 303 of the authentication server 3 may change the position where the still image data is extracted (cut out) from the first imaged data according to the position ID transmitted from the user terminal 2. ..

具体的には、静止画像データ抽出部303は、位置ID「C001」を受信した場合、第1撮像データの右下の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)し、位置ID「C002」を受信した場合、第1撮像データの左下の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)し、位置ID「C003」を受信した場合、第1撮像データの右上の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)し、位置IDC「004」を受信した場合、第1撮像データの左上の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)すようにしてもよい。 Specifically, when the position ID “C001” is received, the still image data extraction unit 303 determines the still image data from the lower right area (for example, about half to about ¼ of the entire area) of the first captured image data. When the position ID “C002” is received, the still image data is extracted (cut out) from the lower left area of the first imaging data (for example, an area of about half to about ¼ of the whole), When the position ID “C003” is received, the still image data is extracted (cut out) from the upper right area (for example, the area of about half to about ¼ of the whole) of the first imaging data, and the position IDC “004” is received. In this case, still image data may be extracted (cut out) from the upper left area of the first imaged data (for example, a half to about ¼ area of the whole).

このようにしても、ユーザUが撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像していない場合、第1判定部304及び第2判定部305にて本人確認書類の顔画像を認識することができず認証エラーとなる。このため、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を撮像する動作を行っているか否かを確認することができ、本人確認書類の表面及び裏面の画像データの流用を防止することができる。この結果、なりすましをより効果的に防止することができる。 Even in this case, if the user U is not capturing the personal identification document while adjusting the position of the imaging device 200E of the user terminal 2 so that the personal identification document is captured in the imaging frame F1, the first determination unit 304. Also, the second determination unit 305 cannot recognize the face image of the identity verification document, resulting in an authentication error. Therefore, it is possible to confirm whether or not the identity verification document is in the hand of the user U and the user U himself is performing the operation of imaging the identity verification document as instructed, and images of the front and back of the identity verification document Data diversion can be prevented. As a result, spoofing can be prevented more effectively.

また、上記第3実施形態においては、ユーザ端末2が撮像位置抽選部212の機能を備えているが、認証サーバ3が撮像位置抽選部212の機能を備え、撮像位置抽選部212がランダムに抽選した位置IDをユーザ端末2へ送信し、ユーザ端末2の表示装置制御部203は、受信部205で受信した位置IDに対応する画面100を表示装置200Dに表示させるようにしてもよい。 Further, in the third embodiment, the user terminal 2 has the function of the imaging position lottery section 212, but the authentication server 3 has the function of the imaging position lottery section 212 and the imaging position lottery section 212 randomly selects. The displayed position ID may be transmitted to the user terminal 2, and the display device control unit 203 of the user terminal 2 may cause the display device 200D to display the screen 100 corresponding to the position ID received by the reception unit 205.

以上説明したように、本発明によれば、信頼性の高い本人確認を行うことのできる認証システム、認証方法及び認証プログラムを提供することができる。 As described above, according to the present invention, it is possible to provide an authentication system, an authentication method, and an authentication program that can perform highly reliable identity verification.

1 認証システム
2 ユーザ端末
200A 通信IF
200B 記憶装置
200C 入力装置
200D 表示装置
200E 撮像装置(カメラ)
200F 音声出力装置(スピーカ)
200G CPU
200H バス(BUS)
201 撮像装置制御部
202 入力受付部
203 表示装置制御部
204 送信部
205 受信部
206 動作抽出部
207 指示タイミング決定部
208 動作指示部
209 音声出力装置制御部
210 記憶装置制御部
211 撮像方法指示部
212 撮像位置抽選部
3 認証サーバ
300A 通信IF
300B 記憶装置
300C CPU
300D バス(BUS)
301 受信部(第1,第2取得部)
302 動作指示タイミング認識部
303 静止画像データ抽出部
304 第1判定部
305 第2判定部
306 第3判定部
307 第4判定部
308 記憶装置制御部
309 送信部
310 第5判定部
4 ネットワーク

1 Authentication System 2 User Terminal 200A Communication IF
200B Storage device 200C Input device 200D Display device 200E Imaging device (camera)
200F audio output device (speaker)
200G CPU
200H bus (BUS)
201 image pickup device control unit 202 input reception unit 203 display device control unit 204 transmission unit 205 reception unit 206 operation extraction unit 207 instruction timing determination unit 208 operation instruction unit 209 audio output device control unit 210 storage device control unit 211 imaging method instruction unit 212 Imaging position lottery section 3 Authentication server 300A Communication IF
300B storage device 300C CPU
300D Bus (BUS)
301 Reception unit (first and second acquisition unit)
302 operation instruction timing recognition unit 303 still image data extraction unit 304 first determination unit 305 second determination unit 306 third determination unit 307 fourth determination unit 308 storage device control unit 309 transmission unit 310 fifth determination unit 4 network

Claims (8)

本人確認のための認証システムであって、
本人確認書類の撮像データを取得する撮像データ取得部と、
前記撮像データ取得部で取得された前記撮像データを解析して前記本人確認書類に厚みがあるか否かを判定する判定部と、
を備えることを特徴とする認証システム。
An authentication system for identity verification,
An imaging data acquisition unit that acquires the imaging data of the identity verification document,
A determination unit that analyzes the imaged data acquired by the imaged data acquisition unit and determines whether the identity verification document has a thickness,
An authentication system comprising:
前記ユーザに対して前記本人確認書類の撮像方法を指示する撮像方法指示部を備え、
前記撮像方法指示部は、
前記本人確認書類の表面及び裏面を撮像するように指示することを特徴とする請求項1に記載の認証システム。
An imaging method instructing unit for instructing the user how to image the identity verification document,
The imaging method instruction unit,
The authentication system according to claim 1, wherein an instruction is given to image the front and back surfaces of the personal identification document.
前記撮像方法指示部は、
前記本人確認書類の表面及び裏面を撮像する際に、前記本人確認書類をひっくり返すよう指示することを特徴とする請求項2に記載の認証システム。
The imaging method instruction unit,
The authentication system according to claim 2, wherein when the front surface and the back surface of the personal identification document are imaged, an instruction is made to turn over the personal identification document.
前記撮像方法指示部は、
前記本人確認書類の厚みがわかるように、前記本人確認書類を斜めに傾けた状態で撮像するよう指示することを特徴とする請求項2又は請求項3に記載の認証システム。
The imaging method instruction unit,
The authentication system according to claim 2 or 3, wherein an instruction is given to image the personal identification document in an inclined state so that the thickness of the personal identification document can be seen.
前記撮像方法指示部は、
動画により前記本人確認書類を撮像するよう指示することを特徴とする請求項2乃至請求項4のいずれかに記載の認証システム。
The imaging method instruction unit,
The authentication system according to any one of claims 2 to 4, wherein an instruction is given to capture an image of the personal identification document by a moving image.
撮像位置の異なる本人確認書類撮像用の画面データが複数格納された記憶部を参照し、前記撮像位置の異なる画面データのいずれで前記本人確認書類を撮像させるかを抽選する撮像位置抽選部、を備え、
前記撮像方法指示部は、
前記撮像位置抽選部で抽選された位置で前記本人確認書類を撮像するように指示することを特徴とする請求項2乃至請求項5のいずれかに記載の認証システム。
An image pickup position lottery unit that refers to a storage unit in which a plurality of screen data for identity verification document image capture at different image capture positions is stored, and selects which of the screen data at different image capture positions is used to image the personal identification document. Prepare,
The imaging method instruction unit,
The authentication system according to any one of claims 2 to 5, wherein an instruction is given to take an image of the personal identification document at a position selected by the imaging position drawing section.
本人確認のための認証方法であって、
撮像データ取得部が、本人確認書類の撮像データを取得する工程と、
判定部が、前記撮像データ取得部で取得された前記撮像データを解析して前記本人確認書類に厚みがあるか否かを判定する工程と、
を有することを特徴とする認証方法。
An authentication method for personal identification,
A step in which the imaging data acquisition unit acquires imaging data of the personal identification document,
A step of determining whether or not the determination section analyzes the imaged data acquired by the imaged data acquisition section to determine whether the personal identification document has a thickness;
An authentication method comprising:
本人確認のための認証プログラムであって、
コンピュータを、
本人確認書類の撮像データを取得する撮像データ取得部、
前記撮像データ取得部で取得された前記撮像データを解析して前記本人確認書類に厚みがあるか否かを判定する判定部、
として機能させることを特徴とする認証プログラム。

An authentication program to verify your identity,
Computer,
An imaging data acquisition unit that acquires the imaging data of the identity verification document,
A determination unit that analyzes the imaged data acquired by the imaged data acquisition unit and determines whether the identity verification document has a thickness,
An authentication program characterized by functioning as.

JP2019101047A 2018-12-11 2019-05-30 Information processing equipment, information processing method, information processing program Active JP7068710B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018231361 2018-12-11
JP2018231361 2018-12-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018237005A Division JP6541140B1 (en) 2018-12-11 2018-12-19 Authentication system, authentication method, authentication program

Publications (2)

Publication Number Publication Date
JP2020095670A true JP2020095670A (en) 2020-06-18
JP7068710B2 JP7068710B2 (en) 2022-05-17

Family

ID=67212105

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018237005A Active JP6541140B1 (en) 2018-12-11 2018-12-19 Authentication system, authentication method, authentication program
JP2019101047A Active JP7068710B2 (en) 2018-12-11 2019-05-30 Information processing equipment, information processing method, information processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018237005A Active JP6541140B1 (en) 2018-12-11 2018-12-19 Authentication system, authentication method, authentication program

Country Status (1)

Country Link
JP (2) JP6541140B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201693A (en) * 2019-06-10 2020-12-17 沖電気工業株式会社 Information processor and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6733790B2 (en) 2018-12-10 2020-08-05 大日本印刷株式会社 Mobile terminal, identity verification system and program
WO2022210983A1 (en) 2021-03-31 2022-10-06 古河電気工業株式会社 Catalyst structure for synthesis gas production, synthesis gas production device, and method for producing catalyst structure for synthesis gas production
WO2023013373A1 (en) * 2021-08-02 2023-02-09 株式会社辰巳菱機 Remote medical care system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143759A (en) * 1991-11-20 1993-06-11 Toppan Printing Co Ltd Magnetic card inspecting device
JP2013101513A (en) * 2011-11-08 2013-05-23 Nec Corp Information processing device, information processing method, and information processing program
US20160232534A1 (en) * 2015-02-06 2016-08-11 Trunomi Ltd. Systems and Methods for Generating an Auditable Digital Certificate
JP2016200922A (en) * 2015-04-09 2016-12-01 司 窪田 My number collection system, my number accumulation device, input device, repeating device, operation method, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236666A (en) * 2001-02-09 2002-08-23 Matsushita Electric Ind Co Ltd Personal authentication device
JP2003317100A (en) * 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd Information terminal device, authentication system, and registering and authenticating method
JP2005284565A (en) * 2004-03-29 2005-10-13 Glory Ltd Automatic transaction apparatus
JP2006133930A (en) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd Authentication processor, authentication processing method, and computer program
JP4548218B2 (en) * 2005-05-24 2010-09-22 パナソニック電工株式会社 Face recognition device
JP5076563B2 (en) * 2006-03-14 2012-11-21 オムロン株式会社 Face matching device
JP2010204829A (en) * 2009-03-02 2010-09-16 Nec Corp Authentication device, authentication method, and user authentication system
JP2013134684A (en) * 2011-12-27 2013-07-08 Nec Corp Electronic transaction terminal, electronic transaction system, electronic transaction method, and electronic transaction program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143759A (en) * 1991-11-20 1993-06-11 Toppan Printing Co Ltd Magnetic card inspecting device
JP2013101513A (en) * 2011-11-08 2013-05-23 Nec Corp Information processing device, information processing method, and information processing program
US20160232534A1 (en) * 2015-02-06 2016-08-11 Trunomi Ltd. Systems and Methods for Generating an Auditable Digital Certificate
JP2016200922A (en) * 2015-04-09 2016-12-01 司 窪田 My number collection system, my number accumulation device, input device, repeating device, operation method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201693A (en) * 2019-06-10 2020-12-17 沖電気工業株式会社 Information processor and program
JP7318325B2 (en) 2019-06-10 2023-08-01 沖電気工業株式会社 Information processing device and program

Also Published As

Publication number Publication date
JP6541140B1 (en) 2019-07-10
JP2020095652A (en) 2020-06-18
JP7068710B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
JP7068710B2 (en) Information processing equipment, information processing method, information processing program
CN105681316B (en) identity verification method and device
WO2019104930A1 (en) Identity authentication method, electronic device and computer-readable storage medium
JP5076563B2 (en) Face matching device
KR101356358B1 (en) Computer-implemented method and apparatus for biometric authentication based on images of an eye
JP2002251380A (en) User collation system
WO2019127262A1 (en) Cloud end-based human face in vivo detection method, electronic device and program product
CN105989263A (en) Method for authenticating identities, method for opening accounts, devices and systems
WO2016197298A1 (en) Living body detection method, living body detection system and computer program product
WO2016172923A1 (en) Video detection method, video detection system, and computer program product
CN110612530A (en) Method for selecting a frame for use in face processing
KR102593624B1 (en) Online Test System using face contour recognition AI to prevent the cheating behaviour and method thereof
KR102160137B1 (en) Apparatus and Method for Recognizing Fake Face By Using Minutia Data Variation
US11600118B2 (en) Information processing apparatus, information processing method, and information processing program
JP2023063314A (en) Information processing device, information processing method, and recording medium
KR102581415B1 (en) UBT system using face contour recognition AI to prevent the cheating behaviour and method thereof
KR20230110681A (en) Online Test System using face contour recognition AI to prevent the cheating behaviour by using a front camera of examinee terminal and an auxiliary camera and method thereof
CN105407069B (en) Living body authentication method, apparatus, client device and server
JP6664753B1 (en) Forgery determination system, forgery determination method, and forgery determination program
JP2024138481A (en) Program, control device, and control method
JP4887966B2 (en) Verification device
WO2021002079A1 (en) Passage propriety assessment device, passage management system, passage propriety assessment method, and computer program
US20230206686A1 (en) Face authentication method, storage medium, and face authentication device
WO2022222957A1 (en) Method and system for identifying target
CN113096809A (en) Health management system based on cloud computing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220422

R150 Certificate of patent or registration of utility model

Ref document number: 7068710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157