[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2023233944A1 - 情報処理装置、認証システム、情報処理方法及び非一時的なコンピュータ可読媒体 - Google Patents

情報処理装置、認証システム、情報処理方法及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023233944A1
WO2023233944A1 PCT/JP2023/017488 JP2023017488W WO2023233944A1 WO 2023233944 A1 WO2023233944 A1 WO 2023233944A1 JP 2023017488 W JP2023017488 W JP 2023017488W WO 2023233944 A1 WO2023233944 A1 WO 2023233944A1
Authority
WO
WIPO (PCT)
Prior art keywords
read
hand
information
identification information
information processing
Prior art date
Application number
PCT/JP2023/017488
Other languages
English (en)
French (fr)
Inventor
美涼 新粥
克也 中島
帆夏 鈴木
武夫 田村
正俊 杉澤
伸二 窪谷
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2023233944A1 publication Critical patent/WO2023233944A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Definitions

  • This disclosure relates to an information processing device, an authentication system, an information processing method, and a program.
  • Patent Document 1 discloses a first input means for inputting a fingerprint, and a printing means for colorlessly printing the fingerprint inputted using the first input means on a personal authentication medium.
  • a personal authentication system device comprising:
  • Patent Document 1 reads the colorless barcode printed on the face photo of the passport when the passport is set in the barcode reading unit. Additionally, when the subject's finger is pressed against the board, the subject's fingerprint is read. The device authenticates the person by comparing the barcode read from the passport with the actual fingerprint pattern read from the person.
  • Patent Document 1 has a problem in that the user needs to touch a predetermined member during authentication.
  • the purpose of this disclosure is to provide an information processing device, an authentication system, an information processing method, and a program that can reduce the possibility of contact between a user and a member during user authentication. be.
  • the information processing device is a detection unit that detects a hand presenting an object to be read that includes user identification information;
  • the device includes a reading unit that reads biological information from an image of the detected hand and reads the identification information from the object to be read presented by the hand.
  • the authentication system for this disclosure is an information processing device; an authentication device;
  • the information processing device includes: a detection unit that detects a hand presenting an object to be read that includes user identification information; a reading unit that reads biological information from an image taken of the detected hand and reads the identification information from the object to be read presented by the hand;
  • the authentication device includes: The biometric information and the identification information are acquired from the information processing device, and biometric authentication of the user is performed based on the biometric information and the identification information.
  • the information processing method related to this disclosure is as follows:
  • the computer is a detection step of detecting a hand presenting an object to be read that includes identification information of the user;
  • a reading step of reading biological information from an image taken of the detected hand and reading identification information from the object to be read presented by the hand is executed.
  • This disclosure program is a detection step of detecting a hand presenting an object to be read that includes identification information of the user;
  • the method causes a computer to execute a reading step of reading biological information from an image of the detected hand and reading identification information from the object to be read presented by the hand.
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus according to a first embodiment.
  • FIG. 3 is a flowchart illustrating processing performed by the information processing apparatus according to the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of an authentication system according to a second embodiment.
  • FIG. 2 is a block diagram showing the configuration of an authentication device according to a second embodiment.
  • FIG. 2 is a block diagram showing the configuration of an information processing device according to a second embodiment.
  • FIG. 3 is a first diagram illustrating a usage example of the information processing device according to the second embodiment.
  • FIG. 2 is a second diagram illustrating a usage example of the information processing device according to the second embodiment.
  • 7 is a flowchart illustrating processing performed by the information processing apparatus according to the second embodiment.
  • FIG. 7 is a diagram illustrating the configuration of a guide section according to Embodiment 3.
  • 7 is a diagram illustrating an example of presenting an object to be read using the guide unit according to the third embodiment.
  • FIG. FIG. 7 is a diagram illustrating the configuration of a guide section according to a fourth embodiment.
  • FIG. 7 is a diagram showing the configuration of an information processing device according to a fourth embodiment.
  • FIG. 12 is a diagram showing the configuration of an information processing device when a biometric information reading device according to a fourth embodiment reads biometric information at a plurality of locations.
  • FIG. 7 is a diagram illustrating the configuration of a guide section according to a fifth embodiment.
  • FIG. 12 is a diagram showing an example of presenting an object to be read using the guide unit according to the fifth embodiment.
  • FIG. 7 is a diagram illustrating the configuration of a guide section according to a sixth embodiment.
  • FIG. 12 is a diagram showing an example of presenting an object to be read using a guide unit according to a sixth embodiment.
  • FIG. 18 is a diagram showing the information processing apparatus in the state shown in FIG. 17 as viewed from the user side.
  • 1 is a block diagram illustrating a hardware configuration of a computer that implements an information processing device and the like; FIG.
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus 100 according to this embodiment.
  • the information processing device 100 includes a detection section 101 and a reading section 102.
  • the detection unit 101 detects a hand presenting an object to be read that includes the user's identification information.
  • the reading unit 102 reads biometric information from an image of the hand detected by the detection unit 101, and also reads identification information from the object to be read presented by the hand.
  • FIG. 2 is a flowchart showing processing performed by the information processing apparatus 100.
  • the detection unit 101 detects a hand presenting an object to be read that includes the user's identification information (S101).
  • the reading unit 102 reads biometric information from the image of the hand detected by the detection unit 101, and reads identification information from the object to be read presented by the hand (S102).
  • the reading unit 102 may read the biometric information and the identification information at the same timing, or may read them at different timings.
  • the information processing apparatus 100 can reduce the possibility that the user and the member will come into contact during user authentication.
  • Embodiment 2 is a specific example of Embodiment 1 described above.
  • FIG. 3 is a block diagram showing the configuration of the authentication system 1.
  • the authentication system 1 includes an information processing device 10 and an authentication device 50.
  • the information processing device 10 and the authentication device 50 are connected via a network N.
  • the network N is a wired or wireless communication line.
  • the authentication system 1 is an information processing system for performing biometric authentication of a user using biometric information obtained from a user who is a target of biometric authentication.
  • the authentication system 1 is used, for example, at an airport, an ATM, a building, a station, a store, a hospital, or a public facility, but is not limited thereto.
  • biometric information for example, a fingerprint shape pattern, a vein shape pattern, or a combination thereof can be used.
  • the biometric information is not limited to these, and various types of information that can calculate feature amounts indicating physical characteristics unique to the user may be used.
  • the biometric information is not limited to these, and may be various biometric information that can be read along with the hand presenting the object to be read.
  • the information processing device 10 detects a user's hand presenting an object to be read that includes identification information. Further, the information processing device 10 reads biometric information from an image of the detected hand, and reads identification information from the object to be read presented by the hand.
  • Identification information is information for uniquely identifying a user.
  • the identification information may be, for example, a character string composed of alphabets, numbers, and the like.
  • the identification information is, for example, a passport number written on a passport. Further, the identification information may be the user's biometric information. For example, if a fingerprint image for use in fingerprint authentication is stored in an IC chip built into a passport, the fingerprint image can be used as identification information.
  • the identification information may be a combination of multiple pieces of information. For example, a combination of information such as the user's name, date of birth, address, biometric information, etc. may be used as the identification information.
  • the identification information may be written on the object to be read by printing or the like, or may be stored in an IC chip or the like built into the object to be read.
  • the object to be read may be an article that includes identification information.
  • the object to be read may be, for example, a document in which identification information is written.
  • the object to be read may include, for example, a passport, refugee travel document, driver's license, health insurance card, or My Number card. Identification documents other than these may also be used as objects to be read.
  • the object to be read may be a document or the like that has a built-in IC chip in which identification information is stored. Further, the object to be read may be an information terminal that stores identification information.
  • the information terminal may be, for example, a smartphone, a mobile phone terminal, or a tablet terminal owned by the user.
  • the information terminal may be a wearable terminal such as a smart watch.
  • the authentication system 1 is used for immigration inspection at an airport.
  • the object to be read is a passport or the like that the user presents to pass through immigration inspection.
  • the authentication system 1 detects the hand of a user presenting an object to be read in the information processing device 10, and reads biometric information from the detected hand. Furthermore, the information processing device 10 reads identification information from the object to be read presented by the user's hand.
  • the information processing device 10 controls biometric authentication of the user using the read biometric information and identification information. Specifically, the information processing device 10 transmits an authentication request including biometric information and identification information to the authentication device 50. The authentication device 50 performs authentication in response to an authentication request from the information processing device 10 and transmits the authentication result to the information processing device 10. The information processing device 10 receives the authentication result from the authentication device 50.
  • the information processing device 10 instructs unlocking of a predetermined gate device installed at the airport.
  • a user who is successfully authenticated can pass the immigration inspection.
  • FIG. 4 is a block diagram showing the configuration of the authentication device 50.
  • the authentication device 50 is a computer that performs biometric authentication of a user in response to an authentication request from the information processing device 10.
  • the authentication device 50 acquires the user's biometric information and identification information from the information processing device 10, and performs biometric authentication of the user based on the acquired biometric information and identification information. For example, the authentication device 50 receives an image of the user's biometric information from the information processing device 10, and authenticates a person by extracting a predetermined characteristic image from the received image.
  • the characteristic image is, for example, a fingerprint pattern image.
  • the authentication device 50 transmits the authentication result to the information processing device 10.
  • the authentication device 50 mainly includes an authentication storage section 51, a feature image extraction section 52, a feature point extraction section 53, a registration section 54, and an authentication section 55.
  • the authentication storage unit 51 stores a person ID related to a pre-registered person, characteristic data of this person, and identification information data of this person in association with each other.
  • the identification information data is, for example, a passport number written on a passport.
  • the feature image extraction unit 52 detects a feature region included in the image related to the user's biometric information and outputs it to the feature point extraction unit 53.
  • the feature point extraction unit 53 extracts feature points from the feature region detected by the feature image extraction unit 52 and outputs data regarding the feature points to the registration unit 54.
  • the data related to feature points is a set of extracted feature points.
  • the registration unit 54 issues a new person ID when registering the characteristic data and identification information data.
  • the registration unit 54 registers the issued person ID, the feature data extracted from the registered image, and the identification information data of the person in the authentication storage unit 51 in association with each other.
  • the authentication unit 55 compares the feature data extracted from the image of the user's biometric information with the feature data in the authentication storage unit 51. Further, the authentication unit 55 checks the user identification information obtained from the information processing device 10 and the identification information data in the authentication storage unit 51. The authentication unit 55 determines that the authentication is successful if there is feature data that matches the user's biometric information and the user's identification information and the identification information data match.
  • the authentication unit 55 determines that the authentication has failed. For example, the authentication unit 55 determines that the authentication has failed when there is no feature data that matches the user's biometric information. Further, the authentication unit 55 determines that the authentication has failed when there is characteristic data that matches the user's biometric information, but the identification information and the identification information data do not match.
  • the authentication unit 55 transmits information regarding the success or failure of authentication to the information processing device 10. Further, when the authentication is successful, the authentication unit 55 specifies the person ID associated with the successful feature data and identification information data, and notifies the information processing device 10 of the authentication result including the specified person ID.
  • FIG. 5 is a block diagram showing the configuration of the information processing device 10. As shown in FIG.
  • the information processing device 10 is an example of the information processing device 100 described above.
  • the information processing device 10 is a computer for performing information processing according to this embodiment.
  • the information processing device 10 includes a detection section 11, a reading control section 12, an authentication control section 13, an output section 14, a storage section 15, a guide section 18, a detection sensor 20, a biological information reading device 30, and an identification information reading device 40. ing.
  • the detection unit 11 is an example of the detection unit 101 described above.
  • the detection unit 11 detects the hand of the user presenting the object to be read that includes the user's identification information. Specifically, the detection unit 11 detects the hand based on data acquired by the detection sensor 20.
  • Detection sensor 20 may include, for example, a camera, a distance sensor, a pressure sensor, or the like.
  • the detection unit 11 detects the hand of the user presenting the object to be read from an image of the hand presenting the object to be read on a predetermined mounting table.
  • the predetermined mounting table is, for example, a table provided in a space where immigration inspection is performed at an airport.
  • the detection unit 11 acquires a photographed image from the detection sensor 20, and detects the hand of the user presenting the object to be read from the photographed image.
  • the detection unit 11 can detect the hand of the user presenting the object to be read using a well-known image recognition technique.
  • the detection unit 11 detects the hand of the user who is presenting the object to be read on a predetermined mounting table based on the distance measurement data acquired from the distance measurement sensor. . For example, the detection unit 11 calculates the difference between the distance measurement data of the detection target area in a state where no article or the like is placed on the mounting table and the distance measurement data acquired by the detection sensor 20. The detection unit 11 detects the hand of the user presenting the object to be read by detecting the unevenness existing in the detection target area using the difference. For example, the detection unit 11 detects the hand of the user who is presenting the object to be read on the mounting table when a predetermined or more unevenness has occurred within a predetermined range of the mounting table.
  • the detection unit 11 detects the hand presenting the object to be read based on pressure data obtained from a pressure sensor provided on a predetermined mounting table. For example, the detection unit 11 determines whether the pressure applied to the mounting table is equal to or higher than a predetermined threshold, and detects the hand of the user presenting the object to be read, depending on the determination result. The detection unit 11 detects the user's hand when the pressure applied to the mounting table is equal to or greater than a predetermined threshold, and does not detect the user's hand when the pressure is less than the threshold.
  • the detection method described above is an example, and the detection unit 11 may use various other methods to detect the hand of the user presenting the object to be read.
  • the reading control unit 12 is an example of the reading unit 102 described above.
  • the reading control unit 12 controls the biometric information reading device 30 and the identification information reading device 40.
  • the reading control unit 12 reads the biometric information from the image of the hand detected by the detection unit 11, and also controls the biometric information reading device 30 and the identification information reader to read the identification information from the object to be read presented by the hand. Controls the device 40.
  • the reading control unit 12 may control the biometric information reading device 30 and the identification information reading device 40, respectively, so that the biometric information and the identification information are read at the same timing. Further, the reading control unit 12 may control the biometric information reading device 30 and the identification information reading device 40, respectively, so as to read the biometric information and the identification information at different timings.
  • the reading control unit 12 controls the biometric information reading device 30 and the identification information reading device 40 so that the biometric information and identification information are read at different timings. For example, the reading control unit 12 first acquires biometric information by causing the biometric information reading device 30 to read the biometric information. Subsequently, the reading control unit 12 determines whether the quality of the biometric information is equal to or higher than a predetermined value, and causes the identification information reading device 40 to read the identification information according to the determination result. The reading control unit 12 causes the identification information to be read when the quality of the biometric information is determined to be above a predetermined value, and does not allow the identification information to be read when the quality is less than the predetermined value.
  • the reading control unit 12 may notify the user that the biometric information will be read again.
  • the reading control unit 12 may also notify the user to change the posture of his or her hand so that the quality of the biometric information is improved.
  • the quality of biometric information indicates whether the biometric information is in a state suitable for biometric authentication. For example, the higher the quality of the biometric information, the more suitable the biometric information is for biometric authentication, and the lower the quality of the biometric information, the less suitable the biometric information is for biometric authentication.
  • a fingerprint image obtained by photographing a user's fingerprint is used as biometric information.
  • the quality of a fingerprint image can be determined, for example, by calculating a quality value using a known index.
  • an index of fingerprint image quality for example, NIST Fingerprint Image Quality (NFIQ) by the National Institute of Standards and Technology (NIST) is known.
  • the reading control unit 12 can calculate the quality value of the fingerprint image using NFIQ or the like as an index, and calculate the quality value based on the calculation result.
  • the reading control unit 12 may calculate the quality value using other indicators.
  • the reading control unit 12 may receive the result of a person's visual judgment of the quality of the fingerprint image and calculate the quality value.
  • the reading control unit 12 may receive the result visually determined by the administrator or the like of the authentication system 1 from an input unit (not shown), and may use the result as the quality value.
  • the quality value may be expressed as a binary value such as "OK” or "NG”, or may be expressed as a multi-level value.
  • the authentication control unit 13 controls the user's biometric authentication using the read biometric information and identification information. Specifically, the authentication control unit 13 transmits an authentication request including biometric information and identification information to the authentication device 50. The authentication control unit 13 receives the authentication result from the authentication device 50.
  • the output unit 14 is an output device for outputting predetermined information.
  • the output unit 14 outputs the guidance information generated by the guide unit 18, for example.
  • the output unit 14 may be, for example, a display, a speaker, a lamp, a vibrator, or the like.
  • the guide section 18 may be a projector or the like for projecting the guide information onto a mounting table or the like.
  • the storage unit 15 is a storage device that stores programs for realizing each function of the information processing device 10. Furthermore, the storage unit 15 stores the guide information generated by the guide unit 18.
  • the guide unit 18 guides the hand and the object to be read so that biometric information can be read from the hand and identification information can be read from the object.
  • the guide unit 18 generates guide information for guiding the hand and the object to be read so that biometric information can be read from the hand and identification information can be read from the object to be read.
  • the guide section 18 outputs guidance information to the output section 14, and causes the output section 14 to output the guidance information.
  • the guide section 18 may store the guide information in the storage section 15.
  • the guidance information is information for guiding the hand and the object to be read using, for example, characters, images, sounds, or vibrations.
  • the guidance information is, for example, voice information for outputting a voice message such as "Please place your passport on the mounting table and place your hand on the passport.”
  • the guide information may include information for indicating the positional relationship between the hand and the object to be read.
  • the guidance information may be a voice message such as "Please place your passport on the mounting table and place your hand on the passport so that your fingers do not overlap.”
  • the guide section 18 generates such a voice message and causes the output section 14 to output it. Thereby, the user can change the position of the hand and the object to be read according to the guide information.
  • the guidance information may be information for displaying such a message using text or images.
  • the guide information may be information for projecting such a message onto a mounting table using a projection device such as a projector.
  • the guide information may be a guidance image for guiding the hand and the object to be read into a state where biometric information can be read from the hand and identification information can be read from the object to be read.
  • the guiding image may include images such as arrow symbols for guiding the hand and the object to be read to predetermined positions. By viewing the guidance information, the user can move the hand and the object to be read to a predetermined position where the above state is achieved.
  • the detection sensor 20 is a sensor for detecting the hand of the user who is presenting the object to be read.
  • the detection sensor 20 may be, for example, a camera, a distance sensor, a pressure sensor, or the like.
  • the detection sensor 20 is a camera.
  • the detection sensor 20 photographs an area including the hand presenting the object to be read on a predetermined mounting table.
  • the detection sensor 20 outputs a photographed image acquired by photographing to the detection unit 11.
  • the light used for photographing may be visible light or light other than visible light (for example, infrared light).
  • the detection sensor 20 is a distance measurement sensor.
  • the detection sensor 20 is, for example, a ToF (Time of Flight) sensor.
  • the detection sensor 20 photographs an area including the hand presenting the object to be read on a predetermined mounting table.
  • the detection sensor 20 irradiates a subject with LD (Laser Diode) light in the infrared region, and receives the LD light reflected by the subject with an infrared image sensor.
  • the detection sensor 20 calculates the distance between the subject and the detection sensor 20 by detecting the time difference from irradiation to light reception for each pixel.
  • the detection sensor 20 measures the calculated distance to the subject for each pixel.
  • the detection sensor 20 outputs the measurement result to the detection unit 11 as ranging data.
  • LD Laser Diode
  • the detection sensor 20 is not limited to the ToF sensor, and various sensors capable of detecting the distance between the detection sensor 20 and the subject may be used.
  • the detection sensor 20 is a pressure sensor.
  • the detection sensor 20 is provided on a predetermined mounting table, and detects the pressure applied to the mounting table.
  • the detection sensor 20 outputs the output value to the detection unit 11 as pressure data.
  • a plurality of detection sensors 20 may be provided on the mounting table.
  • the above-mentioned camera, ranging sensor, and pressure sensor are examples of the detection sensor 20, and other sensors may be used as the detection sensor 20.
  • the biometric information reading device 30 reads biometric information from the image of the hand detected by the detection unit 11 under the control of the reading control unit 12 .
  • the biological information reading device 30 may be, for example, an OCT device that uses optical coherence tomography (OCT) technology to obtain a pattern image on the surface or inside of the observation target.
  • OCT optical coherence tomography
  • the biological information reading device 30 acquires a pattern image on the surface or inside of the observation object by utilizing the interference between the scattered light from inside the observation object and the reference light when the observation object is irradiated with a light beam.
  • the observation target is, for example, a user's finger.
  • the biometric information reading device 30 acquires, for example, a fingerprint image showing a fingerprint pattern of the epidermis or dermis of the user's finger.
  • the biological information reading device 30 may be provided above or below a predetermined mounting table. For example, when the biometric information reading device 30 is provided above the mounting table, the user turns his/her palm upward. Furthermore, when the biometric information reading device 30 is provided below the mounting table, the user turns his/her palm downward. Thereby, the biometric information reading device 30 can read the user's biometric information.
  • the biometric information reading device 30 can read fingerprints through the object to be read.
  • the biological information reading device 30 is provided below the mounting table.
  • the user places his hand on the object to be read so as to overlap with the object to be read.
  • the biometric information reading device 30 can read the fingerprint from below the mounting table through the object to be read. . Therefore, the biometric information reading device 30 can read a fingerprint without the user touching the mounting table.
  • the information processing device 10 can be configured so that a sheet member such as paper or film is placed on a mounting table, and an object to be read is placed on top of the sheet member. Thereby, it is possible to prevent the user's hand or the object to be read from coming into contact with the mounting table or the like.
  • the sheet member may be formed to have a predetermined thickness that allows light used in the OCT device to pass therethrough.
  • the biometric information reading device 30 can read biometric information with high accuracy.
  • the biological information reading device 30 is not limited to an OCT device.
  • the biometric information reading device 30 may be a camera that photographs a hand presenting an object to be read.
  • the biometric information reading device 30 detects the user's finger area from the captured image and reads the user's fingerprint pattern from the finger area.
  • the biometric information reading device 30 may be, for example, a 3D fingerprint scanner that can read a three-dimensional fingerprint image.
  • the biological information reading device 30 may use visible light to photograph the finger, or may use light other than visible light (for example, infrared light).
  • the identification information reading device 40 reads the user's identification information from the object to be read presented by the hand detected by the detection unit 11 under the control of the reading control unit 12 .
  • the identification information reading device 40 may be provided on a predetermined mounting table.
  • the identification information is, for example, a passport number.
  • the identification information may be written on the object to be read by printing or the like, or may be stored in an IC chip or the like built into the object to be read.
  • the identification information reading device 40 is, for example, a scanner including an image sensor. In this case, the identification information reading device 40 photographs the passport presented by the user, identifies characters from the photographed image, and outputs the identified character information to the authentication control unit 13 .
  • the identification information reading device 40 may have a means for reading the identification information instead of the scanner.
  • the identification information reading device 40 may be a barcode reader, a magnetic information reading device, a short-range wireless communication device, or the like. When a user holds an object to be read over the identification information reading device 40, the identification information reading device 40 reads identification information from the object to be read.
  • Each configuration of the authentication system 1 has been described above with reference to FIGS. 3 to 5.
  • the configuration of the authentication system 1 described above is only an example, and can be changed as appropriate.
  • the authentication system 1 may be configured using a device in which a plurality of configurations are integrated.
  • the functions of the information processing device 10 and the authentication device 50 may be integrated into the same device.
  • Each functional unit in each of the information processing device 10 and the authentication device 50 may be distributed and processed using a plurality of devices.
  • FIG. 6 is a first diagram showing an example of how the information processing device 10 is used. As shown in the figure, the information processing device 10 further includes a mounting table 5 in addition to the above-described configuration.
  • the mounting table 5 is, for example, a plate-shaped member having a horizontal main surface.
  • the mounting table 5 is not limited to this, and the upper surface of a box-shaped member or device may be used, for example.
  • the mounting table 5 may have a predetermined angle so that the hand and the object to be read can be easily presented.
  • the detection sensor 20 and the biological information reading device 30 are provided above the mounting table 5.
  • the detection sensor 20 is provided at a position where it can detect the user's hand presenting the object to be read.
  • the detection sensor 20 is provided at a position where it can photograph an area including at least the user's hand.
  • FIG. 6 shows an example in which the detection sensor 20 is a camera or a distance measurement sensor, the detection sensor 20 may be a pressure sensor provided on the mounting table 5.
  • the biometric information reading device 30 is provided at a position where biometric information can be read from an image of the detected hand.
  • the biometric information reading device 30 is provided at a position where it can photograph an area that includes at least the finger of the user presenting the object to be read.
  • the mounting table 5 is equipped with an identification information reading device 40 that reads the object to be read.
  • the identification information reading device 40 is provided at a position where the identification information can be read from the object to be read while the user is presenting the object to be read.
  • the identification information reading device 40 is provided with a reading surface on the top surface of the mounting table 5 for reading the object to be read.
  • the reading surface is provided substantially horizontally with the mounting table 5.
  • the identification information reading device 40 reads identification information from the object.
  • the biometric information reading device 30 reads biometric information from the user's hand.
  • the biometric information reading device 30 is provided above the mounting table 5, so the user presents the object to be read with the palm of the hand on which the object was presented facing upward. do.
  • the object to be read is a passport.
  • a passport has information such as the passport number, name, nationality, and date of birth written on a predetermined page.
  • the passport may have a built-in IC chip containing this information.
  • the identification information is, for example, a passport number.
  • the user presents the passport to the reading surface of the identification information reading device 40, and turns the palm of the hand on which the passport is presented upward. For example, while holding the passport on the mounting table 5 with the back of the user's hand, the user opens the hand holding the passport and turns the palm upward.
  • the detection sensor 20 photographs the hand of the user presenting the passport and outputs the photographed image to the detection unit 11 .
  • the detection unit 11 detects the user's hand from the photographed image.
  • the reading control unit 12 controls the biometric information reading device 30 and the identification information reading device 40.
  • the reading control unit 12 controls the biometric information reading device 30 and the identification information reading device 40 so as to read the biometric information from the image of the detected hand and read the passport number from the passport presented by the hand.
  • the biometric information reading device 30 reads, for example, a fingerprint image as biometric information. Further, the identification information reading device 40 reads the passport number from the passport. The identification information reading device 40 may read the passport number from character information on a predetermined page, or may read the passport number from a built-in IC chip.
  • the authentication control unit 13 issues an authentication request to the authentication device 50 using the read fingerprint image and passport number.
  • the authentication control unit 13 receives the authentication result from the authentication device 50 and outputs the authentication result depending on the authentication result.
  • the biometric information reading device 30 reads the biometric information from the hand presenting the object to be read
  • the identification information reading device 40 reads the biometric information from the hand presenting the object to be read. Identification information can be read. Furthermore, since the user places his hand on the object to be read that he owns, he can perform biometric authentication without touching the information processing device 10 or the mounting table 5.
  • the positions of the detection sensor 20 and the biological information reading device 30 are not limited to those shown in FIG. 6.
  • the biological information reading device 30 may be provided below the mounting table 5, as described below.
  • FIG. 7 is a second diagram showing an example of how the information processing device 10 is used.
  • the biological information reading device 30 is provided below the mounting table 5. The user performs fingerprint authentication with the palm presenting the object to be read facing downward. By doing so, the user can more easily present the object to be read on the mounting table 5.
  • FIG. 8 is a flowchart showing the processing performed by the information processing device 10.
  • the guide unit 18 notifies the user to present the object to be read in a predetermined state (S11).
  • the predetermined state is a state in which biometric information can be read from the user's hand and identification information can be read from the object to be read.
  • the guide section 18 generates guidance information for guiding the hand and the object to be read into the state, and outputs it to the output section 14 .
  • the guide unit 18 presents the object to be read on the reading surface of the identification information reading device 40 provided on the mounting table, and sends a voice message to notify the user to place his/her hand on the object to be read. generate.
  • the voice message is, for example, "Please place your passport on the reading surface of the mounting table and place your hand on the passport.”
  • the guide unit 18 causes the output unit 14 to output the generated guide information.
  • the guide unit 18 may generate display information for displaying the message as an image and cause the output unit 14 to output the generated display information. Further, the guide unit 18 may generate a guidance image to be projected onto the mounting table in order to guide the hand and the object to be read. The guide unit 18 may store the guided image in the storage unit 15.
  • the detection unit 11 uses the detection sensor 20 to determine whether or not the user's hand presenting the object to be read has been detected (S12).
  • the detection sensor 20 is, for example, a camera, a distance sensor, a pressure sensor, or the like.
  • the detection sensor 20 outputs a captured image, distance measurement data, pressure data, etc. to the detection unit 11.
  • the detection unit 11 detects the user's hand presenting the object to be read based on a photographed image or the like.
  • the detection unit 11 returns to the process in step S11. If it is detected that the user has placed a hand on the object to be read (S12: YES), the reading control unit 12 reads the user's biometric information from an image of the detected hand (S13). Specifically, the reading control unit 12 controls the biometric information reading device 30 to read the user's biometric information. Here, the reading control unit 12 causes the fingerprint image of the hand presenting the object to be read to be read as biometric information.
  • the reading control unit 12 determines whether the quality of the read biometric information is equal to or higher than a predetermined value (S14). For example, the reading control unit 12 calculates the quality value of biological information using a well-known index. The reading control unit 12 determines whether the calculated quality value is greater than or equal to a predetermined value. For example, the reading control unit 12 determines whether the quality value is equal to or higher than a predetermined value by comparing the quality value with a preset threshold value.
  • the reading control unit 12 If it is determined that the quality value is less than the threshold (NO in S14), the reading control unit 12 returns to the process in step S13. If it is determined that the quality value is greater than or equal to the threshold (YES in S14), the reading control unit 12 reads the user's identification information from the object to be read presented by the detected hand (S15).
  • the reading control unit 12 controls the identification information reading device 40 to read the identification information from the object to be read.
  • the reading control unit 12 causes the passport number stored in the IC chip within the object to be read to be read.
  • the reading control unit 12 can read the biometric information from the image of the detected hand, and also read the identification information from the object to be read presented by the hand.
  • the authentication control unit 13 controls biometric authentication (S16).
  • the authentication control unit 13 transmits an authentication request including the read biometric information and identification information to the authentication device 50.
  • the authentication control unit 13 transmits an authentication request including the read fingerprint image and the read passport number to the authentication device 50.
  • the authentication device 50 performs fingerprint authentication of the user in response to the authentication request, and transmits the authentication result to the information processing device 10.
  • the information processing device 10 receives the authentication result from the authentication device 50.
  • the authentication control unit 13 may display the authentication result on the output unit 14. Further, the authentication control unit 13 may control other devices or the like depending on the success of authentication. For example, when the authentication system 1 is used for immigration inspection at an airport, the authentication control unit 13 controls unlocking of a predetermined gate device depending on successful authentication. This allows the user to pass through immigration inspection.
  • the information processing device 10 first reads biometric information and then reads the object to be read, but the information processing device 10 is not limited to this.
  • the information processing device 10 may read the biological information and the object to be read at the same timing.
  • the information processing device 10 detects the hand presenting the object to be read that includes the user's identification information. Further, the information processing device 10 reads biometric information from an image of the detected hand, and reads identification information from the object to be read presented by the hand. With such a configuration, the authentication system 1 can perform biometric authentication of the user while reducing the possibility that the user and the member will come into contact with each other.
  • the information processing device 10 can determine whether the quality of the biometric information is higher than a predetermined value, and when it is determined that the quality is higher than the predetermined value, can read the identification information, thereby efficiently performing biometric authentication. It can be performed.
  • the information processing device 10 includes a guide unit 18 that guides the hand and the object to be read so that biometric information can be read from the hand and identification information can be read from the object. It is possible to notify the user of the appropriate positions of the hand and the object to be read.
  • the passport number is used as an example of the identification information, but the identification information is not limited to this.
  • the identification information may be the stored biometric information.
  • the authentication control unit 13 verifies the biometric information stored in the object to be read and the biometric information read by the biometric information reading device 30. information can be done.
  • biometric information stored in an IC chip within an object to be read is referred to as "registered biometric information.”
  • the registered biometric information is data related to the feature points of the biometric information extracted from the registered image, similar to the feature data stored in the authentication storage unit 51 of the authentication device 50 described above.
  • the authentication control unit 13 compares the feature data extracted from the image of the biometric information read by the biometric information reading device 30 and the biometric information registered in the IC chip. The authentication control unit 13 determines that the authentication is successful when the feature data and the registered biometric information match. On the other hand, if the user's biometric information and the registered biometric information do not match, the authentication control unit 13 determines that the authentication has failed.
  • the authentication control unit 13 determines whether biometric information is stored in the object to be read, and depending on the determination result, performs the process of the second embodiment described above or the process of this modification. , may be determined. In that case, if biometric information is stored in the object to be read, the authentication control unit 13 performs processing as in this modification.
  • the processing of this modification may be performed by the information processing device 10, or may be performed by the authentication device 50 as in the second embodiment described above.
  • Embodiment 3 is different from Embodiment 2 described above in the aspect of the guide portion 18. Since the configuration other than the guide portion 18 is the same as that of the second embodiment, a description of the overlapping contents will be omitted.
  • FIG. 9 is a diagram illustrating the configuration of the guide portion G1.
  • the guide portion G1 is an example of the guide portion 18 described above. As shown in the figure, the guide portion G1 is provided on the mounting table 5.
  • the guide portion G1 is configured using a finger guide member G1a having a shape corresponding to the shape of a finger.
  • the finger guide member G1a connects the hand and the object to be read so that the biometric information reading device 30 can read the biological information from the hand and the identification information reading device 40 can read the identification information from the object. to guide you.
  • the finger guide member G1a has an insertion opening for inserting the object to be read.
  • the insertion port is provided, for example, so that the object to be read is inserted from the lower side (y-axis negative direction side) to the upper side (y-axis positive direction side) in FIG.
  • the finger guide member G1a may be constructed using, for example, acrylic, glass, polycarbonate, or the like.
  • the finger guide member G1a may be, for example, a plate-shaped member.
  • the finger guide member G1a is made of a transparent material, so that the user can visually recognize the inserted object to be read.
  • the finger guide member G1a does not need to be made of a transparent material, and may be made of a material other than the above-mentioned materials.
  • the finger guide member G1a can be created by molding these materials into a shape that corresponds to the shape of the user's finger.
  • the finger guide member G1a can be created by cutting out a material into the shape.
  • the finger guide member G1a may be shaped to correspond to the shape of four fingers, for example.
  • the present invention is not limited to this, and the finger guide member G1a may be shaped to correspond to the shape of one to three fingers, or five fingers.
  • the finger guide member G1a may be formed into another shape that allows the user to grasp the guiding position of the finger.
  • the finger guide member G1a may have a finger-shaped portion having an arc shape.
  • the finger guide member G1a is provided so that at least a part of the area overlaps the reading surface of the identification information reading device 40.
  • FIG. 10 is a diagram showing an example in which the user presents an object to be read using the guide section G1.
  • FIG. 10 shows a state in which the user inserts the object P to be read into the finger guide member G1a and places the hand H on the object P to be read.
  • the object to be read P is, for example, a passport.
  • the user inserts the object to be read P into the insertion slot and positions his/her hand H so that the position of his/her finger matches the position of the finger guided by the finger guide member G1a.
  • the posture of the hand H is not limited to the illustrated state. The hand H can be changed as appropriate depending on the position of the biometric information reading device 30 and the like.
  • the user may place the hand H on the object P to be read, or may raise the hand H above the object P to be read.
  • the illustration shows the palm facing down, the palm may also face up.
  • the figure shows an example in which the hand presenting the object to be read P is the left hand, the hand may be the right hand.
  • the biometric information reading device 30 can be set in advance so that when the user places a finger, the focus is on the finger.
  • the biological information reading device 30 may be provided with an autofocus function to automatically focus.
  • the finger touches the object P to be read. Therefore, the user can present his hand and the object to be read P without bringing his fingers into contact with the finger guide member G1a or the mounting table 5.
  • the guide unit G1 is in a state where it is capable of reading biometric information from the user's hand and reading identification information from the object to be read. It is possible to guide the hand and the object to be read. Furthermore, by including the guide portion G1, the information processing device 10 can guide the hand and the object to be read so that the user can more intuitively grasp the positions of the hand and the object to be read.
  • Embodiment 4 is different from Embodiment 2 described above in the aspect of the guide portion 18. Since the configuration other than the guide portion 18 is the same as that of the second embodiment, a description of the overlapping contents will be omitted.
  • FIG. 11 is a diagram illustrating the configuration of the guide portion G2.
  • the guide portion G2 is an example of the guide portion 18 described above.
  • the guide part G2 is the same as the guide part G1 described above, and further includes a finger guide member for guiding a finger different from the finger guided by the finger guide member G1a.
  • the guide portion G2 is provided on the mounting table 5.
  • the guide section G2 includes a first finger guide section G2a that guides the first finger of the hand presenting the object to be read, and a second finger guide section G2b that guides the second finger of the hand.
  • the first finger guide portion G2a is configured using the finger guide member G1a described above.
  • the second finger guide portion G2b is configured using a recess provided in the mounting table 5 into which the second finger is inserted.
  • the wall surface forming the recess and the second finger are connected to each other. It may be provided in a position and shape that does not contact.
  • the recess may be a through hole that penetrates the mounting table 5 in the thickness direction.
  • the first finger and the second finger may each include a plurality of fingers.
  • the first finger is the four fingers other than the thumb (index finger, middle finger, ring finger, little finger), and the second finger is the thumb.
  • the biometric information reading device 30 reads the fingerprints of five fingers including the thumb using the guide portion G1 of the third embodiment described above.
  • the biometric information reading device 30 acquires a fingerprint image that looks like one side of the thumb is crushed. In this case, since the thumbprint image cannot be properly acquired, there is a risk that authentication accuracy will be reduced.
  • the biometric information reading device 30 can read the biometric information of the thumb from a different angle from that of the other four fingers. can. In this way, the biometric information reading devices 30a and 30b read biometric information of different fingers, so that the information processing device 10 can appropriately acquire biometric information.
  • the biological information reading device 30 can detect the biological information of the second finger in a state where the second finger and the mounting table 5 are not in contact with each other. Can read information.
  • FIG. 12 is a diagram showing the configuration of the information processing device 10 when the guide section G2 is provided as the guide section 18. As shown in the figure, the information processing device 10 includes two biological information reading devices 30a and 30b.
  • the biometric information reading device 30a reads the biometric information of the finger guided by the first finger guide part G2a
  • the biometric information reading device 30b reads the biometric information of the finger guided by the second finger guide part G2b.
  • the biological information reading device 30 is provided below the mounting table 5 in the figure, it is the same even if it is provided above the mounting table 5.
  • the biological information reading devices 30a and 30b are shown to be parallel to the mounting table 5, but the present invention is not limited to this.
  • the biometric information reading device 30b that reads the biometric information of the thumb may be provided at an angle at which it can read the fingerprint or the like of the thumb inserted into the second finger guide portion G2b.
  • the two biometric information reading devices 30a and 30b read the biometric information of the fingers corresponding to the first finger guide part G2a and the second finger guide part G2b, respectively, but as described below, One biometric information reading device 30 may read both.
  • FIG. 13 is a diagram showing the configuration of the information processing device 10 when the biometric information reading device 30 reads biometric information at multiple locations.
  • the information processing device 10 moves the biometric information reading device 30 by including a drive mechanism for moving the biometric information reading device 30.
  • the biological information reading device 30 moves at least between a position corresponding to the first finger guide part G2a and a position corresponding to the second finger guide part G2b.
  • the biometric information reading device 30 is provided below the mounting table 5, but the same applies even if it is provided above the mounting table 5.
  • the arrow shown in FIG. 13 indicates an example of the moving direction of the biological information reading device 30.
  • the moving direction of the biological information reading device 30 is not limited to this.
  • the biological information reading device 30 may be configured to be movable in a vertical direction, a horizontal direction, or both.
  • the biometric information reading device 30 may be configured to be able to change the angle of the reading surface for reading biometric information.
  • biometric information can be read at the positions corresponding to each of the first finger guide section G2a and the second finger guide section G2b. Can be read.
  • the guide unit G2 is in a state where it is capable of reading biometric information from the user's hand and reading identification information from the object to be read. It is possible to guide the hand and the object to be read. Furthermore, by including the guide section G2, the information processing device 10 can guide the hand and the object to be read so that the user can more intuitively grasp the positions of the hand and the object to be read. Since the guide section G2 includes the first finger guide section G2a and the second finger guide section G2b, the information processing device 10 can accurately read the biometric information of the hand presenting the object to be read.
  • first finger and second finger are only an example, and therefore a combination of fingers other than the above-mentioned fingers may be used.
  • Embodiment 5 differs from Embodiment 2 in the aspect of the guide portion 18 described above. Since the configuration other than the guide portion 18 is the same as that of the second embodiment, a description of the overlapping contents will be omitted.
  • FIG. 14 is a diagram illustrating the configuration of the guide portion G3.
  • the guide portion G3 is an example of the guide portion 18 described above. As shown in the figure, the guide portion G3 is provided on the mounting table 5.
  • the guide part G3 displays the position of the area where biometric information can be read and the position of the area where identification information can be read on the mounting table 5 instead of the finger guide member provided in the guide part G1 or G2 described above. It is something.
  • the guide section G3 includes a first region guide section G3a and a second region guide section G3b.
  • the first region guide section G3a displays the position of the region where biometric information can be read on the mounting table 5.
  • the area where biometric information can be read is the biometric information reading window 31.
  • the biometric information reading window 31 is an area provided on the mounting table 5 for the biometric information reading device 30 to read biometric information.
  • the biometric information reading window 31 may be made of a transparent material such as glass, acrylic, or polycarbonate.
  • the biometric information reading window 31 may be made of other materials.
  • the biometric information reading window 31 is provided at a position where the biometric information reading device 30 can read biometric information.
  • the first region guide section G3a displays the position of the biometric information reading window 31 on the mounting table 5.
  • the first area guide section G3a displays the shape of a finger on the mounting table 5 so that the hand presenting the object to be read is placed on the biometric information reading window 31 and overlaps with the biometric information reading window 31. do.
  • the first region guide section G3a can guide the user's hand so that the hand presenting the object to be read is placed on the biometric information reading window 31.
  • the first region guide portion G3a may display a shape including not only the fingers of the hand but also the palm of the hand so that, for example, the palm is placed on the biometric information reading window 31.
  • the first region guide portion G3a may be displayed to indicate the position of the biometric information reading window 31 itself.
  • the first area guide section G3a may display the four sides of the rectangular area.
  • the second area guide section G3b displays the position of the area where the identification information of the object to be read can be read on the mounting table 5. Specifically, the second area guide section G3b displays the position of the reading surface of the identification information reading device 40 on the mounting table 5. In FIG. 14, the reading surface is shown as an identification information reading device 40.
  • the second area guide section G3b displays a rectangular area that includes the reading surface.
  • the second area guide section G3b may display auxiliary lines G3b2 for dividing the rectangular area, as shown in the figure. Thereby, the user can intuitively grasp the position where the object to be read is presented.
  • FIG. 15 is a diagram showing an example in which the user presents an object to be read using the guide section G3.
  • the user places the object to be read P on the reading surface of the identification information reading device 40 according to the second area guide part G3b, and places the hand H on the object to be read P according to the first area guide part G3a. do.
  • the information processing device 10 can perform biometric authentication without bringing the user's hand H into contact with the mounting table 5.
  • the biometric information reading device 30 reads biometric information on a finger placed above the biometric information reading window 31 .
  • the posture of the hand H is not limited to the illustrated state.
  • the hand H can be changed as appropriate depending on the position of the biometric information reading device 30 and the like.
  • the user may place the hand H on the object P to be read, or may raise the hand H from the object P to be read. Further, the user may turn the palm upward, or may present the right hand instead of the left hand.
  • the biometric information reading device 30 can be set in advance so that when the user places a finger, the focus is on the finger.
  • the biological information reading device 30 may be provided with an autofocus function to automatically focus.
  • the guide section G3 can display the first region guide section G3a and the second region guide section G3b on the mounting table 5 using various methods. For example, the guide section G3 generates projection images for projecting each of the first region guide section G3a and the second region guide section G3b onto the mounting table 5, and outputs them to the output section 14.
  • the output unit 14 outputs a projected image to the mounting table 5.
  • the user can grasp the position of the biometric information reading window 31 and the position of the reading surface of the identification information reading device 40 by visually recognizing the projected image.
  • the projected image may include an image of the above-mentioned arrow symbol, etc.
  • the user can intuitively understand that fact. Further, the user can move his hand and the object to be read to an appropriate position according to the projected arrow symbol.
  • the guide section G3 is not limited to the above, and may be configured to display the first region guide section G3a and the second region guide section G3b on the mounting table 5 using printing, tape, or the like.
  • the guide unit G3 is in a state where it is capable of reading biometric information from the user's hand and reading identification information from the object to be read. It is possible to guide the hand and the object to be read. Furthermore, by including the guide portion G3, the information processing device 10 can guide the hand and the object to be read so that the user can more intuitively grasp the positions of the hand and the object to be read.
  • the guide section G3 includes the first region guide section G3a and the second region guide section G3b, the possibility that the user's hand comes into contact with the member etc. is reduced compared to the case where the above-mentioned finger guide member etc. are provided. It can be further reduced.
  • Embodiment 6 is different from Embodiment 2 described above in the aspect of the guide portion 18. Since the configuration other than the guide portion 18 is the same as that of the second embodiment, a description of the overlapping contents will be omitted.
  • FIG. 16 is a diagram illustrating the configuration of the guide portion G4.
  • the guide portion G4 is an example of the guide portion 18 described above. As shown in the figure, the guide portion G4 is provided on the mounting table 5.
  • the guide portion G4 has a groove portion that guides the fingers of the hand that grips the object to be read, unlike the above-described embodiment.
  • the groove is configured using a first groove G4a that guides the first finger and a second groove G4b that guides the second finger.
  • the first finger and the second finger may each include a plurality of fingers.
  • the first finger is the four fingers other than the thumb (index finger, middle finger, ring finger, little finger), and the second finger is the thumb.
  • the first groove G4a and the second groove G4b are provided on the mounting table 5 so as to sandwich the reading surface of the identification information reading device 40.
  • the first groove portion G4a and the second groove portion G4b are arranged such that their longitudinal directions are parallel to the y-axis. That is, the first groove part G4a and the second groove part G4b are provided so as to extend in the vertical direction when viewed from the user.
  • first groove portion G4a and the second groove portion G4b may be arranged parallel to the x-axis. That is, the first groove part G4a and the second groove part G4b may be provided so as to extend in the lateral direction when viewed from the user. Further, the first groove portion G4a and the second groove portion G4b may each have an angle with the x-axis or the y-axis so that the user can easily present the object to be read.
  • the user presents the object to be read by holding it over the reading surface of the identification information reading device 40 while holding the object to be read. At this time, a part of the hand presenting the object to be read enters the first groove G4a, and a part enters the second groove G4b. Note that there may be a finger that does not enter either the first groove portion G4a or the second groove portion G4b.
  • the biological information reading device 30 reads the biological information of the hand that has entered the first groove G4a or the second groove G4b. Further, the identification information reading device 40 reads identification information from the object to be read presented by the hand.
  • the first groove G4a and the second groove G4b are such that when the user enters the first finger into the first groove G4a and the second finger into the second groove G4b, the first finger and the second finger are , may be provided in a position and shape that does not contact the wall surfaces forming the respective grooves.
  • the first groove portion G4a and the second groove portion G4b may be through holes that penetrate the mounting table 5 in the thickness direction.
  • first groove portion G4a and the second groove portion G4b may be arranged such that the distance d between the first groove portion G4a and the second groove portion G4b is smaller than the width of the object to be read.
  • the object to be read is an information terminal such as a smartphone
  • the first groove portion G4a and the second groove portion G4b may be arranged such that the distance d is smaller than the average width of the smartphone. By doing so, the user can easily take out the object to be read after reading the hand and the object to be read.
  • the positions and shapes of the first groove portion G4a and the second groove portion G4b are not limited to those described above, and may be changed as appropriate.
  • FIG. 17 is a diagram showing an example in which the user presents the object to be read T using the guide section G4.
  • the object to be read T is, for example, an information terminal such as a smartphone.
  • the object to be read T may be a passport or the like.
  • the user While holding the object to be read T in hand H, the user moves the object to be read T close to the reading surface of the identification information reading device 40 according to the guide section G4. For example, the user places the object to be read T that he/she is holding onto the reading surface of the identification information reading device 40 . Alternatively, the user may bring the object T to be read close to the reading surface in a floating state and hold the object T to be read over the reading surface. While holding the object to be read T, the user enters the first finger into the first groove G4a and the second finger into the second groove G4b.
  • FIG. 18 is a diagram showing the information processing device 10 in the state shown in FIG. 17 as viewed from the user side (y-axis negative direction side). As shown in FIG. 18, when the user places the object T to be read on the reading surface of the identification information reading device 40, the biometric information reading device 30a and 30b is provided.
  • the biological information reading device 30a reads the biological information of the first finger that has entered the first groove G4a
  • the biological information reading device 30b reads the biological information of the second finger that has entered the second groove G4b.
  • the biometric information reading devices 30a and 30b read biometric information by photographing a finger that has entered the first groove G4a or the second groove G4b from the palm side of the user toward the finger side.
  • the identification information reading device 40 reads identification information from the object to be read T placed on the reading surface.
  • biometric information reading device 30 can be moved to multiple reading positions. You can also read it using . In that case, the biological information reading device 30 reads the biological information of the fingers that have entered the first groove G4a and the second groove G4b, respectively.
  • the posture of the hand H is not limited to the illustrated state.
  • the hand H can be changed as appropriate depending on the position of the biometric information reading device 30 and the like.
  • the user may hold the object T to be read with the right hand instead of the left hand and present the object T to be read.
  • the biometric information reading devices 30a and 30b may be set in advance so that when the user places a finger, the focus is on the finger.
  • the biometric information reading devices 30a and 30b may be configured to automatically focus.
  • the guide unit G4 is in a state where it is capable of reading biometric information from the user's hand and reading identification information from the object to be read. It is possible to guide the hand and the object to be read. Furthermore, by including the guide portion G4, the information processing device 10 can guide the user's hand and the object to be read while the user is holding the object to be read. Thereby, the authentication system 1 can perform biometric authentication of the user more efficiently.
  • the information processing device 10 may have a guide section 18 that combines the second embodiment and any of the third to sixth embodiments.
  • the information processing device 10 uses the guide members as described in Embodiments 3 to 6, as well as characters, sounds, or guidance images as described in Embodiment 2, to connect the user's hand and the object to be read. You may also guide them.
  • Each functional component of the information processing device 10 and the authentication device 50 according to this disclosure may be realized by hardware (e.g., a hardwired electronic circuit) that implements each functional component, or may be implemented by hardware and hardware. It may also be realized in combination with software (eg, a combination of an electronic circuit and a program that controls it).
  • hardware e.g., a hardwired electronic circuit
  • software e.g, a combination of an electronic circuit and a program that controls it.
  • FIG. 19 is a block diagram illustrating the hardware configuration of a computer 900 that implements the information processing device 10 and the like.
  • the computer 900 may be a dedicated computer designed to implement the information processing device 10 or the like, or may be a general-purpose computer.
  • Computer 900 may be a portable computer such as a smartphone or a tablet terminal.
  • each function of the information processing device 10 and the like is realized on the computer 900.
  • the above-mentioned application is composed of a program for realizing a functional component of the information processing device 10 and the like.
  • Computer 900 has a bus 902, a processor 904, a memory 906, a storage device 908, an input/output interface 910, and a network interface 912.
  • the bus 902 is a data transmission path through which the processor 904, memory 906, storage device 908, input/output interface 910, and network interface 912 exchange data with each other.
  • the method of connecting the processors 904 and the like to each other is not limited to bus connection.
  • the processor 904 is a variety of processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array).
  • the memory 906 is a main storage device implemented using RAM (Random Access Memory) or the like.
  • the storage device 908 is an auxiliary storage device implemented using a hard disk, SSD (Solid State Drive), memory card, ROM (Read Only Memory), or the like.
  • the input/output interface 910 is an interface for connecting the computer 900 and an input/output device.
  • an input device such as a keyboard and an output device such as a display device are connected to the input/output interface 910.
  • the network interface 912 is an interface for connecting the computer 900 to a network.
  • This network may be a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the storage device 908 stores programs that implement each functional component of the information processing device 10 and the like (programs that implement the aforementioned applications).
  • the processor 904 implements each functional component of the information processing device 10 and the like by reading this program into the memory 906 and executing it.
  • Each of the processors executes one or more programs containing instructions for causing a computer to perform the algorithms described in the drawings.
  • This program includes instructions (or software code) that, when loaded into a computer, cause the computer to perform one or more of the functions described in the embodiments.
  • the programs may be stored on various types of non-transitory computer readable medium or tangible storage medium.
  • non-transitory computer-readable or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drive (SSD), or other Memory technology, including CD-ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage.
  • non-transitory computer-readable media or tangible storage media include magnetic cassettes, magnetic tape, magnetic disk storage, or other magnetic storage devices.
  • the program may be transmitted on various types of transitory computer readable medium or communication media.
  • transitory computer-readable or communication media includes electrical, optical, acoustic, or other forms of propagating signals.
  • Additional note 1 a detection unit that detects a hand presenting an object to be read that includes user identification information;
  • An information processing device comprising: a reading unit that reads biological information from an image of the detected hand and reads the identification information from the object to be read presented by the hand.
  • the information processing device according to supplementary note 1, wherein the reading unit determines whether the quality of the biometric information is equal to or higher than a predetermined value, and reads the identification information when determining that the quality is equal to or higher than the predetermined value.
  • the information processing device according to any one of the above.
  • the guide unit is configured using a finger guide member having a shape corresponding to the shape of a finger, and guides the finger of the hand that presents the object to be read on a predetermined mounting table. Information processing device.
  • the guide part is a first finger guide portion that guides a first finger of the hand; a second finger guide portion that guides the second finger of the hand;
  • the first finger guide section is configured using the finger guide member,
  • the information processing device according to appendix 8 wherein the second finger guide section is configured using a recess provided in the placement table into which the second finger is inserted.
  • the guide unit displays the position of the area where the biometric information can be read and the position of the area where the identification information can be read on a predetermined mounting table, respectively.
  • Information processing device (Appendix 11) The information processing device according to any one of Supplementary Notes 6 to 10, wherein the guide portion has a groove portion that guides fingers of the hand that grips the object to be read.
  • the information processing device according to any one of Supplementary Notes 1 to 11, further comprising an authentication control unit that controls biometric authentication of the user using the biometric information and the identification information.
  • the information processing device includes: a detection unit that detects a hand presenting an object to be read that includes user identification information; a reading unit that reads biological information from an image taken of the detected hand and reads the identification information from the object to be read presented by the hand;
  • the authentication device includes: An authentication system that acquires the biometric information and the identification information from the information processing device and performs biometric authentication of the user based on the biometric information and the identification information.
  • the authentication system according to appendix 13, wherein the reading unit determines whether the quality of the biometric information is equal to or higher than a predetermined value, and reads the identification information when determining that the quality is equal to or higher than the predetermined value.
  • the computer is a detection step of detecting a hand presenting an object to be read that includes identification information of the user;
  • An information processing method comprising: reading biological information from an image of the detected hand, and reading identification information from the object to be read presented by the hand.
  • Appendix 16 The information processing method according to appendix 15, wherein in the reading step, it is determined whether the quality of the biometric information is equal to or higher than a predetermined value, and when it is determined that the quality is equal to or higher than the predetermined value, the identification information is read.
  • Appendix 17 a detection step of detecting a hand presenting an object to be read that includes identification information of the user; A program that causes a computer to execute a reading step of reading biometric information from an image taken of the detected hand and reading the identification information from the object to be read presented by the hand.
  • Appendix 18 The program according to appendix 17, wherein in the reading step, it is determined whether the quality of the biometric information is equal to or higher than a predetermined value, and when it is determined that the quality is equal to or higher than the predetermined value, the identification information is read.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

ユーザの認証において、ユーザと部材とが接触する可能性を低減させることが可能な情報処理装置を提供する。情報処理装置(100)は、ユーザの識別情報を含む読取対象物を提示する手を検出する検出部(101)と、検出された手を撮影した画像から生体情報を読み取るとともに、手が提示する読取対象物から識別情報を読み取る読取部(102)と、を備える。

Description

情報処理装置、認証システム、情報処理方法及び非一時的なコンピュータ可読媒体
 この開示は、情報処理装置、認証システム、情報処理方法及びプログラムに関する。
 出入国審査等において、パスポートに登録された生体情報を読み取り、審査対象であるユーザの生体情報と照合することで生体認証を行う技術が知られている。
 関連する技術として、例えば、特許文献1は、指紋を入力するための第1の入力手段と、第1の入力手段を用いて入力される指紋を個人認証用媒体に無色でプリントするプリント手段と、を備える個人認証システム装置を開示する。
 特許文献1が開示する装置は、パスポートがバーコード読取部にセットされると、パスポートの顔写真上にプリントされている無色のバーコードを読み取る。また、対象者の指が基板に押し付けられると、対象者の指紋を読み取る。当該装置は、パスポートから読み取られたバーコードの内容と、対象者から読み取られた実際の指紋のパタンと、を照合することで対象者の認証を行う。
特開平10-208054号公報
 上述のような装置を用いて指紋認証を行う場合、ユーザは、指紋の読取りのために基板に指を押し付ける必要がある。しかしながら、近年、感染症の拡大防止の観点から、ユーザがこのような部材等に触れることなく、認証を行うことが求められている。特許文献1が開示する技術では、認証においてユーザが所定の部材に接触する必要があるという問題があった。
 この開示の目的は、上述した課題を鑑み、ユーザの認証において、ユーザと部材とが接触する可能性を低減させることが可能な情報処理装置、認証システム、情報処理方法及びプログラムを提供することにある。
 この開示にかかる情報処理装置は、
 ユーザの識別情報を含む読取対象物を提示する手を検出する検出部と、
 検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取部と、を備えるものである。
 この開示にかかる認証システムは、
 情報処理装置と、
 認証装置と、を備え、
 前記情報処理装置は、
 ユーザの識別情報を含む読取対象物を提示する手を検出する検出部と、
 検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取部と、を有し、
 前記認証装置は、
 前記情報処理装置から前記生体情報及び前記識別情報を取得し、前記生体情報及び前記識別情報に基づいて、前記ユーザの生体認証を行うものである。
 この開示にかかる情報処理方法は、
 コンピュータが、
 ユーザの識別情報を含む読取対象物を提示する手を検出する検出ステップと、
 検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取ステップと、を実行するものである。
 この開示にかかるプログラムは、
 ユーザの識別情報を含む読取対象物を提示する手を検出する検出ステップと、
 検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取ステップと、をコンピュータに実行させるものである。
実施形態1にかかる情報処理装置の構成を示すブロック図である。 実施形態1にかかる情報処理装置が行う処理を示すフローチャートである。 実施形態2にかかる認証システムの構成を示すブロック図である。 実施形態2にかかる認証装置の構成を示すブロック図である。 実施形態2にかかる情報処理装置の構成を示すブロック図である。 実施形態2にかかる情報処理装置の使用例を示す第1の図である。 実施形態2にかかる情報処理装置の使用例を示す第2の図である。 実施形態2にかかる情報処理装置が行う処理を示すフローチャートである。 実施形態3にかかるガイド部の構成を説明する図である。 実施形態3にかかるガイド部を用いて読取対象物を提示する例を示す図である。 実施形態4にかかるガイド部の構成を説明する図である。 実施形態4にかかる情報処理装置の構成を示す図である。 実施形態4にかかる生体情報読取装置が複数箇所において生体情報を読み取る場合の情報処理装置の構成を示す図である。 実施形態5にかかるガイド部の構成を説明する図である。 実施形態5にかかるガイド部を用いて読取対象物を提示する例を示す図である。 実施形態6にかかるガイド部の構成を説明する図である。 実施形態6にかかるガイド部を用いて読取対象物を提示する例を示す図である。 図17に示される状態を、ユーザ側から見た情報処理装置を示す図である。 情報処理装置等を実現するコンピュータのハードウエア構成を例示するブロック図である。
 以下では、この開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されている。説明の明確化のため、必要に応じて重複説明は省略される。
<実施形態1>
 まず、図1を参照して、実施形態1について説明する。図1は、本実施形態にかかる情報処理装置100の構成を示すブロック図である。情報処理装置100は、検出部101及び読取部102を備えている。
 検出部101は、ユーザの識別情報を含む読取対象物を提示する手を検出する。読取部102は、検出部101で検出された手を撮影した画像から生体情報を読み取るとともに、当該手が提示する読取対象物から識別情報を読み取る。
 続いて、図2を参照して、本実施形態にかかる情報処理装置100が行う処理を説明する。図2は、情報処理装置100が行う処理を示すフローチャートである。
 まず、検出部101は、ユーザの識別情報を含む読取対象物を提示する手を検出する(S101)。次に、読取部102は、検出部101で検出された手を撮影した画像から生体情報を読み取るとともに、当該手が提示する読取対象物から識別情報を読み取る(S102)。読取部102は、生体情報と識別情報とを同じタイミングで読み取ってもよいし、それぞれ異なるタイミングで読み取ってもよい。
 このような構成を備えることで、本実施形態にかかる情報処理装置100によれば、ユーザの認証において、ユーザと部材とが接触する可能性を低減させることができる。
<実施形態2>
 続いて、実施形態2について説明する。実施形態2は、上述した実施形態1の具体例である。
(認証システム1の構成及び概要)
 図3を参照して、本実施形態にかかる認証システム1について説明する。図3は、認証システム1の構成を示すブロック図である。図3に示されるように、認証システム1は、情報処理装置10及び認証装置50を備えている。情報処理装置10及び認証装置50は、ネットワークNを介して接続されている。ネットワークNは、有線又は無線の通信回線である。
 認証システム1は、生体認証の対象者であるユーザから得られた生体情報を用いて、ユーザの生体認証を行うための情報処理システムである。認証システム1は、例えば、空港、ATM、ビル、駅、店舗、病院、又は公共施設などにおいて用いられるが、これらに限られない。
 生体情報としては、例えば、指紋形状パタン、静脈形状パタン、又はその組み合わせなどが用いられ得る。これらに限らず、生体情報として、ユーザに固有の身体的特徴を示す特徴量を計算可能な種々の情報が用いられてよい。これらに限らず、生体情報は、読取対象物を提示する手とともに読取可能な種々の生体情報であってよい。
 認証システム1では、情報処理装置10において、ユーザの識別情報を含む読取対象物を提示する手を検出する。また、情報処理装置10は、検出された手を撮影した画像から生体情報を読み取るとともに、手が提示する読取対象物から識別情報を読み取る。
 識別情報は、ユーザを一意に特定するための情報である。識別情報は、例えば、アルファベットや数字などで構成される文字列などであってよい。識別情報は、例えば、パスポート(旅券)に記載された旅券番号である。また、識別情報は、ユーザの生体情報であってもよい。例えば、パスポートに内蔵されたICチップに、指紋認証に用いるための指紋画像が記憶されている場合、当該指紋画像を識別情報として用いることができる。
 識別情報は、複数の情報の組合せであってもよい。例えば、ユーザの氏名、生年月日、住所、生体情報などの情報のうち、複数を組み合わせた情報が識別情報として用いられてもよい。識別情報は、印字等により読取対象物に記載されていてもよいし、読取対象物に内蔵されたICチップ等に記憶されていてもよい。
 読取対象物は、識別情報を含む物品であり得る。読取対象物は、例えば、識別情報が記載された文書であってよい。読取対象物は、例えば、パスポート、難民旅行証明書、運転免許証、健康保険被保険者証、又はマイナンバーカードなどを含み得る。これら以外の身分証明書等が読取対象物として用いられてもよい。
 読取対象物は、識別情報が記憶されたICチップを内蔵する文書等であってもよい。また、読取対象物は、識別情報を記憶する情報端末であってもよい。情報端末は、例えば、ユーザが所有するスマートフォン、携帯電話端末、又はタブレット端末などであり得る。情報端末は、スマートウォッチなどのウェアラブル端末であってもよい。これらは一例であるので、読取対象物は、上記以外の種々の媒体であってもよい。
 例えば、認証システム1が、空港における出入国審査において用いられるとする。読取対象物は、出入国審査を通過するためにユーザが提示するパスポートなどである。認証システム1は、情報処理装置10において、読取対象物を提示するユーザの手を検出し、検出された手から生体情報を読み取る。また、情報処理装置10は、ユーザの手が提示する読取対象物から識別情報を読み取る。
 情報処理装置10は、読み取った生体情報と識別情報とを用いて、ユーザの生体認証を制御する。具体的には、情報処理装置10は、生体情報と識別情報とを含む認証要求を認証装置50に送信する。認証装置50は、情報処理装置10からの認証要求に応じて認証を行い、認証結果を情報処理装置10に送信する。情報処理装置10は、認証装置50から認証結果を受信する。
 情報処理装置10は、認証成功に応じて、空港に設けられた所定のゲート装置の解錠を指示する。これにより、認証に成功したユーザは、出入国審査を通過することができる。
(認証装置50の構成)
 続いて、図4を参照して、認証装置50の構成について説明する。図4は、認証装置50の構成を示すブロック図である。認証装置50は、情報処理装置10からの認証要求に応じてユーザの生体認証を行うコンピュータである。
 認証装置50は、情報処理装置10からユーザの生体情報及び識別情報を取得し、取得した生体情報及び識別情報に基づいてユーザの生体認証を行う。認証装置50は、例えば、情報処理装置10からユーザの生体情報にかかる画像を受け取り、受け取った画像から所定の特徴画像を抽出することにより人物を認証する。特徴画像は、例えば指紋パタン画像である。認証装置50は、認証結果を情報処理装置10に送信する。
 認証装置50は主な構成として、認証記憶部51、特徴画像抽出部52、特徴点抽出部53、登録部54、及び認証部55を備えている。
 認証記憶部51は、予め登録された人物に関する人物ID、この人物の特徴データ、及び、この人物の識別情報データを対応付けて記憶している。識別情報データは、例えば、パスポートに記載された旅券番号である。
 特徴画像抽出部52は、ユーザの生体情報にかかる画像に含まれる特徴領域を検出し、特徴点抽出部53に出力する。特徴点抽出部53は、特徴画像抽出部52が検出した特徴領域から特徴点を抽出し、登録部54に特徴点にかかるデータを出力する。特徴点にかかるデータは、抽出した特徴点の集合である。
 登録部54は、特徴データ及び識別情報データの登録に際して、人物IDを新規に発行する。登録部54は、発行した人物IDと、登録画像から抽出した特徴データと、当該人物の識別情報データと、を対応付けて認証記憶部51に登録する。
 認証部55は、ユーザの生体情報にかかる画像から抽出された特徴データと、認証記憶部51内の特徴データと、の照合を行う。また認証部55は、情報処理装置10から取得したユーザの識別情報と、認証記憶部51内の識別情報データと、の照合を行う。認証部55は、ユーザの生体情報と一致する特徴データが存在し、かつ、ユーザの識別情報と識別情報データとが一致している場合、認証が成功したと判定する。
 一方、認証部55は、当該条件を満たさない場合には、認証が失敗したと判定する。例えば、認証部55は、ユーザの生体情報と一致する特徴データが存在しない場合、認証が失敗したと判定する。また、認証部55は、ユーザの生体情報と一致する特徴データが存在するが、識別情報と識別情報データとが一致しない場合、認証が失敗したと判定する。
 認証部55は、認証の成否に関する情報を情報処理装置10に送信する。また、認証部55は、認証に成功した場合、成功した特徴データ及び識別情報データに対応付けられた人物IDを特定し、特定した人物IDを含む認証結果を情報処理装置10に通知する。
(情報処理装置10の構成)
 続いて、図5を参照して、情報処理装置10の構成について説明する。図5は、情報処理装置10の構成を示すブロック図である。情報処理装置10は、上述した情報処理装置100の一例である。情報処理装置10は、本実施形態にかかる情報処理を行うためのコンピュータである。
 情報処理装置10は、検出部11、読取制御部12、認証制御部13、出力部14、記憶部15、ガイド部18、検出センサ20、生体情報読取装置30、及び識別情報読取装置40を備えている。
 検出部11は、上述した検出部101の一例である。検出部11は、ユーザの識別情報を含む読取対象物を提示するユーザの手を検出する。具体的には、検出部11は、検出センサ20で取得されたデータに基づいて、当該手を検出する。検出センサ20は、例えば、カメラ、測距センサ、又は圧力センサなどを含み得る。
 検出センサ20がカメラである場合、検出部11は、所定の載置台に読取対象物を提示している手を撮影した画像から、読取対象物を提示するユーザの手を検出する。所定の載置台は、例えば、空港で出入国審査を行う空間に設けられた台である。検出部11は、検出センサ20から撮影画像を取得し、撮影画像から、読取対象物を提示するユーザの手を検出する。検出部11は、周知の画像認識技術を用いて、読取対象物を提示するユーザの手を検出し得る。
 また、検出センサ20が測距センサである場合、検出部11は、測距センサから取得した測距データに基づいて、所定の載置台に読取対象物を提示しているユーザの手を検出する。例えば、検出部11は、載置台に物品などが載置されていない状態における検出対象領域の測距データと、検出センサ20で取得された測距データと、の差分を求める。検出部11は、当該差分を用いて、検出対象領域に存在する凹凸を検出することで、読取対象物を提示するユーザの手を検出する。例えば、検出部11は、載置台の所定範囲内に、所定以上の凹凸が発生している場合、載置台に読取対象物を提示しているユーザの手を検出する。
 そして、検出センサ20が圧力センサである場合、検出部11は、所定の載置台に設けられた圧力センサから取得した圧力データに基づいて、読取対象物を提示している手を検出する。例えば、検出部11は、載置台に加わる圧力が所定の閾値以上であるか否かを判定し、判定結果に応じて、読取対象物を提示するユーザの手を検出する。検出部11は、載置台に加わる圧力が所定の閾値以上である場合はユーザの手を検出し、閾値未満である場合はユーザの手を検出しない。
 上述した検出方法は一例であるので、検出部11は、他の種々の方法を用いて、読取対象物を提示するユーザの手を検出してもよい。
 読取制御部12は、上述した読取部102の一例である。読取制御部12は、生体情報読取装置30及び識別情報読取装置40を制御する。読取制御部12は、検出部11で検出された手を撮影した画像から生体情報を読み取るとともに、当該手が提示する読取対象物から識別情報を読み取るように、生体情報読取装置30及び識別情報読取装置40を制御する。
 読取制御部12は、生体情報及び識別情報を同じタイミングで読み取るように、生体情報読取装置30及び識別情報読取装置40をそれぞれ制御してもよい。また読取制御部12は、生体情報及び識別情報を異なるタイミングで読み取るように、生体情報読取装置30及び識別情報読取装置40をそれぞれ制御してもよい。
 読取制御部12が、生体情報及び識別情報を異なるタイミングで読み取るように、生体情報読取装置30及び識別情報読取装置40をそれぞれ制御する例を説明する。例えば、読取制御部12は、まず、生体情報読取装置30に生体情報を読み取らせることで生体情報を取得する。続いて、読取制御部12は、生体情報の品質が所定以上であるか否かを判定し、判定結果に応じて、識別情報読取装置40に識別情報を読み取らせる。読取制御部12は、生体情報の品質が所定以上であると判定した場合に識別情報を読み取らせ、所定未満の場合は識別情報を読み取らせない。
 生体情報を読み取らせない場合、読取制御部12は、生体情報を再度読み取ることをユーザに報知するなどしてもよい。また読取制御部12は、生体情報の品質が向上するように、手の姿勢などを変更するようにユーザに報知してもよい。
 ここで、生体情報の品質は、当該生体情報が生体認証に適した状態にあるか否かを示すものである。例えば、生体情報の品質が高いほど、当該生体情報が生体認証に適しており、生体情報の品質が低いほど、当該生体情報が生体認証に適していないことを示している。
 例えば、生体情報として、ユーザの指紋を撮影した指紋画像を用いるとする。指紋画像の品質は、例えば、周知の指標を用いた品質値を計算することで特定され得る。指紋画像の品質の指標としては、例えば、米国国立標準技術研究所(National Institute of Standards and Technology、NIST)によるNIST指紋画像品質(NIST Fingerprint Image Quality、NFIQ)が知られている。
 読取制御部12は、NFIQなどを指標として用いて指紋画像の品質値を計算し、計算結果に基づいて、品質値を計算し得る。読取制御部12は、他の指標を用いて品質値を計算してもよい。
 また、読取制御部12は、人が指紋画像の品質を目視により判定した結果を受け付けて、品質値を計算してもよい。例えば、読取制御部12は、認証システム1の管理者等が目視で判定した結果を、図示しない入力部から受け付けて、当該結果を品質値としてもよい。品質値は、例えば、「OK」又は「NG」などの2値で表されてもよいし、多段階で表されてもよい。
 認証制御部13は、読み取られた生体情報と識別情報とを用いて、ユーザの生体認証を制御する。具体的には、認証制御部13は、生体情報と識別情報とを含む認証要求を認証装置50に送信する。認証制御部13は、認証結果を認証装置50から受信する。
 出力部14は、所定の情報を出力するための出力装置である。出力部14は、例えば、ガイド部18で生成された案内情報を出力する。出力部14は、例えば、ディスプレイ、スピーカ、ランプ、又はバイブレータなどであってよい。また、ガイド部18は、案内情報を載置台などに投影するためのプロジェクタなどであってもよい。
 記憶部15は、情報処理装置10の各機能を実現するためのプログラムを格納する記憶装置である。また、記憶部15は、ガイド部18で生成された案内情報を記憶する。
 ガイド部18は、手から生体情報を読取可能であり、且つ、読取対象物から識別情報を読取可能である状態に、手と読取対象物とを案内する。例えば、ガイド部18は、手から生体情報を読取可能であり、且つ、読取対象物から識別情報を読取可能である状態に、手と読取対象物とを案内するための案内情報を生成する。ガイド部18は、案内情報を出力部14に出力し、出力部14において案内情報を出力させる。ガイド部18は、案内情報を記憶部15に記憶してもよい。
 案内情報は、例えば、文字、画像、音声、又は振動などを用いて、手と読取対象物とを案内するための情報である。案内情報は、例えば、「載置台にパスポートを置き、パスポートの上に手を載せてください。」などの音声メッセージを出力させるための音声情報である。
 案内情報は、手と読取対象物との位置関係を指示するための情報を含み得る。例えば、案内情報は、「載置台にパスポートを置き、パスポートと指が重ならないように、パスポートの上に手を載せてください。」などの音声メッセージであってもよい。ガイド部18は、このような音声メッセージを生成し、出力部14に出力させる。これにより、ユーザは、案内情報に従い、手及び読取対象物の位置を変更することができる。
 案内情報は、このようなメッセージを文字や画像を用いて表示させるための情報であってもよい。例えば、案内情報は、このようなメッセージをプロジェクタなどの投影装置で載置台に投影するための情報であってもよい。
 また案内情報は、手から生体情報を読取可能であり、且つ、読取対象物から識別情報を読取可能である状態に、手及び読取対象物を誘導するための誘導画像であってもよい。誘導画像は、手及び読取対象物をそれぞれ所定の位置へ誘導するための矢印記号などの画像を含み得る。ユーザは、案内情報を視認することで、上記の状態となる所定の位置へ、手及び読取対象物を移動させることができる。
 検出センサ20は、読取対象物を提示しているユーザの手を検出するためのセンサである。検出センサ20は、例えば、カメラ、測距センサ、又は圧力センサなどであってよい。
 例えば、検出センサ20がカメラであるとする。検出センサ20は、所定の載置台に読取対象物を提示している手を含む領域を撮影する。検出センサ20は、撮影により取得された撮影画像を検出部11に出力する。撮影に用いられる光は、可視光であってもよいし、可視光以外の光(例えば、赤外光)であってもよい。
 また、検出センサ20が測距センサであるとする。検出センサ20は、例えば、ToF(Time of Flight)センサである。検出センサ20は、所定の載置台に読取対象物を提示している手を含む領域を撮影する。具体的には、検出センサ20は、赤外領域のLD(LD:Laser Diode)光を、被写体に向けて照射し、被写体で反射されたLD光を赤外光用の撮像素子で受光する。検出センサ20は、照射から受光までの時間差を画素ごとに検出することで、被写体と検出センサ20との距離を算出する。検出センサ20は、算出した被写体との距離を画素ごとに測定する。検出センサ20は、測定結果を測距データとして検出部11に出力する。
 なお、検出センサ20は、ToFセンサに限らず、検出センサ20と被写体との間の距離を検出可能な種々のセンサが用いられてよい。
 そして、検出センサ20が圧力センサであるとする。検出センサ20は、所定の載置台に設けられており、当該載置台に加わる圧力を検出する。検出センサ20は、出力値を圧力データとして検出部11に出力する。検出センサ20は、載置台に複数設けられてもよい。
 上述したカメラ、測距センサ、及び圧力センサは検出センサ20の例は一例であるので、他のセンサが検出センサ20として用いられてもよい。
 生体情報読取装置30は、読取制御部12の制御に従い、検出部11において検出された手を撮影した画像から生体情報を読み取る。
 生体情報読取装置30は、例えば、OCT(オプティカル・コヒーレンス・トモグラフィ、Optical Coherence Tomography)の技術を用いて、観測対象の表面又は内部のパタン画像を取得するOCT装置であってよい。生体情報読取装置30は、光ビームを観測対象に照射した際に、観測対象の内部からの散乱光と、参照光との干渉を利用して、観測対象の表面又は内部のパタン画像を取得する。観測対象は、例えばユーザの指である。生体情報読取装置30は、例えば、ユーザの指の表皮又は真皮の指紋パタンを示す指紋画像を取得する。
 生体情報読取装置30は、所定の載置台の上方又は下方に設けられ得る。例えば、生体情報読取装置30が載置台の上方に設けられる場合、ユーザは、手のひらを上に向ける。また、生体情報読取装置30が載置台の下方に設けられる場合、ユーザは、手のひらを下に向ける。これにより、生体情報読取装置30は、ユーザの生体情報を読み取ることができる。
 また、OCT装置を用いることで、生体情報読取装置30は、読取対象物越しに指紋を読み取ることができる。例えば、生体情報読取装置30が載置台の下方に設けられているとする。また、ユーザは、読取対象物の上に、読取対象物と重なるように手を載せたとする。この場合、手と生体情報読取装置30との間には読取対象物が存在することとなるが、生体情報読取装置30は、載置台の下方から、読取対象物越しに指紋を読み取ることができる。よって、生体情報読取装置30は、ユーザが載置台に触れない状態で、指紋を読み取ることができる。
 また、OCT装置を用いることで、載置台の上に紙やフィルムのようなシート部材を載置し、その上に読取対象物を載置するように情報処理装置10を構成することもできる。これにより、ユーザの手又は読取対象物と、載置台等と、を接触させないようにすることができる。シート部材は、OCT装置で用いられる光を透過させることが可能な所定の薄さで成形され得る。
 また、読取対象物(例えば、パスポート)のケースを透明化することで、生体情報読取装置30は、精度よく生体情報を読み取ることができる。
 なお、生体情報読取装置30は、OCT装置に限られない。例えば、生体情報読取装置30は、読取対象物を提示する手を撮影するカメラなどであってもよい。この場合、生体情報読取装置30は、撮影画像からユーザの指領域を検出し、指領域からユーザの指紋パタンを読み取る。生体情報読取装置30は、例えば、3次元の指紋画像を読み取り可能な3D指紋スキャナなどであってもよい。生体情報読取装置30は、指の撮影に可視光を用いてもよいし、可視光以外の光(例えば、赤外光)を用いてもよい。
 識別情報読取装置40は、読取制御部12の制御に従い、検出部11において検出された手が提示する読取対象物からユーザの識別情報を読み取る。識別情報読取装置40は、所定の載置台に設けられ得る。識別情報は、例えばパスポートの旅券番号である。識別情報は、印字等により読取対象物に記載されていてもよいし、読取対象物に内蔵されたICチップ等に記憶されていてもよい。
 識別情報読取装置40は、例えば撮像素子を含むスキャナである。この場合、識別情報読取装置40は、ユーザが提示したパスポートを撮影し、撮影した画像から文字を識別し、識別した文字情報を認証制御部13に出力する。
 読取対象物に文字以外の方法により識別情報が対応付けられている場合、識別情報読取装置40は、スキャナに代えて、当該識別情報を読み取る手段を有していてもよい。例えば、識別情報読取装置40は、バーコードリーダ、磁気情報読取装置、近距離無線通信装置などであってもよい。ユーザが、識別情報読取装置40に読取対象物をかざすなどすることで、識別情報読取装置40は読取対象物から識別情報を読み取る。
 以上、図3~図5を参照して、認証システム1の各構成を説明した。上述した認証システム1の構成は一例に過ぎず、適宜変更することができる。例えば、認証システム1は、複数の構成が集約された装置などを用いて構成されてもよい。また、情報処理装置10及び認証装置50の機能が同一の装置に集約されていてもよい。そして、情報処理装置10及び認証装置50のそれぞれにおける各機能部は、複数の装置などを用いて分散処理されてもよい。
(情報処理装置10の使用例)
 続いて、図6を参照して、本実施形態にかかる情報処理装置10の使用例について説明する。図6は、情報処理装置10の使用例を示す第1の図である。図に示されるように、情報処理装置10は、上述した構成に加えて載置台5をさらに備えている。
 なお、図6及びその他の図面に示した右手系xyz座標は、構成要素の位置関係を説明するための便宜的なものである。通常、z軸プラス向きが鉛直上向き、xy平面が水平面であり、図面間で共通である。
 図に示されるように、載置台5は、例えば、水平面の主面を有する板状部材である。これに限らず、載置台5は、例えば、箱状の部材や装置などの上面が用いられてもよい。また、載置台5は、手及び読取対象物を提示しやすいように、所定の角度を有していてもよい。
 図6の例では、検出センサ20及び生体情報読取装置30は、載置台5の上方に設けられている。検出センサ20は、読取対象物を提示するユーザの手を検出することが可能な位置に設けられる。例えば、検出センサ20は、ユーザの手を少なくとも含む領域を撮影可能な位置に設けられる。図6では、検出センサ20がカメラや測距センサである例を示しているが、検出センサ20は、載置台5に設けられる圧力センサであってもよい。
 また、生体情報読取装置30は、検出された手を撮影した画像から生体情報を読み取ることが可能な位置に設けられる。例えば、生体情報読取装置30は、読取対象物を提示しているユーザの指を少なくとも含む領域を撮影可能な位置に設けられる。
 載置台5は、読取対象物を読み取る識別情報読取装置40を備えている。識別情報読取装置40は、ユーザが読取対象物を提示している状態において、読取対象物から識別情報を読取可能な位置に設けられている。
 例えば、識別情報読取装置40は、図6に示されるように、読取対象物の読取りを行うための読取面が載置台5の上面に設けられている。当該読取面は、載置台5と略水平に設けられる。ユーザが当該読取面に読取対象物を載置することで、識別情報読取装置40は、読取対象物から識別情報を読み取る。また、その状態において、生体情報読取装置30は、ユーザの手から生体情報を読み取る。なお、図6に示される例では、生体情報読取装置30が載置台5の上方に設けられているので、ユーザは、読取対象物を提示した手のひらを上に向けた状態で読取対象物を提示する。
 生体認証の流れについて、具体例を用いて説明する。例えば、読取対象物がパスポートであるとする。パスポートには、旅券番号、氏名、国籍、生年月日などの情報が所定のページに記載されている。または、パスポートは、これらの情報を含むICチップを内蔵していてもよい。識別情報は、例えば、旅券番号である。
 ユーザは、パスポートを識別情報読取装置40の読取面に提示するとともに、パスポートを提示した手のひらを上に向ける。例えば、ユーザは、手の甲でパスポートを載置台5に押さえつつ、パスポートを押さえている手を開き、手のひらを上に向ける。検出センサ20は、パスポートを提示するユーザの手を撮影し、撮影画像を検出部11に出力する。検出部11は、撮影画像からユーザの手を検出する。
 読取制御部12は、生体情報読取装置30及び識別情報読取装置40を制御する。読取制御部12は、検出された手を撮影した画像から生体情報を読み取るとともに、当該手が提示するパスポートから旅券番号を読み取るように、生体情報読取装置30及び識別情報読取装置40を制御する。
 生体情報読取装置30は、例えば、生体情報として指紋画像を読み取る。また、識別情報読取装置40は、パスポートから旅券番号を読み取る。識別情報読取装置40は、所定のページの文字情報から旅券番号を読み取ってもよいし、内蔵されたICチップから旅券番号を読み取ってもよい。
 認証制御部13は、読み取られた指紋画像と旅券番号とを用いて、認証装置50に対して認証要求を行う。認証制御部13は、認証装置50から認証結果を受け取り、認証結果に応じて、認証結果の出力などを行う。
 このように、ユーザが読取対象物を提示している状態において、生体情報読取装置30は、読取対象物を提示する手から生体情報を読み取り、かつ、識別情報読取装置40は、読取対象物から識別情報を読み取ることができる。また、ユーザは、自身が所有する読取対象物に手を載せているので、情報処理装置10や載置台5に接触することなく、生体認証を行うことができる。
 なお、検出センサ20及び生体情報読取装置30の位置は図6に示すものに限られない。例えば、生体情報読取装置30は、以下で説明するように、載置台5の下方に設けられてもよい。
 図7は、情報処理装置10の使用例を示す第2の図である。図7に示す例では、図6と異なり、生体情報読取装置30は載置台5の下方に設けられている。ユーザは、読取対象物を提示した手のひらを下に向けた状態で指紋認証を行う。このようにすることで、ユーザは、より容易に読取対象物を載置台5に提示することができる。
(情報処理装置10の処理)
 続いて、図8を参照して、情報処理装置10が行う処理を説明する。図8は、情報処理装置10が行う処理を示すフローチャートである。
 まず、ガイド部18は、所定の状態で読取対象物を提示するようにユーザに報知する(S11)。所定の状態は、ユーザの手から生体情報を読取可能であり、且つ、読取対象物から識別情報を読取可能な状態である。ガイド部18は、当該状態に手と読取対象物とを案内するための案内情報を生成し、出力部14に出力する。
 例えば、ガイド部18は、読取対象物を、載置台に設けられた識別情報読取装置40の読取面に提示し、読取対象物の上に手を載せるよう、ユーザに報知するための音声メッセージを生成する。音声メッセージは、例えば、「載置台の読取面にパスポートを置き、パスポートの上に手を載せてください。」などである。ガイド部18は、生成した案内情報を出力部14に出力させる。
 ガイド部18は、当該メッセージを画像により表示するための表示情報を生成して、出力部14に出力させてもよい。またガイド部18は、手及び読取対象物を誘導するために載置台に投影する誘導画像を生成してもよい。ガイド部18は、誘導画像を記憶部15に記憶してもよい。
 次に、検出部11は、検出センサ20を用いて、読取対象物を提示するユーザの手を検出したか否かを判定する(S12)。検出センサ20は、例えば、カメラ、測距センサ、又は圧力センサなどである。検出センサ20は、撮影画像、測距データ、又は圧力データなどを検出部11に出力する。検出部11は、撮影画像などに基づいて、読取対象物を提示するユーザの手を検出する。
 ユーザが読取対象物に手を載せたことを検出しなかった場合(S12のNO)、検出部11は、ステップS11の処理に戻る。ユーザが読取対象物に手を載せたことを検出した場合(S12のYES)、読取制御部12は、検出された手を撮影した画像から、ユーザ生体情報を読み取る(S13)。具体的には、読取制御部12は、生体情報読取装置30を制御して、ユーザの生体情報を読み取らせる。ここでは、読取制御部12は、読取対象物を提示する手の指紋画像を生体情報として読み取らせる。
 続いて、読取制御部12は、読み取られた生体情報の品質が所定以上であるか否かを判定する(S14)。例えば、読取制御部12は、周知の指標などを用いて生体情報の品質値を計算する。読取制御部12は、計算された品質値が所定以上であるか否かを判定する。例えば、読取制御部12は、品質値を予め設定された閾値と比較することで、品質値が所定以上であるか否かを判定する。
 品質値が閾値未満であると判定した場合(S14のNO)、読取制御部12は、ステップS13の処理に戻る。品質値が閾値以上であると判定した場合(S14のYES)、読取制御部12は、検出された手が提示する読取対象物から、ユーザの識別情報を読み取る(S15)。
 具体的には、読取制御部12は、識別情報読取装置40を制御して、読取対象物から識別情報を読み取らせる。ここでは、読取制御部12は、読取対象物内のICチップに記憶された旅券番号を読み取らせる。このようにすることで、読取制御部12は、検出された手を撮影した画像から生体情報を読み取るとともに、当該手が提示する読取対象物から識別情報を読み取ることができる。
 続いて、認証制御部13は、生体認証を制御する(S16)。認証制御部13は、読み取られた生体情報と識別情報とを含む認証要求を認証装置50に送信する。例えば、認証制御部13は、読み取られた指紋画像と、読み取られた旅券番号と、を含む認証要求を認証装置50に送信する。認証装置50は、認証要求に応じてユーザの指紋認証を行い、認証結果を情報処理装置10に送信する。情報処理装置10は、認証装置50から認証結果を受信する。
 認証制御部13は、認証結果を出力部14に表示等させてもよい。また認証制御部13は、認証の成功に応じて、他の装置等を制御してもよい。例えば、認証システム1が、空港における出入国審査で用いられる場合、認証制御部13は、認証成功に応じて、所定のゲート装置の解錠を制御する。これにより、ユーザは出入国審査を通過することができる。
 なお、上述の説明では、情報処理装置10は、まず生体情報を読み取り、その後に読取対象物を読み取る例を用いたが、これに限られない。情報処理装置10は、生体情報と読取対象物とを同じタイミングで読み取ってもよい。
 以上説明したように、本実施形態にかかる認証システム1では、情報処理装置10は、ユーザの識別情報を含む読取対象物を提示する手を検出する。また、情報処理装置10は、検出された手を撮影した画像から生体情報を読み取るとともに、手が提示する読取対象物から識別情報を読み取る。このような構成を備えることで、認証システム1によれば、ユーザと部材とが接触する可能性を低減させつつ、ユーザの生体認証を行うことができる。
 また、情報処理装置10は、生体情報の品質が所定以上であるか否かを判定し、品質が所定以上であると判定した場合に、識別情報を読み取ることができるので、効率的に生体認証を行うことができる。
 さらに、情報処理装置10は、手から生体情報を読取可能であり、且つ、読取対象物から識別情報を読取可能である状態に、手と読取対象物とを案内するガイド部18を備えるので、ユーザに対し、手及び読取対象物の適切な位置を報知することができる。
<実施形態2の変形例>
 上述した実施形態2では、識別情報の例として旅券番号を用いたが、これに限られない。読取対象物に内蔵されたICチップ等に生体情報が記憶されている場合、識別情報は、当該記憶されている生体情報であってもよい。生体情報が読取対象物に記載されている場合、認証制御部13は、読取対象物に記憶されている生体情報と、生体情報読取装置30で読み取られた生体情報と、を照合することで生体情報を行うことができる。
 なお、情報処理装置10の構成及び処理の流れは、図5及び図8とそれぞれ同じであるので図示を省略する。
 ここでは例として、読取対象物内のICチップに記憶された生体情報を「登録生体情報」と称する。登録生体情報は、上述した認証装置50の認証記憶部51に記憶された特徴データと同様、登録画像から抽出された生体情報の特徴点にかかるデータである。
 認証制御部13は、生体情報読取装置30で読み取られた生体情報にかかる画像から抽出された特徴データと、ICチップ内の登録生体情報と、の照合を行う。認証制御部13は、特徴データと登録生体情報とが一致する場合、認証が成功したと判定する。一方、認証制御部13は、ユーザの生体情報と登録生体情報とが一致しない場合、認証が失敗したと判定する。
 認証制御部13は、読取対象物に生体情報が記憶されているか否かを判定し、判定結果に応じて、上述した実施形態2の処理を行うか、本変形例のような処理を行うか、を判定してもよい。その場合、認証制御部13は、読取対象物に生体情報が記憶されている場合、本変形例のような処理を行う。本変形例の処理は、情報処理装置10で行うようにしてもよいし、上述の実施形態2と同様、認証装置50で行うようにしてもよい。
<実施形態3>
 まず、実施形態3について説明する。実施形態3は、上述した実施形態2のガイド部18の態様が異なるものである。ガイド部18以外の構成については実施形態2と同様であるので、重複する内容については説明を省略する。
 図9を参照して、本実施形態にかかるガイド部G1について説明する。図9は、ガイド部G1の構成を説明する図である。ガイド部G1は、上述したガイド部18の一例である。図に示されるように、ガイド部G1は、載置台5に設けられている。ガイド部G1は、指の形状に対応した形状の指ガイド部材G1aを用いて構成されている。
 指ガイド部材G1aは、生体情報読取装置30が手から生体情報を読取可能であり、且つ、識別情報読取装置40が読取対象物から識別情報を読取可能である状態に、手と読取対象物とを案内する。
 指ガイド部材G1aは、読取対象物を挿入するための挿入口を有している。挿入口は、例えば、図9の下側(y軸負方向側)から上側(y軸正方向側)に向かって読取対象物を挿入するように設けられる。
 指ガイド部材G1aは、例えば、アクリル、ガラス、又はポリカーボネート等を用いて構成され得る。指ガイド部材G1aは、例えば板状の部材であってよい。指ガイド部材G1aは、透明な素材を用いて構成されることで、挿入された読取対象物をユーザが視認可能となる。指ガイド部材G1aは、透明な素材でなくともよいし、上述した素材以外の素材で構成されてもよい。
 指ガイド部材G1aは、これらの素材を、ユーザの指の形状に対応するような形状に成形することで作成することができる。例えば、指ガイド部材G1aは、素材を当該形状に切り抜くことで作成され得る。
 指ガイド部材G1aは、図9に示されるように、例えば、4本の指の形状に対応するように成形され得る。これに限らず、指ガイド部材G1aは、1~3本、又は5本の指の形状に対応するように成形されてもよい。また指ガイド部材G1aは、ユーザが指の案内位置を把握可能な他の形状に成形されてもよい。例えば、指ガイド部材G1aは、指の形状部分が円弧状などであってもよい。
 指ガイド部材G1aは、少なくとも一部の領域が識別情報読取装置40の読取面と重なるように設けられている。これにより、ユーザが指ガイド部材G1aに読取対象物を挿入し、かつ、指ガイド部材G1aに従い指を配置した状態において、識別情報読取装置40が読取対象物を読み取るとともに、生体情報読取装置30が指の生体情報を読み取る。
 図10は、ユーザがガイド部G1を用いて読取対象物を提示する例を示す図である。図10では、ユーザが、指ガイド部材G1aに読取対象物Pを挿入し、手Hを読取対象物Pの上に載置した状態を示している。読取対象物Pは、例えば、パスポートである。
 図に示されるように、ユーザは、読取対象物Pを挿入口に挿入し、かつ、指ガイド部材G1aが案内する指の位置に自身の指の位置が合うように、手Hを配置する。手Hの姿勢は、図示した状態に限られない。手Hは、生体情報読取装置30の位置などに応じて、適宜変更され得る。
 ユーザは、読取対象物Pに手Hを載せてもよいし、読取対象物Pから手Hを浮かせてもよい。また、図では手のひらを下に向けているが、手のひらを上に向けてもよい。また、図では、読取対象物Pを提示する手が左手である場合を例としているが、当該手は右手であってもよい。
 生体情報読取装置30は、ユーザが指を配置した場合に、当該指に焦点が合うように予め設定され得る。または、生体情報読取装置30は、オートフォーカス機能を備えることで自動的に焦点を合わせるようにしてもよい。
 ユーザが読取対象物Pに指を載置した場合、指は読取対象物Pに触れる。そのため、ユーザは、指を指ガイド部材G1aや載置台5に接触させることなく、手と読取対象物Pとを提示することができる。
 以上説明したように、本実施形態にかかる情報処理装置10によれば、ガイド部G1は、ユーザの手から生体情報を読取可能であり、且つ、読取対象物から識別情報を読取可能である状態に、手と読取対象物とを案内することができる。また、ガイド部G1を備えることで、情報処理装置10は、ユーザがより直感的に手及び読取対象物の位置を把握できるように、手及び読取対象物を案内することができる。
<実施形態4>
 続いて、実施形態4について説明する。実施形態4は、上述した実施形態2のガイド部18の態様が異なるものである。ガイド部18以外の構成については実施形態2と同様であるので、重複する内容については説明を省略する。
 図11を参照して、本実施形態にかかるガイド部G2について説明する。図11は、ガイド部G2の構成を説明する図である。ガイド部G2は、上述したガイド部18の一例である。また、ガイド部G2は、上述したガイド部G1が、指ガイド部材G1aに加え、指ガイド部材G1aが案内する指とは異なる指を案内するための指ガイド部材をさらに備えるものである。図に示されるように、ガイド部G2は、載置台5に設けられている。
 ガイド部G2は、読取対象物を提示する手の第1指を案内する第1指ガイド部G2aと、当該手の第2指を案内する第2指ガイド部G2bと、を有している。例えば、第1指ガイド部G2aは、上述した指ガイド部材G1aを用いて構成されている。また、第2指ガイド部G2bは、載置台5に設けられた、第2指を挿入するための凹部を用いて構成されている。
 凹部は、ユーザが第1指ガイド部G2aに第1指を配置し、かつ、第2指ガイド部G2bに第2指を挿入した状態において、凹部を形成する壁面と、第2指と、が接触しない位置及び形状に設けられ得る。凹部は、載置台5を厚み方向に貫通する貫通孔であってもよい。第1指及び第2指は、それぞれ複数の指を含み得る。例えば、第1指は親指以外の4指(人差し指、中指、薬指、小指)であり、第2指は親指である。
 例えば、上述した実施形態3のガイド部G1を用いて、生体情報読取装置30が親指を含む5指の指紋の読取りを行うとする。ユーザが、手のひらとともに親指を載置台5に載置した場合、親指の外側(人差し指と反対側)は載置台5に接触するが、内側(人差し指側)は載置台5に接触しない。このため、生体情報読取装置30は、親指の片側が潰れたような指紋画像を取得することとなる。この場合、親指の指紋画像が適切に取得できないために、認証精度が低下するおそれがある。
 これに対し、ガイド部G2は、第1指ガイド部G2aと第2指ガイド部G2bとを備えるので、生体情報読取装置30は、他の4指と異なる角度から親指の生体情報を読み取ることができる。このように、生体情報読取装置30a及び30bが、それぞれ異なる指の生体情報を読み取ることで、情報処理装置10は生体情報を適切に取得することができる。
 また、第2指ガイド部G2bは、載置台5に設けられた凹部で構成されているので、生体情報読取装置30は、第2指と載置台5とが接触しない状態で第2指の生体情報を読み取ることができる。
 図12は、ガイド部18としてガイド部G2を備える場合の情報処理装置10の構成を示す図である。図に示されるように、情報処理装置10は2つの生体情報読取装置30a及び30bを備えている。
 生体情報読取装置30aは、第1指ガイド部G2aが案内する指の生体情報を読み取り、生体情報読取装置30bは、第2指ガイド部G2bが案内する指の生体情報を読み取る。なお、図では、載置台5の下方に生体情報読取装置30が設けられているが、載置台5の上方に設けられても同様である。
 また、図12では、生体情報読取装置30a及び30bを載置台5と平行となるように示しているが、これに限られない。例えば、親指の生体情報を読み取る生体情報読取装置30bは、第2指ガイド部G2bに挿入された親指の指紋等を読み取り可能な角度に傾斜させて設けられてもよい。
 また、図12では、2つの生体情報読取装置30a及び30bが、第1指ガイド部G2a及び第2指ガイド部G2bに対応する指の生体情報をそれぞれ読み取ったが、以下で説明するように、1つの生体情報読取装置30が両方を読み取ってもよい。
 図13は、生体情報読取装置30が複数箇所において生体情報を読み取る場合の情報処理装置10の構成を示す図である。例えば、情報処理装置10は、生体情報読取装置30を移動させるための駆動機構を備えることで、生体情報読取装置30を移動させる。生体情報読取装置30は、第1指ガイド部G2aに対応する位置と、第2指ガイド部G2bに対応する位置と、を少なくとも移動する。図では、載置台5の下方に生体情報読取装置30が設けられているが、載置台5の上方に設けられても同様である。
 図13に示す矢印は、生体情報読取装置30の移動方向の一例を示している。生体情報読取装置30の移動方向はこれに限られない。生体情報読取装置30は、鉛直方向若しくは水平方向、又はその両方に移動可能に構成されてもよい。また、生体情報読取装置30は、生体情報を読み取る読取面の角度を変更可能に構成されてもよい。
 このようにすることで、情報処理装置10が1つの生体情報読取装置30を備える場合であっても、第1指ガイド部G2a及び第2指ガイド部G2bのそれぞれに対応する位置で生体情報を読み取ることができる。
 以上説明したように、本実施形態にかかる情報処理装置10によれば、ガイド部G2は、ユーザの手から生体情報を読取可能であり、且つ、読取対象物から識別情報を読取可能である状態に、手と読取対象物とを案内することができる。また、ガイド部G2を備えることで、情報処理装置10は、ユーザがより直感的に手及び読取対象物の位置を把握できるように、手及び読取対象物を案内することができる。そして、ガイド部G2が第1指ガイド部G2a及び第2指ガイド部G2bを備えることで、情報処理装置10は、読取対象物を提示する手の生体情報を精度よく読み取ることができる。
 なお、上述した第1指及び第2指は一例であるので、上述した指以外の組合せが用いられてもよい。
<実施形態5>
 続いて、実施形態5について説明する。実施形態5は、上述した実施形態2のガイド部18の態様が異なるものである。ガイド部18以外の構成については実施形態2と同様であるので、重複する内容については説明を省略する。
 図14を参照して、本実施形態にかかるガイド部G3について説明する。図14は、ガイド部G3の構成を説明する図である。ガイド部G3は、上述したガイド部18の一例である。図に示されるように、ガイド部G3は、載置台5に設けられている。
 ガイド部G3は、上述したガイド部G1又はG2が備える指ガイド部材に代えて、生体情報を読取可能な領域の位置と、識別情報を読取可能な領域の位置と、を載置台5に表示するものである。
 図14に示されるように、ガイド部G3は、第1領域ガイド部G3aと、第2領域ガイド部G3bと、を有している。第1領域ガイド部G3aは、生体情報を読取可能な領域の位置を載置台5に表示する。図14に示す例では、生体情報を読み取り可能な領域は、生体情報読取窓31である。
 生体情報読取窓31は、生体情報読取装置30が生体情報を読み取るために、載置台5に設けられた領域である。生体情報読取窓31は、例えば、ガラス、アクリル、又はポリカーボネートなどのような透明な素材で構成され得る。生体情報読取窓31は他の素材で構成されてもよい。生体情報読取窓31は、生体情報読取装置30が生体情報を読取可能な位置に設けられる。
 第1領域ガイド部G3aは、生体情報読取窓31の位置を載置台5に表示する。例えば、第1領域ガイド部G3aは、読取対象物を提示する手が生体情報読取窓31上に配置されるように、生体情報読取窓31と重なるように、載置台5に指の形状を表示する。
 このようにすることで、第1領域ガイド部G3aは、読取対象物を提示する手が、生体情報読取窓31上に配置されるように、ユーザの手を案内することができる。なお、第1領域ガイド部G3aは、例えば手のひらまでが生体情報読取窓31上に配置されるように、手の指だけでなく、手のひらを含む形状を表示してもよい。
 また、第1領域ガイド部G3aは、生体情報読取窓31の位置そのものを示すように表示してもよい。例えば、生体情報読取窓31が図に示されるような矩形領域である場合、第1領域ガイド部G3aは、当該矩形領域の四辺を表示してもよい。
 第2領域ガイド部G3bは、読取対象物の識別情報を読取可能な領域の位置を載置台5に表示する。具体的には、第2領域ガイド部G3bは、識別情報読取装置40の読取面の位置を載置台5に表示する。図14では、当該読取面が識別情報読取装置40として示されている。
 例えば、第2領域ガイド部G3bは、当該読取面を含む矩形領域を表示する。読取対象物の所定のページを開いて提示する必要がある場合、図に示されるように、第2領域ガイド部G3bは、矩形領域を分割するための補助線G3b2を表示してもよい。これにより、ユーザは、読取対象物を提示する位置を直感的に把握することができる。
 図15は、ユーザがガイド部G3を用いて読取対象物を提示する例を示す図である。ユーザは、第2領域ガイド部G3bに従い、読取対象物Pを識別情報読取装置40の読取面上に載置し、第1領域ガイド部G3aに従い、手Hを読取対象物Pの上に載置する。
 ユーザは、読取対象物Pの上に手Hを載せることで、その手の指を載置台5から浮かせた状態で、生体情報読取窓31の上方に指を配置することができる。そのため、情報処理装置10は、ユーザの手Hと載置台5とを接触させることなく生体認証を行うことができる。生体情報読取装置30は、生体情報読取窓31の上方に配置された指の生体情報を読み取る。
 図10と同様に、手Hの姿勢は、図示した状態に限られない。手Hは、生体情報読取装置30の位置などに応じて、適宜変更され得る。例えば、ユーザは、読取対象物Pに手Hを載せてもよいし、読取対象物Pから手Hを浮かせてもよい。また、ユーザは、手のひらを上に向けてもよいし、左手ではなく右手を提示してもよい。生体情報読取装置30は、ユーザが指を配置した場合に、当該指に焦点が合うように予め設定され得る。または、生体情報読取装置30は、オートフォーカス機能を備えることで自動的に焦点を合わせるようにしてもよい。
 ガイド部G3は、第1領域ガイド部G3a及び第2領域ガイド部G3bを種々の方法を用いて載置台5に表示し得る。例えば、ガイド部G3は、第1領域ガイド部G3a及び第2領域ガイド部G3bのそれぞれを載置台5に投影するための投影画像を生成し、出力部14に出力する。出力部14は、出力部14は、載置台5に投影画像を出力する。ユーザは、投影画像を視認することで、生体情報読取窓31の位置と識別情報読取装置40の読取面の位置とを把握することができる。
 また、投影画像は、上述した矢印記号の画像などを含んでもよい。このようにすることで、ユーザは、手又は読取対象物が、それぞれを読取可能な領域内に位置していない場合であっても、その旨を直感的に把握することができる。また、ユーザは、投影された矢印記号に従い、手及び読取対象物を適切な位置に移動させることができる。
 上記に限らず、ガイド部G3は、印字やテープなどを用いて、載置台5に第1領域ガイド部G3a及び第2領域ガイド部G3bを表示するように構成されてもよい。
 以上説明したように、本実施形態にかかる情報処理装置10によれば、ガイド部G3は、ユーザの手から生体情報を読取可能であり、且つ、読取対象物から識別情報を読取可能である状態に、手と読取対象物とを案内することができる。また、ガイド部G3を備えることで、情報処理装置10は、ユーザがより直感的に手及び読取対象物の位置を把握できるように、手及び読取対象物を案内することができる。
 そして、ガイド部G3が第1領域ガイド部G3a及び第2領域ガイド部G3bを備えることで、上述した指ガイド部材などを設ける場合と比較して、ユーザの手が部材等に接触する可能性をより低減させることができる。
<実施形態6>
 続いて、実施形態6について説明する。実施形態6は、上述した実施形態2のガイド部18の態様が異なるものである。ガイド部18以外の構成については実施形態2と同様であるので、重複する内容については説明を省略する。
 図16を参照して、本実施形態にかかるガイド部G4について説明する。図16は、ガイド部G4の構成を説明する図である。ガイド部G4は、上述したガイド部18の一例である。図に示されるように、ガイド部G4は、載置台5に設けられている。
 図16に示されるように、ガイド部G4は、上述した実施形態と異なり、読取対象物を把持する手の指を案内する溝部を有している。当該溝部は、第1指を案内する第1溝部G4aと、第2指を案内する第2溝部G4bと、を用いて構成される。第1指及び第2指は、それぞれ複数の指を含み得る。例えば、第1指は親指以外の4指(人差し指、中指、薬指、小指)であり、第2指は親指である。
 第1溝部G4a及び第2溝部G4bは、識別情報読取装置40の読取面を挟むようにして、載置台5に設けられている。図16に示す例では、第1溝部G4a及び第2溝部G4bは、長手方向がそれぞれy軸と平行となるように配置されている。つまり、第1溝部G4a及び第2溝部G4bは、ユーザから見て縦方向に延びるように設けられている。
 これに限らず、第1溝部G4a及び第2溝部G4bは、x軸と平行となるように配置されてもよい。つまり、第1溝部G4a及び第2溝部G4bは、ユーザから見て横方向に延びるように設けられてもよい。また、第1溝部G4a及び第2溝部G4bは、ユーザが読取対象物を提示しやすいように、それぞれx軸又はy軸との間に角度を有していてもよい。
 ユーザは、読取対象物を把持した状態で、読取対象物を識別情報読取装置40の読取面にかざすようにして、読取対象物を提示する。このとき、読取対象物を提示する手の一部は第1溝部G4aに進入し、一部は第2溝部G4bに進入する。なお、第1溝部G4a及び第2溝部G4bのいずれにも進入しない指があってもよい。
 生体情報読取装置30は、第1溝部G4a又は第2溝部G4bに進入した手の生体情報を読み取る。また、識別情報読取装置40は、当該手が提示する読取対象物から識別情報を読み取る。
 第1溝部G4a及び第2溝部G4bは、ユーザが第1溝部G4aに第1指を進入させ、かつ、第2溝部G4bに第2指を進入させた状態において、第1指及び第2指が、それぞれの溝部を形成する壁面と接触しない位置及び形状に設けられ得る。第1溝部G4a及び第2溝部G4bは、載置台5を厚み方向に貫通する貫通孔であってもよい。
 また、第1溝部G4a及び第2溝部G4bは、第1溝部G4aと第2溝部G4bとの間の距離dが、読取対象物の横幅よりも小さくなるように配置され得る。例えば、読取対象物がスマートフォンのような情報端末である場合、第1溝部G4a及び第2溝部G4bは、距離dが、スマートフォンの平均的な幅よりも小さくなるように配置され得る。このようにすることで、ユーザは、手及び読取対象物の読取りを行った後、容易に読取対象物を取り出すことができる。第1溝部G4a及び第2溝部G4bの位置や形状は、上述したものに限らず、適宜変更され得る。
 図17は、ユーザがガイド部G4を用いて読取対象物Tを提示する例を示す図である。読取対象物Tは、例えば、スマートフォンなどの情報端末である。読取対象物Tは、パスポートなどであってもよい。
 ユーザは、読取対象物Tを手Hで把持しながら、ガイド部G4に従い、読取対象物Tを識別情報読取装置40の読取面に近接させる。例えば、ユーザは、把持している読取対象物Tを識別情報読取装置40の読取面に載置する。または、ユーザは、読取対象物Tを浮かせた状態で読取面に近接させ、読取対象物Tを読取面にかざすようにしてもよい。ユーザは、読取対象物Tを把持したまま、第1指を第1溝部G4aに進入させ、第2指を第2溝部G4bに進入させる。
 図18は、図17に示される状態を、ユーザ側(y軸負方向側)から見た情報処理装置10を示す図である。図18に示されるように、ユーザが読取対象物Tを識別情報読取装置40の読取面に載置した状態において、ユーザの手Hの生体情報を読取可能な位置に、生体情報読取装置30a及び30bが設けられている。
 この状態において、生体情報読取装置30aは、第1溝部G4aに進入した第1指の生体情報を読み取り、生体情報読取装置30bは、第2溝部G4bに進入した第2指の生体情報を読み取る。例えば、生体情報読取装置30a及び30bは、第1溝部G4a又は第2溝部G4bに進入した指を、ユーザの手のひら側から指側に向けて撮影することで生体情報を読み取る。また、識別情報読取装置40は、読取面に載置された読取対象物Tから識別情報を読み取る。
 なお、ここでは、2つの生体情報読取装置30a及び30bを用いて説明しているが、図13を用いて説明したように、1つの生体情報読取装置30が移動することで、複数の読取位置で読取りを行ってもよい。その場合、生体情報読取装置30は、第1溝部G4a及び第2溝部G4bに進入した指の生体情報をそれぞれ読み取る。
 なお、手Hの姿勢は、図示した状態に限られない。手Hは、生体情報読取装置30の位置などに応じて、適宜変更され得る。ユーザは、左手ではなく右手で読取対象物Tを把持し、読取対象物Tを提示してもよい。また、生体情報読取装置30a及び30bは、ユーザが指を配置した場合に、当該指に焦点が合うように予め設定され得る。または、生体情報読取装置30a及び30bは、自動的に焦点を合わせるように構成されてもよい。
 以上説明したように、本実施形態にかかる情報処理装置10によれば、ガイド部G4は、ユーザの手から生体情報を読取可能であり、且つ、読取対象物から識別情報を読取可能である状態に、手と読取対象物とを案内することができる。また、ガイド部G4を備えることで、情報処理装置10は、ユーザが読取対象物を把持したままの状態において、ユーザの手と読取対象物とを案内することができる。これにより、認証システム1は、より効率的に、ユーザの生体認証を行うことができる。
 上述した実施形態は、任意に組み合わせて実行可能である。例えば、情報処理装置10は、実施形態2と、実施形態3~6のいずれかと、を組み合わせたガイド部18を有してもよい。例えば、情報処理装置10は、実施形態2で説明したような文字、音声、又は誘導画像などと共に、実施形態3~6で説明したようなガイド部材を用いて、ユーザの手と読取対象物とを案内してもよい。
<ハードウエアの構成例>
 この開示にかかる情報処理装置10及び認証装置50の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置10等の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について説明する。
 図19は、情報処理装置10等を実現するコンピュータ900のハードウエア構成を例示するブロック図である。コンピュータ900は、情報処理装置10等を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。コンピュータ900は、スマートフォンやタブレット端末などといった可搬型のコンピュータであってもよい。
 例えば、コンピュータ900に対して所定のアプリケーションをインストールすることにより、コンピュータ900で、情報処理装置10等の各機能が実現される。上記アプリケーションは、情報処理装置10等の機能構成部を実現するためのプログラムで構成される。
 コンピュータ900は、バス902、プロセッサ904、メモリ906、ストレージデバイス908、入出力インタフェース910、及びネットワークインタフェース912を有する。バス902は、プロセッサ904、メモリ906、ストレージデバイス908、入出力インタフェース910、及びネットワークインタフェース912が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ904などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ904は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ906は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス908は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース910は、コンピュータ900と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース910には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
 ネットワークインタフェース912は、コンピュータ900をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。
 ストレージデバイス908は、情報処理装置10等の各機能構成部を実現するプログラム(前述したアプリケーションを実現するプログラム)を記憶している。プロセッサ904は、このプログラムをメモリ906に読み出して実行することで、情報処理装置10等の各機能構成部を実現する。
 プロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又はそれ以上のプログラムを実行する。このプログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)又は実体のある記憶媒体(tangible storage medium)に格納されてもよい。限定ではなく例として、非一時的なコンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージを含む。また、限定ではなく例として、非一時的なコンピュータ可読媒体又は実体のある記憶媒体は、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、又はその他の形式の伝搬信号を含む。
 なお、この開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 ユーザの識別情報を含む読取対象物を提示する手を検出する検出部と、
 検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取部と、を備える
 情報処理装置。
 (付記2)
 前記読取部は、前記生体情報の品質が所定以上であるか否かを判定し、前記品質が所定以上であると判定した場合、前記識別情報を読み取る
 付記1に記載の情報処理装置。
 (付記3)
 前記検出部は、所定の載置台に前記読取対象物を提示している前記手を撮影した画像から前記手を検出する
 付記1又は2に記載の情報処理装置。
 (付記4)
 前記検出部は、測距センサから取得した測距データに基づいて、所定の載置台に前記読取対象物を提示している前記手を検出する
 付記1~3のいずれか1項に記載の情報処理装置。
 (付記5)
 前記検出部は、所定の載置台に設けられた圧力センサから取得した圧力データに基づいて、前記読取対象物を提示している前記手を検出する
 付記1~4のいずれか1項に記載の情報処理装置。
 (付記6)
 前記手から前記生体情報を読取可能であり、且つ、前記読取対象物から前記識別情報を読取可能である状態に、前記手と前記読取対象物とを案内するガイド部をさらに備える
 付記1~5のいずれか1項に記載の情報処理装置。
 (付記7)
 前記ガイド部は、前記手と前記読取対象物とを案内するための案内情報を生成し、文字、画像、音声、又は振動を用いて前記案内情報を出力させる
 付記6に記載の情報処理装置。
 (付記8)
 前記ガイド部は、指の形状に対応した形状の指ガイド部材を用いて構成されており、所定の載置台に前記読取対象物を提示する前記手の指を案内する
 付記6又は7に記載の情報処理装置。
 (付記9)
 前記ガイド部は、
 前記手の第1指を案内する第1指ガイド部と、
 前記手の第2指を案内する第2指ガイド部と、を有し、
 前記第1指ガイド部は、前記指ガイド部材を用いて構成されており、
 前記第2指ガイド部は、前記載置台に設けられた、前記第2指を挿入する凹部を用いて構成されている
 付記8に記載の情報処理装置。
 (付記10)
 前記ガイド部は、前記生体情報を読取可能な領域の位置と、前記識別情報を読取可能な領域の位置と、をそれぞれ所定の載置台に表示する
 付記6~9のいずれか1項に記載の情報処理装置。
 (付記11)
 前記ガイド部は、前記読取対象物を把持する前記手の指を案内する溝部を有する
 付記6~10のいずれか1項に記載の情報処理装置。
 (付記12)
 前記生体情報と前記識別情報とを用いて、前記ユーザの生体認証を制御する認証制御部をさらに備える
 付記1~11のいずれか1項に記載の情報処理装置。
 (付記13)
 情報処理装置と、
 認証装置と、を備え、
 前記情報処理装置は、
 ユーザの識別情報を含む読取対象物を提示する手を検出する検出部と、
 検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取部と、を有し、
 前記認証装置は、
 前記情報処理装置から前記生体情報及び前記識別情報を取得し、前記生体情報及び前記識別情報に基づいて、前記ユーザの生体認証を行う
 認証システム。
 (付記14)
 前記読取部は、前記生体情報の品質が所定以上であるか否かを判定し、前記品質が所定以上であると判定した場合、前記識別情報を読み取る
 付記13に記載の認証システム。
 (付記15)
 コンピュータが、
 ユーザの識別情報を含む読取対象物を提示する手を検出する検出ステップと、
 検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取ステップと、を実行する
 情報処理方法。
 (付記16)
 前記読取ステップでは、前記生体情報の品質が所定以上であるか否かを判定し、前記品質が所定以上であると判定した場合、前記識別情報を読み取る
 付記15に記載の情報処理方法。
 (付記17)
 ユーザの識別情報を含む読取対象物を提示する手を検出する検出ステップと、
 検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取ステップと、をコンピュータに実行させる
 プログラム。
 (付記18)
 前記読取ステップでは、前記生体情報の品質が所定以上であるか否かを判定し、前記品質が所定以上であると判定した場合、前記識別情報を読み取る
 付記17に記載のプログラム。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2022年5月31日に出願された日本出願特願2022-088392を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 認証システム
5 載置台
10 情報処理装置
11 検出部
12 読取制御部
13 認証制御部
14 出力部
15 記憶部
18 ガイド部
20 検出センサ
30、30a、30b 生体情報読取装置
31 生体情報読取窓
40 識別情報読取装置
50 認証装置
51 認証記憶部
52 特徴画像抽出部
53 特徴点抽出部
54 登録部
55 認証部
100 情報処理装置
101 検出部
102 読取部
900 コンピュータ
902 バス
904 プロセッサ
906 メモリ
908 ストレージデバイス
910 入出力インタフェース
912 ネットワークインタフェース
d 距離
G1~G4 ガイド部
G1a 指ガイド部材
G2a 第1指ガイド部
G2b 第2指ガイド部
G3a 第1領域ガイド部
G3b 第2領域ガイド部
G3b2 補助線
G4a 第1溝部
G4b 第2溝部
H 手
N ネットワーク
P、T 読取対象物

Claims (18)

  1.  ユーザの識別情報を含む読取対象物を提示する手を検出する検出手段と、
     検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取手段と、を備える
     情報処理装置。
  2.  前記読取手段は、前記生体情報の品質が所定以上であるか否かを判定し、前記品質が所定以上であると判定した場合、前記識別情報を読み取る
     請求項1に記載の情報処理装置。
  3.  前記検出手段は、所定の載置台に前記読取対象物を提示している前記手を撮影した画像から前記手を検出する
     請求項1又は2に記載の情報処理装置。
  4.  前記検出手段は、測距センサから取得した測距データに基づいて、所定の載置台に前記読取対象物を提示している前記手を検出する
     請求項1又は2に記載の情報処理装置。
  5.  前記検出手段は、所定の載置台に設けられた圧力センサから取得した圧力データに基づいて、前記読取対象物を提示している前記手を検出する
     請求項1又は2に記載の情報処理装置。
  6.  前記手から前記生体情報を読取可能であり、且つ、前記読取対象物から前記識別情報を読取可能である状態に、前記手と前記読取対象物とを案内するガイド手段をさらに備える
     請求項1又は2に記載の情報処理装置。
  7.  前記ガイド手段は、前記手と前記読取対象物とを案内するための案内情報を生成し、文字、画像、音声、又は振動を用いて前記案内情報を出力させる
     請求項6に記載の情報処理装置。
  8.  前記ガイド手段は、指の形状に対応した形状の指ガイド部材を用いて構成されており、所定の載置台に前記読取対象物を提示する前記手の指を案内する
     請求項6に記載の情報処理装置。
  9.  前記ガイド手段は、
     前記手の第1指を案内する第1指ガイド手段と、
     前記手の第2指を案内する第2指ガイド手段と、を有し、
     前記第1指ガイド手段は、前記指ガイド部材を用いて構成されており、
     前記第2指ガイド手段は、前記載置台に設けられた、前記第2指を挿入する凹部を用いて構成されている
     請求項8に記載の情報処理装置。
  10.  前記ガイド手段は、前記生体情報を読取可能な領域の位置と、前記識別情報を読取可能な領域の位置と、をそれぞれ所定の載置台に表示する
     請求項6に記載の情報処理装置。
  11.  前記ガイド手段は、前記読取対象物を把持する前記手の指を案内する溝部を有する
     請求項6に記載の情報処理装置。
  12.  前記生体情報と前記識別情報とを用いて、前記ユーザの生体認証を制御する認証制御手段をさらに備える
     請求項1又は2に記載の情報処理装置。
  13.  情報処理装置と、
     認証装置と、を備え、
     前記情報処理装置は、
     ユーザの識別情報を含む読取対象物を提示する手を検出する検出手段と、
     検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る読取手段と、を有し、
     前記認証装置は、
     前記情報処理装置から前記生体情報及び前記識別情報を取得し、前記生体情報及び前記識別情報に基づいて、前記ユーザの生体認証を行う
     認証システム。
  14.  前記読取手段は、前記生体情報の品質が所定以上であるか否かを判定し、前記品質が所定以上であると判定した場合、前記識別情報を読み取る
     請求項13に記載の認証システム。
  15.  コンピュータが、
     ユーザの識別情報を含む読取対象物を提示する手を検出し、
     検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る
     情報処理方法。
  16.  前記識別情報の読取りでは、前記生体情報の品質が所定以上であるか否かを判定し、前記品質が所定以上であると判定した場合、前記識別情報を読み取る
     請求項15に記載の情報処理方法。
  17.  ユーザの識別情報を含む読取対象物を提示する手を検出し、
     検出された前記手を撮影した画像から生体情報を読み取るとともに、前記手が提示する前記読取対象物から前記識別情報を読み取る、ことをコンピュータに実行させる
     プログラムが格納された非一時的なコンピュータ可読媒体。
  18.  前記識別情報の読取りでは、前記生体情報の品質が所定以上であるか否かを判定し、前記品質が所定以上であると判定した場合、前記識別情報を読み取る
     請求項17に記載の非一時的なコンピュータ可読媒体。
PCT/JP2023/017488 2022-05-31 2023-05-09 情報処理装置、認証システム、情報処理方法及び非一時的なコンピュータ可読媒体 WO2023233944A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022088392 2022-05-31
JP2022-088392 2022-05-31

Publications (1)

Publication Number Publication Date
WO2023233944A1 true WO2023233944A1 (ja) 2023-12-07

Family

ID=89026382

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/017488 WO2023233944A1 (ja) 2022-05-31 2023-05-09 情報処理装置、認証システム、情報処理方法及び非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023233944A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002015298A (ja) * 2000-06-28 2002-01-18 Nippon Telegr & Teleph Corp <Ntt> 掌形認証システムおよび掌形認証方法
WO2004021884A1 (ja) * 2002-09-03 2004-03-18 Fujitsu Limited 個人認識装置
WO2006049191A1 (ja) * 2004-11-08 2006-05-11 Sony Corporation 情報処理システム及び情報処理装置
JP2013205931A (ja) * 2012-03-27 2013-10-07 Fujitsu Ltd 生体情報取得装置、生体情報取得方法、生体情報取得制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002015298A (ja) * 2000-06-28 2002-01-18 Nippon Telegr & Teleph Corp <Ntt> 掌形認証システムおよび掌形認証方法
WO2004021884A1 (ja) * 2002-09-03 2004-03-18 Fujitsu Limited 個人認識装置
WO2006049191A1 (ja) * 2004-11-08 2006-05-11 Sony Corporation 情報処理システム及び情報処理装置
JP2013205931A (ja) * 2012-03-27 2013-10-07 Fujitsu Ltd 生体情報取得装置、生体情報取得方法、生体情報取得制御プログラム

Similar Documents

Publication Publication Date Title
JP5831018B2 (ja) 生体認証装置及び生体認証装置における利用者の手の位置の調整方法
US8860795B2 (en) Masquerading detection system, masquerading detection method, and computer-readable storage medium
ES2334157T3 (es) Sistema biometrico y metodo biometrico.
EP2921991B1 (en) Image correction apparatus and image correction method
WO2018042996A1 (ja) 生体検知装置
KR20160117207A (ko) 화상 해석 장치 및 화상 해석 방법
JPWO2018079031A1 (ja) 画像処理装置、画像処理方法、顔認証システム及びプログラム
BRPI1003708A2 (pt) aparelho e mÉtodo de autenticaÇço biomÉtrica
JP2011191838A (ja) 指静脈認証装置
KR20170080617A (ko) 터치센서 데이터를 이용한 지문인증
US10171717B2 (en) Image capture device and method for capturing image for biometric authentication, biometric authentication apparatus based on distance between image sensor and first portion of subject
KR20120049121A (ko) 생체 인증 장치 및 방법
KR20160042763A (ko) 생체 정보 보정 장치, 생체 정보 보정 방법 및 생체 정보 보정용 컴퓨터 프로그램
US9880634B2 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
KR20150133262A (ko) 화상 처리 프로그램을 기록한 기록 매체, 화상 처리 방법 및 정보 단말기
JP2011253438A (ja) 生体認証ユニット
KR101231068B1 (ko) 생체 정보 수집 장치 및 방법
JP2016071746A (ja) 情報投影方法、情報投影プログラム、及び情報処理装置
US9269008B2 (en) Biometric information processing apparatus and biometric information processing method
WO2023233944A1 (ja) 情報処理装置、認証システム、情報処理方法及び非一時的なコンピュータ可読媒体
US20230046591A1 (en) Document authenticity verification in real-time
JP4872539B2 (ja) 生体情報登録装置
WO2023228730A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラムが格納された非一時的なコンピュータ可読媒体
JP2009178300A (ja) 生体情報読取装置
US11216679B2 (en) Biometric authentication apparatus and biometric authentication method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23815704

Country of ref document: EP

Kind code of ref document: A1