[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2015194017A1 - ウェアラブル装置および認証方法 - Google Patents

ウェアラブル装置および認証方法 Download PDF

Info

Publication number
WO2015194017A1
WO2015194017A1 PCT/JP2014/066350 JP2014066350W WO2015194017A1 WO 2015194017 A1 WO2015194017 A1 WO 2015194017A1 JP 2014066350 W JP2014066350 W JP 2014066350W WO 2015194017 A1 WO2015194017 A1 WO 2015194017A1
Authority
WO
WIPO (PCT)
Prior art keywords
authentication
wearable device
unit
position guide
user
Prior art date
Application number
PCT/JP2014/066350
Other languages
English (en)
French (fr)
Inventor
俊輝 中村
大内 敏
瀬尾 欣穂
川村 友人
佑哉 大木
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to PCT/JP2014/066350 priority Critical patent/WO2015194017A1/ja
Publication of WO2015194017A1 publication Critical patent/WO2015194017A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/30Security of mobile devices; Security of mobile applications
    • H04W12/33Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication

Definitions

  • the present invention relates to a wearable device and an authentication method.
  • a so-called wearable information display device that displays predetermined information using a goggle-type or eyeglass-type head-mounted display has been commercialized.
  • User authentication is important from the viewpoint of security, but passwords are fragile from the viewpoint of security, and the input mechanism for entering passwords hinders downsizing of the apparatus.
  • Patent Document 1 discloses a technology of a head mounted display that images an iris and performs user authentication.
  • Patent Document 1 strong security is possible on the head-mounted display based on biological information called iris.
  • user authentication is performed by pattern matching with a pre-recorded iris, if the positional relationship between the camera to be imaged and the iris is not always constant, there is a problem that collation accuracy decreases and user authentication becomes unstable.
  • an object of the present invention is to improve biometric information collation accuracy and enable stable user authentication in a wearable device such as a head-mounted display.
  • a representative wearable device is a wearable device, wherein the image display unit displays a position guide to a user wearing the wearable device, an image pickup unit, and the image pickup unit at a position corresponding to the position guide. And an authentication processing unit that authenticates the user based on the biometric information photographed by.
  • the present invention is grasped as an authentication method.
  • biometric information collation accuracy is improved and stable user authentication is possible.
  • FIG. 1 It is a figure which shows the example of the usage condition of a wearable apparatus. It is a figure which shows the example of the usage condition of the wearable apparatus which mounts an imaging part rotatably. It is a figure which shows the example of the usage condition of the wearable apparatus which mounts two imaging parts. It is a figure which shows the example of a structure of a wearable apparatus. It is a figure which shows the example of a structure of the wearable apparatus which detects biometric information in an imaging part. It is a figure which shows the example of a position guidance. It is a figure which shows the other example of a position guidance. It is a figure which shows the other example of a position guidance. It is a figure which shows the other example of a position guidance.
  • FIG. 1A is a diagram illustrating an example of a usage pattern of the wearable device 100.
  • the wearable device 100 is a see-through head mounted display that is mounted on a user's head 101 and has a video display unit 102 that displays a video in a partial area 103 in the user's field of view in a state where the outside world is visible.
  • the wearable device 100 includes an imaging unit 106 that captures an imaging range 105 that is a part of the visual field range of the user.
  • the size and direction of the area and the range may be any. .
  • the video display unit 102 transfers video displayed on a liquid crystal or a digital micromirror device mounted on the head mounted display 100 into a user's field of view by a predetermined optical mechanism using a lens, a hologram, an optical fiber, or the like. Any configuration may be used as long as it is transmitted and formed on the retina of the user so that it is recognized as an image.
  • the imaging unit 106 may be a camera, for example.
  • the wearable device 100 is equipped with a touch sensor 107 that detects a finger contact (not shown) and a speaker, a microphone, and the like.
  • the touch sensor 107 may be a sensor that detects a fingerprint.
  • FIG. 1B is a diagram illustrating an example of a usage pattern of the wearable device 100a in which the imaging unit 106 is rotatably mounted.
  • the imaging unit 106 can be rotated manually or by an electric signal to move the imaging range, and can switch between the imaging range 105 shown in FIG. 1A and the imaging range 108 shown in FIG. 1B.
  • the imaging unit 106 captures the user's eyes using the imaging range 108 illustrated in FIG. 1B.
  • FIG. 1C is a diagram illustrating an example of a usage pattern of the wearable device 100b in which the two imaging units 106 and 109 are mounted.
  • the imaging unit 109 images the user's eyes using the imaging range 108.
  • the wearable devices 100a and 100b may have a half mirror or the like in front of the user's eyes, and the imaging range 108 may include the half mirror or the like, or the wearable device 100a.
  • 100b may be an image of the user's face captured by the imaging units 106 and 108.
  • FIG. 2 is a diagram showing an example of the configuration of the wearable device 100.
  • the wearable device 100a, 100b, and the like are typically described as the wearable device 100.
  • the control unit 201 controls the wearable device 100 as a whole.
  • the video display unit 203 and the imaging unit 202 are a part of the video display unit 102 and a part of the imaging unit 106 described with reference to FIG.
  • the voice input / output unit 210 is a microphone, an earphone, or the like, and the voice processing unit 211 processes a voice signal from the voice input / output unit 210.
  • the communication unit 208 connects to a network via the communication input / output unit 209 by wireless communication.
  • the wearable device 100 may acquire information by directly connecting to a base station such as the Internet, and the wearable device 100 is a Bluetooth (registered trademark) as a head mounted display including at least an imaging unit and a display control unit.
  • Wifi registered trademark
  • UHF ultra high-power Bluetooth
  • VHF ultra high-power Bluetooth
  • other short-distance / far-distance wireless communication with information terminals (smartphones, tablet terminals, PCs, etc.) in separate cases, and these information terminals are connected to the Internet, etc. You may make it perform the main process of a connection.
  • the sensing unit 207 performs various sensor processes via the sensor input / output unit 206. Sensors that detect the user's posture, orientation, and movement, such as an inclination sensor and an acceleration sensor, sensors that detect the user's physical state, such as a line-of-sight sensor and a temperature sensor, pressure-sensitive sensors such as the touch sensor 107, and capacitance sensors
  • the wearable device 100 can be equipped with a plurality of sensors. The wearable device 100 can be used as an input / output interface for detecting a user's instruction input.
  • the user's biometric information template collected and registered in advance is stored in the storage medium 205, and the authentication processing unit 204 compares the user template with the detection pattern to determine whether authentication is possible.
  • the security of wearable device 100 can be improved by performing user authentication using biometric authentication.
  • the biometric information used for biometric authentication may be a detection target of biometric features such as palm prints, fingerprints, veins, irises, retinas, faces, palm shapes, voice prints, brain waves, and pulse waves. Such biological information is acquired by the biological information detection unit 291.
  • the biological information detection unit 291 may be, for example, a dedicated imaging unit that is provided separately from the imaging unit 202 and detects an iris or a retina, that is, the imaging unit 109 illustrated in FIG. 1C, or uses a capacitive sensor. It may be a fingerprint detection unit, or a detection unit that optically or electrically detects brain waves or pulse waves. However, the present invention is not limited to the provision of the dedicated biological information detection unit 291.
  • the biological information detection unit 291 may be shared in whole or in part with other components, and imaging is performed as shown in FIG. 1B. Unit 106 may be switchable.
  • the imaging unit 202 that captures a part of the user's field of view detects palm prints, fingerprints, veins, palm shapes, etc., which are biological information
  • the biological information detection unit 291 and the imaging unit 202 are shared
  • the wearable device 100 can be reduced in size and weight because there is no need to provide a biological information detection unit 291 dedicated to detection of fingerprints, veins, palms, and the like.
  • the voice input / output unit 210 detects a voiceprint
  • the biological information detection unit 291 and the voice input / output unit 210 are shared, and there is no need to provide a biological information detection unit 291 dedicated to voiceprint detection.
  • the wearable device 100 generates a guide for position guidance in the user's field of view as auxiliary information by the auxiliary information generation unit 290 as auxiliary information in order to suppress degradation of the authentication accuracy due to the displacement of the detection target at the time of authentication. It may be displayed.
  • auxiliary information for iris and retina detection a position guide that specifies the direction of the line of sight may be displayed to suppress the movement of the eyeball, and the display of the video display unit 203 may be darkened to open the pupil. Also good. Further, the scan start timing or the like may be displayed as auxiliary information in fingerprint detection.
  • auxiliary information in voiceprint detection a display for instructing the start of sound generation, a phrase to be sounded may be displayed, and the timing of reading a phrase may be displayed by changing the color of the characters in order.
  • the wearable device 100 can improve the authentication accuracy by providing auxiliary information corresponding to the authentication method to the user.
  • biological information such as palm prints, fingerprints and veins is detected by the imaging unit 202 that captures the user's field of view, and the biological information detection unit 291 and the imaging unit 202 are shared, and a dedicated biological information detection unit 291 is provided.
  • the imaging unit 202 captures the user's field of view
  • the biological information detection unit 291 and the imaging unit 202 are shared, and a dedicated biological information detection unit 291 is provided.
  • a configuration example in which the wearable device 100 is reduced in size and weight will be described in more detail.
  • FIG. 3 is a diagram illustrating an example of the configuration of the wearable device 100c when the biological information detection unit 291 and the imaging unit 202 are shared.
  • the wearable device 100c illustrated in FIG. 3 does not include the auxiliary information generation unit 290 and the biological information detection unit 291 illustrated in FIG. 2, but includes the position guide unit 212 and the position guide image generation unit 213, and the other configuration illustrated in FIG. The configuration described with reference to FIG.
  • the user holds, for example, a palm in the imaging range 105 of the imaging unit 202, and the wearable device 100c detects a palm print pattern as biometric information.
  • the authentication processing unit 204 determines whether or not authentication is possible by comparing and collating the user template recorded in the storage medium 205 with the detected pattern.
  • an illumination mechanism (not shown) may be mounted on the wearable device 100c, and the light quantity for the inspection object may be increased by the illumination mechanism.
  • a biometric authentication apparatus often seen as a product has a mounting base for positioning an inspection target so that the detection target can be repeatedly arranged at the same position in order to suppress displacement of the detection target of biometric information. Then, the pattern is detected by positioning the inspection object on the mounting table, that is, the positioning table.
  • the position guide 212 allows the detection target at the time of authentication to be placed at the correct position without using the positioning table.
  • FIG. 4 is a diagram showing an example of position guidance.
  • the position guide unit 212 displays the position guide 110 in a partial region 103 within the user's field of view using the video display unit 203.
  • the image information of the position guide 110 is generated by the position guide image generation unit 213, and is the outline of the palm when the palm print pattern is registered.
  • the image display unit 203 displays the palm contour position with respect to the imaging unit 202 at the time of registration as a virtual image in the user's field of view, that is, displays the position guide 110 as augmented reality (AR) with respect to the real image detection target 111.
  • AR augmented reality
  • the user looks at the position guide 110 displayed as AR and moves the detection target 111 (palm in the example of FIG. 4) so that it overlaps with it, so that the detection target 111 is positioned at substantially the same position and inclination as at the time of registration. Can be arranged.
  • the palm is described as an example of the detection target of the biological information.
  • the detection target is not limited to the palm
  • the position guide is not limited to the outline of the palm.
  • 5A to 5C are diagrams showing another example of position guidance.
  • palmprints or fingerprints or fingerprints are detected
  • the position guide 110a is a cross mark
  • the cross mark indicates the position of the center of the palm or a predetermined finger position.
  • a fingerprint is a detection target
  • the position guide 110b is a contour of a finger and indicates a position where the detection target finger is overlapped.
  • the palm pattern or the like may be a detection target
  • the position guide 110b may be the outline of a plurality of fingers, indicating the position where the plurality of detection target fingers are overlapped, and specifying the position of the palm.
  • palm prints, palm veins, and the like are detection targets
  • the position guide 110 c is a representative pattern of palm prints, veins, and the like that can be easily viewed, not the outline, and indicates the positions where the detection target palms overlap. Even if it is other than what was demonstrated above, the display format of a position guide will not be limited if a user can be notified of the position where a detection target should be arrange
  • the position guides 110a, 110b, 110c and the like are also representatively described as the position guides 110.
  • wearable device 100 may notify the user that the detection target has been placed at the correct position by displaying the position determination result in real time.
  • the position determination result may be displayed in characters, but by changing the display color of the position guide 110 or the like, it may be intuitively recognized by the user that the detection target is placed at the correct position.
  • the video display unit 203 displays the authentication result on the AR, so that the user can check the authentication result in real time without moving the line of sight, and the display as the wearable device 100c can be effectively used.
  • the authentication process is started by using a predetermined input signal of the sensor input / output unit 206 such as an acceleration sensor, a proximity sensor, a touch sensor, etc. as a trigger, and only when necessary.
  • the authentication process can be started, and otherwise, in a standby state, power consumption can be suppressed and long-time driving can be realized in the wearable device 100c that is operated by a battery and has a limited power capacity.
  • FIG. 6 is a diagram illustrating an example of a flowchart of biometric authentication in the wearable device 100.
  • Wearable device 100 starts processing in step 301.
  • wearable apparatus 100 determines whether or not there is a trigger signal for starting authentication processing from sensor input / output unit 206.
  • the wearable device 100 detects a trigger signal in step 302
  • the wearable device 100 starts an authentication process in step 380.
  • the wearable device 100 displays auxiliary information in step 381.
  • the wearable device 100 compares the template data registered in the storage medium 205 with the detected biometric information pattern in step 307 and determines whether or not authentication is possible. If the authentication is successful as a result of the collation, the wearable device 100 displays an authentication result indicating that the authentication is successful in step 308, and displays detailed information. If the authentication fails in step 307, the wearable device 100 displays a result indicating that the authentication has failed in step 309 to the user, and ends the display of the related information.
  • FIG. 7 shows an example of a flowchart of biometric authentication particularly when biometric information is detected using the imaging unit 202 and the position guide 110 is displayed as auxiliary information.
  • the wearable device 100c starts processing in step 301.
  • wearable device 100c determines the presence / absence of a trigger signal for starting authentication processing from sensor input / output unit 206.
  • the image capturing unit 202 starts photographing in order to start authentication processing in step 303.
  • the wearable device 100c causes the video display unit 203 to display the position guide 110 as an AR in a partial area 103 within the user's visual field.
  • the wearable device 100c determines in step 305 whether the user has placed the detection target 111 so as to overlap the position guide 110 based on the captured image of the imaging unit 202. If the position has been correctly arranged, the wearable device 100c performs a display informing the user of the position determination result in step 306. The wearable device 100c compares the template data registered in the storage medium 205 with the biometric information pattern detected by the imaging unit 202 in step 307 and determines whether or not authentication is possible. When the authentication is successful as a result of the collation, the wearable device 100c displays an authentication result indicating that the authentication is successful in step 308, and displays detailed information. If the authentication fails in step 307, the wearable device 100c displays a result notifying the user of the failure in step 309, and ends the display of the related information.
  • the wearable device 100 includes the video display unit 203 that displays predetermined information in the visual field direction of the user in a state where the external world is visible, the storage medium 205 storing user information, the user
  • the biometric information of the user is detected from the inspection object placed in the area where the display range of the image display unit 203 and the display range of the video display unit 203 and the imaging range of the imaging unit 202 overlap.
  • an authentication processing unit 204 that performs user authentication by collating information with a template stored in the storage medium 205, a simple configuration can be achieved in a small, lightweight and wearable information display terminal. Users can be authenticated with high accuracy.
  • FIG. 8 is a diagram illustrating an example of communication connection cooperation between the wearable device 100 and an external information processing device (external device).
  • the wearable device 100 communicates with external devices such as the PC 151, the smartphone 152, the server 153, and other wearable devices 154 via the Internet line 150, and information in the external device is displayed on the video display unit 203 of the wearable device 100. Can be displayed in the user's field of view.
  • communication may be performed by short-distance / far-distance wireless communication such as Bluetooth (registered trademark), WiFi (registered trademark), UHF, or VHF.
  • the user authentication in the authentication processing unit 204 is not used only for availability of the wearable device 100 but is used for user authentication when establishing a communication connection with an external device. Thereby, the convenience of a user at the time of making an external apparatus and the wearable apparatus 100 cooperate, and the secrecy of information can be improved.
  • the authentication in the communication connection cooperation shown in FIG. 8 is classified into a host authentication method and a self-authentication method depending on on which device the authentication determination position is located.
  • the host authentication method is a method in which the authentication determination position is on the server 153 via the Internet line 150, and the wearable device 100 transmits image data from the image capturing unit 202 and performs connection and authentication on the server 153 side.
  • the self-authentication method is a method in which the authentication determination position is in the same housing of the wearable device 100 as that of the imaging unit 202, and the server 153 side authentication is also performed in the wearable device 100.
  • the host authentication method only needs to communicate photographing data, but requires a network system using a dedicated server, and the system becomes complicated.
  • the self-authentication method does not require a network system using a dedicated server, it can be a small-scale system.
  • FIG. 9 is a diagram illustrating an example of a configuration related to authentication of the wearable device 100d and the external device 250.
  • the wearable device 100d includes the configuration of the wearable device 100c described with reference to FIG.
  • the external device 250 is the PC 151, the smart phone 152, the server 153, another wearable device 154, or the like shown in FIG.
  • the wearable device 100d performs authentication by comparing the biometric information detected by the imaging unit 202 with the registration data by the authentication processing unit 204. If the authentication is successful, the detailed functions and information of the wearable device 100d can be displayed.
  • the wearable device 100d communicates with the external device 250 via the Internet line 150, and receives an authentication request from the authentication request unit 251 of the external device 250. Upon reception, the external device 250 is notified of the user authentication result. Thereby, the external device 250 can confirm the execution result of the biometric authentication in the remote wearable device 100d.
  • communication between the wearable device 100d and the external device 250 can be a system that ensures confidentiality by using, for example, public key cryptography.
  • the signature unit 214 signs the authentication information such as the verification result, user information, and identification information of the authentication request from the server with a (secret) encryption key, and wearable device 100d Transmits the signed authentication information to the external device 250.
  • the external device 250 verifies the validity of the user by using the (public) key by the authentication unit 252.
  • FIG. 10 is a diagram showing an example of a flowchart of authentication connection between the wearable device 100d and the external device 250.
  • the biometric authentication process in step 310 is steps 302 to 307 described with reference to FIG.
  • the wearable device 100d transmits a connection request to the external device 250 in step 311.
  • Wearable device 100 d receives an authentication request from external device 250 in step 312.
  • the wearable device 100d signs the authentication information such as the verification result, the user information, and the identification information of the authentication request from the server with the (secret) encryption key based on the verification result.
  • the wearable device 100d transmits the authentication information signed in step 314 to the external device 250.
  • the external device 250 verifies whether or not the authentication information received in step 315 corresponds to the previously issued authentication request and the validity of the user using the (public) key, and determines the validity of the target user. If the validity of the determination result is obtained in step 316, the external device 250 can display the internal detailed information of the external device 250. If the validity is not obtained, the external device 250 terminates the display of the related information in step 317.
  • FIG. 11 is a diagram showing an example of a flowchart of the template registration procedure.
  • wearable device 100 is instructed to register biometric information using sensing unit 207 and voice processing unit 211. Specifically, for example, the wearable device 100 may be instructed by a predetermined operation or sound generation by the touch sensor 107 or voice.
  • the wearable device 100 displays the position target where the detection target is arranged as AR in the user's field of view on the video display unit 203.
  • the wearable device 100 detects biometric information by the imaging unit 202.
  • the wearable device 100 registers the biometric information pattern detected in step 333 in the recording medium 205.
  • the wearable device 100 generates position guide data by the position guide image generation unit 213, registers the position guide data in the storage medium 205, and displays the position guide data as the position guide 110 at the time of user authentication.
  • the wearable device 100 determines whether it is self-authentication or host authentication in step 335. Register the server user account and the registered template in association.
  • the wearable device 100 transmits the pattern data to an external device that determines host authentication in step 337, and registers biometric information as a user template.
  • position guide data in the position guide image generation unit 213 will be described in detail.
  • the contour is extracted from the palm-captured image acquired by the imaging unit 202.
  • the installation position of the imaging unit 202 is shifted from the position of the user's eyes, a difference occurs between the visual field of the imaging unit 202 and the visual field of the user.
  • the contour image acquired by the imaging unit 202 is displayed as it is in the visual field of the user by the video display unit 203, a deviation occurs from the correct contour position, and guidance to the correct position cannot be made.
  • the contour is displayed on the video display unit 203, it is necessary to display it at a reduced scale in which the size of the detection target is adjusted.
  • the position guidance image generation unit 213 geometrically corrects the difference in field of view and the difference in display magnification, and registers the result in the storage medium 205, so that the position guidance can be performed more accurately at the time of authentication and the authentication accuracy is improved. be able to.
  • the position guide image generation unit 213 When the position guide image generation unit 213 is not used, the same fixed position guide mark is displayed at the time of registration and authentication, and the user positions the detection target with respect to the displayed fixed position guide mark. Since the positional deviation between registration and authentication can be suppressed and there is no need to provide the position guide image generation unit 213, the registration process can be simplified.
  • FIG. 12 is a diagram illustrating an example of a flowchart of a template change procedure.
  • wearable device 100 is instructed to change the biometric information template using sensing unit 207 and audio processing unit 211. Specifically, for example, the wearable device 100 may be instructed by a predetermined operation or sound generation by the touch sensor 107 or voice.
  • the wearable device 100 executes the authentication process once in the existing registered template at step 341.
  • the biometric authentication process in step 341 is steps 302 to 307 described with reference to FIG.
  • the registration change process is started at step 343, and the position target where the detection target is arranged is displayed as AR on the user's field of view by the video display unit 203.
  • the wearable device 100 detects biometric information by the imaging unit 202.
  • Wearable device 100 registers the detected pattern in recording medium 205 in step 345.
  • the wearable device 100 generates and registers position guide data for the position guide unit 212.
  • the wearable device 100 determines whether self-authentication or host authentication is performed in step 347, and if it is host authentication, transmits the template data changed to the external device that performs authentication determination in step 348, and changes and registers the biometric user template. To do. If self-authentication is performed, wearable device 100 ends the template change process in step 349.
  • the biological information detection unit 291 may be configured to use a laser scanning unit.
  • FIG. 13 shows an example of the configuration of the laser scanning unit 500.
  • the laser scanning unit 500 includes a laser light source 501, a scanning mechanism 502, and a detection unit 503.
  • the scanning mechanism 502 scans light from the laser light source 501 and irradiates it into a predetermined region of the detection target object 504.
  • By detecting the reflected light by the detection unit 503 it is possible to measure the three-dimensional shape and shading in a predetermined region.
  • a time-of-flight method, a phase shift method, or the like may be used.
  • the imaging unit 202 needs to be illuminated.
  • the laser scanning unit 500 performs detection, the illumination unit and the detection unit can be realized with a small device. Moreover, you may acquire shapes, such as a vein inside a biological body, using an infrared wavelength as a light source. In this way, by detecting the living body by the laser scanning unit 500, one laser scanning unit 500 can detect various types of biological information, and the authentication performance is improved by downsizing the apparatus or making it multimodal. be able to.
  • biometric information collation accuracy is improved and stable user authentication becomes possible. Also, stable user authentication can be used in communication cooperation.
  • the two or more types of authentication contents are, for example, simple authentication contents and detailed authentication contents, and the convenience of the user is improved by the simple authentication contents, and strong security is ensured by the detailed authentication contents.
  • the configuration of the wearable device 100 has already been described with reference to FIG. 2, but in the second embodiment, a plurality of authentication contents by the authentication processing unit 204 are used, and authentication by two or more authentication contents is possible.
  • the first authentication content is simple authentication that allows the functions of the wearable device 100 to be restricted and can be used
  • the second authentication content is detailed authentication that enables cooperation with all the functions of the wearable device 100 and external devices.
  • For authentication contents such as palm prints, it is necessary to activate the imaging unit 202 and align the palm, which makes the authentication operation complicated. Therefore, simple authentication is performed based on the first authentication content that realizes authentication with a simpler operation, and a part of the functions of the wearable device 100 can be used.
  • the first authentication content may be a voice print, a gesture, a touch operation of the touch sensor 107, or the like. That is, the wearable device 100 may perform authentication such as voiceprint authentication using a short phrase, authentication using a touch operation by touching a predetermined area of the touch sensor 107 in a predetermined order, and detection of a gesture. At this time, auxiliary information is displayed to the user using the information display device 203.
  • a voiceprint is biological information, it is possible to acquire information by a relatively simple method such as recording. Therefore, in order to ensure strong security, the second authentication content may be authentication content that has high authentication accuracy as described above and uses palm prints, veins, and the like that are difficult to impersonate.
  • Wearable device 100 starts processing in step 401, and determines in step 402 whether or not there is a trigger signal for starting authentication processing from sensor input / output unit 206.
  • the wearable device 100 detects a trigger signal in step 402, it determines in step 403 whether the user's selection instruction is simple authentication or detailed authentication.
  • wearable device 100 starts simple authentication processing in step 404.
  • the wearable device 100 displays auxiliary information for simple authentication in step 405 and compares the template data registered in the storage medium 205 with the detected information pattern in step 406 to determine whether or not authentication is possible. If the authentication is successful as a result of the collation in step 406, the wearable device 100 displays an authentication result indicating that the authentication is successful in step 407, and displays simple information. On the other hand, if the authentication fails in step 406, wearable device 100 displays a result informing that the failure has occurred in step 408, and ends the display of the related information.
  • wearable device 100 If it is determined in step 403 that detailed authentication is to be performed, wearable device 100 starts detailed authentication processing in step 409.
  • the wearable device 100 displays auxiliary information for detailed authentication such as a position guide in step 410 and compares the template data registered in the storage medium 205 with the detected biometric information pattern in step 411 to determine whether authentication is possible. judge.
  • the wearable device 100 displays an authentication result indicating that the authentication is successful in step 412 and displays detailed information.
  • the wearable device 100 displays a result indicating that the authentication has failed in step 413, and ends the display of the related information.
  • the wearable device 100 enables the cooperation with the external device even in the simple authentication.
  • Information provided to wearable device 100 using the result may be switched between information for simple authentication and information for detailed authentication, and simple authentication and detailed authentication may be used properly according to the security level of the connection destination.
  • the wearable device switches the functions provided according to two or more types of authentication contents, such as simple authentication contents and detailed authentication contents, to improve user convenience and ensure strong security. I can do it.
  • the embodiment is not limited to the above description, and includes various modifications.
  • the case of a head-mounted display has been described as an example of the wearable device 100.
  • the wearable device 100 is not necessarily limited to the head-mounted display. If the auxiliary information can be displayed by AR, user authentication of the wearable device other than the head-mounted display is possible. It may be.
  • the above embodiments are described in detail for easy understanding, and are not necessarily limited to those having all the configurations described.
  • each of the functions and processing units described above may be realized in part or in whole with predetermined hardware, or the processor interprets and executes a program that implements each function or processing unit. By doing so, it may be realized by software.
  • the processing procedure shown in the flowchart is an example, and is not limited to this processing procedure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

 ウェアラブル装置であって、前記ウェアラブル装置を装着したユーザに位置ガイドを表示する映像表示部と、撮像部と、前記位置ガイドに対応する位置で前記撮像部により撮影された生体情報に基づきユーザを認証する認証処理部と、を有する。

Description

ウェアラブル装置および認証方法
 本発明はウェアラブル装置および認証方法に関するものである。
 ゴーグル型や眼鏡型のヘッドマウントディスプレイを用いて所定の情報を表示する、いわゆるウェアラブルな情報表示装置が製品化されている。また、セキュリティの観点からユーザ認証が重要であるが、パスワードはセキュリティの面から見ると脆弱であり、パスワードの入力するため入力機構が装置の小型化の妨げとなる。
 これに対して、例えば特許文献1には虹彩を撮像してユーザ認証するヘッドマウントディスプレイの技術が開示されている。
特開2007-006393号公報
 特許文献1に開示された技術によれば、ヘッドマウントディスプレイで虹彩という生体情報に基づき強固なセキュリティが可能である。しかしながら、予め記録された虹彩とパターン照合してユーザ認証するため、撮像するカメラと虹彩の位置関係が常に一定でないと、照合精度が低下し、ユーザ認証が不安定になるという課題がある。
 そこで、本発明はこの課題に鑑みてなされたものであって、ヘッドマウントディスプレイなどのウェアラブル装置において、生体情報の照合精度を向上し、安定したユーザ認証を可能にすることを目的とする。
 本発明に係る代表的なウェアラブル装置は、ウェアラブル装置であって、前記ウェアラブル装置を装着したユーザに位置ガイドを表示する映像表示部と、撮像部と、前記位置ガイドに対応する位置で前記撮像部により撮影された生体情報に基づきユーザを認証する認証処理部と、を有することを特徴とする。
 また、本発明は認証方法としても把握される。
 本発明によれば、ウェアラブル装置において、生体情報の照合精度が向上し、安定したユーザ認証が可能になる。
ウェアラブル装置の使用形態の例を示す図である。 撮像部を回転可能に搭載したウェアラブル装置の使用形態の例を示す図である。 2つの撮像部を搭載したウェアラブル装置の使用形態の例を示す図である。 ウェアラブル装置の構成の例を示す図である。 撮像部で生体情報を検出するウェアラブル装置の構成の例を示す図である。 位置案内の例を示す図である。 位置案内の他の例を示す図である。 位置案内の他の例を示す図である。 位置案内の他の例を示す図である。 ウェアラブル装置の生体認証のフローチャートの例を示す図である。 ウェアラブル装置で位置ガイドを表示する生体認証のフローチャートの例を示す図である。 ウェアラブル装置と外部情報処理装置(外部機器)との通信接続連携の例を示す図である。 外部機器とそれに連携するウェアラブル装置の構成の例を示す図である。 ウェアラブル装置と外部機器との認証接続のフローチャートの例を示す図である。 認証テンプレート登録のフローチャートの例を示す図である。 認証テンプレート変更のフローチャートの例を示す図である。 レーザスキャン部の構成の例を示す図である。 複数の認証内容を用いる生体認証のフローチャートの例を示す図である。
 以下、図面を用いて好ましい実施形態について説明する。
 図1Aはウェアラブル装置100の使用形態の例を示す図である。ウェアラブル装置100はユーザの頭部101に装着され、外界が視認可能な状態でユーザの視野内の一部の領域103に映像を表示する映像表示部102を搭載したシースルー型のヘッドマウントディスプレイである。また、ウェアラブル装置100はユーザの視野範囲の一部である撮像範囲105を撮影する撮像部106を搭載する。なお、ユーザの視野内の一部の領域103と撮像範囲105のそれぞれは以下で説明する処理を満たす範囲であれば、それらの領域や範囲の大きさや方向はどのようなものであってもよい。
 映像表示部102は例えば、ヘッドマウントディスプレイ100に搭載された液晶やデジタルマイクロミラーデバイス等に表示された映像を、レンズやホログラムや、光ファイバ等を用いた所定の光学機構によってユーザの視野内へ伝達し、ユーザの網膜上に結像させることで映像として認識させる構成等であればよい。また、撮像部106は例えばカメラ等であればよい。さらに、ウェアラブル装置100はユーザの図示を省略した指の接触を検出するタッチセンサ107を搭載し、スピーカやマイク等も搭載する。ここで、タッチセンサ107は指紋を検出するセンサであってもよい。
 図1Bは撮像部106を回転可能に搭載したウェアラブル装置100aの使用形態の例を示す図である。撮像部106は手動あるいは電気信号により回転して撮像範囲を移動し、図1Aに示した撮像範囲105と図1Bに示した撮像範囲108を切り替え可能である。そして、撮像部106は図1Bに示した撮像範囲108によりユーザの目を撮影する。図1Cは2つの撮像部106、109を搭載したウェアラブル装置100bの使用形態の例を示す図である。撮像部109は撮像範囲108によりユーザの目を撮影する。なお、ユーザの目の正面から撮影するために、ウェアラブル装置100a、100bがユーザの目の正面にハーフミラー等を有し、このハーフミラー等を撮像範囲108が含むようにしてもよいし、ウェアラブル装置100a、100bは撮像部106、108によりユーザの顔を撮影するものであってもよい。
 図2はウェアラブル装置100の構成の例を示す図である。以下では特に限定をしない場合、ウェアラブル装置100a、100b等も含めて代表的にウェアラブル装置100と記載する。コントロール部201はウェアラブル装置100全体を制御する。映像表示部203と撮像部202はそれぞれ図1を用いて説明した映像表示部102の一部と撮像部106の一部である。音声入出力部210はマイクやイヤホン等であり、音声処理部211は音声入出力部210の音声信号を処理するものである。
 通信部208は通信入出力部209を介したネットワークとの接続を無線通信により行う。例えば、ウェアラブル装置100がインターネット等の基地局へ直接に接続して情報を取得してもよいし、ウェアラブル装置100は少なくとも撮像部および表示制御部を備えたヘッドマウントディスプレイとして、Bluetooth(登録商標)、Wifi(登録商標)、UHF、VHFなどの近距離/遠距離無線通信により別筐体の情報端末(スマートフォンやタブレット型端末、PC等)と通信を行い、これらの情報端末がインターネット等との接続の主な処理を行うようにしてもよい。
 センシング部207はセンサ入出力部206を介した各種センサの処理を行う。センサとしては、傾斜センサや加速度センサなどユーザの体勢や向きや動きを検出するもの、視線センサや温度センサなどユーザの身体状態を検出するもの、タッチセンサ107などの感圧センサや静電容量センサなどユーザの指示入力を検知する入出力インターフェイスとして用いられるもの、近接センサによるユーザの装着の有無の検知するものなどであり、ウェアラブル装置100は複数のセンサを搭載可能である。
 記憶媒体205には事前に採取登録したユーザの生体情報のテンプレートを保存し、認証処理部204によってユーザテンプレートと検出パターンとを比較し照合することで認証可否を判定する。生体認証を用いてユーザ認証を行うことでウェアラブル装置100のセキュリティ性を高めることができる。生体認証に用いられる生体情報は、掌紋、指紋、静脈、虹彩、網膜、顔、掌形、声紋、脳波、脈波等の生体的特徴の検出対象でもよい。これらの生体情報は生体情報検出部291によって取得が行われる。
 生体情報検出部291は、例えば撮像部202と別途設けられた虹彩や網膜を検出する専用の撮像部すなわち図1Cに示した撮像部109であってもよいし、静電容量式のセンサを用いた指紋検出部であってもよいし、脳波や脈波を光学的もしくは電気的に検出する検出部であってもよい。ただし、専用の生体情報検出部291が設けられることに限定するものではなく、生体情報検出部291は他の構成部と全てあるいは一部を共用されてもよく、図1Bに示したように撮像部106は切り替え可能であってもよい。
 例えばユーザの視界の一部を撮影する撮像部202によって、生体情報である掌紋、指紋、静脈、掌形等の検出を行えば、生体情報検出部291と撮像部202は共用化され、掌紋、指紋、静脈、掌形等の検出専用の生体情報検出部291を設ける必要がなくウェアラブル装置100の小型軽量化を図ることができる。また、音声入出力部210によって声紋の検出を行えば、生体情報検出部291と音声入出力部210は共用化され、声紋の検出専用の生体情報検出部291を設ける必要がない。
 認証時に検出対象の位置ずれにより認証精度が劣化するのを抑制する為に、ウェアラブル装置100は補助情報としてユーザの視界に位置案内用のガイドを補助情報生成部290で生成し映像表示部203で表示してもよい。虹彩や網膜の検出における補助情報として、視線の方向を指定する位置ガイドが表示されることにより、眼球の動きを抑制してもよく、映像表示部203の表示を暗くして瞳孔を開かせてもよい。また、指紋の検出における補助情報として、スキャンの開始タイミング等が表示されてもよい。さらに、声紋の検出における補助情報として、発音開始を指示する表示や、発音すべきフレーズが表示される、フレーズ読み上げのタイミングが文字の色を順番に変えて表示されてもよい。ウェアラブル装置100は認証方式に応じた補助情報をユーザへ提供することにより、認証精度を向上することができる。
 以下ではユーザの視界を撮影する撮像部202によって、掌紋、指紋、静脈等の生体情報の検出を行い、生体情報検出部291と撮像部202が共用化され、専用の生体情報検出部291を設ける必要がなく、ウェアラブル装置100を小型軽量にした構成例についてさらに詳しく説明する。
 図3は生体情報検出部291と撮像部202が共用化した際のウェアラブル装置100cの構成の例を示す図である。図3に示したウェアラブル装置100cは図2に示した補助情報生成部290と生体情報検出部291を有さず、位置案内部212と位置案内画像生成部213を有し、その他は図2を用いて説明した構成を有する。
 ユーザは撮像部202の撮像範囲105内に例えば掌をかざすことで、ウェアラブル装置100cは生体情報として掌紋のパターンを検出する。認証処理部204は記憶媒体205に記録されたユーザテンプレートと検出パターンとを比較し照合することで認証可否を判定する。周囲の光量が足りず検出対象の撮影が難しい場合は、特に図示はしない照明機構をウェアラブル装置100cに搭載し、照明機構によって検査対象物に対する光量を上げてもよい。
 生体情報検出部291の代わりに撮像部202が撮影することは可能であるが、認証の判定時に次のような課題がある。すなわち、掌紋を撮影してパターン検出する際に掌の位置ずれや傾きにより撮影したパターンが変化する為、登録されたテンプレートのパターンと一致しにくく、認証精度が大きく劣化するという課題がある。製品として多く見られる生体認証装置は生体情報の検出対象の位置ずれを抑制する為、検出対象が繰り返し同じ位置に配置できるように、検査対象物の位置決めをするための置台を有する。そして、この置台すなわち位置決め台に検査対象を載せて位置決めしてパターン検出を行う。
 しかし、位置決め台を有するウェアラブル装置100cは小型化が困難であり、ウェアラブル装置としての装着性が低下する。また、ウェアラブル装置100cの外見の意匠の制約となる。そこで、位置決めのために、位置案内部212により、位置決め台を用いずに認証時の検出対象を正しい位置に配置できるようにする。
 図4は位置案内の例を示す図である。この例で位置案内部212は映像表示部203を用いてユーザの視野内の一部の領域103に位置ガイド110を表示する。位置ガイド110の画像情報は位置案内画像生成部213によって生成されたものであり、掌紋パターン登録時の掌の輪郭である。映像表示部203は登録時の撮像部202に対する掌の輪郭位置をユーザの視野内に虚像として表示し、すなわち実像の検出対象111に対して位置ガイド110を拡張現実(Augmented Reality:AR)として表示し、掌の置く位置を指示する補助情報とする。この時にユーザはARとして表示された位置ガイド110を見て、それに重なるよう検出対象111(図4の例では掌)を移動することにより、登録時と略同等の位置や傾きで検出対象111を配置することができる。
 図4では掌を生体情報の検出対象の例として説明したが、検出対象は掌に限定さえるものではなく、位置ガイドも掌の輪郭に限定されるものではない。図5A~図5Cは別の位置案内の例を示す図である。図5Aの例は掌紋等や指紋を検出対象とし、位置ガイド110aは十字のマークであって、十字のマークで掌の中心部分や所定の指の位置基準を示す。図5Bの例は指紋を検出対象とし、位置ガイド110bは指の輪郭であって、検出対象の指を重ねる位置を示す。また、掌紋等を検出対象とし、位置ガイド110bは複数の指の輪郭であって、検出対象の複数の指を重ねる位置を示し、掌の位置を特定してもよい。図5Cの例は掌紋や掌の静脈等を検出対象とし、位置ガイド110cは輪郭でなく簡単に目視できる代表的な掌紋や静脈等のパターンであって、検出対象の掌の重ねる位置を示す。以上で説明した以外であっても、多様な生体情報の検出対象にあわせて、検出対象の配置するべき位置をユーザに知らせられるものであれば、位置ガイドの表示形式は限定されない。以下では位置ガイド110a、110b、110cなども含めて代表的に位置ガイド110と記載する。
 また、位置案内時にユーザの検出対象が所定の位置に配置された際、ウェアラブル装置100は位置判定結果をリアルタイムに表示することにより、検出対象が正しい位置に置けたことをユーザへ知らせてもよい。この位置判定結果は文字で表示されてもよいが、位置ガイド110の表示色を変化させる等することにより、検出対象の正しい位置に置かれたことが直感的にユーザへ認識されてもよい。また、映像表示部203は認証結果をARに表示することにより、ユーザが認証結果を視線移動することなくリアルタイムに確認でき、ウェアラブル装置100cとしての表示が有効利用できる。
 また、位置ガイド110と検出対象111の位置が一致した時にのみ、撮像部202から得られる撮影画像を用いてテンプレートとのパターン照合をすることにより、不必要に認証のための判定処理をする必要がなくなり、バッテリーによって動作し電源容量の限られるウェアラブル装置100において消費電力を抑制することができる。このような消費電力の抑制に加えて、加速度センサ、近接センサ、タッチセンサ等のセンサ入出力部206の所定の入力信号をトリガとして認証処理を開始する構成とすることで、必要なときのみに認証処理を開始でき、それ以外は待機状態とすることでバッテリーによって動作し電源容量の限られるウェアラブル装置100cにおいて消費電力を抑制し、長時間駆動を実現することができる。
 図6はウェアラブル装置100における生体認証のフローチャートの例を示す図である。ウェアラブル装置100はステップ301で処理を開始する。ウェアラブル装置100はステップ302でセンサ入出力部206からの認証処理開始のトリガ信号の有無を判定する。ウェアラブル装置100はステップ302においてトリガ信号を検出した場合、ステップ380で認証処理を開始する。ウェアラブル装置100はステップ381で補助情報を表示する。
 ウェアラブル装置100はステップ307で記憶媒体205に登録されたテンプレートデータと検出した生体情報パターンとを比較照合して認証の可否を判定する。照合の結果として認証に成功した場合、ウェアラブル装置100はステップ308で成功した旨を知らせる認証結果表示を行い、詳細情報の表示をする。ステップ307で認証に失敗した場合、ウェアラブル装置100はステップ309で失敗した旨を知らせる結果表示をユーザへ行い、関連情報の表示を終了する。
 特に撮像部202を用いて生体情報を検出し、補助情報として位置ガイド110を表示する場合の生体認証のフローチャートの例を図7に示す。ウェアラブル装置100cはステップ301で処理を開始する。ウェアラブル装置100cはステップ302でセンサ入出力部206からの認証処理開始のトリガ信号の有無を判定する。ウェアラブル装置100cはステップ302においてトリガ信号を検出した場合、ステップ303で認証処理を開始する為に撮像部202により撮影を開始する。ウェアラブル装置100cはステップ304で映像表示部203によりユーザの視野内の一部の領域103に位置ガイド110をARとして表示する。これらの撮影と表示は少なくともステップ304~307において継続する。ウェアラブル装置100cはステップ305で位置ガイド110に重なるようにユーザが検出対象111を配置できたかを撮像部202の撮影画像に基づき判定をする。位置が正しく配置できた場合、ウェアラブル装置100cはステップ306において位置判定結果をユーザへ知らせる表示を実施する。ウェアラブル装置100cはステップ307で記憶媒体205に登録されたテンプレートデータと撮像部202により検出した生体情報パターンとを比較照合して認証の可否を判定する。照合の結果として認証に成功した場合、ウェアラブル装置100cはステップ308で成功した旨を知らせる認証結果表示を行い、詳細情報の表示をする。ステップ307で認証に失敗した場合、ウェアラブル装置100cはステップ309で失敗した旨を知らせる結果表示をユーザへ行い、関連情報の表示を終了する。
 以上で説明したように、外界が視認可能な状態でユーザの視野方向に所定の情報を表示する映像表示部203を備えたウェアラブル装置100であって、ユーザ情報を記憶する記憶媒体205と、ユーザの視野方向を撮影する撮像部202と、映像表示部203の表示範囲と撮像部202の撮像範囲内とが重なる領域に配置した検査対象物からユーザの生体情報の検出を行い、検出された生体情報と記憶媒体205に記憶されたテンプレートとを照合してユーザ認証を行う認証処理部204とを備えたことを特徴とすることで、小型軽量でウェアラブルな情報表示端末等において、簡潔な構成で精度よくユーザを認証できる。
 次に、通信部208を用いた外部情報処理装置との連携について詳しく説明する。図8はウェアラブル装置100と外部情報処理装置(外部機器)との通信接続連携の例を示す図である。インターネット回線150を介して通信部208によりウェアラブル装置100は、PC151やスマートフォン152、サーバ153、他のウェアラブル装置154等の外部機器と通信し、外部機器内の情報をウェアラブル装置100の映像表示部203によってユーザの視界内に表示することができる。ここで、インターネット回線150に替えて、Bluetooth(登録商標)、Wifi(登録商標)、UHF、VHF等の近距離/遠距離無線通信により通信を行うようにしてもよい。
 ウェアラブル装置100から外部機器内の情報を閲覧/編集する際の秘匿性を高める為に、ユーザ認証してから外部機器との通信接続を確立する。そこで、認証処理部204でのユーザ認証をウェアラブル装置100の使用可否のみに用いるのではなく、外部機器との通信接続の確立にあたってのユーザ認証において用いる。これにより、外部機器とウェアラブル装置100を連携させる際のユーザの利便性や情報の秘匿性を向上することができる。
 なお、図8に示す通信接続連携における認証は、認証の判定を実行する位置がどの装置上であるかに応じてホスト認証方式とセルフ認証方式に分類される。ホスト認証方式は認証の判定の位置がインターネット回線150を介したサーバ153上にあり、ウェアラブル装置100は撮像部202による撮影データを送信してサーバ153側で接続、認証を行う方式である。一方、セルフ認証方式は認証の判定の位置が撮像部202と同じウェアラブル装置100の筐体内にあり、ウェアラブル装置100内でサーバ153側の認証も行う方式である。ホスト認証方式は撮影データを通信すればよいが、専用サーバを使ったネットワークシステムを必要とし、システムが煩雑となる。一方、セルフ認証方式は専用サーバを使ったネットワークシステムを必要としないため、小規模のシステムとすることができる。
 以下ではセルフ認証方式について詳しく説明する。図9はウェアラブル装置100dと外部機器250の認証に関する構成の例を示す図である。ウェアラブル装置100dは図3を用いて説明したウェアラブル装置100cの構成と署名部214を有する。また、外部機器250は図8に示したPC151やスマートフォン152、サーバ153、他のウェアラブル装置154等である。セルフ認証方式においてウェアラブル装置100dは撮像部202によって検出された生体情報を認証処理部204によって登録データと照合し認証を行う。認証が成功すればウェアラブル装置100dの詳細機能や情報表示が可能となると同時に、ウェアラブル装置100dはインターネット回線150を介して外部機器250と通信をおこない、外部機器250の認証要求部251から認証要求を受信した際に、外部機器250にユーザ認証結果を通知する。これにより、外部機器250は遠隔地のウェアラブル装置100dでの生体認証の実行結果を確認できる。
 認証に加えて、ウェアラブル装置100dと外部機器250との間の通信は、例えば公開鍵暗号を用いられることにより、秘匿性を確保したシステムとすることができる。認証処理部204での照合結果に基づいて、照合結果やユーザ情報やサーバからの認証要求の識別情報等の認証情報に対し、署名部214は(秘密)暗号鍵による署名を行い、ウェアラブル装置100dは署名の行なわれた認証情報を外部機器250へ送信する。これに対し、外部機器250は認証部252によってユーザの正当性を(公開)鍵を用いて検証する。外部機器250側でユーザ認証確認ができた場合はウェアラブル装置100dとの接続を許可し、内部情報の表示がウェアラブル装置100d側で可能となる。
 図10はウェアラブル装置100dと外部機器250との認証接続のフローチャートの例を示す図である。図10においてステップ310の生体認証処理は図7を用いて説明したステップ302~307である。ウェアラブル装置100dはステップ311で外部機器250へ接続要求を送信する。ウェアラブル装置100dはステップ312で外部機器250から認証要求を受信する。ウェアラブル装置100dはステップ313で照合結果に基づいて照合結果、ユーザ情報、サーバからの認証要求の識別情報等の認証情報に対し(秘密)暗号鍵による署名を行う。ウェアラブル装置100dはステップ314で署名を行った認証情報を外部機器250へ送信する。外部機器250はステップ315で受信した認証情報が先に発行した認証要求に対するものか否かと、ユーザの正当性を(公開)鍵を用いて検証し、対象ユーザの正当性を判定する。外部機器250はステップ316で判定結果に正当性が得られれば外部機器250の内部詳細情報を表示可能にする。正当性が得られなければ外部機器250はステップ317で関連情報の表示を終了させる。
 次に、生体認証の照合に用いるテンプレートの登録手順について説明する。図11はテンプレート登録手順のフローチャートの例を示す図である。ウェアラブル装置100はステップ330でセンシング部207や音声処理部211を用いた生体情報の登録が指示される。具体的には例えばタッチセンサ107や音声によって所定の動作や発音をされることでウェアラブル装置100は指示されればよい。ウェアラブル装置100はステップ331で登録処理を開始すると、検出対象を配置する位置目標を映像表示部203でARとしてユーザの視界に表示する。ウェアラブル装置100はステップ332で撮像部202によって生体情報の検出を行う。
 ウェアラブル装置100はステップ333で検出した生体情報のパターンを記録媒体205に登録する。ウェアラブル装置100はステップ334で位置案内画像生成部213により位置ガイドデータを生成して記憶媒体205へ登録し、ユーザ認証時に前述のとおり位置ガイド110として表示することで認証精度を高めることができる。PC151やスマートフォン152、サーバ153、他のウェアラブル装置154等の外部機器との接続連携に用いる場合、ウェアラブル装置100はステップ335でセルフ認証かホスト認証かを判別し、セルフ認証であればステップ336でサーバ側のユーザアカウントと登録したテンプレートとを関連付けて登録する。また、ホスト認証であれば、ウェアラブル装置100はステップ337でパターンデータをホスト認証の判定を行う外部機器へ送信して、生体情報をユーザテンプレートとして登録する。
 位置案内画像生成部213での位置ガイドデータの生成について詳しく説明する。例えば掌の輪郭を用いる場合は撮像部202で取得した掌の撮影画像から輪郭を抽出する。撮像部202の設置位置とユーザの目の位置がずれている場合、撮像部202の視野とユーザの視野には違いが生じることとなる。このため、撮像部202で取得した輪郭画像をそのまま映像表示部203によりユーザの視野に表示した場合、正しい輪郭の位置からずれが生じてしまい正しい位置へ案内できないこととなる。加えて、映像表示部203で輪郭を表示する際に、検出対象の大きさを調整した縮尺で表示する必要がある。
 撮像部202と映像表示部203それぞれの倍率等の仕様と、撮像部202と映像表示部203との位置関係と、映像表示部203とユーザの目のおおよその位置はウェアラブル装置100の設計時に決まるため、それらに基づき補正の係数を決めておく。そして、視野の違いや表示倍率の違いを位置案内画像生成部213によって幾何学的に画像補正を行い、記憶媒体205に登録することで、認証時により正確に位置案内ができ、認証精度を高めることができる。
 位置案内画像生成部213を用いない場合には、登録時と認証時に同じ固定の位置ガイドマークを表示して、この表示された固定の位置ガイドマークに対してユーザは検出対象を位置決めすることで、登録時と認証時の位置ずれを抑制することができ、かつ位置案内画像生成部213を設ける必要がないため、登録時の処理を簡略化することができる。
 次に、生体認証の照合に用いるテンプレートの変更手順について説明する。図12はテンプレートの変更手順のフローチャートの例を示す図である。ウェアラブル装置100はステップ340でセンシング部207や音声処理部211を用いた生体情報テンプレートの変更が指示される。具体的には例えばタッチセンサ107や音声によって所定の動作や発音をされることでウェアラブル装置100は指示されればよい。ウェアラブル装置100はステップ341で既存の登録されているテンプレートにおいて一度認証処理を実行する。このステップ341の生体認証処理は図7を用いて説明したステップ302~307である。
 ウェアラブル装置100はステップ342でユーザ本人と判定されれば、ステップ343で登録変更処理を開始し、検出対象を配置する位置目標を映像表示部203でARとしてユーザの視界に表示する。ウェアラブル装置100はステップ344で撮像部202によって生体情報の検出を行う。ウェアラブル装置100は検出したパターンをステップ345で記録媒体205に登録する。ウェアラブル装置100はステップ346で位置案内部212のための位置ガイドデータを生成し登録する。
 ウェアラブル装置100はステップ347でセルフ認証かホスト認証かを判別し、ホスト認証であれば認証の判定を行う外部機器へ変更したテンプレートデータをステップ348で送信して、生体情報のユーザテンプレートを変更登録する。また、セルフ認証であればウェアラブル装置100はステップ349でテンプレート変更処理を終了する。
 以上で説明した実施形態に限定されるものではなく、様々な変形例が含まれる。生体情報検出部291についても、以上の説明に加えて、レーザスキャン部を用いる構成としてもよい。図13にレーザスキャン部500の構成の例を示す。レーザスキャン部500はレーザ光源501とスキャン機構502と検出部503を備え、スキャン機構502によりレーザ光源501からの光をスキャンして検出対象物504の所定の領域内へ照射する。反射光を検出部503によって検出することで、所定の領域内の3次元形状や濃淡を計測することができる。3次元形状の計測にはタイム・オブ・フライト方式やフェイズシフト方式等を用いればよい。
 周囲が暗い場合には撮像部202には照明が必要であるが、レーザスキャン部500による検出を行えば、照明部と検出部を小型な装置で実現できる。また光源として赤外波長を用いることで生体内部の静脈等の形状を取得してもよい。このように、レーザスキャン部500によって生体検出することにより、一つのレーザスキャン部500は様々なタイプの生体情報を検出することができ、装置の小型化やマルチモーダル化による認証性能の向上をさせることができる。
 以上で説明したように、生体情報の照合精度を向上し、安定したユーザ認証が可能になる。また、安定したユーザ認証を通信による連携においても利用可能となる。
 実施例2として2種類以上の認証内容を判定する例を説明する。2種類以上の認証内容は例えば簡易な認証内容と詳細な認証内容であって、簡易な認証内容によりユーザの利便性を向上し、詳細な認証内容により強固なセキュリティを確保する。ウェアラブル装置100の構成は既に図2を用いて説明したとおりであるが、実施例2では認証処理部204による認証内容を複数とし、2つ以上の認証内容による認証を可能とする。
 第1の認証内容ではウェアラブル装置100の機能を制限して使用可能とする簡易認証とし、第2の認証内容ではウェアラブル装置100のすべての機能や外部機器との連携を可能とする詳細認証とする。掌紋等の認証内容は撮像部202を起動し掌の位置合わせする必要があり、認証操作に煩雑な面がある。そこで、より簡単な操作で認証を実現する第1の認証内容によって簡易認証してウェアラブル装置100の一部機能を使用可能とする。
 例えば第1の認証内容は声紋やジェスチャやタッチセンサ107のタッチ動作等でもよい。すなわち、ウェアラブル装置100は短いフレーズによる声紋認証や、タッチセンサ107の所定の領域を所定の順序で触れることによるタッチ動作での認証や、ジェスチャの検知等の認証を行えばよい。この際、ユーザへ情報表示装置203を用いて補助情報を表示する。しかし、これらの認証内容はタッチ動作やジェスチャやフレーズ等を観察することにより第3者に知られてしまう危険性がある。声紋は生体情報ではあるが、録音等の比較的簡単な方法で情報の取得が可能である。そこで、強固なセキュリティを確保する為に、第2の認証内容は既に説明したような認証精度が高く、成りすましの難しい掌紋や静脈等を用いる認証内容とすればよい。
 複数の認証内容を用いる生体認証のフローチャートの例を図14に示す。ウェアラブル装置100はステップ401で処理を開始し、ステップ402でセンサ入出力部206からの認証処理開始のトリガ信号の有無を判定する。ウェアラブル装置100はステップ402においてトリガ信号を検出した場合、ステップ403でユーザの選択指示が簡易認証であるか詳細認証であるかを判定する。
 ステップ403において簡易認証と判定された場合、ウェアラブル装置100はステップ404で簡易認証処理を開始する。ウェアラブル装置100はステップ405で簡易認証のための補助情報を表示し、ステップ406で記憶媒体205に登録されたテンプレートデータと検出した情報パターンとを比較照合して認証の可否を判定する。ステップ406の照合の結果として認証に成功した場合、ウェアラブル装置100は成功した旨を知らせる認証結果表示をステップ407で行い、簡易情報の表示をする。これに対し、ステップ406で認証に失敗した場合、ウェアラブル装置100は失敗した旨を知らせる結果表示をステップ408で行い、関連情報の表示を終了する。
 ステップ403において詳細認証と判定された場合、ウェアラブル装置100はステップ409で詳細認証処理を開始する。ウェアラブル装置100はステップ410で位置ガイド等の詳細認証のための補助情報を表示し、ステップ411で記憶媒体205に登録されたテンプレートデータと検出した生体情報パターンとを比較照合して認証の可否を判定する。ステップ411の照合の結果として認証に成功した場合、ウェアラブル装置100はステップ412において成功した旨を知らせる認証結果表示を行い、詳細情報を表示する。
これに対し、ステップ411で認証に失敗した場合、ウェアラブル装置100は失敗した旨を知らせる結果表示をステップ413で行い、関連情報の表示を終了する。
 外部機器との連携の際に、ウェアラブル装置100は簡易認証においても外部機器との連携を可能とし、図10に示したステップ315の正当性判定において、外部機器は受信した簡易認証または詳細認証の結果を用いてウェアラブル装置100へ提供する情報を簡易認証に対する情報と詳細認証に対する情報とで切り替えてもよく、接続先のセキュリティレベルに応じて簡易認証と詳細認証を使い分けてもよい。
 以上で説明したように、ウェアラブル装置は簡易な認証内容と詳細な認証内容等の2種類以上の認証内容に応じて提供する機能を切り替え、ユーザの利便性を向上したり、強固なセキュリティを確保したりできる。
 なお、実施の形態は以上の説明に限定されるものではなく、様々な変形例が含まれる。ウェアラブル装置100としてヘッドマウントディスプレイの場合を例にとって説明したが、必ずしもヘッドマウントディスプレイに限定されるものではなく、ARにより補助情報を表示できるものであれば、ヘッドマウントディスプレイ以外のウェアラブル装置のユーザ認証であってもよい。また、以上の実施例は分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。さらに、以上で説明した各機能や処理部等は、それらの一部または全部を所定のハードウェアで実現してもよいし、プロセッサがそれぞれの機能や処理部を実現するプログラムを解釈して実行することによりソフトウェアで実現してもよい。フローチャートに示した処理手順は一例であり、この処理手順に限定されるものではない。
100…ウェアラブル装置
110…位置ガイド
111…検出対象
201…コントローラ
202…撮像部
203…映像表示部
204…認証処理部
205…記憶媒体
206…センサ入出力部
207…センシング部
208…通信部
209…通信入出力部
210…音声入出力部
211…音声処理部
212…位置案内部
213…位置案内画像生成部

Claims (15)

  1.  ウェアラブル装置であって、
     前記ウェアラブル装置を装着したユーザに位置ガイドを表示する映像表示部と、
     撮像部と、
     前記位置ガイドに対応する位置で前記撮像部により撮影された生体情報に基づきユーザを認証する認証処理部と、
    を有することを特徴とするウェアラブル装置。
  2.  前記映像表示部は前記位置ガイドとして前記生体情報の検出対象部位の輪郭を表示すること
    を特徴とする請求項1に記載のウェアラブル装置。
  3.  前記認証処理部は前記位置ガイドと対応する位置として前記表示された検出対象部位の輪郭に一致する位置で前記撮像部により撮影された生体情報に基づきユーザを認証すること
    を特徴とする請求項2に記載のウェアラブル装置。
  4.  前記映像表示部は前記位置ガイドとして掌または指の輪郭を表示し、
     前記認証処理部は前記生体情報として掌紋、指紋、掌形または静脈に基づきユーザを認証すること
    を特徴とする請求項1に記載のウェアラブル装置。
  5.  前記映像表示部は前記位置ガイドとして十字のマークを表示すること
    を特徴とする請求項1に記載のウェアラブル装置。
  6.  前記認証処理部は前記位置ガイドと対応する位置として前記表示された十字のマークと所定の関係の位置で前記撮像部により撮影された生体情報に基づきユーザを認証すること
    を特徴とする請求項5に記載のウェアラブル装置。
  7.  前記映像表示部は前記装着したユーザの視線の方向を指定する位置ガイドを表示すること
    を特徴とする請求項1に記載のウェアラブル装置。
  8.  前記認証処理部は前記位置ガイドに対応する位置として前記装着したユーザの所定の視線方向の目の位置で前記撮像部により撮影された網膜あるいは虹彩に基づきユーザを認証すること
    を特徴とする請求項7に記載のウェアラブル装置。
  9.  前記映像表示部は前記位置ガイドに対応する位置の場合に前記位置ガイドの表示色を変更すること
    を特徴とする請求項1に記載のウェアラブル装置。
  10.  暗号鍵によって署名を行う署名部と、
     公開鍵暗号を用いて通信する通信部であって、前記認証処理部の認証に関する情報に対する認証要求を受信し、前記署名部により署名を行った前記認証に関する情報を送信する通信部と、
    をさらに有することを特徴とする請求項1に記載のウェアラブル装置。
  11.  レーザで対象物をスキャンするレーザスキャン部をさらに有し、
     前記認証処理部は前記位置ガイドに対応する位置で前記レーザスキャン部によりスキャンされた生体情報に基づきユーザを認証すること
    を特徴とする請求項1に記載のウェアラブル装置。
  12.  前記認証処理部は、前記位置ガイドに対応する位置で前記撮像部により撮影された生体情報に基づきユーザを詳細認証して、前記詳細認証により前記ウェアラブル装置の機能を制限せず使用可能とし、前記詳細認証とは異なる簡易認証により前記ウェアラブル装置の機能を制限して使用可能とすること
    を特徴とする請求項1に記載のウェアラブル装置。
  13.  撮像部と映像表示部を有するウェアラブル装置における認証方法であって、
     前記撮像部による撮影を開始する第1のステップと、
     前記映像表示部による前記ウェアラブル装置を装着したユーザへの位置ガイドの表示を開始する第2のステップと、
     前記映像表示部により表示される位置ガイドと前記撮像部により撮影された認証の検出対象とが重なるかを判定し、重ならないと判定した場合に重なるかの判定を繰り返す第3のステップと、
     前記撮像部により撮影された認証の検出対象の生体情報に基づき認証を判定する第4のステップと、
    を有することを特徴とする認証方法。
  14.  前記第2のステップは前記位置ガイドとして前記検出対象の輪郭を表示すること
    を特徴とする請求項13に記載の認証方法。
  15.  前記第2のステップは前記位置ガイドとして掌または指の輪郭を表示し、
     前記第3のステップは前記映像表示部により表示される位置ガイドと前記撮像部により撮影された掌または指とが重なるかを判定すること
    を特徴とする請求項13に記載の認証方法。
PCT/JP2014/066350 2014-06-19 2014-06-19 ウェアラブル装置および認証方法 WO2015194017A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/066350 WO2015194017A1 (ja) 2014-06-19 2014-06-19 ウェアラブル装置および認証方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/066350 WO2015194017A1 (ja) 2014-06-19 2014-06-19 ウェアラブル装置および認証方法

Publications (1)

Publication Number Publication Date
WO2015194017A1 true WO2015194017A1 (ja) 2015-12-23

Family

ID=54935046

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/066350 WO2015194017A1 (ja) 2014-06-19 2014-06-19 ウェアラブル装置および認証方法

Country Status (1)

Country Link
WO (1) WO2015194017A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156479A (ja) * 2017-03-17 2018-10-04 日本電信電話株式会社 認証システム、認証装置および認証方法
JP2018180952A (ja) * 2017-04-13 2018-11-15 富士通株式会社 情報処理装置、機能制限管理方法及び機能制限管理プログラム
JP2019511021A (ja) * 2016-02-10 2019-04-18 メフォン ベンチャーズ インク.Mefon Ventures Inc. バイオメトリクスによるウェアラブルデバイスのユーザ認証又は登録方法
JP2019121080A (ja) * 2017-12-28 2019-07-22 シヤチハタ株式会社 認証用画像の取得装置、認証用画像の取得システムおよび認証用画像の取得方法
JP2019535025A (ja) * 2017-09-11 2019-12-05 ピン・アン・テクノロジー(シェンゼン)カンパニー リミテッドPing An Technology (Shenzhen) Co., Ltd. 声紋識別によるエージェントログイン方法、電子装置及び記憶媒体
JP2020503578A (ja) * 2016-10-13 2020-01-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 仮想現実を使用したユーザ識別認証
JP2020504348A (ja) * 2016-10-13 2020-02-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 仮想現実に基づくサービス制御およびユーザ識別認証
WO2020105578A1 (ja) * 2018-11-21 2020-05-28 日本電気株式会社 撮像装置および撮像方法
JPWO2021245886A1 (ja) * 2020-06-04 2021-12-09
JP2022088423A (ja) * 2020-10-30 2022-06-14 株式会社ミクシィ 頭部装着ディスプレイ装置、認証方法、及び認証プログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273498A (ja) * 2000-03-24 2001-10-05 Matsushita Electric Ind Co Ltd バイオメトリックに基づく本人認証装置、本人認証システム、本人認証用カード及び本人認証方法
JP2003108983A (ja) * 2001-09-28 2003-04-11 Matsushita Electric Ind Co Ltd 目画像撮像装置及び虹彩認証装置並びに虹彩認証機能付き携帯端末装置
JP2005071118A (ja) * 2003-08-26 2005-03-17 Hitachi Ltd 個人認証装置及び方法
JP2008123207A (ja) * 2006-11-10 2008-05-29 Sony Corp 登録装置、照合装置、登録方法、照合方法及びプログラム
JP2009230692A (ja) * 2008-03-25 2009-10-08 Fujitsu Ltd 生体認証装置、生体情報登録装置および生体認証方法
JP2010146158A (ja) * 2008-12-17 2010-07-01 Fujitsu Ltd 生体認証装置、生体認証方法、及びコンピュータプログラム
JP2011013710A (ja) * 2009-06-30 2011-01-20 Nec Corp 生体パターン撮像装置
JP2012053629A (ja) * 2010-08-31 2012-03-15 Canon Inc 画像生成装置、画像生成方法、及びプログラム
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2014044654A (ja) * 2012-08-28 2014-03-13 Nikon Corp 情報入出力装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273498A (ja) * 2000-03-24 2001-10-05 Matsushita Electric Ind Co Ltd バイオメトリックに基づく本人認証装置、本人認証システム、本人認証用カード及び本人認証方法
JP2003108983A (ja) * 2001-09-28 2003-04-11 Matsushita Electric Ind Co Ltd 目画像撮像装置及び虹彩認証装置並びに虹彩認証機能付き携帯端末装置
JP2005071118A (ja) * 2003-08-26 2005-03-17 Hitachi Ltd 個人認証装置及び方法
JP2008123207A (ja) * 2006-11-10 2008-05-29 Sony Corp 登録装置、照合装置、登録方法、照合方法及びプログラム
JP2009230692A (ja) * 2008-03-25 2009-10-08 Fujitsu Ltd 生体認証装置、生体情報登録装置および生体認証方法
JP2010146158A (ja) * 2008-12-17 2010-07-01 Fujitsu Ltd 生体認証装置、生体認証方法、及びコンピュータプログラム
JP2011013710A (ja) * 2009-06-30 2011-01-20 Nec Corp 生体パターン撮像装置
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2012053629A (ja) * 2010-08-31 2012-03-15 Canon Inc 画像生成装置、画像生成方法、及びプログラム
JP2014044654A (ja) * 2012-08-28 2014-03-13 Nikon Corp 情報入出力装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511021A (ja) * 2016-02-10 2019-04-18 メフォン ベンチャーズ インク.Mefon Ventures Inc. バイオメトリクスによるウェアラブルデバイスのユーザ認証又は登録方法
US11227038B2 (en) 2016-10-13 2022-01-18 Advanced New Technologies Co., Ltd. User identity authentication using virtual reality
JP2020503578A (ja) * 2016-10-13 2020-01-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 仮想現実を使用したユーザ識別認証
JP2020504348A (ja) * 2016-10-13 2020-02-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 仮想現実に基づくサービス制御およびユーザ識別認証
JP2018156479A (ja) * 2017-03-17 2018-10-04 日本電信電話株式会社 認証システム、認証装置および認証方法
JP2018180952A (ja) * 2017-04-13 2018-11-15 富士通株式会社 情報処理装置、機能制限管理方法及び機能制限管理プログラム
JP2019535025A (ja) * 2017-09-11 2019-12-05 ピン・アン・テクノロジー(シェンゼン)カンパニー リミテッドPing An Technology (Shenzhen) Co., Ltd. 声紋識別によるエージェントログイン方法、電子装置及び記憶媒体
JP2019121080A (ja) * 2017-12-28 2019-07-22 シヤチハタ株式会社 認証用画像の取得装置、認証用画像の取得システムおよび認証用画像の取得方法
JP7098131B2 (ja) 2017-12-28 2022-07-11 シヤチハタ株式会社 認証用画像の取得装置、認証用画像の取得システムおよび認証用画像の取得方法
JPWO2020105578A1 (ja) * 2018-11-21 2021-09-27 日本電気株式会社 撮像装置および撮像方法
WO2020105578A1 (ja) * 2018-11-21 2020-05-28 日本電気株式会社 撮像装置および撮像方法
JP7259866B2 (ja) 2018-11-21 2023-04-18 日本電気株式会社 撮像装置および撮像方法
US11699304B2 (en) 2018-11-21 2023-07-11 Nec Corporation Imaging device and imaging method
US12046079B2 (en) 2018-11-21 2024-07-23 Nec Corporation Imaging device and imaging method
WO2021245886A1 (ja) * 2020-06-04 2021-12-09 三菱電機株式会社 建物の交通管理システム
JPWO2021245886A1 (ja) * 2020-06-04 2021-12-09
JP7294538B2 (ja) 2020-06-04 2023-06-20 三菱電機株式会社 建物の交通管理システム
JP2022088423A (ja) * 2020-10-30 2022-06-14 株式会社ミクシィ 頭部装着ディスプレイ装置、認証方法、及び認証プログラム
JP7339569B2 (ja) 2020-10-30 2023-09-06 株式会社Mixi 頭部装着ディスプレイ装置、認証方法、及び認証プログラム

Similar Documents

Publication Publication Date Title
WO2015194017A1 (ja) ウェアラブル装置および認証方法
US11892710B2 (en) Eyewear device with fingerprint sensor for user input
US10341113B2 (en) Password management
US10205883B2 (en) Display control method, terminal device, and storage medium
US9503800B2 (en) Glass-type terminal and method of controlling the same
US10102676B2 (en) Information processing apparatus, display apparatus, information processing method, and program
KR101688168B1 (ko) 이동 단말기 및 그 제어방법
JP6701631B2 (ja) 表示装置、表示装置の制御方法、表示システム、及び、プログラム
JP7070588B2 (ja) 生体認証装置、システム、方法およびプログラム
US9274599B1 (en) Input detection
US20140126782A1 (en) Image display apparatus, image display method, and computer program
KR20160136013A (ko) 이동 단말기 및 그 제어 방법
US20160116740A1 (en) Display device, control method for display device, display system, and computer program
JP6789170B2 (ja) ディスプレイ装置、認証方法、及び認証プログラム
JP2018032222A (ja) 携帯機器、認証方法および認証プログラム
US20230308873A1 (en) Systems and methods for user authenticated devices
CN118202347A (zh) 具有监测和/或控制的相机循环的面部识别和/或认证系统
JP5730086B2 (ja) 入力装置および入力方法
JP6539981B2 (ja) 表示装置、表示装置の制御方法、表示システム、及び、プログラム
KR101629758B1 (ko) 글라스형 웨어러블 디바이스의 잠금해제 방법 및 프로그램
JP7045633B2 (ja) 頭部装着ディスプレイ装置、認証方法、及び認証プログラム
JP7583318B2 (ja) 頭部装着ディスプレイ装置、認証方法、及び認証プログラム
KR20240014988A (ko) 생체 정보에 기반한 외부 표시 장치와의 연결 방법 및 전자 장치
KR20180031240A (ko) 이동 단말기 및 그 이동 단말기의 제어 방법
KR20240014415A (ko) 외부 장치를 이용한 지문 탈취 방지 방법 및 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14895187

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 14895187

Country of ref document: EP

Kind code of ref document: A1