WO2018079001A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- WO2018079001A1 WO2018079001A1 PCT/JP2017/028066 JP2017028066W WO2018079001A1 WO 2018079001 A1 WO2018079001 A1 WO 2018079001A1 JP 2017028066 W JP2017028066 W JP 2017028066W WO 2018079001 A1 WO2018079001 A1 WO 2018079001A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- fingerprint
- finger
- fingerprint information
- information
- processing apparatus
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/02—Detectors of external physical values, e.g. temperature
- G04G21/025—Detectors of external physical values, e.g. temperature for measuring physiological data
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/08—Touch switches specially adapted for time-pieces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/33—User authentication using certificates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0338—Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2149—Restricted operating environment
Definitions
- the present disclosure relates to an information processing apparatus, an information processing method, and a program.
- Patent Document 1 it is possible to easily detect a fingerprint even in an information processing apparatus having a small number of connected peripheral devices by enabling an IC card having a fingerprint detection / collation function to be mounted on the apparatus body. It describes an input device to which a verification function can be added.
- wearable devices such as smart watches that are worn on the user's body have become widespread.
- wearable devices are pursuing ease of use, portability, downsizing, etc.
- the operation parts such as buttons are expected to become smaller and the operability is reduced due to the smaller operation parts. Is concerned.
- a fingerprint information acquisition unit that acquires fingerprint information
- a determination unit that determines a finger operation based on the fingerprint information
- a predetermined operation based on the determined operation.
- An information processing apparatus including a processing unit that performs predetermined processing is provided.
- the fingerprint information is acquired, the finger movement is determined based on the fingerprint information, and the predetermined predetermined in accordance with the movement is determined based on the determined movement.
- An information processing method is provided.
- means for acquiring fingerprint information, means for determining a finger movement based on the fingerprint information, and predetermined processing predetermined according to the movement based on the determined movement A program for causing a computer to function as a means for performing the above is provided.
- FIG. 4 it is a schematic diagram which shows a mode that each position of a finger
- FIG. 1 is a schematic diagram illustrating a state in which a smart watch 100 according to the present embodiment is operated as an example of a wearable device.
- the smart watch 100 includes a touch panel 106 and a fingerprint sensor 102.
- the smart watch 100 performs desired operations and processes required by the user when the user operates the touch panel 106 and buttons (not shown).
- the smart watch 100 performs authentication when the user applies a fingerprint to the fingerprint sensor 102, and performs a desired operation and processing required by the user.
- Wearable devices are expected to become smaller in size, considering the pursuit of convenience, portability, and miniaturization. Considering that important information such as biological information is accumulated in the wearable device, the wearable device is required to have higher security. Furthermore, in wearable devices, there is a demand for realizing complicated input operations such as character input and various complicated functions.
- fingerprint authentication is widely used. For example, in personal authentication using a fingerprint of one finger, authentication can be performed by putting another person's finger on the device while the device owner is sleeping. There are security issues such as passing through. As for operability, it is difficult to input characters and realize various functions on a small screen such as a wearable device.
- characters on a small screen such as a wearable device, depending on the type of finger being operated, the direction of movement of the finger, how to move the finger (short press / long press, light press / strong press), etc.
- each function and application can be switched.
- authentication high security can be secured by combining fingerprint authentication with password input using numbers and characters. Details will be described below.
- FIG. 2 is a block diagram illustrating a configuration of the smart watch 100 according to the present embodiment.
- the smart watch 100 includes a fingerprint sensor 102, other sensor units 104, a touch panel 106, a control unit 110, and a storage unit 120.
- the fingerprint sensor 102 detects fingerprint information related to a fingerprint from an image obtained by imaging.
- the fingerprint sensor 102 may detect fingerprint information from capacitance.
- the fingerprint information is image information representing the shape of the fingerprint.
- the fingerprint information is a capacitance according to the unevenness of the fingerprint.
- the fingerprint sensor 102 may detect fingerprints by other methods such as a thermal method, an electric field method, and a pressure method. More specifically, in the optical system, fingerprint information is detected by placing a finger on a prism or a glass surface and capturing an image of the finger with a CCD camera or the like from the opposite side of the surface on which the finger is placed.
- the electrostatic method is a method for obtaining fingerprint information based on a difference in charge amount between a peak of a fingerprint (a raised portion of a skin forming a fingerprint pattern) and a valley when a finger is pressed against the fingerprint sensor 102.
- the thermal type is a method for obtaining fingerprint information by detecting a temperature difference between the temperature (body temperature) and the valley temperature (air temperature) of the peak portion of the fingerprint contacting the surface of the fingerprint sensor 106.
- the electric field formula is a method in which a distribution pattern generated from a difference in electric field intensity between a peak portion and a valley portion of a fingerprint generated by a weak current flowing on the surface of a finger is used as fingerprint information.
- the touch panel 106 includes a display unit such as a liquid crystal display (LCD) and a touch sensor.
- the smart watch 100 may include components such as a speaker that outputs information by voice.
- the other sensor unit 104 is a sensor other than the fingerprint sensor 102. For example, a position sensor (GPS) that detects position information of the smart watch 100, a temperature sensor that detects the temperature of the finger, and a pressure that detects the pressure of the finger. Sensors and the like.
- GPS position sensor
- the control unit 110 is a component that performs various processes of the smart watch 100, and includes a fingerprint information acquisition unit 112, a fingerprint information registration unit 113, a fingerprint collation unit 114, a fingerprint determination unit 116, and a processing unit 118.
- the storage unit 120 includes a registered fingerprint information recording unit 122 that records registered fingerprint information. Further, the storage unit 120 stores programs and data of various applications 124 corresponding to the smart watch 100.
- the components of the control device 110 shown in FIG. 2 can be configured by a circuit (hardware) or a central processing unit such as a CPU and a program (software) for functioning the same.
- the fingerprint information acquisition unit 112 acquires fingerprint information detected by the fingerprint sensor 102.
- the fingerprint information registration unit 113 registers the fingerprint information acquired by the fingerprint information acquisition unit 112 in the registered fingerprint information recording unit 122.
- the fingerprint information acquisition unit 112 acquires fingerprint information for each user.
- the fingerprint information for each user includes fingerprint information indicating the shape of the fingerprint of each finger of the right hand and left hand, and fingerprint information when each finger is tilted.
- the fingerprint information for each user is registered in the registered fingerprint information recording unit 122.
- the fingerprint collation unit 114 collates the fingerprint information acquired by the fingerprint sensor 102 with the fingerprint information registered in the registered fingerprint information recording unit 122 and performs authentication.
- the fingerprint collation unit 114 can also perform authentication by collating a password input from the touch panel 106 with a password registered in advance in the storage unit 120 in addition to fingerprint information. In this case, it is possible to improve security by using both fingerprint information and password authentication.
- the fingerprint determination unit 116 based on the fingerprint information acquired by the fingerprint information acquisition unit 112 and the information registered in the registered fingerprint information recording unit 122 when the verification by the verification unit 114 is successful, Is determined (finger operation).
- the registered fingerprint information recording unit 122 records information corresponding to the finger type and finger movement corresponding to the registered fingerprint information and predetermined processing performed by the smart watch 100 in association with each other.
- the processing unit 118 refers to the processing associated with the registered fingerprint information recording unit 122 based on the determination result of the fingerprint determination unit 116, and the smart watch 100 performs processing such as starting the application 124 and moving focus. A predetermined process that can be executed is performed.
- the touch panel 106 displays the process and results of processing.
- FIG. 3 is a flowchart showing processing performed by the smart watch 100.
- the fingerprint information acquisition unit 112 determines whether or not a finger touches the fingerprint sensor 102 based on the fingerprint information obtained from the fingerprint sensor 102, and the finger touches the fingerprint sensor 102.
- fingerprint information is acquired in the next step S12.
- the fingerprint collation unit 114 determines whether or not the finger has fingerprint information registered in the registered fingerprint information recording unit 122 in advance based on the acquired fingerprint information, and is registered.
- the process proceeds to step S16.
- the fingerprint determination unit 116 determines a finger to be operated (determination of whether it is an index finger or a middle finger) and a finger motion (determination of position, movement direction, inclination, etc.).
- the processing unit 118 activates the application 124 and executes the function according to the type of finger to be operated and the movement of the finger determined in step S16. Specifically, the application 124 is activated or the process of moving the focus is performed according to the type and operation of the finger to be operated.
- step S20 the fingerprint information acquisition unit 112 determines whether or not there is a change from the finger determined in step S16. If there is a change, the process proceeds to step S14, and the subsequent processing is performed again. On the other hand, if there is no change, the process of step S18 is continued.
- step S10 If it is determined in step S10 that the finger is not touching the fingerprint sensor 102, or if it is determined in step S14 that the finger is not pre-registered, the process ends.
- FIGS. 4 to 6 are schematic diagrams for explaining the arrangement of the fingerprint sensor 102 and the operation discrimination method. 4 to 6, in order from the top, “a view of the finger touching the fingerprint sensor from the side”, “a view of the finger touching the fingerprint sensor from the bottom”, “ Each figure of “the figure which shows the operation discrimination method” is shown.
- FIG. 4 shows a case where the fingerprint sensor 102a having the same size as the fingerprint 202 of the finger 200 is used as the fingerprint sensor, and the operation is discriminated by the type and operation of the finger 200 in contact with the fingerprint sensor 102a.
- the operation is determined by tilting the finger 200.
- a part of the fingerprint 202 is lifted, and only a part of the fingerprint 202 of the finger 200 is detected, as shown in a diagram of “operation determination method”.
- the direction in which the finger 200 is tilted is recognized.
- the predetermined process can be performed only by tilting the finger 200 without moving the finger 200.
- it can also be used in combination with an existing sensor such as a pressure sensor, using detection by the fingerprint sensor 102a as a trigger.
- FIG. 5 shows a case where one fingerprint sensor 102b smaller than the fingerprint of the finger is used and the operation is discriminated by the movement of the finger touching the fingerprint sensor 102b and the finger.
- the finger 200 when the finger 200 is moved, it is possible to determine in which direction the finger 200 has moved, based on the movement of the shape of the fingerprint 202, as shown in " Figure showing operation determination method". More specifically, based on the fingerprint information acquired at each control cycle, by comparing the fingerprint information acquired at the present time with the fingerprint information acquired one cycle ago, in which direction the finger moved Is determined.
- This moving direction may be determined by tracking the same feature point and calculating the moving direction, or by calculating the moving direction that maximizes the correlation of the entire image. May be.
- fingerprint minutia points and sweat gland information may be used as the feature points. Accordingly, it is possible to perform predetermined processing such as starting the application 124 or moving the focus according to the direction in which the finger 200 is moved. According to the example shown in FIG. 5, the fingerprint sensor 102b can be made as small as possible, and even the small fingerprint sensor 102b can grasp the movement of the finger.
- FIG. 6 shows a case in which a plurality of fingerprint sensors 102b smaller than the fingerprint 202 of the finger 200 are used, a plurality of fingerprint sensors 102b are arranged at necessary positions, and the operation is performed depending on the type of the finger 200 touching the fingerprint sensor 102b
- the operation is determined based on the position and ratio of touching the fingerprint sensor 102b.
- a part of the fingerprint 202 is lifted as shown in the “figure showing the operation determination method”, so that the fingerprint 202 is detected by only a part of the plurality of fingerprint sensors 102b.
- the fingerprint information is detected only by the fingerprint sensor 102b at the tip of the four fingerprint sensors 102b.
- the direction in which the finger 200 is tilted is recognized by detecting the fingerprint only with a part of the plurality of fingerprint sensors 102b. Accordingly, it is possible to perform predetermined processing such as starting the application 124 or moving the focus in accordance with the direction in which the finger 200 is tilted.
- predetermined processing such as starting the application 124 or moving the focus in accordance with the direction in which the finger 200 is tilted.
- a plurality of fingerprint sensors 102b at different positions can be used in combination according to the operation method.
- the smart watch 100 can perform a predetermined process according to the operation of the finger 200.
- FIG. 7 is a schematic diagram illustrating an example of a bracelet device 100 as a wearable device.
- the fingerprint sensor 102 a plurality of fingerprint sensors 102 c, 102 d, and 102 e are provided on the outer peripheral surface of the bracelet type device 100.
- Fingerprint sensors 102c, 102d, and 102e are arranged at different positions, and operation determination is performed based on the type, operation, and combination of the finger that has touched fingerprint sensors 102c, 102d, and 102e. In this example, the operation is determined according to which finger of which finger sensor 102c, 102d, 102e at different positions is touched.
- the bracelet type device For example, when the leftmost fingerprint sensor 102c is touched twice with the index finger and the middle fingerprint sensor 102d is touched once with the middle finger, predetermined processing is performed by the bracelet type device. According to the example shown in FIG. 7, it is possible to arrange the fingerprint sensor in accordance with the shape of the device. In the case of a device attached to the arm as shown in FIG. 7, a desired process can be realized by touching a different position of the bracelet by providing a fingerprint sensor at a different position of the bracelet.
- FIG. 8 is a schematic diagram showing how the fingerprint information registration unit 113 pre-registers each position of the finger 200 in the example of FIG.
- fingerprint information is registered at a home position where the entire surface of the fingerprint 202 is in close contact with the sensor surface of the fingerprint sensor 102a.
- a part of the fingerprint 202 is registered for each of the case where the finger 200 is tilted up, tilted right, tilted left, or tilted down.
- the registered fingerprint information is recorded in the registered fingerprint information recording unit 122.
- the fingerprint sensor 102a detects fingerprint information from an image
- an image as shown in FIG. 8 is registered as fingerprint information.
- the capacitance value corresponding to the fingerprint shape shown in FIG. 8 is registered as fingerprint information.
- FIG. 9 is a schematic diagram illustrating a method during UI operation.
- the first character eg, “1”
- the previously focused character is focused.
- the focused character is displayed at the center of the touch panel 106.
- the finger 200 is tilted up and down and left and right with the finger 200 placed on the fingerprint sensor 102 a
- the focus moves, and characters in the tilted direction are displayed at the center of the touch panel 106. Is done.
- the finger 200 is released in the home position, the character is determined.
- FIG. 10 is a schematic diagram showing a state of registering the fingerprint of each finger.
- the fingerprints 202 of the thumb, index finger, middle finger, ring finger, and little finger are registered.
- FIG. 10 illustrates an example in which fingerprint information of a plurality of fingers 200 is registered at a time using a relatively large fingerprint sensor 102.
- the small fingerprint sensor 102 as shown in FIGS. 4 to 6 is used, registration is performed for each finger 200.
- fingerprint information is registered for each of the home position and when tilted up, down, left and right.
- a large fingerprint sensor 102 as shown in FIG.
- a device including the fingerprint sensor 102 is prepared separately from the wearable device, and the fingerprint information acquired by the device is transmitted to the wearable device 100 for registration. May be.
- the fingerprint information of each finger is acquired as described above, the fingerprint 202 of each finger is different, so that different processing can be performed depending on the type of the finger 200 detected by the fingerprint sensor 102.
- processing and functions corresponding to each finger are set. For example, in the case of character input, processing and functions corresponding to the type of finger are set, such as inputting an uppercase full-width number when the thumb is authenticated, and inputting a lowercase half-width number when the index finger is authenticated.
- FIG. 11 is an enlarged schematic view showing a state where the finger 200 and the surface (contact surface) of the fingerprint sensor 102 are in contact with each other.
- 12A and 12B are schematic views showing a state where the area A in FIG. 11 is enlarged.
- FIG. 12A shows a case where the pressing force when the finger 200 presses the fingerprint sensor 102 is relatively small.
- FIG. 12B shows a case where the pressing force is relatively large.
- the finger pressing force can be determined based on the fingerprint information acquired by the fingerprint sensor 102.
- the application 124 is started according to the pressing force when the finger presses the fingerprint sensor 102 as well as the finger type, finger movement, finger tilt, and finger position, Predetermined processing such as moving the focus can be performed.
- the processing unit 118 performs various processes in the smart watch 100 based on the determination. As a process based on fingerprint information, it can be applied to various processes in addition to the character input described above.
- the processing unit 118 performs character input, activation of the application 124, and transition (scrolling) of the display screen as typical processing.
- the processing unit 118 acquires information on the finger type, finger motion, and the like from the fingerprint determination unit 116, and based on this information, the finger type and finger motion recorded in the registered fingerprint information recording unit 122 A predetermined process to be performed according to the process is acquired and information is exchanged with the application 124.
- the application 124 is activated, processing relating to character input, processing such as transition of the display screen, and the like are performed based on information relating to the type of finger, finger movement, and the like.
- processing performed by the processing unit 118 is not limited to these, and can be applied to the following processing, for example.
- Character type changes. For example, when inputting a character, the type of the character is changed according to the type of the finger, such as a capital letter for the thumb, a lower case letter for the index finger, and a number for the little finger. ⁇ Enter login email address, PIN code, etc. according to your finger type.
- the scroll unit in the screen changes (vertical direction) -If the thumb, the screen switching scroll, if the index finger, the normal screen scroll.
- Display switching unit changes (left / right direction) ⁇ Tab switches for thumb, scrolls the screen for index finger.
- Playback content switching unit changes-In the case of a playback song, the genre is switched for the thumb, the album is switched for the index finger, and the song is switched for the middle finger. In the case of programs such as radio and TV, news is played if it is a thumb, a comedy program if it is forefinger, and a music program if it is a middle finger. (1-5) The function for the content being played is switched. • For a playback song, the previous song is forwarded for the thumb, playback / pause for the index finger, and the next song for the middle finger. In the case of volume adjustment, the volume is increased for the thumb, the default volume (such as user designation) for the index finger, and the volume is decreased for the middle finger.
- the following processing may be performed based on the fingerprint information.
- a fingerprint sensor is mounted on the pen itself, and authentication is performed when the pen is held.
- the fingerprint authentication may be performed not only by a tracing operation but also by a flicking operation.
- a temperature sensor when a temperature sensor is provided as the other sensor 104, by combining fingerprint authentication with a temperature sensor (body temperature measurement), etc., when attempting to authenticate from the finger of an anthropomorphic finger (artificial object, etc.) Since body temperature is not measured, it is possible to avoid authentication. Further, in order to exclude anthropomorphic fingers, determination of right and left hands and determination of operation fingers from the fingerprint may be performed, the GUI may be brought close to the finger, or the operation area may be automatically changed. Furthermore, the coordinate position touched for each operation finger may be corrected, or the correction coefficient of the position touched for each operation finger may be changed. Further, depending on the authentication result, some folders on the screen may be locked, or fingerprint authentication may be performed when the screen is touched.
- age registration may be performed at the time of fingerprint registration to provide an age authentication function.
- the user operates the touch panel 106 to register the age.
- age information can be obtained from fingerprint information at the time of fingerprint authentication. If the user is a child, only the website for children is displayed. If the user is an elderly person, a simple UI for displaying large characters for the elderly person is displayed.
- the degree of security can be changed according to the situation such as the place and time. For example, security is strong outside the house or company, but security is weakened when entering the house or company.
- biometric authentication such as a fingerprint sensor is not 100% successful, and authentication is performed in combination with a password.
- authentication by the fingerprint verification unit 114 requires the password to be entered outside the home or company, Entering the password makes it unnecessary to enter a password.
- attaching fingerprint authentication to a VR controller or the like it is possible to know who has performed the operation and how it is used for game interaction and individual score.
- the finger when the sensor for detecting the color of the finger is provided as another sensor, the finger changes to red as the pressing force by the finger increases, so the pressing force (acupressure) is obtained using the change in the color of the finger. It is also possible to perform predetermined processing determined according to the pressing force.
- the movement of the finger is determined based on the fingerprint information, and the predetermined process that can be executed by the smartwatch 100 is performed based on the determination result. To the limit. Thereby, even if it is a small wearable apparatus, it becomes possible to perform desired operation
- a fingerprint information acquisition unit for acquiring fingerprint information
- a determination unit for determining a movement of a finger based on the fingerprint information
- a processing unit that performs a predetermined process that is predetermined according to the operation
- An information processing apparatus comprising: (2) The information processing apparatus according to (1), wherein the determination unit determines the operation by comparing the registered fingerprint information registered in advance with the fingerprint information.
- the determination unit compares the fingerprint information registered in advance with the finger tilted and determines the tilt.
- the fingerprint information acquisition unit acquires the fingerprint information from a fingerprint sensor having a contact surface with which a finger contacts, The information processing apparatus according to (1) or (2), wherein the determination unit determines a movement of a finger along the contact surface based on the fingerprint information.
- the fingerprint information acquisition unit acquires the fingerprint information from a plurality of fingerprint sensors that detect the fingerprint information, The information processing apparatus according to any one of (1) to (5), wherein the determination unit determines the operation based on the fingerprint information detected from a plurality of fingerprint sensors.
- An authentication unit that authenticates whether or not the fingerprint information matches the registered fingerprint information registered in advance, The information processing apparatus according to any one of (1) to (7), wherein the determination unit performs the determination when the authentication is successful.
- the authentication unit performs the authentication according to whether the input password matches a registered password, in addition to whether the fingerprint information matches the registered fingerprint information.
- the information processing apparatus according to any one of (1) to (9), wherein the processing unit performs the predetermined process based on finger type information obtained from the fingerprint information together with the operation.
- the determination unit performs the determination based on the fingerprint information and sensor information obtained from a sensor other than the fingerprint sensor that detects the fingerprint information. Any one of (1) to (10) An information processing apparatus according to claim 1.
- the information processing apparatus (12) The information processing apparatus according to (11), wherein the other sensor is a position sensor, a temperature sensor, or a finger pressure sensor. (13) The information processing apparatus according to any one of (1) to (12), wherein the predetermined process is a process of starting a predetermined application predetermined in accordance with the operation. (14) The information processing apparatus according to any one of (1) to (12), wherein the predetermined process is a process related to a character input function predetermined according to the operation. (15) The information processing apparatus according to any one of (1) to (12), wherein the predetermined process is a process of transitioning a predetermined display screen according to the operation.
- the information processing apparatus determines a pressing force of a finger as the operation based on the fingerprint information.
- the determination unit determines a pressing force of a finger as the operation based on the fingerprint information.
- obtaining fingerprint information Determining the action of the finger based on the fingerprint information; Performing a predetermined process in accordance with the operation based on the determined operation;
- An information processing method comprising: (18) means for acquiring fingerprint information; Means for determining finger movement based on the fingerprint information; Means for performing a predetermined process predetermined in accordance with the operation based on the determined operation; As a program to make the computer function as.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physiology (AREA)
- Health & Medical Sciences (AREA)
- Image Input (AREA)
- User Interface Of Digital Computer (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】小型の装置であっても、操作に応じた所望の動作を行うこと。 【解決手段】本開示に係る情報処理装置は、指紋情報を取得する指紋情報取得部と、 前記指紋情報に基づいて指の動作を判定する判定部と、判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う処理部と、を備える。この構成により、小型の装置であっても、操作に応じた所望の動作を行うことが可能となり、ユーザーの利便性を高めることができる。
Description
本開示は、情報処理装置、情報処理方法及びプログラムに関する。
従来、例えば下記の特許文献1には、装置本体に指紋検出照合機能を有するICカードを装着することができるようにすることで、周辺機器の接続部が少ない情報処理装置にも簡単に指紋検出照合機能を加えることができる入力装置に関して記載されている。
近年、ユーザの身体に装着するスマートウォッチなどのウェアラブル機器が普及している。ウェアラブル機器は、その手軽さ、携帯性、小型化などを追及していくことを考えると、ボタンなどの操作部はますます小さくなることが想定され、操作部が小さくなることによる操作性の低下が懸念される。
そこで、小型の装置であっても、操作に応じた所望の動作を行うことが求められていた。
本開示によれば、指紋情報を取得する指紋情報取得部と、前記指紋情報に基づいて指の動作を判定する判定部と、判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う処理部と、を備える情報処理装置が提供される。
また、本開示によれば、指紋情報を取得することと、前記指紋情報に基づいて指の動作を判定することと、判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行うことと、を備える、情報処理方法が提供される
また、本開示によれば、指紋情報を取得する手段、前記指紋情報に基づいて指の動作を判定する手段、判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う手段、としてコンピュータを機能させるためのプログラムが提供される。
以上説明したように本開示によれば、小型の装置であっても、操作に応じた所望の動作を行うことが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.背景
2.スマートウォッチの構成例
3.スマートウォッチで行われる処理の例
4.指紋センサーの配置と操作判別方法
5.腕輪型デバイスの例
6.UIの操作方法、指紋情報の登録
7.指紋判定に基づく各種処理
1.背景
2.スマートウォッチの構成例
3.スマートウォッチで行われる処理の例
4.指紋センサーの配置と操作判別方法
5.腕輪型デバイスの例
6.UIの操作方法、指紋情報の登録
7.指紋判定に基づく各種処理
1.背景
近年、例えばスマートウォッチなどのウェアラブル機器が用いられるようになっている。図1は、ウェアラブル機器の一例として、本実施形態に係るスマートウォッチ100を操作している様子を示す模式図である。スマートウォッチ100は、タッチパネル106、指紋センサー102を有している。スマートウォッチ100は、ユーザがタッチパネル106やボタン(不図示)を操作することで、ユーザが求める所望の動作、処理を行う。また、スマートウォッチ100は、ユーザが指紋センサー102に指紋を当てることで、認証を行い、またユーザが求める所望の動作、処理を行う。
近年、例えばスマートウォッチなどのウェアラブル機器が用いられるようになっている。図1は、ウェアラブル機器の一例として、本実施形態に係るスマートウォッチ100を操作している様子を示す模式図である。スマートウォッチ100は、タッチパネル106、指紋センサー102を有している。スマートウォッチ100は、ユーザがタッチパネル106やボタン(不図示)を操作することで、ユーザが求める所望の動作、処理を行う。また、スマートウォッチ100は、ユーザが指紋センサー102に指紋を当てることで、認証を行い、またユーザが求める所望の動作、処理を行う。
ウェアラブル機器は、手軽さ、携帯性、小型化などを追及していくことを考えると、その操作部はますます小さくなることが想定される。また、ウェアラブル機器に生体情報など重要な情報が蓄積されていくことを考えると、ウェアラブル機器にはより高いセキュリティが求められる。更に、ウェアラブル機器においても、文字入力などの複雑な入力操作や、より複雑な様々な機能を実現したいという要望がある。
セキュリティに関しては、指紋認証が広く用いられているが、例えば1本の指の指紋による個人認証では、機器の所有者が寝ている間に他人が所有者の指を機器に当てることで認証が通ってしまうといったセキュリティ上の課題がある。また、操作性に関しては、ウェアラブル機器のような小さい画面での文字入力や様々な機能の実現は、現状では困難が伴う。
本実施形態では、操作している指の種別や指の移動方向、指の動かし方(短押し/長押し、軽く押す/強く押す)等に応じて、ウェアラブル機器のような小さい画面での文字入力や様々な機能を実現できるようにするとともに、各機能やアプリを切り替え可能とする。また、認証に関しては、指紋認証と数字や文字によるパスワード入力を組み合わせることで高いセキュリティが確保できるようにする。以下、詳細に説明する。
2.スマートウォッチの構成例
図2は、本実施形態に係るスマートウォッチ100の構成を示すブロック図である。スマートウォッチ100は、指紋センサー102、その他のセンサー部104、タッチパネル106、制御部110、記憶部120を有して構成されている。指紋センサー102は、撮像により得られた画像から指紋に関する指紋情報を検出する。指紋センサー102は、静電容量から指紋情報を検出するものであっても良い。画像から指紋情報を検出する光学式の場合、指紋情報は指紋の形状を表す画像情報である。また、静電容量から指紋情報を検出する静電式の場合、指紋情報は指紋の凹凸に応じた静電容量である。また、指紋センサー102は、感熱式、電界式、圧力式など、他の方式により指紋を検出するものであっても良い。より具体的には、光学式は、プリズムやガラス面に指を置いて、指を置いた面の逆側から指の像をCCDカメラなどで撮像することで指紋情報を検出する。静電式は、指紋センサー102に指を押し付けた際に、指紋の山(指紋の紋様を形成する皮膚の盛り上がった部分)と谷の電荷量の違いによって指紋情報を得る方法である。感熱式は、指紋センサー106の表面に接触する指紋の山の部分の温度(体温)と谷の温度(空気温度)の温度差を検知から指紋情報を得る方法である。電界式は、指の表面に流した微弱電流で生じた、指紋の山の部分と谷の部分との電界の強度の差から生ずる分布パターンを指紋情報とする方法である。タッチパネル106は、液晶表示ディスプレイ(LCD)などの表示部とタッチセンサから構成される。スマートウォッチ100は、音声により情報を出力するスピーカ等の構成要素を備えていても良い。その他のセンサー部104は、指紋センサー102以外のセンサーであって、例えばスマートウォッチ100の位置情報を検出する位置センサー(GPS)、指の温度を検出する温度センサー、指の押圧力を検出する圧力センサー等である。
図2は、本実施形態に係るスマートウォッチ100の構成を示すブロック図である。スマートウォッチ100は、指紋センサー102、その他のセンサー部104、タッチパネル106、制御部110、記憶部120を有して構成されている。指紋センサー102は、撮像により得られた画像から指紋に関する指紋情報を検出する。指紋センサー102は、静電容量から指紋情報を検出するものであっても良い。画像から指紋情報を検出する光学式の場合、指紋情報は指紋の形状を表す画像情報である。また、静電容量から指紋情報を検出する静電式の場合、指紋情報は指紋の凹凸に応じた静電容量である。また、指紋センサー102は、感熱式、電界式、圧力式など、他の方式により指紋を検出するものであっても良い。より具体的には、光学式は、プリズムやガラス面に指を置いて、指を置いた面の逆側から指の像をCCDカメラなどで撮像することで指紋情報を検出する。静電式は、指紋センサー102に指を押し付けた際に、指紋の山(指紋の紋様を形成する皮膚の盛り上がった部分)と谷の電荷量の違いによって指紋情報を得る方法である。感熱式は、指紋センサー106の表面に接触する指紋の山の部分の温度(体温)と谷の温度(空気温度)の温度差を検知から指紋情報を得る方法である。電界式は、指の表面に流した微弱電流で生じた、指紋の山の部分と谷の部分との電界の強度の差から生ずる分布パターンを指紋情報とする方法である。タッチパネル106は、液晶表示ディスプレイ(LCD)などの表示部とタッチセンサから構成される。スマートウォッチ100は、音声により情報を出力するスピーカ等の構成要素を備えていても良い。その他のセンサー部104は、指紋センサー102以外のセンサーであって、例えばスマートウォッチ100の位置情報を検出する位置センサー(GPS)、指の温度を検出する温度センサー、指の押圧力を検出する圧力センサー等である。
制御部110は、スマートウォッチ100の各種処理を行う構成要素であって、指紋情報取得部112、指紋情報登録部113、指紋照合部114、指紋判定部116、処理部118を含む。記憶部120は、登録した指紋情報を記録する登録指紋情報記録部122を有している。また、記憶部120には、スマートウォッチ100に対応する各種アプリケーション124のプログラム、データが格納されている。なお、図2に示す制御装置110の構成要素は、回路(ハードウェア)、またはCPUなどの中央演算処理装置とこれを機能されるためのプログラム(ソフトウェア)から構成されることができる。
指紋情報取得部112は、指紋センサー102が検出した指紋情報を取得する。指紋情報登録部113は、指紋情報取得部112が取得した指紋情報を登録指紋情報記録部122に登録する。指紋情報取得部112は、ユーザ毎に指紋情報を取得する。ユーザ毎の指紋情報には、右手、左手の各指の指紋の形状を示す指紋情報、各指を傾けた際の指紋情報などが含まれる。ユーザ毎の指紋情報は、登録指紋情報記録部122に登録される。指紋照合部114は、指紋センサー102が取得した指紋情報と、登録指紋情報記録部122に登録された指紋情報を照合し、認証を行う。指紋照合部114は、指紋情報に加えて、タッチパネル106から入力されたパスワードと、記憶部120に予め登録されているパスワードを照合して認証を行うこともできる。この場合、指紋情報とパスワードによる認証を併用することで、セキュリティを高めることが可能である。
指紋判定部116は、照合部114による認証が成功した場合に、指紋情報取得部112が取得した指紋情報と、登録指紋情報記録部122に登録された情報とに基づいて、指の種類や指の動作(指の操作)を判定する。登録指紋情報記録部122は、登録された指紋情報に対応する指の種類や指の動作に対応する情報と、スマートウォッチ100が行う所定の処理とを紐付けて記録している。処理部118は、指紋判定部116の判定結果に基づいて、登録指紋情報記録部122に紐付けられた処理を参照し、アプリケーション124を起動したり、フォーカスを移動する処理など、スマートウォッチ100が実行可能な所定の処理を行う。タッチパネル106には、処理の過程や結果が表示される。
3.スマートウォッチで行われる処理の例
図3は、スマートウォッチ100で行われる処理を示すフローチャートである。先ず、ステップS10では、指紋情報取得部112が、指紋センサー102から得られた指紋情報に基づいて、指紋センサー102に指が触れているか否かを判定し、指紋センサー102に指が触れている場合は、次のステップS12で指紋情報を取得する。次のステップS14では、指紋照合部114が、取得した指紋情報に基づいて、事前に登録指紋情報記録部122に指紋情報が登録されている指であるか否かを判定し、登録されている場合はステップS16へ進む。ステップS16では、指紋判定部116が、操作する指の判定(人差し指であるか、中指であるか等の判定)、指の動作の判定(位置、動き方向、傾き等の判定)を行う。
図3は、スマートウォッチ100で行われる処理を示すフローチャートである。先ず、ステップS10では、指紋情報取得部112が、指紋センサー102から得られた指紋情報に基づいて、指紋センサー102に指が触れているか否かを判定し、指紋センサー102に指が触れている場合は、次のステップS12で指紋情報を取得する。次のステップS14では、指紋照合部114が、取得した指紋情報に基づいて、事前に登録指紋情報記録部122に指紋情報が登録されている指であるか否かを判定し、登録されている場合はステップS16へ進む。ステップS16では、指紋判定部116が、操作する指の判定(人差し指であるか、中指であるか等の判定)、指の動作の判定(位置、動き方向、傾き等の判定)を行う。
次のステップS18では、処理部118が、ステップS16で判定された操作する指の種類、指の動作に応じて、アプリケーション124の起動や機能の実行を行う。具体的には、操作する指の種類、動作に応じてアプリケーション124を起動したり、フォーカスを移動する処理などを行う。
次のステップS20では、指紋情報取得部112が、ステップS16で判定した指から変更があったか否かを判定し、変更があった場合はステップS14に進み、以降の処理を再度行う。一方、変更がなかった場合は、ステップS18の処理を引き続き行う。
また、ステップS10で指紋センサー102に指が触れていないと判定された場合、またはステップS14で事前登録された指ではないと判定された場合は、処理を終了する。
4.指紋センサーの配置と操作判別方法
図4~図6は、指紋センサー102の配置と操作判別方法を説明するための模式図である。図4~図6のそれぞれでは、上から順に、「指が指紋センサーに触れている状態を横から見た図」、「指が指紋センサーに触れている状態を下から見た図」、「操作判別方法を示す図」、のそれぞれを示している。
図4~図6は、指紋センサー102の配置と操作判別方法を説明するための模式図である。図4~図6のそれぞれでは、上から順に、「指が指紋センサーに触れている状態を横から見た図」、「指が指紋センサーに触れている状態を下から見た図」、「操作判別方法を示す図」、のそれぞれを示している。
図4は、指紋センサーとして指200の指紋202と同等の大きさの指紋センサー102aを用い、指紋センサー102aに接触した指200の種類、動作によって、操作判別を行う場合を示している。図4に示す例では、指200を傾けることで、操作判別を行う。この場合、指200を傾けた際に、指紋202の一部が浮き上がり、「操作判別方法を示す図」の図に示すように、指200の指紋202の一部分のみが検出される。そして、指200の指紋202の一部分のみが検出されることによって、指200を傾けた方向が認識される。これにより、指200を傾けた方向に応じて、アプリケーション124を起動したり、フォーカスを移動するなどの所定の処理を行うことができる。図4に示す例によれば、指200を傾けるだけで、指200を動かさなくても所定の処理を行うことができる。また、指紋センサー102aによる検出をトリガーとして、圧力センサーのような既存のセンサーと組み合わせて使うこともできる。この手法の利点として、光学式指紋センサーなど水に濡れても指紋パターンが読み取れるタイプの指紋センサーを利用すれば、例えば機器が水に濡れた状態での操作時や水中での操作時でも、通常のタッチパネルのように水と指の区別がつかないような事態は生じず、誤動作を起こすことがない点が挙げられる。
図5は、指の指紋よりも小さい指紋センサー102bを1つ用い、指紋センサー102bに接地した指、指の動きによって、操作判別を行う場合を示している。この場合、指200を移動した際に、「操作判別方法を示す図」に示すように、指紋202の形状の動きに基づいて指200がどの方向に動いたのかを判別することができる。より具体的には、制御周期毎に取得される指紋情報に基づいて、現時点で取得された指紋情報と1周期前に取得された指紋情報を比較することで、指がどの方向に動いたのかが判定される。この移動方向の判定には、同一の特徴点を追跡しその移動方向を算出することにより判定を行なってもよいし、画像全体としての相関が最大になる移動方向を算出することにより判定を行なってもよい。また前記特徴点として指紋のマニューシャ点や汗腺情報を利用してもよい。これにより、指200を動かした方向に応じて、アプリケーション124を起動したり、フォーカスを移動するなどの所定の処理を行うことができる。図5に示す例によれば、指紋センサー102bを可能な限り小さくすることができ、小さい指紋センサー102bであっても指の動きを把握することが可能である。
図6は、指200の指紋202よりも小さい指紋センサー102bを複数用い、複数の指紋センサー102bを必要な位置に配置し、指紋センサー102bに接触した指200の種類、指200の動きによって、操作判別を行う場合を示している。図6に示す例では、指紋センサー102bに触れた位置や割合によって、操作判別を行う。この場合、指200を傾けた際に、「操作判別方法を示す図」に示すように、指紋202の一部が浮き上がるため、複数の指紋センサー102bの一部のみで指紋202が検出される。「操作判別方法を示す図」では、指200を前に傾けた場合に、4つの指紋センサー102bのうち先端の指紋センサー102bのみで指紋の情報が検出される様子を示している。このように、複数の指紋センサー102bの一部のみで指紋が検出されることによって、指200を傾けた方向が認識される。これにより、指200を傾けた方向に応じて、アプリケーション124を起動したり、フォーカスを移動するなどの所定の処理を行うことができる。また、図6に示す例によれば、操作方法に合わせて複数の位置の異なる指紋センサー102bを組み合わせて使用することができる。
なお、図4及び図6に示す例においても、図5の例と同様に、指紋202の動きによって指がどの方向に動いたのかを判別することが可能である。
以上のように、図4~図6に示す例によれば、指紋202を検出することによって、指200の動作(動き方向、傾き)を検出することができる。従って、指200の動作に応じてスマートウォッチ100が所定の処理を行うことができる。
5.腕輪型デバイスの例
図7は、ウェアラブル機器として、腕輪型デバイス100の例を示す模式図である。図7に示す例では、指紋センサー102として、複数の指紋センサー102c,102d,102eが腕輪型デバイス100の外周面に設けられている。指紋センサー102c,102d,102eを異なる位置に配置し、指紋センサー102c,102d,102eに接触した指の種類、動作、その組み合わせによって操作判別を行う。この例では、異なる位置の指紋センサー102c,102d,102eをどの指のどの位置でタッチしたかによって操作判別する。例えば、左端の指紋センサー102cを人さし指で2回、真中の指紋センサー102dを中指で1回タッチすると、腕輪型デバイスで所定の処理が行われる。図7に示す例によれば、デバイスの形状にあわせて指紋センサーを配置することが可能である。図7のような腕に装着するデバイスであれば、腕輪の異なる位置に指紋センサーを設けることで、腕輪の異なる位置をタッチすることで所望の処理を実現できる。
図7は、ウェアラブル機器として、腕輪型デバイス100の例を示す模式図である。図7に示す例では、指紋センサー102として、複数の指紋センサー102c,102d,102eが腕輪型デバイス100の外周面に設けられている。指紋センサー102c,102d,102eを異なる位置に配置し、指紋センサー102c,102d,102eに接触した指の種類、動作、その組み合わせによって操作判別を行う。この例では、異なる位置の指紋センサー102c,102d,102eをどの指のどの位置でタッチしたかによって操作判別する。例えば、左端の指紋センサー102cを人さし指で2回、真中の指紋センサー102dを中指で1回タッチすると、腕輪型デバイスで所定の処理が行われる。図7に示す例によれば、デバイスの形状にあわせて指紋センサーを配置することが可能である。図7のような腕に装着するデバイスであれば、腕輪の異なる位置に指紋センサーを設けることで、腕輪の異なる位置をタッチすることで所望の処理を実現できる。
図8は、図4の例において、指紋情報登録部113が指200の各位置を事前登録する様子を示す模式図である。図8に示すように、指紋202の全面が指紋センサー102aのセンサー面に密着したホームポジションで指紋情報を登録する。また、指200を上に傾けた場合、右に傾けた場合、左に傾けた場合、下に傾けた場合、のそれぞれについて、指紋202の一部を登録する。登録した指紋情報は、登録指紋情報記録部122に記録される。指紋センサー102aが画像により指紋情報を検出する場合は、図8に示すような画像が指紋情報として登録される。また、指紋センサー102aが静電容量により指紋情報を検出する場合は、図8に示す指紋の形状に対応する静電容量の値が指紋情報として登録される。
6.UIの操作方法、指紋情報の登録
図9は、UIの操作時の方法を示す模式図である。先ず、ユーザがタッチパネル106にホームポジションでタッチすると、最初の文字(例:「1」)もしくは前回フォーカスした文字にフォーカスがあたる。この状態では、フォーカスした文字がタッチパネル106の中央に表示される。この状態で、図4に示したように、指紋センサー102a上に指200を載せた状態で指200を上下左右に傾けると、フォーカスが移動し、傾けた方向の文字がタッチパネル106の中央に表示される。そして、指200がホームポジションの状態でリリースされると文字が決定される。このように、本実施形態によれば、指200を傾けるだけで文字入力を行うことが可能となる。
図9は、UIの操作時の方法を示す模式図である。先ず、ユーザがタッチパネル106にホームポジションでタッチすると、最初の文字(例:「1」)もしくは前回フォーカスした文字にフォーカスがあたる。この状態では、フォーカスした文字がタッチパネル106の中央に表示される。この状態で、図4に示したように、指紋センサー102a上に指200を載せた状態で指200を上下左右に傾けると、フォーカスが移動し、傾けた方向の文字がタッチパネル106の中央に表示される。そして、指200がホームポジションの状態でリリースされると文字が決定される。このように、本実施形態によれば、指200を傾けるだけで文字入力を行うことが可能となる。
図10は、各指の指紋を登録する様子を示す模式図である。図10に示すように、親指、人差し指、中指、薬指、小指のそれぞれの指紋202を登録する。図10では、比較的大きな指紋センサー102を用い、複数の指200の指紋情報を一度に登録する例を示している。図4~図6に示したような小型の指紋センサー102を用いる場合は、1つの指200毎に登録を行う。図8に示したように、ホームポジション、上下左右に傾けた場合、のそれぞれについて指紋情報を登録する。図10に示すような大型の指紋センサー102を用いた場合、ウェアラブル機器とは別に指紋センサー102を備えるデバイスを用意し、当該デバイスが取得した指紋情報をウェアラブル機器100へ送信して登録するようにしても良い。以上のようにして各指の指紋情報を取得すると、各指の指紋202は相違するため、指紋センサー102が検出した指200の種類に応じて異なる処理を行うことができる。
そして、各指の指紋情報を登録することによって、各指に対応する処理、機能が設定される。例えば文字入力の場合、親指を認証した場合は大文字の全角数字を入力し、人差し指を認証した場合は小文字の半角数字を入力するなど、指の種類に応じた処理、機能が設定される。
図11は、指200と指紋センサー102の表面(接触面)が接触している状態を拡大して示す模式図である。また、図12A、図12Bは、図11中の領域Aを拡大した状態を示す模式図であって、図12Aは指紋センサー102を指200が押す際の押圧力が比較的小さい場合を示しており、図12Bは押圧力が比較的大きい場合を示している。
図12Aに示すように、指紋センサー102を指200が押す際の押圧力が比較的小さい場合は、指紋202の凸部分の先端が指紋センサー102の表面に接触する。一方、図12Bに示すように、指紋センサー102を指200が押す際の押圧力が比較的大きい場合は、指紋202の凸部分の先端が潰れて、指紋センサー102の表面に接触する。従って、指紋センサー102で取得した指紋情報に基づいて、指の押圧力を判定することができる。
従って、本実施形態によれば、指の種類、指の動き、指の傾き、指の位置のみならず、指が指紋センサー102を押す際の押圧力に応じて、アプリケーション124を起動したり、フォーカスを移動するなどの所定の処理を行うことができる。
7.指紋判定に基づく各種処理
以上のようにして、指紋情報に基づいて指の種類、動作が判定されると、これに基づいて、処理部118が、スマートウォッチ100における各種処理を行う。指紋情報に基づく処理として、上述した文字入力の他、様々な処理に適用することができる。処理部118は、代表的な処理として、文字入力、アプリケーション124の起動、表示画面の遷移(スクロール)を行う。この際、処理部118は、指紋判定部116から指の種類、指の動作等に関する情報を取得し、これに基づいて登録指紋情報記録部122に記録されている、指の種類、指の動作等に応じて行う所定の処理を取得し、アプリケーション124と情報のやり取りを行う。これにより、指の種類、指の動作等に関する情報に基づいて、アプリケーション124を起動したり、文字入力に関する処理、表示画面の遷移等の処理が行われる。なお、処理部118が行う処理はこれらに限定されるものではなく、例えば以下の処理に適用することも可能である。
以上のようにして、指紋情報に基づいて指の種類、動作が判定されると、これに基づいて、処理部118が、スマートウォッチ100における各種処理を行う。指紋情報に基づく処理として、上述した文字入力の他、様々な処理に適用することができる。処理部118は、代表的な処理として、文字入力、アプリケーション124の起動、表示画面の遷移(スクロール)を行う。この際、処理部118は、指紋判定部116から指の種類、指の動作等に関する情報を取得し、これに基づいて登録指紋情報記録部122に記録されている、指の種類、指の動作等に応じて行う所定の処理を取得し、アプリケーション124と情報のやり取りを行う。これにより、指の種類、指の動作等に関する情報に基づいて、アプリケーション124を起動したり、文字入力に関する処理、表示画面の遷移等の処理が行われる。なお、処理部118が行う処理はこれらに限定されるものではなく、例えば以下の処理に適用することも可能である。
(1)操作する指によって機能やアプリケーションが切り替わる
(1-1)文字の種類が変わる。例えば、文字入力の際に、親指であれば大文字、人差し指であれば小文字、小指であれば数字など、指の種類に応じて文字の種類を変える。
・指の種類に応じてログインのメールアドレス、PINコード入力などを行う。
(1-2)画面内のスクロール単位が変わる(上下方向)
・親指であれば画面切替スクロール、人差し指であれば通常の画面スクロールを行う。
(1-3)表示切替単位が変わる(左右方向)
・親指であればタブ切替、人差し指であれば画面内のスクロールを行う。
(1-4)再生コンテンツの切替え単位が変わる
・再生曲の場合、親指であればジャンル切替、人差し指だとアルバム切替、中指だと曲切替を行う。
・ラジオやTVなどの番組の場合、親指であればニュース、人差し指であればお笑い番組、中指であれば音楽番組を再生する。
(1-5)再生されているコンテンツに対する機能が切り替わる
・再生曲の場合、親指であれば前曲送り、人差し指であれば再生/一時停止、中指であれば次曲送りを行う。
・音量調整の場合、親指であれば音量アップ、人差し指であればデフォルト音量(ユーザー指定など)、中指であれば音量ダウンを行う。
・読み上げスピード調整、再生速度調整の場合、親指であればスピードアップ、人差し指であればデフォルトスピード(ユーザー指定など)、中指であればスピードダウンを行う。
(1-6)機器内の操作が切り替わる
・親指であればホーム画面(トップ画面)、人差し指であれば「決定」、中指であれば「戻る」の操作を行う。
(1-7)起動するアプリを切り替える
・親指であればメール、人差し指であればメッセンジャー、中指であればソーシャルネットワークを起動する。
(2)操作する指の動きやジェスチャから機能やアプリケーションを起動する/切り替える
・親指であればスクロール、人差指であればジェスチャ入力、中指であればポインティングなど機能を分ける。
(3)操作する指の順番から機能やアプリを起動する/切り替える
(4)操作する指の操作者を特定し(個人化)、アプリや機能の起動や設定値を切り替える。
・例えば、ウェアラブル機器が服などの身体に装着するものの場合、特定された個人の服のサイズに変わる、特定された個人の発汗量や体温にあわせて服の生地の形状が変わるなども実現可能である。
・共有デバイスの個人認証
共有デバイスとして、家族用タブレット、PC、マウス、ゲーム機のコントローラ、メガネなどが挙げられる。メガネの場合、フレームもしくはボタンなどに指紋センサーを設け、メガネをかけると認証されるようにする。
(5)短押し/長押し/連続押しに応じて機能やアプリの起動/切替を行う。
・再生コンテンツの場合、短押しで再生/一時停止、長押しで再生スピード変更、連続押しでチャプター送りを行う。
(6)押圧力に応じて機能やアプリの起動/切替を行う。
・カメラのズームであれば、軽く押した場合は1段階ズーム、強く押した場合は数段階(連続)ズームを行う。
(1-1)文字の種類が変わる。例えば、文字入力の際に、親指であれば大文字、人差し指であれば小文字、小指であれば数字など、指の種類に応じて文字の種類を変える。
・指の種類に応じてログインのメールアドレス、PINコード入力などを行う。
(1-2)画面内のスクロール単位が変わる(上下方向)
・親指であれば画面切替スクロール、人差し指であれば通常の画面スクロールを行う。
(1-3)表示切替単位が変わる(左右方向)
・親指であればタブ切替、人差し指であれば画面内のスクロールを行う。
(1-4)再生コンテンツの切替え単位が変わる
・再生曲の場合、親指であればジャンル切替、人差し指だとアルバム切替、中指だと曲切替を行う。
・ラジオやTVなどの番組の場合、親指であればニュース、人差し指であればお笑い番組、中指であれば音楽番組を再生する。
(1-5)再生されているコンテンツに対する機能が切り替わる
・再生曲の場合、親指であれば前曲送り、人差し指であれば再生/一時停止、中指であれば次曲送りを行う。
・音量調整の場合、親指であれば音量アップ、人差し指であればデフォルト音量(ユーザー指定など)、中指であれば音量ダウンを行う。
・読み上げスピード調整、再生速度調整の場合、親指であればスピードアップ、人差し指であればデフォルトスピード(ユーザー指定など)、中指であればスピードダウンを行う。
(1-6)機器内の操作が切り替わる
・親指であればホーム画面(トップ画面)、人差し指であれば「決定」、中指であれば「戻る」の操作を行う。
(1-7)起動するアプリを切り替える
・親指であればメール、人差し指であればメッセンジャー、中指であればソーシャルネットワークを起動する。
(2)操作する指の動きやジェスチャから機能やアプリケーションを起動する/切り替える
・親指であればスクロール、人差指であればジェスチャ入力、中指であればポインティングなど機能を分ける。
(3)操作する指の順番から機能やアプリを起動する/切り替える
(4)操作する指の操作者を特定し(個人化)、アプリや機能の起動や設定値を切り替える。
・例えば、ウェアラブル機器が服などの身体に装着するものの場合、特定された個人の服のサイズに変わる、特定された個人の発汗量や体温にあわせて服の生地の形状が変わるなども実現可能である。
・共有デバイスの個人認証
共有デバイスとして、家族用タブレット、PC、マウス、ゲーム機のコントローラ、メガネなどが挙げられる。メガネの場合、フレームもしくはボタンなどに指紋センサーを設け、メガネをかけると認証されるようにする。
(5)短押し/長押し/連続押しに応じて機能やアプリの起動/切替を行う。
・再生コンテンツの場合、短押しで再生/一時停止、長押しで再生スピード変更、連続押しでチャプター送りを行う。
(6)押圧力に応じて機能やアプリの起動/切替を行う。
・カメラのズームであれば、軽く押した場合は1段階ズーム、強く押した場合は数段階(連続)ズームを行う。
また、更に、指紋情報に基づいて以下のような処理を行っても良い。ウェアラブル機器がペン型のデバイスの場合、ペン自体に指紋センサを搭載し、ペンを握ったら認証を行う。この際、なぞる操作だけではなくフリックのようなはじく操作でも指紋認証を行うようにしても良い。
また、その他のセンサー104として温度センサーを備える場合は、指紋認証と温度センサー(体温計測)などを組み合わせることで、擬人指(人工物等)の指から認証しようとした場合に、擬人指からは体温が測定されないため、認証が行われてしまうことを回避できる。また、擬人指を排除するため指紋から右手、左手の判定、操作指の判定を行い、GUIを指に寄せたり、操作エリアの自動変更を行っても良い。更に、操作指ごとに触った座標位置を補正したり、操作指ごとに触った位置の補正係数を変えても良い。また、認証結果に応じて画面の一部のフォルダにロックをかけたり、画面にタッチした時に指紋認証を行うようにしても良い。
また、指紋登録時に年齢登録を行い、年齢認証機能を持たせるようにしても良い。この場合に、指紋登録時にユーザがタッチパネル106を操作して、年齢を登録する。指紋情報に紐付けて年齢情報を登録しておくことで、指紋認証時に指紋情報から年齢情報が得られ、ユーザが子供であれば子供向けWebサイトのみ表示する。また、ユーザが高齢者であれば、高齢者向けの大きな文字表示の簡単なUIを表示する。
また、その他のセンサー104として位置センサー(GPS)を備える場合は、場所や時間などの状況に応じてセキュリティの度合いを変えることもできる。例えば、家や会社外ではセキュリティは強いが、家や会社の中に入るとセキュリティが弱くなるようにする。例えば、指紋センサーなど生体認証は100%成功するわけではないので、パスワードと組み合わせて認証を行うが、指紋照合部114による認証では、家や会社外ではパスワードの入力を必須とし、家や会社の中に入るとパスワードの入力を不要とする。また、VRのコントローラなどに指紋認証を付けることで、誰がどのように操作したのかが分かるので、ゲームのインタラクションや各個人の得点などに活用する。
また、その他のセンサーとして指の色を検出するセンサーを備える場合は、指による押圧力が大きくなるほど指が赤色に変色するため、指の色の変化を利用して押圧力(指圧)を取得することも可能であり、押圧力に応じて定められた所定の処理を行うことも可能である。
以上説明したように本実施形態によれば、指紋情報に基づいて指の動作を判定し、判定結果に基づいてスマートウォッチ100が実行可能な所定の処理を行うようにしたため、操作するスペースを最小限に抑えることができる。これにより、小型のウェアラブル機器であっても、操作に応じた所望の動作を行うことが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 指紋情報を取得する指紋情報取得部と、
前記指紋情報に基づいて指の動作を判定する判定部と、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う処理部と、
を備える、情報処理装置。
(2) 前記判定部は、予め登録された登録指紋情報と前記指紋情報を比較することで、前記動作を判定する、前記(1)に記載の情報処理装置。
(3) 前記判定部は、前記指紋情報に基づいて指の傾きを判定する、前記(1)又は(2)に記載の情報処理装置。
(4) 前記判定部は、指が傾いた状態で予め登録された登録指紋情報と前記指紋情報を比較して前記傾きを判定する、前記(3)に記載の情報処理装置。
(5) 前記指紋情報取得部は、指が接触する接触面を有する指紋センサーから前記指紋情報を取得し、
前記判定部は、前記指紋情報に基づいて前記接触面に沿った指の動きを判定する、前記(1)又は(2)に記載の情報処理装置。
(6) 前記指紋情報取得部は、前記指紋情報を検出する複数の指紋センサーから前記指紋情報を取得し、
前記判定部は、複数の前記指紋センサーから検出された前記指紋情報に基づいて、前記動作を判定する、前記(1)~(5)のいずれかに記載の情報処理装置。
(7) 前記判定部は、複数の前記指紋センサーから検出された前記指紋情報を比較することで、指の傾きを判定する、前記(6)に記載の情報処理装置。
(8) 前記指紋情報が予め登録された登録指紋情報と一致するか否かを認証する認証部を備え、
前記判定部は、前記認証が成功した場合に、前記判定を行う、前記(1)~(7)のいずれかに記載の情報処理装置。
(9) 前記認証部は、前記指紋情報が前記登録指紋情報と一致するか否かに加え、入力されたパスワードが登録されたパスワードと一致するか否かに応じて前記認証を行う、前記(8)に記載の情報処理装置。
(10) 前記処理部は、前記動作とともに前記指紋情報から得られる指の種類の情報に基づいて前記所定の処理を行う、前記(1)~(9)のいずれかに記載の情報処理装置。
(11) 前記判定部は、前記指紋情報と、前記指紋情報を検出する指紋センサー以外の他のセンサーから得られたセンサー情報に基づいて前記判定を行う、前記(1)~(10)のいずれかに記載の情報処理装置。
(12) 前記他のセンサーは、位置センサー、温度センサー、又は指圧センサーである、前記(11)に記載の情報処理装置。
(13) 前記所定の処理は、前記動作に応じて予め定められた所定のアプリケーションを起動する処理である、前記(1)~(12)のいずれかに記載の情報処理装置。
(14) 前記所定の処理は、前記動作に応じて予め定められた文字入力機能に関する処理である、前記(1)~(12)のいずれかに記載の情報処理装置。
(15) 前記所定の処理は、前記動作に応じて予め定められた表示画面を遷移させる処理である、前記(1)~(12)のいずれかに記載の情報処理装置。
(16) 前記判定部は、前記指紋情報に基づいて前記動作として指の押圧力を判定する、前記(1)~(15)のいずれかに記載の情報処理装置。
(17) 指紋情報を取得することと、
前記指紋情報に基づいて指の動作を判定することと、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行うことと、
を備える、情報処理方法。
(18) 指紋情報を取得する手段、
前記指紋情報に基づいて指の動作を判定する手段、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う手段、
としてコンピュータを機能させるためのプログラム。
(1) 指紋情報を取得する指紋情報取得部と、
前記指紋情報に基づいて指の動作を判定する判定部と、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う処理部と、
を備える、情報処理装置。
(2) 前記判定部は、予め登録された登録指紋情報と前記指紋情報を比較することで、前記動作を判定する、前記(1)に記載の情報処理装置。
(3) 前記判定部は、前記指紋情報に基づいて指の傾きを判定する、前記(1)又は(2)に記載の情報処理装置。
(4) 前記判定部は、指が傾いた状態で予め登録された登録指紋情報と前記指紋情報を比較して前記傾きを判定する、前記(3)に記載の情報処理装置。
(5) 前記指紋情報取得部は、指が接触する接触面を有する指紋センサーから前記指紋情報を取得し、
前記判定部は、前記指紋情報に基づいて前記接触面に沿った指の動きを判定する、前記(1)又は(2)に記載の情報処理装置。
(6) 前記指紋情報取得部は、前記指紋情報を検出する複数の指紋センサーから前記指紋情報を取得し、
前記判定部は、複数の前記指紋センサーから検出された前記指紋情報に基づいて、前記動作を判定する、前記(1)~(5)のいずれかに記載の情報処理装置。
(7) 前記判定部は、複数の前記指紋センサーから検出された前記指紋情報を比較することで、指の傾きを判定する、前記(6)に記載の情報処理装置。
(8) 前記指紋情報が予め登録された登録指紋情報と一致するか否かを認証する認証部を備え、
前記判定部は、前記認証が成功した場合に、前記判定を行う、前記(1)~(7)のいずれかに記載の情報処理装置。
(9) 前記認証部は、前記指紋情報が前記登録指紋情報と一致するか否かに加え、入力されたパスワードが登録されたパスワードと一致するか否かに応じて前記認証を行う、前記(8)に記載の情報処理装置。
(10) 前記処理部は、前記動作とともに前記指紋情報から得られる指の種類の情報に基づいて前記所定の処理を行う、前記(1)~(9)のいずれかに記載の情報処理装置。
(11) 前記判定部は、前記指紋情報と、前記指紋情報を検出する指紋センサー以外の他のセンサーから得られたセンサー情報に基づいて前記判定を行う、前記(1)~(10)のいずれかに記載の情報処理装置。
(12) 前記他のセンサーは、位置センサー、温度センサー、又は指圧センサーである、前記(11)に記載の情報処理装置。
(13) 前記所定の処理は、前記動作に応じて予め定められた所定のアプリケーションを起動する処理である、前記(1)~(12)のいずれかに記載の情報処理装置。
(14) 前記所定の処理は、前記動作に応じて予め定められた文字入力機能に関する処理である、前記(1)~(12)のいずれかに記載の情報処理装置。
(15) 前記所定の処理は、前記動作に応じて予め定められた表示画面を遷移させる処理である、前記(1)~(12)のいずれかに記載の情報処理装置。
(16) 前記判定部は、前記指紋情報に基づいて前記動作として指の押圧力を判定する、前記(1)~(15)のいずれかに記載の情報処理装置。
(17) 指紋情報を取得することと、
前記指紋情報に基づいて指の動作を判定することと、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行うことと、
を備える、情報処理方法。
(18) 指紋情報を取得する手段、
前記指紋情報に基づいて指の動作を判定する手段、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う手段、
としてコンピュータを機能させるためのプログラム。
100 スマートウォッチ
112 指紋情報取得部
114 指紋照合部
116 指紋判定部
118 処理部
112 指紋情報取得部
114 指紋照合部
116 指紋判定部
118 処理部
Claims (18)
- 指紋情報を取得する指紋情報取得部と、
前記指紋情報に基づいて指の動作を判定する判定部と、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う処理部と、
を備える、情報処理装置。 - 前記判定部は、予め登録された登録指紋情報と前記指紋情報を比較することで、前記動作を判定する、請求項1に記載の情報処理装置。
- 前記判定部は、前記指紋情報に基づいて指の傾きを判定する、請求項1に記載の情報処理装置。
- 前記判定部は、指が傾いた状態で予め登録された登録指紋情報と前記指紋情報を比較して前記傾きを判定する、請求項3に記載の情報処理装置。
- 前記指紋情報取得部は、指が接触する接触面を有する指紋センサーから前記指紋情報を取得し、
前記判定部は、前記指紋情報に基づいて前記接触面に沿った指の動きを判定する、請求項1に記載の情報処理装置。 - 前記指紋情報取得部は、前記指紋情報を検出する複数の指紋センサーから前記指紋情報を取得し、
前記判定部は、複数の前記指紋センサーから検出された前記指紋情報に基づいて、前記動作を判定する、請求項1に記載の情報処理装置。 - 前記判定部は、複数の前記指紋センサーから検出された前記指紋情報を比較することで、指の傾きを判定する、請求項6に記載の情報処理装置。
- 前記指紋情報が予め登録された登録指紋情報と一致するか否かを認証する認証部を備え、
前記判定部は、前記認証が成功した場合に、前記判定を行う、請求項1に記載の情報処理装置。 - 前記認証部は、前記指紋情報が前記登録指紋情報と一致するか否かに加え、入力されたパスワードが登録されたパスワードと一致するか否かに応じて前記認証を行う、請求項8に記載の情報処理装置。
- 前記処理部は、前記動作とともに前記指紋情報から得られる指の種類の情報に基づいて前記所定の処理を行う、請求項1に記載の情報処理装置。
- 前記判定部は、前記指紋情報と、前記指紋情報を検出する指紋センサー以外の他のセンサーから得られたセンサー情報に基づいて前記判定を行う、請求項1に記載の情報処理装置。
- 前記他のセンサーは、位置センサー、温度センサー、又は指圧センサーである、請求項11に記載の情報処理装置。
- 前記所定の処理は、前記動作に応じて予め定められた所定のアプリケーションを起動する処理である、請求項1に記載の情報処理装置。
- 前記所定の処理は、前記動作に応じて予め定められた文字入力機能に関する処理である、請求項1に記載の情報処理装置。
- 前記所定の処理は、前記動作に応じて予め定められた表示画面を遷移させる処理である、請求項1に記載の情報処理装置。
- 前記判定部は、前記指紋情報に基づいて前記動作として指の押圧力を判定する、請求項1に記載の情報処理装置。
- 指紋情報を取得することと、
前記指紋情報に基づいて指の動作を判定することと、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行うことと、
を備える、情報処理方法。 - 指紋情報を取得する手段、
前記指紋情報に基づいて指の動作を判定する手段、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う手段、
としてコンピュータを機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/334,940 US11494470B2 (en) | 2016-10-24 | 2017-08-02 | Information processing apparatus and information processing method |
CN201780064016.0A CN109844693A (zh) | 2016-10-24 | 2017-08-02 | 信息处理设备、信息处理方法以及程序 |
JP2018547139A JPWO2018079001A1 (ja) | 2016-10-24 | 2017-08-02 | 情報処理装置、情報処理方法及びプログラム |
EP17864305.2A EP3531241A4 (en) | 2016-10-24 | 2017-08-02 | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-207694 | 2016-10-24 | ||
JP2016207694 | 2016-10-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018079001A1 true WO2018079001A1 (ja) | 2018-05-03 |
Family
ID=62024818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/028066 WO2018079001A1 (ja) | 2016-10-24 | 2017-08-02 | 情報処理装置、情報処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11494470B2 (ja) |
EP (1) | EP3531241A4 (ja) |
JP (1) | JPWO2018079001A1 (ja) |
CN (1) | CN109844693A (ja) |
WO (1) | WO2018079001A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020017215A (ja) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | 電子機器、制御プログラム及び表示制御方法 |
JP2020017218A (ja) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | 電子機器、制御プログラム及び表示制御方法 |
JP2020135396A (ja) * | 2019-02-19 | 2020-08-31 | 株式会社ジャパンディスプレイ | 検出装置及び認証方法 |
JPWO2021117877A1 (ja) * | 2019-12-12 | 2021-06-17 | ||
JP2021168145A (ja) * | 2018-09-13 | 2021-10-21 | ネイバー コーポレーションNAVER Corporation | イヤーセット制御方法およびシステム |
US11842562B2 (en) | 2019-09-18 | 2023-12-12 | Sony Group Corporation | Information processing apparatus and information processing method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117311545B (zh) * | 2023-11-28 | 2024-03-15 | 深茂智联(深圳)科技有限公司 | 智能触控面板控制方法、装置及智能触控面板 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1119069A (ja) * | 1997-07-02 | 1999-01-26 | Nippon Telegr & Teleph Corp <Ntt> | 指紋認識集積回路 |
JPH11212689A (ja) * | 1998-01-22 | 1999-08-06 | Sony Corp | 入力装置 |
JP2001242952A (ja) * | 2000-03-01 | 2001-09-07 | Masahiko Okuno | 個人認証装置、個人認証方法および個人認証プログラムを記録した記録媒体 |
JP2004259173A (ja) * | 2003-02-27 | 2004-09-16 | Foundation For Nara Institute Of Science & Technology | ポインティングデバイス |
WO2006126310A1 (ja) * | 2005-05-27 | 2006-11-30 | Sharp Kabushiki Kaisha | 表示装置 |
JP3951920B2 (ja) | 2001-02-09 | 2007-08-01 | ソニー株式会社 | 入力装置 |
JP2011172159A (ja) * | 2010-02-22 | 2011-09-01 | Kyocera Mita Corp | 画像形成装置 |
JP2016066248A (ja) * | 2014-09-25 | 2016-04-28 | 京セラドキュメントソリューションズ株式会社 | 操作装置、情報処理装置、操作方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK1629624T3 (da) | 2003-05-30 | 2013-06-24 | Privaris Inc | In-circuit sikkerhedssystem og fremgangsmåder til at styre adgang til og anvendelse af følsomme data |
JP2005235157A (ja) | 2004-01-23 | 2005-09-02 | Sony Corp | 指紋センサー、指紋照合装置および指紋読み取り方法 |
US8165355B2 (en) * | 2006-09-11 | 2012-04-24 | Validity Sensors, Inc. | Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications |
JP4208200B2 (ja) | 2004-09-28 | 2009-01-14 | シャープ株式会社 | ポインティングデバイス |
US20060093192A1 (en) * | 2004-11-03 | 2006-05-04 | Bechtel J S | Finger guide device |
US20100020020A1 (en) * | 2007-11-15 | 2010-01-28 | Yuannan Chen | System and Method for Typing Using Fingerprint Recognition System |
US8724861B1 (en) * | 2010-12-06 | 2014-05-13 | University Of South Florida | Fingertip force, location, and orientation sensor |
US9256720B2 (en) * | 2011-05-18 | 2016-02-09 | Nextgenid, Inc. | Enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems |
CN106133748B (zh) | 2012-05-18 | 2020-01-31 | 苹果公司 | 用于基于指纹传感器输入来操纵用户界面的设备、方法和图形用户界面 |
JP6065025B2 (ja) * | 2013-01-17 | 2017-01-25 | 富士通株式会社 | 生体認証装置、生体認証システム、及び生体認証方法 |
CN103315744B (zh) | 2013-07-01 | 2014-10-08 | 中国科学院合肥物质科学研究院 | 一种手部震颤检测方法 |
KR102090956B1 (ko) * | 2013-07-10 | 2020-04-14 | 삼성전자주식회사 | 지문 인식 방법 및 이를 위한 장치 |
WO2015020465A1 (en) * | 2013-08-08 | 2015-02-12 | Samsung Electronics Co., Ltd. | Portable terminal, method of providing fingerprint input guide information of portable terminal, and nonvolatile recording medium for recording program for executing the method |
US9898642B2 (en) | 2013-09-09 | 2018-02-20 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
KR102123092B1 (ko) * | 2013-11-21 | 2020-06-15 | 삼성전자주식회사 | 지문 인식 방법 및 그 전자 장치 |
KR102206054B1 (ko) * | 2014-05-09 | 2021-01-21 | 삼성전자주식회사 | 지문 처리 방법 및 그 전자 장치 |
KR102264808B1 (ko) * | 2014-06-23 | 2021-06-14 | 삼성전자주식회사 | 지문 처리 방법 및 그 전자 장치 |
TWI530886B (zh) * | 2015-01-29 | 2016-04-21 | 茂丞科技股份有限公司 | 具有操作於向量模式下的指紋感測器的電子設備 |
SE1550281A1 (en) | 2015-03-06 | 2016-09-07 | Fingerprint Cards Ab | Method and system for estimating finger movement |
US20170032166A1 (en) * | 2015-05-14 | 2017-02-02 | Cross Match Technologies, Inc. | Handheld biometric scanner device |
DK179657B1 (en) * | 2016-06-12 | 2019-03-13 | Apple Inc. | Devices, methods and graphical user interfaces for providing haptic feedback |
-
2017
- 2017-08-02 JP JP2018547139A patent/JPWO2018079001A1/ja active Pending
- 2017-08-02 EP EP17864305.2A patent/EP3531241A4/en active Pending
- 2017-08-02 US US16/334,940 patent/US11494470B2/en active Active
- 2017-08-02 WO PCT/JP2017/028066 patent/WO2018079001A1/ja active Application Filing
- 2017-08-02 CN CN201780064016.0A patent/CN109844693A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1119069A (ja) * | 1997-07-02 | 1999-01-26 | Nippon Telegr & Teleph Corp <Ntt> | 指紋認識集積回路 |
JPH11212689A (ja) * | 1998-01-22 | 1999-08-06 | Sony Corp | 入力装置 |
JP2001242952A (ja) * | 2000-03-01 | 2001-09-07 | Masahiko Okuno | 個人認証装置、個人認証方法および個人認証プログラムを記録した記録媒体 |
JP3951920B2 (ja) | 2001-02-09 | 2007-08-01 | ソニー株式会社 | 入力装置 |
JP2004259173A (ja) * | 2003-02-27 | 2004-09-16 | Foundation For Nara Institute Of Science & Technology | ポインティングデバイス |
WO2006126310A1 (ja) * | 2005-05-27 | 2006-11-30 | Sharp Kabushiki Kaisha | 表示装置 |
JP2011172159A (ja) * | 2010-02-22 | 2011-09-01 | Kyocera Mita Corp | 画像形成装置 |
JP2016066248A (ja) * | 2014-09-25 | 2016-04-28 | 京セラドキュメントソリューションズ株式会社 | 操作装置、情報処理装置、操作方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3531241A4 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7034856B2 (ja) | 2018-07-27 | 2022-03-14 | 京セラ株式会社 | 電子機器、制御プログラム及び表示制御方法 |
JP2020017218A (ja) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | 電子機器、制御プログラム及び表示制御方法 |
JP2020017215A (ja) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | 電子機器、制御プログラム及び表示制御方法 |
JP7244231B2 (ja) | 2018-07-27 | 2023-03-22 | 京セラ株式会社 | 電子機器、制御プログラム及び表示制御方法 |
US11354031B2 (en) | 2018-07-27 | 2022-06-07 | Kyocera Corporation | Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen |
JP2021168145A (ja) * | 2018-09-13 | 2021-10-21 | ネイバー コーポレーションNAVER Corporation | イヤーセット制御方法およびシステム |
JP7292050B2 (ja) | 2019-02-19 | 2023-06-16 | 株式会社ジャパンディスプレイ | 検出装置及び認証方法 |
JP2020135396A (ja) * | 2019-02-19 | 2020-08-31 | 株式会社ジャパンディスプレイ | 検出装置及び認証方法 |
US11842562B2 (en) | 2019-09-18 | 2023-12-12 | Sony Group Corporation | Information processing apparatus and information processing method |
WO2021117877A1 (ja) * | 2019-12-12 | 2021-06-17 | パナソニックIpマネジメント株式会社 | 指紋登録方法およびユーザ端末装置 |
JPWO2021117877A1 (ja) * | 2019-12-12 | 2021-06-17 | ||
US12067807B2 (en) | 2019-12-12 | 2024-08-20 | Panasonic Intellectual Property Management Co., Ltd. | Fingerprint registration method and user terminal device |
JP7561386B2 (ja) | 2019-12-12 | 2024-10-04 | パナソニックIpマネジメント株式会社 | 指紋登録方法およびユーザ端末装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018079001A1 (ja) | 2019-09-12 |
US11494470B2 (en) | 2022-11-08 |
EP3531241A1 (en) | 2019-08-28 |
CN109844693A (zh) | 2019-06-04 |
US20190278896A1 (en) | 2019-09-12 |
EP3531241A4 (en) | 2019-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018079001A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20210271340A1 (en) | Gesture recognition devices and methods | |
US9285840B2 (en) | Detachable sensory-interface device for a wireless personal communication device and method | |
US9710632B2 (en) | User-authentication gestures | |
KR102437106B1 (ko) | 마찰음을 이용하는 장치 및 방법 | |
US20160140379A1 (en) | Improvements in or relating to user authentication | |
WO2015130415A2 (en) | Apparatus and method for biometric sensor in a handheld mobile wireless communication device | |
US10621410B2 (en) | Method and system for operating a keyboard with multi functional keys, using fingerprints recognition | |
JP2008192092A (ja) | タッチパネル装置、情報処理装置及びプログラム | |
WO2013163233A1 (en) | Detachable sensory-interface device for a wireless personal communication device and method | |
US9760758B2 (en) | Determining which hand is being used to operate a device using a fingerprint sensor | |
WO2017063763A1 (en) | Secure biometric authentication | |
JP2015018413A (ja) | 携帯端末、画像表示方法、及びプログラム | |
JP4734088B2 (ja) | 本人認証装置およびその制御方法 | |
JP5104659B2 (ja) | 入力装置、携帯端末装置、及び入力装置の入力方法 | |
JP2018045729A (ja) | 情報処理装置、情報処理方法、コンピュータプログラム、及び記録媒体 | |
KR20110048121A (ko) | 지문인식을 이용한 사용자 인터페이스 제공단말기 및 방법 | |
KR20050018101A (ko) | 지문인증기능을 구비한 포인팅 장치 및 방법 | |
JP2023025681A (ja) | スクロールホイール指紋センサ一体型ユーザ入力装置を用いた認証を行うar/vrナビゲーション | |
JP2013246567A (ja) | 情報処理装置、認証方法およびプログラム | |
JP2009252160A (ja) | 文字入力装置、文字入力方法、プログラム及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17864305 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2018547139 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2017864305 Country of ref document: EP |