[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2023105586A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2023105586A1
WO2023105586A1 PCT/JP2021/044758 JP2021044758W WO2023105586A1 WO 2023105586 A1 WO2023105586 A1 WO 2023105586A1 JP 2021044758 W JP2021044758 W JP 2021044758W WO 2023105586 A1 WO2023105586 A1 WO 2023105586A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
biometric information
operator
terminal
model
Prior art date
Application number
PCT/JP2021/044758
Other languages
English (en)
French (fr)
Inventor
悠 大島
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/044758 priority Critical patent/WO2023105586A1/ja
Priority to JP2023565693A priority patent/JPWO2023105586A1/ja
Publication of WO2023105586A1 publication Critical patent/WO2023105586A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints

Definitions

  • the present invention relates to an information processing device, an information processing method, and a program.
  • Patent Literature 1 describes a person authentication unit that authenticates the person by comparing acquired static biometric information with pre-registered static biometric information;
  • an information processing device comprising: a state determination unit that determines a user's state by comparing the user's state with biological information; It is
  • biometric information such as fingerprints, veins, faces, irises, and retinas is used as static biometric information for personal authentication.
  • biometric information requires a dedicated reading device and cannot always be used in a terminal.
  • One aspect of the present invention has been made in view of the above problems. To provide a technique for identifying whether or not an operation is based on the intention of the person himself/herself.
  • An information processing apparatus includes: identity verification information acquisition means for acquiring identity verification information input from a terminal; biometric information acquisition means for acquiring biometric information of an operator of the terminal; with reference to one or more biometric information models learned using biometric information in normal times, the biometric information acquired by the biometric information acquisition means, and the identity verification information acquired by the identity verification information acquisition means and identification means for executing identification processing for identifying whether or not the operation is performed intentionally by the person himself/herself.
  • An information processing method comprises: at least one processor acquiring identity verification information input from a terminal; acquiring biometric information of an operator of the terminal; By referring to one or more biometric information models learned using the biometric information of the above, the acquired biometric information, and the acquired identity verification information, whether or not the operation is being performed intentionally by the person including identifying
  • An information processing program includes a process of acquiring identity verification information input from a terminal, a process of acquiring biometric information of an operator of the terminal, and a process of acquiring biometric information of the operator during normal times.
  • a technique for identifying whether an operation on a terminal is an operation based on the intention of the operator, based on personal authentication information entered by the operator and biometric information of the operator. can do.
  • FIG. 1 is a block diagram showing the configuration of an information processing device according to exemplary Embodiment 1 of the present invention
  • FIG. 4 is a flow chart showing the flow of an information processing method according to exemplary embodiment 1
  • FIG. 7 is a block diagram showing the configuration of an information processing apparatus according to exemplary Embodiment 2 of the present invention
  • FIG. 11 is a flowchart showing an outline flow of information processing performed by an information processing apparatus according to exemplary embodiment 2
  • FIG. 4 is a conceptual diagram showing that the biometric information model has a plurality of models
  • 4 is a table showing a method of selectively using models depending on the importance of operation content or purpose.
  • FIG. 11 is a block diagram showing the configuration of an information processing apparatus according to exemplary Embodiment 3 of the present invention
  • FIG. 11 is a flow diagram showing an outline flow of information processing performed by an information processing apparatus according to exemplary embodiment 3
  • 11 is a flow chart showing the flow of an information processing method according to exemplary embodiment 3
  • FIG. 11 is a block diagram showing the configuration of an information processing apparatus according to exemplary Embodiment 4 of the present invention
  • 1 is a configuration diagram for realizing an information processing apparatus by software
  • FIG. 11 is a flow diagram showing an outline flow of information processing performed by an information processing apparatus according to exemplary embodiment 3
  • 11 is a flow chart showing the flow of an information processing method according to exemplary embodiment 3
  • FIG. 11 is a block diagram showing the configuration of an information processing apparatus according to exemplary Embodiment 4 of the present invention
  • It is an example of warning information displayed on the display unit.
  • 1 is a configuration diagram for realizing an information processing apparatus
  • FIG. 1 is a block diagram showing the configuration of an information processing device 1.
  • the information processing device 1 is a device that identifies whether or not the operation of the user (operator) 40 who operated the terminal 30 was performed based on the intention of the person himself/herself.
  • the principal refers to the principal identified by personal identification information described later.
  • the information processing device 1 includes an identity verification information acquisition unit 11, a biometric information acquisition unit 12, and an identification unit 13.
  • the personal identification information acquisition unit 11, the biometric information acquisition unit 12, and the identification unit 13 are forms of the personal identification information acquisition unit, the biometric information acquisition unit, and the identification unit described in the claims, respectively.
  • the personal identification information obtaining unit 11 obtains the personal identification information of the operator input by the operator from the terminal.
  • identity verification information is information that proves the identity of the person, such as information that only the person knows or information that is contained in an object believed to be owned only by the person. is.
  • personal identification information include my number, information recorded on my number cards, information recorded on cards with built-in IC chips (credit cards, cash cards, etc.), personal identification numbers, account information, passwords, facial images, and fingerprints. etc.
  • a terminal is a terminal for the operator to perform input operations.
  • terminals include personal computers, mobile terminals such as smartphones and mobile tablets, various wearable devices, ATMs (Automatic Teller Machines) of financial institutions, input terminals of public institutions, and the like.
  • ATMs Automatic Teller Machines
  • the type of the terminal is not limited to the above examples, and the form is not limited as long as it is configured to allow the operator to operate for the desired procedure and has an information communication function.
  • the information processing device 1 may be connected to terminals via an information communication network such as the Internet.
  • a wearable device is a device that a person wears on a part of their body and uses.
  • Wearable devices include, for example, wristwatches, eyeglasses, headphones, earphones, and the like.
  • it refers to a wearable device that has a function that can acquire biological information such as the wearer's pulse and body temperature.
  • the personal identification information to be entered may be any one that can be entered from the terminal, or a combination of these.
  • the personal identification information can be input using a keyboard, a touch panel, various information reading devices, etc. provided in the terminal. For example, it is possible to input my number, account (account number), personal identification number, password, etc. from a touch panel provided in a personal computer or mobile terminal.
  • a personal computer or mobile terminal is equipped with a card reading device, it is possible to read my number card.
  • a reading device for a financial institution card is attached.
  • a face image may be transmitted as personal identification information.
  • biometric information acquisition unit 12 acquires biometric information of the operator of the terminal.
  • biometric information is physical information or physiological information.
  • the biometric information includes, as an example, at least one of keystrokes on a keyboard or touch panel, pulse, body temperature, and facial expression.
  • Keystrokes which are physical information, refer generally to key operation characteristics of a keyboard or touch panel in this exemplary embodiment.
  • keystrokes include the speed at which a key is struck, the pattern or frequency of mistyping, the difference in input speed depending on the type of character string, and the like. Information about such keystrokes is information that tends to show different input habits for each individual.
  • Physiological information such as pulse or body temperature can be obtained by a wearable device equipped with a pulse meter or thermometer when worn by the operator.
  • facial expressions can be acquired with a camera when the operator is operating a terminal equipped with a camera. By comparing the pulse, body temperature, facial expression, etc. with normal times, it is possible to identify that the operator is operating in a mental state different from normal.
  • the above biometric information is acquired by equipment that terminals generally have. Also, if the operator is wearing a wearable device, the information may be acquired by the wearable device. In other words, there is no need to newly arrange dedicated equipment for acquiring biometric information.
  • the identification unit 13 identifies one or more biometric information models learned using the biometric information of the operator 40 during normal times, the biometric information acquired by the biometric information acquisition unit 12, and the identity acquired by the identity verification information acquisition unit 11. By referring to the confirmation information, an identification process is executed to identify whether the operation by the operator 40 is intentionally performed.
  • the biometric information model is a machine learning model built by learning the operator's normal biometric information.
  • the biometric information model is based on the biometric information acquired by the biometric information acquisition unit 12, which is the normal state of a person (hereinafter also referred to as “the person”) identified by the identity verification information acquired by the identity verification information acquisition unit 11.
  • the degree of matching with the biometric information is calculated, and identification processing is performed to identify whether or not the operation performed on the terminal is intentionally performed by the person himself/herself. A method for constructing the biometric information model will be described later.
  • normal means, as an example, a state in which the person has no emotions such as anxiety, fear, or worry, or a state in which the person is mentally stable.
  • the normal time may be rephrased as the time when the person performs an operation based on his or her original intention.
  • the original intention is, for example, the will to act voluntarily without being threatened or coerced by others, or without encountering fraud or the like.
  • the personal identification information acquisition unit 11, the biometric information acquisition unit 12, and the identification unit 13 are described as an example in which they are integrated into one information processing device 1, but each of these units is integrated into one unit. They do not have to be grouped together in one place. In other words, some or all of these may be dispersed and arranged at different locations. Also, some or all of these may be distributed and arranged on the cloud. This also applies to the following exemplary embodiments.
  • the personal identification information acquisition unit 11 that obtains personal identification information input from the terminal 30 and the biometric information of the operator 40 of the terminal 30 are obtained.
  • the biometric information acquiring unit 12 one or more biometric information models learned using the normal biometric information of the operator 40, the biometric information acquired by the biometric information acquiring unit 12, and the identity verification information acquiring unit 11 and an identification unit 13 that refers to the acquired personal identification information and performs identification processing to identify whether or not the operation is performed intentionally by the person himself/herself.
  • operations on the terminal can be operations based on the intention of the operator based on the personal authentication information entered by the operator and the biometric information of the operator. It is possible to obtain the effect of being able to identify whether or not there is.
  • FIG. 2 is a flow chart showing the flow of the information processing method S1.
  • the information processing method S1 includes the following steps.
  • at step S11 at least one processor (for example, the personal identification information obtaining unit 11) obtains personal identification information input from the terminal.
  • at least one processor for example, the biometric information acquisition unit 12 acquires the biometric information of the terminal operator.
  • at least one processor for example, the identification unit 13
  • the identification unit 13 includes one or more biological information models learned using the normal biological information of the operator, the acquired biological information, and the acquired By referring to the personal identification information, it is identified whether or not the operation is performed by the person himself/herself.
  • the contents of the personal identification information, biometric information, and biometric learning model are as described above.
  • At least one processor acquires identity verification information input from a terminal, acquires biometric information of an operator of the terminal, By referring to one or more biometric information models learned using the biometric information of the operator during normal times, the acquired biometric information, and the acquired identity verification information, the operation is performed voluntarily by the operator. and identifying whether or not there is.
  • the operation on the terminal is an operation based on the intention of the operator based on the personal authentication information entered by the operator and the biometric information of the operator. It is possible to obtain the effect of being able to identify whether or not there is.
  • FIG. 3 is a block diagram showing the configuration of the information processing device 1A according to this exemplary embodiment. As illustrated, the information processing apparatus 1A includes a control section 10, a communication section 15, and a memory 16. FIG.
  • the control unit 10 includes an identity verification information acquisition unit 11, a biometric information acquisition unit 12, and an identification unit 13.
  • the functions of the personal identification information acquisition unit 11, the biometric information acquisition unit 12, and the identification unit 13 are as described in the first exemplary embodiment.
  • the memory 16 stores one or more programs in a ROM (Read Only Memory), and implements the function of each part of the control unit 10 by expanding it to a RAM (Random Access Memory) and executing it. do.
  • the information processing device 1A is connected to the terminal 30 via the information communication network N such as the Internet by the communication unit 15 so as to be capable of information communication.
  • the terminal 30 is a terminal operated by the operator 40, and its specific example is as described in the first exemplary embodiment.
  • the operation performed by the operator 40 using the terminal 30 is not an operation performed on the information processing apparatus 1A, but a personal transaction such as a financial transaction or a commercial transaction, or an instruction from the government based on laws, regulations, or the like. Or it refers to requested administrative procedures (procedures related to resident cards, family registers, etc., electronic tax payment, electronic voting, etc.).
  • the information processing device 1A is connected to the biological information model 20 via the communication unit 15 so that information communication is possible.
  • the function of the biometric model 20 is as described in the first exemplary embodiment.
  • the personal identification information acquisition unit 11, the biometric information acquisition unit 12, the identification unit 13, the communication unit 15, and the memory 16 do not need to be integrated into one information processing apparatus 1A. In other words, some or all of these may be dispersed and arranged at different locations. Also, some or all of these may be distributed and arranged on the cloud. Also, the biometric information model 20 may be placed in a different location from the above units, or may be placed on the cloud.
  • the biological information model 20 is, as described above, a machine learning model constructed by learning the normal biological information of the operator.
  • the biometric information model 20 acquires in advance the biometric information of the operator during normal times, and learns the biometric information patterns of the operator during normal times.
  • the biometric information model 20 provides an evaluation index indicating how much the biometric information matches the biometric information of the person in normal times. It derives and outputs to the identification unit 13 .
  • FIG. 4 is a flowchart showing an outline of information processing performed by the information processing apparatus 1A.
  • the information processing apparatus 1A acquires personal identification information and biometric information of the operator. Specifically, as for the personal identification information, the personal identification information acquisition unit 11 obtains the personal identification information input by the operator 40 from the terminal 30 . Moreover, the biometric information of the operator 40 is acquired by the biometric information acquisition unit 12 via the terminal 30 or the wearable device worn by the operator 40 . The biometric information acquired via the wearable device is confirmed to be the biometric information of the operator 40 by the biometric information acquiring unit 12 also acquiring the identification information (such as the MAC address) of the wearable device. can do.
  • the identification information such as the MAC address
  • the information processing device 1A performs identification processing using the identification model.
  • the identification unit 13 uses the biometric information model 20 to perform identification processing to identify whether or not an operation performed by a certain operator 40 was performed according to the original intention of the operator. do.
  • the information processing device 1A may perform processing according to the identification result. If the identification result is normal, that is, if it is identified that the operation was performed with the person's original intention, the information processing apparatus 1A does not process anything. On the other hand, when the identification result is abnormal, that is, when it is identified that the operation was not performed by the person's original intention, the information processing apparatus 1A may perform some processing.
  • the identification unit 13 records the acquired biometric information of the operator 40 as the operation information at the time of abnormality. good too.
  • An abnormal case is a case where it is identified that a certain operation was not performed intentionally by the person himself/herself. Operation information confirmed to be abnormal can be used for model learning. This makes it possible to further improve the model evaluation accuracy.
  • the identification unit 13 may send some kind of warning to the department in charge of security at the operation destination in the event of an abnormality.
  • the identification unit 13 may transmit to the police or the like that there is a possibility of an abnormal operation in the event of an abnormality.
  • the biological information model 20 learns in advance one or more characteristics of normal biological information for each of the multiple operators 40 .
  • the operator 40 operates the terminal 30 against his/her original intention by intimidation, coercion, fraud, or the like, his/her mental state is different from normal.
  • biometric information different from the biometric information at the time is acquired. For example, when a person is threatened or forced to become tense, the pulse rate often becomes higher than normal, and the body temperature often becomes higher than normal.
  • the facial expression is expected to change from normal, such as a tense facial expression and an increase in blinking. If the wearable device can measure the conductivity of the skin, it is expected that the conductivity will be different from normal. The same applies when the operator 40 thinks that an emergency operation must be performed due to transfer fraud or the like.
  • the keystrokes during input are expected to be different from normal. For example, it is expected that there will be a high rate of mistakes in inputting character strings (your name, password, etc.) that you are familiar with and do not normally make mistakes in inputting. In addition, it is conceivable that the character input speed will obviously slow down, and that input errors will increase as a whole.
  • the biological information model 20 compares the characteristics of the operator's normal biological information acquired via the terminal 30 or the wearable device with the characteristics of the biological information acquired during a certain operation, and compares the characteristics of the biological information acquired during a certain operation. It is possible to output an evaluation index that indicates the extent to which the biological information at the time matches (or differs from) the biological information from the person's normal operation.
  • the biometric information model 20 may have a plurality of biometric information models (hereinafter also simply referred to as "models").
  • FIG. 5 is a conceptual diagram showing that the biological information model 20 has a plurality of models.
  • the biological information model 20 includes a model 20A (model A), a model 20B (model B), and a model 20C (model C). Note that the biological information model 20 may include more models.
  • the identification unit 13 acquires information indicating the importance of the operation of the terminal 30, selects one of the plurality of biological information models according to the acquired information indicating the importance, and selects the selected biological information model. may be used to perform the identification process.
  • the identification unit 13 acquires information indicating the purpose of the operation of the terminal 30, selects one of the plurality of biological information models according to the acquired information indicating the purpose of the operation, and selects the selected biological information model. may be used to perform the identification process.
  • Fig. 6 is a table showing how to use different models depending on the importance or purpose of the operation content.
  • the identification unit 13 may use different models depending on the importance of the operation (for example, the amount of money processed by the operation). It is believed that operations involving large amount transactions are more stressful than operations involving small amounts. Therefore, the identification unit 13 may select a model to be used depending on the amount of money for operation.
  • a table 601 is a table for selectively using models according to the degree of importance.
  • model A is a model used when the importance of an operation is high. For example, if the amount of money input in a certain operation is greater than or equal to the first threshold (corresponding to high importance), the identification unit 13 determines that the amount of money input in a normal operation is greater than or equal to the first threshold. Identification processing is performed using a model A that has been learned using biometric information obtained at the time of operation.
  • the identification unit 13 determines that the operation amount is equal to or greater than the second threshold and less than the first threshold in normal times. Identification processing is performed using a model B that has been learned using biometric information obtained during the following operations. In addition, when the amount of money input in a certain operation is less than the second threshold (corresponding to low importance), the identification unit 13 normally recognizes the biometric information obtained when the operation is performed in which the amount of money for the operation is less than the second threshold. Discrimination processing is performed using the model C learned using .
  • the importance of operations is not limited to the amount of money.
  • the degree of importance of the operation includes at least one of the type of financial transaction, the amount of financial transaction, the type of commercial transaction, the amount of commercial transaction, the other party of the operation, and the frequency of operations performed on the other party in the past. It's okay.
  • the identification unit 13 may use different models depending on the purpose of operation. For example, depositing and withdrawing money at an ATM of a bank is considered to be a frequent operation and is familiar to the user. In addition, administrative procedures are considered to be unfamiliar due to the infrequent operation. Unfamiliar operations are considered to differ in degree of tension, input speed, etc. from familiar operations. Therefore, the identification unit 13 may use different models depending on the purpose of the operation.
  • a table 602 is a table for selectively using models depending on the purpose.
  • model A is a model used when the purpose of the operation is an operation for a purpose that is considered to be relatively frequent, such as financial transactions and commercial transactions.
  • Model B is a model used when the purpose of the operation is electronic voting, electronic tax payment, or the like.
  • Model C is a model used when the purpose of the operation is an administrative procedure other than electronic voting, electronic tax payment, or the like.
  • the biometric information model 20 may include both models of the table 601 and the table 602 of FIG.
  • the biometric information model 20 may quantify and output features of each biometric information. Since the pulse rate and body temperature are expected to vary greatly between normal and abnormal conditions, the identification unit 13 may set threshold values in advance for each pulse and body temperature. The biometric information model 20 may output to the identification unit 13 the difference between these numerical values acquired at the time of operation and the normal numerical values. Then, the identification unit 13 may compare the output difference with a preset threshold value to identify whether the operation was intentionally performed by the person himself/herself. In addition, the biometric information model 20 may quantify and output features obtained by combining some of a plurality of biometric information. In addition, the biometric information model 20 may quantify and output a feature obtained by combining all of a plurality of biometric information. Then, the identification unit 13 may compare the output numerical value with a threshold value. The method of quantifying the features is not limited either.
  • FIG. 7 is a conceptual diagram showing an example of how a model compares features of biometric information by combining some of a plurality of biometric information.
  • the biometric information model 20 may be trained using combined biometric information obtained by combining a plurality of normal biometric information. Then, the identification unit 13 may perform identification processing using the biometric information model 20 to determine whether or not the operation is performed intentionally by the person himself/herself. Thereby, the identification unit 13 can more accurately identify whether or not a certain operation is performed intentionally by the person himself/herself.
  • the illustrated example shows an example in which two biometric information out of four biometric information are combined to compare normal times and operating times.
  • the model derives features of two biometric information (a combination of two biometric information connected by a straight line in the figure) combined from four biometric information of keystrokes, pulse, body temperature, and facial expression. .
  • the features of the two combined biometric information are correlated, for example, when one is high, the other is high, and when one is high, the other is low (positive correlation is high or negative correlation is high). It is a feature.
  • the correlation degree of two biometric information is low, the combination may not be used.
  • the biometric information model 20 learns in advance the degree of correlation between two biometric information combinations during normal times. Then, it calculates and outputs an evaluation index (degree of matching, etc.) indicating how much the degree of correlation between two combinations of biometric information obtained in a certain operation matches the degree of correlation during normal times. good too. Then, the identifying unit 13 may compare the output degree of matching with a preset threshold to identify whether or not the operation is performed intentionally by the person himself/herself.
  • the biometric information may include at least one of keystrokes, pulse, body temperature, facial expression, and line of sight when input on a keyboard or touch panel, and may include biometric information other than these.
  • biometric information acquired by a device normally provided in a terminal or owned by many operators. This is because biometric information of many operators can be obtained and a model can be constructed efficiently.
  • the biological information model 20 is learned by acquiring normal biological information for each operator. However, due to its nature, it is difficult to obtain a large amount of biometric information for each operator during normal times, and it may be difficult to construct an accurate model for each operator. Therefore, it is preferable to let the biometric information model 20 learn the biometric information of an unspecified number of operators during normal times. As a result, it is possible to construct an average biological information model of the operator during normal times.
  • the average biological information model 20 learned using the normal biological information of an unspecified number of operators is further trained with the normal biological information of individual operators to modify the average model.
  • a model dedicated to each individual operator may be constructed. Then, when identifying a certain operation, the identifying unit 13 identifies whether or not the operation is performed intentionally by the operator using a model dedicated to the operator of the operation (the person himself/herself).
  • the identification unit 13 may set a threshold value to be referred to for identifying whether or not the operation is performed intentionally by the person, according to the amount of acquired biometric information of the operator during normal times. good.
  • the threshold may be changed according to the evaluation accuracy of the model.
  • the frequency of erroneously identifying an abnormality can be reduced by setting a threshold with a relatively large leeway (threshold with a high hurdle for determining abnormality). Then, as the amount of normal biometric information acquired for each individual increases, the threshold value may be changed so that normality and abnormality can be distinguished more accurately.
  • biometric information during normal times is acquired via the terminal 30 or the wearable device worn by the operator 40 .
  • the operator 40 may be requested to simulate a situation simulating the operation, and the data may be acquired as normal data. This makes it possible to acquire more data during normal times.
  • the operator 40 may acquire the identity verification information of another person by some means and pretend to be the person to perform the operation. Even in this case, the information processing device 1A can identify whether the operation was performed intentionally by the person identified by the person's identity verification information.
  • the biometric information of the person (person impersonating) acquired by the biometric information acquiring unit 12 is It is different from biometric information. Therefore, the biometric information model 20 outputs an evaluation index indicating that the biometric information is different from normal biometric information. Therefore, the identification unit 13 can identify that the operation was not performed intentionally by the person.
  • the biometric information model 20 is made to learn in advance the biometric information of the agent during normal times, and the biometric information model 20 compares the biometric information of the principal or the agent during normal times and evaluates the results. may be output.
  • the biometric information is personal information, it is preferable to obtain the consent of the operator 40 before obtaining the biometric information.
  • the acquired biometric information is preferably encrypted at the time of transmission.
  • the feature data may be transmitted, and the image itself may not be transmitted.
  • the transmitted biometric information is processed in the information processing apparatus 1A in an encoded state and cannot be decoded. By processing in this manner, it is guaranteed that even the administrator of the information processing apparatus cannot access the biometric information itself, and the privacy of the operator can be ensured.
  • the identification unit 13 acquires information indicating the importance or purpose of the operation of the terminal, and according to the information indicating the importance or purpose, , any one of a plurality of biometric information models 20A, 20B, and 20C is selected, and the selected biometric information model is used to execute identification processing. Therefore, according to the information processing apparatus 1A according to the present exemplary embodiment, in addition to the effects of the information processing apparatus 1 according to the first exemplary embodiment, the operation on the terminal is an operation based on the operator's intention. It is possible to obtain the effect of being able to more accurately identify whether or not there is.
  • FIG. 8 is a block diagram showing the configuration of an information processing device 1B according to exemplary embodiment 3 of the present invention.
  • the information processing apparatus 1B includes a control section 10A, a communication section 15, and a memory 16.
  • FIG. The configurations of the communication unit 15 and the memory 16 are as described in the first exemplary embodiment.
  • the information processing apparatus 1B generates an average biometric information model 20 or individual biometric information models 20 of the plurality of operators 40 from the biometric information of the plurality of operators 40 at normal times.
  • the information processing device 1B is connected to the terminal 30 via an information communication network N such as the Internet by the communication unit 15 so as to be capable of information communication.
  • the terminal 30 is a terminal operated by the operator 40 .
  • the information processing apparatus 1B is connected to the biological information model 20 via the communication unit 15 so as to be capable of information communication.
  • the control unit 10A includes an identity verification information acquisition unit 11, a biometric information acquisition unit 12, and a model construction unit 14.
  • the configurations of the personal identification information acquisition unit 11 and the biometric information acquisition unit 12 are as described in the first exemplary embodiment.
  • the model building unit 14 builds a normal biological information model of the operator from the normal biological information of the operator.
  • FIG. 9 is a flowchart showing an outline of information processing performed by the information processing apparatus 1B.
  • the model construction unit 14 acquires the identity verification information of the operator 40 acquired by the identity verification information acquisition unit 11 and the normal biometric information of the operator 40 acquired by the biometric information acquisition unit 12. and are input to the biometric information model 20 .
  • the biological information model 20 numerically calculates the features of the normal biological information of the operator 40 based on the received identity verification information of the operator 40 and the normal biological information of the operator (principal) 40. be converted into a formula or stored as a formula.
  • the method of quantifying or formulating the features is not limited.
  • the biometric information model 20 may learn information obtained by quantifying features of each biometric information among multiple biometric information. For example, the biometric information model 20 may learn the average value and standard deviation of numerical values for pulse or body temperature. Also, the biometric information model 20 may learn and store features obtained by combining some of a plurality of biometric information. For example, if there is a correlation between two pieces of biometric information, the correlation may be expressed as a mathematical formula and stored. In addition, the biometric information model 20 may store features obtained by combining all of a plurality of biometric information in numerical form or formula by learning.
  • biometric information model 20 may learn two or more biometric information having an invariant relationship among a plurality of biometric information.
  • Biometric information having an invariant relationship is biometric information that always has a specific interlocking relationship such that when one increases, the other increases, or when one increases, the other decreases.
  • the biometric information model 20 learns a combination of biometric information data having such an invariant relationship among the biometric information data input from the model construction unit 14 and creates a relational expression therefor. There may be a plurality of relational expressions of the invariant relation.
  • the relational expression can be learned and generated by machine learning.
  • the biological information model 20 that has learned the relational expression can output an evaluation value indicating how much the biological information acquired at the time of operation matches the pre-learned relational expression.
  • the identification unit 13 can comprehensively compare the plurality of evaluation values with a predetermined threshold to identify whether the operation was performed intentionally by the person himself/herself.
  • the biological information model 20 can be learned using normal biological information data and abnormal (or abnormal) data.
  • the biometric information model 20 uses the training biometric information data labeled normal and the biometric training data labeled abnormal, which are input from the model construction unit 14, to determine whether normal and abnormal You may learn the biological information of time. Learning using labeled data can be performed by machine learning using a neural network or the like.
  • the learned biological information model 20 can output the probability that the biological information acquired at the time of operation is normal and abnormal.
  • the identification unit 13 can compare this probability with a predetermined threshold to identify whether the operation was performed intentionally by the person himself/herself.
  • the biological information model 20 is preferably constructed for each operator 40 .
  • the information processing apparatus 1B uses all the biometric information of the plurality of operators 40 to build an average biometric information model of the operator 40 during normal times, as described in the second exemplary embodiment. good too. Then, the information processing apparatus 1B may add the biometric information of each operator 40 to the average biometric information model to construct a model for each operator 40 individually.
  • the personal identification information acquiring unit 11 acquires the personal identification information input from the terminal 30, and the biometric information acquiring unit 12 40 is obtained, and the model construction unit 14 constructs a normal biological information model of the operator 40 from the normal biological information of the operator 40 .
  • the normal biometric information of the person (operator) specified by the input identity verification information is acquired, and the biometric information stored with the characteristics is acquired.
  • FIG. 10 is a flow chart showing the flow of the information processing method S2.
  • the information processing method S2 includes the following steps.
  • at step S21 at least one processor (for example, the personal identification information obtaining unit 11) obtains personal identification information input from the terminal.
  • at least one processor for example, the biometric information acquisition unit 12 acquires the biometric information of the terminal operator.
  • at least one processor for example, the model building unit 14 builds a normal biometric information model of the operator from the normal biometric information of the operator.
  • At least one processor acquires the identity verification information input from the terminal, acquires the biometric information of the terminal operator, A configuration including constructing a normal biometric information model of the operator from normal biometric information of the operator is employed.
  • a biometric information model is constructed that can identify whether the operation was performed intentionally by the person himself/herself. You can get the effect that you can.
  • FIG. 11 is a block diagram showing the configuration of an information processing device 1C according to this exemplary embodiment.
  • the information processing apparatus 1C includes a control section 10C, a communication section 15, a memory 16, and a display section 19.
  • FIG. The configurations of the communication unit 15 and the memory 16 are as described in the first exemplary embodiment.
  • the display unit 19 may be, for example, a display. Also, instead of or in addition to the display, an alarm lamp or an alarm sound generator may be provided. Although the display unit 19 is included in the information processing apparatus 1C in the example shown in FIG. 11, the display unit 19 may be arranged outside the information processing apparatus 1C.
  • the information processing device 1C identifies whether or not a certain operation is being performed by the person's intention, and updates the biometric information identification model sequentially every time biometric information in normal times is newly acquired.
  • the information processing device 1C is connected to the terminal 30 via an information communication network N such as the Internet by the communication unit 15 so as to be capable of information communication.
  • the information processing device 1C is connected to the biological information model 20 via the communication unit 15 so as to be capable of information communication.
  • the control unit 10C includes an identity verification information acquisition unit 11, a biometric information acquisition unit 12, an identification unit 13, a model update unit 17, and an output unit 18.
  • the configurations of the personal identification information acquisition unit 11, the biometric information acquisition unit 12, and the identification unit 13 are as described in the above exemplary embodiments.
  • the model updating unit 17 updates the biometric information model 20 .
  • the model updating unit 17 may have the same functions as the model building unit 14 .
  • the output unit 18 outputs information to be displayed on the display unit 19 .
  • the information processing device 1C identifies whether or not a certain operation is performed intentionally by the person himself/herself. In addition, the information processing apparatus 1C updates the biometric information model 20 of the operator 40 by using the newly acquired biometric information of the operator 40 in the normal state. Further, in the information processing device 1C, the output unit 18 outputs warning information when the identification unit 13 identifies that a certain operation is not performed intentionally by the person. The output warning information is transmitted to the display unit 19 and displayed.
  • FIG. 12 is an example of warning information displayed on the display unit 19, which is a display.
  • the warning information may include the possibility that an abnormal operation has been performed, the date and time of the operation, the terminal information on which the operation was performed, the operator, and the like.
  • a remittance operation at a bank's ATM is identified as an abnormal operation, such content may be displayed on the display unit 19 located in the bank's security department.
  • the person in charge at the bank can ask the operator who performed the operation about the situation and check if there is anything suspicious.
  • a suspicious situation is clearly seen from a camera or the like, it is possible to take measures to interrupt the processing at the ATM.
  • the output unit 18 that outputs warning information when the identification unit 13 identifies that a certain operation was not performed intentionally by the person is The configuration provided is adopted. Therefore, according to the information processing apparatus 1C according to the present exemplary embodiment, in addition to the effects of the information processing apparatus 1 according to the first exemplary embodiment, an operation that may not have been performed intentionally by the person himself/herself can be performed. By outputting warning information when an error is detected, it is possible to obtain an effect that a person in charge of a security department or the like can take some action against an operation identified as abnormal.
  • the information processing apparatus 1C includes a model updating unit 17 that updates the biometric information model 20 of the operator 40 using the newly acquired biometric information of the operator 40 in the normal state. configuration is adopted. Therefore, according to the information processing apparatus 1C according to the present exemplary embodiment, in addition to the effects of the information processing apparatuses 1 and 1A according to the first and second exemplary embodiments, updating the biological information model 20 further improves It is possible to obtain the effect of being able to continue constructing a highly accurate model.
  • Some or all of the functions of the information processing apparatuses 1, 1A, 1B, and 1C may be implemented by hardware such as integrated circuits (IC chips), or by software. may be realized by
  • the information processing device 1 and the like are implemented by, for example, a computer that executes instructions of a program that is software that implements each function.
  • a computer that executes instructions of a program that is software that implements each function.
  • An example of such a computer (hereinafter referred to as computer C) is shown in FIG.
  • Computer C comprises at least one processor C1 and at least one memory C2.
  • a program P for operating the computer C as the information processing apparatus 1 or the like is recorded in the memory C2.
  • the processor C1 reads the program P from the memory C2 and executes it, thereby realizing each function of the information processing apparatus 1 and the like.
  • processor C1 for example, CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating point number Processing Unit), PPU (Physics Processing Unit) , a microcontroller, or a combination thereof.
  • memory C2 for example, a flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), or a combination thereof can be used.
  • the computer C may further include a RAM (Random Access Memory) for expanding the program P during execution and temporarily storing various data.
  • Computer C may further include a communication interface for sending and receiving data to and from other devices.
  • Computer C may further include an input/output interface for connecting input/output devices such as a keyboard, mouse, display, and printer.
  • the program P can be recorded on a non-temporary tangible recording medium M that is readable by the computer C.
  • a recording medium M for example, a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used.
  • the computer C can acquire the program P via such a recording medium M.
  • the program P can be transmitted via a transmission medium.
  • a transmission medium for example, a communication network or broadcast waves can be used.
  • Computer C can also obtain program P via such a transmission medium.
  • Appendix 2 Some or all of the above-described embodiments may also be described as follows. However, the present invention is not limited to the embodiments described below.
  • Appendix 1 Personal identification information acquisition means for acquiring personal identification information input from a terminal; biometric information acquisition means for acquiring biometric information of an operator of the terminal; By referring to one or a plurality of biometric information models, the biometric information acquired by the biometric information acquisition means, and the identity verification information acquired by the identity verification information acquisition means, whether the operation is performed intentionally by the person. and identification means for executing identification processing for identifying whether or not an information processing apparatus.
  • the identifying means acquires information indicating the degree of importance of the operation of the terminal, selects one of the plurality of biological information models according to the obtained information indicating the degree of importance, and selects the selected biological information model.
  • the identifying means acquires information indicating the purpose of the operation of the terminal, selects one of the plurality of biological information models according to the acquired information indicating the purpose of the operation, and selects the selected biological information model.
  • the degree of importance of the operation includes at least one of a type of financial transaction, an amount of financial transaction, a type of commercial transaction, an amount of commercial transaction, a counterparty of the operation, and a frequency of operations performed on the counterparty in the past.
  • the information processing apparatus according to appendix 2 characterized by:
  • the identifying means sets a threshold value referred to for identifying whether the operation is performed intentionally by the person, according to the amount of acquired biometric information of the operator during normal times.
  • the information processing apparatus according to any one of appendices 1 to 5, characterized by:
  • the identification means records the acquired biological information of the operator as operation information in an abnormal state when the result of the identification processing indicates that the operation was not performed by the person himself/herself. 7.
  • the information processing apparatus according to any one of appendices 1 to 6, characterized by:
  • the operation information confirmed as abnormal can be used for model learning, for example. This makes it possible to further improve the accuracy of the model.
  • the biometric information model is learned using combined biometric information obtained by combining a plurality of the biometric information in normal times, and the identification means determines whether or not the operation is performed intentionally by the person himself/herself.
  • the information processing apparatus according to any one of appendices 1 to 7, wherein the identification processing is performed using the biological information model.
  • Appendix 9 9. The information processing according to any one of appendices 1 to 8, wherein the biometric information includes at least one of keystrokes, pulse, body temperature, facial expression, and line of sight when input by a keyboard or touch panel. Device.
  • the biometric information is easy to obtain, the biometric information of many operators can be obtained, and the model can be efficiently constructed.
  • Appendix 10 10. The information processing apparatus according to any one of appendices 1 to 9, further comprising output means for outputting warning information when the identification means identifies that the operation is not performed intentionally by the person.
  • the person in charge of the security department can take some action against the operation identified as abnormal.
  • Personal verification information acquisition means for acquiring personal verification information input from a terminal; biometric information acquisition means for acquiring biometric information of an operator of the terminal; and model building means for building a normal biological information model.
  • At least one processor acquires identity verification information input from a terminal, acquires biometric information of an operator of the terminal, and learns one or more using the operator's normal biometric information identifying whether or not the operation is performed intentionally by the person, by referring to the biometric information model of , the acquired biometric information, and the acquired identity verification information.
  • Appendix 13 A process of acquiring identity verification information input from a terminal to a computer, a process of acquiring biometric information of an operator of the terminal, and one or more learned using the biometric information of the operator during normal times Information processing for executing a process of identifying whether or not the operation is performed intentionally by the person by referring to the biometric information model, the acquired biometric information, and the acquired identity verification information. program.
  • identification accuracy can be further improved by updating the biometric information model while performing identification processing.
  • At least one processor includes an identity verification information acquisition process for acquiring identity verification information input from a terminal, a biometric information acquisition process for acquiring biometric information of an operator of the terminal, and a biometric information acquisition process for the operator.
  • an identity verification information acquisition process for acquiring identity verification information input from a terminal
  • a biometric information acquisition process for acquiring biometric information of an operator of the terminal
  • a biometric information acquisition process for the operator.
  • An information processing apparatus that executes an identification process for identifying whether or not.
  • the information processing apparatus may further include a memory, and the memory stores a program for causing the processor to execute the personal identification information acquisition process, the biometric information acquisition process, and the identification process. may be stored. Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Collating Specific Patterns (AREA)

Abstract

操作者が入力する本人認証情報と当該操作者の生体情報とに基づいて、端末での操作が本人の意思に基づく操作であるかどうかを識別する技術を提供するために、情報処理装置(1)は、端末から入力された本人確認情報を取得する本人確認情報取得手段(11)と、端末の操作者の生体情報を取得する生体情報取得手段(12)と、操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、生体情報取得手段が取得した生体情報、及び本人確認情報取得手段が取得した本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する識別処理を実行する識別手段(13)と、を備えている。

Description

情報処理装置、情報処理方法及びプログラム
 本発明は、情報処理装置、情報処理方法及びプログラムに関する。
 従来、携帯端末を用いた操作やアプリケーションの起動が本人の意思に基づくものであるかどうかを確認する技術が開発されている。例えば、特許文献1には、取得した静的生体情報と予め登録した静的生体情報とを比較して本人であることを認証する本人認証部と、取得した動的生体情報と予め登録した動的生体情報とを比較してユーザの状態を判定する状態判定部と、状態判定部が判定したユーザの状態に応じて起動するアプリケーションソフトウェアを限定するアプリ起動部と、を備える情報処理装置が開示されている。
国際公開WO2015/189967A1号公報
 特許文献1に記載の情報処理装置においては、本人認証のための静的生体情報として指紋、静脈、顔、虹彩、網膜などの生体情報を用いる。しかし、これらの生体情報は専用の読み取り装置が必要であり、端末において必ずしも利用できるものではない、という問題があった。
 本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、操作者が入力する本人認証情報と当該操作者の生体情報とに基づいて、端末での操作が本人の意思に基づく操作であるかどうかを識別する技術を提供することである。
 本発明の一側面に係る情報処理装置は、端末から入力された本人確認情報を取得する本人確認情報取得手段と、前記端末の操作者の生体情報を取得する生体情報取得手段と、前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、前記生体情報取得手段が取得した前記生体情報、及び前記本人確認情報取得手段が取得した前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する識別処理を実行する識別手段と、を備える。
 本発明の一側面に係る情報処理方法は、少なくとも1つのプロセッサが、端末から入力された本人確認情報を取得すること、前記端末の操作者の生体情報を取得すること、前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、取得された前記生体情報、及び取得された前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別すること、を含む。
 本発明の一側面に係る情報処理プログラムは、端末から入力された本人確認情報を取得する処理と、前記端末の操作者の生体情報を取得する処理と、前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、取得された前記生体情報、及び取得された前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する処理と、をコンピュータに実行させる。
 本発明の一態様によれば、操作者が入力する本人認証情報と当該操作者の生体情報とに基づいて、端末での操作が本人の意思に基づく操作であるかどうかを識別する技術を提供することができる。
本発明の例示的実施形態1に係る情報処理装置の構成を示すブロック図である。 例示的実施形態1に係る情報処理方法の流れを示すフローチャートである。 本発明の例示的実施形態2に係る情報処理装置の構成を示すブロック図である。 例示的実施形態2に係る情報処理装置が行う情報処理の概略の流れを示すフロー図である。 生体情報モデルが複数のモデルを備えていることを示す概念図である。 操作内容の重要度又は目的によってモデルを使い分ける方法を示す表である。 複数の生体情報のいくつかを組み合わせて、モデルが生体情報の特徴を比較する方法の一例を示す概念図である。 本発明の例示的実施形態3に係る情報処理装置の構成を示すブロック図である。 例示的実施形態3に係る情報処理装置が行う情報処理の概略の流れを示すフロー図である。 例示的実施形態3に係る情報処理方法の流れを示すフローチャートである。 本発明の例示的実施形態4に係る情報処理装置の構成を示すブロック図である。 表示部に表示される警告情報の一例である。 ソフトウェアによって情報処理装置を実現するための構成図である。
 〔例示的実施形態1〕
 本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
 (情報処理装置の構成)
 本例示的実施形態に係る情報処理装置1の構成について、図1を参照して説明する。図1は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、端末30を操作したユーザ(操作者)40の操作が、本人の意思に基づいて行われたものであるか否かを識別する装置である。本例示的実施形態において本人とは、後述する本人確認情報によって特定される本人を指す。
 図1に示すように、情報処理装置1は、本人確認情報取得部11、生体情報取得部12、及び識別部13を備えている。本人確認情報取得部11、生体情報取得部12、識別部13は、それぞれ請求の範囲に記載した本人確認情報取得手段、生体情報取得手段、及び識別手段の一形態である。
 (本人確認情報取得部)
 本人確認情報取得部11は、端末から操作者によって入力されたその操作者の本人確認情報を取得する。本例示的実施形態において、本人確認情報とは、本人であることを証明する情報であり、例えば、本人だけが知っている情報、又は本人だけが所有していると考えられる物に含まれる情報である。本人確認情報の一例として、マイナンバー、マイナンバーカードに記録された情報、ICチップ内蔵型カード(クレジットカード、キャッシュカード等)に記録された情報、暗証番号、アカウント情報、パスワード、顔の画像、指紋等が挙げられる。
 端末は、操作者が入力操作をするための端末である。一例として、端末は、パーソナルコンピュータ、スマートフォン又は携帯タブレット等の携帯端末、各種ウェアラブル装置、金融機関のATM(Automatic Teller Machine)、公的機関の入力端末等が挙げられる。しかし、端末の種類は上記の例示に限定されず、操作者が希望する手続のための操作をすることが可能なように構成された、情報通信機能を有する端末であればその形態は限定されない。情報処理装置1は、インターネット等の情報通信ネットワークを介して端末と接続されていてもよい。
 なお、ウェアラブル装置とは、人が自身の体の一部に装着して利用する装置である。ウェアラブル装置としては、例えば腕時計、眼鏡、ヘッドホン又はイヤホン等がある。ただし、本例示的実施形態においては、これらの装置の本来の機能以外に、特に装着者の脈拍、体温等の生体情報を取得可能な機能を有するウェアラブル装置を指す。
 入力される本人確認情報は、端末から入力可能な任意の1つでもよく、これらの組み合わせでもよい。通常は、端末に備えられたキーボード、タッチパネル、各種の情報読み取り装置等を用いて本人確認情報を入力することができる。例えば、パーソナルコンピュータ又は携帯端末に備えられたタッチパネルから、マイナンバー、アカウント(口座番号)、暗証番号、パスワード等を入力することができる。また、パーソナルコンピュータ又は携帯端末にカード読み取り装置が付属している場合は、マイナンバーカードを読み込ませることができる。金融機関のATM等の場合は、金融機関カードの読み取り装置が付属している。また、パーソナルコンピュータ、携帯端末、ATM等にカメラが付属している場合は、顔の画像を本人確認情報として送信してもよい。
 (生体情報取得部)
 生体情報取得部12は、端末の操作者の生体情報を取得する。本例示的実施形態において、生体情報とは、身体的情報又は生理的情報である。具体的には、生体情報は、一例として、キーボード又はタッチパネルのキーストローク、脈拍、体温及び表情のうちの少なくとも1つを含む。身体的情報であるキーストロークは、本例示的実施形態においては、キーボード又はタッチパネルのキー操作の特徴全般を指す。一例として、キーストロークには、キーを打つ際のスピード、ミスタイプのパターン又は頻度、文字列の種類による入力速度の違い等である。このようなキーストロークに関する情報は、個人ごとに異なる入力癖が現れやすい情報である。
 生理的情報である脈拍又は体温は、脈拍計又は体温計を備えたウェアラブル装置を操作者が装着している場合にそのウェアラブル装置によって取得することができる。また、表情は、カメラを備えた端末を操作者が操作している場合に、そのカメラで取得することができる。脈拍、体温、表情等は、平常時と比較することにより、操作者が通常とは異なる精神的状況で操作をしていることを識別することができる。
 以上のような生体情報は、端末が一般に備えている設備により取得される。また、操作者がウェアラブル装置を装着している場合は、そのウェアラブル装置によって取得されてもよい。つまり、生体情報を取得するための専用の設備を新たに配置する必要はない。
 (識別部)
 識別部13は、操作者40の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、生体情報取得部12が取得した生体情報、及び本人確認情報取得部11が取得した本人確認情報を参照して、操作者40による当該操作が本人の意思で行われているか否かを識別する識別処理を実行する。
 生体情報モデルは、操作者の平常時の生体情報を学習することにより構築された機械学習モデルである。つまり、生体情報モデルは、生体情報取得部12が取得した生体情報が、本人確認情報取得部11が取得した本人確認情報によって特定される人物(以下、「本人」とも称する。)の平常時の生体情報とどの程度合致するかを計算し、端末に対して行われた操作が本人の意思で行われているか否かを識別する識別処理を実行する。生体情報モデルを構築する方法については後述する。
 本例示的実施形態において、平常時とは、一例として、不安、恐怖、心配等の感情を持っていない状態の時、又は精神的に安定した状態である時を意味する。また、本例示的実施形態が解決しようとする課題に鑑みて、平常時とは、本人が、本来の意思に基づいて操作を行う時と言い換えてもよい。本来の意思とは、一例として、他者からの脅迫、強制がない、又は詐欺等に遭遇していない状態で、自発的に行おうとする意志である。
 なお、例示的実施形態1では、本人確認情報取得部11、生体情報取得部12、及び識別部13は、1つの情報処理装置1としてまとめられている例を説明したが、これらの各部は1カ所にまとめて配置されている必要はない。つまり、これらのうちの一部又は全部が互いに異なる場所に分散して配置されていてもよい。また、これらのうちの一部又は全部がクラウド上に分散して配置されていてもよい。このことは、以下の例示的実施形態においても同様である。
 (情報処理装置1の効果)
 以上のように、本例示的実施形態に係る情報処理装置1においては、端末30から入力された本人確認情報を取得する本人確認情報取得部11と、端末30の操作者40の生体情報を取得する生体情報取得部12と、操作者40の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、生体情報取得部12が取得した生体情報、及び本人確認情報取得部11が取得した本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する識別処理を実行する識別部13と、を備える構成が採用されている。このため、本例示的実施形態に係る情報処理装置1によれば、操作者が入力する本人認証情報と当該操作者の生体情報とに基づいて、端末での操作が本人の意思に基づく操作であるかどうかを識別することができる、という効果が得られる。
 (情報処理方法の流れ)
 次に、本例示的実施形態に係る情報処理方法の流れについて、図面を参照して説明する。図2は、情報処理方法S1の流れを示すフローチャートである。
 図示するように、情報処理方法S1は、以下のステップを含む。ステップS11において、少なくとも1つのプロセッサ(例えば、本人確認情報取得部11)が、端末から入力された本人確認情報を取得する。また、ステップS12において、少なくとも1つのプロセッサ(例えば、生体情報取得部12)が、端末の操作者の生体情報を取得する。また、ステップS13において、少なくとも1つのプロセッサ(例えば識別部13)が、操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、取得された生体情報、及び取得された本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する。本人確認情報、生体情報、生体学習モデルの内容については前述したとおりである。
 (情報処理方法S1の効果)
 以上のように、本例示的実施形態に係る情報処理方法S1においては、少なくとも1つのプロセッサが、端末から入力された本人確認情報を取得すること、端末の操作者の生体情報を取得すること、操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、取得された生体情報、及び取得された本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別すること、を含む構成が採用されている。
 このため、本例示的実施形態に係る情報処理方法S1によれば、操作者が入力する本人認証情報と当該操作者の生体情報とに基づいて、端末での操作が本人の意思に基づく操作であるかどうかを識別することができる、という効果が得られる。
 〔例示的実施形態2〕
 次に、本発明の第2の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (情報処理装置1A)
 図3は、本例示的実施形態に係る情報処理装置1Aの構成を示すブロック図である。図示するように、情報処理装置1Aは、制御部10、通信部15、及びメモリ16を備えている。
 制御部10は、本人確認情報取得部11、生体情報取得部12、及び識別部13を備えている。本人確認情報取得部11、生体情報取得部12、及び識別部13の機能については、それぞれ例示的実施形態1で説明したとおりである。メモリ16は、一例として、ROM(Read Only Memory)に1又は複数のプログラムを記憶しており、適宜RAM(Random Access Memory)に展開して実行することにより、制御部10の各部の機能を実現する。
 情報処理装置1Aは、通信部15により、インターネット等の情報通信ネットワークNを介して端末30と情報通信可能に接続されている。端末30は、操作者40が操作を行う端末であり、その具体例は例示的実施形態1で説明したとおりである。
 なお、操作者40が端末30を用いて行う操作とは、情報処理装置1Aに対して行う操作ではなく、金融取引、商取引などの個人的取引、又は法律・規則等に基づいて行政府から指示又は要請される行政手続(住民票や戸籍等に関する手続、電子納税、電子投票等)などを指す。
 情報処理装置1Aは、通信部15を介して生体情報モデル20と情報通信可能に接続されている。生体情報モデル20の機能は、例示的実施形態1で説明したとおりである。
 なお、本人確認情報取得部11、生体情報取得部12、識別部13、通信部15、及びメモリ16は、1つの情報処理装置1Aとして1か所にまとめられている必要はない。つまり、これらのうちの一部又は全部が互いに異なる場所に分散して配置されていてもよい。また、これらのうちの一部又は全部がクラウド上に分散して配置されていてもよい。また、生体情報モデル20についても、上記の各部と異なる場所に配置されていてもよく、クラウド上に配置されていてもよい。
 (生体情報モデル20)
 生体情報モデル20は、前述のとおり、操作者の平常時の生体情報を学習することにより構築された機械学習モデルである。生体情報モデル20は、予め操作者の平常時の生体情報を取得し、操作者の平常時の生体情報パターンを学習している。生体情報モデル20は、識別部13によって操作者40の本人確認情報と生体情報とが入力されると、その生体情報がその本人の平常時の生体情報とどの程度一致するかを示す評価指標を導出して識別部13に出力する。
 (情報処理装置1Aの情報処理の流れ)
 情報処理装置1Aが行う情報処理の流れを図面を用いて説明する。図4は、情報処理装置1Aが行う情報処理の概略の流れを示すフロー図である。情報処理装置1Aは、ステップ1として、本人確認情報と操作者の生体情報と、を取得する。具体的には、本人確認情報は、本人確認情報取得部11が、操作者40が端末30から入力した本人確認情報を取得する。また、操作者40の生体情報は、生体情報取得部12が、端末30又は操作者40が装着しているウェアラブル装置を介して取得する。なお、ウェアラブル装置を介して取得された生体情報は、生体情報取得部12が、ウェアラブル装置の識別情報(MACアドレス等)を併せて取得することにより、操作者40の生体情報であることを確認することができる。
 次に、ステップ2として、情報処理装置1Aは、識別モデルを用いて識別処理を行う。具体的には、識別部13が、生体情報モデル20を用いて、ある操作者40が行った操作が、本人の本来の意思によって行われたものであるか否かを識別する識別処理を実行する。
 次に、ステップ3として、情報処理装置1Aは、識別結果に応じた処理を行ってもよい。識別結果が正常、つまり、その操作は、本人の本来の意思で行われたものであると識別された場合は、情報処理装置1Aは何も処理しない。一方で、識別結果が異常、つまり、その操作は、本人の本来の意思で行われたものではないと識別された場合は、情報処理装置1Aは何らかの処理を行ってもよい。
 一例として、識別部13は、識別処理の結果が、本人の意思で行われたものではないと識別された場合は、取得した操作者40の生体情報を、異常時の操作情報として記録してもよい。異常時とは、ある操作が、本人の意思で行われたものではないと識別された場合である。異常と確認された操作情報は、モデルの学習に用いることができる。これにより、モデルの評価精度をより高めることができる。
 あるいは、識別部13は、異常時の場合は、操作先のセキュリティ担当部署に、何らかの警告を送信してもよい。あるいは、識別部13は、異常時の場合は、警察等に異常な操作の可能性がある旨を送信してもよい。
 生体情報モデル20は、複数の操作者40ごとに平常時の1又は複数の生体情報の特徴を事前に学習している。
 例えば、操作者40が、脅迫、強制、又は詐欺等によって、本来の意思に反して端末30の操作を行った場合は、精神的状態が平常時とは異なるため、操作時の生体情報として平常時の生体情報とは異なる生体情報が取得されると考えられる。例えば、脅迫又は強制されて緊張した場合は、脈拍数が平常時よりも多くなり、体温は平常時よりも高くなることが多い。また、表情は、平常時とは異なり、緊張した表情や、瞬きが多くなる等の変化が生じることが予想される。もしもウェアラブル装置で皮膚の電導度が測定できれば、平常時とは異なる電導度が取得されると予想される。振込詐欺等で、操作者40が緊急の操作をしなければならないと思っている場合も同様である。
 また、入力時のキーストロークも、平常時とは異なることが予想される。例えば、使い慣れて平常時は入力ミスをしない文字列(自分の名前、パスワード等)を入力ミスする割合が高くなると予想される。また、文字の入力速度が明らかに遅くなる、さらに全体的に入力ミスが多くなるといったことが考えられる。
 このように、生体情報モデル20は、端末30又はウェアラブル装置を介して取得した操作者の平常時の生体情報の特徴と、ある操作時に取得された生体情報の特徴とを比較して、ある操作時の生体情報が、本人の平常時の操作の生体情報と一致している程度(又は異なっている程度)を示す評価指標を出力することができる。
 (生体情報モデルの種類)
 また、生体情報モデル20は、複数の生体情報モデル(以下、単に「モデル」とも称する。)を有していてもよい。図5は、生体情報モデル20が複数のモデルを備えていることを示す概念図である。図示するように、生体情報モデル20は、モデル20A(モデルA),モデル20B(モデルB),モデル20C(モデルC)を備えている。なお、生体情報モデル20は、より多くのモデルを備えていてもよい。
 平常時の生体情報は、その操作内容の重要度又は目的によって変動することが予想される。そのため、識別部13は、端末30の操作の重要度を示す情報を取得し、取得した重要度を示す情報に応じて、複数の生体情報モデルの何れかを選択し、選択した生体情報モデルを用いて識別処理を実行してもよい。
 あるいは、識別部13は、端末30の操作の目的を示す情報を取得し、取得した操作の目的を示す情報に応じて、複数の生体情報モデルの何れかを選択し、選択した生体情報モデルを用いて識別処理を実行してもよい。
 図6は、操作内容の重要度又は目的によってモデルを使い分ける方法を示す表である。例えば、識別部13は、操作の重要性(例えば操作で処理する金額の大きさ)でモデルを使い分けてもよい。大きな金額の取引に関する操作では、小さな金額に係る操作よりも緊張の度合いが大きくなると考えられる。そこで、識別部13は、操作金額の大小により、用いるモデルを選択してもよい。
 表601は、重要度によりモデルを使い分ける表である。表601に示すように、一例として、モデルAは操作の重要度が大きい場合に用いられるモデルである。例えば、重要度を金額の大きさとして、ある操作で入力された金額が第1閾値以上(重要度大に相当)の場合は、識別部13は、平常時において操作金額が第1閾値以上の操作の際に得られた生体情報を用いて学習させたモデルAを用いて識別処理を行う。
 同様に、ある操作で入力された金額が第2閾値以上、第1閾値未満(重要度中に相当)の場合は、識別部13は、平常時において操作金額が第2閾値以上、第1閾値未満の操作の際に得られた生体情報を用いて学習させたモデルBを用いて識別処理を行う。また、ある操作で入力された金額が第2閾値未満(重要度小に相当)の場合は、識別部13は、平常時において操作金額が第2閾値未満の操作の際に得られた生体情報を用いて学習させたモデルCを用いて識別処理を行う。
 なお、操作の重要度は金額の大小に限られない。例えば、操作の重要度は、金融取引の種類、金融取引の金額、商取引の種類、商取引の金額、操作の相手先、過去に行った相手先への操作の頻度のうちの少なくとも1つを含んでもよい。
 また、識別部13は、操作の目的によってモデルを使い分けてもよい。例えば、銀行のATMでの金銭の出し入れは操作頻度が多く慣れていると考えられる。また、行政に関する手続は操作頻度が少なく慣れていないと考えられる。慣れない操作は、慣れた操作に比べて緊張の度合いや入力速度等が異なると考えられる。そこで、識別部13は、操作の目的により、用いるモデルを使い分けてもよい。
 表602は、目的によりモデルを使い分ける表である。表602に示すように、一例として、モデルAは操作の目的が金融取引、商取引等の比較的頻度が多いと考えられる目的のための操作の場合に用いられるモデルである。モデルBは、操作の目的が電子投票、電子納税等の場合に用いられるモデルである。モデルCは、操作の目的が電子投票、電子納税等以外の行政手続の場合に用いられるモデルである。また、生体情報モデル20は、図6の表601と表602の両方のモデルを備えていてもよい。
 以上のように、さまざまな条件に応じて学習させた複数のモデルから、その条件に合ったモデルを用いて識別することにより、識別精度をより向上させることができる。
 (比較の方法)
 平常時の生体情報の特徴と、ある操作時の生体情報の特徴とを比較評価する方法は限定されない。一例として、生体情報モデル20は、それぞれの生体情報ごとに特徴を数値化して出力してもよい。脈拍や体温は、平常時と異常時とで変化が大きいと予想されるため、識別部13は脈拍と体温のそれぞれ毎に予め閾値を設定してもよい。生体情報モデル20は、操作時に取得したこれらの数値と平常時の数値との差を識別部13に出力してもよい。そして、識別部13が、出力された差を予め設定された閾値と比較して、操作が本人の意思で行われたものであるか否かを識別してもよい。また、生体情報モデル20は、複数の生体情報のいくつかを組み合わせた特徴を数値化して出力してもよい。また、生体情報モデル20は、複数の生体情報のすべてを組み合わせた特徴を数値化して出力してもよい。そして、識別部13が、出力された数値を閾値と比較してもよい。なお、特徴を数値化する方法についても限定されない。
 図7は、複数の生体情報のいくつかを組み合わせて、モデルが生体情報の特徴を比較する方法の一例を示す概念図である。図示するように、生体情報モデル20は、平常時の複数の生体情報を組み合わせた組み合わせ生体情報を用いて学習されていてもよい。そして、識別部13は、操作が本人の意思で行われているか否かを、その生体情報モデル20を用いて識別処理を実行してもよい。これにより、識別部13は、ある操作が本人の意思で行われているか否かをより精度よく識別することができる。
 図示する例は、4つの生体情報のうち、2つの生体情報を組み合わせて平常時と操作時の比較を行う例を示している。具体的には、モデルは、キーストローク、脈拍、体温、及び表情の4つの生体情報から組み合わされた2つの生体情報(図の直線で結ばれた2つの生体情報の組み合わせ)の特徴を導出する。組み合わされた2つの生体情報の特徴とは、例えば、一方が高いときには他方も高い、一方が高いときには他方は低い、といった相関がある(正の相関度が高い、又は負の相関度が高い)といった特徴である。また、2つの生体情報の相関度が低い場合は、その組合せは用いなくてもよい。
 このように、生体情報モデル20は平常時に2つの生体情報の組み合わせの相関度を予め学習しておく。そして、ある操作の際に得られた生体情報のうちの2つの組み合わせの相関度が、平常時の相関度とどの程度一致しているかという評価指標(一致度等)を算出して出力してもよい。そして識別部13が、出力された一致度を予め設定しておいた閾値と比較して、操作が本人の意思で行われているか否かを識別してもよい。
 生体情報は、キーボード又はタッチパネルで入力した際のキーストローク、脈拍、体温、表情及び視線のうちの少なくとも1つを含んでもよく、またこれら以外の生体情報を含んでもよい。ただし、端末に通常備えられている、又は多くの操作者が所有している装置により取得される生体情報を用いることが好ましい。多数の操作者の生体情報を得ることができ、効率的にモデルを構築することができるためである。
 (平均的モデル)
 生体情報モデル20は、操作者ごとに平常時の生体情報を取得して学習しておくことが好ましい。しかし、平常時の生体情報は、その性質上、操作者ごとに大量に取得することは困難であり、操作者ごとに精度の良いモデルを構築することは困難である虞がある。そのため、生体情報モデル20に、不特定多数の操作者の平常時の生体情報を学習させておくことが好ましい。これにより、操作者の平常時の平均的な生体情報モデルを構築することができる。
 (個別モデル)
 また、不特定多数の操作者の平常時の生体情報を用いて学習させた平均的な生体情報モデル20に、さらに個別の操作者の平常時の生体情報を学習させて、平均的モデルを修正した個別の操作者専用のモデルを構築してもよい。そして、ある操作の識別を行う場合は、識別部13は、その操作の操作者(本人)専用のモデルを用いて、当該操作がその操作者の意思で行われているか否かを識別する。このような方法で個別のモデルを構築することにより、操作者ごとの生体情報の情報量が少なくても、比較的評価精度の高いモデルを構築することができる。
 また、識別部13は、操作が本人の意思で行われているか否かを識別するために参照する閾値を、取得された操作者の平常時の生体情報の情報量に応じて設定してもよい。つまり、モデルの評価精度によって閾値を変更してもよい。個人別に取得した平常時の生体情報の情報量が少ないときは、個人別のモデルの評価精度が低いと予想される。そのような場合は、比較的余裕を持った閾値(異常と判定するハードルが高い閾値)を設定することにより、誤って異常であると識別する頻度を低減することができる。そして、個人別に取得した平常時の生体情報の情報量が増えるにつれて、より精度よく正常と異常の識別ができるような閾値に変更してもよい。
 なお、平常時の生体情報は、端末30又は操作者40が装着したウェアラブル装置を介して取得される。その場合、操作者40の承諾を得て生体情報を取得することが好ましい。また、操作者40に依頼して、操作を模擬した状況をシミュレーションして平常時のデータとして取得してもよい。これにより、平常時のデータをより多く取得することができる。
 (なりすまし操作)
 なお、本例示的実施形態では、操作者40が、本人確認情報取得部11が取得した本人確認情報により特定された本人であることを前提として説明した。しかし、操作者40が、何らかの手段で他人の本人確認情報を取得し、その本人になりすまして操作をした者である場合であってもよい。その場合でも、情報処理装置1Aは、その操作が、本人確認情報により特定された本人の意思で行われたものであるか否かを識別することが可能である。
 具体的には、もしもある操作が本人確認情報により特定される本人になりすました人物による操作の場合は、生体情報取得部12が取得した人物(なりすまし人物)の生体情報は、本人の平常時の生体情報とは異なる。そのため、生体情報モデル20は、平常時の生体情報とは異なることを示す評価指標を出力する。従って、識別部13は、操作が本人の意思で行われたものではないと識別することができる。
 なお、本人の意思により代理人に操作を依頼した場合でも、代理人の操作が本人の意思で行われているものではないと誤って識別されることになる。そのような誤識別を防ぐため、予め代理人の平常時の生体情報を生体情報モデル20に学習させておき、生体情報モデル20が本人又は代理人の平常時の生体情報と比較して評価結果を出力するようにしておいてもよい。
 (プライバシーの保護)
 前述のように、生体情報は個人情報であるので、操作者40の承諾を得て取得することが好ましい。取得した生体情報は、プライバシー保護の観点から、送信時に暗号化することが好ましい。また、顔の画像等は、特徴データのみを送信して、画像そのものは送信しないようにしてもよい。また、送信された生体情報は、符号化された状態で情報処理装置1A内で処理され、復号化できないことが好ましい。このように処理することで情報処理装置の管理者でも生体情報そのものにはアクセスすることができないことが保証され、操作者のプライバシーを確保することができる。
 (情報処理装置1Aの効果)
 以上のように、本例示的実施形態に係る情報処理装置1Aにおいては、識別部13が、端末の操作の重要度又は目的を示す情報を取得し、その重要度又は目的を示す情報に応じて、複数の生体情報モデル20A,20B,20Cの何れかを選択し、選択した生体情報モデルを用いて、識別処理を実行する構成が採用されている。このため、本例示的実施形態に係る情報処理装置1Aによれば、例示的実施形態1に係る情報処理装置1の奏する効果に加えて、端末での操作がその操作者の意思に基づく操作であるかどうかをより精度よく識別することができるという効果が得られる。このように、端末での操作が、本人の意思で行われたものであるか否かを精度よく識別できることが可能になると、様々な取引の安全性が向上する。また、電子投票や電子納税等、現時点ではなりすましのリスクが高く普及が進んでいない手続についても、次第に普及が進むことが期待される。
 〔例示的実施形態3〕
 本発明の第3の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1又は2にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (情報処理装置1Bの構成と機能)
 図8は、本発明の例示的実施形態3に係る情報処理装置1Bの構成を示すブロック図である。図示するように、情報処理装置1Bは、制御部10A、通信部15、及びメモリ16を備えている。通信部15及びメモリ16の構成は、例示的実施形態1で説明したとおりである。情報処理装置1Bは、複数の操作者40の通常時の生体情報から、複数の操作者40の平均的な生体情報モデル20又は個別の生体情報モデル20を生成する。
 情報処理装置1Bは、通信部15により、インターネット等の情報通信ネットワークNを介して端末30と情報通信可能に接続されている。端末30は、操作者40が操作を行う端末である。また、情報処理装置1Bは、通信部15を介して生体情報モデル20と情報通信可能に接続されている。
 制御部10Aは、本人確認情報取得部11、生体情報取得部12、及びモデル構築部14を備えている。本人確認情報取得部11及び生体情報取得部12の構成は、例示的実施形態1で説明したとおりである。モデル構築部14は、操作者の平常時の生体情報から当該操作者の平常時の生体情報モデルを構築する。
 (情報処理装置1Bの情報処理の流れ)
 図9は、情報処理装置1Bが行う情報処理の概略の流れを示すフロー図である。図示するように、ステップ1として、モデル構築部14は、本人確認情報取得部11が取得した操作者40の本人確認情報と、生体情報取得部12が取得した操作者40の平常時の生体情報とを生体情報モデル20に入力する。次にステップ2として、生体情報モデル20は、受信した操作者40の本人確認情報と操作者(本人)40の平常時の生体情報とから、操作者40の平常時の生体情報の特徴を数値化又は数式化して記憶する。特徴を数値化又は数式化する方法は限定されない。
 (学習例1)
 例えば、生体情報モデル20は、例示的実施形態2で説明したように、複数の生体情報のうち、それぞれの生体情報ごとに特徴を数値化した情報を学習してもよい。例えば、生体情報モデル20は、脈拍又は体温は、それぞれ数値の平均値と標準偏差とを学習してもよい。また、生体情報モデル20は、複数の生体情報のいくつかを組み合わせた特徴を学習して記憶してもよい。例えば、2つの生体情報の間に相関関係がある場合は、その相関関係を数式化して記憶してもよい。また、生体情報モデル20は、複数の生体情報のすべてを組み合わせた特徴を学習により数値化又は数式化して記憶してもよい。
 (学習例2)
 また、生体情報モデル20は、複数の生体情報のうち、不変関係にある2つ以上の生体情報を学習してもよい。不変関係にある生体情報とは、一方が増加すると他方も増加する、又は一方が増加すると他方は減少する、といった特定の連動関係を常時有している生体情報である。
 生体情報モデル20は、モデル構築部14から入力された生体情報データのうち、このような不変関係にある生体情報データの組み合わせを学習してその関係式を作成する。不変関係の関係式は複数あってもよい。関係式は、機械学習で学習して生成することができる。
 関係式を学習済の生体情報モデル20は、一例として、操作時に取得された生体情報が、予め学習済の関係式とどの程度一致するかの評価値を出力することができる。識別部13は、この複数の評価値と予め定めた閾値とを総合的に比較して、当該操作が本人の意思で行われたものであるか否かを識別することができる。
 (学習例3)
 また、生体情報モデル20は、平常時の生体情報データと、異常時の(又は異常時を模擬した)データを用いて学習することができる。つまり、生体情報モデル20は、モデル構築部14から入力された、平常時というラベルが付いた訓練用生体情報データと、異常時というラベルが付いた訓練用生体情報データとから、平常時と異常時の生体情報を学習してもよい。ラベル付きデータによる学習は、ニューラルネットワーク等を用いた機械学習で行うことができる。
 学習済の生体情報モデル20は、一例として、操作時に取得された生体情報が、平常時のものである確率と異常時のものである確率とを出力することができる。識別部13は、この確率を予め定めた閾値と比較して、当該操作が本人の意思で行われたものであるか否かを識別することができる。
 なお、生体情報モデル20は、各操作者40ごとに構築されることが好ましい。しかし、各操作者40ごとに生体情報を多数取得することは難しい。そこで、情報処理装置1Bは、例示的実施形態2で説明したように、複数の操作者40のすべての生体情報を用いて、操作者40の平常時の平均的な生体情報モデルを構築してもよい。そして、情報処理装置1Bは、平均的な生体情報モデルに、各操作者40の生体情報を加えて、各操作者40ごとのモデルを個別に構築してもよい。
 (情報処理装置1Bの効果)
 以上のように、本例示的実施形態に係る情報処理装置1Bにおいては、本人確認情報取得部11が端末30から入力された本人確認情報を取得し、生体情報取得部12が端末30の操作者40の生体情報を取得し、モデル構築部14が、操作者40の平常時の生体情報から当該操作者の平常時の生体情報モデルを構築する、という構成が採用されている。このため、本例示的実施形態に係る情報処理装置1Bによれば、入力された本人確認情報により特定される本人(操作者)の平常時の生体情報を取得して、その特徴を記憶した生体情報モデルを構築することができる。そのため、端末を用いた操作が行われた際に、その操作が操作者の意思で行われたか否かを識別できる生体情報モデルを構築することができる、という効果を得ることができる。
 (情報処理方法の流れ)
 次に、本例示的実施形態に係る情報処理方法の流れについて、図面を参照して説明する。図10は、情報処理方法S2の流れを示すフローチャートである。
 図示するように、情報処理方法S2は以下のステップを含む。ステップS21において、少なくとも1つのプロセッサ(例えば、本人確認情報取得部11)が、端末から入力された本人確認情報を取得する。また、ステップS22において、少なくとも1つのプロセッサ(例えば、生体情報取得部12)が、端末の操作者の生体情報を取得する。また、ステップS23において、少なくとも1つのプロセッサ(例えばモデル構築部14)が、操作者の平常時の生体情報から当該操作者の平常時の生体情報モデルを構築する。
 (情報処理方法S2の効果)
 以上のように、本例示的実施形態に係る情報処理方法S2においては、少なくとも1つのプロセッサが、端末から入力された本人確認情報を取得すること、端末の操作者の生体情報を取得すること、操作者の平常時の生体情報から当該操作者の平常時の生体情報モデルを構築すること、を含む構成が採用されている。
 このため、本例示的実施形態に係る情報処理方法S2によれば、端末を用いた操作が行われた際に、その操作が本人の意思で行われたか否かを識別できる生体情報モデルを構築することができる、という効果を得ることができる。
 〔例示的実施形態4〕
 本発明の第4の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~3にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (情報処理装置1Cの構成と機能)
 図11は、本例示的実施形態に係る情報処理装置1Cの構成を示すブロック図である。図示するように、情報処理装置1Cは、制御部10C、通信部15、メモリ16、及び表示部19を備えている。通信部15及びメモリ16の構成は、例示的実施形態1で説明したとおりである。表示部19は、例えばディスプレイでもよい。また、ディスプレイに代えて、又は加えて警報ランプ又は警報音発生装置を備えてもよい。なお、図11に示す例では、表示部19は情報処理装置1Cに含まれているが、表示部19は情報処理装置1Cの外部に配置されていてもよい。
 情報処理装置1Cは、ある操作が本人の意思で行われているか否かを識別するとともに、平常時の生体情報を新たに取得するたびに、生体情報識別モデルを逐次更新する。情報処理装置1Cは、通信部15により、インターネット等の情報通信ネットワークNを介して端末30と情報通信可能に接続されている。また、情報処理装置1Cは、通信部15を介して生体情報モデル20と情報通信可能に接続されている。
 制御部10Cは、本人確認情報取得部11、生体情報取得部12、識別部13、モデル更新部17、及び出力部18を備えている。本人確認情報取得部11、生体情報取得部12、及び識別部13の構成は、上述の各例示的実施形態で説明したとおりである。モデル更新部17は、生体情報モデル20を更新する。モデル更新部17は、モデル構築部14と同様の機能を有していてもよい。出力部18は、表示部19に表示する情報を出力する。
 情報処理装置1Cは、ある操作が、本人の意思で行われているか否かを識別する。また、情報処理装置1Cは、新たに取得した操作者40の通常時の生体情報を用いて、操作者40の生体情報モデル20を更新する。また、情報処理装置1Cは、ある操作が、本人の意思で行われていないと識別部13が識別した場合は、出力部18は、警告情報を出力する。出力された警告情報は、表示部19に送信され、表示される。
 図12は、ディスプレイである表示部19に表示される警告情報の一例である。図示するように、警告情報は、異常な操作が行われた可能性があること、操作の日時、操作が行われた端末情報、操作者等を含んでもよい。
 例えば、銀行のATMでの送金操作が異常操作であると識別された場合は、その銀行のセキュリティ部門に配置された表示部19にこのような内容が表示されてもよい。これにより、銀行の担当者が、操作を行った操作者に状況を尋ねて不審な点がないか確認することができる。また、カメラ等から明らかに不審な状況が見られた場合は、ATMでの処理を中断する処置を取ることもできる。
 (情報処理装置1Cの効果)
 以上のように、本例示的実施形態に係る情報処理装置1Cにおいては、識別部13が、ある操作が本人の意思で行われていないと識別した場合に、警告情報を出力する出力部18を備えている構成が採用されている。このため、本例示的実施形態に係る情報処理装置1Cによれば、例示的実施形態1に係る情報処理装置1の奏する効果に加えて、本人の意思で行われていない可能性がある操作が発見された場合に警告情報を出力することにより、セキュリティ担当部門等の担当者が、異常と識別された操作に対して何らかの対応を取ることができるという効果が得られる。
 また、本例示的実施形態に係る情報処理装置1Cにおいては、新たに取得した操作者40の通常時の生体情報を用いて、操作者40の生体情報モデル20を更新するモデル更新部17を備える構成が採用されている。このため、本例示的実施形態に係る情報処理装置1Cによれば、例示的実施形態1、2に係る情報処理装置1,1Aの奏する効果に加えて、生体情報モデル20を更新することでより精度の高いモデルを構築し続けることができるという効果が得られる。
 〔ソフトウェアによる実現例〕
 情報処理装置1,1A,1B,1C(以下「情報処理装置1等」という。)の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、情報処理装置1等は、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図13に示す。コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを情報処理装置1等として動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、情報処理装置1等の各機能が実現される。
 プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
 なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
 また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。
 〔付記事項1〕
 本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
 〔付記事項2〕
 上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
 (付記1)
 端末から入力された本人確認情報を取得する本人確認情報取得手段と、前記端末の操作者の生体情報を取得する生体情報取得手段と、前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、前記生体情報取得手段が取得した前記生体情報、及び前記本人確認情報取得手段が取得した前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する識別処理を実行する識別手段と、を備える情報処理装置。
 上記の構成によれば、操作者が入力する本人認証情報と当該操作者の生体情報とに基づいて、端末での操作が本人の意思に基づく操作であるかどうかを識別することができる。
 (付記2)
 前記識別手段は、前記端末の操作の重要度を示す情報を取得し、取得した前記重要度を示す情報に応じて、複数の前記生体情報モデルの何れかを選択し、選択した前記生体情報モデルを用いて、前記識別処理を実行することを特徴とする付記1に記載の情報処理装置。
 上記の構成によれば、端末での操作が本人の意思に基づく操作であるかどうかをより精度よく識別することができる。
 (付記3)
 前記識別手段は、前記端末の操作の目的を示す情報を取得し、取得した前記操作の目的を示す情報に応じて、複数の前記生体情報モデルの何れかを選択し、選択した前記生体情報モデルを用いて、前記識別処理を実行することを特徴とする付記1に記載の情報処理装置。
 上記の構成によれば、端末での操作が本人の意思に基づく操作であるかどうかをより精度よく識別することができる。
 (付記4)
 前記操作の重要度は、金融取引の種類、金融取引の金額、商取引の種類、商取引の金額、操作の相手先、過去に行った相手先への操作の頻度のうちの少なくとも1つを含むことを特徴とする付記2に記載の情報処理装置。
 上記の構成によれば、端末での操作が本人の意思に基づく操作であるかどうかをより精度よく識別することができる。
 (付記5)
 前記操作の目的は、金融取引、商取引、行政手続、納税及びリモート投票のうちの少なくとも1つを含むことを特徴とする付記3に記載の情報処理装置。
 上記の構成によれば、端末での操作が本人の意思に基づく操作であるかどうかをより精度よく識別することができる。
 (付記6)
 前記識別手段は、前記操作が前記本人の意思で行われているか否かを識別するために参照する閾値を、取得された前記操作者の平常時の生体情報の情報量に応じて設定することを特徴とする付記1から5のいずれか一つに記載の情報処理装置。
 上記の構成によれば、モデルの精度によって閾値を変更することにより、誤って異常であると識別する頻度を低減することができる。
 (付記7)
 前記識別手段は、前記識別処理の結果が、前記操作が前記本人の意思で行われていないとの結果である場合に、取得した前記操作者の前記生体情報を異常時の操作情報として記録することを特徴とする付記1から6のいずれか一つに記載の情報処理装置。
 上記の構成によれば、異常と確認された操作情報を、例えばモデルの学習に用いることができる。これにより、モデルの精度をより高めることができる。
 (付記8)
 前記生体情報モデルは、平常時の複数の前記生体情報を組み合わせた組み合わせ生体情報を用いて学習されたものであり、前記識別手段は、前記操作が前記本人の意思で行われているか否かを、前記生体情報モデルを用いて前記識別処理を実行することを特徴とする付記1から7のいずれか一つに記載の情報処理装置。
 上記の構成によれば、ある操作が本人の意思で行われているか否かをより精度よく識別することができる。
 (付記9)
 前記生体情報は、キーボード又はタッチパネルで入力した際のキーストローク、脈拍、体温、表情及び視線のうちの少なくとも1つを含むことを特徴とする付記1から8のいずれか一つに記載の情報処理装置。
 上記の構成によれば、これらの生体情報は取得しやすい生体情報であるため、多数の操作者の生体情報を得ることができ、効率的にモデルを構築することができる。
 (付記10)
 前記識別手段が、前記操作が前記本人の意思で行われていないと識別した場合に、警告情報を出力する出力手段を備えている付記1から9のいずれか一つに記載の情報処理装置。
 上記の構成によれば、セキュリティ担当部門の担当者が、異常と識別された操作に対して何らかの対応を取ることができる。
 (付記11)
 端末から入力された本人確認情報を取得する本人確認情報取得手段と、前記端末の操作者の生体情報を取得する生体情報取得手段と、前記操作者の平常時の前記生体情報から当該操作者の平常時の生体情報モデルを構築するモデル構築手段と、を備える情報処理装置。
 上記の構成によれば、端末を用いた操作が行われた際に、その操作が本人の意思で行われたか否かを識別できる生体情報モデルを構築することができる。
 (付記12)
 少なくとも1つのプロセッサが、端末から入力された本人確認情報を取得すること、前記端末の操作者の生体情報を取得すること、前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、取得された前記生体情報、及び取得された前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別すること、を含む情報処理方法。
 上記の構成によれば、付記1の効果と同様の効果を得ることができる。
 (付記13)
 コンピュータに、端末から入力された本人確認情報を取得する処理と、前記端末の操作者の生体情報を取得する処理と、前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、取得された前記生体情報、及び取得された前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する処理と、を実行させるための情報処理プログラム。
 (付記14)
 前記生体情報モデルを更新するモデル更新手段を更に備えている、ことを特徴とする付記1から10のいずれか1つに記載の情報処理装置。
 上記の構成によれば、識別処理を行いつつ、生体情報モデルを更新して識別精度をより高めることができる。
 〔付記事項3〕
 上述した実施形態の一部又は全部は、更に、以下のように表現することもできる。
 少なくとも1つのプロセッサを備え、前記プロセッサは、端末から入力された本人確認情報を取得する本人確認情報取得処理と、前記端末の操作者の生体情報を取得する生体情報取得処理と、前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、取得された前記生体情報、及び取得された前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する識別処理と、を実行する情報処理装置。
 なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記本人確認情報取得処理と、前記生体情報取得処理と、前記識別処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
 1,1A,1B,1C・・・情報処理装置
 11・・・本人確認情報取得部
 12・・・生体情報取得部
 13・・・識別部
 14・・・モデル構築部
 15・・・通信部
 16・・・メモリ
 17・・・モデル更新部
 18・・・出力部
 19・・・表示部
 20・・・生体情報モデル
 30・・・端末
 40・・・操作者

 

Claims (13)

  1.  端末から入力された本人確認情報を取得する本人確認情報取得手段と、
     前記端末の操作者の生体情報を取得する生体情報取得手段と、
     前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、前記生体情報取得手段が取得した前記生体情報、及び前記本人確認情報取得手段が取得した前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する識別処理を実行する識別手段と、
    を備える情報処理装置。
  2.  前記識別手段は、
      前記端末の操作の重要度を示す情報を取得し、
      取得した前記重要度を示す情報に応じて、複数の前記生体情報モデルの何れかを選択し、
      選択した前記生体情報モデルを用いて、前記識別処理を実行する
    ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記識別手段は、
      前記端末の操作の目的を示す情報を取得し、
      取得した前記操作の目的を示す情報に応じて、複数の前記生体情報モデルの何れかを選択し、
      選択した前記生体情報モデルを用いて、前記識別処理を実行する
    ことを特徴とする請求項1に記載の情報処理装置。
  4.  前記操作の重要度は、金融取引の種類、金融取引の金額、商取引の種類、商取引の金額、操作の相手先、過去に行った相手先への操作の頻度のうちの少なくとも1つを含む
    ことを特徴とする請求項2に記載の情報処理装置。
  5.  前記操作の目的は、金融取引、商取引、行政手続、納税及びリモート投票のうちの少なくとも1つを含む
    ことを特徴とする請求項3に記載の情報処理装置。
  6.  前記識別手段は、前記操作が前記本人の意思で行われているか否かを識別するために参照する閾値を、取得された前記操作者の平常時の生体情報の情報量に応じて設定する
    ことを特徴とする請求項1から5のいずれか一項に記載の情報処理装置。
  7.  前記識別手段は、前記識別処理の結果が、前記操作が前記本人の意思で行われていないとの結果である場合に、取得した前記操作者の前記生体情報を異常時の操作情報として記録する
    ことを特徴とする請求項1から6のいずれか一項に記載の情報処理装置。
  8.  前記生体情報モデルは、平常時の複数の前記生体情報を組み合わせた組み合わせ生体情報を用いて学習されたものであり、
     前記識別手段は、前記操作が前記本人の意思で行われているか否かを、前記生体情報モデルを用いて前記識別処理を実行する
    ことを特徴とする請求項1から7のいずれか一項に記載の情報処理装置。
  9.  前記生体情報は、キーボード又はタッチパネルで入力した際のキーストローク、脈拍、体温、表情及び視線のうちの少なくとも1つを含む
    ことを特徴とする請求項1から8のいずれか一項に記載の情報処理装置。
  10.  前記識別手段が、前記操作が前記本人の意思で行われていないと識別した場合に、警告情報を出力する出力手段
    を備えている請求項1から9のいずれか一項に記載の情報処理装置。
  11.  端末から入力された本人確認情報を取得する本人確認情報取得手段と、
     前記端末の操作者の生体情報を取得する生体情報取得手段と、
     前記操作者の平常時の前記生体情報から当該操作者の平常時の生体情報モデルを構築するモデル構築手段と、
    を備える情報処理装置。
  12.  少なくとも1つのプロセッサが、
     端末から入力された本人確認情報を取得すること、
     前記端末の操作者の生体情報を取得すること、
     前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、取得された前記生体情報、及び取得された前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別すること、
    を含む情報処理方法。
  13.  コンピュータに、
     端末から入力された本人確認情報を取得する処理と、
     前記端末の操作者の生体情報を取得する処理と、
     前記操作者の平常時の生体情報を用いて学習された1又は複数の生体情報モデル、取得された前記生体情報、及び取得された前記本人確認情報を参照して、当該操作が本人の意思で行われているか否かを識別する処理と、
    を実行させるための情報処理プログラム。
     

     
PCT/JP2021/044758 2021-12-06 2021-12-06 情報処理装置、情報処理方法及びプログラム WO2023105586A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/044758 WO2023105586A1 (ja) 2021-12-06 2021-12-06 情報処理装置、情報処理方法及びプログラム
JP2023565693A JPWO2023105586A1 (ja) 2021-12-06 2021-12-06

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/044758 WO2023105586A1 (ja) 2021-12-06 2021-12-06 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2023105586A1 true WO2023105586A1 (ja) 2023-06-15

Family

ID=86729788

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/044758 WO2023105586A1 (ja) 2021-12-06 2021-12-06 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2023105586A1 (ja)
WO (1) WO2023105586A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107668A (ja) * 2003-09-29 2005-04-21 Animo:Kk 生体認証方法及びプログラム並びに装置
JP2005293209A (ja) * 2004-03-31 2005-10-20 Ntt Data Corp 個人認証装置、情報端末、個人認証方法、およびプログラム
JP2007072871A (ja) * 2005-09-08 2007-03-22 Oki Electric Ind Co Ltd 生体認証による個人認証方法および装置
WO2015189967A1 (ja) * 2014-06-12 2015-12-17 日立マクセル株式会社 情報処理装置、アプリケーションソフトウェア起動システム及びアプリケーションソフトウェア起動方法
CN109886697A (zh) * 2018-12-26 2019-06-14 广州市巽腾信息科技有限公司 基于表情组别的操作确定方法、装置及电子设备
US20190295203A1 (en) * 2018-03-22 2019-09-26 Samsung Electronics Co., Ltd. Electronic device and authentication method thereof
JP6928191B1 (ja) * 2021-03-11 2021-09-01 功憲 末次 認証システム、プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107668A (ja) * 2003-09-29 2005-04-21 Animo:Kk 生体認証方法及びプログラム並びに装置
JP2005293209A (ja) * 2004-03-31 2005-10-20 Ntt Data Corp 個人認証装置、情報端末、個人認証方法、およびプログラム
JP2007072871A (ja) * 2005-09-08 2007-03-22 Oki Electric Ind Co Ltd 生体認証による個人認証方法および装置
WO2015189967A1 (ja) * 2014-06-12 2015-12-17 日立マクセル株式会社 情報処理装置、アプリケーションソフトウェア起動システム及びアプリケーションソフトウェア起動方法
US20190295203A1 (en) * 2018-03-22 2019-09-26 Samsung Electronics Co., Ltd. Electronic device and authentication method thereof
CN109886697A (zh) * 2018-12-26 2019-06-14 广州市巽腾信息科技有限公司 基于表情组别的操作确定方法、装置及电子设备
JP6928191B1 (ja) * 2021-03-11 2021-09-01 功憲 末次 認証システム、プログラム

Also Published As

Publication number Publication date
JPWO2023105586A1 (ja) 2023-06-15

Similar Documents

Publication Publication Date Title
US11882118B2 (en) Identity verification and management system
US10643210B2 (en) Secure transactions using a personal device
US8752146B1 (en) Providing authentication codes which include token codes and biometric factors
US10965670B2 (en) Biometric signature authentication and centralized storage system
US10419428B2 (en) System and method to authenticate electronics using electronic-metrics
US12061959B2 (en) User effort detection
US20210029112A1 (en) Taptic authentication system and method
JP2017524998A (ja) 本人照合を行うための方法およびシステム
KR20180127506A (ko) 동형적으로 암호화된 데이터의 유효성 확인 및 이에 대한 연산을 수행하기 위한 시스템 및 방법
US11048787B2 (en) Securing electronic documents with fingerprint/biometric data
CN113886885A (zh) 数据脱敏方法、数据脱敏装置、设备及存储介质
US20210157900A1 (en) Securing passwords by using dummy characters
Corpus et al. Mobile user identification through authentication using keystroke dynamics and accelerometer biometrics
CN112634017A (zh) 远程开卡激活方法、装置、电子设备及计算机存储介质
Maiorana et al. Mobile keystroke dynamics for biometric recognition: An overview
JP2019012303A (ja) 仮想通貨取引システム、仮想通貨取引装置、及び仮想通貨取引プログラム
Shadman et al. Keystroke dynamics: Concepts, techniques, and applications
Stylios et al. Continuous authentication with feature-level fusion of touch gestures and keystroke dynamics to solve security and usability issues
US20200137213A1 (en) Evaluating environmental information during a transaction
WO2023105586A1 (ja) 情報処理装置、情報処理方法及びプログラム
Shang et al. Lightdefender: Protecting pin input using ambient light sensor
JP2018085010A (ja) 本人性判定装置、および、本人性判定方法
JP2016071598A (ja) 認証装置、認証システムおよびプログラム
TWM626411U (zh) 無卡式金融交易系統及主機伺服器
CN113508371B (zh) 用于改进计算机标识的系统和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21967092

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023565693

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE