[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6578326B2 - User authentication system, computing device, terminal device, method thereof, and computer-executable program - Google Patents

User authentication system, computing device, terminal device, method thereof, and computer-executable program Download PDF

Info

Publication number
JP6578326B2
JP6578326B2 JP2017137409A JP2017137409A JP6578326B2 JP 6578326 B2 JP6578326 B2 JP 6578326B2 JP 2017137409 A JP2017137409 A JP 2017137409A JP 2017137409 A JP2017137409 A JP 2017137409A JP 6578326 B2 JP6578326 B2 JP 6578326B2
Authority
JP
Japan
Prior art keywords
sound
computing device
user authentication
terminal device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017137409A
Other languages
Japanese (ja)
Other versions
JP2019020927A (en
Inventor
雅春 米田
雅春 米田
浩造 西野
浩造 西野
ティースワンマイ チャン
ティースワンマイ チャン
▲遷▼ 王
▲遷▼ 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2017137409A priority Critical patent/JP6578326B2/en
Publication of JP2019020927A publication Critical patent/JP2019020927A/en
Application granted granted Critical
Publication of JP6578326B2 publication Critical patent/JP6578326B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)

Description

本発明は、ユーザ認証システム、コンピューティング装置、端末装置、その方法、及びコンピュータが実行可能なプログラムに関する。   The present invention relates to a user authentication system, a computing device, a terminal device, a method thereof, and a computer-executable program.

近時、ノートPCやデスクトップPC等の情報処理装置では、手軽にユーザ認証を行うためにパスワードに代わる認証方式が求められている。パスワードに代わる認証方式としては、例えば、顔認証、指紋認証、スマートカード認証、及びデバイス認証等がある。   Recently, in information processing apparatuses such as notebook PCs and desktop PCs, an authentication method that replaces a password is required in order to perform user authentication easily. Examples of authentication methods that can replace passwords include face authentication, fingerprint authentication, smart card authentication, and device authentication.

顔認証、指紋認証、及びスマートカード認証は、それぞれ、IRカメラ、指紋センサ、スマートカードリーダー等の認証用の高価なセンサやデバイスが必要となる。   Face authentication, fingerprint authentication, and smart card authentication require expensive sensors and devices for authentication, such as IR cameras, fingerprint sensors, and smart card readers.

また、スマートフォンやスマートウォッチ等のスマートデバイスを使用したデバイス認証は、例えば、Bluetooth(登録商標)を用いて、情報処理装置がスマートデバイスを検出した場合に、ユーザ認証を行うものである。かかるデバイス認証は、Bluetooth(登録商標)を常時ONとする必要があるため、電力消費が大きくなってしまう。   Device authentication using a smart device such as a smart phone or a smart watch performs user authentication when the information processing apparatus detects a smart device using, for example, Bluetooth (registered trademark). Such device authentication requires that Bluetooth (registered trademark) is always turned on, which increases power consumption.

また、デバイス認証では、デバイスはある程度広い範囲で情報処理装置により検出されてしまうため、不正使用者が少し離れた位置から情報処理装置を不正使用する可能性がある。例えば、正当な利用者が近くにいても情報処理装置を見ていない状況において、不正な利用者が僅かの隙に正当な利用者のスマートフォンを使用して情報処理装置のユーザ認証を行うことが考えられる。   In the device authentication, since the device is detected by the information processing apparatus in a certain wide range, there is a possibility that an unauthorized user may illegally use the information processing apparatus from a position slightly away. For example, in a situation where a legitimate user is nearby but does not look at the information processing apparatus, an unauthorized user may authenticate the user of the information processing apparatus using the legitimate user's smartphone in a short time. Conceivable.

特開2013−190900号公報JP2013-190900A

本発明は、上記に鑑みてなされたものであり、既存の情報処理装置に搭載されている構成を利用して、ユーザの操作を要さずに短時間で正確なユーザ認証が可能なユーザ認証システム、コンピューティング装置、端末装置、その方法、及びコンピュータが実行可能なプログラムを提供することを目的とする。   The present invention has been made in view of the above, and uses a configuration installed in an existing information processing apparatus to enable accurate user authentication in a short time without requiring user operation. It is an object to provide a system, a computing device, a terminal device, a method thereof, and a computer-executable program.

上述した課題を解決し、目的を達成するために、本発明の第1態様に係る、端末装置を使用してコンピューティング装置のユーザ認証を行うユーザ認証システムは、前記端末装置が、所定のイベントが発生した場合に、スピーカから第1の音を出力する出力工程と、前記コンピューティング装置に搭載されるマイクモジュールに、前記第1の音が入力され、入力された前記第1の音が認証可能である場合に、ユーザを認証する認証工程と、を含む。   In order to solve the above-described problems and achieve the object, according to the first aspect of the present invention, a user authentication system for performing user authentication of a computing device using a terminal device, wherein the terminal device has a predetermined event The first sound is input to a microphone module mounted on the computing device, and the input first sound is authenticated. An authentication step for authenticating the user if possible.

また、前記認証工程では、前記第1の音の音源の方向が、前記コンピューティング装置に対して所定角度範囲内でない場合は、ユーザを認証しなくてもよい。   In the authentication step, if the direction of the sound source of the first sound is not within a predetermined angle range with respect to the computing device, the user may not be authenticated.

また、前記認証工程では、前記第1の音の音源が前記コンピューティング装置に対して所定距離以上離れている場合は、ユーザを認証しなくてもよい。   In the authentication step, the user may not be authenticated when the sound source of the first sound is separated from the computing device by a predetermined distance or more.

また、前記所定のイベントは、前記コンピューティング装置のスピーカから出力される第2の音が、前記端末装置のマイクに入力された場合であってもよい。   The predetermined event may be a case where a second sound output from a speaker of the computing device is input to a microphone of the terminal device.

また、前記コンピューティング装置は、前記コンピューティング装置の電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、前記第2の音を出力してもよい。   The computing device may output the second sound when the computing device is powered on, returned from the suspended state, or when the lock screen is released.

また、前記所定のイベントは、前記端末装置が前記コンピューティング装置に近接し、さらに所定のモーションを検出した場合であってもよい。   The predetermined event may be a case where the terminal device is close to the computing device and further detects a predetermined motion.

また、少なくとも前記第1の音は、非可聴音であってもよい。   Further, at least the first sound may be a non-audible sound.

また、前記第1の音は、ワンタイムパスワードを音に変調したものでもよい。   The first sound may be a one-time password modulated into a sound.

また、前記コンピューティング装置は、ノートPC、デスクトップPC、又はタブレットであり、前記端末装置は、スマートフォン、携帯電話端末、又はスマートウォッチであってもよい。   The computing device may be a notebook PC, a desktop PC, or a tablet, and the terminal device may be a smartphone, a mobile phone terminal, or a smart watch.

上述した課題を解決し、目的を達成するために、本発明の第2態様に係る、端末装置を使用してユーザ認証を行うコンピューティング装置は、マイクモジュールと、 前記マイクモジュールから第1の音が入力された場合に、前記第1の音の音源の方向を判定する信号処理手段と、前記第1の音が認証可能であり、かつ、前記第1の音の音源の方向が前記コンピューティング装置に対して所定角度範囲内の場合に、ユーザを認証するユーザ認証手段と、を備える。   In order to solve the above-described problems and achieve the object, a computing device that performs user authentication using a terminal device according to a second aspect of the present invention includes a microphone module, and a first sound from the microphone module. Is input, the signal processing means for determining the direction of the sound source of the first sound, the first sound can be authenticated, and the direction of the sound source of the first sound is the computing User authentication means for authenticating a user when within a predetermined angle range with respect to the apparatus.

また、さらに、前記マイクモジュールから入力される音の音源の方向を判定する信号処理手段を備え、前記ユーザ認証手段は、前記第1の音の音源の方向が前記コンピューティング装置に対して所定角度範囲内でない場合は、ユーザを認証しなくてもよい。   Furthermore, it further comprises signal processing means for determining the direction of the sound source of the sound input from the microphone module, and the user authentication means is configured such that the direction of the sound source of the first sound is a predetermined angle with respect to the computing device. If it is not within the range, the user need not be authenticated.

また、さらに、スピーカを備え、前記信号処理手段は、前記コンピューティング装置の電源ON、サスペンド状態から復帰、又は画面ロックを解除する場合に、第2の音を前記スピーカから出力してもよい。   In addition, a speaker may be further provided, and the signal processing means may output a second sound from the speaker when the computing device is powered on, returned from a suspended state, or unlocked.

また、上述した課題を解決し、目的を達成するために、本発明の第3態様に係る、コンピューティング装置でユーザ認証を行う場合に使用される端末装置は、スピーカと、所定のイベントが発生した場合に、前記スピーカから第1の音を出力する信号処理手段と、を備える。   In addition, in order to solve the above-described problems and achieve the object, the terminal device used when performing user authentication on the computing device according to the third aspect of the present invention generates a speaker and a predetermined event. And a signal processing means for outputting a first sound from the speaker.

また、さらに、マイクを備え、前記所定のイベントは、前記端末装置が、前記コンピューティング装置のスピーカから出力される第2の音が前記マイクに入力された場合であってもよい。   Furthermore, a microphone may be further provided, and the predetermined event may be a case where the terminal device receives a second sound output from a speaker of the computing device.

また、さらに、前記コンピューティング装置への近接及び所定のモーションを検出するための検出部を備え、前記所定のイベントは、前記検出部が、前記コンピューティング装置への近接及び所定のモーションを検出した場合であってもよい。   In addition, a detection unit for detecting proximity to the computing device and a predetermined motion is provided, and for the predetermined event, the detection unit detects proximity to the computing device and a predetermined motion. It may be the case.

また、上述した課題を解決し、目的を達成するために、本発明の第4態様に係る、端末装置を使用してユーザ認証を行うコンピューティング装置の方法は、マイクモジュールから、前記端末装置から出力される第1の音が入力された場合に、ユーザを認証する工程と、を含む。   In order to solve the above-described problems and achieve the object, a method of a computing device for performing user authentication using a terminal device according to a fourth aspect of the present invention includes: a microphone module; Authenticating the user when the first sound to be output is input.

また、上述した課題を解決し、目的を達成するために、本発明の第5態様に係る、コンピューティング装置でユーザ認証を行う場合に使用される端末装置の方法であって、所定のイベントが発生した場合に、スピーカから第1の音を出力させる工程を含む。   Further, in order to solve the above-described problems and achieve the object, according to the fifth aspect of the present invention, there is provided a terminal device method used when user authentication is performed on a computing device, wherein a predetermined event is A step of outputting the first sound from the speaker when it occurs.

また、端末装置を使用してユーザ認証を行うコンピューティング装置に搭載されるプログラムは、マイクモジュールから、前記端末装置が出力する第1の音が入力された場合にユーザを認証する工程をコンピュータに実行させる。   In addition, a program installed in a computing device that performs user authentication using a terminal device has a computer authenticating a user when a first sound output from the terminal device is input from a microphone module. Let it run.

上述した課題を解決し、目的を達成するために、本発明の第7態様に係る、コンピューティング装置でユーザ認証を行う場合に使用される端末装置に搭載されるプログラムであって、所定のイベントが発生した場合に、スピーカから第1の音を出力させる工程をコンピュータに実行させる。   In order to solve the above-described problems and achieve the object, according to a seventh aspect of the present invention, there is provided a program installed in a terminal device used when user authentication is performed on a computing device, and a predetermined event When this occurs, the computer is caused to execute a step of outputting the first sound from the speaker.

本発明の上記態様によれば、既存の情報処理装置に搭載されている構成を利用して、ユーザの操作を要さずに短時間で正確なユーザ認証が可能となるという効果を奏する。   According to the above aspect of the present invention, there is an effect that it is possible to perform accurate user authentication in a short time without requiring a user operation by using a configuration installed in an existing information processing apparatus.

図1は、本実施の形態に係るユーザ認証システムの一例を示す概念図である。FIG. 1 is a conceptual diagram showing an example of a user authentication system according to the present embodiment. 図2は、本実施の形態に係るユーザ認証システムにより実行されるユーザ認証処理の一例を説明するためのフローチャートである。FIG. 2 is a flowchart for explaining an example of user authentication processing executed by the user authentication system according to the present embodiment. 図3は、実施例1に係るユーザ認証システムの概略の外観構成図である。FIG. 3 is a schematic external configuration diagram of the user authentication system according to the first embodiment. 図4は、図3のノートPCの概略のハードウェア構成例を示す図である。FIG. 4 is a diagram illustrating a schematic hardware configuration example of the notebook PC of FIG. 3. 図5は、図3のスマートフォンの概略のハードウェア構成例を示す図である。FIG. 5 is a diagram illustrating a schematic hardware configuration example of the smartphone of FIG. 3. 図6は、図4のノートPC及び図5のスマートフォンのユーザ認証に関連する部分の概略の機能構成図である。FIG. 6 is a schematic functional configuration diagram of a portion related to user authentication of the notebook PC of FIG. 4 and the smartphone of FIG. 図7は、実施例1に係るユーザ認証システムにより実行されるユーザ認証処理の一例を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining an example of user authentication processing executed by the user authentication system according to the first embodiment. 図8は、実施例2に係るユーザ認証システムの概略の外観構成図である。FIG. 8 is a schematic external configuration diagram of the user authentication system according to the second embodiment. 図9は、実施例2に係るユーザ認証システムにより実行されるユーザ認証処理の一例を説明するためのフローチャートである。FIG. 9 is a flowchart for explaining an example of user authentication processing executed by the user authentication system according to the second embodiment.

以下に、この発明にかかるユーザ認証システム、コンピューティング装置、端末装置、方法、及びコンピュータ実行可能なプログラムを図面に基づいて詳細に説明する。本発明の構成要素は、本明細書の図面に一般に示してあるが、様々な構成で広く多様に配置し設計してもよいことは容易に理解できる。従って、本発明の装置、システム、方法、及びプログラムの実施形態についての以下のより詳細な説明は、特許請求の範囲に示す本発明の範囲を限定するものではなく、単に本発明の選択した実施形態の一例を示すものであって、本明細書の特許請求の範囲に示す本発明と矛盾無く装置、システム、方法、及びプログラムについての選択した実施形態を単に示すものである。当業者は、特定の細目の1つ以上が無くても、又は他の方法、部品、材料でも本発明を実現できることが理解できる。なお、この実施の形態によりこの発明が限定されるものではない。また、下記実施の形態における構成要素には、当業者が容易に想定できるもの又は実質的に同一のものが含まれる。   Hereinafter, a user authentication system, a computing device, a terminal device, a method, and a computer-executable program according to the present invention will be described in detail with reference to the drawings. Although the components of the present invention are generally illustrated in the drawings herein, it can be readily understood that they may be arranged and designed in a wide variety of configurations with various configurations. Accordingly, the following more detailed description of the apparatus, system, method, and program embodiments of the present invention is not intended to limit the scope of the invention as set forth in the claims, but is merely selected implementations of the invention. It is merely an example of the form, and is merely illustrative of selected embodiments of the apparatus, system, method, and program consistent with the present invention as set forth in the claims herein. Those skilled in the art will appreciate that the present invention may be implemented without one or more of the specific details or with other methods, components, and materials. Note that the present invention is not limited to the embodiments. In addition, constituent elements in the following embodiments include those that can be easily assumed by those skilled in the art or that are substantially the same.

(実施の形態)
図1及び図2を参照して、本実施の形態に係るユーザ認証システムを説明する。図1は、本実施の形態に係るユーザ認証システムの一例を示す概念図である。図1に示すように、本実施の形態に係るユーザ認証システム1は、コンピューティング装置10を使用する権限のあるユーザの端末装置20と、端末装置20を使用してユーザ認証を行うコンピューティング装置10とで構成されている。
(Embodiment)
With reference to FIG.1 and FIG.2, the user authentication system which concerns on this Embodiment is demonstrated. FIG. 1 is a conceptual diagram showing an example of a user authentication system according to the present embodiment. As shown in FIG. 1, a user authentication system 1 according to the present embodiment includes a terminal device 20 of a user who is authorized to use a computing device 10 and a computing device that performs user authentication using the terminal device 20. 10.

コンピューティング装置10は、例えば、ノートPC10A、タブレット10B、及びデスクトップPC10C等である。端末装置20は、例えば、スマートフォン20A,携帯電話端末20B、スマートウォッチ20C等のウェアラブル端末、及びPDA等である。   The computing device 10 is, for example, a notebook PC 10A, a tablet 10B, a desktop PC 10C, or the like. The terminal device 20 is, for example, a wearable terminal such as a smartphone 20A, a mobile phone terminal 20B, and a smart watch 20C, and a PDA.

本実施の形態では、端末装置20は、所定のイベントが発生した場合に、スピーカから第1の音(認証用の音)を出力する。コンピューティング装置10は、マイクモジュールからこの第1の音が入力された場合に、ユーザを認証する。すなわち、入力された音が認証可能な場合(認証用の音と一致する場合)にユーザを認証する。また、本実施の形態では、入力された音の音源の方向が、コンピューティング装置10に対して所定角度範囲θ内(例えば、正面方向)でない場合は、ユーザを認証しない。このようにして、本実施の形態では、端末装置20がコンピューティング装置10に対して所定角度範囲内にない場合は、正当な利用者が近くにいてもコンピューティング装置10を見ていない状況と考えられるため、不正使用防止のためにユーザを認証しない。   In the present embodiment, the terminal device 20 outputs a first sound (authentication sound) from the speaker when a predetermined event occurs. The computing device 10 authenticates the user when the first sound is input from the microphone module. In other words, the user is authenticated when the input sound can be authenticated (when it matches the sound for authentication). In the present embodiment, if the direction of the input sound source is not within the predetermined angle range θ (for example, the front direction) with respect to the computing device 10, the user is not authenticated. In this way, in the present embodiment, when the terminal device 20 is not within the predetermined angle range with respect to the computing device 10, there is a situation in which the computing device 10 is not seen even if a legitimate user is nearby. It is considered that users are not authenticated to prevent unauthorized use.

すなわち、本実施の形態では、端末装置20がコンピューティング装置10に対して所定角度範囲内にある場合は、正当な利用者がコンピューティング装置10を使用している状況と考えてユーザを認証する。一方、端末装置20がコンピューティング装置10に対して所定角度範囲内にない場合は、正当な利用者は近くにいるが、正当な利用者がコンピューティング装置10を使用していない状況と考えて、不正使用防止のためにユーザを認証しないことにしている。   That is, in the present embodiment, when the terminal device 20 is within a predetermined angle range with respect to the computing device 10, the user is authenticated assuming that a legitimate user is using the computing device 10. . On the other hand, when the terminal device 20 is not within the predetermined angle range with respect to the computing device 10, it is considered that the authorized user is nearby but the authorized user is not using the computing device 10. In order to prevent unauthorized use, the user is not authenticated.

端末装置20は、スピーカ21と、マイク22と、検出部23と、信号処理部24とを備えている。   The terminal device 20 includes a speaker 21, a microphone 22, a detection unit 23, and a signal processing unit 24.

信号処理部24は、所定のイベントが発生した場合に、スピーカ21から認証用の音(第1の音)を出力させる。認証用の音は、非可聴音としてもよい。これにより、ユーザおよび周囲の人に煩わしく感じさせず、他の音(環境音など)に混ざりにくくマイクで拾いやすく誤認識を低減することができる。非可聴音は、人間の耳には聞くことができない音であり、例えば、超音波(16kHz〜20kHz程度以上の音波)である。また、認証用の非可聴音は、セキュリティをより向上させるために、ワンタイムパスワードを所定の変調方式で非可聴音に変調したものとしてもよい。ワンタイムパスワードは、例えば、公知の時刻同期方式やチャレンジ&レスポンス方式等を使用して生成してもよい。   The signal processing unit 24 causes the speaker 21 to output an authentication sound (first sound) when a predetermined event occurs. The sound for authentication may be a non-audible sound. Accordingly, it is possible to reduce misrecognition without making the user and surrounding people feel bothersome and easily mixing with other sounds (such as environmental sounds) with a microphone. The non-audible sound is a sound that cannot be heard by the human ear, and is, for example, an ultrasonic wave (a sound wave of about 16 kHz to 20 kHz or more). Further, the non-audible sound for authentication may be obtained by modulating a one-time password into a non-audible sound by a predetermined modulation method in order to further improve security. The one-time password may be generated using, for example, a known time synchronization method, challenge-response method, or the like.

上述した所定のイベントは、コンピューティング装置10のスピーカ12から出力される第2の音(例えば、固有の非可聴音)が、端末装置20のマイク22に入力した場合であることにしてもよい。   The predetermined event described above may be a case where a second sound (for example, a specific non-audible sound) output from the speaker 12 of the computing device 10 is input to the microphone 22 of the terminal device 20. .

また、所定のイベントは、端末装置20がコンピューティング装置10へ近接し、さらに端末装置20の所定のモーションを検出した場合であることにしてもよい。例えば、所定のモーションは、止まる動作、置く動作、及び座る動作等である。例えば、端末装置20は、当該端末装置20を所持するユーザがコンピューティング装置10のある部屋に入り、止まる又は座る動作を検出した場合に、認証用の非可聴音をスピーカ21から出力してもよい。   Further, the predetermined event may be a case where the terminal device 20 approaches the computing device 10 and further detects a predetermined motion of the terminal device 20. For example, the predetermined motion is an operation of stopping, an operation of placing, a motion of sitting, and the like. For example, the terminal device 20 may output a non-audible sound for authentication from the speaker 21 when the user who has the terminal device 20 enters the room where the computing device 10 is located and stops or sits down. Good.

検出部23は、端末装置20の位置情報、移動、及び使用状況を常にモニタリングしており、端末装置20のコンピューティング装置10へ近接及び上述の所定のモーションを検出する。検出部23は、例えば、加速度センサ、角速度センサ(ジャイロセンサ)、磁気センサ等を有するモーションセンサ、GPS(Global Positioning System)衛星から位置情報を取得するGPSセンサ、Bluetooth(登録商標)通信の距離検出機能、及び測距センサ等の1又は複数を使用して、コンピューティング装置10への近接や端末装置20の所定のモーションを検出することにしてもよい。   The detection unit 23 constantly monitors the position information, movement, and usage status of the terminal device 20, and detects the proximity of the terminal device 20 to the computing device 10 and the predetermined motion described above. The detection unit 23 includes, for example, an acceleration sensor, an angular velocity sensor (gyro sensor), a motion sensor having a magnetic sensor, a GPS sensor that acquires position information from a GPS (Global Positioning System) satellite, and Bluetooth (registered trademark) communication distance detection. You may decide to detect the proximity | contact to the computing apparatus 10 and the predetermined motion of the terminal device 20 using 1 or several, such as a function and a ranging sensor.

上記構成において、信号処理部24及び検出部23は、ハードウェアやソフトウェアのモジュール、又は、その組み合わせで構成することができる。また、コンピュータがプログラムを実行することにより、信号処理部24及び検出部23の機能を実現することにしてもよい。   In the above configuration, the signal processing unit 24 and the detection unit 23 can be configured by hardware or software modules, or a combination thereof. Further, the functions of the signal processing unit 24 and the detection unit 23 may be realized by a computer executing a program.

コンピューティング装置10は、マイクモジュール11と、スピーカ12と、信号処理部13と、ユーザ認証部14と、を備えている。   The computing device 10 includes a microphone module 11, a speaker 12, a signal processing unit 13, and a user authentication unit 14.

マイクモジュール11は、例えば、信号処理部13で音源の位置情報(方向、位置を含む)を算出するためにアレイマイクや複数のマイクで構成されており、音を集音して入力するためのものである。   The microphone module 11 is composed of, for example, an array microphone or a plurality of microphones so that the signal processing unit 13 calculates position information (including direction and position) of the sound source, and collects and inputs sound. Is.

信号処理部13は、マイクモジュール11から入力される音に対して各種信号処理(A/D変換やノイズリダクション等)を行う。また、信号処理部13は、入力される音の音源の位置情報(方向、位置)を算出してもよい。信号処理部13は、例えば、マイクモジュール11の各マイクから入力される音の到達時間の差により、音源の位置情報を算出することができる。   The signal processing unit 13 performs various signal processing (A / D conversion, noise reduction, etc.) on the sound input from the microphone module 11. Further, the signal processing unit 13 may calculate position information (direction and position) of the sound source of the input sound. For example, the signal processing unit 13 can calculate the position information of the sound source based on the difference in arrival time of sounds input from the microphones of the microphone module 11.

ユーザ認証部14は、マイクモジュール11から入力される音が認証用の音と一致した場合にユーザを認証する。また、信号処理部13で算出した音の音源の方向がコンピューティング装置10に対して所定角度範囲θ内にない場合は、ユーザを認証しないことにしてもよい。例えば、ユーザ認証部14は、コンピューティング装置10の使用を許可する1又は複数のユーザの認証用の非可聴音をメモリに予め登録しておき、入力した音と一致するかを判定してもよい。   The user authentication unit 14 authenticates the user when the sound input from the microphone module 11 matches the authentication sound. If the direction of the sound source calculated by the signal processing unit 13 is not within the predetermined angle range θ with respect to the computing device 10, the user may not be authenticated. For example, the user authentication unit 14 may register in advance a non-audible sound for authentication of one or more users who are permitted to use the computing device 10 in a memory, and determine whether the sound matches the input sound. Good.

また、ワンタイムパスワードを使用する場合は、信号処理部13は、マイクモジュール11から入力される非可聴音をワンタイムパスワードに復調し、ユーザ認証部14は、復調したワンタイムパスワードが正しいか否かを判定してもよい。   When using a one-time password, the signal processing unit 13 demodulates the inaudible sound input from the microphone module 11 into a one-time password, and the user authentication unit 14 determines whether the demodulated one-time password is correct. It may be determined.

また、信号処理部13は、コンピューティング装置10の電源ON時、サスペンド状態や画面ロックから復帰する場合に、ユーザ認証を開始するために、メモリに予め格納している固有の非可聴音をスピーカ12から出力してもよい。例えば、ノートPCの場合は、所定時間入力がない場合やLIDクローズでスリープ状態に移行し、入力操作やLIDオープンでスリープ状態から復帰する場合に、第2の音(例えば、固有の非可聴音)をスピーカ12から出力してもよい。また、例えば、タブレットの場合は、所定時間入力がない場合は画面をロックし、スワイプして画面ロックを解除する際に、第2の音をスピーカ12から出力してもよい。   In addition, the signal processing unit 13 outputs a unique inaudible sound stored in advance in the memory to start user authentication when the computing device 10 is powered on and returns from the suspended state or the screen lock. 12 may be output. For example, in the case of a notebook PC, when there is no input for a predetermined time, or when a transition is made to a sleep state by closing an LID and a return from the sleep state by an input operation or LID opening, the second sound (for example, a specific inaudible sound ) May be output from the speaker 12. Further, for example, in the case of a tablet, when there is no input for a predetermined time, the screen may be locked, and the second sound may be output from the speaker 12 when swiping to release the screen lock.

上記構成において、信号処理部13及びユーザ認証部14は、ハードウェアやソフトウェアのモジュール、又は、その組み合わせで構成することができる。また、コンピュータがプログラムを実行することにより、信号処理部13及びユーザ認証部14の機能を実現することにしてもよい。   In the above configuration, the signal processing unit 13 and the user authentication unit 14 can be configured by hardware or software modules, or a combination thereof. Moreover, you may decide to implement | achieve the function of the signal processing part 13 and the user authentication part 14 by a computer running a program.

図2は、本実施の形態に係るユーザ認証システム1により実行されるユーザ認証処理の一例を説明するためのフローチャートである。本実施の形態に係るユーザ認証システム1により実行されるユーザ認証処理を図2のフローチャートに従って説明する。図2のフローチャートでは、一例として非可聴音をスピーカから出力する場合について説明する。   FIG. 2 is a flowchart for explaining an example of user authentication processing executed by the user authentication system 1 according to the present embodiment. User authentication processing executed by the user authentication system 1 according to the present embodiment will be described with reference to the flowchart of FIG. In the flowchart of FIG. 2, the case where a non-audible sound is output from a speaker will be described as an example.

図2において、まず、端末装置20では、信号処理部24は、所定のイベントが発生した場合に(ステップS1の「Yes])、認証用の非可聴音をスピーカ21から出力する(ステップS2)。   In FIG. 2, first, in the terminal device 20, when a predetermined event occurs (“Yes” in step S <b> 1), the signal processing unit 24 outputs an inaudible sound for authentication from the speaker 21 (step S <b> 2). .

例えば、コンピューティング装置10は、電源ONの場合、サスペンド状態や画面ロックから復帰する場合に、固有の非可聴音をスピーカ12から出力する。これに応じて、端末装置20は、この固有の非可聴音をマイク22から入力した場合に、認証用の非可聴音をスピーカ21から出力することにしてもよい。   For example, when the power is ON, the computing device 10 outputs a unique non-audible sound from the speaker 12 when returning from a suspended state or a screen lock. In response to this, the terminal device 20 may output a non-audible sound for authentication from the speaker 21 when this unique non-audible sound is input from the microphone 22.

また、端末装置20は、コンピューティング装置10への近接、又は、コンピューティング装置10に近接し、さらに所定のモーションを検出した場合に、認証用の非可聴音をスピーカ21から出力することにしてもよい。また、認証用の非可聴音は、ワンタイムパスワードを非可聴音に変調したものでもよい。   In addition, the terminal device 20 outputs a non-audible sound for authentication from the speaker 21 when it is close to the computing device 10 or close to the computing device 10 and further detects a predetermined motion. Also good. Further, the non-audible sound for authentication may be a one-time password modulated to a non-audible sound.

コンピューティング装置10では、マイクモジュール11から非可聴音が入力されると(ステップT1の「Yes」)、信号処理部13は、マイクモジュール11から入力した非可聴音の音源の方向を判定する(ステップT2)。   In the computing device 10, when a non-audible sound is input from the microphone module 11 (“Yes” in step T1), the signal processing unit 13 determines the direction of the sound source of the non-audible sound input from the microphone module 11 ( Step T2).

ユーザ認証部14は、入力した非可聴音がユーザ認証用の非可聴音と一致し、かつ、信号処理部13で判定した非可聴音の音源の方向がコンピューティング装置10に対して所定角度範囲内(例えば、正面方向)にあるか否かを判断する(ステップT3)。   The user authentication unit 14 determines that the input non-audible sound matches the non-audible sound for user authentication, and the direction of the sound source of the non-audible sound determined by the signal processing unit 13 is within a predetermined angle range with respect to the computing device 10. It is determined whether it is within (for example, the front direction) (step T3).

入力した非可聴音がユーザ認証用の非可聴音と一致し、かつ、信号処理部13で判定した非可聴音の方向がコンピューティング装置10に対して所定角度範囲内にある場合には(ステップT3の「Yes」)、ユーザ認証部14はユーザを認証して(ステップT4)、所定の処理(例えば、システムの起動、復帰等)を行ってもよい。   If the input non-audible sound matches the non-audible sound for user authentication and the direction of the non-audible sound determined by the signal processing unit 13 is within a predetermined angle range with respect to the computing device 10 (step The user authentication unit 14 may authenticate the user (step T4) and perform a predetermined process (for example, activation or restoration of the system).

入力した非可聴音がユーザ認証用の非可聴音と一致し、かつ、信号処理部13で判定した非可聴音の方向がコンピューティング装置10に対して所定角度範囲内にない場合には(ステップT3の「No」)、ユーザ認証部14は、ユーザの認証失敗と判定して(ステップT5)、ユーザに対して認証失敗のメッセージを通知してもよい。   When the input non-audible sound matches the non-audible sound for user authentication and the direction of the non-audible sound determined by the signal processing unit 13 is not within the predetermined angle range with respect to the computing device 10 (step The user authentication unit 14 may determine that the user authentication has failed (step T5) and notify the user of an authentication failure message.

なお、上述したように、ユーザ認証部14は、非可聴音の音源の方向がコンピューティング装置10に対して所定角度範囲内(例えば、正面方向)にあるか否かを判定しないで、入力される非可聴音がユーザ認証用の非可聴音と一致する場合にユーザを認証してもよい。   As described above, the user authentication unit 14 is input without determining whether or not the direction of the sound source of the inaudible sound is within a predetermined angle range (for example, the front direction) with respect to the computing device 10. The user may be authenticated if the non-audible sound matches the non-audible sound for user authentication.

以上説明したように、本実施の形態によれば、端末装置20では、所定のイベントが発生した場合に、スピーカ21から第1の音(認証用の音)を出力し、コンピューティング装置10は、マイクモジュール11からこの第1の音が入力された場合に、ユーザを認証することとしたので、既存の情報処理装置に搭載されている構成を利用して、ユーザの操作を要さずに短時間で正確なユーザ認証が可能となる。付言すると、認証用の高価なセンサやデバイスを使用しない低コストな構成とすることができる。   As described above, according to the present embodiment, the terminal device 20 outputs the first sound (sound for authentication) from the speaker 21 when a predetermined event occurs, and the computing device 10 Since the user is authenticated when the first sound is input from the microphone module 11, the configuration installed in the existing information processing apparatus is used, and no user operation is required. Accurate user authentication is possible in a short time. In other words, a low-cost configuration that does not use expensive sensors and devices for authentication can be achieved.

また、コンピューティング装置10は、入力した音の音源の方向が、コンピューティング装置10に対して所定角度範囲内の場合にないユーザを認証しないこととしたので、例えば、端末装置(音源)20がコンピューティング装置10に対して所定角度範囲外にある場合は、正当な利用者が近くにいてもコンピューティング装置10を見ていない状況と考えられるため、その見ていない隙に不正使用されることを防止することができる。   Further, since the computing device 10 does not authenticate a user whose direction of the sound source of the input sound is not within a predetermined angle range with respect to the computing device 10, for example, the terminal device (sound source) 20 When it is outside the predetermined angle range with respect to the computing device 10, it is considered that the user is not looking at the computing device 10 even when a legitimate user is nearby. Can be prevented.

コンピューティング装置10は、第1の音の音源がコンピューティング装置10に対して所定距離以上離れている場合は、ユーザを認証しないこととしたので、より不正使用を防止することが可能となる。   Since the computing device 10 does not authenticate the user when the sound source of the first sound is separated from the computing device 10 by a predetermined distance or more, the computing device 10 can further prevent unauthorized use.

また、所定のイベントは、端末装置20が、コンピューティング装置10のスピーカ12から出力される第2の音が、マイク22から入力された場合であることとしたので、2段階の照合を行うことでより不正使用をより防止することが可能となる。   In addition, since the predetermined event is the case where the terminal device 20 receives the second sound output from the speaker 12 of the computing device 10 from the microphone 22, the two-step verification is performed. This makes it possible to prevent unauthorized use more.

また、コンピューティング装置10は、電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、固有の非可聴音をスピーカ12から出力することで、コンピューティング装置10の電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、ユーザ認証を行うことが可能となる。   In addition, when the computing device 10 is turned on, returns from the suspended state, or releases the lock screen, the computing device 10 outputs a unique non-audible sound from the speaker 12 so that the computing device 10 can be turned on from the suspended state. User authentication can be performed when returning or releasing the lock screen.

また、所定のイベントは、端末装置20のコンピューティング装置10への近接及び所定のモーションを検出した場合であることとしたので、端末装置20をコンピューティング装置10に近づけ、さらに、所定のモーションを行った場合に、ユーザ認証を行うことが可能となる。   In addition, since the predetermined event is a case where the proximity of the terminal device 20 to the computing device 10 and a predetermined motion is detected, the terminal device 20 is brought closer to the computing device 10 and a predetermined motion is further transmitted. If so, user authentication can be performed.

また、所定のパスワードは、ワンタイムパスワードであることとしたので、セキュリティを向上させることが可能となる。   In addition, since the predetermined password is a one-time password, security can be improved.

なお、本実施の形態では、ユーザを認証する場合に、音の音源の方向がコンピューティング装置10に対して所定角度範囲内にあることを条件としているが、信号処理部13は、コンピューティング装置10に対して所定角度範囲の音のみを抽出し(ビームフォーミング処理)、ユーザ認証部14は、抽出された音が認証用の音と一致する場合に、ユーザを認証してもよい。   In the present embodiment, when the user is authenticated, the direction of the sound source is within a predetermined angle range with respect to the computing device 10, but the signal processing unit 13 is a computing device. Only the sound within a predetermined angle range with respect to 10 is extracted (beam forming process), and the user authentication unit 14 may authenticate the user when the extracted sound matches the authentication sound.

(実施例1)
図3〜図7を参照して、実施例1に係るユーザ認証システム1を説明する。実施例1では、コンピューティング装置10を移動して使用する場合(例えば、ノートPC10A,タブレット10B)を想定しており、コンピューティング装置10側からユーザ認証処理を開始する。実施例1では、コンピューティング装置10及び端末装置20を、ノートPC10A及びスマートフォン20Aに適用した例を説明する。
Example 1
A user authentication system 1 according to the first embodiment will be described with reference to FIGS. In the first embodiment, it is assumed that the computing device 10 is moved and used (for example, the notebook PC 10A and the tablet 10B), and the user authentication process is started from the computing device 10 side. In the first embodiment, an example in which the computing device 10 and the terminal device 20 are applied to a notebook PC 10A and a smartphone 20A will be described.

図3は、実施例1に係るユーザ認証システム1の概略の外観構成図である。図3に示すように、ユーザ認証システム1は、ユーザ認証を行うノートPC10Aと、ノートPC10Aのユーザ認証で使用されるスマートフォン20Aとを備えている。   FIG. 3 is a schematic external configuration diagram of the user authentication system 1 according to the first embodiment. As shown in FIG. 3, the user authentication system 1 includes a notebook PC 10A that performs user authentication and a smartphone 20A that is used for user authentication of the notebook PC 10A.

ノートPC10Aは、図3に示すように、いずれも略直方体である本体側筐体102およびディスプレイ側筐体(「LID」とも称する)103を備える。本体側筐体102は、キーボードおよびタッチパッド等を有する入力部104と、左右のスピーカ106a、106bとを備える。ディスプレイ側筐体103は、LCD(液晶ディスプレイ)107と、LCD107の表示面側にその上方の略中央に配置され、前方の被写体を撮像可能なカメラ108と、カメラ108を挟んでその両側に配置される左右の複数のマイク105a、105bとを備える。なお、マイクの数を2つとしているが、3つ以上としてもよい。   As shown in FIG. 3, the notebook PC 10 </ b> A includes a main body side housing 102 and a display side housing (also referred to as “LID”) 103, which are both substantially rectangular parallelepipeds. The main body side housing 102 includes an input unit 104 having a keyboard and a touchpad, and left and right speakers 106a and 106b. The display-side housing 103 is disposed on the LCD (Liquid Crystal Display) 107, on the display surface side of the LCD 107 at a substantially upper center, and on both sides of the camera 108 with the camera 108 in between. Left and right microphones 105a and 105b. Although the number of microphones is two, it may be three or more.

本体側筐体102およびディスプレイ側筐体103は、それぞれの端部で左右の一対の連結部(ヒンジ部)109a、109bによって連結されており、連結部109a、109bは、これらの筐体を開閉自在に支持している。   The main body side case 102 and the display side case 103 are connected to each other by a pair of left and right connecting portions (hinge portions) 109a and 109b at the respective end portions, and the connecting portions 109a and 109b open and close these cases. Supports freely.

スマートフォン20Aは、略六面体形状の筐体202を備えている。筐体202の表面のうち一方側の面を正面202A、正面202Aに対向する他方側の面を背面、筐体202の表面のうち正面202Aと背面に挟まれた面を側面202Bとする。スマートフォン20Aは、筐体202の正面202Aに、タッチパネル203A及び各種アイコンや画像が表示される表示部203Bで構成されるタッチ表示部203と、レシーバ207が配置されている。筐体202の手前側の側面202Bに、マイク205と、スピーカ206とが配置されている。また、右側の側面202Bに、不図示の電源ボタンやボリューム調整ボタン等の操作部が配置されている。   The smartphone 20A includes a substantially hexahedral-shaped housing 202. One surface of the surface of the housing 202 is a front surface 202A, the other surface facing the front surface 202A is a back surface, and a surface between the front surface 202A and the back surface of the surface of the housing 202 is a side surface 202B. In the smartphone 20A, a touch display unit 203 including a touch panel 203A and a display unit 203B on which various icons and images are displayed and a receiver 207 are arranged on the front surface 202A of the housing 202. A microphone 205 and a speaker 206 are disposed on the side surface 202B on the front side of the housing 202. In addition, operation units such as a power button and a volume adjustment button (not shown) are arranged on the right side surface 202B.

タッチ表示部203は、アイコン、文字、図形、画像等の情報を表示するとともに、指、スタイラス、ペン等(以下、「指示体」と称する)を用いてタッチパネル203Aに対して行われる各種操作を検出する。タッチパネル203Aが各種操作を検出する方式は、静電容量式、感圧式等の方式を採用することができる。   The touch display unit 203 displays information such as icons, characters, graphics, and images, and performs various operations performed on the touch panel 203A using a finger, stylus, pen, or the like (hereinafter referred to as “indicator”). To detect. As a method for detecting various operations by the touch panel 203A, a capacitance type, a pressure sensitive type, or the like can be adopted.

図4は、図3のノートPC10Aの概略のハードウェア構成例を示す図である。ノートPC10Aは、同図に示すように、CPU111、ROM112、メモリ113、ストレージ114、LCD107、入力部104、カメラデバイス115、オーディオデバイス117、計時回路120、無線通信部119、バッテリ121、DC−DCコンバータ122,ACアダプタ123を備えており、各部はバスを介して直接または間接的に接続されている。   FIG. 4 is a diagram illustrating a schematic hardware configuration example of the notebook PC 10A of FIG. As shown in the figure, the notebook PC 10A includes a CPU 111, a ROM 112, a memory 113, a storage 114, an LCD 107, an input unit 104, a camera device 115, an audio device 117, a timing circuit 120, a wireless communication unit 119, a battery 121, and a DC-DC. A converter 122 and an AC adapter 123 are provided, and each part is connected directly or indirectly via a bus.

CPU111は、バスを介して接続されたストレージ114に格納されたOS130によりノートPC10A全体の制御を行うとともに、ストレージ114に格納された各種のプログラムに基づいて処理を実行する機能を司る。ROM112は、BIOS(Basic Input/Output System:基本入出力システム)112aやデータ等を格納している。   The CPU 111 controls the notebook PC 10A as a whole by the OS 130 stored in the storage 114 connected via the bus, and controls functions based on various programs stored in the storage 114. The ROM 112 stores a BIOS (Basic Input / Output System: basic input / output system) 112a, data, and the like.

メモリ113は、キャッシュメモリやRAMで構成されており、CPU111の実行プログラムの読み込み領域として、実行プログラムの処理データを書き込む作業領域として利用される書き込み可能メモリである。   The memory 113 includes a cache memory and a RAM, and is a writable memory used as a work area for writing processing data of the execution program as a read area for the execution program of the CPU 111.

ストレージ114は、例えば、SSDやHDD等の不揮発性の記憶装置で構成されており、例えば、Windows(登録商標)等のノートPC10A全体の制御を行うためのOS30と、周辺機器類をハードウェア操作するための各種のドライバ131と、ブラウザ、メールアプリ、音声アシスタント、及びVOIP等のアプリ132等を記憶する機能を有する。   The storage 114 is configured by a non-volatile storage device such as an SSD or an HDD, for example. For example, the OS 30 for controlling the entire notebook PC 10A such as Windows (registered trademark) and peripheral devices are operated by hardware. And a function for storing various drivers 131 and browsers, mail applications, voice assistants, and applications 132 such as VOIP.

LCD107は、CPU111の制御に従って、表示情報をビデオ信号に変換し、変換したビデオ信号に応じた各種情報を表示画面に表示する。   The LCD 107 converts display information into a video signal under the control of the CPU 111, and displays various types of information according to the converted video signal on the display screen.

なお、本実施の形態では、ディスプレイとしてLCDを使用することにしているが、本発明はこれに限られるものではなく、有機ELディスプレイやCRT等の他のディスプレイを使用することにしてもよい。   In this embodiment, an LCD is used as a display. However, the present invention is not limited to this, and another display such as an organic EL display or a CRT may be used.

入力部104は、ユーザが入力操作を行うためのユーザインターフェースであり、文字、コマンド等を入力する各種キーより構成されるキーボードや、画面上のカーソルを移動させたり、各種メニューを選択するタッチパッド等を備えている。   The input unit 104 is a user interface for a user to perform an input operation. The input unit 104 is a keyboard composed of various keys for inputting characters, commands, etc., a touch pad for moving a cursor on the screen, and selecting various menus Etc.

カメラデバイス115は、カメラ108と、カメラ処理回路116とを備えている。カメラ108は、レンズや撮像部(CCDやCMOS)を備えており、レンズは被写体光を結像し、撮像部は結像された被写体光をR,G,Bの画像信号として出力する。カメラ処理回路116は、A/D変換器、画像処理用LSI、メモリ等を備え、撮像部の駆動タイミングや露出制御等を行うと共に、撮像部で得られたRGBの画像信号をデータ処理(A/D変換等)して、CPU111に出力する。   The camera device 115 includes a camera 108 and a camera processing circuit 116. The camera 108 includes a lens and an imaging unit (CCD or CMOS). The lens forms subject light, and the imaging unit outputs the formed subject light as R, G, and B image signals. The camera processing circuit 116 includes an A / D converter, an image processing LSI, a memory, and the like, performs drive timing and exposure control of the imaging unit, and performs data processing (A / D conversion, etc.) and output to the CPU 111.

オーディオデバイス117は、マイク105a、105bと、スピーカ106と、音声処理用のDSP118とを備えている。マイク105a、105bは、音声を入力してDSP118に出力する。スピーカ106は、DSP118から出力される音声データに応じた音声を出力する。   The audio device 117 includes microphones 105a and 105b, a speaker 106, and a DSP 118 for audio processing. The microphones 105a and 105b input sound and output to the DSP 118. The speaker 106 outputs a sound corresponding to the sound data output from the DSP 118.

また、オーディオデバイス117は、超音波の入出力の処理が可能となっており、超音波をマイク105a、105bで集音し、また、スピーカ106から超音波を出力可能に構成されている。   Further, the audio device 117 is capable of ultrasonic input / output processing, and is configured to collect ultrasonic waves with the microphones 105 a and 105 b and to output ultrasonic waves from the speaker 106.

DSP118は、wake on voice機能を備えており、スリープ状態でもDC/DCコンバータ122から電力が供給されており、スリープ状態にある場合でもマイク105a、105bから音を集音可能に構成されている。   The DSP 118 has a wake on voice function, is supplied with power from the DC / DC converter 122 even in the sleep state, and is configured to collect sound from the microphones 105a and 105b even in the sleep state.

DSP118は、A/D変換器と、D/A変換器と、アンプと、各種フィルタ等を含む音声処理用LSI及びメモリ等を備えており、マイク105a、105bから入力される音声をA/D変換した後に音声処理し、音声処理後の音声データ(デジタルデータ)をCPU111に出力したり、CPU111から入力される音声データ(デジタルデータ)を音声処理し、音声処理後の音声データをD/A変換して、スピーカ106から出力させる。   The DSP 118 includes an A / D converter, a D / A converter, an amplifier, an audio processing LSI including various filters, a memory, and the like, and inputs audio input from the microphones 105a and 105b to the A / D. The voice processing after the conversion is performed, the voice data (digital data) after the voice processing is output to the CPU 111, the voice data (digital data) input from the CPU 111 is voice processed, and the voice data after the voice processing is converted to D / A. The data is converted and output from the speaker 106.

DSP118は、マイク105a、105bから入力される音(超音波、音声を含む)の位置情報(その音源の位置、方向)を、各マイクの音の到達時間の差から算出することが可能となっている。また、DSP118は、ノートPC10Aに対して所定角度範囲の音のみを抽出するビームフォーミング処理を行うことが可能となっている。   The DSP 118 can calculate the position information (the position and direction of the sound source) of the sound (including ultrasonic waves and sound) input from the microphones 105a and 105b from the difference in the arrival time of the sound of each microphone. ing. Further, the DSP 118 can perform beam forming processing for extracting only sound within a predetermined angle range with respect to the notebook PC 10A.

計時回路120は、システムクロックあるいは発振器により生成される信号から時刻信号を生成し、現在時刻を出力する。   The timer circuit 120 generates a time signal from a signal generated by a system clock or an oscillator, and outputs the current time.

無線通信部119は、Bluetooth(登録商標)の通信規格に基づく通信や、Wi−Fi(Wireless Fidelity)の通信規格に基づいた通信を行う。無線通信部119は、他のBluetooth(登録商標)デバイス(例えば、スマートフォン20A)とBluetooth(登録商標)通信を行うことができる。   The wireless communication unit 119 performs communication based on a Bluetooth (registered trademark) communication standard or communication based on a Wi-Fi (Wireless Fidelity) communication standard. The wireless communication unit 119 can perform Bluetooth (registered trademark) communication with another Bluetooth (registered trademark) device (for example, the smartphone 20A).

ACアダプタ123は、商用電源に接続して、AC電圧をDC電圧に変換してDC−DCコンバータ122に出力する。DC−DCコンバータ122は、ACアダプタ123から供給されるDC電圧を所定の電圧に変換して各部に電力を供給し、また、バッテリ121の充電を行う。バッテリ121は、DC−DCコンバータ122により充電され、充電した電圧を各部に供給する。バッテリ121は、ACアダプタ123が商用電源に接続されていない場合に使用される。   The AC adapter 123 is connected to a commercial power supply, converts an AC voltage into a DC voltage, and outputs the DC voltage to the DC-DC converter 122. The DC-DC converter 122 converts the DC voltage supplied from the AC adapter 123 into a predetermined voltage, supplies power to each unit, and charges the battery 121. The battery 121 is charged by the DC-DC converter 122 and supplies the charged voltage to each unit. The battery 121 is used when the AC adapter 123 is not connected to a commercial power source.

図5は、図3のスマートフォン20Aの概略のハードウェア構成を示すブロック図である。図5に示すように、スマートフォン20Aは、制御部210と、メモリ211と、ストレージ212と、無線通信部215と、通信部216と、オーディオデバイス217と、電源部224と、タッチ表示部203(タッチパネル203A、表示部203B)と、操作部223と、レシーバ207,計時回路219、モーションセンサ部225、及びGPS測位部226等を備えている。   FIG. 5 is a block diagram showing a schematic hardware configuration of the smartphone 20A of FIG. As illustrated in FIG. 5, the smartphone 20A includes a control unit 210, a memory 211, a storage 212, a wireless communication unit 215, a communication unit 216, an audio device 217, a power supply unit 224, a touch display unit 203 ( A touch panel 203A, a display unit 203B), an operation unit 223, a receiver 207, a timing circuit 219, a motion sensor unit 225, a GPS positioning unit 226, and the like.

タッチ表示部203は、表示部203Bと、表示部203Bに重畳されたタッチパネル203Aとを有する。タッチパネル203Aは、指やペン等の指示体を用いてタッチパネル203Aに対して行われた各種操作を、操作が行われた場所のタッチパネル203A上での位置とともに検出し、制御部210に通知する。タッチパネル203Aによって検出される操作には、タッチ操作、スライド操作、及びピッチ操作が含まれる。表示部203Bは、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成され、文字や図形等を表示する。   The touch display unit 203 includes a display unit 203B and a touch panel 203A superimposed on the display unit 203B. Touch panel 203 </ b> A detects various operations performed on touch panel 203 </ b> A using an indicator such as a finger or a pen together with the position on touch panel 203 </ b> A where the operation is performed, and notifies control unit 210. The operations detected by the touch panel 203A include a touch operation, a slide operation, and a pitch operation. The display unit 203B includes, for example, a liquid crystal display (LCD), an organic EL (Organic Electro-Luminescence) panel, and the like, and displays characters, graphics, and the like.

操作部223は、電源ボタンやボリューム調整ボタン等を通じて利用者の操作を受け付け、受け付けた操作に対応する指示信号を制御部210へ送信する。   The operation unit 223 receives a user operation through a power button, a volume adjustment button, and the like, and transmits an instruction signal corresponding to the received operation to the control unit 210.

電源部224は、制御部210の制御に従って、蓄電池又はACアダプタから得られる電力を、制御部210を含むスマートフォン20Aの各部へ供給する。   The power supply unit 224 supplies power obtained from the storage battery or the AC adapter to each unit of the smartphone 20 </ b> A including the control unit 210 according to the control of the control unit 210.

通信部216は、例えば、3G/4GLTE方式で、基地局によって割り当てられるチャネルを介し、基地局との間で無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。   The communication unit 216 establishes a radio signal line with the base station via a channel assigned by the base station, for example, in 3G / 4GLTE, and performs telephone communication and information communication with the base station.

無線通信部215は、Bluetooth(登録商標)の通信規格に基づく通信や、Wi−Fi(Wireless Fidelity)の通信規格に基づいた通信を行う。また、無線通信部215は、他のBluetooth(登録商標)デバイス(例えば、ノートPC10A)とBluetooth(登録商標)通信を行うことができる。   The wireless communication unit 215 performs communication based on a Bluetooth (registered trademark) communication standard or communication based on a Wi-Fi (Wireless Fidelity) communication standard. In addition, the wireless communication unit 215 can perform Bluetooth (registered trademark) communication with other Bluetooth (registered trademark) devices (for example, the notebook PC 10A).

計時回路219は、システムクロックあるいは発振器により生成される信号から時刻信号を生成し、現在時刻を出力する。   The timer circuit 219 generates a time signal from a signal generated by a system clock or an oscillator and outputs the current time.

モーションセンサ部225は、加速度センサ、角速度センサ(ジャイロセンサ)、磁気センサを有し、ユーザの動作状態(移動等)に応じてユーザが所持するスマートフォン100に加わる特定方向の力等や、地球の磁場(磁界)を検出する。   The motion sensor unit 225 includes an acceleration sensor, an angular velocity sensor (gyro sensor), and a magnetic sensor. A force in a specific direction applied to the smartphone 100 held by the user according to the user's operation state (movement, etc.) A magnetic field (magnetic field) is detected.

また、GPS測位部226は、複数のGPS(Global Positioning System)衛星からの電波を受信して、緯度、経度情報に基づく地理的な位置データを取得する。   In addition, the GPS positioning unit 226 receives radio waves from a plurality of GPS (Global Positioning System) satellites and acquires geographical position data based on latitude and longitude information.

モーションセンサ部225により検出されたセンサデータ(加速度データ、角速度データ、磁気データ)、及び、GPS測位部226により取得された位置データは、制御部210に出力される。   The sensor data (acceleration data, angular velocity data, magnetic data) detected by the motion sensor unit 225 and the position data acquired by the GPS positioning unit 226 are output to the control unit 210.

オーディオデバイス217は、マイク205と、スピーカ206と、音声処理用のDSP218とを備えている。マイク205は、音声を入力してDSP218に出力する。スピーカ206は、DSP218から出力される音声データに応じた音声を出力する。   The audio device 217 includes a microphone 205, a speaker 206, and a DSP 218 for audio processing. The microphone 205 inputs voice and outputs it to the DSP 218. The speaker 206 outputs sound corresponding to the sound data output from the DSP 218.

また、オーディオデバイス217は、超音波の入出力の処理が可能となっており、超音波をマイク205で集音し、また、スピーカ206から超音波を出力可能に構成されている。   Further, the audio device 217 can perform ultrasonic input / output processing, and is configured to collect ultrasonic waves with the microphone 205 and to output ultrasonic waves from the speaker 206.

DSP218は、wake on voice機能を備えており、画面ロック状態(スリープ状態)にある場合でも電源部224から電力が供給されている。そのため、オーディオデバイス217は、画面ロック状態にある場合でもマイク205から音を集音可能となっている。   The DSP 218 has a wake on voice function, and is supplied with power from the power supply unit 224 even when it is in a screen lock state (sleep state). Therefore, the audio device 217 can collect sound from the microphone 205 even when the screen is locked.

DSP218は、A/D変換器と、D/A変換器と、アンプと、各種フィルタ等を含む音声処理用LSI及びメモリ等を備えており、マイク205から入力される音声をA/D変換した後に音声処理し、音声処理後の音声データ(デジタルデータ)を制御部210に出力したり、制御部210から入力される音声データ(デジタルデータ)を音声処理し、音声処理後の音声データをD/A変換して、スピーカ206から出力させる。   The DSP 218 includes an A / D converter, a D / A converter, an amplifier, an audio processing LSI including various filters, a memory, and the like, and A / D-converts audio input from the microphone 205. Audio processing is performed later, audio data (digital data) after audio processing is output to the control unit 210, audio data (digital data) input from the control unit 210 is audio processed, and the audio data after audio processing is D / A conversion and output from the speaker 206.

メモリ211は、例えば、RAMやDRAM等で構成されており、制御部110によって実行されるプログラム、制御部110が参照するデータ、制御部110の演算結果等が一時的に記憶されるワークエリアとして使用される。   The memory 211 is composed of, for example, a RAM, a DRAM, or the like, and serves as a work area for temporarily storing a program executed by the control unit 110, data referred to by the control unit 110, a calculation result of the control unit 110, and the like. used.

ストレージ212は、例えば、不揮発性メモリ(例えば、EEPROM、SSD)であり、制御部210での処理に利用されるプログラムやデータを保存する。ストレージ212に記憶されるプログラムには、スマートフォンの各機能を実現するためのOS212a、デバイスをハードウェア制御するためのドライバ212b、ノートPC10Aに対してリモートでユーザ認証を行うためのリモート認証用アプリ212c、音声ファイルを再生させるための音声再生アプリ、電話機能を実現するための電話アプリ、電子メール機能を実現するためのメールアプリ、WEBブラウジング機能を実現するためのブラウザアプリ、ファイル閲覧用アプリ、及びワープロアプリ等の他のアプリ212d、及び各種データ等が含まれる。各種アプリとデバイス間の通信にはOS212aが介在する。   The storage 212 is, for example, a nonvolatile memory (for example, EEPROM, SSD), and stores programs and data used for processing in the control unit 210. The programs stored in the storage 212 include an OS 212a for realizing each function of the smartphone, a driver 212b for hardware control of the device, and a remote authentication application 212c for remotely performing user authentication on the notebook PC 10A. A voice reproduction application for reproducing an audio file, a telephone application for realizing a telephone function, a mail application for realizing an e-mail function, a browser application for realizing a WEB browsing function, a file browsing application, and Another application 212d such as a word processor application and various data are included. An OS 212a is interposed in communication between various applications and devices.

制御部210は、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、DSP等であり、スマートフォン20Aの動作を統括的に制御して各種の機能(モード)を実現する。具体的には、制御部200は、ストレージ212に記憶されているデータやメモリ211に展開したデータを必要に応じて参照しつつ、ストレージ212に記憶されているプログラムに含まれる命令を実行して、タッチ表示部203、無線通信部215,通信部216、オーディオデバイス217等を制御することによって各種機能(モード)を実現する。なお、制御部210が実行するプログラムや参照するデータは、通信部216や無線通信部215による通信でサーバ装置からダウンロードしたり、アップデートしてもよい。   The control unit 210 is, for example, a CPU (Central Processing Unit), a microprocessor, a DSP, and the like, and implements various functions (modes) by comprehensively controlling the operation of the smartphone 20A. Specifically, the control unit 200 executes instructions included in the program stored in the storage 212 while referring to the data stored in the storage 212 and the data expanded in the memory 211 as necessary. Various functions (modes) are realized by controlling the touch display unit 203, the wireless communication unit 215, the communication unit 216, the audio device 217, and the like. Note that the program executed by the control unit 210 and the data to be referenced may be downloaded from the server device or updated by communication using the communication unit 216 or the wireless communication unit 215.

図6は、図4のノートPC10A及び図5のスマートフォン20Aのユーザ認証に関連する部分の概略の機能構成図である。   6 is a schematic functional configuration diagram of a portion related to user authentication of the notebook PC 10A of FIG. 4 and the smartphone 20A of FIG.

図6において、ノートPC10Aでは、ROM112に格納されたBIOS112aやストレージ114にインストールされたOS130等のプログラムは、メモリ113に読み込まれ、CPU111によって実行される。各アプリ及びドライバ間のデータ又はコマンドの送受信には、OS130が介在する。以下、CPU111が実行するプログラムの動作・機能をプログラムを主体として説明する。   In FIG. 6, in the notebook PC 10 </ b> A, programs such as the BIOS 112 a stored in the ROM 112 and the OS 130 installed in the storage 114 are read into the memory 113 and executed by the CPU 111. The OS 130 intervenes in transmission / reception of data or commands between each application and driver. Hereinafter, the operations and functions of the program executed by the CPU 111 will be described with the program as the main component.

OS130は、ノートPC10Aの省電力制御を行い、通常状態とスリープ状態の遷移を制御する。OS130は、通常状態において入力操作が行われない場合は、スリープ状態に移行させる。また、OS130は、例えば、スリープ状態において、入力操作(LIDオープンを含む)が行われると、ユーザ認証の実行要求をBIOS112aに通知し、BIOS112aからユーザ認証成功の通知があった場合に、通常状態に復帰させる。   The OS 130 performs power saving control of the notebook PC 10A and controls transition between the normal state and the sleep state. When the input operation is not performed in the normal state, the OS 130 shifts to the sleep state. Further, for example, when an input operation (including LID open) is performed in the sleep state, the OS 130 notifies the BIOS 112a of a user authentication execution request, and when the BIOS 112a notifies the user 112 that the user authentication has been successful, Return to.

BIOS112aは、電源投入時にユーザ認証を行い、ユーザ認証に成功した場合は、OS130を起動させる。また、BIOS112aは、スリープ状態から通常状態に復帰する場合に、OS130からのユーザ認証の実行要求に従ってユーザ認証を行い、ユーザ認証に成功した場合は、OS130にユーザ認証の成功を通知し、OS130は通常状態に復帰させる。   The BIOS 112a performs user authentication when the power is turned on, and activates the OS 130 when the user authentication is successful. When the BIOS 112a returns from the sleep state to the normal state, the BIOS 112a performs user authentication according to the user authentication execution request from the OS 130. If the user authentication is successful, the OS 112 notifies the OS 130 of the success of the user authentication. Return to normal state.

オーディオデバイス117のDSP118は、メモリ118aに、ユーザ認証のトリガーとなる固有の超音波のデータと、ワンタイムパスワード算出用の演算式を格納している。この演算式は、スマートフォン20Aと共通である。ユーザ認証の前段階として、DSP118は、BIOS112aの指示に従って、メモリ118aに格納している固有の超音波のデータに応じた固有の超音波をスピーカ106から出力させる。   The DSP 118 of the audio device 117 stores, in the memory 118a, unique ultrasonic data that triggers user authentication and an arithmetic expression for calculating a one-time password. This arithmetic expression is common to the smartphone 20A. As a pre-stage of user authentication, the DSP 118 causes the speaker 106 to output unique ultrasonic waves corresponding to the unique ultrasonic data stored in the memory 118a in accordance with the instruction of the BIOS 112a.

また、DSP118は、マイク105a、105bから超音波が入力されると、超音波からパスワードを復調すると共に、計時回路120から出力される現在時刻を使用し、超音波が入力したときの時刻に基づいて、ワンタイムパスワード算出用の演算式を使用してワンタイムパスワードを算出する。さらに、DSP118は、ノートPC10Aに対するこの超音波の音源の方向を算出する。   Further, when an ultrasonic wave is input from the microphones 105a and 105b, the DSP 118 demodulates the password from the ultrasonic wave, uses the current time output from the time measuring circuit 120, and based on the time when the ultrasonic wave is input. Then, the one-time password is calculated using the calculation formula for calculating the one-time password. Further, the DSP 118 calculates the direction of the ultrasonic sound source relative to the notebook PC 10A.

BIOS112aは、DSP118で復調されたパスワードとDSP118で生成したタイムパスワードが一致するか否かを判定する。BIOS112aは、両者が一致する場合には、さらに、DSP118で判定した超音波の音源の方向がノートPC所定角度範囲内であるか否かを判定し、超音波の音源の方向が所定角度範囲内である場合には、ユーザを認証する。   The BIOS 112a determines whether or not the password demodulated by the DSP 118 matches the time password generated by the DSP 118. If the two match, the BIOS 112a further determines whether or not the direction of the ultrasonic sound source determined by the DSP 118 is within a predetermined angle range of the notebook PC, and the direction of the ultrasonic sound source is within the predetermined angle range. If so, the user is authenticated.

スマートフォン20Aにおいて、OS212aは、スマートフォン20Aの省電力制御を行い、通常状態とスリープ状態の遷移を制御する。   In the smartphone 20A, the OS 212a performs power saving control of the smartphone 20A and controls transition between the normal state and the sleep state.

リモート認証用アプリ212cは、OS30上で実行されるアプリであり、認証用の超音波をスピーカ206から出力し、この認証用の超音波を使用してノートPC10Aのユーザ認証を行うためのアプリケーションである。   The remote authentication application 212c is an application executed on the OS 30, and is an application for outputting authentication ultrasonic waves from the speaker 206 and performing user authentication of the notebook PC 10A using the authentication ultrasonic waves. is there.

リモート認証用アプリ212cは、計時回路219から出力される現在時刻に基づいてワンタイムパスワードを算出するための演算式を記憶している。この演算式は、ノートPC10Aと共通のものである。   The remote authentication application 212c stores an arithmetic expression for calculating a one-time password based on the current time output from the timer circuit 219. This arithmetic expression is common to the notebook PC 10A.

リモート認証用アプリ212cは、DSP218より、マイク205から入力した超音波と登録している固有の超音波が一致する旨の通知を受け取ると、上述の演算式を使用して、計時回路219から出力される現在時刻に基づいたワンタイムパスワードを生成する。リモート認証用アプリ212cは、生成したワンタイムパスワードの出力をDSP218に指示する。   When the remote authentication application 212c receives a notification from the DSP 218 that the ultrasonic wave input from the microphone 205 matches the registered unique ultrasonic wave, the output is output from the time measuring circuit 219 using the above arithmetic expression. Generate a one-time password based on the current time. The remote authentication application 212c instructs the DSP 218 to output the generated one-time password.

オーディオデバイス217のDSP218は、メモリ218aに、ユーザ認証のトリガーとなる固有の超音波のデータを格納している。DSP218は、マイク205から超音波が入力されると、マイク205から入力した超音波と登録している固有の超音波が一致するか否かを判断し、一致している場合はリモート認証用アプリ212cにその旨を通知する。また、DSP218は、リモート認証用アプリ212cからの指示に応じて、ワンタイムパスワードを所定の変調方式で超音波に変調してスピーカ206から出力する。   The DSP 218 of the audio device 217 stores unique ultrasonic data serving as a trigger for user authentication in the memory 218a. When an ultrasonic wave is input from the microphone 205, the DSP 218 determines whether or not the ultrasonic wave input from the microphone 205 matches the registered unique ultrasonic wave. If they match, the remote authentication application This is notified to 212c. Further, the DSP 218 modulates the one-time password into ultrasonic waves by a predetermined modulation method and outputs it from the speaker 206 in accordance with an instruction from the remote authentication application 212c.

図7は、実施例1に係るユーザ認証システム1により実行されるユーザ認証処理の一例を説明するためのフローチャートである。実施例1に係るユーザ認証システム1により実行されるユーザ認証処理を図7のフローチャートに従って説明する。   FIG. 7 is a flowchart for explaining an example of the user authentication process executed by the user authentication system 1 according to the first embodiment. User authentication processing executed by the user authentication system 1 according to the first embodiment will be described with reference to the flowchart of FIG.

図7において、まず、ノートPC10Aでは、BIOS112aは、ノートPC10Aの電源がONされた場合又はサスペンド状態から復帰する場合に(ステップT11の「Yes])、オーディオデバイス117のDSP118に、メモリ118aに格納した固有の超音波のデータに応じた固有の超音波をスピーカ106から出力させる(ステップT12)。   In FIG. 7, first, in the notebook PC 10A, the BIOS 112a stores the memory in the DSP 118 of the audio device 117 in the memory 118a when the notebook PC 10A is powered on or returns from the suspended state (“Yes” in step T11). The specific ultrasonic wave corresponding to the specific ultrasonic data is output from the speaker 106 (step T12).

スマートフォン20Aでは、DSP218は、マイク205から超音波が入力されると(ステップS11の「Yes」)、マイク205から入力された超音波と登録されている固有の超音波が一致するか否かを判断し(ステップS12)、一致する場合には(ステップS12の「Yes」)、その旨をリモート認証用アプリ212cに通知する。リモート認証用アプリ212cは、その旨の通知を受け取ると、上述の共通の演算式を使用して、計時回路219から出力される現在時刻に基づいたワンタイムパスワードを生成する(ステップS13)。DSP218は、リモート認証用アプリ212cの指示に従い、生成されたワンタイムパスワードを所定の変調方式で超音波に変調して(ステップS14)、スピーカ206から出力する(ステップS15)。   In the smartphone 20 </ b> A, when the ultrasound is input from the microphone 205 (“Yes” in step S <b> 11), the DSP 218 determines whether or not the ultrasound input from the microphone 205 matches the registered unique ultrasound. Judgment is made (step S12), and if they match (“Yes” in step S12), the fact is notified to the remote authentication application 212c. Upon receiving the notification to that effect, the remote authentication application 212c generates a one-time password based on the current time output from the timer circuit 219 using the common arithmetic expression described above (step S13). In accordance with an instruction from the remote authentication application 212c, the DSP 218 modulates the generated one-time password into ultrasonic waves by a predetermined modulation method (step S14), and outputs it from the speaker 206 (step S15).

ノートPC10Aでは、DSP118は、マイク105a,105bから超音波が入力すると(ステップT13の「Yes」)、超音波からパスワードを復調する(ステップT14)。また、DSP118は、超音波がマイク105a,105bに入力した現在時刻に基づいて、上述の共通の演算式を使用してワンタイムパスワードを生成すると共に(ステップT15)、この超音波の音源の方向を算出する(ステップT16)。なお、DSP118は、ワンタイムパスワードを生成する際の現在時刻に関して、リモート認証用アプリ212cでワンタイムパスワードを生成してから、マイク105,105bに認証用の超音波が入力されるまでの遅延分を補正してもよい。   In the notebook PC 10A, the DSP 118 demodulates the password from the ultrasonic wave when the ultrasonic wave is input from the microphones 105a and 105b (“Yes” in step T13) (step T14). Further, the DSP 118 generates a one-time password using the above-described common arithmetic expression based on the current time when the ultrasonic waves are input to the microphones 105a and 105b (step T15), and the direction of the ultrasonic sound source. Is calculated (step T16). Note that the DSP 118 has a delay time from when the one-time password is generated by the remote authentication application 212c until the ultrasonic waves for authentication are input to the microphones 105 and 105b with respect to the current time when the one-time password is generated. May be corrected.

BIOS112aは、DSP118で復調されたパスワードとDSP118で生成したタイムパスワードが一致するか否かを判定する(ステップT17)。BIOS112aは、DSP118で復調されたパスワードとDSP118で生成したタイムパスワードが一致しない場合は(ステップT17の「No」)、ユーザ認証失敗と判定する(ステップT20)。   The BIOS 112a determines whether or not the password demodulated by the DSP 118 matches the time password generated by the DSP 118 (step T17). If the password demodulated by the DSP 118 and the time password generated by the DSP 118 do not match (“No” in step T17), the BIOS 112a determines that user authentication has failed (step T20).

DSP118で復調されたパスワードとDSP118で生成したタイムパスワードが一致する場合には(ステップT17の「Yes」)、BIOS112aは、DSP118で算出した超音波の音源の方向がノートPC10Aに対して所定角度範囲内であるか否かを判定する(ステップT18)。超音波の音源の方向がノートPC10Aに対して所定角度範囲内でない場合には(ステップT18の「No」)、BIOS112aは、ユーザ認証失敗と判定する(ステップT20)。他方、超音波の音源の方向がノートPC10Aに対して所定角度範囲内である場合には(ステップT18の「Yes」)、BIOS112aは、ユーザを認証する(ステップT19)。   When the password demodulated by the DSP 118 matches the time password generated by the DSP 118 (“Yes” in step T17), the BIOS 112a determines that the direction of the ultrasonic sound source calculated by the DSP 118 is within a predetermined angle range with respect to the notebook PC 10A. It is determined whether it is within (step T18). If the direction of the ultrasonic sound source is not within the predetermined angle range with respect to the notebook PC 10A (“No” in step T18), the BIOS 112a determines that the user authentication has failed (step T20). On the other hand, when the direction of the ultrasonic sound source is within a predetermined angle range with respect to the notebook PC 10A (“Yes” in step T18), the BIOS 112a authenticates the user (step T19).

なお、DSP118は超音波の音源の位置を算出し、BIOS112aは、DSP118で復調されたパスワードとDSP118で生成したタイムパスワードが一致し、超音波の音源の方向が所定角度範囲内にあり、さらに、超音波の音源がノートPC10Aから所定距離以内の場合に、ユーザを認証することにしてもよい。   The DSP 118 calculates the position of the ultrasonic sound source, and the BIOS 112a matches the password demodulated by the DSP 118 and the time password generated by the DSP 118, and the direction of the ultrasonic sound source is within a predetermined angle range. The user may be authenticated when the ultrasonic sound source is within a predetermined distance from the notebook PC 10A.

以上説明したように、実施例1によれば、移動して使用するタイプのコンピューティング装置10の場合(例えば、ノートPC10A,タブレット10B)に、コンピューティング装置10側からユーザ認証処理を開始することが可能となる。   As described above, according to the first embodiment, the user authentication process is started from the computing device 10 side in the case of the computing device 10 that is moved and used (for example, the notebook PC 10A and the tablet 10B). Is possible.

また、実施例1によれば、wake on voice機能を備えたDSP218を使用してユーザ認証を行っているので、このwake on voice機能は、スマートフォン20Aでは通常装備されている機能であるため、追加の電力消費はなく、例えば、Bluetooth(登録商標)を使用してユーザ認証を行う場合に比して、電力消費を低減することが可能となる。   Further, according to the first embodiment, since user authentication is performed using the DSP 218 having the wake on voice function, the wake on voice function is a function that is normally provided in the smartphone 20A. For example, the power consumption can be reduced as compared with the case where user authentication is performed using Bluetooth (registered trademark).

(実施例2)
図8及び図9を参照して、実施例2に係るユーザ認証システム1を説明する。実施例2では、コンピューティング装置10を固定の位置で使用する場合(例えば、デスクトップPC10C)を想定しており、端末装置20側からユーザ認証処理を開始する。実施例2では、コンピューティング装置10及び端末装置20を、デスクトップPC10C及びスマートフォン20Aに適用した例を説明する。
(Example 2)
With reference to FIG.8 and FIG.9, the user authentication system 1 which concerns on Example 2 is demonstrated. In the second embodiment, it is assumed that the computing device 10 is used at a fixed position (for example, the desktop PC 10C), and user authentication processing is started from the terminal device 20 side. In the second embodiment, an example in which the computing device 10 and the terminal device 20 are applied to a desktop PC 10C and a smartphone 20A will be described.

図8は、実施例2に係るユーザ認証システム1の概略の外観構成図である。図8に示すように、ユーザ認証システム1は、ユーザ認証を行うデスクトップPC10Cと、デスクトップPC10Cのユーザ認証で使用されるスマートフォン20Aとで構成されている。   FIG. 8 is a schematic external configuration diagram of the user authentication system 1 according to the second embodiment. As shown in FIG. 8, the user authentication system 1 includes a desktop PC 10C that performs user authentication and a smartphone 20A that is used for user authentication of the desktop PC 10C.

デスクトップPCは、図8に示すように、本体301と、本体301に接続されたLCD302と、本体301に接続されたキーボード装置等の入力部303を備える。デスクトップPC10Cのハードウェア構成は、LCD302と、入力部303が外部接続される以外は図4のノートPC10Aと同等の構成を有していているので、その説明を省略する。また、スマートフォン20Aの外観構成及びハードウェア構成は図3及び図5と同等の構成である。   As shown in FIG. 8, the desktop PC includes a main body 301, an LCD 302 connected to the main body 301, and an input unit 303 such as a keyboard device connected to the main body 301. The hardware configuration of the desktop PC 10C is the same as that of the notebook PC 10A shown in FIG. 4 except that the LCD 302 and the input unit 303 are externally connected, and thus the description thereof is omitted. Further, the external appearance configuration and hardware configuration of the smartphone 20A are the same as those shown in FIGS.

図9は、実施例2に係るユーザ認証システム1により実行されるユーザ認証処理の一例を説明するためのフローチャートである。実施例2に係るユーザ認証システム1により実行されるユーザ認証処理を図9のフローチャートに従って説明する。図9において、図7と同等の処理を行うステップには同一のステップ番号を付している。   FIG. 9 is a flowchart for explaining an example of user authentication processing executed by the user authentication system 1 according to the second embodiment. User authentication processing executed by the user authentication system 1 according to the second embodiment will be described with reference to the flowchart of FIG. In FIG. 9, steps that perform the same processing as in FIG. 7 are given the same step numbers.

図9において、スマートフォン20Aでは、リモート認証用アプリ212ccは、デスクトップPC10Cへの近接及び所定のアクションを検出すると(ステップS20の「Yes」)、上述の演算式を使用して、計時回路219から出力される現在時刻に基づいたワンタイムパスワードを生成する(ステップS13)。   In FIG. 9, in the smartphone 20A, when the remote authentication application 212cc detects proximity to the desktop PC 10C and a predetermined action (“Yes” in step S20), an output from the timing circuit 219 is performed using the above-described arithmetic expression. A one-time password based on the current time is generated (step S13).

リモート認証用アプリ212cは、モーションセンサ部225により検出されたセンサデータ(加速度データ、角速度データ、磁気データ)、及び、GPS測位部226により取得された位置情報等をモニタリングしており、端末装置20のデスクトップPC10Cへの近接及び所定のモーションを検出することが可能に構成されている。例えば、リモート認証用アプリ212cは、スマートフォン20Aを携帯するユーザ(スマートフォン20A)のデスクトップPC10Cへの近接(例えば、デスクトップPC10Cの置かれている部屋に入り)を検出し、所定のアクションとして、例えば、(デスクトップPC10Cの正面で)立ち止まる動作、椅子に座る動作、又はスマートフォン20Aを机に置く動作等を検出した場合に、認証用の超音波を送信してもよい。   The remote authentication application 212c monitors the sensor data (acceleration data, angular velocity data, magnetic data) detected by the motion sensor unit 225, the position information acquired by the GPS positioning unit 226, and the like, and the terminal device 20 It is possible to detect the proximity to the desktop PC 10C and a predetermined motion. For example, the remote authentication application 212c detects the proximity of the user carrying the smartphone 20A (smartphone 20A) to the desktop PC 10C (for example, entering the room where the desktop PC 10C is placed), and as a predetermined action, for example, When an operation of stopping (in front of the desktop PC 10C), an operation of sitting on a chair, an operation of placing the smartphone 20A on a desk, or the like is detected, an ultrasonic wave for authentication may be transmitted.

DSP218は、リモート認証用アプリ212cの指示に従い、生成されたワンタイムパスワードを所定の変調方式で超音波に変調して(ステップS14)、スピーカ206から出力する(ステップS15)。   In accordance with an instruction from the remote authentication application 212c, the DSP 218 modulates the generated one-time password into ultrasonic waves by a predetermined modulation method (step S14), and outputs it from the speaker 206 (step S15).

ノートPC10Aでは、DSP118は、マイク105a,105bから超音波が入力すると(ステップT13の「Yes」)、超音波からパスワードを復調する(ステップT14)。また、DSP118は、超音波がマイク105a,105bから入力した時刻に基づいて、上述の共通の演算式を使用してワンタイムパスワードを生成すると共に(ステップT15)、この超音波の音源の方向を算出する(ステップT16)。   In the notebook PC 10A, the DSP 118 demodulates the password from the ultrasonic wave when the ultrasonic wave is input from the microphones 105a and 105b (“Yes” in step T13) (step T14). Further, the DSP 118 generates a one-time password based on the time when the ultrasonic waves are input from the microphones 105a and 105b using the above-described common arithmetic expression (step T15), and sets the direction of the ultrasonic sound source Calculate (step T16).

BIOS112aは、DSP118で復調されたパスワードとDSP118で生成したタイムパスワードが一致するか否かを判定する(ステップT17)。BIOS112aは、DSP118で復調されたパスワードとDSP118で生成したタイムパスワードが一致しない場合は(ステップT17の「No」)、ユーザ認証失敗と判定する(ステップT20)。   The BIOS 112a determines whether or not the password demodulated by the DSP 118 matches the time password generated by the DSP 118 (step T17). If the password demodulated by the DSP 118 and the time password generated by the DSP 118 do not match (“No” in step T17), the BIOS 112a determines that user authentication has failed (step T20).

DSP118で復調されたパスワードとDSP118で生成したタイムパスワードが一致する場合には(ステップT17の「Yes」)、BIOS112aは、DSP118で算出した超音波の音源の方向がデスクトップPC10Cに対して所定角度範囲内であるか否かを判定する(ステップT18)。超音波の音源の方向がデスクトップPC10Cに対して所定角度範囲内でない場合には(ステップT18の「No」)、BIOS112aは、ユーザ認証失敗と判定する(ステップT20)。他方、超音波の音源の方向がデスクトップPC10Cに対して所定角度範囲内である場合には(ステップT18の「Yes」)、BIOS112aは、ユーザを認証する(ステップT19)。   When the password demodulated by the DSP 118 matches the time password generated by the DSP 118 (“Yes” in step T17), the BIOS 112a determines that the direction of the ultrasonic sound source calculated by the DSP 118 is within a predetermined angle range with respect to the desktop PC 10C. Is determined (step T18). When the direction of the ultrasonic sound source is not within the predetermined angle range with respect to the desktop PC 10C (“No” in step T18), the BIOS 112a determines that user authentication has failed (step T20). On the other hand, when the direction of the ultrasonic sound source is within a predetermined angle range with respect to the desktop PC 10C (“Yes” in step T18), the BIOS 112a authenticates the user (step T19).

以上説明したように、実施例2によれば、固定の位置で使用するタイプのコンピューティング装置10の場合(例えば、デスクトップPC10C)に、端末装置20側からユーザ認証処理を開始することが可能となる。   As described above, according to the second embodiment, the user authentication process can be started from the terminal device 20 side in the case of the computing device 10 of a type used at a fixed position (for example, the desktop PC 10C). Become.

1 ユーザ認証システム
10 コンピューティング装置
10A ノートPC
10B タブレット
10C デスクトップPC
11 マイクモジュール
12 スピーカ
13 信号処理部
14 ユーザ認証部
20 端末装置
20A スマートフォン
20B 携帯電話端末
20C スマートウォッチ
21 スピーカ
22 マイク
23 検出部
24 信号処理部
105a、105b マイク
106 スピーカ
111 CPU
112 ROM
112a BIOS
113 メモリ
114 ストレージ
117 オーディオデバイス
118 DSP
120 計時回路
130 OS
205 マイク
206 スピーカ
210 制御部
211 メモリ
212 ストレージ
212a OS
212c リモート認証用アプリ
217 オーディオデバイス
219 計時回路
225 モーションセンサ部
226 GPS測位部
1 User Authentication System 10 Computing Device 10A Notebook PC
10B Tablet 10C Desktop PC
DESCRIPTION OF SYMBOLS 11 Microphone module 12 Speaker 13 Signal processing part 14 User authentication part 20 Terminal device
20A Smartphone 20B Mobile phone terminal 20C Smart watch 21 Speaker 22 Microphone 23 Detection unit 24 Signal processing unit 105a, 105b Microphone 106 Speaker 111 CPU
112 ROM
112a BIOS
113 Memory 114 Storage 117 Audio Device 118 DSP
120 clock circuit 130 OS
205 Microphone 206 Speaker 210 Control unit 211 Memory 212 Storage 212a OS
212c Remote authentication application 217 Audio device 219 Timing circuit 225 Motion sensor unit 226 GPS positioning unit

Claims (14)

端末装置を使用してコンピューティング装置のユーザ認証を行うユーザ認証システムであって、
前記端末装置が、所定のイベントが発生した場合に、スピーカから認証用の第1の音を出力する出力工程と、
前記コンピューティング装置に搭載されるマイクモジュールに、前記第1の音が入力された場合に、ユーザを認証する認証工程と、
を含み、
前記所定のイベントは、前記コンピューティング装置のスピーカから出力される第2の音が、前記端末装置のマイクに入力された場合であり、
前記コンピューティング装置は、前記コンピューティング装置の電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、前記第2の音を出力することを特徴とするユーザ認証システム。
A user authentication system for performing user authentication of a computing device using a terminal device,
An output step in which the terminal device outputs a first sound for authentication from a speaker when a predetermined event occurs;
An authentication step of authenticating a user when the first sound is input to a microphone module mounted on the computing device;
Only including,
The predetermined event is a case where a second sound output from a speaker of the computing device is input to a microphone of the terminal device,
The user authentication system , wherein the computing device outputs the second sound when the computing device is powered on, resumes from a suspended state, or releases a lock screen .
前記認証工程では、前記第1の音の音源の方向が、前記コンピューティング装置に対して所定角度範囲内でない場合は、ユーザを認証しないことを特徴とする請求項1に記載のユーザ認証システム。   2. The user authentication system according to claim 1, wherein in the authentication step, the user is not authenticated when the direction of the sound source of the first sound is not within a predetermined angle range with respect to the computing device. 前記認証工程では、前記第1の音の音源が前記コンピューティング装置に対して所定距離以上離れている場合は、ユーザを認証しないことを特徴とする請求項1又は2に記載のユーザ認証システム。   3. The user authentication system according to claim 1, wherein, in the authentication step, the user is not authenticated when the sound source of the first sound is a predetermined distance or more away from the computing device. 前記所定のイベントは、前記端末装置が前記コンピューティング装置に近接し、さらに所定のモーションを検出した場合であることを特徴とする請求項1〜3のいずれか1つに記載のユーザ認証システム。   The user authentication system according to any one of claims 1 to 3, wherein the predetermined event is a case where the terminal device approaches the computing device and further detects a predetermined motion. 少なくとも前記第1の音は、非可聴音であることを特徴とする請求項1〜のいずれか1つに記載のユーザ認証システム。 At least the first sound, the user authentication system according to any one of claims 1-4, characterized in that the non-audible sound. 前記コンピューティング装置は、ノートPC、デスクトップPC、又はタブレットであり、前記端末装置は、スマートフォン、携帯電話端末、又はスマートウォッチであることを特徴とする請求項1〜のいずれか1つに記載のユーザ認証システム。 The computing device, laptop PC, a desktop PC, or a tablet, the terminal device, a smart phone, according to any one of claims 1-5, characterized in that the mobile telephone terminal, or a smart watch User authentication system. 端末装置を使用してユーザ認証を行うコンピューティング装置であって、
マイクモジュールと、
スピーカと、
前記マイクモジュールから、前記端末装置が所定のイベントが発生した場合に出力する認証用の第1の音が入力された場合に、ユーザを認証するユーザ認証手段と、
を備え、
前記所定のイベントは、前記コンピューティング装置のスピーカから出力される第2の音が、前記端末装置のマイクに入力された場合であり、
前記コンピューティング装置は、電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、前記第2の音を出力することを特徴とするコンピューティング装置。
A computing device that performs user authentication using a terminal device,
A microphone module;
Speakers,
User authentication means for authenticating a user when a first sound for authentication output when a predetermined event occurs in the terminal device from the microphone module ;
Bei to give a,
The predetermined event is a case where a second sound output from a speaker of the computing device is input to a microphone of the terminal device,
The computing device outputs the second sound when the power is turned on, the computer returns from the suspended state, or the lock screen is released .
さらに、前記マイクモジュールから入力される前記第1の音の音源の方向を判定する信号処理手段を備え、
前記ユーザ認証手段は、前記第1の音の音源の方向が前記コンピューティング装置に対して所定角度範囲内でない場合は、ユーザを認証しないことを特徴とする請求項に記載のコンピューティング装置。
Furthermore, the signal processing means for determining the direction of the sound source of the first sound input from the microphone module,
The computing device according to claim 7 , wherein the user authentication unit does not authenticate the user when the direction of the sound source of the first sound is not within a predetermined angle range with respect to the computing device.
コンピューティング装置でユーザ認証を行う場合に使用される端末装置であって、
マイクと、
スピーカと、
所定のイベントが発生した場合に、前記スピーカから認証用の第1の音を出力する信号処理手段と、
を備え、
前記所定のイベントは、前記コンピューティング装置のスピーカから出力される第2の音が、前記端末装置のマイクに入力された場合であり、
前記コンピューティング装置は、電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、前記第2の音を出力することを特徴とする端末装置。
A terminal device used when user authentication is performed on a computing device,
With a microphone,
Speakers,
A signal processing means for outputting a first sound for authentication from the speaker when a predetermined event occurs;
Bei to give a,
The predetermined event is a case where a second sound output from a speaker of the computing device is input to a microphone of the terminal device,
The computing device outputs the second sound when the power is turned on, the computer returns from the suspended state, or the lock screen is released .
さらに、前記コンピューティング装置への近接及び所定のモーションを検出するための検出部を備え、
前記所定のイベントは、前記検出部が、前記コンピューティング装置への近接及び所定のモーションを検出した場合であることを特徴とする請求項に記載の端末装置。
And a detection unit for detecting proximity to the computing device and a predetermined motion,
The terminal device according to claim 9 , wherein the predetermined event is a case where the detection unit detects proximity to the computing device and a predetermined motion.
端末装置を使用してユーザ認証を行うコンピューティング装置の方法であって、
マイクモジュールから、前記端末装置が所定のイベントが発生した場合に出力する認証用の第1の音が入力された場合に、ユーザを認証する工程と、
を含み、
前記所定のイベントは、前記コンピューティング装置のスピーカから出力される第2の音が、前記端末装置のマイクに入力された場合であり、前記コンピューディング装置は、前記電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、前記第2の音を出力することを特徴とする方法。
A computing device method for performing user authentication using a terminal device, comprising:
A step of authenticating a user when a first sound for authentication output when a predetermined event occurs from the microphone module is input from the microphone module;
Only including,
The predetermined event is a case where a second sound output from a speaker of the computing device is input to a microphone of the terminal device, and the computing device returns from the power ON and suspend state. Or outputting the second sound when releasing the lock screen .
コンピューティング装置でユーザ認証を行う場合に使用される端末装置の方法であって、
所定のイベントが発生した場合に、スピーカから認証用の第1の音を出力させる工程を含み、
前記所定のイベントは、前記コンピューティング装置のスピーカから出力される第2の音が、前記端末装置のマイクに入力された場合であり、前記コンピューティング装置は、電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、前記第2の音を出力することを特徴とする方法。
A terminal device method used when user authentication is performed on a computing device,
When a predetermined event occurs, it looks including the step of outputting a first sound for authentication from the speaker,
The predetermined event is a case where a second sound output from a speaker of the computing device is input to a microphone of the terminal device, and the computing device is turned on, resumed from a suspended state, or The method of outputting the second sound when releasing the lock screen .
端末装置を使用してユーザ認証を行うコンピューティング装置に搭載されるプログラムであって、
マイクモジュールから、前記端末装置が所定のイベントが発生した場合に出力する認証用の第1の音が入力された場合に、ユーザを認証する工程をコンピュータに実行させ、
前記所定のイベントは、前記コンピューティング装置のスピーカから出力される第2の音が、前記端末装置のマイクに入力された場合であり、前記コンピューディング装置は、前記電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、前記第2の音を出力することを特徴とするコンピュータが実行可能なプログラム。
A program installed in a computing device that performs user authentication using a terminal device,
When a first sound for authentication output when a predetermined event occurs from the microphone module is input from the microphone module, the computer is caused to execute a step of authenticating the user ,
The predetermined event is a case where a second sound output from a speaker of the computing device is input to a microphone of the terminal device, and the computing device returns from the power ON and suspend state. Or a computer-executable program for outputting the second sound when releasing the lock screen .
コンピューティング装置でユーザ認証を行う場合に使用される端末装置に搭載されるプログラムであって、
所定のイベントが発生した場合に、スピーカから認証用の第1の音を出力させる工程をコンピュータに実行させ、
前記所定のイベントは、前記コンピューティング装置のスピーカから出力される第2の音が、前記端末装置のマイクに入力された場合であり、前記コンピューティング装置は、電源ON、サスペンド状態から復帰、又はロック画面を解除する場合に、前記第2の音を出力することを特徴とするコンピュータが実行可能なプログラム。
A program installed in a terminal device used when user authentication is performed on a computing device,
Causing a computer to execute a step of outputting a first sound for authentication from a speaker when a predetermined event occurs ;
The predetermined event is a case where a second sound output from a speaker of the computing device is input to a microphone of the terminal device, and the computing device is turned on, resumed from a suspended state, or A computer-executable program for outputting the second sound when releasing the lock screen .
JP2017137409A 2017-07-13 2017-07-13 User authentication system, computing device, terminal device, method thereof, and computer-executable program Active JP6578326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017137409A JP6578326B2 (en) 2017-07-13 2017-07-13 User authentication system, computing device, terminal device, method thereof, and computer-executable program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017137409A JP6578326B2 (en) 2017-07-13 2017-07-13 User authentication system, computing device, terminal device, method thereof, and computer-executable program

Publications (2)

Publication Number Publication Date
JP2019020927A JP2019020927A (en) 2019-02-07
JP6578326B2 true JP6578326B2 (en) 2019-09-18

Family

ID=65354653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017137409A Active JP6578326B2 (en) 2017-07-13 2017-07-13 User authentication system, computing device, terminal device, method thereof, and computer-executable program

Country Status (1)

Country Link
JP (1) JP6578326B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4649273B2 (en) * 2005-06-14 2011-03-09 株式会社オートネットワーク技術研究所 Vehicle locking / unlocking system
JP4239025B2 (en) * 2005-12-13 2009-03-18 三菱電機株式会社 COMMUNICATION TERMINAL DEVICE, ITS START-UP METHOD, AND COMMUNICATION SYSTEM
US9575544B2 (en) * 2011-11-07 2017-02-21 Qualcomm Incorporated Ultrasound based mobile receivers in idle mode
US8676579B2 (en) * 2012-04-30 2014-03-18 Blackberry Limited Dual microphone voice authentication for mobile device
US10530767B2 (en) * 2015-03-23 2020-01-07 Telefonaktiebolaget Lm Ericsson (Publ) Methods and user device and authenticator device for authentication of the user device
JP2017027207A (en) * 2015-07-17 2017-02-02 ソフトバンク株式会社 Authentication system
EP3163925B1 (en) * 2015-10-30 2020-09-09 Nxp B.V. Wireless authentication method and apparatus

Also Published As

Publication number Publication date
JP2019020927A (en) 2019-02-07

Similar Documents

Publication Publication Date Title
US11341946B2 (en) Method for determining a karaoke singing score, terminal and computer-readable storage medium
KR101862706B1 (en) Apparatus and method for locking auto screen rotating in portable terminla
EP3629198A1 (en) Method and device for searching for audio
US9632649B2 (en) Methods and devices to allow common user interface mode based on orientation
CN110827820B (en) Voice awakening method, device, equipment, computer storage medium and vehicle
KR20130133629A (en) Method and apparatus for executing voice command in electronic device
CN109995933B (en) Method for controlling alarm clock of terminal device and terminal device
WO2013049910A1 (en) Providing common interface mode based on image analysis
KR20120009851A (en) Method of executing protected mode in a mobile terminal and using the method
WO2019101096A1 (en) Method and device for security verification and mobile terminal
WO2020238451A1 (en) Terminal control method and terminal
WO2019218843A1 (en) Key configuration method and device, and mobile terminal and storage medium
KR20190095005A (en) Fingerprint sensing mehotd based on touch pressure in black screen mode of touch input apparatus and touch input appraratus for the same
WO2019007371A1 (en) Method for preventing information from being stolen, storage device, and mobile terminal
KR20160022881A (en) Mobile terminal
US12039023B2 (en) Systems and methods for providing a continuous biometric authentication of an electronic device
WO2020258698A1 (en) Lyric display method and apparatus, device, and storage medium
US9648497B2 (en) Mobile terminal and login control method thereof
CN108804180A (en) Display method, device, terminal and storage medium of user interface
WO2020038133A1 (en) Display method and mobile terminal
WO2019101127A1 (en) Biological identification module processing method and apparatus, and mobile terminal
CN111881423B (en) Method, device and system for authorizing restricted function use
JP6578326B2 (en) User authentication system, computing device, terminal device, method thereof, and computer-executable program
CN110333888B (en) Function updating method, device, equipment and storage medium
CN111131619B (en) Account switching processing method, device and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190826

R150 Certificate of patent or registration of utility model

Ref document number: 6578326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250