[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7562831B2 - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP7562831B2
JP7562831B2 JP2023505241A JP2023505241A JP7562831B2 JP 7562831 B2 JP7562831 B2 JP 7562831B2 JP 2023505241 A JP2023505241 A JP 2023505241A JP 2023505241 A JP2023505241 A JP 2023505241A JP 7562831 B2 JP7562831 B2 JP 7562831B2
Authority
JP
Japan
Prior art keywords
user
movement
unit
specific
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023505241A
Other languages
Japanese (ja)
Other versions
JPWO2022190774A1 (en
Inventor
望 松本
康夫 森永
達哉 西▲崎▼
怜央 水田
有希 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2022190774A1 publication Critical patent/JPWO2022190774A1/ja
Application granted granted Critical
Publication of JP7562831B2 publication Critical patent/JP7562831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の一側面は、情報処理装置に関する。 One aspect of the present invention relates to an information processing device.

従来、ユーザによって行われたジェスチャ(身体的動作)を認識し、認識されたジェスチャに応じた処理を実行する仕組みが知られている。例えば特許文献1には、カメラにより撮像された画像から検出されたジェスチャに予め登録された判定ジェスチャが含まれているか否かを判定し、判定ジェスチャが認識されている期間中に予め登録された操作ジェスチャが認識された場合に限って当該操作ジェスチャを有効なものと扱う仕組みが開示されている。Conventionally, there is known a mechanism for recognizing a gesture (physical action) made by a user and executing a process according to the recognized gesture. For example, Patent Document 1 discloses a mechanism for determining whether or not a gesture detected from an image captured by a camera includes a preregistered judgment gesture, and treating the operation gesture as valid only if a preregistered operation gesture is recognized during a period in which a judgment gesture is recognized.

特開2012-185833号公報JP 2012-185833 A

上述した特許文献1に記載された仕組みでは、ユーザの意図しない動作が有効なジェスチャとして誤認識されることを防ぐために、多段階のジェスチャ認証が用いられている。しかし、上記仕組みでは、ユーザの意図しない動作が認証用のジェスチャ(特許文献1に記載された仕組みにおいては、判定ジェスチャ又は操作ジェスチャ)と偶然一致する場合もあり得る。また、このような偶然の一致を回避するためには、認証に用いるジェスチャをなるべく複雑化させることが必要となるが、その場合、ユーザの利便性が損なわれるという問題がある。In the mechanism described in the above-mentioned Patent Document 1, a multi-stage gesture authentication is used to prevent an unintended action of the user from being erroneously recognized as a valid gesture. However, in the above mechanism, an unintended action of the user may coincidentally match an authentication gesture (a judgment gesture or an operation gesture in the mechanism described in Patent Document 1). In addition, in order to avoid such coincidences, it is necessary to make the gesture used for authentication as complicated as possible, but in that case, there is a problem that the convenience for the user is impaired.

そこで、本発明の一側面は、ユーザの身体的動作に応じた処理を実行するシステムにおいて、誤操作の発生を好適に防止できる情報処理装置を提供することを目的とする。Therefore, one aspect of the present invention aims to provide an information processing device that can effectively prevent the occurrence of erroneous operations in a system that performs processing in response to a user's physical movements.

本発明の一側面に係る情報処理装置は、ユーザの身体的動作を検出する検出部と、検出部により検出された身体的動作に基づいて、ユーザの癖に対応する特定動作を抽出する抽出部と、抽出部により抽出された特定動作と一致しない動作パターンを、所定の処理のトリガとして決定する決定部と、検出部により動作パターンに一致する身体的動作が検出された場合に、所定の処理を実行する制御部と、を備える。An information processing device according to one aspect of the present invention includes a detection unit that detects a user's physical movements, an extraction unit that extracts specific movements corresponding to the user's habits based on the physical movements detected by the detection unit, a determination unit that determines a movement pattern that does not match the specific movement extracted by the extraction unit as a trigger for a specified process, and a control unit that executes the specified process when a physical movement that matches the movement pattern is detected by the detection unit.

本発明の一側面に係る情報処理装置においては、決定部により決定された動作パターンと一致するユーザの身体的動作が検出されたことをトリガとして、所定の処理が実行される。すなわち、身体的動作を用いた直感的なユーザインタフェースが、ユーザに提供される。さらに、動作パターンは、ユーザの癖に対応する特定動作と一致しないように定められるため、ユーザの意図しない場面で上記所定の処理が実行されてしまうことを的確に防止することができる。また、このようにして動作パターンが決定されるため、誤操作の発生を防止するために動作パターンを複雑化させる必要がなくなる。従って、上記情報処理装置によれば、ユーザの身体的動作に応じた処理を実行するシステムにおいて、誤操作の発生を好適に防止できる。In an information processing device according to one aspect of the present invention, a predetermined process is executed when a physical movement of the user that matches the movement pattern determined by the determination unit is detected as a trigger. That is, an intuitive user interface using physical movements is provided to the user. Furthermore, since the movement pattern is determined so as not to match a specific movement that corresponds to the user's habits, it is possible to accurately prevent the predetermined process from being executed in a situation that the user does not intend. Furthermore, since the movement pattern is determined in this manner, it is not necessary to complicate the movement pattern in order to prevent the occurrence of erroneous operations. Therefore, according to the information processing device, it is possible to preferably prevent the occurrence of erroneous operations in a system that executes processes according to the physical movements of the user.

本発明の一側面によれば、ユーザの身体的動作に応じた処理を実行するシステムにおいて、誤操作の発生を好適に防止できる情報処理装置を提供することができる。 According to one aspect of the present invention, an information processing device can be provided that can effectively prevent the occurrence of erroneous operations in a system that performs processing in response to a user's physical movements.

第1実施形態の眼鏡型装置の全体構成を示す図である。1 is a diagram showing an overall configuration of a glasses-type device according to a first embodiment. 第1実施形態の眼鏡型装置の機能構成を示すブロック図である。1 is a block diagram showing a functional configuration of a glasses-type device according to a first embodiment. 記憶部に記憶されるテーブル情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of table information stored in a storage unit. 第1実施形態の眼鏡型装置による動作パターン生成処理の手順の一例を示すフローチャートである。10 is a flowchart showing an example of a procedure of a motion pattern generation process performed by the glasses-type device of the first embodiment. 第1実施形態の眼鏡型装置による認証処理の手順の一例を示すフローチャートである。6 is a flowchart showing an example of a procedure of authentication processing by the glasses-type device of the first embodiment. 第2実施形態の眼鏡型装置の機能構成を示すブロック図である。FIG. 11 is a block diagram showing the functional configuration of a glasses-type device according to a second embodiment. 第2実施形態におけるテーブル情報の一例を示す図である。FIG. 11 is a diagram illustrating an example of table information in the second embodiment. 第2実施形態の眼鏡型装置による動作パターン生成処理の手順の一例を示すフローチャートである。13 is a flowchart showing an example of a procedure of a motion pattern generation process performed by the glasses-type device of the second embodiment. 第3実施形態の眼鏡型装置の機能構成を示すブロック図である。FIG. 13 is a block diagram showing the functional configuration of a glasses-type device according to a third embodiment. 第3実施形態におけるテーブル情報の一例を示す図である。FIG. 13 is a diagram illustrating an example of table information in the third embodiment. 第3実施形態の眼鏡型装置による動作パターン生成処理の手順の一例を示すフローチャートである。13 is a flowchart showing an example of a procedure of a motion pattern generation process performed by a glasses-type device according to a third embodiment. 眼鏡型装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the eyeglass-type device.

以下、添付図面を参照して、本発明の一実施形態について詳細に説明する。なお、図面の説明において同一又は相当要素には同一符号を付し、重複する説明を省略する。Hereinafter, one embodiment of the present invention will be described in detail with reference to the attached drawings. In the description of the drawings, the same or corresponding elements are given the same reference numerals, and duplicate descriptions will be omitted.

[第1実施形態]
図1は、第1実施形態に係る眼鏡型装置10(情報処理装置)の全体構成を示す図である。眼鏡型装置10は、ユーザの頭部に装着される眼鏡型のデバイスである。眼鏡型装置10は、いわゆるウェアラブルデバイスの一種であり、一般に、スマートグラスと呼称されることもある。眼鏡型装置10の例としては、VRゴーグル、ARグラス、MRグラス等が挙げられる。一例として、眼鏡型装置10は、後述する機能的構成要素(図2参照)を有するコンピュータが内蔵された眼鏡型の本体部21と、眼鏡型装置10を装着するユーザ(以下、単に「ユーザ」という。)の両目の位置に対応するように本体部21に装着された一対のレンズ22と、を有する。レンズ22は、通常の眼鏡のレンズと同様に、透光性の部材によって構成されている。加えて、レンズ22の内面(ユーザ側の面)には、画像を表示することが可能とされている。上記画像には、静止画像及び動画像が含まれる。ユーザは、レンズ22を介して外界を視認することができると共に、レンズ22の内面に表示された画像を視認することが可能となっている。
[First embodiment]
FIG. 1 is a diagram showing the overall configuration of a glasses-type device 10 (information processing device) according to the first embodiment. The glasses-type device 10 is a glasses-type device worn on the head of a user. The glasses-type device 10 is a type of so-called wearable device, and is generally referred to as smart glasses. Examples of the glasses-type device 10 include VR goggles, AR glasses, MR glasses, and the like. As an example, the glasses-type device 10 has a glasses-type main body 21 in which a computer having functional components (see FIG. 2) described later is built in, and a pair of lenses 22 attached to the main body 21 so as to correspond to the positions of both eyes of a user (hereinafter simply referred to as "user") who wears the glasses-type device 10. The lenses 22 are made of a translucent material, similar to the lenses of normal glasses. In addition, an image can be displayed on the inner surface (user-side surface) of the lens 22. The above images include still images and moving images. The user can view the outside world through the lens 22 and can view an image displayed on the inner surface of the lens 22.

レンズ22の内面には、例えば、Webブラウザ等の所定のアプリケーションの画面、眼鏡型装置10の各種設定を行うためのメニュー画面等が表示され得る。ここで、例えば、特定のWebサイト、Webサービス等へのログイン時、コンテンツを販売するショッピングサイトでのコンテンツ購入時等において、上記処理(この例では、ログイン処理、購入処理等)を確定させるためのユーザ認証(所定の処理)が行われる場合がある。本実施形態では、眼鏡型装置10は、予め登録されたトリガとしての動作パターンと一致するユーザの目の動作が検出された場合に、上記ユーザ認証を行うように構成されている。すなわち、ユーザは、予め定められた特定の目の動作を行うことにより、ハンズフリーでユーザ認証を行うことが可能とされている。The inner surface of the lens 22 may display, for example, a screen of a predetermined application such as a web browser, a menu screen for performing various settings of the eyeglass-type device 10, etc. Here, for example, when logging in to a specific website, web service, etc., or when purchasing content at a shopping site that sells content, user authentication (predetermined processing) may be performed to confirm the above processing (in this example, login processing, purchase processing, etc.). In this embodiment, the eyeglass-type device 10 is configured to perform the above user authentication when a user's eye movement that matches a previously registered operation pattern as a trigger is detected. In other words, the user is able to perform user authentication hands-free by performing a predetermined specific eye movement.

図2は、眼鏡型装置10の機能構成を示すブロック図である。図2に示されるように、眼鏡型装置10は、撮像部11と、検出部12と、抽出部13と、記憶部14と、決定部15と、制御部16と、を有する。2 is a block diagram showing the functional configuration of the eyeglass-type device 10. As shown in FIG. 2, the eyeglass-type device 10 has an imaging unit 11, a detection unit 12, an extraction unit 13, a memory unit 14, a determination unit 15, and a control unit 16.

撮像部11は、ユーザの目を撮像する。撮像部11は、例えば、本体部21のブリッジ(一対のレンズ22の間の部分)の内側(ユーザ側)に設けられたカメラによって構成され得る。例えば、撮像部11は、ユーザが眼鏡型装置10を装着している間において、ユーザの目の画像(例えば、ユーザの両目を被写体として含む動画)を撮影する。ただし、撮像部11の構成は上記構成に限定されない。例えば、撮像部11は、ユーザの目毎に配置された2つのカメラ(例えば、各レンズ22の内側に配置された2つのカメラ)によって構成されてもよい。The imaging unit 11 captures an image of the user's eyes. The imaging unit 11 may be configured, for example, by a camera provided inside (on the user's side) of the bridge (the portion between a pair of lenses 22) of the main body unit 21. For example, the imaging unit 11 captures an image of the user's eyes (for example, a video including both of the user's eyes as subjects) while the user is wearing the eyeglass-type device 10. However, the configuration of the imaging unit 11 is not limited to the above configuration. For example, the imaging unit 11 may be configured by two cameras arranged for each user's eye (for example, two cameras arranged inside each lens 22).

検出部12は、ユーザの身体的動作を検出する。本実施形態では、検出部12は、撮像部11により撮像されたユーザの目の画像に基づいて、ユーザの目の動作を上記身体的動作として検出する。例えば、検出部12は、左右方向に視線を移動させる動作(以下「視線移動(左右)」という。)、上下方向に視線を移動させる動作(以下「視線移動(上下)」という。)、右回り(ユーザから見て時計回り)に視線を回転移動させる動作(以下「視線移動(右回り)」という。)、左回り(ユーザから見て反時計回り)に視線を回転移動させる動作(以下「視線移動(左回り)」という。)、まばたき、ウインク等の目の動きのパターンに関する情報を予め記憶している。そして、検出部12は、撮像部11により撮像された画像(動画)に含まれるユーザの目の動きと予め記憶している目の動きのパターンとを比較することにより、当該パターンと一致又は類似するユーザの目の動きを検出する。すなわち、本実施形態では、ユーザが上述した視線移動、まばたき、ウインク等の予め定められた種類の動作を行った場合、検出部12によってこれらの動作が検出される。The detection unit 12 detects the user's physical movements. In this embodiment, the detection unit 12 detects the user's eye movements as the above-mentioned physical movements based on the image of the user's eyes captured by the imaging unit 11. For example, the detection unit 12 pre-stores information on patterns of eye movements such as a movement of moving the gaze in the left-right direction (hereinafter referred to as "gaze movement (left-right)"), a movement of moving the gaze in the up-down direction (hereinafter referred to as "gaze movement (up-down)"), a movement of rotating the gaze in a right-handed direction (clockwise as seen by the user) (hereinafter referred to as "gaze movement (right-handed)"), a movement of rotating the gaze in a left-handed direction (counterclockwise as seen by the user) (hereinafter referred to as "gaze movement (left-handed)"), blinking, winking, etc. Then, the detection unit 12 detects the user's eye movements that match or are similar to the patterns by comparing the user's eye movements included in the image (video) captured by the imaging unit 11 with the pre-stored eye movement patterns. That is, in this embodiment, when the user performs a predetermined type of motion, such as the above-mentioned eye movement, blinking, winking, etc., the detection unit 12 detects these motions.

抽出部13は、検出部12により検出されたユーザの目の動作に基づいて、ユーザの癖に対応する特定動作を抽出する。より具体的には、抽出部13は、ユーザ認証が行われる場面以外の期間において検出部12により検出されたユーザの目の動作に基づいて、上記特定動作を抽出する。言い換えれば、抽出部13は、検出部12による検出結果に基づいて、ユーザの目の動作の癖を学習する。ここで、「ユーザの癖に対応する特定動作」とは、例えば、ユーザによって習慣的に行われる動作であり、ユーザの日常生活において行われる可能性のある動作である。言い換えれば、上記特定動作は、ユーザが眼鏡型装置10を装着している期間中、上述したユーザ認証(所定の処理)を行うためにユーザが意図的に行う場面以外においても行われる可能性のある動作である。すなわち、上記特定動作は、ユーザが日常生活において無意識的に行う可能性のある動作を含む。例えば、視線移動(左回り)及び視線移動(右回り)は、一般的には、日常的に行われる動作ではないが、眼球の疲れを取るためのリフレッシュのために上記視線移動を習慣的に行うユーザも存在し得る。また、まばたきの頻度(単位時間当たりの回数)が平均よりも少ないユーザも存在すれば、まばたきの頻度が平均よりも多いユーザも存在する。また、視線移動(左右)又は視線移動(上下)の動作幅についても、ユーザ間において個人差が存在すると考えられる。抽出部13は、このような、ユーザ固有の癖に対応する動作を、上記特定動作として抽出する。The extraction unit 13 extracts a specific action corresponding to the user's habit based on the user's eye action detected by the detection unit 12. More specifically, the extraction unit 13 extracts the specific action based on the user's eye action detected by the detection unit 12 during a period other than when user authentication is performed. In other words, the extraction unit 13 learns the user's eye action habit based on the detection result by the detection unit 12. Here, the "specific action corresponding to the user's habit" is, for example, an action habitually performed by the user and an action that may be performed in the user's daily life. In other words, the specific action is an action that may be performed even in a situation other than the situation where the user intentionally performs the above-mentioned user authentication (predetermined processing) during the period when the user is wearing the eyeglass-type device 10. In other words, the specific action includes an action that the user may perform unconsciously in daily life. For example, eye movement (left-handed) and eye movement (right-handed) are not generally performed daily, but there may be users who habitually perform the above-mentioned eye movement to refresh themselves to relieve eye fatigue. In addition, while there are users whose blink frequency (number of times per unit time) is lower than the average, there are also users whose blink frequency is higher than the average. It is also considered that there are individual differences between users in the movement range of the line of sight (left and right) or the line of sight (up and down). The extraction unit 13 extracts such movements corresponding to the habits unique to the user as the specific movements.

例えば、抽出部13は、ユーザの上記特定動作を示す情報として、図3に示されるテーブル情報を作成する。この例では、テーブル情報は、予め定められた種類の動作毎に、単位時間(例えば1分)当たりの回数と動作幅とを記憶している。For example, the extraction unit 13 creates table information shown in Fig. 3 as information indicating the specific actions of the user. In this example, the table information stores the number of times per unit time (e.g., one minute) and the width of the action for each predetermined type of action.

図3の(a)は、学習前の状態のテーブル情報を示している。図3の(a)に示されるように、学習前の状態では、テーブル情報の各項目は空(情報無し)である。 Figure 3(a) shows the table information before learning. As shown in Figure 3(a), before learning, each item of the table information is empty (no information).

図3の(b)は、所定期間(例えば1時間等)における検出部12の検出結果に基づいて抽出部13により作成(更新)されたテーブル情報の例を示している。この例では、テーブル情報は、単位時間当たりに、視線移動(左右)が3回行われ、視線移動(上下)が2回行われ、視線移動(左回り)が2回行われ、まばたきが20回行われ、視線移動(右回り)及びウインクは行われなかったことを示している。一例として、視線移動(左右)又は視線移動(上下)の回数は、正面を向いた状態から上下左右のいずれかの方向に一定以上の角度の視線移動が行われた後に再度正面を向いた状態に戻るまでの動作を1回としてカウントしたものである。また、テーブル情報は、視線移動(左右)の動作幅が「30度~150度」であり、視線移動(上下)の動作幅が「60度~120度」であったことを示している。ここで、視線移動(左右)の動作幅は、ユーザから見た左方向を0度とし、ユーザから見た右方向を180度とした場合におけるユーザの視線移動の範囲を示している。また、視線移動(上下)の動作幅は、ユーザから見た下方向を0度とし、ユーザから見た上方向を180度とした場合におけるユーザの視線移動の範囲を示している。 (b) of FIG. 3 shows an example of table information created (updated) by the extraction unit 13 based on the detection results of the detection unit 12 in a predetermined period (e.g., one hour, etc.). In this example, the table information indicates that, per unit time, there were three gaze movements (left and right), two gaze movements (up and down), two gaze movements (leftward), 20 blinks, and no gaze movements (rightward) or winks. As an example, the number of gaze movements (left and right) or gaze movements (up and down) is counted as one movement from a state facing forward to a state facing forward again after a gaze movement of a certain angle or more in either the up, down, left, or right direction. The table information also indicates that the movement range of the gaze movement (left and right) was "30 degrees to 150 degrees," and the movement range of the gaze movement (up and down) was "60 degrees to 120 degrees." Here, the range of gaze movement (left and right) indicates the range of gaze movement of the user when the left direction as seen by the user is 0 degrees and the right direction as seen by the user is 180 degrees. The range of gaze movement (up and down) indicates the range of gaze movement of the user when the downward direction as seen by the user is 0 degrees and the upward direction as seen by the user is 180 degrees.

上述したテーブル情報は、ユーザの特定動作を示す情報として用いることができる。例えば、「視線移動については、単位時間当たりに所定回数(例えば2回)以上実行された動作を特定動作として用いる」といったルールが予め定められてもよい。この場合、図3の(b)に示されるテーブル情報から、視線移動(左右)、視線移動(上下)、及び視線移動(左回り)をユーザの特定動作として把握することができる。また、図3の(b)に示されるテーブル情報から、「単位時間当たりに20回の速度でまばたきを行う動作」についても、ユーザの特定動作として把握することができる。The above-mentioned table information can be used as information indicating a specific action of a user. For example, a rule may be predefined such that "for gaze movement, an action that is performed a predetermined number of times (e.g., twice) or more per unit time is used as a specific action." In this case, gaze movement (left/right), gaze movement (up/down), and gaze movement (counterclockwise) can be identified as a specific action of a user from the table information shown in FIG. 3(b). In addition, from the table information shown in FIG. 3(b), "the action of blinking at a rate of 20 times per unit time" can also be identified as a specific action of a user.

ただし、抽出部13により抽出される特定動作は、上記例(すなわち、テーブル情報から把握される動作)に限られない。例えば、特定動作は、複数の動作からなる一連の動作であってもよい。例えば、「視線移動(左回り)を行った後に続けて視線移動(右回り)を行う動作」が、検出部12によって、予め定められた期間(例えば1時間)中に予め定められた閾値回数(例えば2回)以上検出された場合、抽出部13は、このような一連の動作を特定動作として抽出してもよい。However, the specific actions extracted by the extraction unit 13 are not limited to the above example (i.e., actions identified from table information). For example, the specific action may be a series of actions consisting of multiple actions. For example, if the detection unit 12 detects "an action of moving one's gaze (left) followed by another movement of one's gaze (right)" a predetermined threshold number of times (e.g., twice) or more during a predetermined period (e.g., one hour), the extraction unit 13 may extract such a series of actions as a specific action.

抽出部13により抽出された特定動作を示す情報(本実施形態では、図3に示したテーブル情報)は、記憶部14に記憶される。テーブル情報は、上述した撮像部11、検出部12、及び抽出部13による処理が継続的に行われることにより、適宜更新され得る。Information indicating the specific action extracted by the extraction unit 13 (in this embodiment, the table information shown in FIG. 3) is stored in the storage unit 14. The table information can be appropriately updated by continuously performing the processes by the imaging unit 11, the detection unit 12, and the extraction unit 13 described above.

決定部15は、ユーザ認証のトリガとして利用される動作パターンを決定(生成)する。決定部15は、抽出部13により抽出された特定動作と一致しない動作パターンを、ユーザ認証のトリガとして決定する。The determination unit 15 determines (generates) a behavior pattern to be used as a trigger for user authentication. The determination unit 15 determines a behavior pattern that does not match the specific behavior extracted by the extraction unit 13 as a trigger for user authentication.

決定部15は、抽出部13によって特定動作が抽出される前(すなわち、ユーザの癖を学習する前の状態であって、図3の(a)に示されるようにテーブル情報が空の場合)には、一定以上の複雑さを有する第1動作パターンを、ユーザ認証のトリガとして決定してもよい。The determination unit 15 may determine a first movement pattern having a certain level of complexity as a trigger for user authentication before a specific movement is extracted by the extraction unit 13 (i.e., before the user's habits are learned and the table information is empty as shown in (a) of Figure 3).

決定部15は、例えば、「3秒間に5回以上のまばたき」、「視線移動(左回り)」、及び「視線移動(上下)(例えば上から下への視線移動)」をこの順に続けて行うパターンを、第1動作パターンとして決定してもよい。このように、ユーザの癖の学習前においては、決定部15は、複数(ここでは一例として3つ)の動作を組み合わせた比較的複雑な第1動作パターンをユーザ認証のトリガとして決定する。上記処理によれば、ユーザが第1動作パターンに対応する動作を偶然行う可能性を低減できる。その結果、誤操作(すなわち、ユーザの意図しないユーザ認証が実行されること)の発生を好適に防止できる。The determination unit 15 may determine, for example, as the first operation pattern, a pattern in which "blinking five or more times in three seconds," "eye movement (counterclockwise)," and "eye movement (up and down) (e.g., eye movement from top to bottom)" are performed in this order. In this way, before learning the user's habits, the determination unit 15 determines a relatively complex first operation pattern that combines multiple operations (here, three operations as an example) as a trigger for user authentication. According to the above process, it is possible to reduce the possibility that the user will accidentally perform an operation corresponding to the first operation pattern. As a result, it is possible to preferably prevent the occurrence of erroneous operations (i.e., user authentication being performed without the user's intention).

第1動作パターンの生成方法は特定の方法に限定されないが、第1動作パターンは、例えば、予め登録された複数の動作のうちから、一以上の動作をランダムに抽出することによって生成され得る。ここで、各動作には、オペレータ等によって予め入力(登録)された複雑さを示すスコア(複雑度)が関連付けられてもよい。この場合、決定部15は、第1動作パターンを構成する各動作のスコアを足し合わせることにより、第1動作パターンの複雑度を算出することができる。決定部15は、このような複雑度が予め設定された閾値d1以上となるように、第1動作パターンを決定すればよい。 The method of generating the first movement pattern is not limited to a specific method, but the first movement pattern may be generated, for example, by randomly extracting one or more movements from a plurality of movements registered in advance. Here, each movement may be associated with a score (complexity) indicating the complexity input (registered) in advance by an operator or the like. In this case, the determination unit 15 can calculate the complexity of the first movement pattern by adding up the scores of each movement constituting the first movement pattern. The determination unit 15 may determine the first movement pattern such that such complexity is equal to or greater than a preset threshold value d1.

一方、決定部15は、抽出部13によって特定動作が抽出された後(すなわち、ユーザの癖が学習された後の状態であって、図3の(b)に示されるようなテーブル情報が得られた後)に、特定動作と一致せず、且つ、第1動作パターンよりも単純化された第2動作パターンを、ユーザ認証のトリガとして決定してもよい。On the other hand, after a specific movement is extracted by the extraction unit 13 (i.e., after the user's habits have been learned and table information such as that shown in (b) of Figure 3 has been obtained), the determination unit 15 may determine a second movement pattern that does not match the specific movement and is simpler than the first movement pattern as a trigger for user authentication.

例えば、図3の(b)の例では、視線移動(右回り)及びウインクは、特定動作に該当しない。すなわち、ユーザが意図して実行しようとする場面(すなわち、ユーザ認証を行う場面)以外において、視線移動(右回り)及びウインクがユーザによって偶然実行される可能性は低い。この場合、決定部15は、例えば、視線移動(右回り)又はウインクを第2動作パターンとして決定することができる。このように、ユーザの癖の学習後においては、特定動作に一致せず、且つ第1動作パターンよりも単純化された第2動作パターンをユーザ認証のトリガとして決定することにより、偶然の一致による誤操作の発生を防止できると共に、ユーザの利便性を向上させることができる。For example, in the example of (b) in FIG. 3, eye movement (clockwise) and winking do not correspond to specific actions. In other words, eye movement (clockwise) and winking are unlikely to be accidentally performed by the user except in a situation where the user intends to perform them (i.e., a situation where user authentication is performed). In this case, the determination unit 15 can determine, for example, eye movement (clockwise) or winking as the second action pattern. In this way, after learning the user's habits, by determining the second action pattern, which does not match the specific action and is simpler than the first action pattern, as the trigger for user authentication, it is possible to prevent erroneous operations due to accidental matching and to improve user convenience.

第2動作パターンの生成方法は特定の方法に限定されないが、第2動作パターンは、例えば、予め登録された複数の動作のうちから、特定動作以外の一以上の動作をランダムに抽出することによって生成され得る。例えば、決定部15は、第2動作パターンの複雑度が予め設定された閾値d2(d2<d1)以下となるように、第2動作パターンを決定すればよい。例えば、決定部15は、特定動作以外の単一の動作を第2動作パターンとして決定してもよい。例えば、決定部15は、特定動作に一致しない動作のうち、上述した複雑度が最小の動作を第2動作パターンとして決定してもよい。 The method of generating the second movement pattern is not limited to a specific method, but the second movement pattern may be generated, for example, by randomly extracting one or more movements other than the specific movement from among a plurality of movements registered in advance. For example, the determination unit 15 may determine the second movement pattern such that the complexity of the second movement pattern is equal to or less than a preset threshold d2 (d2<d1). For example, the determination unit 15 may determine a single movement other than the specific movement as the second movement pattern. For example, the determination unit 15 may determine, among movements that do not match the specific movement, a movement with the minimum complexity described above as the second movement pattern.

制御部16は、検出部12により上記動作パターン(すなわち、決定部15によってユーザ認証のトリガとして決定された動作パターン)に一致するユーザの目の動作が検出された場合に、ユーザ認証を実行する。例えば、レンズ22の内面にショッピングサイト等のコンテンツ購入画面が表示され、コンテンツ購入のためのユーザ認証を求めるポップアップウィンドウが表示された場面について考える。例えば、ポップアップウィンドウには、「コンテンツを購入する場合には、“視線移動(右回り)”を行うことでユーザ認証をして下さい。」といったメッセージが表示される。この場合、制御部16は、ポップアップウィンドウが表示され、ユーザ認証操作を受付可能な状態となった後に、上記動作パターン(ここでは一例として、視線移動(右回り))が検出部12によって検出されたことに応じて、ユーザ認証を実行する。ユーザ認証としては、例えば虹彩認証が用いられる。ユーザ認証の完了後に、コンテンツの購入を確定させる。上記構成によれば、決定部15により決定された動作パターンに対応する動作がユーザによって行われたことを契機としてユーザ認証が実行されるため、ユーザの意図しないタイミングでユーザ認証が実行されることを適切に防止することができる。The control unit 16 executes user authentication when the detection unit 12 detects an eye movement of the user that matches the above-mentioned operation pattern (i.e., the operation pattern determined by the determination unit 15 as a trigger for user authentication). For example, consider a scene in which a content purchase screen of a shopping site or the like is displayed on the inner surface of the lens 22, and a pop-up window is displayed requesting user authentication for content purchase. For example, the pop-up window displays a message such as "When purchasing content, please perform user authentication by moving your gaze (clockwise)." In this case, the control unit 16 executes user authentication in response to the detection unit 12 detecting the above-mentioned operation pattern (here, as an example, moving your gaze (clockwise)) after the pop-up window is displayed and the state in which user authentication operation can be accepted is reached. For example, iris authentication is used as the user authentication. After the user authentication is completed, the purchase of the content is confirmed. According to the above configuration, user authentication is executed when the user performs an operation corresponding to the operation pattern determined by the determination unit 15, so that it is possible to appropriately prevent user authentication from being executed at a timing unintended by the user.

図4を参照して、決定部15による動作パターン生成処理の手順の一例について説明する。決定部15は、抽出部13によって特定動作が抽出される前には、一定以上の複雑さを有する第1動作パターンをユーザ認証のトリガとして決定(生成)する(ステップS11)。続いて、所定期間において、撮像部11、検出部12、及び抽出部13により、ユーザの癖が学習される。すなわち、撮像部11及び検出部12により、ユーザの目の動作が検出され(ステップS12)、抽出部13により、ユーザの癖に対応する特定動作が抽出される(ステップS13)。このようにしてユーザの特定動作が抽出された後に、決定部15は、特定動作と一致せず、且つ、第1動作パターンよりも単純化された第2動作パターンを、ユーザ認証のトリガとして決定(生成)する(ステップS14)。 With reference to FIG. 4, an example of the procedure of the motion pattern generation process by the determination unit 15 will be described. Before the extraction unit 13 extracts a specific motion, the determination unit 15 determines (generates) a first motion pattern having a certain level of complexity as a trigger for user authentication (step S11). Then, during a predetermined period, the imaging unit 11, the detection unit 12, and the extraction unit 13 learn the user's habits. That is, the imaging unit 11 and the detection unit 12 detect the user's eye movements (step S12), and the extraction unit 13 extracts a specific motion corresponding to the user's habit (step S13). After the user's specific motion is extracted in this way, the determination unit 15 determines (generates) a second motion pattern that does not match the specific motion and is simpler than the first motion pattern as a trigger for user authentication (step S14).

なお、第2動作パターンが決定された後に、更にユーザの癖の学習が進められ、それまで発見されていなかった特定動作が新たに抽出される場合もあり得る。そして、新たに抽出された特定動作が、ユーザ認証のトリガとして用いる動作パターン(決定部15により決定された動作パターン)と一致する場合もあり得る。このような場合、決定部15は、最新の情報(例えば、最新のテーブル情報(図3の(a)参照))に基づいて、ユーザ認証のトリガとして用いる動作パターンを、適宜変更してもよい。 After the second movement pattern is determined, further learning of the user's habits may occur, and a specific movement that had not been discovered until then may be newly extracted. The newly extracted specific movement may then match the movement pattern used as a trigger for user authentication (the movement pattern determined by the determination unit 15). In such a case, the determination unit 15 may appropriately change the movement pattern used as a trigger for user authentication based on the latest information (e.g., the latest table information (see (a) of Figure 3)).

図5を参照して、ユーザ認証の処理手順の一例について説明する。まず、ユーザ認証操作を受付可能な状態において、撮像部11及び検出部12により、ユーザの目の動作が検出される(ステップS21)。続いて、制御部16は、検出されたユーザの目の動作がユーザ認証のトリガとして決定部15により決定された動作パターンと一致するか否かを判定する(ステップS22)。一致すると判定された場合(ステップS22:YES)、制御部16は、ユーザ認証を実行する(ステップS23)。一方、一致すると判定されなかった場合(ステップS22:NO)、制御部16は、ユーザ認証を実行しない。An example of the user authentication process will be described with reference to FIG. 5. First, in a state in which a user authentication operation can be accepted, the image capturing unit 11 and the detection unit 12 detect the user's eye movement (step S21). Next, the control unit 16 determines whether the detected user's eye movement matches the movement pattern determined by the determination unit 15 as a trigger for user authentication (step S22). If it is determined that there is a match (step S22: YES), the control unit 16 executes user authentication (step S23). On the other hand, if it is not determined that there is a match (step S22: NO), the control unit 16 does not execute user authentication.

以上説明した眼鏡型装置10においては、決定部15により決定された動作パターンと一致するユーザの目の動作(身体的動作)が検出されたことをトリガとして、ユーザ認証(所定の処理)が実行される。すなわち、身体的動作(ジェスチャ)を用いた直感的なユーザインタフェースが、ユーザに提供される。さらに、上記動作パターンは、ユーザの癖に対応する特定動作と一致しないように定められるため、ユーザの意図しない場面でユーザ認証が実行されてしまうことを的確に防止することができる。また、このようにして動作パターンが決定されるため、誤操作の発生を防止するために動作パターンを複雑化させる必要がなくなる。従って、眼鏡型装置10によれば、ユーザの身体的動作に応じた処理を実行するシステムにおいて、誤操作の発生を好適に防止できる。In the above-described eyeglass-type device 10, the detection of the user's eye movement (physical movement) that matches the movement pattern determined by the determination unit 15 triggers user authentication (predetermined processing). That is, an intuitive user interface using physical movements (gestures) is provided to the user. Furthermore, since the above movement pattern is determined so as not to match a specific movement corresponding to the user's habit, it is possible to accurately prevent user authentication from being performed in a situation unintended by the user. In addition, since the movement pattern is determined in this manner, it is not necessary to complicate the movement pattern in order to prevent the occurrence of erroneous operations. Therefore, according to the eyeglass-type device 10, the occurrence of erroneous operations can be suitably prevented in a system that executes processing according to the user's physical movement.

また、眼鏡型装置10は、ユーザの頭部に装着される装置であり、検出部12は、撮像部11により撮像されたユーザの目の画像に基づいて、ユーザの目の動作を身体的動作として検出する。上記構成によれば、ユーザが眼鏡型装置10を装着しており、ユーザが自身の手元を視認することが困難であり、スマートフォン等のデバイスに対する文字入力(パスワード入力)等を行うことが困難な状況において、ハンズフリーのユーザインタフェースをユーザに提供することができる。 Furthermore, the eyeglass-type device 10 is a device worn on the user's head, and the detection unit 12 detects the user's eye movements as physical movements based on the image of the user's eyes captured by the imaging unit 11. According to the above configuration, a hands-free user interface can be provided to the user in a situation where the user is wearing the eyeglass-type device 10 and has difficulty viewing his or her hands, making it difficult to input characters (enter a password) into a device such as a smartphone.

また、決定部15は、抽出部13によって特定動作が抽出される前には、一定以上の複雑さを有する第1動作パターンを、ユーザ認証のトリガとして決定し、抽出部13によって特定動作が抽出された後(すなわち、図3の(b)に示されるようなテーブル情報が得られた後)には、特定動作と一致せず、且つ、第1動作パターンよりも単純化された第2動作パターンを、ユーザ認証のトリガとして決定する。上記構成によれば、ユーザの癖の学習前には比較的複雑な第1動作パターンを用いることにより、偶然の一致(すなわち、ユーザの癖に対応する動作がユーザ認証のトリガとして採用される動作パターンと一致すること)を回避し、ユーザの意図しない場面においてユーザ認証が実行されること(誤操作)の発生を的確に防止できる。さらに、ユーザの癖の学習後には、特定動作を回避した上で単純化された第2動作パターンを用いることにより、誤操作の発生を防止しつつユーザの利便性を向上させることができる。 In addition, before the specific motion is extracted by the extraction unit 13, the determination unit 15 determines a first motion pattern having a certain level of complexity as a trigger for user authentication, and after the specific motion is extracted by the extraction unit 13 (i.e., after the table information as shown in FIG. 3B is obtained), the determination unit 15 determines a second motion pattern that does not match the specific motion and is simpler than the first motion pattern as a trigger for user authentication. According to the above configuration, by using a relatively complex first motion pattern before learning the user's habits, it is possible to avoid coincidence (i.e., the motion corresponding to the user's habit matches the motion pattern adopted as the trigger for user authentication), and to accurately prevent user authentication from being performed in a situation unintended by the user (misoperation). Furthermore, after learning the user's habits, it is possible to improve the user's convenience while preventing the occurrence of erroneous operations by using a simplified second motion pattern after avoiding the specific motion.

また、決定部15は、複雑さに関するスコア(複雑度)がそれぞれ関連付けられた予め定められた複数の動作のうち特定動作と一致しない一以上の動作のうちから、複雑度が最小の動作を第2動作パターンとして決定してもよい。この場合、誤操作の発生を防止しつつ、可能な限り単純化された動作をユーザ認証のトリガとすることにより、ユーザの利便性を効果的に向上させることができる。 The determination unit 15 may also determine, as the second motion pattern, the motion with the smallest degree of complexity from among one or more motions that do not match the specific motion among a plurality of predetermined motions each associated with a complexity score (complexity). In this case, it is possible to effectively improve user convenience by using the most simplified motion as possible as a trigger for user authentication while preventing the occurrence of erroneous operations.

[第2実施形態]
図6~図8を参照して、第2実施形態の眼鏡型装置10Aについて説明する。図6に示されるように、眼鏡型装置10Aは、測定部17を更に備えると共に、決定部15の代わりに決定部15Aを有する点において、眼鏡型装置10と主に相違している。眼鏡型装置10Aの他の構成は、眼鏡型装置10と同様である。
[Second embodiment]
A glasses-type device 10A according to a second embodiment will be described with reference to Figures 6 to 8. As shown in Figure 6, the glasses-type device 10A is different from the glasses-type device 10 mainly in that it further includes a measurement unit 17 and has a determination unit 15A instead of the determination unit 15. The other configurations of the glasses-type device 10A are the same as those of the glasses-type device 10.

測定部17は、ユーザに対して所定の種類の身体的動作の実行を指示し、当該指示に応じてユーザにより実行された身体的動作に基づいて、上記所定の種類に関するユーザの実行可否を測定する。本実施形態では、身体的動作は、ユーザの目の動作である。また、所定の種類の身体的動作は、予め設定登録された種類の動作である。本実施形態では一例として、所定の種類の身体動作は、視線移動(左右)、視線移動(上下)、視線移動(左回り)、視線移動(右回り)、まばたき、及びウインク(右目のウインク及び左目のウインク)である。The measurement unit 17 instructs the user to perform a predetermined type of physical movement, and measures whether the user can perform the predetermined type of physical movement based on the physical movement performed by the user in response to the instruction. In this embodiment, the physical movement is the user's eye movement. The predetermined type of physical movement is a type of movement that has been set and registered in advance. In this embodiment, as an example, the predetermined type of physical movement is gaze movement (left and right), gaze movement (up and down), gaze movement (leftward), gaze movement (rightward), blinking, and winking (right eye wink and left eye wink).

測定部17は、例えば、上記所定の種類の身体動作毎に、ユーザに当該身体動作を実行するように指示する。ユーザへの指示方法は、特定の方法に限定されない。例えば、ユーザへの指示は、眼鏡型装置10Aが備える図示しないスピーカ等から指示内容を示す音声を出力することによって行われてもよいし、レンズ22の内面に指示内容を示す情報(例えばテキスト等)を表示出力することによって行われてもよい。測定部17は、上記指示に応じてユーザによって実行された動作の正確性を判定する。例えば、測定部17は、上述した撮像部11及び検出部12により検出されたユーザの目の動作に基づいて、上記正確性の判定を行ってもよい。そして、測定部17は、上記所定の種類の身体動作毎に、ユーザの実行可否(すなわち、ユーザが正確に動作を行うことができたか否か)を示す情報をテーブル情報に追加する。The measurement unit 17 instructs the user to perform the body movement of each of the predetermined types, for example. The method of instructing the user is not limited to a specific method. For example, the instruction to the user may be performed by outputting a sound indicating the instruction from a speaker (not shown) provided in the eyeglass-type device 10A, or by displaying and outputting information indicating the instruction (e.g., text, etc.) on the inner surface of the lens 22. The measurement unit 17 determines the accuracy of the movement performed by the user in response to the instruction. For example, the measurement unit 17 may determine the accuracy based on the eye movement of the user detected by the imaging unit 11 and the detection unit 12 described above. Then, the measurement unit 17 adds information indicating whether the user can perform the body movement of each of the predetermined types (i.e., whether the user can perform the movement accurately) to the table information.

図7は、上述した測定部17の処理によって生成されたテーブル情報の例を示す図である。図7に示されるテーブル情報は、図3の(b)に示したテーブル情報に対して、測定部17による測定結果(「可否」の列)を追加することによって生成されたテーブル情報である。この例では、測定部17の測定により、ユーザが視線移動(右回り)及び右目のウインク以外の動作については正確に行うことができた一方で、視線移動(右回り)及び右目のウインクについては正確に行うことができなかったことを示す情報が、テーブル情報に追加されている。また、ユーザが20度~160度の範囲まで視線移動(左右)を行うことが可能であることを示す情報が、テーブル情報に追加されている。このように、測定部17は、動作毎の実行可否だけでなく、動作毎の動きの限界値(眼球の動きの最大動作幅等)を測定してもよい。 Figure 7 is a diagram showing an example of table information generated by the processing of the measurement unit 17 described above. The table information shown in Figure 7 is table information generated by adding the measurement results by the measurement unit 17 (the "Yes or No" column) to the table information shown in Figure 3 (b). In this example, information indicating that the user was able to accurately perform actions other than gaze movement (clockwise) and winking with the right eye, but was unable to accurately perform gaze movement (clockwise) and winking with the right eye, is added to the table information by the measurement of the measurement unit 17. In addition, information indicating that the user is able to perform gaze movement (left and right) within a range of 20 degrees to 160 degrees is added to the table information. In this way, the measurement unit 17 may measure not only the execution possibility of each action, but also the limit value of the movement of each action (such as the maximum movement width of the eyeball movement).

決定部15Aは、抽出部13により抽出された特定動作と一致せず、且つ、測定部17により判明したユーザが実行できない動作を含まない動作パターンをユーザ認証のトリガとして決定する。このように、決定部15Aは、測定部17の測定結果に更に基づいて動作パターンを決定する点において、決定部15と相違している。The determination unit 15A determines, as a trigger for user authentication, a movement pattern that does not match the specific movement extracted by the extraction unit 13 and does not include a movement that the user is unable to perform as determined by the measurement unit 17. In this way, the determination unit 15A differs from the determination unit 15 in that the determination unit 15A determines a movement pattern further based on the measurement results of the measurement unit 17.

図8を参照して、眼鏡型装置10Aにおける動作パターン生成処理の処理手順の一例について説明する。図8のフローチャートは、決定部15に加えて実行される処理手順のみを示している。すなわち、抽出部13による特定動作の抽出が既に完了していることを前提としている。まず、測定部17が、所定の種類の目の動作(本実施形態では一例として、図7に示した6種類の動作)の各々について、ユーザの実行可否を測定する(ステップS101)。当該処理により、図7に示したような「可否」列が追加されたテーブル情報が得られる。続いて、決定部15Aが、抽出部13により抽出された特定動作と一致せず、且つ、測定部17により判明したユーザが実行できない動作(すなわち、図7に示されるテーブル情報において「可否」列の値が「×」である動作)を含まない動作パターンをユーザ認証のトリガとして決定する(ステップS102)。図7の例では、視線移動(右回り)及びウインクは、いずれも特定動作に該当しない。しかし、ユーザは、視線移動(右回り)及び右目のウインクを正確に実行することができない。そこで、決定部15Aは、例えば、視線移動(右回り)及び右目のウインクを含まない動作パターン(例えば、左目のウインク)を、ユーザ認証のトリガとして決定する。 With reference to FIG. 8, an example of the processing procedure of the motion pattern generation processing in the eyeglass-type device 10A will be described. The flowchart in FIG. 8 shows only the processing procedure executed in addition to the determination unit 15. That is, it is assumed that the extraction unit 13 has already completed the extraction of the specific motion. First, the measurement unit 17 measures whether or not the user can perform each of the predetermined types of eye motions (six types of motions shown in FIG. 7 as an example in this embodiment) (step S101). This processing results in table information with the "possible" column added as shown in FIG. 7. Next, the determination unit 15A determines, as a trigger for user authentication, a motion pattern that does not match the specific motion extracted by the extraction unit 13 and does not include a motion that the user cannot perform as determined by the measurement unit 17 (i.e., a motion with a value of "x" in the "possible" column in the table information shown in FIG. 7). In the example of FIG. 7, neither the gaze movement (clockwise) nor the wink corresponds to the specific motion. However, the user cannot accurately perform the gaze movement (clockwise) or the wink of the right eye. Therefore, the determination unit 15A determines, for example, a motion pattern that does not include eye movement (clockwise) and winking with the right eye (for example, winking with the left eye) as a trigger for user authentication.

眼鏡型装置10Aによれば、眼鏡型装置10と同様に、特定動作と一致しない動作パターンをユーザ認証のトリガとすることにより、ユーザの意図しない場面においてユーザ認証が実行されること(誤操作)の発生を的確に防止できる。加えて、ユーザが正確に実行できない動作を上記動作パターンから除外することにより、ユーザの利便性を向上させることができる。すなわち、ユーザの苦手な動作を上記動作パターンの候補から除外することにより、ユーザの負担を軽減することができる。 According to the eyeglass-type device 10A, as with the eyeglass-type device 10, by using an action pattern that does not match a specific action as a trigger for user authentication, it is possible to accurately prevent user authentication from being performed in a situation that the user does not intend (erroneous operation). In addition, by excluding actions that the user cannot perform accurately from the above action patterns, it is possible to improve user convenience. In other words, by excluding actions that the user is not good at from the candidates for the above action patterns, it is possible to reduce the burden on the user.

[第3実施形態]
図9~図11を参照して、第3実施形態の眼鏡型装置10Bについて説明する。図9に示されるように、眼鏡型装置10Bは、刺激部18を更に備えると共に、抽出部13の代わりに抽出部13Bを有する点において、眼鏡型装置10と主に相違している。眼鏡型装置10Bの他の構成は、眼鏡型装置10と同様である。
[Third embodiment]
A glasses-type device 10B according to a third embodiment will be described with reference to Figures 9 to 11. As shown in Figure 9, the glasses-type device 10B is mainly different from the glasses-type device 10 in that it further includes a stimulation unit 18 and has an extraction unit 13B instead of the extraction unit 13. The other configurations of the glasses-type device 10B are similar to those of the glasses-type device 10.

刺激部18は、ユーザに対して刺激を与える。ユーザに対する刺激は、種々の形態を取り得る。例えば、刺激の例としては、図示しないスピーカからの突然の音声出力、レンズ22の内面への突然の画面表示、眼鏡型装置10Bの鳴動(バイブレーション)等が挙げられる。刺激部18は、上述したような刺激をユーザに与えることにより、ユーザを瞬間的に緊張状態にする。The stimulation unit 18 provides a stimulation to the user. The stimulation to the user can take various forms. For example, examples of the stimulation include a sudden sound output from a speaker (not shown), a sudden screen display on the inner surface of the lens 22, a sound (vibration) of the eyeglass-type device 10B, etc. The stimulation unit 18 provides the stimulation to the user as described above, thereby momentarily putting the user into a state of tension.

抽出部13Bは、上述した抽出部13と同様の処理を実行すると共に、ユーザに上記刺激が与えられた際に検出部12により検出されたユーザの目の動作に基づいて、特定動作を抽出する。上記処理によれば、抽出部13Bは、上記刺激が与えられたことにより緊張状態とされたユーザが不意に(無意識的に)実行する動作を、特定動作として抽出することができる。例えば、ユーザに上記刺激が与えられた際に、ユーザが視線移動(上下)を行ったとする。この場合、抽出部13Bは、視線移動(上下)を、緊張状態におけるユーザの癖に対応する特定動作として抽出する。The extraction unit 13B executes the same process as the extraction unit 13 described above, and extracts a specific movement based on the eye movement of the user detected by the detection unit 12 when the user is given the above-mentioned stimulus. According to the above process, the extraction unit 13B can extract, as a specific movement, a movement that the user involuntarily (unconsciously) performs when the user is in a tense state due to the above-mentioned stimulus being given. For example, assume that the user moves their eyes (up and down) when the above-mentioned stimulus is given to the user. In this case, the extraction unit 13B extracts the eye movement (up and down) as a specific movement that corresponds to the habit of the user when in a tense state.

図10は、上述した刺激部18及び抽出部13Bにより抽出された緊張状態における特定動作を示す情報が追加されたテーブル情報の例を示す図である。図10に示されるテーブル情報は、図3の(b)に示したテーブル情報に対して、「緊張状態での発生」の列を追加することによって生成されたテーブル情報である。「緊張状態での発生」列において、「あり」は、緊張状態で発生したことを示しており、「なし」は、緊張状態で発生しなかったことを示している。この例では、上記テーブル情報は、刺激部18による刺激がユーザに付与された際に、視線移動(上下)が行われたことを示している。すなわち、上記テーブル情報は、視線移動(上下)が緊張状態における特定動作として抽出されたことを示している。なお、この例では、通常時(刺激が付与されない場合)においても視線移動(上下)が特定動作として抽出されているが、仮に通常時において視線移動(上下)が特定動作として抽出されなかった場合には、刺激部18及び抽出部13Bの上記処理によって、視線移動(上下)を特定動作として抽出することが可能となる。 Figure 10 is a diagram showing an example of table information to which information indicating a specific action in a tense state extracted by the stimulation unit 18 and the extraction unit 13B described above is added. The table information shown in Figure 10 is table information generated by adding a column of "occurrence in a tense state" to the table information shown in (b) of Figure 3. In the "occurrence in a tense state" column, "Yes" indicates that it occurred in a tense state, and "No" indicates that it did not occur in a tense state. In this example, the table information indicates that a gaze movement (up and down) was performed when the stimulation unit 18 was applied to the user. In other words, the table information indicates that the gaze movement (up and down) was extracted as a specific action in a tense state. In this example, the gaze movement (up and down) is extracted as a specific action even in normal times (when no stimulation is applied), but if the gaze movement (up and down) is not extracted as a specific action in normal times, it is possible to extract the gaze movement (up and down) as a specific action by the above processing of the stimulation unit 18 and the extraction unit 13B.

図11を参照して、眼鏡型装置10Bにおける動作パターン生成処理の処理手順の一例について説明する。図11のフローチャートは、刺激部18及び抽出部13Bによって実行される特有の処理部分の手順のみを示している。すなわち、抽出部13Bによる通常時(刺激を与えない場合)の特定動作の抽出が既に完了していることを前提としている。まず、刺激部18が、上述したような刺激をユーザに与える(ステップS201)。続いて、撮像部11及び検出部12により、ユーザの目の動作が検出され(ステップS202)、抽出部13Bにより、刺激付与時(緊張状態)におけるユーザの癖に対応する特定動作が抽出される(ステップS203)。続いて、決定部15が、通常時(刺激を与えない場合)に抽出された特定動作及び刺激付与時に抽出された特定動作と一致しない動作パターンをユーザ認証のトリガとして決定する(ステップS204)。なお、ステップS204において、通常時における特定動作の抽出が完了していない場合には、決定部15は、刺激付与時に抽出された特定動作と一致しない動作パターンをユーザ認証のトリガとして決定すればよい。 With reference to FIG. 11, an example of the processing procedure of the motion pattern generation process in the eyeglass-type device 10B will be described. The flowchart in FIG. 11 shows only the procedure of the specific processing part executed by the stimulation unit 18 and the extraction unit 13B. That is, it is assumed that the extraction unit 13B has already completed the extraction of the specific motion in normal times (when no stimulation is applied). First, the stimulation unit 18 applies the above-mentioned stimulation to the user (step S201). Next, the imaging unit 11 and the detection unit 12 detect the user's eye motion (step S202), and the extraction unit 13B extracts the specific motion corresponding to the user's habit when the stimulation is applied (in a tense state) (step S203). Next, the determination unit 15 determines the motion pattern that does not match the specific motion extracted in normal times (when no stimulation is applied) and the specific motion extracted when the stimulation is applied as a trigger for user authentication (step S204). In addition, in step S204, if extraction of specific movements during normal times has not been completed, the determination unit 15 may determine a movement pattern that does not match the specific movement extracted when a stimulus is applied as a trigger for user authentication.

例えば、ユーザ認証が要求される場面においては、ユーザ認証を要求するポップアップウィンドウ又は音声等がユーザに対して出力される場合がある。この際、ユーザが驚き瞬間的に緊張状態となる可能性がある。また、その結果、ユーザが特定の動作(上記例では、視線移動(上下))を反射的に実行する可能性がある。眼鏡型装置10Bによれば、緊張状態となったユーザが反射的に実行する動作を特定動作として抽出することができるため、ユーザの意図しない場面においてユーザ認証が実行されること(誤操作)の発生をより確実に防止できる。For example, in a situation where user authentication is required, a pop-up window or a voice requesting user authentication may be output to the user. At this time, the user may be surprised and momentarily tense. As a result, the user may reflexively perform a specific action (in the above example, moving one's eyes (up and down)). With the eyeglass-type device 10B, the action that a user reflexively performs when in a tense state can be extracted as a specific action, so that it is possible to more reliably prevent user authentication from being performed in a situation where the user does not intend it (misoperation).

[変形例]
上記実施形態では、「所定の処理」の一例として、ログイン時、課金時等に行われるユーザ認証を挙げたが、所定の処理はユーザ認証以外の処理であってもよい。例えば、所定の処理は、眼鏡型装置10の設定画面を起動する処理等、常時実行可能な処理であってもよい。また、所定の処理は、複数の項目から1つ又は複数の項目を選択する処理であってもよい。例えば、A及びBの2つの項目がある場合に、「Aを選択する処理」、「Bを選択する処理」、及び「A及びBを選択する処理」のそれぞれが所定の処理として用意されてもよく、処理毎に実行のトリガとなる動作パターンが決定されてもよい。例えば、視線移動(右回り)、視線移動(左回り)、及び左目のウインクが、いずれもユーザの特定動作に該当しない場合において、決定部15は、視線移動(右回り)を「Aを選択する処理」のトリガとして決定し、視線移動(左回り)を「Bを選択する処理」のトリガとし、左目のウインクを「A及びBを選択する処理」のトリガとして決定してもよい。このように、上記実施形態の仕組みは、ユーザの意思を確認する必要がある任意の処理に対して適用可能である。
[Modification]
In the above embodiment, as an example of the "predetermined process", user authentication performed at the time of login, charging, etc. is given, but the predetermined process may be a process other than user authentication. For example, the predetermined process may be a process that can be executed at any time, such as a process of starting up a setting screen of the eyeglass-type device 10. The predetermined process may also be a process of selecting one or more items from a plurality of items. For example, when there are two items A and B, each of "process of selecting A", "process of selecting B", and "process of selecting A and B" may be prepared as a predetermined process, and an operation pattern that serves as a trigger for execution may be determined for each process. For example, when gaze movement (right-handed), gaze movement (left-handed), and wink of the left eye do not correspond to a specific user action, the determination unit 15 may determine gaze movement (right-handed) as a trigger for "process of selecting A", gaze movement (left-handed) as a trigger for "process of selecting B", and wink of the left eye as a trigger for "process of selecting A and B". In this way, the mechanism of the above embodiment is applicable to any process that requires confirmation of the user's intention.

また、上記実施形態では、「情報処理装置」の一例として、眼鏡型装置を挙げたが、情報処理装置の形態はこれに限定されない。例えば、情報処理装置は、ユーザの腕に装着されるスマートウォッチ等でもよい。また、「身体的動作」は、ユーザの目の動作以外の身体部分の動作であってもよい。例えば、情報処理装置がスマートウォッチである場合、身体的動作は、ユーザの腕の動作であってもよい。この場合、検出部は、例えば、当該スマートウォッチ内に設けられたセンサ(例えば、加速度センサ、ジャイロセンサ等)によって、ユーザの腕の動作を検出してもよい。In addition, in the above embodiment, a glasses-type device is given as an example of an "information processing device", but the form of the information processing device is not limited to this. For example, the information processing device may be a smartwatch or the like worn on the user's arm. Furthermore, the "physical movement" may be a movement of a body part other than the movement of the user's eyes. For example, if the information processing device is a smartwatch, the physical movement may be a movement of the user's arm. In this case, the detection unit may detect the movement of the user's arm, for example, by a sensor (for example, an acceleration sensor, a gyro sensor, etc.) provided in the smartwatch.

なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 Note that the block diagrams used to explain the above embodiments show functional blocks. These functional blocks (components) are realized by any combination of at least one of hardware and software. Furthermore, the method of realizing each functional block is not particularly limited. That is, each functional block may be realized using one device that is physically or logically coupled, or may be realized using two or more devices that are physically or logically separated and directly or indirectly connected (e.g., using wires, wirelessly, etc.) and these multiple devices. The functional blocks may be realized by combining the one device or the multiple devices with software.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。 Functions include, but are not limited to, judging, determining, assessing, calculating, processing, deriving, investigating, searching, verifying, receiving, sending, outputting, accessing, resolving, selecting, choosing, establishing, comparing, anticipating, expecting, regarding, broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping and assigning.

例えば、本開示の一実施の形態における眼鏡型装置10は、本開示の情報処理方法を行うコンピュータとして機能してもよい。図12は、本開示の一実施の形態に係る眼鏡型装置10のハードウェア構成の一例を示す図である。なお、上述した眼鏡型装置10A,10Bのハードウェア構成も、眼鏡型装置10のハードウェア構成と同様である。眼鏡型装置10の各々は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。For example, the eyeglass-type device 10 in one embodiment of the present disclosure may function as a computer that performs the information processing method of the present disclosure. FIG. 12 is a diagram showing an example of the hardware configuration of the eyeglass-type device 10 according to one embodiment of the present disclosure. Note that the hardware configuration of the above-mentioned eyeglass-type devices 10A and 10B is similar to the hardware configuration of the eyeglass-type device 10. Each of the eyeglass-type devices 10 may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, etc.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。眼鏡型装置10のハードウェア構成は、図12に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。In the following description, the term "apparatus" may be interpreted as a circuit, device, unit, etc. The hardware configuration of the eyeglass-type device 10 may be configured to include one or more of the devices shown in FIG. 12, or may be configured to exclude some of the devices.

眼鏡型装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。Each function of the eyeglass-type device 10 is realized by loading a specific software (program) onto hardware such as the processor 1001 and memory 1002, causing the processor 1001 to perform calculations, control communication via the communication device 1004, and control at least one of the reading and writing of data in the memory 1002 and storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。The processor 1001, for example, operates an operating system to control the entire computer. The processor 1001 may be configured as a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic unit, a register, etc.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、決定部15等は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 The processor 1001 also reads out programs (program codes), software modules, data, etc. from at least one of the storage 1003 and the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes the computer to execute at least a part of the operations described in the above-mentioned embodiment is used. For example, the determination unit 15, etc. may be realized by a control program stored in the memory 1002 and operating in the processor 1001, and may be similarly realized for other functional blocks. Although the above-mentioned various processes have been described as being executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. The processor 1001 may be implemented by one or more chips. The program may be transmitted from a network via a telecommunications line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る情報処理方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。The memory 1002 is a computer-readable recording medium, and may be composed of at least one of, for example, a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), a random access memory (RAM), etc. The memory 1002 may be called a register, a cache, a main memory (primary storage device), etc. The memory 1002 can store executable programs (program codes), software modules, etc. for implementing an information processing method according to one embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。Storage 1003 is a computer-readable recording medium, and may be, for example, at least one of an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (e.g., a compact disk, a digital versatile disk, a Blu-ray (registered trademark) disk), a smart card, a flash memory (e.g., a card, a stick, a key drive), a floppy (registered trademark) disk, a magnetic strip, etc. Storage 1003 may also be referred to as an auxiliary storage device. The above-mentioned storage medium may be, for example, a database, a server, or other suitable medium including at least one of memory 1002 and storage 1003.

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。The communication device 1004 is hardware (transmitting/receiving device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, etc.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカ、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。The input device 1005 is an input device (e.g., a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that accepts input from the outside. The output device 1006 is an output device (e.g., a display, a speaker, an LED lamp, etc.) that performs output to the outside. Note that the input device 1005 and the output device 1006 may be integrated into one configuration (e.g., a touch panel).

また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。In addition, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be configured using a single bus, or may be configured using different buses between each device.

また、眼鏡型装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。The eyeglass-type device 10 may also be configured to include hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA), and some or all of the functional blocks may be realized by the hardware. For example, the processor 1001 may be implemented using at least one of these pieces of hardware.

以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiment has been described in detail above, it is clear to those skilled in the art that the present embodiment is not limited to the embodiment described in this specification. The present embodiment can be implemented in modified and altered forms without departing from the spirit and scope of the present invention as defined by the claims. Therefore, the description in this specification is intended as an illustrative example and does not have any restrictive meaning with respect to the present embodiment.

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。The processing steps, sequences, flow charts, etc. of each aspect/embodiment described in this disclosure may be reordered unless inconsistent. For example, the methods described in this disclosure present elements of various steps using an example order and are not limited to the particular order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input and output information, etc. may be stored in a specific location (e.g., memory) or may be managed using a management table. The input and output information, etc. may be overwritten, updated, or added to. The output information, etc. may be deleted. The input information, etc. may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。The determination may be based on a value represented by a single bit (0 or 1), a Boolean (true or false) value, or a numerical comparison (e.g., with a predetermined value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。Each aspect/embodiment described in this disclosure may be used alone, in combination, or switched depending on the implementation. In addition, notification of specific information (e.g., notification that "X is the case") is not limited to being done explicitly, but may be done implicitly (e.g., not notifying the specific information).

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software shall be construed broadly to mean instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, threads of execution, procedures, functions, etc., whether referred to as software, firmware, middleware, microcode, hardware description language, or otherwise.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。Additionally, software, instructions, information, etc. may be transmitted and received via a transmission medium. For example, if the software is transmitted from a website, server, or other remote source using wired technologies (such as coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL)), and/or wireless technologies (such as infrared, microwave), then these wired and/or wireless technologies are included within the definition of a transmission medium.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。The information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may be represented by voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, optical fields or photons, or any combination thereof.

また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。 In addition, the information, parameters, etc. described in this disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using other corresponding information.

上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々な情報要素は、あらゆる好適な名称によって識別できるので、これらの様々な情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。The names used for the parameters described above are not intended to be limiting in any way. Moreover, the formulas etc. using these parameters may differ from those expressly disclosed in this disclosure. The various information elements may be identified by any suitable names, and the various names assigned to these various information elements are not intended to be limiting in any way.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。As used in this disclosure, the phrase "based on" does not mean "based only on," unless expressly stated otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。Any reference to elements using designations such as "first," "second," etc., used in this disclosure does not generally limit the quantity or order of those elements. These designations may be used in this disclosure as a convenient way to distinguish between two or more elements. Thus, a reference to a first and a second element does not imply that only two elements may be employed or that the first element must precede the second element in some way.

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。When used in this disclosure, the terms "include," "including," and variations thereof are intended to be inclusive, as is the term "comprising." Additionally, the term "or," as used in this disclosure, is not intended to be an exclusive or.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。In this disclosure, where articles have been added by translation, such as a, an, and the in English, this disclosure may include that the nouns following these articles are in the plural form.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。In this disclosure, the term "A and B are different" may mean "A and B are different from each other." In addition, the term may mean "A and B are each different from C." Terms such as "separate" and "combined" may also be interpreted in the same way as "different."

10,10A,10B…眼鏡型装置(情報処理装置)、11…撮像部、12…検出部、13,13B…抽出部、15,15A…決定部、16…制御部、17…測定部、18…刺激部。 10, 10A, 10B... glasses-type device (information processing device), 11... imaging unit, 12... detection unit, 13, 13B... extraction unit, 15, 15A... determination unit, 16... control unit, 17... measurement unit, 18... stimulation unit.

Claims (5)

ユーザの身体的動作を検出する検出部と、
前記検出部により検出された前記身体的動作に基づいて、前記ユーザの癖に対応する特定動作を抽出する抽出部と、
前記抽出部により抽出された前記特定動作と一致しない動作パターンを、所定の処理のトリガとして決定する決定部と、
前記検出部により前記動作パターンに一致する前記身体的動作が検出された場合に、前記所定の処理を実行する制御部と、
を備え
前記決定部は、
前記抽出部によって前記特定動作が抽出される前には、一定以上の複雑さを有する第1動作パターンを、前記所定の処理のトリガとして決定し、
前記抽出部によって前記特定動作が抽出された後には、前記特定動作と一致せず、且つ、前記第1動作パターンよりも単純化された第2動作パターンを、前記所定の処理のトリガとして決定する、情報処理装置。
A detection unit that detects a physical movement of a user;
an extraction unit that extracts a specific motion corresponding to a habit of the user based on the physical motion detected by the detection unit;
a determination unit that determines a motion pattern that does not match the specific motion extracted by the extraction unit as a trigger for a predetermined process;
a control unit that executes the predetermined process when the physical movement that matches the movement pattern is detected by the detection unit;
Equipped with
The determination unit is
Before the specific movement is extracted by the extraction unit, a first movement pattern having a certain level of complexity or more is determined as a trigger for the predetermined process;
After the specific action is extracted by the extraction unit, the information processing device determines a second action pattern that does not match the specific action and is simpler than the first action pattern as a trigger for the specified processing .
前記情報処理装置は、前記ユーザの頭部に装着される装置であり、
前記ユーザの目を撮像する撮像部を更に備え、
前記検出部は、前記撮像部により撮像された前記ユーザの目の画像に基づいて、前記ユーザの目の動作を前記身体的動作として検出する、請求項1に記載の情報処理装置。
the information processing device is a device worn on the user's head,
An imaging unit that images the user's eyes,
The information processing device according to claim 1 , wherein the detection unit detects an eye movement of the user as the physical movement based on an image of the user's eyes captured by the imaging unit.
前記決定部は、複雑さに関するスコアがそれぞれ関連付けられた予め定められた複数の動作のうち前記特定動作と一致しない一以上の動作のうちから、前記スコアが最小の動作を前記第2動作パターンとして決定する、請求項1又は2に記載の情報処理装置。 3. The information processing device according to claim 1, wherein the determination unit determines, as the second movement pattern, the movement with the smallest score from among one or more movements that do not match the specific movement among a plurality of predetermined movements each associated with a complexity score. 前記ユーザに対して所定の種類の身体的動作の実行を指示し、当該指示に応じて前記ユーザにより実行された身体的動作に基づいて、前記所定の種類に関する前記ユーザの実行可否を測定する測定部を更に備え、
前記決定部は、前記抽出部により抽出された前記特定動作と一致せず、且つ、前記測定部により判明した前記ユーザが実行できない動作を含まない動作パターンを、前記所定の処理のトリガとして決定する、請求項1~のいずれか一項に記載の情報処理装置。
a measurement unit that instructs the user to perform a predetermined type of physical movement and measures whether the user can perform the predetermined type of physical movement based on the physical movement performed by the user in response to the instruction;
The information processing device according to any one of claims 1 to 3, wherein the determination unit determines, as a trigger for the predetermined processing, a movement pattern that does not match the specific movement extracted by the extraction unit and does not include a movement that the user is unable to perform that is determined by the measurement unit.
前記ユーザに対して刺激を与える刺激部を更に備え、
前記抽出部は、前記ユーザに前記刺激が与えられた際に前記検出部により検出された前記身体的動作に基づいて、前記特定動作を抽出する、請求項1~のいずれか一項に記載の情報処理装置。
A stimulation unit that stimulates the user is further provided.
The information processing device according to claim 1 , wherein the extraction unit extracts the specific movement based on the physical movement detected by the detection unit when the stimulus is given to the user.
JP2023505241A 2021-03-11 2022-02-14 Information processing device Active JP7562831B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021039137 2021-03-11
JP2021039137 2021-03-11
PCT/JP2022/005674 WO2022190774A1 (en) 2021-03-11 2022-02-14 Information processing device

Publications (2)

Publication Number Publication Date
JPWO2022190774A1 JPWO2022190774A1 (en) 2022-09-15
JP7562831B2 true JP7562831B2 (en) 2024-10-07

Family

ID=83227606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023505241A Active JP7562831B2 (en) 2021-03-11 2022-02-14 Information processing device

Country Status (2)

Country Link
JP (1) JP7562831B2 (en)
WO (1) WO2022190774A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031367A1 (en) 2018-08-10 2020-02-13 ソニー株式会社 Information processing device, information processing method, and program
WO2020166140A1 (en) 2019-02-15 2020-08-20 株式会社日立製作所 Wearable user interface control system, information processing system using same, and control program
WO2020179128A1 (en) 2019-03-06 2020-09-10 株式会社日立製作所 Learning assist system, learning assist device, and program
WO2020241189A1 (en) 2019-05-30 2020-12-03 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031367A1 (en) 2018-08-10 2020-02-13 ソニー株式会社 Information processing device, information processing method, and program
WO2020166140A1 (en) 2019-02-15 2020-08-20 株式会社日立製作所 Wearable user interface control system, information processing system using same, and control program
WO2020179128A1 (en) 2019-03-06 2020-09-10 株式会社日立製作所 Learning assist system, learning assist device, and program
WO2020241189A1 (en) 2019-05-30 2020-12-03 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JPWO2022190774A1 (en) 2022-09-15
WO2022190774A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
US11360605B2 (en) Method and device for providing a touch-based user interface
CN106845335B (en) Gesture recognition method and device for virtual reality equipment and virtual reality equipment
CN105320276B (en) Wearable device and method of operating wearable device
CN111966223B (en) Method, system, device and storage medium for human-machine identification of non-perception MR glasses
JP6547741B2 (en) INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING METHOD
US11842017B2 (en) Secure keyboard with handprint identification
CN105122201A (en) Multi-touch interactions on eyewear
US11282481B2 (en) Information processing device
WO2019130991A1 (en) Information processing device
CN112270283A (en) Abnormal driving behavior determination method, device, equipment, vehicle and medium
US20220276698A1 (en) IMU for Touch Detection
KR102620967B1 (en) Electronic apparatus and method of correcting posture thereof
CN108459783A (en) Control method, device and the equipment of dummy keyboard, readable medium
JP7415297B2 (en) Human-machine authentication methods, devices, equipment, and storage media
CN110140166A (en) System for providing hands-free input to a computer
JP7562831B2 (en) Information processing device
WO2020039703A1 (en) Input device
JP2022074167A (en) Input control system
KR102325684B1 (en) Eye tracking input apparatus thar is attached to head and input method using this
CN110291495B (en) Information processing system, information processing method, and program
WO2022091760A1 (en) Operation device
WO2023037812A1 (en) Online dialogue support system
KR102539045B1 (en) Dashboard control apparatus and method for wearable augmented reality device
WO2021220867A1 (en) Information processing device
WO2023166893A1 (en) Information processing system, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240925

R150 Certificate of patent or registration of utility model

Ref document number: 7562831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150