JP7562831B2 - Information processing device - Google Patents
Information processing device Download PDFInfo
- Publication number
- JP7562831B2 JP7562831B2 JP2023505241A JP2023505241A JP7562831B2 JP 7562831 B2 JP7562831 B2 JP 7562831B2 JP 2023505241 A JP2023505241 A JP 2023505241A JP 2023505241 A JP2023505241 A JP 2023505241A JP 7562831 B2 JP7562831 B2 JP 7562831B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- movement
- unit
- specific
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 21
- 230000033001 locomotion Effects 0.000 claims description 215
- 230000009471 action Effects 0.000 claims description 59
- 238000000034 method Methods 0.000 claims description 56
- 238000000605 extraction Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 38
- 238000001514 detection method Methods 0.000 claims description 34
- 230000004424 eye movement Effects 0.000 claims description 29
- 210000001508 eye Anatomy 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 23
- 238000005259 measurement Methods 0.000 claims description 20
- 230000000638 stimulation Effects 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 6
- 210000003128 head Anatomy 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000004397 blinking Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明の一側面は、情報処理装置に関する。 One aspect of the present invention relates to an information processing device.
従来、ユーザによって行われたジェスチャ(身体的動作)を認識し、認識されたジェスチャに応じた処理を実行する仕組みが知られている。例えば特許文献1には、カメラにより撮像された画像から検出されたジェスチャに予め登録された判定ジェスチャが含まれているか否かを判定し、判定ジェスチャが認識されている期間中に予め登録された操作ジェスチャが認識された場合に限って当該操作ジェスチャを有効なものと扱う仕組みが開示されている。Conventionally, there is known a mechanism for recognizing a gesture (physical action) made by a user and executing a process according to the recognized gesture. For example, Patent Document 1 discloses a mechanism for determining whether or not a gesture detected from an image captured by a camera includes a preregistered judgment gesture, and treating the operation gesture as valid only if a preregistered operation gesture is recognized during a period in which a judgment gesture is recognized.
上述した特許文献1に記載された仕組みでは、ユーザの意図しない動作が有効なジェスチャとして誤認識されることを防ぐために、多段階のジェスチャ認証が用いられている。しかし、上記仕組みでは、ユーザの意図しない動作が認証用のジェスチャ(特許文献1に記載された仕組みにおいては、判定ジェスチャ又は操作ジェスチャ)と偶然一致する場合もあり得る。また、このような偶然の一致を回避するためには、認証に用いるジェスチャをなるべく複雑化させることが必要となるが、その場合、ユーザの利便性が損なわれるという問題がある。In the mechanism described in the above-mentioned Patent Document 1, a multi-stage gesture authentication is used to prevent an unintended action of the user from being erroneously recognized as a valid gesture. However, in the above mechanism, an unintended action of the user may coincidentally match an authentication gesture (a judgment gesture or an operation gesture in the mechanism described in Patent Document 1). In addition, in order to avoid such coincidences, it is necessary to make the gesture used for authentication as complicated as possible, but in that case, there is a problem that the convenience for the user is impaired.
そこで、本発明の一側面は、ユーザの身体的動作に応じた処理を実行するシステムにおいて、誤操作の発生を好適に防止できる情報処理装置を提供することを目的とする。Therefore, one aspect of the present invention aims to provide an information processing device that can effectively prevent the occurrence of erroneous operations in a system that performs processing in response to a user's physical movements.
本発明の一側面に係る情報処理装置は、ユーザの身体的動作を検出する検出部と、検出部により検出された身体的動作に基づいて、ユーザの癖に対応する特定動作を抽出する抽出部と、抽出部により抽出された特定動作と一致しない動作パターンを、所定の処理のトリガとして決定する決定部と、検出部により動作パターンに一致する身体的動作が検出された場合に、所定の処理を実行する制御部と、を備える。An information processing device according to one aspect of the present invention includes a detection unit that detects a user's physical movements, an extraction unit that extracts specific movements corresponding to the user's habits based on the physical movements detected by the detection unit, a determination unit that determines a movement pattern that does not match the specific movement extracted by the extraction unit as a trigger for a specified process, and a control unit that executes the specified process when a physical movement that matches the movement pattern is detected by the detection unit.
本発明の一側面に係る情報処理装置においては、決定部により決定された動作パターンと一致するユーザの身体的動作が検出されたことをトリガとして、所定の処理が実行される。すなわち、身体的動作を用いた直感的なユーザインタフェースが、ユーザに提供される。さらに、動作パターンは、ユーザの癖に対応する特定動作と一致しないように定められるため、ユーザの意図しない場面で上記所定の処理が実行されてしまうことを的確に防止することができる。また、このようにして動作パターンが決定されるため、誤操作の発生を防止するために動作パターンを複雑化させる必要がなくなる。従って、上記情報処理装置によれば、ユーザの身体的動作に応じた処理を実行するシステムにおいて、誤操作の発生を好適に防止できる。In an information processing device according to one aspect of the present invention, a predetermined process is executed when a physical movement of the user that matches the movement pattern determined by the determination unit is detected as a trigger. That is, an intuitive user interface using physical movements is provided to the user. Furthermore, since the movement pattern is determined so as not to match a specific movement that corresponds to the user's habits, it is possible to accurately prevent the predetermined process from being executed in a situation that the user does not intend. Furthermore, since the movement pattern is determined in this manner, it is not necessary to complicate the movement pattern in order to prevent the occurrence of erroneous operations. Therefore, according to the information processing device, it is possible to preferably prevent the occurrence of erroneous operations in a system that executes processes according to the physical movements of the user.
本発明の一側面によれば、ユーザの身体的動作に応じた処理を実行するシステムにおいて、誤操作の発生を好適に防止できる情報処理装置を提供することができる。 According to one aspect of the present invention, an information processing device can be provided that can effectively prevent the occurrence of erroneous operations in a system that performs processing in response to a user's physical movements.
以下、添付図面を参照して、本発明の一実施形態について詳細に説明する。なお、図面の説明において同一又は相当要素には同一符号を付し、重複する説明を省略する。Hereinafter, one embodiment of the present invention will be described in detail with reference to the attached drawings. In the description of the drawings, the same or corresponding elements are given the same reference numerals, and duplicate descriptions will be omitted.
[第1実施形態]
図1は、第1実施形態に係る眼鏡型装置10(情報処理装置)の全体構成を示す図である。眼鏡型装置10は、ユーザの頭部に装着される眼鏡型のデバイスである。眼鏡型装置10は、いわゆるウェアラブルデバイスの一種であり、一般に、スマートグラスと呼称されることもある。眼鏡型装置10の例としては、VRゴーグル、ARグラス、MRグラス等が挙げられる。一例として、眼鏡型装置10は、後述する機能的構成要素(図2参照)を有するコンピュータが内蔵された眼鏡型の本体部21と、眼鏡型装置10を装着するユーザ(以下、単に「ユーザ」という。)の両目の位置に対応するように本体部21に装着された一対のレンズ22と、を有する。レンズ22は、通常の眼鏡のレンズと同様に、透光性の部材によって構成されている。加えて、レンズ22の内面(ユーザ側の面)には、画像を表示することが可能とされている。上記画像には、静止画像及び動画像が含まれる。ユーザは、レンズ22を介して外界を視認することができると共に、レンズ22の内面に表示された画像を視認することが可能となっている。
[First embodiment]
FIG. 1 is a diagram showing the overall configuration of a glasses-type device 10 (information processing device) according to the first embodiment. The glasses-
レンズ22の内面には、例えば、Webブラウザ等の所定のアプリケーションの画面、眼鏡型装置10の各種設定を行うためのメニュー画面等が表示され得る。ここで、例えば、特定のWebサイト、Webサービス等へのログイン時、コンテンツを販売するショッピングサイトでのコンテンツ購入時等において、上記処理(この例では、ログイン処理、購入処理等)を確定させるためのユーザ認証(所定の処理)が行われる場合がある。本実施形態では、眼鏡型装置10は、予め登録されたトリガとしての動作パターンと一致するユーザの目の動作が検出された場合に、上記ユーザ認証を行うように構成されている。すなわち、ユーザは、予め定められた特定の目の動作を行うことにより、ハンズフリーでユーザ認証を行うことが可能とされている。The inner surface of the
図2は、眼鏡型装置10の機能構成を示すブロック図である。図2に示されるように、眼鏡型装置10は、撮像部11と、検出部12と、抽出部13と、記憶部14と、決定部15と、制御部16と、を有する。2 is a block diagram showing the functional configuration of the eyeglass-
撮像部11は、ユーザの目を撮像する。撮像部11は、例えば、本体部21のブリッジ(一対のレンズ22の間の部分)の内側(ユーザ側)に設けられたカメラによって構成され得る。例えば、撮像部11は、ユーザが眼鏡型装置10を装着している間において、ユーザの目の画像(例えば、ユーザの両目を被写体として含む動画)を撮影する。ただし、撮像部11の構成は上記構成に限定されない。例えば、撮像部11は、ユーザの目毎に配置された2つのカメラ(例えば、各レンズ22の内側に配置された2つのカメラ)によって構成されてもよい。The
検出部12は、ユーザの身体的動作を検出する。本実施形態では、検出部12は、撮像部11により撮像されたユーザの目の画像に基づいて、ユーザの目の動作を上記身体的動作として検出する。例えば、検出部12は、左右方向に視線を移動させる動作(以下「視線移動(左右)」という。)、上下方向に視線を移動させる動作(以下「視線移動(上下)」という。)、右回り(ユーザから見て時計回り)に視線を回転移動させる動作(以下「視線移動(右回り)」という。)、左回り(ユーザから見て反時計回り)に視線を回転移動させる動作(以下「視線移動(左回り)」という。)、まばたき、ウインク等の目の動きのパターンに関する情報を予め記憶している。そして、検出部12は、撮像部11により撮像された画像(動画)に含まれるユーザの目の動きと予め記憶している目の動きのパターンとを比較することにより、当該パターンと一致又は類似するユーザの目の動きを検出する。すなわち、本実施形態では、ユーザが上述した視線移動、まばたき、ウインク等の予め定められた種類の動作を行った場合、検出部12によってこれらの動作が検出される。The
抽出部13は、検出部12により検出されたユーザの目の動作に基づいて、ユーザの癖に対応する特定動作を抽出する。より具体的には、抽出部13は、ユーザ認証が行われる場面以外の期間において検出部12により検出されたユーザの目の動作に基づいて、上記特定動作を抽出する。言い換えれば、抽出部13は、検出部12による検出結果に基づいて、ユーザの目の動作の癖を学習する。ここで、「ユーザの癖に対応する特定動作」とは、例えば、ユーザによって習慣的に行われる動作であり、ユーザの日常生活において行われる可能性のある動作である。言い換えれば、上記特定動作は、ユーザが眼鏡型装置10を装着している期間中、上述したユーザ認証(所定の処理)を行うためにユーザが意図的に行う場面以外においても行われる可能性のある動作である。すなわち、上記特定動作は、ユーザが日常生活において無意識的に行う可能性のある動作を含む。例えば、視線移動(左回り)及び視線移動(右回り)は、一般的には、日常的に行われる動作ではないが、眼球の疲れを取るためのリフレッシュのために上記視線移動を習慣的に行うユーザも存在し得る。また、まばたきの頻度(単位時間当たりの回数)が平均よりも少ないユーザも存在すれば、まばたきの頻度が平均よりも多いユーザも存在する。また、視線移動(左右)又は視線移動(上下)の動作幅についても、ユーザ間において個人差が存在すると考えられる。抽出部13は、このような、ユーザ固有の癖に対応する動作を、上記特定動作として抽出する。The
例えば、抽出部13は、ユーザの上記特定動作を示す情報として、図3に示されるテーブル情報を作成する。この例では、テーブル情報は、予め定められた種類の動作毎に、単位時間(例えば1分)当たりの回数と動作幅とを記憶している。For example, the
図3の(a)は、学習前の状態のテーブル情報を示している。図3の(a)に示されるように、学習前の状態では、テーブル情報の各項目は空(情報無し)である。 Figure 3(a) shows the table information before learning. As shown in Figure 3(a), before learning, each item of the table information is empty (no information).
図3の(b)は、所定期間(例えば1時間等)における検出部12の検出結果に基づいて抽出部13により作成(更新)されたテーブル情報の例を示している。この例では、テーブル情報は、単位時間当たりに、視線移動(左右)が3回行われ、視線移動(上下)が2回行われ、視線移動(左回り)が2回行われ、まばたきが20回行われ、視線移動(右回り)及びウインクは行われなかったことを示している。一例として、視線移動(左右)又は視線移動(上下)の回数は、正面を向いた状態から上下左右のいずれかの方向に一定以上の角度の視線移動が行われた後に再度正面を向いた状態に戻るまでの動作を1回としてカウントしたものである。また、テーブル情報は、視線移動(左右)の動作幅が「30度~150度」であり、視線移動(上下)の動作幅が「60度~120度」であったことを示している。ここで、視線移動(左右)の動作幅は、ユーザから見た左方向を0度とし、ユーザから見た右方向を180度とした場合におけるユーザの視線移動の範囲を示している。また、視線移動(上下)の動作幅は、ユーザから見た下方向を0度とし、ユーザから見た上方向を180度とした場合におけるユーザの視線移動の範囲を示している。
(b) of FIG. 3 shows an example of table information created (updated) by the
上述したテーブル情報は、ユーザの特定動作を示す情報として用いることができる。例えば、「視線移動については、単位時間当たりに所定回数(例えば2回)以上実行された動作を特定動作として用いる」といったルールが予め定められてもよい。この場合、図3の(b)に示されるテーブル情報から、視線移動(左右)、視線移動(上下)、及び視線移動(左回り)をユーザの特定動作として把握することができる。また、図3の(b)に示されるテーブル情報から、「単位時間当たりに20回の速度でまばたきを行う動作」についても、ユーザの特定動作として把握することができる。The above-mentioned table information can be used as information indicating a specific action of a user. For example, a rule may be predefined such that "for gaze movement, an action that is performed a predetermined number of times (e.g., twice) or more per unit time is used as a specific action." In this case, gaze movement (left/right), gaze movement (up/down), and gaze movement (counterclockwise) can be identified as a specific action of a user from the table information shown in FIG. 3(b). In addition, from the table information shown in FIG. 3(b), "the action of blinking at a rate of 20 times per unit time" can also be identified as a specific action of a user.
ただし、抽出部13により抽出される特定動作は、上記例(すなわち、テーブル情報から把握される動作)に限られない。例えば、特定動作は、複数の動作からなる一連の動作であってもよい。例えば、「視線移動(左回り)を行った後に続けて視線移動(右回り)を行う動作」が、検出部12によって、予め定められた期間(例えば1時間)中に予め定められた閾値回数(例えば2回)以上検出された場合、抽出部13は、このような一連の動作を特定動作として抽出してもよい。However, the specific actions extracted by the
抽出部13により抽出された特定動作を示す情報(本実施形態では、図3に示したテーブル情報)は、記憶部14に記憶される。テーブル情報は、上述した撮像部11、検出部12、及び抽出部13による処理が継続的に行われることにより、適宜更新され得る。Information indicating the specific action extracted by the extraction unit 13 (in this embodiment, the table information shown in FIG. 3) is stored in the
決定部15は、ユーザ認証のトリガとして利用される動作パターンを決定(生成)する。決定部15は、抽出部13により抽出された特定動作と一致しない動作パターンを、ユーザ認証のトリガとして決定する。The
決定部15は、抽出部13によって特定動作が抽出される前(すなわち、ユーザの癖を学習する前の状態であって、図3の(a)に示されるようにテーブル情報が空の場合)には、一定以上の複雑さを有する第1動作パターンを、ユーザ認証のトリガとして決定してもよい。The
決定部15は、例えば、「3秒間に5回以上のまばたき」、「視線移動(左回り)」、及び「視線移動(上下)(例えば上から下への視線移動)」をこの順に続けて行うパターンを、第1動作パターンとして決定してもよい。このように、ユーザの癖の学習前においては、決定部15は、複数(ここでは一例として3つ)の動作を組み合わせた比較的複雑な第1動作パターンをユーザ認証のトリガとして決定する。上記処理によれば、ユーザが第1動作パターンに対応する動作を偶然行う可能性を低減できる。その結果、誤操作(すなわち、ユーザの意図しないユーザ認証が実行されること)の発生を好適に防止できる。The
第1動作パターンの生成方法は特定の方法に限定されないが、第1動作パターンは、例えば、予め登録された複数の動作のうちから、一以上の動作をランダムに抽出することによって生成され得る。ここで、各動作には、オペレータ等によって予め入力(登録)された複雑さを示すスコア(複雑度)が関連付けられてもよい。この場合、決定部15は、第1動作パターンを構成する各動作のスコアを足し合わせることにより、第1動作パターンの複雑度を算出することができる。決定部15は、このような複雑度が予め設定された閾値d1以上となるように、第1動作パターンを決定すればよい。
The method of generating the first movement pattern is not limited to a specific method, but the first movement pattern may be generated, for example, by randomly extracting one or more movements from a plurality of movements registered in advance. Here, each movement may be associated with a score (complexity) indicating the complexity input (registered) in advance by an operator or the like. In this case, the
一方、決定部15は、抽出部13によって特定動作が抽出された後(すなわち、ユーザの癖が学習された後の状態であって、図3の(b)に示されるようなテーブル情報が得られた後)に、特定動作と一致せず、且つ、第1動作パターンよりも単純化された第2動作パターンを、ユーザ認証のトリガとして決定してもよい。On the other hand, after a specific movement is extracted by the extraction unit 13 (i.e., after the user's habits have been learned and table information such as that shown in (b) of Figure 3 has been obtained), the
例えば、図3の(b)の例では、視線移動(右回り)及びウインクは、特定動作に該当しない。すなわち、ユーザが意図して実行しようとする場面(すなわち、ユーザ認証を行う場面)以外において、視線移動(右回り)及びウインクがユーザによって偶然実行される可能性は低い。この場合、決定部15は、例えば、視線移動(右回り)又はウインクを第2動作パターンとして決定することができる。このように、ユーザの癖の学習後においては、特定動作に一致せず、且つ第1動作パターンよりも単純化された第2動作パターンをユーザ認証のトリガとして決定することにより、偶然の一致による誤操作の発生を防止できると共に、ユーザの利便性を向上させることができる。For example, in the example of (b) in FIG. 3, eye movement (clockwise) and winking do not correspond to specific actions. In other words, eye movement (clockwise) and winking are unlikely to be accidentally performed by the user except in a situation where the user intends to perform them (i.e., a situation where user authentication is performed). In this case, the
第2動作パターンの生成方法は特定の方法に限定されないが、第2動作パターンは、例えば、予め登録された複数の動作のうちから、特定動作以外の一以上の動作をランダムに抽出することによって生成され得る。例えば、決定部15は、第2動作パターンの複雑度が予め設定された閾値d2(d2<d1)以下となるように、第2動作パターンを決定すればよい。例えば、決定部15は、特定動作以外の単一の動作を第2動作パターンとして決定してもよい。例えば、決定部15は、特定動作に一致しない動作のうち、上述した複雑度が最小の動作を第2動作パターンとして決定してもよい。
The method of generating the second movement pattern is not limited to a specific method, but the second movement pattern may be generated, for example, by randomly extracting one or more movements other than the specific movement from among a plurality of movements registered in advance. For example, the
制御部16は、検出部12により上記動作パターン(すなわち、決定部15によってユーザ認証のトリガとして決定された動作パターン)に一致するユーザの目の動作が検出された場合に、ユーザ認証を実行する。例えば、レンズ22の内面にショッピングサイト等のコンテンツ購入画面が表示され、コンテンツ購入のためのユーザ認証を求めるポップアップウィンドウが表示された場面について考える。例えば、ポップアップウィンドウには、「コンテンツを購入する場合には、“視線移動(右回り)”を行うことでユーザ認証をして下さい。」といったメッセージが表示される。この場合、制御部16は、ポップアップウィンドウが表示され、ユーザ認証操作を受付可能な状態となった後に、上記動作パターン(ここでは一例として、視線移動(右回り))が検出部12によって検出されたことに応じて、ユーザ認証を実行する。ユーザ認証としては、例えば虹彩認証が用いられる。ユーザ認証の完了後に、コンテンツの購入を確定させる。上記構成によれば、決定部15により決定された動作パターンに対応する動作がユーザによって行われたことを契機としてユーザ認証が実行されるため、ユーザの意図しないタイミングでユーザ認証が実行されることを適切に防止することができる。The
図4を参照して、決定部15による動作パターン生成処理の手順の一例について説明する。決定部15は、抽出部13によって特定動作が抽出される前には、一定以上の複雑さを有する第1動作パターンをユーザ認証のトリガとして決定(生成)する(ステップS11)。続いて、所定期間において、撮像部11、検出部12、及び抽出部13により、ユーザの癖が学習される。すなわち、撮像部11及び検出部12により、ユーザの目の動作が検出され(ステップS12)、抽出部13により、ユーザの癖に対応する特定動作が抽出される(ステップS13)。このようにしてユーザの特定動作が抽出された後に、決定部15は、特定動作と一致せず、且つ、第1動作パターンよりも単純化された第2動作パターンを、ユーザ認証のトリガとして決定(生成)する(ステップS14)。
With reference to FIG. 4, an example of the procedure of the motion pattern generation process by the
なお、第2動作パターンが決定された後に、更にユーザの癖の学習が進められ、それまで発見されていなかった特定動作が新たに抽出される場合もあり得る。そして、新たに抽出された特定動作が、ユーザ認証のトリガとして用いる動作パターン(決定部15により決定された動作パターン)と一致する場合もあり得る。このような場合、決定部15は、最新の情報(例えば、最新のテーブル情報(図3の(a)参照))に基づいて、ユーザ認証のトリガとして用いる動作パターンを、適宜変更してもよい。
After the second movement pattern is determined, further learning of the user's habits may occur, and a specific movement that had not been discovered until then may be newly extracted. The newly extracted specific movement may then match the movement pattern used as a trigger for user authentication (the movement pattern determined by the determination unit 15). In such a case, the
図5を参照して、ユーザ認証の処理手順の一例について説明する。まず、ユーザ認証操作を受付可能な状態において、撮像部11及び検出部12により、ユーザの目の動作が検出される(ステップS21)。続いて、制御部16は、検出されたユーザの目の動作がユーザ認証のトリガとして決定部15により決定された動作パターンと一致するか否かを判定する(ステップS22)。一致すると判定された場合(ステップS22:YES)、制御部16は、ユーザ認証を実行する(ステップS23)。一方、一致すると判定されなかった場合(ステップS22:NO)、制御部16は、ユーザ認証を実行しない。An example of the user authentication process will be described with reference to FIG. 5. First, in a state in which a user authentication operation can be accepted, the
以上説明した眼鏡型装置10においては、決定部15により決定された動作パターンと一致するユーザの目の動作(身体的動作)が検出されたことをトリガとして、ユーザ認証(所定の処理)が実行される。すなわち、身体的動作(ジェスチャ)を用いた直感的なユーザインタフェースが、ユーザに提供される。さらに、上記動作パターンは、ユーザの癖に対応する特定動作と一致しないように定められるため、ユーザの意図しない場面でユーザ認証が実行されてしまうことを的確に防止することができる。また、このようにして動作パターンが決定されるため、誤操作の発生を防止するために動作パターンを複雑化させる必要がなくなる。従って、眼鏡型装置10によれば、ユーザの身体的動作に応じた処理を実行するシステムにおいて、誤操作の発生を好適に防止できる。In the above-described eyeglass-
また、眼鏡型装置10は、ユーザの頭部に装着される装置であり、検出部12は、撮像部11により撮像されたユーザの目の画像に基づいて、ユーザの目の動作を身体的動作として検出する。上記構成によれば、ユーザが眼鏡型装置10を装着しており、ユーザが自身の手元を視認することが困難であり、スマートフォン等のデバイスに対する文字入力(パスワード入力)等を行うことが困難な状況において、ハンズフリーのユーザインタフェースをユーザに提供することができる。
Furthermore, the eyeglass-
また、決定部15は、抽出部13によって特定動作が抽出される前には、一定以上の複雑さを有する第1動作パターンを、ユーザ認証のトリガとして決定し、抽出部13によって特定動作が抽出された後(すなわち、図3の(b)に示されるようなテーブル情報が得られた後)には、特定動作と一致せず、且つ、第1動作パターンよりも単純化された第2動作パターンを、ユーザ認証のトリガとして決定する。上記構成によれば、ユーザの癖の学習前には比較的複雑な第1動作パターンを用いることにより、偶然の一致(すなわち、ユーザの癖に対応する動作がユーザ認証のトリガとして採用される動作パターンと一致すること)を回避し、ユーザの意図しない場面においてユーザ認証が実行されること(誤操作)の発生を的確に防止できる。さらに、ユーザの癖の学習後には、特定動作を回避した上で単純化された第2動作パターンを用いることにより、誤操作の発生を防止しつつユーザの利便性を向上させることができる。
In addition, before the specific motion is extracted by the
また、決定部15は、複雑さに関するスコア(複雑度)がそれぞれ関連付けられた予め定められた複数の動作のうち特定動作と一致しない一以上の動作のうちから、複雑度が最小の動作を第2動作パターンとして決定してもよい。この場合、誤操作の発生を防止しつつ、可能な限り単純化された動作をユーザ認証のトリガとすることにより、ユーザの利便性を効果的に向上させることができる。
The
[第2実施形態]
図6~図8を参照して、第2実施形態の眼鏡型装置10Aについて説明する。図6に示されるように、眼鏡型装置10Aは、測定部17を更に備えると共に、決定部15の代わりに決定部15Aを有する点において、眼鏡型装置10と主に相違している。眼鏡型装置10Aの他の構成は、眼鏡型装置10と同様である。
[Second embodiment]
A glasses-
測定部17は、ユーザに対して所定の種類の身体的動作の実行を指示し、当該指示に応じてユーザにより実行された身体的動作に基づいて、上記所定の種類に関するユーザの実行可否を測定する。本実施形態では、身体的動作は、ユーザの目の動作である。また、所定の種類の身体的動作は、予め設定登録された種類の動作である。本実施形態では一例として、所定の種類の身体動作は、視線移動(左右)、視線移動(上下)、視線移動(左回り)、視線移動(右回り)、まばたき、及びウインク(右目のウインク及び左目のウインク)である。The
測定部17は、例えば、上記所定の種類の身体動作毎に、ユーザに当該身体動作を実行するように指示する。ユーザへの指示方法は、特定の方法に限定されない。例えば、ユーザへの指示は、眼鏡型装置10Aが備える図示しないスピーカ等から指示内容を示す音声を出力することによって行われてもよいし、レンズ22の内面に指示内容を示す情報(例えばテキスト等)を表示出力することによって行われてもよい。測定部17は、上記指示に応じてユーザによって実行された動作の正確性を判定する。例えば、測定部17は、上述した撮像部11及び検出部12により検出されたユーザの目の動作に基づいて、上記正確性の判定を行ってもよい。そして、測定部17は、上記所定の種類の身体動作毎に、ユーザの実行可否(すなわち、ユーザが正確に動作を行うことができたか否か)を示す情報をテーブル情報に追加する。The
図7は、上述した測定部17の処理によって生成されたテーブル情報の例を示す図である。図7に示されるテーブル情報は、図3の(b)に示したテーブル情報に対して、測定部17による測定結果(「可否」の列)を追加することによって生成されたテーブル情報である。この例では、測定部17の測定により、ユーザが視線移動(右回り)及び右目のウインク以外の動作については正確に行うことができた一方で、視線移動(右回り)及び右目のウインクについては正確に行うことができなかったことを示す情報が、テーブル情報に追加されている。また、ユーザが20度~160度の範囲まで視線移動(左右)を行うことが可能であることを示す情報が、テーブル情報に追加されている。このように、測定部17は、動作毎の実行可否だけでなく、動作毎の動きの限界値(眼球の動きの最大動作幅等)を測定してもよい。
Figure 7 is a diagram showing an example of table information generated by the processing of the
決定部15Aは、抽出部13により抽出された特定動作と一致せず、且つ、測定部17により判明したユーザが実行できない動作を含まない動作パターンをユーザ認証のトリガとして決定する。このように、決定部15Aは、測定部17の測定結果に更に基づいて動作パターンを決定する点において、決定部15と相違している。The
図8を参照して、眼鏡型装置10Aにおける動作パターン生成処理の処理手順の一例について説明する。図8のフローチャートは、決定部15に加えて実行される処理手順のみを示している。すなわち、抽出部13による特定動作の抽出が既に完了していることを前提としている。まず、測定部17が、所定の種類の目の動作(本実施形態では一例として、図7に示した6種類の動作)の各々について、ユーザの実行可否を測定する(ステップS101)。当該処理により、図7に示したような「可否」列が追加されたテーブル情報が得られる。続いて、決定部15Aが、抽出部13により抽出された特定動作と一致せず、且つ、測定部17により判明したユーザが実行できない動作(すなわち、図7に示されるテーブル情報において「可否」列の値が「×」である動作)を含まない動作パターンをユーザ認証のトリガとして決定する(ステップS102)。図7の例では、視線移動(右回り)及びウインクは、いずれも特定動作に該当しない。しかし、ユーザは、視線移動(右回り)及び右目のウインクを正確に実行することができない。そこで、決定部15Aは、例えば、視線移動(右回り)及び右目のウインクを含まない動作パターン(例えば、左目のウインク)を、ユーザ認証のトリガとして決定する。
With reference to FIG. 8, an example of the processing procedure of the motion pattern generation processing in the eyeglass-
眼鏡型装置10Aによれば、眼鏡型装置10と同様に、特定動作と一致しない動作パターンをユーザ認証のトリガとすることにより、ユーザの意図しない場面においてユーザ認証が実行されること(誤操作)の発生を的確に防止できる。加えて、ユーザが正確に実行できない動作を上記動作パターンから除外することにより、ユーザの利便性を向上させることができる。すなわち、ユーザの苦手な動作を上記動作パターンの候補から除外することにより、ユーザの負担を軽減することができる。
According to the eyeglass-
[第3実施形態]
図9~図11を参照して、第3実施形態の眼鏡型装置10Bについて説明する。図9に示されるように、眼鏡型装置10Bは、刺激部18を更に備えると共に、抽出部13の代わりに抽出部13Bを有する点において、眼鏡型装置10と主に相違している。眼鏡型装置10Bの他の構成は、眼鏡型装置10と同様である。
[Third embodiment]
A glasses-
刺激部18は、ユーザに対して刺激を与える。ユーザに対する刺激は、種々の形態を取り得る。例えば、刺激の例としては、図示しないスピーカからの突然の音声出力、レンズ22の内面への突然の画面表示、眼鏡型装置10Bの鳴動(バイブレーション)等が挙げられる。刺激部18は、上述したような刺激をユーザに与えることにより、ユーザを瞬間的に緊張状態にする。The
抽出部13Bは、上述した抽出部13と同様の処理を実行すると共に、ユーザに上記刺激が与えられた際に検出部12により検出されたユーザの目の動作に基づいて、特定動作を抽出する。上記処理によれば、抽出部13Bは、上記刺激が与えられたことにより緊張状態とされたユーザが不意に(無意識的に)実行する動作を、特定動作として抽出することができる。例えば、ユーザに上記刺激が与えられた際に、ユーザが視線移動(上下)を行ったとする。この場合、抽出部13Bは、視線移動(上下)を、緊張状態におけるユーザの癖に対応する特定動作として抽出する。The
図10は、上述した刺激部18及び抽出部13Bにより抽出された緊張状態における特定動作を示す情報が追加されたテーブル情報の例を示す図である。図10に示されるテーブル情報は、図3の(b)に示したテーブル情報に対して、「緊張状態での発生」の列を追加することによって生成されたテーブル情報である。「緊張状態での発生」列において、「あり」は、緊張状態で発生したことを示しており、「なし」は、緊張状態で発生しなかったことを示している。この例では、上記テーブル情報は、刺激部18による刺激がユーザに付与された際に、視線移動(上下)が行われたことを示している。すなわち、上記テーブル情報は、視線移動(上下)が緊張状態における特定動作として抽出されたことを示している。なお、この例では、通常時(刺激が付与されない場合)においても視線移動(上下)が特定動作として抽出されているが、仮に通常時において視線移動(上下)が特定動作として抽出されなかった場合には、刺激部18及び抽出部13Bの上記処理によって、視線移動(上下)を特定動作として抽出することが可能となる。
Figure 10 is a diagram showing an example of table information to which information indicating a specific action in a tense state extracted by the
図11を参照して、眼鏡型装置10Bにおける動作パターン生成処理の処理手順の一例について説明する。図11のフローチャートは、刺激部18及び抽出部13Bによって実行される特有の処理部分の手順のみを示している。すなわち、抽出部13Bによる通常時(刺激を与えない場合)の特定動作の抽出が既に完了していることを前提としている。まず、刺激部18が、上述したような刺激をユーザに与える(ステップS201)。続いて、撮像部11及び検出部12により、ユーザの目の動作が検出され(ステップS202)、抽出部13Bにより、刺激付与時(緊張状態)におけるユーザの癖に対応する特定動作が抽出される(ステップS203)。続いて、決定部15が、通常時(刺激を与えない場合)に抽出された特定動作及び刺激付与時に抽出された特定動作と一致しない動作パターンをユーザ認証のトリガとして決定する(ステップS204)。なお、ステップS204において、通常時における特定動作の抽出が完了していない場合には、決定部15は、刺激付与時に抽出された特定動作と一致しない動作パターンをユーザ認証のトリガとして決定すればよい。
With reference to FIG. 11, an example of the processing procedure of the motion pattern generation process in the eyeglass-
例えば、ユーザ認証が要求される場面においては、ユーザ認証を要求するポップアップウィンドウ又は音声等がユーザに対して出力される場合がある。この際、ユーザが驚き瞬間的に緊張状態となる可能性がある。また、その結果、ユーザが特定の動作(上記例では、視線移動(上下))を反射的に実行する可能性がある。眼鏡型装置10Bによれば、緊張状態となったユーザが反射的に実行する動作を特定動作として抽出することができるため、ユーザの意図しない場面においてユーザ認証が実行されること(誤操作)の発生をより確実に防止できる。For example, in a situation where user authentication is required, a pop-up window or a voice requesting user authentication may be output to the user. At this time, the user may be surprised and momentarily tense. As a result, the user may reflexively perform a specific action (in the above example, moving one's eyes (up and down)). With the eyeglass-
[変形例]
上記実施形態では、「所定の処理」の一例として、ログイン時、課金時等に行われるユーザ認証を挙げたが、所定の処理はユーザ認証以外の処理であってもよい。例えば、所定の処理は、眼鏡型装置10の設定画面を起動する処理等、常時実行可能な処理であってもよい。また、所定の処理は、複数の項目から1つ又は複数の項目を選択する処理であってもよい。例えば、A及びBの2つの項目がある場合に、「Aを選択する処理」、「Bを選択する処理」、及び「A及びBを選択する処理」のそれぞれが所定の処理として用意されてもよく、処理毎に実行のトリガとなる動作パターンが決定されてもよい。例えば、視線移動(右回り)、視線移動(左回り)、及び左目のウインクが、いずれもユーザの特定動作に該当しない場合において、決定部15は、視線移動(右回り)を「Aを選択する処理」のトリガとして決定し、視線移動(左回り)を「Bを選択する処理」のトリガとし、左目のウインクを「A及びBを選択する処理」のトリガとして決定してもよい。このように、上記実施形態の仕組みは、ユーザの意思を確認する必要がある任意の処理に対して適用可能である。
[Modification]
In the above embodiment, as an example of the "predetermined process", user authentication performed at the time of login, charging, etc. is given, but the predetermined process may be a process other than user authentication. For example, the predetermined process may be a process that can be executed at any time, such as a process of starting up a setting screen of the eyeglass-
また、上記実施形態では、「情報処理装置」の一例として、眼鏡型装置を挙げたが、情報処理装置の形態はこれに限定されない。例えば、情報処理装置は、ユーザの腕に装着されるスマートウォッチ等でもよい。また、「身体的動作」は、ユーザの目の動作以外の身体部分の動作であってもよい。例えば、情報処理装置がスマートウォッチである場合、身体的動作は、ユーザの腕の動作であってもよい。この場合、検出部は、例えば、当該スマートウォッチ内に設けられたセンサ(例えば、加速度センサ、ジャイロセンサ等)によって、ユーザの腕の動作を検出してもよい。In addition, in the above embodiment, a glasses-type device is given as an example of an "information processing device", but the form of the information processing device is not limited to this. For example, the information processing device may be a smartwatch or the like worn on the user's arm. Furthermore, the "physical movement" may be a movement of a body part other than the movement of the user's eyes. For example, if the information processing device is a smartwatch, the physical movement may be a movement of the user's arm. In this case, the detection unit may detect the movement of the user's arm, for example, by a sensor (for example, an acceleration sensor, a gyro sensor, etc.) provided in the smartwatch.
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 Note that the block diagrams used to explain the above embodiments show functional blocks. These functional blocks (components) are realized by any combination of at least one of hardware and software. Furthermore, the method of realizing each functional block is not particularly limited. That is, each functional block may be realized using one device that is physically or logically coupled, or may be realized using two or more devices that are physically or logically separated and directly or indirectly connected (e.g., using wires, wirelessly, etc.) and these multiple devices. The functional blocks may be realized by combining the one device or the multiple devices with software.
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。 Functions include, but are not limited to, judging, determining, assessing, calculating, processing, deriving, investigating, searching, verifying, receiving, sending, outputting, accessing, resolving, selecting, choosing, establishing, comparing, anticipating, expecting, regarding, broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping and assigning.
例えば、本開示の一実施の形態における眼鏡型装置10は、本開示の情報処理方法を行うコンピュータとして機能してもよい。図12は、本開示の一実施の形態に係る眼鏡型装置10のハードウェア構成の一例を示す図である。なお、上述した眼鏡型装置10A,10Bのハードウェア構成も、眼鏡型装置10のハードウェア構成と同様である。眼鏡型装置10の各々は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。For example, the eyeglass-
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。眼鏡型装置10のハードウェア構成は、図12に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。In the following description, the term "apparatus" may be interpreted as a circuit, device, unit, etc. The hardware configuration of the eyeglass-
眼鏡型装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。Each function of the eyeglass-
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。The
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、決定部15等は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
The
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る情報処理方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカ、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。The
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。In addition, each device such as the
また、眼鏡型装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。The eyeglass-
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiment has been described in detail above, it is clear to those skilled in the art that the present embodiment is not limited to the embodiment described in this specification. The present embodiment can be implemented in modified and altered forms without departing from the spirit and scope of the present invention as defined by the claims. Therefore, the description in this specification is intended as an illustrative example and does not have any restrictive meaning with respect to the present embodiment.
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。The processing steps, sequences, flow charts, etc. of each aspect/embodiment described in this disclosure may be reordered unless inconsistent. For example, the methods described in this disclosure present elements of various steps using an example order and are not limited to the particular order presented.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input and output information, etc. may be stored in a specific location (e.g., memory) or may be managed using a management table. The input and output information, etc. may be overwritten, updated, or added to. The output information, etc. may be deleted. The input information, etc. may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。The determination may be based on a value represented by a single bit (0 or 1), a Boolean (true or false) value, or a numerical comparison (e.g., with a predetermined value).
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。Each aspect/embodiment described in this disclosure may be used alone, in combination, or switched depending on the implementation. In addition, notification of specific information (e.g., notification that "X is the case") is not limited to being done explicitly, but may be done implicitly (e.g., not notifying the specific information).
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software shall be construed broadly to mean instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, threads of execution, procedures, functions, etc., whether referred to as software, firmware, middleware, microcode, hardware description language, or otherwise.
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。Additionally, software, instructions, information, etc. may be transmitted and received via a transmission medium. For example, if the software is transmitted from a website, server, or other remote source using wired technologies (such as coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL)), and/or wireless technologies (such as infrared, microwave), then these wired and/or wireless technologies are included within the definition of a transmission medium.
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。The information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may be represented by voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, optical fields or photons, or any combination thereof.
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。 In addition, the information, parameters, etc. described in this disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using other corresponding information.
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々な情報要素は、あらゆる好適な名称によって識別できるので、これらの様々な情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。The names used for the parameters described above are not intended to be limiting in any way. Moreover, the formulas etc. using these parameters may differ from those expressly disclosed in this disclosure. The various information elements may be identified by any suitable names, and the various names assigned to these various information elements are not intended to be limiting in any way.
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。As used in this disclosure, the phrase "based on" does not mean "based only on," unless expressly stated otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。Any reference to elements using designations such as "first," "second," etc., used in this disclosure does not generally limit the quantity or order of those elements. These designations may be used in this disclosure as a convenient way to distinguish between two or more elements. Thus, a reference to a first and a second element does not imply that only two elements may be employed or that the first element must precede the second element in some way.
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。When used in this disclosure, the terms "include," "including," and variations thereof are intended to be inclusive, as is the term "comprising." Additionally, the term "or," as used in this disclosure, is not intended to be an exclusive or.
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。In this disclosure, where articles have been added by translation, such as a, an, and the in English, this disclosure may include that the nouns following these articles are in the plural form.
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。In this disclosure, the term "A and B are different" may mean "A and B are different from each other." In addition, the term may mean "A and B are each different from C." Terms such as "separate" and "combined" may also be interpreted in the same way as "different."
10,10A,10B…眼鏡型装置(情報処理装置)、11…撮像部、12…検出部、13,13B…抽出部、15,15A…決定部、16…制御部、17…測定部、18…刺激部。 10, 10A, 10B... glasses-type device (information processing device), 11... imaging unit, 12... detection unit, 13, 13B... extraction unit, 15, 15A... determination unit, 16... control unit, 17... measurement unit, 18... stimulation unit.
Claims (5)
前記検出部により検出された前記身体的動作に基づいて、前記ユーザの癖に対応する特定動作を抽出する抽出部と、
前記抽出部により抽出された前記特定動作と一致しない動作パターンを、所定の処理のトリガとして決定する決定部と、
前記検出部により前記動作パターンに一致する前記身体的動作が検出された場合に、前記所定の処理を実行する制御部と、
を備え、
前記決定部は、
前記抽出部によって前記特定動作が抽出される前には、一定以上の複雑さを有する第1動作パターンを、前記所定の処理のトリガとして決定し、
前記抽出部によって前記特定動作が抽出された後には、前記特定動作と一致せず、且つ、前記第1動作パターンよりも単純化された第2動作パターンを、前記所定の処理のトリガとして決定する、情報処理装置。 A detection unit that detects a physical movement of a user;
an extraction unit that extracts a specific motion corresponding to a habit of the user based on the physical motion detected by the detection unit;
a determination unit that determines a motion pattern that does not match the specific motion extracted by the extraction unit as a trigger for a predetermined process;
a control unit that executes the predetermined process when the physical movement that matches the movement pattern is detected by the detection unit;
Equipped with
The determination unit is
Before the specific movement is extracted by the extraction unit, a first movement pattern having a certain level of complexity or more is determined as a trigger for the predetermined process;
After the specific action is extracted by the extraction unit, the information processing device determines a second action pattern that does not match the specific action and is simpler than the first action pattern as a trigger for the specified processing .
前記ユーザの目を撮像する撮像部を更に備え、
前記検出部は、前記撮像部により撮像された前記ユーザの目の画像に基づいて、前記ユーザの目の動作を前記身体的動作として検出する、請求項1に記載の情報処理装置。 the information processing device is a device worn on the user's head,
An imaging unit that images the user's eyes,
The information processing device according to claim 1 , wherein the detection unit detects an eye movement of the user as the physical movement based on an image of the user's eyes captured by the imaging unit.
前記決定部は、前記抽出部により抽出された前記特定動作と一致せず、且つ、前記測定部により判明した前記ユーザが実行できない動作を含まない動作パターンを、前記所定の処理のトリガとして決定する、請求項1~3のいずれか一項に記載の情報処理装置。 a measurement unit that instructs the user to perform a predetermined type of physical movement and measures whether the user can perform the predetermined type of physical movement based on the physical movement performed by the user in response to the instruction;
The information processing device according to any one of claims 1 to 3, wherein the determination unit determines, as a trigger for the predetermined processing, a movement pattern that does not match the specific movement extracted by the extraction unit and does not include a movement that the user is unable to perform that is determined by the measurement unit.
前記抽出部は、前記ユーザに前記刺激が与えられた際に前記検出部により検出された前記身体的動作に基づいて、前記特定動作を抽出する、請求項1~4のいずれか一項に記載の情報処理装置。 A stimulation unit that stimulates the user is further provided.
The information processing device according to claim 1 , wherein the extraction unit extracts the specific movement based on the physical movement detected by the detection unit when the stimulus is given to the user.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021039137 | 2021-03-11 | ||
JP2021039137 | 2021-03-11 | ||
PCT/JP2022/005674 WO2022190774A1 (en) | 2021-03-11 | 2022-02-14 | Information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022190774A1 JPWO2022190774A1 (en) | 2022-09-15 |
JP7562831B2 true JP7562831B2 (en) | 2024-10-07 |
Family
ID=83227606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023505241A Active JP7562831B2 (en) | 2021-03-11 | 2022-02-14 | Information processing device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7562831B2 (en) |
WO (1) | WO2022190774A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020031367A1 (en) | 2018-08-10 | 2020-02-13 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020166140A1 (en) | 2019-02-15 | 2020-08-20 | 株式会社日立製作所 | Wearable user interface control system, information processing system using same, and control program |
WO2020179128A1 (en) | 2019-03-06 | 2020-09-10 | 株式会社日立製作所 | Learning assist system, learning assist device, and program |
WO2020241189A1 (en) | 2019-05-30 | 2020-12-03 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2022
- 2022-02-14 JP JP2023505241A patent/JP7562831B2/en active Active
- 2022-02-14 WO PCT/JP2022/005674 patent/WO2022190774A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020031367A1 (en) | 2018-08-10 | 2020-02-13 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020166140A1 (en) | 2019-02-15 | 2020-08-20 | 株式会社日立製作所 | Wearable user interface control system, information processing system using same, and control program |
WO2020179128A1 (en) | 2019-03-06 | 2020-09-10 | 株式会社日立製作所 | Learning assist system, learning assist device, and program |
WO2020241189A1 (en) | 2019-05-30 | 2020-12-03 | ソニー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022190774A1 (en) | 2022-09-15 |
WO2022190774A1 (en) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11360605B2 (en) | Method and device for providing a touch-based user interface | |
CN106845335B (en) | Gesture recognition method and device for virtual reality equipment and virtual reality equipment | |
CN105320276B (en) | Wearable device and method of operating wearable device | |
CN111966223B (en) | Method, system, device and storage medium for human-machine identification of non-perception MR glasses | |
JP6547741B2 (en) | INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING METHOD | |
US11842017B2 (en) | Secure keyboard with handprint identification | |
CN105122201A (en) | Multi-touch interactions on eyewear | |
US11282481B2 (en) | Information processing device | |
WO2019130991A1 (en) | Information processing device | |
CN112270283A (en) | Abnormal driving behavior determination method, device, equipment, vehicle and medium | |
US20220276698A1 (en) | IMU for Touch Detection | |
KR102620967B1 (en) | Electronic apparatus and method of correcting posture thereof | |
CN108459783A (en) | Control method, device and the equipment of dummy keyboard, readable medium | |
JP7415297B2 (en) | Human-machine authentication methods, devices, equipment, and storage media | |
CN110140166A (en) | System for providing hands-free input to a computer | |
JP7562831B2 (en) | Information processing device | |
WO2020039703A1 (en) | Input device | |
JP2022074167A (en) | Input control system | |
KR102325684B1 (en) | Eye tracking input apparatus thar is attached to head and input method using this | |
CN110291495B (en) | Information processing system, information processing method, and program | |
WO2022091760A1 (en) | Operation device | |
WO2023037812A1 (en) | Online dialogue support system | |
KR102539045B1 (en) | Dashboard control apparatus and method for wearable augmented reality device | |
WO2021220867A1 (en) | Information processing device | |
WO2023166893A1 (en) | Information processing system, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7562831 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |