JP2017049868A - Wearable terminal, method, and system - Google Patents
Wearable terminal, method, and system Download PDFInfo
- Publication number
- JP2017049868A JP2017049868A JP2015173643A JP2015173643A JP2017049868A JP 2017049868 A JP2017049868 A JP 2017049868A JP 2015173643 A JP2015173643 A JP 2015173643A JP 2015173643 A JP2015173643 A JP 2015173643A JP 2017049868 A JP2017049868 A JP 2017049868A
- Authority
- JP
- Japan
- Prior art keywords
- wearable terminal
- wearer
- movement
- information
- wearable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000033001 locomotion Effects 0.000 claims abstract description 61
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 210000001508 eye Anatomy 0.000 claims description 9
- 210000003128 head Anatomy 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 56
- 230000003287 optical effect Effects 0.000 description 48
- 238000012545 processing Methods 0.000 description 31
- 238000007726 management method Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 16
- 230000008859 change Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 11
- 239000011521 glass Substances 0.000 description 11
- 230000006399 behavior Effects 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000284 resting effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 208000019695 Migraine disease Diseases 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明の実施形態はウェアラブル端末、方法及びシステムに関する。 Embodiments described herein relate generally to a wearable terminal, a method, and a system.
近年、メガネ型ウェアラブル端末が盛んに利用されている。例えば、作業現場では、作業者がメガネ型ウェアラブル端末を装着し、作業手順等がレンズ面に表示される。これにより、作業者が作業中に紙のマニュアルを参照する必要が無く、作業の手を休めることなく、不慣れ又は複雑な作業でも効率よく行うことができる。 In recent years, glasses-type wearable terminals have been actively used. For example, at a work site, an operator wears a glasses-type wearable terminal, and a work procedure or the like is displayed on the lens surface. Thereby, it is not necessary for the operator to refer to the paper manual during the operation, and it is possible to efficiently perform an unfamiliar or complicated operation without resting the hand of the operation.
メガネ型ウェアラブル端末は多数の作業者に共有され、作業の記録を残す等のために、端末のIDと装着した作業者のIDとを対応付ける必要がある。この一例として、頭部装着型表示装置の使用者を認証する技術がある。使用者が虚像と外景を同時に視認可能な頭部装着型表示装置であって、頭部装着型表示装置を装着した状態における使用者の視界方向の少なくとも一部を撮影し、使用者の動作を取得する撮影部と、撮影部により撮影された動作から、使用者の動作の軌跡を取得する軌跡取得部と、軌跡取得部により取得された軌跡を用いて、使用者が正当な使用者であるか否かを認証する認証処理部と、を備える頭部装着型表示装置が提案されている。 The glasses-type wearable terminal is shared by many workers, and it is necessary to associate the ID of the terminal with the ID of the worker who wears it in order to leave a record of the work. As an example of this, there is a technique for authenticating a user of a head-mounted display device. A head-mounted display device that allows a user to view a virtual image and an outside scene at the same time, photographing at least a part of the user's viewing direction with the head-mounted display device mounted, and The user is a valid user by using the imaging unit to be acquired, the trajectory acquiring unit for acquiring the user's motion trajectory from the motion captured by the imaging unit, and the trajectory acquired by the trajectory acquiring unit. There has been proposed a head-mounted display device including an authentication processing unit that authenticates whether or not.
この装置によれば、認証処理部は、使用者の動作の軌跡を用いて使用者が正当な使用者であるか否かを認証するため、文字列や画像を用いた認証と比較して、認証の鍵とされる情報を複製しづらい。この結果、頭部装着型表示装置において、なりすましの危険性を低減し、セキュリティをより向上する認証を実現可能である。 According to this apparatus, the authentication processing unit authenticates whether or not the user is a valid user using the user's movement trajectory, compared with authentication using a character string or an image, It is difficult to copy information that is the key to authentication. As a result, in the head-mounted display device, it is possible to realize authentication that reduces the risk of impersonation and further improves security.
従来の頭部装着型表示装置の認証技術は、使用者の視界を撮影する撮影部を別途設ける必要があるという課題があった。 The conventional authentication technology for the head-mounted display device has a problem that it is necessary to separately provide a photographing unit for photographing the user's field of view.
本発明の目的は、簡単な構成で、装着者を特定するウェアラブル端末、方法及びシステムを提供することである。 An object of the present invention is to provide a wearable terminal, method and system for identifying a wearer with a simple configuration.
実施形態によれば、頭部に装着され得るウェアラブル端末は、ウェアラブル端末の動きを検出する検出手段と、検出手段により検出された動きに基づいて、ウェアラブル端末の未装着者の中からウェアラブル端末の装着者を特定する特定手段と、を具備する。 According to the embodiment, the wearable terminal that can be worn on the head includes a detection unit that detects the movement of the wearable terminal, and a wearable terminal that is not worn by the wearer based on the movement detected by the detection unit. Specifying means for specifying the wearer.
以下、図面を参照して、実施の形態について説明する。 Hereinafter, embodiments will be described with reference to the drawings.
ウェアラブル端末は、頭部装着型(これにはメガネ型、ゴーグル型、ヘルメット型等が含まれるが、これらを総称してメガネ型と称する場合もある)、リストバンド型、ペンダント型等があるが、ここでは、メガネ型ウェアラブル端末の実施形態を説明する。メガネ型ウェアラブル端末には、透明なレンズを介して視線の先の風景が見えるタイプと、視界が遮られ、風景が見えないヘッドマウントディスプレイと称されるタイプがあるが、ここでは、一例として風景が見えるタイプを説明する。 Wearable terminals include head-mounted types (including glasses, goggles, helmets, etc., which may be collectively referred to as glasses), wristbands, pendants, and the like. Here, an embodiment of a glasses-type wearable terminal will be described. Glasses-type wearable devices include a type that allows you to see the scenery ahead of your line of sight through a transparent lens, and a type that is called a head-mounted display where the view is blocked and you cannot see the scenery. Explain the type that can be seen.
図1はメガネ型ウェアラブル端末(以下、単にウェアラブル端末と称する)10の斜視図、図2(a)は正面図、図2(b)は上から見た断面構造を示す図である。 FIG. 1 is a perspective view of a glasses-type wearable terminal (hereinafter simply referred to as a wearable terminal) 10, FIG. 2 (a) is a front view, and FIG. 2 (b) is a diagram showing a cross-sectional structure viewed from above.
ウェアラブル端末10は通常のメガネとほぼ同じ形状であるが、一方、ここでは右眼側のテンプルの外側に投影装置12が取り付けられている。フレームにはガラス14、16が嵌め込まれている。左眼側のガラス14はユーザが景色を見ることができるように通常の透明ガラスである。右眼側のガラス16は、少なくとも一部がスクリーン16となっている。スクリーン16は、投影装置12が投影している画像をユーザが見ることができるようにするものである。スクリーン16は投影装置12が画像を投影しない時は透明であり、ユーザが右眼側のガラス(スクリーン)16を介して景色を見ることができる。
The
投影装置12は、電子部品として電源部22、制御部24を含む。電源部22はボタン型の電池、充電可能な電池、非接触給電可能な二次電池等を含むことができる。あるいは、電源は内蔵せず、外部電源から電源ラインを介して投影装置12に給電してもよい。制御部24は、後述するネットワークを介してサーバや他の電子機器との間で通信を行い、情報を送受信する。この通信は、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。
The
投影装置12は、さらに、光学部品として光源28、表示部30、プリズム32、レンズ群34等を含む。光源28は、互いに発光色が異なり、それぞれの出力光量を独立して変更可能な複数、例えば3個のLED(Light Emitting Diode)を含む調光型白色LED光源であってもよい。調光型白色LED光源によれば、ウェアラブル端末10の使用環境が、例えばオレンジ色が主体の照明が用いられることの多いクリーンルーム内、等である場合においても、使用環境に応じて発光色を変更することができ、鮮明な投影像が得られる。さらに、調光型白色LED光源によれば、ユーザが見易い表示色を出力することができ、ユーザが見辛い表示色を出力する場合に比較して、目の疲れや、それに伴う偏頭痛、等のユーザにとって支障となる要因の発生を避けることが可能である。
The
表示部30は、例えば反射型のLCD(Liquid Crystal Display)モジュールであり、制御部24による表示制御に基づいて、所定のテキスト、画像等(以下、表示部30が表示されるものを表示像と総称することもある)を表示する。光源28から出射される非平行光(発散性の光、以下発散光と称することもある)は、プリズム32のハーフミラー面32aで反射され、表示部30の表示像を照明する。表示部30の反射光は、表示像に対応した光(画像光と称する場合もある)としてハーフミラー面32aを透過して、出射面32cから出射され、レンズ群34を介して所定サイズの投影像としてスクリーン16に投影される。
The
スクリーン16は、手前側透明屈折体42、フレネルレンズ形ハーフミラー面44及び奥側透明屈折体46を有する。フレネルレンズ形ハーフミラー面44に到達した画像光の一部は、フレネルレンズ形ハーフミラー面44で反射され、表示部30の表示像に対応する虚像(投影像)を数メートル先に形成する。なお、スクリーン16は、ウェアラブル端末10を装着したユーザの視線の先の風景も一部透過することができ、スクリーン16には投影像とともにユーザが視認可能な風景が表示されるように構成してもよい。
The
光源28から出射され、ハーフミラー面32aを通過した画像光(発散光)の一部は、全反射面32bで全反射し、出射面32cで屈折して光源28からの発散光である漏れ光50となる。漏れ光50は、投影装置12の正面に形成された開口又は隙間(誘導部)52を通ってスクリーン16とは異なる方向へ出射される。
Part of the image light (diverged light) emitted from the
ウェアラブル端末10は、投影装置12の所定の位置、たとえば底面部に、スピーカ54A、イヤホンジャック54B、マイクジャック56、スライド式スイッチ57及び回転式スイッチ58等を有する。マイクジャック56には、図示しないハンズフリーマイクが接続され、ユーザの音声が収集される。スライド式スイッチ57は、例えば投影装置12の投影像の輝度や色調等を調整可能である。回転式スイッチ58は、例えば投影像の投影角度等を調整可能である。スライド式スイッチ57及び回転式スイッチ58のように異なる動作により異なる調整量を設定可能とすることで、投影像を目視しながら、ユーザが、ブラインドタッチで、投影像を調整可能である。例えば、スライド式スイッチ57を操作することにより、ユーザの好みに合わった表示輝度や色調の投影像を提供できる。回転式スイッチ58を操作することにより、ユーザの頭部の形状やサイズに合わせて、最適な位置に画像を表示するように投影角度を調整できる。なお、スライド式スイッチ57と回転式スイッチ58による調整対象が逆であってもよいことはもちろんであるし、スライド式スイッチ57と回転式スイッチ58の位置が逆であってもよいし、両者を1つの操作部材の2種類の操作に割り当ててもよい。
The
これらのスイッチ57、58による選択は投影像のみを見ながら施行錯誤的に行ってもよいが、調整の効率を上げるために、メニュー画面を投影して、その画面内で項目を選択することにより調整してもよい。表示部30がメニュー画面を表示することにより、メニュー画面がスクリーン16に投影される。
The selection by these
さらに、メニュー項目の選択は、スイッチ57、58の操作によらず、タッチ操作によってもよい。このため、投影装置12の外側には、タッチパッド55も設けられる。表示部30がメニュー等を表示し、メニュー内の項目の表示位置に応じたタッチパッド55内の位置をタッチすることにより、簡単かつ効率よくユーザ操作を入力できる。
Further, the menu item may be selected by a touch operation, not by the operation of the
正面中央部の外側にはカメラ59が設けられ、ユーザの視線の先の画像(静止画、動画のいずれも可)を撮影可能である。なお、図示していないが、正面中央部の内側(カメラ59の配置位置と対応する位置)にユーザの顔に対向してカメラを設け、ユーザの眼球を撮影し、ユーザの虹彩を検出可能としてもよい。虹彩はユーザ認証に使うことができる。
A
ウェアラブル端末10からの漏れ光50を利用することで、ウェアラブル端末10の状態、すなわちユーザの状態を検出できる。図3、図4、図5を参照して、ウェアラブル端末の状態の検出原理を説明する。ここで、状態は位置と、位置の移動等を含む。
By using the leaked light 50 from the
ウェアラブル端末の使用例の一例を図3に示す。例えば、工場の部品ヤード、通販会社の商品倉庫、小売業の配送部署等のワークエリア60内に任意数の作業スペース又は商品棚A01〜Axy(x,yはともに正の整数)、B01〜Bxy、C01〜Cxyが配置される。作業スペース又は商品棚は、例えば工場の作業テーブルや生産ライン内の製造装置又は学校の机や会議室の着席位置、等であってもよい。
An example of the usage example of the wearable terminal is shown in FIG. For example, an arbitrary number of work spaces or product shelves A01 to Axy (x and y are both positive integers), B01 to Bxy in a
ワークエリア60には少なくとも1つの光センサ62−1〜62−n(nは正の整数)が配置される。光センサ62−1〜62−nは、ウェアラブル端末10−1〜10−m(mは正の整数)の位置(x,y,z)、個数、位置の変化(移動)及び向きの変化等を、図4、図5に示す検出方法により、個々に検出できる。ウェアラブル端末10−1〜10−mの位置、個数、移動及び向きの変化等を検出することにより。ウェアラブル端末10−1〜10−mを装着した任意数のユーザの位置、移動等の状態を認識できる。
In the
ユーザは、ワークエリア60内を自在に移動できる。ユーザは、予め定められた作業を、予め定められた位置、例えばステーション(カート)、それに準じた収容器又は可動式のテーブル等である作業スペース64において実行する。なお、作業スペース64は、移動可能ではなく、固定された机やその着席位置等であってもよい。
The user can move freely in the
図3、図4に示すように、検出システムは、1以上のウェアラブル端末10、1以上の光センサ62を含む。光センサ62は、漏れ光50を検出する機能と、検出結果をサーバ等に送信する通信機能を有する。この通信機能も、ウェアラブル端末10の通信機能と同じく、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。以下に説明する実施形態は通信機能を有する種々のユニット、モジュールを有するが、これらのユニット、モジュールの通信機能も、同様に、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。
As shown in FIGS. 3 and 4, the detection system includes one or more
光センサ62が受信した漏れ光50からウェアラブル端末10を特定できるように、ウェアラブル端末10は、端末の識別情報(Identification、以下端末IDと称する場合もある)を含む情報を用いて漏れ光50を間欠的に変調する。変調方式の典型的な一例は、発光量をゼロまで落とすチョッパー形変調方式があるが、ここでは、発光量が低い状態でも所定量以上の発光量を確保できる変調方式が採用される。これにより、ユーザの目に対する負担を軽減できる。変調方式として、例えばDSV(Digital Sum Value)フリーの変調方式(すなわち常に変調信号のDSVを計算し、適宜ビット反転コードを挿入可能にして直流成分をゼロとする変調方式)が採用されると、比較的ロングレンジでの発光量変化が抑えられ、巨視的に常に発光量変化がゼロにでき、ユーザの目への負担が一層軽減される。人間の目は、0.02秒程度の変化まで認識できるので、上記変調の基準周波数を10Hz以上、例えば20Hz以上、より好ましくは60Hz以上に設定することで、ユーザの目に対する負担を軽減する効果も生まれる。一方、光源28に使用されるLEDは、内部インピーダンスと接続容量を持つため、精度良い変調周波数は、100MHz未満、望ましくは10MHz以下が望ましい。従って、実施形態の検出システムにて用いる光源28の変調周波数は、10Hz〜100MHz、望ましくは10Hz〜10MHzの範囲が好ましい。
In order to be able to identify the wearable terminal 10 from the leaked light 50 received by the
光源28からの発散光の漏れ光50を利用しているので、光センサ62が検出する光量がウェアラブル端末10と光センサ62との間の距離に応じて変化する。この現象を利用すると、ウェアラブル端末10と光センサ62との間の距離又は光センサ62に対するウェアラブル端末10の向きを求めることができる。光センサ62の位置(高さも含む)は固定であるので、光センサ62とウェアラブル端末10との距離が分かると、ウェアラブル端末10の位置(x,y,z)が検出できる。
Since the diverging light leakage light 50 from the
さらに、光源28からの発散光の漏れ光50を利用しているので、漏れ光50を比較的広い範囲で検出できる。その結果、比較的少数の光センサ62−1〜62−nを設置するだけで、ワークエリア60内のウェアラブル端末10−1〜10−mの位置、ウェアラブル端末10と光センサ62との距離、ウェアラブル端末10−1〜10−mの向き、又は光センサ62に対するウェアラブル端末10の方位が検出できる。これにより、検出システムを設置するために必要となる設備費用を低減できる。
Furthermore, since the diverging light leakage light 50 from the
光センサ62が検出した漏れ光50の光量情報は、所定のタイミングで、光センサ62から後述するサーバへ送信される。サーバは、収集した光センサ62からの情報を解析する。これにより、任意のウェアラブル端末10−1〜10−mすなわちユーザの位置及び状態が検出できる。
The light amount information of the leakage light 50 detected by the
図4は、実施形態に係るウェアラブル端末を認識するシステムの具体的な利用例を説明する概略図である。4個の光センサ62−1〜60−4の周囲にウェアラブル端末10−1〜10−3を装着した3人のユーザがいる状況を想定する。ウェアラブル端末10−1、10−2からの漏れ光50は、光センサ62−1〜60−4にて検出される。光センサ62−1〜60−4は、それぞれにおいて検出した漏れ光50の光量をA−D(Analog - Digital)変換し、光量に対応する光量情報として、所定のタイミングで、例えば近距離無線通信によりサーバへ送信する。 FIG. 4 is a schematic diagram illustrating a specific usage example of the system that recognizes the wearable terminal according to the embodiment. Assume a situation in which there are three users wearing wearable terminals 10-1 to 10-3 around four optical sensors 62-1 to 60-4. The leaked light 50 from the wearable terminals 10-1 and 10-2 is detected by the optical sensors 62-1 to 60-4. Each of the optical sensors 62-1 to 60-4 performs AD (Analog-Digital) conversion on the light amount of the leaked light 50 detected in each of them, and uses, for example, short-range wireless communication at predetermined timing as light amount information corresponding to the light amount. To the server.
ユーザの移動に応じてウェアラブル端末10−1が光センサ62−1へ移動する一方、ユーザの任意の動作、例えば首振り(頭部の旋回)に応じてウェアラブル端末10−2の向きが一時的に変化したとする。この時の検出情報の変化を図5に示す。 Wearable terminal 10-1 moves to optical sensor 62-1 according to the movement of the user, while wearable terminal 10-2 is temporarily oriented according to the user's arbitrary operation, for example, swinging (head turning). Suppose that The change of the detection information at this time is shown in FIG.
図5では、ウェアラブル端末10−1〜10−3のそれぞれの漏れ光50の変調方式として、間欠的な時間変化方式を用いた例を示している。すなわち、ウェアラブル端末10−1〜10−3のそれぞれにおいて、ID変調期間がずれている。 In FIG. 5, the example which used the intermittent time change system as a modulation system of each leaked light 50 of wearable terminal 10-1 to 10-3 is shown. That is, the ID modulation period is shifted in each of the wearable terminals 10-1 to 10-3.
図5(a)、(b)、(c)に示すように、1番目〜3番目のウェアラブル端末10−1〜10−3について、間欠的にウェアラブル端末のID変調期間が設定され、それ以外の期間は無変調期間である。各ID変調期間内では、同期信号SYNCとウェアラブル端末10−1〜10−3の端末IDが一つの組を構成し(1対1で対応し)、その組が複数回(図5に示すようにセンサが4個の場合、4の倍数回)、繰り返される。 As shown in FIGS. 5A, 5 </ b> B, and 5 </ b> C, the ID modulation period of the wearable terminal is intermittently set for the first to third wearable terminals 10-1 to 10-3, and the others This period is a non-modulation period. Within each ID modulation period, the synchronization signal SYNC and the terminal IDs of wearable terminals 10-1 to 10-3 constitute one set (corresponding one-to-one), and the set is a plurality of times (as shown in FIG. 5). If there are four sensors, a multiple of 4) is repeated.
1番目のウェアラブル端末10−1が無変調期間に入ると同時に、2番目のウェアラブル端末10−2のID変調期間が開始する。同様に2番目のウェアラブル端末10−2が無変調期間に入ると同時に、3番目のウェアラブル端末10−3のID変調期間が開始する。 As soon as the first wearable terminal 10-1 enters the non-modulation period, the ID modulation period of the second wearable terminal 10-2 starts. Similarly, the ID modulation period of the third wearable terminal 10-3 starts at the same time as the second wearable terminal 10-2 enters the non-modulation period.
2番目のウェアラブル端末10−2のID変調期間内と3番目のウェアラブル端末10−3のID変調期間内とにおいては、同期信号SYNCとウェアラブル端末10−2、10−3の端末IDが繰り返し変調される。このように、ウェアラブル端末10の端末IDを変調信号内に乗せることで、端末IDが検出可能である。
In the ID modulation period of the second wearable terminal 10-2 and the ID modulation period of the third wearable terminal 10-3, the synchronization signal SYNC and the terminal IDs of the wearable terminals 10-2 and 10-3 are repeatedly modulated. Is done. Thus, the terminal ID can be detected by placing the terminal ID of the
上記の例では、ウェアラブル端末10−1〜10−3のそれぞれの変調タイミングは、時分割(間欠化)されている。しかし、例えば全てのウェアラブル端末10−1〜10−3について、連続的に変調されるものとし、ウェアラブル端末10−1〜10−3のそれぞれの変調基準周波数が変化されてもよい。また、スペクトル拡散時のそれぞれの周波数スペクトル特性が変化されてもよい。 In the above example, the modulation timings of the wearable terminals 10-1 to 10-3 are time-division (intermittent). However, for example, all the wearable terminals 10-1 to 10-3 may be continuously modulated, and the modulation reference frequencies of the wearable terminals 10-1 to 10-3 may be changed. Moreover, each frequency spectrum characteristic at the time of spectrum spreading may be changed.
図5(d)、(e)、(f)、(g)が示すように、光センサ62−1〜62−4からの情報通信期間は、各ID変調期間において細かく分割されている。 As shown in FIGS. 5D, 5E, 5F, and 5G, the information communication period from the optical sensors 62-1 to 62-4 is finely divided in each ID modulation period.
図4に示すように、初期の時点では、ウェアラブル端末10−1からの漏れ光の一部が、光センサ62−4に到達する。そのため、初期の時点では、図5(k)に示すように、光センサ62−4がウェアラブル端末10−1からの漏れ光を検出する。しかし、ウェアラブル端末10−1が光センサ62−1へ向かって移動するにつれて、光センサ62−4が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅が減少して行く。一方、図5(h)に示すように、光センサ62−1が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅は、時間の経過と共に増加する。このように、光センサ62−1〜62−nが検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの位置の時間変化(移動状態)が検出できる。 As shown in FIG. 4, at the initial time, part of the leaked light from the wearable terminal 10-1 reaches the optical sensor 62-4. Therefore, at the initial time, as shown in FIG. 5 (k), the optical sensor 62-4 detects the leaked light from the wearable terminal 10-1. However, as the wearable terminal 10-1 moves toward the optical sensor 62-1, the modulation signal amplitude of the leaked light from the wearable terminal 10-1 detected by the optical sensor 62-4 decreases. On the other hand, as shown in FIG. 5 (h), the modulation signal amplitude of the leaked light from the wearable terminal 10-1 detected by the optical sensor 62-1 increases with time. In this way, by comparing the time change of the amplitude of the modulation signal detected by the optical sensors 62-1 to 62-n, the time change (moving state) of the position of the wearable terminal 10-1 to 10-m that is the detection target. Can be detected.
一方、初期の時点で、ウェアラブル端末10−2が光センサ62−3に向いているので、漏れ光から得られる変調信号振幅に関して、光センサ62−2での検出値より光センサ62−3での検出値の方が大きい。この後、例えば2番目のユーザが首を振り、一時的に光センサ62−2を向いたとする。すると、光センサ62−2が出力するウェアラブル端末10−2の検出出力は、図5(i)に示すように、一時的に増加した後、減少する。他方、光センサ62−3が出力するウェアラブル端末10−2の検出出力は、図5(j)に示すように、一時的に減少した後、増加する。 On the other hand, since the wearable terminal 10-2 is directed to the optical sensor 62-3 at the initial time, the modulation signal amplitude obtained from the leaked light is detected by the optical sensor 62-3 from the detection value of the optical sensor 62-2. The detected value of is larger. Thereafter, for example, it is assumed that the second user swings his head and temporarily faces the optical sensor 62-2. Then, the detection output of the wearable terminal 10-2 output by the optical sensor 62-2 temporarily increases and then decreases as shown in FIG. 5 (i). On the other hand, as shown in FIG. 5 (j), the detection output of the wearable terminal 10-2 output by the optical sensor 62-3 increases after being temporarily reduced.
このように、光センサ62が検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの向きの時間変化も推定できる。
In this way, by comparing the time change of the modulation signal amplitude detected by the
上記の検出例は、ユーザの動きとして、移動や首振りである場合の例である。しかしそれに限らず、ユーザのさまざまな別の行動を利用してもよい。例えば、ユーザの手の移動や上体(身体)のひねり、等により漏れ光を一時的に遮光してもよい。この場合、全ての光センサ62−1〜60−4において、共通に、同一の時間帯に、変調信号振幅の一時的な減少が生じる。このように、全ての光センサ62−1〜60−4の変調信号振幅の変化の関連性を比較することで、ユーザの異なる行動パターンが識別可能である。 The above detection example is an example in the case of movement or swing as the user's movement. However, the present invention is not limited to this, and various other actions of the user may be used. For example, the leakage light may be temporarily blocked by moving the user's hand, twisting the upper body (body), or the like. In this case, in all the optical sensors 62-1 to 60-4, the modulation signal amplitude temporarily decreases in the same time zone. Thus, by comparing the relevance of the change in the modulation signal amplitude of all the optical sensors 62-1 to 60-4, it is possible to identify different behavior patterns of the user.
以上の方法を利用することにより、単なるユーザの行動を検出するだけでなく、ユーザの意思も認識することが可能である。 By using the above method, it is possible not only to detect the user's behavior but also to recognize the user's intention.
なお、ウェアラブル端末10の位置(x,y,z)を検出する方法として、ビーコンを用いてもよい。上述の例では、多数のウェアラブル端末10から端末識別情報が変調された光が多数の光センサ60に出射され、多数の光センサ60が受信した情報を比較処理して、ウェアラブル端末10の位置、状態を検出したが、多数の位置情報発信器をワークエリア60内に配置し、発信器から配置位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信すれば、それを受信したウェアラブル端末10は発信器の位置とほぼ同じ位置であると見なすことができる。さらに、GPSを利用してウェアラブル端末の位置を検出することもできる。位置検出は、一種類の方法のみに基づく必要は無く、複数の方法を併用すると、検出精度を向上できる。
Note that a beacon may be used as a method of detecting the position (x, y, z) of the
図6は、ウェアラブル端末を使用するシステム全体の一例を示す。システムは、1又は複数のLAN102と、1つの広域ネットワーク104からなる。広域ネットワーク104は工場、ビル、企業毎のネットワークでもよいし、インターネットでもよい。LAN102は、例えば、工場の建屋、部署、ビルのフロア、企業の営業所等の単位であってもよい。各LAN102は複数のウェアラブル端末10、管理者端末202、複数の光センサ62、アクセスポイント112、複数の位置情報発信器113、複数のカメラ114等からなる。ウェアラブル端末10、管理者端末202、光センサ62、位置情報発信器113、カメラ114等は無線によりアクセスポイント112に接続される。LAN102は広域ネットワーク104を介してコミュニケーションサーバ106に接続される。位置情報発信器113は、位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信する。カメラ114は、LAN102のエリア内を撮影するものであり、その画像を解析することによっても、ユーザの行動を知ることができる。例えば、ユーザ毎の標準画像を記憶しておいて、ユーザがウェアラブル端末10を取り付ける際の画像又は取り外す際の画像と比較することにより、装着ユーザを特定できる。多数のカメラを配置できない場合は、撮影方向が可変で、一台で広範囲のユーザを撮影できるカメラ114を配置してもよい。
FIG. 6 shows an example of the entire system using a wearable terminal. The system includes one or more LANs 102 and one
コミュニケーションサーバ106は情報検索部120、位置・情報管理部122、装着者推定部124、スケジュール管理部126等を含む。
The
位置・状態管理部122は、ウェアラブル端末10や管理者端末202の位置及び状態に関する情報を収集し、管理する。また、情報検索部120からそれらの情報を抽出する。スケジュール管理部126は、端末を装着する従業員の予定情報・出退勤記録を管理・提供するための機能を持つ。予定情報は、従業員の作業予定(何時から何時までは何処エリアにいて○○作業に従事する予定等)と、出/退勤時刻、作業記録(何時から何時までは何処エリアにいて○○作業に従事した等)を含む。また、情報検索部120からそれらの情報を抽出する。情報検索部120は、位置・状態管理部122やスケジュール管理部126の持つ情報を検索・処理するための機能を持つ。装着者推定部124は、管理している従業員の既存の特徴量データと与えられたユーザの特徴量データとの相関をとることにより、装着者が誰であるかを決定してもよい。
The position /
図7は、ウェアラブル端末10の電気的な構成の一例を示す。ウェアラブル端末10は、CPU140、システムコントローラ142、メインメモリ144、ストレージデバイス146、マイク148、スピーカ54、投影処理部150(光源28、表示部30を制御する)、カメラ59、無線通信デバイス152、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、タッチパッド55、バイブレータ68、位置情報受信器159、GPSモジュール155等を備える。
FIG. 7 shows an example of the electrical configuration of the
CPU140は、ウェアラブル端末10内の各種モジュールの動作を制御するプロセッサであり、SSD又はフラッシュアレイ等の不揮発性の半導体メモリからなるストレージデバイス146からメインメモリ144にロードされるコンピュータプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)、および各種アプリケーションプログラムが含まれている。CPU140は、各種アプリケーションプログラムを実行し、無線通信デバイス152を使ってネットワーク経由でコミュニケーションサーバ106と通信することにより、例えば以下のような処理を行う。例えば、CPU140は、マイク148を使って音声入力を行い、音声データをコミュニケーションサーバ106へ送ったり、イヤホンジャック54Bに接続される図示しないステレオイヤホン又はスピーカ54から音を鳴らす等、様々の制御を行う。ステレオスピーカが必要である場合、図1、図2には図示しないが、左眼側のテンプルにもスピーカを設けてよい。
The
システムコントローラ142は、CPU140のローカルバスと各種コンポーネントとの間を接続するデバイスである。マイク148はマイクジャック56に接続され、ユーザが発する音声又は環境音を収集する。ユーザの発する音声を音声認識すること又は環境音を分析することにより、ユーザの行動の推定ができ、ユーザを特定できる。例えば、ユーザ毎の標準音声を記憶しておいて、装着者が発生する音声と比較することにより、装着ユーザを特定できる。また、環境音を分析することにより、装着者が位置する作業場所を特定することができ、ユーザの行動予定表から当該場所にいる筈のユーザを絞り込むことができる。スピーカ54はユーザの注意を喚起するアラーム等を出力する。投影処理部150は、表示部30に画像信号を出力し、光源28を点灯することにより、スクリーン16に表示部30の画像を投影する。この画像は静止画のみならず、動画も含むことができる。無線通信デバイス152は、例えば無線LAN機能を有し、ウェアラブル端末10とアクセスポイント112とを無線で接続する。
The
モーションセンサ154は、3軸加速度、3軸ジャイロ、3軸地磁気センサを統合したセンサであり、ウェアラブル端末10を使用するユーザの頭の動きを検出でき、その結果、顔が向いている方角を判別する。視線検出センサ156は、メガネのフレーム中心の内側にユーザの顔に向けて設けられ、ユーザの眼球を撮影し、視線の動きを検出する。さらに、視線検出センサ156は、ユーザの虹彩を検出可能としてもよい。ジェスチャセンサ158は、指の動きによるジェスチャを判別するセンサである。具体的には、投影装置12に設けられたタッチパッド55上の指の動きや、カメラ59の画像を解析すること等により、ユーザのジェスチャを判別するセンサの総称である。バイブレータ68は、投影装置12を振動させることによりウェアラブル端末10のテンプルを振動させ、ユーザに何かの情報を伝える。位置情報受信器159は、LAN102のエリア内に複数配置された位置情報発信器113からRF−ID等の近距離無線通信を利用して発信される位置情報を含むビーコンを受信する。近距離無線通信なので、発信器と受信器(ウェアラブル端末)との位置はほぼ同じと見做すことができる。GPSモジュール155は、ウェアラブル端末10の位置(x,y,z)を検出する。この検出結果と、位置情報受信器159の検出結果と、図3の光センサ62の検出結果を総合することにより、より正確にユーザの位置、その変化を検出できる。
The
次に、このように構成されたウェアラブル端末10、コミュニケーションサーバ106によるウェアラブル端末のユーザが誰であるかの決定を説明する。ここでは、ウェアラブル端末10の使用環境は、多数の作業対象があり、多数の作業工程からなり、多数の作業者が関与する作業現場を想定する。作業者を監督する管理者が所定のエリア、例えばLAN102のエリア毎に配置され、管理者は管理者端末202を使用するとする。管理者端末202は、ウェアラブル端末10と同じ構成でもよいが、管理者は移動する必要が無いので、通常のパソコンやタブレットと同じ構成で良く、管理者端末202の詳細な説明は省略する。作業現場に居る作業者全員がウェアラブル端末10を装着する必要は無い。そのため、ウェアラブル端末10は作業者全員分用意しておく必要は無く、所定個数のみ用意しておき、必要な作業者が空いている共有ウェアラブル端末を装着する。システムは、装着の際、ユーザを特定する必要がある。この理由は、特定のユーザに対して、スクリーン16の投影像、スピーカ54からの音、バイブレータ68の振動等により、何かを通知するため、又はウェアラブル端末10の装着状況に基づき作業者の作業行動を管理するため等である。
Next, determination of who is the wearable terminal user by the
図8はウェアラブル端末10の処理、図9はコミュニケーションサーバ106の処理の流れを示すフローチャートである。
FIG. 8 is a flowchart showing the process of the
ウェアラブル端末10では、CPU140は、ブロックB12で、電源オンしているか否かを判定する。オンしている場合、CPU140は、ブロックB14で、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158のうちのいずれか1又は複数の出力を収集する。CPU140は、ブロックB16で、内蔵のカメラ59及び/又はマイク148の出力も収集する。
In the
CPU140は、ブロックB20で、これらの出力を演算処理して、ウェアラブル端末10の動き、言い換えるとウェアラブル端末10を所持しているユーザの行動を示す特徴量を計算する。特徴量は、例えば、モーションセンサ154から得られる加速度や角速度のある時間内の時系列データから計算した周波数成分である。得られた周波数成分において、推定したい処理に重要な成分が強調等の様々な信号処理を施されてもよい。推定処理では、ある時間分の特徴量を纏めた時系列データが解析に用いられる。モーションセンサ154の出力に基づき、ユーザの手の動きを表す特徴量が計算できる。視線検出センサ156の出力に基づき、ユーザの視線の動きを表す特徴量が計算できる。ジェスチャセンサ158の出力に基づき、ユーザの手の動きを表す特徴量が計算できる。内蔵カメラ59が撮影した画像を分析することにより、ユーザの顔を含む体の動きを表す特徴量が計算できる。同様に、マイク148が集音した環境音を認識することによっても、ユーザの動きを表す特徴量が計算できる。例えば、ウェアラブル端末10を顔にかける際又は顔から取り外す際のテンプルと皮膚又は頭髪との摩擦音に基づき、ウェアラブル端末の装着状況を知ることができる。さらに、マイク148が集音したユーザが発する音声を認識することによって、ユーザを特定することもできる。なお、特徴量の計算のためには、必ずしもこれらの全ての出力が必要であるという訳ではなく、計算に使用する信号は適宜選択可能である。
In block B20, the
このように、ウェアラブル端末10は電源がオンしている限り、ウェアラブル端末10の動き、言い換えるとウェアラブル端末10を所持しているユーザの行動を示す特徴量を常時計算している。ウェアラブル端末10を顔にかける際又は顔から取り外す際、すなわち着脱の際は、ユーザの行動に個人個人の癖が出やすい。従って、着脱開始が検出されてから一定期間又は一定個数の特徴量に基づいて、ユーザを特定する。
As described above, as long as the power is turned on, the
CPU140は、ブロックB22で、計算した特徴量が、予め求められて記憶している着脱時の特徴量と相関が高いか否かを判定する。否の場合、ブロックB12の判定処理が再び実行される。相関が高いと判定されると、ユーザを特定するための一定時間のウィンドウ処理が開始される。ここでは、一定時間内に複数回、特徴量が計算され、複数の特徴量に基づいてユーザが特定されるようになっているが、一定時間のウィンドウ処理ではなく、所定個数の特徴量が計算されるまでの可変時間のウィンドウ処理でもよい。
In block B <b> 22, the
CPU140は、ブロックB24で、ブロックB14、B16、B20と同様に、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、内蔵のカメラ59、マイク148のうちのいずれか1又は複数の出力を収集し、予め定められた演算によりユーザの行動を表す特徴量を1つ計算する。CPU140は、ブロックB26で、この1つの特徴量を蓄積する。CPU140は、ブロックB28で、ブロックB24の開始から一定時間が経過したか否かを判定する。否の場合、ブロックB24のデータ収集・特徴量計算処理が再び実行され、特徴量が次々と蓄積される。
In block B24, the
一定時間が経過すると、CPU140は、ブロックB32で、ブロックB22で判断された着脱時の特徴量及びブロックB26で蓄積された複数の特徴量とをコミュニケーションサーバ102へ送信する。
When the predetermined time has elapsed, the
コミュニケーションサーバ106では、図9に示すように、位置・状態管理部122が、ブロックB44で多数の光センサ62の出力を受信して、多数のウェアラブル端末10の位置、状態を検出し、表1に示すような位置・状態管理表に書き込む。位置・状態管理表は端末ID、日時、位置、状態、特徴量、ユーザIDの項目を有する。ブロックB44では、端末ID、日時、位置のみが書き込まれる。ブロックB44が繰り返される毎に、時刻が更新され、それに応じて位置・状態管理表が更新される。
情報検索部120は、ブロックB32でいずれかのウェアラブル端末10から送信された特徴量を受信することをブロックB46で待つ。ウェアラブル端末10からの特徴量を受信するまで、ブロックB44の処理が再び実行される。受信した場合、情報検索部120は、受信した特徴量を位置・状態管理表に書き込む。ここでは、端末ID=02のウェアラブル端末から特徴量が送信されたとする。端末ID=02のウェアラブル端末の特徴量が書き込まれた段階の位置・状態管理表を表2に示す。
位置・状態管理部122は、ブロックB48で、エリア内のいくつかのカメラ114のなかの端末ID=02のウェアラブル端末の位置(X1,Y1)を撮影対象に含むカメラ114の出力画像を入力し、画像を解析する。この解析により、位置(X1,Y1)付近のユーザの有無が分かる。光センサ62の出力からユーザの位置(X1,Y1)が検出されたにも関わらず画像からはユーザが居ないと判断された場合、光センサ62による検出結果はエラーであると判定できる。このようなエラーが発見された場合、位置・状態管理部122は、対応する位置情報を不定に変更する。このように複数のセンサの出力を総合してウェアラブル端末の位置を検出するので、精度が向上する。
In block B48, the position /
情報検索部120は、ブロックB52で、位置・状態管理部122内の位置・状態管理表から、表3に示すような、未装着の状態を持つユーザの一覧である未装着者リストを生成し、そのリストとブロックB46で受信した特徴量とを装着者推定部124へ送る。どのウェアラブル端末の状態も未確定の初期状態では全てのユーザが未装着とされる。
情報検索部120は、ブロックB54で、スケジュール管理部126から表4に示すようなユーザ別スケジュール表を読み出して、これを参照して、出勤していない作業者又は他の場所の作業に従事する筈でありこの場所に居る筈のない作業者等を特定し、表4に示すように、そのような作業者の状態を不在に変更する。
これにより、未装着者リストを絞り込むことができるので、後段の相関演算の演算量が減るとともに、演算時間が短縮される。さらに、装着・未装着の判定の精度も向上する。 As a result, the list of non-wearing users can be narrowed down, so that the amount of subsequent correlation calculation is reduced and the calculation time is shortened. Furthermore, the accuracy of mounting / non-mounting determination is improved.
装着者推定部124は、ブロックB46で受信した特徴量と未装着者リストに基づき、受信した特徴量が未装着のユーザの中でどのユーザの着脱時の標準特徴量に最も相関が高いかを調べ、装着者候補を抽出する。抽出する候補者の数は、一人に限らず、複数人でもよい。全作業者のウェアラブル端末の着脱時の標準特徴量が予め調べられ、表5に示すようなユーザ別標準特徴量表が装着者推定部124に記憶されている。標準特徴量は、全作業者にウェアラブル端末を付けたり、外したりしてもらい、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、内蔵のカメラ59、マイク148のうちのいずれか1又は複数の出力に対して、ウェアラブル端末のCPU140がブロックB24で実行する演算と同じ演算を施して求める。
相関演算は全てのユーザが対象ではなく、装着していないと判断されているユーザに限定されているので、短時間に、しかも精度良くユーザを特定できる。装着者推定部124は、ブロックB58で、特徴量を送信した端末ID=02のウェアラブル端末10へ特定結果を候補として送信する。
Since the correlation calculation is not intended for all users and is limited to users who are determined not to be worn, the user can be specified with high accuracy in a short time. In block B58, the
端末ID=02のウェアラブル端末10では、図8に示すように、CPU140は、ブロックB34でコミュニケーションンサーバ106から候補を受信したか否か判定する。候補を受信した場合、CPU140は、ブロックB36で、候補を表示部30で表示し、光源28を発光し、候補をスクリーン16に表示する。例えば、表示例は「貴方は○○さんですね?」のようにユーザに確認を求めるような表示でもよい。これに対して、ブロックB38に示すように、ユーザはハイ/イイエの決定をする。決定操作の具体例は、顔を「縦/横」に振る、「はい/いいえ」をマイク148から入力する、タッチパッド55を1回(ハイ)/2回(イイエ)タッチ/タップする、1本指(ハイ)/2本指(イイエ)でタッチする、指のジェスチャ操作等がある。ジェスチャ操作はカメラ59で撮影された画像の解析により認識することもできる。候補が複数の場合、「貴方は(1)AAさんですか、(2)BBさんですか、(3)CCさんですか?」のような表示が行われ、選択操作が行われる。選択操作は、顔を選択肢に応じた回数だけ振る、選択肢の数字をマイク148から入力する、タッチパッド55を選択肢に応じた回数だけタッチ/タップする、タッチパッド55を選択肢に応じた本数の指でタッチする、指のジェスチャ操作等がある。決定操作の処理結果は、ウェアラブル端末10からコミュニケーションサーバ106へ送信される。
In
ウェアラブル端末10では、決定操作がなされた後、終了でなければ、ブロックB12の処理が繰り返される。
In the
図9に示すように、コミュニケーションサーバ106では、装着者推定部124は、ブロックB62で、ウェアラブル端末10から決定操作の処理結果が送信されたか否かを判定する。処理結果を受信すると、ブロックB64で、状態管理部122は、表6に示すように、位置・状態管理表に端末ID=02のウェアラブル端末の装着者のユーザIDを書き込み、位置・状態管理表を更新する。
コミュニケーションサーバ106は、上述の処理を繰り返し実行する。
The
このように実施形態は、ウェアラブル端末10の動作を表す特徴量と各ユーザの装着時の標準特徴量との相関を計算してウェアラブル端末を使用するユーザを特定する際、既に装着されていると判定されたユーザは除いて未装着ユーザの特徴量との相関のみを計算する。このため、相関を求める計算量が少なくなり、計算時間が短くなるとともに、ユーザ特定の精度が向上する。
As described above, when the user who uses the wearable terminal is identified by calculating the correlation between the feature amount representing the operation of the
実施形態では、多数種類のセンサ、カメラ、マイクの出力に基づいて特徴量を求めているが、これら全てを使用する必要は無く、状況に応じていずれか1又は複数を適宜選択可能である。取り付けの際のみならず取り外しの際もユーザ特定処理を行っているが、取り付けの際だけでもよい。ユーザ特定のためのウィンドウ処理は一定時間でも一定数の特徴量が得られるまでのいずれでもよい。 In the embodiment, the feature amounts are obtained based on outputs of a large number of types of sensors, cameras, and microphones. However, it is not necessary to use all of them, and any one or a plurality can be selected as appropriate according to the situation. The user specifying process is performed not only at the time of attachment but also at the time of removal. The window processing for user identification may be performed for a certain period of time until a certain number of feature quantities are obtained.
推定のための特徴量はウェアラブル端末で求め、その相関演算はサーバ側で行ったが、ウェアラブル端末で相関演算まで行い、サーバを不要としてもよい。 The feature quantity for estimation is obtained by the wearable terminal and the correlation calculation is performed on the server side. However, the correlation calculation is performed by the wearable terminal, and the server may be unnecessary.
図10は他の実施形態のシステム全体の一例を示す。LAN102は図6の構成に加えて、作業者が作業する装置115もアクセスポイント112を経由してネットワーク104に接続されている。装置115は、何でもよいが、ここでは、定期的に点検、保守が必要であり、時々故障する可能性があり作業者が復旧対応する製造設備とする。
FIG. 10 shows an example of the entire system according to another embodiment. In addition to the configuration of FIG. 6, the LAN 102 is also connected to a
コミュニケーションサーバ106は図6の構成に加えて、音声コマンド処理部128、通話処理部130等を含む。
The
音声コマンド処理部128は、ユーザが発した音声をコミュニケーションサーバ106上で対応するサービスを実行するための命令に変換する。音声コマンド処理部128に対する入力データとしては、マイクから収集された音声データそのものである場合や、入力音声の音声認識後のテキストデータである場合等があり、この点については特に限定しない。通話処理部130は、端末間のインスタントメッセージング機能や音声による通話機能を実現するためのホスト機能を持つ。
The voice
ウェアラブル端末10の電気的な構成は図7と同じであるので、図示は省略するが、CPU140は、図7で説明した処理に加えて、マイク148を使って音声入力を行い、音声データをコミュニケーションサーバ106の音声コマンド処理部128へ送ったり、イヤホンジャック54Bに接続される図示しないステレオイヤホン又はスピーカ54から音を鳴らしたり、コミュニケーションサーバ106の音声コマンド処理部128の処理結果に基づき電子マニュアルをストレージデバイス146にダウンロードし、メインメモリ144上にその一部を展開しながら、表示部30上に表示され、スクリーン16に投影される画像イメージを生成する等、様々の制御を行うことも可能である。
Since the electrical configuration of
図10のシステムの使用例を説明する。このシステムはコミュニケーションサーバ106を有し、ウェアラブル端末のユーザ間、あるいはウェアラブル端末のユーザと管理者間等のコミュニケーション機能、例えばインスタントメッセージング機能を備えている。通常のインスタントメッセージング機能では、通話を開始したい人が通話開始要求を発すると、通話したい相手の端末の画面に通話開始画面が表示される。しかし、故障した装置115の復旧作業を行っている作業者のウェアラブル端末のスクリーン16に通話開始画面が突然表示されると、作業者の視界を奪う可能性があり、作業者が危険に晒される可能性がある。さらに、作業者が通話している間、復旧作業の中断が余儀なくされ、装置115の復旧に時間が係り、装置115の稼働率が低下する等の好ましくない事態も生じる。そこで、この実施形態では、作業を行っている作業者のウェアラブル端末の画面に情報を突然表示することを避けて作業者の視界を遮ることなく、効率的な通知を行う。具体的には、通知をしたい作業者のウェアラブル端末で通話開始の通知音が発生され、作業者がそれに対して肯定的に応答した場合に初めて通話開始画面が作業者のウェアラブル端末のスクリーンに表示される。通知音はイヤホンジャック54Bに接続される図示しないステレオイヤホンから発生される。通知音は単なる音であるが、例えば、右上、左横等の3次元空間上の発生位置を制御可能であり、通知する状況に応じて発生位置が決められている。このため、作業者は単なる音の発生位置に基づいて通知の内容を認識することができるので、作業中でも集中が途切れることなく、通知を受けることができる。もしも、通知音ではなく、メッセージ音声を作業者に聞かせると、作業者はメッセージに気を取られ、作業が中断又は装置115に手を挟まれる等の危険な状態になるおそれがある。
An example of use of the system of FIG. 10 will be described. This system includes a
図11は、管理者が作業者に対して通話をしたい場合の管理者端末202、コミュニケーションサーバ106、ウェアラブル端末10の各処理の流れを示すフローチャートである。
FIG. 11 is a flowchart showing the flow of each process of the
管理者は、管理者端末202において、ブロックB102で、インスタントメッセージングアプリケーションを起動し、ブロックB104で、作業者Xとの通話を要求する。
In the
コミュニケーションサーバ106では、通話処理部130が、ブロックB112で、通話要求を受信する。ここでも、コミュニケーションサーバ106は、図9に示すように、光センサ62の出力を常時受信して、ウェアラブル端末10の位置・状態をリアルタイムで管理している。さらに、コミュニケーションサーバ106は、管理者端末202の位置も管理している。このため、管理者端末202はGPS機能を有し、緯度、経度、高度を検出可能に構成されてもよい。通話処理部130は、ブロックB114で、位置・状態管理部122から管理者端末202とユーザXのウェアラブル端末の位置・状態を検出する。通話処理部130は、ブロックB116で、ユーザXのウェアラブル端末へ通話要求を送信するともに、管理者端末の位置情報も送信する。
In the
ユーザXのウェアラブル端末では、ブロックB122で、通話要求が着信されると、ブロックB124で、CPU140は、モーションセンサ154等の出力に基づいて作業者の顔の向きを検出する。CPU140は、ブロックB126で、管理者の位置(緯度、経度、高度)、ユーザXの顔の向きに基づいて、ステレオイヤホンを用いて発生させる通知音の立体音響として再現する空間上の位置を計算する。ここでは、着信者(ユーザX)から発信者(管理者)の実際の方角に対する位置に対して通知音が発生するように空間上の位置を計算する。ブロックB128で、CPU140は、通知音の音量を決定する。音量は、発信者と着信者との距離によって決めてもよいし、着信者にとっての発信者がどのような相手かを判別するインスタントメッセージングアプリケーション上の設定によって決めてもよい。
In the wearable terminal of the user X, when a call request is received at block B122, the
これ以降の処理は、発信者が通話処理をキャンセルするか通話処理を行うまで繰り返される。CPU140は、ブロックB132で、管理者が通話処理をキャンセルするか否か判定する。否の場合、CPU140は、ブロックB134で、通知音をステレオイヤホンから発生させる。スピーカ54がステレオスピーカである場合は、スピーカ54から発生させてもよい。
The subsequent processing is repeated until the caller cancels the call processing or performs the call processing. In block B132, the
作業者は管理者の位置を知っているので、その方角から通知音が聞こえた場合、管理者が自分に通知を出したいことを知る。作業者は、作業を中断できる状況又は通知に応答しても危険ではない状況等を勘案して、通知に応答するか否か判断する。応答できる場合、作業者は管理者の方に顔を向ける又は視線を合わせることが定められている。このように、顔の動きだけで応答できるので、手を休めることなく作業を継続したまま、通知に対して容易に対応することができる。 Since the worker knows the position of the manager, when the notification sound is heard from the direction, the manager knows that he / she wants to give a notice to himself / herself. The worker determines whether to respond to the notification in consideration of a situation where the work can be interrupted or a situation where it is not dangerous to respond to the notification. If it is possible to respond, the operator is required to turn his face or look at the manager. Thus, since it can respond only by the movement of the face, it can respond easily to the notification while continuing the work without resting hands.
CPU140は、ブロックB136で、モーションセンサ154の出力に基づいて作業者の顔の向きを検出し、ブロックB138で、作業者の顔が管理者に向いているか否かを判定する。向いている場合、ブロックB146で、通話開始のためのユーザインターフェースをスクリーン16に投影する。
In block B136, the
ブロックB138で、作業者の顔が管理者の位置に向いていないと判定された場合、CPU140は、ブロックB142で、視線検出センサ156の出力に基づいて作業者の視線の向きを検出し、ブロックB144で、作業者の視線が管理者に向いているか否かを判定する。向いている場合、ブロックB146で、通話開始のためのユーザインターフェースをスクリーン16に投影する。
If it is determined in block B138 that the operator's face is not facing the manager's position, the
このように、作業を行っている作業者のウェアラブル端末のスクリーン16に通話開始画面が突然表示されるのではなく、その前に、作業者に通話要求があったことを音により知らせ、作業者が通話を開始できると判断し、何らかの応答操作を行った場合のみ、スクリーン16に通話開始画面が表示される。このため、作業者の視界が突然奪われることがなく、作業者が危険に晒されることや作業が中断されることがない。なお、通知音に対する作業者の応答操作は、図11に示す顔又は視線の向きによらず、顔及び視線の向きによってもよいし、第1実施形態の装着者候補の問い合わせに対する応答と同じように、顔を「縦/横」に振る、「はい/いいえ」をマイク148から入力する、タッチパッド55を1回(ハイ)/2回(イイエ)タッチ/タップする、1本指(ハイ)/2本指(イイエ)でタッチする、指のジェスチャ操作等でもよい。
In this way, the call start screen is not suddenly displayed on the
CPU140は、ブロックB148で、スクリーン16に投影されているユーザインターフェース上で作業者が通話を開始する操作を行ったか否か判定する。通話開始の操作を行ったと判定すると、通話を開始する。なお、ブロックB148の判定を省略し、ユーザインターフェースが表示されると、即座に通話を開始してもよい。
In block B148, the
なお、フローチャート上では示していないが、通知音が発生してから応答するまで間の繰り返し処理では、逐次ウェアラブル端末の向きを検出し、通知音を立体音響として再現する空間上の位置を定期的に再計算し、通知音を繰り返し発生させてもよい。 Although not shown in the flowchart, in the iterative processing from when the notification sound is generated until it responds, the orientation of the wearable terminal is sequentially detected, and the position in the space where the notification sound is reproduced as stereophonic sound is periodically determined. The notification sound may be repeatedly generated.
音場の位置計算として、発着者間の位置関係で直接計算することを説明したが、これ以外にも、発信者の位置情報をエリア単位で音場の位置に対応づける方法や、発信者毎の設定情報に基づいて音場の位置を決め、どのエリアもしくは誰からの通知かを判別できるようにしてもよい。 We explained that the sound field position is calculated directly based on the positional relationship between the callers, but in addition to this, a method for associating the caller's position information with the sound field position in units of areas, The position of the sound field may be determined based on the setting information, and it may be possible to determine which area or from whom the notification is sent.
通話以外にも、一定の条件に該当する人や装置を検索するために、コミュニケーションサーバ106の情報検索部120に問い合わせ、その検索結果の候補を音の位置として作業者に提示することもできる。
In addition to a call, in order to search for a person or device that meets certain conditions, the
また、情報検索部120への問い合わせ方法については、装着者が行う方法以外にも、装置115が異常状態となった際に、そのステータスをコミュニケーションサーバ106の位置・状態管理部122が検出し、伝えるべき作業者、伝えるべき作業者の位置情報を収集し、異常状態となった装置114の位置情報、それらの位置情報及び異常ステータスの内容から、スケジュール管理部126及び位置・状態管理部122に対して一定条件を満たす作業者候補を検索した結果を、作業者に音の位置として提示することもできる。
In addition to the method performed by the wearer, the method for inquiring to the
更に、一定条件を満たす候補者にコミュニケーションサーバから作業状況を問い合わせ、その結果を収集して、その情報を伝えるべき人に提示できるようにしてもよい。 Further, a candidate who satisfies a certain condition may be inquired about the work status from the communication server, and the result may be collected and presented to a person who should convey the information.
第2実施形態によれば、発信者がウェラブル端末をかけて、両手を使い、危険な作業を行っている作業者とのコミュニケーションをとる場合、ウェラブル端末上のディスプレイへ唐突に情報を表示せずに、発信者との位置関係や設定情報に基づいた音場を決定して立体音響による通知をする。このように危険な作業を行っている可能性のある作業者の視界を突然奪うことがないため、ウェアラブル端末のディスプレイ機能を安全に利用できる。 According to the second embodiment, when a caller wears a wearable terminal and uses both hands to communicate with a worker who is performing a dangerous work, information is not displayed on the display on the wearable terminal suddenly. In addition, the sound field based on the positional relationship with the caller and the setting information is determined, and notification is made using three-dimensional sound. In this way, the display function of the wearable terminal can be used safely because it does not suddenly take away the field of view of a worker who may be performing dangerous work.
なお、事前通知の方法として音を説明したが、これに限らず、視界を遮らない程度であれば、スクリーンの画像によって通知してもよい。例えば、表示する投影像の一部の色を変える、部分的に色を変化させる、点滅させる等が可能である。バイブレータ68によりメガネを振動させてもよい。さらに、事前通知は一種類のみではなく、緊急度に応じて音の種類、音色、メロディーなど変えてもよい。
In addition, although the sound was demonstrated as a prior notification method, it is not restricted to this, You may notify by the image of a screen, if it is a grade which does not block a visual field. For example, it is possible to change the color of a part of the projected image to be displayed, to partially change the color, or to blink. The glasses may be vibrated by the
実施形態としてメガネ型ウェアラブル端末を説明したが、ゴーグル型、ヘルメット型等の他の頭部装着型でもよいし、リストバンド型、ペンダント型等にも本発明は適用可能である。例えば、ヘルメット型又はゴーグル型にすると、投影装置12、カメラ59をヘルメット又はゴーグルに取り付けることができ、通常のメガネユーザも使用できる。さらに、ヘルメット型にすると、スピーカ54をヘルメットの内側に取り付けることができるので、よりクリアな音を聴くことができるとともに、マイクをヘルメットに取り付け、しかも位置を調整できるので、マイクの集音能力が向上する。
The glasses-type wearable terminal has been described as an embodiment, but other head-mounted types such as a goggle type and a helmet type may be used, and the present invention is applicable to a wristband type and a pendant type. For example, in the case of a helmet type or goggles type, the
また、頭部装着型以外のウェアラブル端末にも本発明は適用可能である。 The present invention can also be applied to wearable terminals other than the head-mounted type.
さらに、ウェアラブルでなくても携帯可能な小型軽量で、常にユーザとともにある電子機器、例えば、ノートブック型パソコン、タブレット型パソコン、スマートフォンにも本発明は適用可能である。 Furthermore, the present invention can be applied to a small and light portable device that is not wearable and always with the user, such as a notebook computer, a tablet computer, and a smartphone.
ウェアラブル端末とコミュニケーションサーバとの機能分担は上述した説明の通りに限定されず、ウェアラブル端末の機能として説明したものの一部をコミュニケーションサーバの機能として実現してもよいし、コミュニケーションサーバの機能として説明したものの一部をウェアラブル端末の機能として実現してもよい。 The function sharing between the wearable terminal and the communication server is not limited as described above, and part of what is described as the function of the wearable terminal may be realized as the function of the communication server, or described as the function of the communication server. A part of the device may be realized as a wearable terminal function.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.
10…ウェアラブル端末、12…投影装置、16…スクリーン、54…スピーカ、55…パッチパッド、59…カメラ、62…光センサ、106…コミュニケーションサーバ、114…カメラ、148…マイク、152…無線通信デバイス、202…管理者端末。
DESCRIPTION OF
Claims (19)
前記ウェアラブル端末の動きを検出する検出手段と、
前記検出手段により検出された動きに基づいて、前記ウェアラブル端末の未装着者の中から前記ウェアラブル端末の装着者を特定する特定手段と、
を具備するウェアラブル端末。 A wearable terminal that can be worn on the head,
Detecting means for detecting movement of the wearable terminal;
Based on the movement detected by the detection means, a specification means for specifying a wearer of the wearable terminal among non-wearers of the wearable terminal;
A wearable terminal comprising:
前記特定手段は、前記装着者の候補に関する情報を前記表示画面に表示し、ユーザ操作に基づいて前記装着者を特定する請求項1記載のウェアラブル端末。 Further comprising a display screen positioned on the wearer's line of sight,
The wearable terminal according to claim 1, wherein the specifying unit displays information on the wearer candidate on the display screen, and specifies the wearer based on a user operation.
前記特定手段は、前記検出手段により検出された動きと、前記検出手段により検出された位置と、前記未装着者の行動スケジュールに基づいて前記装着者を特定する請求項1、請求項2又は請求項3記載のウェアラブル端末。 The detection means also detects the position of the wearable terminal,
The said specifying means specifies the said wearer based on the movement detected by the said detection means, the position detected by the said detection means, and the action schedule of the said non-wearing person. Item 4. The wearable terminal according to item 3.
検出された前記動きに基づいて、前記ウェアラブル端末の未装着者の中から前記ウェアラブル端末の装着者を特定することと、
を具備する方法。 Detecting the movement of a wearable terminal that can be worn on the head;
Identifying a wearer of the wearable terminal among non-wearers of the wearable terminal based on the detected movement;
A method comprising:
前記装着者の候補に関する情報を前記ウェアラブル端末に、かつ前記装着者の視線上に設けられた表示画面に表示することと、
ユーザ操作に基づいて前記装着者を特定することと、
を具備する請求項7記載の方法。 Identifying the wearer is
Displaying information on the wearer candidate on the wearable terminal and on a display screen provided on the wearer's line of sight;
Identifying the wearer based on a user operation;
The method of claim 7 comprising:
前記装着者を特定することは、検出された前記動きと、検出された前記位置と、前記未装着者の行動スケジュールに基づいて前記装着者を特定することを具備する請求項7、請求項8又は請求項9記載の方法。 Further comprising detecting a position of the wearable terminal;
The identification of the wearer includes identifying the wearer based on the detected movement, the detected position, and an action schedule of the non-wearer. Alternatively, the method according to claim 9.
前記ウェアラブル端末に設けられた3軸加速度センサ、3軸ジャイロ、3軸地磁気センサ、マイク、カメラの少なくともいずれかを具備する請求項7、請求項8、請求項9、請求項10又は請求項11記載の方法。 Detecting the position of the wearable terminal
The at least one of a 3-axis acceleration sensor, a 3-axis gyro, a 3-axis geomagnetic sensor, a microphone, and a camera provided in the wearable terminal is provided. The method described.
前記ウェアラブル端末の動きを検出する検出手段と、
複数の人に取り付けられる時のウェアラブル端末の動きに関する情報を記憶する第1記憶手段と、
前記検出手段から出力される動きに関する情報と前記第1記憶手段に記憶される動きに関する情報に基づいて、前記ウェアラブル端末の装着者を特定する特定手段と、
前記特定手段により特定された装着者と、前記ウェアラブル端末との対応関係を記憶する第2記憶手段と、を具備し、
前記特定手段は、前記第2記憶手段を参照して前記ウェアラブル端末の未装着者を抽出し、前記未装着者の中から前記装着者を特定するシステム。 A wearable device,
Detecting means for detecting movement of the wearable terminal;
First storage means for storing information relating to movement of the wearable terminal when attached to a plurality of persons;
Identification means for identifying a wearer of the wearable terminal based on information on movement output from the detection means and information on movement stored in the first storage means;
A second storage means for storing a correspondence relationship between the wearer specified by the specifying means and the wearable terminal;
The identification unit is a system for extracting a wearer of the wearable terminal with reference to the second storage unit and identifying the wearer from the non-wearer.
前記特定手段は、前記検出手段により検出された動きと、前記検出手段により検出された位置と、前記未装着者の行動スケジュールに基づいて前記装着者を特定する請求項13、請求項14又は請求項15のいずれか一項記載のシステム。 The detection means also detects the position of the wearable terminal,
The said specific | specification means specifies the said wearer based on the motion detected by the said detection means, the position detected by the said detection means, and the action schedule of the said non-wearing person. Item 16. The system according to any one of Items 15.
前記検出手段から出力される動きに関する情報が前記ウェアラブル端末を取り付ける時の動きに関する情報又は取り外す時の動きに関する情報と相関があるか否かを判定し、
相関があると判定した場合、前記検出手段から出力される動きに関する情報を複数の未装着者についてのウェアラブル端末を取り付ける時の動きに関する情報又は取り外す時の動きに関する情報との相関を求める請求項13、請求項14、請求項15又は請求項16記載のシステム。 The specifying means is:
It is determined whether or not the information about the movement output from the detection means is correlated with the information about the movement when attaching the wearable terminal or the information about the movement when removing the wearable terminal,
14. When it is determined that there is a correlation, the correlation between the information regarding the movement output from the detection means and the information regarding the movement when the wearable terminal is attached or the information regarding the movement when removing the wearable terminal for a plurality of non-wearers is obtained. A system according to claim 14, claim 15, or claim 16.
前記検出手段は、前記3軸加速度センサ、前記3軸ジャイロ、前記3軸地磁気センサ、前記マイク、前記カメラの少なくともいずれかの出力に基づいて前記ウェアラブル端末の動きを検出する請求項13、請求項14、請求項15、請求項16又は請求項17記載のシステム。 The wearable terminal includes at least one of a three-axis acceleration sensor, a three-axis gyro, a three-axis geomagnetic sensor, a microphone, and a camera.
The said detection means detects the motion of the said wearable terminal based on the output of at least any one of the said 3-axis acceleration sensor, the 3-axis gyro, the 3-axis geomagnetic sensor, the microphone, and the camera. 14. The system according to claim 15, claim 16, or claim 17.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015173643A JP6262177B2 (en) | 2015-09-03 | 2015-09-03 | Wearable terminal, method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015173643A JP6262177B2 (en) | 2015-09-03 | 2015-09-03 | Wearable terminal, method and system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017233493A Division JP6445118B2 (en) | 2017-12-05 | 2017-12-05 | Wearable terminal, method and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017049868A true JP2017049868A (en) | 2017-03-09 |
JP6262177B2 JP6262177B2 (en) | 2018-01-17 |
Family
ID=58279834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015173643A Active JP6262177B2 (en) | 2015-09-03 | 2015-09-03 | Wearable terminal, method and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6262177B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020512634A (en) * | 2017-03-24 | 2020-04-23 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Iris code storage and reliability allocation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007220018A (en) * | 2006-02-20 | 2007-08-30 | Funai Electric Co Ltd | Authentication device and authentication method |
JPWO2006006533A1 (en) * | 2004-07-13 | 2008-04-24 | 国立大学法人 北海道大学 | Personal authentication system, personal authentication method, personal authentication program and recording medium |
JP2011523730A (en) * | 2008-04-21 | 2011-08-18 | パナソニック株式会社 | Method and system for identifying a user of a handheld device |
JP2013083994A (en) * | 2012-11-30 | 2013-05-09 | Sony Corp | Display unit and display method |
US20150153825A1 (en) * | 2013-11-29 | 2015-06-04 | Samsung Electronics Co., Ltd. | Method for controlling display screen in head-mounted display device, and head-mounted display device |
-
2015
- 2015-09-03 JP JP2015173643A patent/JP6262177B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2006006533A1 (en) * | 2004-07-13 | 2008-04-24 | 国立大学法人 北海道大学 | Personal authentication system, personal authentication method, personal authentication program and recording medium |
JP2007220018A (en) * | 2006-02-20 | 2007-08-30 | Funai Electric Co Ltd | Authentication device and authentication method |
JP2011523730A (en) * | 2008-04-21 | 2011-08-18 | パナソニック株式会社 | Method and system for identifying a user of a handheld device |
JP2013083994A (en) * | 2012-11-30 | 2013-05-09 | Sony Corp | Display unit and display method |
US20150153825A1 (en) * | 2013-11-29 | 2015-06-04 | Samsung Electronics Co., Ltd. | Method for controlling display screen in head-mounted display device, and head-mounted display device |
Non-Patent Citations (1)
Title |
---|
渡辺 亮太: "家庭内電力マネジメントのための加速度センサを用いた家電製品の使用者識別手法", ルチメディア,分散,協調とモバイル(DICOMO2012)シンポジウム 論文集, JPN6017042856, 27 June 2012 (2012-06-27), pages 140 - 147, ISSN: 0003678116 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020512634A (en) * | 2017-03-24 | 2020-04-23 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Iris code storage and reliability allocation |
JP7125950B2 (en) | 2017-03-24 | 2022-08-25 | マジック リープ, インコーポレイテッド | Accumulation and reliability assignment of iris codes |
Also Published As
Publication number | Publication date |
---|---|
JP6262177B2 (en) | 2018-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11150738B2 (en) | Wearable glasses and method of providing content using the same | |
US12135432B2 (en) | System and method directed to an eyeglasses-type wearable device | |
US9678342B2 (en) | Information processing device, display control method, and program | |
US20170269792A1 (en) | Schedule notification method using mobile terminal and mobile terminal therefor | |
KR20170137476A (en) | Mobile device and method for controlling thereof | |
US10432569B2 (en) | Portable electronic device, information processing method, and program | |
US11137600B2 (en) | Display device, display control method, and display system | |
JP7119164B2 (en) | WEARABLE TERMINAL, SYSTEM AND DISPLAY METHOD | |
JP6445118B2 (en) | Wearable terminal, method and system | |
JP6262177B2 (en) | Wearable terminal, method and system | |
JP6352874B2 (en) | Wearable terminal, method and system | |
JP2018081697A (en) | System and wearable terminal | |
JP7263603B2 (en) | WEARABLE TERMINAL, SYSTEM AND DISPLAY METHOD | |
WO2017122508A1 (en) | Information display system and information display method | |
JP2018045707A (en) | System, method, and sensor device | |
JP2023076619A (en) | Wearable terminal, system, and display method | |
JP2019191590A (en) | Wearable terminal, system, and display method | |
JP2018037107A (en) | System and method | |
JP2018101425A (en) | Electronic apparatus, display method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171213 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6262177 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |