以下、図面を参照して、実施の形態について説明する。
ウェアラブル端末は、頭部装着型(これにはメガネ型、ゴーグル型、ヘルメット型等が含まれるが、これらを総称してメガネ型と称する場合もある)、リストバンド型、ペンダント型等があるが、ここでは、メガネ型ウェアラブル端末の実施形態を説明する。メガネ型ウェアラブル端末には、透明なレンズを介して視線の先の風景が見えるタイプと、視界が遮られ、風景が見えないヘッドマウントディスプレイと称されるタイプがあるが、ここでは、一例として風景が見えるタイプを説明する。
図1はメガネ型ウェアラブル端末(以下、単にウェアラブル端末と称する)10の斜視図、図2(a)は正面図、図2(b)は上から見た断面構造を示す図である。
ウェアラブル端末10は通常のメガネとほぼ同じ形状であるが、一方、ここでは右眼側のテンプルの外側に投影装置12が取り付けられている。フレームにはガラス14、16が嵌め込まれている。左眼側のガラス14はユーザが景色を見ることができるように通常の透明ガラスである。右眼側のガラス16は、少なくとも一部がスクリーン16となっている。スクリーン16は、投影装置12が投影している画像をユーザが見ることができるようにするものである。スクリーン16は投影装置12が画像を投影しない時は透明であり、ユーザが右眼側のガラス(スクリーン)16を介して景色を見ることができる。
投影装置12は、電子部品として電源部22、制御部24を含む。電源部22はボタン型の電池、充電可能な電池、非接触給電可能な二次電池等を含むことができる。あるいは、電源は内蔵せず、外部電源から電源ラインを介して投影装置12に給電してもよい。制御部24は、後述するネットワークを介してサーバや他の電子機器との間で通信を行い、情報を送受信する。この通信は、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。
投影装置12は、さらに、光学部品として光源28、表示部30、プリズム32、レンズ群34等を含む。光源28は、互いに発光色が異なり、それぞれの出力光量を独立して変更可能な複数、例えば3個のLED(Light Emitting Diode)を含む調光型白色LED光源であってもよい。調光型白色LED光源によれば、ウェアラブル端末10の使用環境が、例えばオレンジ色が主体の照明が用いられることの多いクリーンルーム内、等である場合においても、使用環境に応じて発光色を変更することができ、鮮明な投影像が得られる。さらに、調光型白色LED光源によれば、ユーザが見易い表示色を出力することができ、ユーザが見辛い表示色を出力する場合に比較して、目の疲れや、それに伴う偏頭痛、等のユーザにとって支障となる要因の発生を避けることが可能である。
表示部30は、例えば反射型のLCD(Liquid Crystal Display)モジュールであり、制御部24による表示制御に基づいて、所定のテキスト、画像等(以下、表示部30が表示されるものを表示像と総称することもある)を表示する。光源28から出射される非平行光(発散性の光、以下発散光と称することもある)は、プリズム32のハーフミラー面32aで反射され、表示部30の表示像を照明する。表示部30の反射光は、表示像に対応した光(画像光と称する場合もある)としてハーフミラー面32aを透過して、出射面32cから出射され、レンズ群34を介して所定サイズの投影像としてスクリーン16に投影される。
スクリーン16は、手前側透明屈折体42、フレネルレンズ形ハーフミラー面44及び奥側透明屈折体46を有する。フレネルレンズ形ハーフミラー面44に到達した画像光の一部は、フレネルレンズ形ハーフミラー面44で反射され、表示部30の表示像に対応する虚像(投影像)を数メートル先に形成する。なお、スクリーン16は、ウェアラブル端末10を装着したユーザの視線の先の風景も一部透過することができ、スクリーン16には投影像とともにユーザが視認可能な風景が表示されるように構成してもよい。
光源28から出射され、ハーフミラー面32aを通過した画像光(発散光)の一部は、全反射面32bで全反射し、出射面32cで屈折して光源28からの発散光である漏れ光50となる。漏れ光50は、投影装置12の正面に形成された開口又は隙間(誘導部)52を通ってスクリーン16とは異なる方向へ出射される。
ウェアラブル端末10は、投影装置12の所定の位置、たとえば底面部に、スピーカ54A、イヤホンジャック54B、マイクジャック56、スライド式スイッチ57及び回転式スイッチ58等を有する。マイクジャック56には、図示しないハンズフリーマイクが接続され、ユーザの音声が収集される。スライド式スイッチ57は、例えば投影装置12の投影像の輝度や色調等を調整可能である。回転式スイッチ58は、例えば投影像の投影角度等を調整可能である。スライド式スイッチ57及び回転式スイッチ58のように異なる動作により異なる調整量を設定可能とすることで、投影像を目視しながら、ユーザが、ブラインドタッチで、投影像を調整可能である。例えば、スライド式スイッチ57を操作することにより、ユーザの好みに合わった表示輝度や色調の投影像を提供できる。回転式スイッチ58を操作することにより、ユーザの頭部の形状やサイズに合わせて、最適な位置に画像を表示するように投影角度を調整できる。なお、スライド式スイッチ57と回転式スイッチ58による調整対象が逆であってもよいことはもちろんであるし、スライド式スイッチ57と回転式スイッチ58の位置が逆であってもよいし、両者を1つの操作部材の2種類の操作に割り当ててもよい。
これらのスイッチ57、58による選択は投影像のみを見ながら施行錯誤的に行ってもよいが、調整の効率を上げるために、メニュー画面を投影して、その画面内で項目を選択することにより調整してもよい。表示部30がメニュー画面を表示することにより、メニュー画面がスクリーン16に投影される。
さらに、メニュー項目の選択は、スイッチ57、58の操作によらず、タッチ操作によってもよい。このため、投影装置12の外側には、タッチパッド55も設けられる。表示部30がメニュー等を表示し、メニュー内の項目の表示位置に応じたタッチパッド55内の位置をタッチすることにより、簡単かつ効率よくユーザ操作を入力できる。
正面中央部の外側にはカメラ59が設けられ、ユーザの視線の先の画像(静止画、動画のいずれも可)を撮影可能である。なお、図示していないが、正面中央部の内側(カメラ59の配置位置と対応する位置)にユーザの顔に対向してカメラを設け、ユーザの眼球を撮影し、ユーザの虹彩を検出可能としてもよい。虹彩はユーザ認証に使うことができる。
ウェアラブル端末10からの漏れ光50を利用することで、ウェアラブル端末10の状態、すなわちユーザの状態を検出できる。図3、図4、図5を参照して、ウェアラブル端末の状態の検出原理を説明する。ここで、状態は位置と、位置の移動等を含む。
ウェアラブル端末の使用例の一例を図3に示す。例えば、工場の部品ヤード、通販会社の商品倉庫、小売業の配送部署等のワークエリア60内に任意数の作業スペース又は商品棚A01〜Axy(x,yはともに正の整数)、B01〜Bxy、C01〜Cxyが配置される。作業スペース又は商品棚は、例えば工場の作業テーブルや生産ライン内の製造装置又は学校の机や会議室の着席位置、等であってもよい。
ワークエリア60には少なくとも1つの光センサ62−1〜62−n(nは正の整数)が配置される。光センサ62−1〜62−nは、ウェアラブル端末10−1〜10−m(mは正の整数)の位置(x,y,z)、個数、位置の変化(移動)及び向きの変化等を、図4、図5に示す検出方法により、個々に検出できる。ウェアラブル端末10−1〜10−mの位置、個数、移動及び向きの変化等を検出することにより。ウェアラブル端末10−1〜10−mを装着した任意数のユーザの位置、移動等の状態を認識できる。
ユーザは、ワークエリア60内を自在に移動できる。ユーザは、予め定められた作業を、予め定められた位置、例えばステーション(カート)、それに準じた収容器又は可動式のテーブル等である作業スペース64において実行する。なお、作業スペース64は、移動可能ではなく、固定された机やその着席位置等であってもよい。
図3、図4に示すように、検出システムは、1以上のウェアラブル端末10、1以上の光センサ62を含む。光センサ62は、漏れ光50を検出する機能と、検出結果をサーバ等に送信する通信機能を有する。この通信機能も、ウェアラブル端末10の通信機能と同じく、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。以下に説明する実施形態は通信機能を有する種々のユニット、モジュールを有するが、これらのユニット、モジュールの通信機能も、同様に、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。
光センサ62が受信した漏れ光50からウェアラブル端末10を特定できるように、ウェアラブル端末10は、端末の識別情報(Identification、以下端末IDと称する場合もある)を含む情報を用いて漏れ光50を間欠的に変調する。変調方式の典型的な一例は、発光量をゼロまで落とすチョッパー形変調方式があるが、ここでは、発光量が低い状態でも所定量以上の発光量を確保できる変調方式が採用される。これにより、ユーザの目に対する負担を軽減できる。変調方式として、例えばDSV(Digital Sum Value)フリーの変調方式(すなわち常に変調信号のDSVを計算し、適宜ビット反転コードを挿入可能にして直流成分をゼロとする変調方式)が採用されると、比較的ロングレンジでの発光量変化が抑えられ、巨視的に常に発光量変化がゼロにでき、ユーザの目への負担が一層軽減される。人間の目は、0.02秒程度の変化まで認識できるので、上記変調の基準周波数を10Hz以上、例えば20Hz以上、より好ましくは60Hz以上に設定することで、ユーザの目に対する負担を軽減する効果も生まれる。一方、光源28に使用されるLEDは、内部インピーダンスと接続容量を持つため、精度良い変調周波数は、100MHz未満、望ましくは10MHz以下が望ましい。従って、実施形態の検出システムにて用いる光源28の変調周波数は、10Hz〜100MHz、望ましくは10Hz〜10MHzの範囲が好ましい。
光源28からの発散光の漏れ光50を利用しているので、光センサ62が検出する光量がウェアラブル端末10と光センサ62との間の距離に応じて変化する。この現象を利用すると、ウェアラブル端末10と光センサ62との間の距離又は光センサ62に対するウェアラブル端末10の向きを求めることができる。光センサ62の位置(高さも含む)は固定であるので、光センサ62とウェアラブル端末10との距離が分かると、ウェアラブル端末10の位置(x,y,z)が検出できる。
さらに、光源28からの発散光の漏れ光50を利用しているので、漏れ光50を比較的広い範囲で検出できる。その結果、比較的少数の光センサ62−1〜62−nを設置するだけで、ワークエリア60内のウェアラブル端末10−1〜10−mの位置、ウェアラブル端末10と光センサ62との距離、ウェアラブル端末10−1〜10−mの向き、又は光センサ62に対するウェアラブル端末10の方位が検出できる。これにより、検出システムを設置するために必要となる設備費用を低減できる。
光センサ62が検出した漏れ光50の光量情報は、所定のタイミングで、光センサ62から後述するサーバへ送信される。サーバは、収集した光センサ62からの情報を解析する。これにより、任意のウェアラブル端末10−1〜10−mすなわちユーザの位置及び状態が検出できる。
図4は、実施形態に係るウェアラブル端末を認識するシステムの具体的な利用例を説明する概略図である。4個の光センサ62−1〜60−4の周囲にウェアラブル端末10−1〜10−3を装着した3人のユーザがいる状況を想定する。ウェアラブル端末10−1、10−2からの漏れ光50は、光センサ62−1〜60−4にて検出される。光センサ62−1〜60−4は、それぞれにおいて検出した漏れ光50の光量をA−D(Analog - Digital)変換し、光量に対応する光量情報として、所定のタイミングで、例えば近距離無線通信によりサーバへ送信する。
ユーザの移動に応じてウェアラブル端末10−1が光センサ62−1へ移動する一方、ユーザの任意の動作、例えば首振り(頭部の旋回)に応じてウェアラブル端末10−2の向きが一時的に変化したとする。この時の検出情報の変化を図5に示す。
図5では、ウェアラブル端末10−1〜10−3のそれぞれの漏れ光50の変調方式として、間欠的な時間変化方式を用いた例を示している。すなわち、ウェアラブル端末10−1〜10−3のそれぞれにおいて、ID変調期間がずれている。
図5(a)、(b)、(c)に示すように、1番目〜3番目のウェアラブル端末10−1〜10−3について、間欠的にウェアラブル端末のID変調期間が設定され、それ以外の期間は無変調期間である。各ID変調期間内では、同期信号SYNCとウェアラブル端末10−1〜10−3の端末IDが一つの組を構成し(1対1で対応し)、その組が複数回(図5に示すようにセンサが4個の場合、4の倍数回)、繰り返される。
1番目のウェアラブル端末10−1が無変調期間に入ると同時に、2番目のウェアラブル端末10−2のID変調期間が開始する。同様に2番目のウェアラブル端末10−2が無変調期間に入ると同時に、3番目のウェアラブル端末10−3のID変調期間が開始する。
2番目のウェアラブル端末10−2のID変調期間内と3番目のウェアラブル端末10−3のID変調期間内とにおいては、同期信号SYNCとウェアラブル端末10−2、10−3の端末IDが繰り返し変調される。このように、ウェアラブル端末10の端末IDを変調信号内に乗せることで、端末IDが検出可能である。
上記の例では、ウェアラブル端末10−1〜10−3のそれぞれの変調タイミングは、時分割(間欠化)されている。しかし、例えば全てのウェアラブル端末10−1〜10−3について、連続的に変調されるものとし、ウェアラブル端末10−1〜10−3のそれぞれの変調基準周波数が変化されてもよい。また、スペクトル拡散時のそれぞれの周波数スペクトル特性が変化されてもよい。
図5(d)、(e)、(f)、(g)が示すように、光センサ62−1〜62−4からの情報通信期間は、各ID変調期間において細かく分割されている。
図4に示すように、初期の時点では、ウェアラブル端末10−1からの漏れ光の一部が、光センサ62−4に到達する。そのため、初期の時点では、図5(k)に示すように、光センサ62−4がウェアラブル端末10−1からの漏れ光を検出する。しかし、ウェアラブル端末10−1が光センサ62−1へ向かって移動するにつれて、光センサ62−4が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅が減少して行く。一方、図5(h)に示すように、光センサ62−1が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅は、時間の経過と共に増加する。このように、光センサ62−1〜62−nが検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの位置の時間変化(移動状態)が検出できる。
一方、初期の時点で、ウェアラブル端末10−2が光センサ62−3に向いているので、漏れ光から得られる変調信号振幅に関して、光センサ62−2での検出値より光センサ62−3での検出値の方が大きい。この後、例えば2番目のユーザが首を振り、一時的に光センサ62−2を向いたとする。すると、光センサ62−2が出力するウェアラブル端末10−2の検出出力は、図5(i)に示すように、一時的に増加した後、減少する。他方、光センサ62−3が出力するウェアラブル端末10−2の検出出力は、図5(j)に示すように、一時的に減少した後、増加する。
このように、光センサ62が検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの向きの時間変化も推定できる。
上記の検出例は、ユーザの動きとして、移動や首振りである場合の例である。しかしそれに限らず、ユーザのさまざまな別の行動を利用してもよい。例えば、ユーザの手の移動や上体(身体)のひねり、等により漏れ光を一時的に遮光してもよい。この場合、全ての光センサ62−1〜60−4において、共通に、同一の時間帯に、変調信号振幅の一時的な減少が生じる。このように、全ての光センサ62−1〜60−4の変調信号振幅の変化の関連性を比較することで、ユーザの異なる行動パターンが識別可能である。
以上の方法を利用することにより、単なるユーザの行動を検出するだけでなく、ユーザの意思も認識することが可能である。
なお、ウェアラブル端末10の位置(x,y,z)を検出する方法として、ビーコンを用いてもよい。上述の例では、多数のウェアラブル端末10から端末識別情報が変調された光が多数の光センサ60に出射され、多数の光センサ60が受信した情報を比較処理して、ウェアラブル端末10の位置、状態を検出したが、多数の位置情報発信器をワークエリア60内に配置し、発信器から配置位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信すれば、それを受信したウェアラブル端末10は発信器の位置とほぼ同じ位置であると見なすことができる。さらに、GPSを利用してウェアラブル端末の位置を検出することもできる。位置検出は、一種類の方法のみに基づく必要は無く、複数の方法を併用すると、検出精度を向上できる。
図6は、ウェアラブル端末を使用するシステム全体の一例を示す。システムは、1又は複数のLAN102と、1つの広域ネットワーク104からなる。広域ネットワーク104は工場、ビル、企業毎のネットワークでもよいし、インターネットでもよい。LAN102は、例えば、工場の建屋、部署、ビルのフロア、企業の営業所等の単位であってもよい。各LAN102は複数のウェアラブル端末10、管理者端末202、複数の光センサ62、アクセスポイント112、複数の位置情報発信器113、複数のカメラ114等からなる。ウェアラブル端末10、管理者端末202、光センサ62、位置情報発信器113、カメラ114等は無線によりアクセスポイント112に接続される。LAN102は広域ネットワーク104を介してコミュニケーションサーバ106に接続される。位置情報発信器113は、位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信する。カメラ114は、LAN102のエリア内を撮影するものであり、その画像を解析することによっても、ユーザの行動を知ることができる。例えば、ユーザ毎の標準画像を記憶しておいて、ユーザがウェアラブル端末10を取り付ける際の画像又は取り外す際の画像と比較することにより、装着ユーザを特定できる。多数のカメラを配置できない場合は、撮影方向が可変で、一台で広範囲のユーザを撮影できるカメラ114を配置してもよい。
コミュニケーションサーバ106は情報検索部120、位置・情報管理部122、装着者推定部124、スケジュール管理部126等を含む。
位置・状態管理部122は、ウェアラブル端末10や管理者端末202の位置及び状態に関する情報を収集し、管理する。また、情報検索部120からそれらの情報を抽出する。スケジュール管理部126は、端末を装着する従業員の予定情報・出退勤記録を管理・提供するための機能を持つ。予定情報は、従業員の作業予定(何時から何時までは何処エリアにいて○○作業に従事する予定等)と、出/退勤時刻、作業記録(何時から何時までは何処エリアにいて○○作業に従事した等)を含む。また、情報検索部120からそれらの情報を抽出する。情報検索部120は、位置・状態管理部122やスケジュール管理部126の持つ情報を検索・処理するための機能を持つ。装着者推定部124は、管理している従業員の既存の特徴量データと与えられたユーザの特徴量データとの相関をとることにより、装着者が誰であるかを決定してもよい。
図7は、ウェアラブル端末10の電気的な構成の一例を示す。ウェアラブル端末10は、CPU140、システムコントローラ142、メインメモリ144、ストレージデバイス146、マイク148、スピーカ54、投影処理部150(光源28、表示部30を制御する)、カメラ59、無線通信デバイス152、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、タッチパッド55、バイブレータ68、位置情報受信器159、GPSモジュール155等を備える。
CPU140は、ウェアラブル端末10内の各種モジュールの動作を制御するプロセッサであり、SSD又はフラッシュアレイ等の不揮発性の半導体メモリからなるストレージデバイス146からメインメモリ144にロードされるコンピュータプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)、および各種アプリケーションプログラムが含まれている。CPU140は、各種アプリケーションプログラムを実行し、無線通信デバイス152を使ってネットワーク経由でコミュニケーションサーバ106と通信することにより、例えば以下のような処理を行う。例えば、CPU140は、マイク148を使って音声入力を行い、音声データをコミュニケーションサーバ106へ送ったり、イヤホンジャック54Bに接続される図示しないステレオイヤホン又はスピーカ54から音を鳴らす等、様々の制御を行う。ステレオスピーカが必要である場合、図1、図2には図示しないが、左眼側のテンプルにもスピーカを設けてよい。
システムコントローラ142は、CPU140のローカルバスと各種コンポーネントとの間を接続するデバイスである。マイク148はマイクジャック56に接続され、ユーザが発する音声又は環境音を収集する。ユーザの発する音声を音声認識すること又は環境音を分析することにより、ユーザの行動の推定ができ、ユーザを特定できる。例えば、ユーザ毎の標準音声を記憶しておいて、装着者が発生する音声と比較することにより、装着ユーザを特定できる。また、環境音を分析することにより、装着者が位置する作業場所を特定することができ、ユーザの行動予定表から当該場所にいる筈のユーザを絞り込むことができる。スピーカ54はユーザの注意を喚起するアラーム等を出力する。投影処理部150は、表示部30に画像信号を出力し、光源28を点灯することにより、スクリーン16に表示部30の画像を投影する。この画像は静止画のみならず、動画も含むことができる。無線通信デバイス152は、例えば無線LAN機能を有し、ウェアラブル端末10とアクセスポイント112とを無線で接続する。
モーションセンサ154は、3軸加速度、3軸ジャイロ、3軸地磁気センサを統合したセンサであり、ウェアラブル端末10を使用するユーザの頭の動きを検出でき、その結果、顔が向いている方角を判別する。視線検出センサ156は、メガネのフレーム中心の内側にユーザの顔に向けて設けられ、ユーザの眼球を撮影し、視線の動きを検出する。さらに、視線検出センサ156は、ユーザの虹彩を検出可能としてもよい。ジェスチャセンサ158は、指の動きによるジェスチャを判別するセンサである。具体的には、投影装置12に設けられたタッチパッド55上の指の動きや、カメラ59の画像を解析すること等により、ユーザのジェスチャを判別するセンサの総称である。バイブレータ68は、投影装置12を振動させることによりウェアラブル端末10のテンプルを振動させ、ユーザに何かの情報を伝える。位置情報受信器159は、LAN102のエリア内に複数配置された位置情報発信器113からRF−ID等の近距離無線通信を利用して発信される位置情報を含むビーコンを受信する。近距離無線通信なので、発信器と受信器(ウェアラブル端末)との位置はほぼ同じと見做すことができる。GPSモジュール155は、ウェアラブル端末10の位置(x,y,z)を検出する。この検出結果と、位置情報受信器159の検出結果と、図3の光センサ62の検出結果を総合することにより、より正確にユーザの位置、その変化を検出できる。
次に、このように構成されたウェアラブル端末10、コミュニケーションサーバ106によるウェアラブル端末のユーザが誰であるかの決定を説明する。ここでは、ウェアラブル端末10の使用環境は、多数の作業対象があり、多数の作業工程からなり、多数の作業者が関与する作業現場を想定する。作業者を監督する管理者が所定のエリア、例えばLAN102のエリア毎に配置され、管理者は管理者端末202を使用するとする。管理者端末202は、ウェアラブル端末10と同じ構成でもよいが、管理者は移動する必要が無いので、通常のパソコンやタブレットと同じ構成で良く、管理者端末202の詳細な説明は省略する。作業現場に居る作業者全員がウェアラブル端末10を装着する必要は無い。そのため、ウェアラブル端末10は作業者全員分用意しておく必要は無く、所定個数のみ用意しておき、必要な作業者が空いている共有ウェアラブル端末を装着する。システムは、装着の際、ユーザを特定する必要がある。この理由は、特定のユーザに対して、スクリーン16の投影像、スピーカ54からの音、バイブレータ68の振動等により、何かを通知するため、又はウェアラブル端末10の装着状況に基づき作業者の作業行動を管理するため等である。
図8はウェアラブル端末10の処理、図9はコミュニケーションサーバ106の処理の流れを示すフローチャートである。
ウェアラブル端末10では、CPU140は、ブロックB12で、電源オンしているか否かを判定する。オンしている場合、CPU140は、ブロックB14で、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158のうちのいずれか1又は複数の出力を収集する。CPU140は、ブロックB16で、内蔵のカメラ59及び/又はマイク148の出力も収集する。
CPU140は、ブロックB20で、これらの出力を演算処理して、ウェアラブル端末10の動き、言い換えるとウェアラブル端末10を所持しているユーザの行動を示す特徴量を計算する。特徴量は、例えば、モーションセンサ154から得られる加速度や角速度のある時間内の時系列データから計算した周波数成分である。得られた周波数成分において、推定したい処理に重要な成分が強調等の様々な信号処理を施されてもよい。推定処理では、ある時間分の特徴量を纏めた時系列データが解析に用いられる。モーションセンサ154の出力に基づき、ユーザの手の動きを表す特徴量が計算できる。視線検出センサ156の出力に基づき、ユーザの視線の動きを表す特徴量が計算できる。ジェスチャセンサ158の出力に基づき、ユーザの手の動きを表す特徴量が計算できる。内蔵カメラ59が撮影した画像を分析することにより、ユーザの顔を含む体の動きを表す特徴量が計算できる。同様に、マイク148が集音した環境音を認識することによっても、ユーザの動きを表す特徴量が計算できる。例えば、ウェアラブル端末10を顔にかける際又は顔から取り外す際のテンプルと皮膚又は頭髪との摩擦音に基づき、ウェアラブル端末の装着状況を知ることができる。さらに、マイク148が集音したユーザが発する音声を認識することによって、ユーザを特定することもできる。なお、特徴量の計算のためには、必ずしもこれらの全ての出力が必要であるという訳ではなく、計算に使用する信号は適宜選択可能である。
このように、ウェアラブル端末10は電源がオンしている限り、ウェアラブル端末10の動き、言い換えるとウェアラブル端末10を所持しているユーザの行動を示す特徴量を常時計算している。ウェアラブル端末10を顔にかける際又は顔から取り外す際、すなわち着脱の際は、ユーザの行動に個人個人の癖が出やすい。従って、着脱開始が検出されてから一定期間又は一定個数の特徴量に基づいて、ユーザを特定する。
CPU140は、ブロックB22で、計算した特徴量が、予め求められて記憶している着脱時の特徴量と相関が高いか否かを判定する。否の場合、ブロックB12の判定処理が再び実行される。相関が高いと判定されると、ユーザを特定するための一定時間のウィンドウ処理が開始される。ここでは、一定時間内に複数回、特徴量が計算され、複数の特徴量に基づいてユーザが特定されるようになっているが、一定時間のウィンドウ処理ではなく、所定個数の特徴量が計算されるまでの可変時間のウィンドウ処理でもよい。
CPU140は、ブロックB24で、ブロックB14、B16、B20と同様に、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、内蔵のカメラ59、マイク148のうちのいずれか1又は複数の出力を収集し、予め定められた演算によりユーザの行動を表す特徴量を1つ計算する。CPU140は、ブロックB26で、この1つの特徴量を蓄積する。CPU140は、ブロックB28で、ブロックB24の開始から一定時間が経過したか否かを判定する。否の場合、ブロックB24のデータ収集・特徴量計算処理が再び実行され、特徴量が次々と蓄積される。
一定時間が経過すると、CPU140は、ブロックB32で、ブロックB22で判断された着脱時の特徴量及びブロックB26で蓄積された複数の特徴量とをコミュニケーションサーバ102へ送信する。
コミュニケーションサーバ106では、図9に示すように、位置・状態管理部122が、ブロックB44で多数の光センサ62の出力を受信して、多数のウェアラブル端末10の位置、状態を検出し、表1に示すような位置・状態管理表に書き込む。位置・状態管理表は端末ID、日時、位置、状態、特徴量、ユーザIDの項目を有する。ブロックB44では、端末ID、日時、位置のみが書き込まれる。ブロックB44が繰り返される毎に、時刻が更新され、それに応じて位置・状態管理表が更新される。
情報検索部120は、ブロックB32でいずれかのウェアラブル端末10から送信された特徴量を受信することをブロックB46で待つ。ウェアラブル端末10からの特徴量を受信するまで、ブロックB44の処理が再び実行される。受信した場合、情報検索部120は、受信した特徴量を位置・状態管理表に書き込む。ここでは、端末ID=02のウェアラブル端末から特徴量が送信されたとする。端末ID=02のウェアラブル端末の特徴量が書き込まれた段階の位置・状態管理表を表2に示す。
位置・状態管理部122は、ブロックB48で、エリア内のいくつかのカメラ114のなかの端末ID=02のウェアラブル端末の位置(X1,Y1)を撮影対象に含むカメラ114の出力画像を入力し、画像を解析する。この解析により、位置(X1,Y1)付近のユーザの有無が分かる。光センサ62の出力からユーザの位置(X1,Y1)が検出されたにも関わらず画像からはユーザが居ないと判断された場合、光センサ62による検出結果はエラーであると判定できる。このようなエラーが発見された場合、位置・状態管理部122は、対応する位置情報を不定に変更する。このように複数のセンサの出力を総合してウェアラブル端末の位置を検出するので、精度が向上する。
情報検索部120は、ブロックB52で、位置・状態管理部122内の位置・状態管理表から、表3に示すような、未装着の状態を持つユーザの一覧である未装着者リストを生成し、そのリストとブロックB46で受信した特徴量とを装着者推定部124へ送る。どのウェアラブル端末の状態も未確定の初期状態では全てのユーザが未装着とされる。
情報検索部120は、ブロックB54で、スケジュール管理部126から表4に示すようなユーザ別スケジュール表を読み出して、これを参照して、出勤していない作業者又は他の場所の作業に従事する筈でありこの場所に居る筈のない作業者等を特定し、表4に示すように、そのような作業者の状態を不在に変更する。
これにより、未装着者リストを絞り込むことができるので、後段の相関演算の演算量が減るとともに、演算時間が短縮される。さらに、装着・未装着の判定の精度も向上する。
装着者推定部124は、ブロックB46で受信した特徴量と未装着者リストに基づき、受信した特徴量が未装着のユーザの中でどのユーザの着脱時の標準特徴量に最も相関が高いかを調べ、装着者候補を抽出する。抽出する候補者の数は、一人に限らず、複数人でもよい。全作業者のウェアラブル端末の着脱時の標準特徴量が予め調べられ、表5に示すようなユーザ別標準特徴量表が装着者推定部124に記憶されている。標準特徴量は、全作業者にウェアラブル端末を付けたり、外したりしてもらい、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、内蔵のカメラ59、マイク148のうちのいずれか1又は複数の出力に対して、ウェアラブル端末のCPU140がブロックB24で実行する演算と同じ演算を施して求める。
相関演算は全てのユーザが対象ではなく、装着していないと判断されているユーザに限定されているので、短時間に、しかも精度良くユーザを特定できる。装着者推定部124は、ブロックB58で、特徴量を送信した端末ID=02のウェアラブル端末10へ特定結果を候補として送信する。
端末ID=02のウェアラブル端末10では、図8に示すように、CPU140は、ブロックB34でコミュニケーションンサーバ106から候補を受信したか否か判定する。候補を受信した場合、CPU140は、ブロックB36で、候補を表示部30で表示し、光源28を発光し、候補をスクリーン16に表示する。例えば、表示例は「貴方は○○さんですね?」のようにユーザに確認を求めるような表示でもよい。これに対して、ブロックB38に示すように、ユーザは
ハイ/イイエの決定をする。決定操作の具体例は、顔を「縦/横」に振る、「はい/いいえ」をマイク148から入力する、タッチパッド55を1回(ハイ)/2回(イイエ)タッチ/タップする、1本指(ハイ)/2本指(イイエ)でタッチする、指のジェスチャ操作等がある。ジェスチャ操作はカメラ59で撮影された画像の解析により認識することもできる。候補が複数の場合、「貴方は(1)AAさんですか、(2)BBさんですか、(3)CCさんですか?」のような表示が行われ、選択操作が行われる。選択操作は、顔を選択肢に応じた回数だけ振る、選択肢の数字をマイク148から入力する、タッチパッド55を選択肢に応じた回数だけタッチ/タップする、タッチパッド55を選択肢に応じた本数の指でタッチする、指のジェスチャ操作等がある。決定操作の処理結果は、ウェアラブル端末10からコミュニケーションサーバ106へ送信される。
ウェアラブル端末10では、決定操作がなされた後、終了でなければ、ブロックB12の処理が繰り返される。
図9に示すように、コミュニケーションサーバ106では、装着者推定部124は、ブロックB62で、ウェアラブル端末10から決定操作の処理結果が送信されたか否かを判定する。処理結果を受信すると、ブロックB64で、状態管理部122は、表6に示すように、位置・状態管理表に端末ID=02のウェアラブル端末の装着者のユーザIDを書き込み、位置・状態管理表を更新する。
コミュニケーションサーバ106は、上述の処理を繰り返し実行する。
このように実施形態は、ウェアラブル端末10の動作を表す特徴量と各ユーザの装着時の標準特徴量との相関を計算してウェアラブル端末を使用するユーザを特定する際、既に装着されていると判定されたユーザは除いて未装着ユーザの特徴量との相関のみを計算する。このため、相関を求める計算量が少なくなり、計算時間が短くなるとともに、ユーザ特定の精度が向上する。
実施形態では、多数種類のセンサ、カメラ、マイクの出力に基づいて特徴量を求めているが、これら全てを使用する必要は無く、状況に応じていずれか1又は複数を適宜選択可能である。取り付けの際のみならず取り外しの際もユーザ特定処理を行っているが、取り付けの際だけでもよい。ユーザ特定のためのウィンドウ処理は一定時間でも一定数の特徴量が得られるまでのいずれでもよい。
推定のための特徴量はウェアラブル端末で求め、その相関演算はサーバ側で行ったが、ウェアラブル端末で相関演算まで行い、サーバを不要としてもよい。
図10は他の実施形態のシステム全体の一例を示す。LAN102は図6の構成に加えて、作業者が作業する装置115もアクセスポイント112を経由してネットワーク104に接続されている。装置115は、何でもよいが、ここでは、定期的に点検、保守が必要であり、時々故障する可能性があり作業者が復旧対応する製造設備とする。
コミュニケーションサーバ106は図6の構成に加えて、音声コマンド処理部128、通話処理部130等を含む。
音声コマンド処理部128は、ユーザが発した音声をコミュニケーションサーバ106上で対応するサービスを実行するための命令に変換する。音声コマンド処理部128に対する入力データとしては、マイクから収集された音声データそのものである場合や、入力音声の音声認識後のテキストデータである場合等があり、この点については特に限定しない。通話処理部130は、端末間のインスタントメッセージング機能や音声による通話機能を実現するためのホスト機能を持つ。
ウェアラブル端末10の電気的な構成は図7と同じであるので、図示は省略するが、CPU140は、図7で説明した処理に加えて、マイク148を使って音声入力を行い、音声データをコミュニケーションサーバ106の音声コマンド処理部128へ送ったり、イヤホンジャック54Bに接続される図示しないステレオイヤホン又はスピーカ54から音を鳴らしたり、コミュニケーションサーバ106の音声コマンド処理部128の処理結果に基づき電子マニュアルをストレージデバイス146にダウンロードし、メインメモリ144上にその一部を展開しながら、表示部30上に表示され、スクリーン16に投影される画像イメージを生成する等、様々の制御を行うことも可能である。
図10のシステムの使用例を説明する。このシステムはコミュニケーションサーバ106を有し、ウェアラブル端末のユーザ間、あるいはウェアラブル端末のユーザと管理者間等のコミュニケーション機能、例えばインスタントメッセージング機能を備えている。通常のインスタントメッセージング機能では、通話を開始したい人が通話開始要求を発すると、通話したい相手の端末の画面に通話開始画面が表示される。しかし、故障した装置115の復旧作業を行っている作業者のウェアラブル端末のスクリーン16に通話開始画面が突然表示されると、作業者の視界を奪う可能性があり、作業者が危険に晒される可能性がある。さらに、作業者が通話している間、復旧作業の中断が余儀なくされ、装置115の復旧に時間が係り、装置115の稼働率が低下する等の好ましくない事態も生じる。そこで、この実施形態では、作業を行っている作業者のウェアラブル端末の画面に情報を突然表示することを避けて作業者の視界を遮ることなく、効率的な通知を行う。具体的には、通知をしたい作業者のウェアラブル端末で通話開始の通知音が発生され、作業者がそれに対して肯定的に応答した場合に初めて通話開始画面が作業者のウェアラブル端末のスクリーンに表示される。通知音はイヤホンジャック54Bに接続される図示しないステレオイヤホンから発生される。通知音は単なる音であるが、例えば、右上、左横等の3次元空間上の発生位置を制御可能であり、通知する状況に応じて発生位置が決められている。このため、作業者は単なる音の発生位置に基づいて通知の内容を認識することができるので、作業中でも集中が途切れることなく、通知を受けることができる。もしも、通知音ではなく、メッセージ音声を作業者に聞かせると、作業者はメッセージに気を取られ、作業が中断又は装置115に手を挟まれる等の危険な状態になるおそれがある。
図11は、管理者が作業者に対して通話をしたい場合の管理者端末202、コミュニケーションサーバ106、ウェアラブル端末10の各処理の流れを示すフローチャートである。
管理者は、管理者端末202において、ブロックB102で、インスタントメッセージングアプリケーションを起動し、ブロックB104で、作業者Xとの通話を要求する。
コミュニケーションサーバ106では、通話処理部130が、ブロックB112で、通話要求を受信する。ここでも、コミュニケーションサーバ106は、図9に示すように、光センサ62の出力を常時受信して、ウェアラブル端末10の位置・状態をリアルタイムで管理している。さらに、コミュニケーションサーバ106は、管理者端末202の位置も管理している。このため、管理者端末202はGPS機能を有し、緯度、経度、高度を検出可能に構成されてもよい。通話処理部130は、ブロックB114で、位置・状態管理部122から管理者端末202とユーザXのウェアラブル端末の位置・状態を検出する。通話処理部130は、ブロックB116で、ユーザXのウェアラブル端末へ通話要求を送信するともに、管理者端末の位置情報も送信する。
ユーザXのウェアラブル端末では、ブロックB122で、通話要求が着信されると、ブロックB124で、CPU140は、モーションセンサ154等の出力に基づいて作業者の顔の向きを検出する。CPU140は、ブロックB126で、管理者の位置(緯度、経度、高度)、ユーザXの顔の向きに基づいて、ステレオイヤホンを用いて発生させる通知音の立体音響として再現する空間上の位置を計算する。ここでは、着信者(ユーザX)から発信者(管理者)の実際の方角に対する位置に対して通知音が発生するように空間上の位置を計算する。ブロックB128で、CPU140は、通知音の音量を決定する。音量は、発信者と着信者との距離によって決めてもよいし、着信者にとっての発信者がどのような相手かを判別するインスタントメッセージングアプリケーション上の設定によって決めてもよい。
これ以降の処理は、発信者が通話処理をキャンセルするか通話処理を行うまで繰り返される。CPU140は、ブロックB132で、管理者が通話処理をキャンセルするか否か判定する。否の場合、CPU140は、ブロックB134で、通知音をステレオイヤホンから発生させる。スピーカ54がステレオスピーカである場合は、スピーカ54から発生させてもよい。
作業者は管理者の位置を知っているので、その方角から通知音が聞こえた場合、管理者が自分に通知を出したいことを知る。作業者は、作業を中断できる状況又は通知に応答しても危険ではない状況等を勘案して、通知に応答するか否か判断する。応答できる場合、作業者は管理者の方に顔を向ける又は視線を合わせることが定められている。このように、顔の動きだけで応答できるので、手を休めることなく作業を継続したまま、通知に対して容易に対応することができる。
CPU140は、ブロックB136で、モーションセンサ154の出力に基づいて作業者の顔の向きを検出し、ブロックB138で、作業者の顔が管理者に向いているか否かを判定する。向いている場合、ブロックB146で、通話開始のためのユーザインターフェースをスクリーン16に投影する。
ブロックB138で、作業者の顔が管理者の位置に向いていないと判定された場合、CPU140は、ブロックB142で、視線検出センサ156の出力に基づいて作業者の視線の向きを検出し、ブロックB144で、作業者の視線が管理者に向いているか否かを判定する。向いている場合、ブロックB146で、通話開始のためのユーザインターフェースをスクリーン16に投影する。
このように、作業を行っている作業者のウェアラブル端末のスクリーン16に通話開始画面が突然表示されるのではなく、その前に、作業者に通話要求があったことを音により知らせ、作業者が通話を開始できると判断し、何らかの応答操作を行った場合のみ、スクリーン16に通話開始画面が表示される。このため、作業者の視界が突然奪われることがなく、作業者が危険に晒されることや作業が中断されることがない。なお、通知音に対する作業者の応答操作は、図11に示す顔又は視線の向きによらず、顔及び視線の向きによってもよいし、第1実施形態の装着者候補の問い合わせに対する応答と同じように、顔を「縦/横」に振る、「はい/いいえ」をマイク148から入力する、タッチパッド55を1回(ハイ)/2回(イイエ)タッチ/タップする、1本指(ハイ)/2本指(イイエ)でタッチする、指のジェスチャ操作等でもよい。
CPU140は、ブロックB148で、スクリーン16に投影されているユーザインターフェース上で作業者が通話を開始する操作を行ったか否か判定する。通話開始の操作を行ったと判定すると、通話を開始する。なお、ブロックB148の判定を省略し、ユーザインターフェースが表示されると、即座に通話を開始してもよい。
なお、フローチャート上では示していないが、通知音が発生してから応答するまで間の繰り返し処理では、逐次ウェアラブル端末の向きを検出し、通知音を立体音響として再現する空間上の位置を定期的に再計算し、通知音を繰り返し発生させてもよい。
音場の位置計算として、発着者間の位置関係で直接計算することを説明したが、これ以外にも、発信者の位置情報をエリア単位で音場の位置に対応づける方法や、発信者毎の設定情報に基づいて音場の位置を決め、どのエリアもしくは誰からの通知かを判別できるようにしてもよい。
通話以外にも、一定の条件に該当する人や装置を検索するために、コミュニケーションサーバ106の情報検索部120に問い合わせ、その検索結果の候補を音の位置として作業者に提示することもできる。
また、情報検索部120への問い合わせ方法については、装着者が行う方法以外にも、装置115が異常状態となった際に、そのステータスをコミュニケーションサーバ106の位置・状態管理部122が検出し、伝えるべき作業者、伝えるべき作業者の位置情報を収集し、異常状態となった装置114の位置情報、それらの位置情報及び異常ステータスの内容から、スケジュール管理部126及び位置・状態管理部122に対して一定条件を満たす作業者候補を検索した結果を、作業者に音の位置として提示することもできる。
更に、一定条件を満たす候補者にコミュニケーションサーバから作業状況を問い合わせ、その結果を収集して、その情報を伝えるべき人に提示できるようにしてもよい。
第2実施形態によれば、発信者がウェラブル端末をかけて、両手を使い、危険な作業を行っている作業者とのコミュニケーションをとる場合、ウェラブル端末上のディスプレイへ唐突に情報を表示せずに、発信者との位置関係や設定情報に基づいた音場を決定して立体音響による通知をする。このように危険な作業を行っている可能性のある作業者の視界を突然奪うことがないため、ウェアラブル端末のディスプレイ機能を安全に利用できる。
なお、事前通知の方法として音を説明したが、これに限らず、視界を遮らない程度であれば、スクリーンの画像によって通知してもよい。例えば、表示する投影像の一部の色を変える、部分的に色を変化させる、点滅させる等が可能である。バイブレータ68によりメガネを振動させてもよい。さらに、事前通知は一種類のみではなく、緊急度に応じて音の種類、音色、メロディーなど変えてもよい。
実施形態としてメガネ型ウェアラブル端末を説明したが、ゴーグル型、ヘルメット型等の他の頭部装着型でもよいし、リストバンド型、ペンダント型等にも本発明は適用可能である。例えば、ヘルメット型又はゴーグル型にすると、投影装置12、カメラ59をヘルメット又はゴーグルに取り付けることができ、通常のメガネユーザも使用できる。さらに、ヘルメット型にすると、スピーカ54をヘルメットの内側に取り付けることができるので、よりクリアな音を聴くことができるとともに、マイクをヘルメットに取り付け、しかも位置を調整できるので、マイクの集音能力が向上する。
また、頭部装着型以外のウェアラブル端末にも本発明は適用可能である。
さらに、ウェアラブルでなくても携帯可能な小型軽量で、常にユーザとともにある電子機器、例えば、ノートブック型パソコン、タブレット型パソコン、スマートフォンにも本発明は適用可能である。
ウェアラブル端末とコミュニケーションサーバとの機能分担は上述した説明の通りに限定されず、ウェアラブル端末の機能として説明したものの一部をコミュニケーションサーバの機能として実現してもよいし、コミュニケーションサーバの機能として説明したものの一部をウェアラブル端末の機能として実現してもよい。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。