[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020135176A - ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム - Google Patents

ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム Download PDF

Info

Publication number
JP2020135176A
JP2020135176A JP2019025281A JP2019025281A JP2020135176A JP 2020135176 A JP2020135176 A JP 2020135176A JP 2019025281 A JP2019025281 A JP 2019025281A JP 2019025281 A JP2019025281 A JP 2019025281A JP 2020135176 A JP2020135176 A JP 2020135176A
Authority
JP
Japan
Prior art keywords
user
input
control system
wearable
input operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019025281A
Other languages
English (en)
Other versions
JP7053516B2 (ja
Inventor
昌樹 高野
Masaki Takano
昌樹 高野
純一 桑田
Junichi Kuwata
純一 桑田
さゆり 橋爪
Sayuri Hashizume
さゆり 橋爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019025281A priority Critical patent/JP7053516B2/ja
Priority to CN201980063555.1A priority patent/CN112771477A/zh
Priority to US17/282,811 priority patent/US11409369B2/en
Priority to PCT/JP2019/042258 priority patent/WO2020166140A1/ja
Publication of JP2020135176A publication Critical patent/JP2020135176A/ja
Application granted granted Critical
Publication of JP7053516B2 publication Critical patent/JP7053516B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複数の入力動作のなかから適切な入力動作を容易に設定可能な、ウェアラブルデバイスの制御システムを提供する。【解決手段】入力動作設定部は、入力操作として受け付けるべきユーザの動作を選択する。ユーザに装着され、ユーザの少なくとも一つの部位の動きを検出するセンサから、入力受付部は、出力を受け取る。入力受付部は、入力動作設定部が選択した動作をユーザが行ったことをセンサの出力に基づいて検出した場合、動作をユーザによる入力操作として受け付ける。入力動作設定部は、ユーザの置かれている環境、および、入力操作以外のユーザの作業動作のうち少なくも一方に基づいて、予め定められた複数種類のユーザの動作の中から、入力操作として受け付けるべきユーザの動作を選択し、入力受付部に設定する。【選択図】 図1

Description

本発明は、ウェアラブルデバイスを体に装着して作業を行うユーザから情報入力を受け付けて処理を行い、ユーザに対して出力情報を表示等するシステムに関する。
近年、スマートグラスやスマートウォッチ等と呼ばれる眼鏡型や腕時計型のウェアラブルデバイスを体に装着した作業者に、拡張現実(AR)技術で現実の風景に作業用のスイッチを示す画像を重畳させて表示して、その画像上のスイッチの操作を可能にしたり、所定のユーザが指によるジェスチャーをすることにより操作を開始する技術が、例えば特許文献1および2等に提案されている。
具体的には、特許文献1には、スマートグラスの表示画面に、予め用意しておいたキーボードの画像を重畳表示させ、ユーザが表示画面上で自分の指でキーボード画像を操作する動きをすることにより、キーボードが操作されたと判断する技術が開示されている。このとき、特許文献1の技術では、ヘッドマウントディスプレイの表示画面内のキーボード画像を重畳表示する位置を、ユーザの操作しやすい位置にするため、表示画面に表示される、ユーザの腕に取り付けられたデバイスの画像の位置をマーカー(基準)として、キーボード画像を重畳表示する位置が決定される。
特許文献2には、眼にスマートグラスを装着し、腕に動作センサを装着したユーザが、対象物を見ながら、指で所定のジェスチャーをすることにより、対象物の画像検索を開始するウェアラブル検索システムが開示されている。
特許第6288372号公報 特開2016−115125号公報
従来提案されている技術では、システムを操作する際の入力動作が、スマートグラスの表示画面上に重畳表示されたキーボード画像を指で操作する動作(特許文献1)や、ユーザの指による所定のジェスチャー(特許文献2)のように、予めシステムによって定められた動作である。
ウェアラブルデバイスを用いたシステムは、ユーザがシステムの端末等のデバイスを手に持つ必要がないことが特長であり、ユーザは、両手を使って所望の作業や動作をしながらシステムを操作して情報を入力し、システムの表示画面等から必要な情報の出力を得ることが望まれる。しかしながら、ユーザの両手が、作業のための道具によってふさがれていたり、作業空間が狭い等の制約があることも多く、ユーザがキーボード画像を指で操作したり、所定のジェスチャーをすることが困難な場合がある。
本発明は、複数の入力動作のなかから適切な入力動作を容易に設定可能な、ウェアラブルデバイスの制御システムを提供することにある。
上記目的を達成するために、本発明のウェアラブルユーザインタフェース制御システムは、入力操作として受け付けるべきユーザの動作を選択する入力動作設定部と、ユーザに装着され、ユーザの少なくとも一つの部位の動きを検出するセンサの出力を受け取って、センサの出力に基づいて、入力動作設定部が選択した動作をユーザが行ったことを検出した場合、動作をユーザによる入力操作として受け付ける入力受付部とを有する。入力動作設定部は、ユーザの置かれている環境、および、入力操作以外のユーザの作業動作のうち少なくも一方に基づいて、予め定められた複数種類のユーザの動作の中から、入力操作として受け付けるべきユーザの動作を選択し、入力受付部に設定する。
本発明のユーザインタフェース制御システムを用いることにより、ユーザの置かれている環境な作業内容に応じて、複数種類の入力動作のなかから適切な入力動作を選択することができる。
本実施形態のウェアラブルユーザインタフェース制御システムを用いた情報処理システムの全体構成を示す説明図。 図1の情報処理システムの各部の詳しい構成を示すブロック図。 実施形態の動作判定部121の動作を示すフローチャート。 実施形態のウェアラブルUI制御システム101の構成を示すブロック図。 実施形態の情報処理システムの動作を示すフローチャート。 実施形態のウェアラブルUI制御システム101が表示する画面例。 実施形態のウェアラブルUI制御システム101が表示する画面例。 実施形態のウェアラブルユーザインタフェース制御システムにおいて、初期条件、検出した環境、および、検出した作業動作と、選択すべき入力方法との対応関係を示す説明図。 実施形態のウェアラブルユーザインタフェース制御システムの動作を示すフローチャート。 実施形態のウェアラブルUI制御システム101が表示する画面例。 実施形態のウェアラブルUI制御システム101が表示する画面例。 (a)〜(e)実施形態のウェアラブルUI制御システム101が表示するメニュー画面と、複数の入力方法の組み合わせにより項目を選択する工程を示す画面例。
以下に、本発明の実施の形態にかかるウェアラブルユーザインタフェース制御システムを用いた情報処理システムについて説明する。
<<情報処理システムの全体構成>>
図1は、本実施形態の情報処理システムの全体構成を示し、図2は、情報処理システムの各部の構成を示している。
図1および図2に示すように、本実施形態の情報処理システムは、ウェアラブル端末(一例としてスマートグラス)10と、ウェアラブルセンサ(一例としてモーションセンサ付きスマートウォッチ)20と、サーバー40と、ネットワーク(一例として無線LAN(Local Area Network))30とを備えている。スマートグラス10は、ユーザ(作業者)に眼鏡として装着される。スマートウォッチ20は、ユーザの腕に装着される。スマートグラス10とスマートウォッチ20は、無線LAN30を介して、サーバー40に接続されている。
スマートグラス10とスマートウォッチ20は、ユーザによる入力操作を受け付け、ユーザに演算処理結果を出力(表示等)するユーザインタフェース(UI)を構成している。これらがユーザからの入力操作を受け付ける機能は、ウェアラブルUI制御システム101によって制御されている。本実施形態では、ウェアラブルUI制御システム101は、スマートグラス10とスマートウォッチ20が複数種類の入力方法による入力操作を受け付け可能となるように制御し、しかも、ユーザが置かれている環境や作業動作に応じて、適切な入力方法で入力操作をできるように、入力方法を選択して設定する。
本実施形態では、ウェアラブルUI制御システム101を、スマートグラス10内のCPU12内に配置した構成の例について説明する。ただし、ウェアラブルUI制御システム101を、スマートウォッチ20やサーバー40に配置することも可能である。
ウェアラブルUI制御システム101の制御下でスマートグラス10とスマートウォッチ20がユーザから受け付けた入力操作は、無線LAN30を介してサーバー40に受け渡され、サーバー40において所定の演算処理が実行される。演算処理結果は、無線LAN30を介して、スマートグラス10の表示機能やスマートウォッチ20のバイブレータ機能によりユーザに対して出力される。
<スマートグラス10>
スマートグラス10は、図2に示すように、眼鏡と、眼鏡の一部に搭載された、モーションセンサ14、カメラ15、表示部19、投影制御部18、無線通信デバイス13、システムコントローラ11、CPU12、メインメモリ16、ストレージデバイス17、および、操作ボタン51を備えて構成される。
モーションセンサ14は、移動速度または加速度を検出することにより、眼鏡を装着したユーザの頭部の上下左右の移動および回転を検知する。
カメラ15は、ユーザの視線の方向等の所定の方向の画像を撮像する。
CPU12は、メインメモリ16やストレージデバイス17に予め格納されたプログラムを実行することにより種々の演算を実行する。これにより、CPU12は、動作判定部121と、ウェアラブルUI制御システム101の機能をそれぞれ実現する。
動作判定部121は、モーションセンサ14の出力を処理することにより、ユーザが頷いたか、上または下を向いたか、首を左右に振ったか、等のユーザが所定の動作を検出する。具体的には、図3に示したように、動作判定部121は、モーションセンサ14が検知した値(移動方向、移動速度、移動量、回転方向、回転速度、回転量等)を受け取って(ステップ301)、予め定めた数式に代入して特徴量を算出する(ステップ302)。算出した特徴量が、予め定めておいた1以上の動作(例えば、頷き動作、上を向く動作、下を向く動作、首を左または右に回す動作、首を左右に振る動作等)のそれぞれの特徴量の範囲に含まれるか判定し(ステップ303)、いずれかの動作の特徴量の範囲に含まれる場合、その動作をユーザが行ったと判定する(ステップ304)。
ウェアラブルUI制御システム101の機能については、後で詳しく説明する。
また、CPU12は、モーションセンサ14が検知した値と、カメラ15の撮像した画像とを受け取って処理することにより、画像に映っているユーザの周囲の壁とカメラの距離を算出することもできる。例えば、頭(スマートグラス10)の移動量と、カメラ15の画像の変化の大きさとを対比することにより、公知の技術により、頭(スマートグラス)とカメラに映った壁との距離が、予め定めた距離(例えば1m)以内の至近距離かどうか判断することができる。また、CPU12は、カメラ15の撮像した画像を処理することにより、ユーザが、いずれかの腕(例えば、スマートウォッチ20をしている方の腕)に道具を持っているかどうか、を検出することができる。
メインメモリ16およびストレージデバイス17には、カメラ15の撮像した画像やCPU12の演算結果が必要に応じて格納される。また、メインメモリ16およびストレージデバイス17には、表示部19に表示する画像を格納することもできる。
表示部19は、眼鏡のレンズの一部に配置され、投影制御部18の制御下で所定の画像をユーザの視野内に投影する。これにより、ユーザが眼鏡のレンズを通して視認する現実の風景に、表示部19が投影する画像を重畳させて表示することができる。これにより、表示部19には、ユーザに対して報知すべき情報や、次にユーザが作業すべき工程の説明等のようなサーバー40の演算処理結果を表示することができる。
なお、表示部19は、ユーザの網膜に画像を投影する構造のものを用いることも可能である。
無線通信デバイス13は、システムコントローラ11と、サーバー40やスマートウォッチ20との間の通信を行う。
システムコントローラ11は、モーションセンサ14、カメラ15、表示部19、投影制御部18、無線通信デバイス13、システムコントローラ11、CPU12、メインメモリ16、および、ストレージデバイス17の動作の制御を行う。
操作ボタン51は、ユーザからの操作を受け付けるために腕時計に設けられたボタンである。
<スマートウォッチ20>
スマートウォッチ20は、図2に示すように、腕時計と、腕時計の一部に搭載された、モーションセンサ24、バイブレータ25、無線通信デバイス23、システムコントローラ21、CPU22、メインメモリ26、ストレージデバイス27、および、操作ボタン52を備えて構成される。
モーションセンサ24は、移動速度または加速度を検出することにより、腕時計を装着したユーザの腕の上下左右の移動および回転を検知する。
CPU22は、メインメモリ26やストレージデバイス27に予め格納されたプログラムを実行することにより種々の演算を実行する。例えば、CPU22は、モーションセンサ24の出力を処理することにより、ユーザがスマートウォッチ20をつけた腕で、叩く、ひねる、挙手等のユーザが所定の動作を検出する動作判定部221の機能を実現する。具体的には、図3と同様に、CPU22は、モーションセンサ24が検知した値(移動方向、移動速度、移動量、回転方向、回転速度、回転量等)を受け取って(ステップ301)、予め定めた数式に代入して特徴量を算出し(ステップ302)、算出した特徴量が、予め定めておいた1以上の動作(例えば、腕で叩く動作、腕をひねる動作、挙手する動作等)のそれぞれの特徴量の範囲に含まれるか判定し(ステップ303)、いずれかの特徴量の範囲に含まれる場合、その動作をユーザが行ったと判断する(ステップ304)。これにより、CPU22は、動作判定部221の機能を実現することができる。
メインメモリ26およびストレージデバイス27には、CPU22の演算結果が必要に応じて格納される。
バイブレータ25は、振動することにより、ユーザに情報を伝達する。バイブレータ25は、振動する時間長さや振動周波数を異ならせたり、間欠的に振動し、間欠時間の長さを変更することにより、ユーザに複数種類の情報を伝達することも可能である。メインメモリ26およびストレージデバイス27には、予め定めておいた、バイブレータ25の振動の種類と、伝達する情報の関係とを予め格納しておいてもよい。
無線通信デバイス23は、システムコントローラ21と、サーバー40やスマートグラス10との間の通信を行う。
操作ボタン52は、ユーザからの操作を受け付けるために腕時計に設けられたボタンである。
<サーバー40>
サーバー40は、スマートグラス10およびスマートウォッチ20のシステムコントローラ11,12から無線LAN30を介して、入力を受け取り、演算処理を施し、演算結果(例えば、次に作業すべき工程内容を示すデータ)をスマートグラス10やスマートウォッチ20に出力する。スマートグラス10のシステムコントローラ11は、表示部19に受け取った内容を表示させる等により受け取ったデータをユーザに報知する。スマートウォッチ20のシステムコントローラ21は、バイブレータ25を振動させることにより受け取ったデータをユーザに報知する。
<ウェアラブルUI制御システム101>
スマートグラス10のCPU12が実現するウェアラブルUI制御システム101の機能について説明する。ウェアラブルUI制御システム101は、図4に示すように、入力受付部102と入力動作設定部103とを備えている。
入力動作設定部103は、入力操作として受け付けるべきユーザの動作を選択し、入力受付部102に設定する。このとき、入力動作設定部103は、ユーザの置かれている環境、および、入力操作以外のユーザの作業動作のうち少なくも一方に基づいて、どのユーザ動作を入力操作とすべきかを判断して選択する。入力受付部102は、動作判定部121、221が検出した動作が、入力動作設定部103が設定した動作である場合、ユーザによる入力操作として受け付ける。
これにより、ユーザの手に道具が持たれているかどうかや、ユーザから壁までの距離が所定の距離以上かどうかといった、ユーザが置かれている環境に応じて、入力動作設定部103は、ユーザがしやすい動作を入力操作として設定することができる。
入力動作設定部103は、ユーザの作業動作として、ユーザの手および首の動作の少なくとも一方を検出し、検出された作業動作とは異なる動作を、入力動作として選択して設定することもできる。例えば、予め定めておいた、作業動作と、選択すべき入力操作との対応関係に基づいて、入力動作設定部103は、検出された作業動作に対応する入力動作を求め、それを入力操作として設定することができる。
このように、本実施形態のウェアラブルUI制御システム101によれば、ユーザの置かれている環境や行っている作業内容(動作)に応じて、ユーザが実行しやすい動作であって、作業内容との混同が生じにくい動作を入力方法(入力動作)として設定することができる。環境や作業内容の検出は、ユーザが実際の作業動作を行っている期間であって、所定の期間(例えば、予め設定した試用期間)に行えばよく、ユーザが検出のための期間の終了を指示した場合、それまでの検出結果に応じて、入力動作として用いる動作を決定し、設定する。
以下、ウェアラブルUI制御システム101の動作を含めて、本実施形態の情報処理システムの動作を図5のフローを用いて具体的に説明する。ここでは、情報処理システムのサーバー40は、ユーザに作業すべき工程の内容を表示し、ある工程の作業完了をユーザが入力したならば、次の工程の作業内容を表示する場合を例に説明する。なお、ウェアラブルUI制御システム101の機能は、CPU12がメインメモリ内に予め格納されたプログラムを読み込んで実行することにより、ソフトウエアにより実現する例についてここでは説明する。ただし、ウェアラブルUI制御システム101は、ソフトウエアで実現する場合に限定されるものではなく、その一部または全部をハードウエアによって実現することも可能である。例えば、ASIC(Application Specific Integrated Circuit)のようなカスタムICや、FPGA(Field-Programmable Gate Array)のようなプログラマブルICを用いてシステムコントローラ(制御部20)を構成し、その機能を実現するように回路設計を行えばよい。
(ステップ401)
まず、ウェアラブルUI制御システム101は、ユーザ(作業者)から初期条件の入力を受け付けるため、図6のようなUI画面をシステムコントローラ11を介して表示部19に表示させる。このUI画面上で、ウェアラブルUI制御システム101は、ユーザがヘルメットをかぶっているかどうか、どの入力方法を入力操作とするかを自動で決めるか、手動で決めるか、をスマートグラス10の操作ボタン51の操作により、もしくはスマートウォッチの操作ボタン52の操作を無線LAN30を介して受信することにより、受け付ける。ユーザが入力操作を自動で決めることを選択した場合、ウェアラブルUI制御システム101は、入力方法を決定する期間である試用期間の長さについても、同様に受け付ける。ウェアラブルUI制御システム101は、初期条件入力を受け付けたならば、サーバー40にその旨を通知する。
(ステップ402、403)
サーバー40は、予め定められた工程1の作業内容と作業開始を指示する例えば図7のような画像データをスマートグラス10に受け渡し、表示部19に表示させる。表示を見たユーザは、作業を開始する。
(ステップ404、405)
ステップ404において、ウェアラブルUI制御システム101は、ステップ401で受け付けた初期入力を確認し、どの入力方法を入力操作とするかを自動で決定することが選択されている場合、ステップ405に進み、現時点が、初期入力において設定された試用期間内であるかどうかを判定する。試用期間である場合、ウェアラブルUI制御システム101は、ステップ411に進む。
(ステップ411)
ウェアラブルUI制御システム101は、ユーザがステップ403で表示された工程1の作業をしている間、ユーザが置かれている環境の検出を行う。ここでは、一例として、ユーザが、スマートウォッチ20をつけた手に道具を持っているかどうかを、CPU12がカメラ15が撮像した画像を取り込んで画像処理することにより検出する。
(ステップ412)
つぎに、ウェアラブルUI制御システム101は、ユーザが作業をしている間の作業動作の検出を行う。具体的には、ウェアラブルUI制御システム101は、スマートウォッチ20の動作判定部221にユーザが作業をしている間の動作判定を指示し、判定結果を受け取ることにより、スマートウォッチ20をつけた手で叩き作業をしている作業量(時間)と、スマートウォッチ20をつけた手でひねり作業をしている作業量(時間)を計測する。
(ステップ413)
ウェアラブルUI制御システム101は、ユーザが操作ボタン51または52を操作することにより、入力方法の選択のための作業動作の終了を指示するまで、上記ステップ411,412の環境の検出と作業動作の検出を継続する。ユーザが、入力方法の選択のための作業動作が終了したと指示した場合には、ステップ414に進む。
(ステップ414)
ウェアラブルUI制御システム101は、ステップ401において受け付けた初期条件、ステップ411,412において検出した環境や作業動作に応じて、入力方法を選択し、設定する。具体的には、図8に示したように、入力を受け付けた条件、検出した環境および作業動作と、選択すべき入力方法との対応関係に基づいて入力方法を選択する。
入力方法の選択手順を図9の処理フローを用いて具体的に説明する。ウェアラブルUI制御システム101は、メインメモリ16からステップ401で受け付けた初期条件を読み込み(ステップ901)、ユーザがヘルメットをかぶっているかどうかを判定し(ステップ902)、ヘルメットなしの場合には、ステップ910に進み、首を頷く動作(首肯)を入力方法(入力動作)として選択する。
ステップ902においてヘルメットありの場合には、ウェアラブルUI制御システム101は、ステップ903に進み、ステップ411で検出した環境を読み込み、スマートウォッチ20をつけた手に道具を持っているかどうか判定する(ステップ904)。道具を持っていない場合、ウェアラブルUI制御システム101は、ステップ911に進み、スマートウォッチ20をつけた手を挙げる挙手動作を入力動作として選択する。
ステップ904において道具を持っている場合、ウェアラブルUI制御システム101は、ステップ905に進み、ステップ412で検出した作業動作を読み込み、スマートウォッチ20をつけた手で叩き作業しているかどうか判定する(ステップ906)。叩き作業をしていない場合、スウェアラブルUI制御システム101は、ステップ912に進み、スマートウォッチ20をつけた手でタップする(軽く叩く)動作を入力動作として選択する。
ステップ906においてスマートウォッチ20をつけた手で叩き作業している場合、ウェアラブルUI制御システム101は、ステップ907に進み、ステップ412で検出した作業動作においてスマートウォッチ20をつけた手でひねり作業しているかどうか判定する(ステップ907)。ひねり作業をしていない場合、ウェアラブルUI制御システム101は、ステップ913に進み、スマートウォッチ20をつけた手でひねる動作を入力動作として選択する。
ステップ907においてスマートウォッチ20をつけたひねり作業していると場合には、叩き作業とひねり作業を両方行っている場合であるので、ウェアラブルUI制御システム101は、ステップ908に進み、ステップ412で検出した作業動作の叩き動作の作業量とひねり動作の作業量とを比較し、叩き作業量がひねり作業量より多いかどうか判定する。叩き作業量がひねり作業量よりも少ない場合、ウェアラブルUI制御システム101は、ステップ914に進み、スマートウォッチ20をつけた手でタップする動作を入力動作として選択する。叩き作業量がひねり作業量よりも多い場合、ウェアラブルUI制御システム101は、ステップ909に進み、スマートウォッチ20をつけた手でひねるタップする動作を入力動作として選択する。
以上により、ウェアラブルUI制御システム101は、初期条件と、その工程においてユーザが置かれている環境と、その工程の作業内容に応じて、適した入力動作を選択することができる。ウェアラブルUI制御システム101は、メインメモリ16等に、そのユーザの当該工程の入力動作として、選択した入力動作を保存する。ウェアラブルUI制御システム101は、設定した入力動作を、図10のような表示を表示部19に表示する等して、ユーザに報知する。また、ウェアラブルUI制御システム101は、入力動作の選択および設定完了をサーバー40に通知する。
上記ステップ401、404、405、411〜414の動作が、ウェアラブルUI制御システム101の入力動作設定部103の動作である。
(ステップ407、408)
ウェアラブルUI制御システム101は、図10のような表示等により、現在の工程の作業継続をユーザに指示し(ステップ407)、動作判定部121、221がステップ414で設定された入力動作を受け付けるまで待機する。動作判定部121、221がステップ414で設定された入力動作を受け付けた場合には、ユーザが作業完了を入力したと判断し、サーバー40に通知する(ステップ408)。
これらステップ407,408の動作は、ウェアラブルUI制御システム101の入力受付部102の動作である。
(ステップ409、410)
サーバー40は、すべての作業工程が終了しているかどうか判定し、このあとに続く工程がある場合には、ステップ403に戻って、次工程の作業内容と作業開始を指示する。
(ステップ406)
なお、上述のステップ405において、試用期間が終了している場合には、ウェアラブルUI制御システム101の入力動作設定部103は、ステップ406に進み、前回ステップ414で選択した入力動作を、受け付けるべき入力操作として入力受付部102に設定する。ウェアラブルUI制御システム101は、ステップ407に進む。
これにより、ウェアラブルUI制御システム101の入力動作設定部103は、試用期間とは異なり、ステップ411〜414を実行することなく、そのユーザのその工程に適した入力方法を設定することができる。
(ステップ415)
また、ステップ404において、ユーザが入力方法として手動を選択している場合、ウェアラブルUI制御システム101は、ステップ415に進み、ユーザに図11のような選択画面を表示する等して、ユーザの操作ボタン51,52の操作等により、入力動作の選択を受け付ける。ユーザが選択可能な入力動作は、動作判定部121,221が判定可能な動作である。ここでは、動作判定部121が、頷き動作、上を向く動作、下を向く動作、首を左または右に回す動作、首を左右に振る動作等を判定可能であり、動作判定部221が、腕で叩く動作、腕をひねる動作、挙手する動作等を判定可能であるので、これらのいずれかをユーザは、入力動作として選択する。
ウェアラブルUI制御システム101の入力動作設定部103は、ユーザから受け付けた入力動作を、入力受付部102に受け付けるべき入力操作として設定した後、ステップ407に進む。
上述してきたように、本実施形態にかかる情報処理システムは、ウェアラブルUI制御システム101を備え、複数種類の入力方法(入力動作)によって操作することが可能であり、それらの入力方法のうち、ユーザの環境や作業動作に基づいて適切な入力方法を特定の入力操作に割り当てる設定を容易に行うことができる。これにより、ユーザの両手がふさがっていたり、ヘルメットをかぶっていたりする制約の多い環境や作業内容の場合でも、操作しやすい適切な入力動作を設定できる。よって、ユーザによる誤操作を低減して、効率よく作業を行うことが可能な情報処理システムを提供することができる。
なお、首肯入力やタップ入力で、頷き回数やタップ回数は1回に限られるものではなく、頷き2回やダブルタップ等、複数回の動作による入力を受け付け可能にすることももちろん可能である。
また、本実施形態では、ヘルメットをかぶっていない場合、首肯入力を入力動作として選択する例について説明したが、首肯以外の他の首の動作や、手の動作を選択する構成にすることももちろん可能である。また、作業工程が、スマートグラス10のカメラ15での撮影を行う工程である場合には、首の動作を入力動作とすると、画像がぶれるという影響が生じるため、手の動作を選択することが望ましい。
<<入力方法の組み合わせ>>
上述した図5のフローでは、ウェアラブルUI制御システム101が設定した一つの入力方法(入力動作)を、作業完了の入力動作として用いる例について説明したが、他の入力動作やメニュー画像表示と組み合わせることにより、作業完了以外の他の入力を行う構成にすることもできる。
例えば、上を向いて静止する動作を「メニュー画面の表示」、下を向く動作を「メニュー画面のキャンセル」、スマートウォッチをつけた腕をひねる動作を「メニュー画面におけるターゲット(選択位置)移動」、上述の実施形態で選択した入力操作(ここでは、スマートウォッチをつけた腕をタップする動作)を「完了(または決定)」に予め割り当てておく。
そして、ウェアラブルUI制御システム101は、動作判定部121がユーザが上を向いて静止したと判定した場合、図12(a)にように、予め定めたメニュー画面をメインメモリ16等から呼び出して、表示部19に表示させる。図12(a)のメニュー画面は、5つの項目A〜Eが並べて表示されている。
スマートウォッチ20をつけた腕をひねる動作をユーザが行ったことを動作判定部221が判定した場合、ウェアラブルUI制御システム101は、図12(b)のようにメニュー画面におけるターゲット(選択位置)を移動させる。ユーザは、選択したい項目(例えば項目C)の位置にターゲットが移動するまで、繰り返し腕をひねる動作を行ったならば(図12(c))、この項目での入力を決定するために腕をタップする。動作判定部221がタップ動作が行われたと判定した場合、ウェアラブルUI制御システム101は、図12(d)のように現在選択されている項目Cに入力を決定する(完了入力)。
そして、ユーザが下向いて静止したと動作判定部121が判定した場合、ウェアラブルUI制御システム101は、図12(e)のようにメニュー画面を消去し、入力決定された項目Cをサーバー40に通知し、サーバー40は項目Cを実行する。
このように、他の入力動作やメニュー画像表示と組み合わせることにより、メニュー画面の項目選択等の他の入力方法を実現することができる。
なお、図5のフローにおいて、ステップ414で設定された入力動作を完了入力として用いる場合、完了入力以外の動作に、ステップ414で設定した入力動作とは異なる動作を割り当てることが望ましい。
以上のように、本実施形態では、作業環境や作業内容に応じて、操作者が容易に操作することのできるウェアラブルUI制御システム101を備えた情報処理システムを提供することができる。
なお、本実施形態では、ウェアラブル端末として、スマートグラス10を用いたが、モーションセンサおよびカメラが備えられたヘルメットやヘアバンドと、ユーザの近くに配置されたディスプレイまたは持ち運び可能なディスプレイの組み合わせでもよい。ウェアラブルセンサとして、本実施形態ではスマートウォッチ20を用いたが、時計機能がなくてもよく、腕に装着するベルトつきモーションセンサでもよい。
また、本実施形態では、ウェアラブルUI制御システム101をスマートグラス10内のCPU12に配置したが、スマートウォッチ20やサーバー40に配置してもよい。また、動作判定部121、221をサーバー40に配置することも可能である。
10…ウェアラブル端末(スマートグラス)、11…システムコントローラ、12…CPU、13…無線通信デバイス、14…モーションセンサ、15…カメラ、16…メインメモリ、17…ストレージデバイス、18…投影制御部、19…表示部、20…ウェアラブルセンサ(スマートウォッチ)、21…システムコントローラ、22…CPU、23…無線通信デバイス、24…モーションセンサ、25…バイブレータ、26…メインメモリ、27…ストレージデバイス、30…ネットワーク(無線LAN)、40…サーバー、51、52…操作ボタン、101…ウェアラブルUI制御システム、121…動作判定部、221…動作判定部

Claims (10)

  1. 入力操作として受け付けるべきユーザの動作を選択する入力動作設定部と、
    ユーザに装着され、ユーザの少なくとも一つの部位の動きを検出するセンサの出力を受け取って、前記センサの出力に基づいて、前記入力動作設定部が選択した前記動作をユーザが行ったことを検出した場合、前記動作をユーザによる入力操作として受け付ける入力受付部とを有し、
    前記入力動作設定部は、前記ユーザの置かれている環境、および、前記入力操作以外のユーザの作業動作のうち少なくも一方に基づいて、予め定められた複数種類のユーザの動作の中から、前記入力操作として受け付けるべき前記ユーザの動作を選択し、前記入力受付部に設定することを特徴とするウェアラブルユーザインタフェース制御システム。
  2. 請求項1に記載のウェアラブルユーザインタフェース制御システムであって、前記入力動作設定部は、予め定められた試用期間である場合、前記ユーザの置かれている環境、および、前記入力操作以外のユーザの作業動作のうち少なくとも一方を検出し、検出結果に基づいて前記入力操作として受け付けるべき前記ユーザの動作を選択することを特徴とするウェアラブルユーザインタフェース制御システム。
  3. 請求項2に記載のウェアラブルユーザインタフェース制御システムであって、前記入力動作設定部は、前記ユーザの置かれている環境として、ユーザの手に道具が持たれているかどうか、および、ユーザから壁までの距離が所定の距離以上かどうかのうち、少なくとも一方を検出することを特徴とするウェアラブルユーザインタフェース制御システム。
  4. 請求項2に記載のウェアラブルユーザインタフェース制御システムであって、前記入力動作設定部は、前記ユーザの作業動作として、ユーザの手および首の動作の少なくとも一方を検出することを特徴とするウェアラブルユーザインタフェース制御システム。
  5. 請求項2に記載のウェアラブルユーザインタフェース制御システムであって、前記入力動作設定部は、予め定められた複数種類のユーザの動作のうち、前記作業動作として検出された動作とは異なる動作を、前記入力操作として受け付ける動作として選択することを特徴とするウェアラブルユーザインタフェース制御システム。
  6. 請求項5に記載のウェアラブルユーザインタフェース制御システムであって、前記入力動作設定部は、予め定めておいた、作業動作と、選択すべき動作との対応関係に基づいて、検出された前記作業動作に対応する前記選択すべき動作を求め、それを前記入力操作として受け付けるべき動作として設定することを特徴とするウェアラブルユーザインタフェース制御システム。
  7. 請求項1に記載のウェアラブルユーザインタフェース制御システムであって、前記入力動作設定部は、前記センサが前記ユーザの腕に装着されている場合、前記センサの出力に基づいて、前記環境および前記作業動作の少なくとも一方を検出することを特徴とするウェアラブルユーザインタフェース制御システム。
  8. 請求項1に記載のウェアラブルユーザインタフェース制御システムであって、前記入力動作設定部は、前記ユーザにカメラが装着されている場合、前記カメラの撮像した画像に基づいて、前記環境および前記作業動作の少なくとも一方を検出することを特徴とするウェアラブルユーザインタフェース制御システム。
  9. 請求項1ないし8のいずれか1項に記載のウェアラブルユーザインタフェース制御システムと、
    前記入力受付部が受け付けた入力操作に応じて、予め定められた演算処理を行う処理部とを有する情報処理システム。
  10. コンピュータを、
    ユーザの置かれている環境、および、ユーザの作業動作のうち少なくも一方に基づいて、予め定められた複数種類のユーザの動作の中から、入力操作として受け付けるべきユーザの動作を選択する入力動作設定手段と、
    ユーザに装着され、ユーザの少なくとも一つの部位の動きを検出するセンサの出力を受け取って、前記センサの出力に基づいて、前記入力動作設定手段が選択した前記動作をユーザが行ったことを検出した場合、前記動作をユーザによる入力操作として受け付ける入力受付手段と、
    として機能させるウェアラブルユーザインタフェース制御プログラム。
JP2019025281A 2019-02-15 2019-02-15 ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム Active JP7053516B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019025281A JP7053516B2 (ja) 2019-02-15 2019-02-15 ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム
CN201980063555.1A CN112771477A (zh) 2019-02-15 2019-10-29 可穿戴用户接口控制系统、使用该系统的信息处理系统以及控制程序
US17/282,811 US11409369B2 (en) 2019-02-15 2019-10-29 Wearable user interface control system, information processing system using same, and control program
PCT/JP2019/042258 WO2020166140A1 (ja) 2019-02-15 2019-10-29 ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019025281A JP7053516B2 (ja) 2019-02-15 2019-02-15 ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム

Publications (2)

Publication Number Publication Date
JP2020135176A true JP2020135176A (ja) 2020-08-31
JP7053516B2 JP7053516B2 (ja) 2022-04-12

Family

ID=72045267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019025281A Active JP7053516B2 (ja) 2019-02-15 2019-02-15 ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム

Country Status (4)

Country Link
US (1) US11409369B2 (ja)
JP (1) JP7053516B2 (ja)
CN (1) CN112771477A (ja)
WO (1) WO2020166140A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7507521B1 (ja) 2023-07-03 2024-06-28 合同会社グッドシェイプ 情報処理システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190774A1 (ja) * 2021-03-11 2022-09-15 株式会社Nttドコモ 情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003708A (ja) * 2011-06-14 2013-01-07 Nikon Corp 表示装置、電子機器、およびプログラム
WO2017002488A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018181293A (ja) * 2017-09-11 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4789745B2 (ja) * 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
US8738754B2 (en) * 2011-04-07 2014-05-27 International Business Machines Corporation Systems and methods for managing computing systems utilizing augmented reality
CN102193633B (zh) * 2011-05-25 2012-12-12 广州畅途软件有限公司 一种数据手套动态手语识别方法
DE102012217573A1 (de) * 2012-09-27 2014-03-27 Krones Ag Bediensystem für eine Maschine
US9448407B2 (en) * 2012-12-13 2016-09-20 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and work supporting system
US20140267019A1 (en) * 2013-03-15 2014-09-18 Microth, Inc. Continuous directional input method with related system and apparatus
US11055563B2 (en) * 2013-10-24 2021-07-06 Panasonic Intellectual Property Management Co., Ltd. Heating cooker, cooking system, arithmetic device, and cooking support method
JP6206099B2 (ja) * 2013-11-05 2017-10-04 セイコーエプソン株式会社 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置
US20150262425A1 (en) * 2014-03-13 2015-09-17 Ryan Hastings Assessing augmented reality usage and productivity
US11103948B2 (en) * 2014-08-18 2021-08-31 Illinois Tool Works Inc. Systems and methods for a personally allocated interface for use in a welding system
JP6516464B2 (ja) 2014-12-15 2019-05-22 Kddi株式会社 ウェアラブル検索システム
US9972133B2 (en) * 2015-04-24 2018-05-15 Jpw Industries Inc. Wearable display for use with tool
CN107615214B (zh) 2015-05-21 2021-07-13 日本电气株式会社 界面控制系统、界面控制装置、界面控制方法及程序
JP2017050810A (ja) * 2015-09-04 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御方法、通信端末、通信システムおよびプログラム
EP3139248B1 (en) * 2015-09-04 2024-08-14 ams AG Method for gesture based human-machine interaction, portable electronic device and gesture based human-machine interface system
US10431007B2 (en) * 2016-05-31 2019-10-01 Augumenta Ltd. Method and system for user interaction
CN106213968A (zh) * 2016-08-04 2016-12-14 轩脉家居科技(上海)有限公司 一种基于人体动作识别的智能窗帘
CN108563988B (zh) * 2018-03-06 2021-12-03 上海数迹智能科技有限公司 一种指尖轨迹识别分类方法
US10767997B1 (en) * 2019-02-25 2020-09-08 Qualcomm Incorporated Systems and methods for providing immersive extended reality experiences on moving platforms
US10885704B1 (en) * 2019-09-04 2021-01-05 Microsoft Technology Licensing, Llc 3D mapping by distinguishing between different environmental regions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003708A (ja) * 2011-06-14 2013-01-07 Nikon Corp 表示装置、電子機器、およびプログラム
WO2017002488A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018181293A (ja) * 2017-09-11 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7507521B1 (ja) 2023-07-03 2024-06-28 合同会社グッドシェイプ 情報処理システム

Also Published As

Publication number Publication date
WO2020166140A1 (ja) 2020-08-20
JP7053516B2 (ja) 2022-04-12
CN112771477A (zh) 2021-05-07
US11409369B2 (en) 2022-08-09
US20210389827A1 (en) 2021-12-16

Similar Documents

Publication Publication Date Title
CN109690447B (zh) 信息处理方法、用于使计算机执行该信息处理方法的程序、以及计算机
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
CN103827780A (zh) 用于虚拟输入设备的方法和系统
CN106066537B (zh) 头戴式显示器和头戴式显示器的控制方法
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
WO2021035646A1 (zh) 可穿戴设备及其控制方法、识别手势的方法和控制系统
CN105074625A (zh) 信息处理设备、信息处理方法及程序
CN108027987B (zh) 信息处理方法、信息处理装置及信息处理系统
JP7053516B2 (ja) ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム
JP6716028B2 (ja) 制御装置、情報処理システム、制御方法、及びプログラム
EP3940507A1 (en) Information processing device, information processing method, and computer-readable recording medium
JP6220937B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
EP4155666A1 (en) Survey system
JP2020019127A (ja) 協調動作支援装置
JP6157703B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP2017097306A (ja) ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイシステムにおける表示制御方法
WO2019227734A1 (zh) 一种控制指令输入方法和输入装置
CN103713387A (zh) 电子设备和采集方法
JP2024097787A (ja) 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム
CN117784926A (zh) 控制装置、控制方法和计算机可读存储介质
JP2018025955A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018110871A (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP2018026105A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6934374B2 (ja) プロセッサを備えるコンピュータにより実行される方法
JP6290493B2 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220331

R150 Certificate of patent or registration of utility model

Ref document number: 7053516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150