JP2020071588A - Display device and method for controlling display device - Google Patents
Display device and method for controlling display device Download PDFInfo
- Publication number
- JP2020071588A JP2020071588A JP2018203895A JP2018203895A JP2020071588A JP 2020071588 A JP2020071588 A JP 2020071588A JP 2018203895 A JP2018203895 A JP 2018203895A JP 2018203895 A JP2018203895 A JP 2018203895A JP 2020071588 A JP2020071588 A JP 2020071588A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- image
- input
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示装置、及び、表示装置の制御方法に関する。 The present invention relates to a display device and a display device control method.
従来、ユーザーの操作を受け付ける種々のインターフェイス装置が知られている(例えば、特許文献1参照)。
例えば、特許文献1に記載のインターフェイス装置は、操作者の手に装着される。このインターフェイス装置は、操作者の一方の手の平の少なくとも一部に接触する部材と、カメラと、検出手段とを備える。カメラは、この部材の一方の手の平に対向する面とは反対側の面上に配置される。検出手段は、このカメラにより撮像された画像に基づいて、一方の手の動作を検出する。
Conventionally, various interface devices that receive a user's operation are known (for example, refer to Patent Document 1).
For example, the interface device described in
本発明は、ユーザーの操作性を向上可能な表示装置を提供することを目的とする。 An object of the present invention is to provide a display device capable of improving operability for users.
上記目的を達成する一態様は、光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、前記表示部を透過して視認される前記ユーザーの手に重なる位置に、複数の入力用画像を前記表示部に表示させる表示制御部と、前記ユーザーの手の動きを検出する動きセンサーと、前記動きセンサーの検出値に基づき、前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定部と、前記操作推定部の推定結果を判定する判定部と、前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定部の判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習部と、を備える表示装置である。 One mode for achieving the above object is a transmissive display unit that transmits light, and is overlapped with a display unit mounted on a user's head and the user's hand visually recognized through the display unit. At the position, a display control unit for displaying a plurality of input images on the display unit, a motion sensor for detecting a motion of the user's hand, and a plurality of input images among the plurality of input images based on a detection value of the motion sensor. From the operation estimation unit that estimates an operation of selecting one input image from the determination unit, the determination unit that determines the estimation result of the operation estimation unit, the detection value of the motion sensor, the one input image, and the determination A learning unit that machine-learns a condition for specifying the one input image from the detection value of the motion sensor based on a learning data set including a combination with a determination result of the unit.
上記表示装置において、撮像部を備え、前記判定部は、前記判定部は、前記操作推定部の推定結果の正否を、前記撮像部による画像に基づいて判定する構成であってもよい。 The display device may include an imaging unit, and the determination unit may be configured to determine whether the estimation result of the operation estimation unit is correct based on an image captured by the imaging unit.
上記表示装置において、前記ユーザーからの音声の入力を受け付ける音声入力部を備え、前記判定部は、前記操作推定部の推定結果の正否を、前記音声入力部に入力された音声に基づいて判定する構成であってもよい。 In the display device, a voice input unit that receives a voice input from the user is provided, and the determination unit determines whether the estimation result of the operation estimation unit is correct based on the voice input to the voice input unit. It may be configured.
上記表示装置において、前記複数の入力用画像の各々は、互いに相違する文字を示し、前記操作推定部は、前記動きセンサーの検出値に基づいて、入力する文字を推定する構成であってもよい。 In the display device, each of the plurality of input images may indicate a different character, and the operation estimation unit may be configured to estimate a character to be input based on a detection value of the motion sensor. ..
上記表示装置において、前記複数の入力用画像の各々は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作である構成であってもよい。 In the display device, each of the plurality of input images is associated with a region separated by a joint in each finger of the user other than the thumb of the hand, and the operation of selecting the one input image is performed as described above. The operation may be such that the thumb of the user's hand is pressed against a region divided by the joint.
上記表示装置において、前記複数の入力用画像に含まれる2つ以上の所定個数の入力用画像は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、前記領域を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作であり、前記領域に対応付けられた前記所定個数の入力用画像から前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を所定方向に移動する操作である構成であってもよい。 In the above display device, two or more predetermined number of input images included in the plurality of input images are associated with a region separated by a joint in each finger of the user other than the thumb, The operation of selecting is an operation of pressing the thumb of the user's hand to a region delimited by the joint, and selecting the one input image from the predetermined number of input images associated with the region. The operation to be performed may be an operation of moving the thumb of the user's hand in a predetermined direction.
上記表示装置において、前記表示制御部は、前記ユーザーの手の位置をガイドする第1ガイド画像を前記表示部に表示させる構成であってもよい。 In the above display device, the display control unit may be configured to display a first guide image for guiding the position of the user's hand on the display unit.
上記表示装置において、前記表示制御部は、前記表示部を透過して視認される前記ユーザーの手の位置を追跡し、前記ユーザーの手の移動に応じて、前記複数の入力用画像の各々の表示位置を調整する構成であってもよい。 In the display device, the display control unit tracks the position of the user's hand visually recognized through the display unit, and according to the movement of the user's hand, each of the plurality of input images is displayed. The display position may be adjusted.
上記表示装置において、前記動きセンサーは、前記ユーザーの手首に装着される筋電センサーを含む構成であってもよい。 In the display device, the motion sensor may include a myoelectric sensor attached to the wrist of the user.
上記目的を達成する別の一態様は、光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、前記ユーザーの手の動きを検出する動きセンサーと、を備える表示装置の制御方法であって、前記動きセンサーの検出値から前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定ステップと、前記操作推定ステップの推定結果を判定する判定ステップと、前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定ステップの判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習ステップと、を含む、表示装置の制御方法である。 Another aspect of achieving the above object is a transmissive display unit that transmits light, and includes a display unit mounted on a user's head and a motion sensor that detects a motion of the user's hand. A method for controlling a display device, comprising: an operation estimation step of estimating an operation of selecting one input image from the plurality of input images from a detection value of the motion sensor; and an estimation result of the operation estimation step. Based on a learning data set including a combination of a determination step of determining the motion sensor, a detection value of the motion sensor, the one input image, and a determination result of the determination step. And a learning step of machine-learning a condition for specifying one input image, the control method of the display device.
以下、図面を参照して本実施形態について説明する。
図1は、HMD100の外観構成を示す説明図である。
図1に示すように、HMD(Head Mounted Display)100は、いわゆるシースルー型()のHMDであって、制御装置10と、画像表示部20とを備える。HMD100は、「表示装置」の一例に相当する。シースルー型は、「透過型」ということもできる。
制御装置10は、平たい箱形のケース10Aを備える。ケース10Aは、ユーザーの操作を受け付ける各種のスイッチやトラックパッド14等を備え、これらをユーザーが操作することによって、制御装置10は、HMD100を制御する制御装置として機能する。また、ケース10Aは、HMD100を制御する機能部を内蔵する。ケース10Aは、筐体の一例に対応する。
Hereinafter, the present embodiment will be described with reference to the drawings.
FIG. 1 is an explanatory diagram showing an external configuration of the
As shown in FIG. 1, an HMD (Head Mounted Display) 100 is a so-called see-through type () HMD, and includes a
The
また、HMD100の制御装置10は、筋電センサー200と無線にて通信可能に接続される。筋電センサー200は、ユーザーの手首に装着される。
筋電センサー200は、ユーザーの指の筋肉の動きに応じて発生する電気信号を検出する。本実施形態では、筋電センサー200は、主にユーザーの親指の筋肉の動きに応じて発生する電気信号を検出する。
筋電センサー200は、後述にて図7を参照して説明するように、ユーザーの手首に装着される。筋電センサー200は、円筒状に形成され、その内面側に複数のセンサーが配置される。「内面側」とは、ユーザーの手首の外周面と当接する側を示す。筋電センサー200は、複数のセンサーによって、複数の筋肉の動きを検出可能に構成される。
筋電センサー200は、バッテリー、通信部、制御部、入出力部を備える。通信部は、例えばBluetooth(登録商標)のような無線通信によって、HMD100の制御装置10との間で通信可能である。
筋電センサー200は、「動きセンサー」の一例に相当する。なお、「動きセンサー」は、ユーザーの指に装着されるジャイロセンサーでもよい。また、「動きセンサー」は、筋電センサー200とジャイロセンサーとを含んでもよい。
Further, the
The
The
The
The
画像表示部20は、ユーザーの頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28を備える。画像表示部20は、「表示部」の一例に相当する。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプルのように、ユーザーの頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態においてユーザーの右側に位置する端部を端部ERとし、ユーザーの左側に位置する端部を端部ELとする。右保持部21は、画像表示部20の装着状態において、前部フレーム27の端部ERからユーザーの右側頭部に対応する位置まで延伸して設けられる。左保持部23は、画像表示部20の装着状態において、端部ELからユーザーの左側頭部に対応する位置まで延伸して設けられる。
The
The
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態においてユーザーの右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態においてユーザーの左眼の眼前に位置し、左眼に画像を視認させる。
The right
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、ユーザーが画像表示部20を装着する装着状態で、ユーザーの眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態でユーザーの鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20をユーザーの頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態においてユーザーの後頭部に接する図示しないベルトを連結してもよく、この場合、ベルトによって画像表示部20をユーザーの頭部に保持できる。
The
右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態においてユーザーの右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態においてユーザーの左側頭部の近傍に位置する。
The
本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、ユーザーの眼に導く。
The right
また、右導光板26及び左導光板28の表面に、調光機能を有する図示しない電子シェードを設けてもよい。電子シェードは電圧を入力する図示しない端子、及び、端子間の電圧に応じて光の透過率が変化する図示しないシェード本体を有し、後述する制御部141の制御により、印加される電圧を調整可能である。電子シェードは、可視光を含む波長域全体の透過率が変化する構成であってもよいし、光の波長域により異なる透過率を有する構成であってもよい。電子シェードは、例えば、ユーザーの眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。電子シェードの光学特性を調整することにより、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
Further, an electronic shade (not shown) having a dimming function may be provided on the surfaces of the right
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像をユーザーに視認させることによって、画像を表示する。ユーザーの前方から、右導光板26及び左導光板28を透過して外光がユーザーの眼に入射する場合、ユーザーの眼には、虚像を構成する画像光及び外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に電子シェードを装着し、電子シェードの光学特性を適宜選択あるいは調整することによって、虚像の視認のし易さを調整できる。
The
カメラ61は、画像表示部20の前部フレーム27に配置される。カメラ61は、ユーザーが画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。カメラ61は、「撮像部」の一例に相当する。
The
カメラ61は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態におけるユーザーの視界方向の少なくとも一部の外景を撮像する。外景は、実空間に対応する。別の表現では、カメラ61は、ユーザーの視界と重なる範囲または方向を撮像し、ユーザーが注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、ユーザーが右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能なユーザーの視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。
カメラ61は、制御部141の指示に従って撮像処理を実行し、撮像画像データを表示制御部142及び判定部144に出力する。表示制御部142及び判定部144の各々については、後述にて図6を参照して説明する。
The
The
HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー64を備える。距離センサー64は、例えば、ユーザーにとって前方に位置する測定対象物までの距離を検出する構成とすることができ、本実施形態では、前部フレーム27において右導光板26と左導光板28との連結部分に配置される。この例では、画像表示部20の装着状態において、距離センサー64の位置は、水平方向ではユーザーの両眼のほぼ中間であり、鉛直方向ではユーザーの両眼より上である。距離センサー64の測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。
The
距離センサー64は、例えば、LED(Light Emitting Diode)やレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する。距離センサー64は、制御部141の指示に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサー64は、制御部141の指示に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
The
制御装置10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの端部に設けられるコネクター42に着脱可能に接続される。すなわち、ケース10Aには、接続ケーブル40を抜き差し可能なコネクター42が設けられ、画像表示部20を使用する場合にコネクター42に接続ケーブル40が接続される。
The
接続ケーブル40は、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。
コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。コネクター46は、オーディオコネクターという場合がある。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、コネクター46に接続される。
The
The
マイク63は、例えば図1に示すように、マイク63の集音部がユーザーの視線方向を向くように配置され、音声を集音して、音声信号を図5に示す音声インターフェイス182に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
For example, as shown in FIG. 1, the
制御装置10は、ユーザーにより操作される被操作部として、トラックパッド14、上下キー15、LED表示部17及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。これらの被操作部は、例えば、ユーザーの手指により操作される。
The
トラックパッド14は、ケース10Aの前面において、ユーザーが指を接触させる、タッチ操作を行うための領域である。トラックパッド14は、ケース10Aの前面と同様の平面であってもよいが、トラックパッド14と、それ以外の領域とをユーザーが識別できる構成であることが好ましい。例えば、トラックパッド14の縁を示す線が印刷または凹凸により形成されてもよいし、トラックパッド14が、トラックパッド14の表面の触感をそれ以外の領域と異ならせる表面加工を施されてもよい。
The
制御装置10は、ケース10Aの前面において、図5に示すタッチセンサー13により、ユーザーによるトラックパッド14への接触操作を検出できる。制御装置10は、タッチセンサー13が接触操作を検出した場合に、操作を検出した位置を特定する。トラックパッド14は、トラックパッド14における絶対位置、或いは、相対位置を入力する操作のために使用できる。
The
ケース10Aの前面にはLED表示部17が設置される。LED表示部17は、トラックパッド14に位置し、LED表示部17の表面は、ケース10Aの前面における他の領域と違わない。LED表示部17は、光を透過可能な図示しない透過部を有し、透過部の直下に設置される1または複数のLEDが点灯することにより、ユーザーが記号等を視認できるように、発光する。図1の例では、LED表示部17のLEDが点灯することにより、3つの記号△、記号○、記号□が現れる。記号△は、三角形を示す。記号○は丸を示す。記号□は四角形を示す。
An
制御装置10は、LED表示部17に対するユーザーの手指の接触操作を、タッチセンサー13により検出し、操作位置を特定できる。このため、例えば操作位置が、LED表示部17に現れる記号のどれに対応する位置かを特定できる。従って、LED表示部17はソフトウェアボタンとして機能する。例えば、LED表示部17に現れる記号を、HMD100の機能に対応付けることで、LED表示部17へのタッチ操作を当該機能に対する操作として検出できる。HMD100は、図1の例で、記号○をホームボタンに割り当てることができる。この場合、記号○の位置に接触操作が行われると、制御部141は、ホームボタンの操作を検出する。また、記号□は履歴ボタンに割り当てることができる。この場合、記号□の接触操作を、制御部141は、履歴ボタンの操作として検出する。同様に、記号△は戻るボタンに割り当てることができる。制御部141は、記号△の接触操作を、戻るボタンの操作として検出する。
The
上下キー15は、ケース10Aの側面に配置され、押圧操作を検出する一対のキーを備える。上下キー15の右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。
電源スイッチ18は、HMD100の電源のオン及びオフを切り替えるスイッチである。
The up / down key 15 is arranged on the side surface of the
The
ケース10Aにおいて電源スイッチ18と同じ側の側面には、図5に示すUSB(Universal Serial Bus)コネクター188が設けられる。USBコネクター188は、制御装置10を、外部の装置に接続するインターフェイスであり、本実施形態ではインターフェイスの一例として、USB規格に準拠したコネクターを例示する。USBコネクター188は、例えば、microUSB規格に適合する形状、及びサイズを有するコネクターであり、転送速度等の仕様は任意である。
A USB (Universal Serial Bus)
制御装置10は、図5に示すバッテリー132を有し、バッテリー132が供給する電力により制御装置10及び画像表示部20が動作する。バッテリー132への充電は、USBコネクター188に対して電力を供給することにより行うことができる。HMD100は、制御装置10と画像表示部20とを取り外し、制御装置10のみを専用の充電装置に接続することで、充電を行うことができる。
The
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のためユーザーの左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。ユーザーの右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
FIG. 2 is a main part plan view showing a configuration of an optical system included in the
As shown in FIG. 2, the
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR、G、Bの色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。Rは、赤色を示す。Gは緑色を示す。Bは青色を示す。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部141の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される図示しない基板に実装されてもよい。この基板には図5に示す温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、Wの光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。Wは白色を示す。
The
The
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261が形成される。ハーフミラー261は、反射面の一例に対応する。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、ユーザーに画像を視認させる。
The right
また、ユーザーの左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
The
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部141の指示に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される図示しない基板に実装されてもよい。この基板には、温度センサー239が実装される。
The
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281が形成される。ハーフミラー281は、反射面の一例に対応する。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、ユーザーに画像を視認させる。
The left
この構成によれば、HMD100は、透過型の表示装置として機能する。すなわち、ユーザーの右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねてユーザーの眼に入射させ、ユーザーにとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
With this configuration, the
The half mirrors 261 and 281 are image extraction units that reflect the image lights output by the
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いてユーザーの眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
The left
図3及び図4は、画像表示部20の要部の構成を示す図である。図3は、画像表示部20をユーザーの頭部側から見た要部斜視図である。なお、図3では接続ケーブル40の図示を省略する。図4は、対象物の位置とカメラ61の撮像範囲との関係を示す模式図である。
3 and 4 are diagrams showing a configuration of a main part of the
図3は、画像表示部20のユーザーの頭部に接する側、言い換えればユーザーの右眼RE及び左眼LEに見える側である。別の言い方をすれば、図3では、右導光板26及び左導光板28の裏側が見えている。
図3では、ユーザーの右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、ユーザーには、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
FIG. 3 is a side of the
In FIG. 3, the
カメラ61は、上記のように画像表示部20において右側の端部に配置され、ユーザーの両眼が向く方向、すなわちユーザーにとって前方を撮像する。図4では、カメラ61の位置を、ユーザーの右眼RE及び左眼LEとともに平面視で模式的に示す。カメラ61の画角をCで示す。画角Cは、撮像範囲の一例に対応する。なお、図4には水平方向の画角Cを示すが、カメラ61の実際の画角は、一般的なデジタルカメラと同様に上下方向にも拡がる。
The
カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。ユーザーがHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば図4に示すように、ユーザーが両眼で対象物OBを注視すると、ユーザーの視線は、図中の符号RD、LDに示すように対象物OBに向けられる。この場合、ユーザーから対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時におけるユーザーから対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいしユーザーが設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。
The optical axis of the
また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が、図4の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、ユーザーが画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図3に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過してユーザーが視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
Generally, a human viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction, and the effective field of view having excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gazing point where a gazing point to which a human gazes quickly and stably is set to about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. In this case, when the gazing point is the object OB of FIG. 4, the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction with the lines of sight RD and LD as the centers. Further, the stable fixation field is 60 to 90 degrees in the horizontal direction and 45 to 70 degrees in the vertical direction, and the viewing angle is approximately 200 degrees in the horizontal direction and 125 degrees in the vertical direction. Further, an actual visual field that the user sees through the
カメラ61の画角Cは、ユーザーの視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角Cが、少なくともユーザーの有効視野よりも広いことが好ましい。また、画角Cが、ユーザーの実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、ユーザーの安定注視野よりも広く、最も好ましくは、画角Cがユーザーの両眼の視野角よりも広い。
The angle of view C of the
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
The
また、距離センサー64は、右導光板26と左導光板28との中央において、前方を向いて配置される。例えば、距離センサー64は、画像表示部20の中央位置から、図4に示す対象物OBのように、ユーザーの正面方向に位置する物体までの距離を検出可能に構成される。HMD100を装着したユーザーは、注視する方向に頭を向けるので、注視する対象は画像表示部20の正面にあると考えることができる。このため、画像表示部20の中央に配置された距離センサー64が、画像表示部20の正面を検出方向64Aとすれば、ユーザーが注視する対象までの距離を検出できる。
Further, the
また、図3に示すように、画像表示部20のユーザー側には内側カメラ68が配置される。内側カメラ68は、ユーザーの右眼RE、及び、左眼LEのそれぞれに対応するように、右導光板26と左導光板28との中央位置に一対、設けられる。内側カメラ68は、ユーザーの右眼REと左眼LEとをそれぞれ撮像する一対のカメラである。内側カメラ68は、制御部141の指示に従って撮像を行う。制御部141は、内側カメラ68の撮像画像データを解析する。例えば、制御部141は、内側カメラ68の撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、ユーザーの視線方向を特定する。また、制御部141は、ユーザーの視線方向の変化を求めることができ、右眼RE及び左眼LEのそれぞれの眼球運動を検出してもよい。
ここで、ユーザーの視線の移動は、ユーザーの仮想視点の移動とみることもできる。
Further, as shown in FIG. 3, an
Here, the movement of the user's line of sight can also be regarded as the movement of the user's virtual viewpoint.
また、制御部141は、内側カメラ68の撮像画像データからユーザーの右眼RE及び左眼LEの瞼の画像を抽出して、眼瞼運動を検出してもよく、眼瞼の状態を検出してもよい。瞼を眼瞼という場合がある。本実施形態では画像表示部20が一対の内側カメラ68、68を備える構成を例示するが、例えば、1つの内側カメラ68を、画像表示部20の中央位置に設けてもよい。この場合、1つの内側カメラ68が、右眼RE及び左眼LEを撮像できる画角を有することが好ましいが、例えば、右眼REまたは左眼LEの一方のみを内側カメラ68により撮像してもよい。すなわち、右眼REまたは左眼LEのいずれか一方の視線方向、眼球運動、眼瞼運動、眼瞼の状態等を制御部141が検出する構成としてもよい。
The
また、制御部141は、内側カメラ68の撮像画像から右眼RE及び左眼LEの視線方向を検出した場合に、右眼RE及び左眼LEの輻輳角を求めることができる。図4には輻輳角を符号PAで示す。輻輳角PAは、ユーザーが注視する対象物OBまでの距離に対応する。すなわち、ユーザーが立体的に画像や物体を視認する場合、視認する対象までの距離に対応して、右眼RE及び左眼LEの輻輳角が定まる。従って、輻輳角を検出することで、ユーザーが注視する距離を求めることができる。また、ユーザーの輻輳角を誘導するように画像を表示することにより、立体視を誘導できる。
Further, the
輻輳角は、例えば、内側カメラ68の撮像画像データから求めることができる。例えば、内側カメラ68に撮像画像データから右眼REの視線方向を求め、この視線方向から、右眼REの正面方向に対する右眼REの視線方向の角度LAを求める。同様に、内側カメラ68の撮像画像データから左眼LEの視線方向を求め、この視線方向に基づき、左眼LEの正面方向に対する左眼LEの視線方向の角度RAを求める。輻輳角PAは、角度LAと、角度RAとの和に等しく、容易に輻輳角PAを求めることができる。
The vergence angle can be obtained from the imaged image data of the
図5は、HMD100を構成する各部の構成を示す図である。
図5に示すように、制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置として操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
FIG. 5 is a diagram showing a configuration of each unit that constitutes the
As shown in FIG. 5, the
メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。
The
メモリー118は、メインプロセッサー140が制御プログラムを実行する場合に、実行される制御プログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。
The
メインプロセッサー140は、操作部110から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、トラックパッド14へのタッチ操作を検出し、検出したタッチ操作の操作位置を特定する。この場合、操作部110は、トラックパッド14におけるタッチ位置を示すデータを含む操作信号をメインプロセッサー140に出力する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、図3に示すトラックパッド14の直下に配置される図示しないLED、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
The
The
The
6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。ジャイロセンサーは、角速度センサーの一例に対応する。モーションセンサーは、慣性センサーという場合がある。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
The 6-axis sensor 111 is a motion sensor including a 3-axis acceleration sensor and a 3-axis gyro sensor. The gyro sensor corresponds to an example of the angular velocity sensor. The motion sensor may be called an inertial sensor. The 6-axis sensor 111 may employ an IMU (Internal Measurement Unit) in which the above sensor is modularized.
The
A GPS (Global Positioning System) 115 includes a GPS antenna (not shown), receives a radio signal transmitted from a GPS satellite, and detects the coordinates of the current position of the
The 6-axis sensor 111, the
通信部117は、外部の機器との間で無線通信を実行する。本実施形態では、通信部117は、筋電センサー200と無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth(登録商標)、無線LAN等の規格に準拠した無線通信を行う。なお、無線LANは、Wi−Fi(登録商標)含む。
The
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられた図3に示すコネクター46を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード及びデコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
マイク63、音声インターフェイス182及び音声コーデック180は、「音声入力部」の一例に相当する。
The
The
外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
The
The
USBコネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。HMD100とリモートコントローラー350とをUSBケーブルによって接続する場合、USBコネクター188が、リモートコントローラー350に接続される。
The
また、HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーター、偏心した図示しない回転子等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン及びオフされる場合等に、所定の振動パターンでバイブレーター19により振動を発生する。
Further, the
センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス196を介した伝送を実行する。
The
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図3に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが制御装置10に接続される。
The
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215が実装される。EEPROM215は、記憶部の一例に対応する。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
The
The
EEPROM(Electrically Erasable Programmable ROM)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。
An EEPROM (Electrically Erasable Programmable ROM) 215 stores various data so that the
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図3に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着するユーザーの前方からの外光を受光するよう配置される。照度センサー65は、受光量に対応する検出値を出力する。受光量は、受光強度という場合もある。
LEDインジケーター67は、図3に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
The
As shown in FIG. 3, the
As shown in FIG. 3, the
温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、図3に示すOLEDパネル223の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。
The
内側カメラ68は、インターフェイス211を介して制御装置10から入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。図3に示す一対の内側カメラ68、68が同時に動作してもよい。また、一対の内側カメラ68、68のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。
The
距離センサー64は、インターフェイス211を介して制御装置10から入力される信号に従って距離検出を実行し、検出結果を示す信号を制御装置10に出力する。図3に示す一対の距離センサー64、64が同時に動作してもよい。また、一対の距離センサー64、64のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。
The
受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、図2に示すOLED駆動回路225に出力する。
The receiving
左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部233が実装される。受信部を「Rx」と記載する場合がある。また、表示ユニット基板210には、6軸センサー235、及び、磁気センサー237が実装される。6軸センサー235は、「動きセンサー」の一例に対応する。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
The
The
6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
The 6-
The
温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、図3に示すOLEDパネル243の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
The
Further, the
右表示ユニット22が備えるカメラ61、距離センサー64、照度センサー65、内側カメラ68、温度センサー217、左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
The
Further, the
制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及び、バッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。
The
HMD100は、コンテンツの供給元となる種々の外部機器を接続する図示しないインターフェイスを備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。
The
図6は、制御部141の構成を示す図である。
図6に示すように、制御部141は、表示制御部142と、操作推定部143と、判定部144と、学習部145と、信号記憶部146と、学習データ記憶部147と、画像記憶部148とを備える。具体的には、メインプロセッサー140がメモリー118の制御プログラムを実行することによって、表示制御部142、操作推定部143、判定部144及び学習部145として機能する。また、メインプロセッサー140がメモリー118の制御プログラムを実行することによって、メモリー118を、信号記憶部146、学習データ記憶部147及び画像記憶部148として機能させる。
FIG. 6 is a diagram showing the configuration of the
As shown in FIG. 6, the
表示制御部142は、複数の入力用画像MNを、画像表示部20を透過して視認されるユーザーの手と重なる位置に画像表示部20に表示させる。
具体的には、表示制御部142は、カメラ61によって取得される画像データに基づいて、外景に含まれるユーザーの手の位置を特定する。そして、表示制御部142は、複数の入力用画像MNを、特定したユーザーの手の位置に重なるように、画像表示部20に表示させる。すなわち、表示制御部142は、複数の入力用画像MNの表示位置を、特定したユーザーの手の位置に決定する。
また、表示制御部142は、画像表示部20を透過して視認されるユーザーの手の位置を追跡し、ユーザーの手の移動に応じて、複数の入力用画像MNの表示位置を調整する。
具体的には、複数の入力用画像MNの各々は、互いに相違する文字を示す。複数の入力用画像MNについては、後述にて図8を参照して詳細に説明する。
また、表示制御部142は、ユーザーの手の位置をガイドする第1ガイド画像GL1を画像表示部20に表示させる。また、表示制御部142は、筋電センサー200の位置をガイドする第2ガイド画像GL2を画像表示部20に表示させる。第1ガイド画像GL1及び第2ガイド画像GL2については、後述にて図7を参照して詳細に説明する。
The
Specifically, the
The
Specifically, each of the plurality of input images MN shows different characters. The plurality of input images MN will be described later in detail with reference to FIG.
The
信号記憶部146は、筋電センサー200の基準値を記憶する。
具体的には、信号記憶部146は、複数の入力用画像MNの各々を選択する操作に対応する筋電センサー200の基準値を記憶する。
信号記憶部146が記憶する筋電センサー200の基準値は、例えば、事前のキャリブレーションによって得られる。例えば、筋電センサー200の基準値は、ユーザーを示す情報に対応付けて記憶する。換言すれば、筋電センサー200の基準値は、ユーザー毎に記憶する。
また、信号記憶部146に記憶する筋電センサー200の基準値は、ユーザーが筋電センサー200を適正な位置に装着した状態で、繰り返し検出される。そして、その平均値が、信号記憶部146に記憶される。また、平均値に替えて、筋電センサー200の基準値の範囲を信号記憶部146に記憶してもよい。
The
Specifically, the
The reference value of the
Further, the reference value of the
画像記憶部148は、表示制御部142が表示する画像を記憶する。具体的には、画像記憶部148は、複数の入力用画像MN、第1ガイド画像GL1、第2ガイド画像GL2等の画像を記憶する。
The
操作推定部143は、筋電センサー200の検出値を取得し、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
更に具体的には、学習部145が判定基準を生成するまでの期間において、操作推定部143は、以下のようにして複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。すなわち、操作推定部143は、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
学習部145が判定基準を生成した後の期間において、操作推定部143は、以下のようにして複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。すなわち、操作推定部143は、筋電センサー200の検出値と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
The
More specifically, in the period until the
In the period after the
判定部144は、操作推定部143の推定結果を判定する。
具体的には、判定部144は、カメラ61による画像に基づいて、操作推定部143の推定結果の正否を判定する。
更に具体的には、カメラ61は、表示制御部142によって複数の入力用画像MNの各々が表示される位置を含むユーザーの手の動画像を生成する。そして、判定部144は、ユーザーの手の動画像に基づいて、操作推定部143の推定結果の正否を判定する。
The
Specifically, the
More specifically, the
すなわち、ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示す場合には、判定部144は、操作推定部143の推定結果が正しいと判定する。ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示さない場合には、判定部144は、操作推定部143の推定結果が正しくないと判定する。
ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示さない場合は、下記の2つの場合を含む。第1の場合は、ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MA以外の入力用画像を選択する操作を示す場合である。第2の場合は、ユーザーの手の動画像が、複数の入力用画像MNのいずれかの入力用画像を選択する操作を示さない場合である。
本実施形態では、判定部144は、カメラ61による画像に基づいて、操作推定部143の推定結果の正否を判定するが、これに限定されない。判定部144が、例えば、ユーザーからの操作に基づいて、操作推定部143の推定結果の正否を判定してもよい。また、判定部144が、例えば、ユーザーからの音声に基づいて、操作推定部143の推定結果の正否を判定してもよい。
That is, when the moving image of the user's hand indicates the operation of selecting one input image MA from the plurality of input images MN, the
When the moving image of the user's hand does not show the operation of selecting one input image MA from the plurality of input images MN, the following two cases are included. The first case is a case where the moving image of the user's hand indicates an operation of selecting an input image other than one input image MA from the plurality of input images MN. The second case is a case where the moving image of the user's hand does not indicate the operation of selecting one of the input images MN.
In the present embodiment, the
学習データ記憶部147は、学習データセット147aを記憶する。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果との組み合わせを含む。
The learning
学習部145は、学習データセット147aに基づいて、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習する。
筋電センサー200の検出値から1つの入力用画像MAを特定するための条件は、例えば、筋電センサー200の検出値が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準である。学習部145が実行する機械学習処理については、後述にて図9を参照して詳細に説明する。
また、学習部145は、学習データセット147aを学習データ記憶部147に記憶する。具体的には、操作推定部143の推定結果の正否を判定部144が判定する度に、学習部145は、学習データセット147aを学習データ記憶部147に記憶する。
The
The condition for specifying one input image MA from the detection values of the
In addition, the
図7は、ガイド画像GLを示す図である。
図7には、視野領域AR1と画像領域AR2とが示されている。視野領域AR1は、右導光板26を透過した外光と、左導光板28を透過した外光とによって、ユーザーが認識可能な実空間の景色の範囲を示す。換言すれば、視野領域AR1は、HMD100を装着したユーザーの視野の範囲を示す。視野領域AR1には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
画像領域AR2は、右導光板26により導かれた画像光と、左導光板28により導かれた画像光とによって、ユーザーが認識可能な画像の範囲を示す。換言すれば、画像領域AR2は、HMD100を装着したユーザーが認識可能な画像の範囲を示す。画像領域AR2には、第1ガイド画像GL1と第2ガイド画像GL2とが含まれる。
FIG. 7 is a diagram showing the guide image GL.
In FIG. 7, a visual field area AR1 and an image area AR2 are shown. The visual field area AR1 indicates the range of the scenery in the real space that can be recognized by the user by the external light transmitted through the right
The image area AR2 indicates the range of the image that can be recognized by the user by the image light guided by the right
第1ガイド画像GL1は、ユーザーの手の位置をガイドする。具体的には、第1ガイド画像GL1は、ユーザーの右手HPを実空間において配置すべき位置を示す。図7に示すように、ユーザーの右手HPは、第1ガイド画像GL1が示す位置に配置されている。
第2ガイド画像GL2は、筋電センサー200によって適正な電気信号を検出するための筋電センサー200のユーザーの右手HPの手首への装着位置を示す。図7では、第2ガイド画像GL2は、実空間における筋電センサー200の位置を示す位置PS1よりも手のひらに近い。
このように、筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2を点滅表示する。
また、ユーザーは、筋電センサー200の位置PS1が第2ガイド画像GL2と重なるように、筋電センサー200を手のひらに近付ける必要がある。
The first guide image GL1 guides the position of the user's hand. Specifically, the first guide image GL1 indicates the position where the user's right hand HP should be placed in the real space. As shown in FIG. 7, the user's right hand HP is arranged at the position indicated by the first guide image GL1.
The second guide image GL2 shows a mounting position of the
In this way, when the position PS1 of the
In addition, the user needs to bring the
なお、本実施形態では、筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2を点滅表示するが、これに限定されない。筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2の表示形態を変更すればよい。例えば、表示制御部142は、第2ガイド画像GL2の表示色を変更してもよい。
In the present embodiment, when the position PS1 of the
図8は、本実施形態に係る入力用画像MNを示す図である。
図8には、図7と同様に、視野領域AR1と画像領域AR2とが示されている。
画像領域AR2には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
FIG. 8 is a diagram showing the input image MN according to the present embodiment.
Similar to FIG. 7, FIG. 8 shows a visual field area AR1 and an image area AR2.
The image area AR2 includes the right hand HP of the user. A
また、本実施形態では、HMD100がユーザーIDの入力を受け付ける場合について説明する。図8の画像領域AR2には、ガイド画像GP1が表示される。ガイド画像GP1には、「ID:123_」と表示されている。
ガイド画像GP1は、ユーザーIDとして、「1」の数字と、「2」の数字と、「3」の数字とが入力されていることを示す。また、ガイド画像GP1のカーソルを示す「_」は、ユーザーIDとして、4個目の文字の入力を待っている状態であることを示す。
Further, in the present embodiment, a case where the
The guide image GP1 shows that the numbers “1”, “2”, and “3” have been input as user IDs. Further, "_" indicating the cursor on the guide image GP1 indicates that the user ID is waiting for the input of the fourth character.
複数の入力用画像MNの各々は、互いに相違する文字を示す。図8に示すように、例えば、複数の入力用画像MNの各々は、「0」〜「9」の数字と、「−」の記号と、決定コマンドと、戻るコマンドとを含む。
決定コマンドは、ユーザーIDの入力を決定する旨のコマンドを示す。戻るコマンドは、ユーザーIDとして入力された文字のうち1つの文字を消去する旨のコマンドを示す。
具体的には、複数の入力用画像MNの各々は、ユーザーの右手HPの指において関節で区切られた領域に対応付けられる。
更に具体的には、複数の入力用画像MNの各々は、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。
Each of the plurality of input images MN indicates different characters. As shown in FIG. 8, for example, each of the plurality of input images MN includes numbers “0” to “9”, a symbol “−”, a determination command, and a return command.
The decision command indicates a command to decide the input of the user ID. The return command indicates a command to erase one of the characters input as the user ID.
Specifically, each of the plurality of input images MN is associated with a region demarcated by a joint in the finger of the user's right hand HP.
More specifically, each of the plurality of input images MN is associated with a region separated by a joint in each finger of the user's right hand HP except the thumb FP1.
ユーザーの右手HPは、親指FP1、人差し指FP2、中指FP3、薬指FP4、及び小指FP5を含む。
人差し指FP2は、第1関節FP21と、第2関節FP22と、第3関節FP23とを含む。
人差し指FP2において、第1関節FP21の先端側の領域には、入力用画像M21が表示される。入力用画像M21は、「1」の数字を示す。先端側は、手のひらから離間する側を示す。
すなわち、表示制御部142は、入力用画像M21を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域と重なる位置に、画像表示部20に表示させる。
具体的には、表示制御部142は、カメラ61によって取得される画像データに基づいて、外景に含まれるユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域の位置を特定する。そして、入力用画像M21の表示位置を、特定したユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域の位置に決定する。
なお、入力用画像M21は、複数の入力用画像MNに含まれる。
また、複数の入力用画像MNに含まれる入力用画像M21を除く入力用画像MNについては、図8において、複数の入力用画像MNを示す参照符号MNの記載を省略している。
The user's right hand HP includes a thumb FP1, an index finger FP2, a middle finger FP3, a ring finger FP4, and a little finger FP5.
The index finger FP2 includes a first joint FP21, a second joint FP22, and a third joint FP23.
In the index finger FP2, the input image M21 is displayed in the region on the tip side of the first joint FP21. The input image M21 indicates the number "1". The tip side indicates the side away from the palm.
That is, the
Specifically, the
The input image M21 is included in the plurality of input images MN.
Further, for the input images MN excluding the input images M21 included in the plurality of input images MN, reference numeral MN indicating the plurality of input images MN is omitted in FIG.
第1関節FP21と第2関節FP22との間の領域には、入力用画像M22が表示される。入力用画像M22は、「5」の数字を示す。
すなわち、表示制御部142は、入力用画像M22を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第1関節FP21と第2関節FP22との間の領域と重なる位置に、画像表示部20に表示させる。
人差し指FP2において、第2関節FP22と第3関節FP23との間の領域には、入力用画像M23が表示される。入力用画像M23は、「9」の数字を示す。
すなわち、表示制御部142は、入力用画像M23を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第2関節FP22と第3関節FP23との間の領域と重なる位置に、画像表示部20に表示させる。
人差し指FP2の第3関節FP23と近接する手のひらの領域には、入力用画像M24が表示される。入力用画像M24は、決定コマンドを示す。
すなわち、入力用画像M24は、ユーザーIDを構成する各数字及び記号の入力を確定する旨のコマンドを示す。また、入力用画像M24は、ユーザーIDを確定する旨のコマンドを示す。入力用画像M24は、「決定」の文字列を示す。
また、表示制御部142は、入力用画像M24を、画像表示部20を透過して視認されるユーザーの右手HPの第3関節FP23と近接する手のひらの領域と重なる位置に、画像表示部20に表示させる。
An input image M22 is displayed in the area between the first joint FP21 and the second joint FP22. The input image M22 indicates the number "5".
That is, the
On the index finger FP2, the input image M23 is displayed in a region between the second joint FP22 and the third joint FP23. The input image M23 indicates the number "9".
That is, the
An input image M24 is displayed in the area of the palm of the index finger FP2 that is close to the third joint FP23. The input image M24 shows a decision command.
That is, the input image M24 shows a command for confirming the input of each number and symbol forming the user ID. Further, the input image M24 shows a command to confirm the user ID. The input image M24 shows the character string of “determination”.
In addition, the
中指FP3は、第1関節FP31と、第2関節FP32と、第3関節FP33とを含む。
中指FP3において、第1関節FP31の先端側の領域には、入力用画像M31が表示される。入力用画像M31は、「2」の数字を示す。
中指FP3において、第1関節FP31と第2関節FP32との間の領域には、入力用画像M32が表示される。入力用画像M32は、「6」の数字を示す。
中指FP3において、第2関節FP32と第3関節FP33との間の領域には、入力用画像M33が表示される。入力用画像M33は、「0」の数字を示す。
表示制御部142は、入力用画像M31〜入力用画像M33の各々を、画像表示部20を透過して視認されるユーザーの右手HPの中指FP3において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP31の先端側の領域と、第1関節FP31と第2関節FP32との間の領域と、第2関節FP32と第3関節FP33との間の領域とを含む。
The middle finger FP3 includes a first joint FP31, a second joint FP32, and a third joint FP33.
In the middle finger FP3, the input image M31 is displayed in the region on the tip side of the first joint FP31. The input image M31 shows the number “2”.
In the middle finger FP3, the input image M32 is displayed in the area between the first joint FP31 and the second joint FP32. The input image M32 indicates the number "6".
In the middle finger FP3, the input image M33 is displayed in the area between the second joint FP32 and the third joint FP33. The input image M33 indicates the number "0".
The
薬指FP4は、第1関節FP41と、第2関節FP42と、第3関節FP43とを含む。
薬指FP4において、第1関節FP41の先端側の領域には、入力用画像M41が表示される。入力用画像M41は、「3」の数字を示す。
薬指FP4において、第1関節FP41と第2関節FP42との間の領域には、入力用画像M42が表示される。入力用画像M42は、「7」の数字を示す。
薬指FP4において、第2関節FP42と第3関節FP43との間の領域には、入力用画像M43が表示される。入力用画像M43は、「−」の記号を示す。
表示制御部142は、入力用画像M41〜入力用画像M43の各々を、画像表示部20を透過して視認されるユーザーの右手HPの薬指FP4において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP41の先端側の領域と、第1関節FP41と第2関節FP42との間の領域と、第2関節FP42と第3関節FP43との間の領域とを含む。
The ring finger FP4 includes a first joint FP41, a second joint FP42, and a third joint FP43.
In the ring finger FP4, the input image M41 is displayed in the region on the tip side of the first joint FP41. The input image M41 indicates the number "3".
On the ring finger FP4, an input image M42 is displayed in the area between the first joint FP41 and the second joint FP42. The input image M42 indicates the number "7".
On the ring finger FP4, the input image M43 is displayed in the region between the second joint FP42 and the third joint FP43. The input image M43 shows the symbol "-".
The
小指FP5は、第1関節FP51と、第2関節FP52と、第3関節FP53とを含む。
小指FP5において、第1関節FP51の先端側の領域には、入力用画像M51が表示される。入力用画像M51は、「4」の数字を示す。
小指FP5において、第1関節FP51と第2関節FP52との間の領域には、入力用画像M52が表示される。入力用画像M52は、「8」の数字を示す。
小指FP5において、第2関節FP52と第3関節FP53との間の領域には、入力用画像M53が表示される。入力用画像M53は、ユーザーIDとして入力された文字のうち1つの文字を消去する旨のコマンドを示す。入力用画像M53は、「戻」の文字を示す。
表示制御部142は、入力用画像M51〜入力用画像M53の各々を、画像表示部20を透過して視認されるユーザーの右手HPの小指FP5において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP51の先端側の領域と、第1関節FP51と第2関節FP52との間の領域と、第2関節FP52と第3関節FP53との間の領域とを含む。
The little finger FP5 includes a first joint FP51, a second joint FP52, and a third joint FP53.
In the little finger FP5, the input image M51 is displayed in the region on the tip side of the first joint FP51. The input image M51 indicates the number "4".
In the little finger FP5, the input image M52 is displayed in the area between the first joint FP51 and the second joint FP52. The input image M52 indicates the number "8".
In the little finger FP5, the input image M53 is displayed in the area between the second joint FP52 and the third joint FP53. The input image M53 shows a command to erase one of the characters input as the user ID. The input image M53 shows the character “return”.
The
操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
具体的には、1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧する操作である。
換言すれば、1つの入力用画像MAを選択するジェスチャーは、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧するジェスチャーである。
このジェスチャーは、筋電センサー200の検出値に基づいて操作推定部143によって検出されるため、一般的なジェスチャーと区別できるように、「筋電ジェスチャー」と記載してもよい。
ユーザーの右手HPの親指FP1は、第1関節FP11と、第2関節FP12とを含む。親指FP1において、第1関節FP11の先端側の領域には、ガイド画像M1が表示される。ガイド画像M1は、例えば丸印「〇」の記号を示す。
ガイド画像M1は、第1関節FP11の先端側の領域を、関節で区切られた領域に押圧する操作によって、1つの入力用画像MAを選択することを示す。
The
Specifically, in the operation of selecting one input image MA, the thumb FP1 of the user's right hand HP is pressed against the regions delimited by the joints of the index finger FP2, the middle finger FP3, the ring finger FP4, and the little finger FP5. It is an operation.
In other words, the gesture of selecting one input image MA is a gesture of pressing the thumb FP1 of the user's right hand HP to the joint-separated area of each of the index finger FP2, the middle finger FP3, the ring finger FP4, and the little finger FP5. Is.
Since this gesture is detected by the
The thumb FP1 of the user's right hand HP includes a first joint FP11 and a second joint FP12. A guide image M1 is displayed in the region of the thumb FP1 on the distal end side of the first joint FP11. The guide image M1 shows, for example, a symbol of a circle “◯”.
The guide image M1 indicates that one input image MA is selected by the operation of pressing the region on the distal end side of the first joint FP11 to the region divided by the joint.
例えば、「1」の数字を示す入力用画像M21を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第1関節FP21の先端側の領域に押圧する操作を行う。
また、例えば、「6」の数字を示す入力用画像M32を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、中指FP3の第1関節FP31と第2関節FP32との間の領域に押圧する操作を行う。
また、例えば、「−」の記号を示す入力用画像M43を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、薬指FP4の第2関節FP42と第3関節FP43との間の領域に押圧する操作を行う。
また、例えば、決定コマンドを示す入力用画像M24を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第3関節FP23と近接する手のひらの領域に押圧する操作を行う。
For example, in the case of selecting the input image M21 indicating the number “1”, the user sets the region on the tip side of the first joint FP11 of the thumb FP1 to the region on the tip side of the first joint FP21 of the index finger FP2. Perform pressing operation.
Further, for example, when selecting the input image M32 indicating the number “6”, the user sets the region on the tip side of the first joint FP11 of the thumb FP1 to the first joint FP31 and the second joint FP3 of the middle finger FP3. The operation of pressing the area between the
Further, for example, when selecting the input image M43 indicating the symbol “−”, the user sets the region on the tip side of the first joint FP11 of the thumb FP1 to the second joint FP42 and the third joint of the ring finger FP4. The operation of pressing the area between the FP 43 and the FP 43 is performed.
Further, for example, when selecting the input image M24 indicating the determination command, the user sets the region on the tip side of the first joint FP11 of the thumb FP1 to the region of the palm adjacent to the third joint FP23 of the index finger FP2. Perform pressing operation.
また、操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
複数の入力用画像MNは、「0」〜「9」の数字と、「−」の記号と、決定コマンドと、戻るコマンドとを含む。具体的には、複数の入力用画像MNは、入力用画像M21〜入力用画像M24、入力用画像M31〜入力用画像M33、入力用画像M41〜入力用画像M43、及び入力用画像M51〜入力用画像M53に対応する。すなわち、複数の入力用画像MNは、図8に示す13個の入力用画像MNを示す。操作推定部143は、筋電センサー200の検出値に基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
Further, the
The plurality of input images MN include numbers “0” to “9”, a symbol “−”, a determination command, and a return command. Specifically, the plurality of input images MN include the input image M21 to the input image M24, the input image M31 to the input image M33, the input image M41 to the input image M43, and the input image M51 to the input image M51. It corresponds to the image M53 for use. That is, the plurality of input images MN represent the 13 input images MN shown in FIG. The
信号記憶部146には、13個の入力用画像MNの各々を選択する操作に対応する筋電センサー200の基準値を記憶する。
信号記憶部146に記憶する筋電センサー200の基準値は、ユーザーが筋電センサー200を適正な位置に装着した状態で、ユーザー毎に、且つ13個の入力用画像MNの各々を選択する操作毎に繰り返し検出される。そして、その平均値が、筋電センサー200の基準値として、13個の入力用画像MNの各々を選択する操作に対応付けて信号記憶部146に記憶される。また、平均値に替えて、筋電センサー200の検出値の範囲を信号記憶部146に記憶してもよい。
The
The reference value of the
操作推定部143は、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第1関節FP21の先端側の領域に押圧する操作を示す場合には、操作推定部143は、入力用画像M21を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、中指FP3の第1関節FP31と第2関節FP32との間の領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M32を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、薬指FP4の第2関節FP42と第3関節FP43との間の領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M43を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第3関節FP23と近接する手のひらの領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M24を選択する操作を推定する。
The
For example, when the detected value of the
Further, for example, the detection value of the
In addition, for example, the detection value of the
Further, for example, in the case where the detection value of the
このようにして、操作推定部143が、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。その結果、ユーザーIDが入力される。
In this way, the
図9は、制御部141の処理を示すフローチャートである。なお、本実施形態では、ユーザーの右手HPが、第1ガイド画像GL1が示す位置に配置されている場合について説明する。
図9に示すように、まず、ステップS101において、表示制御部142が、ガイド画像GLを表示する。ガイド画像GLは、ユーザーの右手HPの位置をガイドする第1ガイド画像GL1と、筋電センサー200の位置をガイドする第2ガイド画像GL2とを含む。
次に、ステップS103において、表示制御部142は、第2ガイド画像GL2に基づいて、筋電センサー200が装着されている位置PS1が適切であるか否かを判定する。
筋電センサー200が装着されている位置PS1が適切であると表示制御部142が判定した場合(ステップS103でYES)には、処理がステップS107に進む。筋電センサー200が装着されている位置PS1が適切ではないと表示制御部142が判定した場合(ステップS103でNO)には、処理がステップS105に進む。
そして、ステップS105において、ユーザーが、筋電センサー200が装着されている位置PS1を修正する。換言すれば、表示制御部142は、筋電センサー200が装着されている位置PS1が適切でないことを検出し、第2ガイド画像GL2を点滅表示する。そして、表示制御部142は、筋電センサー200が装着されている位置PS1が修正されたことを検出する。その後、処理がステップS103に戻る。
FIG. 9 is a flowchart showing the processing of the
As shown in FIG. 9, first, in step S101, the
Next, in step S103, the
When the
Then, in step S105, the user corrects the position PS1 at which the
ステップS103でYESの場合には、ステップS107において、表示制御部142は、複数の入力用画像MNを画像表示部20に表示させる。具体的には、表示制御部142は、複数の入力用画像MNを、画像表示部20を透過して視認されるユーザーの右手HPと重なる位置に、画像表示部20に表示させる。
If YES in step S103, the
次に、ステップS109において、操作推定部143が、筋電センサー200の検出値を取得したか否かを判定する。
筋電センサー200の検出値を取得していないと操作推定部143が判定した場合(ステップS109でNO)には、処理が待機状態になる。筋電センサー200の検出値を取得したと操作推定部143が判定した場合(ステップS109でYES)には、処理がステップS111に進む。
そして、ステップS111において、判定部144は、カメラ61が生成したユーザーの右手HPの動画像を取得する。ユーザーの右手HPの動画像は、複数の入力用画像MNの中からいずれかの入力用画像を選択する操作を示す。よって、本実施形態では、「操作画像」と記載する場合がある。
次に、ステップS113において、操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
次に、ステップS115において、判定部144は、カメラ61が生成したユーザーの右手HPの動画像に基づいて、操作推定部143の推定結果の正否を判定する。
すなわち、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作が行われたと判定部144が判定した場合には、操作推定部143の推定結果が正しいと判定部144が判定する。また、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作が行われていないと判定部144が判定した場合には、操作推定部143の推定結果が正しくないと判定部144が判定する。
次に、ステップS117において、学習部145が「機械学習処理」を実行し、処理が終了する。「機械学習処理」は、学習部145が学習データセット147aに基づいて、筋電センサー200の検出値が複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準を生成する処理を示す。
Next, in step S109, the
When the
Then, in step S111, the
Next, in step S113, the
Next, in step S115, the
That is, when the
Next, in step S117, the
なお、ステップS107は、「表示制御ステップ」の一例に相当する。ステップS113は、「操作推定ステップ」の一例に相当する。ステップS115は、「判定ステップ」の一例に相当する。ステップS117は、「学習ステップ」の一例に相当する。 Note that step S107 corresponds to an example of “display control step”. Step S113 corresponds to an example of “operation estimation step”. Step S115 corresponds to an example of a "determination step". Step S117 corresponds to an example of a "learning step".
図10は、制御部141の機械学習処理を示すフローチャートである。
図10に示すように、ステップS201において、学習部145は、学習データセット147aを、複数の入力用画像MNに含まれる入力用画像MA毎に分類して、学習データ記憶部147に記憶する。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果とを含む。
すなわち、学習データ記憶部147において、学習データセット147aは、入力用画像MA毎に分類されて記憶される。
次に、ステップS203において、学習部145は、操作推定部143の推定結果が正しいと判定部144が判定したか否かを判定する。
操作推定部143の推定結果が正しくないと判定部144が判定した場合(ステップS203でNO)には、処理がステップS211に進む。操作推定部143の推定結果が正しいと判定部144が判定した場合(ステップS203でYES)には、処理がステップS205に進む。
FIG. 10 is a flowchart showing the machine learning process of the
As shown in FIG. 10, in step S201, the
That is, in the learning
Next, in step S203, the
When the
そして、ステップS205において、学習部145は、筋電センサー200の検出値から第1特徴量を抽出する。第1特徴量は、操作推定部143の推定結果が正しいと判定部144が判定した場合における筋電センサー200の検出値の特徴を示す。
例えば、第1特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、第1特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
また、第1特徴量が、例えば、筋電センサー200の検出値の経時的な変化の特徴を示してもよい。
次に、ステップS207において、学習部145は、ステップS205で抽出した第1特徴量を学習データ記憶部147に記憶する。具体的には、学習部145は、図9のステップS113において操作推定部143が推定した操作によって選択された1つの入力用画像MAに対応付けて、第1特徴量を学習データ記憶部147に記憶する。
次に、ステップS209において、学習部145は、第1特徴量を集計し、処理がステップS217に進む。
具体的には、学習データ記憶部147において、1つの入力用画像MAに対応付けて記憶された複数の第1特徴量を集計する。例えば、学習部145は、第1特徴量の平均値、標準偏差、最大値、及び最小値の少なくとも1つを算出する。
Then, in step S205, the
For example, the first feature amount includes either the frequency or the amplitude of the detection value of the
Further, the first feature amount may indicate, for example, a feature of change over time in the detection value of the
Next, in step S207, the
Next, in step S209, the
Specifically, the learning
ステップS203でNOの場合には、ステップS211において、学習部145は、筋電センサー200の検出値から第2特徴量を抽出する。第2特徴量は、操作推定部143の推定結果が正しくないと判定部144が判定した場合における筋電センサー200の検出値の特徴を示す。
例えば、第2特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、第2特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
また、第2特徴量が、例えば、筋電センサー200の検出値の経時的な変化の特徴を示してもよい。
次に、ステップS213において、学習部145は、ステップS211で抽出した第2特徴量を学習データ記憶部147に記憶する。具体的には、学習部145は、図9のステップS113において操作推定部143が推定した操作によって選択された1つの入力用画像MAに対応付けて、第2特徴量を学習データ記憶部147に記憶する。
次に、ステップS215において、学習部145は、第2特徴量を集計し、処理がステップS217に進む。
具体的には、学習データ記憶部147において、1つの入力用画像MAに対応付けて記憶された複数の第2特徴量を集計する。例えば、学習部145は、第2特徴量の平均値、標準偏差、最大値、及び最小値の少なくとも1つを算出する。
In the case of NO in step S203, the
For example, the second feature amount includes either the frequency or the amplitude of the detection value of the
In addition, the second feature amount may indicate, for example, a feature of change over time in the detection value of the
Next, in step S213, the
Next, in step S215, the
Specifically, the learning
そして、ステップS217において、学習部145は、筋電センサー200の検出値が複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準を生成し、処理が終了する。
例えば、第1特徴量の最小値が第2特徴量の最大値より大きい場合には、学習部145は、特徴量の値が第1特徴量の最小値以上であることを示す判定基準を生成する。
また、例えば、第1特徴量の最大値が第2特徴量の最小値より小さい場合には、学習部145は、特徴量の値が第1特徴量の最大値以下であることを示す判定基準を生成する。
Then, in step S217, the
For example, when the minimum value of the first characteristic amount is larger than the maximum value of the second characteristic amount, the
Further, for example, when the maximum value of the first feature amount is smaller than the minimum value of the second feature amount, the
図11は、学習処理後の制御部141の処理を示すフローチャートである。
図11に示すステップS301〜ステップS311の各々は、図8に示すステップS101〜ステップS111の各々と同一の処理であるため、その説明を省略する。
ステップS313において、学習部145は、筋電センサー200の検出値から特徴量を抽出する。特徴量は、第1特徴量及び第2特徴量に対応する。
次に、ステップS315において、操作推定部143は、筋電センサー200の検出値と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。その後、処理がステップS317に進む。
具体的には、操作推定部143は、ステップS313で抽出された特徴量と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
図11に示すステップS317〜ステップS319の各々は、図8に示すステップS115〜ステップS117の各々と同一の処理であるため、その説明を省略する。
FIG. 11 is a flowchart showing the processing of the
Since each of steps S301 to S311 shown in FIG. 11 is the same as each of steps S101 to S111 shown in FIG. 8, description thereof will be omitted.
In step S313, the
Next, in step S315, the
Specifically, the
Since each of steps S317 to S319 shown in FIG. 11 is the same as each of steps S115 to S117 shown in FIG. 8, description thereof will be omitted.
図12は、入力用画像MNの他の形態を示す図である。図12には、図7と同様に、視野領域AR1と画像領域AR2とが示されている。
画像領域AR2には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
FIG. 12 is a diagram showing another form of the input image MN. Similar to FIG. 7, FIG. 12 shows the visual field region AR1 and the image region AR2.
The image area AR2 includes the right hand HP of the user. A
図8を参照して説明したように、HMD100が数字の入力を受け付けるのに対して、図12では、HMD100がアルファベット等の入力を受け付ける点で相違している。
複数の入力用画像MNの各々は、互いに相違する文字を示す。例えば、複数の入力用画像MNの各々は、「A」〜「Z」のアルファベットと、「@」マークと、バックスペースコマンドと、戻るコマンドと、文字種変更コマンドと、エンターコマンドとを含む。
バックスペースコマンドは、入力した文字を1文字削除する旨のコマンドを示す。戻るコマンドは、直前に行われた1つの操作を取り消す旨のコマンドを示す。文字種変更コマンドは、入力する文字の種類を変更する旨のコマンドを示す。エンターコマンドは、入力された操作を確定する旨のコマンドを示す。
複数の入力用画像MNは、ユーザーの右手HPの指において関節で区切られた領域に対応付けられる。
更に具体的には、複数の入力用画像MNは、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。
As described with reference to FIG. 8, the
Each of the plurality of input images MN indicates different characters. For example, each of the plurality of input images MN includes alphabets "A" to "Z", an "@" mark, a backspace command, a return command, a character type change command, and an enter command.
The backspace command indicates a command to delete one input character. The return command indicates a command to cancel one operation performed immediately before. The character type change command indicates a command to change the type of input character. The enter command is a command for confirming the input operation.
The plurality of input images MN are associated with the area delimited by the joint in the finger of the user's right hand HP.
More specifically, the plurality of input images MN are associated with the regions delimited by joints in each finger of the user's right hand HP except the thumb FP1.
ユーザーの右手HPは、親指FP1、人差し指FP2、中指FP3、薬指FP4、及び小指FP5を含む。
人差し指FP2は、第1関節FP21と、第2関節FP22と、第3関節FP23とを含む。中指FP3は、第1関節FP31と、第2関節FP32と、第3関節FP33とを含む。薬指FP4は、第1関節FP41と、第2関節FP42と、第3関節FP43とを含む。小指FP5は、第1関節FP51と、第2関節FP52と、第3関節FP53とを含む。これらの関節に対応する参照符号は、図示を省略している。
The user's right hand HP includes a thumb FP1, an index finger FP2, a middle finger FP3, a ring finger FP4, and a little finger FP5.
The index finger FP2 includes a first joint FP21, a second joint FP22, and a third joint FP23. The middle finger FP3 includes a first joint FP31, a second joint FP32, and a third joint FP33. The ring finger FP4 includes a first joint FP41, a second joint FP42, and a third joint FP43. The little finger FP5 includes a first joint FP51, a second joint FP52, and a third joint FP53. Reference numerals corresponding to these joints are omitted in the drawing.
複数の入力用画像MNに含まれる2つ以上の所定個数の入力用画像は、ユーザーの右手HPの親指を除く各指において関節で区切られた領域に対応付けられる。
例えば、人差し指FP2において、第1関節FP21の先端側の領域には、3つの入力用画像L21が表示される。3つの入力用画像L21は、「D」のアルファベットと、「E」のアルファベットと、「F」のアルファベットとを示す。この場合には、所定個数は「3個」である。
また、例えば、人差し指FP2において、第1関節FP21と第2関節FP22との間の領域には、3つの入力用画像L22が表示される。3つの入力用画像L22は、「M」のアルファベットと、「N」のアルファベットと、「O」のアルファベットとを示す。この場合には、所定個数は「3個」である。
また、例えば、人差し指FP2において、第2関節FP22と第3関節FP23との間の領域には、4つの入力用画像L23が表示される。4つの入力用画像L23は、「W」のアルファベットと、「X」のアルファベットと、「Y」のアルファベットと、「Z」のアルファベットとを示す。この場合には、所定個数は「4個」である。
The two or more predetermined number of input images included in the plurality of input images MN are associated with the areas delimited by the joints of the fingers of the user's right hand HP except the thumb.
For example, in the index finger FP2, three input images L21 are displayed in the region on the distal end side of the first joint FP21. The three input images L21 show the alphabet “D”, the alphabet “E”, and the alphabet “F”. In this case, the predetermined number is “3”.
Further, for example, in the index finger FP2, three input images L22 are displayed in a region between the first joint FP21 and the second joint FP22. The three input images L22 show the alphabet “M”, the alphabet “N”, and the alphabet “O”. In this case, the predetermined number is “3”.
Further, for example, in the index finger FP2, four input images L23 are displayed in the region between the second joint FP22 and the third joint FP23. The four input images L23 show the alphabet "W", the alphabet "X", the alphabet "Y", and the alphabet "Z". In this case, the predetermined number is "4".
操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
具体的には、操作推定部143は、筋電センサー200の検出値に基づいて、関節で区切られた領域を選択する操作と、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作とを推定する。
まず、関節で区切られた領域を選択する操作は、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧する操作である。関節で区切られた領域を選択する操作によって、複数の入力用画像MNの中から所定個数の入力用画像MBが選択される。
次に、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を所定方向に移動する操作である。
The
Specifically, the
First, the operation of selecting the area delimited by the joint is an operation of pressing the thumb FP1 of the user's right hand HP to the area delimited by the joint in each of the index finger FP2, the middle finger FP3, the ring finger FP4, and the little finger FP5. .. A predetermined number of input images MB are selected from the plurality of input images MN by the operation of selecting the area delimited by the joints.
Next, the operation of selecting one input image MA from the predetermined number of input images MB associated with the area is an operation of moving the thumb FP1 of the user's right hand HP in a predetermined direction.
更に、具体的には、例えば、人差し指FP2において、第2関節FP22と第3関節FP23との間の領域が選択されている場合には、以下のようにして1つの入力用画像MAが選択される。
すなわち、「W」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、人差し指FP2の先端に向かう方向(上方向)に移動する操作を行う。「X」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、中指FP3から離間する方向(右方向)に移動する操作を行う。「Y」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、人差し指FP2の基端に向かう方向(下方向)に移動する操作を行う。「Z」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、中指FP3に向かう方向(左方向)に移動する操作を行う。
Further, more specifically, for example, when the area between the second joint FP22 and the third joint FP23 is selected on the index finger FP2, one input image MA is selected as follows. It
That is, when selecting the alphabet “W”, the user performs an operation of moving the thumb FP1 of the right hand HP in the direction toward the tip of the index finger FP2 (upward). When selecting the alphabet “X”, the user performs an operation of moving the thumb FP1 of the right hand HP in a direction away from the middle finger FP3 (right direction). When selecting the alphabet “Y”, the user performs an operation of moving the thumb FP1 of the right hand HP in a direction (downward) toward the base end of the index finger FP2. When selecting the alphabet "Z", the user performs an operation of moving the thumb FP1 of the right hand HP in the direction toward the middle finger FP3 (to the left).
このようにして、操作推定部143が、筋電センサー200の検出値に基づいて、関節で区切られた領域を選択する操作と、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作とを推定する。したがって、ユーザーは、アルファベットを入力することができる。
In this way, the
以上、図1〜図12を参照して説明したように、本実施形態では、操作推定部143は、動きセンサーの一例である筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。判定部144は、操作推定部143の推定結果を判定する。学習部145は、学習データセット147aに基づいて、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習する。1つの入力用画像MAを特定するための条件は、例えば、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の判定基準を示す。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果との組み合わせを含む。
よって、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習するため、操作推定部143が1つの入力用画像MAを選択する操作を推定する精度を向上できる。したがって、HMD100の操作性を向上できる。
As described above with reference to FIGS. 1 to 12, in the present embodiment, the
Therefore, since the condition for specifying one input image MA is machine-learned from the detected value of the
また、カメラ61を備え、判定部144は、操作推定部143の推定結果の正否を、カメラ61による画像に基づいて判定する。
よって、カメラ61が、ユーザーの右手HPの画像を生成できる。したがって、判定部144は、ユーザーの右手HPの動きによる操作が1つの入力用画像MAを選択する操作であるか否かを正確に判定できる。
Further, the
Therefore, the
また、複数の入力用画像MNの各々は、互いに相違する文字を示す。操作推定部143は、筋電センサー200の検出値に基づいて、入力する文字を推定する。
よって、ユーザーは、文字を入力する操作を容易に実行できる。したがって、HMD100の操作性を更に向上できる。
Further, each of the plurality of input images MN indicates different characters. The
Therefore, the user can easily perform the operation of inputting characters. Therefore, the operability of the
複数の入力用画像MNの各々は、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を関節で区切られた領域に押圧する操作である。
よって、筋電センサー200は、1つの入力用画像MAを選択する操作を正確に検出できる。また、ユーザーは、右手HPだけを用いて、1つの入力用画像MAを選択する操作を実行できる。したがって、HMD100の操作性を更に向上できる。
Each of the plurality of input images MN is associated with a region separated by a joint in each finger of the user's right hand HP except the thumb FP1. The operation of selecting one input image MA is an operation of pressing the thumb FP1 of the user's right hand HP to a region delimited by joints.
Therefore, the
複数の入力用画像MNに含まれる2つ以上の所定個数の入力用画像MBは、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられている。領域を選択する操作は、ユーザーの右手HPの親指FP1を関節で区切られた領域に押圧する操作である。領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を所定方向に移動する操作である。
よって、筋電センサー200は、1つの入力用画像MAを選択する操作を正確に検出できる。また、ユーザーは、右手HPだけを用いて、アルファベットのような多数の入力用画像MNから1つの入力用画像MAを選択する操作を実行できる。したがって、HMD100の操作性を更に向上できる。
The two or more predetermined number of input images MB included in the plurality of input images MN are associated with the regions separated by the joints in each finger of the user's right hand HP except the thumb FP1. The operation of selecting an area is an operation of pressing the thumb FP1 of the user's right hand HP to an area delimited by joints. The operation of selecting one input image MA from the predetermined number of input images MB associated with the area is an operation of moving the thumb FP1 of the user's right hand HP in a predetermined direction.
Therefore, the
また、表示制御部142は、ユーザーの右手HPの位置をガイドする第1ガイド画像GL1を画像表示部20に表示させる。
よって、例えば、筋電センサー200の位置をガイドする第2ガイド画像GL2を画像表示部20に表示させることによって、ユーザーに筋電センサー200を適正な位置に装着させることができる。したがって、1つの入力用画像MAを選択する操作を更に正確に検出できる。その結果、HMD100の操作性を更に向上できる。
Further, the
Therefore, for example, by displaying the second guide image GL2 for guiding the position of the
また、表示制御部142は、画像表示部20を透過して視認されるユーザーの手の位置を追跡し、ユーザーの手の移動に応じて、複数の入力用画像MNの各々の表示位置を調整する。
よって、ユーザーの手が移動した場合にも、複数の入力用画像MNの各々を適正な位置に表示できる。したがって、HMD100の操作性を更に向上できる。
The
Therefore, even when the user's hand moves, each of the plurality of input images MN can be displayed at an appropriate position. Therefore, the operability of the
また、動きセンサーは、ユーザーの手首に装着される筋電センサー200を含む。
したがって、簡素な構成で、1つの入力用画像MAを選択する操作を検出できる。
In addition, the motion sensor includes a
Therefore, the operation of selecting one input image MA can be detected with a simple configuration.
なお、本実施形態では、表示制御部142が、ユーザーの右手HPと重なる位置に入力用の画像Mを表示するが、これに限定されない。表示制御部142が、ユーザーの手と重なる位置に複数の入力用画像MNを表示すればよい。例えば、表示制御部142が、ユーザーの左手と重なる位置に複数の入力用画像MNを表示してもよい。また、例えば、表示制御部142が、ユーザーの両手と重なる位置に複数の入力用画像MNを表示してもよい。この場合には、ユーザーの右手HPと重なる位置に入力用画像MNを表示する場合と比較して、多数の入力用画像MNを表示できる。
In the present embodiment, the
また、本実施形態では、複数の入力用画像MNの各々が数字を示す場合について説明したが、これに限定されない。複数の入力用画像MNの各々が記号を示せばよい。ここで、「記号」とは、文字、数学記号、及び図形記号等を含む。文字は、アルファベット、平仮名、及びカタカナを含む。例えば、複数の入力用画像MNの各々がアルファベットのうちの1文字を示してもよい。この場合には、文章の入力が可能になる。 Further, in the present embodiment, a case has been described in which each of the plurality of input images MN indicates a number, but the present invention is not limited to this. Each of the plurality of input images MN only needs to show a symbol. Here, the "symbol" includes characters, mathematical symbols, graphic symbols, and the like. The characters include alphabets, hiragana, and katakana. For example, each of the plurality of input images MN may indicate one character of the alphabet. In this case, the text can be input.
また、本実施形態では、動きセンサーが、ユーザーの右手HPの手首に装着される筋電センサー200である場合について説明したが、これに限定されない。動きセンサーが、ユーザーの右手HPの指に装着されるジャイロセンサーでもよい。右手HPの指は、例えば、親指FP1である。また、動きセンサーが、手首に装着される筋電センサー200と、ユーザーの指に装着されるジャイロセンサーとを含んでもよい。
また、例えば、指に装着されるセンサーが、3軸の加速度センサーでもよいし、6軸センサーでもよい。6軸センサーは、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサーは、上記のセンサーがモジュール化されたIMUを採用してもよい。
また、例えば、親指FP1以外の指にも、ジャイロセンサーが装着されてもよい。具体的には、右手HPの人差し指FP2、中指FP3、薬指FP4、及び小指FP5にも、ジャイロセンサーが装着されてもよい。
Further, in the present embodiment, the case where the motion sensor is the
Further, for example, the sensor worn on the finger may be a triaxial acceleration sensor or a 6-axis sensor. The 6-axis sensor is a motion sensor including a 3-axis acceleration sensor and a 3-axis gyro sensor. The 6-axis sensor may employ an IMU in which the above sensor is modularized.
Further, for example, the gyro sensor may be attached to a finger other than the thumb FP1. Specifically, the gyro sensor may be attached to the index finger FP2, the middle finger FP3, the ring finger FP4, and the little finger FP5 of the right hand HP.
また、本実施形態では、判定部144が、操作推定部143の推定結果の正否を判定するが、これに限定されない。判定部144が、操作推定部143の推定結果を判定すればよい。例えば、判定部144が、操作推定部143の推定結果が正しくない場合に、操作推定部143の推定結果が正しくない程度を判定してもよい。例えば、操作推定部143が1つの入力用画像MAを選択する操作を推定し、判定部144が入力用画像MAと相違する1つの入力用画像MBを選択する操作が行われたと判定した場合に、判定部144が以下の処理を実行してもよい。すなわち、判定部144は、入力用画像MAと入力用画像MBとの間の距離に基づいて、推定部143の推定結果が正しくない程度を判定してもよい。
Further, in the present embodiment, the
また、本実施形態では、1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の判定基準を示すが、これに限定されない。1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値に関する条件であればよい。
例えば、1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の範囲でもよい。なお、筋電センサー200の検出値の特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
Further, in the present embodiment, the condition for specifying one input image MA indicates the criterion for the feature amount of the detection value of the
For example, the condition for specifying one input image MA may be the range of the characteristic amount of the detection value of the
なお、本実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、本実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、これに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
Note that the configuration is not limited to the configuration of the present embodiment, and can be implemented in various modes without departing from the gist thereof.
For example, in the present embodiment, the configuration in which the
また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。例えば、制御装置10に代えて、ユーザーの身体、着衣、或いは、ユーザーが身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
Further, some functions of the
さらに、本実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。これに限定されず、制御装置10と画像表示部20とが一体に構成され、ユーザーの頭部に装着される構成とすることも可能である。
Furthermore, in the present embodiment, the configuration in which the
また、本実施形態において、ユーザーが表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。例えば、カメラ61により撮像する外景の画像と、表示画像とを合成した合成画像を画像表示部20により表示する構成とすれば、画像表示部20が外光を透過しなくても、ユーザーに外景と画像とを視認可能に表示できる。このような、いわゆるビデオシースルー型の表示装置に適用することも勿論可能である。
Further, in the present embodiment, the configuration in which the user sees the outside scene through the display unit is not limited to the configuration in which the right
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、ユーザーの左眼LEに対応して画像を表示する表示部と、ユーザーの右眼REに対応して画像を表示する表示部とを備えていればよい。また、表示装置は、例えば、自動車や飛行機等の車両に搭載されるHMDとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。この場合、ユーザーの身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
Further, for example, instead of the
また、画像光をユーザーの眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。これに限定されず、右導光板26及び左導光板28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光をユーザーの眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
Further, as an optical system for guiding the image light to the eyes of the user, a configuration in which a virtual image is formed by the half mirrors 261 and 281 on a part of the right
Further, the optical element is not limited to the right
また、図5、図6等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部141が実行するプログラムは、不揮発性記憶部121または制御装置10内の他の図示しない記憶装置に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110がユーザーインターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
Further, at least some of the functional blocks shown in FIGS. 5 and 6 may be realized by hardware, or may be realized by the cooperation of hardware and software. It is not limited to a configuration in which independent hardware resources are arranged as described above. The program executed by the
10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、61…カメラ(撮像部)、63…マイク(音声入力部の一部)、100…HMD(表示装置)、110…操作部、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、130…電源部、140…メインプロセッサー、141…制御部、142…表示制御部、143…操作推定部、144…判定部、145…学習部、146…信号記憶部、147…学習データ記憶部、147a…学習データセット、148…画像記憶部、180…音声コーデック(音声入力部の一部)、182…音声インターフェイス(音声入力部の一部)、200…筋電センサー(動きセンサー)、AR1…視野領域、AR2…画像領域、FP1…親指、FP11…第1関節、FP12…第2関節、FP2…人差し指、FP21…第1関節、FP22…第2関節、FP23…第3関節、FP3…中指、FP31…第1関節、FP32…第2関節、FP33…第3関節、FP4…薬指、FP41…第1関節、FP42…第2関節、FP43…第3関節、FP5…小指、FP51…第1関節、FP52…第2関節、FP53…第3関節、GL…ガイド画像、GL1…第1ガイド画像、GL2…第2ガイド画像、HP…右手、MA…入力用画像、MN…入力用画像。 10 ... Control device, 20 ... Image display part (display part), 21 ... Right holding part, 22 ... Right display unit, 23 ... Left holding part, 24 ... Left display unit, 26 ... Right light guide plate, 27 ... Front frame , 28 ... Left light guide plate, 30 ... Headset, 32 ... Right earphone, 34 ... Left earphone, 40 ... Connection cable, 61 ... Camera (imaging unit), 63 ... Microphone (part of voice input unit), 100 ... HMD (Display device), 110 ... Operation unit, 117 ... Communication unit, 118 ... Memory, 120 ... Controller board, 121 ... Nonvolatile storage unit, 130 ... Power supply unit, 140 ... Main processor, 141 ... Control unit, 142 ... Display control Section, 143 ... operation estimation section, 144 ... determination section, 145 ... learning section, 146 ... signal storage section, 147 ... learning data storage section, 147a ... learning data set, 148 ... image storage section, 18 ... voice codec (part of voice input unit), 182 ... voice interface (part of voice input unit), 200 ... myoelectric sensor (motion sensor), AR1 ... field of view area, AR2 ... image area, FP1 ... thumb, FP11 ... 1st joint, FP12 ... 2nd joint, FP2 ... Index finger, FP21 ... 1st joint, FP22 ... 2nd joint, FP23 ... 3rd joint, FP3 ... Middle finger, FP31 ... 1st joint, FP32 ... 2nd joint, FP33 ... 3rd joint, FP4 ... ring finger, FP41 ... 1st joint, FP42 ... 2nd joint, FP43 ... 3rd joint, FP5 ... little finger, FP51 ... 1st joint, FP52 ... 2nd joint, FP53 ... 3rd joint, GL ... guide image, GL1 ... first guide image, GL2 ... second guide image, HP ... right hand, MA ... input image, MN ... input image.
Claims (10)
前記表示部を透過して視認される前記ユーザーの手に重なる位置に、複数の入力用画像を前記表示部に表示させる表示制御部と、
前記ユーザーの手の動きを検出する動きセンサーと、
前記動きセンサーの検出値に基づき、前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定部と、
前記操作推定部の推定結果を判定する判定部と、
前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定部の判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習部と、
を備える表示装置。 A transmissive display unit that transmits light, which is mounted on the user's head,
A display control unit that causes the display unit to display a plurality of input images at a position overlapping the user's hand that is visible through the display unit;
A motion sensor for detecting movement of the user's hand,
An operation estimation unit that estimates an operation of selecting one input image from the plurality of input images based on a detection value of the motion sensor;
A determination unit that determines the estimation result of the operation estimation unit,
The one input image is identified from the detection value of the motion sensor based on a learning data set including a combination of the detection value of the motion sensor, the one input image, and the determination result of the determination unit. A learning unit that machine-learns the conditions for
A display device including.
前記判定部は、前記操作推定部の推定結果の正否を、前記撮像部による画像に基づいて判定する、
請求項1に記載の表示装置。 Equipped with an imaging unit,
The determination unit determines whether the estimation result of the operation estimation unit is correct based on an image captured by the imaging unit,
The display device according to claim 1.
前記判定部は、前記操作推定部の推定結果の正否を、前記音声入力部に入力された音声に基づいて判定する、
請求項1又は2に記載の表示装置。 A voice input unit for receiving voice input from the user,
The determination unit determines whether the estimation result of the operation estimation unit is correct based on the voice input to the voice input unit,
The display device according to claim 1.
前記操作推定部は、前記動きセンサーの検出値に基づいて、入力する文字を推定する、
請求項1から3のいずれか1項に記載の表示装置。 Each of the plurality of input images indicates different characters,
The operation estimation unit estimates a character to be input based on a detection value of the motion sensor,
The display device according to claim 1.
前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作である、
請求項1から4のいずれか1項に記載の表示装置。 Each of the plurality of input images is associated with an area separated by a joint in each finger of the user's hand excluding the thumb,
The operation of selecting the one input image is an operation of pressing the thumb of the user's hand to a region delimited by the joint.
The display device according to claim 1.
前記領域を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作であり、
前記領域に対応付けられた前記所定個数の入力用画像から前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を所定方向に移動する操作である、
請求項1から4のいずれか1項に記載の表示装置。 A predetermined number of two or more input images included in the plurality of input images are associated with a region separated by a joint in each finger of the user excluding the thumb of the hand,
The operation of selecting the region is an operation of pressing the thumb of the user's hand to a region delimited by the joint,
The operation of selecting the one input image from the predetermined number of input images associated with the area is an operation of moving the thumb of the user's hand in a predetermined direction.
The display device according to claim 1.
請求項1から6のいずれか1項に記載の表示装置。 The display control unit causes the display unit to display a first guide image for guiding the position of the user's hand.
The display device according to claim 1.
請求項1から7のいずれか1項に記載の表示装置。 The display control unit tracks the position of the user's hand visually recognized through the display unit, and adjusts the display position of each of the plurality of input images according to the movement of the user's hand. ,
The display device according to claim 1.
請求項1から8のいずれか1項に記載の表示装置。 The motion sensor includes a myoelectric sensor worn on the user's wrist,
The display device according to claim 1.
前記表示部を透過して視認される前記ユーザーの手に重なる位置に、複数の入力用画像を前記表示部に表示させる表示制御ステップと、
前記動きセンサーの検出値に基づき、前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定ステップと、
前記操作推定ステップの推定結果を判定する判定ステップと、
前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定ステップの判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習ステップと、
を含む、表示装置の制御方法。 A method of controlling a display device, comprising a transmissive display unit that transmits light, the display unit being mounted on a user's head, and a motion sensor that detects a motion of the user's hand,
A display control step of displaying a plurality of input images on the display unit at a position overlapping with the user's hand visually recognized through the display unit;
An operation estimation step of estimating an operation of selecting one input image from the plurality of input images based on the detection value of the motion sensor;
A determination step of determining the estimation result of the operation estimation step,
The one input image is specified from the detection value of the motion sensor based on a learning data set including a combination of the detection value of the motion sensor, the one input image, and the determination result of the determination step. A learning step of machine learning the conditions for
A method for controlling a display device, including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018203895A JP2020071588A (en) | 2018-10-30 | 2018-10-30 | Display device and method for controlling display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018203895A JP2020071588A (en) | 2018-10-30 | 2018-10-30 | Display device and method for controlling display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020071588A true JP2020071588A (en) | 2020-05-07 |
Family
ID=70547861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018203895A Pending JP2020071588A (en) | 2018-10-30 | 2018-10-30 | Display device and method for controlling display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020071588A (en) |
-
2018
- 2018-10-30 JP JP2018203895A patent/JP2020071588A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643390B2 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
CN108508603B (en) | Head-mounted display device, control method therefor, and recording medium | |
CN108535868B (en) | Head-mounted display device and control method thereof | |
US11216083B2 (en) | Display system that switches into an operation acceptable mode according to movement detected | |
US10976836B2 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
US11668936B2 (en) | Head-mounted type display device and method of controlling head-mounted type display device | |
US20190317608A1 (en) | Transmissive head-mounted display apparatus, display control method, and computer program | |
US10296105B2 (en) | Head-mounted display device, computer program, and control method for head-mounted display device | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
JP2018142857A (en) | Head mounted display device, program, and control method of head mounted display device | |
US10884498B2 (en) | Display device and method for controlling display device | |
US20180214007A1 (en) | Endoscope operation support system | |
JP2019164420A (en) | Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device | |
JP2018084886A (en) | Head mounted type display device, head mounted type display device control method, computer program | |
JP6776578B2 (en) | Input device, input method, computer program | |
JP2018206080A (en) | Head-mounted display device, program, and control method for head-mounted display device | |
JP2017146726A (en) | Movement support device and movement support method | |
JP2018042004A (en) | Display device, head-mounted type display device, and method for controlling display device | |
JP2020135306A (en) | Display system, program for controlling information processing device, and method of controlling information processing device | |
JP6932917B2 (en) | Head-mounted display, program, and head-mounted display control method | |
JP2020071588A (en) | Display device and method for controlling display device | |
JP2017182460A (en) | Head-mounted type display device, method for controlling head-mounted type display device, and computer program | |
JP2017134630A (en) | Display device, control method of display device, and program | |
JP6790769B2 (en) | Head-mounted display device, program, and control method of head-mounted display device | |
CN114791673B (en) | Display method, display device, and recording medium |