JP2016116066A - Display device and control method of display device - Google Patents
Display device and control method of display device Download PDFInfo
- Publication number
- JP2016116066A JP2016116066A JP2014253100A JP2014253100A JP2016116066A JP 2016116066 A JP2016116066 A JP 2016116066A JP 2014253100 A JP2014253100 A JP 2014253100A JP 2014253100 A JP2014253100 A JP 2014253100A JP 2016116066 A JP2016116066 A JP 2016116066A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- motion
- head
- center
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Eyeglasses (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、表示装置、及び、表示装置の制御方法に関する。 The present invention relates to a display device and a display device control method.
従来、頭部に装着する表示装置が知られている(例えば、特許文献1参照)。特許文献1記載のディスプレイは、眼鏡型のフレームにシースルーの導光手段を設けたディスプレイであり、フレームに撮像装置が取り付けられる。このディスプレイは、撮像装置によって撮像した画像と、導光手段を通してユーザーが視認する対象物の像とを一致させることで、補正データを生成し、その補正データに基づいて撮像データをユーザーの視野と一致させる。これにより、対象物の像に対して対象物に関する各種のデータを重ねて表示するAR(Augmented Reality)技術を実現する。
また、頭部に装着する装置が、頭部の動きを検出する例が知られている(例えば、特許文献2参照)。特許文献2には、眼鏡型のフレームを有し、眼鏡のテンプル部にセンサーを設けた眼鏡型操作デバイスが記載されている。このデバイスは、センサーの検出信号により、使用者が頭部を動かす、眼を動かすなどの動作を検出する。
Conventionally, a display device mounted on the head is known (for example, see Patent Document 1). The display described in
In addition, an example in which a device mounted on the head detects the movement of the head is known (see, for example, Patent Document 2).
特許文献1記載のように、頭部に装着される表示装置において、頭部の動きに対応して表示を制御することが考えられる。この場合、例えば特許文献2に記載のように、センサーを用いて動きを検出することが考えられる。多くの場合、人間が頭部の動きでは、頭部の中心や顔の中心が運動の中心、或いは基準となる。運動の中心における動きを直接検出できれば、動作量や動作の方向を簡単かつ正確に求めることができるが、頭部の中心や顔の中心にセンサーを設けることは困難である。
本発明は上記事情に鑑みてなされたものであり、頭部装着型の表示装置において、使用者の頭部の動きについて、運動中心の動きに対応した処理を速やかに実行できるようにすることを目的とする。
As described in
The present invention has been made in view of the above circumstances, and in a head-mounted display device, it is possible to quickly execute a process corresponding to a movement centered on a movement of a user's head. Objective.
上記課題を解決するため、本発明は、使用者の頭部に装着される頭部装着型の表示装置であって、使用者の眼に画像光を照射する表示部と、複数の動きセンサーと、を備え、いずれかの前記動きセンサーは、装着状態において前記頭部の中心より一方側に位置し、他の前記動きセンサーは前記頭部の中心より他方側に位置すること、を特徴とする。
本発明によれば、頭部の中心より一方側と他方側に配置された動きセンサーの検出結果を利用して、使用者の頭部が動いた場合に、運動中心における動き量や動きの方向等を速やかに求めることができる。
ここで、頭部の中心とは、使用者の身長に対し垂直な水平面における頭部の中心を指すが、例えば、両眼の高さ位置における水平面における中心を指してもよいし、使用者の頭部の3次元的な中心であってもよい。
In order to solve the above problems, the present invention is a head-mounted display device mounted on a user's head, the display unit for irradiating the user's eyes with image light, a plurality of motion sensors, Any one of the motion sensors is located on one side from the center of the head in the mounted state, and the other motion sensor is located on the other side from the center of the head. .
According to the present invention, when the user's head moves using the detection results of the motion sensors arranged on one side and the other side from the center of the head, the amount of movement and the direction of movement at the center of movement. Etc. can be promptly requested.
Here, the center of the head refers to the center of the head in a horizontal plane perpendicular to the height of the user. For example, the center of the head may refer to the center in the horizontal plane at the height position of both eyes. It may be the three-dimensional center of the head.
また、本発明は、上記表示装置において、いずれかの前記動きセンサーは、装着状態において前記頭部の中心より左側に位置し、他の前記動きセンサーは前記頭部の中心より右側に位置すること、を特徴とする。
本発明によれば、使用者の頭部が動いた場合に、頭部の運動中心における動き量や動きの方向等を速やかに求めることができる。
In the display device according to the aspect of the invention, any one of the motion sensors may be located on the left side of the center of the head in the mounted state, and the other motion sensors may be located on the right side of the center of the head. It is characterized by.
ADVANTAGE OF THE INVENTION According to this invention, when a user's head moves, the movement amount in the movement center of a head, the direction of a movement, etc. can be calculated | required rapidly.
また、本発明は、上記表示装置において、前記表示部は、前記使用者の眼に向けて画像光を放つ表示領域を有する光学素子を備え、複数の前記動きセンサー、及び、前記光学素子の表示領域の中央位置が直線状に並んで位置すること、を特徴とする。
本発明によれば、表示領域を構成する光学素子の位置を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
In the display device according to the aspect of the invention, the display unit includes an optical element having a display area that emits image light toward the user's eyes, and includes a plurality of the motion sensors and the display of the optical elements. The center position of the region is arranged in a straight line.
According to the present invention, it is possible to quickly obtain the amount of movement, the direction of movement, and the like at the center of motion in response to the motion centered on the position of the optical element that constitutes the display area.
また、本発明は、上記表示装置において、前記光学素子は前記使用者の眼に向けて画像光を放つ表示領域としてのハーフミラーを有すること、を特徴とする。
本発明によれば、使用者が視認できる画像の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
Moreover, the present invention is characterized in that, in the above display device, the optical element has a half mirror as a display area that emits image light toward the eyes of the user.
According to the present invention, it is possible to quickly determine the amount of movement, the direction of movement, and the like at the center of motion in response to the motion centered on the center of the image that can be visually recognized by the user.
また、本発明は、上記表示装置において、前記使用者の左右の眼の前に跨がって装着される本体を有し、少なくとも2つの前記動きセンサーが、前記本体の中央に対して対称な位置にあること、を特徴とする。
本発明によれば、複数の動きセンサーが使用者の動きの運動中心の両側で検出する可能性が高くなり、動き量や動きの方向等を速やかに求めることができる。
In the display device according to the present invention, the display device further includes a main body that is mounted in front of the left and right eyes of the user, and at least two of the motion sensors are symmetrical with respect to a center of the main body. It is in position.
According to the present invention, there is a high possibility that a plurality of motion sensors detect both sides of the motion center of the user's motion, and it is possible to quickly determine the amount of motion, the direction of motion, and the like.
また、本発明は、上記表示装置において、前記本体は、前記使用者の右眼の前に位置する右部と、前記使用者の左眼の前に位置する左部と、前記本体の中央に位置して前記右部と前記左部とを連結する連結部と、を有し、少なくとも2つの前記動きセンサーが前記連結部に対して対称な位置にあること、を特徴とする。
本発明によれば、眼鏡型の表示装置の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
In the display device according to the present invention, the main body includes a right part positioned in front of the user's right eye, a left part positioned in front of the user's left eye, and a center of the main body. And a connecting part that connects the right part and the left part, and at least two of the motion sensors are in symmetrical positions with respect to the connecting part.
According to the present invention, it is possible to quickly determine the amount of movement, the direction of movement, and the like at the center of motion in response to the motion centered on the center of the eyeglass-type display device.
また、本発明は、上記表示装置において、複数の前記動きセンサーは、少なくとも、光学センサー、及び、慣性センサーを含むこと、を特徴とする。
本発明によれば、異なる種類のセンサーの検出結果を用いることにより、使用者の頭部の動きに関する情報を得ることができ、センサーの検出値を他の用途にも活用できる。
In the display device according to the present invention, the plurality of motion sensors include at least an optical sensor and an inertial sensor.
According to the present invention, by using the detection results of different types of sensors, it is possible to obtain information on the movement of the user's head, and the detection values of the sensors can be used for other purposes.
また、本発明は、上記表示装置において、複数の前記動きセンサーは、光学センサー、及び、慣性センサーのうちいずれか1種類のセンサーで構成されること、を特徴とする。
本発明によれば、同種のセンサーの検出結果を用い、より容易に、使用者の頭部の動きに関する情報を得ることができる。
Moreover, the present invention is characterized in that, in the display device, the plurality of motion sensors are configured by any one of an optical sensor and an inertial sensor.
ADVANTAGE OF THE INVENTION According to this invention, the information regarding a user's head movement can be obtained more easily using the detection result of the same kind of sensor.
また、本発明は、上記表示装置において、複数の前記動きセンサーの検出値に基づいて、前記使用者の動きについて、動きの中心における動きを求める動き検出部を備えること、を特徴とする。
本発明によれば、複数の動きセンサーを利用して使用者の動きを的確に求めることができるので、動きに対応した処理を速やかに実行できる。
Further, the present invention is characterized in that the display device includes a motion detection unit that obtains a motion at the center of the motion of the user based on detection values of the plurality of motion sensors.
According to the present invention, a user's movement can be accurately obtained by using a plurality of movement sensors, so that processing corresponding to the movement can be quickly executed.
また、本発明は、上記表示装置において、前記動き検出部は、複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、を特徴とする。
本発明によれば、複数の動きセンサーを利用して、使用者の動きをより的確に求めることができるので、動きに対応した処理を速やかに実行できる。
Further, the present invention is characterized in that, in the display device, the motion detection unit obtains a motion at the center of the motion based on each detection value of the plurality of motion sensors and the position of the motion sensor. To do.
According to the present invention, since a user's movement can be obtained more accurately using a plurality of movement sensors, processing corresponding to the movement can be quickly executed.
また、上記課題を解決するため、本発明は、使用者の頭部に装着され、前記使用者の眼に画像光を照射する表示部と、複数の動きセンサーと、を備える表示装置により、複数の前記動きセンサーの検出値に基づき、前記頭部の運動中心における動きを求めること、を特徴とする。
本発明によれば、使用者の頭部が動いた場合に、運動中心における動き量や動きの方向等を速やかに求め、この動きに対応した処理を実行できる。
In order to solve the above problems, the present invention provides a plurality of display devices including a display unit that is mounted on a user's head and irradiates image light to the user's eyes, and a plurality of motion sensors. The movement at the movement center of the head is obtained based on the detection value of the movement sensor.
According to the present invention, when the user's head moves, the amount of movement and the direction of movement at the center of movement can be quickly obtained, and processing corresponding to this movement can be executed.
また、本発明は、上記表示装置の制御方法において、複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、を特徴とする。
本発明によれば、複数の動きセンサーを利用して使用者の動きを的確に求めることができるので、動きに対応した処理を速やかに実行できる。
According to the present invention, in the control method for the display device, the movement at the center of the movement is obtained based on the detection values of the plurality of movement sensors and the position of the movement sensor.
According to the present invention, a user's movement can be accurately obtained by using a plurality of movement sensors, so that processing corresponding to the movement can be quickly executed.
[第1実施形態]
図1は、本発明を適用した実施形態に係る頭部装着型表示装置100(表示装置)の外観構成を示す説明図である。
頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。
[First Embodiment]
FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device 100 (display device) according to an embodiment to which the present invention is applied.
The head-mounted
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム2(本体)を有する。フレーム2は、右保持部21及び左保持部23を有する。右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21は使用者の頭部において右耳またはその近傍に当接し、左保持部23は使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部20を保持する。
The
フレーム2には、右表示駆動部22と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、マイク63とが設けられる。
本実施形態では本体の一例として、眼鏡型のフレーム2を例示する。本体の形状は眼鏡型に限定されず、使用者の頭部に装着され固定されるものであればよく、使用者の左右の眼の前に跨がって装着される形状であれば、より好ましい。例えば、ここで説明する眼鏡型の他に、使用者の顔の上部を覆うスノーゴーグル様の形状であってもよいし、双眼鏡のように使用者の左右の眼のそれぞれの前方に配置される形状であってもよい。
眼鏡型のフレーム2は、使用者の右眼の前に位置する右部2A、及び、左眼の前に位置する左部2Bを有し、右部2Aと左部2Bとがブリッジ部2C(連結部)で連結された形状である。ブリッジ部2Cは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、右部2Aと左部2Bとを互いに連結する。
右部2A及び左部2Bは、それぞれテンプル部2D、2Eに連結される。テンプル部2D、2Eは眼鏡のテンプルのようにして、フレーム2を使用者の頭部に支持する。本実施形態のテンプル部2Dは右保持部21で構成され、テンプル部2Eは左保持部23で構成される。
右光学像表示部26は右部2Aに配置され、左光学像表示部28は左部2Bに配置される、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置する。
The
In this embodiment, a spectacle-
The glasses-
The
The right optical
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
The right
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、図2を参照して後述する投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、画像表示部20を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、光学素子である右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
The
The right optical
The dimming
また、フレーム2には、カメラユニット3が設けられる。カメラユニット3は、上部カメラ61が配置されるカメラ台座部3Cと、カメラ台座部3Cを支持するアーム部3A、3Bとを有する。アーム部3Aは、右保持部21の先端部APに設けられたヒンジ21Aにより、回動可能に右保持部21に連結される。アーム部3Bは、左保持部23の先端部APに設けられたヒンジ23Aにより、回動可能に左保持部23に連結される。このため、カメラユニット3は全体として、図中矢印Kで示す方向、すなわち装着状態において上下に回動可能である。カメラユニット3は、回動範囲の下端でフレーム2に接する。また、カメラユニット3の回動範囲の上端はヒンジ21A、23Aの仕様等で決定される。
The
カメラ台座部3Cは、右部2A、左部2B及びブリッジ部2Cの上部に跨がって位置する板状または棒状部材であり、ブリッジ部2Cの上に相当する位置に、上部カメラ61が埋込設置される。上部カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
上部カメラ61は、頭部装着型表示装置100の表側方向、換言すれば、画像表示部20を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。上部カメラ61の画角の広さは適宜設定可能であるが、例えばカメラユニット3の回動範囲の下端において、上部カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含むことが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるように上部カメラ61の撮像範囲が設定されているとより好ましい。
上部カメラ61は、制御部140が備える撮像処理部181(図4)の制御に従って撮像を実行し、撮像画像データを撮像処理部181に出力する。
The
The
The
画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。
The
連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。
The connecting
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
For example, as shown in FIG. 1, the
右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。
The
画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。
The
制御装置10は、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。
The
決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
The
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、頭部装着型表示装置100の電源オン/オフを切り替えるスイッチである。
The
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、左バックライト222、左LCD242、及び左投写光学系252を備える。左バックライト222はLED等の光源と拡散板とを有する。左LCD242は、左バックライト222の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。左投写光学系252は、左LCD242を透過した画像光Lを導くレンズ群等を備える。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the
The left
左投写光学系252は、左LCD242から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、左導光板262(光学素子)に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
The left projection
The image light L reflected by the
右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、右バックライト221、右LCD241、及び右投写光学系251を備える。右バックライト221はLED等の光源と拡散板とを有する。右LCD241は、右バックライト221の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241を透過した画像光Lを導くレンズ群等を備える。
The right
右投写光学系251は、右LCD241から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、右導光板261(光学素子)に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
The right projection
The image light L reflected by the
使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、頭部装着型表示装置100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、頭部装着型表示装置100は、シースルー型の表示装置として機能する。
The image light L reflected by the
なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
The left projection
また、図1及び図2に示すように、フレーム2には2つの動きセンサーが取り付けられる。本第1実施形態の動きセンサーは、慣性センサーであり、具体的には第1センサー66及び第2センサー68である。第1センサー66は右部2Aにおいてテンプル部2D側の端に配置され、第2センサー68は左部2Bにおいてテンプル部2E側の端部に設置される。第1センサー66及び第2センサー68は、加速度センサーや角速度センサー(ジャイロセンサー)等の慣性センサーであり、本実施形態では、3軸のジャイロセンサーとする。第1センサー66及び第2センサー68は、それぞれ、内蔵する検出機構の測定基準点において、後述するX軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。以下の説明で、第1センサー66及び第2センサー68の位置は、測定基準点の位置をいう。
As shown in FIGS. 1 and 2, two motion sensors are attached to the
図3は、画像表示部20を使用者の頭部に装着した状態を模式的に示す平面図である。
第1センサー66及び第2センサー68のいずれかのセンサーは、使用者の頭部の中心の一方側にあり、他のセンサーは、使用者の頭部の中心の他方側にある。具体的には、第1センサー66は使用者の頭部の右側にあり、第2センサー68は左側にある。
本実施形態で、頭部の中心とは、使用者の身長に対し垂直な水平面における頭部の中心を指す。第1センサー66及び第2センサー68の水平面における位置は、この水平面における頭部の中心を挟んで、右側と左側にある。
なお、頭部装着型表示装置100は、高さ方向(身長の方向)における頭部の中心を特定してもよく、この場合、例えば、両眼の高さ位置における水平面における中心を、「頭部の中心」としてもよい。また、例えば頭頂部から頸椎の上端までを頭部として、使用者の頭部の3次元的な中心を求め、この中心を、「頭部の中心」としてもよい。
使用者の頭部の中心の位置は、実際に測定して求めてもよいし、使用者の身長や頭囲のサイズから推定してもよい。例えば、身長や頭囲から頭部の中心の位置を推定するパラメーターや演算式が、統計的な手法により予め得られた場合に、このパラメーターや演算式を用いて頭部の中心の位置を求めてもよい。
FIG. 3 is a plan view schematically showing a state in which the
One of the
In the present embodiment, the center of the head refers to the center of the head in a horizontal plane perpendicular to the height of the user. The positions of the
The head-mounted
The center position of the user's head may be obtained by actual measurement, or may be estimated from the height of the user and the size of the head circumference. For example, when a parameter or calculation formula that estimates the center position of the head from height or head circumference is obtained in advance by a statistical method, the center position of the head is calculated using this parameter or calculation formula. May be.
より好ましくは、図2及び図3の平面図に示すように、本実施形態では、第1センサー66は右導光板261の側方に配置され、第2センサー68は左導光板262の側方に配置される。フレーム2の左右方向における中央位置をC1とすると、使用者に画像光を視認させる表示領域であるハーフミラー261Aの中心C2と、ハーフミラー262Aの中心C3とは、中央位置C1に対して対称な位置にある。言い換えれば、中央位置C1はハーフミラー261Aの中心C2とハーフミラー262Aの中心C3との中点にある。
このように、第1センサー66及び第2センサー68は、中央位置C1に対して対称な位置に設けられることが好ましい。そして、第1センサー66の位置と第2センサー68の位置とを結ぶ直線は、ハーフミラー261A、262Aを通る。つまり、第1センサー66の位置、第2センサー68の位置、ハーフミラー261Aの中心C2、及びハーフミラー262Aの中心C3が、同一直線上に並ぶ。
More preferably, as shown in the plan views of FIGS. 2 and 3, in the present embodiment, the
Thus, it is preferable that the
上記にハーフミラー261A、262Aの中心を含む水平面内における位置関係を説明したが、この水平面に対し垂直な、鉛直方向(高さ方向)における位置関係は、特に制限はない。第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、鉛直方向で近接していることが好ましい。例えば、第1センサー66及び第2センサー68の位置が、ハーフミラー261A、262Aの側方にあるとよい。さらに、第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、高さ方向において同一位置にあると、より好ましい。
Although the positional relationship in the horizontal plane including the centers of the half mirrors 261A and 262A has been described above, the positional relationship in the vertical direction (height direction) perpendicular to the horizontal plane is not particularly limited. It is preferable that the positions of the
第1センサー66が角速度を検出する軸は、図1に示すように、画像表示部20を装着する使用者の頭部に対し左右方向をX軸、前後方向をY軸、上下方向をZ軸とする。より詳細には、頭部装着型表示装置100の装着状態において、画像表示部20は左右の眼に対し、使用者が知覚する水平な位置にある。この装着状態において、第1センサー66及び第2センサー68の検出軸(X軸、Y軸、Z軸)が、使用者が知覚する左右、前後、及び上下に一致する構成である。仮に、画像表示部20の装着位置が使用者の頭部に対して傾いたり、ずれたりすれば、第1センサー66及び第2センサー68の検出軸は、左右、前後、上下からずれるが、この問題は使用者が画像表示部20の傾き及びずれを調整することで容易に解消する。
頭部装着型表示装置100は、第1センサー66及び第2センサー68により、画像表示部20を装着した状態で使用者の頭部の動きを検出する。これらの動きセンサーが検出する動きは、第1センサー66の測定基準点(図3のP3)、及び、第2センサー68の測定基準点(図3のP4)における動きである。
As shown in FIG. 1, the
The head-mounted
頭部装着型表示装置100は、後述するAR表示制御部186の機能によってARコンテンツの表示を行う場合、使用者の頭部の動きの検出(ヘッドトラッキング)を行い、検出した使用者の頭部の動きに対応して表示態様を変化させる。
ヘッドトラッキングにおいては頭部の運動(動き)の基準位置を想定し、この基準位置における動きを求めることが望ましい。上述したように、人間が頭部を動かすとき、頭部の中心(図3の位置P1に相当)または頭部の前部(図3の位置P2に相当)が、動きの中心、或いは基準となることが多い。ここで、動きの中心、或いは基準となる位置を、運動中心と呼ぶ。頭部装着型表示装置100が動きを検出する場合は、使用者の頭だけが動いた場合に限らず、使用者の頭と頭以外の身体とが合わせて動いた場合も、動きを検出する。従って、頭部装着型表示装置100が検出する動きは頭部の動きであるが、この動きの運動中心が、使用者の頭部の外側にあることもあり得る。
The head-mounted
In head tracking, it is desirable to assume a reference position of head movement (movement) and obtain the movement at this reference position. As described above, when a human moves the head, the center of the head (corresponding to position P1 in FIG. 3) or the front of the head (corresponding to position P2 in FIG. 3) Often becomes. Here, the center of motion or the reference position is called the motion center. When the head-mounted
ヘッドトラッキングの処理では、運動中心における動きを求める。運動中心の動きを直接検出するためには、運動中心となりやすい位置、例えば位置P1や位置P2に動きセンサーを配置する必要があり、現実的でない。そこで、頭部装着型表示装置100は、第1センサー66及び第2センサー68の検出結果に基づく演算処理により、運動中心における動きを算出する。この演算処理に用いる演算式、テーブル、パラメーター等は、後述するセンサー位置データ122として、予め記憶されている。
In the head tracking process, the motion at the motion center is obtained. In order to directly detect the movement of the movement center, it is necessary to arrange a movement sensor at a position where the movement center is likely to be, for example, the position P1 or the position P2, which is not realistic. Therefore, the head-mounted
そして、第1センサー66及び第2センサー68の位置が、ある種の条件を満たしている場合、運動中心における動きを算出する演算処理が容易になり、軽負荷で実行でき、より正確に運動中心(例えば位置P1、P2)における動きを算出できる。
この条件は、上述したように、第1センサー66及び第2センサー68のいずれかのセンサーは使用者の頭部の中心の一方側にあり、他のセンサーは、使用者の頭部の中心の他方側にあることである。この場合、頭部の中心P1を運動中心とする運動が行われた場合に、運動中心における動きを容易に算出できる。
When the positions of the
As described above, this condition is that one of the
また、より好ましくは、第1センサー66は右導光板261の側方に配置され、第2センサー68は左導光板262の側方に配置されることである。さらに、第1センサー66及び第2センサー68は、中央位置C1に対して対称な位置に設けられることが、より好ましい。第1センサー66の位置、第2センサー68の位置、ハーフミラー261Aの中心C2、及びハーフミラー262Aの中心C3が、同一直線上に並ぶことが、さらに好ましい。この場合、頭部の中心P1、または前部の中心P2を運動中心とする運動が行われた場合に、運動中心における動きを容易に算出できる。
また、鉛直方向(高さ方向)における位置関係は、第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、鉛直方向で近接していることが好ましい。さらに、第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、高さ方向において同一位置にあると、より好ましい。
More preferably, the
The positional relationship in the vertical direction (height direction) is preferably such that the positions of the
図4は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
頭部装着型表示装置100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
FIG. 4 is a functional block diagram of each part constituting the head-mounted
The head-mounted
制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部135に接続される。操作部135は、上記のトラックパッド14、方向キー16、電源スイッチ18等を含み、入力情報取得部110は、操作部135から入力される信号に基づき、入力内容を取得する。また、制御装置10は、電源部(図示略)を備え、制御装置10及び画像表示部20の各部に電源を供給する。
The
The input
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が実行する各種処理に係る設定値を含む。例えば、画像処理部160及び表示制御部170が画像信号を処理する場合の解像度等の設定値を含む。設定データ121が含む設定値は、予め操作部135の操作で入力された値であってもよいし、通信部117またはインターフェイス125を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
The
The
記憶部120は、また、センサー位置データ122、及びコンテンツデータ123を記憶する。センサー位置データ122は、後述する動き検出部185が演算処理に用いる演算式、パラメーター等を含む。コンテンツデータ123は、AR表示制御部186がAR表示するコンテンツの画像(静止画像、或いは動画像)データ、及び/又は音声データを含む。
The
制御部140には、センサー113、GPS115、及び通信部117が接続される。センサー113は、加速度センサーや角速度センサー等の慣性センサーを有し、制御部140はセンサー113の検出値を取得する。センサー113は、例えば3軸の加速度センサーや、3軸の加速度センサーと3軸の角速度センサーと3軸の磁気センサーとを有する9軸センサーとして構成してもよい。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
The
通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータ123を通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータ123をインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータ123を取得するデータ取得部DAとして機能する。
The
When the external device OA is wirelessly connected to the
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部140は、CPUにより制御プログラムを実行することで、頭部装着型表示装置100の各部を制御する。また、制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、制御部140の各種機能を実現する。すなわち、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、撮像処理部181、検出制御部183、動き検出部185、AR表示制御部186、及び、音声処理部187として機能する。
The
画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
The
Note that the
画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
The
表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
The
撮像処理部181は、上部カメラ61を制御して撮像を実行させ、撮像画像データを取得する。
検出制御部183は、第1センサー66及び第2センサー68のそれぞれを駆動して、検出値を取得する。例えば、頭部装着型表示装置100の電源投入時などに第1センサー66及び第2センサー68を初期化し、検出可能な状態とする。また、検出制御部183は、予め設定されたサンプリング周期で第1センサー66及び第2センサー68のそれぞれの検出値を取得する。本実施形態では、第1センサー66及び第2センサー68は、それぞれ、X軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)の角速度の検出値を出力する。この検出値は角速度の大きさと回転方向を含んでもよい。
The
The
動き検出部185は、検出制御部183が取得する第1センサー66及び第2センサー68の検出値に基づき、運動中心における動き量を算出する。運動中心は、第1センサー66及び第2センサー68が検出する動きから求められる使用者の頭部の動きの中心や基準の位置である。例えば、使用者の頭部が回転する場合、この回転の中心が運動中心に相当する。また、例えば使用者の頭部が直進する場合、運動中心の位置は特定の1点に定まらないが、この場合は便宜的に頭部の中心(図3のP1)を運動中心とする。
The
動き検出部185は、記憶部120が記憶するセンサー位置データ122を用いて、ヘッドトラッキングの演算を行う。センサー位置データ122は、第1センサー66の位置P3、第2センサー68の位置P4との相対的な位置関係または絶対位置を示すデータを含む。センサー位置データ122は、位置P3及びP4のそれぞれと、位置P1及び/又は位置P2との位置関係を示すデータを含んでもよい。また、センサー位置データ122は、第1センサー66及び第2センサー68の検出値から、運動中心における動き量と動き方向とを算出するために用いる演算式、テーブル、パラメーター等を含む。ここで、動き検出部185は、第1センサー66及び第2センサー68の検出結果に基づいて、運動中心の位置を算出してもよい。或いは、運動中心の位置を算出せず、運動中心における動き量を算出してもよい。動き量は、速度であってもよいし、速度と時間とを含んでもよいし、移動量であってもよい。
The
例えば、動き検出部185は、第1センサー66及び第2センサー68の角速度の検出値から、使用者の動きのX軸まわりの成分、Y軸まわりの成分、及びZ軸まわりの成分を求める。そして、動き検出部185は、第1センサー66及び第2センサー68の検出値と、センサー位置データ122の第1センサー66及び第2センサー68の位置とに基づき、X軸まわりの回転の中心、Y軸まわりの回転の中心、及びZ軸回りの回転の中心を求める。そして、動き検出部は、3次元の動きの中心、すなわち運動中心の位置と、運動中心における動きの方向、及び運動中心の動きの大きさ(或いは強さ)を求める。
For example, the
また、動き検出部185は、運動中心における動きの方向、大きさだけでなく、予め指定された点における動きの方向及び/又は大きさを求めてもよい。例えば、位置P1における動きの方向及び/又は大きさを求めてもよい。動き検出部185は、位置P1の動きの方向及び/又は大きさを求めるよう設定された場合、運動中心が位置P1に重ならない位置であれば、運動中心における動きの方向及び/又は大きさから、位置P1の動きの方向及び/又は大きさを算出して出力する。図3に示す位置P1は水平面内における位置を示すが、使用者の身長方向(Z軸方向)の位置を特定した3次元的な位置で、動きの方向及び/又は大きさを求めてもよい。
Further, the
AR表示制御部186は、記憶部120が記憶するコンテンツデータ123を読み出し、画像処理部160及び表示制御部170を制御して、AR表示用の画像を画像表示部20により表示させる。また、AR表示制御部186は、コンテンツデータ123が音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。
The AR
AR表示制御部186は、動き検出部185が出力する運動中心の動きの方向、及び動き量を示すデータに基づき、ARコンテンツの表示を制御する。
AR表示制御部186は、使用者が画像表示部20越しに対象物を見ている状態でARコンテンツを表示する。AR表示制御部186は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよい。AR表示制御部186は、撮像処理部181が取得する撮像画像データから、使用者の視界に位置する対象物を検出する。そして、AR表示制御部186は、検出した対象物に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。
The AR
The AR
AR表示制御部186は、画像表示部20を装着した使用者の頭部の動きに合わせて、ARコンテンツの表示位置を変更する処理や、ARコンテンツを切り替える処理を行う。例えば、使用者の頭部が、Z軸回りに設定値を超える角速度で回動する場合、AR表示制御部186はARコンテンツの表示を消去する。このような頭部の動きがある場合は使用者の視界が大きく動き、AR表示の対象物が視野から外れる可能性が高いためである。また、例えば、使用者の頭部がX軸方向に移動する場合、AR表示制御部186は、ARコンテンツの表示サイズを拡大、または縮小する。このような頭部の動きがある場合、使用者には、AR表示の対象物が大きく見えるようになる。このため、AR表示制御部186は、ARコンテンツを拡大してARコンテンツを見やすくするとよいし、対象物が見やすくなるようにARコンテンツを縮小してもよい。
The AR
AR表示制御部186が、使用者の頭部の動きに対応してARコンテンツの表示態様を変化させる態様は、設定データ121に含まれる設定値として、事前に設定される。また、制御部140が実行するプログラムに設定されることもあり得る。
ここで、AR表示制御部186の表示の制御は、使用者の頭部の中心(図3のP1)や頭部の前部の中心(図3のP2)における動きに対応する処理として設計される。頭部の中心や頭部の前部の中心の動きに合わせると、表示変化を設計する際にイメージし易く、シンプルで、間違いが起きにくく、効果的な表示変化を設計できるためである。このため、設定データ121には、使用者の頭部の中心や頭部の前部の中心における動きの設定値が設定される。AR表示制御部186は、動き検出部185が算出する使用者の頭部の中心や頭部の前部の中心における動きを、設定データ121と比較対照して、処理する。
A mode in which the AR
Here, the display control of the AR
上記とは異なる方法として、実際に動きを検出する第1センサー66、第2センサー68の位置における動きに対応して、AR表示制御部186の表示の制御を設計することも可能である。例えば、設定データ121に、第1センサー66及び第2センサー68の検出値に関する設定値を設定し、この設定値に基づきAR表示制御部186が処理を行う。この場合も、使用者の頭部の動きに対応して表示を制御できる。しかしながら、この設定値は、第1センサー66及び第2センサー68の位置に固定された値であり、頭部装着型表示装置100の仕様変更によりセンサーの位置や数が変化した場合は新たな設定値が必要になる。
これに対し、第1センサー66や第2センサー68の検出値から動きの基準の位置と、この基準の位置における動きを算出する方法では、設定値が装置固有の値ではなく、汎用性を持つ。従って、ARコンテンツの表示態様の制御が容易になり、効果的なAR表示が可能になるという利点がある。
As a method different from the above, it is also possible to design the display control of the AR
On the other hand, in the method of calculating the motion reference position from the detection values of the
音声処理部187は、AR表示制御部186の制御によりコンテンツの音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
The
画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262とを備える。また、画像表示部20は、上述した上部カメラ61、第1センサー66、及び第2センサー68を備える。上部カメラ61はフレーム2(図1)とは別体のカメラユニット3に設けられるが、インターフェイス25に接続される。
The
インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
インターフェイス25は、上部カメラ61、第1センサー66、及び第2センサー68を接続するインターフェイスである。上部カメラ61の撮像画像データや撮像信号、第1センサー66及び第2センサー68の検出結果等は、インターフェイス25を介して制御部140に送られる。
The
The
右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
The right
受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。
The
左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。
The left
受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
The
The right
図5は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、制御部140が、使用者の頭部の動きを求める動作を示す。
制御部140は、頭部装着型表示装置100の電源投入時、ARコンテンツの表示を開始する際、或いは、操作部135の操作により開始が指示された際に、センサーの検出を開始する(ステップS11)。制御部140の動き検出部185は、記憶部120からセンサー位置データ122を取得し(ステップS12)、検出制御部183は第1センサー66及び第2センサー68の検出値を取得する(ステップS13)。
FIG. 5 is a flowchart showing the operation of the head-mounted
The
動き検出部185は、検出制御部183が取得した第1センサー66の検出値と、センサー位置データ122に含まれる第1センサー66の位置に関するデータとを対応付ける(ステップS14)。また、ステップS14で、動き検出部185は、検出制御部183が取得した第2センサー68の検出値と、センサー位置データ122に含まれる第2センサー68の位置に関するデータとを対応付ける。
The
検出制御部183は、予め設定されたサンプリング周波数で第1センサー66及び第2センサー68の検出値を取得する。制御部140が図5のステップS11〜S17を繰り返し実行し、その実行周期が検出制御部183のサンプリング周期よりも長い場合、検出制御部183は、複数回の検出値の合計値、平均値、中央値などの値をステップS13で出力してもよい。この場合、ステップS14で、動き検出部185は、複数回の検出値から求められる合計値、平均値、中央値などの値と、各センサーの位置に関するデータとを対応付ける。
The
動き検出部185は、センサー位置データ122に基づき、第1センサー66及び第2センサー68の検出値から、運動中心における動きの方向、及び動きの量を算出する(ステップS15)。動き検出部185は、算出した動きの方向、及び動きの量に関するデータを、AR表示制御部186に出力し(ステップS16)、ステップS17に移行する。
Based on the
ステップS17で、制御部140は、動き検出の終了条件が成立したか否かを判定し(ステップS17)、終了条件が成立した場合は(ステップS17;YES)、本処理を終了する。また、終了条件が成立していない場合は(ステップS17;NO)、ステップS12に戻る。
In step S17, the
図5の処理では、第1センサー66及び第2センサー68の検出値が、検出制御部183の動作により、インターフェイス25を介して取得され、動き検出部185で処理される。ここで、検出制御部183が取得し動き検出部185が処理する検出値には、検出したセンサーを特定する情報と、検出または検出値を取得したタイミングを示す情報とが、付加されているとよい。この場合、第1センサー66及び/又は第2センサー68が、検出値をインターフェイス25に出力する際に、検出したセンサーが第1センサー66であるか第2センサー68を示すデータと、タイミングを示すデータとを付加してもよい。或いは、検出制御部183が、第1センサー66及び/又は第2センサー68の検出値を取得する際に、検出したセンサーが第1センサー66であるか第2センサー68を示すデータと、タイミングを示すデータとを付加してもよい。また、動き検出部185が、検出制御部183から検出値を取得する際に、検出したセンサーが第1センサー66であるか第2センサー68を示すデータと、タイミングを示すデータとを付加してもよい。
In the process of FIG. 5, the detection values of the
以上説明したように、使用者の頭部に装着される頭部装着型の頭部装着型表示装置100は、使用者の眼に画像光を照射する画像表示部20と、複数の動きセンサーとしての第1センサー66及び第2センサー68とを備える。第1センサー66及び第2センサー68のいずれかは、装着状態において頭部の中心より一方側に位置し、他の動きセンサーは頭部の中心より他方側に位置する。このため、使用者の頭部が動いた場合に、運動中心における動き量や動きの方向等を速やかに求めることができる。
As described above, the head-mounted head mounted
また、頭部装着型表示装置100において、第1センサー66及び第2センサー68のいずれかは、装着状態において頭部の中心より左側に位置し、他の動きセンサーは頭部の中心より右側に位置する。このため、動きセンサーの検出結果に基づいて、頭部の運動中心における動きを速やかに求めることができる。
In the head-mounted
また、画像表示部20は、使用者の眼に向けて画像光を放つハーフミラー261A、262Aを有する右導光板261、左導光板262を備える。第1センサー66及び第2センサー68と、ハーフミラー261A、262Aの中央位置とが直線状に並んで位置する。このため、第1センサー66及び第2センサー68の検出結果に基づいて、表示領域を構成する右導光板261、左導光板262の位置を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
The
また、右導光板261及び左導光板262は、使用者の眼に向けて画像光を放つ表示領域としてのハーフミラー261A、262Aを有する。ハーフミラーを用いて画像光を照射する光学素子を備えた構成で、複数の動きセンサーがハーフミラーの中央位置と直線状に並ぶ。このため、使用者が視認する画像の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
The right
さらに、画像表示部20は、眼鏡型のフレーム2を有し、第1センサー66及び第2センサー68が、フレーム2の中央に対して対称な位置にある。眼鏡型のフレーム2の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
また、フレーム2は、使用者の右眼の前に位置する右部2Aと、使用者の左眼の前に位置する左部2Bと、右部2Aと左部2Bとを連結するブリッジ部2Cとを有する。第1センサー66及び第2センサー68はブリッジ部2Cに対して対称な位置にある。このため、フレーム2の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
Further, the
The
なお、使用者が頭部と身体を合わせて動かした場合など、頭部が複雑に動いた場合、頭部の運動中心が複数になることがある。例えば、位置P1を中心とした回転の動きと、使用者の腰を中心とした回転の動きとが同時に発生すると、位置P1と、腰の位置とが、それぞれ運動中心である。この場合、動き検出部185は、複数の運動中心のそれぞれにおける動き量、動きの方向を求めてもよく、それぞれの運動中心の位置を求めてもよい。また、第1センサー66及び第2センサー68の検出結果から、全ての運動中心における動きを求めることができない場合があり得る。運動中心が複数ある場合は運動中心における動きを求める演算式の変数が多くなるためである。このような場合、動き検出部185は、検出制御部183により、各センサーの検出値を、時間を空けて複数回取得させ、複数回の検出値に基づき運動中心における動きを求めてもよい。
In addition, when the head moves in a complicated manner, such as when the user moves the head and the body together, the movement center of the head may be plural. For example, if a rotational movement around the position P1 and a rotational movement around the user's waist occur at the same time, the position P1 and the waist position are the centers of motion, respectively. In this case, the
第1実施形態では、動きセンサーの一例として、2つの慣性センサーである第1センサー66及び第2センサー68を設けた構成を例に挙げて説明した。本発明はこれに限定されず、動きセンサーとして、光学センサーを用いることができる。
例えば、慣性センサーと、光学センサーとを含む複数の動きセンサーを用いて、運動中心における動きを求めてもよい。また、例えば、複数の光学センサーを用いて、運動中心における動きを求めてもよい。
これらの場合について、第2実施形態として説明する。
In the first embodiment, as an example of the motion sensor, the configuration in which the
For example, the motion at the motion center may be obtained using a plurality of motion sensors including an inertial sensor and an optical sensor. Further, for example, the motion at the center of motion may be obtained using a plurality of optical sensors.
These cases will be described as a second embodiment.
[第2実施形態]
図6は、第2実施形態に係る頭部装着型表示装置100Aを構成する各部の機能ブロック図である。
第2実施形態の頭部装着型表示装置100Aは、画像表示部20に代えて、画像表示部200を有する。画像表示部200は、画像表示部20に、第1カメラ64、及び第2カメラ65を設けた構成であり、その他の各部は共通の構成である。従って、頭部装着型表示装置100Aにおいて、第1実施形態の頭部装着型表示装置100と共通する構成部については、同符号を付して図示及び説明を省略する。
[Second Embodiment]
FIG. 6 is a functional block diagram of each part constituting the head-mounted
The head-mounted
第1カメラ64及び第2カメラ65は、それぞれ、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。また、第1カメラ64及び第2カメラ65は、いずれも、可視光線を受光するカメラに限定されず、紫外線カメラや赤外線カメラ等、可視領域外の光で撮像するカメラであってもよい。第1カメラ64及び第2カメラ65は、光学センサーの一例であり、動きセンサーとして機能する。
The
第1カメラ64は、右部2Aにおいて第1センサー66の前方に配置される。第2カメラ65は、左部2Bにおいて第2センサー68の前方に設置される。第1カメラ64の画角は右光学像表示部26を透過して使用者の右眼に視認される範囲を含み、第2カメラ65の画角は、左光学像表示部28を透過して使用者の左眼に視認される範囲を含むことが好ましい。第1カメラ64及び第2カメラ65の画角は、上部カメラ61の画角と重複する範囲を含んでもよいし、重複しない範囲を含んでもよい。
The
撮像処理部181は、第1カメラ64及び第2カメラ65を制御して撮像を実行させ、撮像画像データを取得する。また、記憶部120が記憶するセンサー位置データ122は、第1カメラ64及び第2カメラ65の位置に関するデータを含む。動き検出部185は、撮像処理部181が取得する撮像画像データから、第1カメラ64又は第2カメラ65の位置における動きの方向及び動き量を求める。
The
頭部装着型表示装置100Aでは、4つの動きセンサーである第1カメラ64、第2カメラ65、第1センサー66、及び第2センサー68を組み合わせて、運動中心における動きを求めることができる。
動きセンサーの組合せは様々であるが、少なくとも、使用者の頭部の右側にある動きセンサーと、使用者の頭部の左側にある動きセンサーとを組み合わせることが望ましい。頭部装着型表示装置100Aでは、第1カメラ64と第2カメラ65、第1カメラ64と第2センサー68、第1センサー66と第2カメラ65、及び、第1センサー66と第2センサー68の4通りの組合せがある。このうち第1センサー66と第2センサー68とを用いる例は第1実施形態で説明した。
In the head-mounted
There are various combinations of motion sensors, but it is desirable to combine at least a motion sensor on the right side of the user's head and a motion sensor on the left side of the user's head. In the head-mounted
上記の組合せにおいて、選択される使用者の頭部の右側にある動きセンサーを右センサーとし、使用者の頭部の左側にある動きセンサーを左センサーとする。
右センサーの位置は、第1実施形態で説明した第1センサー66の位置にあり、左センサーの位置は第1実施形態で説明した第2センサー68の位置にあることが好ましい。すなわち、フレーム2の左右方向における中央位置をC1とすると、右センサーと左センサーとは、中央位置C1に対して対称な位置に設けられることが好ましい。また、右センサーの位置と左センサーの位置とを結ぶ直線はハーフミラー261A、262Aを通ることが、より好ましい。さらに好ましくは、右センサーの位置、左センサーの位置、ハーフミラー261Aの中心C2、及び、ハーフミラー262Aの中心C3が、同一直線上に並ぶ配置である。
In the above combination, the motion sensor on the right side of the selected user's head is the right sensor, and the motion sensor on the left side of the user's head is the left sensor.
The position of the right sensor is preferably the position of the
また、ハーフミラー261A、262Aの中心を含む水平面内における位置関係は上記の通りである。この水平面に対し垂直な、鉛直方向(高さ方向)においては、右センサー及び左センサーの位置と、ハーフミラー261A、262Aの中心とが、鉛直方向で近接していることが好ましい。例えば、右センサー及び左センサーが、ハーフミラー261A、262Aの側方にあるとよい。さらに、右センサー及び左センサーの位置と、ハーフミラー261A、262Aの中心とが、高さ方向において同一位置にあると、より好ましい。 The positional relationship in the horizontal plane including the centers of the half mirrors 261A and 262A is as described above. In the vertical direction (height direction) perpendicular to the horizontal plane, it is preferable that the positions of the right sensor and the left sensor are close to the centers of the half mirrors 261A and 262A in the vertical direction. For example, the right sensor and the left sensor may be on the side of the half mirrors 261A and 262A. Furthermore, it is more preferable that the positions of the right sensor and the left sensor and the centers of the half mirrors 261A and 262A are in the same position in the height direction.
また、本実施形態では、第1カメラ64、第2カメラ65、第1センサー66及び第2センサー68の全てを備えた構成を一例として説明する。これはあくまで一例であり、本発明は、上記の右センサーに該当する1つの動きセンサーと、左センサーに該当する1つの動きセンサーとを備えた構成であれば適用可能である。従って、第1カメラ64、第2カメラ65、第1センサー66及び第2センサー68のうち1または2のセンサーを排した構成であってもよい。
センサー位置データ122は、頭部装着型表示装置100Aが備える動きセンサーのうち、運動中心における動きを検出する動作で使用される動きセンサーについて、相対的な位置関係または絶対位置を示すデータを含む。
In the present embodiment, a configuration including all of the
The
図7は、第2実施形態の頭部装着型表示装置100Aの動作を示すフローチャートであり、特に、制御部140が、使用者の頭部の動きを求める動作を示す。
図7の動作では、第1カメラ64、第2カメラ65、第1センサー66及び第2センサー68のうち、頭部の動きを求める処理で使用する動きセンサーを選択し、設定可能な例を説明する。また、図7のフローチャートで、上述した図5と共通の動作には同ステップ番号を付して説明を省略する。
FIG. 7 is a flowchart showing the operation of the head-mounted
In the operation of FIG. 7, an example is described in which a motion sensor used in a process for obtaining head movement is selected from the
制御部140がセンサーの検出を開始すると(ステップS11)、動き検出部185は、センサー位置データ122を取得する(ステップS12)。動き検出部185は、センサー位置データ122の設定や操作部135の入力操作で設定される内容に従って、頭部装着型表示装置100Aが備える動きセンサーの中から、ヘッドトラッキングに使用する動きセンサーを選択する(ステップS23)。
When the
動き検出部185は、選択したセンサーがカメラを含むか否かを判定する(ステップS21)。第1カメラ64または第2カメラ65のいずれか1以上を選択した場合(ステップS21;YES)、撮像処理部181が、選択したカメラにより撮像を実行させ(ステップS22)、撮像画像データを取得する。動き検出部185は、撮像画像データを解析して、選択されたカメラの位置における動きの方向及び動き量を検出する(ステップS23)。動き検出部185は、検出した動きの方向及び動き量を、カメラの位置に対応付ける処理を行う(ステップS24)。
The
ここで、動き検出部185は、例えば、第1カメラ64が時間を空けて撮像した複数の撮像画像の差分を求め、求めた差分から、動きの方向と動き量とを求めてもよい。また、撮像処理部181が、第1カメラ64の露光時間を、動き検出用に長い時間に設定してもよい。この場合、第1カメラ64の撮像画像は、第1カメラ64の動きを反映してブレを生じる。動き検出部185は、撮像画像のブレの方向、ブレ量、及び露光時間に基づき、第1カメラ64の位置における動きの方向と動き量を検出できる。第2カメラ65の撮像画像についても同様である。
Here, for example, the
動き検出部185は、ステップS23で選択した動きセンサーがカメラのみであるか否かを判定する(ステップS25)。カメラ以外の動きセンサー、即ち、第1センサー66及び第2センサー68のいずれも選択しなかった場合(ステップS25;YES)、動き検出部185はステップS26に移行する。
一方、ステップS23で、第1センサー66または第2センサー68の少なくともいずれかを選択した場合(ステップS25;NO)、動き検出部185はステップS13に移行する。また、動き検出部185は、ステップS23で第1カメラ64及び第2カメラ65のいずれも選択しなかった場合(ステップS21;NO)、ステップS13に移行する。
The
On the other hand, when at least one of the
ステップS13で、検出制御部183は、第1センサー66及び/又は第2センサー68の検出値を取得する(ステップS13)。動き検出部185は、検出制御部183が取得した検出値と、センサー位置データ122に含まれるセンサーの位置に関するデータとを対応付ける(ステップS14)。その後、制御部140はステップS26に移行する。
In step S13, the
ステップS26で、動き検出部185は、センサー位置データ122に基づき、運動中心における動きの方向及び動き量を算出する(ステップS26)。ステップS26では、ステップS24で対応付けをした動き量と位置、及び/又は、ステップS14で対応付けをした動き量と位置を演算処理に用いる。その後、動き検出部185は、算出した動きの方向、及び動きの量に関するデータを、AR表示制御部186に出力し(ステップS16)、ステップS17に移行する。ステップS17で、制御部140は終了条件が成立したか否かを判定し(ステップS17)、終了条件が成立した場合は(ステップS17;YES)、本処理を終了する。また、終了条件が成立していない場合は(ステップS17;NO)、ステップS12に戻る。
In step S26, the
このように、頭部装着型表示装置100Aは、慣性センサーである第1センサー66及び第2センサー68に限定されず、光学センサーである第1カメラ64及び/又は第2カメラ65を使用して、運動中心における動きを求める。すなわち、光学センサー、及び、慣性センサーを含む動きセンサーの組合せにより、使用者の頭部の動きに関し、ヘッドトラッキングを実行できる。この場合、例えば撮像画像データをAR表示の対象物の検出に用いるなど、センサーの検出結果を他の用途にも活用できる。
また、複数の動きセンサーとして、光学センサーまたは慣性センサーのいずれか1種類を用いる場合は、同種のセンサーの検出結果を用い、ヘッドトラッキングの処理を、より軽負荷で速やかに実行できる。
Thus, the head-mounted
Further, when any one of an optical sensor and an inertial sensor is used as the plurality of motion sensors, the head tracking process can be executed promptly with a lighter load by using the detection result of the same type of sensor.
なお、上記第1及び第2実施形態では2つの動きセンサーの検出結果を基に動きを検出し、使用者の頭部の動きを求めていたが、3以上の動きセンサーの検出結果を用いることも勿論可能である。 In the first and second embodiments, the movement is detected based on the detection results of the two motion sensors and the movement of the user's head is obtained. However, the detection results of three or more motion sensors are used. Of course it is possible.
また、頭部装着型表示装置100、100Aでは、1つの動きセンサーが検出する複数の検出結果を、異なる動きセンサーの検出値として処理することもできる。これらの例について、変形例として図8に示す。
In the head-mounted
図8は、本発明の実施形態の変形例を示す説明図であり、(A)は第1変形例の処理の説明図であり、(B)は第2変形例の処理の説明図である。
図8(A)の例では、画像表示部20が有する第1センサー66を使用する。画像表示部20を装着した使用者の頭部が、位置P1を中心として、矢印Mで示すように回動する。この回動中に、検出制御部183は、第1センサー66の検出値を、時間差を設けて3回、取得する。矢印Mの運動は、少なくとも、1回目の検出時から3回目の検出時を含む間、継続する。
1回目の検出時における第1センサー66の位置を位置(1)、2回目の検出時の第1センサー66の位置を位置(2)、3回目の検出時の第1センサー66の位置を位置(3)とする。位置(1)は初期位置ともいえる。位置(1)、(2)、(3)は、頭部装着型表示装置100の設置環境の地面、床面、壁面等、運動しない基準に対する位置とすれば、互いに異なる位置である。
FIG. 8 is an explanatory diagram showing a modification of the embodiment of the present invention, (A) is an explanatory diagram of a process of the first modification, and (B) is an explanatory diagram of a process of the second modification. .
In the example of FIG. 8A, the
Position of the
この場合、動き検出部185は、1回目の検出値と位置(1)とを対応付け、2回目の検出値と位置(2)とを対応付け、3回目の検出値と位置(3)とを対応付けることで、擬似的に、異なる位置に配置された3つのセンサーの検出値を得る。位置(2)は、例えば、1回目と2回目の検出の時間間隔と1回目の検出値と位置(1)とから算出できる。位置(3)も同様に、2回目と3回目の検出の時間間隔と2回目の検出値と位置(2)とから算出できる。
これらの3つのセンサーの検出値を用いれば、運動中心P1における動きの方向及び動き量を求めることができる。この例で得られる演算結果は、1回目から3回目で検出した動きを1つの動きと見なした場合の、動きの方向及び動き量である。
In this case, the
Using the detection values of these three sensors, the direction and amount of movement at the movement center P1 can be obtained. The calculation result obtained in this example is the direction and amount of motion when the motion detected from the first time to the third time is regarded as one motion.
図8(B)の例では、頭部装着型表示装置100は第1センサー66を使用する。また、上記第1実施形態で第2センサー68が設けられた位置には仮想センサー69が設定される。第1センサー66の位置と仮想センサー69の位置との相対位置を示すデータが設定データ121に含まれる。
画像表示部20を装着した使用者の頭部が、位置P1を中心として、矢印Mで示すように回動する。この回動中に、検出制御部183は、第1センサー66の検出値を、時間差を設けて2回、取得する。矢印Mの運動は、少なくとも、1回目及び2回目の検出時を含む間、継続する。1回目の検出時における第1センサー66の位置を位置(4)、2回目の検出時の第1センサー66の位置を位置(5)とする。位置(4)、(5)は、頭部装着型表示装置100の設置環境の地面、床面、壁面等、運動しない基準に対する位置とすれば、互いに異なる位置である。位置(4)は初期位置ともいえる。
In the example of FIG. 8B, the head-mounted
The head of the user wearing the
動き検出部185は、1回目の検出値と位置(4)とを対応付け、2回目の検出値と位置(5)とを対応付けることで、擬似的に、異なる位置に配置された2つのセンサーの検出値を得る。位置(5)は、例えば、1回目と2回目の検出の時間間隔と1回目の検出値と位置(4)とから算出できる。位置(3)も同様に、2回目と3回目の検出の時間間隔と2回目の検出値から算出できる。
さらに、動き検出部185は、1回目の検出時における仮想センサー69の位置(仮想センサー69の初期位置)に基づき、仮想センサー69の検出値を算出する。仮想センサー69は第1センサー66と同様に構成される3軸の角速度センサーとされ、仮想センサー69の検出値は、仮想センサー69の位置、及び、第1センサー66の1回目の検出値から算出できる。
これにより、動き検出部185は、仮想センサー69の初期位置と検出値、第1センサー66の位置(4)と1回目の検出値、及び、第1センサー66の位置(5)と2回目の検出値とに基づき、3つのセンサーの位置と検出値の組合せを得る。これらの3つのセンサーの検出値を用いれば、運動中心P1における動きの方向及び動き量を求めることができる。この例で得られる演算結果は、1回目から2回目で検出した動きを1つの動きと見なした場合の、動きの方向及び動き量である。
The
Furthermore, the
Accordingly, the
このように、頭部装着型表示装置100、100Aでは、複数の動きセンサーを用いるだけでなく、1つの動きセンサーを利用して、頭部の運動中心における動きの方向や動き量を得ることができる。従って、上記第1、第2実施形態のように2つ以上の動きセンサーを用いる構成に限らず、本発明を適用できる。すなわち、本発明の複数の動きセンサーの一部は、仮想的なセンサーであってもよく、他のセンサーを利用して時間軸をずらすことで実現されるセンサーであってもよい。
Thus, in the head-mounted
なお、本発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
上記実施形態では、眼鏡型の外形を有するフレーム2を備えた画像表示部20、200について説明したが、フレーム2を、帽子やヘルメット等の身体防護具に組み込んだ構成とすることも可能である。すなわち、右表示駆動部22及び左表示駆動部24を含む光学系と、第1カメラ64、第2カメラ65、第1センサー66、及び第2センサー68のような動きセンサーとを支持する部分が眼鏡型であれば、外形は制限されない。また、カメラユニット3を、フレーム2に一体に設ける構成としてもよい。また、カメラユニット3は、フレーム2に対して、ヒンジ21A、23A以外の部材で連結して、より高い自由度で可動な構成にしてもよい。
The present invention is not limited to the configuration of each of the embodiments described above, and can be implemented in various modes without departing from the scope of the invention.
In the above embodiment, the
さらに、上記実施形態では、頭部装着型表示装置100、100Aは、画像表示部20、200と制御装置10とが分離され、接続部40を介して接続された構成として説明した。本発明はこれに限定されず、制御装置10を、画像表示部20、200と一体に構成してもよい。また、頭部装着型表示装置100、100Aは、少なくとも、表示を行う画像表示部20、200が、使用者(作業者、指令者)の頭部に装着される装置であればよい。制御装置10の装着状態は限定されない。このため、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20、200と分離して構成され、制御装置10と画像表示部20、200との間で無線通信により各種信号を送受信する構成としてもよい。
Furthermore, in the above-described embodiment, the head-mounted
また、例えば、画像表示部20が画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
また、画像光を使用者の眼に導く光学素子は、右導光板261、左導光板262に限定されない。すなわち、外部から装置に向けて入射する外光を透過し、画像光とともに使用者の眼に入射させる光学素子であればよい。例えば、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学素子を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学素子を採用してもよい。また、光学素子の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有する光学素子としてもよい。さらに、本発明の光学素子は、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
For example, as a configuration in which the
The optical elements that guide the image light to the user's eyes are not limited to the right
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導く部品であってもよく、ハーフミラー面を利用してもよい。
For example, the present invention can also be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eyes, and the laser light is incident on the user's eyes to scan the retina and form an image on the retina. A configuration that allows the user to visually recognize an image may be employed.
Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, a light emitting unit includes a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system. You may prepare. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be a component that guides light through a plurality of reflections, such as the right
また、図4及び図6に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図4、6の通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図4、図6に示す制御部140が、画像表示部20、200に設けられた構成としてもよく、この場合、制御部140と画像表示部20、200の制御部とが機能を分担してもよい。
4 and 6, at least a part of each functional block may be realized by hardware, or may be realized by cooperation of hardware and software. It is not limited to the structure which arrange | positions an independent hardware resource as follows. The program executed by the
2…フレーム(本体)、2A…右部、2B…左部、2C…ブリッジ部(連結部)、2D…テンプル部、2E…テンプル部、3…カメラユニット、3A…アーム部、3B…アーム部、3C…カメラ台座部、10…制御装置、20…画像表示部(表示部)、21…右保持部、21A、23A…ヒンジ、23…左保持部、40…接続部、61…上部カメラ、63…マイク、64…第1カメラ(動きセンサー、光学センサー)、65…第2カメラ(動きセンサー、光学センサー)、66…第1センサー(動きセンサー、慣性センサー)、68…第2センサー(動きセンサー、慣性センサー)、69…仮想センサー(動きセンサー、慣性センサー)、100、100A…頭部装着型表示装置(表示装置)、120…記憶部、121…設定データ、122…センサー位置データ、123…コンテンツデータ、135…操作部、140…制御部、160…画像処理部、170…表示制御部、181…撮像処理部、183…検出制御部、185…検出部、186…AR表示制御部、187…音声処理部、261…右導光板(光学素子)、261A…ハーフミラー(表示領域)、262…左導光板(光学素子)、262A…ハーフミラー(表示領域)。
2 ... Frame (main body), 2A ... right part, 2B ... left part, 2C ... bridge part (connection part), 2D ... temple part, 2E ... temple part, 3 ... camera unit, 3A ... arm part, 3B ... arm part DESCRIPTION OF
Claims (12)
使用者の眼に画像光を照射する表示部と、
複数の動きセンサーと、を備え、
いずれかの前記動きセンサーは、装着状態において前記頭部の中心より一方側に位置し、他の前記動きセンサーは前記頭部の中心より他方側に位置すること、
を特徴とする表示装置。 A head-mounted display device mounted on a user's head,
A display unit that emits image light to the user's eyes;
A plurality of motion sensors;
Any one of the motion sensors is located on one side from the center of the head in the mounted state, and the other motion sensor is located on the other side from the center of the head.
A display device.
を特徴とする請求項1記載の表示装置。 Any one of the motion sensors is located on the left side from the center of the head in the mounted state, and the other motion sensors are located on the right side of the center of the head.
The display device according to claim 1.
複数の前記動きセンサー、及び、前記光学素子の表示領域の中央位置が直線状に並んで位置すること、
を特徴とする請求項1または2記載の表示装置。 The display unit includes an optical element having a display region that emits image light toward the user's eyes,
A plurality of the motion sensors and the center position of the display area of the optical element are arranged in a straight line;
The display device according to claim 1 or 2.
を特徴とする請求項3記載の表示装置。 The optical element has a half mirror as a display area that emits image light toward the user's eyes;
The display device according to claim 3.
少なくとも2つの前記動きセンサーが、前記本体の中央に対して対称な位置にあること、
を特徴とする請求項1から4のいずれかに記載の表示装置。 Having a main body worn across the user's left and right eyes,
At least two of the motion sensors are symmetric with respect to the center of the body;
The display device according to claim 1, wherein:
少なくとも2つの前記動きセンサーが前記連結部に対して対称な位置にあること、
を特徴とする請求項5記載の表示装置。 The main body includes a right part located in front of the user's right eye, a left part located in front of the user's left eye, and the right part and the left part located in the center of the main body. And a connecting part for connecting
At least two of the motion sensors are in a symmetrical position with respect to the coupling part;
The display device according to claim 5.
を特徴とする請求項1から6のいずれかに記載の表示装置。 The plurality of motion sensors include at least an optical sensor and an inertial sensor;
The display device according to claim 1, wherein:
を特徴とする請求項1から6のいずれかに記載の表示装置。 The plurality of motion sensors are configured by any one of an optical sensor and an inertial sensor;
The display device according to claim 1, wherein:
を特徴とする請求項1から7のいずれかに記載の表示装置。 A motion detection unit that obtains a motion at the center of the motion of the user based on detection values of the plurality of motion sensors;
The display device according to claim 1, wherein:
を特徴とする請求項9記載の表示装置。 The motion detection unit obtains a motion at the center of the motion based on a detection value of each of the plurality of motion sensors and a position of the motion sensor;
The display device according to claim 9.
複数の前記動きセンサーの検出値に基づき、前記頭部の運動中心における動きを求めること、
を特徴とする表示装置の制御方法。 By a display device that is mounted on the user's head and irradiates the user's eyes with image light, and a plurality of motion sensors,
Obtaining a motion at the motion center of the head based on detection values of the plurality of motion sensors;
A control method of a display device characterized by the above.
を特徴とする請求項11記載の表示装置の制御方法。 Obtaining a motion at the center of the motion based on a detection value of each of the plurality of motion sensors and a position of the motion sensor;
The method for controlling a display device according to claim 11.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014253100A JP2016116066A (en) | 2014-12-15 | 2014-12-15 | Display device and control method of display device |
US14/968,384 US20160170482A1 (en) | 2014-12-15 | 2015-12-14 | Display apparatus, and control method for display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014253100A JP2016116066A (en) | 2014-12-15 | 2014-12-15 | Display device and control method of display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016116066A true JP2016116066A (en) | 2016-06-23 |
Family
ID=56142386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014253100A Pending JP2016116066A (en) | 2014-12-15 | 2014-12-15 | Display device and control method of display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016116066A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111781656A (en) * | 2020-07-30 | 2020-10-16 | 广州市南方人力资源评价中心有限公司 | Wearing state detection method, device, equipment and medium for head-mounted display equipment |
CN113467731A (en) * | 2020-03-30 | 2021-10-01 | 精工爱普生株式会社 | Display system, information processing apparatus, and display control method for display system |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03289615A (en) * | 1990-04-06 | 1991-12-19 | Toshiba Corp | Both-eye view display device |
JPH06167687A (en) * | 1992-11-30 | 1994-06-14 | Mitsubishi Electric Corp | Projector |
JPH09203637A (en) * | 1996-01-26 | 1997-08-05 | Olympus Optical Co Ltd | Attitude detector |
JP2001211403A (en) * | 2000-01-25 | 2001-08-03 | Mixed Reality Systems Laboratory Inc | Head mount display device and head mount display system |
JP2008256946A (en) * | 2007-04-05 | 2008-10-23 | Tokyo Institute Of Technology | Sickness prevention device for image display device |
JP2011002753A (en) * | 2009-06-22 | 2011-01-06 | Sony Corp | Head mounted display, and image display method for the same |
US8223024B1 (en) * | 2011-09-21 | 2012-07-17 | Google Inc. | Locking mechanism based on unnatural movement of head-mounted display |
JP2013117487A (en) * | 2011-12-05 | 2013-06-13 | Nikon Corp | Electronic device |
JP2013232744A (en) * | 2012-04-27 | 2013-11-14 | Bi2−Vision株式会社 | Display system, display adjustment system, display adjustment method and program |
JP2014093036A (en) * | 2012-11-06 | 2014-05-19 | Konica Minolta Inc | Guide information display device |
-
2014
- 2014-12-15 JP JP2014253100A patent/JP2016116066A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03289615A (en) * | 1990-04-06 | 1991-12-19 | Toshiba Corp | Both-eye view display device |
JPH06167687A (en) * | 1992-11-30 | 1994-06-14 | Mitsubishi Electric Corp | Projector |
JPH09203637A (en) * | 1996-01-26 | 1997-08-05 | Olympus Optical Co Ltd | Attitude detector |
JP2001211403A (en) * | 2000-01-25 | 2001-08-03 | Mixed Reality Systems Laboratory Inc | Head mount display device and head mount display system |
JP2008256946A (en) * | 2007-04-05 | 2008-10-23 | Tokyo Institute Of Technology | Sickness prevention device for image display device |
JP2011002753A (en) * | 2009-06-22 | 2011-01-06 | Sony Corp | Head mounted display, and image display method for the same |
US8223024B1 (en) * | 2011-09-21 | 2012-07-17 | Google Inc. | Locking mechanism based on unnatural movement of head-mounted display |
JP2013117487A (en) * | 2011-12-05 | 2013-06-13 | Nikon Corp | Electronic device |
JP2013232744A (en) * | 2012-04-27 | 2013-11-14 | Bi2−Vision株式会社 | Display system, display adjustment system, display adjustment method and program |
JP2014093036A (en) * | 2012-11-06 | 2014-05-19 | Konica Minolta Inc | Guide information display device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113467731A (en) * | 2020-03-30 | 2021-10-01 | 精工爱普生株式会社 | Display system, information processing apparatus, and display control method for display system |
CN113467731B (en) * | 2020-03-30 | 2023-06-02 | 精工爱普生株式会社 | Display system, information processing apparatus, and display control method of display system |
CN111781656A (en) * | 2020-07-30 | 2020-10-16 | 广州市南方人力资源评价中心有限公司 | Wearing state detection method, device, equipment and medium for head-mounted display equipment |
CN111781656B (en) * | 2020-07-30 | 2023-09-15 | 广州市南方人力资源评价中心有限公司 | Wearing state detection method, device, equipment and medium of head-mounted display equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6693060B2 (en) | Display system, display device, display device control method, and program | |
JP6492531B2 (en) | Display device and control method of display device | |
US9411160B2 (en) | Head mounted display, control method for head mounted display, and image display system | |
JP6225546B2 (en) | Display device, head-mounted display device, display system, and display device control method | |
JP6337418B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
CN105739095B (en) | Display device and control method of display device | |
US10782528B2 (en) | Head mounted display and control method thereof | |
JP6492638B2 (en) | Display device and control method of display device | |
JP6550885B2 (en) | Display device, display device control method, and program | |
JP6707823B2 (en) | Display device, display device control method, and program | |
AU2013351980A1 (en) | Direct hologram manipulation using IMU | |
JP2018142857A (en) | Head mounted display device, program, and control method of head mounted display device | |
JP6405991B2 (en) | Electronic device, display device, and control method of electronic device | |
US20160170482A1 (en) | Display apparatus, and control method for display apparatus | |
JP2016122177A (en) | Display device and control method of display device | |
JP6707809B2 (en) | Display device, display device control method, and program | |
JP2016224086A (en) | Display device, control method of display device and program | |
JP2016082466A (en) | Head-mounted display device, method for controlling head-mounted display device, and computer program | |
JP6575117B2 (en) | Display device, display device control method, and program | |
JP2016024208A (en) | Display device, method for controlling display device, and program | |
JP2016033759A (en) | Display device, method for controlling display device, and program | |
JP2017092628A (en) | Display device and display device control method | |
JP6565310B2 (en) | Display device, display device control method, and program | |
JP2016116066A (en) | Display device and control method of display device | |
JP2016090853A (en) | Display device, control method of display device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190516 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191008 |