[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016116066A - Display device and control method of display device - Google Patents

Display device and control method of display device Download PDF

Info

Publication number
JP2016116066A
JP2016116066A JP2014253100A JP2014253100A JP2016116066A JP 2016116066 A JP2016116066 A JP 2016116066A JP 2014253100 A JP2014253100 A JP 2014253100A JP 2014253100 A JP2014253100 A JP 2014253100A JP 2016116066 A JP2016116066 A JP 2016116066A
Authority
JP
Japan
Prior art keywords
sensor
motion
head
center
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014253100A
Other languages
Japanese (ja)
Inventor
健郎 矢島
Takeo Yajima
健郎 矢島
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014253100A priority Critical patent/JP2016116066A/en
Priority to US14/968,384 priority patent/US20160170482A1/en
Publication of JP2016116066A publication Critical patent/JP2016116066A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eyeglasses (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a head-wear type display device capable of swiftly executing processing with respect to a movement of a user head corresponding to motion-centered movement.SOLUTION: The head-wear type display device 100 includes: an image display unit 20 that irradiates a beam of image light to eyes of the user; and a first sensor 66 and a second sensor 68 as plural movement sensors. In a worn state, either one of the first sensor 66 and the second sensor 68 is positioned at one side with respect to the center of the head; and the other movement sensor is positioned at the other side with respect the center of the head.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置、及び、表示装置の制御方法に関する。   The present invention relates to a display device and a display device control method.

従来、頭部に装着する表示装置が知られている(例えば、特許文献1参照)。特許文献1記載のディスプレイは、眼鏡型のフレームにシースルーの導光手段を設けたディスプレイであり、フレームに撮像装置が取り付けられる。このディスプレイは、撮像装置によって撮像した画像と、導光手段を通してユーザーが視認する対象物の像とを一致させることで、補正データを生成し、その補正データに基づいて撮像データをユーザーの視野と一致させる。これにより、対象物の像に対して対象物に関する各種のデータを重ねて表示するAR(Augmented Reality)技術を実現する。
また、頭部に装着する装置が、頭部の動きを検出する例が知られている(例えば、特許文献2参照)。特許文献2には、眼鏡型のフレームを有し、眼鏡のテンプル部にセンサーを設けた眼鏡型操作デバイスが記載されている。このデバイスは、センサーの検出信号により、使用者が頭部を動かす、眼を動かすなどの動作を検出する。
Conventionally, a display device mounted on the head is known (for example, see Patent Document 1). The display described in Patent Document 1 is a display in which a see-through light guide is provided on a spectacle-shaped frame, and an imaging device is attached to the frame. The display generates correction data by matching an image captured by the imaging device with an image of an object visually recognized by the user through the light guide, and based on the correction data, the imaging data is used as the user's visual field. Match. As a result, AR (Augmented Reality) technology for displaying various data related to the object superimposed on the image of the object is realized.
In addition, an example in which a device mounted on the head detects the movement of the head is known (see, for example, Patent Document 2). Patent Document 2 describes a spectacle-type operating device that has a spectacle-type frame and is provided with a sensor in the temple portion of the spectacles. This device detects an operation such as a user moving his / her head or moving his / her eyes based on a detection signal of the sensor.

特開2011−2753号公報JP2011-27543A 特開2014−137522号公報JP 2014-137522 A

特許文献1記載のように、頭部に装着される表示装置において、頭部の動きに対応して表示を制御することが考えられる。この場合、例えば特許文献2に記載のように、センサーを用いて動きを検出することが考えられる。多くの場合、人間が頭部の動きでは、頭部の中心や顔の中心が運動の中心、或いは基準となる。運動の中心における動きを直接検出できれば、動作量や動作の方向を簡単かつ正確に求めることができるが、頭部の中心や顔の中心にセンサーを設けることは困難である。
本発明は上記事情に鑑みてなされたものであり、頭部装着型の表示装置において、使用者の頭部の動きについて、運動中心の動きに対応した処理を速やかに実行できるようにすることを目的とする。
As described in Patent Document 1, in a display device mounted on the head, it is conceivable to control display in accordance with the movement of the head. In this case, for example, as described in Patent Document 2, it is conceivable to detect movement using a sensor. In many cases, when a human moves his / her head, the center of the head or the center of the face becomes the center of motion or the reference. If the movement at the center of the movement can be directly detected, the movement amount and the direction of the movement can be obtained easily and accurately, but it is difficult to provide a sensor at the center of the head or the center of the face.
The present invention has been made in view of the above circumstances, and in a head-mounted display device, it is possible to quickly execute a process corresponding to a movement centered on a movement of a user's head. Objective.

上記課題を解決するため、本発明は、使用者の頭部に装着される頭部装着型の表示装置であって、使用者の眼に画像光を照射する表示部と、複数の動きセンサーと、を備え、いずれかの前記動きセンサーは、装着状態において前記頭部の中心より一方側に位置し、他の前記動きセンサーは前記頭部の中心より他方側に位置すること、を特徴とする。
本発明によれば、頭部の中心より一方側と他方側に配置された動きセンサーの検出結果を利用して、使用者の頭部が動いた場合に、運動中心における動き量や動きの方向等を速やかに求めることができる。
ここで、頭部の中心とは、使用者の身長に対し垂直な水平面における頭部の中心を指すが、例えば、両眼の高さ位置における水平面における中心を指してもよいし、使用者の頭部の3次元的な中心であってもよい。
In order to solve the above problems, the present invention is a head-mounted display device mounted on a user's head, the display unit for irradiating the user's eyes with image light, a plurality of motion sensors, Any one of the motion sensors is located on one side from the center of the head in the mounted state, and the other motion sensor is located on the other side from the center of the head. .
According to the present invention, when the user's head moves using the detection results of the motion sensors arranged on one side and the other side from the center of the head, the amount of movement and the direction of movement at the center of movement. Etc. can be promptly requested.
Here, the center of the head refers to the center of the head in a horizontal plane perpendicular to the height of the user. For example, the center of the head may refer to the center in the horizontal plane at the height position of both eyes. It may be the three-dimensional center of the head.

また、本発明は、上記表示装置において、いずれかの前記動きセンサーは、装着状態において前記頭部の中心より左側に位置し、他の前記動きセンサーは前記頭部の中心より右側に位置すること、を特徴とする。
本発明によれば、使用者の頭部が動いた場合に、頭部の運動中心における動き量や動きの方向等を速やかに求めることができる。
In the display device according to the aspect of the invention, any one of the motion sensors may be located on the left side of the center of the head in the mounted state, and the other motion sensors may be located on the right side of the center of the head. It is characterized by.
ADVANTAGE OF THE INVENTION According to this invention, when a user's head moves, the movement amount in the movement center of a head, the direction of a movement, etc. can be calculated | required rapidly.

また、本発明は、上記表示装置において、前記表示部は、前記使用者の眼に向けて画像光を放つ表示領域を有する光学素子を備え、複数の前記動きセンサー、及び、前記光学素子の表示領域の中央位置が直線状に並んで位置すること、を特徴とする。
本発明によれば、表示領域を構成する光学素子の位置を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
In the display device according to the aspect of the invention, the display unit includes an optical element having a display area that emits image light toward the user's eyes, and includes a plurality of the motion sensors and the display of the optical elements. The center position of the region is arranged in a straight line.
According to the present invention, it is possible to quickly obtain the amount of movement, the direction of movement, and the like at the center of motion in response to the motion centered on the position of the optical element that constitutes the display area.

また、本発明は、上記表示装置において、前記光学素子は前記使用者の眼に向けて画像光を放つ表示領域としてのハーフミラーを有すること、を特徴とする。
本発明によれば、使用者が視認できる画像の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
Moreover, the present invention is characterized in that, in the above display device, the optical element has a half mirror as a display area that emits image light toward the eyes of the user.
According to the present invention, it is possible to quickly determine the amount of movement, the direction of movement, and the like at the center of motion in response to the motion centered on the center of the image that can be visually recognized by the user.

また、本発明は、上記表示装置において、前記使用者の左右の眼の前に跨がって装着される本体を有し、少なくとも2つの前記動きセンサーが、前記本体の中央に対して対称な位置にあること、を特徴とする。
本発明によれば、複数の動きセンサーが使用者の動きの運動中心の両側で検出する可能性が高くなり、動き量や動きの方向等を速やかに求めることができる。
In the display device according to the present invention, the display device further includes a main body that is mounted in front of the left and right eyes of the user, and at least two of the motion sensors are symmetrical with respect to a center of the main body. It is in position.
According to the present invention, there is a high possibility that a plurality of motion sensors detect both sides of the motion center of the user's motion, and it is possible to quickly determine the amount of motion, the direction of motion, and the like.

また、本発明は、上記表示装置において、前記本体は、前記使用者の右眼の前に位置する右部と、前記使用者の左眼の前に位置する左部と、前記本体の中央に位置して前記右部と前記左部とを連結する連結部と、を有し、少なくとも2つの前記動きセンサーが前記連結部に対して対称な位置にあること、を特徴とする。
本発明によれば、眼鏡型の表示装置の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
In the display device according to the present invention, the main body includes a right part positioned in front of the user's right eye, a left part positioned in front of the user's left eye, and a center of the main body. And a connecting part that connects the right part and the left part, and at least two of the motion sensors are in symmetrical positions with respect to the connecting part.
According to the present invention, it is possible to quickly determine the amount of movement, the direction of movement, and the like at the center of motion in response to the motion centered on the center of the eyeglass-type display device.

また、本発明は、上記表示装置において、複数の前記動きセンサーは、少なくとも、光学センサー、及び、慣性センサーを含むこと、を特徴とする。
本発明によれば、異なる種類のセンサーの検出結果を用いることにより、使用者の頭部の動きに関する情報を得ることができ、センサーの検出値を他の用途にも活用できる。
In the display device according to the present invention, the plurality of motion sensors include at least an optical sensor and an inertial sensor.
According to the present invention, by using the detection results of different types of sensors, it is possible to obtain information on the movement of the user's head, and the detection values of the sensors can be used for other purposes.

また、本発明は、上記表示装置において、複数の前記動きセンサーは、光学センサー、及び、慣性センサーのうちいずれか1種類のセンサーで構成されること、を特徴とする。
本発明によれば、同種のセンサーの検出結果を用い、より容易に、使用者の頭部の動きに関する情報を得ることができる。
Moreover, the present invention is characterized in that, in the display device, the plurality of motion sensors are configured by any one of an optical sensor and an inertial sensor.
ADVANTAGE OF THE INVENTION According to this invention, the information regarding a user's head movement can be obtained more easily using the detection result of the same kind of sensor.

また、本発明は、上記表示装置において、複数の前記動きセンサーの検出値に基づいて、前記使用者の動きについて、動きの中心における動きを求める動き検出部を備えること、を特徴とする。
本発明によれば、複数の動きセンサーを利用して使用者の動きを的確に求めることができるので、動きに対応した処理を速やかに実行できる。
Further, the present invention is characterized in that the display device includes a motion detection unit that obtains a motion at the center of the motion of the user based on detection values of the plurality of motion sensors.
According to the present invention, a user's movement can be accurately obtained by using a plurality of movement sensors, so that processing corresponding to the movement can be quickly executed.

また、本発明は、上記表示装置において、前記動き検出部は、複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、を特徴とする。
本発明によれば、複数の動きセンサーを利用して、使用者の動きをより的確に求めることができるので、動きに対応した処理を速やかに実行できる。
Further, the present invention is characterized in that, in the display device, the motion detection unit obtains a motion at the center of the motion based on each detection value of the plurality of motion sensors and the position of the motion sensor. To do.
According to the present invention, since a user's movement can be obtained more accurately using a plurality of movement sensors, processing corresponding to the movement can be quickly executed.

また、上記課題を解決するため、本発明は、使用者の頭部に装着され、前記使用者の眼に画像光を照射する表示部と、複数の動きセンサーと、を備える表示装置により、複数の前記動きセンサーの検出値に基づき、前記頭部の運動中心における動きを求めること、を特徴とする。
本発明によれば、使用者の頭部が動いた場合に、運動中心における動き量や動きの方向等を速やかに求め、この動きに対応した処理を実行できる。
In order to solve the above problems, the present invention provides a plurality of display devices including a display unit that is mounted on a user's head and irradiates image light to the user's eyes, and a plurality of motion sensors. The movement at the movement center of the head is obtained based on the detection value of the movement sensor.
According to the present invention, when the user's head moves, the amount of movement and the direction of movement at the center of movement can be quickly obtained, and processing corresponding to this movement can be executed.

また、本発明は、上記表示装置の制御方法において、複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、を特徴とする。
本発明によれば、複数の動きセンサーを利用して使用者の動きを的確に求めることができるので、動きに対応した処理を速やかに実行できる。
According to the present invention, in the control method for the display device, the movement at the center of the movement is obtained based on the detection values of the plurality of movement sensors and the position of the movement sensor.
According to the present invention, a user's movement can be accurately obtained by using a plurality of movement sensors, so that processing corresponding to the movement can be quickly executed.

頭部装着型表示装置の外観構成を示す説明図。Explanatory drawing which shows the external appearance structure of a head mounting | wearing type display apparatus. 画像表示部の光学系の構成を示す図。The figure which shows the structure of the optical system of an image display part. 画像表示部を使用者の頭部に装着した状態を模式的に示す平面図。The top view which shows typically the state which mounted | wore the user's head with the image display part. 第1実施形態の頭部装着型表示装置を構成する各部の機能ブロック図。The functional block diagram of each part which comprises the head mounted display apparatus of 1st Embodiment. 第1実施形態の頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of the head mounted display apparatus of 1st Embodiment. 第2実施形態の頭部装着型表示装置を構成する各部の機能ブロック図。The functional block diagram of each part which comprises the head mounted display apparatus of 2nd Embodiment. 第2実施形態の頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of the head mounted display apparatus of 2nd Embodiment. 本発明の実施形態の変形例を示す説明図。Explanatory drawing which shows the modification of embodiment of this invention.

[第1実施形態]
図1は、本発明を適用した実施形態に係る頭部装着型表示装置100(表示装置)の外観構成を示す説明図である。
頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。
[First Embodiment]
FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device 100 (display device) according to an embodiment to which the present invention is applied.
The head-mounted display device 100 includes an image display unit 20 (display unit) that allows the user to visually recognize a virtual image while being mounted on the user's head, and a control device 10 that controls the image display unit 20. I have. The control device 10 also functions as a controller for the user to operate the head mounted display device 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム2(本体)を有する。フレーム2は、右保持部21及び左保持部23を有する。右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21は使用者の頭部において右耳またはその近傍に当接し、左保持部23は使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部20を保持する。   The image display unit 20 is a mounting body to be mounted on the user's head, and has a glasses-shaped frame 2 (main body) in the present embodiment. The frame 2 has a right holding part 21 and a left holding part 23. The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 contacts the right ear or the vicinity thereof on the user's head, and the left holding unit 23 contacts the user's left ear or the vicinity thereof and holds the image display unit 20 on the user's head. To do.

フレーム2には、右表示駆動部22と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、マイク63とが設けられる。
本実施形態では本体の一例として、眼鏡型のフレーム2を例示する。本体の形状は眼鏡型に限定されず、使用者の頭部に装着され固定されるものであればよく、使用者の左右の眼の前に跨がって装着される形状であれば、より好ましい。例えば、ここで説明する眼鏡型の他に、使用者の顔の上部を覆うスノーゴーグル様の形状であってもよいし、双眼鏡のように使用者の左右の眼のそれぞれの前方に配置される形状であってもよい。
眼鏡型のフレーム2は、使用者の右眼の前に位置する右部2A、及び、左眼の前に位置する左部2Bを有し、右部2Aと左部2Bとがブリッジ部2C(連結部)で連結された形状である。ブリッジ部2Cは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、右部2Aと左部2Bとを互いに連結する。
右部2A及び左部2Bは、それぞれテンプル部2D、2Eに連結される。テンプル部2D、2Eは眼鏡のテンプルのようにして、フレーム2を使用者の頭部に支持する。本実施形態のテンプル部2Dは右保持部21で構成され、テンプル部2Eは左保持部23で構成される。
右光学像表示部26は右部2Aに配置され、左光学像表示部28は左部2Bに配置される、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置する。
The frame 2 is provided with a right display drive unit 22, a left display drive unit 24, a right optical image display unit 26, a left optical image display unit 28, and a microphone 63.
In this embodiment, a spectacle-type frame 2 is illustrated as an example of the main body. The shape of the main body is not limited to the spectacles type, as long as it is attached and fixed to the user's head, and if it is a shape that is worn across the user's left and right eyes, preferable. For example, in addition to the eyeglass shape described here, it may have a snow goggles-like shape that covers the upper part of the user's face, and is arranged in front of the left and right eyes of the user like binoculars. It may be a shape.
The glasses-type frame 2 has a right part 2A located in front of the user's right eye and a left part 2B located in front of the left eye. The right part 2A and the left part 2B are bridge parts 2C ( It is the shape connected by the connection part). The bridge part 2C connects the right part 2A and the left part 2B to each other at a position corresponding to the eyebrow of the user when the user wears the image display part 20.
The right part 2A and the left part 2B are connected to the temple parts 2D and 2E, respectively. The temple portions 2D and 2E support the frame 2 on the user's head like temples of glasses. The temple portion 2D of the present embodiment is constituted by the right holding portion 21 and the temple portion 2E is constituted by the left holding portion 23.
The right optical image display unit 26 is arranged in the right part 2A, and the left optical image display unit 28 is arranged in the left part 2B. When the user wears the image display unit 20, the right and left of the user Located in front of the eyes.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. The right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as “display drive unit”, and the right optical image display unit 26 and the left optical image display unit 28 are simply referred to as “optical image display unit”. Also called.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、図2を参照して後述する投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、画像表示部20を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、光学素子である右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
The display drive units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 described later with reference to FIG.
The right optical image display unit 26 and the left optical image display unit 28 include light guide plates 261 and 262 (FIG. 2) and a light control plate 20A. The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes. The light control plate 20A is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. As the light control plate 20A, various materials such as a material that has almost no light transmission, a material that is nearly transparent, a material that attenuates the amount of light and transmits light, and a material that attenuates or reflects light of a specific wavelength may be used. it can. By appropriately selecting the optical characteristics (light transmittance, etc.) of the light control plate 20A, the external light amount incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to visually recognize the virtual image. You can adjust the ease. In the present embodiment, a case will be described in which at least a light control plate 20A having such a light transmittance that a user wearing the image display unit 20 can visually recognize an outside scene is used. The light control plate 20A protects the right light guide plate 261 and the left light guide plate 262, which are optical elements, and suppresses damage to the right light guide plate 261 and the left light guide plate 262, adhesion of dirt, and the like.
The dimming plate 20A may be detachable from the right optical image display unit 26 and the left optical image display unit 28, or may be mounted by replacing a plurality of types of dimming plates 20A, or may be omitted. .

また、フレーム2には、カメラユニット3が設けられる。カメラユニット3は、上部カメラ61が配置されるカメラ台座部3Cと、カメラ台座部3Cを支持するアーム部3A、3Bとを有する。アーム部3Aは、右保持部21の先端部APに設けられたヒンジ21Aにより、回動可能に右保持部21に連結される。アーム部3Bは、左保持部23の先端部APに設けられたヒンジ23Aにより、回動可能に左保持部23に連結される。このため、カメラユニット3は全体として、図中矢印Kで示す方向、すなわち装着状態において上下に回動可能である。カメラユニット3は、回動範囲の下端でフレーム2に接する。また、カメラユニット3の回動範囲の上端はヒンジ21A、23Aの仕様等で決定される。   The frame 2 is provided with a camera unit 3. The camera unit 3 includes a camera pedestal 3C on which the upper camera 61 is disposed, and arms 3A and 3B that support the camera pedestal 3C. The arm portion 3A is rotatably connected to the right holding portion 21 by a hinge 21A provided at the distal end portion AP of the right holding portion 21. The arm 3 </ b> B is rotatably connected to the left holding part 23 by a hinge 23 </ b> A provided at the distal end part AP of the left holding part 23. Therefore, the camera unit 3 as a whole can be rotated up and down in the direction indicated by the arrow K in the drawing, that is, in the mounted state. The camera unit 3 contacts the frame 2 at the lower end of the rotation range. The upper end of the rotation range of the camera unit 3 is determined by the specifications of the hinges 21A and 23A.

カメラ台座部3Cは、右部2A、左部2B及びブリッジ部2Cの上部に跨がって位置する板状または棒状部材であり、ブリッジ部2Cの上に相当する位置に、上部カメラ61が埋込設置される。上部カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
上部カメラ61は、頭部装着型表示装置100の表側方向、換言すれば、画像表示部20を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。上部カメラ61の画角の広さは適宜設定可能であるが、例えばカメラユニット3の回動範囲の下端において、上部カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含むことが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるように上部カメラ61の撮像範囲が設定されているとより好ましい。
上部カメラ61は、制御部140が備える撮像処理部181(図4)の制御に従って撮像を実行し、撮像画像データを撮像処理部181に出力する。
The camera pedestal portion 3C is a plate-like or bar-like member that extends over the right part 2A, the left part 2B, and the bridge part 2C, and the upper camera 61 is embedded in a position corresponding to the bridge part 2C. It is installed complicatedly. The upper camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like, and may be a monocular camera or a stereo camera.
The upper camera 61 images at least a part of the outside scene in the front side direction of the head-mounted display device 100, in other words, the user's visual field direction when the image display unit 20 is mounted. The width of the angle of view of the upper camera 61 can be set as appropriate. For example, at the lower end of the rotation range of the camera unit 3, the imaging range of the upper camera 61 is the right optical image display unit 26, the left optical image. It is preferable that the outside world visually recognized through the display part 28 is included. Furthermore, it is more preferable that the imaging range of the upper camera 61 is set so that the entire field of view of the user through the light control plate 20A can be imaged.
The upper camera 61 executes imaging in accordance with the control of the imaging processing unit 181 (FIG. 4) included in the control unit 140, and outputs captured image data to the imaging processing unit 181.

画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。   The image display unit 20 is connected to the control device 10 via the connection unit 40. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control device 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the housing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and is connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24.

連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。   The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A microphone 63 is provided in the vicinity of the earphone plug 30. The earphone plug 30 to the microphone 63 are combined into one cord, and the cord branches from the microphone 63 and is connected to each of the right earphone 32 and the left earphone 34.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collecting unit of the microphone 63 faces the user's line of sight, collects sound, and sends the sound signal to the sound processing unit 187 (FIG. 4). Output. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。   The right cord 42, the left cord 44, and the main body cord 48 only need to be capable of transmitting digital data, and can be constituted by, for example, a metal cable or an optical fiber. Further, the right cord 42 and the left cord 44 may be combined into a single cord.

画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。   The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. The end of the main body cord 48 opposite to the connecting member 46 and the control device 10 are provided with connectors (not shown) that fit together. By fitting the connector of the main body cord 48 and the connector of the control device 10 or removing this fitting, the control device 10 and the image display unit 20 can be contacted and separated.

制御装置10は、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。   The control device 10 controls the head-mounted display device 100. The control device 10 includes switches including an enter key 11, a lighting unit 12, a display switching key 13, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. In addition, the control device 10 includes a track pad 14 that is operated by a user with fingers.

決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。   The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control device 10. The lighting unit 12 includes a light source such as an LED (Light Emitting Diode), and notifies the operating state (for example, power ON / OFF) of the head-mounted display device 100 according to the lighting state of the light source. The display switching key 13 outputs, for example, a signal instructing switching of the image display mode in response to the pressing operation.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、頭部装着型表示装置100の電源オン/オフを切り替えるスイッチである。   The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or the like can be adopted. The luminance switching key 15 outputs a signal instructing increase / decrease of the luminance of the image display unit 20 in response to the pressing operation. The direction key 16 outputs an operation signal in response to a pressing operation on a key corresponding to the up / down / left / right direction. The power switch 18 is a switch for switching power on / off of the head-mounted display device 100.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、左バックライト222、左LCD242、及び左投写光学系252を備える。左バックライト222はLED等の光源と拡散板とを有する。左LCD242は、左バックライト222の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。左投写光学系252は、左LCD242を透過した画像光Lを導くレンズ群等を備える。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. FIG. 2 shows the user's left eye LE and right eye RE for explanation.
The left display drive unit 24 includes a left backlight 222, a left LCD 242, and a left projection optical system 252. The left backlight 222 has a light source such as an LED and a diffusion plate. The left LCD 242 is a transmissive liquid crystal panel that is arranged on the optical path of light emitted from the diffusion plate of the left backlight 222 and has a plurality of pixels arranged in a matrix. The left projection optical system 252 includes a lens group that guides the image light L transmitted through the left LCD 242.

左投写光学系252は、左LCD242から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、左導光板262(光学素子)に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
The left projection optical system 252 includes a collimator lens that converts the image light L emitted from the left LCD 242 into a parallel light beam. The image light L converted into a parallel light beam by the collimating lens is incident on the left light guide plate 262 (optical element). The left light guide plate 262 is a prism formed with a plurality of reflecting surfaces that reflect the image light L, and the image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 262. The left light guide plate 262 is formed with a half mirror 262A (reflection surface) positioned in front of the left eye LE.
The image light L reflected by the half mirror 262A is emitted from the left optical image display unit 28 toward the left eye LE, and this image light L forms an image on the retina of the left eye LE so that the user can visually recognize the image.

右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、右バックライト221、右LCD241、及び右投写光学系251を備える。右バックライト221はLED等の光源と拡散板とを有する。右LCD241は、右バックライト221の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241を透過した画像光Lを導くレンズ群等を備える。   The right display driving unit 22 is configured to be symmetrical with the left display driving unit 24. The right display drive unit 22 includes a right backlight 221, a right LCD 241, and a right projection optical system 251. The right backlight 221 includes a light source such as an LED and a diffusion plate. The right LCD 241 is a transmissive liquid crystal panel that is arranged on the optical path of light emitted from the diffusion plate of the right backlight 221 and has a plurality of pixels arranged in a matrix. The right projection optical system 251 includes a lens group that guides the image light L transmitted through the right LCD 241.

右投写光学系251は、右LCD241から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、右導光板261(光学素子)に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
The right projection optical system 251 has a collimator lens that converts the image light L emitted from the right LCD 241 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimating lens is incident on the right light guide plate 261 (optical element). The right light guide plate 261 is a prism formed with a plurality of reflecting surfaces that reflect the image light L, and the image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 261. The right light guide plate 261 is formed with a half mirror 261A (reflection surface) located in front of the right eye RE.
The image light L reflected by the half mirror 261A is emitted from the right optical image display unit 26 toward the right eye RE, and this image light L forms an image on the retina of the right eye RE to make the user visually recognize the image.

使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、頭部装着型表示装置100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、頭部装着型表示装置100は、シースルー型の表示装置として機能する。   The image light L reflected by the half mirror 261A and the external light OL transmitted through the light control plate 20A are incident on the right eye RE of the user. The image light L reflected by the half mirror 262A and the external light OL transmitted through the light control plate 20A are incident on the left eye LE. As described above, the head-mounted display device 100 causes the image light L and the external light OL of the internally processed image to overlap each other and enter the user's eyes, and for the user, seeing through the light control plate 20A. An outside scene can be seen, and an image by the image light L is visually recognized over the outside scene. Thus, the head-mounted display device 100 functions as a see-through display device.

なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “left light guide unit”, and the right projection optical system 251 and the right light guide plate 261 are collectively referred to as “right light guide unit”. The configuration of the right light guide and the left light guide is not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user's eyes using image light. It may be used, or a semi-transmissive reflective film may be used.

また、図1及び図2に示すように、フレーム2には2つの動きセンサーが取り付けられる。本第1実施形態の動きセンサーは、慣性センサーであり、具体的には第1センサー66及び第2センサー68である。第1センサー66は右部2Aにおいてテンプル部2D側の端に配置され、第2センサー68は左部2Bにおいてテンプル部2E側の端部に設置される。第1センサー66及び第2センサー68は、加速度センサーや角速度センサー(ジャイロセンサー)等の慣性センサーであり、本実施形態では、3軸のジャイロセンサーとする。第1センサー66及び第2センサー68は、それぞれ、内蔵する検出機構の測定基準点において、後述するX軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。以下の説明で、第1センサー66及び第2センサー68の位置は、測定基準点の位置をいう。   As shown in FIGS. 1 and 2, two motion sensors are attached to the frame 2. The motion sensor of the first embodiment is an inertial sensor, specifically, a first sensor 66 and a second sensor 68. The first sensor 66 is disposed at the end on the temple portion 2D side in the right portion 2A, and the second sensor 68 is disposed at the end on the temple portion 2E side in the left portion 2B. The first sensor 66 and the second sensor 68 are inertial sensors such as an acceleration sensor and an angular velocity sensor (gyro sensor). In the present embodiment, the first sensor 66 and the second sensor 68 are triaxial gyro sensors. The first sensor 66 and the second sensor 68 are respectively rotated around the X axis (pitch), rotated around the Y axis (yaw), and rotated around the Z axis (described later) at the measurement reference point of the built-in detection mechanism. Roll). In the following description, the positions of the first sensor 66 and the second sensor 68 are the positions of measurement reference points.

図3は、画像表示部20を使用者の頭部に装着した状態を模式的に示す平面図である。
第1センサー66及び第2センサー68のいずれかのセンサーは、使用者の頭部の中心の一方側にあり、他のセンサーは、使用者の頭部の中心の他方側にある。具体的には、第1センサー66は使用者の頭部の右側にあり、第2センサー68は左側にある。
本実施形態で、頭部の中心とは、使用者の身長に対し垂直な水平面における頭部の中心を指す。第1センサー66及び第2センサー68の水平面における位置は、この水平面における頭部の中心を挟んで、右側と左側にある。
なお、頭部装着型表示装置100は、高さ方向(身長の方向)における頭部の中心を特定してもよく、この場合、例えば、両眼の高さ位置における水平面における中心を、「頭部の中心」としてもよい。また、例えば頭頂部から頸椎の上端までを頭部として、使用者の頭部の3次元的な中心を求め、この中心を、「頭部の中心」としてもよい。
使用者の頭部の中心の位置は、実際に測定して求めてもよいし、使用者の身長や頭囲のサイズから推定してもよい。例えば、身長や頭囲から頭部の中心の位置を推定するパラメーターや演算式が、統計的な手法により予め得られた場合に、このパラメーターや演算式を用いて頭部の中心の位置を求めてもよい。
FIG. 3 is a plan view schematically showing a state in which the image display unit 20 is mounted on the user's head.
One of the first sensor 66 and the second sensor 68 is on one side of the center of the user's head, and the other sensor is on the other side of the center of the user's head. Specifically, the first sensor 66 is on the right side of the user's head and the second sensor 68 is on the left side.
In the present embodiment, the center of the head refers to the center of the head in a horizontal plane perpendicular to the height of the user. The positions of the first sensor 66 and the second sensor 68 in the horizontal plane are on the right side and the left side of the center of the head in the horizontal plane.
The head-mounted display device 100 may specify the center of the head in the height direction (height direction). In this case, for example, the center in the horizontal plane at the height position of both eyes It may be the “center of the part”. Further, for example, the three-dimensional center of the user's head may be obtained using the head from the top of the head to the upper end of the cervical vertebra, and this center may be used as the “head center”.
The center position of the user's head may be obtained by actual measurement, or may be estimated from the height of the user and the size of the head circumference. For example, when a parameter or calculation formula that estimates the center position of the head from height or head circumference is obtained in advance by a statistical method, the center position of the head is calculated using this parameter or calculation formula. May be.

より好ましくは、図2及び図3の平面図に示すように、本実施形態では、第1センサー66は右導光板261の側方に配置され、第2センサー68は左導光板262の側方に配置される。フレーム2の左右方向における中央位置をC1とすると、使用者に画像光を視認させる表示領域であるハーフミラー261Aの中心C2と、ハーフミラー262Aの中心C3とは、中央位置C1に対して対称な位置にある。言い換えれば、中央位置C1はハーフミラー261Aの中心C2とハーフミラー262Aの中心C3との中点にある。
このように、第1センサー66及び第2センサー68は、中央位置C1に対して対称な位置に設けられることが好ましい。そして、第1センサー66の位置と第2センサー68の位置とを結ぶ直線は、ハーフミラー261A、262Aを通る。つまり、第1センサー66の位置、第2センサー68の位置、ハーフミラー261Aの中心C2、及びハーフミラー262Aの中心C3が、同一直線上に並ぶ。
More preferably, as shown in the plan views of FIGS. 2 and 3, in the present embodiment, the first sensor 66 is disposed on the side of the right light guide plate 261, and the second sensor 68 is on the side of the left light guide plate 262. Placed in. Assuming that the center position in the left-right direction of the frame 2 is C1, the center C2 of the half mirror 261A, which is a display area for allowing the user to visually recognize the image light, and the center C3 of the half mirror 262A are symmetrical with respect to the center position C1. In position. In other words, the center position C1 is at the midpoint between the center C2 of the half mirror 261A and the center C3 of the half mirror 262A.
Thus, it is preferable that the first sensor 66 and the second sensor 68 are provided at positions symmetrical with respect to the center position C1. A straight line connecting the position of the first sensor 66 and the position of the second sensor 68 passes through the half mirrors 261A and 262A. That is, the position of the first sensor 66, the position of the second sensor 68, the center C2 of the half mirror 261A, and the center C3 of the half mirror 262A are aligned on the same straight line.

上記にハーフミラー261A、262Aの中心を含む水平面内における位置関係を説明したが、この水平面に対し垂直な、鉛直方向(高さ方向)における位置関係は、特に制限はない。第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、鉛直方向で近接していることが好ましい。例えば、第1センサー66及び第2センサー68の位置が、ハーフミラー261A、262Aの側方にあるとよい。さらに、第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、高さ方向において同一位置にあると、より好ましい。   Although the positional relationship in the horizontal plane including the centers of the half mirrors 261A and 262A has been described above, the positional relationship in the vertical direction (height direction) perpendicular to the horizontal plane is not particularly limited. It is preferable that the positions of the first sensor 66 and the second sensor 68 and the centers of the half mirrors 261A and 262A are close to each other in the vertical direction. For example, the positions of the first sensor 66 and the second sensor 68 may be on the side of the half mirrors 261A and 262A. Furthermore, it is more preferable that the positions of the first sensor 66 and the second sensor 68 and the centers of the half mirrors 261A and 262A are at the same position in the height direction.

第1センサー66が角速度を検出する軸は、図1に示すように、画像表示部20を装着する使用者の頭部に対し左右方向をX軸、前後方向をY軸、上下方向をZ軸とする。より詳細には、頭部装着型表示装置100の装着状態において、画像表示部20は左右の眼に対し、使用者が知覚する水平な位置にある。この装着状態において、第1センサー66及び第2センサー68の検出軸(X軸、Y軸、Z軸)が、使用者が知覚する左右、前後、及び上下に一致する構成である。仮に、画像表示部20の装着位置が使用者の頭部に対して傾いたり、ずれたりすれば、第1センサー66及び第2センサー68の検出軸は、左右、前後、上下からずれるが、この問題は使用者が画像表示部20の傾き及びずれを調整することで容易に解消する。
頭部装着型表示装置100は、第1センサー66及び第2センサー68により、画像表示部20を装着した状態で使用者の頭部の動きを検出する。これらの動きセンサーが検出する動きは、第1センサー66の測定基準点(図3のP3)、及び、第2センサー68の測定基準点(図3のP4)における動きである。
As shown in FIG. 1, the first sensor 66 detects the angular velocity with respect to the head of the user wearing the image display unit 20 in the left-right direction as the X axis, the front-rear direction as the Y axis, and the vertical direction as the Z axis. And More specifically, when the head-mounted display device 100 is worn, the image display unit 20 is in a horizontal position that is perceived by the user with respect to the left and right eyes. In this wearing state, the detection axes (X axis, Y axis, Z axis) of the first sensor 66 and the second sensor 68 are configured to coincide with the left, right, front, back, and top, as perceived by the user. If the mounting position of the image display unit 20 tilts or deviates with respect to the user's head, the detection axes of the first sensor 66 and the second sensor 68 deviate from the left, right, front, back, and top. The problem is easily solved by the user adjusting the inclination and displacement of the image display unit 20.
The head-mounted display device 100 detects the movement of the user's head while wearing the image display unit 20 by the first sensor 66 and the second sensor 68. The movements detected by these motion sensors are movements at the measurement reference point (P3 in FIG. 3) of the first sensor 66 and the measurement reference point (P4 in FIG. 3) of the second sensor 68.

頭部装着型表示装置100は、後述するAR表示制御部186の機能によってARコンテンツの表示を行う場合、使用者の頭部の動きの検出(ヘッドトラッキング)を行い、検出した使用者の頭部の動きに対応して表示態様を変化させる。
ヘッドトラッキングにおいては頭部の運動(動き)の基準位置を想定し、この基準位置における動きを求めることが望ましい。上述したように、人間が頭部を動かすとき、頭部の中心(図3の位置P1に相当)または頭部の前部(図3の位置P2に相当)が、動きの中心、或いは基準となることが多い。ここで、動きの中心、或いは基準となる位置を、運動中心と呼ぶ。頭部装着型表示装置100が動きを検出する場合は、使用者の頭だけが動いた場合に限らず、使用者の頭と頭以外の身体とが合わせて動いた場合も、動きを検出する。従って、頭部装着型表示装置100が検出する動きは頭部の動きであるが、この動きの運動中心が、使用者の頭部の外側にあることもあり得る。
The head-mounted display device 100 detects the movement of the user's head (head tracking) and displays the detected user's head when the AR content is displayed by the function of the AR display control unit 186 described later. The display mode is changed corresponding to the movement of the.
In head tracking, it is desirable to assume a reference position of head movement (movement) and obtain the movement at this reference position. As described above, when a human moves the head, the center of the head (corresponding to position P1 in FIG. 3) or the front of the head (corresponding to position P2 in FIG. 3) Often becomes. Here, the center of motion or the reference position is called the motion center. When the head-mounted display device 100 detects a motion, the motion is detected not only when the user's head moves, but also when the user's head and a body other than the head move together. . Therefore, the movement detected by the head-mounted display device 100 is the movement of the head, but the movement center of this movement may be outside the user's head.

ヘッドトラッキングの処理では、運動中心における動きを求める。運動中心の動きを直接検出するためには、運動中心となりやすい位置、例えば位置P1や位置P2に動きセンサーを配置する必要があり、現実的でない。そこで、頭部装着型表示装置100は、第1センサー66及び第2センサー68の検出結果に基づく演算処理により、運動中心における動きを算出する。この演算処理に用いる演算式、テーブル、パラメーター等は、後述するセンサー位置データ122として、予め記憶されている。   In the head tracking process, the motion at the motion center is obtained. In order to directly detect the movement of the movement center, it is necessary to arrange a movement sensor at a position where the movement center is likely to be, for example, the position P1 or the position P2, which is not realistic. Therefore, the head-mounted display device 100 calculates a motion at the center of motion through arithmetic processing based on the detection results of the first sensor 66 and the second sensor 68. Arithmetic formulas, tables, parameters, and the like used for this arithmetic processing are stored in advance as sensor position data 122 described later.

そして、第1センサー66及び第2センサー68の位置が、ある種の条件を満たしている場合、運動中心における動きを算出する演算処理が容易になり、軽負荷で実行でき、より正確に運動中心(例えば位置P1、P2)における動きを算出できる。
この条件は、上述したように、第1センサー66及び第2センサー68のいずれかのセンサーは使用者の頭部の中心の一方側にあり、他のセンサーは、使用者の頭部の中心の他方側にあることである。この場合、頭部の中心P1を運動中心とする運動が行われた場合に、運動中心における動きを容易に算出できる。
When the positions of the first sensor 66 and the second sensor 68 satisfy a certain condition, the arithmetic processing for calculating the motion at the motion center becomes easy, can be executed with a light load, and more accurately the motion center. The motion at (for example, positions P1, P2) can be calculated.
As described above, this condition is that one of the first sensor 66 and the second sensor 68 is on one side of the center of the user's head, and the other sensor is on the center of the user's head. It is on the other side. In this case, when the motion centered on the center P1 of the head is performed, the motion at the motion center can be easily calculated.

また、より好ましくは、第1センサー66は右導光板261の側方に配置され、第2センサー68は左導光板262の側方に配置されることである。さらに、第1センサー66及び第2センサー68は、中央位置C1に対して対称な位置に設けられることが、より好ましい。第1センサー66の位置、第2センサー68の位置、ハーフミラー261Aの中心C2、及びハーフミラー262Aの中心C3が、同一直線上に並ぶことが、さらに好ましい。この場合、頭部の中心P1、または前部の中心P2を運動中心とする運動が行われた場合に、運動中心における動きを容易に算出できる。
また、鉛直方向(高さ方向)における位置関係は、第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、鉛直方向で近接していることが好ましい。さらに、第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、高さ方向において同一位置にあると、より好ましい。
More preferably, the first sensor 66 is disposed on the side of the right light guide plate 261, and the second sensor 68 is disposed on the side of the left light guide plate 262. Furthermore, it is more preferable that the first sensor 66 and the second sensor 68 are provided at positions symmetrical with respect to the central position C1. More preferably, the position of the first sensor 66, the position of the second sensor 68, the center C2 of the half mirror 261A, and the center C3 of the half mirror 262A are aligned on the same straight line. In this case, when the motion centered on the head center P1 or the front center P2 is performed, the motion at the motion center can be easily calculated.
The positional relationship in the vertical direction (height direction) is preferably such that the positions of the first sensor 66 and the second sensor 68 and the centers of the half mirrors 261A and 262A are close to each other in the vertical direction. Furthermore, it is more preferable that the positions of the first sensor 66 and the second sensor 68 and the centers of the half mirrors 261A and 262A are at the same position in the height direction.

図4は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
頭部装着型表示装置100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
FIG. 4 is a functional block diagram of each part constituting the head-mounted display device 100.
The head-mounted display device 100 includes an interface 125 for connecting various external devices OA that are content supply sources. As the interface 125, for example, an interface corresponding to wired connection such as a USB interface, a micro USB interface, a memory card interface, or the like may be used, and the interface 125 may be configured by a wireless communication interface. The external device OA is an image supply device that supplies an image to the head-mounted display device 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used.

制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部135に接続される。操作部135は、上記のトラックパッド14、方向キー16、電源スイッチ18等を含み、入力情報取得部110は、操作部135から入力される信号に基づき、入力内容を取得する。また、制御装置10は、電源部(図示略)を備え、制御装置10及び画像表示部20の各部に電源を供給する。
The control device 10 includes a control unit 140, an input information acquisition unit 110, a storage unit 120, a transmission unit (Tx) 51, and a transmission unit (Tx) 52.
The input information acquisition unit 110 is connected to the operation unit 135. The operation unit 135 includes the track pad 14, the direction key 16, the power switch 18, and the like. The input information acquisition unit 110 acquires input contents based on a signal input from the operation unit 135. The control device 10 includes a power supply unit (not shown), and supplies power to each unit of the control device 10 and the image display unit 20.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が実行する各種処理に係る設定値を含む。例えば、画像処理部160及び表示制御部170が画像信号を処理する場合の解像度等の設定値を含む。設定データ121が含む設定値は、予め操作部135の操作で入力された値であってもよいし、通信部117またはインターフェイス125を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
The storage unit 120 is a nonvolatile storage device, and stores various computer programs and data related to these programs. The storage unit 120 may store still image data or moving image data to be displayed on the image display unit 20.
The storage unit 120 stores setting data 121. The setting data 121 includes setting values relating to various processes executed by the control unit 140. For example, it includes setting values such as resolution when the image processing unit 160 and the display control unit 170 process image signals. The setting value included in the setting data 121 may be a value input in advance by operating the operation unit 135, or a setting value from an external device OA or another device (not shown) via the communication unit 117 or the interface 125. May be received and stored.

記憶部120は、また、センサー位置データ122、及びコンテンツデータ123を記憶する。センサー位置データ122は、後述する動き検出部185が演算処理に用いる演算式、パラメーター等を含む。コンテンツデータ123は、AR表示制御部186がAR表示するコンテンツの画像(静止画像、或いは動画像)データ、及び/又は音声データを含む。   The storage unit 120 also stores sensor position data 122 and content data 123. The sensor position data 122 includes arithmetic expressions, parameters, and the like used by the motion detection unit 185 described later for arithmetic processing. The content data 123 includes image (still image or moving image) data and / or audio data of content displayed by the AR display control unit 186 as AR.

制御部140には、センサー113、GPS115、及び通信部117が接続される。センサー113は、加速度センサーや角速度センサー等の慣性センサーを有し、制御部140はセンサー113の検出値を取得する。センサー113は、例えば3軸の加速度センサーや、3軸の加速度センサーと3軸の角速度センサーと3軸の磁気センサーとを有する9軸センサーとして構成してもよい。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
Sensor 113, GPS 115, and communication unit 117 are connected to control unit 140. The sensor 113 includes an inertial sensor such as an acceleration sensor or an angular velocity sensor, and the control unit 140 acquires a detection value of the sensor 113. The sensor 113 may be configured as a nine-axis sensor having, for example, a three-axis acceleration sensor, a three-axis acceleration sensor, a three-axis angular velocity sensor, and a three-axis magnetic sensor.
The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and calculates the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. The GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140.

通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータ123を通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータ123をインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータ123を取得するデータ取得部DAとして機能する。
The communication unit 117 executes wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), or Bluetooth (registered trademark).
When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires the content data 123 from the communication unit 117 and causes the image display unit 20 to display an image. On the other hand, when the external device OA is wired to the interface 125, the control unit 140 acquires the content data 123 from the interface 125 and causes the image display unit 20 to display an image. The communication unit 117 and the interface 125 function as a data acquisition unit DA that acquires the content data 123 from the external device OA.

制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部140は、CPUにより制御プログラムを実行することで、頭部装着型表示装置100の各部を制御する。また、制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、制御部140の各種機能を実現する。すなわち、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、撮像処理部181、検出制御部183、動き検出部185、AR表示制御部186、及び、音声処理部187として機能する。   The control unit 140 stores a CPU (not shown) for executing a program, a RAM (not shown) for temporarily storing a program and data executed by the CPU, and a basic control program and data executed by the CPU in a nonvolatile manner. ROM (not shown). The control unit 140 controls each unit of the head-mounted display device 100 by executing a control program by the CPU. In addition, the control unit 140 reads out and executes the computer program stored in the storage unit 120 and realizes various functions of the control unit 140. That is, it functions as an operating system (OS) 150, an image processing unit 160, a display control unit 170, an imaging processing unit 181, a detection control unit 183, a motion detection unit 185, an AR display control unit 186, and an audio processing unit 187.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). The image processing unit 160 stores the converted digital image signal in the RAM of the control unit 140 for each frame as image data of the target image (Data in the figure). This image data is, for example, RGB data.
Note that the image processing unit 160 may perform a resolution conversion process for converting the resolution of the image data into a resolution suitable for the right display driving unit 22 and the left display driving unit 24 as necessary. The image processing unit 160 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data is created from 3D image data, or 2D / 3D conversion processing is performed to generate 3D image data from 2D image data. May be executed.

画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。   The image processing unit 160 transmits the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data stored in the RAM via the transmission units 51 and 52, respectively. The transmission units 51 and 52 function as a transceiver and execute serial transmission between the control device 10 and the image display unit 20. The image data Data transmitted via the transmission unit 51 is referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is referred to as “left eye image data”.

表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。   The display control unit 170 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24, and generates and generates image light by each of the right display drive unit 22 and the left display drive unit 24 based on the control signal. Control injection. Specifically, the right LCD 241 is controlled to be turned on / off by the right LCD control unit 211, and the right backlight 221 is turned on / off by the right backlight control unit 201. In addition, the display control unit 170 controls the driving of the left LCD 242 by the left LCD control unit 212 and the driving of the left backlight 222 by the left backlight control unit 202.

撮像処理部181は、上部カメラ61を制御して撮像を実行させ、撮像画像データを取得する。
検出制御部183は、第1センサー66及び第2センサー68のそれぞれを駆動して、検出値を取得する。例えば、頭部装着型表示装置100の電源投入時などに第1センサー66及び第2センサー68を初期化し、検出可能な状態とする。また、検出制御部183は、予め設定されたサンプリング周期で第1センサー66及び第2センサー68のそれぞれの検出値を取得する。本実施形態では、第1センサー66及び第2センサー68は、それぞれ、X軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)の角速度の検出値を出力する。この検出値は角速度の大きさと回転方向を含んでもよい。
The imaging processing unit 181 controls the upper camera 61 to execute imaging, and acquires captured image data.
The detection control unit 183 drives each of the first sensor 66 and the second sensor 68 to acquire a detection value. For example, the first sensor 66 and the second sensor 68 are initialized when the head-mounted display device 100 is turned on, for example. In addition, the detection control unit 183 acquires the detection values of the first sensor 66 and the second sensor 68 at a preset sampling cycle. In the present embodiment, the first sensor 66 and the second sensor 68 are detected values of angular velocity of rotation around the X axis (pitch), rotation around the Y axis (yaw), and rotation around the Z axis (roll), respectively. Is output. This detection value may include the magnitude of the angular velocity and the rotation direction.

動き検出部185は、検出制御部183が取得する第1センサー66及び第2センサー68の検出値に基づき、運動中心における動き量を算出する。運動中心は、第1センサー66及び第2センサー68が検出する動きから求められる使用者の頭部の動きの中心や基準の位置である。例えば、使用者の頭部が回転する場合、この回転の中心が運動中心に相当する。また、例えば使用者の頭部が直進する場合、運動中心の位置は特定の1点に定まらないが、この場合は便宜的に頭部の中心(図3のP1)を運動中心とする。   The motion detection unit 185 calculates a motion amount at the center of motion based on the detection values of the first sensor 66 and the second sensor 68 acquired by the detection control unit 183. The motion center is the center of the user's head movement or the reference position obtained from the movement detected by the first sensor 66 and the second sensor 68. For example, when the user's head rotates, the center of rotation corresponds to the center of motion. For example, when the user's head goes straight, the position of the movement center is not fixed at a specific point. In this case, the center of the head (P1 in FIG. 3) is used as the movement center for convenience.

動き検出部185は、記憶部120が記憶するセンサー位置データ122を用いて、ヘッドトラッキングの演算を行う。センサー位置データ122は、第1センサー66の位置P3、第2センサー68の位置P4との相対的な位置関係または絶対位置を示すデータを含む。センサー位置データ122は、位置P3及びP4のそれぞれと、位置P1及び/又は位置P2との位置関係を示すデータを含んでもよい。また、センサー位置データ122は、第1センサー66及び第2センサー68の検出値から、運動中心における動き量と動き方向とを算出するために用いる演算式、テーブル、パラメーター等を含む。ここで、動き検出部185は、第1センサー66及び第2センサー68の検出結果に基づいて、運動中心の位置を算出してもよい。或いは、運動中心の位置を算出せず、運動中心における動き量を算出してもよい。動き量は、速度であってもよいし、速度と時間とを含んでもよいし、移動量であってもよい。   The motion detection unit 185 performs head tracking calculation using the sensor position data 122 stored in the storage unit 120. The sensor position data 122 includes data indicating a relative positional relationship or an absolute position between the position P3 of the first sensor 66 and the position P4 of the second sensor 68. The sensor position data 122 may include data indicating a positional relationship between each of the positions P3 and P4 and the position P1 and / or the position P2. The sensor position data 122 includes arithmetic expressions, tables, parameters, and the like used to calculate the amount of motion and the direction of motion at the motion center from the detection values of the first sensor 66 and the second sensor 68. Here, the motion detection unit 185 may calculate the position of the motion center based on the detection results of the first sensor 66 and the second sensor 68. Alternatively, the motion amount at the motion center may be calculated without calculating the position of the motion center. The movement amount may be a speed, may include a speed and time, or may be a movement amount.

例えば、動き検出部185は、第1センサー66及び第2センサー68の角速度の検出値から、使用者の動きのX軸まわりの成分、Y軸まわりの成分、及びZ軸まわりの成分を求める。そして、動き検出部185は、第1センサー66及び第2センサー68の検出値と、センサー位置データ122の第1センサー66及び第2センサー68の位置とに基づき、X軸まわりの回転の中心、Y軸まわりの回転の中心、及びZ軸回りの回転の中心を求める。そして、動き検出部は、3次元の動きの中心、すなわち運動中心の位置と、運動中心における動きの方向、及び運動中心の動きの大きさ(或いは強さ)を求める。   For example, the motion detection unit 185 obtains a component around the X axis, a component around the Y axis, and a component around the Z axis from the detected values of the angular velocities of the first sensor 66 and the second sensor 68. Then, the motion detection unit 185 is based on the detection values of the first sensor 66 and the second sensor 68 and the positions of the first sensor 66 and the second sensor 68 of the sensor position data 122, and the center of rotation around the X axis, The center of rotation about the Y axis and the center of rotation about the Z axis are obtained. The motion detection unit obtains the center of the three-dimensional motion, that is, the position of the motion center, the direction of motion at the motion center, and the magnitude (or strength) of the motion center.

また、動き検出部185は、運動中心における動きの方向、大きさだけでなく、予め指定された点における動きの方向及び/又は大きさを求めてもよい。例えば、位置P1における動きの方向及び/又は大きさを求めてもよい。動き検出部185は、位置P1の動きの方向及び/又は大きさを求めるよう設定された場合、運動中心が位置P1に重ならない位置であれば、運動中心における動きの方向及び/又は大きさから、位置P1の動きの方向及び/又は大きさを算出して出力する。図3に示す位置P1は水平面内における位置を示すが、使用者の身長方向(Z軸方向)の位置を特定した3次元的な位置で、動きの方向及び/又は大きさを求めてもよい。   Further, the motion detection unit 185 may obtain not only the direction and magnitude of movement at the center of movement, but also the direction and / or magnitude of movement at a point designated in advance. For example, the direction and / or magnitude of the movement at the position P1 may be obtained. When the motion detection unit 185 is set to obtain the direction and / or magnitude of the movement of the position P1, if the movement center does not overlap the position P1, the movement detection unit 185 determines the movement direction and / or magnitude from the movement center. The direction and / or magnitude of the movement of the position P1 is calculated and output. The position P1 shown in FIG. 3 indicates the position in the horizontal plane, but the direction and / or magnitude of the movement may be obtained at a three-dimensional position that specifies the height direction (Z-axis direction) of the user. .

AR表示制御部186は、記憶部120が記憶するコンテンツデータ123を読み出し、画像処理部160及び表示制御部170を制御して、AR表示用の画像を画像表示部20により表示させる。また、AR表示制御部186は、コンテンツデータ123が音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。   The AR display control unit 186 reads the content data 123 stored in the storage unit 120, controls the image processing unit 160 and the display control unit 170, and causes the image display unit 20 to display an image for AR display. In addition, when the content data 123 includes audio data, the AR display control unit 186 controls the audio processing unit 187 to output the audio of the content from the right earphone 32 and the left earphone 34.

AR表示制御部186は、動き検出部185が出力する運動中心の動きの方向、及び動き量を示すデータに基づき、ARコンテンツの表示を制御する。
AR表示制御部186は、使用者が画像表示部20越しに対象物を見ている状態でARコンテンツを表示する。AR表示制御部186は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよい。AR表示制御部186は、撮像処理部181が取得する撮像画像データから、使用者の視界に位置する対象物を検出する。そして、AR表示制御部186は、検出した対象物に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。
The AR display control unit 186 controls the display of the AR content based on the data indicating the movement direction and the movement amount of the movement center output from the movement detection unit 185.
The AR display control unit 186 displays the AR content while the user is looking at the object through the image display unit 20. The AR display control unit 186 provides information about the object by performing AR display that displays an image, characters, or the like at a position corresponding to the object, or the shape of the object seen through the image display unit 20 Change how it looks. The AR content includes image and character data displayed at a position corresponding to the object. In addition, the AR content may include data for specifying an object and data regarding the display position of an image or a character. The display position of the AR content may be a position overlapping the target object or may be around the target object. The object may be an object, may be a real estate such as a building, may be a moving body such as an automobile or a train, or may be a living organism such as a human being or an animal. The AR display control unit 186 detects an object located in the user's field of view from the captured image data acquired by the imaging processing unit 181. Then, the AR display control unit 186 determines the display position of the AR content corresponding to the detected object, and displays the AR content.

AR表示制御部186は、画像表示部20を装着した使用者の頭部の動きに合わせて、ARコンテンツの表示位置を変更する処理や、ARコンテンツを切り替える処理を行う。例えば、使用者の頭部が、Z軸回りに設定値を超える角速度で回動する場合、AR表示制御部186はARコンテンツの表示を消去する。このような頭部の動きがある場合は使用者の視界が大きく動き、AR表示の対象物が視野から外れる可能性が高いためである。また、例えば、使用者の頭部がX軸方向に移動する場合、AR表示制御部186は、ARコンテンツの表示サイズを拡大、または縮小する。このような頭部の動きがある場合、使用者には、AR表示の対象物が大きく見えるようになる。このため、AR表示制御部186は、ARコンテンツを拡大してARコンテンツを見やすくするとよいし、対象物が見やすくなるようにARコンテンツを縮小してもよい。   The AR display control unit 186 performs processing for changing the display position of the AR content and processing for switching the AR content in accordance with the movement of the head of the user wearing the image display unit 20. For example, when the user's head rotates around the Z axis at an angular velocity that exceeds a set value, the AR display control unit 186 deletes the display of the AR content. This is because, when there is such a head movement, the user's field of view moves greatly, and there is a high possibility that the object of AR display will be out of the field of view. For example, when the user's head moves in the X-axis direction, the AR display control unit 186 enlarges or reduces the display size of the AR content. When there is such a head movement, the user can see the AR display object larger. For this reason, the AR display control unit 186 may enlarge the AR content to make the AR content easier to see, and may reduce the AR content so that the object can be easily seen.

AR表示制御部186が、使用者の頭部の動きに対応してARコンテンツの表示態様を変化させる態様は、設定データ121に含まれる設定値として、事前に設定される。また、制御部140が実行するプログラムに設定されることもあり得る。
ここで、AR表示制御部186の表示の制御は、使用者の頭部の中心(図3のP1)や頭部の前部の中心(図3のP2)における動きに対応する処理として設計される。頭部の中心や頭部の前部の中心の動きに合わせると、表示変化を設計する際にイメージし易く、シンプルで、間違いが起きにくく、効果的な表示変化を設計できるためである。このため、設定データ121には、使用者の頭部の中心や頭部の前部の中心における動きの設定値が設定される。AR表示制御部186は、動き検出部185が算出する使用者の頭部の中心や頭部の前部の中心における動きを、設定データ121と比較対照して、処理する。
A mode in which the AR display control unit 186 changes the display mode of the AR content in accordance with the movement of the user's head is set in advance as a setting value included in the setting data 121. Further, it may be set to a program executed by the control unit 140.
Here, the display control of the AR display control unit 186 is designed as a process corresponding to the movement at the center of the user's head (P1 in FIG. 3) or the center of the front of the head (P2 in FIG. 3). The This is because if the movement of the center of the head or the center of the front of the head is matched, it is easy to imagine a display change when designing it, and it is simple, error-free, and an effective display change can be designed. For this reason, in the setting data 121, a set value of the movement at the center of the user's head or the center of the front of the head is set. The AR display control unit 186 processes the movement at the center of the user's head or the front of the head calculated by the motion detection unit 185 in comparison with the setting data 121.

上記とは異なる方法として、実際に動きを検出する第1センサー66、第2センサー68の位置における動きに対応して、AR表示制御部186の表示の制御を設計することも可能である。例えば、設定データ121に、第1センサー66及び第2センサー68の検出値に関する設定値を設定し、この設定値に基づきAR表示制御部186が処理を行う。この場合も、使用者の頭部の動きに対応して表示を制御できる。しかしながら、この設定値は、第1センサー66及び第2センサー68の位置に固定された値であり、頭部装着型表示装置100の仕様変更によりセンサーの位置や数が変化した場合は新たな設定値が必要になる。
これに対し、第1センサー66や第2センサー68の検出値から動きの基準の位置と、この基準の位置における動きを算出する方法では、設定値が装置固有の値ではなく、汎用性を持つ。従って、ARコンテンツの表示態様の制御が容易になり、効果的なAR表示が可能になるという利点がある。
As a method different from the above, it is also possible to design the display control of the AR display control unit 186 corresponding to the movement at the position of the first sensor 66 and the second sensor 68 that actually detect the movement. For example, setting values related to the detection values of the first sensor 66 and the second sensor 68 are set in the setting data 121, and the AR display control unit 186 performs processing based on the setting values. Also in this case, the display can be controlled in accordance with the movement of the user's head. However, this set value is a value fixed to the positions of the first sensor 66 and the second sensor 68, and is newly set when the position or number of sensors changes due to the specification change of the head-mounted display device 100. A value is required.
On the other hand, in the method of calculating the motion reference position from the detection values of the first sensor 66 and the second sensor 68 and the motion at the reference position, the set value is not a device-specific value but has versatility. . Therefore, there is an advantage that control of the display mode of the AR content is facilitated and effective AR display is possible.

音声処理部187は、AR表示制御部186の制御によりコンテンツの音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。   The audio processing unit 187 acquires the audio signal of the content under the control of the AR display control unit 186, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34. In addition, the sound processing unit 187 acquires sound collected by the microphone 63 and converts it into digital sound data. The voice processing unit 187 may perform a preset process on the digital voice data.

画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262とを備える。また、画像表示部20は、上述した上部カメラ61、第1センサー66、及び第2センサー68を備える。上部カメラ61はフレーム2(図1)とは別体のカメラユニット3に設けられるが、インターフェイス25に接続される。   The image display unit 20 includes an interface 25, a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, and a left light guide plate 262 as a left optical image display unit 28. With. The image display unit 20 includes the upper camera 61, the first sensor 66, and the second sensor 68 described above. The upper camera 61 is provided in the camera unit 3 separate from the frame 2 (FIG. 1), but is connected to the interface 25.

インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
インターフェイス25は、上部カメラ61、第1センサー66、及び第2センサー68を接続するインターフェイスである。上部カメラ61の撮像画像データや撮像信号、第1センサー66及び第2センサー68の検出結果等は、インターフェイス25を介して制御部140に送られる。
The interface 25 includes a connector to which the right cord 42 and the left cord 44 are connected. The interface 25 outputs the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data transmitted from the transmission unit 51 to the corresponding reception units (Rx) 53 and 54. Further, the interface 25 outputs a control signal transmitted from the display control unit 170 to the corresponding reception units 53 and 54, the right backlight control unit 201, or the left backlight control unit 202.
The interface 25 is an interface for connecting the upper camera 61, the first sensor 66, and the second sensor 68. Imaged image data and imaging signals of the upper camera 61, detection results of the first sensor 66 and the second sensor 68, and the like are sent to the control unit 140 via the interface 25.

右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。   The right display drive unit 22 includes the right backlight 221, the right LCD 241, and the right projection optical system 251 described above. The right display driving unit 22 includes a receiving unit 53, a right backlight (BL) control unit 201 that controls the right backlight (BL) 221, and a right LCD control unit 211 that drives the right LCD 241.

受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。   The reception unit 53 operates as a receiver corresponding to the transmission unit 51 and executes serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data input via the reception unit 53. .

左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes the left backlight 222, the left LCD 242 and the left projection optical system 252 described above. The left display driving unit 24 includes a receiving unit 54, a left backlight control unit 202 that drives the left backlight 222, and a left LCD control unit 212 that drives the left LCD 242.

受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
The reception unit 54 operates as a receiver corresponding to the transmission unit 52 and executes serial transmission between the control device 10 and the image display unit 20. The left backlight control unit 202 drives the left backlight 222 based on the input control signal. The left LCD control unit 212 drives the left LCD 242 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data Data input via the reception unit 54. .
The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as a right “image light generation unit”. Similarly, the left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are collectively referred to as a left “image light generation unit”.

図5は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、制御部140が、使用者の頭部の動きを求める動作を示す。
制御部140は、頭部装着型表示装置100の電源投入時、ARコンテンツの表示を開始する際、或いは、操作部135の操作により開始が指示された際に、センサーの検出を開始する(ステップS11)。制御部140の動き検出部185は、記憶部120からセンサー位置データ122を取得し(ステップS12)、検出制御部183は第1センサー66及び第2センサー68の検出値を取得する(ステップS13)。
FIG. 5 is a flowchart showing the operation of the head-mounted display device 100, and particularly shows the operation in which the control unit 140 obtains the movement of the user's head.
The control unit 140 starts detection of the sensor when the head-mounted display device 100 is turned on, when displaying the AR content, or when the start is instructed by the operation of the operation unit 135 (Step S140). S11). The motion detection unit 185 of the control unit 140 acquires the sensor position data 122 from the storage unit 120 (step S12), and the detection control unit 183 acquires the detection values of the first sensor 66 and the second sensor 68 (step S13). .

動き検出部185は、検出制御部183が取得した第1センサー66の検出値と、センサー位置データ122に含まれる第1センサー66の位置に関するデータとを対応付ける(ステップS14)。また、ステップS14で、動き検出部185は、検出制御部183が取得した第2センサー68の検出値と、センサー位置データ122に含まれる第2センサー68の位置に関するデータとを対応付ける。   The motion detection unit 185 associates the detection value of the first sensor 66 acquired by the detection control unit 183 with the data related to the position of the first sensor 66 included in the sensor position data 122 (step S14). In step S <b> 14, the motion detection unit 185 associates the detection value of the second sensor 68 acquired by the detection control unit 183 with the data related to the position of the second sensor 68 included in the sensor position data 122.

検出制御部183は、予め設定されたサンプリング周波数で第1センサー66及び第2センサー68の検出値を取得する。制御部140が図5のステップS11〜S17を繰り返し実行し、その実行周期が検出制御部183のサンプリング周期よりも長い場合、検出制御部183は、複数回の検出値の合計値、平均値、中央値などの値をステップS13で出力してもよい。この場合、ステップS14で、動き検出部185は、複数回の検出値から求められる合計値、平均値、中央値などの値と、各センサーの位置に関するデータとを対応付ける。   The detection control unit 183 acquires detection values of the first sensor 66 and the second sensor 68 at a preset sampling frequency. When the control unit 140 repeatedly executes steps S11 to S17 in FIG. 5 and the execution cycle is longer than the sampling cycle of the detection control unit 183, the detection control unit 183 includes the total value, average value, A value such as a median value may be output in step S13. In this case, in step S14, the motion detection unit 185 associates values such as a total value, an average value, and a median value obtained from a plurality of detection values with data relating to the position of each sensor.

動き検出部185は、センサー位置データ122に基づき、第1センサー66及び第2センサー68の検出値から、運動中心における動きの方向、及び動きの量を算出する(ステップS15)。動き検出部185は、算出した動きの方向、及び動きの量に関するデータを、AR表示制御部186に出力し(ステップS16)、ステップS17に移行する。   Based on the sensor position data 122, the motion detection unit 185 calculates the direction of motion and the amount of motion at the motion center from the detection values of the first sensor 66 and the second sensor 68 (step S15). The motion detection unit 185 outputs data relating to the calculated direction of motion and the amount of motion to the AR display control unit 186 (step S16), and proceeds to step S17.

ステップS17で、制御部140は、動き検出の終了条件が成立したか否かを判定し(ステップS17)、終了条件が成立した場合は(ステップS17;YES)、本処理を終了する。また、終了条件が成立していない場合は(ステップS17;NO)、ステップS12に戻る。   In step S17, the control unit 140 determines whether or not a motion detection end condition is satisfied (step S17). If the end condition is satisfied (step S17; YES), the process ends. If the end condition is not satisfied (step S17; NO), the process returns to step S12.

図5の処理では、第1センサー66及び第2センサー68の検出値が、検出制御部183の動作により、インターフェイス25を介して取得され、動き検出部185で処理される。ここで、検出制御部183が取得し動き検出部185が処理する検出値には、検出したセンサーを特定する情報と、検出または検出値を取得したタイミングを示す情報とが、付加されているとよい。この場合、第1センサー66及び/又は第2センサー68が、検出値をインターフェイス25に出力する際に、検出したセンサーが第1センサー66であるか第2センサー68を示すデータと、タイミングを示すデータとを付加してもよい。或いは、検出制御部183が、第1センサー66及び/又は第2センサー68の検出値を取得する際に、検出したセンサーが第1センサー66であるか第2センサー68を示すデータと、タイミングを示すデータとを付加してもよい。また、動き検出部185が、検出制御部183から検出値を取得する際に、検出したセンサーが第1センサー66であるか第2センサー68を示すデータと、タイミングを示すデータとを付加してもよい。   In the process of FIG. 5, the detection values of the first sensor 66 and the second sensor 68 are acquired via the interface 25 by the operation of the detection control unit 183 and processed by the motion detection unit 185. Here, when the detection value acquired by the detection control unit 183 and processed by the motion detection unit 185 is added with information specifying the detected sensor and information indicating the timing at which the detection or detection value is acquired. Good. In this case, when the first sensor 66 and / or the second sensor 68 outputs the detection value to the interface 25, data indicating whether the detected sensor is the first sensor 66 or the second sensor 68 and the timing are indicated. Data may be added. Alternatively, when the detection control unit 183 obtains the detection value of the first sensor 66 and / or the second sensor 68, the detection sensor 183 determines whether the detected sensor is the first sensor 66 or the second sensor 68 and the timing. You may add the data shown. Further, when the motion detection unit 185 acquires the detection value from the detection control unit 183, data indicating whether the detected sensor is the first sensor 66 or the second sensor 68 and data indicating the timing are added. Also good.

以上説明したように、使用者の頭部に装着される頭部装着型の頭部装着型表示装置100は、使用者の眼に画像光を照射する画像表示部20と、複数の動きセンサーとしての第1センサー66及び第2センサー68とを備える。第1センサー66及び第2センサー68のいずれかは、装着状態において頭部の中心より一方側に位置し、他の動きセンサーは頭部の中心より他方側に位置する。このため、使用者の頭部が動いた場合に、運動中心における動き量や動きの方向等を速やかに求めることができる。   As described above, the head-mounted head mounted display device 100 mounted on the user's head includes the image display unit 20 that irradiates the user's eyes with image light, and a plurality of motion sensors. The first sensor 66 and the second sensor 68 are provided. One of the first sensor 66 and the second sensor 68 is located on one side from the center of the head in the mounted state, and the other motion sensor is located on the other side from the center of the head. For this reason, when the user's head moves, the amount of movement and the direction of movement at the center of movement can be quickly obtained.

また、頭部装着型表示装置100において、第1センサー66及び第2センサー68のいずれかは、装着状態において頭部の中心より左側に位置し、他の動きセンサーは頭部の中心より右側に位置する。このため、動きセンサーの検出結果に基づいて、頭部の運動中心における動きを速やかに求めることができる。   In the head-mounted display device 100, one of the first sensor 66 and the second sensor 68 is located on the left side from the center of the head in the mounted state, and the other motion sensors are located on the right side from the center of the head. To position. For this reason, based on the detection result of the motion sensor, the motion at the motion center of the head can be quickly obtained.

また、画像表示部20は、使用者の眼に向けて画像光を放つハーフミラー261A、262Aを有する右導光板261、左導光板262を備える。第1センサー66及び第2センサー68と、ハーフミラー261A、262Aの中央位置とが直線状に並んで位置する。このため、第1センサー66及び第2センサー68の検出結果に基づいて、表示領域を構成する右導光板261、左導光板262の位置を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。   The image display unit 20 includes a right light guide plate 261 and a left light guide plate 262 having half mirrors 261A and 262A that emit image light toward the user's eyes. The first sensor 66 and the second sensor 68 and the center positions of the half mirrors 261A and 262A are arranged in a straight line. Therefore, based on the detection results of the first sensor 66 and the second sensor 68, the motion at the motion center corresponds to the motion with the positions of the right light guide plate 261 and the left light guide plate 262 constituting the display area as the motion center. The amount and direction of movement can be quickly obtained.

また、右導光板261及び左導光板262は、使用者の眼に向けて画像光を放つ表示領域としてのハーフミラー261A、262Aを有する。ハーフミラーを用いて画像光を照射する光学素子を備えた構成で、複数の動きセンサーがハーフミラーの中央位置と直線状に並ぶ。このため、使用者が視認する画像の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。   The right light guide plate 261 and the left light guide plate 262 include half mirrors 261A and 262A as display areas that emit image light toward the user's eyes. With a configuration including an optical element that emits image light using a half mirror, a plurality of motion sensors are arranged in a straight line with the center position of the half mirror. For this reason, it is possible to promptly determine the amount of movement, the direction of movement, and the like at the center of motion corresponding to the motion centered on the center of the image visually recognized by the user.

さらに、画像表示部20は、眼鏡型のフレーム2を有し、第1センサー66及び第2センサー68が、フレーム2の中央に対して対称な位置にある。眼鏡型のフレーム2の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
また、フレーム2は、使用者の右眼の前に位置する右部2Aと、使用者の左眼の前に位置する左部2Bと、右部2Aと左部2Bとを連結するブリッジ部2Cとを有する。第1センサー66及び第2センサー68はブリッジ部2Cに対して対称な位置にある。このため、フレーム2の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
Further, the image display unit 20 includes a glasses-type frame 2, and the first sensor 66 and the second sensor 68 are in a symmetrical position with respect to the center of the frame 2. Corresponding to the motion centered on the center of the eyeglass-shaped frame 2, the amount of motion and the direction of motion at the motion center can be quickly obtained.
The frame 2 includes a right part 2A located in front of the user's right eye, a left part 2B located in front of the user's left eye, and a bridge part 2C that connects the right part 2A and the left part 2B. And have. The first sensor 66 and the second sensor 68 are located symmetrically with respect to the bridge portion 2C. For this reason, it is possible to promptly determine the amount of movement, the direction of movement, and the like at the center of motion corresponding to the motion centered on the frame 2.

なお、使用者が頭部と身体を合わせて動かした場合など、頭部が複雑に動いた場合、頭部の運動中心が複数になることがある。例えば、位置P1を中心とした回転の動きと、使用者の腰を中心とした回転の動きとが同時に発生すると、位置P1と、腰の位置とが、それぞれ運動中心である。この場合、動き検出部185は、複数の運動中心のそれぞれにおける動き量、動きの方向を求めてもよく、それぞれの運動中心の位置を求めてもよい。また、第1センサー66及び第2センサー68の検出結果から、全ての運動中心における動きを求めることができない場合があり得る。運動中心が複数ある場合は運動中心における動きを求める演算式の変数が多くなるためである。このような場合、動き検出部185は、検出制御部183により、各センサーの検出値を、時間を空けて複数回取得させ、複数回の検出値に基づき運動中心における動きを求めてもよい。   In addition, when the head moves in a complicated manner, such as when the user moves the head and the body together, the movement center of the head may be plural. For example, if a rotational movement around the position P1 and a rotational movement around the user's waist occur at the same time, the position P1 and the waist position are the centers of motion, respectively. In this case, the motion detection unit 185 may determine the amount of motion and the direction of motion at each of the plurality of motion centers, or may determine the position of each motion center. Further, there may be a case where the motions at all the motion centers cannot be obtained from the detection results of the first sensor 66 and the second sensor 68. This is because when there are a plurality of motion centers, there are more variables in the arithmetic expression for obtaining the motion at the motion center. In such a case, the motion detection unit 185 may cause the detection control unit 183 to acquire the detection value of each sensor a plurality of times with a time interval, and obtain a motion at the center of motion based on the detection values of the plurality of times.

第1実施形態では、動きセンサーの一例として、2つの慣性センサーである第1センサー66及び第2センサー68を設けた構成を例に挙げて説明した。本発明はこれに限定されず、動きセンサーとして、光学センサーを用いることができる。
例えば、慣性センサーと、光学センサーとを含む複数の動きセンサーを用いて、運動中心における動きを求めてもよい。また、例えば、複数の光学センサーを用いて、運動中心における動きを求めてもよい。
これらの場合について、第2実施形態として説明する。
In the first embodiment, as an example of the motion sensor, the configuration in which the first sensor 66 and the second sensor 68 that are two inertial sensors are provided is described as an example. The present invention is not limited to this, and an optical sensor can be used as the motion sensor.
For example, the motion at the motion center may be obtained using a plurality of motion sensors including an inertial sensor and an optical sensor. Further, for example, the motion at the center of motion may be obtained using a plurality of optical sensors.
These cases will be described as a second embodiment.

[第2実施形態]
図6は、第2実施形態に係る頭部装着型表示装置100Aを構成する各部の機能ブロック図である。
第2実施形態の頭部装着型表示装置100Aは、画像表示部20に代えて、画像表示部200を有する。画像表示部200は、画像表示部20に、第1カメラ64、及び第2カメラ65を設けた構成であり、その他の各部は共通の構成である。従って、頭部装着型表示装置100Aにおいて、第1実施形態の頭部装着型表示装置100と共通する構成部については、同符号を付して図示及び説明を省略する。
[Second Embodiment]
FIG. 6 is a functional block diagram of each part constituting the head-mounted display device 100A according to the second embodiment.
The head-mounted display device 100A according to the second embodiment includes an image display unit 200 instead of the image display unit 20. The image display unit 200 has a configuration in which the first camera 64 and the second camera 65 are provided in the image display unit 20, and the other units have a common configuration. Accordingly, in the head-mounted display device 100A, components that are the same as those in the head-mounted display device 100 of the first embodiment are denoted by the same reference numerals, and illustration and description thereof are omitted.

第1カメラ64及び第2カメラ65は、それぞれ、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。また、第1カメラ64及び第2カメラ65は、いずれも、可視光線を受光するカメラに限定されず、紫外線カメラや赤外線カメラ等、可視領域外の光で撮像するカメラであってもよい。第1カメラ64及び第2カメラ65は、光学センサーの一例であり、動きセンサーとして機能する。   The first camera 64 and the second camera 65 are digital cameras each including an imaging element such as a CCD or CMOS, an imaging lens, and the like, and may be a monocular camera or a stereo camera. The first camera 64 and the second camera 65 are not limited to cameras that receive visible light, and may be cameras that capture images with light outside the visible region, such as ultraviolet cameras and infrared cameras. The first camera 64 and the second camera 65 are examples of optical sensors and function as motion sensors.

第1カメラ64は、右部2Aにおいて第1センサー66の前方に配置される。第2カメラ65は、左部2Bにおいて第2センサー68の前方に設置される。第1カメラ64の画角は右光学像表示部26を透過して使用者の右眼に視認される範囲を含み、第2カメラ65の画角は、左光学像表示部28を透過して使用者の左眼に視認される範囲を含むことが好ましい。第1カメラ64及び第2カメラ65の画角は、上部カメラ61の画角と重複する範囲を含んでもよいし、重複しない範囲を含んでもよい。   The first camera 64 is disposed in front of the first sensor 66 in the right part 2A. The second camera 65 is installed in front of the second sensor 68 in the left part 2B. The angle of view of the first camera 64 includes a range that is visible to the right eye of the user through the right optical image display unit 26, and the angle of view of the second camera 65 is transmitted through the left optical image display unit 28. It is preferable that the range visually recognized by the user's left eye is included. The angle of view of the first camera 64 and the second camera 65 may include a range that overlaps the angle of view of the upper camera 61 or may include a range that does not overlap.

撮像処理部181は、第1カメラ64及び第2カメラ65を制御して撮像を実行させ、撮像画像データを取得する。また、記憶部120が記憶するセンサー位置データ122は、第1カメラ64及び第2カメラ65の位置に関するデータを含む。動き検出部185は、撮像処理部181が取得する撮像画像データから、第1カメラ64又は第2カメラ65の位置における動きの方向及び動き量を求める。   The imaging processing unit 181 controls the first camera 64 and the second camera 65 to execute imaging, and acquires captured image data. The sensor position data 122 stored in the storage unit 120 includes data related to the positions of the first camera 64 and the second camera 65. The motion detection unit 185 obtains the direction and amount of motion at the position of the first camera 64 or the second camera 65 from the captured image data acquired by the imaging processing unit 181.

頭部装着型表示装置100Aでは、4つの動きセンサーである第1カメラ64、第2カメラ65、第1センサー66、及び第2センサー68を組み合わせて、運動中心における動きを求めることができる。
動きセンサーの組合せは様々であるが、少なくとも、使用者の頭部の右側にある動きセンサーと、使用者の頭部の左側にある動きセンサーとを組み合わせることが望ましい。頭部装着型表示装置100Aでは、第1カメラ64と第2カメラ65、第1カメラ64と第2センサー68、第1センサー66と第2カメラ65、及び、第1センサー66と第2センサー68の4通りの組合せがある。このうち第1センサー66と第2センサー68とを用いる例は第1実施形態で説明した。
In the head-mounted display device 100A, the movement at the center of motion can be obtained by combining the first camera 64, the second camera 65, the first sensor 66, and the second sensor 68, which are four motion sensors.
There are various combinations of motion sensors, but it is desirable to combine at least a motion sensor on the right side of the user's head and a motion sensor on the left side of the user's head. In the head-mounted display device 100A, the first camera 64 and the second camera 65, the first camera 64 and the second sensor 68, the first sensor 66 and the second camera 65, and the first sensor 66 and the second sensor 68. There are four combinations. Among these, the example using the first sensor 66 and the second sensor 68 has been described in the first embodiment.

上記の組合せにおいて、選択される使用者の頭部の右側にある動きセンサーを右センサーとし、使用者の頭部の左側にある動きセンサーを左センサーとする。
右センサーの位置は、第1実施形態で説明した第1センサー66の位置にあり、左センサーの位置は第1実施形態で説明した第2センサー68の位置にあることが好ましい。すなわち、フレーム2の左右方向における中央位置をC1とすると、右センサーと左センサーとは、中央位置C1に対して対称な位置に設けられることが好ましい。また、右センサーの位置と左センサーの位置とを結ぶ直線はハーフミラー261A、262Aを通ることが、より好ましい。さらに好ましくは、右センサーの位置、左センサーの位置、ハーフミラー261Aの中心C2、及び、ハーフミラー262Aの中心C3が、同一直線上に並ぶ配置である。
In the above combination, the motion sensor on the right side of the selected user's head is the right sensor, and the motion sensor on the left side of the user's head is the left sensor.
The position of the right sensor is preferably the position of the first sensor 66 described in the first embodiment, and the position of the left sensor is preferably the position of the second sensor 68 described in the first embodiment. That is, when the center position in the left-right direction of the frame 2 is C1, it is preferable that the right sensor and the left sensor are provided at positions symmetrical with respect to the center position C1. Further, it is more preferable that a straight line connecting the position of the right sensor and the position of the left sensor passes through the half mirrors 261A and 262A. More preferably, the position of the right sensor, the position of the left sensor, the center C2 of the half mirror 261A, and the center C3 of the half mirror 262A are arranged on the same straight line.

また、ハーフミラー261A、262Aの中心を含む水平面内における位置関係は上記の通りである。この水平面に対し垂直な、鉛直方向(高さ方向)においては、右センサー及び左センサーの位置と、ハーフミラー261A、262Aの中心とが、鉛直方向で近接していることが好ましい。例えば、右センサー及び左センサーが、ハーフミラー261A、262Aの側方にあるとよい。さらに、右センサー及び左センサーの位置と、ハーフミラー261A、262Aの中心とが、高さ方向において同一位置にあると、より好ましい。   The positional relationship in the horizontal plane including the centers of the half mirrors 261A and 262A is as described above. In the vertical direction (height direction) perpendicular to the horizontal plane, it is preferable that the positions of the right sensor and the left sensor are close to the centers of the half mirrors 261A and 262A in the vertical direction. For example, the right sensor and the left sensor may be on the side of the half mirrors 261A and 262A. Furthermore, it is more preferable that the positions of the right sensor and the left sensor and the centers of the half mirrors 261A and 262A are in the same position in the height direction.

また、本実施形態では、第1カメラ64、第2カメラ65、第1センサー66及び第2センサー68の全てを備えた構成を一例として説明する。これはあくまで一例であり、本発明は、上記の右センサーに該当する1つの動きセンサーと、左センサーに該当する1つの動きセンサーとを備えた構成であれば適用可能である。従って、第1カメラ64、第2カメラ65、第1センサー66及び第2センサー68のうち1または2のセンサーを排した構成であってもよい。
センサー位置データ122は、頭部装着型表示装置100Aが備える動きセンサーのうち、運動中心における動きを検出する動作で使用される動きセンサーについて、相対的な位置関係または絶対位置を示すデータを含む。
In the present embodiment, a configuration including all of the first camera 64, the second camera 65, the first sensor 66, and the second sensor 68 will be described as an example. This is merely an example, and the present invention can be applied to any configuration provided with one motion sensor corresponding to the right sensor and one motion sensor corresponding to the left sensor. Accordingly, the configuration may be such that one or two of the first camera 64, the second camera 65, the first sensor 66, and the second sensor 68 are omitted.
The sensor position data 122 includes data indicating a relative positional relationship or an absolute position of a motion sensor used in an operation of detecting a motion at the motion center among the motion sensors included in the head-mounted display device 100A.

図7は、第2実施形態の頭部装着型表示装置100Aの動作を示すフローチャートであり、特に、制御部140が、使用者の頭部の動きを求める動作を示す。
図7の動作では、第1カメラ64、第2カメラ65、第1センサー66及び第2センサー68のうち、頭部の動きを求める処理で使用する動きセンサーを選択し、設定可能な例を説明する。また、図7のフローチャートで、上述した図5と共通の動作には同ステップ番号を付して説明を省略する。
FIG. 7 is a flowchart showing the operation of the head-mounted display device 100A of the second embodiment, and particularly shows the operation in which the control unit 140 obtains the movement of the user's head.
In the operation of FIG. 7, an example is described in which a motion sensor used in a process for obtaining head movement is selected from the first camera 64, the second camera 65, the first sensor 66, and the second sensor 68 and can be set. To do. Also, in the flowchart of FIG. 7, the same steps as those in FIG.

制御部140がセンサーの検出を開始すると(ステップS11)、動き検出部185は、センサー位置データ122を取得する(ステップS12)。動き検出部185は、センサー位置データ122の設定や操作部135の入力操作で設定される内容に従って、頭部装着型表示装置100Aが備える動きセンサーの中から、ヘッドトラッキングに使用する動きセンサーを選択する(ステップS23)。   When the control unit 140 starts sensor detection (step S11), the motion detection unit 185 acquires sensor position data 122 (step S12). The motion detection unit 185 selects a motion sensor to be used for head tracking from the motion sensors included in the head-mounted display device 100A according to the settings of the sensor position data 122 and the input operation of the operation unit 135. (Step S23).

動き検出部185は、選択したセンサーがカメラを含むか否かを判定する(ステップS21)。第1カメラ64または第2カメラ65のいずれか1以上を選択した場合(ステップS21;YES)、撮像処理部181が、選択したカメラにより撮像を実行させ(ステップS22)、撮像画像データを取得する。動き検出部185は、撮像画像データを解析して、選択されたカメラの位置における動きの方向及び動き量を検出する(ステップS23)。動き検出部185は、検出した動きの方向及び動き量を、カメラの位置に対応付ける処理を行う(ステップS24)。   The motion detection unit 185 determines whether or not the selected sensor includes a camera (step S21). When one or more of the first camera 64 and the second camera 65 is selected (step S21; YES), the imaging processing unit 181 executes imaging with the selected camera (step S22), and acquires captured image data. . The motion detection unit 185 analyzes the captured image data and detects the direction and amount of motion at the selected camera position (step S23). The motion detection unit 185 performs processing for associating the detected direction and amount of motion with the position of the camera (step S24).

ここで、動き検出部185は、例えば、第1カメラ64が時間を空けて撮像した複数の撮像画像の差分を求め、求めた差分から、動きの方向と動き量とを求めてもよい。また、撮像処理部181が、第1カメラ64の露光時間を、動き検出用に長い時間に設定してもよい。この場合、第1カメラ64の撮像画像は、第1カメラ64の動きを反映してブレを生じる。動き検出部185は、撮像画像のブレの方向、ブレ量、及び露光時間に基づき、第1カメラ64の位置における動きの方向と動き量を検出できる。第2カメラ65の撮像画像についても同様である。   Here, for example, the motion detection unit 185 may obtain a difference between a plurality of captured images captured by the first camera 64 with a time interval, and obtain a motion direction and a motion amount from the obtained difference. Further, the imaging processing unit 181 may set the exposure time of the first camera 64 to a long time for motion detection. In this case, the captured image of the first camera 64 is blurred by reflecting the movement of the first camera 64. The motion detection unit 185 can detect the direction and amount of motion at the position of the first camera 64 based on the blur direction, blur amount, and exposure time of the captured image. The same applies to the image captured by the second camera 65.

動き検出部185は、ステップS23で選択した動きセンサーがカメラのみであるか否かを判定する(ステップS25)。カメラ以外の動きセンサー、即ち、第1センサー66及び第2センサー68のいずれも選択しなかった場合(ステップS25;YES)、動き検出部185はステップS26に移行する。
一方、ステップS23で、第1センサー66または第2センサー68の少なくともいずれかを選択した場合(ステップS25;NO)、動き検出部185はステップS13に移行する。また、動き検出部185は、ステップS23で第1カメラ64及び第2カメラ65のいずれも選択しなかった場合(ステップS21;NO)、ステップS13に移行する。
The motion detection unit 185 determines whether or not the motion sensor selected in step S23 is only a camera (step S25). When any motion sensor other than the camera, that is, neither the first sensor 66 nor the second sensor 68 is selected (step S25; YES), the motion detection unit 185 proceeds to step S26.
On the other hand, when at least one of the first sensor 66 and the second sensor 68 is selected in step S23 (step S25; NO), the motion detection unit 185 proceeds to step S13. Moreover, the motion detection part 185 transfers to step S13, when neither the 1st camera 64 nor the 2nd camera 65 is selected by step S23 (step S21; NO).

ステップS13で、検出制御部183は、第1センサー66及び/又は第2センサー68の検出値を取得する(ステップS13)。動き検出部185は、検出制御部183が取得した検出値と、センサー位置データ122に含まれるセンサーの位置に関するデータとを対応付ける(ステップS14)。その後、制御部140はステップS26に移行する。   In step S13, the detection control unit 183 acquires the detection value of the first sensor 66 and / or the second sensor 68 (step S13). The motion detection unit 185 associates the detection value acquired by the detection control unit 183 with the data regarding the sensor position included in the sensor position data 122 (step S14). Thereafter, the control unit 140 proceeds to step S26.

ステップS26で、動き検出部185は、センサー位置データ122に基づき、運動中心における動きの方向及び動き量を算出する(ステップS26)。ステップS26では、ステップS24で対応付けをした動き量と位置、及び/又は、ステップS14で対応付けをした動き量と位置を演算処理に用いる。その後、動き検出部185は、算出した動きの方向、及び動きの量に関するデータを、AR表示制御部186に出力し(ステップS16)、ステップS17に移行する。ステップS17で、制御部140は終了条件が成立したか否かを判定し(ステップS17)、終了条件が成立した場合は(ステップS17;YES)、本処理を終了する。また、終了条件が成立していない場合は(ステップS17;NO)、ステップS12に戻る。   In step S26, the motion detection unit 185 calculates the direction and amount of motion at the center of motion based on the sensor position data 122 (step S26). In step S26, the motion amount and position associated in step S24 and / or the motion amount and position associated in step S14 are used for the calculation process. Thereafter, the motion detection unit 185 outputs data regarding the calculated direction of motion and the amount of motion to the AR display control unit 186 (step S16), and proceeds to step S17. In step S17, the control unit 140 determines whether or not an end condition is satisfied (step S17). If the end condition is satisfied (step S17; YES), the process ends. If the end condition is not satisfied (step S17; NO), the process returns to step S12.

このように、頭部装着型表示装置100Aは、慣性センサーである第1センサー66及び第2センサー68に限定されず、光学センサーである第1カメラ64及び/又は第2カメラ65を使用して、運動中心における動きを求める。すなわち、光学センサー、及び、慣性センサーを含む動きセンサーの組合せにより、使用者の頭部の動きに関し、ヘッドトラッキングを実行できる。この場合、例えば撮像画像データをAR表示の対象物の検出に用いるなど、センサーの検出結果を他の用途にも活用できる。
また、複数の動きセンサーとして、光学センサーまたは慣性センサーのいずれか1種類を用いる場合は、同種のセンサーの検出結果を用い、ヘッドトラッキングの処理を、より軽負荷で速やかに実行できる。
Thus, the head-mounted display device 100A is not limited to the first sensor 66 and the second sensor 68 that are inertial sensors, and uses the first camera 64 and / or the second camera 65 that are optical sensors. Find the movement in the movement center. That is, the head tracking can be executed with respect to the movement of the user's head by the combination of the optical sensor and the motion sensor including the inertial sensor. In this case, for example, the detection result of the sensor can be used for other purposes, for example, the captured image data is used for detection of an AR display target.
Further, when any one of an optical sensor and an inertial sensor is used as the plurality of motion sensors, the head tracking process can be executed promptly with a lighter load by using the detection result of the same type of sensor.

なお、上記第1及び第2実施形態では2つの動きセンサーの検出結果を基に動きを検出し、使用者の頭部の動きを求めていたが、3以上の動きセンサーの検出結果を用いることも勿論可能である。   In the first and second embodiments, the movement is detected based on the detection results of the two motion sensors and the movement of the user's head is obtained. However, the detection results of three or more motion sensors are used. Of course it is possible.

また、頭部装着型表示装置100、100Aでは、1つの動きセンサーが検出する複数の検出結果を、異なる動きセンサーの検出値として処理することもできる。これらの例について、変形例として図8に示す。   In the head-mounted display devices 100 and 100A, a plurality of detection results detected by one motion sensor can be processed as detection values of different motion sensors. About these examples, it shows in FIG. 8 as a modification.

図8は、本発明の実施形態の変形例を示す説明図であり、(A)は第1変形例の処理の説明図であり、(B)は第2変形例の処理の説明図である。
図8(A)の例では、画像表示部20が有する第1センサー66を使用する。画像表示部20を装着した使用者の頭部が、位置P1を中心として、矢印Mで示すように回動する。この回動中に、検出制御部183は、第1センサー66の検出値を、時間差を設けて3回、取得する。矢印Mの運動は、少なくとも、1回目の検出時から3回目の検出時を含む間、継続する。
1回目の検出時における第1センサー66の位置を位置(1)、2回目の検出時の第1センサー66の位置を位置(2)、3回目の検出時の第1センサー66の位置を位置(3)とする。位置(1)は初期位置ともいえる。位置(1)、(2)、(3)は、頭部装着型表示装置100の設置環境の地面、床面、壁面等、運動しない基準に対する位置とすれば、互いに異なる位置である。
FIG. 8 is an explanatory diagram showing a modification of the embodiment of the present invention, (A) is an explanatory diagram of a process of the first modification, and (B) is an explanatory diagram of a process of the second modification. .
In the example of FIG. 8A, the first sensor 66 included in the image display unit 20 is used. The head of the user wearing the image display unit 20 rotates as indicated by the arrow M around the position P1. During this rotation, the detection control unit 183 acquires the detection value of the first sensor 66 three times with a time difference. The movement of the arrow M continues at least during the period from the first detection to the third detection.
Position of the first sensor 66 at the time of the first detection (1) Position of the first sensor 66 at the time of the second detection (2) Position of the first sensor 66 at the time of the third detection (3). Position (1) can also be said to be the initial position. The positions (1), (2), and (3) are positions different from each other if they are positions relative to a reference that does not move, such as the ground, floor, or wall surface of the installation environment of the head-mounted display device 100.

この場合、動き検出部185は、1回目の検出値と位置(1)とを対応付け、2回目の検出値と位置(2)とを対応付け、3回目の検出値と位置(3)とを対応付けることで、擬似的に、異なる位置に配置された3つのセンサーの検出値を得る。位置(2)は、例えば、1回目と2回目の検出の時間間隔と1回目の検出値と位置(1)とから算出できる。位置(3)も同様に、2回目と3回目の検出の時間間隔と2回目の検出値と位置(2)とから算出できる。
これらの3つのセンサーの検出値を用いれば、運動中心P1における動きの方向及び動き量を求めることができる。この例で得られる演算結果は、1回目から3回目で検出した動きを1つの動きと見なした場合の、動きの方向及び動き量である。
In this case, the motion detection unit 185 associates the first detection value with the position (1), associates the second detection value with the position (2), and associates the third detection value with the position (3). By associating these, detection values of three sensors arranged at different positions are obtained in a pseudo manner. The position (2) can be calculated from, for example, the first and second detection time intervals, the first detection value, and the position (1). Similarly, the position (3) can also be calculated from the second and third detection time intervals, the second detection value, and the position (2).
Using the detection values of these three sensors, the direction and amount of movement at the movement center P1 can be obtained. The calculation result obtained in this example is the direction and amount of motion when the motion detected from the first time to the third time is regarded as one motion.

図8(B)の例では、頭部装着型表示装置100は第1センサー66を使用する。また、上記第1実施形態で第2センサー68が設けられた位置には仮想センサー69が設定される。第1センサー66の位置と仮想センサー69の位置との相対位置を示すデータが設定データ121に含まれる。
画像表示部20を装着した使用者の頭部が、位置P1を中心として、矢印Mで示すように回動する。この回動中に、検出制御部183は、第1センサー66の検出値を、時間差を設けて2回、取得する。矢印Mの運動は、少なくとも、1回目及び2回目の検出時を含む間、継続する。1回目の検出時における第1センサー66の位置を位置(4)、2回目の検出時の第1センサー66の位置を位置(5)とする。位置(4)、(5)は、頭部装着型表示装置100の設置環境の地面、床面、壁面等、運動しない基準に対する位置とすれば、互いに異なる位置である。位置(4)は初期位置ともいえる。
In the example of FIG. 8B, the head-mounted display device 100 uses the first sensor 66. Further, a virtual sensor 69 is set at a position where the second sensor 68 is provided in the first embodiment. Data indicating the relative position between the position of the first sensor 66 and the position of the virtual sensor 69 is included in the setting data 121.
The head of the user wearing the image display unit 20 rotates as indicated by the arrow M around the position P1. During this rotation, the detection control unit 183 acquires the detection value of the first sensor 66 twice with a time difference. The movement of the arrow M continues at least during the time including the first and second detection times. The position of the first sensor 66 at the first detection is defined as position (4), and the position of the first sensor 66 at the second detection is defined as position (5). The positions (4) and (5) are positions different from each other if the positions (4) and (5) are positions with respect to a reference that does not move, such as the ground, floor, or wall surface of the installation environment of the head-mounted display device 100. Position (4) can also be said to be the initial position.

動き検出部185は、1回目の検出値と位置(4)とを対応付け、2回目の検出値と位置(5)とを対応付けることで、擬似的に、異なる位置に配置された2つのセンサーの検出値を得る。位置(5)は、例えば、1回目と2回目の検出の時間間隔と1回目の検出値と位置(4)とから算出できる。位置(3)も同様に、2回目と3回目の検出の時間間隔と2回目の検出値から算出できる。
さらに、動き検出部185は、1回目の検出時における仮想センサー69の位置(仮想センサー69の初期位置)に基づき、仮想センサー69の検出値を算出する。仮想センサー69は第1センサー66と同様に構成される3軸の角速度センサーとされ、仮想センサー69の検出値は、仮想センサー69の位置、及び、第1センサー66の1回目の検出値から算出できる。
これにより、動き検出部185は、仮想センサー69の初期位置と検出値、第1センサー66の位置(4)と1回目の検出値、及び、第1センサー66の位置(5)と2回目の検出値とに基づき、3つのセンサーの位置と検出値の組合せを得る。これらの3つのセンサーの検出値を用いれば、運動中心P1における動きの方向及び動き量を求めることができる。この例で得られる演算結果は、1回目から2回目で検出した動きを1つの動きと見なした場合の、動きの方向及び動き量である。
The motion detection unit 185 associates the detection value of the first time with the position (4) and associates the detection value of the second time with the position (5), so that two sensors arranged in different positions are simulated. The detected value is obtained. The position (5) can be calculated from, for example, the first and second detection time intervals, the first detection value, and the position (4). Similarly, the position (3) can also be calculated from the second and third detection time intervals and the second detection value.
Furthermore, the motion detection unit 185 calculates the detection value of the virtual sensor 69 based on the position of the virtual sensor 69 at the time of the first detection (initial position of the virtual sensor 69). The virtual sensor 69 is a three-axis angular velocity sensor configured similarly to the first sensor 66, and the detection value of the virtual sensor 69 is calculated from the position of the virtual sensor 69 and the first detection value of the first sensor 66. it can.
Accordingly, the motion detection unit 185 detects the initial position and detection value of the virtual sensor 69, the position (4) of the first sensor 66 and the first detection value, and the position (5) of the first sensor 66 and the second time. Based on the detection value, a combination of the position of the three sensors and the detection value is obtained. Using the detection values of these three sensors, the direction and amount of movement at the movement center P1 can be obtained. The calculation result obtained in this example is the direction and amount of motion when the motion detected from the first time to the second time is regarded as one motion.

このように、頭部装着型表示装置100、100Aでは、複数の動きセンサーを用いるだけでなく、1つの動きセンサーを利用して、頭部の運動中心における動きの方向や動き量を得ることができる。従って、上記第1、第2実施形態のように2つ以上の動きセンサーを用いる構成に限らず、本発明を適用できる。すなわち、本発明の複数の動きセンサーの一部は、仮想的なセンサーであってもよく、他のセンサーを利用して時間軸をずらすことで実現されるセンサーであってもよい。   Thus, in the head-mounted display devices 100 and 100A, not only a plurality of motion sensors but also one motion sensor can be used to obtain the direction and amount of motion at the head motion center. it can. Therefore, the present invention is applicable not only to the configuration using two or more motion sensors as in the first and second embodiments. That is, some of the plurality of motion sensors of the present invention may be virtual sensors, or may be sensors that are realized by shifting the time axis using other sensors.

なお、本発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
上記実施形態では、眼鏡型の外形を有するフレーム2を備えた画像表示部20、200について説明したが、フレーム2を、帽子やヘルメット等の身体防護具に組み込んだ構成とすることも可能である。すなわち、右表示駆動部22及び左表示駆動部24を含む光学系と、第1カメラ64、第2カメラ65、第1センサー66、及び第2センサー68のような動きセンサーとを支持する部分が眼鏡型であれば、外形は制限されない。また、カメラユニット3を、フレーム2に一体に設ける構成としてもよい。また、カメラユニット3は、フレーム2に対して、ヒンジ21A、23A以外の部材で連結して、より高い自由度で可動な構成にしてもよい。
The present invention is not limited to the configuration of each of the embodiments described above, and can be implemented in various modes without departing from the scope of the invention.
In the above embodiment, the image display units 20 and 200 including the frame 2 having a spectacle-shaped outer shape have been described. However, the frame 2 may be configured to be incorporated in a body protective device such as a hat or a helmet. . That is, a portion that supports the optical system including the right display drive unit 22 and the left display drive unit 24 and motion sensors such as the first camera 64, the second camera 65, the first sensor 66, and the second sensor 68 is provided. If it is spectacles type, an external shape will not be restrict | limited. Further, the camera unit 3 may be provided integrally with the frame 2. The camera unit 3 may be configured to be movable with a higher degree of freedom by being connected to the frame 2 by a member other than the hinges 21A and 23A.

さらに、上記実施形態では、頭部装着型表示装置100、100Aは、画像表示部20、200と制御装置10とが分離され、接続部40を介して接続された構成として説明した。本発明はこれに限定されず、制御装置10を、画像表示部20、200と一体に構成してもよい。また、頭部装着型表示装置100、100Aは、少なくとも、表示を行う画像表示部20、200が、使用者(作業者、指令者)の頭部に装着される装置であればよい。制御装置10の装着状態は限定されない。このため、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20、200と分離して構成され、制御装置10と画像表示部20、200との間で無線通信により各種信号を送受信する構成としてもよい。   Furthermore, in the above-described embodiment, the head-mounted display devices 100 and 100A have been described as a configuration in which the image display units 20 and 200 and the control device 10 are separated and connected via the connection unit 40. The present invention is not limited to this, and the control device 10 may be configured integrally with the image display units 20 and 200. The head-mounted display devices 100 and 100A may be devices that can be mounted on the head of the user (operator or commander) at least. The mounting state of the control device 10 is not limited. For this reason, a notebook computer, a tablet computer, or a desktop computer may be used as the control device 10. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like. The control device 10 may be configured separately from the image display units 20 and 200, and various signals may be transmitted and received between the control device 10 and the image display units 20 and 200 by wireless communication.

また、例えば、画像表示部20が画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
また、画像光を使用者の眼に導く光学素子は、右導光板261、左導光板262に限定されない。すなわち、外部から装置に向けて入射する外光を透過し、画像光とともに使用者の眼に入射させる光学素子であればよい。例えば、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学素子を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学素子を採用してもよい。また、光学素子の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有する光学素子としてもよい。さらに、本発明の光学素子は、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
For example, as a configuration in which the image display unit 20 generates image light, an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be provided. Further, as a configuration for generating image light, LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like can be used.
The optical elements that guide the image light to the user's eyes are not limited to the right light guide plate 261 and the left light guide plate 262. That is, any optical element that transmits external light incident on the apparatus from the outside and enters the user's eyes together with image light may be used. For example, an optical element that is positioned in front of the user's eyes and that overlaps part or all of the user's field of view may be used. Further, a scanning optical element that scans a laser beam or the like to obtain image light may be employed. Further, the optical element is not limited to guiding the image light inside the optical element, but may be an optical element having only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes. Furthermore, the optical element of the present invention may use a diffraction grating, a prism, and a holographic display unit.

例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導く部品であってもよく、ハーフミラー面を利用してもよい。
For example, the present invention can also be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eyes, and the laser light is incident on the user's eyes to scan the retina and form an image on the retina. A configuration that allows the user to visually recognize an image may be employed.
Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, a light emitting unit includes a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system. You may prepare. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be a component that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、図4及び図6に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図4、6の通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図4、図6に示す制御部140が、画像表示部20、200に設けられた構成としてもよく、この場合、制御部140と画像表示部20、200の制御部とが機能を分担してもよい。   4 and 6, at least a part of each functional block may be realized by hardware, or may be realized by cooperation of hardware and software. It is not limited to the structure which arrange | positions an independent hardware resource as follows. The program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 10. Alternatively, a program stored in an external device may be acquired and executed via the communication unit 117 or the interface 125. Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, the control unit 140 illustrated in FIGS. 4 and 6 may be provided in the image display units 20 and 200. In this case, the control unit 140 and the control units of the image display units 20 and 200 share the functions. May be.

2…フレーム(本体)、2A…右部、2B…左部、2C…ブリッジ部(連結部)、2D…テンプル部、2E…テンプル部、3…カメラユニット、3A…アーム部、3B…アーム部、3C…カメラ台座部、10…制御装置、20…画像表示部(表示部)、21…右保持部、21A、23A…ヒンジ、23…左保持部、40…接続部、61…上部カメラ、63…マイク、64…第1カメラ(動きセンサー、光学センサー)、65…第2カメラ(動きセンサー、光学センサー)、66…第1センサー(動きセンサー、慣性センサー)、68…第2センサー(動きセンサー、慣性センサー)、69…仮想センサー(動きセンサー、慣性センサー)、100、100A…頭部装着型表示装置(表示装置)、120…記憶部、121…設定データ、122…センサー位置データ、123…コンテンツデータ、135…操作部、140…制御部、160…画像処理部、170…表示制御部、181…撮像処理部、183…検出制御部、185…検出部、186…AR表示制御部、187…音声処理部、261…右導光板(光学素子)、261A…ハーフミラー(表示領域)、262…左導光板(光学素子)、262A…ハーフミラー(表示領域)。   2 ... Frame (main body), 2A ... right part, 2B ... left part, 2C ... bridge part (connection part), 2D ... temple part, 2E ... temple part, 3 ... camera unit, 3A ... arm part, 3B ... arm part DESCRIPTION OF SYMBOLS 3C ... Camera base part, 10 ... Control apparatus, 20 ... Image display part (display part), 21 ... Right holding part, 21A, 23A ... Hinge, 23 ... Left holding part, 40 ... Connection part, 61 ... Upper camera, 63 ... Microphone, 64 ... First camera (motion sensor, optical sensor), 65 ... Second camera (motion sensor, optical sensor), 66 ... First sensor (motion sensor, inertial sensor), 68 ... Second sensor (motion) Sensor, inertial sensor), 69 ... virtual sensor (motion sensor, inertial sensor), 100, 100A ... head-mounted display device (display device), 120 ... storage unit, 121 ... setting data, 122 Sensor position data, 123 ... content data, 135 ... operation unit, 140 ... control unit, 160 ... image processing unit, 170 ... display control unit, 181 ... imaging processing unit, 183 ... detection control unit, 185 ... detection unit, 186 ... AR display control unit, 187 ... sound processing unit, 261 ... right light guide plate (optical element), 261A ... half mirror (display area), 262 ... left light guide plate (optical element), 262A ... half mirror (display area).

Claims (12)

使用者の頭部に装着される頭部装着型の表示装置であって、
使用者の眼に画像光を照射する表示部と、
複数の動きセンサーと、を備え、
いずれかの前記動きセンサーは、装着状態において前記頭部の中心より一方側に位置し、他の前記動きセンサーは前記頭部の中心より他方側に位置すること、
を特徴とする表示装置。
A head-mounted display device mounted on a user's head,
A display unit that emits image light to the user's eyes;
A plurality of motion sensors;
Any one of the motion sensors is located on one side from the center of the head in the mounted state, and the other motion sensor is located on the other side from the center of the head.
A display device.
いずれかの前記動きセンサーは、装着状態において前記頭部の中心より左側に位置し、他の前記動きセンサーは前記頭部の中心より右側に位置すること、
を特徴とする請求項1記載の表示装置。
Any one of the motion sensors is located on the left side from the center of the head in the mounted state, and the other motion sensors are located on the right side of the center of the head.
The display device according to claim 1.
前記表示部は、前記使用者の眼に向けて画像光を放つ表示領域を有する光学素子を備え、
複数の前記動きセンサー、及び、前記光学素子の表示領域の中央位置が直線状に並んで位置すること、
を特徴とする請求項1または2記載の表示装置。
The display unit includes an optical element having a display region that emits image light toward the user's eyes,
A plurality of the motion sensors and the center position of the display area of the optical element are arranged in a straight line;
The display device according to claim 1 or 2.
前記光学素子は前記使用者の眼に向けて画像光を放つ表示領域としてのハーフミラーを有すること、
を特徴とする請求項3記載の表示装置。
The optical element has a half mirror as a display area that emits image light toward the user's eyes;
The display device according to claim 3.
前記使用者の左右の眼の前に跨がって装着される本体を有し、
少なくとも2つの前記動きセンサーが、前記本体の中央に対して対称な位置にあること、
を特徴とする請求項1から4のいずれかに記載の表示装置。
Having a main body worn across the user's left and right eyes,
At least two of the motion sensors are symmetric with respect to the center of the body;
The display device according to claim 1, wherein:
前記本体は、前記使用者の右眼の前に位置する右部と、前記使用者の左眼の前に位置する左部と、前記本体の中央に位置して前記右部と前記左部とを連結する連結部と、を有し、
少なくとも2つの前記動きセンサーが前記連結部に対して対称な位置にあること、
を特徴とする請求項5記載の表示装置。
The main body includes a right part located in front of the user's right eye, a left part located in front of the user's left eye, and the right part and the left part located in the center of the main body. And a connecting part for connecting
At least two of the motion sensors are in a symmetrical position with respect to the coupling part;
The display device according to claim 5.
複数の前記動きセンサーは、少なくとも、光学センサー、及び、慣性センサーを含むこと、
を特徴とする請求項1から6のいずれかに記載の表示装置。
The plurality of motion sensors include at least an optical sensor and an inertial sensor;
The display device according to claim 1, wherein:
複数の前記動きセンサーは、光学センサー、及び、慣性センサーのうちいずれか1種類のセンサーで構成されること、
を特徴とする請求項1から6のいずれかに記載の表示装置。
The plurality of motion sensors are configured by any one of an optical sensor and an inertial sensor;
The display device according to claim 1, wherein:
複数の前記動きセンサーの検出値に基づいて、前記使用者の動きについて、動きの中心における動きを求める動き検出部を備えること、
を特徴とする請求項1から7のいずれかに記載の表示装置。
A motion detection unit that obtains a motion at the center of the motion of the user based on detection values of the plurality of motion sensors;
The display device according to claim 1, wherein:
前記動き検出部は、複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、
を特徴とする請求項9記載の表示装置。
The motion detection unit obtains a motion at the center of the motion based on a detection value of each of the plurality of motion sensors and a position of the motion sensor;
The display device according to claim 9.
使用者の頭部に装着され、前記使用者の眼に画像光を照射する表示部と、複数の動きセンサーと、を備える表示装置により、
複数の前記動きセンサーの検出値に基づき、前記頭部の運動中心における動きを求めること、
を特徴とする表示装置の制御方法。
By a display device that is mounted on the user's head and irradiates the user's eyes with image light, and a plurality of motion sensors,
Obtaining a motion at the motion center of the head based on detection values of the plurality of motion sensors;
A control method of a display device characterized by the above.
複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、
を特徴とする請求項11記載の表示装置の制御方法。
Obtaining a motion at the center of the motion based on a detection value of each of the plurality of motion sensors and a position of the motion sensor;
The method for controlling a display device according to claim 11.
JP2014253100A 2014-12-15 2014-12-15 Display device and control method of display device Pending JP2016116066A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014253100A JP2016116066A (en) 2014-12-15 2014-12-15 Display device and control method of display device
US14/968,384 US20160170482A1 (en) 2014-12-15 2015-12-14 Display apparatus, and control method for display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014253100A JP2016116066A (en) 2014-12-15 2014-12-15 Display device and control method of display device

Publications (1)

Publication Number Publication Date
JP2016116066A true JP2016116066A (en) 2016-06-23

Family

ID=56142386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014253100A Pending JP2016116066A (en) 2014-12-15 2014-12-15 Display device and control method of display device

Country Status (1)

Country Link
JP (1) JP2016116066A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111781656A (en) * 2020-07-30 2020-10-16 广州市南方人力资源评价中心有限公司 Wearing state detection method, device, equipment and medium for head-mounted display equipment
CN113467731A (en) * 2020-03-30 2021-10-01 精工爱普生株式会社 Display system, information processing apparatus, and display control method for display system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03289615A (en) * 1990-04-06 1991-12-19 Toshiba Corp Both-eye view display device
JPH06167687A (en) * 1992-11-30 1994-06-14 Mitsubishi Electric Corp Projector
JPH09203637A (en) * 1996-01-26 1997-08-05 Olympus Optical Co Ltd Attitude detector
JP2001211403A (en) * 2000-01-25 2001-08-03 Mixed Reality Systems Laboratory Inc Head mount display device and head mount display system
JP2008256946A (en) * 2007-04-05 2008-10-23 Tokyo Institute Of Technology Sickness prevention device for image display device
JP2011002753A (en) * 2009-06-22 2011-01-06 Sony Corp Head mounted display, and image display method for the same
US8223024B1 (en) * 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
JP2013117487A (en) * 2011-12-05 2013-06-13 Nikon Corp Electronic device
JP2013232744A (en) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 Display system, display adjustment system, display adjustment method and program
JP2014093036A (en) * 2012-11-06 2014-05-19 Konica Minolta Inc Guide information display device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03289615A (en) * 1990-04-06 1991-12-19 Toshiba Corp Both-eye view display device
JPH06167687A (en) * 1992-11-30 1994-06-14 Mitsubishi Electric Corp Projector
JPH09203637A (en) * 1996-01-26 1997-08-05 Olympus Optical Co Ltd Attitude detector
JP2001211403A (en) * 2000-01-25 2001-08-03 Mixed Reality Systems Laboratory Inc Head mount display device and head mount display system
JP2008256946A (en) * 2007-04-05 2008-10-23 Tokyo Institute Of Technology Sickness prevention device for image display device
JP2011002753A (en) * 2009-06-22 2011-01-06 Sony Corp Head mounted display, and image display method for the same
US8223024B1 (en) * 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
JP2013117487A (en) * 2011-12-05 2013-06-13 Nikon Corp Electronic device
JP2013232744A (en) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 Display system, display adjustment system, display adjustment method and program
JP2014093036A (en) * 2012-11-06 2014-05-19 Konica Minolta Inc Guide information display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113467731A (en) * 2020-03-30 2021-10-01 精工爱普生株式会社 Display system, information processing apparatus, and display control method for display system
CN113467731B (en) * 2020-03-30 2023-06-02 精工爱普生株式会社 Display system, information processing apparatus, and display control method of display system
CN111781656A (en) * 2020-07-30 2020-10-16 广州市南方人力资源评价中心有限公司 Wearing state detection method, device, equipment and medium for head-mounted display equipment
CN111781656B (en) * 2020-07-30 2023-09-15 广州市南方人力资源评价中心有限公司 Wearing state detection method, device, equipment and medium of head-mounted display equipment

Similar Documents

Publication Publication Date Title
JP6693060B2 (en) Display system, display device, display device control method, and program
JP6492531B2 (en) Display device and control method of display device
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
JP6225546B2 (en) Display device, head-mounted display device, display system, and display device control method
JP6337418B2 (en) Head-mounted display device and method for controlling head-mounted display device
CN105739095B (en) Display device and control method of display device
US10782528B2 (en) Head mounted display and control method thereof
JP6492638B2 (en) Display device and control method of display device
JP6550885B2 (en) Display device, display device control method, and program
JP6707823B2 (en) Display device, display device control method, and program
AU2013351980A1 (en) Direct hologram manipulation using IMU
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP6405991B2 (en) Electronic device, display device, and control method of electronic device
US20160170482A1 (en) Display apparatus, and control method for display apparatus
JP2016122177A (en) Display device and control method of display device
JP6707809B2 (en) Display device, display device control method, and program
JP2016224086A (en) Display device, control method of display device and program
JP2016082466A (en) Head-mounted display device, method for controlling head-mounted display device, and computer program
JP6575117B2 (en) Display device, display device control method, and program
JP2016024208A (en) Display device, method for controlling display device, and program
JP2016033759A (en) Display device, method for controlling display device, and program
JP2017092628A (en) Display device and display device control method
JP6565310B2 (en) Display device, display device control method, and program
JP2016116066A (en) Display device and control method of display device
JP2016090853A (en) Display device, control method of display device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191008