JP2015019273A - Head-mounted display device and control method therefor - Google Patents
Head-mounted display device and control method therefor Download PDFInfo
- Publication number
- JP2015019273A JP2015019273A JP2013145642A JP2013145642A JP2015019273A JP 2015019273 A JP2015019273 A JP 2015019273A JP 2013145642 A JP2013145642 A JP 2013145642A JP 2013145642 A JP2013145642 A JP 2013145642A JP 2015019273 A JP2015019273 A JP 2015019273A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image light
- user
- head
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、頭部装着型表示装置に関する。 The present invention relates to a head-mounted display device.
頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像を表わす画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型と、使用者が外景を視認できない非透過型と、の2つのタイプがある。透過型の頭部装着型表示装置には、光学透過型とビデオ透過型とがある。 A head-mounted display device (Head Mounted Display, HMD) that is a display device mounted on the head is known. The head-mounted display device, for example, generates image light representing an image using a liquid crystal display and a light source, and guides the generated image light to a user's eye using a projection optical system or a light guide plate This causes the user to visually recognize the virtual image. There are two types of head-mounted display devices: a transmission type in which the user can visually recognize the outside scene in addition to a virtual image, and a non-transmission type in which the user cannot visually recognize the outside scene. The transmissive head-mounted display device includes an optical transmissive type and a video transmissive type.
特許文献1には、受信した映像信号を構成する複数のフレームのそれぞれが輝度や彩度によって何種類かに識別され、所定数のフレームにおいて、特定の種類のフレームから他の種類のフレームへの変化が一定回数以上である場合には、所定数のフレームからいくつかのフレームを削減することでフレームの種類の変化を減少させることにより、映像を視認している使用者への負担を軽減する画像表示装置が開示されている。 In Patent Document 1, each of a plurality of frames constituting a received video signal is identified by several types according to luminance and saturation, and in a predetermined number of frames, from a specific type of frame to another type of frame. If the change is more than a certain number of times, reducing the number of frames from the predetermined number of frames will reduce the change in the frame type, thereby reducing the burden on the user viewing the video. An image display device is disclosed.
しかし、特許文献1に記載された技術では、受信した映像信号を構成する複数のフレームのそれぞれの種類を識別して、特定の種類のフレームから他の種類のフレームへの変化を減少させるため、使用者に視認される映像のみについては一定の効果が得られるものの、例えば、フレームの種類の変化がない静止画像を使用者に視認させる場合については考慮されていない。そのため、映像以外の静止画像等についても、使用者の負担を軽減したいという課題があった。また、透過型の頭部装着型表示装置では、受信される映像に加えて透過された外景を重畳して使用者に視認させる。そのため、透過された外景を考慮したうえで、使用者に視認させる虚像を制御したいという課題があった。また、透過された外景に含まれて検出される情報に応じて、使用者に視認させる虚像を制御したいという課題があった。そのほか、従来の頭部装着型表示装置においては、利便性の向上等が望まれていた。 However, in the technique described in Patent Document 1, in order to identify each type of a plurality of frames constituting the received video signal and reduce a change from a specific type of frame to another type of frame, Although a certain effect can be obtained only for an image visually recognized by the user, for example, no consideration is given to a case where the user visually recognizes a still image having no change in the type of frame. For this reason, there is a problem of reducing the burden on the user for still images other than video. In addition, in the transmissive head-mounted display device, the transmitted outside scene is superimposed on the received image and is visually recognized by the user. Therefore, there is a problem that it is desired to control a virtual image that is visually recognized by the user in consideration of the transmitted outside scene. In addition, there is a problem that it is desired to control a virtual image that is visually recognized by the user according to information detected by being included in the transmitted outside scene. In addition, in the conventional head-mounted display device, improvement in convenience has been desired.
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.
(1)本発明の一形態によれば、透過型の頭部装着型表示装置が提供される。この頭部装着型表示装置は、画像データに基づいて画像光を生成し射出する画像光生成部を有し、使用者の頭部に装着された状態において、使用者に前記画像光を虚像として視認させると共に、外景を透過させる画像表示部と;前記画像表示部を用いて使用者に視認させる前記画像光として、設定された特定の画像データに基づいて生成され、時間の経過に伴って変化する特定画像光を設定する制御部と、を備える。この形態の頭部装着型表示装置によれば、使用者に視認される画像光が時間の経過に伴って緩やかに変化するため、使用者の視覚に対する負担が軽減される。 (1) According to one aspect of the present invention, a transmissive head-mounted display device is provided. This head-mounted display device has an image light generation unit that generates and emits image light based on image data, and in a state of being mounted on the user's head, the image light is transmitted to the user as a virtual image. An image display unit that allows the user to visually recognize and transmit the outside scene; and the image light that is visually recognized by the user using the image display unit, is generated based on the set specific image data, and changes with time. And a control unit for setting the specific image light to be performed. According to this form of the head-mounted display device, the image light visually recognized by the user changes gradually with the passage of time, so that the burden on the user's vision is reduced.
(2)上記形態の頭部装着型表示装置において、前記特定の画像データは、特定の情報に基づいて設定され;前記特定画像光は、複数種類の第1の画像光と、前記複数種類の第1の画像光とは異なる第2の画像光と、を含み;前記制御部は、前記画像表示部を用いて使用者に視認させる前記画像光を、前記複数種類の第1の画像光から前記第2の画像光へと、時間の経過に伴って変化させてもよい。この形態の頭部装着型表示装置によれば、使用者に対して、外景のみが視認されている状態からいきなり第2の画像光を視認させるのではなく、時間の経過に伴って複数種類の第1の画像光を視認させた後に第2の画像光を視認させる。よって、使用者が視認する外景および画像光の変化が緩やかであるため、使用者の視覚に対する負担をさらに軽減できる。 (2) In the head-mounted display device of the above aspect, the specific image data is set based on specific information; the specific image light includes a plurality of types of first image light and the plurality of types of image data. Second image light different from the first image light; and the control unit causes the image light to be visually recognized by a user using the image display unit from the plurality of types of first image light. You may change to said 2nd image light with progress of time. According to the head-mounted display device of this embodiment, the user does not suddenly make the second image light visible from the state where only the outside scene is visually recognized, but with a plurality of types over time. After the first image light is visually recognized, the second image light is visually recognized. Therefore, since the change of the outside scene and image light which a user visually recognizes is moderate, the burden with respect to a user's vision can further be reduced.
(3)上記形態の頭部装着型表示装置において、前記複数種類の第1の画像光のそれぞれと前記第2の画像光とは、輝度のみが異なっていてもよい。この形態の頭部装着型表示装置によれば、1つの画像データに基づいて、輝度を制御するだけで複数種類の第1の画像光および第2の画像光を生成することができるため、簡単な制御によって使用者の視覚に対する負担を軽減できる。 (3) In the head-mounted display device of the above aspect, each of the plurality of types of first image light and the second image light may differ only in luminance. According to the head-mounted display device of this aspect, a plurality of types of first image light and second image light can be generated based on a single image data simply by controlling the luminance. Easy control can reduce the burden on the user's vision.
(4)上記形態の頭部装着型表示装置において、前記画像光生成部は、射出する光量を調整可能な光源と、前記光源から射出された光を前記画像光に変換する画像形成パネルと、を含み;前記制御部は、前記光源から射出される光量を調整することにより、前記複数種類の第1の画像光のそれぞれと前記第2の画像光との輝度を異ならせてもよい。この形態の頭部装着型表示装置によれば、1つの画像データに基づいて、輝度を制御するだけで複数種類の第1の画像光および第2の画像光を生成することができるため、簡単な制御によって使用者の視覚に対する負担を軽減できる。 (4) In the head-mounted display device according to the above aspect, the image light generation unit includes a light source capable of adjusting the amount of light emitted, an image forming panel that converts light emitted from the light source into the image light, The control unit may adjust the light intensity emitted from the light source to make the brightness of each of the plurality of types of first image light different from that of the second image light. According to the head-mounted display device of this aspect, a plurality of types of first image light and second image light can be generated based on a single image data simply by controlling the luminance. Easy control can reduce the burden on the user's vision.
(5)上記形態の頭部装着型表示装置において、前記第2の画像光の輝度は、前記複数種類の第1の画像光のそれぞれの輝度よりも大きく;前記制御部は、前記画像表示部を用いて;前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させていない状態から、前記複数種類の第1の画像光を視認させた後に前記第2の画像光を視認させる状態へと変化させる場合には、時間の経過に伴い前記複数種類の第1の画像光の輝度が増加するように前記複数種類の第1の画像光を使用者に視認させ;前記第2の画像光を使用者に視認させた後に前記複数種類の第1の画像光を視認させた状態から、前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させない状態へと変化させる場合には、時間の経過に伴い輝度が減少するように前記複数種類の第1の画像光を使用者に視認させてもよい。この形態の頭部装着型表示装置によれば、複数種類の第1の画像光を経て第2の画像光が徐々に浮かび上がってくるように使用者に視認させることができ、使用者の視覚に対する負担をさらに軽減できる。 (5) In the head-mounted display device according to the above aspect, the luminance of the second image light is greater than the luminance of each of the plurality of types of first image light; The first image light of the plurality of types and the second image light are not visually recognized by the user, and the first image light of the plurality of types is viewed after the first In the case of changing to a state in which the second image light is viewed, the plurality of types of first image light are given to the user so that the luminance of the plurality of types of first image light increases as time passes. From the state in which the plurality of types of first image light are visually recognized after the second image light is visually recognized by the user, the plurality of types of first image light and the second image light When changing to a state that the user does not visually recognize A first image light of the plurality of types may be recognized by the user as have luminance is reduced. According to this form of the head-mounted display device, the user can visually recognize the second image light so that the second image light gradually emerges through a plurality of types of first image light. Can be further reduced.
(6)上記形態の頭部装着型表示装置において、前記制御部は、前記画像表示部を用いて;前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させていない状態から、前記複数種類の第1の画像光を視認させた後に前記第2の画像光を視認させる状態へと変化させる場合には、時間の経過に伴い前記複数種類の第1の画像光の輝度の増加率が大きくなるように前記複数種類の第1の画像光を使用者に視認させ;前記第2の画像光を使用者に視認させた後に前記複数種類の第1の画像光を視認させた状態から、前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させない状態へと変化させる場合には、時間の経過に伴い輝度の減少率が大きくなるように前記複数種類の第1の画像光を使用者に視認させてもよい。この形態の頭部装着型表示装置によれば、複数種類の第1の画像光を経て第2の画像光が徐々に浮かび上がってくるように使用者に視認させることができ、使用者の視覚に対する負担をさらに軽減できる。 (6) In the head-mounted display device according to the above aspect, the control unit uses the image display unit; both the plurality of types of the first image light and the second image light are used by a user. When changing from a state where the first image light is not visually recognized to a state where the second image light is visually recognized after the plurality of types of first image light is visually recognized, the first type of the plurality of types of first image light with the passage of time. The user is made to visually recognize the plurality of types of first image light so that the rate of increase in the luminance of the image light is increased; and after the user has visually recognized the second image light, the plurality of types of first image light When changing from the state in which the image light is visually recognized to the state in which neither of the plurality of types of the first image light and the second image light is visually recognized by the user, the luminance is increased as time passes. The plurality of types of first image lights are viewed by the user so that the reduction rate is increased. It may be. According to this form of the head-mounted display device, the user can visually recognize the second image light so that the second image light gradually emerges through a plurality of types of first image light. Can be further reduced.
(7)上記形態の頭部装着型表示装置において、前記複数種類の第1の画像光のそれぞれは、前記第2の画像光の一部であり;前記制御部は、前記画像表示部を用いて;前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させていない状態から、前記複数種類の第1の画像光を視認させた後に前記第2の画像光を視認させる状態へと変化させる場合には、時間の経過に伴い前記複数種類の第1の画像光の大きさが増加するように前記複数種類の第1の画像光を使用者に視認させ;前記第2の画像光を使用者に視認させた後に前記複数種類の第1の画像光を視認させた状態から、前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させない状態へと変化させる場合には、時間の経過に伴い前記複数種類の第1の画像光の大きさ画が減少するように前記複数種類の第1の画像光を使用者に視認させてもよい。この形態の頭部装着型表示装置によれば、使用者に対して、外景のみが視認されている状態からいきなり第2の画像光を視認させるのではなく、時間の経過に伴って視認させる画像の領域を大きくしていく。よって、使用者が視認する外景および画像の変化が緩やかであるため、使用者の視覚に対する負担が軽減される。 (7) In the head-mounted display device according to the above aspect, each of the plurality of types of first image light is part of the second image light; and the control unit uses the image display unit. And the second image light after the plurality of types of first image light and the second image light are not visually recognized by the user. When changing to a state in which the image light is visually recognized, the plurality of types of first image lights are visually recognized by the user so that the sizes of the plurality of types of first image light increase with time. From the state in which the plurality of types of first image light is visually recognized after the second image light is visually recognized by the user, the plurality of types of first image light and the second image light are In any case, when changing to a state where the user does not visually recognize the above, A first image light of the plurality of types may be recognized by the user such that the magnitude image of the first image light type is reduced. According to the head-mounted display device of this aspect, the image is made to be visually recognized as time elapses rather than causing the user to visually recognize the second image light from a state where only the outside scene is visually recognized. The area of will be enlarged. Therefore, since the change of the outside scene and the image visually recognized by the user is gradual, the burden on the user's vision is reduced.
(8)上記形態の頭部装着型表示装置は、さらに、使用者の視線方向の外景の温度分布を検出する温度検出部を備え;前記特定の情報は、検出された前記外景の温度分布を特定する情報を含んでいてもよい。この形態の頭部装着型表示装置によれば、外景の温度変化に伴う画像を使用者に視認させることができ、使用者の利便性が向上する。 (8) The head-mounted display device according to the above aspect further includes a temperature detection unit that detects a temperature distribution of the outside scene in the direction of the user's line of sight; the specific information includes the detected temperature distribution of the outside scene. The information to identify may be included. According to the head-mounted display device of this aspect, it is possible to make the user visually recognize an image accompanying a temperature change of the outside scene, and the convenience for the user is improved.
(9)上記形態の頭部装着型表示装置は、さらに、使用者の視線方向の外景を撮像する撮像部と;撮像された撮像画像に含まれる特定の対象物を抽出する対象物抽出部と、を備え;前記特定の情報は、抽出された前記特定の対象物に関する情報であってもよい。この形態の頭部装着型表示装置によれば、撮像画像に含まれる特定の対象物の検出結果に基づいて、使用者に視認させる画像を制御できるため、使用者の利便性が向上する。 (9) The head-mounted display device according to the above aspect further includes an imaging unit that captures an outside scene in the user's line-of-sight direction; an object extraction unit that extracts a specific object included in the captured image; The specific information may be information regarding the extracted specific object. According to the head-mounted display device of this aspect, since the image to be visually recognized by the user can be controlled based on the detection result of the specific object included in the captured image, the convenience for the user is improved.
(10)上記形態の頭部装着型表示装置は、さらに、使用者の位置を特定する位置情報を取得する位置情報取得部を備え;前記特定の情報は、取得された前記位置情報を含んでいてもよい。この形態の頭部装着型表示装置によれば、使用者の位置情報に基づいて、使用者に視認させる画像を制御できるため、使用者の利便性が向上する。 (10) The head-mounted display device according to the above aspect further includes a position information acquisition unit that acquires position information for specifying a position of the user; the specific information includes the acquired position information. May be. According to the head-mounted display device of this aspect, since the image to be visually recognized by the user can be controlled based on the position information of the user, the convenience for the user is improved.
(11)上記形態の頭部装着型表示装置は、さらに、使用者の視線方向を特定する情報である視線方向情報を取得する視線方向特定部を備え;前記特定の情報は、前記視線方向情報を含んでいてもよい。この形態の頭部装着型表示装置によれば、使用者の視線方向が固定されていない場合に、複数種類の第1の画像光および第2の画像光を使用者に視認させない。よって、使用者は、視線方向を変化させても透過された外景が変化するだけで、生成された画像を視認せずに済むため、使用者が視認する外景の変化が少なく、使用者の視覚に対する負担がさらに軽減される。 (11) The head-mounted display device according to the above aspect further includes a line-of-sight direction specifying unit that acquires line-of-sight direction information that is information for specifying a user's line-of-sight direction; May be included. According to this form of the head-mounted display device, when the user's line-of-sight direction is not fixed, the user is not allowed to visually recognize a plurality of types of first image light and second image light. Therefore, even if the user changes the line-of-sight direction, the transmitted outside scene only changes, and it is not necessary to view the generated image. Is further reduced.
上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。 A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with another new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.
例えば、本発明の一形態は、画像表示部と、制御部と、の2つ要素の内の一つ以上または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、装置は、制御部を有していてもよく、有していなくてもよい。画像表示部は、例えば、画像データに基づいて画像光を生成し射出する画像光生成部を有し、使用者の頭部に装着された状態において、使用者に前記画像光を虚像として視認させると共に、外景を透過させてもよい。制御部は、例えば、前記画像表示部を用いて使用者に視認させる前記画像光として、設定された特定の画像データに基づいて生成され、時間の経過に伴って変化する特定画像光を設定してもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、装置の操作性の向上および簡易化、装置の一体化や、装置を使用する使用者の利便性の向上、等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。 For example, one embodiment of the present invention can be realized as an apparatus including one or more or all of the two elements of the image display unit and the control unit. That is, this apparatus may or may not have an image display unit. The device may or may not have a control unit. The image display unit includes, for example, an image light generation unit that generates and emits image light based on image data, and allows the user to visually recognize the image light as a virtual image in a state of being mounted on the user's head. At the same time, the outside scene may be transmitted. The control unit, for example, sets the specific image light that is generated based on the set specific image data as the image light to be visually recognized by the user using the image display unit, and changes with time. May be. Such a device can be realized as, for example, a head-mounted display device, but can also be realized as a device other than the head-mounted display device. According to such a form, it is possible to solve at least one of various problems such as improvement and simplification of the operability of the device, integration of the device, and improvement of convenience of the user who uses the device. it can. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.
本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示装置、頭部装着型表示装置および表示装置の制御方法、頭部装着型表示システム、表示装置、頭部装着型表示システムおよび表示装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。 The present invention can also be realized in various forms other than the head-mounted display device. For example, display device, head-mounted display device and display device control method, head-mounted display system, display device, head-mounted display system, and computer program for realizing the functions of the display device, and the computer program Can be realized in the form of a data signal or the like embodied in a carrier wave including the computer program.
次に、本発明の実施の形態を実施形態に基づいて以下の順序で説明する。
A.第1実施形態:
A−1.頭部装着型表示装置の構成:
A−2.特定画像表示処理:
A−3.特定画像非表示処理:
B.第2実施形態:
C.変形例:
Next, embodiments of the present invention will be described in the following order based on the embodiments.
A. First embodiment:
A-1. Configuration of head mounted display device:
A-2. Specific image display processing:
A-3. Specific image hiding process:
B. Second embodiment:
C. Variation:
A−1.頭部装着型表示装置の構成:
図1は、頭部装着型表示装置100の外観構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態の頭部装着型表示装置100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、頭部装着型表示装置100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing an external configuration of the head-mounted display device 100. The head-mounted display device 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The head-mounted display device 100 of the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. In this specification, a virtual image visually recognized by the user with the head-mounted display device 100 is also referred to as a “display image” for convenience. Moreover, emitting image light generated based on image data is also referred to as “displaying an image”.
頭部装着型表示装置100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。 The head-mounted display device 100 includes an image display unit 20 that allows a user to visually recognize a virtual image when mounted on the user's head, and a control unit 10 (controller 10) that controls the image display unit 20. I have.
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、サーモグラフィー62と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。 The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a thermography 62. And. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。 The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。 The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図3参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可能である。 The display drive units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 (see FIG. 3). Details of the configuration of the display driving units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving units 22 and 24 to the eyes of the user. The light control plate is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. In addition, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.
サーモグラフィー62は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。サーモグラフィー62は、物体から放射され、温度によって異なる赤外線を検出し、検出した赤外線エネルギー量を温度に換算し、温度の分布を表す温度分布画像(赤外線熱画像)を生成する赤外線サーモグラフィーである。サーモグラフィー62の画角は、撮像する画像の領域が画像表示部20を装着した使用者の視線と同じになるように設定されている。なお、サーモグラフィー62は、請求項における温度検出部に相当する。 The thermography 62 is arranged at a position corresponding to the user's eyebrow when the user wears the image display unit 20. The thermography 62 is an infrared thermography that detects infrared rays radiated from an object and varies depending on temperature, converts the detected amount of infrared energy into temperature, and generates a temperature distribution image (infrared thermal image) representing the temperature distribution. The angle of view of the thermography 62 is set so that the area of the image to be captured is the same as the line of sight of the user wearing the image display unit 20. The thermography 62 corresponds to a temperature detection unit in the claims.
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。 The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control unit 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24. The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御部10と、のそれぞれには、互いに嵌合するコネクター(図示しない)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。 The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. A connector (not shown) that fits each other is provided at each of the end of the main body cord 48 opposite to the connecting member 46 and the control unit 10. By fitting / releasing the connector of the main body cord 48 and the connector of the control unit 10, the control unit 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.
制御部10は、頭部装着型表示装置100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、頭部装着型表示装置100の動作状態を、その発光状態によって通知する。頭部装着型表示装置100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LED(Light Emitting Diode)が用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、頭部装着型表示装置100の電源投入状態を切り替える。 The control unit 10 is a device for controlling the head-mounted display device 100. The control unit 10 includes a determination key 11, a lighting unit 12, a display switching key 13, a track pad 14, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. Yes. The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control unit 10. The lighting unit 12 notifies the operation state of the head-mounted display device 100 by its light emission state. Examples of the operating state of the head-mounted display device 100 include power ON / OFF. For example, an LED (Light Emitting Diode) is used as the lighting unit 12. The display switching key 13 detects a pressing operation and outputs a signal for switching the display mode of the content video between 3D and 2D, for example. The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the head-mounted display device 100 by detecting a slide operation of the switch.
図2は、頭部装着型表示装置100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、入力情報取得部110と、記憶部120と、電源130と、操作部135と、CPU140と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。操作部135は、使用者による操作を受け付け、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18、から構成されている。 FIG. 2 is a block diagram functionally showing the configuration of the head-mounted display device 100. As shown in FIG. 2, the control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, an operation unit 135, a CPU 140, an interface 180, a transmission unit 51 (Tx51), and a transmission unit 52. (Tx52). The operation unit 135 receives an operation by the user and includes an enter key 11, a display switch key 13, a track pad 14, a luminance switch key 15, a direction key 16, a menu key 17, and a power switch 18.
入力情報取得部110は、使用者による操作入力に応じた信号を取得する。操作入力に応じた信号としては、例えば、操作部135に配置されたトラックパッド14、方向キー16、電源スイッチ18、に対する操作入力がある。電源130は、頭部装着型表示装置100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。記憶部120は、種々のコンピュータープログラムを格納している。記憶部120は、ROMやRAM等によって構成されている。CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160、視線方向判定部166、および、特定画像制御部165として機能する。 The input information acquisition unit 110 acquires a signal corresponding to an operation input by the user. As a signal corresponding to the operation input, for example, there is an operation input to the track pad 14, the direction key 16, and the power switch 18 arranged in the operation unit 135. The power supply 130 supplies power to each part of the head-mounted display device 100. As the power supply 130, for example, a secondary battery can be used. The storage unit 120 stores various computer programs. The storage unit 120 is configured by a ROM, a RAM, or the like. The CPU 140 reads and executes the computer program stored in the storage unit 120, thereby operating the operating system 150 (OS 150), the display control unit 190, the sound processing unit 170, the image processing unit 160, the line-of-sight direction determination unit 166, and The specific image control unit 165 functions.
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。 The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 controls driving of the right LCD 241 by the right LCD control unit 211, driving ON / OFF of the right backlight 221 by the right backlight control unit 201, and left LCD control unit according to control signals. The left LCD 242 driving ON / OFF by 212, the left backlight 222 driving ON / OFF by the left backlight control unit 202, and the like are individually controlled. Thus, the display control unit 190 controls the generation and emission of image light by the right display driving unit 22 and the left display driving unit 24, respectively. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light.
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。 The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.
画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示しない)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示しない)を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(RGBデータ)として、1フレームごとに記憶部120内のDRAMに格納する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。 The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as a vertical synchronization signal VSync and a horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). Thereafter, the image processing unit 160 stores the converted digital image signal as image data (RGB data) of the target image in the DRAM in the storage unit 120 for each frame. Note that the image processing unit 160 may execute image processing such as various tone correction processing such as resolution conversion processing, brightness and saturation adjustment, and keystone correction processing on the image data as necessary. .
画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データ、のそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。 The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. . Note that the image data transmitted via the transmission unit 51 is also referred to as “right eye image data”, and the image data transmitted via the transmission unit 52 is also referred to as “left eye image data”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。 The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker (not shown) connected to the connecting member 46 ( (Not shown). For example, when the Dolby (registered trademark) system is adopted, processing on the audio signal is performed, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, for example.
視線方向判定部166は、後述する9軸センサー66が検出した画像表示部20の向きや動きに基づいて、使用者の視線方向を推定する。 The line-of-sight direction determination unit 166 estimates the line-of-sight direction of the user based on the orientation and movement of the image display unit 20 detected by the 9-axis sensor 66 described later.
特定画像制御部165は、閾値以上の温度の部分を特定画像として表示させる高熱検出アプリケーション(以下、単に「熱検出アプリ」とも呼ぶ)である。特定画像制御部165は、サーモグラフィー62により取得された温度分布画像に基づいて、閾値以上の温度である領域を識別する。特定画像制御部165は、閾値以上の温度であることを使用者に視認させるために、識別された領域と同じ大きさで赤色の画像を示す特定画像データを作成する。また、特定画像制御部165は、特定画像データを基に、特定画像における色や領域を変化させた画像データを作成できる。特定画像制御部165は、作成した特定画像データを制御信号として画像処理部160および表示制御部190へと送信する。なお、特定画像制御部165は、請求項における制御部に相当する。 The specific image control unit 165 is a high heat detection application (hereinafter, also simply referred to as “heat detection application”) that displays a portion having a temperature equal to or higher than a threshold value as a specific image. The specific image control unit 165 identifies a region having a temperature equal to or higher than a threshold based on the temperature distribution image acquired by the thermography 62. The specific image control unit 165 creates specific image data indicating a red image having the same size as the identified region so that the user can visually recognize that the temperature is equal to or higher than the threshold value. Further, the specific image control unit 165 can create image data in which the color or region of the specific image is changed based on the specific image data. The specific image control unit 165 transmits the generated specific image data as a control signal to the image processing unit 160 and the display control unit 190. The specific image control unit 165 corresponds to the control unit in the claims.
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。 The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、9軸センサー66と、サーモグラフィー62と、を備えている。 The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and nine axes. A sensor 66 and a thermography 62 are provided.
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)、を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された使用者の頭部の動きから画像表示部20の向きが特定され、視線方向判定部166は、使用者の視線方向を特定する。視線方向判定部166は、検出された加速度および角速度が閾値以下の場合には、使用者の視線方向が固定されている、すなわち、使用者の視線方向が固定されていると判定する。なお、9軸センサー66と視線方向判定部166とは、請求項における視線方向特定部に相当する。 The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of the user's head is detected. The orientation of the image display unit 20 is specified from the detected movement of the user's head, and the line-of-sight direction determination unit 166 specifies the line-of-sight direction of the user. When the detected acceleration and angular velocity are equal to or less than the threshold value, the line-of-sight direction determination unit 166 determines that the user's line-of-sight direction is fixed, that is, the user's line-of-sight direction is fixed. The 9-axis sensor 66 and the line-of-sight direction determining unit 166 correspond to the line-of-sight direction specifying unit in the claims.
右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。 The right display driving unit 22 includes a receiving unit 53 (Rx53), a right backlight control unit 201 (right BL control unit 201) and a right backlight 221 (right BL221) that function as a light source, and a right LCD that functions as a display element. A control unit 211, a right LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as display elements. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as “image light generation unit”.
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データと、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。 The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。 The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as “light guide unit”.
左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54(Rx54)と、光源として機能する左バックライト制御部202(左BL制御部202)および左バックライト222(左BL222)と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を含んでいる。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。バックライト制御部201,202とバックライト221,222とは、請求項における光源に相当し、LCD制御部211,212とLCD241,242とは、請求項における画像形成パネルに相当する。 The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes a receiving unit 54 (Rx54), a left backlight control unit 202 (left BL control unit 202) and a left backlight 222 (left BL222) that function as a light source, and a left LCD that functions as a display element. A control unit 212 and a left LCD 242 and a left projection optical system 252 are included. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as display elements. The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are also collectively referred to as “image light generation unit”. The left projection optical system 252 is configured by a collimating lens that converts the image light emitted from the left LCD 242 into a light beam in a parallel state. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path. The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”. The backlight control units 201 and 202 and the backlights 221 and 222 correspond to the light sources in the claims, and the LCD control units 211 and 212 and the LCDs 241 and 242 correspond to the image forming panels in the claims.
図3は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表わす有効な画像光PLへと変調する。左側についても同様である。なお、図3のように、本実施形態ではバックライト方式を採用したが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。 FIG. 3 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby changing the illumination light IL emitted from the right backlight 221 into an image. Is modulated into an effective image light PL representing The same applies to the left side. As shown in FIG. 3, the backlight system is adopted in the present embodiment, but the image light may be emitted using a front light system or a reflection system.
A−2.特定画像表示処理:
図4は、特定画像表示処理の流れを示す説明図である。特定画像表示処理では、特定の検出条件が選択された後に、選択された検出条件に応じて特定画像データが作成されて、画像表示部20に特定画像が表示される。
A-2. Specific image display processing:
FIG. 4 is an explanatory diagram showing the flow of the specific image display process. In the specific image display process, after a specific detection condition is selected, specific image data is created according to the selected detection condition, and the specific image is displayed on the image display unit 20.
特定画像表示処理では、初めに、操作部135が所定の操作を受け付けると、特定画像制御部165は、アプリの選択メニュー画面を画像表示部20に表示させる(ステップS11)。図5は、使用者に視認される選択メニュー画面IMG1の一例を示す説明図である。図5には、使用者が視認する視野VRが示されている。画像表示最大領域PNは、画像光が形成される最大領域の外枠を示している。なお、図5において、画像表示最大領域PNの外枠の破線は、便宜上示されたものであり、使用者に視認されない。図5に示すように、画像表示最大領域PN内には、選択メニュー画面IMG1と、カーソルCSと、が示されている。画像表示最大領域PN内に表示された選択メニュー画面IMG1には、選択可能な複数のアプリの選択ボタンが含まれている。操作部135が使用者に操作されることにより、カーソルCSが画像表示最大領域PN内を動いて、いずれかのボタンにカーソルCSが重なった状態で決定キー11の押し下げられると、当該ボタンが選択される。 In the specific image display process, first, when the operation unit 135 receives a predetermined operation, the specific image control unit 165 displays an application selection menu screen on the image display unit 20 (step S11). FIG. 5 is an explanatory diagram showing an example of the selection menu screen IMG1 visually recognized by the user. FIG. 5 shows a visual field VR visually recognized by the user. The image display maximum area PN indicates an outer frame of the maximum area where image light is formed. In FIG. 5, the broken line in the outer frame of the image display maximum area PN is shown for convenience and is not visually recognized by the user. As shown in FIG. 5, a selection menu screen IMG1 and a cursor CS are shown in the image display maximum area PN. The selection menu screen IMG1 displayed in the image display maximum area PN includes selection buttons for a plurality of selectable applications. When the operation unit 135 is operated by the user, the cursor CS moves in the maximum image display area PN, and when the determination key 11 is pressed while the cursor CS is overlapped with any button, the button is selected. Is done.
選択メニュー画面IMG1が表示された後(図4のステップS11)、使用者により特定のアプリが選択されると(ステップS12:アプリ選択)、特定画像制御部165は、選択されたアプリ(以下、単に「選択アプリ」とも呼ぶ)に対応した画面を画像表示部20に表示させる。選択アプリが検出アプリである場合には、特定画像制御部165は、検出条件の入力画面を画像表示部20に表示させる(ステップS13)。ステップS12の処理において、選択メニュー画面IMG1に含まれる過去履歴が選択された場合には(ステップS12:履歴選択)、特定画像制御部165は、過去の選択アプリ、および、それぞれの選択アプリの検出条件を画像表示部20に表示させる(ステップS14)。なお、本実施形態では、熱検出アプリが選択された場合について、説明する。熱検出アプリでは、検出条件の入力画面として、検出する下限の温度の設定画面が画像表示部20に表示される。 After the selection menu screen IMG1 is displayed (step S11 in FIG. 4), when a specific application is selected by the user (step S12: application selection), the specific image control unit 165 displays the selected application (hereinafter referred to as “application”). A screen corresponding to “simply selected application”) is displayed on the image display unit 20. When the selected application is a detection application, the specific image control unit 165 causes the image display unit 20 to display a detection condition input screen (step S13). When the past history included in the selection menu screen IMG1 is selected in the process of step S12 (step S12: history selection), the specific image control unit 165 detects the past selected apps and the respective selected apps. The conditions are displayed on the image display unit 20 (step S14). In the present embodiment, a case where a heat detection application is selected will be described. In the heat detection application, a setting screen for a lower limit temperature to be detected is displayed on the image display unit 20 as an input screen for detection conditions.
ステップS13の処理、および、ステップS14の処理の後、操作部135が使用者に操作されることで検出条件である下限の温度を設定する(ステップS15)。下限の温度が設定されると、特定画像制御部165は、熱検出アプリに関連する装置であるサーモグラフィー62および9軸センサー66を起動させる(ステップS16)。 After the process of step S13 and the process of step S14, the operation unit 135 is operated by the user to set a lower limit temperature which is a detection condition (step S15). When the lower limit temperature is set, the specific image control unit 165 activates the thermography 62 and the 9-axis sensor 66, which are devices related to the heat detection application (step S16).
次に、特定画像制御部165は、サーモグラフィー62によって撮像された温度分布画像における検出条件に該当する閾値以上の温度の領域を検出する(ステップS17)。閾値以上の温度の領域が検出されない場合には(ステップS17:NO)、引き続き、特定画像制御部165は、閾値以上の温度の領域を監視する。閾値以上の温度の領域が検出された場合には(ステップS17:YES)、視線方向判定部166は、使用者の視線方向が固定されているかを判定する(ステップS18)。 Next, the specific image control unit 165 detects a region having a temperature equal to or higher than the threshold corresponding to the detection condition in the temperature distribution image captured by the thermography 62 (step S17). When the temperature region above the threshold is not detected (step S17: NO), the specific image control unit 165 continuously monitors the region above the threshold. When a region having a temperature equal to or higher than the threshold is detected (step S17: YES), the line-of-sight direction determination unit 166 determines whether the user's line-of-sight direction is fixed (step S18).
ステップS18の処理において、使用者の視線方向が固定されていないと判定された場合には(ステップS18:NO)、引き続き、閾値以上の温度の領域の検出を監視しつつ(ステップS17)、使用者の視線方向が固定される状態になるのを待機する(ステップS18)。ステップS18の処理において、使用者の視線方向が固定されたと判定された場合には(ステップS18:YES)、特定画像制御部165は、特定画像を表示する位置として、閾値以上の温度の領域を特定する(ステップS19)。なお、閾値以上の温度の領域が検出された状態では、使用者の視線方向が固定されていない場合があるため、閾値以上の温度の領域が検出され、かつ、使用者の視線方向が固定された場合に、閾値以上の温度の領域を特定する。 If it is determined in step S18 that the user's line-of-sight direction is not fixed (step S18: NO), the detection of a region having a temperature equal to or higher than the threshold is continuously monitored (step S17). It waits for a person's gaze direction to be in the state fixed (step S18). In the process of step S18, when it is determined that the user's line-of-sight direction is fixed (step S18: YES), the specific image control unit 165 selects a region having a temperature equal to or higher than the threshold as the position for displaying the specific image. Specify (step S19). Note that in a state in which a region having a temperature equal to or higher than the threshold is detected, the user's line-of-sight direction may not be fixed. Therefore, a region having a temperature equal to or higher than the threshold is detected and the user's line-of-sight direction is fixed. If this is the case, a region having a temperature equal to or higher than the threshold is specified.
閾値以上の温度の領域が特定されると(ステップS19)、特定画像制御部165は、特定した領域に対応する特定画像データを設定する(ステップS20)。図6は、使用者に視認される特定画像の一例を示す説明図である。図6には、使用者に視認される視野VRが示されている。図6には、画像表示最大領域PN内に表示され、特定画像データを基に生成された特定画像SI1および特定画像SI2(以下、合わせて「特定画像SI1,SI2」とも呼ぶ)が示されている。特定画像SI1は、サーモグラフィー62によって検出された閾値以上の温度の領域を示す画像である。特定画像SI2は、特定画像SI1が示す領域が閾値以上の温度であり、高温で危険であることを使用者に促すメッセージ画像である。 When a region having a temperature equal to or higher than the threshold is specified (step S19), the specific image control unit 165 sets specific image data corresponding to the specified region (step S20). FIG. 6 is an explanatory diagram illustrating an example of a specific image visually recognized by the user. FIG. 6 shows a visual field VR visually recognized by the user. FIG. 6 shows a specific image SI1 and a specific image SI2 (hereinafter also referred to as “specific images SI1, SI2”) displayed in the image display maximum area PN and generated based on the specific image data. Yes. The specific image SI <b> 1 is an image showing a region having a temperature equal to or higher than a threshold detected by the thermography 62. The specific image SI2 is a message image that prompts the user that the region indicated by the specific image SI1 has a temperature equal to or higher than a threshold value and is dangerous at a high temperature.
特定画像データが設定されると(図4のステップS20)、特定画像制御部165は、設定した特定画像データに基づいて特定画像および複数の中間画像を生成して画像表示部20に表示させる(ステップS21)。図7は、使用者に視認される中間画像の一例を示す説明図である。図7には、画像表示最大領域PN内に表示された中間画像MI1および中間画像MI2(以下、合わせて「中間画像MI1,MI2」とも呼ぶ)が示されている。中間画像MI1は、サーモグラフィー62によって検出された閾値以上の温度の領域、すなわち、特定画像SI1と同じ領域を示す画像である。また、中間画像MI2は、特定画像SI2と同じ領域を示す画像である。なお、図6および図7では、輝度に対応した画像の色の濃さがハッチングの濃さによって示されている。 When the specific image data is set (step S20 in FIG. 4), the specific image control unit 165 generates a specific image and a plurality of intermediate images based on the set specific image data and displays them on the image display unit 20 ( Step S21). FIG. 7 is an explanatory diagram illustrating an example of an intermediate image visually recognized by the user. FIG. 7 shows an intermediate image MI1 and an intermediate image MI2 (hereinafter also referred to as “intermediate images MI1 and MI2”) displayed in the image display maximum area PN. The intermediate image MI1 is an image showing a region having a temperature equal to or higher than the threshold detected by the thermography 62, that is, the same region as the specific image SI1. The intermediate image MI2 is an image showing the same area as the specific image SI2. In FIGS. 6 and 7, the color density of the image corresponding to the luminance is indicated by the hatching density.
中間画像は、特定画像SI1,SI2の輝度を100%とした場合に、特定画像データに基づいて輝度を100%未満として生成された画像である。すなわち、複数の中間画像と特定画像SI1,SI2とは、同一の特定画像データを基に生成された輝度のみが異なる画像である。そのため、中間画像は、輝度の数によって複数生成される。例えば、輝度が10,35,65,100%に設定されると、特定画像データを基に、3つの中間画像と1つの特定画像が生成される。 The intermediate image is an image generated with the luminance less than 100% based on the specific image data when the luminance of the specific images SI1 and SI2 is 100%. That is, the plurality of intermediate images and the specific images SI1 and SI2 are images that differ only in luminance generated based on the same specific image data. Therefore, a plurality of intermediate images are generated depending on the number of luminances. For example, when the luminance is set to 10, 35, 65, 100%, three intermediate images and one specific image are generated based on the specific image data.
図8は、画像表示処理におけるバックライト221,222の輝度の時間推移の一例を示す説明図である。図8には、横軸を時間軸とした場合に、画像表示部20に画像が表示されていない状態から特定画像SI1,SI2が表示されるまでの期間TE(例えば、3秒間)における輝度の変化が示されている。同一の特定画像データを基に、輝度を変化させることで、画像表示部20に複数の中間画像が表示された後に、特定画像SI1,SI2が表示される。 FIG. 8 is an explanatory diagram illustrating an example of temporal transition of the luminance of the backlights 221 and 222 in the image display process. In FIG. 8, when the horizontal axis is a time axis, the luminance in a period TE (for example, 3 seconds) from when no image is displayed on the image display unit 20 until the specific images SI1 and SI2 are displayed is displayed. Changes are shown. By changing the brightness based on the same specific image data, the specific images SI1 and SI2 are displayed after a plurality of intermediate images are displayed on the image display unit 20.
図8に示すように、特定画像制御部165は、中間画像MI1,MI2を表示する場合に、時間の経過に伴い輝度の増加率が大きくなるようにバックライト221,222の輝度を増加させる。そのため、特定画像制御部165は、閾値以上の温度が検出された場合に、検出された瞬間に特定画像SI1,SI2を使用者に視認させるのではなく、輝度の異なる複数の中間画像を視認させた後に、特定画像SI1,SI2を視認させることで、特定画像SI1,SI2が徐々に浮かび上がってくるように視認させる(以下、「フェードイン表示」とも呼ぶ)。なお、複数の中間画像および特定画像SI1,SI2のそれぞれは、請求項における複数種類の第1の画像光および第2の画像光に相当する。 As shown in FIG. 8, when displaying the intermediate images MI1 and MI2, the specific image control unit 165 increases the luminance of the backlights 221 and 222 so that the increase rate of the luminance increases with time. Therefore, when a temperature equal to or higher than the threshold is detected, the specific image control unit 165 does not cause the user to visually recognize the specific images SI1 and SI2 at the detected moment, but allows a plurality of intermediate images with different luminances to be visually recognized. After that, the specific images SI1 and SI2 are visually recognized so that the specific images SI1 and SI2 gradually emerge (hereinafter also referred to as “fade-in display”). Each of the plurality of intermediate images and the specific images SI1 and SI2 corresponds to a plurality of types of first image light and second image light in the claims.
複数の中間画像および特定画像SI1,SI2が画像表示部20に表示されると(図4のステップS21)、特定画像制御部165は、特定画像表示処理を終了する。 When the plurality of intermediate images and the specific images SI1 and SI2 are displayed on the image display unit 20 (step S21 in FIG. 4), the specific image control unit 165 ends the specific image display process.
A−3.特定画像非表示処理:
図9は、特定画像非表示処理の流れを示す説明図である。特定画像非表示処理では、設定された検出条件により検出されて特定画像が画像表示部20に表示されていた状態から、特定画像が検出条件に該当しなくなった場合や、使用者の視線方向が変更された場合に、特定画像を非表示の状態へと変化させる。
A-3. Specific image hiding process:
FIG. 9 is an explanatory diagram showing the flow of the specific image non-display process. In the specific image non-display processing, when the specific image no longer meets the detection condition from the state where the specific image is detected and displayed on the image display unit 20 according to the set detection condition, or the user's line-of-sight direction is changed. When changed, the specific image is changed to a non-display state.
特定画像非表示処理では、初めに、特定画像制御部165は、閾値以上の温度として検出した領域の温度が、引き続き、閾値以上の温度であるかを判定する(ステップS31)。閾値以上の温度であると判定された場合には(ステップS31:YES)、次に、視線方向判定部166は、使用者の視線方向の変化を検出する(ステップS32)。使用者の視線方向の変化が検出されていない、すなわち、使用者の視線方向が固定されたままであると判定された場合には(ステップS32:NO)、特定画像制御部165は、引き続き、閾値以上の温度として検出されていた領域の温度を監視しつつ(ステップS31)、視線方向判定部166は、使用者の視線方向を監視する(ステップS32)。 In the specific image non-display process, first, the specific image control unit 165 determines whether or not the temperature of the area detected as the temperature equal to or higher than the threshold continues to be equal to or higher than the threshold (step S31). If it is determined that the temperature is equal to or higher than the threshold value (step S31: YES), the line-of-sight direction determination unit 166 then detects a change in the line-of-sight direction of the user (step S32). If it is determined that a change in the user's line-of-sight direction has not been detected, that is, the user's line-of-sight direction remains fixed (step S32: NO), the specific image control unit 165 continues to use the threshold value. While monitoring the temperature of the region detected as the above temperature (step S31), the line-of-sight direction determination unit 166 monitors the line-of-sight direction of the user (step S32).
ステップS31の処理において、閾値以上の温度として検出されていた領域の温度が閾値未満であると判定された場合(ステップS31:NO)、および、ステップS32の処理において、使用者の視線方向の変化が検出された場合には(ステップS32:YES)、特定画像制御部165は、画像表示部20に表示していた特定画像SI1,SI2を、時間の経過に伴って輝度の異なる複数の中間画像へと変化させた後に、輝度を0%として中間画像を非表示にする(ステップS33)。 In the process of step S31, when it is determined that the temperature of the region detected as the temperature equal to or higher than the threshold is lower than the threshold (step S31: NO), and in the process of step S32, the change in the user's line-of-sight direction Is detected (step S32: YES), the specific image control unit 165 converts the specific images SI1 and SI2 displayed on the image display unit 20 into a plurality of intermediate images having different luminances over time. After changing to, the intermediate image is not displayed by setting the luminance to 0% (step S33).
図10は、画像非表示処理におけるバックライト221,222の輝度の時間推移の一例を示す説明図である。図10には、横軸を時間軸とした場合に、画像表示部20に特定画像SI1,SI2が画像表示部20に表示された状態から画像表示部20に画像が表示されなくなるまでの期間TEにおける輝度の変化が示されている。図10に示すように、特定画像制御部165は、画像表示部20に表示する画像を、特定画像SI1,SI2から輝度の異なる複数の中間画像へと変化させる場合に、時間の経過に伴い輝度の減少率が大きくなるように輝度を減少させる。そのため、閾値以上の温度が検出されなくなった場合、および、使用者の視線方向が変化した場合等に、瞬間的に特定画像SI1,SI2が使用者に視認されなくなるのではなく、特定画像SI1,SI2が輝度の異なる複数の中間画像へと変化して、徐々に消えていくように使用者に視認される(以下、単に「フェードアウト表示」とも呼ぶ)。 FIG. 10 is an explanatory diagram showing an example of the time transition of the luminance of the backlights 221 and 222 in the image non-display process. In FIG. 10, when the horizontal axis is the time axis, a period TE from when the specific images SI1 and SI2 are displayed on the image display unit 20 to when no image is displayed on the image display unit 20 is displayed. The change in brightness at is shown. As illustrated in FIG. 10, the specific image control unit 165 changes the luminance as time elapses when the image displayed on the image display unit 20 is changed from the specific images SI1 and SI2 to a plurality of intermediate images having different luminances. The luminance is decreased so that the decrease rate of the image becomes larger. Therefore, when the temperature equal to or higher than the threshold is not detected, and when the user's line-of-sight direction changes, the specific images SI1 and SI2 are not instantaneously seen by the user, but the specific image SI1, SI2 changes to a plurality of intermediate images having different luminances and is visually recognized by the user so as to disappear gradually (hereinafter also simply referred to as “fade-out display”).
特定画像SI1,SI2および複数の中間画像が画像表示部20に表示されると(図9のステップS33)、特定画像制御部165は、特定画像非表示処理を終了する。 When the specific images SI1 and SI2 and the plurality of intermediate images are displayed on the image display unit 20 (step S33 in FIG. 9), the specific image control unit 165 ends the specific image non-display process.
以上説明したように、本実施形態における頭部装着型表示装置100では、操作部135は、特定画像データを基に生成され、時間の経過に伴って変化する特定画像SI1,SI2およい中間画像MI1,MI2を画像表示部20に表示させる。そのため、本実施形態の頭部装着型表示装置100では、使用者に視認される画像が時間の経過に伴って緩やかに変化するため、使用者の視覚に対する負担が軽減される。 As described above, in the head-mounted display device 100 according to the present embodiment, the operation unit 135 is generated based on the specific image data, and the specific images SI1 and SI2 which are good intermediate images that change with time. MI1 and MI2 are displayed on the image display unit 20. Therefore, in the head-mounted display device 100 according to the present embodiment, the image visually recognized by the user changes gradually with the passage of time, so that the burden on the user's vision is reduced.
また、本実施形態における頭部装着型表示装置100では、特定画像制御部165は、閾値以上の温度を検出してから、輝度の異なる複数の中間画像を画像表示部20に表示させた後に、特定画像SI1,SI2を画像表示部20に表示させる。複数の中間画像は、サーモグラフィー62により取得された温度分布画像に基づいて作成された特定画像データを基に生成される。また、特定画像SI1,SI2は、特定画像データを基に生成され、複数の中間画像とは異なる画像である。そのため、本実施形態の頭部装着型表示装置100では、使用者に対して、外景のみが視認されている状態からいきなり特定画像SI1,SI2を視認させるのではなく、時間の経過に伴って中間画像を視認させた後に特定画像SI1,SI2を視認させる。よって、使用者が視認する外景および画像の変化が緩やかであるため、使用者の視覚に対する負担をさらに軽減できる。 Further, in the head-mounted display device 100 according to the present embodiment, the specific image control unit 165 displays a plurality of intermediate images having different luminances on the image display unit 20 after detecting a temperature equal to or higher than a threshold value. The specific images SI1 and SI2 are displayed on the image display unit 20. The plurality of intermediate images are generated based on specific image data created based on the temperature distribution image acquired by the thermography 62. Further, the specific images SI1 and SI2 are generated based on the specific image data, and are images different from the plurality of intermediate images. Therefore, in the head-mounted display device 100 according to the present embodiment, the user does not suddenly visually recognize the specific images SI1 and SI2 from the state where only the outside scene is visually recognized, but the intermediate as the time elapses. After the image is visually recognized, the specific images SI1 and SI2 are visually recognized. Therefore, since the change of the outside scene and the image visually recognized by the user is gradual, the burden on the user's vision can be further reduced.
また、本実施形態における頭部装着型表示装置100では、複数の中間画像と特定画像SI1,SI2とは、同一の特定画像データを基に生成された輝度のみが異なる画像である。特定画像制御部165は、バックライト221,222の光量を調整することにより、複数の中間画像と特定画像SI1,SI2との輝度が異なるように調整する。そのため、本実施形態の頭部装着型表示装置100では、1つの画像データに基づいて、輝度を制御するだけで複数の中間画像および特定画像SI1,SI2を生成することができるため、簡単な制御によって使用者の視覚に対する負担を軽減できる。 In the head-mounted display device 100 according to the present embodiment, the plurality of intermediate images and the specific images SI1 and SI2 are images that differ only in luminance generated based on the same specific image data. The specific image control unit 165 adjusts the light amounts of the backlights 221 and 222 to adjust the brightness of the plurality of intermediate images and the specific images SI1 and SI2 to be different. Therefore, since the head-mounted display device 100 according to the present embodiment can generate a plurality of intermediate images and specific images SI1 and SI2 only by controlling the luminance based on one image data, simple control is possible. The burden on the user's vision can be reduced.
また、本実施形態における頭部装着型表示装置100では、特定画像制御部165は、予め設定された期間TE(例えば、3秒間)の間に、輝度の異なる複数の中間画像を画像表示部20に表示させて、期間TEの終了時に、複数の中間画像の輝度のそれぞれよりも輝度の大きい特定画像SI1,SI2を画像表示部20に表示させる。特定画像制御部165は、中間画像MI1,MI2を表示する場合に、時間の経過に伴い輝度の増加率が大きくなるようにバックライト221,222の輝度を増加させる。また、特定画像制御部165は、期間TEの間に、画像表示部20に表示された特定画像SI1,SI2から輝度の異なる複数の中間画像へと変化させて、期間TEの終了時に画像表示部20に画像が表示されていない状態にする。特定画像制御部165は、画像表示部20に表示する画像を、特定画像SI1,SI2から輝度の異なる複数の中間画像へと変化させる場合に、時間の経過に伴い輝度の減少率が大きくなるように輝度を減少させる。そのため、本実施形態の頭部装着型表示装置100では、複数の中間画像を経て特定画像SI1,SI2が徐々に浮かび上がってくるように使用者に視認させることができ、使用者の視覚に対する負担をさらに軽減できる。 In the head-mounted display device 100 according to the present embodiment, the specific image control unit 165 displays a plurality of intermediate images having different luminances during the preset period TE (for example, 3 seconds). And at the end of the period TE, the image display unit 20 displays the specific images SI1 and SI2 having a luminance higher than that of each of the plurality of intermediate images. When displaying the intermediate images MI1 and MI2, the specific image control unit 165 increases the luminance of the backlights 221 and 222 so that the increase rate of the luminance increases with time. Further, the specific image control unit 165 changes the specific images SI1 and SI2 displayed on the image display unit 20 to a plurality of intermediate images having different luminances during the period TE, and displays the image display unit at the end of the period TE. 20 in which no image is displayed. When the specific image control unit 165 changes the image displayed on the image display unit 20 from the specific images SI1 and SI2 to a plurality of intermediate images having different luminances, the decrease rate of the luminance increases with the passage of time. Reduce the brightness. Therefore, in the head-mounted display device 100 according to the present embodiment, the user can visually recognize the specific images SI1 and SI2 gradually rising through a plurality of intermediate images, and the burden on the user's vision is reduced. Can be further reduced.
また、本実施形態における頭部装着型表示装置100では、サーモグラフィー62が温度の分布を表す温度分布画像を生成し、特定画像制御部165が生成された温度分布画像によって特定画像データを作成する。そのため、本実施形態の頭部装着型表示装置100では、外景の温度変化に伴う画像を使用者に視認させることができ、使用者の利便性が向上する。 Further, in the head-mounted display device 100 according to the present embodiment, the thermography 62 generates a temperature distribution image representing the temperature distribution, and the specific image control unit 165 generates specific image data from the generated temperature distribution image. Therefore, in the head-mounted display device 100 according to the present embodiment, the user can visually recognize an image accompanying a change in the temperature of the outside scene, and the convenience for the user is improved.
また、本実施形態における頭部装着型表示装置100では、9軸センサー66が使用者の頭部の動きを検出し、視線方向判定部166が検出された頭部の動きによって使用者の視線方向を特定する。特定画像制御部165は、使用者の視線方向が固定された場合に、特定画像データを作成する。そのため、本実施形態の頭部装着型表示装置100では、使用者の視線方向が固定されていない場合に、中間画像および特定画像SI1,SI2を使用者に視認させない。よって、使用者は、視線方向を変化させても透過された外景が変化するだけで、生成された画像を視認せずに済むため、視認する外景の変化が少なく、使用者の視覚に対する負担がさらに軽減される。 In the head-mounted display device 100 according to the present embodiment, the 9-axis sensor 66 detects the movement of the user's head, and the line-of-sight direction of the user is detected by the movement of the head detected by the line-of-sight direction determination unit 166. Is identified. The specific image control unit 165 creates specific image data when the user's line-of-sight direction is fixed. Therefore, in the head-mounted display device 100 of the present embodiment, the intermediate image and the specific images SI1 and SI2 are not visually recognized by the user when the user's line-of-sight direction is not fixed. Therefore, even if the user changes the line-of-sight direction, the transmitted outside scene only changes, and it is not necessary to visually recognize the generated image. Further reduced.
B.第2実施形態:
図11は、第2実施形態における頭部装着型表示装置100aの構成を機能的に示すブロック図である。頭部装着型表示装置100aでは、サーモグラフィー62の代わりにカメラ61が画像表示部20aに形成され、制御部10aには、GPSモジュール134と、無線通信部132と、画像判定部168と、が形成されている点が、第1実施形態の頭部装着型表示装置100と異なり、他の構成については同じである。
B. Second embodiment:
FIG. 11 is a block diagram functionally showing the configuration of the head-mounted display device 100a in the second embodiment. In the head-mounted display device 100a, the camera 61 is formed in the image display unit 20a instead of the thermography 62, and the GPS module 134, the wireless communication unit 132, and the image determination unit 168 are formed in the control unit 10a. Unlike the head-mounted display device 100 of the first embodiment, the other configurations are the same.
カメラ61は、サーモグラフィー62と同じように、使用者が画像表示部20aを装着した際の使用者の眉間に対応する位置に配置されている。カメラ61は、使用者の視線方向の外部の景色である外景を撮像し、外景画像を取得する。カメラ61は、単眼カメラであるが、ステレオカメラであってもよい。カメラ61は、請求項における撮像部に相当する。 Similarly to the thermography 62, the camera 61 is disposed at a position corresponding to the user's eyebrow when the user wears the image display unit 20a. The camera 61 captures an outside scene, which is an external scenery in the direction of the user's line of sight, and acquires an outside scene image. The camera 61 is a monocular camera, but may be a stereo camera. The camera 61 corresponds to an imaging unit in the claims.
GPSモジュール134は、GPS衛星からの信号を受信することにより、画像表示部20aの現在位置を特定して、位置を示す情報を生成する。画像表示部20aの現在位置が検出されることで、頭部装着型表示装置100aの使用者の現在位置が特定される。なお、GPSモジュール134は、請求項における位置情報取得部に相当する。 The GPS module 134 receives the signal from the GPS satellite, specifies the current position of the image display unit 20a, and generates information indicating the position. By detecting the current position of the image display unit 20a, the current position of the user of the head-mounted display device 100a is specified. The GPS module 134 corresponds to a position information acquisition unit in the claims.
無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って、例えば、天候情報や道路交通情報といった各種情報を、他の機器との間で送受信する。画像判定部168は、記憶部120に予め記憶された画像データの表わす特定の対象画像と同じ画像(例えば、「空」の画像)が外景画像に含まれているか否かを、パターンマッチングによって判定する。画像判定部168は、請求項における対象物抽出部に相当する。 The wireless communication unit 132 transmits / receives various information such as weather information and road traffic information to / from other devices in accordance with a predetermined wireless communication standard such as a wireless LAN or Bluetooth. The image determination unit 168 determines whether or not the outside scene image includes the same image (for example, “sky” image) as the specific target image represented by the image data stored in advance in the storage unit 120 by pattern matching. To do. The image determination unit 168 corresponds to the object extraction unit in the claims.
第2実施形態の特定画像制御部165は、温度の検出のみでなく、外景画像に含まれる特定の対象画像の検出や使用者の現在位置等に基づいて、種々の制御を行なって特定画像および複数の中間画像を画像表示部20aに表示させる。例えば、特定画像制御部165は、外景画像に含まれる空の領域を特定して、使用者の視線方向が固定されている場合には、無線通信部132を介して受信した天気情報を示す特定画像データを生成する。 The specific image control unit 165 according to the second embodiment performs not only temperature detection, but also performs various controls based on detection of a specific target image included in the outside scene image, the current position of the user, and the like, and A plurality of intermediate images are displayed on the image display unit 20a. For example, the specific image control unit 165 specifies the sky area included in the outside scene image, and indicates the weather information received via the wireless communication unit 132 when the user's line-of-sight direction is fixed. Generate image data.
図12は、第2実施形態における特定画像表示処理の流れを示す説明図である。第2実施形態の特定画像表示処理では、第1実施形態と比較して、選択される検出アプリ、および、生成される特定画像および複数の中間画像が異なる。そのため、第2実施形態では、第1実施形態と比較して、新たにステップS61の予告画像の生成および表示の処理が追加され、その他の点については、第1実施形態と同じである。なお、第2実施形態では、検出アプリである「天気情報(図5)」のアプリ(以下、「お天気アプリ」とも呼ぶ)が選択された場合について説明する。また、予告画像は、請求項における複数種類の第1の画像光に相当する。 FIG. 12 is an explanatory diagram showing the flow of specific image display processing in the second embodiment. In the specific image display process of the second embodiment, the selected detection application, the generated specific image, and the plurality of intermediate images are different from those of the first embodiment. Therefore, in the second embodiment, compared with the first embodiment, a process for generating and displaying a preview image in step S61 is newly added, and the other points are the same as those in the first embodiment. In the second embodiment, a case where an application of “weather information (FIG. 5)” (hereinafter also referred to as “weather application”), which is a detection application, is selected will be described. The notice image corresponds to a plurality of types of first image light in the claims.
特定画像表示処理において、お天気アプリの検出条件が設定されると(図12のステップS45)、特定画像制御部165は、お天気アプリに関連する装置であるカメラ61、9軸センサー66、無線通信部132、および、GPSモジュール134を起動させる(ステップS46)。 When the weather application detection condition is set in the specific image display process (step S45 in FIG. 12), the specific image control unit 165 includes a camera 61, a nine-axis sensor 66, and a wireless communication unit, which are devices related to the weather application. 132 and the GPS module 134 are activated (step S46).
次に、画像判定部168は、検出条件として、外景画像に対象画像としての「空」が所定の領域以上(例えば外景画像の半分以上)に含まれているかを判定する(ステップS47)。外景画像に対象画像が含まれていないと判定された場合には(ステップS47:NO)、画像判定部168は、引き続き、対象画像の検出を監視する(ステップS47)。外景画像に対象画像が含まれていると判定された場合には(ステップS47:YES)、特定画像制御部165は、特定画像データを基に対象画像が検出された領域全域を、特定画像を表わす候補の領域とする1つの予告画像データを作成して、1つの予告画像データに基づく複数の予告画像を画像表示部20aに表示させる(ステップS61)。 Next, the image determination unit 168 determines whether or not “sky” as the target image is included in a predetermined area or more (for example, half or more of the outside scene image) as the detection condition (step S47). When it is determined that the target image is not included in the outside scene image (step S47: NO), the image determination unit 168 continues to monitor the detection of the target image (step S47). When it is determined that the target image is included in the outside scene image (step S47: YES), the specific image control unit 165 uses the specific image as the entire region in which the target image is detected based on the specific image data. One preview image data is created as a candidate area to be displayed, and a plurality of preview images based on one preview image data is displayed on the image display unit 20a (step S61).
図13は、使用者に視認される予告画像PIの一例を示す説明図である。図16に示すように、画像表示最大領域PN内には、予告画像PIが表示されている。予告画像PIは、撮像された外景画像の内、画像判定部168が対象画像の「空」として判定した領域の全域に対応するように生成された画像である。複数の予告画像は、同一の予告画像データを基に、時間の経過に伴ってバックライト221,222の輝度を増加させて生成される。 FIG. 13 is an explanatory diagram showing an example of a preview image PI visually recognized by the user. As shown in FIG. 16, the preview image PI is displayed in the image display maximum area PN. The preview image PI is an image generated so as to correspond to the entire area of the captured outside scene image determined by the image determination unit 168 as “sky” of the target image. The plurality of preview images are generated by increasing the luminance of the backlights 221 and 222 with the passage of time based on the same preview image data.
画像表示部20aに予告画像が表示された後(図12のステップS61)、視線方向判定部166は、使用者の視線方向が固定されているか判定する(ステップS48)。使用者の視線方向が固定されていないと判定された場合には(ステップS48:NO)、引き続き、視線方向判定部166は、使用者の視線方向が固定される状態になるのを待機する(ステップS48)。ステップS48の処理において、使用者の視線方向が固定されたと判定された場合には(ステップS48:YES)、特定画像制御部165は、予告画像が表示されている領域の内から特定画像を表示する位置を特定する(ステップS49)。 After the preview image is displayed on the image display unit 20a (step S61 in FIG. 12), the line-of-sight direction determination unit 166 determines whether the user's line-of-sight direction is fixed (step S48). When it is determined that the user's line-of-sight direction is not fixed (step S48: NO), the line-of-sight direction determination unit 166 continues to wait until the user's line-of-sight direction is fixed (step S48: NO). Step S48). If it is determined in step S48 that the user's line-of-sight direction is fixed (step S48: YES), the specific image control unit 165 displays the specific image from the area in which the preview image is displayed. The position to perform is specified (step S49).
図14は、使用者に視認される特定画像の一例を示す説明図である。図14には、画像表示最大領域PN内に表示された特定画像SI3および特定画像SI4が示されている。特定画像SI3,SI4は、無線通信部132から受信した情報に基づいて特定画像制御部165が作成した特定画像データに基づいて生成された画像である。特定画像制御部165は、予告画像が表示された領域内において、特定画像SI3を左上に表示し、特定画像SI4を右上に表示する。 FIG. 14 is an explanatory diagram illustrating an example of a specific image visually recognized by the user. FIG. 14 shows the specific image SI3 and the specific image SI4 displayed in the image display maximum area PN. The specific images SI3 and SI4 are images generated based on the specific image data created by the specific image control unit 165 based on the information received from the wireless communication unit 132. The specific image control unit 165 displays the specific image SI3 on the upper left and the specific image SI4 on the upper right in the area where the preview image is displayed.
以上説明したように、第2実施形態の頭部装着型表示装置100aでは、カメラ61が使用者の視線方向の外部の景色である外景を撮像して外景画像を取得し、画像判定部168が特定の対象画像と同じ画像が外景画像に含まれているか否かを、パターンマッチングによって判定する。また、GPSモジュール134は、GPS衛星からの信号を受信することにより、頭部装着型表示装置100aの使用者の現在位置を特定する。そのため、第2実施形態の頭部装着型表示装置100aでは、外景画像に含まれる特定の対象画像の検出や使用者の位置情報に基づいて、使用者に視認させる画像を制御できるため、使用者の利便性が向上する。 As described above, in the head-mounted display device 100a of the second embodiment, the camera 61 captures an external scene that is an external scene in the user's line-of-sight direction, acquires an external scene image, and the image determination unit 168 It is determined by pattern matching whether or not the same image as the specific target image is included in the outside scene image. In addition, the GPS module 134 specifies the current position of the user of the head-mounted display device 100a by receiving a signal from a GPS satellite. Therefore, in the head-mounted display device 100a of the second embodiment, the user can control the image to be visually recognized based on the detection of a specific target image included in the outside scene image and the position information of the user. Improved convenience.
C.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
C. Variation:
In addition, this invention is not limited to the said embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.
C1.変形例1:
上記実施形態では、選択アプリの一例として、熱検出アプリやお天気アプリの例を挙げてフェードイン表示およびフェードアウト表示について説明したが、検出アプリ、特定画像、および、中間画像については種々変形可能である。
C1. Modification 1:
In the above-described embodiment, fade-in display and fade-out display have been described using examples of the heat detection application and the weather application as examples of the selection application. However, the detection application, the specific image, and the intermediate image can be variously modified. .
図15および図16は、使用者に視認される中間画像の一例を示す説明図である。図15および図16には、第1実施形態の中間画像MI1,MI2(図7)の変形例が示されている。図15および図16には、フェードイン表示によって最終的に画像表示部20に表示される特定画像SI1,SI2の領域に包含される中間画像MI1a,MI2a,MI1b,MI1bが示されている。この変形例では、フェードイン表示は、第1実施形態のように輝度を徐々に変化させるのではなく、異なる画像データに基づいて生成された複数の中間画像を表示させた後に、特定画像SI1,SI3を表示させる。特定画像制御部165は、特定画像データの一部を示す複数の中間画像データを作成し、中間画像データに基づいて生成された中間画像MI1a(図15)、中間画像MI1b(図16)、特定画像SI1(図6)の順序で、使用者に視認させる。そのため、この変形例では、使用者に対して、外景のみが視認されている状態からいきなり特定画像SI1,SI2を視認させるのではなく、時間の経過に伴って視認させる画像の領域を大きくしていく。よって、使用者が視認する外景および画像の変化が緩やかであるため、使用者の視覚に対する負担が軽減される。なお、フェードイン表示は、輝度の変化と表示領域の変化との組み合わせで行なわれてもよい。 15 and 16 are explanatory diagrams illustrating an example of an intermediate image visually recognized by the user. 15 and 16 show a modification of the intermediate images MI1 and MI2 (FIG. 7) of the first embodiment. 15 and 16 show intermediate images MI1a, MI2a, MI1b, and MI1b included in the areas of the specific images SI1 and SI2 that are finally displayed on the image display unit 20 by the fade-in display. In this modified example, the fade-in display does not gradually change the luminance as in the first embodiment, but after displaying a plurality of intermediate images generated based on different image data, the specific image SI1, SI3 is displayed. The specific image control unit 165 creates a plurality of intermediate image data indicating a part of the specific image data, generates the intermediate image MI1a (FIG. 15), the intermediate image MI1b (FIG. 16) generated based on the intermediate image data, and the specific image data. The user is made to visually recognize in the order of the image SI1 (FIG. 6). For this reason, in this modification, the specific image SI1, SI2 is not suddenly seen from the state where only the outside scene is visually recognized, but the area of the image to be visually recognized is increased as time passes. Go. Therefore, since the change of the outside scene and the image visually recognized by the user is gradual, the burden on the user's vision is reduced. Note that the fade-in display may be performed by a combination of a change in luminance and a change in display area.
図17は、使用者に視認される中間画像MI1cの一例を示す説明図である。図18は、使用者に視認される特定画像SI1c,SI2c,SI5cの一例を示す説明図である。この変形例では、第1実施形態と同じように、フェードイン表示は、輝度を徐々に大きくすることで行なわれると同時に、中間画像MI1cから特定画像SI1cへと画像表示領域を小さくする。このように、中間画像が特定画像よりも大きな領域であってもよい。 FIG. 17 is an explanatory diagram illustrating an example of the intermediate image MI1c visually recognized by the user. FIG. 18 is an explanatory diagram illustrating an example of specific images SI1c, SI2c, and SI5c visually recognized by the user. In this modification, as in the first embodiment, the fade-in display is performed by gradually increasing the luminance, and at the same time, the image display area is reduced from the intermediate image MI1c to the specific image SI1c. In this way, the intermediate image may be an area larger than the specific image.
C2.変形例2:
図19は、使用者に視認される特定画像SI6,SI7,SI8の一例を示す説明図である。図19には、検出アプリとして「経路案内」が選択された場合に、使用者が視認する視野VRが示されている。この変形例では、GPSモジュール134が使用者の現在位置を特定し、特定された位置が交差点であった場合に、特定画像制御部165は、経路案内の特定画像SI6,SI7,SI8を画像表示部20に表示させる。
C2. Modification 2:
FIG. 19 is an explanatory diagram illustrating an example of the specific images SI6, SI7, and SI8 visually recognized by the user. FIG. 19 shows a visual field VR visually recognized by the user when “route guidance” is selected as the detection application. In this modification, when the GPS module 134 specifies the current position of the user and the specified position is an intersection, the specific image control unit 165 displays the specific images SI6, SI7, and SI8 for route guidance as images. Displayed on the unit 20.
図20は、使用者に視認される特定画像を含むメニュー画像IMG2の一例を示す説明図である。図20には、検出アプリとして「待機メニュー表示」が選択された場合に、使用者が視認する視野VRが示されている。この変形例では、GPSモジュール134が使用者の現在位置を特定し、使用者が特定された現在位置から一定時間移動しなかった場合に、特定画像制御部165は、「音楽起動」等のメニュー画面を画像表示部20に表示させる。 FIG. 20 is an explanatory diagram illustrating an example of a menu image IMG2 including a specific image visually recognized by the user. FIG. 20 shows a visual field VR visually recognized by the user when “standby menu display” is selected as the detection application. In this modification, when the GPS module 134 specifies the current position of the user and the user has not moved from the specified current position for a certain period of time, the specific image control unit 165 displays a menu such as “music activation”. The screen is displayed on the image display unit 20.
図21は、使用者に視認される特定画像SI9,SI10の一例を示す説明図である。図21には、検出アプリとして「待機画像表示」が選択された場合に、使用者が視認する視野VRが示されている。この変形例では、画像判定部168が外景画像の内から特定の対象画像である「空」を認識すると同時に、GPSモジュール134が使用者の現在位置を特定する。使用者が特定された現在位置から一定時間移動しなかった場合に、特定画像制御部165は、特定画像SI9,SI10を画像表示部20に表示させる。 FIG. 21 is an explanatory diagram illustrating an example of the specific images SI9 and SI10 visually recognized by the user. FIG. 21 shows a visual field VR visually recognized by the user when “standby image display” is selected as the detection application. In this modification, the image determination unit 168 recognizes “sky” as a specific target image from the outside scene image, and at the same time, the GPS module 134 specifies the current position of the user. The specific image control unit 165 causes the image display unit 20 to display the specific images SI9 and SI10 when the user has not moved from the specified current position for a certain period of time.
C3.変形例3:
上記第1実施形態では、フェードイン表示とフェードアウト表示とにおいて、中間画像MI1,MI2を表示する場合に輝度を変更させる期間TEが同じであったが、異なっていてもよい。例えば、フェードイン表示の場合には、フェードアウト表示の場合と比較して、期間TEが長くてもよい。また、上記第1実施形態では、中間画像MI1,MI2を表示する場合に、時間の経過に伴い輝度の増加率が大きくなるように制御されたが、輝度の増加率についてはこれに限られず種々変形可能である。例えば、輝度の増加率は、時間の経過に対して一定であってもよいし、時間の経過に対してステップ状に変化してもよい。
C3. Modification 3:
In the first embodiment, in the fade-in display and the fade-out display, the period TE for changing the luminance when displaying the intermediate images MI1 and MI2 is the same, but it may be different. For example, in the case of fade-in display, the period TE may be longer than in the case of fade-out display. Further, in the first embodiment, when the intermediate images MI1 and MI2 are displayed, the luminance increase rate is controlled to increase with time. However, the luminance increase rate is not limited to this and is various. It can be deformed. For example, the rate of increase in luminance may be constant over time or may change stepwise over time.
また、上記実施形態では、図8および図10に示すように、特定画像制御部165は、輝度を0%から100%までの間において増減させたが、輝度の上限値および下限値についてはこれに限られず、種々変形可能である。例えば、特定画像制御部165は、輝度を20%から90%までの間において増減させてもよい。 In the above embodiment, as shown in FIGS. 8 and 10, the specific image control unit 165 increases or decreases the luminance between 0% and 100%. The present invention is not limited to this, and various modifications are possible. For example, the specific image control unit 165 may increase or decrease the luminance between 20% and 90%.
また、上記第1実施形態では、フェードイン表示およびフェードアウト表示が行なわれたが、中間画像MI1,MI2および特定画像SI1,SI2を表示させる方法についてはこれに限られず、種々変形可能である。例えば、ある二つの輝度を点滅させながら、画像表示最大領域PNにおいて、中間画像の領域が徐々に大きくなって、特定画像の領域に変化してもよい。また、点滅させながら輝度を増減させることでフェードイン表示およびフェードアウト表示が行なわれてもよい。 In the first embodiment, fade-in display and fade-out display are performed. However, the method of displaying the intermediate images MI1, MI2 and the specific images SI1, SI2 is not limited to this, and various modifications can be made. For example, in the image display maximum region PN, the intermediate image region may gradually increase and change to the specific image region while blinking certain two luminances. Further, fade-in display and fade-out display may be performed by increasing / decreasing luminance while blinking.
また、上記実施形態では、検出条件に基づいて最終的に1つの特定画像が表示される態様であったが、特定画像については種々変形可能である。例えば、検出条件に基づいて複数の特定画像が識別されて表示されてもよい。上記第1実施形態において、検出した温度が閾値以上であるか否かの判定だけではなく、複数の閾値の温度が設定されて、どの閾値以上の温度であるかによって特定画像の色が異なる態様であってもよい。高温である場合には、RGB成分の内、よりR成分が大きい特定画像で表示されてもよいし、表示される特定画像の外枠が円ではなく、ギザギザな形状にすることで使用者により高温な領域について注意を促すことができる。 In the above embodiment, one specific image is finally displayed based on the detection condition. However, the specific image can be variously modified. For example, a plurality of specific images may be identified and displayed based on the detection condition. In the first embodiment, not only the determination as to whether or not the detected temperature is equal to or higher than the threshold value, but also a mode in which the temperature of a plurality of threshold values is set and the color of the specific image varies depending on which temperature is higher than the threshold value It may be. When the temperature is high, the image may be displayed as a specific image having a larger R component among the RGB components, or the outer frame of the specific image to be displayed is not a circle but a jagged shape. Attention can be given to hot areas.
また、上記実施形態では、検出アプリの選択メニュー画面IMG1(図5)を一例として挙げて説明したが、検出アプリの選択メニュー画面IMG1については、これに限られず、種々変形可能である。例えば、アプリを終了する終了ボタンが選択メニュー画面IMG1に含まれてもよいし、検出アプリとは異なる、コンテンツ再生等の選択ボタンが含まれていてもよい。 In the above-described embodiment, the detection application selection menu screen IMG1 (FIG. 5) has been described as an example. However, the detection application selection menu screen IMG1 is not limited thereto, and various modifications can be made. For example, an end button for ending the application may be included in the selection menu screen IMG1, or a selection button for content reproduction or the like different from the detection application may be included.
C4.変形例4:
上記実施形態では、制御部10に操作部135を形成したが、操作部135の態様については種々変形可能である。例えば、制御部10とは別体で操作部135であるユーザーインターフェースがある態様でもよい。この場合に、操作部135は、電源130等が形成された制御部10とは別体であるため、小型化でき、使用者の操作性が向上する。また、操作部135の動きを検出する9軸センサーを操作部135に形成して、検出した動きに基づいて各種操作が行なわれることで、使用者は、感覚的に頭部装着型表示装置100の操作ができる。
C4. Modification 4:
In the above embodiment, the operation unit 135 is formed in the control unit 10, but the mode of the operation unit 135 can be variously modified. For example, a mode in which a user interface that is the operation unit 135 is provided separately from the control unit 10 may be used. In this case, the operation unit 135 is separate from the control unit 10 in which the power supply 130 and the like are formed. Therefore, the operation unit 135 can be reduced in size and user operability is improved. Further, a nine-axis sensor that detects the movement of the operation unit 135 is formed in the operation unit 135, and various operations are performed based on the detected movement, so that the user can sensuously feel the head-mounted display device 100. Can be operated.
例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、例えば、画像光生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。レーザー網膜投影型の場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義できる。 For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image light generation unit may use LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. In the case of the laser retinal projection type, the “image light emitting area in the image light generation unit” can be defined as an image area recognized by the user's eyes.
また、例えば、ヘッドマウントディスプレイは、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、ヘッドマウントディスプレイは、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。 Further, for example, the head-mounted display may be a head-mounted display in which the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit does not completely cover the user's eye. Good. The head mounted display may be a so-called monocular type head mounted display.
図22は、変形例における頭部装着型表示装置100の外観構成を示す説明図である。図22(A)の例の場合、図1に示した頭部装着型表示装置100との違いは、画像表示部20bが、右光学像表示部26に代えて右光学像表示部26bを備える点と、左光学像表示部28に代えて左光学像表示部28bを備える点である。右光学像表示部26bは、上記実施形態の光学部材よりも小さく形成され、頭部装着型表示装置100bの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28bは、上記実施形態の光学部材よりも小さく形成され、頭部装着型表示装置100bの装着時における使用者の左眼の斜め上に配置されている。図22(B)の例の場合、図1に示した頭部装着型表示装置100との違いは、画像表示部20cが、右光学像表示部26に代えて右光学像表示部26cを備える点と、左光学像表示部28に代えて左光学像表示部28cを備える点である。右光学像表示部26cは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28cは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様の頭部装着型表示装置100として実現できる。 FIG. 22 is an explanatory diagram showing an external configuration of the head-mounted display device 100 according to a modification. In the case of the example of FIG. 22A, the difference from the head-mounted display device 100 shown in FIG. 1 is that the image display unit 20b includes a right optical image display unit 26b instead of the right optical image display unit 26. And a point provided with a left optical image display unit 28 b instead of the left optical image display unit 28. The right optical image display unit 26b is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the right eye of the user when the head-mounted display device 100b is worn. Similarly, the left optical image display unit 28b is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the left eye of the user when the head-mounted display device 100b is worn. In the case of the example of FIG. 22B, the difference from the head-mounted display device 100 shown in FIG. 1 is that the image display unit 20c includes a right optical image display unit 26c instead of the right optical image display unit 26. And a point provided with a left optical image display unit 28 c instead of the left optical image display unit 28. The right optical image display unit 26c is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the right eye of the user when the head mounted display is mounted. The left optical image display unit 28c is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the left eye of the user when the head mounted display is mounted. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit completely covers the user's eye. This can be realized as a head-mounted display device 100 in an uncovered form.
また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。 The earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet.
上記実施形態における頭部装着型表示装置100の構成は、あくまで一例であり、種々変形可能である。例えば、制御部10に設けられた方向キー16やトラックパッド14の一方を省略したり、方向キー16やトラックパッド14に加えてまたは方向キー16やトラックパッド14に代えて操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御部10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。 The configuration of the head-mounted display device 100 in the above embodiment is merely an example and can be variously modified. For example, one of the direction key 16 and the track pad 14 provided in the control unit 10 may be omitted, in addition to the direction key 16 and the track pad 14, or in place of the direction key 16 and the track pad 14, etc. An operation interface may be provided. Moreover, the control part 10 is a structure which can connect input devices, such as a keyboard and a mouse | mouth, and is good also as what receives an input from a keyboard or a mouse | mouth.
また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部が採用されてもよい。また、イヤホン32,34は適宜省略可能である。 In addition, instead of the image display unit 20 worn like glasses, an image display unit of another method such as an image display unit worn like a hat may be employed as the image display unit. The earphones 32 and 34 can be omitted as appropriate.
また、上記実施形態において、頭部装着型表示装置100は、使用者の左右の眼に同じ画像を表わす画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表わす画像光を導いて使用者に三次元画像を視認させるとしてもよい。 In the above-described embodiment, the head-mounted display device 100 may guide image light representing the same image to the left and right eyes of the user so that the user can visually recognize the two-dimensional image. It is also possible to guide the user to view the three-dimensional image by guiding image light representing different images to the eyes.
また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。 In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. For example, in the above-described embodiment, the image processing unit 160 and the sound processing unit 170 are realized by the CPU 140 reading and executing a computer program, but these functional units may be realized by a hardware circuit. Good.
また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。 In addition, when part or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, a hard disk, etc. It also includes an external storage device fixed to the computer.
また、上記実施形態では、図1および図2に示すように、制御部10と画像表示部20とが別々の構成として形成されているが、制御部10と画像表示部20との構成については、これに限られず、種々変形可能である。例えば、画像表示部20の内部に、制御部10に形成された構成の全てが形成されてもよいし、一部が形成されてもよい。また、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよいし、制御部10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示すCPU140が制御部10と画像表示部20との両方に形成されていてもよいし、制御部10に形成されたCPU140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。 Moreover, in the said embodiment, as shown in FIG. 1 and FIG. 2, the control part 10 and the image display part 20 are formed as a separate structure, However, about the structure of the control part 10 and the image display part 20, about. However, the present invention is not limited to this, and various modifications are possible. For example, all of the components formed in the control unit 10 may be formed inside the image display unit 20 or a part thereof may be formed. In addition, the power source 130 in the above embodiment may be formed independently and replaceable, or the configuration formed in the control unit 10 may be overlapped and formed in the image display unit 20. For example, the CPU 140 shown in FIG. 2 may be formed in both the control unit 10 and the image display unit 20, or a function performed by the CPU 140 formed in the control unit 10 and the CPU formed in the image display unit 20. May be configured separately.
また、上記実施形態では、特定画像制御部165が特定画像データを作成し、特定画像データの制御信号を画像処理部160および表示制御部190へと送信することで、中間画像等を制御したが、必ずしも特定画像制御部165が中間画像等を制御する必要はなく、制御の主体については種々変形可能である。例えば、特定画像制御部165の代わりに、画像処理部160および表示制御部190自体が特定画像データを作成してもよい。また、画像表示部20のバックライト制御部201,202が輝度を調整することで、特定画像データに基づいて生成される画像光を変更してもよい。 In the above embodiment, the specific image control unit 165 creates the specific image data, and transmits the control signal of the specific image data to the image processing unit 160 and the display control unit 190, thereby controlling the intermediate image and the like. However, it is not always necessary for the specific image control unit 165 to control the intermediate image or the like, and the subject of control can be variously modified. For example, instead of the specific image control unit 165, the image processing unit 160 and the display control unit 190 themselves may create specific image data. Further, the backlight control units 201 and 202 of the image display unit 20 may change the image light generated based on the specific image data by adjusting the luminance.
また、制御部10と画像表示部20とが一体化して、使用者の衣服に取り付けられるウェアラブルコンピューターの態様であってもよい。 Moreover, the aspect of the wearable computer with which the control part 10 and the image display part 20 are integrated and attached to a user's clothes may be sufficient.
本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present invention is not limited to the above-described embodiments and modifications, and can be realized with various configurations without departing from the spirit of the present invention. For example, the technical features in the embodiments and the modifications corresponding to the technical features in each form described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.
10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51,52…送信部
53,54…受信部
61…カメラ(撮像部)
62…サーモグラフィー(温度検出部)
66…9軸センサー(視線方向特定部)
100…頭部装着型表示装置
110…入力情報取得部
120…記憶部
130…電源
132…無線通信部
134…GPSモジュール(位置情報取得部)
135…操作部
140…CPU
150…オペレーティングシステム
160…画像処理部
165…特定画像制御部(制御部)
166…視線方向判定部(視線方向特定部)
168…画像判定部(対象物抽出部)
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部(光源)
202…左バックライト制御部(光源)
211…右LCD制御部(画像形成パネル)
212…左LCD制御部(画像形成パネル)
221…右バックライト(光源)
222…左バックライト(光源)
241…右LCD(画像形成パネル)
242…左LCD(画像形成パネル)
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
VSync…垂直同期信号
HSync…水平同期信号
PCLK…クロック信号
IMG1…選択メニュー画面
IMG2…メニュー画像
OA…外部機器
RE…右眼
LE…左眼
TE…期間
EL,ER…端部
IL…照明光
PL…画像光
PN…画像表示最大領域
AP…先端部
VR…視野
CS…カーソル
SI1,SI2,SI3,SI4,SI5,SI6,SI7,SI8,SI9…特定画像(第2の画像光)
MI1,MI2…中間画像(第1の画像光)
PI…予告画像(第1の画像光)
DESCRIPTION OF SYMBOLS 10 ... Control part 11 ... Decision key 12 ... Illumination part 13 ... Display switching key 14 ... Trackpad 15 ... Luminance switching key 16 ... Direction key 17 ... Menu key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive unit 23 ... Left holding unit 24 ... Left display drive unit 26 ... Right optical image display unit 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 40 ... Connection unit 42 ... Right cord 44 ... Left code 46 ... Connecting member 48 ... Body code 51,52 ... Transmitting part 53,54 ... Receiving part 61 ... Camera (imaging part)
62 ... Thermography (temperature detector)
66 ... 9-axis sensor (line-of-sight direction specifying part)
DESCRIPTION OF SYMBOLS 100 ... Head-mounted display apparatus 110 ... Input information acquisition part 120 ... Memory | storage part 130 ... Power supply 132 ... Wireless communication part 134 ... GPS module (position information acquisition part)
135: Operation unit 140 ... CPU
150 ... Operating system 160 ... Image processing unit 165 ... Specific image control unit (control unit)
166 ... Gaze direction determination unit (gaze direction identification unit)
168 ... Image determination unit (object extraction unit)
170: Audio processing unit 180 ... Interface 190 ... Display control unit 201 ... Right backlight control unit (light source)
202 ... Left backlight control unit (light source)
211 ... Right LCD controller (image forming panel)
212 ... Left LCD control unit (image forming panel)
221 ... Right backlight (light source)
222 ... Left backlight (light source)
241 ... Right LCD (image forming panel)
242 ... Left LCD (image forming panel)
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate VSync ... Vertical sync signal HSync ... Horizontal sync signal PCLK ... Clock signal IMG1 ... Selection menu screen IMG2 ... Menu image OA ... External device RE ... right eye LE ... left eye TE ... period EL, ER ... end IL ... illumination light PL ... image light PN ... maximum image display area AP ... tip part VR ... visual field CS ... cursor SI1, SI2, SI3, SI4, SI5 SI6, SI7, SI8, SI9 ... specific image (second image light)
MI1, MI2 ... Intermediate image (first image light)
PI ... Preliminary image (first image light)
Claims (12)
画像データに基づいて画像光を生成し射出する画像光生成部を有し、使用者の頭部に装着された状態において、使用者に前記画像光を虚像として視認させると共に、外景を透過させる画像表示部と、
前記画像表示部を用いて使用者に視認させる前記画像光として、設定された特定の画像データに基づいて生成され、時間の経過に伴って変化する特定画像光を設定する制御部と、を備える、頭部装着型表示装置。 A transmissive head-mounted display device,
An image having an image light generation unit that generates and emits image light based on image data, and allows the user to visually recognize the image light as a virtual image and transmit the outside scene while being mounted on the user's head A display unit;
A control unit configured to set specific image light that is generated based on set specific image data and changes with time as the image light to be visually recognized by the user using the image display unit. Head mounted display device.
前記特定の画像データは、特定の情報に基づいて設定され、
前記特定画像光は、複数種類の第1の画像光と、前記複数種類の第1の画像光とは異なる第2の画像光と、を含み、
前記制御部は、前記画像表示部を用いて使用者に視認させる前記画像光を、前記複数種類の第1の画像光から前記第2の画像光へと、時間の経過に伴って変化させる、頭部装着型表示装置。 The head-mounted display device according to claim 1,
The specific image data is set based on specific information,
The specific image light includes a plurality of types of first image light and a second image light different from the plurality of types of first image light,
The control unit changes the image light to be visually recognized by a user using the image display unit from the plurality of types of first image light to the second image light as time passes. Head-mounted display device.
前記複数種類の第1の画像光のそれぞれと前記第2の画像光とは、輝度のみが異なる、頭部装着型表示装置。 The head-mounted display device according to claim 2,
The head-mounted display device in which each of the plurality of types of first image light and the second image light differ only in luminance.
前記画像光生成部は、射出する光量を調整可能な光源と、前記光源から射出された光を前記画像光に変換する画像形成パネルと、を含み、
前記制御部は、前記光源から射出される光量を調整することにより、前記複数種類の第1の画像光のそれぞれと前記第2の画像光との輝度を異ならせる、頭部装着型表示装置。 The head-mounted display device according to claim 3,
The image light generation unit includes a light source capable of adjusting the amount of light emitted, and an image forming panel that converts light emitted from the light source into the image light,
The head-mounted display device, wherein the control unit adjusts the amount of light emitted from the light source to change the luminance of each of the plurality of types of first image light and the second image light.
前記第2の画像光の輝度は、前記複数種類の第1の画像光のそれぞれの輝度よりも大きく、
前記制御部は、前記画像表示部を用いて、
前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させていない状態から、前記複数種類の第1の画像光を視認させた後に前記第2の画像光を視認させる状態へと変化させる場合には、時間の経過に伴い前記複数種類の第1の画像光の輝度が増加するように前記複数種類の第1の画像光を使用者に視認させ、
前記第2の画像光を使用者に視認させた後に前記複数種類の第1の画像光を視認させた状態から、前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させない状態へと変化させる場合には、時間の経過に伴い輝度が減少するように前記複数種類の第1の画像光を使用者に視認させる、頭部装着型表示装置。 The head-mounted display device according to claim 3 or 4, wherein
The brightness of the second image light is greater than the brightness of each of the plurality of types of first image light,
The control unit uses the image display unit,
The second image light after the plurality of types of first image light is visually recognized from a state in which neither of the plurality of types of first image light or the second image light is visually recognized by the user. When changing to a state of visually recognizing the user, the user can visually recognize the plurality of types of first image light so that the luminance of the plurality of types of first image light increases as time passes.
Any of the plurality of types of first image light and the second image light from a state where the plurality of types of first image light is visually recognized after the user has visually recognized the second image light. A head-mounted display device that allows the user to visually recognize the plurality of types of first image light so that the luminance decreases with the passage of time when changing to a state that the user does not visually recognize.
前記制御部は、前記画像表示部を用いて、
前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させていない状態から、前記複数種類の第1の画像光を視認させた後に前記第2の画像光を視認させる状態へと変化させる場合には、時間の経過に伴い前記複数種類の第1の画像光の輝度の増加率が大きくなるように前記複数種類の第1の画像光を使用者に視認させ、
前記第2の画像光を使用者に視認させた後に前記複数種類の第1の画像光を視認させた状態から、前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させない状態へと変化させる場合には、時間の経過に伴い輝度の減少率が大きくなるように前記複数種類の第1の画像光を使用者に視認させる、頭部装着型表示装置。 The head-mounted display device according to claim 5,
The control unit uses the image display unit,
The second image light after the plurality of types of first image light is visually recognized from a state in which neither of the plurality of types of first image light or the second image light is visually recognized by the user. When changing to a state of visually recognizing the image, the user can visually recognize the plurality of types of first image light so that the increase rate of the luminance of the plurality of types of first image light increases with time. Let
Any of the plurality of types of first image light and the second image light from a state where the plurality of types of first image light is visually recognized after the user has visually recognized the second image light. A head-mounted display device that allows the user to visually recognize the plurality of types of first image light so that the rate of decrease in luminance increases with the passage of time when changing to a state that is not visually recognized by the user. .
前記複数種類の第1の画像光のそれぞれは、前記第2の画像光の一部であり、
前記制御部は、前記画像表示部を用いて、
前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させていない状態から、前記複数種類の第1の画像光を視認させた後に前記第2の画像光を視認させる状態へと変化させる場合には、時間の経過に伴い前記複数種類の第1の画像光の領域の大きさが増加するように前記複数種類の第1の画像光を使用者に視認させ、
前記第2の画像光を使用者に視認させた後に前記複数種類の第1の画像光を視認させた状態から、前記複数種類の第1の画像光と前記第2の画像光とのいずれも使用者に視認させない状態へと変化させる場合には、時間の経過に伴い前記複数種類の第1の画像光の領域の大きさが減少するように前記複数種類の第1の画像光を使用者に視認させる、頭部装着型表示装置。 The head-mounted display device according to claim 2,
Each of the plurality of types of first image light is a part of the second image light,
The control unit uses the image display unit,
The second image light after the plurality of types of first image light is visually recognized from a state in which neither of the plurality of types of first image light or the second image light is visually recognized by the user. In the case of changing to a state of visually recognizing the image, the user can visually recognize the plurality of types of first image light so that the sizes of the regions of the plurality of types of first image light increase with time. Let
Any of the plurality of types of first image light and the second image light from a state where the plurality of types of first image light is visually recognized after the user has visually recognized the second image light. When changing to a state in which the user does not visually recognize the user, the plurality of types of first image lights are used so that the sizes of the regions of the plurality of types of first image light decrease with time. Head-mounted display device for visual recognition.
使用者の視線方向の外景の温度分布を検出する温度検出部を備え、
前記特定の情報は、検出された前記外景の温度分布を特定する情報を含む、頭部装着型表示装置。 The head-mounted display device according to any one of claims 2 to 7, further comprising:
It has a temperature detector that detects the temperature distribution of the outside scene in the direction of the user's line of sight,
The head-mounted display device, wherein the specific information includes information for specifying a temperature distribution of the detected outside scene.
使用者の視線方向の外景を撮像する撮像部と、
撮像された撮像画像に含まれる特定の対象物を抽出する対象物抽出部と、を備え、
前記特定の情報は、抽出された前記特定の対象物に関する情報である、頭部装着型表示装置。 The head-mounted display device according to any one of claims 2 to 8, further comprising:
An imaging unit that captures an outside scene in the user's line-of-sight direction;
An object extraction unit that extracts a specific object included in the captured image,
The head-mounted display device, wherein the specific information is information relating to the extracted specific object.
使用者の位置を特定する位置情報を取得する位置情報取得部を備え、
前記特定の情報は、取得された前記位置情報を含む、頭部装着型表示装置。 The head-mounted display device according to any one of claims 2 to 9, further comprising:
A position information acquisition unit for acquiring position information for specifying the position of the user;
The head-mounted display device, wherein the specific information includes the acquired position information.
使用者の視線方向を特定する情報である視線方向情報を取得する視線方向特定部を備え、
前記特定の情報は、前記視線方向情報を含む、頭部装着型表示装置。 The head-mounted display device according to any one of claims 2 to 10, further comprising:
A line-of-sight direction specifying unit that acquires line-of-sight direction information, which is information for specifying a user's line-of-sight direction,
The head-mounted display device, wherein the specific information includes the line-of-sight direction information.
前記画像表示部を用いて使用者に視認させる前記画像光として、設定された特定の画像データに基づいて生成され、時間の経過に伴って変化する特定画像光を設定する工程を備える、方法。 An image having an image light generation unit that generates and emits image light based on image data, and allows the user to visually recognize the image light as a virtual image and transmit the outside scene while being mounted on the user's head A control method of a transmissive head-mounted display device comprising a display unit,
A method comprising: setting specific image light that is generated based on set specific image data and changes with time as the image light to be visually recognized by a user using the image display unit.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013145642A JP6268778B2 (en) | 2013-07-11 | 2013-07-11 | Head-mounted display device and method for controlling head-mounted display device |
US14/323,598 US9360672B2 (en) | 2013-07-11 | 2014-07-03 | Head mounted display device and control method for head mounted display device |
US15/146,584 US9613592B2 (en) | 2013-07-11 | 2016-05-04 | Head mounted display device and control method for head mounted display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013145642A JP6268778B2 (en) | 2013-07-11 | 2013-07-11 | Head-mounted display device and method for controlling head-mounted display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015019273A true JP2015019273A (en) | 2015-01-29 |
JP6268778B2 JP6268778B2 (en) | 2018-01-31 |
Family
ID=52439880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013145642A Active JP6268778B2 (en) | 2013-07-11 | 2013-07-11 | Head-mounted display device and method for controlling head-mounted display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6268778B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017050725A (en) * | 2015-09-02 | 2017-03-09 | 株式会社東芝 | Electronic apparatus and display method |
JP2019013050A (en) * | 2018-10-16 | 2019-01-24 | 株式会社東芝 | Electronic apparatus and display method |
JP2020108111A (en) * | 2018-12-28 | 2020-07-09 | キヤノン株式会社 | Electronic device and control method of the same |
CN113267896A (en) * | 2020-01-30 | 2021-08-17 | 精工爱普生株式会社 | Display system, controller, control method of display system, and recording medium |
JP2021167967A (en) * | 2020-08-11 | 2021-10-21 | 株式会社東芝 | Electronic device and display method |
JP2022089884A (en) * | 2020-08-11 | 2022-06-16 | 株式会社東芝 | Electronic device and display method |
JP2023076458A (en) * | 2022-04-05 | 2023-06-01 | 株式会社東芝 | Electronic apparatus and display method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000242195A (en) * | 1999-02-24 | 2000-09-08 | Sony Corp | Display controller and display control method, and provision medium |
JP2001039398A (en) * | 1999-07-30 | 2001-02-13 | Kawasaki Heavy Ind Ltd | Operation support device for helicopter |
JP2005181378A (en) * | 2003-12-16 | 2005-07-07 | Nikon Corp | Information display apparatus |
JP2006050164A (en) * | 2004-08-03 | 2006-02-16 | Olympus Corp | Image editing apparatus, image editing program and recording medium |
JP2008083290A (en) * | 2006-09-27 | 2008-04-10 | Sony Corp | Display apparatus, and display method |
JP2010079121A (en) * | 2008-09-29 | 2010-04-08 | Brother Ind Ltd | See-through display |
JP2012008290A (en) * | 2010-06-23 | 2012-01-12 | Softbank Mobile Corp | Spectacle type display device and server |
JP2013104987A (en) * | 2011-11-14 | 2013-05-30 | Seiko Epson Corp | Head-mounted display device and method for controlling head-mounted display device |
-
2013
- 2013-07-11 JP JP2013145642A patent/JP6268778B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000242195A (en) * | 1999-02-24 | 2000-09-08 | Sony Corp | Display controller and display control method, and provision medium |
JP2001039398A (en) * | 1999-07-30 | 2001-02-13 | Kawasaki Heavy Ind Ltd | Operation support device for helicopter |
JP2005181378A (en) * | 2003-12-16 | 2005-07-07 | Nikon Corp | Information display apparatus |
JP2006050164A (en) * | 2004-08-03 | 2006-02-16 | Olympus Corp | Image editing apparatus, image editing program and recording medium |
JP2008083290A (en) * | 2006-09-27 | 2008-04-10 | Sony Corp | Display apparatus, and display method |
JP2010079121A (en) * | 2008-09-29 | 2010-04-08 | Brother Ind Ltd | See-through display |
JP2012008290A (en) * | 2010-06-23 | 2012-01-12 | Softbank Mobile Corp | Spectacle type display device and server |
JP2013104987A (en) * | 2011-11-14 | 2013-05-30 | Seiko Epson Corp | Head-mounted display device and method for controlling head-mounted display device |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017050725A (en) * | 2015-09-02 | 2017-03-09 | 株式会社東芝 | Electronic apparatus and display method |
JP2019013050A (en) * | 2018-10-16 | 2019-01-24 | 株式会社東芝 | Electronic apparatus and display method |
JP2020108111A (en) * | 2018-12-28 | 2020-07-09 | キヤノン株式会社 | Electronic device and control method of the same |
JP7278773B2 (en) | 2018-12-28 | 2023-05-22 | キヤノン株式会社 | Electronic device and its control method |
CN113267896A (en) * | 2020-01-30 | 2021-08-17 | 精工爱普生株式会社 | Display system, controller, control method of display system, and recording medium |
JP2021167967A (en) * | 2020-08-11 | 2021-10-21 | 株式会社東芝 | Electronic device and display method |
JP7055925B2 (en) | 2020-08-11 | 2022-04-18 | 株式会社東芝 | Electronic devices and display methods |
JP2022089884A (en) * | 2020-08-11 | 2022-06-16 | 株式会社東芝 | Electronic device and display method |
JP7245376B2 (en) | 2020-08-11 | 2023-03-23 | 株式会社東芝 | Electronic equipment and display method |
JP2023076458A (en) * | 2022-04-05 | 2023-06-01 | 株式会社東芝 | Electronic apparatus and display method |
Also Published As
Publication number | Publication date |
---|---|
JP6268778B2 (en) | 2018-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9613592B2 (en) | Head mounted display device and control method for head mounted display device | |
JP6107276B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6264014B2 (en) | Head-mounted display device | |
JP6375591B2 (en) | Head-mounted display device, head-mounted display device control method, and image display system | |
JP5958689B2 (en) | Head-mounted display device | |
JP6398157B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6268778B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
WO2015004916A2 (en) | Head mounted display device and control method for head mounted display device | |
JP6318596B2 (en) | Information processing apparatus and information processing apparatus control method | |
JP6459380B2 (en) | Head-mounted display device, head-mounted display device control method, and computer program | |
JP2015056824A (en) | Head-mounting display device and control method for head-mounting display device | |
JP2016004340A (en) | Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program | |
JP2015115848A (en) | Head-mounted type display device and method for controlling head-mounted type display device | |
JP6303274B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6337534B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6331374B2 (en) | Head-mounted display device | |
JP6135162B2 (en) | Head-mounted display device, head-mounted display device control method, and image display system | |
JP6252002B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6369583B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP2016033551A (en) | Display device, control method of the same and program | |
JP2015087523A (en) | Head-mounted display device, method for controlling head-mounted display device, and image display system | |
JP6273677B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6136162B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6375662B2 (en) | Head-mounted display device | |
JP2018107823A (en) | Head-mounted display device and control method for head-mounted display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160531 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160530 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6268778 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |