[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021051180A - Display device, display system, method for adjusting display, and display adjustment program - Google Patents

Display device, display system, method for adjusting display, and display adjustment program Download PDF

Info

Publication number
JP2021051180A
JP2021051180A JP2019173812A JP2019173812A JP2021051180A JP 2021051180 A JP2021051180 A JP 2021051180A JP 2019173812 A JP2019173812 A JP 2019173812A JP 2019173812 A JP2019173812 A JP 2019173812A JP 2021051180 A JP2021051180 A JP 2021051180A
Authority
JP
Japan
Prior art keywords
image
sight
line
display unit
eye display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019173812A
Other languages
Japanese (ja)
Other versions
JP7338358B2 (en
Inventor
智之 宍戸
Tomoyuki Shishido
智之 宍戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019173812A priority Critical patent/JP7338358B2/en
Priority to CN202080057431.5A priority patent/CN114341703B/en
Priority to PCT/JP2020/035635 priority patent/WO2021060218A1/en
Publication of JP2021051180A publication Critical patent/JP2021051180A/en
Priority to US17/685,431 priority patent/US20220321868A1/en
Priority to JP2023135391A priority patent/JP2023164451A/en
Application granted granted Critical
Publication of JP7338358B2 publication Critical patent/JP7338358B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a display device, a display system, a method for adjusting a display, and a display adjustment program that can reduce burden on a user.SOLUTION: The display device includes: a left-eye display unit and a right-eye display unit, which are arranged in a longitudinal direction, can transmit light partially, and also can display an image; a line-of-vision detection unit for detecting an object line-of-vision of eyeballs of a user when the user gazes an object in front of the user in a front-back direction beyond the left-eye display unit and the right-eye display unit and detecting an image line-of-vision of the eyeballs of the user when the user gazes a target image while the target image is being displayed in the positions in the left-eye display unit and in the right-eye display unit that correspond to the object; and an adjustment unit for adjusting the display position where the left-eye display unit and the right-eye display unit display an image according to the difference between the object line-of-vision and the image line-of-vision in a vertical direction intersecting with the front-back direction and the longitudinal direction.SELECTED DRAWING: Figure 5

Description

本発明は、表示装置、表示システム、表示調整方法及び表示調整プログラムに関する。 The present invention relates to a display device, a display system, a display adjustment method, and a display adjustment program.

仮想現実(VR:Virtual Reality)又は拡張現実(AR:Augmented Reality)を実現する技術として、使用者が頭部に装着して用いるヘッドマウント型の表示装置(ヘッドマウントディスプレイ:HMD:Head Mounted Display)が知られている(例えば、特許文献1参照)。このような表示装置では、例えば使用者の左眼及び右眼にそれぞれ対応するディスプレイが配置され、左眼には左眼用ディスプレイの映像を、右眼には右眼用ディスプレイの映像を、それぞれ使用者に見せるように構成される。また、現実空間の物体を注視し、予め設定された仮想空間の画像を左眼用ディスプレイ及び右眼用ディスプレイにそれぞれ現実空間の物体と重畳して表示し、現実空間の物体と仮想空間の画像とが適正に重なり合うように調整可能となっている。 A head-mounted display (HMD: Head Mounted Display) that is worn by the user on the head as a technology to realize virtual reality (VR) or augmented reality (AR). Is known (see, for example, Patent Document 1). In such a display device, for example, displays corresponding to the left eye and the right eye of the user are arranged, and the image of the display for the left eye is displayed on the left eye and the image of the display for the right eye is displayed on the right eye. It is configured to be shown to the user. In addition, the object in the real space is gazed, and the preset virtual space image is displayed on the left eye display and the right eye display by superimposing the object in the real space, respectively, and the image of the object in the real space and the image in the virtual space. It is possible to adjust so that and is properly overlapped.

特開2001−211403号公報Japanese Unexamined Patent Publication No. 2001-211403

上記のような表示装置では、使用者が現実空間の物体を注視する場合の視線と、仮想空間の画像を注視する場合の視線とが上下方向にずれてしまう場合がある。この場合、現実空間の物体を注視しようとすると、仮想空間の画像が結像しなくなる。逆に、仮想空間の画像を注視しようとすると、現実空間の物体が結像しなくなる。このため、使用者の眼に負担が掛かってしまう。また、上記のような表示装置では、左眼用ディスプレイを左眼で見たときの視線と、右眼用ディスプレイを右眼で見たときの視線とが上下方向にずれてしまう場合がある。この場合、対象となる画像を見た瞬間は像が結像せず、脳の指令により左右の眼球を上下方向に動かすことで結像する。しかしながら、この場合、使用者の眼に負担が掛かってしまう。 In a display device as described above, the line of sight when the user gazes at an object in the real space and the line of sight when the user gazes at an image in the virtual space may deviate in the vertical direction. In this case, if you try to gaze at an object in the real space, the image in the virtual space will not be imaged. On the contrary, when trying to gaze at an image in virtual space, an object in real space does not form an image. Therefore, the eyes of the user are burdened. Further, in the above-mentioned display device, the line of sight when the left eye display is viewed with the left eye and the line of sight when the right eye display is viewed with the right eye may be displaced in the vertical direction. In this case, the image is not formed at the moment when the target image is viewed, but is formed by moving the left and right eyeballs in the vertical direction according to the command of the brain. However, in this case, the eyes of the user are burdened.

本発明は、上記に鑑みてなされたものであり、使用者の負担を低減することが可能な表示装置、表示システム、表示調整方法及び表示調整プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a display device, a display system, a display adjustment method, and a display adjustment program capable of reducing the burden on the user.

本発明に係る表示装置は、左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部及び右眼用表示部と、使用者が前記左眼用表示部及び前記右眼用表示部を透過して前後方向の前方の物体を注視する場合の前記使用者の左右の眼球の物体視線と、前記左眼用表示部及び前記右眼用表示部において前記物体に対応する位置に目標画像をそれぞれ表示した状態で前記使用者が前記目標画像を注視する場合の前記使用者の左右の眼球の画像視線とを検出する視線検出部と、前記左右方向及び前記前後方向に直交する上下方向についての前記物体視線と前記画像視線との差分に応じて、前記左眼用表示部及び前記右眼用表示部に画像を表示する表示位置を調整する調整部とを備える。 The display devices according to the present invention are arranged side by side in the left-right direction, and include a left-eye display unit and a right-eye display unit capable of transmitting a part of light and displaying an image, and a user using the left eye. When the user's left and right eyeballs gaze at an object in front of the user through the display unit for the right eye and the display unit for the right eye, the display unit for the left eye and the display unit for the right eye. The line-of-sight detection unit that detects the image line-of-sight of the left and right eyeballs of the user when the user gazes at the target image while the target image is displayed at a position corresponding to the object, and the left-right direction. And an adjustment unit that adjusts the display position for displaying an image on the left eye display unit and the right eye display unit according to the difference between the object line of sight and the image line of sight in the vertical direction orthogonal to the front-back direction. And.

本発明に係る表示システムは、左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部及び右眼用表示部と、使用者が前記左眼用表示部及び前記右眼用表示部を透過して前後方向の前方の物体を注視する場合の前記使用者の左右の眼球の物体視線と、前記左眼用表示部及び前記右眼用表示部において前記物体に対応する位置に目標画像をそれぞれ表示した状態で前記使用者が前記目標画像を注視する場合の前記使用者の左右の眼球の画像視線とを検出する視線検出部と、前記左右方向及び前記前後方向に直交する上下方向についての前記物体視線と前記画像視線との差分を出力する出力部と、を有する表示装置と、前記出力部の出力結果に基づいて、前記左眼用表示部及び前記右眼用表示部に画像を表示する表示位置が調整された画像データを生成して前記表示装置に入力する外部処理装置とを備える。 The display system according to the present invention is arranged side by side in the left-right direction, and has a left-eye display unit and a right-eye display unit capable of transmitting a part of light and displaying an image, and a user can use the left eye. When the user's left and right eyeballs gaze at an object in front of the user through the display unit for the right eye and the display unit for the right eye, the display unit for the left eye and the display unit for the right eye. The line-of-sight detection unit that detects the image line-of-sight of the left and right eyeballs of the user when the user gazes at the target image while the target image is displayed at a position corresponding to the object, and the left-right direction. A display device having an output unit for outputting the difference between the object line of sight and the image line of sight in the vertical direction orthogonal to the front-back direction, and the left eye display unit based on the output result of the output unit. The right eye display unit is provided with an external processing device that generates image data in which the display position for displaying the image is adjusted and inputs the image data to the display device.

本発明に係る表示調整方法は、左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部及び右眼用表示部を透過して前後方向の前方の物体を注視する場合の前記使用者の左右の眼球の物体視線と、前記左眼用表示部及び前記右眼用表示部において前記物体に対応する位置に目標画像をそれぞれ表示した状態で前記使用者が前記目標画像を注視する場合の前記使用者の左右の眼球の画像視線とを検出することと、前記左右方向及び前記前後方向に直交する上下方向についての前記物体視線と前記画像視線との差分に応じて、前記左眼用表示部及び前記右眼用表示部に画像を表示する表示位置を調整することとを含む。 The display adjustment method according to the present invention is arranged side by side in the left-right direction, and is transmitted in the front-rear direction through the left-eye display unit and the right-eye display unit capable of transmitting a part of light and displaying an image. The target image is displayed at a position corresponding to the object in the left eye display unit and the right eye display unit, respectively, in a state where the object line of sight of the left and right eyeballs of the user when gazing at the object in front is displayed. When the user gazes at the target image, the image line-of-sight of the left and right eyeballs of the user is detected, and the object line-of-sight and the image line-of-sight in the vertical direction orthogonal to the left-right direction and the front-back direction. This includes adjusting the display position for displaying an image on the left eye display unit and the right eye display unit according to the difference between the two.

本発明に係る表示調整プログラムは、左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部及び右眼用表示部を透過して前後方向の前方の物体を注視する場合の前記使用者の左右の眼球の物体視線と、前記左眼用表示部及び前記右眼用表示部において前記物体に対応する位置に目標画像をそれぞれ表示した状態で前記使用者が前記目標画像を注視する場合の前記使用者の左右の眼球の画像視線とを検出する処理と、前記左右方向及び前記前後方向に直交する上下方向についての前記物体視線と前記画像視線との差分に応じて、前記左眼用表示部及び前記右眼用表示部に画像を表示する表示位置を調整する処理とをコンピュータに実行させる。 The display adjustment program according to the present invention is arranged side by side in the left-right direction, and is transmitted in the front-rear direction through the left-eye display unit and the right-eye display unit capable of transmitting a part of light and displaying an image. The target image is displayed at a position corresponding to the object in the left eye display unit and the right eye display unit, respectively, in a state where the object line of sight of the left and right eyeballs of the user when gazing at the object in front is displayed. The process of detecting the image line-of-sight of the left and right eyeballs of the user when the user gazes at the target image, and the object line-of-sight and the image line-of-sight in the vertical direction orthogonal to the left-right direction and the front-back direction. The computer is made to execute a process of adjusting the display position for displaying an image on the left eye display unit and the right eye display unit according to the difference between the two.

本発明によれば、使用者の負担を低減することが可能となる。 According to the present invention, it is possible to reduce the burden on the user.

図1は、本実施形態に係る表示装置の一例を模式的に示す図である。FIG. 1 is a diagram schematically showing an example of a display device according to the present embodiment. 図2は、表示装置における表示部の構成を模式的に示す図である。FIG. 2 is a diagram schematically showing a configuration of a display unit in a display device. 図3は、物体視線の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of an object line of sight. 図4は、画像視線の一例を模式的に示す図である。FIG. 4 is a diagram schematically showing an example of an image line of sight. 図5は、表示装置の一例を示す機能ブロック図である。FIG. 5 is a functional block diagram showing an example of a display device. 図6は、ラインメモリの一例を模式的に示す図である。FIG. 6 is a diagram schematically showing an example of a line memory. 図7は、物体視線及び画像視線の検出結果の一例を模式的に示す図である。FIG. 7 is a diagram schematically showing an example of the detection result of the object line of sight and the image line of sight. 図8は、本実施形態に係る表示調整方法の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of the display adjustment method according to the present embodiment. 図9は、左画像視線及び右画像視線の検出結果の一例を模式的に示す図である。FIG. 9 is a diagram schematically showing an example of the detection results of the left image line of sight and the right image line of sight. 図10は、表示調整方法の他の例を示すフローチャートである。FIG. 10 is a flowchart showing another example of the display adjustment method. 図11は、表示装置の他の例を示す機能ブロック図である。FIG. 11 is a functional block diagram showing another example of the display device. 図12は、移動機構の一例を示す図である。FIG. 12 is a diagram showing an example of the moving mechanism. 図13は、モータ機構の他の例を示す図である。FIG. 13 is a diagram showing another example of the motor mechanism. 図14は、表示装置の他の例を示す機能ブロック図である。FIG. 14 is a functional block diagram showing another example of the display device. 図15は、表示装置を備えた表示システムの一例を示す機能ブロック図である。FIG. 15 is a functional block diagram showing an example of a display system including a display device.

以下、本発明に係る表示装置、表示システム、表示調整方法及び表示調整プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Hereinafter, embodiments of a display device, a display system, a display adjustment method, and a display adjustment program according to the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. In addition, the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same.

[表示装置]
図1は、本実施形態に係る表示装置100の一例を模式的に示す図である。図1示すように、表示装置100は、例えば使用者が頭部に装着可能なヘッドマウントディスプレイである。
[Display device]
FIG. 1 is a diagram schematically showing an example of a display device 100 according to the present embodiment. As shown in FIG. 1, the display device 100 is, for example, a head-mounted display that can be worn on the head by a user.

以下の説明において、左右、前後、上下の各方向は、使用者が表示装置100を頭部に装着した状態における方向とする。左右方向は、使用者の左右の眼球に対応する方向であり、左眼側を左方、右眼側を右方とする。前後方向は、使用者の頭部の頭頂部側を上方、使用者の頭部の顎側を下方とする。 In the following description, each of the left-right, front-back, and up-down directions is the direction in which the user wears the display device 100 on the head. The left-right direction is a direction corresponding to the left and right eyeballs of the user, and the left eye side is the left side and the right eye side is the right side. In the anterior-posterior direction, the crown side of the user's head is upward, and the chin side of the user's head is downward.

表示装置100は、図1に示すように、表示装置100は、本体部10と、表示部20と、視線検出部30と、制御部40とを備える。本体部10は、筐体11、コネクタ12及び電力供給部13を有する。筐体11は、後述する光学系OSを収容する。筐体11には、後述する表示部20が設けられる。電力供給部13は、コネクタ12を介して本体部10に対して電力の供給、電気信号の送受信等を行う。 As shown in FIG. 1, the display device 100 includes a main body unit 10, a display unit 20, a line-of-sight detection unit 30, and a control unit 40. The main body 10 has a housing 11, a connector 12, and a power supply 13. The housing 11 houses the optical system OS described later. The housing 11 is provided with a display unit 20, which will be described later. The power supply unit 13 supplies electric power to the main body 10 via the connector 12, transmits and receives electric signals, and the like.

表示部20は、左眼用表示部20L及び右眼用表示部20Rを有する。左眼用表示部20L及び右眼用表示部20Rは、使用者の左右の眼球に対応するように左右方向に並んで配置される。 The display unit 20 includes a left eye display unit 20L and a right eye display unit 20R. The left eye display unit 20L and the right eye display unit 20R are arranged side by side in the left-right direction so as to correspond to the left and right eyeballs of the user.

図2は、表示装置100における表示部20の構成を模式的に示す図である。図2に示すように、表示部20は、表示パネル21と、ハーフミラー22と、コンバイナミラー23と、視線検出部30とを有する。表示パネル21は、例えば液晶パネル、有機ELパネル、プラズマパネル等、各種の表示パネルが適用可能である。使用者が表示装置100を装着した状態において、表示部20は、使用者の左右の眼球に対して前方に配置される。表示パネル21は、仮想空間の画像を表示する表示面21aを有する。 FIG. 2 is a diagram schematically showing the configuration of the display unit 20 in the display device 100. As shown in FIG. 2, the display unit 20 includes a display panel 21, a half mirror 22, a combiner mirror 23, and a line-of-sight detection unit 30. As the display panel 21, various display panels such as a liquid crystal panel, an organic EL panel, and a plasma panel can be applied. When the user wears the display device 100, the display unit 20 is arranged in front of the user's left and right eyeballs. The display panel 21 has a display surface 21a for displaying an image of the virtual space.

ハーフミラー22は、例えば光の一部を反射し、一部を透過する。ハーフミラー22は、表示パネル21から照射された表示光Lbの一部をコンバイナミラー23に向けて反射する。また、ハーフミラー22は、コンバイナミラー23で反射された光の一部を透過する。 The half mirror 22 reflects, for example, a part of light and transmits a part of the light. The half mirror 22 reflects a part of the display light Lb emitted from the display panel 21 toward the combiner mirror 23. Further, the half mirror 22 transmits a part of the light reflected by the combiner mirror 23.

コンバイナミラー23は、実際の空間に存在する物体Mの像を構成する実像光Laをハーフミラー22側に透過する。実像光Laは、コンバイナミラー23、ハーフミラー22を透過して使用者の左右の眼球に到達可能となる。これにより、使用者が左眼用表示部20L及び右眼用表示部20Rを透過して物体Mを注視可能となっている。また、コンバイナミラー23は、ハーフミラー22によって反射された表示光Lbを当該ハーフミラー22に向けて反射する。ハーフミラー22及びコンバイナミラー23は、実像光Laと表示光Lbとを導光する光学系OSを構成する。本実施形態において、光学系OSは、表示装置100を装着した状態の使用者の眼球(右眼ER及び左眼EL:図3、図4参照)に実像光La及び表示光Lbを導光する。 The combiner mirror 23 transmits the real image light La that constitutes the image of the object M existing in the actual space to the half mirror 22 side. The real image light La can reach the left and right eyeballs of the user through the combiner mirror 23 and the half mirror 22. As a result, the user can gaze at the object M through the left eye display unit 20L and the right eye display unit 20R. Further, the combiner mirror 23 reflects the display light Lb reflected by the half mirror 22 toward the half mirror 22. The half mirror 22 and the combiner mirror 23 constitute an optical system OS that guides the real image light La and the display light Lb. In the present embodiment, the optical system OS guides the real image light La and the display light Lb to the eyeballs (right eye ER and left eye EL: see FIGS. 3 and 4) of the user wearing the display device 100. ..

視線検出部30は、使用者の左右の眼球による視線を検出する。視線検出部30としては、例えば使用者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出可能な視線検出装置、又は使用者の目頭の位置と虹彩の位置とに基づいて視線を検出可能な視線検出装置等、使用者の視線を検出可能な各種装置を用いることができる。 The line-of-sight detection unit 30 detects the line of sight of the user's left and right eyes. The line-of-sight detection unit 30 is, for example, a line-of-sight detection device capable of detecting the line of sight based on the position of the user's pupil and the position of the corneal reflex image, or the line of sight based on the position of the inner corner of the user's eye and the position of the iris. Various devices capable of detecting the user's line of sight, such as a detectable line-of-sight detection device, can be used.

視線検出部30は、照射部31と、受光部32と、処理部33とを有する(図2、図5参照)。照射部31は、使用者の左右の眼球に赤外線を照射する。受光部32は、使用者の左右の眼球で反射された赤外線を受光し、使用者の左右の眼球の画像を生成する。処理部33は、生成した画像に基づいて、三次元グローバル座標系で規定される視線ベクトルとして使用者の視線を検出する。 The line-of-sight detection unit 30 includes an irradiation unit 31, a light receiving unit 32, and a processing unit 33 (see FIGS. 2 and 5). The irradiation unit 31 irradiates the left and right eyeballs of the user with infrared rays. The light receiving unit 32 receives infrared rays reflected by the left and right eyeballs of the user and generates images of the left and right eyeballs of the user. The processing unit 33 detects the user's line of sight as a line-of-sight vector defined by the three-dimensional global coordinate system based on the generated image.

処理部33は、使用者の左右の眼球の物体視線及び画像視線を検出可能である。処理部33は、検出した物体視線及び画像視線を、後述する記憶部45に送信する。図3は、物体視線の一例を模式的に示す図である。図3に示すように、物体視線E1は、使用者が左眼用表示部20L及び右眼用表示部20Rを透過して物体Mを注視する場合の使用者の左右の眼球(左眼EL、右眼ER)の視線である。なお、左右の眼球の物体視線E1を区別する場合、左眼ELの物体視線E1を左物体視線E1Lと表記し、右眼ERの物体視線E1を右物体視線E1Rと表記する。図4は、画像視線の一例を模式的に示す図である。図4に示すように、画像視線E2は、左眼用表示部20L及び右眼用表示部20Rにおいて物体Mに対応する位置PMに目標画像Iをそれぞれ表示した状態で使用者が目標画像Iを注視する場合の使用者の左右の眼球(左眼EL、右眼ER)の視線である。なお、左右の眼球の画像視線E2を区別する場合、左眼ELの画像視線E2を左画像視線E2Lと表記し、右眼ERの画像視線E2を右画像視線E2Rと表記する。使用者が目標画像Iを注視する場合、左右の目標画像Iは、物体Mに重なる位置Maに存在するように結像して見えることになる。 The processing unit 33 can detect the object line of sight and the image line of sight of the left and right eyeballs of the user. The processing unit 33 transmits the detected object line of sight and image line of sight to the storage unit 45, which will be described later. FIG. 3 is a diagram schematically showing an example of an object line of sight. As shown in FIG. 3, the object line of sight E1 is the left and right eyeballs (left eye EL, left eye EL,) of the user when the user gazes at the object M through the left eye display unit 20L and the right eye display unit 20R. The line of sight of the right eye ER). When distinguishing the object line of sight E1 of the left and right eyeballs, the object line of sight E1 of the left eye EL is referred to as the left object line of sight E1L, and the object line of sight E1 of the right eye ER is referred to as the right object line of sight E1R. FIG. 4 is a diagram schematically showing an example of an image line of sight. As shown in FIG. 4, in the image line-of-sight E2, the user displays the target image I at the position PM corresponding to the object M on the left eye display unit 20L and the right eye display unit 20R, respectively. This is the line of sight of the user's left and right eyeballs (left eye EL, right eye ER) when gazing. When distinguishing the image line-of-sight E2 of the left and right eyeballs, the image line-of-sight E2 of the left eye EL is referred to as the left image line-of-sight E2L, and the image line-of-sight E2 of the right eye ER is referred to as the right image line-of-sight E2R. When the user gazes at the target image I, the left and right target images I appear to be formed as if they exist at the position Ma overlapping the object M.

図5は、表示装置100の一例を示す機能ブロック図である。図5に示すように、制御部40は、差分検出部41と、調整部42と、記憶部45と、画像処理回路46とを有する。制御部40は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。制御部40は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部40には、図示しない内部メモリなどが含まれる。内部メモリは、制御部40の各部を実現させるためのプログラムが記憶されている。この場合、制御部40は、内部メモリなどに記憶されているプログラムを展開して実行することで、各部の機能を実現する。また、内部メモリは、制御部40におけるデータの一時記憶などにも用いられる。 FIG. 5 is a functional block diagram showing an example of the display device 100. As shown in FIG. 5, the control unit 40 includes a difference detection unit 41, an adjustment unit 42, a storage unit 45, and an image processing circuit 46. The control unit 40 is, for example, an arithmetic processing unit composed of a CPU (Central Processing Unit) or the like. The control unit 40 loads the stored program into the memory and executes the instructions included in the program. The control unit 40 includes an internal memory (not shown) and the like. In the internal memory, a program for realizing each part of the control unit 40 is stored. In this case, the control unit 40 realizes the functions of each unit by expanding and executing the program stored in the internal memory or the like. The internal memory is also used for temporary storage of data in the control unit 40.

差分検出部41は、視線検出部30の検出結果に基づいて、検出結果の差分を求める。差分検出部41は、記憶部45に記憶される情報を用いて差分を求めることができる。記憶部45は、視線検出部30により検出された物体視線E1及び画像視線E2の情報を記憶する。なお、記憶部45は、左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部20L及び右眼用表示部20Rを透過して前後方向の前方の物体Mを注視する場合の使用者の左右の眼球の物体視線E1と、左眼用表示部20L及び右眼用表示部20Rにおいて物体Mに対応する位置に目標画像Iをそれぞれ表示した状態で使用者が目標画像Iを注視する場合の使用者の左右の眼球の画像視線E2とを検出する処理と、左右方向及び前後方向に直交する上下方向についての物体視線E1と画像視線E2との差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整する処理とをコンピュータに実行させる表示調整プログラムを記憶する。 The difference detection unit 41 obtains the difference of the detection result based on the detection result of the line-of-sight detection unit 30. The difference detection unit 41 can obtain the difference using the information stored in the storage unit 45. The storage unit 45 stores the information of the object line-of-sight E1 and the image line-of-sight E2 detected by the line-of-sight detection unit 30. The storage units 45 are arranged side by side in the left-right direction, and pass through the left-eye display unit 20L and the right-eye display unit 20R, which can transmit a part of light and display an image, in the front-rear direction. A state in which the target image I is displayed at a position corresponding to the object M in the object line-of-sight E1 of the left and right eyes of the user when gazing at the object M in front, and the left eye display unit 20L and the right eye display unit 20R, respectively. The process of detecting the image line-of-sight E2 of the user's left and right eyeballs when the user gazes at the target image I, and the object line-of-sight E1 and the image line-of-sight E2 in the vertical direction orthogonal to the left-right direction and the front-back direction. A display adjustment program for causing the computer to execute a process of adjusting the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R according to the difference is stored.

差分検出部41は、視線検出部30において検出された物体視線E1及び画像視線E2に基づいて、当該物体視線E1と画像視線E2との差分を求める。この場合、差分検出部41は、左右方向及び前後方向に直交する上下方向についての物体視線E1と画像視線E2との差分を求める。この差分は、例えば視線ベクトルの差として求められたベクトルの上下方向における長さとすることができる。なお、差分検出部41は、物体視線E1と画像視線E2との差分を左右でそれぞれ独立して求める。つまり、差分検出部は、左眼についての左物体視線E1Lと左画像視線E2Lとの差分と、右眼についての右物体視線E1Rと右画像視線E2Rとの差分とをそれぞれ求める。 The difference detection unit 41 obtains the difference between the object line of sight E1 and the image line of sight E2 based on the object line of sight E1 and the image line of sight E2 detected by the line of sight detection unit 30. In this case, the difference detection unit 41 obtains the difference between the object line of sight E1 and the image line of sight E2 in the vertical direction orthogonal to the left-right direction and the front-back direction. This difference can be, for example, the length in the vertical direction of the vector obtained as the difference between the line-of-sight vectors. The difference detection unit 41 independently obtains the difference between the object line-of-sight E1 and the image line-of-sight E2 on the left and right sides. That is, the difference detection unit obtains the difference between the left object line of sight E1L and the left image line of sight E2L for the left eye and the difference between the right object line of sight E1R and the right image line of sight E2R for the right eye, respectively.

差分検出部41は、物体視線E1と画像視線E2との差分を求める際、使用者の注視点の位置の差分を求めるようにしてもよい。この場合、差分検出部41は、物体視線E1と表示部20に設定される所定の仮想平面との交点を物体注視点P1(図7参照)とする。また、差分検出部41は、画像視線E2と表示部20に設定される所定の仮想平面との交点を画像注視点P2(図7参照)とする。仮想平面としては、例えば前後方向に垂直な平面であって被験者の左眼及び右眼から所定距離だけ離れた平面等が挙げられる。このように、物体注視点P1は、物体視線E1に対応する。また、画像注視点P2は、画像視線E2に対応する。差分検出部41は、物体注視点P1と画像注視点P2との上下方向についての位置の差分を算出する。この差分は、例えば、物体注視点P1と画像注視点P2との間の上下方向についての距離とすることができる。 When the difference detection unit 41 obtains the difference between the object line-of-sight E1 and the image line-of-sight E2, the difference detection unit 41 may obtain the difference in the position of the user's gazing point. In this case, the difference detection unit 41 sets the intersection of the object line of sight E1 and the predetermined virtual plane set in the display unit 20 as the object gazing point P1 (see FIG. 7). Further, the difference detection unit 41 sets the intersection of the image line-of-sight E2 and the predetermined virtual plane set in the display unit 20 as the image gazing point P2 (see FIG. 7). Examples of the virtual plane include a plane that is perpendicular to the front-back direction and is separated from the left eye and the right eye of the subject by a predetermined distance. In this way, the object gazing point P1 corresponds to the object line of sight E1. Further, the image gazing point P2 corresponds to the image line-of-sight E2. The difference detection unit 41 calculates the difference in position between the object gazing point P1 and the image gazing point P2 in the vertical direction. This difference can be, for example, the distance between the object gazing point P1 and the image gazing point P2 in the vertical direction.

また、左眼用表示部20L及び右眼用表示部20Rにおいて物体Mに対応する位置に目標画像Iをそれぞれ表示した状態で使用者が目標画像Iを注視する場合の、使用者の左の眼球の左画像視線E2L及び右の眼球の右画像視線E2Rが視線検出部30によって検出された場合、差分検出部41は、上下方向についての左画像視線E2Lと右画像視線E2Rとの差分を求める。この差分は、例えば視線ベクトルの差として求められたベクトルの上下方向における長さとすることができる。 Further, when the user gazes at the target image I in a state where the target image I is displayed at a position corresponding to the object M on the left eye display unit 20L and the right eye display unit 20R, the left eyeball of the user. When the left image line-of-sight E2L and the right image line-of-sight E2R of the right eyeball are detected by the line-of-sight detection unit 30, the difference detection unit 41 obtains the difference between the left image line-of-sight E2L and the right image line-of-sight E2R in the vertical direction. This difference can be, for example, the length in the vertical direction of the vector obtained as the difference between the line-of-sight vectors.

また、差分検出部41は、左画像視線E2Lと右画像視線E2Rとの差分を求める際、使用者の注視点の位置の差分を求めるようにしてもよい。この場合、差分検出部41は、左画像視線E2Lと表示面21aとの交点を左画像注視点PL(図9参照)とする。また、差分検出部41は、右画像視線E2Rと表示面21aとの交点を右画像注視点PR(図9参照)とする。このように、左画像注視点PLは、左画像視線E2Lに対応する。また、右画像注視点PRは、右画像視線E2Rに対応する。差分検出部41は、左画像注視点PLと右画像注視点PRとの上下方向についての位置の差分を算出する。この差分は、例えば、左画像注視点PLと右画像注視点PRとの間の上下方向についての距離とすることができる。 Further, the difference detection unit 41 may obtain the difference in the position of the gazing point of the user when obtaining the difference between the left image line-of-sight E2L and the right image line-of-sight E2R. In this case, the difference detection unit 41 sets the intersection of the left image line-of-sight E2L and the display surface 21a as the left image gazing point PL (see FIG. 9). Further, the difference detection unit 41 sets the intersection of the right image line-of-sight E2R and the display surface 21a as the right image gazing point PR (see FIG. 9). In this way, the left image gazing point PL corresponds to the left image line of sight E2L. Further, the right image gazing point PR corresponds to the right image line-of-sight E2R. The difference detection unit 41 calculates the difference in position between the left image gazing point PL and the right image gazing point PR in the vertical direction. This difference can be, for example, the distance in the vertical direction between the left image gazing point PL and the right image gazing point PR.

調整部42は、差分検出部41によって検出された差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整する。調整部42は、上下方向についての差分に応じて、表示位置を段階的に調整することができる。例えば、検出された差分の大きさを段階的に区分しておき、当該差分の区分に対応するように調整量の区分を段階的に設定しておく。これにより、差分が大きくなるほど、調整量が段階的に大きくなる。なお、調整部42は、差分の有無のみを検出し、差分が検出された場合に、予め設定された調整量だけ調整するようにしてもよい。 The adjusting unit 42 adjusts the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R according to the difference detected by the difference detecting unit 41. The adjusting unit 42 can adjust the display position step by step according to the difference in the vertical direction. For example, the magnitude of the detected difference is divided stepwise, and the adjustment amount classification is set stepwise so as to correspond to the difference classification. As a result, the larger the difference, the larger the adjustment amount stepwise. The adjusting unit 42 may detect only the presence or absence of a difference, and when the difference is detected, adjust by a preset adjustment amount.

調整部42は、例えば、左眼用表示部20L及び右眼用表示部20Rに入力される画像データを補正することで画像の表示位置を調整する。調整部42は、左眼用表示部20L及び右眼用表示部20Rについてそれぞれ設けられる。調整部42は、ラインメモリ43及びアドレス制御部44を有する。ラインメモリ43は、左眼用表示部20L及び右眼用表示部20Rに表示させる画像データをラインごとに記憶する。アドレス制御部44は、ラインメモリ43から出力される画像データの読み出し開始となる基準アドレスを制御する。 The adjusting unit 42 adjusts the display position of the image by correcting the image data input to the left eye display unit 20L and the right eye display unit 20R, for example. The adjusting unit 42 is provided for the left eye display unit 20L and the right eye display unit 20R, respectively. The adjusting unit 42 has a line memory 43 and an address control unit 44. The line memory 43 stores image data to be displayed on the left eye display unit 20L and the right eye display unit 20R for each line. The address control unit 44 controls the reference address at which the image data output from the line memory 43 starts to be read.

図6は、ラインメモリ43の一例を模式的に示す図である。図6に示すように、ラインメモリ43には、各ラインに対応するアドレスが設定される。例えば、図中の最上段のライン(1ライン目)のアドレスが0と設定され、下側のラインに至るにつれて順に1、2、…、と設定され、最下段のラインのアドレスがZと設定される。ラインメモリ43は、左眼用表示部20L及び右眼用表示部20Rに対応するようにライン数及びアドレスが設定される。 FIG. 6 is a diagram schematically showing an example of the line memory 43. As shown in FIG. 6, an address corresponding to each line is set in the line memory 43. For example, the address of the top line (first line) in the figure is set to 0, and 1, 2, ..., Are set in order as it reaches the lower line, and the address of the bottom line is set to Z. Will be done. The number of lines and the address of the line memory 43 are set so as to correspond to the left eye display unit 20L and the right eye display unit 20R.

ラインメモリ43には、書き込みアドレスW及び読み出しアドレスRが設定される。書き込みアドレスWは、外部から入力される画像データが書き込まれるラインのアドレスを示す。読み出しアドレスRは、ラインメモリ43に書き込まれた画像データが読み出されるラインのアドレスを示す。外部から画像データが入力される場合、例えばアドレス0のラインからアドレスZのラインに順次書き込まれ、最大値Zに到達した後は0に戻る。 A write address W and a read address R are set in the line memory 43. The write address W indicates the address of the line on which the image data input from the outside is written. The read address R indicates the address of the line on which the image data written in the line memory 43 is read. When image data is input from the outside, for example, it is sequentially written from the line at address 0 to the line at address Z, and returns to 0 after reaching the maximum value Z.

書き込みアドレスWと読み出しアドレスRとの関係について説明する。基準アドレスaとすると、読み出しアドレスRは、書き込みアドレスWに対して、
R=W−a(但し、R<0の場合はR=Z−a)
と表すことができる。
The relationship between the write address W and the read address R will be described. Assuming that the reference address a is used, the read address R is relative to the write address W.
R = W-a (However, if R <0, R = Z-a)
It can be expressed as.

このように読み出しアドレスRを設定することにより、W=aとなる場合、つまりラインメモリ43のうち基準アドレスaに対応するラインまで画像データが書き込まれた場合、読み出しアドレスRが0となる。この場合、ラインメモリ43のうち最上段のライン(アドレス0となるライン)に書き込まれている画像データが読み出される。このように、画像データの書き込みに対してaライン遅延したラインの画像データが出力される。 By setting the read address R in this way, the read address R becomes 0 when W = a, that is, when the image data is written up to the line corresponding to the reference address a in the line memory 43. In this case, the image data written in the uppermost line (the line having the address 0) of the line memory 43 is read out. In this way, the image data of the line delayed by a line with respect to the writing of the image data is output.

これに対して、基準アドレスaの値を1ライン分小さくした場合、最上段のラインが読み出されるタイミングが1ライン分早くなる。このため、見かけ上、表示画像が上方に1ライン分ずれて表示される。また、基準アドレスaの値を1ライン分大きくした場合、最上段のラインが読み出されるタイミングが1ライン分遅くなる。このため、見かけ上、表示画像が下方に1ライン分ずれて表示される。したがって、アドレス制御部44により基準ラインaの値を調整することで、左眼用表示部20L及び右眼用表示部20Rに表示される表示画像の位置を上下方向に移動させることができる。 On the other hand, when the value of the reference address a is reduced by one line, the timing at which the uppermost line is read is advanced by one line. For this reason, the displayed image is apparently displayed with a shift of one line upward. Further, when the value of the reference address a is increased by one line, the timing at which the uppermost line is read is delayed by one line. For this reason, the displayed image is apparently displayed with a shift of one line downward. Therefore, by adjusting the value of the reference line a by the address control unit 44, the positions of the display images displayed on the left eye display unit 20L and the right eye display unit 20R can be moved in the vertical direction.

[表示調整方法]
次に、本実施形態に係る表示調整方法について説明する。本実施形態に係る表示調整方法では、使用者が上記の表示装置100を頭部に装着した状態で、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整する。
[Display adjustment method]
Next, a display adjustment method according to the present embodiment will be described. In the display adjustment method according to the present embodiment, the display position when the user displays an image on the left eye display unit 20L and the right eye display unit 20R with the above display device 100 attached to the head is set. adjust.

使用者が上記の表示装置100を頭部に装着した状態において、使用者の左眼の前方には左眼用表示部20Lが配置され、使用者の右眼の前方には右眼用表示部20Rが配置される。本実施形態に係る表示調整方法では、左眼用表示部20L及び右眼用表示部20Rを透過して前方の物体Mを注視する場合の物体視線E1と、左眼用表示部20L及び右眼用表示部20Rにおいて物体Mに対応する位置に目標画像Iをそれぞれ表示した状態で使用者が目標画像Iを注視する場合の使用者の左右の眼球の画像視線E2と、の差分を低減するように調整する。 When the user wears the above display device 100 on his / her head, the left eye display unit 20L is arranged in front of the user's left eye, and the right eye display unit is arranged in front of the user's right eye. 20R is arranged. In the display adjustment method according to the present embodiment, the object line-of-sight E1 when the object M in front is gazed through the display unit 20L for the left eye and the display unit 20R for the right eye, and the display unit 20L for the left eye and the right eye. To reduce the difference between the image line-of-sight E2 of the left and right eyes of the user when the user gazes at the target image I while the target image I is displayed at a position corresponding to the object M on the display unit 20R. Adjust to.

まず、視線検出部30により、使用者の左眼及び右眼の視線検出を開始する。この状態で、使用者に物体Mを注視させる場合、表示部20は、例えば左眼用表示部20L及び右眼用表示部20Rには画像を表示しないことが好ましい。なお、表示部20は、使用者に対して物体Mを注視するように促すための情報等を表示してもよい。視線検出部30は、使用者に物体Mを注視させた状態で、使用者の物体視線E1を検出する。 First, the line-of-sight detection unit 30 starts line-of-sight detection of the user's left eye and right eye. When the user is made to gaze at the object M in this state, it is preferable that the display unit 20 does not display an image on, for example, the left eye display unit 20L and the right eye display unit 20R. The display unit 20 may display information or the like for urging the user to gaze at the object M. The line-of-sight detection unit 30 detects the user's object line-of-sight E1 with the user gazing at the object M.

続いて、使用者に目標画像Iを注視させる。この場合、表示部20は、左眼用表示部20L及び右眼用表示部20Rのうち物体Mに対応する位置(例えば、物体Mに重なる位置)に目標画像Iを表示する。表示部20は、上記同様に、使用者に対して目標画像Iを注視するように促すための情報等を表示してもよい。視線検出部30は、使用者に目標画像Iを注視させた状態で、使用者の画像視線E2を検出する。 Subsequently, the user is made to gaze at the target image I. In this case, the display unit 20 displays the target image I at a position corresponding to the object M (for example, a position overlapping the object M) of the left eye display unit 20L and the right eye display unit 20R. Similar to the above, the display unit 20 may display information or the like for urging the user to pay attention to the target image I. The line-of-sight detection unit 30 detects the user's image line-of-sight E2 with the user gazing at the target image I.

図7は、物体視線E1及び画像視線E2の検出結果の一例を模式的に示す図である。図7に示す例において、視線検出部30は、物体視線E1に対応する使用者の物体注視点P1の位置(X1、Y1)と、画像視線E2に対応する使用者の画像注視点P2の位置(X2、Y2)とを、物体視線E1、画像視線E2として検出することができる。 FIG. 7 is a diagram schematically showing an example of the detection results of the object line of sight E1 and the image line of sight E2. In the example shown in FIG. 7, the line-of-sight detection unit 30 has a position (X1, Y1) of the user's object gazing point P1 corresponding to the object line-of-sight E1 and a position of the user's image gazing point P2 corresponding to the image line-of-sight E2. (X2, Y2) can be detected as an object line of sight E1 and an image line of sight E2.

本実施形態において、物体注視点P1は、前後方向に垂直であって被験者の左眼及び右眼から所定距離だけ離れた平面と物体視線E1の視線ベクトルとの交点である。また、画像注視点P2は、仮想平面と画像視線E2を構成する視線ベクトルとの交点である。このような物体注視点P1及び画像注視点P2を求める場合、処理部33は、まず、受光部32で得られた情報に基づいて、物体視線E1及び画像視線E2を視線ベクトルとして検出する。その後、例えば物体視線E1及び画像視線E2と所定の仮想平面との交点を物体注視点P1及び画像注視点P2とする。処理部33は、仮想平面上の基準位置の座標を基準として、物体注視点P1及び画像注視点P2の座標を求める。仮想平面は、例えばハーフミラー22の表面に設けられてもよいし、使用者の左右の眼球とハーフミラー22との間の空間に設けられてもよい。処理部33は、物体視線E1及び画像視線E2の視線ベクトルと、物体注視点P1及び画像注視点P2の座標とを記憶部45に記憶させる。なお、処理部33は、使用者が物体Mを注視する際に取得される物体視線E1の視線ベクトル及び物体注視点P1の座標を先に記憶部45に記憶し、使用者が目標画像Iを注視する際に取得される画像視線E2の視線ベクトル及び画像注視点P2の座標を直接差分検出部41に出力してもよい。 In the present embodiment, the object gazing point P1 is an intersection of a plane perpendicular to the front-back direction and separated from the left eye and the right eye of the subject by a predetermined distance and the line-of-sight vector of the object line-of-sight E1. Further, the image gazing point P2 is an intersection of the virtual plane and the line-of-sight vector constituting the image line-of-sight E2. When obtaining such an object gazing point P1 and an image gazing point P2, the processing unit 33 first detects the object line of sight E1 and the image line of sight E2 as line-of-sight vectors based on the information obtained by the light receiving unit 32. After that, for example, the intersections of the object line of sight E1 and the image line of sight E2 and the predetermined virtual plane are set as the object gaze point P1 and the image gaze point P2. The processing unit 33 obtains the coordinates of the object gazing point P1 and the image gazing point P2 with reference to the coordinates of the reference position on the virtual plane. The virtual plane may be provided on the surface of the half mirror 22, for example, or may be provided in the space between the left and right eyeballs of the user and the half mirror 22. The processing unit 33 stores the line-of-sight vectors of the object line-of-sight E1 and the image line-of-sight E2 and the coordinates of the object gaze point P1 and the image gaze point P2 in the storage unit 45. The processing unit 33 first stores the line-of-sight vector of the object line-of-sight E1 and the coordinates of the object gazing point P1 acquired when the user gazes at the object M in the storage unit 45, and the user stores the target image I. The line-of-sight vector of the image line-of-sight E2 and the coordinates of the image gaze point P2 acquired when gazing may be directly output to the difference detection unit 41.

例えば、左眼用表示部20Lと右眼用表示部20Rとが上下方向にずれた状態で取り付けられた場合、使用者が物体Mを注視する場合の視線と、目標画像Iを注視する場合の視線とが上下方向にずれてしまう場合がある。この場合、物体Mを注視しようとすると、目標画像Iが結像しなくなる。逆に、目標画像Iを注視しようとすると、物体Mが結像しなくなる。このため、使用者の眼に負担が掛かってしまう。そこで、本実施形態では、使用者の物体視線E1と画像視線E2との間に上下方向の差分が存在する場合、当該差分を低減するように、左眼用表示部20L及び右眼用表示部20Rに表示する画像の位置を調整することで、使用者の負担の低減を図る。 For example, when the left-eye display unit 20L and the right-eye display unit 20R are attached in a vertically displaced state, the line of sight when the user gazes at the object M and the target image I when the user gazes at the object M. The line of sight may shift in the vertical direction. In this case, when the object M is gazed at, the target image I is not formed. On the contrary, when the target image I is gazed at, the object M is not imaged. Therefore, the eyes of the user are burdened. Therefore, in the present embodiment, when there is a difference in the vertical direction between the user's object line of sight E1 and the image line of sight E2, the left eye display unit 20L and the right eye display unit 20L and the right eye display unit are designed to reduce the difference. By adjusting the position of the image displayed on the 20R, the burden on the user is reduced.

差分検出部41は、記憶部45に記憶される情報又は処理部33から出力される情報に基づいて、上下方向についての物体視線E1と画像視線E2との差分を検出する。図7に示すように、差分検出部41は、例えば物体注視点P1と画像注視点P2との上下方向についての距離を差分S1として検出することができる。なお、差分検出部41は、物体視線E1の視線ベクトルと画像視線E2の視線ベクトルとの差分を検出する場合、例えば視線ベクトルの差として求められたベクトルの上下方向におけるベクトル量を差分として検出することができる。差分検出部41は、検出した差分S1を出力する。 The difference detection unit 41 detects the difference between the object line of sight E1 and the image line of sight E2 in the vertical direction based on the information stored in the storage unit 45 or the information output from the processing unit 33. As shown in FIG. 7, the difference detection unit 41 can detect, for example, the distance between the object gazing point P1 and the image gazing point P2 in the vertical direction as the difference S1. When detecting the difference between the line-of-sight vector of the object line-of-sight E1 and the line-of-sight vector of the image line-of-sight E2, the difference detection unit 41 detects, for example, the vector amount in the vertical direction obtained as the difference between the line-of-sight vectors as the difference. be able to. The difference detection unit 41 outputs the detected difference S1.

調整部42は、差分検出部41から出力された差分S1に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整する。例えば、調整部42は、差分S1が予め設定された閾値以上である場合に、表示位置の調整を行うようにすることができる。調整部42は、例えばアドレス制御部44によりラインメモリ43における画像データの読み出し開始のラインを選択することで、表示位置を調整可能である。 The adjusting unit 42 adjusts the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R according to the difference S1 output from the difference detecting unit 41. For example, the adjusting unit 42 may adjust the display position when the difference S1 is equal to or greater than a preset threshold value. The adjustment unit 42 can adjust the display position by, for example, the address control unit 44 selecting the line for starting reading the image data in the line memory 43.

図8は、本実施形態に係る表示調整方法の一例を示すフローチャートである。表示装置100が使用者の頭部に装着された後、図8に示すように、視線検出部30が使用者の左右の視線の検出を開始し(ステップS101)、この状態で使用者に物体Mを注視させる(ステップS102)。ステップS102において、視線検出部30は、使用者に物体Mを注視させた状態で、使用者の物体視線E1を検出する。 FIG. 8 is a flowchart showing an example of the display adjustment method according to the present embodiment. After the display device 100 is attached to the user's head, as shown in FIG. 8, the line-of-sight detection unit 30 starts detecting the user's left and right line-of-sight (step S101), and in this state, the user receives an object. Gaze at M (step S102). In step S102, the line-of-sight detection unit 30 detects the user's object line-of-sight E1 with the user gazing at the object M.

次に、左眼用表示部20L及び右眼用表示部20Rにおいて物体Mに対応する位置に目標画像Iをそれぞれ表示し、使用者に目標画像Iを注視させる(ステップS103)。ステップS103において、視線検出部30は、使用者に目標画像Iを注視させた状態で、使用者の画像視線E2を検出する。 Next, the target image I is displayed at a position corresponding to the object M on the left eye display unit 20L and the right eye display unit 20R, respectively, and the user is made to gaze at the target image I (step S103). In step S103, the line-of-sight detection unit 30 detects the user's image line-of-sight E2 with the user gazing at the target image I.

次に、差分検出部41は、上下方向についての物体視線E1と画像視線E2との差分を検出する(ステップS104)。差分検出部41において差分が検出された場合(ステップS104のYes)、調整部42は、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整して(ステップS105)、処理を終了する。差分検出部41において差分が検出されない場合(ステップS104のNo)、表示位置の調整を行うことなく、処理を終了する。 Next, the difference detection unit 41 detects the difference between the object line of sight E1 and the image line of sight E2 in the vertical direction (step S104). When the difference is detected by the difference detection unit 41 (Yes in step S104), the adjustment unit 42 adjusts the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R (Yes). Step S105), the process is terminated. If the difference detection unit 41 does not detect the difference (No in step S104), the process ends without adjusting the display position.

以上のように、本実施形態に係る表示装置100は、左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部20L及び右眼用表示部20Rと、使用者が左眼用表示部20L及び右眼用表示部20Rを透過して前後方向の前方の物体Mを注視する場合の使用者の左右の眼球の物体視線E1と、左眼用表示部20L及び右眼用表示部20Rにおいて物体Mに対応する位置に目標画像Iをそれぞれ表示した状態で使用者が目標画像Iを注視する場合の使用者の左右の眼球の画像視線E2とを検出可能な視線検出部30と、左右方向及び前後方向に直交する上下方向についての物体視線E1と画像視線E2との差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整する調整部42とを備える。 As described above, the display devices 100 according to the present embodiment are arranged side by side in the left-right direction, and the left eye display unit 20L and the right eye display unit 20L capable of transmitting a part of light and displaying an image can be displayed. 20R, the object line of sight E1 of the left and right eyes of the user when the user gazes at the object M in front of the front and rear through the display unit 20L for the left eye and the display unit 20R for the right eye, and for the left eye. When the user gazes at the target image I with the target image I displayed at a position corresponding to the object M on the display unit 20L and the display unit 20R for the right eye, the image lines of sight E2 of the left and right eyes of the user are displayed. An image is displayed on the left eye display unit 20L and the right eye display unit 20R according to the difference between the detectable line-of-sight detection unit 30 and the object line-of-sight E1 and the image line-of-sight E2 in the vertical direction orthogonal to the left-right direction and the front-back direction. It is provided with an adjusting unit 42 for adjusting a display position when displaying.

本実施形態に係る表示調整方法は、左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部20L及び右眼用表示部20Rを透過して前後方向の前方の物体Mを注視する場合の使用者の左右の眼球の物体視線E1と、左眼用表示部20L及び右眼用表示部20Rにおいて物体Mに対応する位置に目標画像Iをそれぞれ表示した状態で使用者が目標画像Iを注視する場合の使用者の左右の眼球の画像視線E2とを検出することと、左右方向及び前後方向に直交する上下方向についての物体視線E1と画像視線E2との差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整することとを含む。 The display adjustment method according to the present embodiment is arranged side by side in the left-right direction, and transmits a part of the light to the left eye display unit 20L and the right eye display unit 20R capable of displaying an image. The target image I is set at the position corresponding to the object M in the object line-of-sight E1 of the left and right eyes of the user when gazing at the front object M in the front-rear direction, and in the left eye display unit 20L and the right eye display unit 20R, respectively. Detecting the image line-of-sight E2 of the user's left and right eyeballs when the user gazes at the target image I in the displayed state, and the object line-of-sight E1 and the image line-of-sight in the vertical direction orthogonal to the left-right direction and the front-back direction. This includes adjusting the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R according to the difference from E2.

本実施形態に係る表示調整プログラムは、左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部20L及び右眼用表示部20Rを透過して前後方向の前方の物体Mを注視する場合の使用者の左右の眼球の物体視線E1と、左眼用表示部20L及び右眼用表示部20Rにおいて物体Mに対応する位置に目標画像Iをそれぞれ表示した状態で使用者が目標画像Iを注視する場合の使用者の左右の眼球の画像視線E2とを検出する処理と、左右方向及び前後方向に直交する上下方向についての物体視線E1と画像視線E2との差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整する処理とをコンピュータに実行させる。 The display adjustment program according to the present embodiment is arranged side by side in the left-right direction, and transmits a part of the light to the left eye display unit 20L and the right eye display unit 20R capable of displaying an image. The target image I is set at the position corresponding to the object M in the object line-of-sight E1 of the left and right eyes of the user when gazing at the object M in front of the front-rear direction, and in the left-eye display unit 20L and the right-eye display unit 20R, respectively. The process of detecting the image line-of-sight E2 of the user's left and right eyeballs when the user gazes at the target image I in the displayed state, and the object line-of-sight E1 and the image line-of-sight in the vertical direction orthogonal to the left-right direction and the front-back direction. The computer is made to execute a process of adjusting the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R according to the difference from E2.

本実施形態によれば、使用者の物体視線E1と画像視線E2との間に上下方向の差分が存在する場合、当該差分を低減するように、左眼用表示部20L及び右眼用表示部20Rに表示する画像の位置が調整される。このため、物体Mに対応する画像を表示する際、使用者に物体Mを注視する場合と同じ視線で画像を注視させることができる。これにより、使用者の負担を低減することができる。 According to the present embodiment, when there is a difference in the vertical direction between the user's object line of sight E1 and the image line of sight E2, the left eye display unit 20L and the right eye display unit 20L and the right eye display unit are used to reduce the difference. The position of the image displayed on 20R is adjusted. Therefore, when displaying the image corresponding to the object M, the user can gaze at the image with the same line of sight as when the object M is gazed. As a result, the burden on the user can be reduced.

本実施形態に係る表示装置100において、調整部42は、上下方向についての差分に応じて、表示位置を段階的に調整する。この構成によれば、差分に応じて表示位置を段階的に調整することができるため、効率的な調整が可能となる。 In the display device 100 according to the present embodiment, the adjustment unit 42 adjusts the display position stepwise according to the difference in the vertical direction. According to this configuration, the display position can be adjusted stepwise according to the difference, so that efficient adjustment is possible.

本実施形態に係る表示装置100において、調整部42は、物体視線E1に対応する物体注視点P1の位置と、画像視線E2に対応する画像注視点P2の位置との間の上下方向についての差分に応じて、表示位置を調整する。この構成によれば、物体注視点P1及び画像注視点P2に基づいて差分を算出することで、より精度よく表示位置を調整することが可能となる。 In the display device 100 according to the present embodiment, the adjusting unit 42 determines the difference in the vertical direction between the position of the object gazing point P1 corresponding to the object line of sight E1 and the position of the image gazing point P2 corresponding to the image line of sight E2. Adjust the display position according to. According to this configuration, the display position can be adjusted more accurately by calculating the difference based on the object gazing point P1 and the image gazing point P2.

本実施形態に係る表示装置100において、調整部42は、画像の画像データが書き込まれるラインメモリ43を有し、差分に応じて、ラインメモリ43における画像データの読み出し開始のラインを選択することで表示位置を調整する。この構成によれば、ラインメモリ43における画像データの読み出し開始のラインを選択することで、表示部20を構成する構成部材の位置関係を変更することなく、容易に表示位置を調整することが可能となる。 In the display device 100 according to the present embodiment, the adjusting unit 42 has a line memory 43 in which the image data of the image is written, and selects a line for starting reading the image data in the line memory 43 according to the difference. Adjust the display position. According to this configuration, by selecting the line for starting reading the image data in the line memory 43, it is possible to easily adjust the display position without changing the positional relationship of the constituent members constituting the display unit 20. It becomes.

[他の表示調整方法]
次に、表示調整方法の他の例について説明する。使用者が上記の表示装置100を頭部に装着した状態において、使用者の左眼の前方には左眼用表示部20Lが配置され、使用者の右眼の前方には右眼用表示部20Rが配置される。他の例に係る表示調整方法では、左眼用表示部20L及び右眼用表示部20Rにおいて使用者の前方に目標画像Iをそれぞれ表示し、使用者が目標画像Iを注視する場合の使用者の左の眼球の左画像視線E2Lと、右の眼球の右画像視線E2Rを検出可能な視線検出部と、の差分を低減するように調整する。
[Other display adjustment methods]
Next, another example of the display adjustment method will be described. When the user wears the above display device 100 on his / her head, the left eye display unit 20L is arranged in front of the user's left eye, and the right eye display unit is arranged in front of the user's right eye. 20R is arranged. In the display adjustment method according to another example, the target image I is displayed in front of the user on the left eye display unit 20L and the right eye display unit 20R, respectively, and the user gazes at the target image I. The difference between the left image line-of-sight E2L of the left eyeball and the line-of-sight detection unit capable of detecting the right image line-of-sight E2R of the right eyeball is adjusted to be reduced.

まず、視線検出部30により、使用者の左眼及び右眼の視線検出を開始する。この状態で、使用者に目標画像Iを注視させる。この場合、表示部20は、左眼用表示部20L及び右眼用表示部20Rにおいて互いに対応する位置に目標画像Iを表示する。このような位置としては、例えば、左眼用表示部20Lと右眼用表示部20Rとで左右対称となる位置等が挙げられる。表示部20は、使用者に対して目標画像Iを注視するように促すための情報等を表示してもよい。視線検出部30は、使用者に目標画像Iを注視させた状態で、使用者の左の眼球の左画像視線E2Lと、右の眼球の右画像視線E2Rとを検出する。 First, the line-of-sight detection unit 30 starts line-of-sight detection of the user's left eye and right eye. In this state, the user is made to gaze at the target image I. In this case, the display unit 20 displays the target image I at positions corresponding to each other on the left eye display unit 20L and the right eye display unit 20R. Examples of such a position include a position in which the left eye display unit 20L and the right eye display unit 20R are symmetrical. The display unit 20 may display information or the like for urging the user to pay attention to the target image I. The line-of-sight detection unit 30 detects the left image line-of-sight E2L of the user's left eyeball and the right image line-of-sight E2R of the right eyeball while the user is gazing at the target image I.

図9は、左画像視線E2L及び右画像視線E2Rの検出結果の一例を模式的に示す図である。図9に示す例において、視線検出部30は、左画像視線E2Lに対応する使用者の左画像注視点PLの位置(XL、YL)と、右画像視線E2Rに対応する使用者の右画像注視点PRの位置(XR、YR)とを、左画像視線E2L、右画像視線E2Rとして検出することができる。 FIG. 9 is a diagram schematically showing an example of the detection results of the left image line-of-sight E2L and the right image line-of-sight E2R. In the example shown in FIG. 9, the line-of-sight detection unit 30 includes the position (XL, YL) of the user's left image gaze point PL corresponding to the left image line-of-sight E2L and the user's right image note corresponding to the right image line-of-sight E2R. The position of the viewpoint PR (XR, YR) can be detected as the left image line of sight E2L and the right image line of sight E2R.

本実施形態において、左画像注視点PLは、前後方向に垂直であって被験者の左右の眼球から所定距離だけ離れた平面と左画像視線E2Lの視線ベクトルとの交点である。また、右画像注視点PRは、仮想平面と右画像視線E2Rを構成する視線ベクトルとの交点である。このような左画像注視点PL及び右画像注視点PRを求める場合、処理部33は、まず、受光部32で得られた情報に基づいて、左画像視線E2L及び右画像視線E2Rを視線ベクトルとして検出する。その後、例えば左画像視線E2L及び右画像視線E2Rと所定の仮想平面との交点を左画像注視点PL及び右画像注視点PRとする。処理部33は、仮想平面上の基準位置の座標を基準として、左画像注視点PL及び右画像注視点PRの座標を求める。処理部33は、左画像視線E2L及び右画像視線E2Rの視線ベクトルと、左画像注視点PL及び右画像注視点PRの座標とを記憶部45に記憶させる。なお、処理部33は、使用者が目標画像Iを注視する際に取得される左画像視線E2L及び右画像視線E2Rの視線ベクトル及び左画像注視点PL及び右画像注視点PRの座標を、直接差分検出部41に出力してもよい。また、記憶部45は、左右方向に並んで配置され、画像を表示可能な左眼用表示部20L及び右眼用表示部20Rにおいて使用者の前方に目標画像Iをそれぞれ表示する処理と、使用者が目標画像Iを注視する場合の使用者の左の眼球の左画像視線E2L及び右の眼球の右画像視線E2Rを検出する処理と、左右方向及び前後方向に直交する上下方向についての左画像視線E2Lと右画像視線E2Rとの差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整する処理とをコンピュータに実行させる表示調整プログラムを記憶する。 In the present embodiment, the left image gazing point PL is an intersection of a plane perpendicular to the front-back direction and separated from the left and right eyeballs of the subject by a predetermined distance and the line-of-sight vector of the left image line-of-sight E2L. The right image gazing point PR is an intersection of the virtual plane and the line-of-sight vector constituting the right image line-of-sight E2R. When obtaining such a left image gaze point PL and a right image gaze point PR, the processing unit 33 first uses the left image gaze E2L and the right image gaze E2R as gaze vectors based on the information obtained by the light receiving unit 32. To detect. After that, for example, the intersections of the left image line-of-sight E2L and the right image line-of-sight E2R and the predetermined virtual plane are designated as the left image gaze point PL and the right image gaze point PR. The processing unit 33 obtains the coordinates of the left image gazing point PL and the right image gazing point PR with reference to the coordinates of the reference position on the virtual plane. The processing unit 33 stores the line-of-sight vectors of the left image line-of-sight E2L and the right image line-of-sight E2R and the coordinates of the left image gaze point PL and the right image gaze point PR in the storage unit 45. The processing unit 33 directly obtains the coordinates of the left image gaze E2L and the right image gaze E2R gaze vector and the left image gaze point PL and the right image gaze point PR acquired when the user gazes at the target image I. It may be output to the difference detection unit 41. Further, the storage units 45 are arranged side by side in the left-right direction, and the left eye display unit 20L and the right eye display unit 20R capable of displaying images display the target image I in front of the user, respectively, and use the storage unit 45. The process of detecting the left image line of sight E2L of the user's left eyeball and the right image line of sight E2R of the right eyeball when the person gazes at the target image I, and the left image of the vertical direction orthogonal to the left-right direction and the front-back direction. A display adjustment program that causes a computer to perform a process of adjusting the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R according to the difference between the line of sight E2L and the right image line of sight E2R. Remember.

例えば、上記実施形態と同様、左眼用表示部20Lと右眼用表示部20Rとが上下方向にずれた状態で取り付けられた場合、左眼用表示部20Lを左眼で見たときの視線と、右眼用表示部20Rを右眼で見たときの視線とが上下方向にずれてしまうことがある。この場合、対象となる画像を見た瞬間は像が結像せず、脳の指令により左右の眼球を上下方向に動かすことで結像する。しかしながら、この場合、使用者の眼に負担が掛かってしまう。そこで、本実施形態では、使用者の左画像視線E2Lと右画像視線E2Rとの間に上下方向の差分が存在する場合、当該差分を低減するように、左眼用表示部20L及び右眼用表示部20Rに表示する画像の位置を調整することで、使用者の負担の低減を図る。 For example, as in the above embodiment, when the left eye display unit 20L and the right eye display unit 20R are attached in a vertically displaced state, the line of sight when the left eye display unit 20L is viewed with the left eye. In addition, the line of sight when the right eye display unit 20R is viewed with the right eye may be displaced in the vertical direction. In this case, the image is not formed at the moment when the target image is viewed, but is formed by moving the left and right eyeballs in the vertical direction according to the command of the brain. However, in this case, the eyes of the user are burdened. Therefore, in the present embodiment, when there is a difference in the vertical direction between the user's left image line of sight E2L and the right image line of sight E2R, the left eye display unit 20L and the right eye display unit 20L and the right eye are used so as to reduce the difference. By adjusting the position of the image displayed on the display unit 20R, the burden on the user is reduced.

差分検出部41は、記憶部45に記憶される情報又は処理部33から出力される情報に基づいて、上下方向についての左画像視線E2Lと右画像視線E2Rとの差分を検出する。図9に示すように、差分検出部41は、例えば左画像注視点PLと右画像注視点PRとの上下方向についての距離を差分S2として検出することができる。なお、差分検出部41は、左画像視線E2Lの視線ベクトルと右画像視線E2Rの視線ベクトルとの差分を検出する場合、例えば視線ベクトルの差として求められたベクトルの上下方向における長さを差分として検出することができる。差分検出部41は、検出した差分S2を出力する。 The difference detection unit 41 detects the difference between the left image line-of-sight E2L and the right image line-of-sight E2R in the vertical direction based on the information stored in the storage unit 45 or the information output from the processing unit 33. As shown in FIG. 9, the difference detection unit 41 can detect, for example, the distance between the left image gazing point PL and the right image gazing point PR in the vertical direction as the difference S2. When the difference detection unit 41 detects the difference between the line-of-sight vector of the left image line-of-sight E2L and the line-of-sight vector of the right image line-of-sight E2R, for example, the length of the vector obtained as the difference of the line-of-sight vectors in the vertical direction is used as the difference. Can be detected. The difference detection unit 41 outputs the detected difference S2.

調整部42は、差分検出部41から出力された差分S2に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整する。例えば、調整部42は、差分S2が予め設定された閾値以上である場合に、表示位置の調整を行うようにすることができる。この場合、調整部42は、上下方向について、左画像注視点PLと右画像注視点PRとの中間の位置に表示位置を調整することができる。これにより、左眼用表示部20L及び右眼用表示部20Rの両方に表示位置の調整量を分散させることができる。調整部42は、例えばアドレス制御部44によりラインメモリ43における画像データの読み出し開始のラインを選択することで、表示位置を調整可能である。なお、調整部42は、左眼用表示部20Lもしくは右眼用表示部20Rのいずれか一方を、他方に合わせるように表示位置を調整してもよい。 The adjusting unit 42 adjusts the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R according to the difference S2 output from the difference detecting unit 41. For example, the adjusting unit 42 may adjust the display position when the difference S2 is equal to or greater than a preset threshold value. In this case, the adjusting unit 42 can adjust the display position in the vertical direction to a position intermediate between the left image gazing point PL and the right image gazing point PR. As a result, the adjustment amount of the display position can be distributed to both the left eye display unit 20L and the right eye display unit 20R. The adjustment unit 42 can adjust the display position by, for example, the address control unit 44 selecting the line for starting reading the image data in the line memory 43. The adjusting unit 42 may adjust the display position so that either the left eye display unit 20L or the right eye display unit 20R is aligned with the other.

図10は、表示調整方法の他の例を示すフローチャートである。表示装置100が使用者の頭部に装着された後、図10に示すように、視線検出部30が使用者の左右の視線の検出を開始し(ステップS201)、この状態で左眼用表示部20L及び右眼用表示部20Rに目標画像Iを表示して、使用者に目標画像Iを注視させる(ステップS202)。ステップS202において、視線検出部30は、使用者に目標画像Iを注視させた状態で、使用者の左画像視線E2L及び右画像視線E2Rを検出する。 FIG. 10 is a flowchart showing another example of the display adjustment method. After the display device 100 is attached to the user's head, as shown in FIG. 10, the line-of-sight detection unit 30 starts detecting the user's left and right line-of-sight (step S201), and in this state, the display for the left eye. The target image I is displayed on the unit 20L and the display unit 20R for the right eye, and the user is made to gaze at the target image I (step S202). In step S202, the line-of-sight detection unit 30 detects the left image line-of-sight E2L and the right image line-of-sight E2R of the user with the user gazing at the target image I.

次に、差分検出部41は、上下方向についての左画像視線E2Lと右画像視線E2Rとの差分を検出する(ステップS203)。差分検出部41において差分が検出された場合(ステップS203のYes)、調整部42は、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整して(ステップS204)、処理を終了する。差分検出部41において差分が検出されない場合(ステップS203のNo)、表示位置の調整を行うことなく、処理を終了する。 Next, the difference detection unit 41 detects the difference between the left image line-of-sight E2L and the right image line-of-sight E2R in the vertical direction (step S203). When the difference is detected by the difference detection unit 41 (Yes in step S203), the adjustment unit 42 adjusts the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R (Yes). Step S204), the process is terminated. If the difference detection unit 41 does not detect the difference (No in step S203), the process ends without adjusting the display position.

本実施形態に係る表示装置100は、左右方向に並んで配置され、画像を表示可能な左眼用表示部20L及び右眼用表示部20Rと、左眼用表示部20L及び右眼用表示部20Rにおいて使用者の前後方向の前方に目標画像Iをそれぞれ表示した状態で使用者が目標画像Iを注視する場合の使用者の左の眼球の左画像視線E2L及び右の眼球の右画像視線E2Rを検出する視線検出部30と、左右方向及び前後方向に直交する上下方向についての左画像視線E2Lと右画像視線E2Rとの差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する表示位置を調整する調整部42とを備える。 The display devices 100 according to the present embodiment are arranged side by side in the left-right direction, and are capable of displaying images, a left-eye display unit 20L and a right-eye display unit 20R, and a left-eye display unit 20L and a right-eye display unit. When the user gazes at the target image I with the target image I displayed in front of the user in the front-rear direction in 20R, the left image line of sight E2L of the left eyeball of the user and the right image line of sight E2R of the right eyeball. The left eye display unit 20L and the right eye display unit 20R according to the difference between the line-of-sight detection unit 30 for detecting the above and the left image line-of-sight E2L and the right image line-of-sight E2R in the vertical direction orthogonal to the left-right direction and the front-back direction. It is provided with an adjusting unit 42 for adjusting a display position for displaying an image.

本実施形態に係る表示調整方法は、左右方向に並んで配置され、画像を表示可能な左眼用表示部20L及び右眼用表示部20Rにおいて使用者の前後方向の前方に目標画像Iをそれぞれ表示することと、使用者が目標画像Iを注視する場合の使用者の左の眼球の左画像視線E2L及び右の眼球の右画像視線E2Rを検出することと、左右方向及び前後方向に直交する上下方向についての左画像視線E2Lと右画像視線E2Rとの差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する表示位置を調整することとを含む。 In the display adjustment method according to the present embodiment, the target image I is set in front of the user in the front-rear direction in the left-eye display unit 20L and the right-eye display unit 20R, which are arranged side by side in the left-right direction and can display images. Displaying, detecting the left image line of sight E2L of the user's left eyeball and the right image line of sight E2R of the right eyeball when the user gazes at the target image I, and orthogonal to the left-right direction and the front-back direction. This includes adjusting the display position for displaying an image on the left eye display unit 20L and the right eye display unit 20R according to the difference between the left image line of sight E2L and the right image line of sight E2R in the vertical direction.

本実施形態に係る表示調整プログラムは、左右方向に並んで配置され、画像を表示可能な左眼用表示部20L及び右眼用表示部20Rにおいて使用者の前後方向の前方に目標画像Iをそれぞれ表示する処理と、使用者が目標画像Iを注視する場合の使用者の左の眼球の左画像視線E2L及び右の眼球の右画像視線E2Rを検出する処理と、左右方向及び前後方向に直交する上下方向についての左画像視線E2Lと右画像視線E2Rとの差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する表示位置を調整する処理とをコンピュータに実行させる。 The display adjustment program according to the present embodiment is arranged side by side in the left-right direction, and the target image I is set in front of the user in the front-rear direction in the left-eye display unit 20L and the right-eye display unit 20R capable of displaying images, respectively. The process of displaying and the process of detecting the left image line of sight E2L of the user's left eyeball and the right image line of sight E2R of the right eyeball when the user gazes at the target image I are orthogonal to the left-right direction and the front-back direction. Causes the computer to perform a process of adjusting the display position for displaying an image on the left eye display unit 20L and the right eye display unit 20R according to the difference between the left image line of sight E2L and the right image line of sight E2R in the vertical direction. ..

本実施形態によれば、使用者の左画像視線E2Lと右画像視線E2Rとの間に上下方向の差分が存在する場合、当該差分を低減するように、左眼用表示部20L及び右眼用表示部20Rに表示する画像の位置が調整される。このため、左眼用表示部20L及び右眼用表示部20Rに画像を表示する際、左右で同じ視線となるように画像を注視させることができる。これにより、使用者の負担を低減することができる。 According to the present embodiment, when there is a difference in the vertical direction between the user's left image line of sight E2L and the right image line of sight E2R, the left eye display unit 20L and the right eye are used so as to reduce the difference. The position of the image to be displayed on the display unit 20R is adjusted. Therefore, when displaying an image on the left eye display unit 20L and the right eye display unit 20R, the image can be gazed so that the left and right eyes have the same line of sight. As a result, the burden on the user can be reduced.

本実施形態に係る表示装置100において、調整部42は、左画像視線E2Lに対応する左画像注視点PLの位置と、右画像視線E2Rに対応する右画像注視点PRの位置との間の上下方向についての差分に応じて、表示位置を調整する。この構成によれば、左画像注視点PL及び右画像注視点PRに基づいて差分を算出することで、より精度よく表示位置を調整することが可能となる。 In the display device 100 according to the present embodiment, the adjustment unit 42 moves up and down between the position of the left image gaze point PL corresponding to the left image gaze E2L and the position of the right image gaze point PR corresponding to the right image gaze E2R. The display position is adjusted according to the difference in direction. According to this configuration, the display position can be adjusted more accurately by calculating the difference based on the left image gazing point PL and the right image gazing point PR.

本実施形態に係る表示装置100において、調整部42は、上下方向について、左画像注視点PLと右画像注視点PRとの中間の位置に表示位置を調整する。この構成によれば、左眼用表示部20L及び右眼用表示部20Rのそれぞれに表示位置の調整量を分散させることができる。これにより、表示画像の一部が左眼用表示部20L及び右眼用表示部20Rの表示領域からはみ出して非表示となってしまうことを抑制できる。 In the display device 100 according to the present embodiment, the adjusting unit 42 adjusts the display position in the vertical direction at a position intermediate between the left image gazing point PL and the right image gazing point PR. According to this configuration, the adjustment amount of the display position can be distributed to each of the left eye display unit 20L and the right eye display unit 20R. As a result, it is possible to prevent a part of the display image from being hidden from the display area of the left eye display unit 20L and the right eye display unit 20R.

本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態の表示装置100では、調整部42が、ラインメモリ43における画像データの読み出し開始のラインを選択することで表示位置を調整する構成を例に挙げて説明したが、これに限定されない。 The technical scope of the present invention is not limited to the above-described embodiment, and modifications can be made as appropriate without departing from the spirit of the present invention. For example, in the display device 100 of the above embodiment, the configuration in which the adjustment unit 42 adjusts the display position by selecting the line for starting reading the image data in the line memory 43 has been described as an example, but the present invention is limited to this. Not done.

図11は、表示装置の他の例を示す機能ブロック図である。図11に示すように、表示装置100Aは、視線検出部30及び制御部140を有する。図11に示す表示装置100は、表示部20の表示パネル21を移動させることで、表示画像の位置を上下方向に移動させる。視線検出部30の構成は、上記同様である。 FIG. 11 is a functional block diagram showing another example of the display device. As shown in FIG. 11, the display device 100A includes a line-of-sight detection unit 30 and a control unit 140. The display device 100 shown in FIG. 11 moves the position of the display image in the vertical direction by moving the display panel 21 of the display unit 20. The configuration of the line-of-sight detection unit 30 is the same as described above.

制御部140は、差分検出部41と、モータ制御部142と、記憶部45とを有する。差分検出部41及び記憶部45の構成は、上記同様である。モータ制御部142は、モータ143Mを制御する。モータ制御部142及び移動機構143は、表示パネル21を移動させるための調整部141を構成する。 The control unit 140 includes a difference detection unit 41, a motor control unit 142, and a storage unit 45. The configurations of the difference detection unit 41 and the storage unit 45 are the same as described above. The motor control unit 142 controls the motor 143M. The motor control unit 142 and the movement mechanism 143 constitute an adjustment unit 141 for moving the display panel 21.

図12は、移動機構143の一例を示す図である。移動機構143は、モータ143Mと、出力軸144と、第1ギア145と、第2ギア146と、移動部材147とを有する。モータ143Mは、モータ制御部142の制御によって出力軸144に回転駆動力を付与する。出力軸144は、モータ143Mからの回転駆動力を第1ギア145に伝達する。第1ギア145は、出力軸144と一体で回転する。第1ギア145は、第2ギア146と噛み合っている。第2ギア146は、外周及び内周に歯を有する。外周の歯は、第1ギア145と噛み合っている。内周の歯は、移動部材147と噛み合っている。移動部材147は、円柱状であり、外周に歯が形成される。移動部材147の外周の歯は、第2ギア146と噛み合っている。移動部材147は、第2ギア146が回転することにより、前後方向に移動可能である。移動部材147は、表示パネル21に連結される。移動部材147が前後方向に移動することにより、表示パネル21が移動部材147と一体で前後方向に移動するため、表示パネル21に表示される画像の表示位置が前後方向に移動する。表示パネル21に表示される画像は、ハーフミラー22及びコンバイナミラー23によって反射されて使用者に到達する。この場合、使用者が表示装置100を装着した状態においては、表示パネル21が前後方向に移動することで、表示される画像の表示位置が上下方向に移動する。モータ制御部142は、上下方向についての差分に応じて、モータ143Mの回転量を段階的に調整することにより、表示パネル21の移動量を段階的に調整可能である。これにより、上下方向についての差分に応じて、表示位置を段階的に調整することができる。 FIG. 12 is a diagram showing an example of the moving mechanism 143. The moving mechanism 143 includes a motor 143M, an output shaft 144, a first gear 145, a second gear 146, and a moving member 147. The motor 143M applies a rotational driving force to the output shaft 144 under the control of the motor control unit 142. The output shaft 144 transmits the rotational driving force from the motor 143M to the first gear 145. The first gear 145 rotates integrally with the output shaft 144. The first gear 145 meshes with the second gear 146. The second gear 146 has teeth on the outer circumference and the inner circumference. The outer teeth are in mesh with the first gear 145. The inner peripheral teeth mesh with the moving member 147. The moving member 147 has a columnar shape, and teeth are formed on the outer periphery thereof. The outer teeth of the moving member 147 mesh with the second gear 146. The moving member 147 can move in the front-rear direction by rotating the second gear 146. The moving member 147 is connected to the display panel 21. When the moving member 147 moves in the front-rear direction, the display panel 21 moves in the front-rear direction integrally with the moving member 147, so that the display position of the image displayed on the display panel 21 moves in the front-rear direction. The image displayed on the display panel 21 is reflected by the half mirror 22 and the combiner mirror 23 and reaches the user. In this case, when the user wears the display device 100, the display panel 21 moves in the front-rear direction, so that the display position of the displayed image moves in the up-down direction. The motor control unit 142 can adjust the movement amount of the display panel 21 stepwise by adjusting the rotation amount of the motor 143M stepwise according to the difference in the vertical direction. As a result, the display position can be adjusted stepwise according to the difference in the vertical direction.

図13は、モータ機構の他の例を示す図である。図13に示すように、移動機構143Aは、モータ143Mと、出力軸144と、第1ギア145と、第2ギア148と、回転軸149とを有する。モータ143M、出力軸144、第1ギア145の構成については、図12に示す例と同様とすることができる。第2ギア148は、外周に歯を有し、第1ギア145と噛み合っている。回転軸149は、第2ギア148と一体で回転する。回転軸149は、ハーフミラー22に連結される。なお、図13には、白抜き矢印の方向からハーフミラー22を見た状態を一部に示している。回転軸149が回転することにより、ハーフミラー22が回転軸149と一体で回転する。ハーフミラー22が回転することにより、使用者の眼球に向かう光の方向が上下方向に変化する。このため、左眼用表示部20L及び右眼用表示部20Rに表示される表示画像の位置を上下方向に移動させることができる。この場合においても、モータ制御部142は、上下方向についての差分に応じて、モータ143Mの回転量を段階的に調整することにより、ハーフミラー22の回転角度を段階的に調整可能である。これにより、上下方向についての差分に応じて、表示位置を段階的に調整することができる。 FIG. 13 is a diagram showing another example of the motor mechanism. As shown in FIG. 13, the moving mechanism 143A includes a motor 143M, an output shaft 144, a first gear 145, a second gear 148, and a rotating shaft 149. The configuration of the motor 143M, the output shaft 144, and the first gear 145 can be the same as the example shown in FIG. The second gear 148 has teeth on the outer circumference and meshes with the first gear 145. The rotation shaft 149 rotates integrally with the second gear 148. The rotating shaft 149 is connected to the half mirror 22. Note that FIG. 13 partially shows a state in which the half mirror 22 is viewed from the direction of the white arrow. As the rotating shaft 149 rotates, the half mirror 22 rotates integrally with the rotating shaft 149. As the half mirror 22 rotates, the direction of the light directed to the user's eyeball changes in the vertical direction. Therefore, the positions of the display images displayed on the left eye display unit 20L and the right eye display unit 20R can be moved in the vertical direction. Even in this case, the motor control unit 142 can adjust the rotation angle of the half mirror 22 stepwise by adjusting the rotation amount of the motor 143M stepwise according to the difference in the vertical direction. As a result, the display position can be adjusted stepwise according to the difference in the vertical direction.

このように、上記の表示装置100Aにおいて、調整部141は、左眼用表示部20L及び右眼用表示部20Rについての上下方向の相対的な位置関係を調整することで表示位置を調整する。これにより、左眼用表示部20L及び右眼用表示部20Rの上下方向の相対的な位置関係を直接調整することにより、表示に使用可能な領域が制限されずに済む。 As described above, in the display device 100A, the adjustment unit 141 adjusts the display position by adjusting the relative positional relationship between the left eye display unit 20L and the right eye display unit 20R in the vertical direction. As a result, the area that can be used for display is not limited by directly adjusting the relative positional relationship between the left eye display unit 20L and the right eye display unit 20R in the vertical direction.

また、調整部141が、左眼用表示部20L及び右眼用表示部20Rについての上下方向の相対的な位置関係を調整することで表示位置を調整する構成では、上下方向の差分を直接的に調整することができる。また、調整部141が、ハーフミラー22を調整することで表示位置を調整する構成では、左眼用表示部20L及び右眼用表示部20Rの位置を変更することなく、表示位置を調整することができる。 Further, in the configuration in which the adjusting unit 141 adjusts the display position by adjusting the relative positional relationship in the vertical direction with respect to the left eye display unit 20L and the right eye display unit 20R, the difference in the vertical direction is directly obtained. Can be adjusted to. Further, in the configuration in which the adjustment unit 141 adjusts the display position by adjusting the half mirror 22, the display position is adjusted without changing the positions of the left eye display unit 20L and the right eye display unit 20R. Can be done.

なお、図12及び図13に示す移動機構143は、モータ143Mが設けられず、出力軸144を手動で回転させる構成であってもよい。この場合、例えば、物体視線E1と画像視線E2との差分、又は左画像視線E2Lと右画像視線E2Rとの差分を表示部20に表示してもよい。これにより、使用者が手動で表示画像の位置を上下方向に調整する際の調整量を容易に把握させることが可能となる。以下、具体的に説明する。 The moving mechanism 143 shown in FIGS. 12 and 13 may not be provided with the motor 143M and may have a configuration in which the output shaft 144 is manually rotated. In this case, for example, the difference between the object line of sight E1 and the image line of sight E2, or the difference between the left image line of sight E2L and the right image line of sight E2R may be displayed on the display unit 20. This makes it possible for the user to easily grasp the adjustment amount when manually adjusting the position of the display image in the vertical direction. Hereinafter, a specific description will be given.

図14は、表示装置の他の例を示す機能ブロック図であり、出力軸144を手動で回転させる構成について示している。図14に示すように、表示装置100Bは、視線検出部30及び制御部240を有する。視線検出部30の構成は、上記同様である。制御部240は、差分検出部41と、ズレ量表示画像生成部241と、画像重畳部242と、記憶部45と、画像処理回路46とを有する。差分検出部41、記憶部45及び画像処理回路46は、上記と同様である。ズレ量表示画像生成部241は、物体視線E1と画像視線E2との差分、又は左画像視線E2Lと右画像視線E2Rとの差分をズレ量として表示部20に表示するためのズレ量表示画像を生成する。ズレ量表示画像としては、任意の画像を採用可能である。ズレ量表示画像生成部241は、差分検出部41の検出結果に応じて、ズレ量表示画像を変化させることができる。例えば、物体視線E1に対して画像視線E2が下方にずれていた場合にはズレ量表示画像を青色で表示し、物体視線E1に対して画像視線E2が上方にずれていた場合にはズレ量表示画像を赤色で表示し、ズレが無い場合には無色で表示することができる。また、ズレ量表示画像生成部241は、ズレ量が大きいほどズレ量表示画像を濃く表示することができる。画像重畳部242は、目標画像Iに対して、ズレ量表示画像を重畳させるように表示する。この構成では、ズレ量表示画像の色が薄くかつ無色になるように使用者に調整させることで、物体視線E1と画像視線E2との差分を調整しやすくすることができる。 FIG. 14 is a functional block diagram showing another example of the display device, showing a configuration in which the output shaft 144 is manually rotated. As shown in FIG. 14, the display device 100B has a line-of-sight detection unit 30 and a control unit 240. The configuration of the line-of-sight detection unit 30 is the same as described above. The control unit 240 includes a difference detection unit 41, a deviation amount display image generation unit 241, an image superimposition unit 242, a storage unit 45, and an image processing circuit 46. The difference detection unit 41, the storage unit 45, and the image processing circuit 46 are the same as described above. The deviation amount display image generation unit 241 displays a deviation amount display image for displaying the difference between the object line-of-sight E1 and the image line-of-sight E2 or the difference between the left image line-of-sight E2L and the right image line-of-sight E2R as a shift amount on the display unit 20. Generate. Any image can be adopted as the deviation amount display image. The deviation amount display image generation unit 241 can change the deviation amount display image according to the detection result of the difference detection unit 41. For example, when the image line-of-sight E2 is shifted downward with respect to the object line-of-sight E1, the shift amount display image is displayed in blue, and when the image line-of-sight E2 is shifted upward with respect to the object line-of-sight E1, the shift amount is displayed. The displayed image can be displayed in red, and if there is no deviation, it can be displayed in colorless. Further, the deviation amount display image generation unit 241 can display the deviation amount display image darker as the deviation amount is larger. The image superimposition unit 242 displays the target image I so as to superimpose the deviation amount display image. In this configuration, the difference between the object line-of-sight E1 and the image line-of-sight E2 can be easily adjusted by having the user adjust the color of the shift amount display image so that the color is light and colorless.

[表示システム]
図15は、表示装置を備えた表示システムの一例を示す機能ブロック図である。図15に示すように、表示システムSYSは、表示装置100Cと、外部処理装置350とを備える。表示装置100Cは、表示部20、視線検出部30及び制御部340を有する。表示部20及び視線検出部30の構成については、上記同様である。
[Display system]
FIG. 15 is a functional block diagram showing an example of a display system including a display device. As shown in FIG. 15, the display system SYS includes a display device 100C and an external processing device 350. The display device 100C includes a display unit 20, a line-of-sight detection unit 30, and a control unit 340. The configuration of the display unit 20 and the line-of-sight detection unit 30 is the same as described above.

制御部340は、差分検出部41と、記憶部45と、画像処理回路46とを有する。差分検出部41、記憶部45及び画像処理回路46の各部の構成は、上記同様である。図15に示す構成において、差分検出部41は、差分を検出した結果を外部処理装置350に出力する出力部としての機能を有する。 The control unit 340 includes a difference detection unit 41, a storage unit 45, and an image processing circuit 46. The configurations of the difference detection unit 41, the storage unit 45, and the image processing circuit 46 are the same as described above. In the configuration shown in FIG. 15, the difference detection unit 41 has a function as an output unit that outputs the result of detecting the difference to the external processing device 350.

外部処理装置350は、差分検出部41の出力結果に基づいて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置が調整された画像データを生成する。外部処理装置350は、生成した画像データを表示装置100Cに入力する。この画像データは、例えば画像処理回路46に入力される。画像処理回路46は、入力された画像データを表示部20(20L、20R)に出力する。 The external processing device 350 generates image data in which the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R is adjusted based on the output result of the difference detection unit 41. The external processing device 350 inputs the generated image data to the display device 100C. This image data is input to, for example, the image processing circuit 46. The image processing circuit 46 outputs the input image data to the display unit 20 (20L, 20R).

このように、本実施形態に係る表示システムSYSは、上下方向についての物体視線E1と画像視線E2との差分を表示装置100から出力し、出力結果に基づいて、外部処理装置350が、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置が調整された画像データを生成して表示装置100に入力するため、画像欠けを生じることなく画像の表示位置を調整できる。 As described above, the display system SYS according to the present embodiment outputs the difference between the object line-of-sight E1 and the image line-of-sight E2 in the vertical direction from the display device 100, and based on the output result, the external processing device 350 causes the left eye. Since image data whose display position is adjusted when displaying an image on the display unit 20L and the display unit 20R for the right eye is generated and input to the display device 100, the display position of the image can be adjusted without causing image chipping. it can.

また、上記表示システムSYSは、上下方向についての左画像視線E2Lと右画像視線E2Rとの差分を表示装置100から出力し、出力結果に基づいて、外部処理装置350が、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置が調整された画像データを生成して表示装置100に入力するため、画像欠けを生じることなく画像の表示位置を調整できる。 Further, the display system SYS outputs the difference between the left image line-of-sight E2L and the right image line-of-sight E2R in the vertical direction from the display device 100, and based on the output result, the external processing device 350 causes the left-eye display unit 20L. Since the image data whose display position is adjusted when the image is displayed on the right eye display unit 20R is generated and input to the display device 100, the display position of the image can be adjusted without causing image chipping.

なお、上記説明において、上下方向についての左画像視線E2Lと右画像視線E2Rとの差分に応じて、左眼用表示部20L及び右眼用表示部20Rに画像を表示する場合の表示位置を調整する態様では、現実の物体Mの実像光Laが表示部20を透過可能な表示装置(いわゆる拡張現実(AR)型)に限定されない。例えば、実像光Laを透過せず、表示部20に表示する画像を使用者に見せる表示装置(いわゆる仮想現実(VR)型)であってもよい。 In the above description, the display position when displaying an image on the left eye display unit 20L and the right eye display unit 20R is adjusted according to the difference between the left image line-of-sight E2L and the right image line-of-sight E2R in the vertical direction. This aspect is not limited to a display device (so-called augmented reality (AR) type) in which the real image light La of the real object M can pass through the display unit 20. For example, it may be a display device (so-called virtual reality (VR) type) that does not transmit the real image light La and shows the image to be displayed on the display unit 20 to the user.

E…眼球、E1…物体視線、E2…画像視線、EL…左画像視線、I…目標画像、ER…右画像視線、M…物体、P1…物体注視点、P2…画像注視点、PL…左画像注視点、PR…右画像注視点、S1,S2…差分、OE…光学素子、PM,Ma…位置、OS…光学系、La…実像光、Lb…表示光、SYS…表示システム、P185273JP01…貴社先願、10…本体部、11…筐体、12…コネクタ、13…電力供給部、20…表示部、20L…左眼用表示部、20R…右眼用表示部、21a…表示面、21…表示パネル、22…ハーフミラー、23…コンバイナミラー、30…視線検出部、31…照射部、32…受光部、33…処理部、40,140,240,340…制御部、41…差分検出部、42,141…調整部、43…ラインメモリ、44…アドレス制御部、45…記憶部、46…画像処理回路、100,100A,100B,100C…表示装置、142…モータ制御部、143,143A…移動機構、143M…モータ、144…出力軸、145…第1ギア、146,148…第2ギア、147…移動部材、149…回転軸、241…ズレ量表示画像生成部、242…画像重畳部、350…外部処理装置 E ... Eyeball, E1 ... Object line of sight, E2 ... Image line of sight, EL ... Left image line of sight, I ... Target image, ER ... Right image line of sight, M ... Object, P1 ... Object gaze point, P2 ... Image gaze point, PL ... Left Image gaze point, PR ... Right image gaze point, S1, S2 ... Difference, OE ... Optical element, PM, Ma ... Position, OS ... Optical system, La ... Real image light, Lb ... Display light, SYS ... Display system, P185273JP01 ... Your company's prior application, 10 ... main body, 11 ... housing, 12 ... connector, 13 ... power supply, 20 ... display, 20L ... left eye display, 20R ... right eye display, 21a ... display surface, 21 ... Display panel, 22 ... Half mirror, 23 ... Combiner mirror, 30 ... Line-of-sight detection unit, 31 ... Irradiation unit, 32 ... Light receiving unit, 33 ... Processing unit, 40, 140, 240, 340 ... Control unit, 41 ... Difference Detection unit, 42, 141 ... Adjustment unit, 43 ... Line memory, 44 ... Address control unit, 45 ... Storage unit, 46 ... Image processing circuit, 100, 100A, 100B, 100C ... Display device, 142 ... Motor control unit, 143 , 143A ... moving mechanism, 143M ... motor, 144 ... output shaft, 145 ... first gear, 146, 148 ... second gear, 147 ... moving member, 149 ... rotating shaft, 241 ... deviation amount display image generator, 242 ... Image superimposition unit, 350 ... External processing device

Claims (9)

左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部及び右眼用表示部と、
使用者が前記左眼用表示部及び前記右眼用表示部を透過して前後方向の前方の物体を注視する場合の前記使用者の左右の眼球の物体視線と、前記左眼用表示部及び前記右眼用表示部において前記物体に対応する位置に目標画像をそれぞれ表示した状態で前記使用者が前記目標画像を注視する場合の前記使用者の左右の眼球の画像視線とを検出する視線検出部と、
前記左右方向及び前記前後方向に直交する上下方向についての前記物体視線と前記画像視線との差分に応じて、前記左眼用表示部及び前記右眼用表示部に画像を表示する表示位置を調整する調整部と
を備える表示装置。
A left-eye display unit and a right-eye display unit that are arranged side by side in the left-right direction and can transmit a part of light and display an image.
When the user gazes at an object in front of the left eye through the left eye display unit and the right eye display unit, the object line of sight of the left and right eyeballs of the user, the left eye display unit, and the left eye display unit. Line-of-sight detection that detects the image line-of-sight of the left and right eyes of the user when the user gazes at the target image while the target image is displayed at a position corresponding to the object on the right-eye display unit. Department and
The display position for displaying an image on the left eye display unit and the right eye display unit is adjusted according to the difference between the object line of sight and the image line of sight in the vertical direction orthogonal to the left-right direction and the front-back direction. A display device that includes an adjustment unit.
前記調整部は、前記上下方向についての前記差分に応じて、前記表示位置を段階的に調整する
請求項1に記載の表示装置。
The display device according to claim 1, wherein the adjusting unit adjusts the display position stepwise according to the difference in the vertical direction.
前記調整部は、前記物体視線に対応する前記使用者の注視点の位置と、前記画像視線に対応する前記使用者の注視点の位置との間の前記上下方向についての差分に応じて、前記表示位置を調整する
請求項1又は請求項2に記載の表示装置。
The adjusting unit responds to the difference in the vertical direction between the position of the user's gaze point corresponding to the object line of sight and the position of the user's gaze point corresponding to the image line of sight. The display device according to claim 1 or 2, wherein the display position is adjusted.
前記調整部は、前記画像の画像データが書き込まれるラインメモリを有し、前記差分に応じて、前記ラインメモリにおける前記画像データの読み出し開始のラインを選択することで前記表示位置を調整する
請求項1から請求項3のいずれか一項に記載の表示装置。
The adjusting unit has a line memory in which the image data of the image is written, and adjusts the display position by selecting a line for starting reading the image data in the line memory according to the difference. The display device according to any one of claims 1 to 3.
前記調整部は、前記左眼用表示部及び前記右眼用表示部についての前記上下方向の相対的な位置関係を調整することで前記表示位置を調整する
請求項1から請求項3のいずれか一項に記載の表示装置。
Any one of claims 1 to 3, wherein the adjusting unit adjusts the display position by adjusting the relative positional relationship between the left eye display unit and the right eye display unit in the vertical direction. The display device according to paragraph 1.
前記左眼用表示部及び前記右眼用表示部は、前記画像を含む光を導光する光学系を有し、
前記調整部は、前記光学系を調整することで前記表示位置を調整する
請求項1から請求項3のいずれか一項に記載の表示装置。
The left-eye display unit and the right-eye display unit have an optical system that guides light including the image.
The display device according to any one of claims 1 to 3, wherein the adjusting unit adjusts the display position by adjusting the optical system.
左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部及び右眼用表示部と、
使用者が前記左眼用表示部及び前記右眼用表示部を透過して前後方向の前方の物体を注視する場合の前記使用者の左右の眼球の物体視線と、前記左眼用表示部及び前記右眼用表示部において前記物体に対応する位置に目標画像をそれぞれ表示した状態で前記使用者が前記目標画像を注視する場合の前記使用者の左右の眼球の画像視線とを検出する視線検出部と、
前記左右方向及び前記前後方向に直交する上下方向についての前記物体視線と前記画像視線との差分を出力する出力部と、を有する表示装置と、
前記出力部の出力結果に基づいて、前記左眼用表示部及び前記右眼用表示部に画像を表示する表示位置が調整された画像データを生成して前記表示装置に入力する外部処理装置と
を備える表示システム。
A left-eye display unit and a right-eye display unit that are arranged side by side in the left-right direction and can transmit a part of light and display an image.
When the user gazes at an object in front of the left eye through the left eye display unit and the right eye display unit, the object line of sight of the left and right eyeballs of the user, the left eye display unit, and the left eye display unit. Line-of-sight detection that detects the image line-of-sight of the left and right eyes of the user when the user gazes at the target image while the target image is displayed at a position corresponding to the object on the right-eye display unit. Department and
A display device having an output unit that outputs a difference between the object line of sight and the image line of sight in the up-down direction orthogonal to the left-right direction and the front-back direction.
Based on the output result of the output unit, an external processing device that generates image data whose display position for displaying an image on the left eye display unit and the right eye display unit is adjusted and inputs the image data to the display unit. Display system with.
左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部及び右眼用表示部を透過して前後方向の前方の物体を注視する場合の前記使用者の左右の眼球の物体視線と、前記左眼用表示部及び前記右眼用表示部において前記物体に対応する位置に目標画像をそれぞれ表示した状態で前記使用者が前記目標画像を注視する場合の前記使用者の左右の眼球の画像視線とを検出することと、
前記左右方向及び前記前後方向に直交する上下方向についての前記物体視線と前記画像視線との差分に応じて、前記左眼用表示部及び前記右眼用表示部に画像を表示する表示位置を調整することと
を含む表示調整方法。
The above-mentioned case where the objects arranged side by side in the left-right direction are arranged side by side, and a part of the light can be transmitted and the image can be displayed through the left-eye display unit and the right-eye display unit to gaze at the front object in the front-rear direction. The user gazes at the target image in a state where the object line of sight of the left and right eyeballs of the user and the target image are displayed at positions corresponding to the object on the left eye display unit and the right eye display unit, respectively. In the case of detecting the image line of sight of the left and right eyeballs of the user,
The display position for displaying an image on the left eye display unit and the right eye display unit is adjusted according to the difference between the object line of sight and the image line of sight in the vertical direction orthogonal to the left-right direction and the front-back direction. How to adjust the display, including what to do.
左右方向に並んで配置され、一部の光を透過可能でありかつ画像を表示可能な左眼用表示部及び右眼用表示部を透過して前後方向の前方の物体を注視する場合の前記使用者の左右の眼球の物体視線と、前記左眼用表示部及び前記右眼用表示部において前記物体に対応する位置に目標画像をそれぞれ表示した状態で前記使用者が前記目標画像を注視する場合の前記使用者の左右の眼球の画像視線とを検出する処理と、
前記左右方向及び前記前後方向に直交する上下方向についての前記物体視線と前記画像視線との差分に応じて、前記左眼用表示部及び前記右眼用表示部に画像を表示する表示位置を調整する処理と
をコンピュータに実行させる表示調整プログラム。
The above-mentioned case where the objects arranged side by side in the left-right direction are arranged side by side, and a part of the light can be transmitted and the image can be displayed through the left-eye display unit and the right-eye display unit to gaze at the front object in the front-rear direction. The user gazes at the target image in a state where the object line of sight of the left and right eyeballs of the user and the target image are displayed at positions corresponding to the object on the left eye display unit and the right eye display unit, respectively. In the case, the process of detecting the image line of sight of the left and right eyeballs of the user, and
The display position for displaying an image on the left eye display unit and the right eye display unit is adjusted according to the difference between the object line of sight and the image line of sight in the vertical direction orthogonal to the left-right direction and the front-back direction. A display adjustment program that causes the computer to perform the processing to be performed.
JP2019173812A 2019-09-25 2019-09-25 Display device, display system, display adjustment method and display adjustment program Active JP7338358B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019173812A JP7338358B2 (en) 2019-09-25 2019-09-25 Display device, display system, display adjustment method and display adjustment program
CN202080057431.5A CN114341703B (en) 2019-09-25 2020-09-18 Display device, display system, and display adjustment method
PCT/JP2020/035635 WO2021060218A1 (en) 2019-09-25 2020-09-18 Display device, display system, and display adjustment method
US17/685,431 US20220321868A1 (en) 2019-09-25 2022-03-03 Display apparatus, display system, and display adjustment method
JP2023135391A JP2023164451A (en) 2019-09-25 2023-08-23 Display device, display system, method for adjusting display, and display adjustment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173812A JP7338358B2 (en) 2019-09-25 2019-09-25 Display device, display system, display adjustment method and display adjustment program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023135391A Division JP2023164451A (en) 2019-09-25 2023-08-23 Display device, display system, method for adjusting display, and display adjustment program

Publications (2)

Publication Number Publication Date
JP2021051180A true JP2021051180A (en) 2021-04-01
JP7338358B2 JP7338358B2 (en) 2023-09-05

Family

ID=75157786

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019173812A Active JP7338358B2 (en) 2019-09-25 2019-09-25 Display device, display system, display adjustment method and display adjustment program
JP2023135391A Pending JP2023164451A (en) 2019-09-25 2023-08-23 Display device, display system, method for adjusting display, and display adjustment program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023135391A Pending JP2023164451A (en) 2019-09-25 2023-08-23 Display device, display system, method for adjusting display, and display adjustment program

Country Status (1)

Country Link
JP (2) JP7338358B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12118145B2 (en) 2022-06-07 2024-10-15 Canon Kabushiki Kaisha Electronic apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085955A (en) * 1994-06-17 1996-01-12 Sanyo Electric Co Ltd Device and method for displaying virtual image type stereoscopic picture
JP2002123248A (en) * 2000-10-19 2002-04-26 Sanyo Electric Co Ltd Image display controller and image display device having the controller
US20150177518A1 (en) * 2011-10-05 2015-06-25 Google Inc. Methods and Devices for Rendering Interactions Between Virtual and Physical Objects on a Substantially Transparent Display
JP2016082462A (en) * 2014-10-20 2016-05-16 セイコーエプソン株式会社 Head-mounted display device, control method therefor, and computer program
WO2018193708A1 (en) * 2017-04-19 2018-10-25 マクセル株式会社 Head-up display device and display control method therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085955A (en) * 1994-06-17 1996-01-12 Sanyo Electric Co Ltd Device and method for displaying virtual image type stereoscopic picture
JP2002123248A (en) * 2000-10-19 2002-04-26 Sanyo Electric Co Ltd Image display controller and image display device having the controller
US20150177518A1 (en) * 2011-10-05 2015-06-25 Google Inc. Methods and Devices for Rendering Interactions Between Virtual and Physical Objects on a Substantially Transparent Display
JP2016082462A (en) * 2014-10-20 2016-05-16 セイコーエプソン株式会社 Head-mounted display device, control method therefor, and computer program
WO2018193708A1 (en) * 2017-04-19 2018-10-25 マクセル株式会社 Head-up display device and display control method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12118145B2 (en) 2022-06-07 2024-10-15 Canon Kabushiki Kaisha Electronic apparatus

Also Published As

Publication number Publication date
JP2023164451A (en) 2023-11-10
JP7338358B2 (en) 2023-09-05

Similar Documents

Publication Publication Date Title
US11137610B1 (en) System, method, and non-transitory computer-readable storage media related wearable pupil-forming display apparatus with variable opacity and dynamic focal length adjustment
JP7576120B2 (en) Display system and method for determining alignment between a display and a user&#39;s eyes - Patents.com
US11181747B1 (en) Wearable pupil-forming display apparatus
US8955973B2 (en) Method and system for input detection using structured light projection
US10627620B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
US9836120B2 (en) Display device, method of controlling the same, and computer program
US10467770B2 (en) Computer program for calibration of a head-mounted display device and head-mounted display device using the computer program for calibration of a head-mounted display device
US9261959B1 (en) Input detection
US10885819B1 (en) In-vehicle augmented reality system
JP2014219621A (en) Display device and display control program
JP2023164451A (en) Display device, display system, method for adjusting display, and display adjustment program
WO2021060218A1 (en) Display device, display system, and display adjustment method
US10698218B1 (en) Display system with oscillating element
US20220300120A1 (en) Information processing apparatus, and control method
JP7338362B2 (en) Display device, display system, display adjustment method and display adjustment program
WO2020137088A1 (en) Head-mounted display, display method, and display system
KR102385807B1 (en) Three dimentional head-up display for augmented reality at the driver&#39;s view point by positioning images on the ground
WO2021200270A1 (en) Information processing device and information processing method
US20240377639A1 (en) Wearable pupil-forming display apparatus
EP4440410A1 (en) Methods for controlling performance of extended reality display systems
JP6216851B1 (en) Information processing method and program for causing computer to execute information processing method
WO2024123973A1 (en) Augmented reality near-eye pupil-forming catadioptric optical engine in glasses format
JP2019008204A (en) Head-mounted display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R150 Certificate of patent or registration of utility model

Ref document number: 7338358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150