[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017107359A - Image display device, program, and method that displays object on binocular spectacle display of optical see-through type - Google Patents

Image display device, program, and method that displays object on binocular spectacle display of optical see-through type Download PDF

Info

Publication number
JP2017107359A
JP2017107359A JP2015239933A JP2015239933A JP2017107359A JP 2017107359 A JP2017107359 A JP 2017107359A JP 2015239933 A JP2015239933 A JP 2015239933A JP 2015239933 A JP2015239933 A JP 2015239933A JP 2017107359 A JP2017107359 A JP 2017107359A
Authority
JP
Japan
Prior art keywords
screen
left eye
right eye
eye screen
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015239933A
Other languages
Japanese (ja)
Other versions
JP6509101B2 (en
Inventor
有哉 巻渕
Yuya Makibuchi
有哉 巻渕
小林 達也
Tatsuya Kobayashi
達也 小林
加藤 晴久
Haruhisa Kato
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015239933A priority Critical patent/JP6509101B2/en
Publication of JP2017107359A publication Critical patent/JP2017107359A/en
Application granted granted Critical
Publication of JP6509101B2 publication Critical patent/JP6509101B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device that can increase the visibility of an object for users when displaying an object on a spectacle optical see-through type binocular display, in a case where right and left calibration parameters contain estimation errors.SOLUTION: The present invention includes: fixation point position acquisition means for acquiring a depth position from a display to a fixation point of a user; overlapping region calculation means for calculating an overlapping region where a right-eye screen and a left-eye screen overlap with each other, recognized at a depth position through the display from the right eye and left eye of the user; drawing region selecting means for selecting one of the right-eye screen and the left-eye screen for a virtual object to be displayed in the overlapping region; and object drawing means for drawing the virtual object to the selected one of the right-eye screen and the left-eye screen.SELECTED DRAWING: Figure 2

Description

本発明は、眼鏡状の光学シースルー型の両眼のディスプレイを用いて、ユーザから見た現実空間に、文字や画像のオブジェクト(CG(Computer Graphics))を拡張現実感(AR(augmented reality))として重畳的に表示する技術に関する。特に、本発明によれば、ユーザから見たオブジェクトの視認性を向上させる技術に関する。   The present invention uses a glasses-like optical see-through type binocular display to add character and image objects (CG (Computer Graphics)) to an augmented reality (AR (augmented reality)) in a real space viewed from the user. As a superimposing display technology. In particular, the present invention relates to a technique for improving the visibility of an object viewed from a user.

ARの用途としては、例えば、ユーザが、自ら所持する端末のカメラを商品にかざした際に、その商品を特定し、その商品に紐付いた価格等の情報を、ディスプレイの適切な位置に表示させることができる。近年、携帯電話機やスマートフォンのような端末の処理性能の向上に伴って、ARを実行可能な環境が提供されてきている。   As a use of AR, for example, when a user holds the camera of a terminal he / she owns over a product, the product is specified, and information such as a price associated with the product is displayed at an appropriate position on the display. be able to. In recent years, with the improvement of processing performance of terminals such as mobile phones and smartphones, an environment capable of executing AR has been provided.

例えば、ユーザの頭部に装着する小型ディスプレイを備えた眼鏡状装置として、HMD(ヘッド・マウント・ディスプレイ)がある。HMDに搭載されたカメラは、ユーザの視線の先に映る現実空間の映像を撮影し続けるために、ユーザが自ら意識的にカメラをかざす必要もない。そのために、ユーザの視線の先の現実空間上に、ARの画像を重畳的に表示することができる。HMDとARとを連携した用途として、作業支援システムがある。作業者は、例えば手先の作業をしながら、ディスプレイに映る作業指示のオブジェクトを眼の前で確認することができる。   For example, an HMD (Head Mounted Display) is a spectacle-like device provided with a small display worn on the user's head. The camera mounted on the HMD does not require the user to consciously hold the camera by himself / herself in order to continuously capture the image of the real space that appears in front of the user's line of sight. Therefore, the AR image can be displayed in a superimposed manner on the real space ahead of the user's line of sight. There is a work support system as an application in which HMD and AR are linked. For example, the worker can check the object of the work instruction reflected on the display in front of the eyes while performing the work of the hand.

HMDは、主に以下の2種類に分類できる。
ビデオシースルー型:カメラのプレビュー画像にオブジェクトを重畳する
光学式シースルー型:現実空間そのものにオブジェクトを重畳する
HMD can be mainly classified into the following two types.
Video see-through type: Superimpose an object on the camera preview image Optical see-through type: Superimpose an object on the real space itself

ビデオシースルー型HMDは、カメラのプレビュー画像が位置合わせの対象であるために、既存のスマートフォンアプリと同様の位置合わせ方式を用いることができる。但し、装着者の視野角や現実環境の視認性が、カメラの画角や解像度に制限される。そのために、例えば作業支援システムの場合、作業者に対する視界の制限が、その作業効率を低下させる恐れがある。   The video see-through HMD can use the same alignment method as the existing smartphone application because the preview image of the camera is the target of alignment. However, the viewing angle of the wearer and the visibility of the real environment are limited to the angle of view and resolution of the camera. Therefore, for example, in the case of a work support system, the restriction of the field of view for the worker may reduce the work efficiency.

一方、光学式シースルー型HMDは、装着者が仮想スクリーンを通して視認する現実空間そのものが位置合わせの対象となる。光学式シースルー型HMDは、ビデオシースルー型に対して表示視野角が狭いという欠点を有する。一方で、装着者の視界が開けているために、現実空間に対して必要な作業指示情報のみをAR表示できるという点で、作業支援システムに適する。   On the other hand, in the optical see-through HMD, the real space itself that the wearer visually recognizes through the virtual screen is the target of alignment. The optical see-through type HMD has a drawback that the display viewing angle is narrower than the video see-through type. On the other hand, since the field of view of the wearer is open, only the work instruction information necessary for the real space can be AR-displayed, which is suitable for the work support system.

光学式シースルー型HMDによれば、オブジェクトの表示位置を、装着者の視野で現実空間と重なるように補正する必要がある。このような補正は、光学式シースルー型HMDに特有の操作であり、「HMDキャリブレーション」と称される(例えば特許文献1及び非特許文献1参照)。特許文献1に記載の技術によれば、単眼のHMDについて高精度にキャリブレーション・パラメータを推定するものである。   According to the optical see-through HMD, it is necessary to correct the display position of the object so that it overlaps the real space in the field of view of the wearer. Such correction is an operation unique to the optical see-through HMD, and is referred to as “HMD calibration” (see, for example, Patent Document 1 and Non-Patent Document 1). According to the technique described in Patent Document 1, a calibration parameter is estimated with high accuracy for a monocular HMD.

光学式シースルー型HMDの中には、両眼で見える仮想スクリーンに表示することによって、単眼の表示視野角の狭さを補う技術もある(例えば非特許文献2参照)。   Among optical see-through HMDs, there is a technique that compensates for narrowness of the viewing angle of a single eye by displaying on a virtual screen that can be seen by both eyes (see, for example, Non-Patent Document 2).

図1は、光学式シースルー型HMDから見たユーザの視界を表す外観図である。   FIG. 1 is an external view showing a user's field of view as seen from an optical see-through HMD.

具体的に、EPSON社製のMOVERIO BT-200(例えば非特許文献3参照)によれば、ユーザが、その両眼を所定の奥行き位置にピントを合わせた場合、単眼の視野角、例えば左眼スクリーンに対する左眼の視野角は、23°となる。ここで、単眼の視野角は、ピント位置によらず一定である。一方で、両眼スクリーンに対応する両眼の視野角は、奥行き距離l=50cmとして目視確認を行った結果、単眼の視野角の約1.5倍であった。即ち、奥行き距離l=50cmの位置にピントを合わせ、右眼を閉じ且つ左眼のみを開けている状態から、両眼を開けた状態へ移行した場合、視野角が1.5倍拡大したように視認される。ユーザが注視点(ピント位置)を遠ざけるほど、両眼の視野角の拡大率は低下する。そして、一定の奥行き距離lで視野角が1.0倍となり、左眼スクリーン及び右眼スクリーンが完全に重なる。奥行き距離lは、HMDの焦点距離と称される。   Specifically, according to MOVERIO BT-200 manufactured by EPSON (see Non-Patent Document 3, for example), when the user focuses both eyes on a predetermined depth position, the viewing angle of a single eye, for example, the left eye The viewing angle of the left eye with respect to the screen is 23 °. Here, the viewing angle of the monocular is constant regardless of the focus position. On the other hand, the viewing angle of both eyes corresponding to the binocular screen was about 1.5 times the viewing angle of a single eye as a result of visual confirmation with a depth distance l = 50 cm. That is, when the focus is adjusted to the position where the depth distance is 1 = 50 cm, and the right eye is closed and only the left eye is opened, the viewing angle seems to be increased by 1.5 times. Visible to. As the user moves away from the gazing point (focus position), the magnification rate of the viewing angle of both eyes decreases. Then, the viewing angle becomes 1.0 times at a certain depth distance l, and the left eye screen and the right eye screen completely overlap. The depth distance l is referred to as the focal length of the HMD.

両眼のスクリーンを用いて視野角が拡大する度合いは、装着者がピントを合わせる奥行き位置によって異なる。
ユーザが近くを見るほど、両眼スクリーンを用いた場合の視野角の拡大率は増加する。
ユーザが遠くを見るほど、両眼スクリーンを用いた場合の視野角の拡大率は低下する。
The degree to which the viewing angle is expanded using the binocular screen differs depending on the depth position where the wearer focuses.
The closer the user sees, the greater the viewing angle magnification when using a binocular screen.
As the user looks farther, the magnification of the viewing angle when using the binocular screen decreases.

図2は、光学式シースルー型HMDについて2つのスクリーンとユーザの視界との関係を表す外観図である。   FIG. 2 is an external view showing the relationship between the two screens and the user's field of view for the optical see-through HMD.

図2によれば、MOVERIO BT-200の場合、HMDにおける眼鏡部分の左右それぞれにハーフミラーが埋め込まれている。HMDの内部から横方向に照射された光は、ハーフミラーの反射面によってユーザの目に入力される。一方で、現実環境の光は、ハーフミラーの非反射面を通して、ユーザの目にそのまま入力される。結果として、ユーザには、現実環境の中に虚像としてのスクリーン(仮想スクリーン:Virtual Screen)が視認される。仮想スクリーンは、物理的なディスプレイとは異なり、ユーザが視認する奥行き位置によってスクリーンの大きさが異なって見えるという特徴がある。例えば、ユーザから見て、奥行き距離20mの位置では、320型相当の表示画面を視認することができる。光学シースルー型HMDは、この性質を利用して、超大型スクリーンでの映像鑑賞を狭い環境でも楽しめることを製品販売上の特長とする場合が多い。以後、「スクリーン」は「仮想スクリーン」を指すこととする。   According to FIG. 2, in the case of MOVERIO BT-200, half mirrors are embedded on the left and right sides of the spectacles portion in the HMD. The light irradiated in the horizontal direction from the inside of the HMD is input to the user's eyes through the reflecting surface of the half mirror. On the other hand, the light in the real environment is directly input to the user's eyes through the non-reflecting surface of the half mirror. As a result, the user visually recognizes a screen (virtual screen) as a virtual image in the real environment. Unlike a physical display, the virtual screen has a feature that the size of the screen looks different depending on the depth position viewed by the user. For example, when viewed from the user, a display screen equivalent to 320 type can be viewed at a position at a depth distance of 20 m. The optical see-through type HMD often takes advantage of this property to enjoy video viewing on a very large screen even in a narrow environment. Hereinafter, “screen” refers to “virtual screen”.

図1及び図2によれば、ユーザの注視点の奥行き位置に、両眼スクリーンが表されている。注視点は、ユーザの両眼がピントを合わせた位置である。この両眼スクリーンは、以下のような3つの領域に区分される。
左眼領域(左眼スクリーンのみの領域)
重複領域(右眼スクリーンと左眼スクリーンとが重複した領域)
右眼領域(右眼スクリーンのみの領域)
According to FIG.1 and FIG.2, the binocular screen is represented by the depth position of a user's gaze point. The gaze point is a position where both eyes of the user are in focus. This binocular screen is divided into the following three areas.
Left eye area (area only for left eye screen)
Overlapping area (area where the right eye screen and left eye screen overlap)
Right eye area (area only for right eye screen)

例えば作業支援システムの用途によれば、手先の作業範囲として、奥行き位置が近距離(50cm程度)の場合も多い。これはHMDメーカによって想定される上述の使用方法とは異なり、左眼及び右眼のスクリーン位置が左右にずれてしまうことによって、作業者は図1及び図2のように、左眼領域、重複領域及び右眼領域を同時に視認することとなる。ここで、両眼スクリーンは、これら3つの領域を合わせたものであって、ユーザの両眼で視認されるスクリーンをいう。   For example, according to the use of the work support system, the depth position is often a short distance (about 50 cm) as the work range of the hand. This is different from the above-described usage method assumed by the HMD manufacturer, and the screen position of the left eye and the right eye is shifted to the left and right, so that the operator can see the left eye region and overlap as shown in FIGS. The region and the right eye region are viewed at the same time. Here, the binocular screen is a combination of these three areas and is a screen visually recognized by the user's eyes.

両眼スクリーンを構成する左眼スクリーン及び右眼スクリーンのそれぞれについては、HMDのキャリブレーション・パラメータを事前に算出しておくことによって、ユーザの眼の位置に合った適切なオブジェクトの描画位置を計算することができる。尚、キャリブレーション・パラメータは、装着するHMDに対してユーザの眼の位置が固定であれば、ユーザのピント位置に関わらず定数値を取る。そのため、近距離視認時に両眼のスクリーン位置が左右にずれてしまっている場合でも、キャリブレーション・パラメータを事前に正確に算出できていれば、オブジェクトを適切な位置に重畳表示できる。   For each of the left-eye screen and right-eye screen constituting the binocular screen, by calculating the HMD calibration parameters in advance, the drawing position of the appropriate object that matches the user's eye position is calculated. can do. The calibration parameter takes a constant value regardless of the focus position of the user if the position of the user's eyes is fixed with respect to the HMD to be worn. Therefore, even when the screen positions of both eyes are shifted to the left and right during short distance viewing, if the calibration parameters can be accurately calculated in advance, the object can be superimposed and displayed at an appropriate position.

図3は、キャリブレーション・パラメータが推定誤差を含まない場合における、ユーザの視界に映るスクリーンを表す説明図である。図中の「これに触るな」「これを押せ」の吹き出しは、作業支援システムを想定した場合の作業指示オブジェクトの一例である。HMDの装着者は、実際の作業対象設備にこのCGが重なって見える。   FIG. 3 is an explanatory diagram showing a screen shown in the user's field of view when the calibration parameter does not include an estimation error. The balloons “Do not touch this” and “Press this” in the figure are examples of work instruction objects when a work support system is assumed. The wearer of the HMD appears to overlap this actual work target equipment.

図3によれば、HMDのキャリブレーション・パラメータが完全に誤差なく計算されており、両眼スクリーンの重複領域では、各スクリーンに描画したオブジェクトが完全に重なり合っている。ユーザの両眼からは、全く違和感なく視認できる。   According to FIG. 3, the calibration parameters of the HMD are calculated completely without error, and in the overlapping area of the binocular screen, the objects drawn on each screen are completely overlapped. Visible from the user's eyes without any discomfort.

特開2014−170374号公報JP 2014-170374 A

加藤博一,M.Billinghurst,浅野浩一,橘啓八郎,“マーカー追跡に基づく拡張現実感システムとそのキャリブレーション” ,日本バーチャルリアリティ学会論文誌,Vol4,No4,pp.607-616,(1999)、[online]、[平成27年10月9日検索]、インターネット<http://intron.kz.tsukuba.ac.jp/tvrsj/4.4/kato/p-99_VRSJ4_4.pdf>Hirokazu Kato, M. Billinghurst, Koichi Asano, Keihachiro Tachibana, “Augmented Reality System Based on Marker Tracking and Its Calibration”, Transactions of the Virtual Reality Society of Japan, Vol4, No4, pp.607-616, (1999) , [Online], [October 9, 2015 search], Internet <http://intron.kz.tsukuba.ac.jp/tvrsj/4.4/kato/p-99_VRSJ4_4.pdf> 巻渕有哉 ,小林達也,加藤晴久,柳原広昌,“HMDキャリブレーションとオンサイト学習によるハンズフリー遠隔作業支援ARシステム,” 研究報告オーディオビジュアル複合情報処理(AVM),2015-AVM-88(2),1-6 (2015-02-20)、[online]、[平成27年10月9日検索]、インターネット<URL:http://ci.nii.ac.jp/naid/110009877748>Yuya Maki, Tatsuya Kobayashi, Haruhisa Kato, Hiromasa Yanagihara, “Hands-free remote operation support AR system by HMD calibration and on-site learning,” Research Report Audio Visual Complex Information Processing (AVM), 2015-AVM-88 (2), 1-6 (2015-02-20), [online], [October 9, 2015 search], Internet <URL: http://ci.nii.ac.jp/naid/110009877748> EPSON、「MOVERIOBT-200AV / BT-200」、[online]、[平成27年10月9日検索]、インターネット<http://www.epson.jp/products/moverio/bt200/>EPSON, “MOVERIOBT-200AV / BT-200”, [online], [October 9, 2015 search], Internet <http://www.epson.jp/products/moverio/bt200/>

現実的には、HMDの装着位置が途中でずれてしまう場合がある。また、ユーザの頭部の形状や視力矯正用メガネの装着有無によって、キャリブレーション・パラメータはユーザ毎に異なる。しかしながら、キャリブレーションの作業は手間を要するため、第三者が計算したキャリブレーション・パラメータを使い回す場合も考えられる。結果として、キャリブレーション・パラメータが誤差を含む場合が多い。   Actually, the HMD mounting position may be shifted in the middle. In addition, the calibration parameters vary from user to user depending on the shape of the user's head and whether or not glasses for correcting vision are worn. However, since the calibration work is time-consuming, it may be possible to use calibration parameters calculated by a third party. As a result, calibration parameters often contain errors.

図4は、キャリブレーション・パラメータが誤差を含む場合における、ユーザの視界に映るスクリーンを表す説明図である。   FIG. 4 is an explanatory diagram showing a screen shown in the user's field of view when the calibration parameter includes an error.

左右のキャリブレーション・パラメータ(Pl,r)に誤差が含まれている場合、図4のように、ユーザから見て、各々のスクリーンについてオブジェクト(CG)の描画位置が現実環境に対してズレている。ここで、両眼のHMDでは、描画位置のずれに加えて、両眼特有のオブジェクトの視認性に関わる問題が生じる。具体的には、図4に示すように、左眼スクリーンと右眼スクリーンの重複領域でオブジェクトが完全に重ならず、そのオブジェクトが二重に視認されることとなる。 When the left and right calibration parameters (P 1, P r ) include an error, as shown in FIG. 4, the drawing position of the object (CG) for each screen is relative to the real environment as seen from the user. There is a gap. Here, in the binocular HMD, in addition to the displacement of the drawing position, a problem relating to the visibility of the object peculiar to both eyes arises. Specifically, as shown in FIG. 4, the object does not completely overlap in the overlapping area of the left eye screen and the right eye screen, and the object is visually recognized twice.

また、左右のキャリブレーション・パラメータに推定誤差が含まれていない場合であっても、左右のスクリーンに描画されたオブジェクトが重複領域で重なることによって、その重複領域のみの輝度が高まる。結果として、重複領域の両端の境界線の存在が目立ち、オブジェクト全体の視認性が低下してしまう。   Even when the left and right calibration parameters do not include an estimation error, the objects drawn on the left and right screens overlap each other in the overlapping area, thereby increasing the luminance of only the overlapping area. As a result, the presence of boundary lines at both ends of the overlapping area is conspicuous, and the visibility of the entire object is lowered.

そこで、本発明は、眼鏡形状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する際に、ディスプレイを通してユーザが視認する、各スクリーンの重複領域におけるオブジェクトの視認性を向上させることができる画像表示装置、プログラム及び方法を提供することを目的とする。   Accordingly, the present invention provides an image display that can improve the visibility of an object in an overlapping area of each screen, which is visually recognized by a user through the display when the object is displayed on an eyeglass-shaped optical see-through type binocular display. An object is to provide an apparatus, a program, and a method.

本発明によれば、ユーザの右眼及び左眼の各々について配置され、現実空間を透過して視認可能な光学式シースルー型のディスプレイを有し、ユーザが注視する実オブジェクトにおける注視点に合わせて、ディスプレイに表示すべき仮想オブジェクトを制御する画像表示装置であって、
カメラから、ユーザの注視点までの奥行き位置を取得する注視点位置取得手段と、
ユーザの右眼及び左眼の各々から、ディスプレイを通して奥行き位置に視認される右眼スクリーン及び左眼スクリーンが交わる重複領域を算出する重複領域算出手段と、
重複領域に表示すべき当該仮想オブジェクトに対して、右眼スクリーン又は左眼スクリーンのいずれか一方のみを選択する描画領域選択手段と、
選択された右眼スクリーン又は左眼スクリーンに当該仮想オブジェクトを描画するオブジェクト描画手段と
を有することを特徴とする。
According to the present invention, there is an optical see-through display that is arranged for each of the user's right eye and left eye and is visible through the real space, and matches the gazing point in the real object that the user gazes at. An image display device for controlling a virtual object to be displayed on a display,
Gazing point position acquisition means for acquiring a depth position from the camera to the user's gazing point;
Overlapping area calculation means for calculating an overlapping area where the right eye screen and the left eye screen that are visually recognized at a depth position through the display from each of the user's right eye and left eye,
A drawing area selection means for selecting only one of the right eye screen and the left eye screen for the virtual object to be displayed in the overlapping area;
And object drawing means for drawing the virtual object on the selected right eye screen or left eye screen.

本発明の画像表示装置における他の実施形態によれば、
描画領域選択手段は、
右眼スクリーン及び左眼スクリーンから構成される両眼スクリーンを、右眼領域と重複領域と左眼領域とに区分し、
両眼スクリーンに対する当該仮想オブジェクトの両端座標と、重複領域の両端座標とを用いて、
右眼領域及び重複領域に跨って表示すべき仮想オブジェクトは、重複領域に描画するスクリーンとして右眼スクリーンを選択し、
左眼領域及び重複領域に跨って表示すべき仮想オブジェクトは、重複領域に描画するスクリーンとして左眼スクリーンを選択することも好ましい。
According to another embodiment of the image display device of the present invention,
The drawing area selection means
A binocular screen composed of a right eye screen and a left eye screen is divided into a right eye area, an overlapping area, and a left eye area,
Using both end coordinates of the virtual object with respect to the binocular screen and both end coordinates of the overlapping area,
The virtual object to be displayed across the right eye region and the overlapping region is selected as the screen to be drawn in the overlapping region, and the right eye screen is selected.
For the virtual object to be displayed across the left eye region and the overlapping region, it is also preferable to select the left eye screen as a screen to be drawn in the overlapping region.

本発明の画像表示装置における他の実施形態によれば、
描画領域選択手段は、
重複領域に表示すべき当該仮想オブジェクトについて、
右眼のキャリブレーション・パラメータPrの精度が、左眼のキャリブレーション・パラメータPlの精度よりも高い場合、重複領域に描画するスクリーンとして右眼スクリーンを選択し、
逆に、右眼のキャリブレーション・パラメータPrの精度が、左眼のキャリブレーション・パラメータPlの精度の精度よりも低い場合、重複領域に描画するスクリーンとして左眼スクリーンを選択することも好ましい。
According to another embodiment of the image display device of the present invention,
The drawing area selection means
For the virtual object to be displayed in the overlap area,
When the accuracy of the calibration parameter P r for the right eye is higher than the accuracy of the calibration parameter P l for the left eye, the right eye screen is selected as a screen to be drawn in the overlapping region,
Conversely, if the accuracy of the calibration parameter P r for the right eye is lower than the accuracy of the calibration parameter P l for the left eye, it is also preferable to select the left eye screen as the screen to be drawn in the overlapping area. .

本発明の画像表示装置における他の実施形態によれば、
重複領域算出手段の逆投影−投影計算は、右眼から右眼スクリーン(又は左眼から左眼スクリーン)の任意点を介して、3次元空間の奥行き位置に逆投影した後、他方の左眼スクリーン(又は右眼スクリーン)に投影する逆投影−投影計算によって、右眼スクリーンの座標系(u,v)と、左眼スクリーンの座標系(u,v)との位置関係を示す、以下の変換行列Hl,rを算出することも好ましい。

Figure 2017107359
s:スケール係数 According to another embodiment of the image display device of the present invention,
The back projection-projection calculation of the overlapping area calculation means is performed by performing back projection to a depth position in the three-dimensional space via an arbitrary point from the right eye to the right eye screen (or from the left eye to the left eye screen), and then to the other left eye. back projection is projected on the screen (or the right-eye screen) - by projection calculation, the right eye screen coordinate system (u r, v r), the left eye screen coordinate system (u l, v l) the positional relationship between the It is also preferable to calculate the transformation matrix H l, r shown below.
Figure 2017107359
s: Scale factor

本発明の画像表示装置における他の実施形態によれば、
重複領域算出手段は、両眼のスクリーンが左右方向のみにずれている場合に、逆投影−投影計算によって、以下の変換行列Hl,rで定義される変位量dを算出することも好ましい。

Figure 2017107359
According to another embodiment of the image display device of the present invention,
It is also preferable that the overlapping area calculation means calculates a displacement amount d defined by the following transformation matrix H l, r by back projection-projection calculation when the screens of both eyes are displaced only in the left-right direction.
Figure 2017107359

本発明の画像表示装置における他の実施形態によれば、
重複領域算出手段の逆投影−投影計算は、右眼スクリーンの座標系(u,v)と、左眼スクリーンの座標系(u,v)と、右眼のキャリブレーション・パラメータPrと、左眼のキャリブレーション・パラメータPlと、注視点位置取得手段で用いたカメラ座標系(Xc,Yc,Zc)とを用いて、以下の式によって定義し、

Figure 2017107359
s:スケール係数
(u,v)=(0,0)及びZC=Zα(奥行き距離のスカラー値)を代入することで、uを変位量dとして算出するか、
又は、
(u,v)=(0,0)及びZC=Zα(奥行き距離のスカラー値)を代入することで、uを変位量−dとして算出することも好ましい。 According to another embodiment of the image display device of the present invention,
Backprojection overlapping area calculating means - projection calculations, the right eye screen coordinate system (u r, v r) and left-eye screen coordinate system (u l, v l) and, in the right eye calibration parameters P using a r, a calibration parameter P l of the left eye, a camera coordinate system used by the gazing point position acquisition unit (Xc, Yc, Zc) and was defined by the following equation,
Figure 2017107359
s: scale factor (u r, v r) = (0,0) and Z C = Z alpha by substituting (scalar value depth distance), or to calculate the u l a displacement d,
Or
(U l, v l) = (0,0) and Z C = Z alpha by substituting (scalar value depth distance), it is also preferable to calculate the u r as the displacement amount -d.

本発明の画像表示装置における他の実施形態によれば、
注視点位置取得手段は、可視光カメラを用いる場合、注視点を特定するマーカ画像を予め記憶しており、撮影画像からマーカ画像を検出することによって、以下のように、マーカを配置した世界座標系(Xw,Yw,Zw)からカメラ座標系(Xc,Yc,Zc)への変換行列(位置姿勢パラメータ)Wc,wを算出し、

Figure 2017107359
s:スケール係数
注視点位置取得手段は、世界座標系における注視点の座標を、変換行列Wc,wを用いてカメラ座標系へ変換し、そのZcを奥行き距離のスカラー値Zαとして算出することも好ましい。 According to another embodiment of the image display device of the present invention,
When using a visible light camera, the gazing point position acquisition means stores in advance a marker image that identifies the gazing point, and detects the marker image from the photographed image, whereby the world coordinates where the marker is arranged are as follows: A transformation matrix (position and orientation parameter) Wc, w from the system (Xw, Yw, Zw) to the camera coordinate system (Xc, Yc, Zc) is calculated;
Figure 2017107359
s: Scale coefficient The gazing point position acquisition means converts the coordinates of the gazing point in the world coordinate system into the camera coordinate system using the transformation matrix Wc, w, and calculates the Zc as a scalar value Z α of the depth distance. Is also preferable.

本発明の画像表示装置における他の実施形態によれば、
注視点位置取得手段は、マーカ画像の領域における重心座標を、注視点とすることも好ましい。
According to another embodiment of the image display device of the present invention,
It is also preferable that the gazing point position acquisition unit sets the barycentric coordinates in the marker image area as the gazing point.

本発明の画像表示装置における他の実施形態によれば、
オブジェクト描画手段は、
仮想オブジェクト毎に、重複領域の描画対象として選択されていない一方のスクリーンにのみ描画し、
左眼スクリーン及び右眼スクリーンの各々の重複領域を、ディスプレイの透過色で塗りつぶし、
仮想オブジェクトを、描画していない他方のスクリーンに描画する
ことも好ましい。
According to another embodiment of the image display device of the present invention,
Object drawing means
For each virtual object, draw only on one screen that is not selected as the overlap area drawing target,
Fill each overlapping area of the left eye screen and right eye screen with the transparent color of the display,
It is also preferable to draw the virtual object on the other non-drawing screen.

本発明によれば、ユーザの右眼及び左眼の各々の前方に配置され、現実空間を透過して視認可能な光学式シースルー型の両眼のディスプレイを有し、ユーザが注視する実オブジェクトにおける注視点に合わせて、ディスプレイに表示すべき仮想オブジェクトを制御する装置に搭載されたコンピュータを機能させるプログラムであって、
カメラから、ユーザの注視点までの奥行き位置を取得する注視点位置取得手段と、
ユーザの右眼及び左眼の各々から、ディスプレイを通して奥行き位置に視認される右眼スクリーン及び左眼スクリーンが交わる重複領域を算出する重複領域算出手段と、
重複領域に表示すべき当該仮想オブジェクトに対して、右眼スクリーン又は左眼スクリーンのいずれか一方のみを選択する描画領域選択手段と、
選択された右眼スクリーン又は左眼スクリーンに当該仮想オブジェクトを描画するオブジェクト描画手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, in an actual object that is arranged in front of each of the user's right eye and left eye and has an optical see-through binocular display that can be seen through the real space, and the user gazes at. A program for causing a computer mounted on a device that controls a virtual object to be displayed on a display to function in accordance with a gaze point,
Gazing point position acquisition means for acquiring a depth position from the camera to the user's gazing point;
Overlapping area calculation means for calculating an overlapping area where the right eye screen and the left eye screen that are visually recognized at a depth position through the display from each of the user's right eye and left eye,
A drawing area selection means for selecting only one of the right eye screen and the left eye screen for the virtual object to be displayed in the overlapping area;
The computer is caused to function as an object drawing means for drawing the virtual object on the selected right eye screen or left eye screen.

本発明によれば、ユーザの右眼及び左眼の各々の前方に配置され、現実空間を透過して視認可能な光学式シースルー型の両眼のディスプレイを有し、ユーザが注視する実オブジェクトにおける注視点に合わせて、ディスプレイに表示すべき仮想オブジェクトを制御する装置の画像表示方法であって、
装置は、
カメラから、ユーザの注視点までの奥行き位置を取得する第1のステップと、
ユーザの右眼及び左眼の各々から、ディスプレイを通して奥行き位置に視認される右眼スクリーン及び左眼スクリーンが交わる重複領域を算出する第2のステップと、
重複領域に表示すべき当該仮想オブジェクトに対して、右眼スクリーン又は左眼スクリーンのいずれか一方のみを選択する第3のステップと、
選択された右眼スクリーン又は左眼スクリーンに当該仮想オブジェクトを描画する第4のステップと
を実行することを特徴とする。
According to the present invention, in an actual object that is arranged in front of each of the user's right eye and left eye and has an optical see-through binocular display that can be seen through the real space, and the user gazes at. An image display method for a device that controls a virtual object to be displayed on a display according to a gaze point,
The device
A first step of obtaining a depth position from the camera to the user's point of interest;
A second step of calculating, from each of the user's right eye and left eye, an overlapping area where the right eye screen and the left eye screen viewed at a depth position through the display intersect;
A third step of selecting only one of the right eye screen and the left eye screen for the virtual object to be displayed in the overlapping area;
And a fourth step of drawing the virtual object on the selected right eye screen or left eye screen.

本発明の画像表示装置、プログラム及び方法によれば、眼鏡形状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する際に、ディスプレイを通してユーザが視認する、各スクリーンの重複領域におけるオブジェクトの視認性を向上させることができる。即ち、本発明は、HMDによって想定されていない近距離視認時の性質を利用することで、光学シースルー型HMDの両眼視野角を拡大させることができる点に着目したものである。   According to the image display device, program, and method of the present invention, when an object is displayed on a spectacle-shaped optical see-through type binocular display, the visibility of the object in the overlapping region of each screen that the user visually recognizes through the display. Can be improved. That is, the present invention pays attention to the fact that the binocular viewing angle of the optical see-through HMD can be expanded by utilizing the property at the time of short distance viewing not assumed by the HMD.

光学式シースルー型HMDから見たユーザの視界を表す外観図である。It is an external view showing a user's field of view seen from an optical see-through HMD. 光学式シースルー型HMDについて2つのスクリーンとユーザの視界との関係を表す外観図である。It is an external view showing the relationship between two screens and a user's field of view for an optical see-through HMD. キャリブレーション・パラメータが推定誤差を含まない場合における、ユーザの視界に映るスクリーンを表す説明図である。It is explanatory drawing showing the screen reflected in a user's visual field when a calibration parameter does not contain an estimation error. キャリブレーション・パラメータが誤差を含む場合における、ユーザの視界に映るスクリーンを表す説明図である。It is explanatory drawing showing the screen reflected in a user's visual field in case a calibration parameter contains an error. 本発明における画像表示装置の機能構成図である。It is a functional block diagram of the image display apparatus in this invention. 世界座標系とカメラ座標系との関係を表す説明図である。It is explanatory drawing showing the relationship between a world coordinate system and a camera coordinate system. 両方のスクリーン間の変位量を表す説明図である。It is explanatory drawing showing the displacement amount between both screens. 左眼スクリーン、右眼スクリーン及び両眼スクリーンの位置関係及び各領域を表す説明図である。It is explanatory drawing showing the positional relationship and each area | region of a left eye screen, a right eye screen, and a binocular screen. 仮想オブジェクトに対する描画領域を表す第1の説明図である。It is the 1st explanatory view showing the drawing field to a virtual object. 仮想オブジェクトに対する描画領域を表す第2の説明図である。It is the 2nd explanatory view showing the drawing field to a virtual object. 仮想オブジェクトに対する描画領域を表す第3の説明図である。It is the 3rd explanatory view showing the drawing field to a virtual object. 仮想オブジェクトに対する描画領域を表す第4の説明図である。It is the 4th explanatory view showing the drawing field to a virtual object. 仮想オブジェクトに対する描画領域を表す第5の説明図である。It is the 5th explanatory view showing the drawing field to a virtual object. オブジェクト描画部の描画手順を表す説明図である。It is explanatory drawing showing the drawing procedure of an object drawing part. 本発明におけるユーザの視界に映るスクリーンを表す説明図である。It is explanatory drawing showing the screen reflected in the user's visual field in this invention.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図5は、本発明における画像表示装置の機能構成図である。   FIG. 5 is a functional configuration diagram of the image display apparatus according to the present invention.

図5によれば、画像表示装置1の機能は、光学シースルー型HMDに内蔵されたものであってもよいし、光学シースルー型HMDに接続した外部の端末であってもよい。端末としては、例えばスマートフォンやタブレット又はパーソナルコンピュータのようなものがある。この場合、画像表示装置の機能は、端末にインストール可能なアプリケーションとして提供される。   According to FIG. 5, the function of the image display device 1 may be built in the optical see-through HMD, or may be an external terminal connected to the optical see-through HMD. Examples of the terminal include a smartphone, a tablet, and a personal computer. In this case, the function of the image display device is provided as an application that can be installed in the terminal.

図5によれば、HMD本体のディスプレイは、現実空間を透過して視認可能な光学式シースルー型のものであって、ユーザの左右各々の眼の前方に配置される。画像表示装置1は、注視点位置取得部11と、重複領域算出部12と、描画領域選択部13と、オブジェクト描画部14とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、装置の画像表示方法としても理解できる。   According to FIG. 5, the display of the HMD main body is an optical see-through type that can be seen through the real space, and is disposed in front of each of the left and right eyes of the user. The image display device 1 includes a gazing point position acquisition unit 11, an overlapping region calculation unit 12, a drawing region selection unit 13, and an object drawing unit 14. These functional components are realized by executing a program that causes a computer installed in the apparatus to function. Further, the flow of processing of these functional components can be understood as an image display method of the apparatus.

[注視点位置取得部11]
注視点位置取得部11は、HMDを装着したユーザから見た、注視点までの奥行き位置を取得する。注視点までの奥行き位置を取得することによって、ユーザの視線のピントの位置に、仮想オブジェクトを、その位置や大きさを制御して表示することができる。奥行き位置は、具体的には、HMD搭載のカメラから、現実空間に対するユーザの注視点までの距離である。そして、取得した注視点距離は、重複領域算出部12へ出力される。
[Gaze point acquisition unit 11]
The gazing point position acquisition unit 11 acquires the depth position to the gazing point as viewed from the user wearing the HMD. By acquiring the depth position up to the point of sight, the virtual object can be displayed at the focus position of the user's line of sight while controlling the position and size. Specifically, the depth position is a distance from the camera equipped with the HMD to the user's gazing point with respect to the real space. Then, the acquired gazing point distance is output to the overlapping area calculation unit 12.

注視点位置取得部11は、様々なデバイスを用いて、奥行き位置までの注視点距離を取得することがきる。デバイスとしては、例えば以下のようなものがある。
可視光カメラ
深度センサ(デプスカメラ)
超音波センサや磁気センサ(専用トランスミッタと、HMD本体及び注視対象物体に付したセンサとからなる)
The gazing point position acquisition unit 11 can acquire the gazing point distance to the depth position using various devices. Examples of devices include the following.
Visible light camera Depth sensor (depth camera)
Ultrasonic sensor and magnetic sensor (consisting of a dedicated transmitter and sensors attached to the HMD body and the object to be watched)

<可視光カメラを用いる場合>
注視点位置取得部11は、注視点を特定するマーカ画像を予め記憶している。マーカ画像は、ユーザが注視すべき対象物体そのものの画像であってもよいし、対象物体に専用マーカ画像を貼り付けたものであってもよい。可視光カメラによる撮影画像から、画像認識によってそのマーカ画像が検出される。マーカ画像は、例えばQRコード(登録商標)であってもよい。このとき、マーカ画像の領域における重心座標を、注視点とすることも好ましい。
<When using a visible light camera>
The gazing point position acquisition unit 11 stores in advance a marker image that identifies the gazing point. The marker image may be an image of the target object itself to be watched by the user, or may be an image in which a dedicated marker image is pasted on the target object. The marker image is detected by image recognition from the image captured by the visible light camera. The marker image may be a QR code (registered trademark), for example. At this time, it is also preferable to set the center-of-gravity coordinates in the marker image area as the point of gaze.

図6は、世界座標系とカメラ座標系との関係を表す説明図である。   FIG. 6 is an explanatory diagram showing the relationship between the world coordinate system and the camera coordinate system.

注視点位置取得部11は、対象物体の位置姿勢を取得する(例えば非特許文献1参照)。これは、マーカ画像を配置した世界座標系(Xw,Yw,Zw)からカメラ座標系(Xc,Yc,Zc)への変換行列(位置姿勢パラメータ)Wc,wを、以下の式によって算出する(例えば非特許文献1参照)。

Figure 2017107359
s:スケール係数
そして、注視点位置取得部11は、世界座標系における注視点の座標を、変換行列Wc,wを用いてカメラ座標系へ変換し、そのZcを奥行き距離のスカラー値Zαとして算出する。 The gazing point position acquisition unit 11 acquires the position and orientation of the target object (see, for example, Non-Patent Document 1). This calculates a transformation matrix (position and orientation parameter) Wc, w from the world coordinate system (Xw, Yw, Zw) in which the marker image is arranged to the camera coordinate system (Xc, Yc, Zc) by the following formula ( For example, refer nonpatent literature 1).
Figure 2017107359
s: Scale factor The gazing point position acquisition unit 11 converts the coordinates of the gazing point in the world coordinate system into the camera coordinate system using the transformation matrix Wc, w, and uses the Zc as the scalar value Z α of the depth distance. calculate.

世界座標系と画像平面のピクセル座標系との点対応集合から、例えばRANSAC(RAndom SAmple Consensus)のようなロバスト推定アルゴリズムを用いて、変換行列Wc,wを算出するものであってもよい。点対応集合から、誤った点対応を除去することもできる。   The transformation matrix Wc, w may be calculated from a point correspondence set between the world coordinate system and the pixel coordinate system of the image plane using a robust estimation algorithm such as RANSAC (RAndom SAmple Consensus). It is also possible to remove erroneous point correspondences from the point correspondence set.

図6のように、可視光カメラのカメラ座標系の光軸方向が、仮想スクリーンの法線ベクトルの正又は負の方向に近似できる場合、可視光カメラの座標系の原点と注視点との間の距離を、注視点距離とすることができる。   As shown in FIG. 6, when the optical axis direction of the camera coordinate system of the visible light camera can be approximated to the positive or negative direction of the normal vector of the virtual screen, it is between the origin of the coordinate system of the visible light camera and the gazing point. Can be the gaze point distance.

尚、世界座標系における注視点の3次元位置X1wには、仮想オブジェクトを構成する頂点群の平均値又は中央値を用いてもよい。また、例えば、作業支援システムについて、作業指示対象の位置が別の実施形態によって取得できる場合は、これをX1wとしてもよい。 Note that an average value or a median value of vertex groups constituting the virtual object may be used for the three-dimensional position X 1 w of the point of interest in the world coordinate system. Further, for example, in the case of the work support system, when the position of the work instruction target can be acquired by another embodiment, this may be X 1 w.

<深度センサを用いる場合>
深度センサ(デプスカメラ)を用いる場合は、マーカ画像を貼り付けた特定の対象物体のみならず、視認領域全体のデプス値を取得することができる。深度センサは、赤外線照射センサから放射された赤外線の反射を捉えることによって、実物体の位置を注視点位置として取得することができる。
<When using a depth sensor>
When using a depth sensor (depth camera), the depth value of the entire visual recognition area can be acquired as well as the specific target object to which the marker image is pasted. The depth sensor can acquire the position of the real object as the position of the gazing point by capturing the reflection of the infrared ray emitted from the infrared irradiation sensor.

[重複領域算出部12]
重複領域算出部12は、ユーザの右眼及び左眼の各々から、ディスプレイを通して「奥行き距離」に視認される右眼スクリーン及び左眼スクリーンが交わる重複領域を算出する。算出された重複領域の座標情報は、描画領域選択部13へ出力される。
[Overlapping region calculation unit 12]
The overlapping area calculation unit 12 calculates, from each of the user's right eye and left eye, an overlapping area where the right eye screen and the left eye screen that are visually recognized through the display at a “depth distance” intersect. The calculated coordinate information of the overlapping area is output to the drawing area selecting unit 13.

重複領域算出部12は、右眼から右眼スクリーン(又は左眼から左眼スクリーン)の任意点を介して、3次元空間の奥行き位置に逆投影した後、他方の左眼スクリーン(又は右眼スクリーン)に投影する逆投影−投影計算によって、右眼スクリーンの座標系(u,v)と、左眼スクリーンの座標系(u,v)との位置関係を示す、以下の変換行列Hl,rを算出する。

Figure 2017107359
s:スケール係数 The overlapping area calculation unit 12 performs back projection on the depth position in the three-dimensional space via an arbitrary point from the right eye to the right eye screen (or the left eye to the left eye screen), and then the other left eye screen (or the right eye). The following transformation showing the positional relationship between the right eye screen coordinate system (u r , v r ) and the left eye screen coordinate system (u l , v l ) by back projection projected onto the screen) The matrix H l, r is calculated.
Figure 2017107359
s: Scale factor

重複領域算出部12は、両眼のスクリーンが左右方向のみにずれている場合に、逆投影−投影計算によって、以下の変換行列Hl,rで定義される変位量dを算出できる。

Figure 2017107359
The overlapping area calculation unit 12 can calculate the displacement amount d defined by the following transformation matrix H l, r by back projection-projection calculation when the screens of both eyes are displaced only in the left-right direction.
Figure 2017107359

図7は、両方のスクリーン間の変位量を表す説明図である。   FIG. 7 is an explanatory diagram showing the amount of displacement between both screens.

図7によれば、右眼から右眼スクリーンの左上頂点を介して、3次元空間の奥行き位置に逆投影した後、他方の左眼スクリーンに投影する逆投影−投影計算によって、スクリーン間の変位量dが表されている。   According to FIG. 7, after the back projection from the right eye to the depth position of the three-dimensional space via the upper left vertex of the right eye screen, the back projection-projection calculation projects to the other left eye screen. The quantity d is represented.

また、重複領域算出部13の逆投影−投影計算は、以下の式によって定義したものであってもよい。
右眼スクリーンの座標系(u,v
左眼スクリーンの座標系(u,v
注視点位置取得手段で用いたカメラ座標系(Xc,Yc,Zc)
右眼のキャリブレーション・パラメータPr
左眼のキャリブレーション・パラメータPl

Figure 2017107359
s:スケール係数 Further, the back projection-projection calculation of the overlapping area calculation unit 13 may be defined by the following equation.
Right eye screen of the coordinate system (u r, v r)
Left eye screen coordinate system (u l , v l )
Camera coordinate system (Xc, Yc, Zc) used for gazing point position acquisition means
Right eye calibration parameter Pr
Left eye calibration parameter P l
Figure 2017107359
s: Scale factor

以下のいずれかによって変位量dを算出する。
(1)(u,v)=(0,0)及びZC=Zα(奥行き距離のスカラー値)を代入することで、uを変位量dとして算出する。
(2)(u,v)=(0,0)及びZC=Zα(奥行き距離のスカラー値)を代入することで、uを変位量−dとして算出する。
これによって、ZC=Zαによって定義された両眼スクリーン平面への逆投影位置が得られる。この逆投影位置の3次元座標を、他方の式に代入することによって、他方のスクリーンにおける対応点を算出する。
The displacement amount d is calculated by either of the following.
(1) By substituting (u r , v r ) = (0, 0) and Z C = Z α (scalar value of depth distance), u l is calculated as the displacement d.
(2) (u l, v l) = (0,0) and Z C = Z alpha by substituting (scalar value depth distance) to calculate the u r as the displacement amount -d.
As a result, a back projection position on the binocular screen plane defined by Z C = Z α is obtained. The corresponding points on the other screen are calculated by substituting the three-dimensional coordinates of the backprojection position into the other equation.

[描画領域選択部13]
描画領域選択部13は、重複領域に表示すべき当該仮想オブジェクトに対して、右眼スクリーン又は左眼スクリーンのいずれか一方のみを選択する。
[Drawing area selection unit 13]
The drawing area selection unit 13 selects only one of the right eye screen and the left eye screen for the virtual object to be displayed in the overlapping area.

図8は、左眼スクリーン、右眼スクリーン及び両眼スクリーンの位置関係及び各領域を表す説明図である。   FIG. 8 is an explanatory diagram showing the positional relationship and each region of the left eye screen, right eye screen, and binocular screen.

図8によれば、両眼スクリーンは、スクリーン間の変位量d[pixel]と、スクリーンの横幅w[pixel]とによって、左眼スクリーン及び右眼スクリーンを合わせて4つの領域A〜Dに区分されている。
A領域:左眼スクリーンのみで表示する領域
B領域:左眼スクリーンにおける右眼スクリーンとの重複領域
C領域:右眼スクリーンにおける左眼スクリーンとの重複領域
D領域:右眼スクリーンのみで表示する領域
According to FIG. 8, the binocular screen is divided into four regions A to D by combining the left eye screen and the right eye screen according to the displacement d [pixel] between the screens and the horizontal width w [pixel] of the screen. Has been.
Area A: Area displayed only on the left eye screen Area B: Area overlapped with the right eye screen on the left eye screen Area C: Area overlapped with the left eye screen on the right eye screen Area D: Area displayed only on the right eye screen

この重複領域の範囲は、ユーザの眼のピント位置によってリアルタイムに変化するものである。具体的には、装着者が遠くを視認するほど小さくなり、近くを視認するほど大きくなる。そのために、注視点位置取得部11によってユーザが注視する奥行き距離を特定し、その距離に応じた重複領域の範囲をリアルタイムに決定する。   The range of this overlapping area changes in real time depending on the focus position of the user's eyes. Specifically, the size becomes smaller as the wearer visually recognizes the distance, and becomes larger as the user visually recognizes the distance. For this purpose, the gazing point position acquisition unit 11 specifies the depth distance that the user gazes at, and determines the range of the overlapping region corresponding to the distance in real time.

描画対象となる仮想オブジェクト(1つのオブジェクトを2つに区分してもよい)毎に、そのオブジェクトの描画位置が左右のスクリーン間の重複領域に跨る場合に、左スクリーンの領域(B領域)のみに表示するのか、右スクリーンの領域(C領域)のみに表示するのかを決定する。ここでは、両眼スクリーンの中で、重複領域の範囲における境界線の位置が重要となる。描画領域選択部13は、以下の2つのいずれか一方の処理によって、仮想オブジェクトを描画すべきスクリーンを選択する。
<仮想オブジェクトの視認性に基づくスクリーンの選択方法>
<キャリブレーション・パラメータの精度に基づくスクリーンの選択方法>
For each virtual object to be drawn (one object may be divided into two), only the left screen area (B area) when the drawing position of that object spans the overlapping area between the left and right screens Or display only in the area on the right screen (C area). Here, in the binocular screen, the position of the boundary line in the range of the overlapping region is important. The drawing area selection unit 13 selects a screen on which a virtual object is to be drawn by one of the following two processes.
<Screen selection method based on visibility of virtual object>
<Screen selection method based on calibration parameter accuracy>

<仮想オブジェクトの視認性に基づくスクリーンの選択方法>
右眼スクリーン及び左眼スクリーンから構成される両眼スクリーンは、右眼領域と重複領域と左眼領域とに区分される。
そして、オブジェクト毎に、描画領域を以下のいずれかに制限する。
左眼スクリーン(領域A、B)・右眼スクリーン(領域D)、又は、
左眼スクリーン(領域A) ・右眼スクリーン(領域C、D)
両眼スクリーンに対する当該仮想オブジェクトの両端座標と、重複領域の両端座標とを用いて、右眼領域及び重複領域に跨って表示すべき仮想オブジェクトは、重複領域に描画するスクリーンとして右眼スクリーンを選択する。
また、両眼スクリーンに対する当該仮想オブジェクトの両端座標と、重複領域の両端座標とを用いて、左眼領域及び重複領域に跨って表示すべき仮想オブジェクトは、重複領域に描画するスクリーンとして左眼スクリーンを選択する。
<Screen selection method based on visibility of virtual object>
A binocular screen composed of a right eye screen and a left eye screen is divided into a right eye region, an overlapping region, and a left eye region.
For each object, the drawing area is limited to one of the following.
Left eye screen (area A, B), right eye screen (area D), or
Left eye screen (region A) Right eye screen (regions C and D)
The virtual object to be displayed across the right eye region and the overlapping region is selected as the screen to be drawn in the overlapping region using the both end coordinates of the virtual object with respect to the binocular screen and the both end coordinates of the overlapping region. To do.
Further, a virtual object to be displayed across the left eye region and the overlap region using the both end coordinates of the virtual object with respect to the binocular screen and the end point coordinates of the overlap region is a left eye screen as a screen to be drawn in the overlap region. Select.

<キャリブレーション・パラメータの精度に基づくスクリーンの選択方法>
右眼のキャリブレーション・パラメータPrの精度が、左眼のキャリブレーション・パラメータPlの精度よりも高い場合、重複領域に描画するスクリーンとして右眼スクリーンを選択する。
左眼スクリーン(領域A) ・右眼スクリーン(領域C、D)
逆に、右眼のキャリブレーション・パラメータPrの精度が、左眼のキャリブレーション・パラメータPlの精度よりも低い場合、重複領域に描画するスクリーンとして左眼スクリーンを選択する。
左眼スクリーン(領域A、B)・右眼スクリーン(領域D)
又は、仮想オブジェクトの表示位置に関する特定の条件に当てはまる場合は、仮想オブジェクトの視認性に基づくスクリーンの選択方法を用い、それ以外の場合は、キャリブレーション・パラメータの精度に基づくスクリーンの選択方法を用いてもよい。
<Screen selection method based on calibration parameter accuracy>
When the accuracy of the calibration parameter P r for the right eye is higher than the accuracy of the calibration parameter P l for the left eye, the right eye screen is selected as the screen to be drawn in the overlapping area.
Left eye screen (region A) Right eye screen (regions C and D)
Conversely, when the accuracy of the calibration parameter P r for the right eye is lower than the accuracy of the calibration parameter P l for the left eye, the left eye screen is selected as a screen to be drawn in the overlapping area.
Left eye screen (areas A and B), right eye screen (area D)
Alternatively, when a specific condition regarding the display position of the virtual object is satisfied, a screen selection method based on the visibility of the virtual object is used, and otherwise, a screen selection method based on the accuracy of the calibration parameter is used. May be.

図9は、仮想オブジェクトに対する描画領域を表す第1の説明図である。   FIG. 9 is a first explanatory diagram showing a drawing area for a virtual object.

図9によれば、例えば仮想オブジェクトを構成する各ポリゴンの頂点座標について、式(3)を用いて投影位置を算出する。この計算は、仮想オブジェクトを実際にレンダリングする前に仮想オブジェクトのおおよその描画位置を把握するためのものである。尚、頂点群をダウンサンプリングしておくことによって、計算コストを低減したものであってもよい。   According to FIG. 9, for example, the projection position is calculated using equation (3) for the vertex coordinates of each polygon constituting the virtual object. This calculation is for grasping the approximate drawing position of the virtual object before actually rendering the virtual object. The calculation cost may be reduced by down-sampling the vertex group.

<<仮想オブジェクトが両眼スクリーンで2つの領域(左眼領域及び重複領域、又は重複領域及び右眼領域)にのみ存在する場合の選択基準(図9〜11)>>
図9によれば、仮想オブジェクトを構成する点群を式(3)に基づいてスクリーンに投影した先の点群について、u座標の最小値と最大値とを、以下のように定義する。
左眼スクリーンにおける仮想オブジェクトのu座標の描画範囲:(ul min,ul max
右眼スクリーンにおける仮想オブジェクトのu座標の描画範囲:(ur min,ur max
ここで、仮想オブジェクトを、領域Aの左眼スクリーンと、領域Cの右眼スクリーンとで描画した場合、仮想オブジェクトの連続性が、重複領域境界で分断されてしまう。
<< Selection Criteria when Virtual Object Exists Only in Two Areas (Left Eye Area and Overlapping Area, Overlapping Area and Right Eye Area) on Binocular Screen >> (FIGS. 9 to 11) >>
According to FIG. 9, the minimum value and the maximum value of the u coordinate are defined as follows for the point group that projects the point group constituting the virtual object on the screen based on Expression (3).
Drawing range of u coordinate of virtual object on left-eye screen: (u l min , u l max )
Drawing range of u coordinates of the virtual object in the right-eye screen: (u r min, u r max)
Here, when the virtual object is drawn by the left eye screen of the region A and the right eye screen of the region C, the continuity of the virtual object is divided at the overlap region boundary.

図10は、仮想オブジェクトに対する描画領域を表す第2の説明図である。   FIG. 10 is a second explanatory diagram illustrating a drawing area for a virtual object.

図10によれば、図9に対して、仮想オブジェクトを、領域A及びBの左眼スクリーンのみに描画する。図9及び図10によれば、以下の条件を満たす。
l min<d、d<ul max、ur max<w−d
この場合、仮想オブジェクトは、左眼スクリーン(領域A及びB)のみで表示するのが好ましい。これによって、左眼スクリーンのみにおける仮想オブジェクトの連続性が維持され、視認性を高めることができる。
According to FIG. 10, the virtual object is drawn only on the left eye screens in the areas A and B, as compared with FIG. According to FIGS. 9 and 10, the following conditions are satisfied.
u l min <d, d <u l max , u r max <w−d
In this case, the virtual object is preferably displayed only on the left eye screen (regions A and B). Thereby, the continuity of the virtual object only on the left eye screen is maintained, and visibility can be improved.

図11は、仮想オブジェクトに対する描画領域を表す第3の説明図である。   FIG. 11 is a third explanatory diagram illustrating a drawing area for a virtual object.

図11によれば、仮想オブジェクトの投影された点群について、u座標の最小値と最大値とが以下の条件を満たす。
d<ul min、ur min<w−d、w−d<ur max
この場合、右眼スクリーンにおける仮想オブジェクトの連続性を維持するために仮想オブジェクトは、右眼スクリーン(領域C及びD)のみで表示するのが好ましい。
According to FIG. 11, the minimum value and the maximum value of the u coordinate satisfy the following conditions for the projected point group of the virtual object.
d <u l min, u r min <w-d, w-d <u r max
In this case, in order to maintain the continuity of the virtual object on the right eye screen, the virtual object is preferably displayed only on the right eye screen (regions C and D).

<<仮想オブジェクトが両眼スクリーンで3つの領域(左眼領域、重複領域及び右眼領域)にのみ存在する場合の選択基準(図12〜13)>>
図12は、仮想オブジェクトに対する描画領域を表す第4の説明図である。
<< Selection Criteria when Virtual Object Exists Only in Three Areas (Left Eye Area, Overlapping Area, and Right Eye Area) on Binocular Screen >> (FIGS. 12 to 13) >>
FIG. 12 is a fourth explanatory diagram illustrating a drawing area for a virtual object.

左眼スクリーンでしか表示できないd−ul minの長さの範囲よりも、右眼スクリーンでしか表示できないur max−(w−d)の長さの範囲の方が長い。
d−ul min < ur max−(w−d)
l min<d、w<ul max、ur min<0、w−d<ur max
この場合、右眼スクリーンでしか表示できない範囲を優先するべく、仮想オブジェクトは、右眼スクリーンで領域C及びDを表示し、左眼スクリーンで領域Aを表示するのが好ましい。
Than the length range of the d-u l min can not be displayed only in the left eye screen, the right eye can not be displayed only on the screen u r max - the longer of (w-d) of the length of the range.
d-u l min <u r max - (w-d)
u l min <d, w <u l max , u r min <0, w−d <u r max
In this case, in order to give priority to the range that can be displayed only on the right eye screen, the virtual object preferably displays the areas C and D on the right eye screen and the area A on the left eye screen.

図13は、仮想オブジェクトに対する描画領域を表す第5の説明図である。   FIG. 13 is a fifth explanatory diagram illustrating a drawing area for a virtual object.

図13によれば、仮想オブジェクトの中でも、ユーザに表示として主張すべきテキスト部分を左眼スクリーンの領域A及びBで表示する方が、同テキスト部分の連続性を維持できる。この場合、テキストオブジェクトのみについてul min、ul max、ur min、ur maxを抽出し、以下の条件を満たす。
d−ul min > ur max−(w−d)
この場合、左眼スクリーンでしか表示できない範囲を優先するべく、仮想オブジェクトは、左眼スクリーンで領域A及びBを表示し、右眼スクリーンで領域Dを表示するのが好ましい。即ち、仮想オブジェクトの中でもテキストオブジェクトのサイズによって、描画すべきスクリーンを選択する。
According to FIG. 13, among the virtual objects, the continuity of the text part can be maintained by displaying the text part to be claimed as the display to the user in the areas A and B of the left eye screen. In this case, u l min , u l max , u r min , and u r max are extracted for only the text object, and the following conditions are satisfied.
d-u l min> u r max - (w-d)
In this case, the virtual object preferably displays the areas A and B on the left eye screen and the area D on the right eye screen in order to give priority to the range that can be displayed only on the left eye screen. That is, the screen to be drawn is selected according to the size of the text object among the virtual objects.

[オブジェクト描画部14]
オブジェクト描画部14は、選択された右眼スクリーン又は左眼スクリーンに当該仮想オブジェクトを描画する。
[Object drawing unit 14]
The object drawing unit 14 draws the virtual object on the selected right eye screen or left eye screen.

図14は、オブジェクト描画部の描画手順を表す説明図である。   FIG. 14 is an explanatory diagram illustrating a drawing procedure of the object drawing unit.

オブジェクト描画部14は、両眼スクリーンに対して以下の描画処理を実行する。尚、図14は、重複領域の描画対象として右眼スクリーンが選択された場合を表す。
(S11)仮想オブジェクト毎に、重複領域の描画対象として選択されていない一方のスクリーンにのみ描画する。例えば、図12及び14のオブジェクトや図15のCG2は、左眼スクリーンにのみ描画する。また、図13のオブジェクトや図15のCG1は、右眼スクリーンのみに描画する。
(S12)左眼スクリーン及び右眼スクリーンの各々の重複領域を、ディスプレイの透過色で塗りつぶす。
(S13)仮想オブジェクトを(S11)で描画していない他方のスクリーンに描画する。例えば、図12及び14のオブジェクトや図15のCG2は、右眼スクリーンにのみ描画する。また、図13のオブジェクトや図15のCG1は、左眼スクリーンのみに描画する。
The object drawing unit 14 executes the following drawing process on the binocular screen. FIG. 14 shows a case where the right eye screen is selected as a drawing target of the overlapping area.
(S11) For each virtual object, drawing is performed only on one screen that is not selected as a drawing target of the overlapping area. For example, the objects of FIGS. 12 and 14 and CG2 of FIG. 15 are drawn only on the left eye screen. 13 and CG1 in FIG. 15 are drawn only on the right eye screen.
(S12) The overlapping areas of the left eye screen and the right eye screen are filled with the transparent color of the display.
(S13) The virtual object is drawn on the other screen not drawn in (S11). For example, the objects of FIGS. 12 and 14 and CG2 of FIG. 15 are drawn only on the right eye screen. 13 and CG1 in FIG. 15 are drawn only on the left eye screen.

以上、詳細に説明したように、本発明の画像表示装置、プログラム及び方法によれば、眼鏡状の両眼の光学シースルー型の両眼のディスプレイにオブジェクトを表示する際に、ユーザから見た、スクリーンの重複領域におけるオブジェクトの視認性を向上させることができる。   As described above in detail, according to the image display device, the program, and the method of the present invention, when an object is displayed on the binocular optical see-through binocular display in the form of glasses, as viewed from the user, The visibility of the object in the overlapping area of the screen can be improved.

図15は、本発明におけるユーザの視界に映るスクリーンを表す説明図である。   FIG. 15 is an explanatory diagram showing a screen shown in the user's field of view according to the present invention.

図15によれば、仮想オブジェクト毎に、その視認性を維持するべく、左眼スクリーン又は右眼スクリーンのいずれかが選択される。そのために、光学式シースルー型HMDについて、視野角が拡大しても(手先の作業であっても)、両眼スクリーンの重複領域における仮想オブジェクトの視認性を損なわない。即ち、その重複領域で、仮想オブジェクトが二重に表示されず、輝度も統一される。本発明によれば、キャリブレーション・パラメータの推定誤差及び輝度差に起因する視認性の低下を防ぐことができる。   According to FIG. 15, either the left eye screen or the right eye screen is selected for each virtual object in order to maintain the visibility. For this reason, even if the viewing angle of the optical see-through HMD is increased (even if it is a manual operation), the visibility of the virtual object in the overlapping region of the binocular screen is not impaired. That is, the virtual object is not displayed twice in the overlapping area, and the luminance is also unified. According to the present invention, it is possible to prevent a decrease in visibility due to a calibration parameter estimation error and a luminance difference.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1 画像表示装置、ヘッドマウントディスプレイ、端末
11 注視点位置取得部
12 重複領域算出部
13 描画領域選択部
14 オブジェクト描画部
1 Image display device, head mounted display, terminal 11 Gaze point acquisition unit
12 Overlapping region calculation unit 13 Drawing region selection unit 14 Object drawing unit

Claims (12)

ユーザの右眼及び左眼の各々の前方に配置され、現実空間を透過して視認可能な光学式シースルー型の両眼のディスプレイを有し、ユーザが注視する実オブジェクトにおける注視点に合わせて、前記ディスプレイに表示すべき仮想オブジェクトを制御する画像表示装置であって、
カメラから、ユーザの注視点までの奥行き位置を取得する注視点位置取得手段と、
前記ユーザの右眼及び左眼の各々から、前記ディスプレイを通して前記奥行き位置に視認される右眼スクリーン及び左眼スクリーンが交わる重複領域を算出する重複領域算出手段と、
前記重複領域に表示すべき当該仮想オブジェクトに対して、右眼スクリーン又は左眼スクリーンのいずれか一方のみを選択する描画領域選択手段と、
選択された右眼スクリーン又は左眼スクリーンに当該仮想オブジェクトを描画するオブジェクト描画手段と
を有することを特徴とする画像表示装置。
It is arranged in front of each of the user's right eye and left eye, has an optical see-through type binocular display that is visible through the real space, and matches the gazing point in the real object that the user gazes, An image display device for controlling a virtual object to be displayed on the display,
Gazing point position acquisition means for acquiring a depth position from the camera to the user's gazing point;
An overlapping area calculation means for calculating an overlapping area where a right eye screen and a left eye screen viewed at the depth position through the display intersect from each of the user's right eye and left eye;
A drawing area selecting means for selecting only one of the right eye screen and the left eye screen for the virtual object to be displayed in the overlapping area;
An image display device comprising: an object drawing unit that draws the virtual object on a selected right eye screen or left eye screen.
前記描画領域選択手段は、
前記右眼スクリーン及び左眼スクリーンから構成される両眼スクリーンを、右眼領域と重複領域と左眼領域とに区分し、
前記両眼スクリーンに対する当該仮想オブジェクトの両端座標と、前記重複領域の両端座標とを用いて、
右眼領域及び重複領域に跨って表示すべき仮想オブジェクトは、重複領域に描画するスクリーンとして右眼スクリーンを選択し、
左眼領域及び重複領域に跨って表示すべき仮想オブジェクトは、重複領域に描画するスクリーンとして左眼スクリーンを選択する
ことを特徴とする請求項1に記載の画像表示装置。
The drawing area selecting means includes
The binocular screen composed of the right eye screen and the left eye screen is divided into a right eye region, an overlapping region, and a left eye region,
Using both end coordinates of the virtual object with respect to the binocular screen and both end coordinates of the overlapping area,
The virtual object to be displayed across the right eye region and the overlapping region is selected as the screen to be drawn in the overlapping region, and the right eye screen is selected.
The image display apparatus according to claim 1, wherein a virtual object to be displayed across the left eye region and the overlapping region selects a left eye screen as a screen to be drawn in the overlapping region.
前記描画領域選択手段は、
前記重複領域に表示すべき当該仮想オブジェクトについて、
右眼のキャリブレーション・パラメータPrの精度が、左眼のキャリブレーション・パラメータPlの精度よりも高い場合、重複領域に描画するスクリーンとして右眼スクリーンを選択し、
逆に、右眼のキャリブレーション・パラメータPrの精度が、左眼のキャリブレーション・パラメータPlの精度よりも低い場合、重複領域に描画するスクリーンとして左眼スクリーンを選択する。
ことを特徴とする請求項1に記載の画像表示装置。
The drawing area selecting means includes
For the virtual object to be displayed in the overlap area,
When the accuracy of the calibration parameter P r for the right eye is higher than the accuracy of the calibration parameter P l for the left eye, the right eye screen is selected as a screen to be drawn in the overlapping region,
Conversely, when the accuracy of the calibration parameter P r for the right eye is lower than the accuracy of the calibration parameter P l for the left eye, the left eye screen is selected as a screen to be drawn in the overlapping area.
The image display apparatus according to claim 1.
前記重複領域算出手段の逆投影−投影計算は、右眼から右眼スクリーン(又は左眼から左眼スクリーン)の任意点を介して、3次元空間の奥行き位置に逆投影した後、他方の左眼スクリーン(又は右眼スクリーン)に投影する逆投影−投影計算によって、右眼スクリーンの座標系(u,v)と、左眼スクリーンの座標系(u,v)との位置関係を示す、以下の変換行列Hl,rを算出する
Figure 2017107359
s:スケール係数
ことを特徴とする請求項1から3のいずれか1項に記載の画像表示装置。
The back projection-projection calculation of the overlapping area calculation means is performed by performing back projection to a depth position in the three-dimensional space via an arbitrary point from the right eye to the right eye screen (or from the left eye to the left eye screen), and then to the other left Positional relationship between the coordinate system (u r , v r ) of the right eye screen and the coordinate system (u l , v l ) of the left eye screen by back projection-projection calculation that projects onto the eye screen (or right eye screen) Calculate the following transformation matrix H l, r
Figure 2017107359
The image display device according to claim 1, wherein s is a scale factor.
前記重複領域算出手段は、両眼のスクリーンが左右方向のみにずれている場合に、逆投影−投影計算によって、以下の変換行列Hl,rで定義される変位量dを算出する
Figure 2017107359
ことを特徴とする請求項4に記載の画像表示装置。
The overlapping area calculating means calculates a displacement amount d defined by the following transformation matrix H l, r by back projection-projection calculation when the screens of both eyes are displaced only in the left-right direction.
Figure 2017107359
The image display device according to claim 4.
前記重複領域算出手段は、右眼から右眼スクリーン(又は左眼から左眼スクリーン)の任意点を介して、3次元空間の前記奥行き位置に逆投影した後、他方の左眼スクリーン(又は右眼スクリーン)に投影する逆投影−投影計算によって、スクリーン間が左右方向のみにずれている場合に、前記変換行列Hl,rで定義される変位量dを算出する
ことを特徴とする請求項4又は5に記載の画像表示装置。
The overlapping area calculation means performs back projection on the depth position in the three-dimensional space via an arbitrary point from the right eye to the right eye screen (or from the left eye to the left eye screen), and then to the other left eye screen (or right The displacement amount d defined by the transformation matrix H l, r is calculated when the screen is shifted only in the left-right direction by back projection-projection calculation projected onto an eye screen). The image display device according to 4 or 5.
前記重複領域算出手段の逆投影−投影計算は、右眼スクリーンの座標系(u,v)と、左眼スクリーンの座標系(u,v)と、右眼のキャリブレーション・パラメータPrと、左眼のキャリブレーション・パラメータPlと、前記注視点位置取得手段で用いたカメラ座標系(Xc,Yc,Zc)とを用いて、以下の式によって定義し、
Figure 2017107359
s:スケール係数
(u,v)=(0,0)及びZC=Zα(奥行き距離のスカラー値)を代入することで、uを変位量dとして算出するか、
又は、
(u,v)=(0,0)及びZC=Zα(奥行き距離のスカラー値)を代入することで、uを変位量−dとして算出する
ことを特徴とする請求項6に記載の画像表示装置。
The back projection-projection calculation of the overlapping area calculation means includes a right eye screen coordinate system (u r , v r ), a left eye screen coordinate system (u l , v l ), and a right eye calibration parameter. using the P r, a calibration parameter P l of the left eye, the gaze point the camera coordinate system used by the position acquisition unit (Xc, Yc, Zc) and was defined by the following equation,
Figure 2017107359
s: scale factor (u r, v r) = (0,0) and Z C = Z alpha by substituting (scalar value depth distance), or to calculate the u l a displacement d,
Or
(U l, v l) = (0,0) and Z C = Z alpha by substituting (scalar value depth distance), claim and calculates a u r as the displacement amount -d 6 The image display device described in 1.
前記注視点位置取得手段は、可視光カメラを用いる場合、注視点を特定するマーカ画像を予め記憶しており、撮影画像からマーカ画像を検出することによって、以下のように、マーカを配置した世界座標系(Xw,Yw,Zw)からカメラ座標系(Xc,Yc,Zc)への変換行列(位置姿勢パラメータ)Wc,wを算出し、
Figure 2017107359
s:スケール係数
前記注視点位置取得手段は、世界座標系における注視点の座標を、前記変換行列Wc,wを用いてカメラ座標系へ変換し、そのZcを奥行き距離のスカラー値Zαとして算出する
ことを特徴とする請求項1から7のいずれか1項に記載の画像表示装置。
When using the visible light camera, the gazing point position acquisition unit stores in advance a marker image that identifies the gazing point, and detects the marker image from the photographed image, whereby the world in which the marker is arranged is as follows. A transformation matrix (position and orientation parameter) Wc, w from the coordinate system (Xw, Yw, Zw) to the camera coordinate system (Xc, Yc, Zc) is calculated,
Figure 2017107359
s: Scale coefficient The gazing point position acquisition unit converts the coordinates of the gazing point in the world coordinate system into the camera coordinate system using the transformation matrix Wc, w, and calculates Zc as a scalar value Z α of the depth distance. The image display device according to claim 1, wherein the image display device is an image display device.
前記注視点位置取得手段は、前記マーカ画像の領域における重心座標を、前記注視点とする
ことを特徴とする請求項8に記載の画像表示装置。
The image display apparatus according to claim 8, wherein the gazing point position acquisition unit uses a centroid coordinate in an area of the marker image as the gazing point.
前記オブジェクト描画手段は、
仮想オブジェクト毎に、重複領域の描画対象として選択されていない一方のスクリーンにのみ描画し、
左眼スクリーン及び右眼スクリーンの各々の重複領域を、ディスプレイの透過色で塗りつぶし、
仮想オブジェクトを、描画していない他方のスクリーンに描画する
ことを特徴とする請求項1から9のいずれか1項に記載の画像表示装置。
The object drawing means includes
For each virtual object, draw only on one screen that is not selected as the overlap area drawing target,
Fill each overlapping area of the left eye screen and right eye screen with the transparent color of the display,
The image display device according to claim 1, wherein the virtual object is drawn on the other screen that is not drawn.
ユーザの右眼及び左眼の各々の前方に配置され、現実空間を透過して視認可能な光学式シースルー型の両眼のディスプレイを有し、ユーザが注視する実オブジェクトにおける注視点に合わせて、前記ディスプレイに表示すべき仮想オブジェクトを制御する装置に搭載されたコンピュータを機能させるプログラムであって、
カメラから、ユーザの注視点までの奥行き位置を取得する注視点位置取得手段と、
前記ユーザの右眼及び左眼の各々から、前記ディスプレイを通して前記奥行き位置に視認される右眼スクリーン及び左眼スクリーンが交わる重複領域を算出する重複領域算出手段と、
前記重複領域に表示すべき当該仮想オブジェクトに対して、右眼スクリーン又は左眼スクリーンのいずれか一方のみを選択する描画領域選択手段と、
選択された右眼スクリーン又は左眼スクリーンに当該仮想オブジェクトを描画するオブジェクト描画手段と
してコンピュータを機能させることを特徴とするプログラム。
It is arranged in front of each of the user's right eye and left eye, has an optical see-through type binocular display that is visible through the real space, and matches the gazing point in the real object that the user gazes, A program for causing a computer mounted on a device for controlling a virtual object to be displayed on the display to function,
Gazing point position acquisition means for acquiring a depth position from the camera to the user's gazing point;
An overlapping area calculation means for calculating an overlapping area where a right eye screen and a left eye screen viewed at the depth position through the display intersect from each of the user's right eye and left eye;
A drawing area selecting means for selecting only one of the right eye screen and the left eye screen for the virtual object to be displayed in the overlapping area;
A program that causes a computer to function as object drawing means for drawing the virtual object on a selected right-eye screen or left-eye screen.
ユーザの右眼及び左眼の各々の前方に配置され、現実空間を透過して視認可能な光学式シースルー型の両眼のディスプレイを有し、ユーザが注視する実オブジェクトにおける注視点に合わせて、前記ディスプレイに表示すべき仮想オブジェクトを制御する装置の画像表示方法であって、
前記装置は、
カメラから、ユーザの注視点までの奥行き位置を取得する第1のステップと、
前記ユーザの右眼及び左眼の各々から、前記ディスプレイを通して前記奥行き位置に視認される右眼スクリーン及び左眼スクリーンが交わる重複領域を算出する第2のステップと、
前記重複領域に表示すべき当該仮想オブジェクトに対して、右眼スクリーン又は左眼スクリーンのいずれか一方のみを選択する第3のステップと、
選択された右眼スクリーン又は左眼スクリーンに当該仮想オブジェクトを描画する第4のステップと
を実行することを特徴とする装置の画像表示方法。
It is arranged in front of each of the user's right eye and left eye, has an optical see-through type binocular display that is visible through the real space, and matches the gazing point in the real object that the user gazes, An image display method of an apparatus for controlling a virtual object to be displayed on the display,
The device is
A first step of obtaining a depth position from the camera to the user's point of interest;
A second step of calculating, from each of the user's right eye and left eye, an overlapping region where the right eye screen and the left eye screen viewed at the depth position through the display intersect;
A third step of selecting only one of the right eye screen and the left eye screen for the virtual object to be displayed in the overlapping area;
And a fourth step of drawing the virtual object on the selected right-eye screen or left-eye screen.
JP2015239933A 2015-12-09 2015-12-09 Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display Active JP6509101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015239933A JP6509101B2 (en) 2015-12-09 2015-12-09 Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015239933A JP6509101B2 (en) 2015-12-09 2015-12-09 Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display

Publications (2)

Publication Number Publication Date
JP2017107359A true JP2017107359A (en) 2017-06-15
JP6509101B2 JP6509101B2 (en) 2019-05-08

Family

ID=59060787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015239933A Active JP6509101B2 (en) 2015-12-09 2015-12-09 Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display

Country Status (1)

Country Link
JP (1) JP6509101B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020215960A1 (en) * 2019-04-24 2020-10-29 京东方科技集团股份有限公司 Method and device for determining area of gaze, and wearable device
CN112235561A (en) * 2020-10-16 2021-01-15 深圳市时代华影科技股份有限公司 LED display screen, display method and device and computer readable storage medium
CN112735393A (en) * 2020-12-29 2021-04-30 深港产学研基地(北京大学香港科技大学深圳研修院) AR/MR device voice recognition method, device and system
CN114998559A (en) * 2022-06-30 2022-09-02 刘杰 Real-time remote rendering method for mixed reality binocular stereoscopic vision image
CN116027910A (en) * 2023-03-29 2023-04-28 广州视景医疗软件有限公司 Eye bitmap generation method and system based on VR eye movement tracking technology
CN118298342A (en) * 2024-06-03 2024-07-05 中国人民解放军国防科技大学 AR (augmented reality) eyeglass target enhancement method combined with external depth camera

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10333094A (en) * 1996-12-18 1998-12-18 Toyota Motor Corp Stereoscopic image display device, method thereof and recording medium
JP2005128901A (en) * 2003-10-27 2005-05-19 National Institute Of Advanced Industrial & Technology Method and system for displaying image
JP2012221261A (en) * 2011-04-08 2012-11-12 Nintendo Co Ltd Information processing program, information processing method, information processor and information processing system
WO2013145147A1 (en) * 2012-03-28 2013-10-03 パイオニア株式会社 Head mounted display and display method
JP2015032131A (en) * 2013-08-02 2015-02-16 セイコーエプソン株式会社 Display device, head-mounted display device, display system, and control method of display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10333094A (en) * 1996-12-18 1998-12-18 Toyota Motor Corp Stereoscopic image display device, method thereof and recording medium
JP2005128901A (en) * 2003-10-27 2005-05-19 National Institute Of Advanced Industrial & Technology Method and system for displaying image
JP2012221261A (en) * 2011-04-08 2012-11-12 Nintendo Co Ltd Information processing program, information processing method, information processor and information processing system
WO2013145147A1 (en) * 2012-03-28 2013-10-03 パイオニア株式会社 Head mounted display and display method
JP2015032131A (en) * 2013-08-02 2015-02-16 セイコーエプソン株式会社 Display device, head-mounted display device, display system, and control method of display device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020215960A1 (en) * 2019-04-24 2020-10-29 京东方科技集团股份有限公司 Method and device for determining area of gaze, and wearable device
CN112235561A (en) * 2020-10-16 2021-01-15 深圳市时代华影科技股份有限公司 LED display screen, display method and device and computer readable storage medium
CN112235561B (en) * 2020-10-16 2022-07-22 深圳市时代华影科技股份有限公司 LED display screen, display method and device and computer readable storage medium
CN112735393A (en) * 2020-12-29 2021-04-30 深港产学研基地(北京大学香港科技大学深圳研修院) AR/MR device voice recognition method, device and system
CN112735393B (en) * 2020-12-29 2023-11-24 深港产学研基地(北京大学香港科技大学深圳研修院) Method, device and system for speech recognition of AR/MR equipment
CN114998559A (en) * 2022-06-30 2022-09-02 刘杰 Real-time remote rendering method for mixed reality binocular stereoscopic vision image
CN116027910A (en) * 2023-03-29 2023-04-28 广州视景医疗软件有限公司 Eye bitmap generation method and system based on VR eye movement tracking technology
CN116027910B (en) * 2023-03-29 2023-07-04 广州视景医疗软件有限公司 Eye bitmap generation method and system based on VR eye movement tracking technology
CN118298342A (en) * 2024-06-03 2024-07-05 中国人民解放军国防科技大学 AR (augmented reality) eyeglass target enhancement method combined with external depth camera

Also Published As

Publication number Publication date
JP6509101B2 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
JP6747504B2 (en) Information processing apparatus, information processing method, and program
CN110187855B (en) Intelligent adjusting method for near-eye display equipment for avoiding blocking sight line by holographic image
US20220130124A1 (en) Artificial reality system with varifocal display of artificial reality content
JP6195893B2 (en) Shape recognition device, shape recognition program, and shape recognition method
JP6509101B2 (en) Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display
WO2019142560A1 (en) Information processing device for guiding gaze
KR101661991B1 (en) Hmd device and method for supporting a 3d drawing with a mobility in the mixed space
US20150103096A1 (en) Display device, head mount display, calibration method, calibration program and recording medium
KR20170031733A (en) Technologies for adjusting a perspective of a captured image for display
JP6177872B2 (en) I / O device, I / O program, and I / O method
JP6250024B2 (en) Calibration apparatus, calibration program, and calibration method
US11956415B2 (en) Head mounted display apparatus
WO2014128752A1 (en) Display control device, display control program, and display control method
WO2014128751A1 (en) Head mount display apparatus, head mount display program, and head mount display method
JP4580678B2 (en) Gaze point display device
JP6250025B2 (en) I / O device, I / O program, and I / O method
JP6701694B2 (en) Head-mounted display and computer program
JP6446465B2 (en) I / O device, I / O program, and I / O method
CN110895433A (en) Method and apparatus for user interaction in augmented reality
JP2018088604A (en) Image display device, image display method, and system
JP6479835B2 (en) I / O device, I / O program, and I / O method
CN115202475A (en) Display method, display device, electronic equipment and computer-readable storage medium
KR20180000417A (en) See-through type head mounted display apparatus and method of controlling display depth thereof
JP6479836B2 (en) I / O device, I / O program, and I / O method
JP6701693B2 (en) Head-mounted display and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190402

R150 Certificate of patent or registration of utility model

Ref document number: 6509101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150