JP2014206990A - Head-mounted augmented reality video presentation device and virtual display object operation method - Google Patents
Head-mounted augmented reality video presentation device and virtual display object operation method Download PDFInfo
- Publication number
- JP2014206990A JP2014206990A JP2014118657A JP2014118657A JP2014206990A JP 2014206990 A JP2014206990 A JP 2014206990A JP 2014118657 A JP2014118657 A JP 2014118657A JP 2014118657 A JP2014118657 A JP 2014118657A JP 2014206990 A JP2014206990 A JP 2014206990A
- Authority
- JP
- Japan
- Prior art keywords
- image
- head
- virtual
- augmented reality
- display object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims description 19
- 230000006870 function Effects 0.000 claims description 35
- 239000003550 marker Substances 0.000 claims description 32
- 239000002131 composite material Substances 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 13
- 230000002194 synthesizing effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 6
- 239000000203 mixture Substances 0.000 description 5
- 239000010813 municipal solid waste Substances 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000011017 operating method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 201000000195 skin tag Diseases 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ヘッドマウント型の拡張現実映像提示装置に係り、特に、眼前に表示されている仮想表示物をユーザが容易に操作できるヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法に関する。 The present invention relates to a head-mounted augmented reality video presenting apparatus, and more particularly to a head-mounted augmented reality video presenting apparatus and a virtual display object operating method that allows a user to easily manipulate a virtual displayed object displayed in front of the eyes.
拡張現実の映像を提示するソフトウェアが開発され、利用されるようになってきている。例えばカメラ付き携帯電話機用アプリケーションソフトウェアでは、カメラで撮影されたシーンに即した情報(周辺の観光案内等)をネットワーク経由で取得し、この情報の存在を示す仮想表示物(アイコン等)を撮影画像に合成し、携帯電話機の表示画面上に表示する。そして、ユーザが上記仮想表示物をタッチパネル等を用いて表示画面上で選択すると、仮想表示物が拡大し、詳細情報(観光施設の歴史等)を閲覧したり、ローカルの記録領域に情報をコピーしたりできる。また、ユーザ自らが情報を付与した仮想表示物を生成したりすることもできる。 Software that presents augmented reality images has been developed and used. For example, in application software for a mobile phone with a camera, information (such as tourist information around the area) that matches the scene captured by the camera is acquired via the network, and a virtual display object (such as an icon) indicating the presence of this information is captured. And display it on the display screen of the mobile phone. Then, when the user selects the virtual display object on the display screen using a touch panel or the like, the virtual display object is enlarged and detailed information (such as the history of the tourist facility) is browsed or the information is copied to a local recording area. I can do it. In addition, a virtual display object to which information is given by the user himself / herself can be generated.
この様な拡張現実の映像を携帯電話機の小さな表示画面に表示しても、見づらいという問題がある。また、臨場感にも欠ける。そこで、携帯電話機にヘッドマウントディスプレイ装置(HMD)を接続し、撮影映像と仮想表示物を表示させることで、ユーザは、臨場感のある大きく見易い映像を見ることが可能となる。 There is a problem that it is difficult to view such augmented reality video on a small display screen of a mobile phone. It also lacks realism. Therefore, by connecting a head-mounted display device (HMD) to the mobile phone and displaying the captured video and the virtual display object, the user can see a large and easy-to-see video with a sense of reality.
しかし、ヘッドマウントディスプレイ装置を使用すると、ユーザの目が、眼前を覆う表示画面に塞がれてしまい、表示画面中の仮想表示物を携帯電話機で操作することができなくなってしまうという問題が生じる。 However, when the head-mounted display device is used, the user's eyes are blocked by the display screen covering the front of the eyes, and there is a problem that the virtual display object in the display screen cannot be operated with the mobile phone. .
この問題を解決するための手段としては、例えば下記の特許文献1に記載されている様に、ユーザの手にジャイロセンサを取り付けて手の位置をヘッドマウントディスプレイ装置が把握し、表示画面に表示されている仮想空間内に手の画像を表示させることで、手の画像を用いて仮想表示物の操作を行うことが考えられる。あるいは、ヘッドマウントディスプレイ装置の表示画面側に赤外線カメラを取り付け、ユーザの視線を感知して操作指示を出すことも可能である。 As a means for solving this problem, for example, as described in Patent Document 1 below, a gyro sensor is attached to the user's hand so that the head-mounted display device grasps the position of the hand and displays it on the display screen. It is conceivable to operate the virtual display object using the hand image by displaying the hand image in the virtual space. Alternatively, it is also possible to attach an infrared camera to the display screen side of the head mounted display device, and issue an operation instruction by sensing the user's line of sight.
しかしながら、ジャイロセンサ等のセンサ類や赤外線カメラ等の特別な装置を設ける場合、ヘッドマウントディスプレイ装置のコストが嵩み、大がかりな装置構成になってしまうという問題がある。 However, when a sensor such as a gyro sensor or a special device such as an infrared camera is provided, there is a problem that the cost of the head-mounted display device increases, resulting in a large-scale device configuration.
本発明の目的は、高価なセンサ類などの装置を用いることなく、ヘッドマウントディスプレイ装置に表示された仮想表示物を容易に操作することができるヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法を提供することにある。 An object of the present invention is to provide a head-mounted augmented reality video presentation device that can easily operate a virtual display object displayed on a head-mounted display device without using expensive devices such as sensors, and a virtual display object thereof. It is to provide an operation method.
本発明のヘッドマウント型拡張現実映像提示装置は、撮像手段と、上記撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、その合成画像を表示するヘッドマウント型表示手段と、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させる制御手段と、を備えるものである。 The head-mounted augmented reality video presentation apparatus according to the present invention combines an imaging unit and the imaging unit to shoot a pointer image as a part of a subject image and synthesize the subject image and a virtual display object indicating virtual object data. An image composition unit for generating an image, a head-mounted display unit for displaying the composite image, and a virtual display when the distance relationship between the pointer image and the virtual display object in the composite image satisfies a predetermined condition. Control means for causing the virtual object data corresponding to the object to exhibit a function corresponding to the pointer image.
本発明の仮想表示物操作方法は、撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成し、その合成画像をヘッドマウント型表示手段に表示させ、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させるものである。 According to the virtual display object operating method of the present invention, an image capturing unit captures a pointer image as a part of a subject image, generates a composite image by combining the subject image and a virtual display object indicating virtual object data, and generates the composite image. Is displayed on a head-mounted display means, and when the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition, the virtual object data corresponding to the virtual display object is A function corresponding to the pointer image is developed.
本発明によれば、高価なセンサ類などの装置を用いることなく、ヘッドマウント型の表示手段に表示された仮想表示物を直感的に容易に操作することが可能となる。 According to the present invention, it is possible to intuitively and easily operate a virtual display object displayed on a head-mounted display unit without using expensive devices such as sensors.
以下、本発明の一実施形態について、図面を参照して説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の第1実施形態に係るヘッドマウント型拡張現実映像提示装置の機能ブロック図である。本実施形態のヘッドマウント型拡張現実映像提示装置10は、本装置10を統括制御する中央演算処理装置(CPU)11と、CPU11に接続されたバス12とを備える。
FIG. 1 is a functional block diagram of the head-mounted augmented reality video presentation device according to the first embodiment of the present invention. The head-mounted augmented reality
バス12には、カメラ14に接続された撮像制御部15と、メインメモリ16と、カメラ14で撮影された画像信号をデジタル処理する信号処理部17と、撮影レンズ14a及び撮像センサ14bで構成されるカメラ14の位置,姿勢を計測する計測部18と、位置情報を取得するGPS(グローバルポジショニングセンサ)26と、方向情報を取得する地磁気センサ27と、後述する仮想表示物等と撮像センサ14bで撮影され信号処理された映像とを合成する画像合成部19とが接続される。
The
更に、バス12には、アンテナ20を備える通信制御部21と、詳細は後述するポインタ検出認識部22及びポインタ監視部23と、表示画面部(EVF)24が接続された画像表示制御部25とが接続される。
Further, the
このヘッドマウント型拡張現実映像提示装置10は、外部のデータベースとの間で通信制御部21を通して通信を行い、仮想物データを取得する。多数の仮想物データ(テキストデータや画像データ等の様々な情報を含む)が格納されている外部のデータベース30には、仮想物データ検索部31と通信制御部32とアンテナ33とが設けられている。
The head-mounted augmented reality
ヘッドマウント型拡張現実映像提示装置10は、撮像センサ14bが撮影した被写体画像の撮影範囲を、GPS26及び地磁気センサ27で取得した情報を基にカメラ位置,姿勢の計測部18で算出する。そして、被写体画像の撮影範囲に対応する方向や位置のデータを、自身の通信制御部21,アンテナ20を通してデータベース30の通信制御部32に送信する。
The head-mounted augmented reality
仮想物データ検索部31は、受信したデータに基づいて被写体画像の撮影範囲に対応する仮想物データをデータベース30を検索して取得し、検索した仮想物データをヘッドマウント型拡張現実映像提示装置10に返送する。
The virtual object
ヘッドマウント型拡張現実映像提示装置10のCPU11は、受信した仮想物データをアイコン化して画像合成部19に渡し、画像合成部19は、このアイコンを、撮像センサ14bが撮影した画像に仮想表示物として合成し表示画面24に表示する。
The
このヘッドマウント型拡張現実映像提示装置10では、通信制御部21とアンテナ20を内蔵しているが、この2つの機能を、携帯電話機の機能で代用する構成としても良い。
The head-mounted augmented reality
携帯電話機にはカメラが搭載されたものがあるため、ヘッドマウント型拡張現実映像提示装置10の撮像制御部15やカメラ14を、携帯電話機搭載のカメラで代用する構成とすることも可能である。また、GPSセンサ26や地磁気センサ27を携帯電話機搭載のGPSや地磁気センサで代用する構成としても良い。携帯電話機の機能とヘッドマウント型拡張現実映像提示装置10の機能のうち重複する機能(上記の例ではカメラ機能やGPS機能)がある場合、ヘッドマウント型拡張現実映像提示装置10の機能を優先して使用し、特別な指示がユーザから入力されたとき携帯電話機の機能を使用する構成とするのが良い。
Since some mobile phones are equipped with a camera, the
図2は、図1に示すヘッドマウント型拡張現実映像提示装置10の表示画面例を示す図である。カメラ14で撮影した風景が画面24に表示されている。CPU11は、拡張現実(AR)アプリケーションソフトウェアを実行し、上記したように仮想物データベース30から取得した仮想物データのアイコンを、夫々仮想表示物(エアタグともいう。)1a,1b,…で表示する。各エアタグ1a,1b,…は、被写体画像中の夫々が対応する建物等の場所毎に表示される。
FIG. 2 is a diagram illustrating a display screen example of the head-mounted augmented reality
例えば、ここでユーザがエアタグに付与された情報を閲覧するためには、複数個表示されているエアタグから所望のエアタグを表示画面から選択し、閲覧用のアプリケーションソフトウェアを起動する必要がある。このように所望のエアタグに対して特定の機能を発現させるために、ユーザはエアタグとインタラクションをとる必要がある。 For example, in order for the user to browse the information assigned to the air tag here, it is necessary to select a desired air tag from a plurality of displayed air tags on the display screen and to start application software for browsing. Thus, in order to develop a specific function for a desired air tag, the user needs to interact with the air tag.
しかし、ユーザがヘッドマウント型拡張現実映像提示装置10を装着すると、ディスプレイ装置(図1の表示画面)24がユーザの目の付近全体を覆うため、ユーザは自身の手元を見ることができない。このため、タッチパネルの様な装置やハードウェアキーを操作することはできない。
However, when the user wears the head-mounted augmented reality
そこで、本実施形態では、ユーザの指先の画像をカメラ14又は携帯電話機のカメラで撮影し、この指先の画像を、画面24に表示する。カメラ14で指先を撮影する場合には、ユーザは自身の指先をカメラ14の前方(ヘッドマウント型拡張現実映像提示装置10の前方)に掲げ、指先画像2が風景と同時に写るようにする。そして、次に説明する様に、CPU11は、この指先画像2を用いて、AR用のユーザインタフェース処理に移行する。
Therefore, in this embodiment, an image of the user's fingertip is captured by the
図3は、ユーザが自身の指先の画像を携帯電話機のカメラから取り込む様子を示す図である。図1,図2では、カメラ14で風景の画像の指先の画像を取り込んだが、図3では、携帯電話機5付属のカメラで風景の画像と指先の画像を取り込んでいる。そして、携帯電話機5とケーブル接続されたヘッドマウント型拡張現実映像提示装置10のCPU11は、携帯電話機5から送信されてくる画像データを取り込み、表示画面24に表示する。
FIG. 3 is a diagram illustrating how a user captures an image of his / her fingertip from a camera of a mobile phone. 1 and 2, the image of the fingertip of the landscape image is captured by the
図4は、ユーザの指先画像をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、撮影画像を取り込み(ステップS1)、色相を観察して肌色の領域(手,指先)を検出する(ステップS2)。次に、仮想表示物(エアタグ)の配置座標データを取得し(ステップS3)、肌色領域の輪郭とエアタグとの直線距離を算出する(ステップS4)。 FIG. 4 is an explanatory diagram of a user interface processing procedure for operating the air tag using the user's fingertip image as a pointer. First, a captured image is captured (step S1), and the hue is observed to detect a skin color region (hand, fingertip) (step S2). Next, the arrangement coordinate data of the virtual display object (air tag) is acquired (step S3), and the linear distance between the contour of the skin color area and the air tag is calculated (step S4).
これと並行し、前フレームの撮影画像の肌色検出結果(ステップS2a)と今回フレームの肌色検出結果(ステップS2)との差分画像生成し(ステップS5)、肌色領域の動きベクトルを算出する(ステップS6)。 In parallel with this, a difference image between the skin color detection result (step S2a) of the photographed image of the previous frame and the skin color detection result (step S2) of the current frame is generated (step S5), and the motion vector of the skin color region is calculated (step). S6).
ステップS4とステップS6の後は、ステップS7に進み、これまでの演算結果から操作指示がどの様な操作指示であるかを認識すると共に、操作対象のエアタグを認識する。認識方法に関しては後述する。次のステップS8で、操作対象のエアタグに対して上記操作指示に基づく機能を発現する。つまり、操作指示が消去指示であれば、操作対象のエアタグを消去し、ステップS1に戻る。 After step S4 and step S6, the process proceeds to step S7, where the operation instruction is recognized from the calculation results so far and the air tag to be operated is recognized. The recognition method will be described later. In the next step S8, a function based on the operation instruction is developed for the air tag to be operated. That is, if the operation instruction is an erasure instruction, the air tag to be operated is erased, and the process returns to step S1.
ステップS7で、操作対象のエアタグを認識できなかった場合や、操作指示を認識できなかった場合には、ステップS7からステップS1に戻る。 In step S7, when the air tag to be operated cannot be recognized or when the operation instruction cannot be recognized, the process returns from step S7 to step S1.
この様なユーザインタフェース処理を行うことで、ジャイロセンサの様な特別な装置を用いることなく、エアタグの操作が可能となる。 By performing such user interface processing, the air tag can be operated without using a special device such as a gyro sensor.
図5〜図7は、上述した操作指示の説明図であり、図5(a)は、つかむ動作を示し、図5(b)は、離す動作を示している。肌色領域2のフレーム間差分により肌色領域の増加領域と減少領域を計算し、増加領域の面積が一定未満である状態が一定時間継続し、かつ、図5(a)の左図に示す様に、肌色領域(指先画像)2にエアタグ1が2点以上で接している場合、エアタグ1を「つまんだ」とみなし、以後、図5(a)の右図に示す様に、エアタグ1を指先画像2の移動に追従させて移動させる。あるいは、肌色領域2が一定以上エアタグ1に近いとき「つまんだ」とみなしても良い。
5 to 7 are explanatory diagrams of the above-described operation instruction. FIG. 5 (a) shows a grasping operation, and FIG. 5 (b) shows a releasing operation. The increase area and decrease area of the skin color area are calculated based on the inter-frame difference of the
エアタグ1を「つまんだ」状態から(図5(b)左図)、図5(b)の右図に示す様に、肌色領域2を一定以上の速度で移動させると、エアタグ1を「離した」とみなし、エアタグ1を肌色領域2に対して追従させない。
When the
図6は、エアタグ1を廃棄(消去)させる操作指示の説明図である。エアタグ1をつまんだ状態で指先画像2の移動に追従させて移動させ、機能を発現させるアイコン、この場合には廃棄させるゴミ箱アイコン4にエアタグ1を重ねることで、エアタグ1を廃棄する。
FIG. 6 is an explanatory diagram of an operation instruction for discarding (erasing) the air tag 1. The air tag 1 is discarded by superimposing the air tag 1 on an icon for expressing the function, in this case, the
図7は、エアタグ1を手で払いのける動作を行う説明図である。手の全体をカメラで写し、肌色領域2が一定以上の速度で移動し、移動した経路途中にエアタグ1が存在した場合、エアタグ1は、肌色領域2の移動速度,方向に応じた速度,向きに吹き飛ぶ様にする。
FIG. 7 is an explanatory diagram for performing an operation of removing the air tag 1 by hand. When the entire skin is photographed with a camera, the
即ち、肌色領域2の撮像画像フレーム間差分により、肌色領域の増加領域と減少領域を計算し、増加領域の面積が一定以上かつエアタグがその増加領域にある場合はエアタグに対して作用力を生じさせる。若しくは、増加領域の中心座標と減少領域の中心座標を結んだ線分の延長線上かつ減少領域から増加領域に向かう方向にエアタグがある場合はエアタグに対して作用力を生じさせる。
That is, an increase area and a decrease area of the flesh color area are calculated based on the difference between the captured image frames of the
作用力は、以下のパラメータ、即ち、増加領域の面積(大きいほど作用力が大きい)、増加領域の中心座標と減少領域の中心座標を結んだ線分の方向(作用力の力ベクトル)に依存させる。この様なプロセスでユーザのエアタグを払う動作を認識し、エアタグに作用力を与える。 The acting force depends on the following parameters: the area of the increasing region (the larger the acting force is), the direction of the line segment connecting the center coordinates of the increasing region and the center coordinate of the decreasing region (force vector of the acting force) Let In this process, the user's action of removing the air tag is recognized, and an acting force is applied to the air tag.
この様に、ユーザは、ジェスチャーの様に自身の手や指先を動作させることで、様々な機能をエアタグに対して発現させることができる。 Thus, the user can express various functions to the air tag by operating his / her hand or fingertip like a gesture.
上述した実施形態では、ユーザが自身の手や指先の画像をポインタとしてエアタグを操作したが、指先等の他に別のものをポインタとして利用することができる。 In the above-described embodiment, the user operates the air tag using an image of his / her hand or fingertip as a pointer, but other than the fingertip or the like, another can be used as a pointer.
図8は、スティック状のマーカのカメラ撮影画像をポインタとする例を示している。マーカ6を携帯電話機5のカメラで撮影し、この撮影画像をヘッドマウント型拡張現実映像提示装置10に送り、これをポインタとして使用する。マーカ6には、二次元の幾何学パターンが記載されている。図示する例では、「ダウンロード」を意味するパターン、即ち、箱内にものを取り込む矢印が記載されている。
FIG. 8 shows an example in which a camera-captured image of a stick-shaped marker is used as a pointer. The
図9は、図8で示したマーカ画像6をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、マーカ画像6をカメラから取り込む(ステップS11)。そして、次のステップS12で、マーカ画像6の輝度成分を2値化した後、予め登録しておいたマーカの画像とのテンプレートマッチングによりマーカ画像6の検出,認識を行うと共に、認識したマーカについてカメラとの相対的な位置,姿勢を算出する。
FIG. 9 is an explanatory diagram of a user interface processing procedure for operating the air tag using the
次のステップS13では、エアタグ1の配置座標データを取得し、ステップS14で、マーカ画像6の中心とエアタグ1との距離を算出する。
In the next step S13, the arrangement coordinate data of the air tag 1 is acquired, and in step S14, the distance between the center of the
これと並行してステップS15では前フレームの撮影画像のマーカの位置,姿勢データを保持しておき、ステップS16で、ステップS15で保持しているマーカの位置,姿勢データとステップS12の今回フレームにおけるマーカの位置,姿勢データとの差分からマーカ画像6の動きベクトルを算出する。
In parallel with this, in step S15, the marker position and orientation data of the captured image of the previous frame are held, and in step S16, the marker position and orientation data held in step S15 and the current frame in step S12 are stored. The motion vector of the
そして、このマーカ画像の動きベクトルと、ステップS14で求めたマーカ画像中心とエアタグとの距離とにより、ユーザが操作対象としているエアタグがどのエアタグであるか認識すると共に、操作指示の認識も行う(ステップS17)。 Then, based on the motion vector of the marker image and the distance between the marker image center and the air tag obtained in step S14, the air tag that is the operation target of the user is recognized and the operation instruction is also recognized ( Step S17).
次のステップS18では、ステップS17の認識結果に基づいて操作対象のエアタグに対して機能を発現し、ステップS11に戻る。ステップS17でいずれかの認識が不可となった場合には、ステップS11に戻る。 In the next step S18, the function is developed for the air tag to be operated based on the recognition result in step S17, and the process returns to step S11. If any of the recognition is disabled in step S17, the process returns to step S11.
これにより、特別な装置を用いずに直感的な操作でエアタグを操作することが可能となる。 Thereby, it becomes possible to operate an air tag by intuitive operation, without using a special apparatus.
図10は、マーカ画像6を用いた操作指示の説明図である。エアタグ1をダウンロードしたい場合には、エアタグ1にマーカ画像6を近づけ、一定時間接近させ、あるいは両者を重ねる。これにより、エアタグ1に対応するデータがダウンロードされる。
FIG. 10 is an explanatory diagram of an operation instruction using the
マーカ画像は平面の台紙の表裏に夫々パターンが描かれており、夫々に異なる機能が関連付けられている。マーカ画像6の裏には、ゴミ箱パターンが描かれており、ゴミ箱パターン側がカメラ側に向けて撮影すると、図11に示す様な状態となる。そして、このゴミ箱パターンを該当エアタグに近づけて一定時間接近させることで、このエアタグを廃棄することができる。
Each marker image has a pattern drawn on the front and back of a flat mount, and each has a different function associated with it. A trash can pattern is drawn on the back of the
上記例では、マーカの2つのパターンについて述べたが、その他に様々な機能に対応するパターンを用意しておけば、様々な機能を実現できる。マーカは平面の台紙だけでなく、多面体の台紙に複数配置されても良い。また、液晶ディスプレイの様な表示デバイスに様々な機能を示すパターンをユーザの指示で切替表示させる構成としても良い。 In the above example, the two patterns of the marker have been described. However, if other patterns corresponding to various functions are prepared, various functions can be realized. A plurality of markers may be arranged not only on a flat mount but also on a polyhedral mount. Further, a configuration may be adopted in which patterns indicating various functions are switched and displayed by a user instruction on a display device such as a liquid crystal display.
この様な構成により、様々な機能をエアタグに対して発現させることが可能となる。 With such a configuration, various functions can be expressed on the air tag.
図12は、ポインタとして、スティックの先に取り付けた発光体(LED)をポインタとする例であり、このLED7を携帯電話機のカメラで撮影し、ヘッドマウント型拡張現実映像提示装置10に送る。
FIG. 12 shows an example in which a light emitting body (LED) attached to the tip of a stick is used as a pointer. The
図13は、図12で示したLED画像7をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、LED画像7をカメラから取り込む(ステップS21)。そして、次のステップS22で、LED画像7の輝度成分を2値化した後、LED点光源を検出する。このとき、検出したLED点光源の色成分や発光パターンを認識しても良い。その後、ステップS23でエアタグ1の配置座標データを取得し、ステップS24で、LED点光源7とエアタグ1との距離を算出する。
FIG. 13 is an explanatory diagram of a user interface processing procedure for operating the air tag using the
これと並行してステップS25では前フレームの撮影画像におけるLED点光源の位置を保持し、ステップS26で、今回フレームの撮影画像との差分からLED点光源7の動きベクトルを算出する。この動きベクトルと、ステップS24で求めた距離とにより、ユーザが操作対象としているエアタグがどのエアタグであるか認識すると共に、操作指示の認識も行う(ステップS27)。
In parallel with this, in step S25, the position of the LED point light source in the captured image of the previous frame is held, and in step S26, the motion vector of the LED point
次のステップS28では、ステップS27の認識結果に基づいて操作対象のエアタグに対して機能を発現し、ステップS21に戻る。ステップS27でいずれかの認識が不可となった場合には、ステップS21に戻る。 In the next step S28, the function is developed for the air tag to be operated based on the recognition result in step S27, and the process returns to step S21. If any of the recognition is disabled in step S27, the process returns to step S21.
これにより、直感的な操作によりエアタグの操作を行うことができる。 Thereby, an air tag can be operated by intuitive operation.
図14,図15は、LED点光源を用いた操作指示の説明図である。本実施形態で用いるLED点光源は、ユーザの指示により発光色を黄色,赤色に変更可能となっており、色毎に発現機能を変えている。色ではなく、発光パターン(例えば点滅速度)を変えて発現機能を変える様にしても良い。色と発光パターンの組合せで発現機能を変えても良い。 14 and 15 are explanatory diagrams of operation instructions using an LED point light source. The LED point light source used in the present embodiment can change the emission color to yellow or red according to a user instruction, and the expression function is changed for each color. The expression function may be changed by changing the light emission pattern (for example, blinking speed) instead of the color. You may change an expression function with the combination of a color and a light emission pattern.
LED点光源7の発光色を黄色にし、図14に示す様に、エアタグ1にLED点光源を近づけ、一定時間接近状態を保つ。これにより、このエアタグに対応したアプリケーションソフトが実行される。
The light emission color of the LED point
LED点光源7の発光色を赤色にし、図15に示すように、エアタグ1にLED点光源を近づけ、一定時間接近状態を保つ。これにより、エアタグが別のエアタグに置き換えられる。
The emission color of the LED point
本実施形態によれば、LED点光源を動かすだけで、様々な機能をエアタグに対して発現させることが可能となる。 According to the present embodiment, various functions can be expressed with respect to the air tag only by moving the LED point light source.
以上述べた様に、本明細書には以下の事項が開示されている。 As described above, the following items are disclosed in this specification.
開示されたヘッドマウント型拡張現実映像提示装置は、撮像手段と、上記撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、その合成画像を表示するヘッドマウント型表示手段と、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させる制御手段と、を備えるものである。 The disclosed head-mounted augmented reality video presentation apparatus combines an imaging unit and the imaging unit to capture a pointer image as a part of a subject image and synthesize the subject image with a virtual display object indicating virtual object data. An image composition unit for generating an image, a head-mounted display unit for displaying the composite image, and a virtual display when the distance relationship between the pointer image and the virtual display object in the composite image satisfies a predetermined condition. Control means for causing the virtual object data corresponding to the object to exhibit a function corresponding to the pointer image.
開示されたヘッドマウント型拡張現実映像提示装置は、上記ポインタ画像はマーカの画像であり、そのマーカには、上記仮想物データに対する上記機能の内容を識別する二次元幾何学パターンが表示されているものである。 In the disclosed head-mounted augmented reality video presentation device, the pointer image is a marker image, and a two-dimensional geometric pattern for identifying the content of the function for the virtual object data is displayed on the marker. Is.
開示されたヘッドマウント型拡張現実映像提示装置は、上記ポインタ画像は点光源の画像であり、異なる上記機能を上記点光源の発光色または発光パターンで識別するものである。 In the disclosed head-mounted augmented reality video presentation device, the pointer image is an image of a point light source, and the different functions are identified by the light emission color or light emission pattern of the point light source.
開示されたヘッドマウント型拡張現実映像提示装置は、上記制御手段は、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たす状態が一定時間継続したとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させるものである。 In the disclosed head-mounted augmented reality video presenting device, the control means is configured such that when the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition for a predetermined time, A function corresponding to the pointer image is developed for the virtual object data corresponding to the display object.
開示されたデータベースは、上記ヘッドマウント型拡張現実映像提示装置と通信可能であり、上記仮想物データを格納するものである。 The disclosed database is communicable with the head-mounted augmented reality video presentation device, and stores the virtual object data.
開示された仮想表示物操作方法は、撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成し、その合成画像をヘッドマウント型表示手段に表示させ、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させるものである。 According to the disclosed virtual display object operating method, an imaging unit captures a pointer image as a part of a subject image, generates a composite image by combining the subject image and a virtual display object indicating virtual object data, and generates the composite image. Is displayed on a head-mounted display means, and when the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition, the virtual object data corresponding to the virtual display object is A function corresponding to the pointer image is developed.
上記マーカの画像は多面体の画像であり、その多面体の各面に異なる上記二次元幾何学パターンが表示されていてもよい。 The marker image may be a polyhedron image, and different two-dimensional geometric patterns may be displayed on each surface of the polyhedron.
上記マーカは表示手段であり、その表示手段に表示する上記二次元幾何学パターンが複数種類用意され切換表示されてもよい。 The marker is a display means, and a plurality of types of the two-dimensional geometric patterns to be displayed on the display means may be prepared and switched.
以上述べた各実施形態によれば、ユーザの目がヘッドマウント型の表示画面で覆われユーザが自身の手元を視認できなくても、特別なセンサ類等なしで合成画像中の仮想表示物を操作することが可能となる。 According to each embodiment described above, even if the user's eyes are covered with a head-mounted display screen and the user cannot visually recognize his / her hand, the virtual display object in the composite image can be displayed without special sensors. It becomes possible to operate.
本発明に係るヘッドマウント型拡張現実映像提示装置は、ヘッドマウントディスプレイ装置で拡張現実映像を表示させている最中に、高価なポインタ装置を用いなくても映像中の仮想表示物を容易に操作することができるため、ヘッドマウント型拡張現実映像提示装置の普及を図るのに有用である。 The head-mounted augmented reality video presentation device according to the present invention easily manipulates a virtual display object in a video without using an expensive pointer device while displaying the augmented reality video on the head-mounted display device. Therefore, it is useful for spreading the head mounted augmented reality video presentation device.
1,1a,1b 仮想表示物(エアタグ)
2 ユーザの指先画像
5 携帯電話機
6 マーカ画像
7 LED点光源画像
10 ヘッドマウンド型拡張現実映像提示装置
11 CPU
14 内蔵カメラ
19 画像合成部
21 内蔵通信制御部
22 ポインタ検出認識部
23 ポインタ監視部
24 表示画面
26 GPS
27 地磁気センサ
30 仮想物データベース
31 仮想物データ検索部
1, 1a, 1b Virtual display object (air tag)
2
14 Built-in
27
Claims (6)
前記撮像手段に被写体画像の一部としてポインタ画像を撮影させ該被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、
該合成画像を表示するヘッドマウント型表示手段と、
前記合成画像中の前記ポインタ画像と前記仮想表示物との距離関係が所定条件を満たしたとき、該仮想表示物に対応する前記仮想物データに対し、前記ポインタ画像に応じた機能を発現させる制御手段と、を備えるヘッドマウント型拡張現実映像提示装置。 Imaging means;
Image synthesizing means for causing the imaging means to capture a pointer image as a part of the subject image and synthesizing the subject image and a virtual display object indicating virtual object data to generate a synthesized image;
Head-mounted display means for displaying the composite image;
Control that causes the virtual object data corresponding to the virtual display object to exhibit a function corresponding to the pointer image when the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition And a head-mounted augmented reality video presentation device.
前記ポインタ画像はマーカの画像であり、該マーカには、前記仮想物データに対する前記機能の内容を識別する二次元幾何学パターンが表示されているヘッドマウント型拡張現実映像提示装置。 The head-mounted augmented reality video presentation device according to claim 1,
The head-mounted augmented reality video presentation device in which the pointer image is a marker image, and a two-dimensional geometric pattern for identifying the function content for the virtual object data is displayed on the marker.
前記ポインタ画像は点光源の画像であり、異なる前記機能を前記点光源の発光色または発光パターンで識別するヘッドマウント型拡張現実映像提示装置。 The head-mounted augmented reality video presentation device according to claim 1,
The pointer image is an image of a point light source, and is a head-mounted augmented reality video presentation device that identifies different functions by the light emission color or light emission pattern of the point light source.
前記制御手段は、前記合成画像中の前記ポインタ画像と前記仮想表示物との距離関係が所定条件を満たす状態が一定時間継続したとき、該仮想表示物に対応する前記仮想物データに対し、前記ポインタ画像に応じた機能を発現させるヘッドマウント型拡張現実映像提示装置。 The head-mounted augmented reality video presentation device according to any one of claims 1 to 3,
When the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition for a certain period of time, the control means, for the virtual object data corresponding to the virtual display object, A head-mounted augmented reality video presentation device that develops a function corresponding to a pointer image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014118657A JP5932889B2 (en) | 2014-06-09 | 2014-06-09 | Head mounted augmented reality video presentation device and virtual display object operating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014118657A JP5932889B2 (en) | 2014-06-09 | 2014-06-09 | Head mounted augmented reality video presentation device and virtual display object operating method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010065210A Division JP5564300B2 (en) | 2010-03-19 | 2010-03-19 | Head mounted augmented reality video presentation device and virtual display object operating method thereof |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016090435A Division JP2016154044A (en) | 2016-04-28 | 2016-04-28 | Head mount type augmented reality video presentation device and virtual display object operation method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014206990A true JP2014206990A (en) | 2014-10-30 |
JP5932889B2 JP5932889B2 (en) | 2016-06-08 |
Family
ID=52120444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014118657A Active JP5932889B2 (en) | 2014-06-09 | 2014-06-09 | Head mounted augmented reality video presentation device and virtual display object operating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5932889B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020031490A1 (en) * | 2018-08-08 | 2020-02-13 | 株式会社Nttドコモ | Terminal device and method for controlling terminal device |
WO2020031493A1 (en) * | 2018-08-08 | 2020-02-13 | 株式会社Nttドコモ | Terminal device and method for controlling terminal device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06301475A (en) * | 1993-04-14 | 1994-10-28 | Casio Comput Co Ltd | Position detecting device |
JPH086708A (en) * | 1994-04-22 | 1996-01-12 | Canon Inc | Display device |
JPH08315154A (en) * | 1995-02-21 | 1996-11-29 | Mitsubishi Electric Res Lab Inc | Gesture recognition system |
JP2000098871A (en) * | 1998-09-28 | 2000-04-07 | Sony Corp | Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium |
JP2004021931A (en) * | 2002-06-20 | 2004-01-22 | West Unitis Kk | Work guidance system |
JP2010026818A (en) * | 2008-07-18 | 2010-02-04 | Geisha Tokyo Entertainment Inc | Image processing program, image processor, and image processing method |
-
2014
- 2014-06-09 JP JP2014118657A patent/JP5932889B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06301475A (en) * | 1993-04-14 | 1994-10-28 | Casio Comput Co Ltd | Position detecting device |
JPH086708A (en) * | 1994-04-22 | 1996-01-12 | Canon Inc | Display device |
JPH08315154A (en) * | 1995-02-21 | 1996-11-29 | Mitsubishi Electric Res Lab Inc | Gesture recognition system |
JP2000098871A (en) * | 1998-09-28 | 2000-04-07 | Sony Corp | Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium |
JP2004021931A (en) * | 2002-06-20 | 2004-01-22 | West Unitis Kk | Work guidance system |
JP2010026818A (en) * | 2008-07-18 | 2010-02-04 | Geisha Tokyo Entertainment Inc | Image processing program, image processor, and image processing method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020031490A1 (en) * | 2018-08-08 | 2020-02-13 | 株式会社Nttドコモ | Terminal device and method for controlling terminal device |
WO2020031493A1 (en) * | 2018-08-08 | 2020-02-13 | 株式会社Nttドコモ | Terminal device and method for controlling terminal device |
JPWO2020031490A1 (en) * | 2018-08-08 | 2021-08-02 | 株式会社Nttドコモ | Terminal device and control method of terminal device |
JPWO2020031493A1 (en) * | 2018-08-08 | 2021-08-12 | 株式会社Nttドコモ | Terminal device and control method of terminal device |
JP6999822B2 (en) | 2018-08-08 | 2022-01-19 | 株式会社Nttドコモ | Terminal device and control method of terminal device |
JP6999821B2 (en) | 2018-08-08 | 2022-02-04 | 株式会社Nttドコモ | Terminal device and control method of terminal device |
Also Published As
Publication number | Publication date |
---|---|
JP5932889B2 (en) | 2016-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5564300B2 (en) | Head mounted augmented reality video presentation device and virtual display object operating method thereof | |
US10198870B2 (en) | Information processing apparatus, information processing system, and information processing method | |
US11557134B2 (en) | Methods and systems for training an object detection algorithm using synthetic images | |
US10175492B2 (en) | Systems and methods for transition between augmented reality and virtual reality | |
US10489981B2 (en) | Information processing device, information processing method, and program for controlling display of a virtual object | |
US9972136B2 (en) | Method, system and device for navigating in a virtual reality environment | |
EP2972672B1 (en) | Detection of a gesture performed with at least two control objects | |
US10474411B2 (en) | System and method for alerting VR headset user to real-world objects | |
US20160314624A1 (en) | Systems and methods for transition between augmented reality and virtual reality | |
US11170580B2 (en) | Information processing device, information processing method, and recording medium | |
JP6586834B2 (en) | Work support method, work support program, and work support system | |
WO2014016987A1 (en) | Three-dimensional user-interface device, and three-dimensional operation method | |
CN107646098A (en) | System for tracking portable equipment in virtual reality | |
JP6390799B2 (en) | Input device, input method, and program | |
US11393177B2 (en) | Information processing apparatus, information processing method, and program | |
US20210407213A1 (en) | Augmented reality eyewear with 3d costumes | |
WO2014111947A1 (en) | Gesture control in augmented reality | |
JP5932889B2 (en) | Head mounted augmented reality video presentation device and virtual display object operating method | |
KR20160000986A (en) | Virtual Reality System using of Mixed reality, and thereof implementation method | |
US20220244788A1 (en) | Head-mounted display | |
CN114115544B (en) | Man-machine interaction method, three-dimensional display device and storage medium | |
JP2016154044A (en) | Head mount type augmented reality video presentation device and virtual display object operation method thereof | |
JP5907034B2 (en) | Work assistance system and program | |
GB2582106A (en) | Display device and display device control method | |
KR20110049024A (en) | Charactor controll apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150804 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5932889 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |