[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014206990A - Head-mounted augmented reality video presentation device and virtual display object operation method - Google Patents

Head-mounted augmented reality video presentation device and virtual display object operation method Download PDF

Info

Publication number
JP2014206990A
JP2014206990A JP2014118657A JP2014118657A JP2014206990A JP 2014206990 A JP2014206990 A JP 2014206990A JP 2014118657 A JP2014118657 A JP 2014118657A JP 2014118657 A JP2014118657 A JP 2014118657A JP 2014206990 A JP2014206990 A JP 2014206990A
Authority
JP
Japan
Prior art keywords
image
head
virtual
augmented reality
display object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014118657A
Other languages
Japanese (ja)
Other versions
JP5932889B2 (en
Inventor
宗之 大島
Muneyuki Oshima
宗之 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2014118657A priority Critical patent/JP5932889B2/en
Publication of JP2014206990A publication Critical patent/JP2014206990A/en
Application granted granted Critical
Publication of JP5932889B2 publication Critical patent/JP5932889B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a virtual display object in a synthesized image to be operated without using a touch panel or the like.SOLUTION: In a head-mounted augmented reality video presentation device for displaying a virtual display object in a subject image, a pointer image 2 is photographed as a part of the subject image, and the subject image and a virtual display object 1b representing virtual object data are synthesized to display a synthesized image. When distance relationship between the pointer image 2 and the virtual display object 1b in the synthesized image satisfies a prescribed condition, a required function is revealed for the virtual object data corresponding to the virtual display object 1b.

Description

本発明は、ヘッドマウント型の拡張現実映像提示装置に係り、特に、眼前に表示されている仮想表示物をユーザが容易に操作できるヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法に関する。   The present invention relates to a head-mounted augmented reality video presenting apparatus, and more particularly to a head-mounted augmented reality video presenting apparatus and a virtual display object operating method that allows a user to easily manipulate a virtual displayed object displayed in front of the eyes.

拡張現実の映像を提示するソフトウェアが開発され、利用されるようになってきている。例えばカメラ付き携帯電話機用アプリケーションソフトウェアでは、カメラで撮影されたシーンに即した情報(周辺の観光案内等)をネットワーク経由で取得し、この情報の存在を示す仮想表示物(アイコン等)を撮影画像に合成し、携帯電話機の表示画面上に表示する。そして、ユーザが上記仮想表示物をタッチパネル等を用いて表示画面上で選択すると、仮想表示物が拡大し、詳細情報(観光施設の歴史等)を閲覧したり、ローカルの記録領域に情報をコピーしたりできる。また、ユーザ自らが情報を付与した仮想表示物を生成したりすることもできる。   Software that presents augmented reality images has been developed and used. For example, in application software for a mobile phone with a camera, information (such as tourist information around the area) that matches the scene captured by the camera is acquired via the network, and a virtual display object (such as an icon) indicating the presence of this information is captured. And display it on the display screen of the mobile phone. Then, when the user selects the virtual display object on the display screen using a touch panel or the like, the virtual display object is enlarged and detailed information (such as the history of the tourist facility) is browsed or the information is copied to a local recording area. I can do it. In addition, a virtual display object to which information is given by the user himself / herself can be generated.

この様な拡張現実の映像を携帯電話機の小さな表示画面に表示しても、見づらいという問題がある。また、臨場感にも欠ける。そこで、携帯電話機にヘッドマウントディスプレイ装置(HMD)を接続し、撮影映像と仮想表示物を表示させることで、ユーザは、臨場感のある大きく見易い映像を見ることが可能となる。   There is a problem that it is difficult to view such augmented reality video on a small display screen of a mobile phone. It also lacks realism. Therefore, by connecting a head-mounted display device (HMD) to the mobile phone and displaying the captured video and the virtual display object, the user can see a large and easy-to-see video with a sense of reality.

しかし、ヘッドマウントディスプレイ装置を使用すると、ユーザの目が、眼前を覆う表示画面に塞がれてしまい、表示画面中の仮想表示物を携帯電話機で操作することができなくなってしまうという問題が生じる。   However, when the head-mounted display device is used, the user's eyes are blocked by the display screen covering the front of the eyes, and there is a problem that the virtual display object in the display screen cannot be operated with the mobile phone. .

この問題を解決するための手段としては、例えば下記の特許文献1に記載されている様に、ユーザの手にジャイロセンサを取り付けて手の位置をヘッドマウントディスプレイ装置が把握し、表示画面に表示されている仮想空間内に手の画像を表示させることで、手の画像を用いて仮想表示物の操作を行うことが考えられる。あるいは、ヘッドマウントディスプレイ装置の表示画面側に赤外線カメラを取り付け、ユーザの視線を感知して操作指示を出すことも可能である。   As a means for solving this problem, for example, as described in Patent Document 1 below, a gyro sensor is attached to the user's hand so that the head-mounted display device grasps the position of the hand and displays it on the display screen. It is conceivable to operate the virtual display object using the hand image by displaying the hand image in the virtual space. Alternatively, it is also possible to attach an infrared camera to the display screen side of the head mounted display device, and issue an operation instruction by sensing the user's line of sight.

しかしながら、ジャイロセンサ等のセンサ類や赤外線カメラ等の特別な装置を設ける場合、ヘッドマウントディスプレイ装置のコストが嵩み、大がかりな装置構成になってしまうという問題がある。   However, when a sensor such as a gyro sensor or a special device such as an infrared camera is provided, there is a problem that the cost of the head-mounted display device increases, resulting in a large-scale device configuration.

特開2003―337962号公報Japanese Patent Laid-Open No. 2003-337962

本発明の目的は、高価なセンサ類などの装置を用いることなく、ヘッドマウントディスプレイ装置に表示された仮想表示物を容易に操作することができるヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法を提供することにある。   An object of the present invention is to provide a head-mounted augmented reality video presentation device that can easily operate a virtual display object displayed on a head-mounted display device without using expensive devices such as sensors, and a virtual display object thereof. It is to provide an operation method.

本発明のヘッドマウント型拡張現実映像提示装置は、撮像手段と、上記撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、その合成画像を表示するヘッドマウント型表示手段と、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させる制御手段と、を備えるものである。   The head-mounted augmented reality video presentation apparatus according to the present invention combines an imaging unit and the imaging unit to shoot a pointer image as a part of a subject image and synthesize the subject image and a virtual display object indicating virtual object data. An image composition unit for generating an image, a head-mounted display unit for displaying the composite image, and a virtual display when the distance relationship between the pointer image and the virtual display object in the composite image satisfies a predetermined condition. Control means for causing the virtual object data corresponding to the object to exhibit a function corresponding to the pointer image.

本発明の仮想表示物操作方法は、撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成し、その合成画像をヘッドマウント型表示手段に表示させ、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させるものである。   According to the virtual display object operating method of the present invention, an image capturing unit captures a pointer image as a part of a subject image, generates a composite image by combining the subject image and a virtual display object indicating virtual object data, and generates the composite image. Is displayed on a head-mounted display means, and when the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition, the virtual object data corresponding to the virtual display object is A function corresponding to the pointer image is developed.

本発明によれば、高価なセンサ類などの装置を用いることなく、ヘッドマウント型の表示手段に表示された仮想表示物を直感的に容易に操作することが可能となる。   According to the present invention, it is possible to intuitively and easily operate a virtual display object displayed on a head-mounted display unit without using expensive devices such as sensors.

本発明の一実施形態に係るヘッドマウント型拡張現実映像提示装置の機能ブロック図である。1 is a functional block diagram of a head-mounted augmented reality video presentation device according to an embodiment of the present invention. 図1に示す表示画面に表示される画像例を示す図である。It is a figure which shows the example of an image displayed on the display screen shown in FIG. 別実施形態に係る指先画像の取り込み例を示す図である。It is a figure which shows the example of taking in the fingertip image which concerns on another embodiment. 指先画像をポインタ画像としたときの操作手順を示す図である。It is a figure which shows the operation procedure when making a fingertip image into a pointer image. 指先画像を用いた操作例の説明図である。It is explanatory drawing of the example of operation using a fingertip image. 指先画像を用いた別の操作例を説明する図である。It is a figure explaining another example of operation using a fingertip picture. 手の画像を用いた別の操作例を説明する図である。It is a figure explaining another example of operation using a hand picture. マーカ画像をポインタ画像として取り込む図である。It is a figure which takes in a marker image as a pointer image. マーカ画像をポインタ画像としたときの操作手順を示す図である。It is a figure which shows the operation procedure when making a marker image into a pointer image. マーカ画像を用いた操作例の説明図である。It is explanatory drawing of the example of operation using a marker image. マーカ画像を用いた別の操作例の説明図である。It is explanatory drawing of another example of operation using a marker image. 点光源画像をポインタ画像として取り込む図である。It is a figure which takes in a point light source image as a pointer image. 点光源画像をポインタ画像としたときの操作手順を示す図である。It is a figure which shows the operation procedure when making a point light source image into a pointer image. 点光源画像を用いた操作例の説明図である。It is explanatory drawing of the example of operation using a point light source image. 点光源画像を用いた別の操作例を説明する図である。It is a figure explaining another example of operation using a point light source image.

以下、本発明の一実施形態について、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の第1実施形態に係るヘッドマウント型拡張現実映像提示装置の機能ブロック図である。本実施形態のヘッドマウント型拡張現実映像提示装置10は、本装置10を統括制御する中央演算処理装置(CPU)11と、CPU11に接続されたバス12とを備える。   FIG. 1 is a functional block diagram of the head-mounted augmented reality video presentation device according to the first embodiment of the present invention. The head-mounted augmented reality video presentation device 10 according to the present embodiment includes a central processing unit (CPU) 11 that performs overall control of the device 10 and a bus 12 connected to the CPU 11.

バス12には、カメラ14に接続された撮像制御部15と、メインメモリ16と、カメラ14で撮影された画像信号をデジタル処理する信号処理部17と、撮影レンズ14a及び撮像センサ14bで構成されるカメラ14の位置,姿勢を計測する計測部18と、位置情報を取得するGPS(グローバルポジショニングセンサ)26と、方向情報を取得する地磁気センサ27と、後述する仮想表示物等と撮像センサ14bで撮影され信号処理された映像とを合成する画像合成部19とが接続される。   The bus 12 includes an imaging control unit 15 connected to the camera 14, a main memory 16, a signal processing unit 17 that digitally processes an image signal captured by the camera 14, a photographic lens 14a, and an imaging sensor 14b. A measurement unit 18 that measures the position and orientation of the camera 14, a GPS (global positioning sensor) 26 that acquires position information, a geomagnetic sensor 27 that acquires direction information, a virtual display object and the like, which will be described later, and an imaging sensor 14b. An image synthesis unit 19 that synthesizes the video that has been shot and signal processed is connected.

更に、バス12には、アンテナ20を備える通信制御部21と、詳細は後述するポインタ検出認識部22及びポインタ監視部23と、表示画面部(EVF)24が接続された画像表示制御部25とが接続される。   Further, the bus 12 includes a communication control unit 21 including an antenna 20, a pointer detection recognition unit 22 and a pointer monitoring unit 23, which will be described in detail later, and an image display control unit 25 to which a display screen unit (EVF) 24 is connected. Is connected.

このヘッドマウント型拡張現実映像提示装置10は、外部のデータベースとの間で通信制御部21を通して通信を行い、仮想物データを取得する。多数の仮想物データ(テキストデータや画像データ等の様々な情報を含む)が格納されている外部のデータベース30には、仮想物データ検索部31と通信制御部32とアンテナ33とが設けられている。   The head-mounted augmented reality video presentation device 10 communicates with an external database through the communication control unit 21 to acquire virtual object data. An external database 30 in which a large number of virtual object data (including various information such as text data and image data) is stored includes a virtual object data search unit 31, a communication control unit 32, and an antenna 33. Yes.

ヘッドマウント型拡張現実映像提示装置10は、撮像センサ14bが撮影した被写体画像の撮影範囲を、GPS26及び地磁気センサ27で取得した情報を基にカメラ位置,姿勢の計測部18で算出する。そして、被写体画像の撮影範囲に対応する方向や位置のデータを、自身の通信制御部21,アンテナ20を通してデータベース30の通信制御部32に送信する。   The head-mounted augmented reality video presentation device 10 calculates the shooting range of the subject image captured by the imaging sensor 14b by the camera position / posture measurement unit 18 based on information acquired by the GPS 26 and the geomagnetic sensor 27. Then, the data of the direction and position corresponding to the shooting range of the subject image is transmitted to the communication control unit 32 of the database 30 through its own communication control unit 21 and antenna 20.

仮想物データ検索部31は、受信したデータに基づいて被写体画像の撮影範囲に対応する仮想物データをデータベース30を検索して取得し、検索した仮想物データをヘッドマウント型拡張現実映像提示装置10に返送する。   The virtual object data search unit 31 searches the database 30 for virtual object data corresponding to the shooting range of the subject image based on the received data, and acquires the searched virtual object data from the head mounted augmented reality video presentation device 10. Return to

ヘッドマウント型拡張現実映像提示装置10のCPU11は、受信した仮想物データをアイコン化して画像合成部19に渡し、画像合成部19は、このアイコンを、撮像センサ14bが撮影した画像に仮想表示物として合成し表示画面24に表示する。   The CPU 11 of the head-mounted augmented reality video presentation device 10 converts the received virtual object data into an icon and passes it to the image composition unit 19, and the image composition unit 19 displays this icon on the image captured by the image sensor 14b as a virtual display object. Are combined and displayed on the display screen 24.

このヘッドマウント型拡張現実映像提示装置10では、通信制御部21とアンテナ20を内蔵しているが、この2つの機能を、携帯電話機の機能で代用する構成としても良い。   The head-mounted augmented reality video presentation device 10 includes the communication control unit 21 and the antenna 20, but these two functions may be substituted with the functions of the mobile phone.

携帯電話機にはカメラが搭載されたものがあるため、ヘッドマウント型拡張現実映像提示装置10の撮像制御部15やカメラ14を、携帯電話機搭載のカメラで代用する構成とすることも可能である。また、GPSセンサ26や地磁気センサ27を携帯電話機搭載のGPSや地磁気センサで代用する構成としても良い。携帯電話機の機能とヘッドマウント型拡張現実映像提示装置10の機能のうち重複する機能(上記の例ではカメラ機能やGPS機能)がある場合、ヘッドマウント型拡張現実映像提示装置10の機能を優先して使用し、特別な指示がユーザから入力されたとき携帯電話機の機能を使用する構成とするのが良い。   Since some mobile phones are equipped with a camera, the imaging control unit 15 and the camera 14 of the head-mounted augmented reality video presentation device 10 can be replaced with a camera mounted on the mobile phone. The GPS sensor 26 and the geomagnetic sensor 27 may be replaced with a GPS or geomagnetic sensor mounted on a mobile phone. When there is an overlapping function (camera function or GPS function in the above example) among the functions of the mobile phone and the head-mounted augmented reality video presentation device 10, the function of the head-mounted augmented reality video presentation device 10 is given priority. The function of the mobile phone is preferably used when a special instruction is input from the user.

図2は、図1に示すヘッドマウント型拡張現実映像提示装置10の表示画面例を示す図である。カメラ14で撮影した風景が画面24に表示されている。CPU11は、拡張現実(AR)アプリケーションソフトウェアを実行し、上記したように仮想物データベース30から取得した仮想物データのアイコンを、夫々仮想表示物(エアタグともいう。)1a,1b,…で表示する。各エアタグ1a,1b,…は、被写体画像中の夫々が対応する建物等の場所毎に表示される。   FIG. 2 is a diagram illustrating a display screen example of the head-mounted augmented reality video presentation device 10 illustrated in FIG. A landscape photographed by the camera 14 is displayed on the screen 24. The CPU 11 executes augmented reality (AR) application software and displays the virtual object data icons acquired from the virtual object database 30 as described above as virtual display objects (also referred to as air tags) 1a, 1b,. . Each air tag 1a, 1b,... Is displayed for each place such as a building corresponding to each of the subject images.

例えば、ここでユーザがエアタグに付与された情報を閲覧するためには、複数個表示されているエアタグから所望のエアタグを表示画面から選択し、閲覧用のアプリケーションソフトウェアを起動する必要がある。このように所望のエアタグに対して特定の機能を発現させるために、ユーザはエアタグとインタラクションをとる必要がある。   For example, in order for the user to browse the information assigned to the air tag here, it is necessary to select a desired air tag from a plurality of displayed air tags on the display screen and to start application software for browsing. Thus, in order to develop a specific function for a desired air tag, the user needs to interact with the air tag.

しかし、ユーザがヘッドマウント型拡張現実映像提示装置10を装着すると、ディスプレイ装置(図1の表示画面)24がユーザの目の付近全体を覆うため、ユーザは自身の手元を見ることができない。このため、タッチパネルの様な装置やハードウェアキーを操作することはできない。   However, when the user wears the head-mounted augmented reality video presentation device 10, the display device (display screen in FIG. 1) 24 covers the entire vicinity of the user's eyes, and thus the user cannot see his / her hand. For this reason, a device such as a touch panel and hardware keys cannot be operated.

そこで、本実施形態では、ユーザの指先の画像をカメラ14又は携帯電話機のカメラで撮影し、この指先の画像を、画面24に表示する。カメラ14で指先を撮影する場合には、ユーザは自身の指先をカメラ14の前方(ヘッドマウント型拡張現実映像提示装置10の前方)に掲げ、指先画像2が風景と同時に写るようにする。そして、次に説明する様に、CPU11は、この指先画像2を用いて、AR用のユーザインタフェース処理に移行する。   Therefore, in this embodiment, an image of the user's fingertip is captured by the camera 14 or the camera of the mobile phone, and the image of the fingertip is displayed on the screen 24. When photographing the fingertip with the camera 14, the user places his / her fingertip in front of the camera 14 (in front of the head-mounted augmented reality video presentation device 10) so that the fingertip image 2 is captured simultaneously with the landscape. Then, as will be described next, the CPU 11 uses this fingertip image 2 to shift to AR user interface processing.

図3は、ユーザが自身の指先の画像を携帯電話機のカメラから取り込む様子を示す図である。図1,図2では、カメラ14で風景の画像の指先の画像を取り込んだが、図3では、携帯電話機5付属のカメラで風景の画像と指先の画像を取り込んでいる。そして、携帯電話機5とケーブル接続されたヘッドマウント型拡張現実映像提示装置10のCPU11は、携帯電話機5から送信されてくる画像データを取り込み、表示画面24に表示する。   FIG. 3 is a diagram illustrating how a user captures an image of his / her fingertip from a camera of a mobile phone. 1 and 2, the image of the fingertip of the landscape image is captured by the camera 14, but in FIG. 3, the image of the landscape and the image of the fingertip are captured by the camera attached to the mobile phone 5. Then, the CPU 11 of the head mounted augmented reality video presentation device 10 connected to the mobile phone 5 by cable captures the image data transmitted from the mobile phone 5 and displays it on the display screen 24.

図4は、ユーザの指先画像をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、撮影画像を取り込み(ステップS1)、色相を観察して肌色の領域(手,指先)を検出する(ステップS2)。次に、仮想表示物(エアタグ)の配置座標データを取得し(ステップS3)、肌色領域の輪郭とエアタグとの直線距離を算出する(ステップS4)。   FIG. 4 is an explanatory diagram of a user interface processing procedure for operating the air tag using the user's fingertip image as a pointer. First, a captured image is captured (step S1), and the hue is observed to detect a skin color region (hand, fingertip) (step S2). Next, the arrangement coordinate data of the virtual display object (air tag) is acquired (step S3), and the linear distance between the contour of the skin color area and the air tag is calculated (step S4).

これと並行し、前フレームの撮影画像の肌色検出結果(ステップS2a)と今回フレームの肌色検出結果(ステップS2)との差分画像生成し(ステップS5)、肌色領域の動きベクトルを算出する(ステップS6)。   In parallel with this, a difference image between the skin color detection result (step S2a) of the photographed image of the previous frame and the skin color detection result (step S2) of the current frame is generated (step S5), and the motion vector of the skin color region is calculated (step). S6).

ステップS4とステップS6の後は、ステップS7に進み、これまでの演算結果から操作指示がどの様な操作指示であるかを認識すると共に、操作対象のエアタグを認識する。認識方法に関しては後述する。次のステップS8で、操作対象のエアタグに対して上記操作指示に基づく機能を発現する。つまり、操作指示が消去指示であれば、操作対象のエアタグを消去し、ステップS1に戻る。   After step S4 and step S6, the process proceeds to step S7, where the operation instruction is recognized from the calculation results so far and the air tag to be operated is recognized. The recognition method will be described later. In the next step S8, a function based on the operation instruction is developed for the air tag to be operated. That is, if the operation instruction is an erasure instruction, the air tag to be operated is erased, and the process returns to step S1.

ステップS7で、操作対象のエアタグを認識できなかった場合や、操作指示を認識できなかった場合には、ステップS7からステップS1に戻る。   In step S7, when the air tag to be operated cannot be recognized or when the operation instruction cannot be recognized, the process returns from step S7 to step S1.

この様なユーザインタフェース処理を行うことで、ジャイロセンサの様な特別な装置を用いることなく、エアタグの操作が可能となる。   By performing such user interface processing, the air tag can be operated without using a special device such as a gyro sensor.

図5〜図7は、上述した操作指示の説明図であり、図5(a)は、つかむ動作を示し、図5(b)は、離す動作を示している。肌色領域2のフレーム間差分により肌色領域の増加領域と減少領域を計算し、増加領域の面積が一定未満である状態が一定時間継続し、かつ、図5(a)の左図に示す様に、肌色領域(指先画像)2にエアタグ1が2点以上で接している場合、エアタグ1を「つまんだ」とみなし、以後、図5(a)の右図に示す様に、エアタグ1を指先画像2の移動に追従させて移動させる。あるいは、肌色領域2が一定以上エアタグ1に近いとき「つまんだ」とみなしても良い。   5 to 7 are explanatory diagrams of the above-described operation instruction. FIG. 5 (a) shows a grasping operation, and FIG. 5 (b) shows a releasing operation. The increase area and decrease area of the skin color area are calculated based on the inter-frame difference of the skin color area 2, and the state where the area of the increase area is less than a certain period continues for a certain period of time. When the air tag 1 is in contact with the skin color region (fingertip image) 2 at two or more points, the air tag 1 is regarded as “picked”, and thereafter, the air tag 1 is moved to the fingertip as shown in the right diagram of FIG. The image 2 is moved following the movement. Alternatively, when the skin color region 2 is close to the air tag 1 by a certain amount or more, it may be regarded as “picked”.

エアタグ1を「つまんだ」状態から(図5(b)左図)、図5(b)の右図に示す様に、肌色領域2を一定以上の速度で移動させると、エアタグ1を「離した」とみなし、エアタグ1を肌色領域2に対して追従させない。   When the skin tag region 2 is moved at a certain speed or more as shown in the right diagram of FIG. 5B from the state in which the air tag 1 is “pinched” (FIG. 5B left diagram), the air tag 1 is “released”. The air tag 1 is not allowed to follow the skin color region 2.

図6は、エアタグ1を廃棄(消去)させる操作指示の説明図である。エアタグ1をつまんだ状態で指先画像2の移動に追従させて移動させ、機能を発現させるアイコン、この場合には廃棄させるゴミ箱アイコン4にエアタグ1を重ねることで、エアタグ1を廃棄する。   FIG. 6 is an explanatory diagram of an operation instruction for discarding (erasing) the air tag 1. The air tag 1 is discarded by superimposing the air tag 1 on an icon for expressing the function, in this case, the trash can icon 4 to be discarded, by following the movement of the fingertip image 2 while the air tag 1 is pinched.

図7は、エアタグ1を手で払いのける動作を行う説明図である。手の全体をカメラで写し、肌色領域2が一定以上の速度で移動し、移動した経路途中にエアタグ1が存在した場合、エアタグ1は、肌色領域2の移動速度,方向に応じた速度,向きに吹き飛ぶ様にする。   FIG. 7 is an explanatory diagram for performing an operation of removing the air tag 1 by hand. When the entire skin is photographed with a camera, the skin color area 2 moves at a certain speed or higher, and the air tag 1 exists in the route of the movement, the air tag 1 moves according to the moving speed and direction of the skin color area 2. Like to blow away.

即ち、肌色領域2の撮像画像フレーム間差分により、肌色領域の増加領域と減少領域を計算し、増加領域の面積が一定以上かつエアタグがその増加領域にある場合はエアタグに対して作用力を生じさせる。若しくは、増加領域の中心座標と減少領域の中心座標を結んだ線分の延長線上かつ減少領域から増加領域に向かう方向にエアタグがある場合はエアタグに対して作用力を生じさせる。   That is, an increase area and a decrease area of the flesh color area are calculated based on the difference between the captured image frames of the flesh color area 2. If the area of the increase area exceeds a certain value and the air tag is in the increase area, an acting force is generated on the air tag. Let Alternatively, when the air tag is on the extension of the line segment connecting the center coordinates of the increasing area and the center coordinates of the decreasing area and in the direction from the decreasing area to the increasing area, an acting force is generated on the air tag.

作用力は、以下のパラメータ、即ち、増加領域の面積(大きいほど作用力が大きい)、増加領域の中心座標と減少領域の中心座標を結んだ線分の方向(作用力の力ベクトル)に依存させる。この様なプロセスでユーザのエアタグを払う動作を認識し、エアタグに作用力を与える。   The acting force depends on the following parameters: the area of the increasing region (the larger the acting force is), the direction of the line segment connecting the center coordinates of the increasing region and the center coordinate of the decreasing region (force vector of the acting force) Let In this process, the user's action of removing the air tag is recognized, and an acting force is applied to the air tag.

この様に、ユーザは、ジェスチャーの様に自身の手や指先を動作させることで、様々な機能をエアタグに対して発現させることができる。   Thus, the user can express various functions to the air tag by operating his / her hand or fingertip like a gesture.

上述した実施形態では、ユーザが自身の手や指先の画像をポインタとしてエアタグを操作したが、指先等の他に別のものをポインタとして利用することができる。   In the above-described embodiment, the user operates the air tag using an image of his / her hand or fingertip as a pointer, but other than the fingertip or the like, another can be used as a pointer.

図8は、スティック状のマーカのカメラ撮影画像をポインタとする例を示している。マーカ6を携帯電話機5のカメラで撮影し、この撮影画像をヘッドマウント型拡張現実映像提示装置10に送り、これをポインタとして使用する。マーカ6には、二次元の幾何学パターンが記載されている。図示する例では、「ダウンロード」を意味するパターン、即ち、箱内にものを取り込む矢印が記載されている。   FIG. 8 shows an example in which a camera-captured image of a stick-shaped marker is used as a pointer. The marker 6 is photographed by the camera of the mobile phone 5, and this photographed image is sent to the head mounted augmented reality video presentation device 10 and used as a pointer. The marker 6 describes a two-dimensional geometric pattern. In the example shown in the figure, a pattern meaning “download”, that is, an arrow for taking in a box is described.

図9は、図8で示したマーカ画像6をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、マーカ画像6をカメラから取り込む(ステップS11)。そして、次のステップS12で、マーカ画像6の輝度成分を2値化した後、予め登録しておいたマーカの画像とのテンプレートマッチングによりマーカ画像6の検出,認識を行うと共に、認識したマーカについてカメラとの相対的な位置,姿勢を算出する。   FIG. 9 is an explanatory diagram of a user interface processing procedure for operating the air tag using the marker image 6 shown in FIG. 8 as a pointer. First, the marker image 6 is captured from the camera (step S11). Then, in the next step S12, after the luminance component of the marker image 6 is binarized, the marker image 6 is detected and recognized by template matching with a previously registered marker image, and the recognized marker is detected. Calculate the position and orientation relative to the camera.

次のステップS13では、エアタグ1の配置座標データを取得し、ステップS14で、マーカ画像6の中心とエアタグ1との距離を算出する。   In the next step S13, the arrangement coordinate data of the air tag 1 is acquired, and in step S14, the distance between the center of the marker image 6 and the air tag 1 is calculated.

これと並行してステップS15では前フレームの撮影画像のマーカの位置,姿勢データを保持しておき、ステップS16で、ステップS15で保持しているマーカの位置,姿勢データとステップS12の今回フレームにおけるマーカの位置,姿勢データとの差分からマーカ画像6の動きベクトルを算出する。   In parallel with this, in step S15, the marker position and orientation data of the captured image of the previous frame are held, and in step S16, the marker position and orientation data held in step S15 and the current frame in step S12 are stored. The motion vector of the marker image 6 is calculated from the difference between the marker position and orientation data.

そして、このマーカ画像の動きベクトルと、ステップS14で求めたマーカ画像中心とエアタグとの距離とにより、ユーザが操作対象としているエアタグがどのエアタグであるか認識すると共に、操作指示の認識も行う(ステップS17)。   Then, based on the motion vector of the marker image and the distance between the marker image center and the air tag obtained in step S14, the air tag that is the operation target of the user is recognized and the operation instruction is also recognized ( Step S17).

次のステップS18では、ステップS17の認識結果に基づいて操作対象のエアタグに対して機能を発現し、ステップS11に戻る。ステップS17でいずれかの認識が不可となった場合には、ステップS11に戻る。   In the next step S18, the function is developed for the air tag to be operated based on the recognition result in step S17, and the process returns to step S11. If any of the recognition is disabled in step S17, the process returns to step S11.

これにより、特別な装置を用いずに直感的な操作でエアタグを操作することが可能となる。   Thereby, it becomes possible to operate an air tag by intuitive operation, without using a special apparatus.

図10は、マーカ画像6を用いた操作指示の説明図である。エアタグ1をダウンロードしたい場合には、エアタグ1にマーカ画像6を近づけ、一定時間接近させ、あるいは両者を重ねる。これにより、エアタグ1に対応するデータがダウンロードされる。   FIG. 10 is an explanatory diagram of an operation instruction using the marker image 6. When the air tag 1 is to be downloaded, the marker image 6 is brought close to the air tag 1 and is brought close to the air tag 1 for a certain period of time or both are overlapped. Thereby, the data corresponding to the air tag 1 is downloaded.

マーカ画像は平面の台紙の表裏に夫々パターンが描かれており、夫々に異なる機能が関連付けられている。マーカ画像6の裏には、ゴミ箱パターンが描かれており、ゴミ箱パターン側がカメラ側に向けて撮影すると、図11に示す様な状態となる。そして、このゴミ箱パターンを該当エアタグに近づけて一定時間接近させることで、このエアタグを廃棄することができる。   Each marker image has a pattern drawn on the front and back of a flat mount, and each has a different function associated with it. A trash can pattern is drawn on the back of the marker image 6. When the trash can pattern is photographed with the trash can pattern side facing the camera side, the state shown in FIG. 11 is obtained. The air tag can be discarded by bringing the trash box pattern close to the air tag and approaching the air tag for a certain period of time.

上記例では、マーカの2つのパターンについて述べたが、その他に様々な機能に対応するパターンを用意しておけば、様々な機能を実現できる。マーカは平面の台紙だけでなく、多面体の台紙に複数配置されても良い。また、液晶ディスプレイの様な表示デバイスに様々な機能を示すパターンをユーザの指示で切替表示させる構成としても良い。   In the above example, the two patterns of the marker have been described. However, if other patterns corresponding to various functions are prepared, various functions can be realized. A plurality of markers may be arranged not only on a flat mount but also on a polyhedral mount. Further, a configuration may be adopted in which patterns indicating various functions are switched and displayed by a user instruction on a display device such as a liquid crystal display.

この様な構成により、様々な機能をエアタグに対して発現させることが可能となる。   With such a configuration, various functions can be expressed on the air tag.

図12は、ポインタとして、スティックの先に取り付けた発光体(LED)をポインタとする例であり、このLED7を携帯電話機のカメラで撮影し、ヘッドマウント型拡張現実映像提示装置10に送る。   FIG. 12 shows an example in which a light emitting body (LED) attached to the tip of a stick is used as a pointer. The LED 7 is photographed by a camera of a mobile phone and sent to the head mounted augmented reality video presentation device 10.

図13は、図12で示したLED画像7をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、LED画像7をカメラから取り込む(ステップS21)。そして、次のステップS22で、LED画像7の輝度成分を2値化した後、LED点光源を検出する。このとき、検出したLED点光源の色成分や発光パターンを認識しても良い。その後、ステップS23でエアタグ1の配置座標データを取得し、ステップS24で、LED点光源7とエアタグ1との距離を算出する。   FIG. 13 is an explanatory diagram of a user interface processing procedure for operating the air tag using the LED image 7 shown in FIG. 12 as a pointer. First, the LED image 7 is captured from the camera (step S21). In step S22, the luminance component of the LED image 7 is binarized, and then the LED point light source is detected. At this time, the detected color component or light emission pattern of the LED point light source may be recognized. Thereafter, the arrangement coordinate data of the air tag 1 is acquired in step S23, and the distance between the LED point light source 7 and the air tag 1 is calculated in step S24.

これと並行してステップS25では前フレームの撮影画像におけるLED点光源の位置を保持し、ステップS26で、今回フレームの撮影画像との差分からLED点光源7の動きベクトルを算出する。この動きベクトルと、ステップS24で求めた距離とにより、ユーザが操作対象としているエアタグがどのエアタグであるか認識すると共に、操作指示の認識も行う(ステップS27)。   In parallel with this, in step S25, the position of the LED point light source in the captured image of the previous frame is held, and in step S26, the motion vector of the LED point light source 7 is calculated from the difference from the captured image of the current frame. Based on the motion vector and the distance obtained in step S24, the air tag that is the operation target of the user is recognized and the operation instruction is also recognized (step S27).

次のステップS28では、ステップS27の認識結果に基づいて操作対象のエアタグに対して機能を発現し、ステップS21に戻る。ステップS27でいずれかの認識が不可となった場合には、ステップS21に戻る。   In the next step S28, the function is developed for the air tag to be operated based on the recognition result in step S27, and the process returns to step S21. If any of the recognition is disabled in step S27, the process returns to step S21.

これにより、直感的な操作によりエアタグの操作を行うことができる。   Thereby, an air tag can be operated by intuitive operation.

図14,図15は、LED点光源を用いた操作指示の説明図である。本実施形態で用いるLED点光源は、ユーザの指示により発光色を黄色,赤色に変更可能となっており、色毎に発現機能を変えている。色ではなく、発光パターン(例えば点滅速度)を変えて発現機能を変える様にしても良い。色と発光パターンの組合せで発現機能を変えても良い。   14 and 15 are explanatory diagrams of operation instructions using an LED point light source. The LED point light source used in the present embodiment can change the emission color to yellow or red according to a user instruction, and the expression function is changed for each color. The expression function may be changed by changing the light emission pattern (for example, blinking speed) instead of the color. You may change an expression function with the combination of a color and a light emission pattern.

LED点光源7の発光色を黄色にし、図14に示す様に、エアタグ1にLED点光源を近づけ、一定時間接近状態を保つ。これにより、このエアタグに対応したアプリケーションソフトが実行される。   The light emission color of the LED point light source 7 is changed to yellow, and the LED point light source is brought close to the air tag 1 as shown in FIG. Thereby, application software corresponding to the air tag is executed.

LED点光源7の発光色を赤色にし、図15に示すように、エアタグ1にLED点光源を近づけ、一定時間接近状態を保つ。これにより、エアタグが別のエアタグに置き換えられる。   The emission color of the LED point light source 7 is changed to red, and the LED point light source is brought close to the air tag 1 as shown in FIG. As a result, the air tag is replaced with another air tag.

本実施形態によれば、LED点光源を動かすだけで、様々な機能をエアタグに対して発現させることが可能となる。   According to the present embodiment, various functions can be expressed with respect to the air tag only by moving the LED point light source.

以上述べた様に、本明細書には以下の事項が開示されている。   As described above, the following items are disclosed in this specification.

開示されたヘッドマウント型拡張現実映像提示装置は、撮像手段と、上記撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、その合成画像を表示するヘッドマウント型表示手段と、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させる制御手段と、を備えるものである。   The disclosed head-mounted augmented reality video presentation apparatus combines an imaging unit and the imaging unit to capture a pointer image as a part of a subject image and synthesize the subject image with a virtual display object indicating virtual object data. An image composition unit for generating an image, a head-mounted display unit for displaying the composite image, and a virtual display when the distance relationship between the pointer image and the virtual display object in the composite image satisfies a predetermined condition. Control means for causing the virtual object data corresponding to the object to exhibit a function corresponding to the pointer image.

開示されたヘッドマウント型拡張現実映像提示装置は、上記ポインタ画像はマーカの画像であり、そのマーカには、上記仮想物データに対する上記機能の内容を識別する二次元幾何学パターンが表示されているものである。   In the disclosed head-mounted augmented reality video presentation device, the pointer image is a marker image, and a two-dimensional geometric pattern for identifying the content of the function for the virtual object data is displayed on the marker. Is.

開示されたヘッドマウント型拡張現実映像提示装置は、上記ポインタ画像は点光源の画像であり、異なる上記機能を上記点光源の発光色または発光パターンで識別するものである。   In the disclosed head-mounted augmented reality video presentation device, the pointer image is an image of a point light source, and the different functions are identified by the light emission color or light emission pattern of the point light source.

開示されたヘッドマウント型拡張現実映像提示装置は、上記制御手段は、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たす状態が一定時間継続したとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させるものである。   In the disclosed head-mounted augmented reality video presenting device, the control means is configured such that when the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition for a predetermined time, A function corresponding to the pointer image is developed for the virtual object data corresponding to the display object.

開示されたデータベースは、上記ヘッドマウント型拡張現実映像提示装置と通信可能であり、上記仮想物データを格納するものである。   The disclosed database is communicable with the head-mounted augmented reality video presentation device, and stores the virtual object data.

開示された仮想表示物操作方法は、撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成し、その合成画像をヘッドマウント型表示手段に表示させ、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させるものである。   According to the disclosed virtual display object operating method, an imaging unit captures a pointer image as a part of a subject image, generates a composite image by combining the subject image and a virtual display object indicating virtual object data, and generates the composite image. Is displayed on a head-mounted display means, and when the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition, the virtual object data corresponding to the virtual display object is A function corresponding to the pointer image is developed.

上記マーカの画像は多面体の画像であり、その多面体の各面に異なる上記二次元幾何学パターンが表示されていてもよい。   The marker image may be a polyhedron image, and different two-dimensional geometric patterns may be displayed on each surface of the polyhedron.

上記マーカは表示手段であり、その表示手段に表示する上記二次元幾何学パターンが複数種類用意され切換表示されてもよい。   The marker is a display means, and a plurality of types of the two-dimensional geometric patterns to be displayed on the display means may be prepared and switched.

以上述べた各実施形態によれば、ユーザの目がヘッドマウント型の表示画面で覆われユーザが自身の手元を視認できなくても、特別なセンサ類等なしで合成画像中の仮想表示物を操作することが可能となる。   According to each embodiment described above, even if the user's eyes are covered with a head-mounted display screen and the user cannot visually recognize his / her hand, the virtual display object in the composite image can be displayed without special sensors. It becomes possible to operate.

本発明に係るヘッドマウント型拡張現実映像提示装置は、ヘッドマウントディスプレイ装置で拡張現実映像を表示させている最中に、高価なポインタ装置を用いなくても映像中の仮想表示物を容易に操作することができるため、ヘッドマウント型拡張現実映像提示装置の普及を図るのに有用である。   The head-mounted augmented reality video presentation device according to the present invention easily manipulates a virtual display object in a video without using an expensive pointer device while displaying the augmented reality video on the head-mounted display device. Therefore, it is useful for spreading the head mounted augmented reality video presentation device.

1,1a,1b 仮想表示物(エアタグ)
2 ユーザの指先画像
5 携帯電話機
6 マーカ画像
7 LED点光源画像
10 ヘッドマウンド型拡張現実映像提示装置
11 CPU
14 内蔵カメラ
19 画像合成部
21 内蔵通信制御部
22 ポインタ検出認識部
23 ポインタ監視部
24 表示画面
26 GPS
27 地磁気センサ
30 仮想物データベース
31 仮想物データ検索部
1, 1a, 1b Virtual display object (air tag)
2 User fingertip image 5 Mobile phone 6 Marker image 7 LED point light source image 10 Head mounted augmented reality video presentation device 11 CPU
14 Built-in camera 19 Image composition unit 21 Built-in communication control unit 22 Pointer detection recognition unit 23 Pointer monitoring unit 24 Display screen 26 GPS
27 Geomagnetic Sensor 30 Virtual Object Database 31 Virtual Object Data Search Unit

Claims (6)

撮像手段と、
前記撮像手段に被写体画像の一部としてポインタ画像を撮影させ該被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、
該合成画像を表示するヘッドマウント型表示手段と、
前記合成画像中の前記ポインタ画像と前記仮想表示物との距離関係が所定条件を満たしたとき、該仮想表示物に対応する前記仮想物データに対し、前記ポインタ画像に応じた機能を発現させる制御手段と、を備えるヘッドマウント型拡張現実映像提示装置。
Imaging means;
Image synthesizing means for causing the imaging means to capture a pointer image as a part of the subject image and synthesizing the subject image and a virtual display object indicating virtual object data to generate a synthesized image;
Head-mounted display means for displaying the composite image;
Control that causes the virtual object data corresponding to the virtual display object to exhibit a function corresponding to the pointer image when the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition And a head-mounted augmented reality video presentation device.
請求項1に記載のヘッドマウント型拡張現実映像提示装置であって、
前記ポインタ画像はマーカの画像であり、該マーカには、前記仮想物データに対する前記機能の内容を識別する二次元幾何学パターンが表示されているヘッドマウント型拡張現実映像提示装置。
The head-mounted augmented reality video presentation device according to claim 1,
The head-mounted augmented reality video presentation device in which the pointer image is a marker image, and a two-dimensional geometric pattern for identifying the function content for the virtual object data is displayed on the marker.
請求項1に記載のヘッドマウント型拡張現実映像提示装置であって、
前記ポインタ画像は点光源の画像であり、異なる前記機能を前記点光源の発光色または発光パターンで識別するヘッドマウント型拡張現実映像提示装置。
The head-mounted augmented reality video presentation device according to claim 1,
The pointer image is an image of a point light source, and is a head-mounted augmented reality video presentation device that identifies different functions by the light emission color or light emission pattern of the point light source.
請求項1〜3のいずれか1項記載のヘッドマウント型拡張現実映像提示装置であって、
前記制御手段は、前記合成画像中の前記ポインタ画像と前記仮想表示物との距離関係が所定条件を満たす状態が一定時間継続したとき、該仮想表示物に対応する前記仮想物データに対し、前記ポインタ画像に応じた機能を発現させるヘッドマウント型拡張現実映像提示装置。
The head-mounted augmented reality video presentation device according to any one of claims 1 to 3,
When the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition for a certain period of time, the control means, for the virtual object data corresponding to the virtual display object, A head-mounted augmented reality video presentation device that develops a function corresponding to a pointer image.
請求項1〜4のいずれか1項記載のヘッドマウント型拡張現実映像提示装置と通信可能であり、前記仮想物データを格納するデータベース。   5. A database capable of communicating with the head-mounted augmented reality video presentation device according to claim 1 and storing the virtual object data. 撮像手段に被写体画像の一部としてポインタ画像を撮影させ該被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成し、該合成画像をヘッドマウント型表示手段に表示させ、前記合成画像中の前記ポインタ画像と前記仮想表示物との距離関係が所定条件を満たしたとき、該仮想表示物に対応する前記仮想物データに対し、前記ポインタ画像に応じた機能を発現させる仮想表示物操作方法。   The imaging unit captures a pointer image as a part of the subject image, combines the subject image and the virtual display object indicating the virtual object data to generate a composite image, and displays the composite image on the head-mounted display unit. When the distance relationship between the pointer image in the composite image and the virtual display object satisfies a predetermined condition, a virtual that causes the virtual object data corresponding to the virtual display object to exhibit a function corresponding to the pointer image Display object operation method.
JP2014118657A 2014-06-09 2014-06-09 Head mounted augmented reality video presentation device and virtual display object operating method Active JP5932889B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014118657A JP5932889B2 (en) 2014-06-09 2014-06-09 Head mounted augmented reality video presentation device and virtual display object operating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014118657A JP5932889B2 (en) 2014-06-09 2014-06-09 Head mounted augmented reality video presentation device and virtual display object operating method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010065210A Division JP5564300B2 (en) 2010-03-19 2010-03-19 Head mounted augmented reality video presentation device and virtual display object operating method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016090435A Division JP2016154044A (en) 2016-04-28 2016-04-28 Head mount type augmented reality video presentation device and virtual display object operation method thereof

Publications (2)

Publication Number Publication Date
JP2014206990A true JP2014206990A (en) 2014-10-30
JP5932889B2 JP5932889B2 (en) 2016-06-08

Family

ID=52120444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014118657A Active JP5932889B2 (en) 2014-06-09 2014-06-09 Head mounted augmented reality video presentation device and virtual display object operating method

Country Status (1)

Country Link
JP (1) JP5932889B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031490A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device
WO2020031493A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301475A (en) * 1993-04-14 1994-10-28 Casio Comput Co Ltd Position detecting device
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JPH08315154A (en) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc Gesture recognition system
JP2000098871A (en) * 1998-09-28 2000-04-07 Sony Corp Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium
JP2004021931A (en) * 2002-06-20 2004-01-22 West Unitis Kk Work guidance system
JP2010026818A (en) * 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc Image processing program, image processor, and image processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301475A (en) * 1993-04-14 1994-10-28 Casio Comput Co Ltd Position detecting device
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JPH08315154A (en) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc Gesture recognition system
JP2000098871A (en) * 1998-09-28 2000-04-07 Sony Corp Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium
JP2004021931A (en) * 2002-06-20 2004-01-22 West Unitis Kk Work guidance system
JP2010026818A (en) * 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc Image processing program, image processor, and image processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031490A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device
WO2020031493A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device
JPWO2020031490A1 (en) * 2018-08-08 2021-08-02 株式会社Nttドコモ Terminal device and control method of terminal device
JPWO2020031493A1 (en) * 2018-08-08 2021-08-12 株式会社Nttドコモ Terminal device and control method of terminal device
JP6999822B2 (en) 2018-08-08 2022-01-19 株式会社Nttドコモ Terminal device and control method of terminal device
JP6999821B2 (en) 2018-08-08 2022-02-04 株式会社Nttドコモ Terminal device and control method of terminal device

Also Published As

Publication number Publication date
JP5932889B2 (en) 2016-06-08

Similar Documents

Publication Publication Date Title
JP5564300B2 (en) Head mounted augmented reality video presentation device and virtual display object operating method thereof
US10198870B2 (en) Information processing apparatus, information processing system, and information processing method
US11557134B2 (en) Methods and systems for training an object detection algorithm using synthetic images
US10175492B2 (en) Systems and methods for transition between augmented reality and virtual reality
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
US9972136B2 (en) Method, system and device for navigating in a virtual reality environment
EP2972672B1 (en) Detection of a gesture performed with at least two control objects
US10474411B2 (en) System and method for alerting VR headset user to real-world objects
US20160314624A1 (en) Systems and methods for transition between augmented reality and virtual reality
US11170580B2 (en) Information processing device, information processing method, and recording medium
JP6586834B2 (en) Work support method, work support program, and work support system
WO2014016987A1 (en) Three-dimensional user-interface device, and three-dimensional operation method
CN107646098A (en) System for tracking portable equipment in virtual reality
JP6390799B2 (en) Input device, input method, and program
US11393177B2 (en) Information processing apparatus, information processing method, and program
US20210407213A1 (en) Augmented reality eyewear with 3d costumes
WO2014111947A1 (en) Gesture control in augmented reality
JP5932889B2 (en) Head mounted augmented reality video presentation device and virtual display object operating method
KR20160000986A (en) Virtual Reality System using of Mixed reality, and thereof implementation method
US20220244788A1 (en) Head-mounted display
CN114115544B (en) Man-machine interaction method, three-dimensional display device and storage medium
JP2016154044A (en) Head mount type augmented reality video presentation device and virtual display object operation method thereof
JP5907034B2 (en) Work assistance system and program
GB2582106A (en) Display device and display device control method
KR20110049024A (en) Charactor controll apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R150 Certificate of patent or registration of utility model

Ref document number: 5932889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250