JP2011248655A - User viewpoint spatial image provision device, user viewpoint spatial image provision method, and program - Google Patents
User viewpoint spatial image provision device, user viewpoint spatial image provision method, and program Download PDFInfo
- Publication number
- JP2011248655A JP2011248655A JP2010121568A JP2010121568A JP2011248655A JP 2011248655 A JP2011248655 A JP 2011248655A JP 2010121568 A JP2010121568 A JP 2010121568A JP 2010121568 A JP2010121568 A JP 2010121568A JP 2011248655 A JP2011248655 A JP 2011248655A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- user
- display range
- eyeball position
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、ユーザ視点空間映像提示装置、ユーザ視点空間映像提示方法及びプログラムに関する。 The present invention relates to a user viewpoint space video presentation device, a user viewpoint space video presentation method, and a program.
近年、仮想現実感(VR:Virtual Reality)技術において、従来のヘッドマウントディスプレイだけではなく、タブレットPC(Personal Computer)などのハンドヘルドデバイスを利用して、ユーザ視点で表示された空間を提示するシステムが増えてきている。また、拡張現実感(AR:Augmented Reality)技術を利用し、スマートフォンなどの小型デバイスを経由してユーザ視点で表示された空間に付加情報を提示するサービスが注目を集めている。 In recent years, in virtual reality (VR) technology, a system that presents a space displayed from a user's viewpoint using not only a conventional head mounted display but also a handheld device such as a tablet PC (Personal Computer). It is increasing. In addition, a service that uses augmented reality (AR) technology to present additional information in a space displayed from a user's viewpoint via a small device such as a smartphone has attracted attention.
図7は、ハンドヘルドデバイス或いは小型デバイス(以下、総称してデバイスとする)において撮影した画像の表示例を表すイメージ図である。図7に示すように、通常デバイスでは、特にユーザが操作しない限り、デバイスが表示する被写体500は、ユーザが肉眼で目にしている被写体400のスケール(例えば、表示倍率等)とは異なるスケールにて表示される。 FIG. 7 is an image diagram illustrating a display example of an image taken by a handheld device or a small device (hereinafter collectively referred to as a device). As shown in FIG. 7, in a normal device, unless the user performs an operation, the subject 500 displayed on the device has a scale different from the scale of the subject 400 that the user sees with the naked eye (for example, the display magnification). Displayed.
特許文献1に記載の技術では、撮影された画像における特定のオブジェクトと、そのオブジェクトに重ね合わせて表示する画像との寸法的同一性を検証している。 In the technique described in Patent Document 1, the dimensional identity between a specific object in a photographed image and an image displayed by being superimposed on the object is verified.
しかしながら、従来技術では、図7に示すように、デバイスに表示される被写体500は、ユーザが肉眼で目にしている被写体400とは異なるスケールにて表示される。このため、拡張現実感技術を利用して付加情報等を表示する際等に、違和感や混乱を生じる場合があった。特許文献1に記載された技術では、特定のオブジェクトと重ね合わせて表示する画像との寸法的同一性については検証されているが、肉眼で目にする風景などの被写体とデバイスで表示する映像との連動については考慮されていない。このため、例えば、デバイスにより遮られてユーザから見えなくなる被写体の一部を、ユーザが肉眼で目にしている被写体とシームレスになって見えるように表示するためには、ユーザが手動で表示範囲や表示倍率を調整して、肉眼で目にする被写体のスケールにデバイスで表示する被写体のスケールを近づけなければならず、手間が掛かる、という問題がある。 However, in the related art, as shown in FIG. 7, the subject 500 displayed on the device is displayed on a different scale from the subject 400 that the user sees with the naked eye. For this reason, when displaying additional information etc. using the augmented reality technology, a sense of incongruity or confusion may occur. In the technique described in Patent Document 1, the dimensional identity with an image displayed in a superimposed manner with a specific object has been verified, but a subject such as a landscape seen with the naked eye and a video displayed on the device The linkage is not considered. For this reason, for example, in order to display a part of a subject that is obstructed by the device and cannot be seen by the user so that the subject appears seamless with the subject that the user sees with the naked eye, the user manually There is a problem that it is necessary to adjust the display magnification to bring the scale of the subject displayed on the device close to the scale of the subject seen with the naked eye, which is troublesome.
本発明は上記の点に鑑みてなされたものであり、その目的は、自動的に、ユーザが肉眼で目にしているものに応じた映像を表示することにより、ユーザが感じる違和感や混乱を軽減することができるユーザ視点空間映像提示装置、ユーザ視点空間映像提示方法及びプログラムを提供することにある。 The present invention has been made in view of the above points, and an object of the present invention is to automatically display an image corresponding to what the user sees with the naked eye, thereby reducing discomfort and confusion felt by the user. Another object of the present invention is to provide a user viewpoint space video presentation device, a user viewpoint space video presentation method, and a program.
本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、ユーザの眼球位置を計測する眼球位置計測部と、被写体を撮影する被写体撮影部と、前記被写体までの距離を計測する被写体距離計測部と、前記眼球位置計測部が計測した眼球位置と、前記被写体距離計測部が計測した被写体までの距離とに基づいて、表示範囲を算出する表示範囲算出部と、前記被写体撮影部が撮影した画像から、前記表示範囲算出部が算出した表示範囲を切り出して表示する表示部と、を備えることを特徴とするユーザ視点空間映像提示装置である。 The present invention has been made to solve the above problems, and one aspect of the present invention includes an eyeball position measurement unit that measures the user's eyeball position, a subject imaging unit that captures a subject, A subject distance measurement unit that measures a distance; a display range calculation unit that calculates a display range based on the eyeball position measured by the eyeball position measurement unit; and the distance to the subject measured by the subject distance measurement unit; And a display unit that cuts out and displays the display range calculated by the display range calculation unit from an image captured by the subject imaging unit.
この発明によれば、ユーザの眼球位置と被写体までの距離に基づいて表示範囲を決定している。これにより、ユーザが特に操作することなく、ユーザが肉眼で目にする被写体に応じた表示範囲に近づけて表示することができる。 According to the present invention, the display range is determined based on the user's eyeball position and the distance to the subject. Thereby, it is possible to display close to the display range corresponding to the subject that the user sees with the naked eye without any particular operation by the user.
また、本発明の一態様は、上記のユーザ視点空間映像提示装置において、前記表示範囲算出部は、前記眼球位置から当該ユーザ視点空間映像提示装置までの距離に対する前記眼球位置から前記被写体までの距離を用いて、表示範囲を算出することを特徴とする。 In addition, according to one aspect of the present invention, in the user viewpoint space video presentation device, the display range calculation unit is a distance from the eyeball position to the subject with respect to a distance from the eyeball position to the user viewpoint space video presentation device. The display range is calculated using
この発明によれば、眼球位置までの距離に対する眼球位置から被写体までの距離を用いて表示範囲を算出している。これにより、ユーザが肉眼で目にしている被写体と表示する被写体とが一連の被写体であるかのように表示することができ、ユーザが表示されている被写体を見たときに感じる違和感や混乱を軽減することができる。 According to the present invention, the display range is calculated using the distance from the eyeball position to the subject with respect to the distance to the eyeball position. As a result, the subject that the user sees with the naked eye and the subject to be displayed can be displayed as a series of subjects, and the user feels uncomfortable or confused when viewing the displayed subject. Can be reduced.
また、本発明の一態様は、上記のユーザ視点空間映像提示装置において、ユーザを撮影するユーザ撮影部を更に備え、前記眼球位置計測部は、前記ユーザ撮影部が撮影した画像から前記ユーザの眼球位置を計測することを特徴とする。 One aspect of the present invention is the above-described user viewpoint space video presentation device, further comprising a user photographing unit that photographs a user, wherein the eyeball position measuring unit is configured to capture the user's eyeball from an image photographed by the user photographing unit. The position is measured.
この発明によれば、撮影した画像からユーザの眼球位置を計測するため、例えば赤外線等を用いる測距センサ等が不要となり、ユーザ視点空間映像提示装置の構成を簡略化することができる。 According to the present invention, since the position of the user's eyeball is measured from the captured image, for example, a distance measuring sensor using infrared rays or the like is not required, and the configuration of the user viewpoint space video presentation device can be simplified.
また、本発明の一態様は、上記のユーザ視点空間映像提示装置において、前記眼球位置計測部は、前記ユーザ撮影部が撮影した画像における眼球間隔を用いて、前記ユーザの眼球位置を計測することを特徴とする。 Further, according to one aspect of the present invention, in the user viewpoint space video presentation device, the eyeball position measurement unit measures the eyeball position of the user by using an eyeball interval in an image captured by the user imaging unit. It is characterized by.
この発明によれば、眼球間隔を用いてユーザの眼球位置を計測するため、より簡易的にユーザの眼球位置を計測することができる。 According to this invention, since the user's eyeball position is measured using the eyeball interval, the user's eyeball position can be measured more simply.
また、本発明の一態様は、眼球位置計測部が、ユーザの眼球位置を計測するステップと、被写体撮影部が、被写体を撮影するステップと、被写体距離計測部が、前記被写体までの距離を計測するステップと、表示範囲算出部が、前記眼球位置計測部が計測した眼球位置と、前記被写体距離計測部が計測した被写体までの距離とに基づいて、表示範囲を算出するステップと、表示部が、前記被写体撮影部が撮影した画像から、前記表示範囲算出部が算出した表示範囲を切り出して表示するステップと、を有することを特徴とするユーザ視点空間映像提示方法である。 According to another aspect of the present invention, the eyeball position measurement unit measures the user's eyeball position, the subject photographing unit photographs the subject, and the subject distance measurement unit measures the distance to the subject. The display range calculating unit calculating the display range based on the eyeball position measured by the eyeball position measuring unit and the distance to the subject measured by the subject distance measuring unit; and the display unit And a step of cutting out and displaying the display range calculated by the display range calculation unit from the image captured by the subject photographing unit.
また、本発明の一態様は、コンピュータに、ユーザの眼球位置を計測するステップと、被写体を撮影するステップと、前記被写体までの距離を計測するステップと、計測した眼球位置と、計測した被写体までの距離とに基づいて、表示範囲を算出するステップと、撮影した画像から、算出した表示範囲を切り出して表示するステップと、を実行させるためのプログラムである。 According to one embodiment of the present invention, a step of measuring a user's eyeball position, a step of photographing a subject, a step of measuring a distance to the subject, a measured eyeball position, and a measured subject are stored in a computer. This is a program for executing a step of calculating a display range based on the distance and a step of cutting out and displaying the calculated display range from a captured image.
本発明によれば、ユーザの眼球位置と被写体までの距離に基づいて表示範囲を決定している。これにより、ユーザが手動で表示範囲や表示倍率を調整せずとも、ユーザが肉眼で目にする被写体に応じた表示範囲に近づけて表示することができる。このため、ユーザが表示されている被写体を見たときに感じる違和感や混乱を軽減することができる。 According to the present invention, the display range is determined based on the user's eyeball position and the distance to the subject. Accordingly, the display can be displayed close to the display range corresponding to the subject that the user sees with the naked eye without manually adjusting the display range and the display magnification. For this reason, it is possible to reduce a sense of incongruity or confusion when the user looks at the displayed subject.
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態によるユーザ視点空間映像提示装置10の外観構成等を示す概略図である。
ユーザ視点空間映像提示装置10は、スマートフォンや携帯電話機等の小型デバイス或いはタブレットPC等のハンドヘルドデバイスであり、インカメラ11と、ディスプレイ12と、アウトカメラ13とを含んで構成される。インカメラ(ユーザ撮影部)11は、ユーザ視点空間映像提示装置10を操作するユーザAを撮影するカメラである。アウトカメラ(被写体撮影部)13は、物や景色等の被写体を撮影するカメラである。ディスプレイ12は、アウトカメラ13が撮影した被写体を表示する、例えば液晶ディスプレイ等である。また、図1において、撮影範囲S1は、アウトカメラ13の撮影範囲である。また、表示範囲S2は、撮影範囲S1のうちディスプレイ12に表示する範囲である。図1に示すように、ユーザ視点空間映像提示装置10は、ユーザAとユーザ視点空間映像提示装置10との位置関係に基づいて、ユーザAが肉眼で目にする被写体とディスプレイ12に表示する被写体とがシームレスになるように映像を表示する。これにより、ユーザAはディスプレイ12に表示されている映像の空間を直感的に把握しやすくなり、違和感や混乱を軽減することができる。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram showing an external configuration and the like of a user viewpoint space video presentation device 10 according to an embodiment of the present invention.
The user viewpoint space video presentation device 10 is a small device such as a smartphone or a mobile phone, or a handheld device such as a tablet PC, and includes an in-camera 11, a display 12, and an out-camera 13. The in-camera (user photographing unit) 11 is a camera that photographs the user A who operates the user viewpoint space video presentation device 10. The out camera (subject photographing unit) 13 is a camera that photographs a subject such as an object or a landscape. The display 12 is, for example, a liquid crystal display that displays a subject photographed by the out camera 13. In FIG. 1, a shooting range S <b> 1 is a shooting range of the out camera 13. The display range S2 is a range displayed on the display 12 in the photographing range S1. As shown in FIG. 1, the user viewpoint space video presentation device 10 is based on the positional relationship between the user A and the user viewpoint space video presentation device 10 and the subject that the user A sees with the naked eye and the subject displayed on the display 12. Display video so that and are seamless. This makes it easy for the user A to intuitively grasp the space of the video displayed on the display 12, and can reduce discomfort and confusion.
図2は、本実施形態によるユーザ視点空間映像提示装置10の機能構成を示すブロック図である。
ユーザ視点空間映像提示装置10は、インカメラ11と、ディスプレイ12と、アウトカメラ13と、眼球位置計測部14と、表示範囲算出部15と、実空間撮影部16と、被写体距離計測部17と、映像切出し部18と、映像表示部19とを含んで構成される。
眼球位置計測部14は、インカメラ11が撮影した映像(画像)からユーザAの眼球位置を計測し、計測結果を表示範囲算出部15に出力する。眼球位置の計測方法の詳細については後述する。被写体距離計測部17は、アウトカメラ13に備えられている測距センサを用いて被写体までの距離を計測し、計測結果を表示範囲算出部15に出力する。具体的には、被写体距離計測部17は、測距センサから被写体に赤外線を照射し、その反射波が戻るまでの時間及び照射角度により被写体までの距離を検出する。表示範囲算出部15は、眼球位置と被写体までの距離に基づいて、ディスプレイ12に表示する映像(画像)の表示範囲を算出し、算出した表示範囲を映像切出し部18に出力する。表示範囲の算出方法の詳細については後述する。
FIG. 2 is a block diagram illustrating a functional configuration of the user viewpoint space video presentation device 10 according to the present embodiment.
The user viewpoint space video presentation device 10 includes an in-camera 11, a display 12, an out-camera 13, an eyeball position measurement unit 14, a display range calculation unit 15, a real space imaging unit 16, and a subject distance measurement unit 17. The video cutout unit 18 and the video display unit 19 are included.
The eyeball position measurement unit 14 measures the eyeball position of the user A from the video (image) taken by the in-camera 11 and outputs the measurement result to the display range calculation unit 15. The details of the eyeball position measurement method will be described later. The subject distance measurement unit 17 measures the distance to the subject using a distance measuring sensor provided in the out camera 13 and outputs the measurement result to the display range calculation unit 15. Specifically, the subject distance measurement unit 17 irradiates the subject with infrared rays from the distance measuring sensor, and detects the distance to the subject based on the time until the reflected wave returns and the irradiation angle. The display range calculation unit 15 calculates the display range of the video (image) to be displayed on the display 12 based on the eyeball position and the distance to the subject, and outputs the calculated display range to the video cutout unit 18. Details of the display range calculation method will be described later.
実空間撮影部16は、アウトカメラ13を用いて被写体の映像(画像)を撮影し、撮影した映像(画像)を映像切出し部18に出力する。映像切出し部18は、実空間撮影部16が撮影した映像(画像)から、表示範囲算出部15が算出した表示範囲を切り出し、切り出した映像(画像)を映像表示部19に出力する。映像表示部19は、映像切出し部18が切り出した映像(画像)をディスプレイ12に表示する。なお、映像切出し部18、映像表示部19及びディスプレイ12は、本願の表示部を構成する。 The real space imaging unit 16 captures a video (image) of the subject using the out-camera 13 and outputs the captured video (image) to the video cutout unit 18. The video cutout unit 18 cuts out the display range calculated by the display range calculation unit 15 from the video (image) taken by the real space shooting unit 16 and outputs the cut out video (image) to the video display unit 19. The video display unit 19 displays the video (image) cut out by the video cutout unit 18 on the display 12. The video cutout unit 18, the video display unit 19 and the display 12 constitute a display unit of the present application.
次に、図3を参照して、ユーザ視点空間映像提示装置10による映像表示処理について説明する。図3は、本実施形態による映像表示処理の手順を示すフローチャートである。
[ステップS101:眼球位置計測]
まず、ステップS101において、眼球位置計測部14が、ユーザAの眼球位置を計測する。ここで、図4を参照して眼球位置計測方法を詳しく説明する。図4は、本実施形態による眼球位置計測方法を説明するための概略図である。図4において、インカメラ11を原点(0,0,0)、インカメラ11に対して横方向をx軸方向、縦方向をy軸方向、奥行方向をz軸としてインカメラ11におけるxyz座標系を定める。つまり、x軸はインカメラ11とユーザAの眼球位置との水平方向の相対距離を表す。また、y軸はインカメラ11とユーザAの眼球位置との垂直方向の相対距離を表す。また、z軸はインカメラ11とユーザAの眼球位置との距離を表す。
Next, with reference to FIG. 3, the video display processing by the user viewpoint space video presentation device 10 will be described. FIG. 3 is a flowchart showing a procedure of video display processing according to the present embodiment.
[Step S101: Eye Position Measurement]
First, in step S101, the eyeball position measurement unit 14 measures the eyeball position of the user A. Here, the eyeball position measurement method will be described in detail with reference to FIG. FIG. 4 is a schematic view for explaining the eyeball position measuring method according to the present embodiment. In FIG. 4, an xyz coordinate system in the in-camera 11 with the in-camera 11 as the origin (0, 0, 0), the horizontal direction with respect to the in-camera 11 as the x-axis direction, the vertical direction as the y-axis direction, and the depth direction as the z-axis. Determine. That is, the x-axis represents the horizontal relative distance between the in-camera 11 and the user A's eyeball position. The y axis represents the relative distance in the vertical direction between the in-camera 11 and the position of the eyeball of the user A. The z axis represents the distance between the in-camera 11 and the user A's eyeball position.
まず、眼球位置計測部14は、インカメラ11が撮影した映像である撮影映像IからユーザAの眼球を検出する。具体的には、眼球位置計測部14は、例えば顔認識を用いた画像処理技術を用いて、目、鼻、口などの顔を構成するパーツからユーザAの顔を検出し、検出した顔の撮像画像Iにおける左目眼球の位置(iL,jL)及び右目眼球の位置(iR,jR)を算出する。 First, the eyeball position measurement unit 14 detects the eyeball of the user A from the captured video I that is a video captured by the in-camera 11. Specifically, the eyeball position measurement unit 14 detects the face of the user A from parts constituting the face such as eyes, nose, and mouth using an image processing technique using face recognition, for example. The position (i L , j L ) and the position (i R , j R ) of the left eye eyeball in the captured image I are calculated.
次に、眼球位置計測部14は、実空間における、ユーザAの眼球位置(x,y,z)を算出する。眼球位置(x,y,z)は、ユーザAの左目眼球の位置(xL,yL,z)と右目眼球の位置(xR,yR,z)の中間座標である。まず、眼球位置計測部14は、撮影映像I上で検出した左目眼球と右目眼球との距離lを次の式(1)により算出する。 Next, the eyeball position measurement unit 14 calculates the eyeball position (x, y, z) of the user A in the real space. Eye position (x, y, z) is an intermediate coordinate of the left eye position of the eye of the user A (x L, y L, z) and the position of the right eye eyeball (x R, y R, z ). First, the eyeball position measurement unit 14 calculates the distance l between the left eyeball and the right eyeball detected on the captured image I by the following equation (1).
そして、眼球位置計測部14は、次の式(2)により、インカメラ11のCCD(固体撮像素子:Charge Coupled Device)に写りこんだ眼球間の距離lを実空間における距離leに変換する。ここで、αは、撮影映像Iにおける1ピクセルに対する実空間での大きさ(例えば、単位はメートル)を表す係数、つまりピクセルをメートル座標に変換する係数である。 Then, the eyeball position measurement unit 14 converts the distance l between the eyeballs reflected in the CCD (solid coupled device) of the in-camera 11 into the distance l e in the real space by the following equation (2). . Here, α is a coefficient representing the size in real space (for example, the unit is meters) for one pixel in the captured image I, that is, a coefficient for converting the pixel into meter coordinates.
le=α×l …(2) l e = α × l (2)
次に、眼球位置計測部14は、インカメラ11から眼球までの距離zを次の式(3)により算出する。ここで、f1はインカメラ11の焦点距離である。また、ΔEは、眼球間幅であり、定数(例えば、眼球間幅の一般的な平均値である6.5cm)である。なお、眼球間幅ΔEは、ユーザ毎に設定してもよい。式(3)が示すように、眼球位置計測部14は、インカメラ11が撮影した画像における眼球間の距離lを用いて、ユーザAの眼球位置を計測する。つまり、眼球位置計測部14は、距離lの実空間における距離leに対する眼球間幅ΔEを用いて、ユーザAの眼球までの距離を計測する。 Next, the eyeball position measurement unit 14 calculates the distance z from the in-camera 11 to the eyeball by the following equation (3). Here, f1 is the focal length of the in-camera 11. ΔE is the interocular width and is a constant (for example, 6.5 cm which is a general average value of the interocular width). Note that the interocular width ΔE may be set for each user. As shown in Expression (3), the eyeball position measurement unit 14 measures the eyeball position of the user A using the distance 1 between the eyeballs in the image captured by the in-camera 11. In other words, the eyeball position measurement unit 14 measures the distance to the eyeball of the user A using the interocular width ΔE with respect to the distance l e in the real space of the distance l.
z=(f1×ΔE)/le …(3) z = (f1 × ΔE) / l e (3)
次に、眼球位置計測部14は、x軸方向における眼球位置xを次の式(4)により算出する。ここで、iは、iLとiRの中間座標であり、i=(iL+iR)/2である。 Next, the eyeball position measurement unit 14 calculates the eyeball position x in the x-axis direction by the following equation (4). Here, i is an intermediate coordinate between i L and i R , and i = (i L + i R ) / 2.
x=(z×f1)/(α×i) …(4) x = (z × f1) / (α × i) (4)
次に、眼球位置計測部14は、y軸方向における眼球位置yを次の式(5)により算出する。ここで、jは、jLとjRの中間座標であり、j=(jL+jR)/2である。 Next, the eyeball position measurement unit 14 calculates the eyeball position y in the y-axis direction by the following equation (5). Here, j is an intermediate coordinates j L and j R, is j = (j L + j R ) / 2.
y=(z×f1)/(α×j) …(5) y = (z × f1) / (α × j) (5)
なお、本実施形態では、撮影映像Iを用いて眼球位置を計測しているが、例えば、赤外線や超音波等を被写体に照射して被写体までの距離を計測する測距センサ等を用いてユーザAの眼球位置を計測してもよい。 In this embodiment, the eyeball position is measured using the captured image I. However, for example, the user uses a distance measuring sensor or the like that measures the distance to the subject by irradiating the subject with infrared rays, ultrasonic waves, or the like. The eyeball position of A may be measured.
[ステップS102:被写体距離計測]
次に、ステップS102において、被写体距離計測部17が、アウトカメラ13から被写体までの距離Zobjを計測する。
[Step S102: Subject Distance Measurement]
Next, in step S102, the subject distance measuring unit 17 measures a distance Z obj from the out camera 13 to the subject.
[ステップS103:表示範囲算出]
次に、ステップS103において、表示範囲算出部15が、ディスプレイ12に表示する表示範囲を算出する。ここで、図5を参照して表示範囲算出方法を詳しく説明する。図5は、本実施形態による表示範囲算出方法を説明するための概略図である。図5において、アウトカメラ13を原点(0,0,0)、アウトカメラ13に対して横方向をx軸方向、縦方向をy軸方向、奥行方向をz軸としてアウトカメラ13におけるxyz座標系を定める。ここで、y軸方向におけるディスプレイ12の上端位置はyupperであり、下端位置はybottomである。また、x軸方向におけるディスプレイ12の左端位置はxleftであり、右端位置はxrightである。また、アウトカメラ13からディスプレイ12までの距離はΔZである。
[Step S103: Display Range Calculation]
Next, in step S <b> 103, the display range calculation unit 15 calculates a display range to be displayed on the display 12. Here, the display range calculation method will be described in detail with reference to FIG. FIG. 5 is a schematic diagram for explaining the display range calculation method according to the present embodiment. In FIG. 5, the xyz coordinate system in the out camera 13 with the out camera 13 as the origin (0, 0, 0), the horizontal direction with respect to the out camera 13 as the x axis direction, the vertical direction as the y axis direction, and the depth direction as the z axis. Determine. Here, the upper end position of the display 12 in the y-axis direction is y upper , and the lower end position is y bottom . Further, the left end position of the display 12 in the x-axis direction is x left and the right end position is x right . The distance from the out camera 13 to the display 12 is ΔZ.
まず、表示範囲算出部15は、ステップS101において算出した眼球位置(x,y,z)をアウトカメラ13における座標系(xpos,ypos,zpos)に変換する。ここで、インカメラ11の位置(xi,yi,zi)から、xpos=xi+xであり、ypos=yi+yであり、zpos=zi+zである。 First, the display range calculation unit 15 converts the eyeball position (x, y, z) calculated in step S101 into a coordinate system (x pos , y pos , z pos ) in the out camera 13. Here, from the position (x i , y i , z i ) of the in-camera 11, x pos = x i + x, y pos = y i + y, and z pos = z i + z.
次に、表示範囲算出部15は、表示範囲S2におけるy軸方向の上端yobj_upperを次の式(6)により算出する。表示範囲S2は、ディスプレイ12に表示する被写体の範囲である。 Next, the display range calculation unit 15 calculates the upper end y obj_upper in the y-axis direction in the display range S2 by the following equation (6). The display range S2 is a range of a subject to be displayed on the display 12.
yobj_upper=ypos−(ypos−yupper)×(zpos+Zobj)/(zpos−ΔZ) …(6) y obj — upper = y pos − (y pos −y upper ) × (z pos + Z obj ) / (z pos −ΔZ) (6)
また、表示範囲算出部15は、表示範囲S2におけるy軸方向の下端yobj_bottomを次の式(7)により算出する。 In addition, the display range calculation unit 15 calculates the lower end y obj_bottom in the y-axis direction in the display range S2 by the following equation (7).
yobj_bottom=ypos−(ypos−ybottom)×(zpos+Zobj)/(zpos−ΔZ) …(7) y obj —bottom = y pos − (y pos −y bottom ) × (z pos + Z obj ) / (z pos −ΔZ) (7)
次に、表示範囲算出部15は、表示範囲S2におけるx軸方向の左端xobj_leftを次の式(8)により算出する。 Next, the display range calculation unit 15 calculates the left end x obj_left in the x-axis direction in the display range S2 by the following equation (8).
xobj_left=xpos−(xpos−xleft)×(zpos+Zobj)/(zpos−ΔZ) …(8) x obj_left = x pos - (x pos -x left) × (z pos + Z obj) / (z pos -ΔZ) ... (8)
また、表示範囲算出部15は、表示範囲S2におけるx軸方向の右端xobj_rightを次の式(9)により算出する。 In addition, the display range calculation unit 15 calculates the right end x obj_right in the x-axis direction in the display range S2 by the following equation (9).
xobj_right=xpos−(xpos−xright)×(zpos+Zobj)/(zpos−ΔZ) …(9) x obj_right = x pos − (x pos −x right ) × (z pos + Z obj ) / (z pos −ΔZ) (9)
式(6)、(7)、(8)、(9)に示すように、表示範囲算出部15は、眼球位置からディスプレイ12(ユーザ視点空間映像提示装置10)までの距離に対する眼球位置から被写体までの距離を用いて表示範囲を算出する。 As shown in Expressions (6), (7), (8), and (9), the display range calculation unit 15 determines the subject from the eyeball position relative to the distance from the eyeball position to the display 12 (user viewpoint space video presentation device 10). The display range is calculated using the distance up to.
次に、表示範囲算出部15は、実空間における表示範囲S2をアウトカメラ13が撮影した映像である撮影映像Oにおける表示範囲aに変換する。まず、表示範囲算出部15は、表示範囲aのy軸方向における上端j1を次の式(10)により算出する。ここで、βは、撮影映像Oにおける1ピクセルに対する実空間での大きさ(例えば、単位はメートル)を表す係数、つまりピクセルをメートル座標に変換する係数である。また、f2は、アウトカメラ13の焦点距離である。 Next, the display range calculation unit 15 converts the display range S2 in the real space into a display range a in the captured video O that is a video captured by the out camera 13. First, the display range calculating section 15 calculates the equation (10) the upper end j 1 of the following in the y-axis direction of the display range a. Here, β is a coefficient representing the size in real space (for example, the unit is meters) for one pixel in the captured video O, that is, a coefficient for converting a pixel into meter coordinates. Further, f2 is a focal length of the out camera 13.
j1=f2×yobj_upper/β×Zobj …(10) j 1 = f2 × y obj — upper / β × Z obj (10)
続いて、表示範囲算出部15は、撮影映像Oにおける表示範囲aのy軸方向における下端j2を次の式(11)により算出する。 Subsequently, the display range calculating section 15, the lower end j 2 in the y-axis direction of the display range a in the captured image O is calculated by the following equation (11).
j2=f2×yobj_bottom/β×Zobj …(11) j 2 = f2 × y obj_bottom / β × Z obj (11)
次に、表示範囲算出部15は、撮影映像Oにおける表示範囲aのx軸方向における左端i1を次の式(12)により算出する。 Next, the display range calculation unit 15 calculates the left end i 1 of the display range a in the captured image O in the x-axis direction by the following equation (12).
i1=f2×xobj_left/β×Zobj …(12) i 1 = f2 × x obj_left / β × Z obj (12)
続いて、表示範囲算出部15は、撮影映像Oにおける表示範囲aのy軸方向における右端i2を次の式(13)により算出する。 Subsequently, the display range computing unit 15, the right edge i 2 in the y-axis direction of the display range a in the captured image O is calculated by the following equation (13).
i2=f2×xobj_right/β×Zobj …(13) i 2 = f2 × x obj_right / β × Z obj (13)
これにより、表示範囲算出部15は、四角形の表示範囲aにおける頂点(i1,j1)、(i1,j2)、(i2,j1)、(i2,j2)を算出する。 Thereby, the display range calculation unit 15 calculates the vertices (i 1 , j 1 ), (i 1 , j 2 ), (i 2 , j 1 ), (i 2 , j 2 ) in the rectangular display range a. To do.
[ステップS104:映像切出し]
次に、ステップS104において、映像切出し部18が、撮影映像Oから表示範囲aを切り出す。
[Step S104: Image Cutout]
Next, in step S <b> 104, the video cutout unit 18 cuts out the display range a from the captured video O.
[ステップS105:映像表示]
最後に、ステップ105において、映像表示部19が、映像切出し部18が切り出した映像をディスプレイ12のサイズに合わせて、ディスプレイ12に表示する。つまり、映像表示部19は、切り出した映像がディスプレイ12の画面全体に表示されるように、切り出した映像の表示倍率を調整(拡大又は縮小)して、ディスプレイ12に表示する。
[Step S105: Video Display]
Finally, in step 105, the video display unit 19 displays the video clipped by the video cutout unit 18 on the display 12 according to the size of the display 12. That is, the video display unit 19 adjusts (enlarges or reduces) the display magnification of the clipped video so that the clipped video is displayed on the entire screen of the display 12 and displays the video on the display 12.
図6は、本実施形態によるユーザ視点空間映像提示装置10の表示例を表すイメージ図である。図6(a)は、アウトカメラ13の撮像映像Oをディスプレイ12に表示した場合の表示例である。図6(b)は、撮像映像Oから表示範囲aを切り出した映像をディスプレイ12に表示した場合の表示例である。図6(a)に示すように、撮影画像Oにおける被写体200のスケールは、ユーザが肉眼で目にする被写体100のスケールと異なる。ユーザ視点空間映像提示装置10は、ユーザが肉眼で見ている被写体100と、ディスプレイ12に表示する映像がシームレスになるように、撮像映像Oから表示範囲aを切り出して表示する。このため、図6(b)に示すように、本実施形態によるユーザ視点空間映像提示装置10では、ユーザAが手動で表示倍率や表示範囲を調整せずとも、例えばユーザAが肉眼で目視している橋101とディスプレイ13に表示されている橋301とがあたかも繋がっているかのように表示される。つまり、ユーザが肉眼で見ている被写体100のスケールとディスプレイ12に表示する被写体300のスケールとがほぼ同一である。 FIG. 6 is an image diagram illustrating a display example of the user viewpoint space video presentation device 10 according to the present embodiment. FIG. 6A is a display example when the captured image O of the out camera 13 is displayed on the display 12. FIG. 6B is a display example when an image obtained by cutting out the display range a from the captured image O is displayed on the display 12. As shown in FIG. 6A, the scale of the subject 200 in the captured image O is different from the scale of the subject 100 that the user sees with the naked eye. The user viewpoint space video presentation device 10 cuts out and displays the display range a from the captured video O so that the subject 100 that the user is viewing with the naked eye and the video displayed on the display 12 are seamless. Therefore, as shown in FIG. 6B, in the user viewpoint space video presentation device 10 according to the present embodiment, for example, the user A visually observes with the naked eye without the user A manually adjusting the display magnification or the display range. Displayed as if the bridge 101 and the bridge 301 displayed on the display 13 are connected. That is, the scale of the subject 100 viewed by the user with the naked eye is substantially the same as the scale of the subject 300 displayed on the display 12.
このように、本実施形態によれば、ユーザ視点空間映像提示装置10は、ユーザの眼球位置と被写体までの距離に基づいて、ディスプレイ12に表示する被写体の表示範囲を決定している。これにより、ユーザが手動で表示範囲や表示倍率を調整せずとも、ユーザが肉眼で目にしている被写体と表示する被写体とが一連の被写体であるかのように表示することができる。このため、ユーザは、ディスプレイ12があたかもガラス窓で、ディスプレイ12上に表示された映像がガラス窓を通してみえる実際の映像であるかのように感じることができる。そのため、ユーザが表示されている被写体を見たときに感じる違和感や混乱を軽減することができる。
また、ディスプレイ12上にCG(Computer Graphics)を追加した場合には、そのCGが現実と同じような倍率で見えるため、あたかもそのCGが現実に存在するかのごとく、拡張現実感を得ることができる。
Thus, according to the present embodiment, the user viewpoint space video presentation device 10 determines the display range of the subject to be displayed on the display 12 based on the user's eyeball position and the distance to the subject. Thereby, even if the user does not manually adjust the display range and the display magnification, it is possible to display the subject that the user sees with the naked eye and the subject to be displayed as a series of subjects. For this reason, the user can feel as if the display 12 is a glass window and the image displayed on the display 12 is an actual image seen through the glass window. Therefore, it is possible to reduce a sense of discomfort and confusion that the user feels when viewing the displayed subject.
Further, when a CG (Computer Graphics) is added on the display 12, the CG can be seen at the same magnification as in reality, so that augmented reality can be obtained as if the CG actually existed. it can.
また、図3に示す各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、映像表示処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
In addition, a program for realizing each step shown in FIG. 3 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed, thereby executing video display processing. You may go. Here, the “computer system” may include an OS and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
10…ユーザ視点空間映像提示装置 11…インカメラ 12…ディスプレイ 13…アウトカメラ 14…眼球位置計測部 15…表示範囲算出部 16…実空間撮影部 17…被写体距離計測部 18…映像切出し部 19…映像表示部 DESCRIPTION OF SYMBOLS 10 ... User viewpoint space image | video presentation apparatus 11 ... In camera 12 ... Display 13 ... Out camera 14 ... Eyeball position measurement part 15 ... Display range calculation part 16 ... Real space imaging | photography part 17 ... Subject distance measurement part 18 ... Image | video clipping part 19 ... Video display
Claims (6)
被写体を撮影する被写体撮影部と、
前記被写体までの距離を計測する被写体距離計測部と、
前記眼球位置計測部が計測した眼球位置と、前記被写体距離計測部が計測した被写体までの距離とに基づいて、表示範囲を算出する表示範囲算出部と、
前記被写体撮影部が撮影した画像から、前記表示範囲算出部が算出した表示範囲を切り出して表示する表示部と、
を備えることを特徴とするユーザ視点空間映像提示装置。 An eyeball position measurement unit that measures the user's eyeball position;
A subject photographing unit for photographing the subject;
A subject distance measuring unit for measuring the distance to the subject;
A display range calculation unit that calculates a display range based on the eyeball position measured by the eyeball position measurement unit and the distance to the subject measured by the subject distance measurement unit;
A display unit that cuts out and displays the display range calculated by the display range calculation unit from the image captured by the subject photographing unit;
A user viewpoint space video presentation device comprising:
前記眼球位置計測部は、前記ユーザ撮影部が撮影した画像から前記ユーザの眼球位置を計測する
ことを特徴とする請求項1または2に記載のユーザ視点空間映像提示装置。 A user photographing unit for photographing the user;
3. The user viewpoint space video presentation device according to claim 1, wherein the eyeball position measurement unit measures the eyeball position of the user from an image captured by the user photographing unit.
被写体撮影部が、被写体を撮影するステップと、
被写体距離計測部が、前記被写体までの距離を計測するステップと、
表示範囲算出部が、前記眼球位置計測部が計測した眼球位置と、前記被写体距離計測部が計測した被写体までの距離とに基づいて、表示範囲を算出するステップと、
表示部が、前記被写体撮影部が撮影した画像から、前記表示範囲算出部が算出した表示範囲を切り出して表示するステップと、
を有することを特徴とするユーザ視点空間映像提示方法。 An eyeball position measuring unit measuring the user's eyeball position;
A subject photographing unit photographing a subject;
A subject distance measuring unit measuring a distance to the subject;
A display range calculation unit calculating a display range based on the eyeball position measured by the eyeball position measurement unit and the distance to the subject measured by the subject distance measurement unit;
A step of displaying and cutting out a display range calculated by the display range calculation unit from an image captured by the subject photographing unit;
A user viewpoint space video presentation method characterized by comprising:
ユーザの眼球位置を計測するステップと、
被写体を撮影するステップと、
前記被写体までの距離を計測するステップと、
計測した眼球位置と、計測した被写体までの距離とに基づいて、表示範囲を算出するステップと、
撮影した画像から、算出した表示範囲を切り出して表示するステップと、
を実行させるためのプログラム。 On the computer,
Measuring a user's eyeball position;
Shooting a subject,
Measuring the distance to the subject;
Calculating a display range based on the measured eyeball position and the measured distance to the subject;
Cutting out and displaying the calculated display range from the captured image;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010121568A JP5439281B2 (en) | 2010-05-27 | 2010-05-27 | User viewpoint space video presentation device, user viewpoint space video presentation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010121568A JP5439281B2 (en) | 2010-05-27 | 2010-05-27 | User viewpoint space video presentation device, user viewpoint space video presentation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011248655A true JP2011248655A (en) | 2011-12-08 |
JP5439281B2 JP5439281B2 (en) | 2014-03-12 |
Family
ID=45413834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010121568A Expired - Fee Related JP5439281B2 (en) | 2010-05-27 | 2010-05-27 | User viewpoint space video presentation device, user viewpoint space video presentation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5439281B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013254338A (en) * | 2012-06-06 | 2013-12-19 | Nippon Telegr & Teleph Corp <Ntt> | Video generation system, video generation device, video generation method, and computer program |
WO2015125709A1 (en) * | 2014-02-20 | 2015-08-27 | 株式会社ソニー・コンピュータエンタテインメント | Information processing device and information processing method |
JP2019008473A (en) * | 2017-06-22 | 2019-01-17 | ファナック株式会社 | Composite reality simulation device and composite reality simulation program |
WO2020110283A1 (en) * | 2018-11-30 | 2020-06-04 | マクセル株式会社 | Display device |
US11425350B2 (en) * | 2018-03-08 | 2022-08-23 | Virtualwindow Co., Ltd. | Image display system |
WO2022259480A1 (en) * | 2021-06-10 | 2022-12-15 | 日本電信電話株式会社 | Video processing device, video processing method, and video processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08190640A (en) * | 1995-01-12 | 1996-07-23 | Hitachi Ltd | Information display method and information provision system |
JP2006208451A (en) * | 2005-01-25 | 2006-08-10 | Konica Minolta Photo Imaging Inc | Video display device |
JP3926837B2 (en) * | 2004-06-04 | 2007-06-06 | 松下電器産業株式会社 | Display control method and apparatus, program, and portable device |
-
2010
- 2010-05-27 JP JP2010121568A patent/JP5439281B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08190640A (en) * | 1995-01-12 | 1996-07-23 | Hitachi Ltd | Information display method and information provision system |
JP3926837B2 (en) * | 2004-06-04 | 2007-06-06 | 松下電器産業株式会社 | Display control method and apparatus, program, and portable device |
JP2006208451A (en) * | 2005-01-25 | 2006-08-10 | Konica Minolta Photo Imaging Inc | Video display device |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013254338A (en) * | 2012-06-06 | 2013-12-19 | Nippon Telegr & Teleph Corp <Ntt> | Video generation system, video generation device, video generation method, and computer program |
WO2015125709A1 (en) * | 2014-02-20 | 2015-08-27 | 株式会社ソニー・コンピュータエンタテインメント | Information processing device and information processing method |
JP2015156131A (en) * | 2014-02-20 | 2015-08-27 | 株式会社ソニー・コンピュータエンタテインメント | Information processing apparatus and information processing method |
US10192360B2 (en) | 2014-02-20 | 2019-01-29 | Sony Interactive Entertainment Inc. | Information processing apparatus and information processing method |
JP2019008473A (en) * | 2017-06-22 | 2019-01-17 | ファナック株式会社 | Composite reality simulation device and composite reality simulation program |
US11750789B2 (en) * | 2018-03-08 | 2023-09-05 | Virtualwindow Co., Ltd. | Image display system |
US12095965B2 (en) * | 2018-03-08 | 2024-09-17 | Virtual Window Co., Ltd. | Image display system |
US20230328215A1 (en) * | 2018-03-08 | 2023-10-12 | Virtualwindow Co., Ltd. | Image display system |
US11425350B2 (en) * | 2018-03-08 | 2022-08-23 | Virtualwindow Co., Ltd. | Image display system |
US20220337801A1 (en) * | 2018-03-08 | 2022-10-20 | Virtualwindow Co., Ltd. | Image display system |
JP7146944B2 (en) | 2018-11-30 | 2022-10-04 | マクセル株式会社 | Display device |
JP2022183171A (en) * | 2018-11-30 | 2022-12-08 | マクセル株式会社 | Display device |
US11483483B2 (en) | 2018-11-30 | 2022-10-25 | Maxell, Ltd. | Display apparatus |
JPWO2020110283A1 (en) * | 2018-11-30 | 2021-10-14 | マクセル株式会社 | Display device |
US11831976B2 (en) | 2018-11-30 | 2023-11-28 | Maxell, Ltd. | Display apparatus |
JP7427739B2 (en) | 2018-11-30 | 2024-02-05 | マクセル株式会社 | display device |
WO2020110283A1 (en) * | 2018-11-30 | 2020-06-04 | マクセル株式会社 | Display device |
WO2022259480A1 (en) * | 2021-06-10 | 2022-12-15 | 日本電信電話株式会社 | Video processing device, video processing method, and video processing program |
JP7485221B2 (en) | 2021-06-10 | 2024-05-16 | 日本電信電話株式会社 | Image processing device, image processing method, and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP5439281B2 (en) | 2014-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11914147B2 (en) | Image generation apparatus and image generation method using frequency lower than display frame rate | |
CA3003550C (en) | Real-time visual feedback for user positioning with respect to a camera and a display | |
JP6074494B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
JP5439281B2 (en) | User viewpoint space video presentation device, user viewpoint space video presentation method and program | |
CN109074681A (en) | Information processing unit, information processing method and program | |
US20150304625A1 (en) | Image processing device, method, and recording medium | |
US10803988B2 (en) | Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment | |
JP5793975B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
KR20160060582A (en) | Device and method for processing visual data, and related computer program product | |
JP2015103991A (en) | Image processing apparatus, method and computer program | |
JP5645255B2 (en) | Image processing apparatus and image processing method | |
TWI603225B (en) | Viewing angle adjusting method and apparatus of liquid crystal display | |
JP2017191546A (en) | Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display | |
JP2013258583A (en) | Captured image display, captured image display method, and program | |
JP5759439B2 (en) | Video communication system and video communication method | |
JP2011217229A (en) | Imaging apparatus and display method | |
JP2013153404A (en) | Image processing apparatus, and image processing method | |
JP5485102B2 (en) | COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM | |
JP2012023589A (en) | Stereoscopic image processing device, stereoscopic image photographing device, stereoscopic image display device, and stereoscopic image processing method | |
JP2013020569A (en) | Image processor | |
WO2023004063A1 (en) | Screen interaction using eog coordinates | |
CN117730298A (en) | Screen interaction using EOG coordinates | |
JP2021096772A (en) | Image processing system, image processing method, system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5439281 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |