JP7324605B2 - 3D image generation device and its program - Google Patents
3D image generation device and its program Download PDFInfo
- Publication number
- JP7324605B2 JP7324605B2 JP2019072541A JP2019072541A JP7324605B2 JP 7324605 B2 JP7324605 B2 JP 7324605B2 JP 2019072541 A JP2019072541 A JP 2019072541A JP 2019072541 A JP2019072541 A JP 2019072541A JP 7324605 B2 JP7324605 B2 JP 7324605B2
- Authority
- JP
- Japan
- Prior art keywords
- pupil position
- virtual camera
- camera array
- stereoscopic image
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
特許法第30条第2項適用 (1)「一般社団法人映像情報メディア学会」から2018年12月6日に発行された刊行物「2018年映像情報メディア学会冬季大会 講演予稿集」において発表 (2)「一般社団法人映像情報メディア学会」が2018年12月20日~21日に開催した「2018年映像情報メディア学会冬季大会」において2018年12月21日に発表Application of
本発明は、立体画像生成装置及びそのプログラムに関する。 The present invention relates to a stereoscopic image generating device and its program.
インテグラルフォトグラフィ(IP:Integral Photography)方式は、特殊な眼鏡が不要で裸眼による立体視が可能なため、従来より研究が進められている。図7に示すように、従来のIP立体映像表示装置100は、液晶や有機ELなどの直視型ディスプレイ110と、その前面に置かれたレンズアレイ120とを備える。レンズアレイ120は、2次元方向に配列された要素レンズ121で構成されている。直視型ディスプレイ110は、各要素レンズ121に対応する要素画像eで構成される要素画像群Eを表示する。すると、要素レンズ121により要素画像eが空間中に投影され、立体像が形成される。
Integral photography (IP) methods have been studied since they do not require special spectacles and enable stereoscopic viewing with the naked eye. As shown in FIG. 7, a conventional IP stereoscopic
IP方式では、多くの視点で映像を再現するため、非常に多くの画素(情報量)が必要となる。IP立体映像の品質を決定づけるパラメータとして、「立体映像画素数(要素画像数)」、「視域」、「空間周波数特性(奥行再現範囲)」の3つが挙げられる。非特許文献1に記載されているように、これら3つのパラメータにはトレードオフの関係があることが知られている。つまり、「視域」を狭くすることにより、「立体映像画素数」及び「空間周波数特性」を向上させることができる。その一方、「視域」を狭くすると、立体映像の表示範囲が狭くなる。また、「視域」を狭くするためには、焦点距離の長いレンズアレイを用いればよい。
In the IP system, a very large number of pixels (amount of information) are required in order to reproduce images from many viewpoints. There are three parameters that determine the quality of IP stereoscopic video: the number of stereoscopic video pixels (the number of element images), the viewing zone, and the spatial frequency characteristics (depth reproduction range). As described in Non-Patent
従来のIP方式において、後記する視点追従技術により「視域」の方向を制御すれば、焦点距離の長いレンズアレイを用いても、広い範囲で立体映像を表示できる。この場合、図8に示すように、視聴者Hの反対方向に要素画像群Eの表示位置を平行移動させることで、「視域」の方向制御が実現できる(縮小拡大でも可)。図8(a)では、視聴者Hが上側に移動したので、要素画像群Eの表示位置を下側に移動させることで、ドットで図示した視域を上方向に移動させている。また、図8(b)では、視聴者Hが下側に移動したので、要素画像群Eの表示位置を上側に移動させることで、ドットで図示した視域を下方向に移動させている。このようにして、IP方式では、「立体映像画素数」及び「空間周波数特性」を向上させ、かつ、「視域」を広くすることができる。 In the conventional IP method, if the direction of the "viewing zone" is controlled by a viewpoint tracking technique, which will be described later, stereoscopic images can be displayed in a wide range even if a lens array with a long focal length is used. In this case, as shown in FIG. 8, by translating the display position of the elemental image group E in the direction opposite to the viewer H, direction control of the "viewing zone" can be realized (reduction/enlargement is also possible). In FIG. 8A, since the viewer H has moved upward, the display position of the elemental image group E is moved downward, thereby moving the viewing zone shown by dots upward. Also, in FIG. 8B, since the viewer H has moved downward, the display position of the elemental image group E is moved upward, thereby moving the viewing zone shown by dots downward. In this way, in the IP system, it is possible to improve the "stereoscopic image pixel count" and "spatial frequency characteristics" and widen the "viewing zone".
この視点追従技術では、図9に示すように、仮想空間内に、仮想ディスプレイ210と、仮想レンズアレイ220と、複数台の仮想カメラ231からなる仮想カメラアレイ230と、被写体となる3次元モデルObjを配置する。まず、視点追従技術では、瞳検出を行い、視域の中心が両眼の中間になるように仮想カメラアレイ230を設定する。つまり、仮想カメラアレイ230の中心位置が、視域の中心位置となる。そして、視点追従技術では、仮想カメラアレイ230により様々な方向で3次元モデルObjの多視点画像群Mを撮影し、撮影した多視点画像群Mを要素画像群Eに変換する。この多視点画像群Mは、異なる視点の画像(多視点画像m)で構成されている。
In this viewpoint tracking technology, as shown in FIG. 9, a
なお、図9では、白抜きの‘×’が仮想カメラアレイ230の中心位置を示し、黒色の‘×’が瞳検出した両眼の中心位置を示す。図9では、仮想カメラアレイ230の中心位置、及び、瞳検出した両眼の中心位置が一致するので、白抜きの‘×’及び黒色の‘×’を重なるように図示した。
In FIG. 9, the white 'x' indicates the center position of the
ここで、視点追従技術では、視聴者Hが動くタイミングによって、瞳検出に失敗する場合や、要素画像群Eのレンダリングが遅延する場合がある。図10を参照し、それらが発生した場合の問題点を説明する。なお、図10では、実際の両眼の位置を符号R,Lで図示した。また、図10では、図9と同様、白抜きの‘×’及び黒色の‘×’を重なるように図示した。 Here, in the viewpoint tracking technique, pupil detection may fail or rendering of the elemental image group E may be delayed depending on the timing at which the viewer H moves. With reference to FIG. 10, problems when they occur will be described. In FIG. 10, the actual positions of both eyes are indicated by symbols R and L. As shown in FIG. In addition, in FIG. 10, similarly to FIG. 9, white 'x' and black 'x' are illustrated so as to overlap each other.
図10に示すように、時刻t=0では、視聴者Hが動いていないので、視域αの中心位置(仮想カメラアレイ230の中心位置)が、右眼R及び左眼Lの中間位置に一致している。時刻t=1では、右眼R及び左眼Lの両方とも視域αに収まっている。しかし、眼の移動方向において、右眼Rが視域αの境界に近づいており、視域αの余白(マージン)βが少なくなっている。時刻t=2では、視域αが追従できずに右眼Rが視域αから外れてしまう。すると、クロストークが発生することや、視認性が低下することがある。その後、時刻t=3では、視聴者Hの動きが小さくなったので、右眼R及び左眼Lの両方とも視域αに収まっている。 As shown in FIG. 10, at time t=0, the viewer H is not moving, so the central position of the viewing area α (the central position of the virtual camera array 230) is positioned between the right eye R and the left eye L. Match. At time t=1, both the right eye R and the left eye L are within the viewing zone α. However, in the eye movement direction, the right eye R is approaching the boundary of the viewing zone α, and the margin β of the viewing zone α is decreasing. At time t=2, the viewing zone α cannot follow, and the right eye R deviates from the viewing zone α. As a result, crosstalk may occur and visibility may deteriorate. After that, at time t=3, since the movement of the viewer H has decreased, both the right eye R and the left eye L are within the viewing zone α.
このように、視点追従技術では、視域の方向制御が視聴者Hの動きに追い付かず、立体画像の視域から瞳が外れてしまうことがある。その結果、クロストークが発生することや、視認性が低下することがある。 As described above, in the viewpoint tracking technology, the directional control of the viewing zone cannot catch up with the movement of the viewer H, and the pupil may be out of the viewing zone of the stereoscopic image. As a result, crosstalk may occur and visibility may deteriorate.
そこで、本発明は、立体画像の視域から瞳が外れにくい立体画像生成装置及びそのプログラムを提供することを課題とする。 Accordingly, it is an object of the present invention to provide a stereoscopic image generating apparatus and a program therefor in which the pupil is less likely to deviate from the viewing zone of the stereoscopic image.
前記した課題に鑑みて、本発明に係る立体画像生成装置は、仮想カメラアレイで撮影した多視点画像群から、人物の瞳位置に視域を追従させた立体画像を生成する立体画像生成装置であって、仮想カメラアレイ設定手段と、瞳位置予測手段と、仮想カメラアレイ移動手段と、多視点画像群撮影手段と、立体画像生成手段と、を備える構成とした。 SUMMARY OF THE INVENTION In view of the above-described problems, a stereoscopic image generating apparatus according to the present invention is a stereoscopic image generating apparatus that generates a stereoscopic image in which a viewing zone follows a person's pupil position from a group of multi-viewpoint images captured by a virtual camera array. The configuration includes virtual camera array setting means, pupil position prediction means, virtual camera array movement means, multi-viewpoint image group photographing means, and stereoscopic image generation means.
かかる立体画像生成装置によれば、仮想カメラアレイ設定手段は、瞳位置を示す瞳位置情報が入力され、入力された瞳位置情報に基づいて、仮想カメラアレイの中心位置を、人物の両眼の中間位置に設定する。すなわち、仮想カメラアレイ設定手段は、視域の中心位置が人物の両眼の中間位置となるように仮想カメラアレイの中心位置を設定する。なお、仮想カメラアレイの中心位置が視域の中心位置となる。 According to such a stereoscopic image generating apparatus, the virtual camera array setting means receives the pupil position information indicating the pupil position, and based on the inputted pupil position information, sets the center position of the virtual camera array to the position of the person's eyes. Set to middle position. That is, the virtual camera array setting means sets the central position of the virtual camera array so that the central position of the viewing zone is the middle position between the eyes of the person. Note that the center position of the virtual camera array is the center position of the viewing area.
瞳位置予測手段は、瞳位置情報から瞳位置の移動量を予測する。
仮想カメラアレイ移動手段は、瞳位置予測手段が予測した瞳位置の移動量に基づいて、仮想カメラアレイの中心位置を移動させる。すなわち、仮想カメラアレイ移動手段は、人物(瞳)の動きを考慮して仮想カメラアレイの中心位置を移動させる。
多視点画像群撮影手段は、仮想カメラアレイ移動手段が移動させた仮想カメラアレイで多視点画像群を撮影する。
立体画像生成手段は、多視点画像群から立体画像を生成する。
瞳位置予測手段は、瞳位置情報が示す瞳位置の時間変化から瞳位置の移動速度を算出し、瞳位置の移動速度と予め設定した係数とを乗じることで、瞳位置の移動量を算出する。
The pupil position prediction means predicts the movement amount of the pupil position from the pupil position information.
The virtual camera array moving means moves the center position of the virtual camera array based on the movement amount of the pupil position predicted by the pupil position predicting means. That is, the virtual camera array moving means moves the center position of the virtual camera array considering the movement of the person (pupil).
The multi-viewpoint image group shooting means shoots the multi-viewpoint image group with the virtual camera array moved by the virtual camera array moving means.
The stereoscopic image generating means generates a stereoscopic image from the multi-viewpoint image group.
The pupil position predicting means calculates the moving speed of the pupil position from the time change of the pupil position indicated by the pupil position information, and calculates the amount of movement of the pupil position by multiplying the moving speed of the pupil position by a preset coefficient. .
なお、本発明は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記した立体画像生成装置として協調動作させるプログラムで実現することもできる。 The present invention can also be implemented by a program that causes hardware resources such as a CPU, memory, and hard disk provided in a computer to operate cooperatively as the stereoscopic image generation device described above.
本発明によれば、人物の動きを考慮して仮想カメラアレイの中心位置を移動させるので、人物の瞳位置に立体画像の視域が追従し、立体画像の視域から瞳が外れにくくなる。これにより、クロストークの発生や視認性の低下を抑制することができる。 According to the present invention, since the center position of the virtual camera array is moved in consideration of the movement of the person, the viewing area of the stereoscopic image follows the pupil position of the person, and the pupil is less likely to deviate from the viewing area of the stereoscopic image. As a result, it is possible to suppress the occurrence of crosstalk and the deterioration of visibility.
(実施形態)
[立体画像表示システムの概略]
図1及び図2を参照し、本発明の実施形態に係る立体画像表示システム1(図2)の概略について説明する。
図1に示すように、立体画像表示システム1は、視域の方向を制御する際、視聴者(人物)の動きを考慮して仮想カメラアレイ230の中心位置を移動させることで、立体画像の視域から視聴者の瞳を外れにくくしたものである。
(embodiment)
[Overview of stereoscopic image display system]
An outline of a stereoscopic image display system 1 (FIG. 2) according to an embodiment of the present invention will be described with reference to FIGS.
As shown in FIG. 1, when controlling the direction of the viewing zone, the stereoscopic
なお、図1では、白抜きの‘×’が仮想カメラアレイ230の中心位置を示し、黒色の‘×’が瞳検出した両眼の中心位置を示す。図1では、仮想カメラアレイ230の中心位置を両眼の中心位置から移動させているので、白抜きの‘×’及び黒色の‘×’を異なる位置に図示した。
In FIG. 1, the white 'x' indicates the center position of the
図2に示すように、立体画像表示システム1は、瞳位置検出装置2と、立体画像生成装置3と、立体画像表示装置4とを備える。本実施形態では、立体画像表示システム1が、IP方式の立体画像(要素画像群)を表示すると共に、視域の方向制御自体は既知の手法を用いることとして説明する(例えば、図8参照)。
As shown in FIG. 2 , the stereoscopic
瞳位置検出装置2は、視聴者Hの瞳を検出し、検出した瞳位置を示す瞳位置情報を生成するものである。例えば、瞳位置検出装置2は、視聴者Hの顔画像を撮影するための撮影装置(例えば、Webカメラ)を立体画像表示装置4の上部に備える。そして、瞳位置検出装置2は、撮影装置が撮影した顔画像から、瞳検出技術(例えば、OpenCV)を用いて、右眼R及び左眼Lの位置をリアルタイムで検出する。
瞳位置検出装置2は、生成した瞳位置情報を立体画像生成装置3に出力する。ここで、瞳位置検出装置2は、瞳検出に失敗した場合、瞳検出に失敗した旨の通知と共に、直前に検出した瞳位置を示す瞳位置情報を出力することとする。
The pupil
The pupil
立体画像生成装置3は、仮想カメラアレイ230で撮影した多視点画像群Mから、視聴者Hの瞳位置に視域を追従させた要素画像群Eを生成するものである。そして、立体画像生成装置3は、生成した要素画像群Eを立体画像表示装置4に出力する。この立体画像生成装置3の詳細は、後記する。
The stereoscopic
立体画像表示装置4は、立体画像生成装置3が生成した要素画像群Eを表示する一般的なIP立体ディスプレイである。例えば、立体画像表示装置4は、従来技術と同様、LCDやOLED等の直視型ディスプレイ(不図示)の前面にレンズアレイ41を配置したものである。ここで、立体画像表示システム1では、視聴者Hの瞳位置に視域が追従するので、焦点距離が長いレンズアレイ41を用いても、要素画像群Eの品質を向上させることができる。
The stereoscopic
[立体画像生成装置の構成]
図3を参照し、立体画像生成装置3の構成について説明する。
図3に示すように、立体画像生成装置3は、仮想カメラアレイ設定手段30と、瞳移動量算出手段(瞳位置予測手段)31と、仮想カメラアレイ移動手段32と、3次元モデル設定手段33と、多視点画像群撮影手段34と、要素画像群生成手段(立体画像生成手段)35とを備える。
[Configuration of Stereoscopic Image Generation Device]
The configuration of the stereoscopic
As shown in FIG. 3, the stereoscopic
仮想カメラアレイ設定手段30は、仮想カメラアレイ230に関するパラメータを設定するものである。例えば、パラメータには、仮想カメラアレイ230の中心位置や、仮想カメラ231の台数、配置、間隔及び焦点距離が含まれる。具体的には、仮想カメラアレイ設定手段30は、瞳位置検出装置2から入力された瞳位置情報に基づいて、仮想カメラアレイ230の中心位置を、視聴者Hの両眼の中間位置に設定する。この他、立体画像の制作者が、図示を省略したマウス、キーボード等の操作手段を用いて、仮想カメラ231の台数、配置、間隔及び焦点距離を仮想カメラアレイ設定手段30に設定してもよい。
仮想カメラアレイ設定手段30は、設定されたパラメータを仮想カメラアレイ移動手段32に出力する。
The virtual camera array setting means 30 sets parameters regarding the
The virtual camera array setting means 30 outputs the set parameters to the virtual camera
瞳移動量算出手段31は、瞳位置検出装置2より入力された瞳位置情報から瞳位置の移動量を予測するものである。本実施形態では、瞳移動量算出手段31は、瞳位置情報が示す瞳位置の時間変化から瞳位置の移動速度vtを算出する。この瞳位置の移動速度vtは、下記の式(1)に示すように、瞳位置の変化量xt-xt´を時間差t-t´で除算したものとなる。ここでは、瞳位置の検出時刻をそれぞれt,t´とし、検出時刻t,t´の瞳位置をそれぞれxt,xt´とする(但し、t>t´)。
The pupil
そして、瞳移動量算出手段31は、瞳位置の移動速度vtと係数kとを乗じることで、瞳位置の移動量kvtを算出する。この係数kは、例えば、視域の幅、瞳の平均移動速度、瞳検出の成功率を考慮して、任意の値で予め設定する。
瞳移動量算出手段31は、瞳位置の移動量kvtを仮想カメラアレイ移動手段32に出力する。
Then, the pupil movement amount calculation means 31 calculates the movement amount kvt of the pupil position by multiplying the moving speed vt of the pupil position by the coefficient k. This coefficient k is set in advance as an arbitrary value in consideration of, for example, the width of the viewing zone, the average movement speed of the pupil, and the success rate of pupil detection.
The pupil movement amount calculation means 31 outputs the movement amount kvt of the pupil position to the virtual camera array movement means 32 .
仮想カメラアレイ移動手段32は、瞳移動量算出手段31から入力された瞳位置の移動量kvtに基づいて、仮想カメラアレイ230の中心位置を移動させるものである。すなわち、仮想カメラアレイ移動手段32は、視聴者H(瞳)の動きを考慮して、仮想カメラアレイ230の中心位置を両眼の中心位置から移動させる。なお、仮想カメラアレイ移動手段32の詳細は、後記する(仮想カメラアレイ230の移動による視域追従)。
仮想カメラアレイ移動手段32は、移動させた仮想カメラアレイ230の中心位置を、仮想カメラアレイ設定手段30から入力されたパラメータと共に、多視点画像群撮影手段34に出力する。
The virtual camera array moving means 32 moves the center position of the
The virtual camera array moving means 32 outputs the center position of the moved
なお、瞳位置検出装置2が瞳検出に失敗した場合、仮想カメラアレイ設定手段30及び瞳移動量算出手段31には、瞳検出に失敗した旨の通知と共に、直前の瞳位置情報が入力されることとする。この瞳位置情報は、瞳位置検出装置2で検出できた直前の瞳位置を示す。
また、瞳検出に失敗した旨が通知された場合、瞳移動量算出手段31が瞳位置の移動量kvtを算出せず、仮想カメラアレイ移動手段32が仮想カメラアレイ230の中心位置を移動させないこととする。
If the pupil
Further, when it is notified that the pupil detection has failed, the pupil movement amount calculation means 31 does not calculate the movement amount kvt of the pupil position, and the virtual camera array movement means 32 does not move the center position of the
3次元モデル設定手段33は、仮想空間内に配置する3次元モデルObjを設定するものである。この3次元モデルObjは、仮想カメラアレイ230の撮影対象であり、帽子をかぶった女性のように任意である(図1)。例えば、立体画像の制作者が、操作手段を用いて、仮想空間内に配置する3次元モデルObjを3次元モデル設定手段33に設定する。
3次元モデル設定手段33は、設定された3次元モデルObjを多視点画像群撮影手段34に出力する。
The three-dimensional model setting means 33 sets a three-dimensional model Obj to be arranged in the virtual space. This three-dimensional model Obj is an object to be photographed by the
The three-dimensional model setting means 33 outputs the set three-dimensional model Obj to the multi-viewpoint image group photographing means 34 .
多視点画像群撮影手段34は、仮想カメラアレイ移動手段32が移動させた仮想カメラアレイ230で多視点画像群Mを撮影するものである。具体的には、多視点画像群撮影手段34は、3次元モデルObjが配置された仮想空間を、両眼の中心位置から瞳位置の移動量kvtだけ移動した仮想カメラアレイ230で撮影する。このようにして、多視点画像群撮影手段34は、多視点画像群Mを生成(レンダリング)する。
多視点画像群撮影手段34は、生成した多視点画像群を要素画像群生成手段35に出力する。
The multi-viewpoint image group shooting means 34 shoots the multi-viewpoint image group M with the
The multi-viewpoint image group photographing means 34 outputs the generated multi-viewpoint image group to the element image group generation means 35 .
要素画像群生成手段35は、多視点画像群撮影手段34より入力された多視点画像群Mから要素画像群Eを生成するものである。この要素画像群生成手段35は、任意の手法で多視点画像群Mから要素画像群Eを生成できる。例えば、要素画像群生成手段35は、各多視点画像mから同一位置の画素を抽出し、抽出した画素で構成される要素画像eを生成する。
要素画像群生成手段35は、生成した要素画像群Eを立体画像表示装置4に出力する。
The elemental image group generating means 35 generates an elemental image group E from the multi-viewpoint image group M input from the multi-viewpoint image group photographing means 34 . The elemental image group generating means 35 can generate the elemental image group E from the multi-viewpoint image group M by any method. For example, the elemental image group generating means 35 extracts pixels at the same position from each multi-viewpoint image m, and generates an elemental image e composed of the extracted pixels.
The element image group generating means 35 outputs the generated element image group E to the stereoscopic
<要素画像群の生成>
図4を参照し、要素画像群Eの生成の一例について説明する。
図4(a)に示すように、左上視点の画像m11、画像m11の右側視点の画像m21、画像m11の下側視点の画像m12という、3視点分の多視点画像mについて考える。また、説明を簡易にするため、画像m11では、左上画素に「●1」を付し、右側画素に「●2」を付し、下側画素に「●3」を付した。これと同様、画像m21には、「▲1」~「▲3」を付し、画像m12には、「■1」~「■3」を付した。
<Generation of elemental image group>
An example of generation of the elemental image group E will be described with reference to FIG.
As shown in FIG. 4A, for a multi-viewpoint image m for three viewpoints, namely, an image m 11 at the upper left viewpoint, an image m 21 at the right viewpoint of the image m 11 , and an image m 12 at the lower viewpoint of the image m 11 . think. In order to simplify the explanation, in the image m11 , the upper left pixel is marked with "● 1", the right pixel is marked with "● 2", and the lower pixel is marked with "● 3". Similarly, " ▴1 " to "▴3" are added to the image m21, and "▪1" to "▪3" are added to the image m12 .
この場合、要素画像群生成手段35は、図4(b)に示すように、画像m11,m12,m21から左上画素●1,▲1,■1,…を抽出し、左上の要素画像e11を生成する。つまり、要素画像e11は、同一位置の左上画素●1,▲1,■1,…で構成されている。また、要素画像e11において、左上画素●1,▲1,■1,…の並び方は、それら画素を抽出した画像m11,m12,m21の視点位置に対応する。つまり、要素画像e11では、画素●1が左上に配置され、画素▲1が画素●1の右側に配置され、画素■1が画素●1の下側に配置される。 In this case, as shown in FIG . 4(b), the elemental image group generating means 35 extracts upper left pixels ●1, ▲ 1 , ■ 1, . Generate image e11 . That is, the element image e11 is composed of upper left pixels ●1, ▲1, ■1, . . . at the same position. Also, in the element image e11 , the arrangement of the upper left pixels ● 1 , ▲ 1 , ■ 1 , . In other words, in the element image e11 , the pixel ●1 is arranged on the upper left, the pixel ▲1 is arranged on the right side of the pixel ●1, and the pixel ■1 is arranged below the pixel ●1.
また、要素画像群生成手段35は、要素画像e11と同様、画像m11,m12,m21から抽出した右側画素●2,▲2,■2,…で構成される要素画像e21を生成する。さらに、要素画像生成手段36は、要素画像e11,e21と同様、画像m11,m12,m21から抽出した下側画素●3,▲3,■3,…で構成される要素画像e12を生成する。
Further, the element image group generating means 35 generates an element image e21 composed of
ここで、要素画像eは、その要素画像eを構成する各画素の画素位置に対応した位置に配置される。例えば、要素画像e11は、左上画素●1,▲1,■1,…で構成されているので、左上に配置される。また、要素画像e21は、右側画素●2,▲2,■2,…で構成されているので、要素画像e11の右側に配置される。さらに、要素画像e12は、下側画素●3,▲3,■3,…で構成されるので、要素画像e11の下側に配置される。 Here, the elemental image e is arranged at a position corresponding to the pixel position of each pixel forming the elemental image e. For example, the element image e11 is composed of the upper left pixels ●1, ▲1, ■1, . . . Also, since the element image e21 is composed of the right pixels ●2, ▲2, ■ 2 , . Further, the element image e12 is arranged below the element image e11 because it is composed of the lower pixels ●3, ▲3, ■3, .
なお、IP立体表示装置の光学系の構成によっては、立体像の倒立像が表示される場合もある。この場合、要素画像群生成手段35は、各画素の位置を上下左右に反転させて、立体像の正立像が表示されるように要素画像群Eを生成してもよい。 Depending on the configuration of the optical system of the IP stereoscopic display device, an inverted stereoscopic image may be displayed. In this case, the elemental image group generating means 35 may generate the elemental image group E so that a stereoscopic erect image is displayed by inverting the position of each pixel vertically and horizontally.
<仮想カメラアレイの移動による視域追従>
図5を参照し、仮想カメラアレイの移動による視域追従について説明する。
図5では、実際の両眼の位置を符号R,Lで図示した。また、図5では、図1と同様、仮想カメラアレイ230の中心位置を示す白抜きの‘×’と、瞳検出した両眼の中心位置を示す黒色の‘×’とを図示した。なお、仮想カメラアレイ230の中心位置(白抜きの‘×’)が、視域αの中心位置となる。
<Viewing area tracking by moving the virtual camera array>
With reference to FIG. 5, viewing zone tracking by movement of the virtual camera array will be described.
In FIG. 5, the actual positions of both eyes are indicated by symbols R and L. As shown in FIG. In FIG. 5, similarly to FIG. 1, a white 'x' indicating the central position of the
図5に示すように、時刻t=0では、視聴者Hが動いていないので、視域αの中心位置が右眼R及び左眼Lの中間位置に一致している。従って、時刻t=0では、白抜きの‘×’及び黒色の‘×’が重なっている。
時刻t=1では、右眼R及び左眼Lの両方とも視域αに収まっている。このとき、仮想カメラアレイ230を移動量kv1だけ移動させているので、右眼Rが視域αの境界から十分に離れており、図10に比べて、視域αの余白βに余裕がある。
As shown in FIG. 5, at time t=0, the viewer H is not moving, so the central position of the viewing zone α coincides with the intermediate position between the right eye R and the left eye L. As shown in FIG. Therefore, at time t=0, the white 'x' and the black 'x' overlap.
At time t=1, both the right eye R and the left eye L are within the viewing zone α. At this time, since the
時刻t=2では、瞳検出に失敗したので、視域αが時刻t=1から移動していないが、右眼Rの瞳が視域αに収まっている。その結果、立体画像生成装置3は、クロストークの発生や、視認性の低下を抑制できる。
時刻t=3では、右眼R及び左眼Lの両方とも視域αに収まっている。このときも、仮想カメラアレイ230を移動量kv3だけ移動させている。
なお、視聴者Hが反対側に移動した場合(図5では左側に移動した場合)、移動量kvtの符号を負にすればよい。
At time t=2, pupil detection fails, so the viewing zone α has not moved from time t=1, but the pupil of the right eye R is within the viewing zone α. As a result, the stereoscopic
At time t=3, both the right eye R and the left eye L are within the viewing zone α. Also at this time, the
When the viewer H moves to the opposite side (leftward in FIG. 5), the sign of the movement amount kvt should be negative.
[立体画像生成装置の動作]
図6を参照し、立体画像生成装置3の動作について説明する。
図6に示すように、ステップS1において、仮想カメラアレイ設定手段30は、瞳位置検出装置2から入力された瞳位置情報に基づいて、仮想カメラアレイ230の中心位置を、視聴者Hの両眼の中間位置に設定する。
ステップS2において、瞳移動量算出手段31は、瞳位置検出装置2より入力された瞳位置情報から瞳位置の移動量を予測する。例えば、瞳移動量算出手段31は、前記式(1)に示すように、瞳位置情報が示す瞳位置の変化から瞳位置の移動速度を算出し、算出した瞳位置の移動速度と係数とを乗じることで、瞳位置の移動量を算出する。
[Operation of Stereoscopic Image Generation Device]
The operation of the stereoscopic
As shown in FIG. 6, in step S1, the virtual camera array setting means 30 sets the central position of the
In step S<b>2 , the pupil
ステップS3において、仮想カメラアレイ移動手段32は、ステップS2で算出した瞳位置の移動量に基づいて、仮想カメラアレイの中心位置を移動させる。すなわち、仮想カメラアレイ移動手段32は、視聴者Hの動きを考慮して、仮想カメラアレイの中心位置を両眼の中心位置から移動させる。
ステップS4において、3次元モデル設定手段33は、仮想空間内に配置する3次元モデルを設定する。
In step S3, the virtual camera array moving means 32 moves the center position of the virtual camera array based on the movement amount of the pupil position calculated in step S2. That is, the virtual camera array moving means 32 moves the center position of the virtual camera array from the center position of both eyes in consideration of the viewer's H movement.
At step S4, the three-dimensional model setting means 33 sets a three-dimensional model to be arranged in the virtual space.
ステップS5において、多視点画像群撮影手段34は、ステップS3で移動させた仮想カメラアレイで多視点画像群を撮影する。具体的には、多視点画像群撮影手段34は、3次元モデルが配置された仮想空間を、両眼の中心位置から瞳位置の移動量だけ移動させた仮想カメラアレイで撮影する。
ステップS6において、要素画像群生成手段35は、ステップS5で撮影した多視点画像群から要素画像群を生成する。例えば、要素画像群生成手段35は、各多視点画像から同一位置の画素を抽出し、抽出した画素で構成される各要素画像を生成する。
In step S5, the multi-viewpoint image group shooting means 34 shoots a multi-viewpoint image group with the virtual camera array moved in step S3. Specifically, the multi-viewpoint image group photographing means 34 photographs the virtual space in which the three-dimensional model is arranged, with a virtual camera array moved from the center position of both eyes by the movement amount of the pupil position.
In step S6, the elemental image group generating means 35 generates an elemental image group from the multi-viewpoint image group photographed in step S5. For example, the elemental image group generating means 35 extracts pixels at the same position from each multi-viewpoint image, and generates elemental images composed of the extracted pixels.
[作用・効果]
以上のように、本発明の実施形態に係る立体画像生成装置3は、視聴者Hの動きを考慮して仮想カメラアレイの中心位置を移動させるので、視聴者Hの瞳位置に立体画像の視域が追従し、立体画像の視域から瞳が外れにくくなる。これにより、立体画像生成装置3は、クロストークの発生や視認性の低下を抑制し、高品質なIP立体画像を提供することができる。
[Action/effect]
As described above, the stereoscopic
(変形例:瞳位置の移動量)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、瞳移動量算出手段が、式(1)で瞳位置の移動量を算出することとして説明したが、これに限定されない。例えば、瞳移動量算出手段は、下記の式(2)に示すように、瞳位置の移動速度vに関する高次の式を用いて、瞳位置の移動量を算出してもよい。なお、係数lは、係数kと同様、任意の値で予め設定しておくこととする。
(Modification: Movement amount of pupil position)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes and the like without departing from the gist of the present invention.
In the above-described embodiment, the pupil movement amount calculation means calculates the movement amount of the pupil position using Equation (1), but the present invention is not limited to this. For example, the pupil movement amount calculation means may calculate the movement amount of the pupil position using a higher-order expression regarding the moving speed v of the pupil position, as shown in the following equation (2). Note that the coefficient l is set in advance to an arbitrary value, like the coefficient k.
また、瞳移動量算出手段は、瞳位置の移動に関するものであれば、瞳位置の加速度など、移動速度以外を用いてもよい。
また、前記した式(1)では、1フレーム間隔で瞳位置の移動速度を算出したが、2フレーム以上の間隔で瞳位置の移動速度を算出してもよい。
Further, the pupil movement amount calculation means may use something other than the movement speed, such as the acceleration of the pupil position, as long as it relates to the movement of the pupil position.
Further, in the above equation (1), the movement speed of the pupil position is calculated at intervals of one frame, but the movement speed of the pupil position may be calculated at intervals of two frames or more.
(その他変形例)
前記した実施形態では、全方位視差を有するIP立体方式に本発明を適用することとして説明したが、これに限定されない。本発明は、IP立体方式、レンチキュラー立体方式等の光線再生型の立体方式に適用することができる。このレンチキュラー立体方式は、水平視差のみを有する光線再生型の立体方式である。
(Other modifications)
In the above-described embodiment, the present invention is applied to the IP stereoscopic method having omnidirectional parallax, but the present invention is not limited to this. INDUSTRIAL APPLICABILITY The present invention can be applied to a light-reproducing stereoscopic system such as an IP stereoscopic system and a lenticular stereoscopic system. This lenticular stereoscopic system is a light-reproducing stereoscopic system having only horizontal parallax.
前記した実施形態では、1人分の瞳位置を検出することとして説明したが、これに限定されない。つまり、複数人の瞳位置を検出し、瞳位置を検出した人数に応じて時分割表示を行えばよい。つまり、立体画像生成装置は、立体画像生成手段が生成した立体画像を人物毎に時分割する時分割手段、を備えればよい。 In the above-described embodiment, the pupil positions of one person are detected, but the present invention is not limited to this. In other words, the pupil positions of a plurality of people are detected, and time-division display is performed according to the number of people whose pupil positions are detected. In other words, the stereoscopic image generation device may include a time division unit that time-divides the stereoscopic image generated by the stereoscopic image generation unit for each person.
前記した各実施形態では、立体画像生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した立体画像生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In each of the above-described embodiments, the stereoscopic image generation device has been described as independent hardware, but the present invention is not limited to this. For example, the present invention can be realized by a program that causes hardware resources such as a CPU, memory, and hard disk provided in a computer to operate cooperatively as the stereoscopic image generation device described above. These programs may be distributed via a communication line, or may be distributed after being written in a recording medium such as a CD-ROM or flash memory.
1 立体画像表示システム
2 瞳位置検出装置
3 立体画像生成装置
4 立体画像表示装置
30 仮想カメラアレイ設定手段
31 瞳移動量算出手段(瞳位置予測手段)
32 仮想カメラアレイ移動手段
33 3次元モデル設定手段
34 多視点画像群撮影手段
35 要素画像群生成手段(立体画像生成手段)
41 レンズアレイ
100 IP立体映像表示装置
110 直視型ディスプレイ
120 レンズアレイ
121 要素レンズ
210 仮想ディスプレイ
220 仮想レンズアレイ
230 仮想カメラアレイ
231 仮想カメラ
E 要素画像群
e 要素画像
L 左眼
M 多視点画像群
m 多視点画像
H 視聴者
Obj 3次元モデル
R 右眼
α 視域
1 stereoscopic
32 virtual camera array moving means 33 three-dimensional model setting means 34 multi-viewpoint image group photographing means 35 elemental image group generating means (stereoscopic image generating means)
41
Claims (4)
前記瞳位置を示す瞳位置情報が入力され、入力された前記瞳位置情報に基づいて、前記仮想カメラアレイの中心位置を、前記人物の両眼の中間位置に設定する仮想カメラアレイ設定手段と、
前記瞳位置情報から前記瞳位置の移動量を予測する瞳位置予測手段と、
前記瞳位置予測手段が予測した瞳位置の移動量に基づいて、前記仮想カメラアレイの中心位置を移動させる仮想カメラアレイ移動手段と、
前記仮想カメラアレイ移動手段が移動させた仮想カメラアレイで前記多視点画像群を撮影する多視点画像群撮影手段と、
前記多視点画像群から前記立体画像を生成する立体画像生成手段と、
を備え、
前記瞳位置予測手段は、前記瞳位置情報が示す瞳位置の時間変化から前記瞳位置の移動速度を算出し、前記瞳位置の移動速度と予め設定した係数とを乗じることで、前記瞳位置の移動量を算出することを特徴とする立体画像生成装置。 A stereoscopic image generation device for generating a stereoscopic image in which a viewing zone is made to follow a person's pupil position from a group of multi-viewpoint images captured by a virtual camera array,
virtual camera array setting means for receiving pupil position information indicating the pupil position, and setting the center position of the virtual camera array to an intermediate position between the eyes of the person based on the inputted pupil position information;
Pupil position prediction means for predicting a movement amount of the pupil position from the pupil position information;
virtual camera array movement means for moving the center position of the virtual camera array based on the movement amount of the pupil position predicted by the pupil position prediction means;
multi-viewpoint image group photographing means for photographing the multi-viewpoint image group with the virtual camera array moved by the virtual camera array moving means;
stereoscopic image generation means for generating the stereoscopic image from the multi-viewpoint image group;
with
The pupil position prediction means calculates the moving speed of the pupil position from the temporal change of the pupil position indicated by the pupil position information, and multiplies the moving speed of the pupil position by a preset coefficient to obtain the pupil position. A stereoscopic image generating device, characterized by calculating a movement amount .
前記瞳位置を示す瞳位置情報が入力され、入力された前記瞳位置情報に基づいて、前記仮想カメラアレイの中心位置を、前記人物の両眼の中間位置に設定する仮想カメラアレイ設定手段と、
前記瞳位置情報から前記瞳位置の移動量を予測する瞳位置予測手段と、
前記瞳位置予測手段が予測した瞳位置の移動量に基づいて、前記仮想カメラアレイの中心位置を移動させる仮想カメラアレイ移動手段と、
前記仮想カメラアレイ移動手段が移動させた仮想カメラアレイで前記多視点画像群を撮影する多視点画像群撮影手段と、
前記多視点画像群から前記立体画像を生成する立体画像生成手段と、
前記立体画像生成手段が生成した立体画像を前記人物毎に時分割する時分割手段と、
を備えることを特徴とする立体画像生成装置。 A stereoscopic image generation device for generating a stereoscopic image in which a viewing zone is made to follow a person's pupil position from a group of multi-viewpoint images captured by a virtual camera array,
virtual camera array setting means for receiving pupil position information indicating the pupil position, and setting the center position of the virtual camera array to an intermediate position between the eyes of the person based on the inputted pupil position information;
pupil position prediction means for predicting a movement amount of the pupil position from the pupil position information;
virtual camera array movement means for moving the center position of the virtual camera array based on the movement amount of the pupil position predicted by the pupil position prediction means;
multi-viewpoint image group photographing means for photographing the multi-viewpoint image group with the virtual camera array moved by the virtual camera array moving means;
stereoscopic image generation means for generating the stereoscopic image from the multi-viewpoint image group;
a time-division means for time-dividing the stereoscopic image generated by the stereoscopic image generation means for each person ;
A stereoscopic image generating device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019072541A JP7324605B2 (en) | 2019-04-05 | 2019-04-05 | 3D image generation device and its program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019072541A JP7324605B2 (en) | 2019-04-05 | 2019-04-05 | 3D image generation device and its program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020170979A JP2020170979A (en) | 2020-10-15 |
JP7324605B2 true JP7324605B2 (en) | 2023-08-10 |
Family
ID=72745409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019072541A Active JP7324605B2 (en) | 2019-04-05 | 2019-04-05 | 3D image generation device and its program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7324605B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024131889A (en) * | 2023-03-16 | 2024-09-30 | マクセル株式会社 | Floating-air image display device and character display device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002330452A (en) | 2001-05-01 | 2002-11-15 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image display device |
JP2013143702A (en) | 2012-01-11 | 2013-07-22 | Sharp Corp | Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device |
US20150029317A1 (en) | 2011-12-23 | 2015-01-29 | Korea Institute Of Science And Technology | Device for displaying multi-view 3d image using dynamic viewing zone expansion applicable to multiple observers and method for same |
JP2015089104A (en) | 2013-09-26 | 2015-05-07 | Nltテクノロジー株式会社 | Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof |
JP2015104107A (en) | 2013-11-28 | 2015-06-04 | 日本放送協会 | Ip stereoscopic video estimation device and program therefor |
JP2018074463A (en) | 2016-11-01 | 2018-05-10 | 日本放送協会 | Image generation device, image display system and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2904204B1 (en) * | 1998-01-08 | 1999-06-14 | 日本電気株式会社 | Observation position detection device and its observation position detection method |
-
2019
- 2019-04-05 JP JP2019072541A patent/JP7324605B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002330452A (en) | 2001-05-01 | 2002-11-15 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image display device |
US20150029317A1 (en) | 2011-12-23 | 2015-01-29 | Korea Institute Of Science And Technology | Device for displaying multi-view 3d image using dynamic viewing zone expansion applicable to multiple observers and method for same |
JP2013143702A (en) | 2012-01-11 | 2013-07-22 | Sharp Corp | Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device |
JP2015089104A (en) | 2013-09-26 | 2015-05-07 | Nltテクノロジー株式会社 | Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof |
JP2015104107A (en) | 2013-11-28 | 2015-06-04 | 日本放送協会 | Ip stereoscopic video estimation device and program therefor |
JP2018074463A (en) | 2016-11-01 | 2018-05-10 | 日本放送協会 | Image generation device, image display system and program |
Non-Patent Citations (1)
Title |
---|
Marc Levoy(外1名),Light Field Rendering,SIGGRAPH '96: Proceedings of the 23rd annualconference on Computergraphics and interactive techniques,米国,ACM SIGGRAPH,1996年08月01日,p.31-42 |
Also Published As
Publication number | Publication date |
---|---|
JP2020170979A (en) | 2020-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4928476B2 (en) | Stereoscopic image generating apparatus, method thereof and program thereof | |
KR20110049039A (en) | High density multi-view display system and method based on the active sub-pixel rendering | |
GB2498184A (en) | Interactive autostereoscopic three-dimensional display | |
CN103702099B (en) | A kind of super large visual angle integration imaging 3D display packing based on head-tracking | |
JP7165513B2 (en) | IP stereoscopic video display device and its program | |
US11006090B2 (en) | Virtual window | |
JP2012105101A (en) | Stereoscopic image display device, method and program | |
JP2008085503A (en) | Three-dimensional image processing apparatus, method and program, and three-dimensional image display device | |
KR19990028312A (en) | Autostereoscopic Image Acquisition Method and System | |
JP5439686B2 (en) | Stereoscopic image display apparatus and stereoscopic image display method | |
JP2007336002A (en) | Multi-viewpoint video display apparatus | |
KR100430381B1 (en) | Three-dimensional display | |
US10939092B2 (en) | Multiview image display apparatus and multiview image display method thereof | |
TWI489149B (en) | Autostereoscopic display apparatus and storage media | |
Takaki | Novel 3D display using an array of LCD panels | |
TWI515457B (en) | Multi-view three dimensional display system and control method thereof | |
JP7324605B2 (en) | 3D image generation device and its program | |
JP7304264B2 (en) | 3D image display system | |
CN103969836A (en) | View angle expanding method used for multi-viewpoint auto-stereoscopic display | |
US20040178969A1 (en) | Spatial three-dimensional image display device | |
JP6685241B2 (en) | Stereoscopic video generation | |
KR101093929B1 (en) | Method and system for displaying 3-dimensional images using depth map | |
KR101907127B1 (en) | Stereoscopic video zooming and foreground and background detection in a video | |
EP3922012A1 (en) | Method and apparatus for correcting lenticular distortion | |
KR101939243B1 (en) | Stereoscopic depth adjustment and focus point adjustment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190419 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7324605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |