[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7324605B2 - 3D image generation device and its program - Google Patents

3D image generation device and its program Download PDF

Info

Publication number
JP7324605B2
JP7324605B2 JP2019072541A JP2019072541A JP7324605B2 JP 7324605 B2 JP7324605 B2 JP 7324605B2 JP 2019072541 A JP2019072541 A JP 2019072541A JP 2019072541 A JP2019072541 A JP 2019072541A JP 7324605 B2 JP7324605 B2 JP 7324605B2
Authority
JP
Japan
Prior art keywords
pupil position
virtual camera
camera array
stereoscopic image
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019072541A
Other languages
Japanese (ja)
Other versions
JP2020170979A (en
Inventor
直人 岡市
久幸 佐々木
健介 久富
真宏 河北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2019072541A priority Critical patent/JP7324605B2/en
Publication of JP2020170979A publication Critical patent/JP2020170979A/en
Application granted granted Critical
Publication of JP7324605B2 publication Critical patent/JP7324605B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

特許法第30条第2項適用 (1)「一般社団法人映像情報メディア学会」から2018年12月6日に発行された刊行物「2018年映像情報メディア学会冬季大会 講演予稿集」において発表 (2)「一般社団法人映像情報メディア学会」が2018年12月20日~21日に開催した「2018年映像情報メディア学会冬季大会」において2018年12月21日に発表Application of Article 30, Paragraph 2 of the Patent Law (1) Announced in the publication "2018 Institute of Image Information and Television Engineers Winter Conference Lecture Proceedings" published on December 6, 2018 by the Institute of Image Information and Television Engineers ( 2) Announced on December 21, 2018 at the 2018 ITE Winter Conference held by the Institute of Image Information and Television Engineers (ITE) from December 20 to 21, 2018.

本発明は、立体画像生成装置及びそのプログラムに関する。 The present invention relates to a stereoscopic image generating device and its program.

インテグラルフォトグラフィ(IP:Integral Photography)方式は、特殊な眼鏡が不要で裸眼による立体視が可能なため、従来より研究が進められている。図7に示すように、従来のIP立体映像表示装置100は、液晶や有機ELなどの直視型ディスプレイ110と、その前面に置かれたレンズアレイ120とを備える。レンズアレイ120は、2次元方向に配列された要素レンズ121で構成されている。直視型ディスプレイ110は、各要素レンズ121に対応する要素画像eで構成される要素画像群Eを表示する。すると、要素レンズ121により要素画像eが空間中に投影され、立体像が形成される。 Integral photography (IP) methods have been studied since they do not require special spectacles and enable stereoscopic viewing with the naked eye. As shown in FIG. 7, a conventional IP stereoscopic image display device 100 includes a direct-view display 110 such as liquid crystal or organic EL, and a lens array 120 placed in front of the display. The lens array 120 is composed of element lenses 121 arranged two-dimensionally. The direct-view display 110 displays an elemental image group E composed of elemental images e corresponding to the elemental lenses 121 . Then, the elemental images e are projected in space by the elemental lenses 121 to form a stereoscopic image.

IP方式では、多くの視点で映像を再現するため、非常に多くの画素(情報量)が必要となる。IP立体映像の品質を決定づけるパラメータとして、「立体映像画素数(要素画像数)」、「視域」、「空間周波数特性(奥行再現範囲)」の3つが挙げられる。非特許文献1に記載されているように、これら3つのパラメータにはトレードオフの関係があることが知られている。つまり、「視域」を狭くすることにより、「立体映像画素数」及び「空間周波数特性」を向上させることができる。その一方、「視域」を狭くすると、立体映像の表示範囲が狭くなる。また、「視域」を狭くするためには、焦点距離の長いレンズアレイを用いればよい。 In the IP system, a very large number of pixels (amount of information) are required in order to reproduce images from many viewpoints. There are three parameters that determine the quality of IP stereoscopic video: the number of stereoscopic video pixels (the number of element images), the viewing zone, and the spatial frequency characteristics (depth reproduction range). As described in Non-Patent Document 1, it is known that these three parameters have a trade-off relationship. In other words, by narrowing the "viewing zone", it is possible to improve the "stereoscopic image pixel count" and the "spatial frequency characteristics". On the other hand, when the "viewing zone" is narrowed, the display range of stereoscopic images is narrowed. Also, in order to narrow the "visual zone", a lens array with a long focal length may be used.

H. Hoshino, F. Okano, and I. Yuyama, “Analysis of resolution limitation of integral photography,” J. Opt. Soc. Am. A 15(8), 2059-2065 (1998)H. Hoshino, F. Okano, and I. Yuyama, “Analysis of resolution limitation of integral photography,” J. Opt. Soc. Am. A 15(8), 2059-2065 (1998)

従来のIP方式において、後記する視点追従技術により「視域」の方向を制御すれば、焦点距離の長いレンズアレイを用いても、広い範囲で立体映像を表示できる。この場合、図8に示すように、視聴者Hの反対方向に要素画像群Eの表示位置を平行移動させることで、「視域」の方向制御が実現できる(縮小拡大でも可)。図8(a)では、視聴者Hが上側に移動したので、要素画像群Eの表示位置を下側に移動させることで、ドットで図示した視域を上方向に移動させている。また、図8(b)では、視聴者Hが下側に移動したので、要素画像群Eの表示位置を上側に移動させることで、ドットで図示した視域を下方向に移動させている。このようにして、IP方式では、「立体映像画素数」及び「空間周波数特性」を向上させ、かつ、「視域」を広くすることができる。 In the conventional IP method, if the direction of the "viewing zone" is controlled by a viewpoint tracking technique, which will be described later, stereoscopic images can be displayed in a wide range even if a lens array with a long focal length is used. In this case, as shown in FIG. 8, by translating the display position of the elemental image group E in the direction opposite to the viewer H, direction control of the "viewing zone" can be realized (reduction/enlargement is also possible). In FIG. 8A, since the viewer H has moved upward, the display position of the elemental image group E is moved downward, thereby moving the viewing zone shown by dots upward. Also, in FIG. 8B, since the viewer H has moved downward, the display position of the elemental image group E is moved upward, thereby moving the viewing zone shown by dots downward. In this way, in the IP system, it is possible to improve the "stereoscopic image pixel count" and "spatial frequency characteristics" and widen the "viewing zone".

この視点追従技術では、図9に示すように、仮想空間内に、仮想ディスプレイ210と、仮想レンズアレイ220と、複数台の仮想カメラ231からなる仮想カメラアレイ230と、被写体となる3次元モデルObjを配置する。まず、視点追従技術では、瞳検出を行い、視域の中心が両眼の中間になるように仮想カメラアレイ230を設定する。つまり、仮想カメラアレイ230の中心位置が、視域の中心位置となる。そして、視点追従技術では、仮想カメラアレイ230により様々な方向で3次元モデルObjの多視点画像群Mを撮影し、撮影した多視点画像群Mを要素画像群Eに変換する。この多視点画像群Mは、異なる視点の画像(多視点画像m)で構成されている。 In this viewpoint tracking technology, as shown in FIG. 9, a virtual display 210, a virtual lens array 220, a virtual camera array 230 consisting of a plurality of virtual cameras 231, and a three-dimensional model Obj as a subject are provided in a virtual space. to place. First, in the viewpoint tracking technique, pupil detection is performed, and the virtual camera array 230 is set so that the center of the visual field is located between the two eyes. That is, the central position of the virtual camera array 230 becomes the central position of the viewing area. In the viewpoint tracking technique, the virtual camera array 230 captures the multi-viewpoint image group M of the three-dimensional model Obj in various directions, and converts the captured multi-viewpoint image group M into the element image group E. This multi-viewpoint image group M is composed of images of different viewpoints (multi-viewpoint images m).

なお、図9では、白抜きの‘×’が仮想カメラアレイ230の中心位置を示し、黒色の‘×’が瞳検出した両眼の中心位置を示す。図9では、仮想カメラアレイ230の中心位置、及び、瞳検出した両眼の中心位置が一致するので、白抜きの‘×’及び黒色の‘×’を重なるように図示した。 In FIG. 9, the white 'x' indicates the center position of the virtual camera array 230, and the black 'x' indicates the center position of both eyes detected by pupil detection. In FIG. 9 , since the center position of the virtual camera array 230 and the center position of both eyes detected by the pupil match, the white 'x' and the black 'x' are illustrated so as to overlap each other.

ここで、視点追従技術では、視聴者Hが動くタイミングによって、瞳検出に失敗する場合や、要素画像群Eのレンダリングが遅延する場合がある。図10を参照し、それらが発生した場合の問題点を説明する。なお、図10では、実際の両眼の位置を符号R,Lで図示した。また、図10では、図9と同様、白抜きの‘×’及び黒色の‘×’を重なるように図示した。 Here, in the viewpoint tracking technique, pupil detection may fail or rendering of the elemental image group E may be delayed depending on the timing at which the viewer H moves. With reference to FIG. 10, problems when they occur will be described. In FIG. 10, the actual positions of both eyes are indicated by symbols R and L. As shown in FIG. In addition, in FIG. 10, similarly to FIG. 9, white 'x' and black 'x' are illustrated so as to overlap each other.

図10に示すように、時刻t=0では、視聴者Hが動いていないので、視域αの中心位置(仮想カメラアレイ230の中心位置)が、右眼R及び左眼Lの中間位置に一致している。時刻t=1では、右眼R及び左眼Lの両方とも視域αに収まっている。しかし、眼の移動方向において、右眼Rが視域αの境界に近づいており、視域αの余白(マージン)βが少なくなっている。時刻t=2では、視域αが追従できずに右眼Rが視域αから外れてしまう。すると、クロストークが発生することや、視認性が低下することがある。その後、時刻t=3では、視聴者Hの動きが小さくなったので、右眼R及び左眼Lの両方とも視域αに収まっている。 As shown in FIG. 10, at time t=0, the viewer H is not moving, so the central position of the viewing area α (the central position of the virtual camera array 230) is positioned between the right eye R and the left eye L. Match. At time t=1, both the right eye R and the left eye L are within the viewing zone α. However, in the eye movement direction, the right eye R is approaching the boundary of the viewing zone α, and the margin β of the viewing zone α is decreasing. At time t=2, the viewing zone α cannot follow, and the right eye R deviates from the viewing zone α. As a result, crosstalk may occur and visibility may deteriorate. After that, at time t=3, since the movement of the viewer H has decreased, both the right eye R and the left eye L are within the viewing zone α.

このように、視点追従技術では、視域の方向制御が視聴者Hの動きに追い付かず、立体画像の視域から瞳が外れてしまうことがある。その結果、クロストークが発生することや、視認性が低下することがある。 As described above, in the viewpoint tracking technology, the directional control of the viewing zone cannot catch up with the movement of the viewer H, and the pupil may be out of the viewing zone of the stereoscopic image. As a result, crosstalk may occur and visibility may deteriorate.

そこで、本発明は、立体画像の視域から瞳が外れにくい立体画像生成装置及びそのプログラムを提供することを課題とする。 Accordingly, it is an object of the present invention to provide a stereoscopic image generating apparatus and a program therefor in which the pupil is less likely to deviate from the viewing zone of the stereoscopic image.

前記した課題に鑑みて、本発明に係る立体画像生成装置は、仮想カメラアレイで撮影した多視点画像群から、人物の瞳位置に視域を追従させた立体画像を生成する立体画像生成装置であって、仮想カメラアレイ設定手段と、瞳位置予測手段と、仮想カメラアレイ移動手段と、多視点画像群撮影手段と、立体画像生成手段と、を備える構成とした。 SUMMARY OF THE INVENTION In view of the above-described problems, a stereoscopic image generating apparatus according to the present invention is a stereoscopic image generating apparatus that generates a stereoscopic image in which a viewing zone follows a person's pupil position from a group of multi-viewpoint images captured by a virtual camera array. The configuration includes virtual camera array setting means, pupil position prediction means, virtual camera array movement means, multi-viewpoint image group photographing means, and stereoscopic image generation means.

かかる立体画像生成装置によれば、仮想カメラアレイ設定手段は、瞳位置を示す瞳位置情報が入力され、入力された瞳位置情報に基づいて、仮想カメラアレイの中心位置を、人物の両眼の中間位置に設定する。すなわち、仮想カメラアレイ設定手段は、視域の中心位置が人物の両眼の中間位置となるように仮想カメラアレイの中心位置を設定する。なお、仮想カメラアレイの中心位置が視域の中心位置となる。 According to such a stereoscopic image generating apparatus, the virtual camera array setting means receives the pupil position information indicating the pupil position, and based on the inputted pupil position information, sets the center position of the virtual camera array to the position of the person's eyes. Set to middle position. That is, the virtual camera array setting means sets the central position of the virtual camera array so that the central position of the viewing zone is the middle position between the eyes of the person. Note that the center position of the virtual camera array is the center position of the viewing area.

瞳位置予測手段は、瞳位置情報から瞳位置の移動量を予測する。
仮想カメラアレイ移動手段は、瞳位置予測手段が予測した瞳位置の移動量に基づいて、仮想カメラアレイの中心位置を移動させる。すなわち、仮想カメラアレイ移動手段は、人物(瞳)の動きを考慮して仮想カメラアレイの中心位置を移動させる。
多視点画像群撮影手段は、仮想カメラアレイ移動手段が移動させた仮想カメラアレイで多視点画像群を撮影する。
立体画像生成手段は、多視点画像群から立体画像を生成する。
瞳位置予測手段は、瞳位置情報が示す瞳位置の時間変化から瞳位置の移動速度を算出し、瞳位置の移動速度と予め設定した係数とを乗じることで、瞳位置の移動量を算出する。
The pupil position prediction means predicts the movement amount of the pupil position from the pupil position information.
The virtual camera array moving means moves the center position of the virtual camera array based on the movement amount of the pupil position predicted by the pupil position predicting means. That is, the virtual camera array moving means moves the center position of the virtual camera array considering the movement of the person (pupil).
The multi-viewpoint image group shooting means shoots the multi-viewpoint image group with the virtual camera array moved by the virtual camera array moving means.
The stereoscopic image generating means generates a stereoscopic image from the multi-viewpoint image group.
The pupil position predicting means calculates the moving speed of the pupil position from the time change of the pupil position indicated by the pupil position information, and calculates the amount of movement of the pupil position by multiplying the moving speed of the pupil position by a preset coefficient. .

なお、本発明は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記した立体画像生成装置として協調動作させるプログラムで実現することもできる。 The present invention can also be implemented by a program that causes hardware resources such as a CPU, memory, and hard disk provided in a computer to operate cooperatively as the stereoscopic image generation device described above.

本発明によれば、人物の動きを考慮して仮想カメラアレイの中心位置を移動させるので、人物の瞳位置に立体画像の視域が追従し、立体画像の視域から瞳が外れにくくなる。これにより、クロストークの発生や視認性の低下を抑制することができる。 According to the present invention, since the center position of the virtual camera array is moved in consideration of the movement of the person, the viewing area of the stereoscopic image follows the pupil position of the person, and the pupil is less likely to deviate from the viewing area of the stereoscopic image. As a result, it is possible to suppress the occurrence of crosstalk and the deterioration of visibility.

実施形態に係る立体画像表示システムの説明図である。1 is an explanatory diagram of a stereoscopic image display system according to an embodiment; FIG. 実施形態に係る立体画像表示システムの概略構成図である。1 is a schematic configuration diagram of a stereoscopic image display system according to an embodiment; FIG. 実施形態に係る立体画像生成装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a stereoscopic image generating device according to an embodiment; FIG. 実施形態において、要素画像群の生成方法を説明する説明図である。FIG. 4 is an explanatory diagram illustrating a method of generating an elemental image group in an embodiment; 実施形態において、仮想カメラアレイの移動と視域の追従を説明する説明図である。FIG. 10 is an explanatory diagram illustrating movement of a virtual camera array and tracking of a viewing zone in an embodiment; 図3の立体画像生成装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the stereoscopic image generation device of FIG. 3; 従来のIP立体映像表示装置を説明する説明図である。It is an explanatory view explaining a conventional IP stereoscopic video display device. 従来の視点追従技術を説明する説明図である。FIG. 10 is an explanatory diagram for explaining a conventional viewpoint tracking technique; 従来の視点追従技術を説明する説明図である。FIG. 10 is an explanatory diagram for explaining a conventional viewpoint tracking technique; 従来技術において、仮想カメラアレイの設定を説明する説明図である。FIG. 10 is an explanatory diagram for explaining setting of a virtual camera array in the prior art;

(実施形態)
[立体画像表示システムの概略]
図1及び図2を参照し、本発明の実施形態に係る立体画像表示システム1(図2)の概略について説明する。
図1に示すように、立体画像表示システム1は、視域の方向を制御する際、視聴者(人物)の動きを考慮して仮想カメラアレイ230の中心位置を移動させることで、立体画像の視域から視聴者の瞳を外れにくくしたものである。
(embodiment)
[Overview of stereoscopic image display system]
An outline of a stereoscopic image display system 1 (FIG. 2) according to an embodiment of the present invention will be described with reference to FIGS.
As shown in FIG. 1, when controlling the direction of the viewing zone, the stereoscopic image display system 1 moves the center position of the virtual camera array 230 in consideration of the movement of the viewer (person). This makes it difficult for the eyes of the viewer to be out of the viewing zone.

なお、図1では、白抜きの‘×’が仮想カメラアレイ230の中心位置を示し、黒色の‘×’が瞳検出した両眼の中心位置を示す。図1では、仮想カメラアレイ230の中心位置を両眼の中心位置から移動させているので、白抜きの‘×’及び黒色の‘×’を異なる位置に図示した。 In FIG. 1, the white 'x' indicates the center position of the virtual camera array 230, and the black 'x' indicates the center position of both eyes detected by pupil detection. In FIG. 1, since the center position of the virtual camera array 230 is moved from the center position of both eyes, the white 'x' and the black 'x' are shown at different positions.

図2に示すように、立体画像表示システム1は、瞳位置検出装置2と、立体画像生成装置3と、立体画像表示装置4とを備える。本実施形態では、立体画像表示システム1が、IP方式の立体画像(要素画像群)を表示すると共に、視域の方向制御自体は既知の手法を用いることとして説明する(例えば、図8参照)。 As shown in FIG. 2 , the stereoscopic image display system 1 includes a pupil position detection device 2 , a stereoscopic image generation device 3 and a stereoscopic image display device 4 . In the present embodiment, it is assumed that the stereoscopic image display system 1 displays an IP stereoscopic image (element image group) and uses a known method for controlling the direction of the viewing zone itself (for example, see FIG. 8). .

瞳位置検出装置2は、視聴者Hの瞳を検出し、検出した瞳位置を示す瞳位置情報を生成するものである。例えば、瞳位置検出装置2は、視聴者Hの顔画像を撮影するための撮影装置(例えば、Webカメラ)を立体画像表示装置4の上部に備える。そして、瞳位置検出装置2は、撮影装置が撮影した顔画像から、瞳検出技術(例えば、OpenCV)を用いて、右眼R及び左眼Lの位置をリアルタイムで検出する。
瞳位置検出装置2は、生成した瞳位置情報を立体画像生成装置3に出力する。ここで、瞳位置検出装置2は、瞳検出に失敗した場合、瞳検出に失敗した旨の通知と共に、直前に検出した瞳位置を示す瞳位置情報を出力することとする。
The pupil position detection device 2 detects pupils of the viewer H and generates pupil position information indicating the detected pupil positions. For example, the pupil position detection device 2 includes a photographing device (for example, a web camera) for photographing the face image of the viewer H above the stereoscopic image display device 4 . Then, the pupil position detection device 2 detects the positions of the right eye R and the left eye L in real time from the face image captured by the imaging device using pupil detection technology (for example, OpenCV).
The pupil position detection device 2 outputs the generated pupil position information to the stereoscopic image generation device 3 . Here, when the pupil detection fails, the pupil position detection device 2 outputs pupil position information indicating the previously detected pupil position together with a notification to the effect that the pupil detection has failed.

立体画像生成装置3は、仮想カメラアレイ230で撮影した多視点画像群Mから、視聴者Hの瞳位置に視域を追従させた要素画像群Eを生成するものである。そして、立体画像生成装置3は、生成した要素画像群Eを立体画像表示装置4に出力する。この立体画像生成装置3の詳細は、後記する。 The stereoscopic image generating device 3 generates an elemental image group E in which the viewing area is made to follow the pupil position of the viewer H from the multi-viewpoint image group M captured by the virtual camera array 230 . The stereoscopic image generation device 3 then outputs the generated elemental image group E to the stereoscopic image display device 4 . Details of the stereoscopic image generation device 3 will be described later.

立体画像表示装置4は、立体画像生成装置3が生成した要素画像群Eを表示する一般的なIP立体ディスプレイである。例えば、立体画像表示装置4は、従来技術と同様、LCDやOLED等の直視型ディスプレイ(不図示)の前面にレンズアレイ41を配置したものである。ここで、立体画像表示システム1では、視聴者Hの瞳位置に視域が追従するので、焦点距離が長いレンズアレイ41を用いても、要素画像群Eの品質を向上させることができる。 The stereoscopic image display device 4 is a general IP stereoscopic display that displays the elemental image group E generated by the stereoscopic image generation device 3 . For example, the stereoscopic image display device 4 has a lens array 41 arranged in front of a direct-view display (not shown) such as LCD or OLED, as in the prior art. Here, in the stereoscopic image display system 1, since the visual field follows the pupil position of the viewer H, the quality of the elemental image group E can be improved even if the lens array 41 having a long focal length is used.

[立体画像生成装置の構成]
図3を参照し、立体画像生成装置3の構成について説明する。
図3に示すように、立体画像生成装置3は、仮想カメラアレイ設定手段30と、瞳移動量算出手段(瞳位置予測手段)31と、仮想カメラアレイ移動手段32と、3次元モデル設定手段33と、多視点画像群撮影手段34と、要素画像群生成手段(立体画像生成手段)35とを備える。
[Configuration of Stereoscopic Image Generation Device]
The configuration of the stereoscopic image generation device 3 will be described with reference to FIG.
As shown in FIG. 3, the stereoscopic image generation device 3 includes virtual camera array setting means 30, pupil movement amount calculation means (pupil position prediction means) 31, virtual camera array movement means 32, and three-dimensional model setting means 33. , multi-viewpoint image group photographing means 34 , and elemental image group generating means (stereoscopic image generating means) 35 .

仮想カメラアレイ設定手段30は、仮想カメラアレイ230に関するパラメータを設定するものである。例えば、パラメータには、仮想カメラアレイ230の中心位置や、仮想カメラ231の台数、配置、間隔及び焦点距離が含まれる。具体的には、仮想カメラアレイ設定手段30は、瞳位置検出装置2から入力された瞳位置情報に基づいて、仮想カメラアレイ230の中心位置を、視聴者Hの両眼の中間位置に設定する。この他、立体画像の制作者が、図示を省略したマウス、キーボード等の操作手段を用いて、仮想カメラ231の台数、配置、間隔及び焦点距離を仮想カメラアレイ設定手段30に設定してもよい。
仮想カメラアレイ設定手段30は、設定されたパラメータを仮想カメラアレイ移動手段32に出力する。
The virtual camera array setting means 30 sets parameters regarding the virtual camera array 230 . For example, the parameters include the center position of the virtual camera array 230, the number of virtual cameras 231, their arrangement, their spacing, and their focal lengths. Specifically, the virtual camera array setting means 30 sets the center position of the virtual camera array 230 to the intermediate position between the viewer's H eyes based on the pupil position information input from the pupil position detection device 2. . In addition, the creator of the stereoscopic image may set the number, arrangement, spacing, and focal length of the virtual cameras 231 in the virtual camera array setting means 30 using operation means such as a mouse and keyboard (not shown). .
The virtual camera array setting means 30 outputs the set parameters to the virtual camera array moving means 32 .

瞳移動量算出手段31は、瞳位置検出装置2より入力された瞳位置情報から瞳位置の移動量を予測するものである。本実施形態では、瞳移動量算出手段31は、瞳位置情報が示す瞳位置の時間変化から瞳位置の移動速度vを算出する。この瞳位置の移動速度vは、下記の式(1)に示すように、瞳位置の変化量x-xt´を時間差t-t´で除算したものとなる。ここでは、瞳位置の検出時刻をそれぞれt,t´とし、検出時刻t,t´の瞳位置をそれぞれx,xt´とする(但し、t>t´)。 The pupil movement amount calculator 31 predicts the movement amount of the pupil position from the pupil position information input from the pupil position detection device 2 . In this embodiment, the pupil movement amount calculation means 31 calculates the movement speed vt of the pupil position from the time change of the pupil position indicated by the pupil position information. This moving speed v t of the pupil position is obtained by dividing the change amount x t −x t′ of the pupil position by the time difference tt′, as shown in the following equation (1). Here, the detection times of the pupil positions are t and t', respectively, and the pupil positions at the detection times t and t' are xt and xt' (where t>t').

Figure 0007324605000001
Figure 0007324605000001

そして、瞳移動量算出手段31は、瞳位置の移動速度vと係数kとを乗じることで、瞳位置の移動量kvを算出する。この係数kは、例えば、視域の幅、瞳の平均移動速度、瞳検出の成功率を考慮して、任意の値で予め設定する。
瞳移動量算出手段31は、瞳位置の移動量kvを仮想カメラアレイ移動手段32に出力する。
Then, the pupil movement amount calculation means 31 calculates the movement amount kvt of the pupil position by multiplying the moving speed vt of the pupil position by the coefficient k. This coefficient k is set in advance as an arbitrary value in consideration of, for example, the width of the viewing zone, the average movement speed of the pupil, and the success rate of pupil detection.
The pupil movement amount calculation means 31 outputs the movement amount kvt of the pupil position to the virtual camera array movement means 32 .

仮想カメラアレイ移動手段32は、瞳移動量算出手段31から入力された瞳位置の移動量kvに基づいて、仮想カメラアレイ230の中心位置を移動させるものである。すなわち、仮想カメラアレイ移動手段32は、視聴者H(瞳)の動きを考慮して、仮想カメラアレイ230の中心位置を両眼の中心位置から移動させる。なお、仮想カメラアレイ移動手段32の詳細は、後記する(仮想カメラアレイ230の移動による視域追従)。
仮想カメラアレイ移動手段32は、移動させた仮想カメラアレイ230の中心位置を、仮想カメラアレイ設定手段30から入力されたパラメータと共に、多視点画像群撮影手段34に出力する。
The virtual camera array moving means 32 moves the center position of the virtual camera array 230 based on the movement amount kvt of the pupil position input from the pupil movement amount calculating means 31 . That is, the virtual camera array moving means 32 moves the center position of the virtual camera array 230 from the center position of both eyes in consideration of the movement of the viewer H (pupils). The details of the virtual camera array moving means 32 will be described later (visual field tracking by moving the virtual camera array 230).
The virtual camera array moving means 32 outputs the center position of the moved virtual camera array 230 to the multi-viewpoint image group photographing means 34 together with the parameters input from the virtual camera array setting means 30 .

なお、瞳位置検出装置2が瞳検出に失敗した場合、仮想カメラアレイ設定手段30及び瞳移動量算出手段31には、瞳検出に失敗した旨の通知と共に、直前の瞳位置情報が入力されることとする。この瞳位置情報は、瞳位置検出装置2で検出できた直前の瞳位置を示す。
また、瞳検出に失敗した旨が通知された場合、瞳移動量算出手段31が瞳位置の移動量kvを算出せず、仮想カメラアレイ移動手段32が仮想カメラアレイ230の中心位置を移動させないこととする。
If the pupil position detection device 2 fails in pupil detection, the virtual camera array setting means 30 and the pupil movement amount calculation means 31 are notified that the pupil detection has failed and immediately preceding pupil position information is input. It is assumed that This pupil position information indicates the previous pupil position detected by the pupil position detection device 2 .
Further, when it is notified that the pupil detection has failed, the pupil movement amount calculation means 31 does not calculate the movement amount kvt of the pupil position, and the virtual camera array movement means 32 does not move the center position of the virtual camera array 230. It is assumed that

3次元モデル設定手段33は、仮想空間内に配置する3次元モデルObjを設定するものである。この3次元モデルObjは、仮想カメラアレイ230の撮影対象であり、帽子をかぶった女性のように任意である(図1)。例えば、立体画像の制作者が、操作手段を用いて、仮想空間内に配置する3次元モデルObjを3次元モデル設定手段33に設定する。
3次元モデル設定手段33は、設定された3次元モデルObjを多視点画像群撮影手段34に出力する。
The three-dimensional model setting means 33 sets a three-dimensional model Obj to be arranged in the virtual space. This three-dimensional model Obj is an object to be photographed by the virtual camera array 230, and is arbitrary like a woman wearing a hat (FIG. 1). For example, the creator of the stereoscopic image sets the three-dimensional model Obj to be arranged in the virtual space in the three-dimensional model setting means 33 using the operation means.
The three-dimensional model setting means 33 outputs the set three-dimensional model Obj to the multi-viewpoint image group photographing means 34 .

多視点画像群撮影手段34は、仮想カメラアレイ移動手段32が移動させた仮想カメラアレイ230で多視点画像群Mを撮影するものである。具体的には、多視点画像群撮影手段34は、3次元モデルObjが配置された仮想空間を、両眼の中心位置から瞳位置の移動量kvだけ移動した仮想カメラアレイ230で撮影する。このようにして、多視点画像群撮影手段34は、多視点画像群Mを生成(レンダリング)する。
多視点画像群撮影手段34は、生成した多視点画像群を要素画像群生成手段35に出力する。
The multi-viewpoint image group shooting means 34 shoots the multi-viewpoint image group M with the virtual camera array 230 moved by the virtual camera array moving means 32 . Specifically, the multi-viewpoint image group photographing means 34 photographs the virtual space in which the three-dimensional model Obj is arranged, with the virtual camera array 230 that is moved by the movement amount kvt of the pupil position from the center position of both eyes. In this manner, the multi-viewpoint image group photographing means 34 generates (renders) the multi-viewpoint image group M. FIG.
The multi-viewpoint image group photographing means 34 outputs the generated multi-viewpoint image group to the element image group generation means 35 .

要素画像群生成手段35は、多視点画像群撮影手段34より入力された多視点画像群Mから要素画像群Eを生成するものである。この要素画像群生成手段35は、任意の手法で多視点画像群Mから要素画像群Eを生成できる。例えば、要素画像群生成手段35は、各多視点画像mから同一位置の画素を抽出し、抽出した画素で構成される要素画像eを生成する。
要素画像群生成手段35は、生成した要素画像群Eを立体画像表示装置4に出力する。
The elemental image group generating means 35 generates an elemental image group E from the multi-viewpoint image group M input from the multi-viewpoint image group photographing means 34 . The elemental image group generating means 35 can generate the elemental image group E from the multi-viewpoint image group M by any method. For example, the elemental image group generating means 35 extracts pixels at the same position from each multi-viewpoint image m, and generates an elemental image e composed of the extracted pixels.
The element image group generating means 35 outputs the generated element image group E to the stereoscopic image display device 4 .

<要素画像群の生成>
図4を参照し、要素画像群Eの生成の一例について説明する。
図4(a)に示すように、左上視点の画像m11、画像m11の右側視点の画像m21、画像m11の下側視点の画像m12という、3視点分の多視点画像mについて考える。また、説明を簡易にするため、画像m11では、左上画素に「●1」を付し、右側画素に「●2」を付し、下側画素に「●3」を付した。これと同様、画像m21には、「▲1」~「▲3」を付し、画像m12には、「■1」~「■3」を付した。
<Generation of elemental image group>
An example of generation of the elemental image group E will be described with reference to FIG.
As shown in FIG. 4A, for a multi-viewpoint image m for three viewpoints, namely, an image m 11 at the upper left viewpoint, an image m 21 at the right viewpoint of the image m 11 , and an image m 12 at the lower viewpoint of the image m 11 . think. In order to simplify the explanation, in the image m11 , the upper left pixel is marked with "● 1", the right pixel is marked with "● 2", and the lower pixel is marked with "● 3". Similarly, " ▴1 " to "▴3" are added to the image m21, and "▪1" to "▪3" are added to the image m12 .

この場合、要素画像群生成手段35は、図4(b)に示すように、画像m11,m12,m21から左上画素●1,▲1,■1,…を抽出し、左上の要素画像e11を生成する。つまり、要素画像e11は、同一位置の左上画素●1,▲1,■1,…で構成されている。また、要素画像e11において、左上画素●1,▲1,■1,…の並び方は、それら画素を抽出した画像m11,m12,m21の視点位置に対応する。つまり、要素画像e11では、画素●1が左上に配置され、画素▲1が画素●1の右側に配置され、画素■1が画素●1の下側に配置される。 In this case, as shown in FIG . 4(b), the elemental image group generating means 35 extracts upper left pixels ●1, ▲ 1 , 1, . Generate image e11 . That is, the element image e11 is composed of upper left pixels ●1, ▲1, ■1, . . . at the same position. Also, in the element image e11 , the arrangement of the upper left pixels ● 1 , ▲ 1 , ■ 1 , . In other words, in the element image e11 , the pixel ●1 is arranged on the upper left, the pixel ▲1 is arranged on the right side of the pixel ●1, and the pixel ■1 is arranged below the pixel ●1.

また、要素画像群生成手段35は、要素画像e11と同様、画像m11,m12,m21から抽出した右側画素●2,▲2,■2,…で構成される要素画像e21を生成する。さらに、要素画像生成手段36は、要素画像e11,e21と同様、画像m11,m12,m21から抽出した下側画素●3,▲3,■3,…で構成される要素画像e12を生成する。 Further, the element image group generating means 35 generates an element image e21 composed of right pixels 2, 2 , 2 , . . . Generate. Furthermore, the element image generating means 36 generates element images composed of lower pixels ● 3 , ▲ 3 , ■ 3 , . . . e 12 is generated.

ここで、要素画像eは、その要素画像eを構成する各画素の画素位置に対応した位置に配置される。例えば、要素画像e11は、左上画素●1,▲1,■1,…で構成されているので、左上に配置される。また、要素画像e21は、右側画素●2,▲2,■2,…で構成されているので、要素画像e11の右側に配置される。さらに、要素画像e12は、下側画素●3,▲3,■3,…で構成されるので、要素画像e11の下側に配置される。 Here, the elemental image e is arranged at a position corresponding to the pixel position of each pixel forming the elemental image e. For example, the element image e11 is composed of the upper left pixels ●1, ▲1, ■1, . . . Also, since the element image e21 is composed of the right pixels ●2, ▲2, ■ 2 , . Further, the element image e12 is arranged below the element image e11 because it is composed of the lower pixels ●3, ▲3, ■3, .

なお、IP立体表示装置の光学系の構成によっては、立体像の倒立像が表示される場合もある。この場合、要素画像群生成手段35は、各画素の位置を上下左右に反転させて、立体像の正立像が表示されるように要素画像群Eを生成してもよい。 Depending on the configuration of the optical system of the IP stereoscopic display device, an inverted stereoscopic image may be displayed. In this case, the elemental image group generating means 35 may generate the elemental image group E so that a stereoscopic erect image is displayed by inverting the position of each pixel vertically and horizontally.

<仮想カメラアレイの移動による視域追従>
図5を参照し、仮想カメラアレイの移動による視域追従について説明する。
図5では、実際の両眼の位置を符号R,Lで図示した。また、図5では、図1と同様、仮想カメラアレイ230の中心位置を示す白抜きの‘×’と、瞳検出した両眼の中心位置を示す黒色の‘×’とを図示した。なお、仮想カメラアレイ230の中心位置(白抜きの‘×’)が、視域αの中心位置となる。
<Viewing area tracking by moving the virtual camera array>
With reference to FIG. 5, viewing zone tracking by movement of the virtual camera array will be described.
In FIG. 5, the actual positions of both eyes are indicated by symbols R and L. As shown in FIG. In FIG. 5, similarly to FIG. 1, a white 'x' indicating the central position of the virtual camera array 230 and a black 'x' indicating the central position of both eyes detected by the pupil are illustrated. Note that the center position of the virtual camera array 230 (white 'x') is the center position of the viewing area α.

図5に示すように、時刻t=0では、視聴者Hが動いていないので、視域αの中心位置が右眼R及び左眼Lの中間位置に一致している。従って、時刻t=0では、白抜きの‘×’及び黒色の‘×’が重なっている。
時刻t=1では、右眼R及び左眼Lの両方とも視域αに収まっている。このとき、仮想カメラアレイ230を移動量kvだけ移動させているので、右眼Rが視域αの境界から十分に離れており、図10に比べて、視域αの余白βに余裕がある。
As shown in FIG. 5, at time t=0, the viewer H is not moving, so the central position of the viewing zone α coincides with the intermediate position between the right eye R and the left eye L. As shown in FIG. Therefore, at time t=0, the white 'x' and the black 'x' overlap.
At time t=1, both the right eye R and the left eye L are within the viewing zone α. At this time, since the virtual camera array 230 is moved by the movement amount kv1 , the right eye R is sufficiently separated from the boundary of the viewing area α, and the margin β of the viewing area α has more margin than in FIG. be.

時刻t=2では、瞳検出に失敗したので、視域αが時刻t=1から移動していないが、右眼Rの瞳が視域αに収まっている。その結果、立体画像生成装置3は、クロストークの発生や、視認性の低下を抑制できる。
時刻t=3では、右眼R及び左眼Lの両方とも視域αに収まっている。このときも、仮想カメラアレイ230を移動量kvだけ移動させている。
なお、視聴者Hが反対側に移動した場合(図5では左側に移動した場合)、移動量kvの符号を負にすればよい。
At time t=2, pupil detection fails, so the viewing zone α has not moved from time t=1, but the pupil of the right eye R is within the viewing zone α. As a result, the stereoscopic image generation device 3 can suppress the occurrence of crosstalk and deterioration of visibility.
At time t=3, both the right eye R and the left eye L are within the viewing zone α. Also at this time, the virtual camera array 230 is moved by the movement amount kv3 .
When the viewer H moves to the opposite side (leftward in FIG. 5), the sign of the movement amount kvt should be negative.

[立体画像生成装置の動作]
図6を参照し、立体画像生成装置3の動作について説明する。
図6に示すように、ステップS1において、仮想カメラアレイ設定手段30は、瞳位置検出装置2から入力された瞳位置情報に基づいて、仮想カメラアレイ230の中心位置を、視聴者Hの両眼の中間位置に設定する。
ステップS2において、瞳移動量算出手段31は、瞳位置検出装置2より入力された瞳位置情報から瞳位置の移動量を予測する。例えば、瞳移動量算出手段31は、前記式(1)に示すように、瞳位置情報が示す瞳位置の変化から瞳位置の移動速度を算出し、算出した瞳位置の移動速度と係数とを乗じることで、瞳位置の移動量を算出する。
[Operation of Stereoscopic Image Generation Device]
The operation of the stereoscopic image generation device 3 will be described with reference to FIG.
As shown in FIG. 6, in step S1, the virtual camera array setting means 30 sets the central position of the virtual camera array 230 to the viewer H's both eyes based on the pupil position information input from the pupil position detection device 2. set to the middle position of
In step S<b>2 , the pupil movement amount calculator 31 predicts the movement amount of the pupil position from the pupil position information input from the pupil position detection device 2 . For example, the pupil movement amount calculation means 31 calculates the movement speed of the pupil position from the change in the pupil position indicated by the pupil position information, as shown in the above equation (1), and calculates the calculated movement speed of the pupil position and the coefficient. By multiplying, the movement amount of the pupil position is calculated.

ステップS3において、仮想カメラアレイ移動手段32は、ステップS2で算出した瞳位置の移動量に基づいて、仮想カメラアレイの中心位置を移動させる。すなわち、仮想カメラアレイ移動手段32は、視聴者Hの動きを考慮して、仮想カメラアレイの中心位置を両眼の中心位置から移動させる。
ステップS4において、3次元モデル設定手段33は、仮想空間内に配置する3次元モデルを設定する。
In step S3, the virtual camera array moving means 32 moves the center position of the virtual camera array based on the movement amount of the pupil position calculated in step S2. That is, the virtual camera array moving means 32 moves the center position of the virtual camera array from the center position of both eyes in consideration of the viewer's H movement.
At step S4, the three-dimensional model setting means 33 sets a three-dimensional model to be arranged in the virtual space.

ステップS5において、多視点画像群撮影手段34は、ステップS3で移動させた仮想カメラアレイで多視点画像群を撮影する。具体的には、多視点画像群撮影手段34は、3次元モデルが配置された仮想空間を、両眼の中心位置から瞳位置の移動量だけ移動させた仮想カメラアレイで撮影する。
ステップS6において、要素画像群生成手段35は、ステップS5で撮影した多視点画像群から要素画像群を生成する。例えば、要素画像群生成手段35は、各多視点画像から同一位置の画素を抽出し、抽出した画素で構成される各要素画像を生成する。
In step S5, the multi-viewpoint image group shooting means 34 shoots a multi-viewpoint image group with the virtual camera array moved in step S3. Specifically, the multi-viewpoint image group photographing means 34 photographs the virtual space in which the three-dimensional model is arranged, with a virtual camera array moved from the center position of both eyes by the movement amount of the pupil position.
In step S6, the elemental image group generating means 35 generates an elemental image group from the multi-viewpoint image group photographed in step S5. For example, the elemental image group generating means 35 extracts pixels at the same position from each multi-viewpoint image, and generates elemental images composed of the extracted pixels.

[作用・効果]
以上のように、本発明の実施形態に係る立体画像生成装置3は、視聴者Hの動きを考慮して仮想カメラアレイの中心位置を移動させるので、視聴者Hの瞳位置に立体画像の視域が追従し、立体画像の視域から瞳が外れにくくなる。これにより、立体画像生成装置3は、クロストークの発生や視認性の低下を抑制し、高品質なIP立体画像を提供することができる。
[Action/effect]
As described above, the stereoscopic image generation device 3 according to the embodiment of the present invention moves the center position of the virtual camera array in consideration of the movement of the viewer H. area follows, and the pupil is less likely to deviate from the viewing area of the stereoscopic image. As a result, the stereoscopic image generation device 3 can suppress the occurrence of crosstalk and deterioration of visibility, and can provide a high-quality IP stereoscopic image.

(変形例:瞳位置の移動量)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、瞳移動量算出手段が、式(1)で瞳位置の移動量を算出することとして説明したが、これに限定されない。例えば、瞳移動量算出手段は、下記の式(2)に示すように、瞳位置の移動速度vに関する高次の式を用いて、瞳位置の移動量を算出してもよい。なお、係数lは、係数kと同様、任意の値で予め設定しておくこととする。
(Modification: Movement amount of pupil position)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes and the like without departing from the gist of the present invention.
In the above-described embodiment, the pupil movement amount calculation means calculates the movement amount of the pupil position using Equation (1), but the present invention is not limited to this. For example, the pupil movement amount calculation means may calculate the movement amount of the pupil position using a higher-order expression regarding the moving speed v of the pupil position, as shown in the following equation (2). Note that the coefficient l is set in advance to an arbitrary value, like the coefficient k.

Figure 0007324605000002
Figure 0007324605000002

また、瞳移動量算出手段は、瞳位置の移動に関するものであれば、瞳位置の加速度など、移動速度以外を用いてもよい。
また、前記した式(1)では、1フレーム間隔で瞳位置の移動速度を算出したが、2フレーム以上の間隔で瞳位置の移動速度を算出してもよい。
Further, the pupil movement amount calculation means may use something other than the movement speed, such as the acceleration of the pupil position, as long as it relates to the movement of the pupil position.
Further, in the above equation (1), the movement speed of the pupil position is calculated at intervals of one frame, but the movement speed of the pupil position may be calculated at intervals of two frames or more.

(その他変形例)
前記した実施形態では、全方位視差を有するIP立体方式に本発明を適用することとして説明したが、これに限定されない。本発明は、IP立体方式、レンチキュラー立体方式等の光線再生型の立体方式に適用することができる。このレンチキュラー立体方式は、水平視差のみを有する光線再生型の立体方式である。
(Other modifications)
In the above-described embodiment, the present invention is applied to the IP stereoscopic method having omnidirectional parallax, but the present invention is not limited to this. INDUSTRIAL APPLICABILITY The present invention can be applied to a light-reproducing stereoscopic system such as an IP stereoscopic system and a lenticular stereoscopic system. This lenticular stereoscopic system is a light-reproducing stereoscopic system having only horizontal parallax.

前記した実施形態では、1人分の瞳位置を検出することとして説明したが、これに限定されない。つまり、複数人の瞳位置を検出し、瞳位置を検出した人数に応じて時分割表示を行えばよい。つまり、立体画像生成装置は、立体画像生成手段が生成した立体画像を人物毎に時分割する時分割手段、を備えればよい。 In the above-described embodiment, the pupil positions of one person are detected, but the present invention is not limited to this. In other words, the pupil positions of a plurality of people are detected, and time-division display is performed according to the number of people whose pupil positions are detected. In other words, the stereoscopic image generation device may include a time division unit that time-divides the stereoscopic image generated by the stereoscopic image generation unit for each person.

前記した各実施形態では、立体画像生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した立体画像生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In each of the above-described embodiments, the stereoscopic image generation device has been described as independent hardware, but the present invention is not limited to this. For example, the present invention can be realized by a program that causes hardware resources such as a CPU, memory, and hard disk provided in a computer to operate cooperatively as the stereoscopic image generation device described above. These programs may be distributed via a communication line, or may be distributed after being written in a recording medium such as a CD-ROM or flash memory.

1 立体画像表示システム
2 瞳位置検出装置
3 立体画像生成装置
4 立体画像表示装置
30 仮想カメラアレイ設定手段
31 瞳移動量算出手段(瞳位置予測手段)
32 仮想カメラアレイ移動手段
33 3次元モデル設定手段
34 多視点画像群撮影手段
35 要素画像群生成手段(立体画像生成手段)
41 レンズアレイ
100 IP立体映像表示装置
110 直視型ディスプレイ
120 レンズアレイ
121 要素レンズ
210 仮想ディスプレイ
220 仮想レンズアレイ
230 仮想カメラアレイ
231 仮想カメラ
E 要素画像群
e 要素画像
L 左眼
M 多視点画像群
m 多視点画像
H 視聴者
Obj 3次元モデル
R 右眼
α 視域
1 stereoscopic image display system 2 pupil position detection device 3 stereoscopic image generation device 4 stereoscopic image display device 30 virtual camera array setting means 31 pupil movement amount calculation means (pupil position prediction means)
32 virtual camera array moving means 33 three-dimensional model setting means 34 multi-viewpoint image group photographing means 35 elemental image group generating means (stereoscopic image generating means)
41 lens array 100 IP stereoscopic video display device 110 direct-view display 120 lens array 121 element lens 210 virtual display 220 virtual lens array 230 virtual camera array 231 virtual camera E element image group e element image L left eye M multi-viewpoint image group m multiple Viewpoint image H viewer Obj 3D model R right eye α viewing zone

Claims (4)

仮想カメラアレイで撮影した多視点画像群から、人物の瞳位置に視域を追従させた立体画像を生成する立体画像生成装置であって、
前記瞳位置を示す瞳位置情報が入力され、入力された前記瞳位置情報に基づいて、前記仮想カメラアレイの中心位置を、前記人物の両眼の中間位置に設定する仮想カメラアレイ設定手段と、
前記瞳位置情報から前記瞳位置の移動量を予測する瞳位置予測手段と、
前記瞳位置予測手段が予測した瞳位置の移動量に基づいて、前記仮想カメラアレイの中心位置を移動させる仮想カメラアレイ移動手段と、
前記仮想カメラアレイ移動手段が移動させた仮想カメラアレイで前記多視点画像群を撮影する多視点画像群撮影手段と、
前記多視点画像群から前記立体画像を生成する立体画像生成手段と、
を備え
前記瞳位置予測手段は、前記瞳位置情報が示す瞳位置の時間変化から前記瞳位置の移動速度を算出し、前記瞳位置の移動速度と予め設定した係数とを乗じることで、前記瞳位置の移動量を算出することを特徴とする立体画像生成装置。
A stereoscopic image generation device for generating a stereoscopic image in which a viewing zone is made to follow a person's pupil position from a group of multi-viewpoint images captured by a virtual camera array,
virtual camera array setting means for receiving pupil position information indicating the pupil position, and setting the center position of the virtual camera array to an intermediate position between the eyes of the person based on the inputted pupil position information;
Pupil position prediction means for predicting a movement amount of the pupil position from the pupil position information;
virtual camera array movement means for moving the center position of the virtual camera array based on the movement amount of the pupil position predicted by the pupil position prediction means;
multi-viewpoint image group photographing means for photographing the multi-viewpoint image group with the virtual camera array moved by the virtual camera array moving means;
stereoscopic image generation means for generating the stereoscopic image from the multi-viewpoint image group;
with
The pupil position prediction means calculates the moving speed of the pupil position from the temporal change of the pupil position indicated by the pupil position information, and multiplies the moving speed of the pupil position by a preset coefficient to obtain the pupil position. A stereoscopic image generating device, characterized by calculating a movement amount .
仮想カメラアレイで撮影した多視点画像群から、人物の瞳位置に視域を追従させた立体画像を生成する立体画像生成装置であって、
前記瞳位置を示す瞳位置情報が入力され、入力された前記瞳位置情報に基づいて、前記仮想カメラアレイの中心位置を、前記人物の両眼の中間位置に設定する仮想カメラアレイ設定手段と、
前記瞳位置情報から前記瞳位置の移動量を予測する瞳位置予測手段と、
前記瞳位置予測手段が予測した瞳位置の移動量に基づいて、前記仮想カメラアレイの中心位置を移動させる仮想カメラアレイ移動手段と、
前記仮想カメラアレイ移動手段が移動させた仮想カメラアレイで前記多視点画像群を撮影する多視点画像群撮影手段と、
前記多視点画像群から前記立体画像を生成する立体画像生成手段と、
前記立体画像生成手段が生成した立体画像を前記人物毎に時分割する時分割手段と、
を備えることを特徴とする立体画像生成装置。
A stereoscopic image generation device for generating a stereoscopic image in which a viewing zone is made to follow a person's pupil position from a group of multi-viewpoint images captured by a virtual camera array,
virtual camera array setting means for receiving pupil position information indicating the pupil position, and setting the center position of the virtual camera array to an intermediate position between the eyes of the person based on the inputted pupil position information;
pupil position prediction means for predicting a movement amount of the pupil position from the pupil position information;
virtual camera array movement means for moving the center position of the virtual camera array based on the movement amount of the pupil position predicted by the pupil position prediction means;
multi-viewpoint image group photographing means for photographing the multi-viewpoint image group with the virtual camera array moved by the virtual camera array moving means;
stereoscopic image generation means for generating the stereoscopic image from the multi-viewpoint image group;
a time-division means for time-dividing the stereoscopic image generated by the stereoscopic image generation means for each person ;
A stereoscopic image generating device comprising:
前記立体画像は、光線再生型の立体方式に対応した要素画像群であることを特徴とする請求項1又は請求項2に記載の立体画像生成装置。 3. The stereoscopic image generating apparatus according to claim 1, wherein the stereoscopic image is a group of element images corresponding to a light-reproduction stereoscopic system. コンピュータを、請求項1から請求項の何れか一項に記載の立体画像生成装置として機能させるためのプログラム。 A program for causing a computer to function as the stereoscopic image generating device according to any one of claims 1 to 3 .
JP2019072541A 2019-04-05 2019-04-05 3D image generation device and its program Active JP7324605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019072541A JP7324605B2 (en) 2019-04-05 2019-04-05 3D image generation device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019072541A JP7324605B2 (en) 2019-04-05 2019-04-05 3D image generation device and its program

Publications (2)

Publication Number Publication Date
JP2020170979A JP2020170979A (en) 2020-10-15
JP7324605B2 true JP7324605B2 (en) 2023-08-10

Family

ID=72745409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019072541A Active JP7324605B2 (en) 2019-04-05 2019-04-05 3D image generation device and its program

Country Status (1)

Country Link
JP (1) JP7324605B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024131889A (en) * 2023-03-16 2024-09-30 マクセル株式会社 Floating-air image display device and character display device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002330452A (en) 2001-05-01 2002-11-15 Nippon Hoso Kyokai <Nhk> Stereoscopic image display device
JP2013143702A (en) 2012-01-11 2013-07-22 Sharp Corp Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
US20150029317A1 (en) 2011-12-23 2015-01-29 Korea Institute Of Science And Technology Device for displaying multi-view 3d image using dynamic viewing zone expansion applicable to multiple observers and method for same
JP2015089104A (en) 2013-09-26 2015-05-07 Nltテクノロジー株式会社 Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof
JP2015104107A (en) 2013-11-28 2015-06-04 日本放送協会 Ip stereoscopic video estimation device and program therefor
JP2018074463A (en) 2016-11-01 2018-05-10 日本放送協会 Image generation device, image display system and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2904204B1 (en) * 1998-01-08 1999-06-14 日本電気株式会社 Observation position detection device and its observation position detection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002330452A (en) 2001-05-01 2002-11-15 Nippon Hoso Kyokai <Nhk> Stereoscopic image display device
US20150029317A1 (en) 2011-12-23 2015-01-29 Korea Institute Of Science And Technology Device for displaying multi-view 3d image using dynamic viewing zone expansion applicable to multiple observers and method for same
JP2013143702A (en) 2012-01-11 2013-07-22 Sharp Corp Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
JP2015089104A (en) 2013-09-26 2015-05-07 Nltテクノロジー株式会社 Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof
JP2015104107A (en) 2013-11-28 2015-06-04 日本放送協会 Ip stereoscopic video estimation device and program therefor
JP2018074463A (en) 2016-11-01 2018-05-10 日本放送協会 Image generation device, image display system and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Marc Levoy(外1名),Light Field Rendering,SIGGRAPH '96: Proceedings of the 23rd annualconference on Computergraphics and interactive techniques,米国,ACM SIGGRAPH,1996年08月01日,p.31-42

Also Published As

Publication number Publication date
JP2020170979A (en) 2020-10-15

Similar Documents

Publication Publication Date Title
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
KR20110049039A (en) High density multi-view display system and method based on the active sub-pixel rendering
GB2498184A (en) Interactive autostereoscopic three-dimensional display
CN103702099B (en) A kind of super large visual angle integration imaging 3D display packing based on head-tracking
JP7165513B2 (en) IP stereoscopic video display device and its program
US11006090B2 (en) Virtual window
JP2012105101A (en) Stereoscopic image display device, method and program
JP2008085503A (en) Three-dimensional image processing apparatus, method and program, and three-dimensional image display device
KR19990028312A (en) Autostereoscopic Image Acquisition Method and System
JP5439686B2 (en) Stereoscopic image display apparatus and stereoscopic image display method
JP2007336002A (en) Multi-viewpoint video display apparatus
KR100430381B1 (en) Three-dimensional display
US10939092B2 (en) Multiview image display apparatus and multiview image display method thereof
TWI489149B (en) Autostereoscopic display apparatus and storage media
Takaki Novel 3D display using an array of LCD panels
TWI515457B (en) Multi-view three dimensional display system and control method thereof
JP7324605B2 (en) 3D image generation device and its program
JP7304264B2 (en) 3D image display system
CN103969836A (en) View angle expanding method used for multi-viewpoint auto-stereoscopic display
US20040178969A1 (en) Spatial three-dimensional image display device
JP6685241B2 (en) Stereoscopic video generation
KR101093929B1 (en) Method and system for displaying 3-dimensional images using depth map
KR101907127B1 (en) Stereoscopic video zooming and foreground and background detection in a video
EP3922012A1 (en) Method and apparatus for correcting lenticular distortion
KR101939243B1 (en) Stereoscopic depth adjustment and focus point adjustment

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7324605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150