JPH0591545A - Stereoscopic image recording/reproducing system - Google Patents
Stereoscopic image recording/reproducing systemInfo
- Publication number
- JPH0591545A JPH0591545A JP3278227A JP27822791A JPH0591545A JP H0591545 A JPH0591545 A JP H0591545A JP 3278227 A JP3278227 A JP 3278227A JP 27822791 A JP27822791 A JP 27822791A JP H0591545 A JPH0591545 A JP H0591545A
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- divided
- stereoscopic
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、テレビカメラ等の画像
撮影装置により取込まれた画像や画像記録媒体から再生
された画像等の二次元画像を立体画像を投影する立体画
像機器の画像ソースに変換する画像変換に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image source of a stereoscopic image device for projecting a stereoscopic image of a two-dimensional image such as an image captured by an image capturing device such as a television camera or an image reproduced from an image recording medium. Image conversion to convert to.
【0002】[0002]
【従来の技術】従来、奥行感を伴った画像、いわゆる立
体画像を提供する試みが種々行われている。立体画像を
形成する方法には様々な手法が提案されているが、動画
像への適用や制作の容易さからいわゆる両眼視差を利用
する方法が多く用いられている。この方式は、一つの撮
影対象を人の両眼に相当する2つの方向から撮影し、各
々の画像を適当な方法で観察者の対応する眼に提示する
ことにより、観察者に立体感を生じさせる。2. Description of the Related Art Conventionally, various attempts have been made to provide images with a sense of depth, so-called stereoscopic images. Although various methods have been proposed for forming a stereoscopic image, a method that uses so-called binocular parallax is often used because of its ease of application to moving images and production. In this method, one object is photographed from two directions corresponding to both eyes of a person, and each image is presented to the corresponding eye of the observer by an appropriate method, thereby giving the observer a stereoscopic effect. Let
【0003】この両眼視差方式では2方向からの画像を
必要とするため、撮影の際に2台の撮影装置を用意し、
両眼に対応した2つの方向から同時に2つの撮影画像を
撮影して記録する。従って、記録された画像は撮影の際
の撮影装置の設置条件に依存し、再生された画像を観察
する人間の観察条件もこの撮影条件に合わせる必要があ
る。例えば、小画面として提供することを前提に撮影さ
れた画像を大画面に投影すると、観察者と画面との距離
が撮影条件とあまり異ならない場合には、左右眼用の2
つの映像が相対的に離間しすぎて立体像とならず二重像
に観察される不具合がある。逆に、大画面として提供す
ることを前提に撮影された画像を小画面で観察すると、
観察者と画面との距離が撮影条件とあまり異ならない場
合には、視差が殆ど認識されず、立体感が生じない不具
合がある。Since this binocular parallax system requires images from two directions, two photographing devices are prepared for photographing.
Two photographed images are simultaneously photographed and recorded from two directions corresponding to both eyes. Therefore, the recorded image depends on the installation condition of the image capturing device at the time of image capturing, and the observation condition of the person who observes the reproduced image also needs to be adjusted to this image capturing condition. For example, if an image taken on the assumption that it is provided as a small screen is projected on a large screen, and if the distance between the observer and the screen does not differ much from the shooting conditions, two images for the left and right eyes are displayed.
There is a problem that two images are not separated into three-dimensional images because they are relatively separated from each other and are observed as double images. On the contrary, when observing the image taken on the small screen assuming that it is provided as a large screen,
When the distance between the observer and the screen is not so different from the shooting condition, parallax is hardly recognized and a stereoscopic effect is not generated.
【0004】このような不具合は、両眼視差方式のもの
のみならず、複数の視差を必要とする立体画像観察方式
に共通するものである。Such a problem is common not only to the binocular parallax system but also to the stereoscopic image observing system requiring a plurality of parallaxes.
【0005】[0005]
【発明が解決しようとする課題】上述のように従来の立
体視用の画像再生装置では、立体画像専用の撮影装置で
撮影された複数の平面的な画像を個々に記録しておき、
再生の際に各々の画像を撮影の際に設定された条件と同
じ条件で再生することを要し、画像再生の画面の大きさ
が変わると画像が適当な視差で再現されない結果、立体
感が十分に得られにくい。また、立体画専用の撮影装置
は装置設定の難しさ、装置の大きさ等の点で、一般向き
でない。As described above, in the conventional image reproducing apparatus for stereoscopic vision, a plurality of planar images photographed by the photographing apparatus dedicated to stereoscopic images are individually recorded,
It is necessary to play each image under the same conditions that were set at the time of shooting during playback, and if the size of the image playback screen changes, the image will not be reproduced with appropriate parallax, resulting in a three-dimensional effect. It is difficult to obtain enough. In addition, a photographing device dedicated to stereoscopic images is not suitable for general use because of difficulty in setting the device, size of the device, and the like.
【0006】よって、本発明は平面画像として記録され
た画像情報から立体視像を形成し、3次元画像を再生す
ることを両眼視差方式によらずに可能とした立体画像変
換方法及び立体画像変換装置を提供することを目的とす
る。Therefore, according to the present invention, a stereoscopic image conversion method and a stereoscopic image capable of forming a stereoscopic image from image information recorded as a planar image and reproducing a three-dimensional image without depending on the binocular parallax system. An object is to provide a conversion device.
【0007】[0007]
【課題を解決するための手段】上記目的を達成するため
本発明の立体画像記録再生システムを構成する立体画像
記録装置は、基本フレーム間隔の画像信号の1つの基本
フレームから立体画像を形成するための追加フレームを
形成し、これを前記基本フレーム間に挿入して立体画像
信号を形成してこれを記録する立体画像記録装置におい
て、上記基本フレームに含まれる被写体の幾何学的要素
の輪郭等から被写体の遠近を抽出して被写体の奥行を求
め、この奥行に基づいて上記被写体を画面奥行方向にお
いて分割する分割平面数を求める手段と、分割された被
写体を至近の分割平面に投影して分割平面に投影された
投影像を得て、これを該分割平面の上記画面奥行方向に
おける位置を表す奥行位置情報と共に画像記録媒体に記
録する同一距離画像抽出記録手段とを備えることを特徴
とする。In order to achieve the above object, a stereoscopic image recording apparatus which constitutes a stereoscopic image recording / reproducing system of the present invention forms a stereoscopic image from one basic frame of an image signal having basic frame intervals. In the stereoscopic image recording apparatus for forming an additional frame of, and inserting this between the basic frames to form a stereoscopic image signal and recording the stereoscopic image signal, the outline of the geometrical elements of the subject included in the basic frame A means for obtaining the depth of the subject by extracting the perspective of the subject, and obtaining the number of division planes for dividing the subject in the depth direction of the screen based on the depth, and a division plane for projecting the divided subject on the nearest division plane. The same distance image is obtained by obtaining the projection image projected on the image recording medium and recording it on the image recording medium together with depth position information indicating the position of the division plane in the screen depth direction. Characterized in that it comprises an extraction recording means.
【0008】また、本発明の立体画像記録再生システム
を構成する立体画像再生装置は、二次元画像を担う画像
信号と上記二次元画像が投影されるべき位置を表す奥行
位置信号とが記録された画像記録媒体を演奏して上記画
像信号及び上記奥行位置信号とを復調する画像記録媒体
演奏手段と、上記奥行位置信号の供給に応答して画像投
影レンズを光軸方向に駆動して画像形成位置を制御する
投影レンズ制御手段と、上記画像信号を二次元画像に変
換し、これを上記画像投影レンズを経由して投射する画
像投射手段とを備えることを特徴とする。Further, in the stereoscopic image reproducing apparatus which constitutes the stereoscopic image recording / reproducing system of the present invention, the image signal for carrying the two-dimensional image and the depth position signal representing the position where the two-dimensional image should be projected are recorded. An image recording medium playing means for playing the image recording medium to demodulate the image signal and the depth position signal, and an image forming position by driving the image projection lens in the optical axis direction in response to the supply of the depth position signal. And a projection lens control means for controlling the image signal, and an image projection means for converting the image signal into a two-dimensional image and projecting the two-dimensional image via the image projection lens.
【0009】[0009]
【作用】立体画像記録装置は、平面画像から幾何学的要
素を抽出し、被写体の奥行を推定する。このような推定
は、例えばパターン認識により画面から抽出した幾何学
的要素から被写体を判別し、各種被写体の形状のデータ
ベースから被写体の立体形状のデータを読み取り、形状
データから被写体の奥行を推定することが可能である。
被写体が複数あるときは被写体相互の位置関係を考慮し
て平面的な被写体の奥行方向の距離関係を推定すること
が可能である。推定された画面の奥行に基づいて被写体
を奥行方向と垂直な面で分割する分割面の数を求め、画
面の奥行方向の所定距離に分割面を配置して被写体を分
割する。分割された被写体を分割面に投影し、分割面に
投影された像を追加フレームとして分割面の奥行方向に
おける位置と共に原画像の基本フレーム間に挿入して画
像媒体に記録する。立体画像再生装置は、再生画像の投
影位置をフレーム毎に設定しながら一連の画像フレーム
を高速で映写する。The three-dimensional image recording device extracts geometric elements from a two-dimensional image and estimates the depth of the subject. For such estimation, for example, a subject is discriminated from geometrical elements extracted from the screen by pattern recognition, the three-dimensional shape data of the subject is read from a database of various subject shapes, and the depth of the subject is estimated from the shape data. Is possible.
When there are a plurality of subjects, it is possible to estimate the distance relation in the depth direction of the two-dimensional subjects in consideration of the positional relation between the subjects. Based on the estimated depth of the screen, the number of division planes that divide the subject into planes perpendicular to the depth direction is obtained, and the division planes are arranged at a predetermined distance in the depth direction of the screen to divide the subject. The divided subject is projected on the dividing surface, and the image projected on the dividing surface is inserted as an additional frame between the basic frames of the original image together with the position in the depth direction of the dividing surface and recorded on the image medium. The stereoscopic image reproducing device projects a series of image frames at high speed while setting the projection position of the reproduced image for each frame.
【0010】この結果、立体視用に撮影されたものでは
ない記録済みの平面的な画像情報を立体像として観察す
ることが可能になる。また、立体視用に撮影され記録さ
れた画像でも、再生の際の画面サイズや画面と観察者と
の距離が異なる等の観察条件の違いが生じても、上述の
装置により画像記録の際に修正を行うことが可能であ
り、適正な立体視画像として記録あるいは再生され得
る。As a result, it is possible to observe the recorded planar image information which is not photographed for stereoscopic vision as a stereoscopic image. In addition, even in the case of an image captured and recorded for stereoscopic viewing, even if there is a difference in observation conditions such as a difference in screen size during reproduction, a distance between the screen and an observer, etc. It can be corrected and can be recorded or reproduced as an appropriate stereoscopic image.
【0011】[0011]
【実施例】本発明の立体視装置に係る立体視の原理を図
5を参照して説明する。図5(A)は、被写体たる2つ
の立方体A及びBが平面画像として記録されている状態
を示している。この立方体A及びBを立体像として形成
する手順について説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The principle of stereoscopic vision according to the stereoscopic vision apparatus of the present invention will be described with reference to FIG. FIG. 5A shows a state in which two cubes A and B, which are subjects, are recorded as a plane image. A procedure for forming the cubes A and B as a stereoscopic image will be described.
【0012】まず、平面画像から画像を形成している幾
何学図形を抽出し、パターン認識等の手法を用いて抽出
された図形が何であるかを判別する。このため、予め平
面画像ソースの内容を調べて画面に表われる被写体の種
類及びその立体形状のモデルを蓄積してデーターベース
を構築しておく。抽出された図形から被写体が判別さ
れ、立体形状のモデルが選択される。この立体モデルを
図5(B)に示されるコンピュータ内に形成された仮想
三次元空間に配置する。配置は幾何学的図形の輪郭から
遠近法等を用いて設定することができる。データベース
に登録される単位のモデルを固体要素とすれば、仮想空
間には立方体の固体要素A及びBが配置される。画面の
奥手前方向を仮想空間のX軸方向に対応させれば、立体
モデルの形状を表わすデータによって固体要素A及びB
相互の奥行が判明する。例えば、各モデルの表面を形成
するP点(x,y,z)のうち、最大のxmax と最小の
xmin との差からモデル群の奥行距離が求められる。こ
の奥行に応じてY−Z平面によって固体要素を分割す
る。奥行が大きければ分割数を増す。図5(B)ではl
1 〜l3 の3つの平面によって分割している。この分割
数は、後に再生される立体像の解像度に関係する。そし
て、分割した平面から固体要素が突出する部分を求め
る。図5(C)のS1 は平面l1 から手前方に突出した
固体要素の部分を示している。S2 は平面l1 とl2 間
に存在する固体要素を示している。S3 は平面l2 とl
3 間に存在する固体要素を示している。S4 は平面l3
と背景となる図示しない平面l∞との間に存在する固体
要素を示している。このように平面l1 〜l3 によって
分割された固体要素S1 〜S4 を夫々正面方向から平面
l1 〜l∞に投影して追加フレームF11〜F14を得る。
すなわち、分割された固体要素S1 〜S4 の切断面以外
の正面から見える表面の画素を夫々YZ成分で表示する
ことにより、追加フレームF11〜F14を得る。この追加
フレームF11〜F14には画像情報に加えて、投影される
べきフレーム位置を表わすフレーム位置情報x1 ´〜x
4 ´が付加される。これ等の立体像を形成すべきフレー
ムに基本フレームF10から固体要素A及びBを除いた背
景フレームF10、位置情報x∞を追加してフレームF10
〜F14、F10∞からなる1フレームの立体画面情報が形
成される。このような画像処理を図6(B)の原画像の
各フレームf7 〜f12について繰り返えすと図6(A)
に示される一連の立体画像信号が得られる。これは、実
線で示される原画像信号の各フレーム間に立体像を形成
するための点線で示される追加フレームが必要な立体解
像度に応じた数で挿入された構成となっている。First, a geometric figure forming an image is extracted from a plane image, and what kind of figure is extracted is discriminated by using a technique such as pattern recognition. For this reason, the contents of the planar image source are checked in advance, and the type of subject appearing on the screen and its three-dimensional model are accumulated to construct a database. A subject is discriminated from the extracted figure, and a three-dimensional model is selected. This three-dimensional model is placed in a virtual three-dimensional space formed in the computer shown in FIG. The arrangement can be set from the contour of the geometric figure by using the perspective method or the like. If the unit model registered in the database is a solid element, cubic solid elements A and B are arranged in the virtual space. If the front direction of the screen is made to correspond to the X-axis direction of the virtual space, the solid elements A and B can be calculated by the data representing the shape of the solid model.
Mutual depth is revealed. For example, among the P points (x, y, z) forming the surface of each model, the depth distance of the model group is obtained from the difference between the maximum x max and the minimum x min . The solid element is divided by the YZ plane according to this depth. If the depth is large, the number of divisions is increased. In FIG. 5B, l
It is divided by three planes of 1 to l 3. This number of divisions is related to the resolution of the stereoscopic image reproduced later. Then, the part where the solid element projects from the divided plane is obtained. S 1 in FIG. 5 (C) indicates a portion of the solid element protruding forward from the plane l 1 . S 2 represents a solid element lying between the planes l 1 and l 2 . S 3 is the plane l 2 and l
The solid elements that are present between 3 are shown. S 4 is the plane l 3
The solid-state elements existing between the background and a plane l ∞ ( not shown) serving as a background are shown. Obtaining additional frames F 11 to F 14 thus solid elements S 1 to S 4 which is divided by a plane l 1 to l 3 projecting respectively from the front direction to the plane l 1 to l ∞.
That is, the additional frames F 11 to F 14 are obtained by displaying the pixels of the surface viewed from the front other than the cut surface of the divided solid elements S 1 to S 4 with the YZ components, respectively. In addition to the image information, the additional frames F 11 to F 14 also include frame position information x 1 ′ to x 1 ′ representing the frame position to be projected.
4 'is added. Background frame F 10 to remove solids components A and B from the basic frame F 10 to the frame to form the three-dimensional image of this like, the frame F 10 by adding positional information x ∞
One frame of stereoscopic screen information including F 14 and F 10 ∞ is formed. When such image processing is repeated for each frame f 7 to f 12 of the original image of FIG. 6B, FIG.
A series of stereoscopic image signals shown in is obtained. This is configured such that additional frames indicated by dotted lines for forming a stereoscopic image are inserted between frames of the original image signal indicated by solid lines in a number according to the required stereoscopic resolution.
【0013】各フレームを表わすビデオ信号にはフレー
ムのアドレスたるフレーム番号、初期フレームからの映
写時間の経過を示すタイムコード、被写体の奥行に対応
してフレームを投影すべき位置を表わす位置情報が例え
ばフレーム間に挿入される。The video signal representing each frame includes, for example, a frame number as an address of the frame, a time code indicating a lapse of projection time from the initial frame, and position information indicating a position where the frame should be projected corresponding to the depth of the subject. Inserted between frames.
【0014】かかる立体画像信号はビデオディスク、ビ
デオテープ等の画像記録媒体に記録される。The stereoscopic image signal is recorded on an image recording medium such as a video disc or a video tape.
【0015】図示しない立体画像再生装置においては、
フレーム毎に記録された位置情報を復調して各フレーム
を投影すべき位置をプロジェクタの可動投影レンズある
いは光路長変化用ミラー等によって設定し、かつ、ビデ
オ信号を復調して各フレームの画像をプロジェクタによ
って投影して画面の奥手前方向に移動する一連の画像を
形成する。かかる投影位置が画面の奥手前方向に高速で
変化する一連の画像を観察者が見ると、視覚の残像効果
によって一連の平面画像が立体像として認識される。In a stereoscopic image reproducing apparatus not shown,
The position information recorded for each frame is demodulated and the position where each frame should be projected is set by the movable projection lens of the projector or the mirror for changing the optical path length, and the video signal is demodulated to project the image of each frame. To form a series of images that are projected and moved toward the front of the screen. When an observer views a series of images in which the projection position changes at a high speed in the front direction of the screen, the series of planar images is recognized as a stereoscopic image due to the afterimage effect of vision.
【0016】本発明の実施例について図1及び図2を参
照して説明する。図1は本発明の立体画変換系の構成を
示しており、図2は、立体画像再生系の構成を示してい
る。An embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. 1 shows the configuration of a stereoscopic image conversion system of the present invention, and FIG. 2 shows the configuration of a stereoscopic image reproduction system.
【0017】ビデオディスク、ビデオテープ、CD−R
OM、ハードディスク等の画像記録媒体1には原画像が
記録されている。この画像記録媒体1は、ビデオディス
クプレーヤ、デジタルVTR等の画像再生装置2によっ
て演奏され、後段の画像メモリの容量に応じたフレーム
数、例えば1フレームが再生される。再生された各フレ
ームは各画素の明度、色相の色情報を担うデジタル値に
変換されて画像メモリ4に記憶される。例えば、一画素
を8ビットで表示すれば256色を表わすことができ
る。また、テレビカメラ等の撮影装置3から得られる映
像信号をデジタル値に変換して所定フレームを画像メモ
リ4に記憶することができる。Video disc, video tape, CD-R
An original image is recorded on the image recording medium 1 such as an OM and a hard disk. The image recording medium 1 is played by an image reproducing device 2 such as a video disc player or a digital VTR, and the number of frames corresponding to the capacity of the image memory in the subsequent stage, for example, one frame is reproduced. Each reproduced frame is converted into a digital value that carries color information of the brightness and hue of each pixel and stored in the image memory 4. For example, if one pixel is displayed with 8 bits, 256 colors can be represented. Further, it is possible to convert a video signal obtained from the photographing device 3 such as a television camera into a digital value and store a predetermined frame in the image memory 4.
【0018】画像メモリ4は、1フレーム分の画像を奥
行推定装置5に与える。奥行推定装置5は、画像データ
処理に好適に構成されたコンピュータであり、図示しな
いメモリに上述した三次元仮想空間を形成する。そし
て、画像メモリ4に形成されている被写体の幾何学的な
特性値からこれが何であるかを識別する画像認識部5
a、識別した被写体相互の前後関係を推定する全体位置
推定部5b及び各被写体相互間の全体的な位置関係を推
定する個別位置推定部5c等の機能を担っている。ま
た、後述の同一距離画像抽出記録装置9の画像抽出の機
能を担わせることも可能である。これ等の推定は被写体
の一般的なサイズや幾何学関係の基本データを登録した
データベース装置6に蓄積されたデータを逐次参照しな
がら実行される。The image memory 4 gives an image for one frame to the depth estimation device 5. The depth estimation device 5 is a computer suitably configured for image data processing, and forms the above-described three-dimensional virtual space in a memory (not shown). Then, the image recognition unit 5 for identifying what is the geometrical characteristic value of the subject formed in the image memory 4
a, an overall position estimating unit 5b that estimates the front-rear relationship between the identified subjects, and an individual position estimating unit 5c that estimates the overall positional relationship between the subjects. Further, it is also possible to make the same distance image extraction recording device 9 described later have an image extraction function. These estimations are executed by sequentially referring to the data stored in the database device 6 in which the general size of the subject and the basic data relating to the geometrical relation are registered.
【0019】予め被写体の形状等が登録されたデータベ
ースを用いても、被写体判別の精度を表わす適合度が低
く推定が難しいときは、オペレータによるマニュアル操
作でデータを適宜に添削加工することを可能にしたデー
タ添削装置8が使用される。オペレータとのインタフェ
ースはキーボードや画像等の情報表示器等を備えたデー
タ入力端末装置10によって行われる。添削されたデー
タはデータベース添削装置8を介して上記データベース
内に新しいデータとして登録される。また、上述の推定
結果から得られた新しいデータはデータ更新装置7によ
って、前記データベース内に新しいデータとして登録さ
れる。Even if a database in which the shape of a subject is registered in advance, the data can be appropriately corrected by a manual operation by an operator when the degree of conformity indicating the accuracy of subject discrimination is low and estimation is difficult. The data correction device 8 is used. The interface with the operator is performed by the data input terminal device 10 provided with a keyboard, an information display device such as an image, and the like. The corrected data is registered as new data in the database via the database correction device 8. Further, the new data obtained from the above estimation result is registered as new data in the database by the data updating device 7.
【0020】奥行位置推定装置5による推定結果は、同
一距離画像抽出記録装置9に送られ、後述の画像再生装
置13の種類や特性に合わせた原画像の修正追加が行わ
れる。同一距離画像抽出記録装置9は画像記録装置を備
えた画像処理に適当なコンピュータであり、原画面を三
次元画面に変換した画面の奥行方向において同一距離の
部分、あるいは奥行方向において所定距離範囲内に属す
る部分を抽出して原画面から一画面を形成し、これを画
像記録媒体11に記録する。原画像の1フレームから複
数の追加フレームを形成し、背景となるフレーム及び追
加フレーム群を逐次画像記録媒体11に記録することを
繰り返すことにより、連続なビデオ信号が形成される。The estimation result by the depth position estimating device 5 is sent to the same distance image extracting and recording device 9, and the original image is corrected and added according to the type and characteristics of the image reproducing device 13 described later. The same-distance image extraction recording device 9 is a computer equipped with an image recording device and suitable for image processing. The part belonging to is extracted to form one screen from the original screen, and this is recorded in the image recording medium 11. A continuous video signal is formed by repeatedly forming a plurality of additional frames from one frame of the original image and sequentially recording the background frame and the additional frame group on the image recording medium 11.
【0021】なお、画像再生装置13が両眼視差方式の
立体視装置を兼ねる場合には、左右両眼用画像の視差や
相互の距離を立体像を提示する画面サイズや観察者との
距離に応じて適正な値となるように修正を加えて記録す
る。When the image reproducing device 13 also serves as a binocular parallax stereoscopic device, the parallax of the left and right binocular images and the mutual distance are determined by the screen size for presenting the stereoscopic image and the distance to the observer. Correct the value accordingly and record it.
【0022】次に、奥行位置推定装置5の動作について
図3に示されるフローチャートを参照して説明する。前
述したように奥行位置推定装置5の主要部はコンピュー
タ(以下、CPUと略称する)によって構成されてお
り、関連する装置の制御をも行うことができる。CPU
は、平面画像から立体画像を得るべく装置が画像処理を
開始すると、原画像となる画像記録媒体1を演奏する画
像記録媒体再生装置2あるいは撮影装置3から画像メモ
リ4に画像情報を記憶させ(ステップS103)、以下
の処理を実行する。Next, the operation of the depth position estimating device 5 will be described with reference to the flow chart shown in FIG. As described above, the main part of the depth position estimating device 5 is composed of a computer (hereinafter, abbreviated as CPU), and can also control related devices. CPU
When the device starts image processing to obtain a stereoscopic image from a two-dimensional image, the image recording medium reproducing device 2 or the photographing device 3 playing the original image recording medium 1 stores image information in the image memory 4 ( In step S103), the following process is executed.
【0023】まず、画面内に映った被写体の形状認識を
する工程(ステップS104〜S113)、被写体の輪
郭を検出しあるまとまった形の図形を図形要素として抽
出する工程(ステップS104〜S106)、抽出され
た複数個の図形要素の結合状態を調べて独立した固体要
素として推定する工程(ステップS107〜S10
8)、自動的な判別では適合度が低い部分を人間がチェ
ックする工程(ステップS109〜S110)、チェッ
クの終了した上記固体要素をネーミングする工程(ステ
ップS111)、これ等をデータベースに登録する工程
(ステップS112〜S113)を実行する。いずれの
工程も、上述の操作の完了状況を判定する過程と、判定
が否定のときはこれ等を決定するための処理を行う補足
操作とからなっている。First, a step of recognizing the shape of an object displayed on the screen (steps S104 to S113), a step of detecting a contour of the object and extracting a solid figure as a figure element (steps S104 to S106), A step of examining the combined state of the plurality of extracted graphic elements and estimating them as independent solid elements (steps S107 to S10).
8), a step in which a person checks a portion having a low degree of conformity in the automatic discrimination (steps S109 to S110), a step of naming the checked solid element (step S111), a step of registering these in a database (Steps S112 to S113) are executed. Each step includes a process of determining the completion status of the above-described operation and a supplementary operation of performing a process for determining these when the determination is negative.
【0024】輪郭抽出過程(S104)では、一例とし
て画像の明度分布や色合分布によりまとまった領域を抽
出したり、これ等の変化からエッジを強調し(ステップ
S105)、その後基本的な図形形状や補間曲線によっ
て輪郭をきめる(ステップS106)ような公知の手法
を採る。In the contour extraction process (S104), for example, a region gathered by the lightness distribution or color distribution of the image is extracted, edges are emphasized from these changes (step S105), and then the basic figure shape or A publicly known method for determining the contour by the interpolation curve (step S106) is adopted.
【0025】結合状態は(S107)、前段で決定した
各図形要素の包含関係を幾何学や実際の物体の見え方か
ら推定する(ステップS108)ことで、これ等の図形
要素が包摂される固体要素が決定される。推定の適合度
が低く、決定しきれない部分は(ステップS109)、
オペレータがデータ入力端末10からデータベース添削
装置8を介して添削修正作業をを行うことができる(ス
テップS110)。図形要素へのネーミングやラベル付
けをオペレータが行う場合には(S111)、上記デー
タ入力端末10等を用いる(S110)。全てが決定し
たらデータベース装置6に登録する(S112)が、こ
のときのデータベース更新作業(ステップS113)は
データ更新装置7によって行われる。これ等のオペレー
タによる操作は第1図に記載した画像認識部5aの機能
の補完、あるいは画像認識部5aの一種の学習に相当す
る。For the combined state (S107), the inclusion relation of each graphic element determined in the previous stage is estimated from the geometry and the actual appearance of the object (step S108), and the solids including these graphic elements are estimated. Elements are determined. The portion of which the estimation fitness is low and cannot be determined (step S109),
The operator can perform the correction work from the data input terminal 10 via the database correction device 8 (step S110). When the operator names or labels graphic elements (S111), the data input terminal 10 or the like is used (S110). When all have been determined, the data is registered in the database device 6 (S112), but the database updating work (step S113) at this time is performed by the data updating device 7. These operations by the operator correspond to the complement of the function of the image recognition unit 5a shown in FIG. 1 or a kind of learning of the image recognition unit 5a.
【0026】続いて、CPUは上記固体要素の画面内で
の前後位置を決定する工程(ステップS121〜S13
0)を実行する。これは全体位置推定部5bが担う機能
の一部である。これらの工程も判断する処理と判定が否
定のときの処理とからなっている。すなわち、図形要素
形状自体からの前後関係の判別工程(ステップS12
1)、陰影や明度や色相など環境光との関わりでの判別
工程(ステップS123)、撮影時の合焦・ボケ度合等
撮影時の光学条件に基づく推定工程(ステップS12
5)、オペレータによるチェック工程(ステップS12
7)、データベースへの登録工程(ステップS129)
を備えている。これ等の各過程で判断結果の適合度が低
い場合には補足操作が行なわれる。Subsequently, the CPU determines the front and rear positions of the solid element on the screen (steps S121 to S13).
0) is executed. This is a part of the function of the overall position estimation unit 5b. These steps are also composed of a process of judging and a process when the judgment is negative. That is, the process of discriminating the context from the graphic element shape itself (step S12
1), a determination process in relation to ambient light such as shadow, lightness, and hue (step S123), and an estimation process based on optical conditions at the time of shooting such as focus / blur degree at the time of shooting (step S12)
5), check process by operator (step S12)
7), database registration process (step S129)
Is equipped with. In each of these processes, if the conformity of the judgment result is low, a supplementary operation is performed.
【0027】まず、形状からの前後判断(S121)で
は幾何学的図形の重なりや連続性等の幾何学的な知識が
データベース装置6から引き出され、原画像と対比して
推定操作を行なう(ステップS122)。環境条件(S
123)では、光りの反射や散乱状態・影の曲り具合に
関する知識データベース(ステップS124)を用い
る。撮影時のレンズのフォーカシングの程度と画面の奥
行方向の相対関係に関するデータベース(ステップS1
26)があれば、それも有用である。オペレータによる
チェックやデータベースの更新操作が必要な場合(ステ
ップS127)は、先に述べた内容と同様の工程が採ら
れる(ステップS128、S130)。First, in the front-back determination based on the shape (S121), geometric knowledge such as overlapping and continuity of geometric figures is extracted from the database device 6, and an estimation operation is performed in comparison with the original image (step). S122). Environmental conditions (S
In 123), a knowledge database (step S124) regarding the reflection of light, the scattered state, and the degree of bending of the shadow is used. A database of the degree of focusing of the lens at the time of shooting and the relative relationship in the depth direction of the screen (step S1.
26) is also useful. If the operator needs to perform a check or a database update operation (step S127), the same steps as those described above are performed (steps S128 and S130).
【0028】次に、上記処理で求めた各固体要素の前後
関係を定量化する工程(ステップS131〜S14
1)、標準寸法となる図形の抽出工程(ステップS13
2)、遠近法の消失点の抽出工程(ステップS13
4)、光や影や色による離間程度の導出工程(ステップ
S136)及びこれ等のチェック・登録工程(ステップ
S138、S140)を実行する。ステップS131〜
S141は全体位置推定装置5bが担う他の機能の一部
である。Next, a step of quantifying the context of each solid element obtained in the above processing (steps S131 to S14)
1), a process of extracting a figure having standard dimensions (step S13)
2), a perspective vanishing point extraction step (step S13)
4) The process of deriving the degree of separation by light, shadow, or color (step S136) and the checking / registering process (steps S138 and S140) are executed. Step S131-
S141 is a part of other functions that the overall position estimation device 5b has.
【0029】既に定量化作業が終了している場合(S1
31)は、チェック・登録作業及び先述したのと同様な
これ等の付帯作業(ステップS139、S141)を経
て次の段階に移行する。そうでない場合は(S13
1)、固体要素の寸法抽出を行っていないと(S13
2)、既に登録されている固体要素と知識データベース
を比較して標準寸法となる固体要素(山、標識、ビル、
人、工業製品等)を探索する(ステップS133)。次
に、消失点の抽出が行われていない(S134)と、既
に登録されている物体の一画面内の変形状態から消失点
を求め、幾何学的な特徴と固体要素の形状を比較し、各
固体要素間の距離関係を遠近法に基づいて推定する(ス
テップS135)。また、陰影等による定量化が行われ
ていないと(S136)、影の伸び具合や色のあせ具合
あるいは光量の減衰から定量化を図ることも可能である
(ステップS137)。以上の工程において推定結果の
適合度が低いとき(S138)、上記データ入力端末装
置10やデータベース添削装置8を介してオペレータが
データの添削や新規データの入力を行っても良い(S1
39)。When the quantification work has already been completed (S1
31) shifts to the next stage through the check / registration work and the additional work (steps S139 and S141) similar to those described above. If not (S13
1) If the size of the solid element is not extracted (S13)
2) Comparing the registered solid elements with the knowledge database, the standard size solid elements (mountain, sign, building,
People, industrial products, etc.) are searched (step S133). Next, when the vanishing point is not extracted (S134), the vanishing point is obtained from the deformation state of the already registered object in one screen, and the geometrical characteristics and the shape of the solid element are compared, The distance relationship between each solid element is estimated based on the perspective method (step S135). If the quantification based on the shadow or the like has not been performed (S136), it is possible to perform the quantification from the extent of shadow expansion, the extent of color fading, or the attenuation of light amount (step S137). When the degree of conformity of the estimation result in the above steps is low (S138), the operator may correct data or input new data via the data input terminal device 10 or the database correction device 8 (S1).
39).
【0030】次に、各固体要素に含まれる図形要素の前
後関係を定量化する工程(ステップS151〜S15
9)を実行する。例えば、人間の鼻の高さや手足の振り
上げ程度等、固体要素の凹凸に関するものが一般的であ
る。これ等の一連の過程も判断操作が中心となり、その
内容は上述した固体要素の前後関係の定量化過程と略同
様である。異なる工程は消失点の抽出工程(ステップS
134)で、既に求めてあるのでここでは行う必要がな
い。この工程(S151〜S159)は個別位置推定部
5cが担う機能に相当する。Next, a step of quantifying the context of the graphic elements included in each solid element (steps S151 to S15).
Execute 9). For example, those relating to the unevenness of a solid element such as the height of the nose of a human being and the degree of swinging up of limbs are common. These series of steps are mainly judgment operations, and the contents thereof are substantially the same as the above-described quantification process of the context of the solid element. The different process is the vanishing point extraction process (step S
In 134), it is not necessary to do it here because it has already been requested. This step (S151 to S159) corresponds to the function of the individual position estimation unit 5c.
【0031】これまで述べた工程は一つの画面について
の説明であるが、一画面だけでは判断困難で前後の画面
に関するデータベースが必要な場合(ステップS16
1)には、更に他の画面を画像メモリ4に呼び出して、
あるいは画像メモリ4に他の画面も記憶されているとき
は、この他の画面について上記した各種処理を行い(S
162)、その結果と前回結果とを比較することによ
り、推定作業の適合度を向上させる(S163)。これ
にも先と同様のチェック・登録作業(ステップS164
〜S167)が付帯する。Although the steps described so far are for one screen, it is difficult to make a judgment with only one screen and a database for the previous and next screens is required (step S16).
In 1), call another screen to the image memory 4 and
Alternatively, when other screens are also stored in the image memory 4, the above-described various processes are performed on the other screens (S
162), and improves the adaptability of the estimation work by comparing the result with the previous result (S163). The same checking and registration work as above (step S164)
~ S167) is attached.
【0032】以上の工程を終了した後、実際に使用する
画像再生装置13の奥行分解能及び画面の奥行に基づい
て奥行画面(追加フレーム)の枚数と奥行画面の位置を
定める(ステップS171)。この奥行画面の枚数及び
位置に応じて対応する固体要素・図形要素を図5(C)
の如く固体要素・図形要素を分割する奥行画面に再投影
して同一距離画像抽出記録装置9によって適当な画像記
録媒体に再生可能な状態で記録する(ステップS17
2)。原画像の各フレームについてステップS103〜
S172を繰り返して画像記録媒体11に平面画像ソー
スから立体画像投影用に変換された立体画像ソースが得
られる。この立体画像ソースには、各フレーム毎に奥行
情報、フレーム番号、タイムコード等の演奏情報が例え
ばフレーム間の帰線期間領域に挿入されている。After the above steps are completed, the number of depth screens (additional frames) and the position of the depth screen are determined based on the depth resolution of the image reproducing apparatus 13 actually used and the depth of the screen (step S171). FIG. 5C shows solid elements / graphic elements corresponding to the number and position of the depth screens.
As described above, it is re-projected on the depth screen that divides the solid element / graphic element and recorded in a reproducible state on an appropriate image recording medium by the same distance image extraction recording device 9 (step S17
2). For each frame of the original image, step S103-
By repeating S172, the stereoscopic image source converted from the stereoscopic image source to the stereoscopic image projection is obtained on the image recording medium 11. In this stereoscopic image source, performance information such as depth information, frame number, and time code is inserted for each frame, for example, in a blanking interval area between frames.
【0033】そして、立体画像の生成にあっては画像記
録媒体11を再生装置12によって演奏し、記録された
画像情報と共に奥行情報を復調し、これをビデオ信号及
び投影位置制御信号として画像再生装置13に供給す
る。画像再生装置13はビデオ信号の画像情報によって
画面を形成し、投影位置制御信号の奥行情報によって画
面の投影位置を画像投影空間の奥手前方向に各フレーム
毎に設定する。各画面の形成位置が奥手前方向において
高速で変化することにより、人間の視覚上残像として残
る画像群が合成されて、観察する者にはあたかも立体像
が存在するように見える。When generating a stereoscopic image, the image recording medium 11 is played by the reproducing device 12, the depth information is demodulated together with the recorded image information, and this is used as a video signal and a projection position control signal. Supply to 13. The image reproducing device 13 forms a screen based on the image information of the video signal, and sets the projection position of the screen for each frame in the depth front direction of the image projection space based on the depth information of the projection position control signal. By rapidly changing the formation position of each screen in the front direction, a group of images that remain as a visual afterimage of human beings are combined, and the observer looks as if a stereoscopic image exists.
【0034】なお、奥手前方向における奥行画面の奥行
分解能(X軸方向における画面密度)は視覚の特性に応
じて観察者に近い程高くし、ある奥行距離以遠のものは
背景の平面画像のみとすることができる。Note that the depth resolution (screen density in the X-axis direction) of the depth screen in the front direction is higher as it is closer to the observer in accordance with the visual characteristics, and those beyond a certain depth distance are only the background flat image. can do.
【0035】図7は、上述した画像再生装置13のう
ち、同一距離の画像を連続的に再生しながら立体像を観
察する装置を用いた立体視装置の構成例を示している。FIG. 7 shows an example of the configuration of a stereoscopic device using the device for observing a stereoscopic image while continuously reproducing images at the same distance among the image reproducing devices 13 described above.
【0036】画像記録媒体演奏装置12によって復調さ
れたビデオ信号は、画像再生装置13の画像修正部13
aに送られる。画像修正部13aは、ビデオ信号を実際
に使用する画像再生システムの特性に応じて映写される
画像の歪やペデスタルレベル等を微調整するもので、調
整が不要な場合は入力信号と同じ信号を出力する。この
出力信号のうち画像信号部分はプロジェクタCRT等の
画像投影装置13bに送られて光学像に変換される。こ
の光学像は、モータによって移動する可動レンズ装置1
3cによって実像14の成立位置を奥行方向の任意の地
点14a,14bに設定できる。可動レンズ制御部13
dは投影位置制御信号に基づいて可動レンズ装置13c
のボイスコイルモータを駆動する。これによって、投影
レンズは光軸上を前後に高速移動し、空間に形成される
実像14の位置が奥行方向の前後に移動する。なお、ビ
デオ信号及び投影位置制御信号がコンポジット信号とし
て復調されて供給される場合には信号分離部13iによ
って画像情報を担うビデオ信号とレンズ制御情報を担う
投影位置制御信号とを分離する。The video signal demodulated by the image recording medium playing device 12 is used as an image correction unit 13 of the image reproducing device 13.
sent to a. The image correction unit 13a finely adjusts the distortion, pedestal level, etc. of the projected image according to the characteristics of the image reproduction system that actually uses the video signal. Output. An image signal portion of this output signal is sent to an image projection device 13b such as a projector CRT and converted into an optical image. This optical image is a movable lens device 1 that is moved by a motor.
By 3c, the established position of the real image 14 can be set to arbitrary points 14a and 14b in the depth direction. Movable lens controller 13
d is the movable lens device 13c based on the projection position control signal.
Drive the voice coil motor. As a result, the projection lens moves forward and backward along the optical axis at high speed, and the position of the real image 14 formed in the space moves forward and backward in the depth direction. When the video signal and the projection position control signal are demodulated and supplied as a composite signal, the signal separation unit 13i separates the video signal carrying the image information and the projection position control signal carrying the lens control information.
【0037】空間に成立する実像の画像の上下方向の位
置は画像修正部13aや上記可動レンズ部13cでは調
整しきれない場合があるが、このときは2台の反射鏡1
3e、13gを用いて画像の成立位置を変更できる。反
射鏡13e及び13gは夫々反射鏡姿勢制御装置13f
及び13hによって1台の反射鏡当たり2自由度の動作
を行う。The vertical position of the real image formed in the space may not be adjusted by the image correction unit 13a or the movable lens unit 13c, but in this case, two reflecting mirrors 1 are used.
The established position of the image can be changed using 3e and 13g. The reflecting mirrors 13e and 13g are respectively the reflecting mirror attitude control device 13f.
And 13h, the operation with two degrees of freedom is performed for each reflecting mirror.
【0038】画像再生装置13からの投影像は画像光軸
15に沿って成立し、凹面鏡17を経由して観察者16
に呈示される。上記凹面鏡は図のように凹面鏡の上下部
17a、17bを残しただけの形態でも、凹面鏡の全面
が残った形態でも、あるいは凹面を多数の小型の平面鏡
で形成した形態でも構わない。前述した投影像の位置が
18a、18bとすると、凹面鏡で形成される反射像は
14a、14bとなる。The projected image from the image reproducing device 13 is formed along the image optical axis 15, and passes through the concave mirror 17 to the observer 16
Will be presented to. The concave mirror may have a form in which only the upper and lower parts 17a and 17b of the concave mirror are left as shown in the figure, a form in which the entire surface of the concave mirror is left, or a form in which the concave surface is formed by a large number of small plane mirrors. If the positions of the above-mentioned projected images are 18a and 18b, the reflected images formed by the concave mirror will be 14a and 14b.
【0039】本例では上記画像光軸15と凹面鏡の光軸
19は平行に設定されているが、ある程度角度を持って
設定されていても良い。このときには、前記画像再生装
置13内の各部は適正な状態に再設定される。In the present example, the image optical axis 15 and the optical axis 19 of the concave mirror are set to be parallel, but they may be set to have an angle to some extent. At this time, the respective units in the image reproducing device 13 are reset to proper states.
【0040】図8は、上述の画像メモリに一時記録され
た画像が両眼立体視用の左右眼用画像の場合の例であ
る。実際には、画像メモリの一画面分には片眼用の画像
しか記録されていないが、便宜上、両眼用画像を同時に
描くと21aのように左右にl1 だけ離れた二重画像と
して示される。図では説明の簡単のため、画像を円とし
て説明している。この距離l1 が人間の瞳孔間隔に対応
する必要があるが、提示画面のサイズが大きくなると、
画像のサイズも21bのように大きくなり、結果的に左
右眼用画像の離間距離l2 も増し、瞳孔間隔に合わなく
なる。逆に、提示画面サイズが21cのように小さくな
ると、左右眼用映像の離間距離l3 は減少し、この場合
も瞳孔間隔に合わない。いずれの場合も、立体像の観察
には不適当な条件となる可能性が大きい。そこで、提示
画面のサイズに応じて左右眼用画像の離間距離を適正距
離l1 に修正した画像を同一距離画像抽出記録装置9に
記録する。この場合、記録される画像は、厳密に言えば
同一距離のものが抽出されているのではないが、前述の
例と同様に奥行位置推定装置5が使用される。すなわ
ち、単に左右眼用画像の離間距離を調整するだけでは、
再生された立体画像に歪みの生じる可能性があるため、
上記画像認識部5aと上記位置推定部5bで観察対象の
立体形状を推定した後、上記個別位置推定部5cで適正
な視差で観察したときの画像を左右眼用画像を生成す
る。この生成にあたっては、原画像の他の部分から相当
する視差の画像を検索して利用したり、あるいは先の推
定結果を利用して新たな画像を作り出す。FIG. 8 shows an example in which the image temporarily recorded in the above-mentioned image memory is an image for the left and right eyes for binocular stereoscopic vision. Actually, only one image for one eye is recorded on one screen of the image memory, but for the sake of convenience, when an image for both eyes is drawn at the same time, it is shown as a double image separated by l 1 to the left and right like 21a. Be done. In the figure, for simplicity of explanation, the image is described as a circle. This distance l 1 needs to correspond to the human pupil distance, but when the size of the presentation screen increases,
The size of the image also becomes large like 21b, and as a result, the separation distance l 2 between the left and right eye images also increases, and it does not match the pupil distance. On the contrary, when the size of the presentation screen is reduced to 21c, the separation distance l 3 between the left and right eye images is reduced, and in this case also, it does not match the pupil distance. In any case, there is a high possibility that the conditions are unsuitable for observing a stereoscopic image. Therefore, the image in which the separation distance between the left and right eye images is corrected to the appropriate distance l 1 according to the size of the presentation screen is recorded in the same distance image extraction recording device 9. In this case, the images to be recorded are not the images of the same distance in the strict sense, but the depth position estimating device 5 is used as in the above example. That is, by simply adjusting the separation distance between the left and right eye images,
Since distortion may occur in the reproduced stereoscopic image,
After the image recognition unit 5a and the position estimation unit 5b estimate the three-dimensional shape of the observation target, the individual position estimation unit 5c generates left and right eye images when observed with an appropriate parallax. In this generation, a parallax image corresponding to the other part of the original image is searched and used, or a new image is generated by using the previous estimation result.
【0041】以上説明した内容は本発明に係る装置の一
例であって、例えば、各処理過程の順番の入替え、処理
過程の目的を達成するその他の公知の手法の導入等、種
々の変形や応用が可能である。The contents described above are an example of the apparatus according to the present invention, and various modifications and applications such as, for example, changing the order of the processing steps, introducing other known methods for achieving the purpose of the processing steps, etc. Is possible.
【0042】[0042]
【発明の効果】以上説明したように本発明によれば、平
面画像からこの画像中の被写体を立体化するので特殊の
立体視撮影装置を必要とせず、既に記録されている平面
画像を立体視用の画像として変換して再記録し、再生す
ることができる。また、立体視のために観察者に特殊の
眼鏡等を着用させることなく、画面のサイズが自由な立
体像を呈示することが可能である。更に、立体視用に記
録されている画像に適用することも可能である。As described above, according to the present invention, since the subject in the image is three-dimensionalized from the two-dimensional image, a special stereoscopic photographing device is not required and the already recorded two-dimensional image is stereoscopically viewed. It can be converted into an image for recording, re-recorded, and reproduced. In addition, it is possible to present a stereoscopic image with a free screen size without allowing an observer to wear special glasses for stereoscopic viewing. Furthermore, it is also possible to apply to an image recorded for stereoscopic viewing.
【図1】本発明の立体画像変換の変換系を示すブロック
図。FIG. 1 is a block diagram showing a conversion system for stereoscopic image conversion according to the present invention.
【図2】立体画像再生系を示すブロック図。FIG. 2 is a block diagram showing a stereoscopic image reproducing system.
【図3】画像処理手順を示すフローチャート。FIG. 3 is a flowchart showing an image processing procedure.
【図4】画像処理手順を示すフローチャート。FIG. 4 is a flowchart showing an image processing procedure.
【図5】平面画像の奥行方向の関係を抽出し、再記録さ
れる状態を説明する図。FIG. 5 is a diagram illustrating a state in which a relationship in the depth direction of a planar image is extracted and re-recorded.
【図6】立体画像信号を説明する図。FIG. 6 is a diagram illustrating a stereoscopic image signal.
【図7】立体画像を発生する再生系を示す図。FIG. 7 is a diagram showing a reproduction system for generating a stereoscopic image.
【図8】両眼視差用に記録された画像の修正を説明する
ための図。FIG. 8 is a diagram for explaining correction of an image recorded for binocular parallax.
1,11 画像記録媒体 4 画像メモリ 5 奥行位置推定装置 9 同一距離画像抽出記録装置 12 画像記録媒体演奏装置 13 画像再生装置 1, 11 Image recording medium 4 Image memory 5 Depth position estimation device 9 Same-distance image extraction recording device 12 Image recording medium playing device 13 Image reproducing device
Claims (3)
被写体を含む平面画像情報から幾何学的要素を抽出し、 前記平面画像情報から前記幾何学要素の遠近を表す奥行
情報を抽出し、 予め幾何学的要素と被写体の関係が記録されているデー
タベースを参照して抽出した前記幾何学的要素に対応す
る被写体を推定し、 予め被写体の立体形状が記録されているデータベースか
ら推定した各被写体の立体形状を読み出して、仮想三次
元空間に配置し、 前記奥行情報に基づいて各被写体相互の奥行方向におけ
る位置関係を推定し、 前記位置関係に基づいて追加フレーム数を求め、 前記仮想三次元空間に配置された立体形状を奥行方向と
垂直な面によって追加フレーム数だけ分割して分割され
た立体形状を得、 分割された各立体形状を至近の立体形状を分割した面に
夫々投影して得られた平面画像群とこの分割された各立
体形状の前記奥行方向における位置を表す奥行情報群と
を共に記録媒体に記録することを特徴とする立体画像記
録方法。1. A geometric element is extracted from plane image information including at least one subject arranged in a three-dimensional space, depth information representing the perspective of the geometric element is extracted from the plane image information, and The object corresponding to the geometrical element extracted by referring to the database in which the relationship between the geometrical element and the object is recorded is estimated, and the object of each object estimated in advance from the database in which the three-dimensional shape of the object is recorded is estimated. The three-dimensional shape is read and placed in a virtual three-dimensional space, the positional relationship in the depth direction of each subject is estimated based on the depth information, and the number of additional frames is calculated based on the positional relationship. The three-dimensional shape placed in is divided by the number of additional frames by the plane perpendicular to the depth direction to obtain the divided three-dimensional shape, and each divided three-dimensional shape is the closest three-dimensional shape. A three-dimensional image characterized by recording on a recording medium together a plane image group obtained by projecting on each of the divided planes and a depth information group indicating the position of each of the divided three-dimensional shapes in the depth direction. Recording method.
フレームから立体画像を形成するための追加フレームを
形成し、これを前記基本フレーム間に挿入して立体画像
信号を形成して記録する立体画像記録装置であって、 前記基本フレームに含まれる被写体の幾何学的要素の遠
近を抽出して被写体の奥行を求め、この奥行に基づいて
前記被写体を画面奥行方向において分割する分割平面の
数を求める手段と、 分割された被写体を至近の分割平面に投影して該分割平
面に投影された投影像を得て、これを該分割平面の前記
画面奥行方向における位置を表す奥行位置情報と共に画
像記録媒体に記録する同一距離画像抽出記録手段と、 を備える立体画像記録装置。2. A stereoscopic image forming an additional frame for forming a stereoscopic image from one basic frame of an image signal having basic frame intervals, and inserting the additional frame between the basic frames to form and record a stereoscopic image signal. An image recording device, wherein the depth of a subject is obtained by extracting the perspective of geometrical elements of the subject included in the basic frame, and the number of division planes for dividing the subject in the screen depth direction is determined based on this depth. And a means for obtaining the projection image of the divided object on the nearest division plane to obtain a projection image projected on the division plane, and image recording the same with depth position information indicating the position of the division plane in the depth direction of the screen. A stereoscopic image recording device comprising: same-distance image extraction recording means for recording on a medium.
像が投影されるべき位置を表す奥行位置信号とが記録さ
れた画像記録媒体を演奏して前記画像信号及び前記奥行
位置信号とを復調する画像記録媒体演奏手段と、 前記奥行位置信号の供給に応答して画像投影レンズを光
軸方向に駆動して画像形成位置を制御する投影レンズ制
御手段と、 前記画像信号を二次元画像に変換し、これを前記画像投
影レンズを経由して投射する画像投射手段と、 を備える立体画像再生装置。3. An image recording medium on which an image signal carrying a two-dimensional image and a depth position signal representing a position where the two-dimensional image should be projected are recorded to play the image signal and the depth position signal. Image recording medium playing means for demodulating, projection lens control means for controlling the image forming position by driving the image projection lens in the optical axis direction in response to the supply of the depth position signal, and the image signal into a two-dimensional image. An image projecting means for converting and projecting the image through the image projection lens.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3278227A JPH0591545A (en) | 1991-09-30 | 1991-09-30 | Stereoscopic image recording/reproducing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3278227A JPH0591545A (en) | 1991-09-30 | 1991-09-30 | Stereoscopic image recording/reproducing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0591545A true JPH0591545A (en) | 1993-04-09 |
Family
ID=17594392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3278227A Pending JPH0591545A (en) | 1991-09-30 | 1991-09-30 | Stereoscopic image recording/reproducing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0591545A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6384859B1 (en) * | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
WO2004019621A1 (en) * | 2002-08-20 | 2004-03-04 | Kazunari Era | Method and device for creating 3-dimensional view image |
US6906762B1 (en) | 1998-02-20 | 2005-06-14 | Deep Video Imaging Limited | Multi-layer display and a method for displaying images on such a display |
US7999844B2 (en) | 1995-12-22 | 2011-08-16 | Dynamic Digital Depth Research Pty Ltd. | Image conversion and encoding techniques |
JP2012215852A (en) * | 2011-03-25 | 2012-11-08 | Semiconductor Energy Lab Co Ltd | Image processing method and display device |
US9137525B2 (en) | 2002-07-15 | 2015-09-15 | Pure Depth Limited | Multilayer video screen |
US9342861B2 (en) | 2011-04-19 | 2016-05-17 | Deluxe 3D Llc | Alternate viewpoint rendering |
US9721378B2 (en) | 2001-10-11 | 2017-08-01 | Pure Depth Limited | Display interposing a physical object within a three-dimensional volumetric space |
-
1991
- 1991-09-30 JP JP3278227A patent/JPH0591545A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6384859B1 (en) * | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
US7999844B2 (en) | 1995-12-22 | 2011-08-16 | Dynamic Digital Depth Research Pty Ltd. | Image conversion and encoding techniques |
US6906762B1 (en) | 1998-02-20 | 2005-06-14 | Deep Video Imaging Limited | Multi-layer display and a method for displaying images on such a display |
US10262450B2 (en) | 2001-10-11 | 2019-04-16 | Pure Depth Limited | Display interposing a physical object within a three-dimensional volumetric space |
US9721378B2 (en) | 2001-10-11 | 2017-08-01 | Pure Depth Limited | Display interposing a physical object within a three-dimensional volumetric space |
US9137525B2 (en) | 2002-07-15 | 2015-09-15 | Pure Depth Limited | Multilayer video screen |
US7558420B2 (en) | 2002-08-20 | 2009-07-07 | Kazunari Era | Method and apparatus for generating a stereographic image |
WO2004019621A1 (en) * | 2002-08-20 | 2004-03-04 | Kazunari Era | Method and device for creating 3-dimensional view image |
US9313479B2 (en) | 2011-03-25 | 2016-04-12 | Semiconductor Energy Laboratory Co., Ltd. | Image processing method and display device |
JP2017033577A (en) * | 2011-03-25 | 2017-02-09 | 株式会社半導体エネルギー研究所 | Image processing method |
JP2012215852A (en) * | 2011-03-25 | 2012-11-08 | Semiconductor Energy Lab Co Ltd | Image processing method and display device |
US10051255B2 (en) | 2011-03-25 | 2018-08-14 | Semiconductor Energy Laboratory Co., Ltd. | Image processing method and display device |
US10484660B2 (en) | 2011-03-25 | 2019-11-19 | Semiconductor Energy Laboratory Co., Ltd. | Image processing method and display device |
US9342861B2 (en) | 2011-04-19 | 2016-05-17 | Deluxe 3D Llc | Alternate viewpoint rendering |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6160909A (en) | Depth control for stereoscopic images | |
US10762653B2 (en) | Generation apparatus of virtual viewpoint image, generation method, and storage medium | |
JP4065488B2 (en) | 3D image generation apparatus, 3D image generation method, and storage medium | |
US7349006B2 (en) | Image processing apparatus and method, recording medium, and program | |
KR101370356B1 (en) | Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input | |
JP3242406B2 (en) | Video merging using pattern key insertion | |
US5262856A (en) | Video image compositing techniques | |
WO2020063100A1 (en) | Augmented reality image display method and apparatus, and device | |
JP7034666B2 (en) | Virtual viewpoint image generator, generation method and program | |
US8325219B2 (en) | Stereoscopic image generation device and program | |
KR20010023596A (en) | Image processing method and apparatus | |
JP3857988B2 (en) | Stereoscopic image processing method and apparatus | |
JPH10503627A (en) | Improved chroma key system | |
JP7479729B2 (en) | Three-dimensional representation method and device | |
US8072487B2 (en) | Picture processing apparatus, picture recording apparatus, method and program thereof | |
US20110012991A1 (en) | Moving image recording method and apparatus, and moving image coding method and moving image coder | |
JPH0591545A (en) | Stereoscopic image recording/reproducing system | |
US20120229678A1 (en) | Image reproducing control apparatus | |
JPH08331495A (en) | Electronic album system with photographing function | |
JP4118146B2 (en) | Stereoscopic image processing device | |
US20030223006A1 (en) | Image pickup apparatus, main subject determination apparatus and image processor | |
JPH08242469A (en) | Image pickup camera | |
JP4461834B2 (en) | VIDEO DISPLAY METHOD, VIDEO DISPLAY METHOD PROGRAM, RECORDING MEDIUM CONTAINING VIDEO DISPLAY METHOD PROGRAM, AND VIDEO DISPLAY DEVICE | |
CN110211155A (en) | Method for tracking target and relevant apparatus | |
JP6780749B2 (en) | Imaging equipment, image processing equipment, imaging methods and programs |