JP4506501B2 - Image composition device and imaging system - Google Patents
Image composition device and imaging system Download PDFInfo
- Publication number
- JP4506501B2 JP4506501B2 JP2005043367A JP2005043367A JP4506501B2 JP 4506501 B2 JP4506501 B2 JP 4506501B2 JP 2005043367 A JP2005043367 A JP 2005043367A JP 2005043367 A JP2005043367 A JP 2005043367A JP 4506501 B2 JP4506501 B2 JP 4506501B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- pixel
- output
- input
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、複数の撮影装置を使用して広視野角または高解像度の映像を得る撮像システム、及び、そのような撮像システムで使用する画像合成装置に関する。 The present invention relates to an imaging system that obtains a wide viewing angle or high-resolution video using a plurality of imaging devices, and an image composition device used in such an imaging system.
複数の撮影装置を使って広視野角または高解像度の映像を得る撮影システムとして、ビデオモザイキング技術として知られる技術や、特許文献1に記載の技術がある。特許文献1に記載の技術は、1つの広画角撮影装置と複数の通常画角撮影装置を備え、1つの広画角撮影装置を基準として各々の通常画角撮影装置の映像を合成した映像を生成するものである。これらの技術は、いずれも、複数の撮影装置の内部パラメタ(焦点距離など)及び外部パラメタ(位置や姿勢など)を推定し、各々の撮影映像に該パラメタに基づいた変換を施した上で合成処理を行うことで、一見なめらかにつながった広視野角または高解像度の映像の生成を行うものである。
There are a technique known as a video mosaicing technique and a technique described in
従来の技術においては、複数の撮影装置の投影中心位置が異なることに起因する見え隠れの矛盾が原理的に生じるため、それによる画質の劣化が避けられなかった。同様に、鏡面反射の状態など、指向性を持つ光学特性に関する矛盾も原理的に発生するため、それによる画質の劣化も避けられなかった。 In the prior art, inconsistency in visibility due to differences in the projection center positions of a plurality of photographing apparatuses occurs in principle, and thus image quality deterioration due to this is unavoidable. Similarly, inconsistencies with respect to optical characteristics having directivity, such as the state of specular reflection, occur in principle, and image quality deterioration due to this is unavoidable.
本発明では、前記の課題を解決するため、基準となる画像データを撮影する1つの全体撮影装置と、該全体撮影装置の撮影範囲の一部分を含むような範囲を撮影する詳細撮影装置を備え、さらに、前記全体撮影装置の撮影した画像データに幾何学的な変換を施して全体画像データを生成する手段と、前記詳細撮影装置が撮影した画像データに幾何学的な変換を施して詳細画像データを生成する手段と、前記全体画像データと前記詳細画像データを比較することで画素毎の整合性の有無を判定する手段と、出力する画像データの画素値を前記判定結果が「整合性なし」となった画素については前記全体画像データを使って決定し前期判定結果が「整合性あり」となった画素については前記詳細画像データを使って決定する手段と、を備えるようにした。また、前記整合性の有無については、前記全体画像データの画素値と前記詳細画像データの画素値との差異が所定の許容範囲内に収まっている場合に「整合性あり」、そうでない場合に「整合性なし」と判定するようにした。 In order to solve the above-described problems, the present invention includes one whole photographing device that photographs image data serving as a reference, and a detailed photographing device that photographs a range including a part of the photographing range of the whole photographing device, Further, means for performing geometric transformation on the image data photographed by the whole photographing apparatus to generate whole image data, and detailed image data by performing geometric transformation on the image data photographed by the detailed photographing apparatus Generating means, means for determining the presence or absence of consistency for each pixel by comparing the whole image data and the detailed image data, and the determination result of the pixel value of the image data to be output is “no consistency” A pixel that is determined using the entire image data and a pixel whose previous determination result is “consistent” is determined using the detailed image data. It was. As for the presence / absence of consistency, “consistency” is obtained when the difference between the pixel value of the whole image data and the pixel value of the detailed image data is within a predetermined allowable range, and otherwise. Judged to be “no consistency”.
なお、上記所定の許容範囲は、例えば、以下に例示するように、画素値の差異の種々の評価方法に応じて決めた適当な値を使用すればよい。 As the predetermined allowable range, for example, an appropriate value determined according to various evaluation methods for the difference in pixel values may be used as exemplified below.
例えば、モノクロ画像であれば、各画素を8ビットの値で扱っている場合に、各々の画素値(0〜255)の差の絶対値を差異として評価する場合には、例えば「5以下」等を所定の許容範囲として使用してもよい。 For example, in the case of a monochrome image, when each pixel is handled with an 8-bit value and the absolute value of the difference between the pixel values (0 to 255) is evaluated as a difference, for example, “5 or less”. Etc. may be used as a predetermined tolerance.
また、カラー画像であれば、各々の画像を所定の変換式に基づいてモノクロ画像に変換した上で各々の画素値の差の絶対値を差異として評価する場合には、ある閾値Tを用いて「T以下」等を所定の許容範囲として使用してもよいし、UCS表色系に変換した場合の色度点間の距離とXYZ表色系に変換した場合のY値の差の絶対値とに基づいて差異を評価する場合には、ある閾値T1と別の閾値T2とを用いて「色度点間の距離がT1以下かつY値の差の絶対値がT2以下」等を所定の許容範囲として使用してもよい。 In the case of a color image, when each image is converted into a monochrome image based on a predetermined conversion formula and the absolute value of each pixel value difference is evaluated as a difference, a certain threshold value T is used. “T or less” or the like may be used as a predetermined allowable range, or the absolute value of the difference between the chromaticity points when converted to the UCS color system and the Y value when converted to the XYZ color system When a difference is evaluated based on the above, using a certain threshold value T1 and another threshold value T2, “the distance between chromaticity points is equal to or less than T1 and the absolute value of the difference between Y values is equal to or less than T2” or the like It may be used as an allowable range.
本発明によれば、1つの撮影装置で撮影した画像データと整合性のある画像データが撮像されることを保証しつつ、複数の撮影装置を使って高解像度の画像データを生成することが可能となる。 According to the present invention, it is possible to generate high-resolution image data using a plurality of photographing devices while ensuring that image data consistent with image data photographed by one photographing device is captured. It becomes.
以下、本発明の実施の形態について、実施例を用いて説明する。 Hereinafter, embodiments of the present invention will be described using examples.
以下、図1〜図22及び図60を用いて、第1の実施の形態について説明する。 Hereinafter, the first embodiment will be described with reference to FIGS. 1 to 22 and 60.
図1は、効果を説明するための概念図である。 FIG. 1 is a conceptual diagram for explaining the effect.
図1において、画像データ110は全体撮影装置201で撮影した画像データであり、画像データ120は左面撮影装置202で撮影した画像データであり、画像データ130は右面撮影装置203で撮影した画像データであり、画像データ111は、本実施例の画像合成装置200に画像データ110と画像データ120と画像データ130を入力した場合に出力される画像データである。全体撮影装置201と左面撮影装置202と右面撮影装置203と画像合成装置200に関しては、図2において説明する。
In FIG. 1, image data 110 is image data photographed by the
画像合成装置は、基本的に画像データ110から画像データ111を生成するが、その際、画像データ110と整合し得る範囲において、画像データ120に基づいて生成した画像データ121を画像データ111に合成し、画像データ130に基づいて生成した画像データ131を画像データ111に合成することで、画像データ111の一部分または全体の解像度を上げることを実現するものである。 The image synthesizing apparatus basically generates image data 111 from the image data 110. At this time, the image data 121 generated based on the image data 120 is combined with the image data 111 within a range that can be matched with the image data 110. Then, by combining the image data 131 generated based on the image data 130 with the image data 111, it is possible to increase the resolution of a part or the whole of the image data 111.
ここで「画像データ110と整合し得る範囲において」と限定しているのは、例えば、画像データ110と画像データ130において、人物140と人物141の重なり具合が互いに異なって見えているが、そのような不整合がある場合には、画像データ110における見え方を優先して画像データ111を生成する、ということである。なお、画像データ111の具体的な生成方法については、図2以降にて説明する。
Here, for example, in the range that can be matched with the image data 110, the overlap between the
なお、図1は、効果を説明するための概念図であり、高精細領域121及び高精細領域131の実際の形状は、図1で示した形とは大きく異なる場合もある。 FIG. 1 is a conceptual diagram for explaining the effect, and the actual shapes of the high-definition region 121 and the high-definition region 131 may be significantly different from the shape shown in FIG.
図2は、本実施例のシステムのシステム構成図である。 FIG. 2 is a system configuration diagram of the system according to the present embodiment.
図2において、全体撮影装置201の撮影した画像データは、映像入力部210を介して画像合成装置200に入力され、入力データ記憶部220に格納される。同様に、左面撮影装置202及び右面撮影装置203の撮影した画像データは、映像入力部210を介して画像合成装置200に入力され、入力データ記憶部220に格納される。全体撮影装置201の撮影画角は左面撮影装置202の撮影画角及び右面撮影装置203の撮影画角よりも広くなるように構成し、左面撮影装置202及び右面撮影装置203は全体撮影装置201の撮影している範囲内を撮影する。また、全体撮影装置201の撮像素子密度と、左面撮影装置202の撮像素子密度と、右面撮影装置203の撮像素子密度は、同程度となるように構成する。このように構成することにより、左面撮影装置202の撮影した画像データや右面撮影装置203の撮影した画像データは、全体撮影装置201の撮影した画像データの一部分をより詳細に撮影したものに近い画像データとなる。
In FIG. 2, image data captured by the whole
画像合成装置200は、全体撮影装置201及び左面撮影装置202及び右面撮影装置203の撮影した画像データを取得する映像入力部210と、該取得した画像データを格納する入力データ記憶部220と、入力データ記憶部220及び中間データ記憶部260に格納されたデータに対してパラメタ記憶部240に格納されたパラメタを必要に応じて読み込みながら画像処理を行う画像処理部230と、パラメタ記憶部240に格納するパラメタを取得するパラメタ設定部250と、画像処理部230の処理によって出力される中間データを格納する中間データ記憶部260と、生成した画像データまたはデフォルトの画像データを出力する映像出力部270と、映像入力部210及び画像処理部230及び映像出力部270の各々の処理のタイミング制御を行う全体制御部280とを備えるように構成する。
The
なお、入力データ記憶部220に格納するデータに関しては図3を用いて、全体制御部280に格納するデータに関しては図4を用いて、パラメタ記憶部240に格納するデータに関しては図5を用いて、中間データ記憶部260に格納するデータに関しては図6を用いて、それぞれ説明する。
Note that FIG. 3 is used for data stored in the input
図3は、本実施例のシステムにおいて入力データ記憶部220に格納するデータの説明図である。
FIG. 3 is an explanatory diagram of data stored in the input
入力データ記憶部220は、全体制御部280からの制御信号にしたがって、全体撮影装置201の撮影した画像データを全体入力画像データ221に、左面撮影装置202の撮影した画像データを左面入力画像データ222に、右面撮影装置203の撮影した画像データを右面入力画像データ223に、それぞれ格納するように構成する。時系列画像データが入力される場合には、例えば、フレームバッファを2画面分用意して、一方が画像処理部230が処理するための処理用のフレームバッファ、他方が映像入力部210が画像データを書き込むための入力用フレームバッファとなるように、1フレーム毎に切り替えながら使用できるように構成すればよい。
In accordance with a control signal from the
図4は、本実施例のシステムにおいて全体制御部280に格納するデータの説明図である。
FIG. 4 is an explanatory diagram of data stored in the
全体制御部280は、全体入力状態フラグ281と、左面入力状態フラグ282と、右面入力状態フラグ283と、状態モードフラグ284と、デフォルト画像データ285とを格納できるように構成する。
The
全体入力状態フラグ281は、全体撮影装置201から画像データが入力されているか否かの状態を保持するフラグであり、全体撮影装置201からの画像データの入力の有無を映像入力部210を介して検出し、逐次更新するものである。同様に、左面入力状態フラグ282は左面撮影装置202から画像データが入力されているか否かの状態を保持するフラグであり、左面撮影装置202からの画像データの入力の有無を映像入力部210を介して検出し、逐次更新するものである。同様に、右面入力状態フラグ283は右面撮影装置203から画像データが入力されているか否かの状態を保持するフラグであり、右面撮影装置203からの画像データの入力の有無を映像入力部210を介して検出し、逐次更新するものである。また、状態モードフラグ284は画像合成装置200の初期化を完了したか否かの状態を保持するフラグであり、初期値は「初期化未済」である。
The whole input state flag 281 is a flag that holds a state of whether or not image data is input from the whole photographing
デフォルト画像データ285は、全体撮影装置201から画像データが入力されていない場合に画像合成装置200の出力する画像データである。本実施例においてはデフォルト画像データ285を全体制御部280に格納するものとしたが、中間データ記憶部260または映像出力部270に格納するように構成してもよい。
The
図5は、本実施例のシステムにおいてパラメタ記憶部240に格納するデータの説明図である。
FIG. 5 is an explanatory diagram of data stored in the
パラメタ記憶部240は、内部パラメタデータ241と、外部パラメタデータ242と、色調補正用データ243と、出力パラメタデータ244とを格納するように構成する。
The
内部パラメタデータ241は、全体撮影装置201と左面撮影装置202と右面撮影装置203のそれぞれの内部パラメタを保持するデータである。具体的には、投影方法や、焦点距離、レンズ歪みのパラメタ、軸の非直交性歪み、撮像面と光軸の交点の画像上での座標値、撮像素子の配置、などの撮影装置単体に関するパラメタのうち、必要なものを格納する。ここで、投影方法とは、等距離魚眼レンズ等を用いているのか、一般の透視投影で表されるレンズを用いているのか、といった情報のことである。
The
外部パラメタデータ242は、全体撮影装置201と左面撮影装置202との相対関係及び、全体撮影装置201と右面撮影装置203との相対関係を表すパラメタである。具体的には、例えば、全体撮影装置201の投影中心位置を座標原点にとった場合の左面撮影装置202の投影中心位置の3次元位置座標及び右面撮影装置203の投影中心位置の3次元位置座標と、全体撮影装置201の撮影姿勢を基準とした場合の左面撮影装置202の撮影姿勢を表す3次の回転行列及び全体撮影装置201の撮影姿勢を基準とした場合の右面撮影装置203の撮影姿勢を表す3次の回転行列と、を格納する。
The
色調補正用データ243は、全体撮影装置201と左面撮影装置202と右面撮影装置203の色調を合わせるためのデータである。周辺輝度の低下を補正するためのデータや色空間の違いを補正するためのデータ、異なる露出で撮影した画像データを基準露出で撮影した場合の画像データに変換するためのデータ、などのうち必要なものを格納する。
The color
出力パラメタデータ244は、画像合成装置200の出力画像データの生成方法を定義するデータである。投影中心位置を全体撮影装置201の投影中心位置に等しくとり、座標系に関しても全体撮影装置201の座標系と等しくとった場合の、投影方法や画角などのパラメタを格納する。
The
図6は、本実施例のシステムにおいて中間データ記憶部260に格納するデータの説明図である。
FIG. 6 is an explanatory diagram of data stored in the intermediate
中間データ記憶部260は、マップ画像データ610と、変換画像データ620と、参照画像データ630と、変化画像データ640と、出力画像データ650と、を格納するように構成する。
The intermediate
マップ画像データ610は、入力画像データをサンプリング処理して新たな画像データを生成するための情報を備えた画像データであり、全体マップ画像データ611と、左面マップ画像データ612と、右面マップ画像データ613と、左面マップ修正画像データ614と、右面マップ修正画像データ615と、合成マップ画像データ616とで構成する。ここで、全体マップ画像データ611と左面マップ画像データ612と右面マップ画像データ613と左面マップ修正画像データ614と右面マップ修正画像データ615と合成マップ画像データ616の解像度は、出力画像データ650の解像度と等しくなるように構成する。マップ画像データ610に含まれる各種マップ画像データの画素値のデータ形式に関しては、図7を用いて説明する。
The
変換画像データ620は、全体入力画像データ221を全体マップ画像データ611に基づいて変換したデータである全体変換画像データ621と、左面入力画像データ222を左面マップ画像データ612に基づいて変換したデータである左面変換画像データ622と、右面入力画像データ213を右面マップ画像データ613に基づいて変換したデータである右面変換画像データ623とで構成する。ここで、全体変換画像データ621と左面変換画像データ622と右面変換画像データ623の解像度は、出力画像データ650の解像度と等しくなるように構成する。
The converted
参照画像データ630は、時刻Tにおける処理を行う際に、時刻(T−1)における状態から変化した部分を検出するために、時刻(T−1)の処理の終了時の状態を表現したデータであり、全体参照画像データ631と、左面参照画像データ632と、右面参照画像データ633とで構成する。ここで、全体参照画像データ631と左面参照画像データ632と右面参照画像データ633の解像度は、出力画像データ650の解像度と等しくなるように構成する。
The
変化画像データ640は、時刻Tにおける処理において、時刻(T−1)における状態から変化した部分を表現した2値の画像データであり、全体変化画像データ641と、左面変化画像データ642と、右面変化画像データ643とで構成する。ここで、全体変化画像データ641と左面変化画像データ642と右面変化画像データ643の解像度は、出力画像データ650の解像度と等しくなるように構成する。
The
図7は、本実施例のシステムにおける各種マップ画像データの画素値のデータ形式を説明する図である。 FIG. 7 is a diagram illustrating a data format of pixel values of various map image data in the system of the present embodiment.
データ形式710は、全体マップ画像データ611と左面マップ画像データ612と右面マップ画像データ613と左面マップ修正画像データ614と右面マップ修正画像データ615とで使用する画素値のデータ形式である。サンプリング処理を行うための、参照元X座標値711と参照元Y座標値712とを備えるように構成する。
The
データ形式720は、合成マップ画像データ616で使用する画素値のデータ形式である。参照元の画像として全体入力画像データ221と左面入力画像データ222と右面入力画像データ223のどの画像データを使用するかを定める入力データ識別子721と、サンプリング処理を行うための、参照元X座標値722と参照元Y座標値723とを備えるように構成する。
The
なお、データ形式710及びデータ形式720のいずれの形式においても、適切な参照元座標値が存在しない場合には、参照元座標値として例外値を格納しておく。また、例外値である参照元座標値に基づいてサンプリングされた画素の画素値に関しては、やはり例外値であるとして処理を行い、2つの画素値の差が許容範囲内にあるか否かの判定においては、常に「許容範囲外」であるものとして扱う。
Note that, in both the
図8は、本実施例のシステムにおける画像合成処理の動作を説明するための状況説明図である。 FIG. 8 is a situation explanatory diagram for explaining the operation of the image composition processing in the system of the present embodiment.
全体撮影装置201が会議室810の全体を撮影し、左面撮影装置202と右面撮影装置203が各々その一部分を撮影するように構成されている場合に、時刻(T−1)において右面撮影装置203の撮影範囲内の位置820にいた人物が、時刻Tにおいて右面撮影装置203の撮影範囲外の位置821へ移動した場合の動作について、図9を用いて説明する。
When the entire photographing
図9は、本実施例のシステムにおける画像合成処理の動作を説明するための概念図である。図9の概念図は、図8の状況における処理を表したものである。 FIG. 9 is a conceptual diagram for explaining the operation of the image composition process in the system of the present embodiment. The conceptual diagram of FIG. 9 represents processing in the situation of FIG.
画像データ910は時刻(T−1)における全体入力画像データ221であり、画像データ920は時刻(T−1)における右面入力画像データ223である。また、画像データ911は時刻Tにおける全体入力画像データ221であり、画像データ921は時刻Tにおける右面入力画像データ223である。時刻(T−1)に位置820にいた人物が、時刻Tにおいて位置821へ移動した様子がわかる。
The
画像データ912は更新前の全体参照画像データ631であり、画像データ922は更新前の右面参照画像データ633である。
The image data 912 is the entire reference image data 631 before update, and the
画像データ913は全体変換画像データ621であり、画像データ923は右面変換画像データ623である。位置820にいた人物がいなくなってしまったにもかかわらず、時刻(T−1)における状態に基づいたサンプリングを行っているため、画像データ923の該当部分が白く抜けてしまっているのがわかる。
The image data 913 is whole
画像データ914は全体変化画像データ641であり、画像データ924は右面変化画像データ643である。画像データ914は画像データ912と画像データ913とで差がある部分を検出して生成したものであり、画像データ924は画像データ922と画像データ923とで差がある部分を検出して生成したものである。
The image data 914 is overall change image data 641 and the image data 924 is right side change image data 643. The image data 914 is generated by detecting a difference between the image data 912 and the image data 913, and the image data 924 is generated by detecting a difference between the
画像データ915は更新後の全体参照画像データ631であり、画像データ925は更新後の右面参照画像データ633である。状態が変化した部分のサンプリング用のデータを時刻Tにおける状態に基づいて更新することにより、期待する画像データが生成されていることがわかる。
The
図10は、本実施例のシステムにおける画像合成処理のフローチャートである。図10の画像合成処理は、全体制御部280において所定の時間間隔毎に実施する処理である。
FIG. 10 is a flowchart of image composition processing in the system of this embodiment. The image composition process in FIG. 10 is a process that is performed at predetermined time intervals in the
ステップ1000において画像合成処理が開始されると、まず、ステップ1001において全体映像入力の有無を判定する。この判定は全体入力状態フラグ281を参照することによって行う。ステップ1001における判定で全体映像入力がないと判定された場合には、ステップ1002に進んで状態モードフラグ284を「初期化未済」に設定し、続いてステップ1003に進んで映像出力部270からデフォルト画像データ285を出力した上で、ステップ1004に進んで画像合成処理を終了する。
When the image composition process is started in
ステップ1001における判定で全体映像入力があると判定された場合には、ステップ1005において入力画像データ更新処理を行う。ステップ1005の入力画像データ更新処理は、入力データ記憶部220を制御して、全体撮影装置201の撮影した画像データを全体入力画像データ221に、左面撮影装置202の撮影した画像データを左面入力画像データ222に、右面撮影装置203の撮影した画像データを右面入力画像データ223に、それぞれ格納する処理である。
If it is determined in
左面撮影装置202からの入力がないことは左面入力状態フラグ282を参照することによって、右面撮影装置203からの入力がないことは右面入力状態フラグ283によって、それぞれ検出できるため、実際に図11以降の処理を実施する場合においては、左面入力状態フラグ282あるいは右面入力状態フラグ283に基づいて、適宜、左面入力画像データ222あるいは右面入力画像データ223に関する処理をスキップするように構成すればよいが、フローチャートが煩雑になるのを避けるため、本明細書中においては、便宜上、映像入力がない場合にはすべての画素値が「黒」であるような画像データを格納することとする。
Since there is no input from the left
次に、ステップ1006において、初期化完了モードか否かを判定する。この判定は状態モードフラグ284を参照することによって行う。状態モードフラグ284が「初期化完了」である場合にはステップ1007の中間データ更新処理に進み、状態モードフラグ284が「初期化未済」である場合にはステップ1008の中間データ生成処理に進む。ステップ1008の中間データ生成処理に進んだ場合には、続いてステップ1009で状態モードフラグ284を「初期化完了」に設定する。なお、ステップ1007の中間データ更新処理に関しては図20を用いて、ステップ1008の中間データ生成処理に関しては図11を用いて、それぞれ説明する。
Next, in
ステップ1007またはステップ1009の終了後、ステップ1010において合成画像データ出力処理を行う。これは、中間データ記憶部260に格納されている出力画像データ650を映像出力部270から出力する処理である。
ステップ1010の合成画像データ出力処理の終了後、ステップ1004に進んで画像合成処理を終了する。
After
After completion of the composite image data output process in
図11は、本実施例のシステムにおける中間データ生成処理のフローチャートである。
ステップ1100で中間データ生成処理が開始されると、まず、ステップ1101においてマップ画像データ初期化処理を行う。マップ画像データ初期化処理の詳細は、図12を用いて説明する。
FIG. 11 is a flowchart of intermediate data generation processing in the system of this embodiment.
When the intermediate data generation processing is started in step 1100, first, map image data initialization processing is performed in
次に、ステップ1102において、色調補正処理を行う。色調補正処理は、色調補正用データ243に基づいて、全体入力画像データ221と左面入力画像データ222と右面入力画像データ223のそれぞれに画像補正を施した上で、あらためて、全体入力画像データ221、左面入力画像データ222、右面入力画像データ223として格納しなおす処理である。
Next, in step 1102, color tone correction processing is performed. In the color tone correction process, based on the color
次に、ステップ1103において、変換画像データ生成処理を行う。変換画像データ生成処理は、全体変換画像データ生成処理と、左面変換画像データ生成処理と、右面変換画像データ生成処理とで構成する。このうち、全体変換画像データ生成処理の詳細を図13を用いて説明する。左面変換画像データ生成処理は、全体変換画像データ生成処理において使用される全体マップ画像データ611の代わりに左面マップ画像データ612を、全体入力画像データ221の代わりに左面入力画像データ222を、全体変換画像データ621の代わりに左面変換画像データ622を、それぞれ使用すればよい。右面変換画像データ生成処理に関しても、同様である。
Next, in step 1103, a converted image data generation process is performed. The converted image data generation process includes a whole converted image data generation process, a left side converted image data generation process, and a right side converted image data generation process. Of these, details of the entire converted image data generation processing will be described with reference to FIG. In the left side conversion image data generation process, the left side map image data 612 is used instead of the whole map image data 611 used in the whole conversion image data generation process, and the left side input image data 222 is used instead of the whole input image data 221. Instead of the
次に、ステップ1104において、各面マップ画像データ生成処理を行う。各面マップ画像データ生成処理は、左面マップ画像データ生成処理と、右面マップ画像データ生成処理とで構成する。このうち、左面マップ画像データ生成処理の詳細を図14を用いて説明する。右面マップ画像データ生成処理に関しても、同様の処理で実施することができる。
次に、ステップ1105において、参照画像データ生成処理を行う。参照画像データ生成処理は、全体参照画像データ生成処理と、左面参照画像データ生成処理と、右面参照画像データ生成処理とで構成する。このうち、全体参照画像データ生成処理の詳細を図16を用いて説明する。左面参照画像データ生成処理は、全体参照画像データ生成処理において使用される全体入力画像データ221の代わりに左面入力画像データ222を、全体マップ画像データ611の代わりに左面マップ画像データ612を、全体参照画像データ631の代わりに左面参照画像データ632を、それぞれ使用すればよい。右面参照画像データ生成処理に関しても、同様である。
Next, in step 1104, each surface map image data generation process is performed. Each surface map image data generation process includes a left surface map image data generation process and a right surface map image data generation process. Of these, details of the left map image data generation processing will be described with reference to FIG. The right map image data generation process can also be performed by the same process.
Next, in
次に、ステップ1106において、合成マップ画像データ生成処理を行う。合成マップ画像データ生成処理の詳細は、図17及び図18を用いて説明する。
Next, in
次に、ステップ1107において、出力画像データ生成処理を行う。出力画像データ生成処理の詳細は、図19を用いて説明する。
Next, in
上記の処理を終了後、ステップ1108において中間データ生成処理を終了する。
図12は、本実施例のシステムにおけるマップ画像データ初期化処理のフローチャートである。
After completing the above processing, the intermediate data generation processing is ended in step 1108.
FIG. 12 is a flowchart of map image data initialization processing in the system of this embodiment.
ステップ1200でマップ画像データ初期化処理が開始されると、まず、ステップ1201において内部パラメタデータ241を読み込み、続いてステップ1202において出力パラメタデータ244を読み込む。
When the map image data initialization process is started in step 1200, first, the
次に、ステップ1203において、全体用初期値生成処理を行う。全体用初期値生成処理は、出力画像データ650を生成するためには、出力画像データ650の各画素は、全体入力画像データ221のどの座標の画素値をサンプリングしてくればよいかを算出し、該参照元の座標値を全体マップ画像データ611に格納する処理である。参照元座標値の算出処理は、内部パラメタデータ241と出力パラメタデータ244とを用いて、公知の技術により容易に実施することができる。
Next, in step 1203, an overall initial value generation process is performed. In the overall initial value generation process, in order to generate the
次に、ステップ1204において、外部パラメタデータ242を読み込む。
Next, in step 1204,
次に、ステップ1205において、左面用初期値生成処理を行う。左面用初期値生成処理は、出力画像データ650を生成するためには、出力画像データ650の各画素は、左面入力画像データ222のどの座標の画素値をサンプリングしてくればよいかを算出し、該参照元の座標値を左面マップ画像データ612に格納する処理である。ただしその際、被写体の立体形状等は分かっていないため、所定の曲面上にすべての被写体があるものと仮定して、参照元座標値の算出を行う。この参照元座標値の算出は、所定の曲面が与えられている場合に、内部パラメタデータ241と外部パラメタデータ242と出力パラメタデータ244とから容易に実施することができる。
Next, in step 1205, left side initial value generation processing is performed. In the initial value generation process for the left side, in order to generate the
次に、ステップ1206において右面用初期値生成処理を行う。右面用初期値生成処理は、左面用初期値生成処理と同様の処理によって実施することができる。
Next, in
上記の処理を終了した後、ステップ1207においてマップ画像データ初期化処理を終了する。 After the above process is completed, the map image data initialization process is ended in step 1207.
図13は、本実施例のシステムにおける全体変換画像データ生成処理のフローチャートである。 FIG. 13 is a flowchart of the entire converted image data generation process in the system of this embodiment.
ステップ1300で全体変換画像データ生成処理が開始されると、まず、ステップ1301において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ1302において、全体マップ画像データ611のn番目の画素の画素値を読み込む。
When the entire converted image data generation process is started in
Next, in step 1302, the pixel value of the nth pixel of the entire map image data 611 is read.
次に、ステップ1303において、全体入力画像データ221上の、ステップ1302で読み込んだ参照元座標値に対応する位置の画素値を算出し、全体変換画像データ621のn番目の画素の画素値として設定する。ここで、参照元座標値は一般には整数値ではないが、画素値の算出は双線形補間などの公知の方法によって実施すればよい。
次に、ステップ1304において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ1305において、全体変換画像データ621中のすべての画素について処理が終了したか否かを判定する。全体変換画像データ621中のすべての画素について処理が終了している場合にはステップ1306に進んで全体変換画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ1302に進んで処理を続ける。
Next, in step 1303, the pixel value at the position corresponding to the reference source coordinate value read in step 1302 on the entire input image data 221 is calculated and set as the pixel value of the nth pixel in the entire
Next, in step 1304, n, which is the serial number of the pixel to be processed, is incremented by 1, and in
図14は、本実施例のシステムにおける左面マップ画像データ生成処理のフローチャートである。 FIG. 14 is a flowchart of left-side map image data generation processing in the system of this embodiment.
ステップ1400で左面マップ画像データ生成処理が開始されると、まず、ステップ1401において全体変換画像データ621を読み込み、続いてステップ1402において左面変換画像データ622を読み込む。
When the left side map image data generation process is started in
次に、ステップ1403において、左面マップ修正画像データ生成処理を行う。左面マップ修正画像データ生成処理は、全体変換画像データ621と左面変換画像データ622とに基づいて、左面マップ画像データ612の誤差分を修正するための左面マップ修正画像データ614を生成する処理である。全体変換画像データ621の各画素位置について、左面変換画像データ622のどの座標位置からサンプリングしてくればよいかを算出すればよく、パターンマッチング等の公知の技術を用いて実施することができる。なお、対応が求まらない画素に関しては、例外値を格納し、以降の処理を適宜スキップできるようにしておけばよい。
Next, in step 1403, left-side map corrected image data generation processing is performed. The left side map corrected image data generation process is a process of generating left side map corrected
次に、ステップ1404において、左面マップ画像データ合成処理を行う。左面マップ画像データ合成処理の詳細は、図15を用いて説明する。
Next, in
上記処理を終了した後、ステップ1405において左面マップ画像データ生成処理を終了する。
After the above process is finished, the left map image data generation process is finished in
図15は、本実施例のシステムにおけるマップ画像データの合成方法の説明図である。
左面マップ修正画像データ1510上の画素1511の参照元座標値が、左面マップ画像データ1520上の座標値1521であり、座標値1521の参照元座標値が、左面入力データ1530の座標値1531であるとき、左面マップ修正画像データ1510上の画素1511の参照元座標値を、座標値1531に更新する。この更新を左面マップ修正画像データ1510のすべての画素に対して実施した後、左面マップ修正画像データ1510を、あらためて、左面マップ画像データ1520として保存する。
FIG. 15 is an explanatory diagram of a map image data synthesis method in the system of this embodiment.
The reference source coordinate value of the pixel 1511 on the left side map corrected image data 1510 is the coordinate value 1521 on the left side map image data 1520, and the reference source coordinate value of the coordinate value 1521 is the coordinate value 1531 of the left side input data 1530. At this time, the reference source coordinate value of the pixel 1511 on the left side map corrected image data 1510 is updated to the coordinate value 1531. After this update is performed on all the pixels of the left-side map corrected image data 1510, the left-side map corrected image data 1510 is stored again as the left-side map image data 1520.
ここで、座標値1521は一般に画素中心の位置に一致しないため、双線形補間などによって座標値1531を算出する必要がある。すなわち、図15において、座標値1521の参照元座標値を求める代わりに、画素中心の位置にある座標値1522及び座標値1523及び座標値1524及び座標値1525のそれぞれに対して左面マップ画像データ1520の画素値を参照して参照元座標値を求め、それらの双線形補間を行うことで座標値1521に対応する座標値1531を算出する。 Here, since the coordinate value 1521 generally does not coincide with the position of the pixel center, it is necessary to calculate the coordinate value 1531 by bilinear interpolation or the like. That is, in FIG. 15, instead of obtaining the reference source coordinate value of the coordinate value 1521, the left map image data 1520 for each of the coordinate value 1522, the coordinate value 1523, the coordinate value 1524, and the coordinate value 1525 at the pixel center position. The coordinate value 1531 corresponding to the coordinate value 1521 is calculated by obtaining a reference source coordinate value with reference to the pixel values of the pixel values and performing bilinear interpolation on the reference source coordinate values.
図16は、本実施例のシステムにおける全体参照画像データ生成処理のフローチャートである。 FIG. 16 is a flowchart of overall reference image data generation processing in the system of the present embodiment.
ステップ1600で全体参照画像データ生成処理が開始されると、まず、ステップ1601において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ1602において、全体マップ画像データ611のn番目の画素の画素値を読み込む。
When the entire reference image data generation process is started in
Next, in step 1602, the pixel value of the nth pixel of the entire map image data 611 is read.
次に、ステップ1603において、全体入力画像データ221上の、ステップ1602で読み込んだ参照元座標値に対応する位置の画素値を算出し、全体参照画像データ631のn番目の画素の画素値として設定する。ここで、参照元座標値は一般には整数値ではないが、画素値の算出は双線形補間などの公知の方法によって実施すればよい。
Next, in
次に、ステップ1604において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ1605において、全体参照画像データ631中のすべての画素について処理が終了したか否かを判定する。全体参照画像データ631中のすべての画素について処理が終了している場合にはステップ1606に進んで全体参照画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ1602に進んで処理を続ける。 In step 1604, n, which is the serial number of the pixel to be processed, is incremented by 1. Subsequently, in step 1605, it is determined whether or not the processing has been completed for all the pixels in the overall reference image data 631. If the process has been completed for all the pixels in the overall reference image data 631, the process proceeds to step 1606 to end the overall reference image data generation process, and if there is a pixel that has not been completed yet, the process proceeds to step 1606. Proceeding to 1602, processing continues.
図17は、本実施例のシステムにおける合成マップ画像データ生成処理のフローチャートである。 FIG. 17 is a flowchart of the composite map image data generation process in the system of this embodiment.
ステップ1700において合成マップ画像データ生成処理が開始されると、まず、ステップ1701において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ1702において、全体参照画像データ631のn番目の画素の画素値VTと、左面参照画像データ632のn番目の画素の画素値VLと、右面参照画像データ633のn番目の画素の画素値VRとを読み込む。
When the composite map image data generation process is started in step 1700, first, in step 1701, n, which is the serial number of the pixel to be processed, is initialized to zero.
Next, in
次に、ステップ1703において、採用画素決定処理を行う。採用画素決定処理の詳細については、図18を用いて説明する。 Next, in step 1703, adopted pixel determination processing is performed. Details of the adopted pixel determination process will be described with reference to FIG.
次に、ステップ1704において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ1705において、合成マップ画像データ616中のすべての画素について処理が終了したか否かを判定する。合成マップ画像データ616中のすべての画素について処理が終了している場合にはステップ1706に進んで合成マップ画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ1702に進んで処理を続ける。 In step 1704, n, which is the serial number of the pixel to be processed, is incremented by 1. Subsequently, in step 1705, it is determined whether or not processing has been completed for all the pixels in the composite map image data 616. If the process has been completed for all the pixels in the composite map image data 616, the process proceeds to step 1706 to end the composite map image data generation process, and if there is a pixel that has not been processed yet, the process proceeds to step 1706. Proceed to 1702 and continue processing.
図18は、本実施例のシステムにおける採用画素決定処理のフローチャートである。 FIG. 18 is a flowchart of adopted pixel determination processing in the system of this embodiment.
ステップ1800において採用画素決定処理が開始されると、まず、ステップ1801において所定の閾値に基づいてVTとVLの差が許容範囲内にあるか否かを判定する。ステップ1801において許容範囲内であると判定された場合には、ステップ1802に進み、合成マップ画像データ616のn番目の画素の画素値として、入力データ識別子721には「左面入力画像データ」を設定し、参照元X座標値722には左面マップ画像データ612のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には左面マップ画像データ612のn番目の画素の画素値である参照元Y座標値712を設定する。
When the adopted pixel determination process is started in
ステップ1801において許容範囲外であると判定された場合には、ステップ1803の処理に進む。ステップ1803では、所定の閾値に基づいてVTとVRの差が許容範囲内にあるか否かを判定する。ステップ1803において許容範囲内であると判定された場合には、ステップ1804に進み、合成マップ画像データのn番目の画素の画素値として、入力データ識別子721には「右面入力画像データ」を設定し、参照元X座標値722には右面マップ画像データ613のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には右面マップ画像データ613のn番目の画素の画素値である参照元Y座標値712を設定する。
If it is determined in step 1801 that the value is outside the allowable range, the process proceeds to step 1803. In
ステップ1803において許容範囲外であると判定された場合には、ステップ1805に進み、合成マップ画像データのn番目の画素の画素値として、入力データ識別子721には「全体入力画像データ」を設定し、参照元X座標値722には全体マップ画像データ611のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には全体マップ画像データ611のn番目の画素の画素値である参照元Y座標値712を設定する。
If it is determined in
以上、ステップ1802、ステップ1804、ステップ1805、のいずれかの処理の終了後、ステップ1806において採用画素決定処理を終了する。
As described above, after completion of any one of the processing in step 1802, step 1804, and
図19は、本実施例のシステムにおける出力画像データ生成処理のフローチャートである。 FIG. 19 is a flowchart of output image data generation processing in the system of this embodiment.
ステップ1900において出力画像データ生成処理が開始されると、まず、ステップ1901において、処理すべき画素のシリアル番号であるnを0に初期化し、続いてステップ1902において、合成マップ画像データ616のn番目の画素の画素値を読み込む。
次に、ステップ1903において、ステップ1902で読み込んだ画素値の入力データ識別子721で表される入力データ上で、参照元X座標値722と参照元Y座標値723で表される座標の画素値を算出し、出力画像データ650のn番目の画素の画素値として設定する。ここで、参照元X座標値722及び参照元Y座標値723は一般には整数値ではないが、画素値の算出は双線形補間などの公知の方法により実施すればよい。
When the output image data generation process is started in
Next, in step 1903, the pixel value of the coordinates represented by the reference source X coordinate value 722 and the reference source Y coordinate value 723 is obtained on the input data represented by the input data identifier 721 of the pixel value read in step 1902. Calculate and set as the pixel value of the nth pixel of the
次に、ステップ1904において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ1905において、出力画像データ650中のすべての画素について処理が終了したか否かを判定する。出力画像データ650中のすべての画素について処理が終了している場合にはステップ1906に進んで出力画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ1902に進んで処理を続ける。
Next, n, which is the serial number of the pixel to be processed, is incremented by 1 in
図20は、本実施例のシステムにおける中間データ更新処理のフローチャートである。 FIG. 20 is a flowchart of intermediate data update processing in the system of this embodiment.
ステップ2000において中間データ更新処理が開始されると、まず、ステップ2001において色調補正処理を行う。ステップ2001における色調補正処理は、ステップ1102における色調補正処理と同一の処理である。
When the intermediate data update process is started in
次に、ステップ2002において、変換画像データ生成処理を行う。ステップ2002における変換画像データ生成処理は、ステップ1103における変換画像データ生成処理と同一の処理である。
Next, in
次に、ステップ2003において、変化画像データ生成処理を行う。変化画像データ生成処理は、全体変化画像データ生成処理と、左面変化画像データ生成処理と、右面変化画像データ生成処理とで構成する。このうち、全体変化画像データ生成処理の詳細を図21を用いて説明する。左面変化画像データ生成処理は、全体変化画像データ生成処理において使用される全体参照画像データ631の代わりに左面参照画像データ632を、全体変換画像データ621の代わりに左面変換画像データ622を、全体変化画像データ641の代わりに左面変化画像データ642を、それぞれ使用すればよい。右面変化画像データ生成処理に関しても、同様である。
Next, in
次に、ステップ2004において、各面マップ画像データ更新処理を行う。各面マップ画像データ更新処理は、左面マップ画像データ更新処理と、右面マップ画像データ更新処理とで構成する。このうち、左面マップ画像データ更新処理の詳細を図22を用いて説明する。右面マップ画像データ更新処理に関しても、同様の処理で実施することができる。
Next, in
次に、ステップ2005において、参照画像データ生成処理を行う。ステップ2005における参照画像データ生成処理は、ステップ1105における参照画像データ生成処理と同一の処理である。
Next, in
次に、ステップ2006において、合成マップ画像データ生成処理を行う。ステップ2006における合成マップ画像データ生成処理は、ステップ1106における合成マップ画像データ生成処理と同一の処理である。
Next, in
次に、ステップ2007において、出力画像データ生成処理を行う。ステップ2007における出力画像データ生成処理は、ステップ1107における出力画像データ生成処理と同一の処理である。
Next, in
以上の処理を終了後、ステップ2008において中間データ更新処理を終了する。
図21は、本実施例のシステムにおける全体変化画像データ生成処理のフローチャートである。
After completing the above processing, in
FIG. 21 is a flowchart of overall change image data generation processing in the system of this embodiment.
ステップ2100において全体変化画像データ生成処理が開始されると、まず、ステップ2101において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ2102において、全体参照画像データ631のn番目の画素の画素値V0を読み込み、続いてステップ2103において、全体変換画像データ621のn番目の画素の画素値V1を読み込む。
When the whole change image data generation process is started in
Next, in step 2102, the pixel value V0 of the nth pixel of the entire reference image data 631 is read. Subsequently, in
次に、ステップ2104において、所定の閾値に基づいてV0とV1の差が許容範囲内であるか否かを判定する。ステップ2104で許容範囲内であると判定された場合には、ステップ2105に進んで全体変化画像データ641のn番目の画素の画素値を0にする。ステップ2104で許容範囲外であると判定された場合には、ステップ2106に進んで全体変化画像データ641のn番目の画素の画素値を1にする。 Next, in step 2104, it is determined whether or not the difference between V0 and V1 is within an allowable range based on a predetermined threshold. If it is determined in step 2104 that the value is within the allowable range, the process proceeds to step 2105 to set the pixel value of the nth pixel of the entire change image data 641 to 0. If it is determined in step 2104 that the value is outside the allowable range, the process proceeds to step 2106 to set the pixel value of the nth pixel of the entire change image data 641 to 1.
ステップ2105またはステップ2106の終了後、ステップ2107において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ2108において、全体変化画像データ641中のすべての画素について処理が終了したか否かを判定する。全体変化画像データ641中のすべての画素について処理が終了している場合にはステップ2109に進んで全体変化画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ2102に進んで処理を続ける。
After
図22は、本実施例のシステムにおける左面マップ画像データ更新処理のフローチャートである。 FIG. 22 is a flowchart of left map image data update processing in the system of the present embodiment.
ステップ2200において左面マップ画像データ更新処理が開始されると、まず、ステップ2201において全体変換画像データ621と左面変換画像データ622とを読み込み、続いてステップ2202において、全体変化画像データ641及び左面変化画像データ642を読み込む。
When the left side map image data update process is started in
次に、ステップ2203において左面マップ修正画像データ更新処理を行う。左面マップ修正画像データ更新処理は、全体変化画像データ641または左面変化画像データ642のいずれかにおいて画素値が1であるような画素に関しては、図14のステップ1403で説明した左面マップ修正画像データ生成処理と同様にして左面マップ修正画像データ614の画素値を決定し、全体変化画像データ641及び左面変化画像データ642の両方で画素値が0であるような画素に関しては、該画素の座標値をそのまま該画素の参照元座標値として設定する処理である。変化画像データを使用することで、状態が変化した領域があらかじめ分かるため、パターンマッチング等の処理の高速化・頑健化が期待できる。また、状態の変化がない部分に関する計算量の削減が図れるため、処理の高速化が期待できる。
Next, in step 2203, a left map corrected image data update process is performed. In the left-side map corrected image data update processing, the left-side map corrected image data generation described in step 1403 of FIG. 14 is performed for pixels whose pixel value is 1 in either the entire changed image data 641 or the left-side changed
次に、ステップ2204において左面マップ画像データ合成処理を行う。ステップ2204における左面マップ画像データ合成処理は、図14のステップ1404で説明した左面マップ画像データ合成処理と同じ処理である。
以上の処理を終了後、ステップ2205において左面マップ画像データ更新処理を終了する。
図60は、ハードウェア構成図である。
Next, in
After finishing the above processing, the left map image data update processing is finished in
FIG. 60 is a hardware configuration diagram.
画像合成装置6000は、USBインターフェース6011と、USBインターフェース6012と、USBインターフェース6013と、CPU6020と、メモリ6021と、ハードディスク6022と、画像ボード6023と、ネットワークカード6024とで構成する。
ハードディスク6022には、これまでに説明した各種処理に対応する各種プログラムと、全体制御部280に格納されるべき各種データ、及び、パラメタ記憶部240に格納されるべき各種データ、を格納しておく。
The image composition device 6000 includes a USB interface 6011, a
The
本実施例のシステムは、図60に示すハードウェア構成で、ハードディスク6022からメモリ6021にロードされた各種プログラムが、CPU6020によって実行されることにより実現される。
入力データ記憶部220と中間データ記憶部260の機能は、メモリ6021によって実現され、映像入力部210の機能は、USBインターフェース6011と、USBインターフェース6012と、USBインターフェース6013によって実現され、映像出力部270の機能は画像ボード6023によって実現され、パラメタ設定部250の機能はネットワークカード6024によって実現される。
The system of this embodiment is realized by the
The functions of the input
また、全体撮影装置201、左面撮影装置202、右面撮影装置203の機能は、それぞれ、USBカメラ6001、USBカメラ6002、USBカメラ6003によって実現される。
Further, the functions of the whole
なお、ハードディスク6022が備えるべき機能としては、記憶した情報が電源断などによって失われないものであればよく、不揮発性のメモリでも代用可能であるし、CD−ROMやフロッピー(登録商標)ディスクのようなメディアと該メディアを読み込むためのインターフェースとの組で代用することもできる。
It should be noted that the
また、USBインターフェース6011と、USBインターフェース6012と、USBインターフェース6013が備えるべき機能は、画像合成装置200への入力信号をデジタル画像データとしてメモリ6021に書き込むことであり、入力信号に応じてUSBインターフェースの代わりに適切なものを使用すればよい。例えば、入力信号がアナログ信号である場合にはA/D変換機能を有するキャプチャカードを使用すればよいし、入力信号がネットワークを介して送られてくるデジタルデータである場合にはネットワークカードを使用すればよい。
A function that the USB interface 6011, the
また、画像ボード6023が備えるべき機能は、合成した画像データを外部に出力することであり、D/A変換機能の有無は、出力先に応じて変更すればよい。さらに、合成したデータをハードディスク等の記憶媒体に記憶する場合には該媒体に対応するインターフェースを使用すればよいし、ネットワークを介して伝送する場合にはネットワークカードを使用すればよい。さらに、該ネットワークカードとしてMPEG2エンコード機能などのデータ圧縮機能を有するものを使用するようにしてもよい。 The function that the image board 6023 should have is to output the combined image data to the outside, and the presence / absence of the D / A conversion function may be changed according to the output destination. Furthermore, when storing the synthesized data in a storage medium such as a hard disk, an interface corresponding to the medium may be used, and when transmitting the data via a network, a network card may be used. Further, a network card having a data compression function such as an MPEG2 encoding function may be used.
また、ネットワークカード6024が備えるべき機能は、パラメタ記憶部240に格納されるべき各種データをハードディスク6022に書き込めることであり、CD−ROMやフロッピー(登録商標)ディスクのようなメディアと該メディアを読み込むためのインターフェースとの組で代用してもよいし、キーボードなどの外部入力インターフェースで代用するようにしてもよい。 なお、本ハードウェア構成は、他の実施例にも適用可能である。
A function that the network card 6024 should have is that various data to be stored in the
以上、本実施例によれば、1つの撮影装置で撮影した画像データと整合性のある画像データが撮像されることを保証しつつ、複数の撮影装置を使って高解像度の画像データを生成することが可能となる。 As described above, according to the present embodiment, high-resolution image data is generated using a plurality of imaging devices while ensuring that image data consistent with image data captured by one imaging device is captured. It becomes possible.
なお、本実施例においては、処理速度及び頑健性の観点から変化画像データを使用するように構成したが、本発明の実施の形態はこれに限るものではなく、常にすべての画素に対して処理を行うようにしてもよいことは明らかである。 In this embodiment, the change image data is used from the viewpoint of processing speed and robustness. However, the embodiment of the present invention is not limited to this, and processing is always performed for all pixels. Obviously, it may be possible to do this.
以下、図23〜図33を用いて、第2の実施の形態について説明する。 Hereinafter, the second embodiment will be described with reference to FIGS. 23 to 33.
本実施例は、実施例1に記載の例に対して、より単純な処理の組み合わせによって中間データを更新できるようにした例である。
図23は、本実施例のシステムのシステム構成図である。図23において、図2と同じ符号は、図2と同じものを表す。また、図6と同じ符号は、図6と同じものを表す。
本実施例の画像合成装置2300は、画像合成装置200に対して、中間データ記憶部2360を、デプス画像データ2360と探索用デプス集合データ2370とを格納できるように構成し、さらに、画像処理部2330で実施する中間データ生成処理及び中間データ更新処理に変更を加えたものである。
The present embodiment is an example in which intermediate data can be updated by a simpler combination of processes with respect to the example described in the first embodiment.
FIG. 23 is a system configuration diagram of the system of this embodiment. 23, the same reference numerals as those in FIG. 2 denote the same elements as those in FIG. The same reference numerals as those in FIG. 6 denote the same elements as those in FIG.
In the
ここで、デプス画像データ2360は、全体デプス画像データ2361と背景デプス画像データ2362とで構成する。ここで、全体デプス画像データ2361と背景デプス画像データ2362の解像度は、出力画像データ650の解像度と等しくなるように構成する。
Here, the
また、探索用デプス集合データ2370は、所定のデプス値の集合である規定探索デプス集合データ2371と、臨時探索距離集合データ2372と、最大探索距離集合データ2373とで構成する。規定探索デプス集合データ2371の構成方法については図26を用いて、臨時探索距離集合データ2372と最大探索距離集合データ2373の構成方法については図31を用いて、それぞれ説明する。
Further, the search depth set
図24は、本実施例のシステムにおける中間データ生成処理のフローチャートである。図24において、図11と同じ符号は、図11と同じ処理を表す。
ステップ2401のデプス画像データ生成処理の詳細については、図25を用いて説明する。
FIG. 24 is a flowchart of intermediate data generation processing in the system of this embodiment. 24, the same reference numerals as those in FIG. 11 represent the same processes as those in FIG.
Details of the depth image data generation processing in
ステップ2402の各面マップ画像データ生成処理は、左面マップ画像データ生成処理と、右面マップ画像データ生成処理とで構成する。このうち、左面マップ画像データ生成処理の詳細を図27を用いて説明する。右面マップ画像データ生成処理に関しても、同様の処理で実施することができる。
Each surface map image data generation process in
図25は、本実施例のシステムにおけるデプス画像データ生成処理のフローチャートである。 FIG. 25 is a flowchart of depth image data generation processing in the system of this embodiment.
ステップ2500においてデプス画像データ生成処理が開始されると、まず、ステップ2501において、処理すべき画素のシリアル番号であるnを0に初期化する。 When the depth image data generation process is started in step 2500, first, in step 2501, n, which is the serial number of the pixel to be processed, is initialized to zero.
次に、ステップ2502において、出力パラメタデータ244と出力画像データ650のn番目の画素位置とで規定される、投影中心位置を基点として画素位置方向を向くような3次元方向に関して、所定の適合率評価関数に基づいて、各々の規定デプス集合データに含まれるデプス値ごとに、デプス値が当該デプス値の場合の適合率を算出する。
Next, in step 2502, a predetermined precision ratio with respect to a three-dimensional direction that is defined by the
次に、ステップ2503において、ステップ2502で算出した適合率が最も高いデプス値を選択し、全体デプス画像データ2361のn番目の画素値として設定する。 Next, in step 2503, the depth value with the highest relevance ratio calculated in step 2502 is selected and set as the nth pixel value of the entire depth image data 2361.
次に、ステップ2504において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ2505において、全体デプス画像データ2361中のすべての画素について処理が終了したか否かを判定する。全体デプス画像データ2361中のすべての画素について処理が終了している場合にはステップ2506に進み、未だ処理が終了していない画素が存在する場合にはステップ2502に進んで処理を続ける。 Next, in step 2504, n, which is the serial number of the pixel to be processed, is incremented by 1, and in step 2505, it is determined whether or not the processing has been completed for all the pixels in the entire depth image data 2361. If all pixels in the entire depth image data 2361 have been processed, the process proceeds to step 2506. If there is a pixel that has not been processed yet, the process proceeds to step 2502 to continue the process.
ステップ2506において背景デプス画像データ2362の各画素の画素値を全体デプス画像データ2361の同位置の画素の画素値と同じ値に設定した後、ステップ2507においてデプス画像データ生成処理を終了する。
In
図26は、本実施例のシステムにおける規定探索デプス集合データ2371の構成方法を説明するための図である。 FIG. 26 is a diagram for explaining a method of configuring the prescribed search depth set data 2371 in the system of the present embodiment.
図26において、白丸が、各々1つのデプス値を表す。本実施例においては、所定の最小デプス値2610及び最大デプス値2611に対して、デプス集合データ2620のようにデプス値を等間隔に配置してもよいし、「画像データ上でのずれの量が概ね等しくなるように」という観点から、デプス集合データ2621のようにデプス値が小さい領域ほど密に配置してもよい。
In FIG. 26, each white circle represents one depth value. In this embodiment, the depth values may be arranged at equal intervals as in the depth set
図27は、本実施例のシステムにおける左面マップ画像データ生成処理のフローチャートである。 FIG. 27 is a flowchart of left-side map image data generation processing in the system of the present embodiment.
ステップ2700において左面マップ画像データ生成処理が開始されると、まず、ステップ2701において、処理すべき画素のシリアル番号であるnを0に初期化する。
次に、ステップ2702において、出力パラメタデータ244と出力画像データ650のn番目の画素位置とで規定される、投影中心位置を基点として画素位置方向を向くような3次元方向に関して、全体デプス画像データ2361上のデプス値から三次元空間上での位置Pを決定する。
When the left map image data generation process is started in
Next, in step 2702, the entire depth image data with respect to a three-dimensional direction that is defined by the
次に、ステップ2703において、ステップ2702で決定した位置Pと内部パラメタデータ241と外部パラメタデータ242に基づいて、左面入力画像データ222上の対応する位置を決定し、左面マップ画像データ612のn番目の画素の画素値として設定する。
Next, in step 2703, a corresponding position on the left side input image data 222 is determined based on the position P determined in step 2702, the
次に、ステップ2704において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ2705において、左面マップ画像データ612中のすべての画素について処理が終了したか否かを判定する。左面マップ画像データ612中のすべての画素について処理が終了している場合にはステップ2706に進んで左面マップ画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ2702に進んで処理を続ける。
Next, in step 2704, n, which is the serial number of the pixel to be processed, is incremented by 1, and then, in
図28は、本実施例のシステムにおける中間データ更新処理のフローチャートである。図28において、図20と同じ符号は、図20と同じ処理を表す。
ステップ2801の全体デプス画像データ更新処理の詳細に関しては、図29を用いて説明する。
FIG. 28 is a flowchart of the intermediate data update process in the system of this embodiment. 28, the same reference numerals as those in FIG. 20 represent the same processes as those in FIG.
Details of the entire depth image data update processing in
ステップ2802の背景デプス画像データ更新処理の詳細に関しては、図32を用いて説明する。 Details of the background depth image data update processing in step 2802 will be described with reference to FIG.
ステップ2803の各面マップ画像データ更新処理は、左面マップ画像データ更新処理と、右面マップ画像データ更新処理とで構成する。このうち、左面マップ画像データ更新処理の詳細を図33を用いて説明する。右面マップ画像データ更新処理に関しても、同様の処理で実施することができる。
Each area map image data update process in
図29は、本実施例のシステムにおける全体デプス画像データ更新処理のフローチャートである。 FIG. 29 is a flowchart of the entire depth image data update process in the system of the present embodiment.
ステップ2900において全体デプス画像データ更新処理が開始されると、まず、ステップ2901において、処理すべき画素のシリアル番号であるnを0に初期化する。
When the entire depth image data update process is started in
次に、ステップ2902において、全体デプス画像データ2361のn番目の画素について、画素値優先デプス決定処理を行う。画素値優先デプス決定処理の詳細については、図30及び図31を用いて説明する。
Next, in
次に、ステップ2903において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ2904において、全体デプス画像データ2361中のすべての画素について処理が終了したか否かを判定する。全体デプス画像データ2361中のすべての画素について処理が終了している場合にはステップ2905に進んで全体デプス画像データ更新処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ2902に進んで処理を続ける。
Next, in
図30は、本実施例のシステムにおける画素値優先デプス決定処理のフローチャートであり、図31は、本実施例のシステムにおける臨時探索距離集合データ2372及び最大探索距離集合データ2373の構成方法を説明するための図である。図31において、図26と同じ符号は、図26と同じものを表す。 FIG. 30 is a flowchart of pixel value priority depth determination processing in the system of the present embodiment, and FIG. 31 illustrates a configuration method of the temporary search distance set data 2372 and the maximum search distance set data 2373 in the system of the present embodiment. FIG. 31, the same reference numerals as those in FIG. 26 denote the same elements as those in FIG.
ステップ3000において画素値優先デプス決定処理が開始されると、まず、ステップ3001において全体デプス値近傍探索処理を行う。これは、全体デプス画像データ2361のn番目の画素の画素値である全体デプス値を読み込み、所定の間隔と所定の適合率評価関数に基づいて、全体デプス値の近傍のデプス値と、該デプス値における適合率と、の組を算出する処理である。例えば、図31において、全体デプス値3101とその近傍のデプス値3102及びデプス値3103に対して、各々の適合率の算出をステップ3001において行う。 When the pixel value priority depth determination process is started in step 3000, first, an overall depth value neighborhood search process is performed in step 3001. This is to read an overall depth value that is the pixel value of the nth pixel of the overall depth image data 2361, and based on a predetermined interval and a predetermined precision evaluation function, the depth value near the overall depth value, and the depth This is a process of calculating a set of the precision ratio in value. For example, in FIG. 31, each matching rate is calculated in step 3001 for the overall depth value 3101 and the depth value 3102 and depth value 3103 in the vicinity thereof.
次に、ステップ3002において、背景デプス値近傍探索処理を行う。これは、背景デプス画像データ2362のn番目の画素の画素値である背景デプス値を読み込み、所定の間隔と所定の適合率評価関数に基づいて、背景デプス値の近傍のデプス値と、該デプス値における適合率と、の組を算出する処理である。例えば、図31において、背景デプス値3111とその近傍のデプス値3112及びデプス値3113に対して、各々の適合率の算出をステップ3002において行う。
Next, in
次に、ステップ3003において、規定デプス値探索処理を行う。これは、規定探索デプス集合データ2371に含まれるデプス値に対して、所定の適合率評価関数に基づいて適合率を求める処理である。 Next, in step 3003, a prescribed depth value search process is performed. This is a process for obtaining the matching rate based on a predetermined matching rate evaluation function with respect to the depth value included in the prescribed search depth set data 2371.
次に、ステップ3004において、最適デプス値選択処理を行う。これは、ステップ3001及びステップ3002及びステップ3003において処理を行ったデプス値のうち、適合率が最も高いデプス値を選択し、全体デプス画像データ2361のn番目の画素の画素値として設定する処理である。結果として、デプス集合データ3121に含まれるデプス値のそれぞれに対して、所定の適合率評価関数に基づいて適合率を求めた上で、適合率が最も高いデプス値を選択したことと等価な処理となる。
Next, in
ステップ3004の処理が終了した後、ステップ3005において画素値優先デプス決定処理を終了する。
After the processing of
図32は、本実施例のシステムにおける背景デプス画像データ更新処理のフローチャートである。 FIG. 32 is a flowchart of background depth image data update processing in the system of the present embodiment.
ステップ3200において背景デプス画像データ更新処理が開始されると、まず、ステップ3201において、処理すべき画素のシリアル番号であるnを0に初期化する。 When the background depth image data update process is started in step 3200, first, in step 3201, n, which is the serial number of the pixel to be processed, is initialized to zero.
次に、ステップ3202において、全体デプス画像データ2361のn番目の画素の画素値V0を読み込み、続いてステップ3203において背景デプス画像データ2362のn番目の画素の画素値V1を読み込む。
Next, in
次に、ステップ3204において、V0とV1の値の比較を行い、V0の方が大きいと判定された場合には、ステップ3205に進んで背景デプス画像データ2362のn番目の画素の画素値をV0に設定する。 Next, in step 3204, the values of V0 and V1 are compared. If it is determined that V0 is larger, the process proceeds to step 3205, and the pixel value of the nth pixel of the background depth image data 2362 is set to V0. Set to.
以上の処理が終了した後、ステップ3206において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ3207において、背景デプス画像データ2362中のすべての画素について処理が終了したか否かを判定する。背景デプス画像データ2362中のすべての画素について処理が終了している場合にはステップ3208に進んで背景デプス画像データ更新処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ3202に進んで処理を続ける。 After the above processing is completed, n, which is the serial number of the pixel to be processed, is incremented by 1 in step 3206. Subsequently, in step 3207, whether or not the processing has been completed for all the pixels in the background depth image data 2362 is determined. judge. If the processing has been completed for all the pixels in the background depth image data 2362, the process proceeds to step 3208 to end the background depth image data update processing, and if there are pixels that have not been processed yet, step Proceed to 3202 and continue processing.
背景デプス画像データ2362をこのように更新することによって、背景デプス画像データ2362の各画素は、該画素に関して過去に選択されたデプス値のうちでもっとも値の大きなものを保持することができる。 By updating the background depth image data 2362 in this way, each pixel of the background depth image data 2362 can hold the largest value among the depth values selected in the past with respect to the pixel.
図33は、本実施例のシステムにおける左面マップ画像データ更新処理のフローチャートである。 FIG. 33 is a flowchart of left map image data update processing in the system of the present embodiment.
ステップ3300において左面マップ画像データ更新処理が開始されると、まず、ステップ3301において、処理すべき画素のシリアル番号であるnを0に初期化する。 When the left map image data update process is started in step 3300, first, in step 3301, n, which is the serial number of the pixel to be processed, is initialized to zero.
次に、ステップ3302において、被写体が変わったと判定される画素か否かを判定する。これは、全体変化画像データ641及び左面変化画像データ642を参照することによって実施すればよい。ステップ3302の判定において「変化なし」と判定された場合には、ステップ3305に進む。
Next, in
ステップ3302の判定において「変化あり」と判定された場合には、ステップ3303において、出力パラメタデータ244と出力画像データ650のn番目の画素位置とで規定される、投影中心位置を基点として画素位置方向を向くような3次元方向に関して、全体デプス画像データ2361上のデプス値から三次元空間上での位置Pを決定する。
If it is determined in
次に、ステップ3304において、ステップ3303で決定した位置Pと内部パラメタデータ241と外部パラメタ242とから、左面入力画像データ222上の対応する座標値を決定して、左面マップ画像データ612のn番目の画素の画素値として設定する。
以上の処理を終了した後、ステップ3305において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ3306において、左面マップ画像データ612中のすべての画素について処理が終了したか否かを判定する。左面マップ画像データ612中のすべての画素について処理が終了している場合にはステップ3307に進んで左面マップ画像データ更新処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ3302に進んで処理を続ける。
Next, in step 3304, the corresponding coordinate value on the left side input image data 222 is determined from the position P determined in step 3303, the
After the above processing is completed, n, which is the serial number of the pixel to be processed, is incremented by 1 in
以上、本実施例によれば、実施例1のシステムに対して、より単純な処理の組み合わせによって中間データを更新することが可能である。 As described above, according to the present embodiment, it is possible to update the intermediate data by a simpler combination of processes with respect to the system of the first embodiment.
以下、図34と図35を用いて、第3の実施の形態について説明する。 Hereinafter, the third embodiment will be described with reference to FIGS. 34 and 35. FIG.
本実施例は、実施例2に記載の例に対して、移動体の検出を行うことでデプス値の探索を効率的かつ頑健に行えるようにした例である。 The present embodiment is an example in which a depth value search can be efficiently and robustly performed by detecting a moving object, compared to the example described in the second embodiment.
なお本実施例におけるシステムでは、実施例2のシステム構成において、中間データ記憶部2360の代わりに、図34及び図35で説明するデータをさらに格納できるようにした中間データ記憶部3460を備えるように構成する。
Note that the system according to the present embodiment includes an intermediate data storage unit 3460 that can further store data described with reference to FIGS. 34 and 35 in place of the intermediate
図34は、本実施例のシステムにおける全体デプス画像データ更新処理のフローチャートである。図34において、図29と同じ符号は、図29と同じ処理を表す。 FIG. 34 is a flowchart of the entire depth image data update process in the system of this embodiment. 34, the same reference numerals as those in FIG. 29 represent the same processes as those in FIG.
図34の全体デプス画像データ更新処理と、図29の全体デプス画像データ更新処理との違いは、ステップ3401、ステップ3402、ステップ3403、ステップ3404である。
The differences between the entire depth image data update process of FIG. 34 and the entire depth image data update process of FIG. 29 are step 3401,
ステップ3401の全体デプス画像データ複製処理は、全体デプス画像データ2361を複製して、複製全体デプス画像データ3410を生成する処理である。生成した複製全体デプス画像データ3410は、中間データ記憶部3460に格納する。全体デプス画像データ複製処理は、図35で説明するフロー優先デプス決定処理において、処理している画素位置以外の位置における全体デプス画像データ中の画素値が必要となるため、全体デプス画像データ2361が画素毎の処理によって更新されてしまう前に、あらかじめ前の時刻におけるデータを保存しておくための処理である。 The entire depth image data duplicating process in step 3401 is a process of duplicating the entire depth image data 2361 to generate duplicate entire depth image data 3410. The generated entire copy depth image data 3410 is stored in the intermediate data storage unit 3460. In the overall depth image data duplication processing, since the pixel value in the overall depth image data at a position other than the pixel position being processed is required in the flow priority depth determination processing described with reference to FIG. This is a process for preliminarily storing data at the previous time before being updated by the process for each pixel.
ステップ3402のオプティカルフロー推定処理は、時刻(T−1)に撮影した画像データと、時刻Tに撮影した画像データとから、どの画素に写っていた被写体がどの画素に写るようになったかを推定する処理であり、公知の技術を用いて実施することが可能である。本実施例に適用する場合の具体的な入力データとしては、時刻(T−1)に撮影した画像データとして全体参照画像データ631を、時刻Tに撮影した画像データとして全体変換画像データ621を用いる。該オプティカルフロー推定処理の結果は、フローの信頼度と移動元の座標値との組を画素値として持つ、オプティカルフロー画像データ3420として、中間データ記憶部3460に記憶しておく。
The optical flow estimation processing in
ステップ3403では、オプティカルフロー画像データ3420の該当画素の画素値を読み込み、所定の閾値に基づいて、該画素のフローが信頼できるか否かを判定する。信頼できると判定した場合には、ステップ3404でフロー優先デプス決定処理を行い、信頼できないと判定した場合には、実施例2の場合と同様にステップ2902に進んで画素値優先デプス決定処理を行う。フロー優先デプス決定処理の詳細については、図35を用いて説明する。 In step 3403, the pixel value of the corresponding pixel in the optical flow image data 3420 is read, and it is determined whether or not the flow of the pixel is reliable based on a predetermined threshold value. If it is determined to be reliable, a flow priority depth determination process is performed in step 3404. If it is determined to be unreliable, the process proceeds to step 2902 and the pixel value priority depth determination process is performed as in the second embodiment. . Details of the flow priority depth determination process will be described with reference to FIG.
図35は、本実施例のシステムにおけるフロー優先デプス決定処理のフローチャートである。 FIG. 35 is a flowchart of flow priority depth determination processing in the system of the present embodiment.
ステップ3500でフロー優先デプス決定処理が開始されると、まず、ステップ3501において移動元デプス値近傍探索処理を行う。移動元デプス値近傍探索処理とは、次のような処理である。
When the flow priority depth determination process is started in
まず、オプティカルフロー画像データ3420から現在処理を行っている画素の移動元座標値を読み込む。次に、複製全体デプス画像データ3410の該移動元座標値に対応する画素値を読み込んで、移動元デプス値とする。その上で、所定の間隔と所定の適合率評価関数に基づいて、移動元デプス値とその前後のデプス値に対して適合率を算出し、デプス値と適合率の組を中間データ記憶部3460に格納する。 First, the movement source coordinate value of the pixel currently being processed is read from the optical flow image data 3420. Next, the pixel value corresponding to the movement source coordinate value of the entire copy depth image data 3410 is read and set as the movement source depth value. Then, based on a predetermined interval and a predetermined precision evaluation function, the precision is calculated for the movement source depth value and the depth values before and after the movement source depth value, and the combination of the depth value and the precision ratio is an intermediate data storage unit 3460. To store.
続いてステップ3502において、最適デプス値選択処理を行う。これは、ステップ3501において格納されたデプス値と適合率の組から、適合率がもっとも高い組を選択する処理である。このとき選択された組のデプス値をフロー最適デプス値3510、このとき選択された組の適合率をフロー最適適合率3511とする。 Subsequently, at step 3502, an optimum depth value selection process is performed. This is a process of selecting a pair having the highest precision from the combinations of the depth value and precision that are stored in step 3501. The depth value of the set selected at this time is set as the flow optimum depth value 3510, and the matching rate of the set selected at this time is set as the flow optimum matching rate 3511.
ステップ3503において、フロー最適適合率3511が適合率として十分か否かを、所定の閾値に基づいて判定する。 In step 3503, it is determined based on a predetermined threshold whether or not the flow optimum matching rate 3511 is sufficient as the matching rate.
ステップ3503において適合率が十分であると判定された場合には、ステップ3504において、フロー最適デプス値3510を全体デプス画像データ2361の現在処理を行っている画素の画素値として書き込む。 If it is determined in step 3503 that the matching rate is sufficient, then in step 3504, the flow optimum depth value 3510 is written as the pixel value of the pixel currently being processed in the entire depth image data 2361.
ステップ3503において適合率が十分でないと判定された場合には、ステップ3505において候補付き画素値優先デプス決定処理を行う。候補付き画素値優先デプス決定処理とは、図30で説明した画素値優先デプス決定処理のステップ3004において、最適デプス値の選択肢として前記フロー最適デプス値3510を加え、選択の際の基準となる適合率としては前記フロー最適適合率3511を用いたものである。
If it is determined in step 3503 that the matching rate is not sufficient, candidate pixel value priority depth determination processing is performed in
以上の処理を終了した後、ステップ3506においてフロー優先デプス決定処理を終了する。 After the above processing is completed, the flow priority depth determination processing is ended in step 3506.
以上、本実施例によれば、実施例2に記載の例に対して、デプス値の探索を、より効率的かつ頑健に行うことができる。 As described above, according to the present embodiment, the depth value search can be performed more efficiently and robustly with respect to the example described in the second embodiment.
以下、図36〜図39を用いて、第4の実施の形態について説明する。 Hereinafter, the fourth embodiment will be described with reference to FIGS. 36 to 39.
本実施例は、実施例2に記載の例に対して、さらに、ユーザが指定した投影中心から撮影した画像データに擬似的に近くなるような出力画像データを生成するようにしたものである。これは例えば、遠隔会議システムなどにおいて、表示装置の画角に合わせて撮影した画像データを歪ませて表示するような場合に好適な例である。 In the present embodiment, output image data that is close to the image data photographed from the projection center designated by the user is generated in addition to the example described in the second embodiment. This is an example suitable for a case where, for example, in a teleconference system or the like, image data captured in accordance with the angle of view of the display device is distorted and displayed.
図36は、本実施例のシステムのシステム構成図である。図36において、図23と同じ符号は、図23と同じものを表す。 FIG. 36 is a system configuration diagram of the system of this embodiment. 36, the same reference numerals as those in FIG. 23 denote the same elements as those in FIG.
本実施例の画像合成装置3600は、画像合成装置2300に対して、パラメタ記憶部3640を、所定の映像生成視点データ3645を格納できるように構成し、中間データ記憶部3660を、環境再構築データ3680を格納できるように構成した上で、画像合成処理の処理内容を変更した画像処理部3630を備えるように構成した。
In the
映像生成視点データは、画像合成装置3600の出力画像データの生成方法を定義するデータである。投影中心位置を全体撮影装置201の投影中心位置に等しくとり、座標系に関しても全体撮影装置201の座標系と等しくとった場合の、投影方法や画角などのパラメタを格納する。
The video generation viewpoint data is data that defines a method for generating output image data of the
また、環境再構築データ3680は、本システムで撮影している空間領域の、どこにどのような色のものがあるかを表現したデータであり、具体的には、各頂点が3次元座標を有するような三角形メッシュデータと、各頂点の色情報とで構成したデータである。 The environment reconstruction data 3680 is data that expresses where and what color of the space area photographed by this system exists. Specifically, each vertex has three-dimensional coordinates. Such data is composed of triangular mesh data and color information of each vertex.
環境再構築データ3680の生成方法に関しては図39を用いて、また、変更後の画像合成処理の処理内容に関しては、図37と図38を用いて説明する。 The method for generating the environment reconstruction data 3680 will be described with reference to FIG. 39, and the contents of the image composition processing after the change will be described with reference to FIGS.
図37は、本実施例のシステムにおける画像合成処理のフローチャートである。図37において、図10と同じ符号は、図10と同じ処理を表す。 FIG. 37 is a flowchart of image composition processing in the system of this embodiment. 37, the same reference numerals as those in FIG. 10 represent the same processes as those in FIG.
本実施例の画像合成処理は、図10で説明した画像合成処理に対して、合成画像データ出力処理1010の前に出力画像データ更新処理3701を加えただけのものである。出力画像データ更新処理3701の詳細は、図38を用いて説明する。
The image composition process of this embodiment is obtained by adding an output image data update process 3701 before the composite image
図38は、本実施例のシステムにおける出力画像データ更新処理のフローチャートである。 FIG. 38 is a flowchart of output image data update processing in the system of this embodiment.
ステップ3800で出力画像データ更新処理が開始されると、ステップ3801において全体デプス画像データ2361を読み込み、続いてステップ3802において出力画像データ650を読み込む。
When the output image data update process is started in step 3800, the entire depth image data 2361 is read in step 3801, and then the
次に、ステップ3803において、全体デプス画像データ2361と出力画像データ650とに基づいて、環境再構築データ3680を生成する。環境再構築データ3680を生成するための具体的な処理については、図39を用いて説明する。
Next, in Step 3803, environment reconstruction data 3680 is generated based on the entire depth image data 2361 and the
次に、ステップ3804において、映像生成視点データ3645を読み込む。 Next, in step 3804, the video generation viewpoint data 3645 is read.
次に、ステップ3805において、出力画像データ650の再描画を行う。映像生成視点データ3645と環境再構築データ3680とから透視変換の原理によって出力画像データ650を生成しなおせばよく、公知の技術によって実施することができる。
In
以上の処理を終了した後、ステップ3806において、出力画像データ更新処理を終了する。 After finishing the above processing, in step 3806, the output image data update processing is finished.
図39は、本実施例のシステムにおける環境再構築データの生成方法を説明するための図である。 FIG. 39 is a diagram for explaining a method for generating environment reconstruction data in the system according to the present embodiment.
環境再構築データ3680の各頂点には、出力画像データ650の各画素を割り当てる。各頂点の3次元座標値に関しては、出力パラメタデータ244と出力画像データ650の各々の画素位置とで規定される、投影中心位置を基点として画素位置方向を向くような3次元方向に関して、全体デプス画像データ2361上の対応する画素に格納されているデプス値に基づいて決定すればよい。また、三角形メッシュデータとするための頂点同士の繋ぎ方に関しては、図39に表されるように、各画素によって作られる単位格子に対して、対角線を挿入する向きをあらかじめ決めておき、その向きにしたがって規則的に繋いでいくことで実施すればよい。
Each pixel of the
具体的には、頂点間を正方格子状に繋いだ上で、頂点3900、頂点3901、頂点3902、頂点3903に対して、頂点3900と頂点3903、あるいは、頂点3901と頂点3902、のいずれを繋ぐかの規則を決めておき、該規則にしたがって規則的に繋いでいく。図39は頂点3900と頂点3903とを対角線3910によって繋いだ例である。なお、各頂点の色情報に関しては、出力画像データ650の該当画素の画素値をそのまま使用すればよい。
Specifically, after connecting the vertices in a square lattice shape, the
以上、本実施例によれば、見え隠れの違いや指向性を持つ光学特性に関する違いはあるものの、実施例2に記載の例に対して、さらに、ユーザが指定した投影中心から撮影した画像データに擬似的に近くなるような出力画像データを生成することができる。 As described above, according to the present embodiment, although there are differences in visibility and optical characteristics having directivity, the image data captured from the projection center designated by the user is further added to the example described in the second embodiment. It is possible to generate output image data that is close to pseudo.
なお、本実施例と公知技術との違いは、複数の撮影装置の投影中心が異なることによる画質の劣化は発生していない点である。 Note that the difference between the present embodiment and the publicly known technique is that the image quality is not deteriorated due to different projection centers of a plurality of photographing apparatuses.
以下、図40〜図44を用いて、第5の実施の形態について説明する。 Hereinafter, the fifth embodiment will be described with reference to FIGS. 40 to 44.
本実施例は、実施例1に記載の例に対して、さらに、左面撮影装置と右面撮影装置の撮影範囲が重複することができるようにした例であり、出力画像データ中の広い領域を高精細な画像データを接続して表現する場合に適した例である。 The present embodiment is an example in which the shooting ranges of the left and right photographing apparatuses can be overlapped with the example described in the first embodiment, and a wide area in the output image data is increased. This is an example suitable for connecting and expressing fine image data.
図40は、本実施例のシステムにおける各撮影装置の撮影範囲と出力画像の生成範囲との関係を表す図である。 FIG. 40 is a diagram illustrating the relationship between the imaging range of each imaging apparatus and the output image generation range in the system of the present embodiment.
図40において、撮影範囲4000は全体撮影装置201の撮影範囲であり、撮影範囲4010は左面撮影装置202の撮影範囲であり、撮影範囲4011は右面撮影装置203の撮影範囲である。また、出力画像生成範囲4020は出力画像の生成範囲である。図40は、本実施の形態を適用する場合の条件について説明するためのものであり、各々の範囲の実際の形状は図40に記載のものと大きく異なっていてもよい。
In FIG. 40, an
本実施例は、撮影範囲4000が出力画像生成範囲4020を含んでいる場合について適用するに好適な例である。撮影範囲4010と撮影範囲4011とに共通して含まれる範囲がある場合でも対応が可能であるようにした例ではあるが、撮影範囲4010と撮影範囲4011とに共通して含まれる範囲が存在することは、必ずしも本実施の形態に必要な条件ではない。
The present embodiment is an example suitable for application to a case where the
図41は、本実施例のシステムにおける合成マップ画像データ616の画素値のデータ形式を説明する図である。 FIG. 41 is a diagram for explaining the data format of the pixel value of the composite map image data 616 in the system of the present embodiment.
本実施例においては、データ形式720の代わりに、データ形式4120を用いる。データ形式4120は、全体サンプリング用データ4100と、左面サンプリング用データ4101と、右面サンプリング用データ4012とで構成したものである。
In this embodiment, a data format 4120 is used instead of the
全体サンプリング用データ4100は、重み値WTと、参照元X座標地XTと、参照元Y座標値YTとで構成する。重み値WTと参照元X座標値XTと参照元Y座標値YTはいずれも実数値であり、参照元X座標地XTと参照元Y座標値YTは全体入力画像データ221上の座標値を表す。
The
同様に、左面サンプリング用データ4101は、重み値WLと、参照元X座標値XLと、参照元Y座標値YLとで構成する。重み値WLと参照元X座標値XLと参照元Y座標値YLはいずれも実数値であり、参照元X座標値XLと参照元Y座標値YLは左面入力画像データ222上の座標値を表す。 Similarly, the left side sampling data 4101 includes a weight value WL, a reference source X coordinate value XL, and a reference source Y coordinate value YL. The weight value WL, the reference source X coordinate value XL, and the reference source Y coordinate value YL are all real values, and the reference source X coordinate value XL and the reference source Y coordinate value YL represent the coordinate values on the left side input image data 222. .
同様に、右面サンプリング用データ4102は、重み値WRと、参照元X座標値XRと、参照元Y座標値YRとで構成する。重み値WRと参照元X座標値XRと参照元Y座標値YRはいずれも実数値であり、参照元X座標値XRと参照元Y座標値YRは右面入力画像データ223上の座標値を表す。
Similarly, the right
図42は、本実施例のシステムにおける重み値の算出方法を説明するための図である。 FIG. 42 is a diagram for explaining a weight value calculation method in the system according to the present embodiment.
図42を用いて、参照元座標値が入力画像データ4210の座標値4220である場合の重みの算出方法を説明する。まず、X方向の算出基準距離DXを算出する。これは、図42のX方向距離DX1とX方向距離DX2のうち小さい方の値である。次に、同様に、Y方向の算出基準距離DYを算出する。すなわち、図42のY方向距離DY1とY方向距離DY2のうち小さい方の値とする。X方向の算出基準距離DX及びY方向の算出基準距離DYを算出した上で、重み値WをDXとDYの積として決定する。 A weight calculation method when the reference source coordinate value is the coordinate value 4220 of the input image data 4210 will be described with reference to FIG. First, a calculation reference distance DX in the X direction is calculated. This is the smaller value of the X-direction distance DX1 and the X-direction distance DX2 in FIG. Next, similarly, a calculation reference distance DY in the Y direction is calculated. That is, the smaller one of the Y-direction distance DY1 and the Y-direction distance DY2 in FIG. After calculating the calculation reference distance DX in the X direction and the calculation reference distance DY in the Y direction, the weight value W is determined as the product of DX and DY.
図43は、本実施例のシステムにおける採用画素決定処理のフローチャートである。
ステップ4300で採用画素決定処理が開始されると、まず、ステップ4301においてWTとWLとWRの値を初期化する。具体的には、「WT=1」とし、WLとWRの値に関しては、合成マップ画像データ616に格納されている参照元X座標値と参照元Y座標値とに基づいて、図42で説明した方法によって初期化する。
FIG. 43 is a flowchart of adopted pixel determination processing in the system of this embodiment.
When the adopted pixel determination process is started in step 4300, first, in step 4301, the values of WT, WL, and WR are initialized. Specifically, “WT = 1” is set, and the values of WL and WR are described with reference to FIG. 42 based on the reference source X coordinate value and the reference source Y coordinate value stored in the composite map image data 616. Initialize by the method you did.
次に、ステップ4302において、所定の閾値に基づいて、VTとVLの差が許容範囲内か否かを判定し、許容範囲外と判定された場合には、ステップ4303においてWLの値を0とする。 Next, in Step 4302, it is determined whether or not the difference between VT and VL is within the allowable range based on a predetermined threshold. If it is determined that the difference is outside the allowable range, the value of WL is set to 0 in Step 4303. To do.
次に、ステップ4304において、所定の閾値に基づいて、VTとVRの差が許容範囲内か否かを判定し、許容範囲外と判定された場合には、ステップ4305においてWRの値を0とする。
Next, in step 4304, based on a predetermined threshold value, it is determined whether or not the difference between VT and VR is within the allowable range. If it is determined that the difference is outside the allowable range, the value of WR is set to 0 in
次に、ステップ4306において、「WL+WR>0」、すなわち、WLとWRの値の少なくとも一方は0でないか否かを判定する。WLとWRの値の少なくとも一方が0でない場合には、ステップ4307でWTの値を0とする。 Next, in step 4306, it is determined whether or not “WL + WR> 0”, that is, at least one of the values of WL and WR is not zero. If at least one of the values of WL and WR is not 0, in step 4307, the value of WT is set to 0.
続いて、ステップ4308でWTとWLとWRの値を正規化する処理を行う。具体的には、WTとWLとWRのそれぞれを、それらの値の総和(WT+WL+WR)で割ることにより、WTとWLとWRの値の和が1となるようにする。
Subsequently, in
以上の処理が終了した後、ステップ4309において採用画素決定処理を終了する。
After the above processing is completed, the adopted pixel determination processing is ended in
図44は、本実施例のシステムにおける出力画像データ生成処理のフローチャートである。 FIG. 44 is a flowchart of output image data generation processing in the system of this embodiment.
ステップ4400で出力画像データ生成処理が開始されると、まず、ステップ4401において、処理すべき画素のシリアル番号であるnを0に初期化する。
When the output image data generation process is started in
次に、ステップ4402において、合成マップ画像データ616からn番目の画素の画素値を読み込む。 Next, in step 4402, the pixel value of the nth pixel is read from the composite map image data 616.
次に、ステップ4403において、ステップ4402で読み込んだデータに基づいて、各入力画像データの画素値の重み付きの和を取ることにより、出力画像データ650のn番目の画素の画素値を決定する。
Next, in step 4403, the pixel value of the nth pixel of the
次に、ステップ4404において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ4405において、出力画像データ650中のすべての画素について処理が終了したか否かを判定する。出力画像データ650中のすべての画素について処理が終了している場合にはステップ4406に進んで出力画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ4402に進んで処理を続ける。
In step 4404, n, which is the serial number of the pixel to be processed, is incremented by 1. Subsequently, in
以上、本実施例によれば、実施例1に記載の例に対して、さらに、左面撮影装置と右面撮影装置の撮影範囲が重複する場合にも、適用することができる。 As described above, according to the present embodiment, the present invention can be applied to the example described in the first embodiment even when the shooting ranges of the left and right imaging apparatuses overlap.
以下、図45〜図49を用いて、第6の実施の形態について説明する。 Hereinafter, the sixth embodiment will be described with reference to FIGS. 45 to 49.
本実施例は、実施例5に記載の例に対して、さらに、全体撮影装置の撮影範囲に課する条件を、左面撮影装置と右面撮影装置が重複して撮影している領域だけを含んでいればよい、という条件に緩めた例であり、遠隔会議システムなどで広視野角の映像を得たい場合に好適な例である。 In this embodiment, in addition to the example described in the fifth embodiment, the conditions imposed on the shooting range of the whole shooting apparatus include only the area where the left shooting apparatus and the right shooting apparatus are shooting in an overlapping manner. This is an example that is relaxed under the condition that it is only necessary to have a wide viewing angle in a remote conference system or the like.
図45は本実施例のシステムにおける各撮影装置の撮影範囲を説明するための状況説明図である。図45において、図8と同じ符号は、図8と同じものを表す。 FIG. 45 is a situation explanatory diagram for explaining a photographing range of each photographing apparatus in the system of the present embodiment. 45, the same reference numerals as those in FIG. 8 represent the same elements as those in FIG.
本実施例は、図8の場合と異なり、図45にあるように、全体撮影装置201の画角が十分に広角ではなく、表示したい領域全体を表示するためには、左面撮影装置202が単独で撮影している領域、または、右面撮影装置203が単独で撮影している領域、が必要となる例である。
Unlike the case of FIG. 8, the present embodiment differs from the case of FIG. 8 in that the angle of view of the whole
図46は本実施例のシステムにおける各撮影装置の撮影範囲と出力画像の生成範囲との関係を表す図である。 FIG. 46 is a diagram illustrating the relationship between the imaging range of each imaging apparatus and the output image generation range in the system of the present embodiment.
図46において、撮影範囲4600は全体撮影装置201の撮影範囲であり、撮影範囲4610は左面撮影装置202の撮影範囲であり、撮影範囲4611は右面撮影装置203の撮影範囲である。また、出力画像生成範囲4620は出力画像の生成範囲である。図46は、本実施の形態を適用する場合の条件について説明するためのものであり、各々の範囲の実際の形状は図46に記載のものと大きく異なっていてもよい。
In FIG. 46, an
本実施例は、出力画像生成範囲4620の一部が撮影範囲4600の外側にはみ出している場合について適用するに好適な例である。撮影範囲4610と撮影範囲4611とに共通して含まれる範囲がある場合でも対応が可能であるようにした例ではあるが、撮影範囲4610と撮影範囲4611とに共通して含まれる範囲が存在することは、必ずしも本実施の形態に必要な条件ではない。
This embodiment is an example suitable for application to a case where a part of the output image generation range 4620 protrudes outside the
本実施例の適用に関しては、出力画像生成範囲4620の全体が撮影範囲4600と撮影範囲4610と撮影範囲4611の和集合に含まれることが必要条件となる。また、撮影範囲4610と撮影範囲4611と出力画像生成範囲4620とに共通して含まれる範囲が存在する場合には、該範囲を撮影範囲4600が含んでいることが望ましい。
Regarding the application of this embodiment, it is a necessary condition that the entire output image generation range 4620 is included in the union of the
図47は本実施例のシステムにおいて被写体位置による不整合の発生の仕方の違いを説明するための図である。 FIG. 47 is a diagram for explaining a difference in how inconsistencies occur depending on the subject position in the system of the present embodiment.
図47において、視点位置4700は全体撮影装置201が画像データを生成する際の投影中心となる位置、すなわち、出力画像データ生成時の投影中心となる位置であり、視点位置4710は左面撮影装置202が画像データを生成する際の投影中心となる位置であり、視点位置4711は右面撮影装置203が画像データを生成する際の投影中心となる位置である。
In FIG. 47, a
被写体4730と被写体4731は、視点位置4700を中心とする円4720上に乗っている被写体、すなわち、視点位置4700に関して等距離にある被写体である。この2つの被写体に対して、視点位置4710から見た場合と視点位置4711から見た場合の見える方向の差は、被写体4730に関しては角度4740となり、被写体4731に関しては角度4741となる。ここで、角度4740の方が角度4741よりも大きいことは明らかである。
A subject 4730 and a subject 4731 are subjects on a circle 4720 centered on the
この例から、本撮影システムの撮影領域の中央部に比べ、周辺部の方が不整合が目立ちにくいということが言える。本実施例は、この性質を利用し、中央部に関しては1つの撮影装置で撮影した画像データと整合性のある画像データを生成し、周辺部に関しては、中央部と滑らかに繋がるように別の撮影装置で撮影した画像データを接続しようというものである。本実施例においては、本質的に、1つの撮影装置で撮影した画像データと整合する画像データを撮像することは不可能であるが、そのような画像データに比べて見た目では遜色のない出力画像データを生成する。 From this example, it can be said that the inconsistency is less noticeable in the peripheral portion than in the central portion of the photographing region of the photographing system. The present embodiment utilizes this property, generates image data that is consistent with the image data captured by one photographing apparatus for the central portion, and separates the peripheral portion so as to be smoothly connected to the central portion. This is an attempt to connect image data photographed by a photographing apparatus. In the present embodiment, it is essentially impossible to capture image data that matches image data captured by a single imaging device, but an output image that is visually inferior to such image data. Generate data.
図48は本実施例のシステムにおける採用画素決定処理のフローチャートである。図48において、図43と同じ符号は、図43と同じものを表す。 FIG. 48 is a flowchart of adopted pixel determination processing in the system of this embodiment. 48, the same reference numerals as those in FIG. 43 denote the same elements as those in FIG.
図48の採用画素決定処理において、図43の採用画素決定処理と異なるのは、ステップ4801と、ステップ4802と、ステップ4803と、ステップ4804である。以下、これらのステップの詳細について説明する。
The adopted pixel determination process in FIG. 48 differs from the adopted pixel determination process in FIG. 43 in
ステップ4801における初期化処理の違いは、WTの初期化処理である。図43のステップ4301で説明した初期化処理においては、「WT=1」となるように初期化を行ったが、本実施例のステップ4801においては、図49で説明するように参照元座標値に依存した初期化を行う。なお、WLとWRの初期化については、図43のステップ4301と同じ処理を行う。
The difference in the initialization process in
ステップ4802は、図43のステップ4303に対応する処理である。図43のステップ4303においては、WLの値を0としていたが、本実施例のステップ4802においてはWLの値をW0とする。ここでW0は、WTが1である場合には結果に影響しないような非常に小さな数である。具体的には、出力画像データ650の画素値の取り得る範囲が0から255である場合には、例えばW0の値として1/512を採用すればよい。
Step 4802 is processing corresponding to step 4303 in FIG. In step 4303 of FIG. 43, the value of WL is set to 0. However, in step 4802 of this embodiment, the value of WL is set to W0. Here, W0 is a very small number that does not affect the result when WT is 1. Specifically, when the possible range of the pixel value of the
これは、出力画像データ650の画素値が離散値であることを利用したものであり、このような処理とするのは、全体サンプリング用データ4100中の参照元座標値が全体入力画像データ221の端に近づくにしたがって、不整合が発生した場合においても、左面入力画像データ222または右面入力画像データ223の画素値を優先して出力画像データ650を生成するようにするためである。これにより、全体入力画像データ221に写っている領域から、全体入力画像データ221に写っておらず、したがって左面入力画像データ222または右面入力画像データ223の画素値のみから出力画像データ650の画素値を決定しなければならない領域に、滑らかに接続ができるようにする。
This is based on the fact that the pixel value of the
同様に、ステップ4803は、図43のステップ4305に対応する処理である。図43のステップ4305においては、WRの値を0としていたが、本実施例のステップ4803においてはWRの値をW0とする。
Similarly, Step 4803 is processing corresponding to Step 4305 in FIG. In
ステップ4804は、図43のステップ4306に対応する処理である。図43のステップ4306においては「WL+WR>0」か否かの判定を行っていたが、本実施例のステップ4804では「WL+WR≧1」か否かの判定を行う。これは、全体参照画像データ631の画素値と左面参照画像データ632の画素値、あるいは、全体参照画像データ631の画素値と右面参照画像データ633の画素値との間で、整合性がある場合にのみWT=0とし、その他の場合には、全体入力画像データ221の画素値と左面入力画像データ222の画素値と右面入力画像データ223の画素値とを重みを考慮してブレンドすることによって出力画像データ650の画素値を決定するようにするためである。
Step 4804 is processing corresponding to step 4306 in FIG. In step 4306 of FIG. 43, it is determined whether or not “WL + WR> 0”, but in step 4804 of this embodiment, it is determined whether or not “WL + WR ≧ 1”. This is because there is consistency between the pixel value of the overall reference image data 631 and the pixel value of the left reference image data 632, or between the pixel value of the overall reference image data 631 and the pixel value of the right reference image data 633. In other cases, the pixel value of the entire input image data 221, the pixel value of the left surface input image data 222, and the pixel value of the right surface input image data 223 are blended in consideration of the weight. This is because the pixel value of the
図49は本実施例のシステムにおける全体サンプリング用データ4100の重み値の決定方法を説明するための図である。図49において、図46と同じ符号は、図46と同じものを表す。
FIG. 49 is a diagram for explaining a method of determining the weight value of the
WTの初期値は、少なくとも撮影範囲4610と撮影範囲4611と出力画像生成範囲4620とに共通して含まれる範囲においては「WT=1」とし、そこから撮影範囲4600の境界に近づくにしたがって「WT=0」となるように連続に変化させる。
The initial value of WT is “WT = 1” at least in a range included in common with the
具体的には、図49の断面4900におけるWTの初期値を決定するための関数として、関数4910を用いる。関数4910は、撮影範囲4610と撮影範囲4611と出力画像生成範囲4620とに共通して含まれる範囲を包含する領域4921では「WT=1」であり、それ以外の領域となる領域4920及び領域4022では撮影範囲4600の境界に近づくにしたがって「WT=0」となるような連続関数である。
Specifically, a function 4910 is used as a function for determining the initial value of WT in the
以上、本実施例によれば、実施例5に記載の例に対して、さらに、全体撮影装置の撮影範囲に課する条件を、左面撮影装置と右面撮影装置が重複して撮影している領域だけを含んでいればよい、という条件に緩めた場合にも、適用することができる。 As described above, according to the present embodiment, in addition to the example described in the fifth embodiment, an area in which the left side photographing device and the right side photographing device are photographing the conditions imposed on the photographing range of the whole photographing device. It can be applied even when relaxed to the condition that it only has to be included.
以下、図50〜図55を用いて、第7の実施の形態について説明する。 Hereinafter, the seventh embodiment will be described with reference to FIGS. 50 to 55.
本実施例は、実施例2に記載の例に対して、さらに、全体撮影装置以外の撮影装置の焦点距離や姿勢の変更ができるようにした例である。これは例えば、遠隔会議システムにおいて、音声認識等によって発言者の位置が特定できる場合に、該発言者が中央に写るように姿勢を制御した上で、該発言者をズームアップして撮影し、該発言者の表情までを細やかに表現する、といったアプリケーションに適用するのに好適な例である。 The present embodiment is an example in which the focal length and posture of an imaging apparatus other than the whole imaging apparatus can be changed with respect to the example described in the second embodiment. For example, in a remote conference system, when the position of the speaker can be specified by voice recognition or the like, the posture is controlled so that the speaker is reflected in the center, and then the speaker is zoomed in and photographed. This is an example suitable for application to an application that expresses the expression of the speaker in detail.
図50は本実施例のシステムのシステム構成図である。図50において、図23と同じ符号は、図23と同じものを表す。 FIG. 50 is a system configuration diagram of the system of this embodiment. 50, the same reference numerals as those in FIG. 23 denote the same elements as those in FIG.
本実施例においては、左面撮影装置5020は、姿勢制御部5021と画角制御部5022とを備え、左面撮影装置202の機能に加え、撮影装置制御装置5010からの制御信号によって撮影姿勢及び撮影画角(あるいは焦点距離)を変更する機能を備える。同様に、右面撮影装置5030は、姿勢制御部5031と画角制御部5032とを備え、左面撮影装置203の機能に加え、撮影装置制御装置5010からの制御信号によって撮影姿勢及び撮影画角を変更する機能を備える。
In the present embodiment, the left
撮影装置制御装置5010は、外部からの制御信号によって左面撮影装置5020及び右面撮影装置5030の撮影姿勢や撮影画角を制御し、変更後の左面撮影装置5020及び右面撮影装置5030の撮影姿勢や撮影画角の情報を、画像合成装置5000に送信する機能を持つ。
The photographing
本実施例における画像合成装置5000は、全体制御部5080を、全体入力状態フラグ281、左面入力状態フラグ282、右面入力状態フラグ283、状態モードフラグ284、デフォルト画像データ285、に加え、動的内部パラメタデータ5081及び動的外部パラメタデータ5082を格納できるように構成し、撮影装置制御装置501より送信された、左面撮影装置5020及び右面撮影装置5030の撮影画角の情報を動的内部パラメタデータ5081に、撮影姿勢の情報を動的外部パラメタデータ5082に、それぞれ格納するように構成する。
The
また、画像処理部5040は、画像処理部2330に対して、図53を用いて説明する左面中間データ更新処理と、それに対応する右面中間データ更新処理とをさらに処理できるように構成し、また、中間データ更新処理5101の処理内容の一部を変更したものである。具体的には、採用画素決定処理を図54を用いて説明するものに変更し、また、出力画像データ生成処理2007の終了後に、図55を用いて説明する出力画像データ更新処理を実行するようにした。
Further, the
図51は、本実施例のシステムにおける画像合成処理のフローチャートである。図51において、図10と同じ符号は、図10と同じ処理を表す。 FIG. 51 is a flowchart of image composition processing in the system of this embodiment. 51, the same reference numerals as those in FIG. 10 represent the same processes as those in FIG.
ステップ5101の中間データ更新処理は、図28で説明した中間データ更新処理に対して、採用画素決定処理を図54を用いて説明するものに変更し、また、出力画像データ生成処理2007の終了後に、図55を用いて説明する出力画像データ更新処理を実行するようにしたものである。
In the intermediate data update process in
また、ステップ5102の撮影パラメタ変更関連処理の詳細については、図52を用いて説明する。
Details of the photographing parameter change related processing in
図52は、本実施例のシステムにおける撮影パラメタ変更関連処理のフローチャートである。 FIG. 52 is a flowchart of the photographing parameter change related process in the system of the present embodiment.
ステップ5200で撮影パラメタ変更関連処理が開始されると、まず、ステップ5201において、左面撮影装置5020の撮影パラメタの変更が完了したか否かを判定する。このとき、左面撮影装置5020の撮影パラメタが変化していない場合には「否」であると判定する。
When the shooting parameter change-related process is started in step 5200, first, in step 5201, it is determined whether or not the shooting parameter change of the left
ステップ5201において左面撮影装置5020の撮影パラメタの変更が完了したと判定された場合には、ステップ5202において左面中間データ更新処理を行う。左面中間データ更新処理の詳細については、図53を用いて説明する。
If it is determined in step 5201 that the change of the imaging parameter of the left
続いて、ステップ5203において、右面撮影装置5030の撮影パラメタの変更が完了したか否かを判定する。このとき、右面撮影装置5030の撮影パラメタが変化していない場合には「否」であると判定する。
Subsequently, in step 5203, it is determined whether or not the change of the shooting parameter of the right
ステップ5203において右面撮影装置5030の撮影パラメタの変更が完了したと判定された場合には、ステップ5204において右面中間データ更新処理を行う。右面中間データ更新処理は、ステップ5202における左面中間データ更新処理と同様の処理によって実施することができる。
If it is determined in step 5203 that the change of the shooting parameters of the right
以上の処理を終了後、ステップ5205において、撮影パラメタ変更関連処理を終了する。 After finishing the above processing, in step 5205, the photographing parameter change related processing is finished.
図53は、本実施例のシステムにおける左面中間データ更新処理のフローチャートである。 FIG. 53 is a flowchart of the left side intermediate data update process in the system of the present embodiment.
ステップ5300で左面中間データ更新処理が開始されると、まず、ステップ5301において内部パラメタデータ241と外部パラメタデータ242を読み込む。
When the left side intermediate data update process is started in step 5300, first, in step 5301, the
次に、ステップ5302において、動的内部パラメタデータ5081及び動的外部パラメタデータ5082を読み込む。 Next, in step 5302, dynamic internal parameter data 5081 and dynamic external parameter data 5082 are read.
次に、ステップ5303において、再マップ可能領域抽出処理を行う。これは、撮影パラメタの変更の前後で共通に撮影されている領域を出力画像データ650の座標上で抽出する処理であり、内部パラメタデータ241と外部パラメタデータ242と出力パラメタデータ244と動的内部パラメタデータ5081と動的外部パラメタデータ5082に基づいて算出されるものである。
Next, in step 5303, a remappable area extraction process is performed. This is a process of extracting a region that is commonly photographed before and after the photographing parameter change on the coordinates of the
次に、ステップ5304において、再マップ可能領域中の画素に関して、中間データ再マップ処理を行う。これは、内部パラメタデータ241と外部パラメタデータ242と出力パラメタデータ244と動的内部パラメタデータ5081と動的外部パラメタデータ5082とを使い、撮影パラメタの変更前の値に基づいてデプス画像データ2360とマップ画像データ610と参照画像データ630を更新する処理である。
Next, in step 5304, intermediate data remapping processing is performed on the pixels in the remappable area. This uses
次に、ステップ5305において、動的内部パラメタデータ5081で内部パラメタデータ241を更新し、続いてステップ5306において、動的外部パラメタデータ5082で外部パラメタデータ242を更新する。
Next, in step 5305, the
次に、ステップ5307において、再マップ可能領域以外の領域に存在する画素に関して、中間データ生成処理を行う。これは、処理すべき画素が限定されていることを除いては、図24で説明した中間データ生成処理と同一の処理である。 Next, in step 5307, intermediate data generation processing is performed for pixels existing in an area other than the remappable area. This is the same process as the intermediate data generation process described with reference to FIG. 24 except that the pixels to be processed are limited.
以上の処理を終了後、ステップ5308において左面中間データ更新処理を終了する。 After finishing the above processing, the left side intermediate data update processing is ended in step 5308.
図54は、本実施例のシステムにおける採用画素決定処理のフローチャートである。
ステップ5400において採用画素決定処理が開始されると、まず、ステップ5401において左面撮影装置5020の撮影パラメタが変更中であるか否かを判定する。左面撮影装置5020の撮影パラメタが変更中でないと判定された場合には、ステップ5402においてVTとVLの差が許容範囲内にあるか否かを判定し、許容範囲内であると判定された場合には、ステップ5403に進み、合成マップ画像データ616のn番目の画素の画素値として、入力データ識別子721には「左面入力画像データ」を設定し、参照元X座標値722には左面マップ画像データ612のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には左面マップ画像データ612のn番目の画素の画素値である参照元Y座標値712を設定した後、ステップ5404に進んで採用画素決定処理を終了する。
FIG. 54 is a flowchart of adopted pixel determination processing in the system of this embodiment.
When the adopted pixel determination process is started in step 5400, first, in
ステップ5401において左面撮影装置5020の撮影パラメタが変更中であると判定された場合、あるいは、ステップ5402においてVTとVLの差が許容範囲内にないと判定された場合には、ステップ5405に進む。
If it is determined in
ステップ5405では、右面撮影装置5030の撮影パラメタが変更中であるか否かを判定する。右面撮影装置5030の撮影パラメタが変更中でないと判定された場合には、ステップ5406においてVTとVRの差が許容範囲内にあるか否かを判定し、許容範囲内であると判定された場合には、ステップ5407に進み、合成マップ画像データ616のn番目の画素の画素値として、入力データ識別子721には「右面入力画像データ」を設定し、参照元X座標値722には右面マップ画像データ613のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には右面マップ画像データ613のn番目の画素の画素値である参照元Y座標値712を設定した後、ステップ5404に進んで採用画素決定処理を終了する。
In step 5405, it is determined whether or not the shooting parameter of the right
ステップ5405において右面撮影装置5030の撮影パラメタが変更中であると判定された場合、あるいは、ステップ5406においてVTとVRの差が許容範囲内にないと判定された場合には、ステップ5408に進み、合成マップ画像データ616のn番目の画素の画素値として、入力データ識別子721には「全体入力画像データ」を設定し、参照元X座標値722には全体マップ画像データ611のn番目の画素の画素値である参照元X座標値711を設定し、参照元Y座標値723には全体マップ画像データ611のn番目の画素の画素値である参照元Y座標値712を設定した後、ステップ5404に進んで採用画素決定処理を終了する。
If it is determined in step 5405 that the imaging parameter of the right
図55は、本実施例のシステムにおける出力画像データ更新処理のフローチャートである。出力画像データ更新処理は、左面撮影装置202や右面撮影装置203の撮影パラメタが変化している場合に、例えば、出力画像データ650中のどの部分をどの程度ズームアップしているのか、が分かるようにするための処理である。
FIG. 55 is a flowchart of output image data update processing in the system of this embodiment. In the output image data update processing, when the shooting parameters of the left
ステップ5500で出力画像データ更新処理が開始されると、まず、ステップ5501において状態変化中撮影領域抽出用データを読み込む。状態変化中撮影領域抽出用データとは、具体的には、全体デプス画像データ2361と内部パラメタデータ241と外部パラメタデータ242と出力パラメタデータ244と動的内部パラメタデータ5081と動的外部パラメタデータ5082である。
When the output image data update process is started in
次に、ステップ5502で、出力画像データ650を読み込む。
Next, in
次に、ステップ5503で、出力画像データ650に、状態変化中撮影領域の境界線を描き込み、あらためて出力画像データ650として格納する。
以上の処理を終了後、ステップ5504において、出力画像データ更新処理を終了する。
Next, in step 5503, the boundary line of the imaging region during the state change is drawn in the
After finishing the above processing, in step 5504, the output image data update processing is finished.
以上、本実施例によれば、全体撮影装置以外の撮影装置の焦点距離や姿勢を変更し得る場合にも、適用することができる。 As described above, according to the present embodiment, the present invention can also be applied to cases where the focal length and posture of an imaging apparatus other than the whole imaging apparatus can be changed.
以下、図56〜図59を用いて、第8の実施の形態について説明する。 Hereinafter, the eighth embodiment will be described with reference to FIGS. 56 to 59.
本実施例は、実施例5に記載の例に対して、さらに、映像中の背景領域に相当する部分のうち、動きの少ない領域を高精細に表示できるようにした例である。 The present embodiment is an example in which, in addition to the example described in the fifth embodiment, an area with less movement among the portions corresponding to the background area in the video can be displayed with high definition.
図56は、本実施例のシステムのシステム構成図である。図56において、図2と同じ符号は、図2と同じものを表す。また、図56において、図6と同じ符号は、図6と同じものを表す。 FIG. 56 is a system configuration diagram of the system of this embodiment. 56, the same reference numerals as those in FIG. 2 denote the same elements as those in FIG. 56, the same reference numerals as those in FIG. 6 denote the same elements as those in FIG.
本実施例の画像合成装置5600では、まず、実施例5の画像合成装置に対して採用画素決定処理と出力画像データ生成処理の処理内容を変更した画像処理部5630を備えるようにした。変更後の採用画素決定処理の処理内容に関しては図58を用いて、変更後の出力画像データ生成処理の処理内容に関しては図59を用いて、それぞれ説明する。
In the image composition device 5600 of the present embodiment, first, an
本実施例の画像合成装置5600では、さらに、中間データ記憶部5660を、変換画像データ620と参照画像データ630と変化画像データ640と出力画像データ650とに加えて、合成マップ画像データの画素値のデータ形式を図41において説明した形式からさらに変更したマップ画像データ5610と、高精細背景画像データ5690とを格納できるように構成した。新たに変更した合成マップ画像データの画素値の形式については、図57を用いて説明する。
In the image composition device 5600 of this embodiment, the intermediate data storage unit 5660 further includes the pixel value of the composite map image data in addition to the converted
高精細背景画像データ5690は、全体入力画像データ221より高品質な画像データとなるように、全体撮影装置201を用いて撮影したものである。
The high-definition background image data 5690 is taken using the whole photographing
全体撮影装置201が特別な機能を備えていない場合には、例えば、撮影を複数回実施して、その平均を取った画像データを生成し、高精細背景画像データ5690として格納すればよい。この場合、時間平均の効果により、全体入力画像データ221に比べてノイズの少ない高品質な画像を得ることができる。
In the case where the entire photographing
また、全体入力画像データ221が動画モードと静止画モードとの切替機能を備えている場合、一般には、静止画モードで撮影した方が高品質な画像データが撮影できるような仕組みとなっているため、該静止画モードで撮影した画像データを、そのまま高精細背景画像データ5690として格納してもよい。 In addition, when the entire input image data 221 has a function of switching between the moving image mode and the still image mode, in general, it is structured such that high quality image data can be captured when the image is captured in the still image mode. Therefore, the image data captured in the still image mode may be stored as the high-definition background image data 5690 as it is.
また、全体撮影装置201に対して焦点距離の制御や撮影姿勢の制御などが可能である場合には、超解像と呼ばれる技術を用いた画像処理により高精細背景画像データ5690を生成して格納してもよい。
In addition, when the focal length control or the shooting posture control can be performed on the whole photographing
図57は、本実施例のシステムにおける合成マップ画像データ616の画素値のデータ形式を説明する図である。図57において、図41と同じ符号は、図41と同じものを表す。 FIG. 57 is a diagram for explaining the data format of the pixel value of the composite map image data 616 in the system of the present embodiment. 57, the same reference numerals as those in FIG. 41 denote the same elements as those in FIG.
本実施例においては、データ形式4120の代わりに、データ形式4120に高精細背景サンプリング用データ5700を加えた形式であるデータ形式5720を用いる。高精細背景サンプリング用データ5700は、重み値WHと、高精細背景画像データのX座標値XHと、高精細背景画像データのY座標値YHとで構成する。重み値WHとX座標値XHとY座標値YHは、いずれも実数値である。 In this embodiment, instead of the data format 4120, a data format 5720 that is a format obtained by adding the high-definition background sampling data 5700 to the data format 4120 is used. The high-definition background sampling data 5700 includes a weight value WH, an X-coordinate value XH of the high-definition background image data, and a Y-coordinate value YH of the high-definition background image data. The weight value WH, the X coordinate value XH, and the Y coordinate value YH are all real values.
ここで、X座標値XHとY座標値YHは、本実施例の撮像システムの撮影領域全体に渡って被写体が静止していると仮定した場合に、合成マップ画像データのすべての画素の画素値において「WT=1,WL=WR=WH=0」として図59で説明する出力画像データ生成処理を実行した場合と、合成マップ画像データのすべての画素の画素値において「WH=1,WT=WL=WR=0」として図59で説明する出力画像データ生成処理を実行した場合とで、出力される画像データが略一致するように、高精細背景画像データ5690の生成方法と出力パラメタデータ244とに基づいて、あらかじめ計算され格納される値である。
Here, the X coordinate value XH and the Y coordinate value YH are the pixel values of all the pixels of the composite map image data when it is assumed that the subject is stationary over the entire imaging region of the imaging system of the present embodiment. In FIG. 59, the output image data generation process described in FIG. 59 is executed with “WT = 1, WL = WR = WH = 0”, and the pixel values of all the pixels of the composite map image data are “WH = 1, WT = The generation method of the high-definition background image data 5690 and the
図58は、本実施例のシステムにおける採用画素決定処理のフローチャートである。
ステップ5800で採用画素決定処理が開始されると、まず、ステップ5801においてWTとWLとWRとWHの値を初期化する。具体的には、WTとWLとWRに関しては図43のステップ4301と同じ値で初期化を行い、WHに関しては1とする。
FIG. 58 is a flowchart of adopted pixel determination processing in the system of this embodiment.
When the adopted pixel determination process is started in step 5800, first, in step 5801, the values of WT, WL, WR, and WH are initialized. Specifically, WT, WL, and WR are initialized with the same values as in step 4301 in FIG. 43, and WH is set to 1.
次にステップ5802のVL判定処理において、所定の閾値に基づいて、VTとVLの値の差が許容範囲内か否かを判定し、許容範囲外の場合にはWLの値を0とする処理を行う。
Next, in the VL determination processing in
続いてステップ5803のVR判定処理において、所定の閾値に基づいて、VTとVRの値の差が許容範囲内か否かを判定し、許容範囲外の場合にはWRの値を0とする処理を行う。 Subsequently, in the VR determination process in step 5803, it is determined whether or not the difference between the values of VT and VR is within the allowable range based on a predetermined threshold value. If the difference is outside the allowable range, the WR value is set to 0. I do.
続いて、ステップ5804において、「WL+WR>0」、すなわち、WLとWRの値の少なくとも一方は0でないか否かを判定する。WLとWRの値の少なくとも一方が0でない場合には、ステップ5805でWTとWHの値を0とした上でステップ5809へ進み、WLとWRの値の両方が0である場合には、そのままステップ5806へ進む。 Subsequently, in Step 5804, it is determined whether or not “WL + WR> 0”, that is, at least one of the values of WL and WR is not 0. If at least one of the values of WL and WR is not 0, the value of WT and WH is set to 0 in step 5805, and then the process proceeds to step 5809. If both the values of WL and WR are 0, they are left as they are. Proceed to step 5806.
ステップ5806では、所定の閾値に基づいて、VTとVHの値の差が許容範囲内か否かを判定する。ここで、VHは、合成マップ画像データ616のn番目の画素の画素値における高精細背景サンプリング用データ5700と高精細背景画像データ5690とから算出される値である。該判定結果が許容範囲内である場合にはステップ5807に進んでWTの値を0とし、許容範囲外である場合にはステップ5808に進んでWHの値を0とする。 In step 5806, based on a predetermined threshold, it is determined whether or not the difference between the values of VT and VH is within an allowable range. Here, VH is a value calculated from the high-definition background sampling data 5700 and the high-definition background image data 5690 at the pixel value of the nth pixel of the composite map image data 616. If the determination result is within the allowable range, the process proceeds to step 5807 to set the WT value to 0, and if it is outside the allowable range, the process proceeds to step 5808 to set the WH value to 0.
続いて、ステップ5809でWTとWLとWRとWHの値を正規化する処理を行う。具体的には、WTとWLとWRとWHのそれぞれを、それらの値の総和(WT+WL+WR+WH)で割ることにより、WTとWLとWRとWHの値の和が1となるようにする。 Subsequently, in step 5809, processing for normalizing the values of WT, WL, WR, and WH is performed. Specifically, the sum of the values of WT, WL, WR, and WH is set to 1 by dividing each of WT, WL, WR, and WH by the sum of their values (WT + WL + WR + WH).
以上の処理が終了した後、ステップ5810において採用画素決定処理を終了する。 After the above processing ends, the adopted pixel determination processing ends at step 5810.
図59は、本実施例のシステムにおける出力画像データ生成処理のフローチャートである。 FIG. 59 is a flowchart of output image data generation processing in the system of this embodiment.
ステップ5900で出力画像データ生成処理が開始されると、まず、ステップ5901において、処理すべき画素のシリアル番号であるnを0に初期化する。
When the output image data generation process is started in
次に、ステップ5902において、合成マップ画像データ616からn番目の画素の画素値を読み込む。 Next, in step 5902, the pixel value of the nth pixel is read from the composite map image data 616.
次に、ステップ5903において、ステップ5902で読み込んだデータに基づいて、高精細背景画像データ5690の画素値を含めた各入力画像データの画素値の重み付きの和を取ることにより、出力画像データ650のn番目の画素の画素値を決定する。
Next, in step 5903, based on the data read in step 5902, the
次に、ステップ5904において処理すべき画素のシリアル番号であるnを1増やし、続いてステップ5905において、出力画像データ650中のすべての画素について処理が終了したか否かを判定する。出力画像データ650中のすべての画素について処理が終了している場合にはステップ5906に進んで出力画像データ生成処理を終了し、未だ処理が終了していない画素が存在する場合にはステップ5902に進んで処理を続ける。
In
以上、本実施例によれば、実施例5に記載の例に対して、さらに、映像中の背景領域に相当する部分のうち、動きの少ない領域を高精細に表示することができる。また、高精細背景画像データ5690はあらかじめ生成しておくことの可能なデータであるため、遠隔会議システムなどのアプリケーションにおいて、ネットワークの負荷を増やすことなく、出力画像データの品質をよくすることができる。 As described above, according to the present embodiment, in addition to the example described in the fifth embodiment, it is possible to display a region with less movement among portions corresponding to the background region in the video with high definition. Further, since the high-definition background image data 5690 is data that can be generated in advance, the quality of the output image data can be improved without increasing the network load in an application such as a remote conference system. .
なお、上記実施例においては、高精細背景画像データ5690は全体撮影装置201を用いて撮影するものとしたが、高精細背景画像データ5690の画素に対しても全体参照画像データ631との整合性判定を行っているため、実施の形態はこれに限るものではない。左面撮影装置202や右面撮影装置203を用いて撮影した画像データに対して内部パラメタデータや外部パラメタデータを考慮した幾何変換処理を施して生成してもよいし、新たに備えた別の撮影装置を用いて撮影した画像データに対して同様の幾何変換処理を施して生成してもよい。
In the above-described embodiment, the high-definition background image data 5690 is taken using the whole photographing
なお、上記、実施例1から実施例8までの例においては、全体撮影装置1つとその他の撮影装置2つを備えた場合を例として実施の形態を説明してきたが、実施の形態はこれに限るものではなく、全体撮影装置1つに加えてその他の撮影装置を複数備えるような一般の構成に対して適用可能であることは明らかである。 In the above-described examples from Example 1 to Example 8, the embodiment has been described by way of an example in which one overall photographing apparatus and two other photographing apparatuses are provided. However, the embodiment is not limited thereto. The present invention is not limited, and it is obvious that the present invention can be applied to a general configuration including a plurality of other photographing apparatuses in addition to one whole photographing apparatus.
110、120、130・・・入力画像データ、111・・・出力画像データ、910・・・時刻(T−1)における全体入力画像データ、920・・・時刻(T−1)における右面入力画像データ、911・・・時刻Tにおける全体入力画像データ、912・・・更新前の全体参照画像データ、913・・・全体変換画像データ、914・・・全体変化画像データ、915・・・更新後の全体参照画像データ、921・・・時刻Tにおける右面入力画像データ、922・・・更新前の右面参照画像データ、923・・・右面変換画像データ、924・・・右面変化画像データ、925・・・更新後の右面参照画像データ、2620、2621、3121・・・デプス集合データ、4000、4010、4011・・・撮影範囲、4020・・・出力範囲、4600、4610、4611・・・撮影範囲、4612・・・重複撮影範囲、4620・・・出力範囲、4700、4710、4711・・・投影中心位置、4730、4731・・・被写体位置、4910・・・WTの初期値を決定するための関数
110, 120, 130 ... input image data, 111 ... output image data, 910 ... total input image data at time (T-1), 920 ... right input image at time (T-1) Data, 911 ... Overall input image data at time T, 912 ... Overall reference image data before update, 913 ... Overall converted image data, 914 ... Overall changed image data, 915 ... After update ,...,... Right side input image data at time T, 922... Right side reference image data before update, 923... Right side converted image data, 924. .. right-side reference image data after update, 2620, 2621, 3121 ... depth set data, 4000, 4010, 4011 ... shooting range, 4020
Claims (7)
前記出力画像データの各画素位置が前記第1の入力画像データ中のどの位置に対応するかを定義した第1の幾何変換パラメタと、前記出力画像データの各画素位置が前記第2の入力画像データ中のどの位置に対応するかを定義した第2の幾何変換パラメタと、を格納する幾何変換パラメタ記憶部と、
前記第1の幾何変換パラメタに基づいて前記第1の入力画像データを変換し第1の出力候補画像データを生成する第1の画像変換部と、
前記第2の幾何変換パラメタに基づいて前記第2の入力画像データを変換し第2の出力候補画像データを生成する第2の画像変換部と、
前記第1の出力候補画像データと前記第2の出力候補画像データを比較して、画素ごとに両者の差異が所定の許容範囲内にあるか否かを判定することによって整合性の有無を判定する整合性判定部と、
出力画像データの各画素に対して、前記整合性判定部によって整合性なしと判定された画素の画素値については前記第1の出力候補画像データの画素値に基づいて決定し、前記整合性判定部によって整合性ありと判定された画素の画素値については前記第2の出力候補画像データの画素値に基づいて決定することによって前記出力画像データを生成する出力画像データ生成部と、
を備えたことを特徴とする画像合成装置。 An image synthesis device that synthesizes first input image data and second input image data and outputs output image data of a predetermined resolution,
A first geometric transformation parameter defining which position in the first input image data each pixel position of the output image data corresponds to; and each pixel position of the output image data is the second input image. A second geometric transformation parameter defining which position in the data corresponds to; a geometric transformation parameter storage unit for storing;
A first image conversion unit that converts the first input image data based on the first geometric transformation parameter to generate first output candidate image data;
A second image conversion unit that converts the second input image data based on the second geometric conversion parameter to generate second output candidate image data;
The first output candidate image data and the second output candidate image data are compared, and whether or not there is consistency is determined by determining whether or not the difference between the two is within a predetermined allowable range for each pixel. A consistency determination unit to perform,
For each pixel of the output image data, the pixel value of the pixel determined to be inconsistent by the consistency determination unit is determined based on the pixel value of the first output candidate image data, and the consistency determination An output image data generation unit that generates the output image data by determining the pixel value of the pixel determined to be consistent by the unit based on the pixel value of the second output candidate image data;
An image composition device comprising:
前記出力画像データの各画素位置が前記第1の入力画像データ中のどの位置に対応するかを定義した第1の幾何変換パラメタと、前記出力画像データの各画素位置が前記第2の入力画像データ中のどの位置に対応するかを定義した第2の幾何変換パラメタと、前記出力画像データの各画素位置が前記第3の入力画像データ中のどの位置に対応するかを定義した第3の幾何変換パラメタと、を格納するパラメタ記憶部と、
前記第1の幾何変換パラメタに基づいて前記第1の入力画像データを変換し第1の出力候補画像データを生成する第1の画像変換部と、
前記第2の幾何変換パラメタに基づいて前記第2の入力画像データを変換し第2の出力候補画像データを生成する第2の画像変換部と、
前記第3の幾何変換パラメタに基づいて前記第3の入力画像データを変換し第3の出力候補画像データを生成する第3の画像変換部と、
前記第1の出力候補画像データと前記第2の出力候補画像データを比較して、画素ごとに両者の整合性の有無を判定する第1の整合性判定部と、
前記第1の出力候補画像データと前記第3の出力候補画像データを比較して、画素ごとに両者の整合性の有無を判定する第2の整合性判定部と、
前記第1の整合性判定部及び前記第2の整合性判定部のいずれによっても整合性ありと判定された画素の画素値を決定するために、前記第2の出力候補画像データの画素値と前記第3の出力候補画像データの画素値の寄与率を決定する寄与率決定部と、
出力画像データの各画素に対して、
前記第1の整合性判定部によって整合性なしと判定され、かつ、前記第2の整合性判定部によって整合性なしと判定された画素の画素値については、前記第1の出力候補画像データの画素値に基づいて決定し、
前記第1の整合性判定部によって整合性ありと判定され、かつ、前記第2の整合性判定部によって整合性なしと判定された画素の画素値については、前記第2の出力候補画像データの画素値に基づいて決定し、
前記第1の整合性判定部によって整合性なしと判定され、かつ、前記第2の整合性判定部によって整合性ありと判定された画素の画素値については、前記第3の出力候補画像データの画素値に基づいて決定し、
前記第1の整合性判定部によって整合性ありと判定され、かつ、前記第2の整合性判定部によって整合性ありと判定された画素の画素値については、前記寄与率決定部によって決定された寄与率に基づいて、前記第2の出力候補画像データの画素値と前記第3の出力候補画像データの画素値に基づいて決定することによって、
出力画像データを生成する出力画像データ生成部と、
を備えたことを特徴とする画像合成装置。 An image synthesis device that synthesizes first input image data, second input image data, and third input image data and outputs output image data of a predetermined resolution,
A first geometric transformation parameter defining which position in the first input image data each pixel position of the output image data corresponds to; and each pixel position of the output image data is the second input image. A second geometric transformation parameter defining which position in the data corresponds to, and a third geometric transformation defining which position in the third input image data each pixel position of the output image data corresponds to A parameter storage unit for storing geometric transformation parameters;
A first image conversion unit that converts the first input image data based on the first geometric transformation parameter to generate first output candidate image data;
A second image conversion unit that converts the second input image data based on the second geometric conversion parameter to generate second output candidate image data;
A third image conversion unit that converts the third input image data based on the third geometric conversion parameter to generate third output candidate image data;
A first consistency determination unit that compares the first output candidate image data with the second output candidate image data and determines whether or not there is consistency between the two for each pixel;
A second consistency determination unit that compares the first output candidate image data and the third output candidate image data and determines whether or not there is consistency between the two for each pixel;
In order to determine the pixel value of the pixel determined to be consistent by both the first consistency determination unit and the second consistency determination unit, the pixel value of the second output candidate image data A contribution rate determination unit that determines a contribution rate of pixel values of the third output candidate image data;
For each pixel of the output image data
The pixel values of the pixels determined to be inconsistent by the first consistency determining unit and determined to be inconsistent by the second consistency determining unit are the values of the first output candidate image data. Based on the pixel value,
The pixel values of the pixels that are determined to be consistent by the first consistency determination unit and are determined to be non-consistent by the second consistency determination unit are included in the second output candidate image data. Based on the pixel value,
The pixel values of the pixels determined to be non-consistent by the first consistency determining unit and determined to be consistent by the second consistency determining unit are included in the third output candidate image data. Based on the pixel value,
The pixel value of the pixel determined to be consistent by the first consistency determination unit and determined to be consistent by the second consistency determination unit is determined by the contribution rate determination unit. By determining based on the pixel value of the second output candidate image data and the pixel value of the third output candidate image data based on the contribution rate,
An output image data generation unit for generating output image data;
An image composition device comprising:
さらに、
高品質画像データを格納する高品質画像データ格納部と、 前記第1の出力候補画像データと前記高品質画像データを比較して、画素ごとに両者の整合性の有無を判定する高品質整合性判定部とを備え、
前記出力画像データ生成部は、出力画像データの各画素に対して、前記整合性判定部によって整合性なしと判定された画素の画素値については、該画素が前記高品質整合性判定部によって整合性ありと判定された画素である場合には前記高品質画像データの画素値に基づいて決定し、該画素が前記高品質整合性判定部によって整合性なしと判定された画素である場合には前記第1の出力候補画像データの画素値に基づいて決定し、前記整合性判定部によって整合性ありと判定された画素の画素値については前記第2の出力候補画像データの画素値に基づいて決定することによって出力画像データを生成するようにしたことを特徴とする画像合成装置。 The image composition device according to claim 1,
further,
A high-quality image data storage unit that stores high-quality image data; and high-quality consistency that compares the first output candidate image data with the high-quality image data and determines whether or not there is consistency between the two for each pixel. A determination unit,
The output image data generation unit matches each pixel of the output image data with respect to the pixel value of the pixel determined to be inconsistent by the consistency determination unit, by the high quality consistency determination unit. If the pixel is determined to be compatible, it is determined based on the pixel value of the high quality image data, and if the pixel is determined to be non-consistent by the high quality consistency determination unit The pixel value of the pixel determined based on the pixel value of the first output candidate image data and determined to be consistent by the consistency determination unit is based on the pixel value of the second output candidate image data. An image synthesizing apparatus characterized in that output image data is generated by determination.
前記画像合成装置は、
前記第1の撮影装置の撮影した画像データを前記第1の入力画像データとして入力し、前記第2の撮影装置の撮影した画像データを前記第2の入力画像データとして入力するように構成することで、所定の解像度の画像データを出力するようにしたことを特徴とする撮像システム。 An imaging system comprising: a first imaging device; a second imaging device that performs imaging so as to have an overlapping range with an imaging range of the first imaging device; and the image composition device according to claim 1,
The image composition device includes:
Image data captured by the first image capturing device is input as the first input image data, and image data captured by the second image capturing device is input as the second input image data. An imaging system, wherein image data having a predetermined resolution is output.
前記第2の撮影装置が前記第1の撮影装置の撮影範囲の内部を撮影するように構成されることを特徴とする撮像システム。 The imaging system according to claim 4 ,
The imaging system, wherein the second imaging device is configured to take an image of the inside of the imaging range of the first imaging device.
前記第2の撮影装置の撮影範囲と前記第3の撮影装置の撮影範囲は互いに重複を持つように構成され、さらに、前記第1の撮影装置の撮影範囲は前記第2の撮影装置と前記第3の撮影装置とが重複して撮影する範囲を含むように構成され、
前記画像合成装置は、
前記第1の撮影装置の撮影した画像データを前記第1の入力画像データとして入力し、前記第2の撮影装置の撮影した画像データを前記第2の入力画像データとして入力し、前記第3の撮影装置の撮影した画像データを前記第3の入力画像データとして入力するように構成することで、所定の解像度の画像データを出力するようにしたことを特徴とする撮像システム。 An imaging system comprising a first imaging device, a second imaging device, a third imaging device, and the image composition device according to claim 2,
The photographing range of the second photographing device and the photographing range of the third photographing device are configured to overlap each other, and the photographing range of the first photographing device is the second photographing device and the second photographing device. 3 is configured so as to include a range where the photographing device overlaps with the photographing device,
The image composition device includes:
Image data captured by the first image capturing device is input as the first input image data, image data captured by the second image capturing device is input as the second input image data, and the third input image data is input. An image pickup system configured to output image data having a predetermined resolution by inputting image data taken by an image pickup apparatus as the third input image data.
さらに、
前記第1の撮影装置を前記高品質撮影モードに設定して撮影した画像データを前記高品質画像データとして格納する高品質画像初期設定部を備え、
前記画像合成装置は、
前記第1の撮影装置を前記通常撮影モードに設定して撮影した画像データを前記第1の入力画像データとして入力し、前記第2の撮影装置の撮影した画像データを前記第2の入力画像データとして入力するように構成することで、
所定の解像度の画像データを出力するようにしたことを特徴とする撮像システム。 A first photographing apparatus having a high quality photographing mode that prioritizes the image quality of the photographed image data and a normal photographing mode that prioritizes other characteristics of the photographed image data, and overlaps with the photographing range of the first photographing apparatus. An imaging system comprising a second imaging device for imaging such a range, and the image composition device according to claim 3 ,
further,
A high-quality image initial setting unit that stores image data captured by setting the first imaging device in the high-quality imaging mode as the high-quality image data;
The image composition device includes:
Image data captured by setting the first imaging device to the normal imaging mode is input as the first input image data, and image data captured by the second imaging device is input to the second input image data. By configuring to enter as
An imaging system, wherein image data having a predetermined resolution is output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005043367A JP4506501B2 (en) | 2005-02-21 | 2005-02-21 | Image composition device and imaging system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005043367A JP4506501B2 (en) | 2005-02-21 | 2005-02-21 | Image composition device and imaging system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006229802A JP2006229802A (en) | 2006-08-31 |
JP4506501B2 true JP4506501B2 (en) | 2010-07-21 |
Family
ID=36990727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005043367A Expired - Fee Related JP4506501B2 (en) | 2005-02-21 | 2005-02-21 | Image composition device and imaging system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4506501B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4943695B2 (en) | 2005-11-21 | 2012-05-30 | 富士フイルム株式会社 | Multifocal camera optical system |
US7456779B2 (en) * | 2006-08-31 | 2008-11-25 | Sierra Nevada Corporation | System and method for 3D radar image rendering |
JP4827101B2 (en) * | 2007-04-17 | 2011-11-30 | 富士フイルム株式会社 | Control device, control method, imaging system, imaging method, and program |
US10268885B2 (en) | 2013-04-15 | 2019-04-23 | Microsoft Technology Licensing, Llc | Extracting true color from a color and infrared sensor |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1093808A (en) * | 1996-09-18 | 1998-04-10 | Sharp Corp | Image synthesis device/method |
JPH10290389A (en) * | 1997-04-16 | 1998-10-27 | Toyota Motor Corp | Multi-focus image formation method and image formation device |
JPH11196319A (en) * | 1997-12-26 | 1999-07-21 | Minolta Co Ltd | Image pickup device |
JPH11205648A (en) * | 1998-01-09 | 1999-07-30 | Olympus Optical Co Ltd | Image synthesizing device |
JP2000059725A (en) * | 1998-08-12 | 2000-02-25 | Minolta Co Ltd | Digital camera |
JP2001036898A (en) * | 1999-07-22 | 2001-02-09 | Hitachi Ltd | Camera system for generating panoramic video |
JP2002083285A (en) * | 2000-07-07 | 2002-03-22 | Matsushita Electric Ind Co Ltd | Image compositing device and image compositing method |
JP2003288067A (en) * | 2002-03-28 | 2003-10-10 | Hitachi Ltd | Image display device |
JP2005012619A (en) * | 2003-06-20 | 2005-01-13 | Mitsubishi Electric Corp | Device for forming panoramic image |
-
2005
- 2005-02-21 JP JP2005043367A patent/JP4506501B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1093808A (en) * | 1996-09-18 | 1998-04-10 | Sharp Corp | Image synthesis device/method |
JPH10290389A (en) * | 1997-04-16 | 1998-10-27 | Toyota Motor Corp | Multi-focus image formation method and image formation device |
JPH11196319A (en) * | 1997-12-26 | 1999-07-21 | Minolta Co Ltd | Image pickup device |
JPH11205648A (en) * | 1998-01-09 | 1999-07-30 | Olympus Optical Co Ltd | Image synthesizing device |
JP2000059725A (en) * | 1998-08-12 | 2000-02-25 | Minolta Co Ltd | Digital camera |
JP2001036898A (en) * | 1999-07-22 | 2001-02-09 | Hitachi Ltd | Camera system for generating panoramic video |
JP2002083285A (en) * | 2000-07-07 | 2002-03-22 | Matsushita Electric Ind Co Ltd | Image compositing device and image compositing method |
JP2003288067A (en) * | 2002-03-28 | 2003-10-10 | Hitachi Ltd | Image display device |
JP2005012619A (en) * | 2003-06-20 | 2005-01-13 | Mitsubishi Electric Corp | Device for forming panoramic image |
Also Published As
Publication number | Publication date |
---|---|
JP2006229802A (en) | 2006-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4657367B2 (en) | Image processing apparatus, imaging apparatus, and image distortion correction method | |
US6393162B1 (en) | Image synthesizing apparatus | |
US7215364B2 (en) | Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array | |
CN100377171C (en) | Method and apparatus for generating deteriorated numeral image | |
US20100123792A1 (en) | Image processing device, image processing method and program | |
JP3650578B2 (en) | Panoramic image navigation system using neural network to correct image distortion | |
JP5558973B2 (en) | Image correction apparatus, correction image generation method, correction table generation apparatus, correction table generation method, correction table generation program, and correction image generation program | |
JP6812862B2 (en) | Image processing system, imaging device, image processing method and program | |
JP3996630B2 (en) | Image conversion method, texture mapping method, image conversion apparatus, server client system, image conversion program, shadow recognition method, and shadow recognition apparatus | |
JP6434209B2 (en) | Image generating apparatus, image generating method, and program | |
WO2010051147A2 (en) | Method and apparatus for transforming a non-linear lens-distorted image | |
JP4871820B2 (en) | Video display system and parameter generation method for the system | |
JP2012053601A (en) | Image correction device, corrected image generation method, correction table generation device, correction table generation method, correction table generation program and corrected image generation program | |
JP2008113176A (en) | Adjustment system of video display system | |
JP5566199B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2004135209A (en) | Generation device and method for wide-angle view high-resolution video image | |
JP4506501B2 (en) | Image composition device and imaging system | |
US20120038785A1 (en) | Method for producing high resolution image | |
JP6702755B2 (en) | Image processing device, imaging device, image processing method, and program | |
JP2018033080A (en) | Image processing apparatus, image processing method and program | |
JPH11331696A (en) | Image processing method, device and recording medium | |
US9092840B2 (en) | Image processing apparatus, control method of the same and non-transitory computer-readable storage medium | |
KR102146839B1 (en) | System and method for building real-time virtual reality | |
JP2013126123A (en) | Image processing device, imaging apparatus, and image processing method | |
Bätz et al. | Multi-image super-resolution for fisheye video sequences using subpixel motion estimation based on calibrated re-projection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100419 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4506501 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |