JP3823818B2 - Image processing apparatus, image signal generation method, image processing program, and information recording medium - Google Patents
Image processing apparatus, image signal generation method, image processing program, and information recording medium Download PDFInfo
- Publication number
- JP3823818B2 JP3823818B2 JP2001383836A JP2001383836A JP3823818B2 JP 3823818 B2 JP3823818 B2 JP 3823818B2 JP 2001383836 A JP2001383836 A JP 2001383836A JP 2001383836 A JP2001383836 A JP 2001383836A JP 3823818 B2 JP3823818 B2 JP 3823818B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- layer
- motion
- signal
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Circuits (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は画像処理装置と画像信号生成方法と画像処理プログラム及び情報記録媒体に関する。詳しくは、複数フレームの入力画像信号を用いて、この入力画像信号に基づく画像内における例えば画像端部領域の動きを検出し、この検出した動きと複数フレームの入力画像信号に基づいて、注目フレームと同一時間であると共に、注目フレームの画像と画角の異なる周辺動画像の画像信号を生成するものである。
【0002】
【従来の技術】
近年、臨場感を高めた画像表示を行うために多画面表示システムや曲面ディスプレイ、広画角ディスプレイ、ヘッドマウントディスプレイ等が実用化されている。
【0003】
ここで、上述のようなディスプレイを用いて臨場感を高めた画像表示を行うためには、例えばコンピュータグラフィックスで3次元の仮想空間を構築することが行われている。また、多数のビデオカメラを用いたり広角レンズをビデオカメラに取り付けて広範囲な空間を撮影し、この撮影画像を多面ディスプレイやヘッドマウントディスプレイなどの平面あるいは曲面に変換して表示することも行われている。
【0004】
【発明が解決しようとする課題】
ところで、このように多面ディスプレイや広画角ディスプレイ等を用いて臨場感を高めた動画像表示を行う場合、コンピュータグラフィックスで3次元の仮想空間を構築するためには、高速なコンピュータ装置を用いて演算処理を行う必要があるため、多大なコストと時間が必要となると共に、実写画像に比べて臨場感や現実感が少ない画像となってしまう。
【0005】
また、実写画像を用いる場合には、広範囲な空間を提示するためには、提示する範囲を全て隙間無く撮影する必要があり、多数のビデオカメラや特殊レンズを備えたビデオカメラ等、大がかりな画像取込装置が必要となり、多額のコストが必要となる。
【0006】
さらに、一般的なビデオカメラで撮影された画像ソースが既に存在するときには、同じシーンを複数のビデオカメラで撮り直さなければ、広範囲の画像を提示することができない。
【0007】
そこで、この発明では、基準となる動画像の画像信号を用いて、この動画像と同一時間であると共に、この動画像に対応した周辺動画像を生成できる画像処理装置と画像信号生成方法および情報伝送記録媒体を提供するものである。
【0008】
【課題を解決するための手段】
この発明に係る画像処理装置は、特定の平面上に形成した画像内における所定領域の動きを複数フレームの入力画像信号を用いて検出する動き検出手段と、動き検出手段で検出された動きに基づいて、所定領域を分類して分類結果を示す情報を生成するレイヤ化処理手段と、分類情報と複数フレームの入力画像信号に基づいて、入力画像信号中の注目フレームと同一時間であると共に、注目フレームの画像と画角の異なる周辺画像の画像信号を生成する周辺画像信号生成手段とを有するものである。
【0009】
また、画像処理装置は、少なくとも1つの拘束条件を満たす動きを生ずる基準動画像の画像信号を用いて、拘束条件を利用することにより基準動画像の画面毎に画面内の画像端部領域の動きを検出する動き検出手段と、動き検出手段で検出された動きに基づいて、前記所定領域のレイヤを決定してレイヤ情報を生成するレイヤ化処理手段と、レイヤ化処理手段で生成されたレイヤ情報と画像端部領域の画像信号を用いて信号処理を行い、基準動画像と同一時間であると共に、基準動画像に対応した周辺動画像の画像信号を生成する周辺画像生成手段とを備えるものである。
【0010】
この発明に係る画像信号生成方法は、特定の平面上に形成した画像内における所定領域の動きを複数フレームの入力画像信号を用いて検出するものとし、検出された動きに基づいて、所定領域を分類して分類結果を示す情報を生成するものとし、分類情報と複数フレームの入力画像信号に基づいて、入力画像信号中の注目フレームと同一時間であると共に、注目フレームの画像と画角の異なる周辺画像の画像信号を生成するものである。
【0011】
また、画像信号生成方法は、少なくとも1つの拘束条件を満たす動きを生ずる基準動画像を用いて、拘束条件を利用することにより基準動画像の画面毎に画像端部領域の動きを検出するものとし、検出された動きに基づき、画像端部領域の画像信号を用いて信号処理を行い、基準動画像と同一時間であると共に、基準動画像に対応した周辺動画像の画像信号を生成するものである。
【0012】
この発明に係る画像処理プログラムは、コンピュータに、特定の平面上に形成した画像内における所定領域の動きを複数フレームの入力画像信号を用いて検出する処理と、検出された動きに基づいて、所定領域を分類して分類結果を示す情報を生成する処理と、分類情報と複数フレームの入力画像信号に基づいて、入力画像信号中の注目フレームと同一時間であると共に、注目フレームの画像と画角の異なる周辺画像の画像信号を生成する処理とを実行させるものである。
【0013】
また、画像処理プログラムは、コンピュータに、少なくとも1つの拘束条件を満たす動きを生ずる基準動画像を用いて、拘束条件を利用することにより基準動画像の画面毎に画像端部領域の動きを検出する第1の処理と、検出された動きに基づき、画像端部領域の画像信号を用いて信号処理を行い、基準動画像と同一時間であると共に、基準動画像に対応した周辺動画像の画像信号を生成する第2の処理とを含む処理を実行させるものである。
【0014】
この発明に係る情報記録媒体は、コンピュータに、特定の平面上に形成した画像内における所定領域の動きを複数フレームの入力画像信号を用いて検出する処理と、検出された動きに基づいて、所定領域を分類して分類結果を示す情報を生成する処理と、分類情報と複数フレームの入力画像信号に基づいて、入力画像信号中の注目フレームと同一時間であると共に、注目フレームの画像と画角の異なる周辺画像の画像信号を生成する処理とを実行させるプログラムをコンピュータ読み取り可能に記録したものである。
【0015】
また、情報記録媒体は、コンピュータに、少なくとも1つの拘束条件を満たす動きを生ずる基準動画像を用いて、拘束条件を利用することにより基準動画像の画面毎に画像端部領域の動きを検出する第1の処理と、検出された動きに基づき、画像端部領域の画像信号を用いて信号処理を行い、基準動画像と同一時間であると共に、基準動画像に対応した周辺動画像の画像信号を生成する第2の処理とを含む処理を実行させるプログラムをコンピュータ読み取り可能に記録したものである。
【0016】
この発明においては、例えば画像の動きが所定位置を中心とした放射方向である拘束条件を満たす動きを生ずる基準動画像に対して、この基準動画像の画像端部領域に複数の動き検出領域が設定されて、この動き検出領域の画像が所定位置を中心としてズームされながら前画面の画像との誤差値が算出されて、この算出された誤差値が最小となる位置を検出することで、動き検出領域の動きが判別される。
【0017】
この動きの検出結果に基づき、画像端部領域がレイヤ分けされて、レイヤ毎に移動量が設定されて、レイヤ分けされた画像端部領域の画像が、対応するレイヤの移動量に応じて基準動画像から画像の抽出が行われて、移動量の少ないレイヤから移動量の大きいレイヤへと順に貼り付けられる。また、既に貼り付けが行われた各レイヤの画像はレイヤ毎に設定された移動量に応じて移動されて、移動後の画像に抽出した画像を加えてからレイヤ単位で画像の貼り付けが行われる。
【0018】
ここで、レイヤ単位での貼り付け処理によって画像に隙間部分を生じたときには、隙間部分の後方側に位置する画像をレイヤの移動方向に延長して隙間領域の画像の画像信号が生成される。さらに、レイヤ単位で貼り付けられた画像の画像信号に対して、周辺動画像の投影面の向きに応じた信号変換処理が行われる。
【0019】
【発明の実施の形態】
以下、図を参照しながら、この発明の実施の一形態について説明する。図1は、この発明に係る画像処理装置を用いた表示システムの全体構成を示している。この表示システムでは、例えば3つのスクリーンをユーザの前面及び両側面に配置して、各スクリーン10L,10C,10Rに対応したプロジェクタ12L,12C,12Rから画像を投影することにより、広範囲の画像の提示が行われる。このプロジェクタ12L,12C,12Rは画像処理装置15A(15B,15C)と接続されている。
【0020】
この画像処理装置15A(15B,15C)では、複数フレームの入力画像信号を用いて特定の平面上に形成した画像内における所定領域の動きを検出して、この検出された動きに基づいて、所定領域を分類して分類結果を示す情報を生成する。さらに、分類情報と複数フレームの入力画像信号に基づいて、入力画像信号中の注目フレームと同一時間であると共に、注目フレームの画像と画角の異なる周辺画像の画像信号を生成する。
【0021】
画像処理装置15Aには、移動しながら撮影した画像信号、例えば車載カメラで前方を撮影した動画像の画像信号SDCが入力される。画像処理装置15Aは、この入力された画像信号SDCを後述する側面動画像の周辺画像信号SDL,SDRの生成に要する時間だけ遅延させたのち画像信号SDC’としてプロジェクタ12Cに供給する。プロジェクタ12Cは、画像信号SDC’に基づく正面動画像UCを、図2に示すように正面に位置するスクリーン10Cに投影する。また、画像処理装置15Aは、基準動画像である正面動画像UCの画像信号SDCに基づいて、この正面動画像UCに対応した側面動画像、すなわち車載カメラの視野範囲(画角範囲)に隣接した周辺領域の動画像、例えば左右の側面動画像の周辺画像信号SDL,SDRを生成する。プロジェクタ12Lには、生成した左側面動画像ULの周辺画像信号SDLが入力されて、この周辺画像信号SDLに基づき左側面動画像ULを左側に位置するスクリーン10Lに投影する。プロジェクタ12Lには、生成した右側面動画像URの周辺画像信号SDRを入力して、この周辺画像信号SDRに基づき右側面動画像URを右側に位置するスクリーン10Rに投影する。
【0022】
図3は、第1の実施の形態である画像処理装置15Aの構成を示している。画像信号SDCは、画像処理装置15Aの遅延部16と動き検出ブロック20及び周辺画像信号生成ブロック24に供給される。動き検出ブロック20は、動画像の画像端部領域、例えば正面動画像UCの両側端側に図4に示すように複数の動き検出領域ARを設定して、各動き検出領域ARでの画像の動き量MVを算出してレイヤ化処理ブロック22に供給する。この動き量MVは、この動き検出領域の画像信号SDCと1フレーム前の画像信号SDdに基づいて算出される。
【0023】
レイヤ化処理ブロック22は、各動き検出領域が離れた被写体を撮影した遠景画像の領域(遠景レイヤ)であるか、近接した被写体を撮影した近景画像の領域(近景レイヤ)であるか、又は、遠景画像と近景画像との間に位置する中景画像の領域(中景レイヤ)であるかを動き量MVに基づいて判別する。さらに、判別結果に基づき各動き検出領域が遠景,中景,近景のいずれのレイヤに属するかを示すレイヤ識別情報LSを生成して周辺画像信号生成ブロック24に供給する。また、レイヤに含まれる動き検出領域の動き量を用いて算出した統計情報に基づきレイヤ毎のレイヤ移動量LVをフレーム毎に算出して、このレイヤ移動量LVを周辺画像信号生成ブロック24に供給する。
【0024】
周辺画像信号生成ブロック24は、動き検出領域に対応して画像端部領域に設定したそれぞれの位置から、動き検出領域の該当するレイヤのレイヤ移動量LVだけ正面動画像を抽出する。また、周辺画像信号生成ブロック24は、この抽出した画像を移動量の少ない遠景のレイヤから移動量の大きい近景のレイヤへと順に重ね合わせることで画像合成を行ったのち、側面動画像の投影面の向きに応じた変換処理を行い、正面動画像と同一時間の側面動画像の周辺画像信号SDL,SDRを生成して出力する。
【0025】
また、レイヤ毎の側面動画像の画像信号SEL,SERを遅延部26に供給することで、1フレーム遅延させてから周辺画像信号生成ブロック24に供給する。ここで、周辺画像信号生成ブロック24は、1フレーム遅延された側面動画像の画像信号SELd,SERdに基づく画像を、レイヤ毎に設定された移動量に応じてレイヤ毎に移動させる。また、周辺画像信号生成ブロック24は、移動後の画像に正面動画像から抽出した画像を加えてからレイヤ単位で重ね合わせることで画像の合成を行い、側面動画像の周辺画像信号SDL,SDRを生成する。
【0026】
さらに、遠景,中景,近景の画像を順に重ね合わせた画像を作成するときに、レイヤ移動量の違いによって、画像の無い隙間部分が生じた場合、周辺画像信号生成ブロック24は、この隙間部分を補間処理によって補うことで、隙間部分の無い側面動画像の周辺画像信号SDL,SDRを生成する。
【0027】
次に、各ブロックの構成及び動作について図を用いて詳細に説明する。なお、以下の説明では右側の側面動画像についてのみ説明するものとし、左側の側面動画像の生成については説明を省略する。
【0028】
動き検出ブロック20は、上述したように画像の動き量MVを動き検出領域毎に判別する。ここで、上述したように車載カメラで前方を撮影することで、一点(以下「画像基準位置」という)CPからあたかも画像が涌き出てくるように見える場合、動き検出ブロック20は、正面動画像の動き方向が一点から放射方向であるという拘束条件を加えて動き量の判別を行う。この場合、図5Aに示す時刻Tの正面動画像は、例えば1フレーム時間が経過した後の時刻T’では、図5Bに示すように、画像基準位置CPを中心として時刻Tの正面動画像をズーム動作させた画像とほぼ等しくなる。このため、画像発生位置から動き検出領域の中心までの距離がズーム動作での拡大率に比例すると考えられる。そこで、動き検出ブロック20は、図5Cに示すように、画像基準位置CPを中心とした拡大率Zを設定して動き検出領域を(1/Z)に縮小させて、この縮小された領域と1フレーム前の画像における対応位置の画像信号との誤差和を算出して、この誤差和が最小値となる拡大率Zを検出することにより、動き領域毎の動き量を算出する。
【0029】
ここで、縮小処理を行ったとき、領域内の画素の座標値は整数値とならない画素が生ずる。一方、縮小処理が行われていない1フレーム前の画像は、領域内の画素の座標値が整数値である。このため、縮小された画像に対しては線形補間を行って、座標値が整数値となる位置の信号レベルを算出する。例えば、図6に示すようにKa×Ka画素の動き検出領域を(1/Z)倍としたことにより領域サイズがKb×Kb画素のサイズとなったときには、線形補間を行ってKa×Ka画素の信号レベルを用いて画素数を「Kb×Kb」とした信号レベルを算出する。この算出された信号レベルを用いて誤差和を算出することにより、精度良く動き量を判別できる。
【0030】
図7は動き検出ブロック20の構成を示しており、画像信号SDcはサイズ変更部201に供給されると共に1フレーム前の画像信号SDcdは誤差和算出部202に供給される。サイズ変更部201は、正面動画像の右側端部分を例えば16×16画素サイズ単位で区分して複数の動き検出領域を設定する。なお、以下の説明では、1つの動き検出領域に対する各部の動作を示すものとする。
【0031】
このサイズ変更部201は、拡大率設定部205から供給された拡大率Zを用いることにより、画像基準位置CPを中心として(1/Z)倍した動き検出領域の画像信号SDzを生成して誤差和算出部202に供給する。また、画像信号SDzを誤差和算出部202に供給する際には、画像基準位置CPを中心として(1/Z)倍したことにより移動された動き検出領域の中心の座標値Pzも誤差和算出部202に供給する。なお、画像信号SDzは、図6で説明したように補間処理によって画素位置毎の信号レベルに変換した信号である。
【0032】
誤差和算出部202は、1フレーム前の画像信号SDdから、サイズ変更部201によって示された座標値Pzを基準として、(1/Z)倍した動き検出領域と対応する領域の画像信号を選択する。この選択した信号と(1/Z)倍した動き検出領域の画像信号SDzを用いて、画素毎の誤差を算出すると共に加算することで誤差和ETを算出して比較部203に通知する。
【0033】
比較部203は、誤差和最小値ETLと誤差和算出部202で算出された誤差和ETとを比較する。ここで誤差和最小値ETLが設定されていないときには、最初に算出された誤差和ETを誤差和最小値ETLとして設定する。また、誤差和最小値ETLは算出される誤差和よりも大きい値に予め設定しておくものとしても良い。誤差和最小値ETLと誤差和ETとの比較の結果、誤差和ETが誤差和最小値ETLよりも小さいときには、この誤差和ETを新たな誤差和最小値ETLとして設定すると共に、誤差和最小値ETLが更新されたことを示す更新信号CHをデータ格納部204に通知する。また、比較部203は、誤差和ETと誤差和最小値ETLとの比較が完了したことを示す信号CEを拡大率設定部205に通知する。
【0034】
データ格納部204には、拡大率設定部205から拡大率Zが通知されており、誤差和最小値ETLが更新されたことが更新信号CHで示されたときには、通知された拡大率Zを記憶する。また、既に拡大率が記憶されているときには、記憶されている拡大率を通知された拡大率Zで更新する。また、拡大率設定部205から拡大率の変更処理の完了を示す信号CHZが供給されたときには、記憶している拡大率Zを動き量MVとしてレイヤ化処理ブロック22に供給する。
【0035】
拡大率設定部205は、拡大率の下限値と上限値を予め設定し(例えば下限値=1.0,上限値=1.1)、最初に下限値を拡大率Zとしてサイズ変更部201とデータ格納部204に通知する。その後、比較部203から誤差和ETと誤差和最小値ETLの比較が完了したことを示す信号CEが供給される毎に、拡大率Zを所定量だけ順次増加させて(例えば0.005のステップで増加させて)、サイズ変更部201とデータ格納部204に通知する。その後、拡大率Zが上限値に達したとき、拡大率設定部205は、拡大率の変更処理の完了を示す信号CHZをデータ格納部204に通知する。
【0036】
このように、拡大率設定部205で順次拡大率を増加させることで動き検出領域の画像を順次縮小すると共に、この縮小された領域の画像と1フレーム前の画像と比較して、誤差の最も少なくなるときの拡大率をデータ格納部204に記憶させることで、サイズ変更部201での拡大率の変更処理が終了したときに、この動き検出領域の動き量MVをデータ格納部204からレイヤ化処理ブロック22に供給することができる。
【0037】
また、設定された全ての動き検出領域についても、拡大率設定部205によって設定された拡大率Zを用いて同様な処理を行う。拡大率設定部205での拡大率の変更処理が終了したときには、図8の矢印の長さで示すように、各動き検出領域ARの動き量MVが判別されて、それぞれの動き検出領域の動き量MVをデータ格納部204からレイヤ化処理ブロック22に通知することができる。
【0038】
レイヤ化処理ブロック22は、閾値を設定して動き量と比較することにより、各動き検出領域が複数レイヤのいずれに属するかを判別して、画像端部領域を複数のレイヤに分類する。ここで、遠景の画像は動き量が小さく、近景の画像は動き量が大きくなる。このため、レイヤ化処理ブロック22は、閾値を設定して動き量と比較することにより、各動き検出領域が例えば遠景,中景,近景のいずれにレイヤに属するかを判別できる。
【0039】
図9はレイヤ化処理ブロック22の構成を示している。動き検出ブロック20から供給された動き量MVは、統計情報算出部221とレイヤ移動量算出部225に供給される。統計情報算出部221は、供給された領域毎の動き量に基づく統計情報MS、例えば動き量の平均値と最大値と最小値、あるいは動き量をクラス分けして求めた度数分布等を求めてレイヤ分割閾値設定部222に供給する。
【0040】
レイヤ分割閾値設定部222は、統計情報算出部221で求めた統計情報MSに基づいて閾値Thを設定して、レイヤ判定部223と遅延部224に供給する。また、レイヤ分割閾値設定部222には、遅延部224で1フレーム遅延した閾値である、1フレーム前の閾値Thdが供給されており、統計情報算出部221で求めた統計情報MSに基づき1フレーム前の閾値Thdの修正を行って新たな閾値Thを設定する。
【0041】
ここで、統計情報MSとして動き量の最大値と最小値が示されたとき、閾値をn個設定する場合には、動き量の出現範囲である最大値と最小値の範囲を(n−1)等分して閾値を設定する。例えば図10Aに示すように、最大値MVmaxから最小値MVminまでの範囲を3等分して境界値を閾値Th-1,Th-2に設定する。あるいは、平均値MVavgも用いて式(1)と式(2)に基づき閾値Th-1,Th-2を設定する。
【0042】
【数1】
【0043】
また、1フレーム前の閾値が供給されているときには、この閾値を統計情報算出部221で求めた統計情報に基づいて補正することにより新たな閾値を算出する。例えば、1フレーム前の閾値を「Thd-1」,「Thd-2」としたとき、式(3)と式(4)を用いて閾値Th-1,Th-2を算出する。なお「α」と「β」は係数である。
【0044】
【数2】
【0045】
また、図10Bに示すようなヒストグラムが統計情報として示されたときには、極小となる動き量を判別して、判別された極小となる動き量に基づいて閾値Th-1,Th-2を設定することもできる。さらに、ヒストグラムに基づいて既に設定されている閾値Thd-1,Thd-2を、上述の場合と同様にして統計情報算出部221で求めた統計情報に基づいて補正して新たな閾値Th-1,Th-2を求めるものとしても良い。このように、レイヤ分割閾値設定部222で設定された閾値は、レイヤ判定部223に供給される。
【0046】
レイヤ判定部223は、各動き検出領域の動き量MVとレイヤ分割閾値設定部で設定された閾値Thとを比較して、画像端部領域がいずれのレイヤに属しているかを決定する。また、この結果を示すレイヤ識別情報LSを生成してレイヤ移動量算出部225と周辺画像信号生成ブロック24に供給する。レイヤ移動量算出部225は、レイヤに含まれる動き検出領域の動き量に基づき平均値をレイヤ毎に算出して、レイヤ移動量LVとして周辺画像信号生成ブロック24に供給する。
【0047】
ところで、動き検出領域が例えば青空の一部であるような場合、動き検出ブロック20は、この動き検出領域を縮小して誤差和を算出しても拡大率に係らず誤差和が略一定となって動き量を精度良く判別できないおそれがある。このため、動き量MVを判別できないとき、動き検出ブロック20は、動き検出領域内の画像の色を示す情報をレイヤ化処理ブロック22に供給する。また、レイヤ化処理ブロック22は、色を示す情報を利用して、レイヤ分割を行う。例えば動き量を算出できない動き検出領域において、この領域内の画像の色が青空の色であるときには、この領域を遠景レイヤに割り当てることでレイヤ識別情報LSを生成する。
【0048】
次に、周辺画像信号生成ブロック24は、レイヤ識別情報LSとレイヤ移動量LVに基づき、レイヤ分けされた画像端部領域から対応するレイヤ移動量分だけ画像を抽出する。また、周辺画像信号生成ブロック24は、既に生成されている1フレーム前の側面動画像をレイヤ毎に移動させたのち、レイヤ移動量分だけ抽出された画像をレイヤ毎に重ね合わせることで画像合成を行い側面動画像を生成する。さらに、正面動画像の投影面と右側面動画像の投影面では向きが異なる。このため、周辺画像信号生成ブロック24は、生成した側面動画像を投影面に応じた画像に変換処理することで、スクリーンに投影する側面動画像の画像信号を生成して出力する。
【0049】
図11は、周辺画像信号生成ブロック24の構成を示している。この周辺画像信号生成ブロック24は、レイヤ化処理ブロック22で正面動画像の画像端部領域を遠景と中景と近景の3つのレイヤに分割した場合の構成である。
【0050】
レイヤ化処理ブロック22で生成されたレイヤ識別情報LS及びレイヤ移動量LVは、信号抽出部241に供給される。この信号抽出部241は、正面動画像の画像信号SDCに基づき、正面動画像の画像端部領域からレイヤ毎にレイヤ移動量分だけ画像信号を抽出する。例えば図12Aに示すように、動き検出領域の位置毎に、正面動画像の右側端から動き検出領域のレイヤに応じたレイヤ移動量分だけ画像UEを抽出する。ここで、動き検出領域が遠景レイヤと判別されているときには、この動き検出領域と対応する位置で正面動画像の右側端から遠景レイヤのレイヤ移動量に対応した画素数分の信号が抽出される。また、中景レイヤや近景レイヤと判別されたときには、中景レイヤや近景レイヤのレイヤ移動量に対応した画素数の信号が正面動画像の右側端から抽出される。この抽出した各レイヤの画像を重ね合わることで画像合成を行うものとすれば、図12Bに示すように右側面動画像URを生成できる。
【0051】
このように、信号抽出部241によって抽出された遠景レイヤの画像信号SR-fは加算部242に供給される。また、抽出された中景レイヤの画像信号SR-mは加算部243に供給されると共に、抽出された近景レイヤの画像信号SR-nは加算部244に供給される。
【0052】
画像シフト部245には、レイヤ化処理ブロック22からレイヤ移動量が通知されると共に、遅延部26から1フレーム前のレイヤ毎の画像信号SERd-f,SERd-m,SERd-nが供給される。この画像シフト部245は、画像信号SERd-fに基づく遠景レイヤの画像を遠景レイヤのレイヤ移動量分だけ移動させた画像信号SRd-fを生成して加算部242に供給する。同様に、画像シフト部245は、画像信号SERd-mに基づく中景レイヤの画像を中景レイヤのレイヤ移動量分だけ移動させた画像信号SRd-mを生成して加算部243に供給すると共に、画像信号SERd-nに基づく近景レイヤの画像を近景レイヤのレイヤ移動量分だけ移動させた画像信号SRd-nを生成して加算部244に供給する。
【0053】
加算部242は、画像信号SR-fと画像信号SRd-fとの加算信号SRA-fを生成して補間部246に供給する。同様に、加算部243は、画像信号SR-mと画像信号SRd-mとの加算信号SRA-mを生成して補間部246に供給すると共に、加算部244は、画像信号SR-nと画像信号SRd-nとの加算信号SRA-nを生成して補間部246に供給する。
【0054】
ここで、例えば画像信号SERd-f,SERd-m,SERd-nを重ね合わせることにより生成した右側面動画像URが図12Cに示すものであるときには、画像シフト部245によってレイヤ毎に、それぞれのレイヤ移動量MR1,MR2だけ画像が移動されるので、画像信号SRd-f,SRd-m,SRd-nを重ね合わせることにより生成した右側面動画像URは図12Dに示すものとなる。さらに、加算部242,243,244によって画像信号SRと画像信号SRdが加算されるので、加算信号SRA-f,SRA-m,SRA-nを重ね合わせることにより画像UEが合成されて、右側面動画像URは図12Eに示すものとなり、図12Cに対して1フレーム期間経過後の右側面動画像を生成できる。またこのとき、画像シフト部245によってレイヤ毎に、それぞれのレイヤ移動量だけ画像が移動されると共に、正面動画像の右側端からは、レイヤ毎に、それぞれのレイヤ移動量分だけ画像が抽出されるので、移動された画像分だけ正面動画像から画像が重ね合わせられることとなり、各レイヤは画像が移動されても連続した画像となる。
【0055】
補間部246は、加算部242,243,244から供給された加算信号に基づき、移動量の少ないレイヤの画像から順に重ね合わせることで画像合成を行うとき、レイヤの移動量の差によって画像の無い隙間部分が生じているか否かを判別して、隙間部分が生じているときには、この隙間領域の画像を補間によって生成する。例えば建物等の動きのない被写体を車載カメラで撮影したときには、遠景レイヤの移動量は小さく近景レイヤの移動量は大きくなる。このため、画像シフト部245によって右側面動画像の遠景画像と中景画像と近景画像を各レイヤ移動量分だけ移動した場合、例えば図13Aに示す右側面動画像おいて、中景レイヤの画像UR2と近景レイヤ画像UR2が隣接しており、近景レイヤのレイヤ移動量と中景レイヤの移動量が異なるときには、レイヤ毎に画像を移動させると図13Bに示すように画像の無い隙間領域UNが生じてしまう場合がある。なお隙間領域は、画像を重ね合わせた箇所にその旨を示すフラグを立てる等の方法を用いると判別できる。
【0056】
このため、補間部246は、隙間領域の周辺画素を利用して補間を行い、この隙間領域の画像を創り出して重ね合わせる。例えば図13Cに示すように隙間領域の後方側に位置する画像をレイヤの移動方向である隙間領域側に伸長させることにより隙間領域を補間する。このように、補間処理を行うことで、右側面動画像に隙間領域のない右側面動画像の画像信号を生成できる。また、後方側に位置する画像をレイヤの移動方向側に伸長させて補間を行うことにより、動き量の大きい画像が移動中に尾を引くように長くなってしまうことも防止できる。また、隙間領域側に周辺画像をシフトさせるものとしても良い。さらに、補間部246は、周辺の画像信号を用いて距離の重み付け平均、すなわち隙間領域に接する隣接領域内の画素の重み付け平均により、複数の画素を作成して隙間領域を埋めることで補間処理を行うものとしても良い。
【0057】
この補間部246による補間処理後の加算信号SRA-fは、画像信号SER-fとして中景合成部247に供給されると共に遅延部26に供給される。同様に、中景レイヤの加算信号SRA-mは、画像信号SER-mとして中景合成部247と遅延部26に供給されると共に、近景レイヤの加算信号SRA-nは、画像信号SER-nとして近景合成部248と遅延部26に供給される。
【0058】
中景合成部247は、画像信号SER-fと画像信号SER-mを用いて、遠景レイヤの画像に中景レイヤの画像を重ね合わせた画像信号SER-fmを生成して近景合成部248に供給する。
【0059】
近景合成部248は、画像信号SER-fmと画像信号SER-nを用いて、遠景画像に中景画像を重ね合わせた画像に対して更に近景画像を重ね合わせることで画像合成を行い右側面動画像の画像信号SFRとして画像変換部249に供給する。
【0060】
画像変換部249は、近景合成部248から供給された右側面動画像の画像信号SERを画像投影用の周辺画像信号SDRに変換する。ここで、近景合成部248から供給された画像信号SFRに基づく画像は、上述したように1フレーム前の画像をレイヤ移動量に応じて移動させると共に、正面動画像UCからレイヤ移動量分だけ抽出して、この移動された画像に抽出した画像を重ね合わせた画像である。このため、図14Aの実線で示す画像UR’となり、破線で示すような画像基準位置CPから湧き出してくるような画像とならない。また、図14Bに示すように、右側面動画像を投影するスクリーン10Rと正面動画像を投影するスクリーン10Cの投影面は同一の向きでない。このため、画像変換部249は、画像信号SFRに基づく画像UR’を画像基準位置CPから湧き出してくるような右側面動画像URとする画像変換処理を行う。
【0061】
すなわち、画像変換部249は、画像変換処理として、スクリーン10Rに投影した右側面動画像に対応した画像基準位置CPRからの距離に比例して画像信号SFRに基づく画像を垂直方向に拡大する。また水平方向については、画像の動きが画像基準位置CPRからの距離に比例するように拡大する。
【0062】
ここで、図14Cに示すように、右側面動画像の前端から画像基準位置CPRまでの長さを「L」、右側面動画像の水平方向の長さを「A」、更に正面動画像の投影面と右側面動画像の投影面とがなす角度θsに基づく比例定数γを設定すると、図14Dに示すように、画像信号SFRに基づく画像の位置(x,y)と、この位置に対応する画像変換後の位置(X,Y)の関係は近似的に式(5)(6)で示すことができる。なお、長さ「L」「A」及び比例定数γは、側面動画像を生成する前に予め設定する。
【0063】
【数3】
【0064】
このため、画像変換後の位置(X,Y)の信号として、式(5)(6)に基づき算出した画像信号SFRに基づく画像上の位置(x,y)の信号を抽出すれば、画像変換された周辺画像信号SDRを容易に生成できる。また、左側面動画像の周辺画像信号SDLも同様にして生成することができる。このため、プロジェクタ12Rは、この周辺画像信号SDRを用いて右側面動画像をスクリーン10Rに投影することで、図14Eに示すように、より臨場感の高い右側面動画像を投影できる。また、プロジェクタ12Lは、この周辺画像信号SDLを用いて左側面動画像をスクリーン10Lに投影することで、より臨場感の高い左側面動画像を投影できる。さらに、プロジェクタ12Cは、周辺画像信号SDL、SDRの生成に要する時間だけ、画像信号SDCを遅延させた画像信号である画像信号SDC’に基づいてスクリーン10Cに正面動画像を投影すれば、正面動画像の画像信号SDCを用いるだけで、リアルタイムに正面動画像と良好な左右の側面動画像を投影することができる。上述の説明では、側面動画像を生成するものとしたが、上面側や底面側の動画像も同様にしてリアルタイムで表示できる。なお、上述の第1の実施の形態や後述する第2および第3の実施の形態におけるレイヤ分け,閾値設定,動き検出領域の数やサイズ及び位置等は例示的なものであって限定的なものでない。例えば、動き検出領域の動きの求め方では、ブロックマッチング方法等を用いることもできる。但し、前進画像や後退画像のズーム率によっては本手法が望ましい。また、レイヤ分けにおける閾値算出は、動き情報(動き量・方向)に基づいて適宜レイヤを決定することができれば、どのような手法でも良い。
【0065】
さらに、上述の各ブロックで行われる処理はハードウェアだけでなくソフトウェアで実現するものとしても良い。この場合の構成を図15に示す。
【0066】
コンピュータ30は、図15に示すようにCPU(Central Processing Unit)301を内蔵しており、このCPU301にはバス320を介してROM302,RAM303,ハード・ディスク・ドライブ304,入出力インタフェース305が接続されている。さらに、入出力インタフェース305には入力部311や記録媒体ドライブ312,通信部313,画像入出力部314が接続されている。
【0067】
外部装置から命令が入力されたり、キーボードやマウス等の操作入力手段あるいはマイク等の音声入力手段等を用いて構成された入力部311から、命令が入力されると、この命令が入出力インタフェース305を介してCPU301に供給される。
【0068】
CPU301は、ROM302やRAM303あるいはハード・ディスク・ドライブ304に記憶されているプログラムを実行して、供給された命令に応じた処理を行う。さらに、ROM302やRAM303あるいはハード・ディスク・ドライブ304には、上述の画像処理装置と同様な処理をコンピュータ30で実行させるための画像処理プログラムを予め記憶させて、周辺画像である側面動画像の生成を行う。
【0069】
図16は、第1の実施の形態における画像処理プログラムの全体構成を示すフローチャートである。図において、ステップST1では動き検出処理を行い、画像の動き量を検出する。次にステップST2ではレイヤ化処理で画像がいずれのレイヤに属するを示すレイヤ情報を生成すると共に、レイヤ毎の動き量を算出する。ステップST3では周辺画像生成処理を行い、レイヤ情報とレイヤ毎の動き量に基づき周辺画像を合成する。
【0070】
図17は、図16のステップST1の動き量検出処理を示すフローチャートである。ステップST11では、正面動画像に対して動き検出領域を設定してステップST12に進む。ステップST12では、動き検出領域の画像を縮小して誤差和を算出してステップST13に進む。ステップST13では既に算出されている誤差和を比較して誤差和が少なくなる動き量を検出してステップST14に進む。ステップST14では、予め設定された範囲内の画像サイズでステップST12,ST13の処理が完了したか否かを判別して、完了していないときにはステップST11に戻り、完了したときにはステップST15に進む。ステップST15では、誤差和が最も少なくなる動き量を動き検出領域の動き量とする。
【0071】
図18は、図16のステップST2のレイヤ化処理を示すフローチャートである。ステップST21では、ステップST1の動き量検出処理で検出された動き量を用いて統計情報、例えば平均値を算出してステップST22に進む。ステップST22では、統計情報に基づき、画像を例えば遠景,中景,近景にレイヤ分けするための閾値を設定する。ステップST23では設定された閾値と動き量を比較して、動き検出領域がいずれのレイヤに属するかを示すレイヤ情報を生成する。ステップST24では、レイヤに含まれる動き検出領域の動き量に基づきレイヤ毎の動き量を算出する。
【0072】
図19は、図16のステップST3の周辺画像生成処理を示すフローチャートである。ステップST31では、レイヤ化処理で生成されたレイヤ毎の動き量とレイヤ情報に基づき、正面動画像からレイヤ毎に画像を抽出する。ステップST32では、抽出した各レイヤの画像を所定の位置に合成を生成する。ステップST33では、画像の合成を行ったときに画像の無い部分が生じて、この部分の画像を補う補間処理か必要か否かを判別する。ここで、画像の無い部分が生じるときにはステップST34に進み、画像の無い部分が生じていないときにはステップST35に進む。ステップST34では補間処理を行いステップST35に進む。例えば、画像の無い部分の周辺の画像を伸長して補間する。ステップST35では、合成された画像を投影するスクリーンの向きに合わせて幾何変換処理を行い、この幾何変換が行われた画像の画像信号をステップST36で周辺画像の画像信号として出力する。
【0073】
このような画像処理プログラムは、磁気や光を利用したリムーバブル記録媒体や半導体素子等を用いて構成されたリムーバブルの情報記録伝送媒体、例えばフロッピー(R)ディスクやCD−ROM等の光ディスク、MOディスク等の光磁気ディスク、テープカートリッジ、あるいは半導体メモリ等に記録するものとしても良い。この場合、これらのリムーバブル情報記録伝送媒体を記録媒体ドライブ312に装着して画像処理プログラムを読み出し、読み出したプログラムを入出力インタフェース305やバス320を介してROM302やハード・ディスク・ドライブ304等に記憶させることによりインストールしても良い。
【0074】
さらに、情報記録伝送媒体は、画像処理プログラムを伝送する有線や無線の伝送路、たとえばLANやインターネット等のネットワーク、あるいは衛星放送波や地上放送波等も含まれる。この場合、情報記録伝送媒体は通信部313と接続されて、情報記録伝送媒体を介して伝送された画像処理プログラムは、通信部313や入出力インタフェース305およびバス320を介してROM302やハード・ディスク・ドライブ304等に記憶されて画像処理プログラムのインストールが行われる。
【0075】
ここで、画像処理プログラムの実行中に正面動画像の画像信号が画像入出力部314に入力されると、上述の画像処理ブロックでの処理を行い、正面動画像の画像信号に基づき側面動画像の画像信号を生成する。この生成された側面動画像の画像信号を、画像入出力部314から出力してプロジェクタ12L,12Rに供給することにより、図2に示す画像表示を行うことができる。
【0076】
このように、上述の実施の形態によれば、1つの車載カメラなどによる撮影によって得られた少なくとも1つの拘束条件を満たす動きの画像信号SDCを入力するだけで、この画像信号SDCに基づく動画像に存在しない周辺画像をリアルタイムで提示できるので、臨場感の高い多方向の画像提示が可能となる。
【0077】
また、元々無い部分の画像を入力画像に基づいて創り出すため、無い部分の画像を得るために多数のカメラや特殊なカメラを用いる必要がなく、低コストであると共に表示範囲が広く奥行感のある画像を得ることができる。
【0078】
さらに、実写画像を用いて画像を創り出すので、よりリアルな画像提示が可能となり、コンピュータグラフィクスで仮想空間を創るように3次元空間を再構築するものでないので、非常に簡単な処理で入力画像と異なる投影面の画像を得ることができる。
【0079】
また、現存する莫大な画像ソースに対しても、それが少なくとも1つの拘束条件を満たす動きの画像であれば、上述の処理を行うことで、両側面や上下面の画像を入力された画像と同時に提示することができ、より臨場感が高く、広範囲な映像を表現することができる。
【0080】
ところで、上述の画像処理装置15Aは、正面動画像の動き方向が一点から放射方向であるという拘束条件を加えることで、正面動画像と左側面動画像と右側面動画像を入力された画像信号SDCに基づいてリアルタイムに表示するものとした。しかし、蓄積されて自由に読み出し可能な画像信号SDCを用いるものとすれば、上述のような拘束条件を加えることなく、画像信号SDCに基づいて正面動画像と左側面動画像と右側面動画像を表示させることができる。
【0081】
このような処理を行う画像処理装置15Bは、この蓄積されている例えば車載カメラ等で撮影した正面動画像の画像信号SDCをプロジェクタ12Cに供給して、画像信号SDCに基づく正面動画像を図2に示す正面に位置するスクリーン10Cに表示させる。また、画像処理装置15Bは、蓄積されている正面動画像の画像信号SDCに基づき、車載カメラの視野範囲に含まれていない画角の周辺画像を示す画像信号、例えば正面動画像と連続する左右の側面動画像を示す画像信号である周辺画像信号SDL,SDRを生成するための中間画像情報を生成して蓄積させる。スクリーン10Cで正面動画像を表示する際には、蓄積させた中間画像情報を用いて正面動画像と連続する側面動画像の周辺画像信号SDL,SDRを生成して、周辺画像信号SDLをプロジェクタ12Lに供給すると共に周辺画像信号SDRをプロジェクタ12Rに供給する。このため、左側に位置するスクリーン10Lに正面動画像と連続性を有する左側面動画像が表示されると共に、右側に位置するスクリーン10Rに正面動画像と連続性を有する右側面動画像が表示されて、広画角の画像提示を行うことができる。なお、画像信号SDCや中間画像情報の蓄積は画像処理装置15Bで行っても良く、外部記憶手段に蓄積させるものとしても良い。
【0082】
次に、この発明の第2の実施の形態として、画像処理装置15Bで画像信号SDCや中間画像情報を蓄積する場合について説明する。図20は、画像処理装置15Bの概略構成を示している。この画像処理装置15Bは、蓄積された画像信号SDCを用いて正面動画像と左側面動画像と右側面動画像を表示できるものである。画像信号SDCは、蓄積部50の正面動画像信号蓄積領域51に蓄積されており、動き検出ブロック40の遅延部41と動き検出部42およびレイヤ化処理ブロック45の情報生成部47に供給されるものである。
【0083】
遅延部41は、画像信号SDCを1フレーム遅延させて画像信号SDCaとして動き検出部42に供給する。動き検出部42は、正面動画像の側端側に、図21の破線で示すように区切られた複数の動き検出領域を設定して、この動き検出領域の注目フレームの画像信号SDCと1フレーム前の画像信号SDCaとの比較を動き検出領域毎に行い、画像の動きを示す動きベクトルMVEを動き検出領域毎に判別してレイヤ化処理ブロック45のレイヤ分類部46に供給する。
【0084】
レイヤ分類部46は、各動き検出領域の動きベクトルMVEに基づいて正面動画像の動きパターンを判定して、中間画像情報を生成する際のレイヤ設定を行う。例えば、レイヤ分類部46は、離れた被写体を撮影した遠景画像のレイヤ,近接した被写体を撮影した近景画像のレイヤ,遠景画像と近景画像との間に位置する中景画像のレイヤ、およびこれらのレイヤとは異なるレイヤをどのように設けるかを判別してレイヤ設定を行う。ここで、車載カメラで正面動画像を撮影したときの正面動画像は、一方向に直進する場合、正面動画像を順次ズームインした画像となる。また、車が後退しているときには、正面動画像を順次ズームアウトした画像となる。さらに、追越し車両が撮影されたときには、ズームイン画像に追い越し車両がズームアウト画像として表示されることとなる。また、右折や左折をしたときには、例えば正面動画像の上部側が水平方向に移動されると共に下部側はズームイン画像となる。このため、レイヤ分類部46は、各動き検出領域の動きベクトルMVEに基づいて正面動画像の動きパターンを判定して、判定した動きパターンに基づいてレイヤ設定を行うものとする。例えば、一方向に直進する動きパターンでと判別されたときには、遠景,中景,近景の各画像のレイヤを生成し、右折や左折の動きパターンであると判別されたときには、遠景,中景,近景の各画像のレイヤだけでなく水平方向に移動される画像が含まれるレイヤも作成する。また、追越し車両がある動きパターンのときには、遠景,中景,近景の各画像のレイヤだけでなくズームアウト画像が含まれるレイヤも作成するようにレイヤ設定を行う。
【0085】
また、レイヤ分類部46は、動き検出部42から供給された動きベクトルMVEに基づき、正面動画像の側端側に設定された各動き検出領域がいずれのレイヤに属するかレイヤ分類を行う。このレイヤ分類は、動きパターンに応じて設定されたレイヤを用いて行う。例えば、レイヤ分類部46は、遠景,中景,近景の3つのレイヤ分けすると共に、水平方向に移動される画像が含まれるレイヤやズームアウト画像が含まれるレイヤが生成されているときには、これらのレイヤも含めてレイヤ分類を行う。このレイヤ分類によって、レイヤ分類部46は、いずれの動き検出領域がいずれのレイヤに属するかを示すレイヤ分類情報LBを生成すると共に、この生成したレイヤ分類情報LBを情報生成部47に供給する。
【0086】
情報生成部47は、レイヤ分類部46からのレイヤ分類情報LBに基づき正面動画像に設定された各動き検出領域をレイヤ分けして、この動き検出領域の画像信号をレイヤ毎にフレーム順に用いることでレイヤ毎の中間画像信号を生成する。さらに、レイヤ分けされた動き検出領域の動きベクトルMVEの動き量に基づきレイヤ毎に動き量の平均値を算出する。この情報生成部47で生成された中間画像信号GYvおよび算出したレイヤ毎の動き量(平均値)MYvは、中間画像情報として蓄積部50の中間画像情報蓄積領域52に蓄積される。
【0087】
スクリーン10C,10R,10Lで画像を表示する場合、プロジェクタ12Cは、蓄積されている画像信号SDCに基づく画像をスクリーン10Cに表示する。また、画像処理装置15Bは、蓄積部50に接続された周辺画像信号生成ブロック60からの読出制御信号RCによって、中間画像情報蓄積領域52に蓄積されている中間画像情報の読み出しを行い、レイヤ毎の動き量MYvに応じた分だけ各レイヤの中間画像信号GYvを順次使用して、遠景,中景,近景の順に各レイヤの画像を重ね合わせることで画像合成を行う。さらに遠景,中景,近景の3つのレイヤに属しないレイヤが設けられているときには、これらのレイヤの画像合成処理等も行い、周辺画像信号SDL,SDRを生成する。また、画像処理装置15Bは、この周辺画像信号SDLを正面動画像の画像信号SDCに対応させたタイミングでプロジェクタ12Lに供給すると共に、周辺画像信号SDRを正面動画像の画像信号SDCに対応させたタイミングでプロジェクタ12Rに供給する。プロジェクタ12Lは、正面動画像と連続した左側面動画像をスクリーン10Lに表示する。またプロジェクタ13Rは、正面動画像と連続した右側面動画像をスクリーン10Rに表示する。
【0088】
次に、動き検出ブロック40を構成する各部について詳細に説明する。なお、説明を簡単とするため、以下の説明では右側面についてのみ説明するものとし、左側面についての説明は省略する。
【0089】
動き検出ブロック40は、上述したように動きベクトルMVEを動き検出領域毎に判別する。ここで、正面動画像に画像の移動中心がある場合、すなわち車載カメラで前方を撮影して正面動画像としたとき、図5Aに示す時刻Tの画像は、例えば1フレーム時間が経過した後の時刻T’で図5Bに示すものとなり、画像基準位置CPを中心としたズームイン動作画像と略等しくなる。
【0090】
ここで、図5Cに示すように、拡大率Zを設定して注目フレームの動き検出領域を(1/Z)に縮小すると共に、この縮小された動き検出領域の位置を移動しながら1フレーム前の画像信号との誤差和を算出する。さらに拡大率Zを変化させて、同様に位置を移動しながら誤差和を算出する。このようにして誤差和が最小値となる位置を検出することで注目フレーム毎に各動き検出領域の動きベクトルMVEを判別できる。また、誤差和が最小値となるときの拡大率Zを動き量とする。
【0091】
ところで、縮小処理を行ったときには、領域内の画素の座標値が整数値とならない画素が生ずる。一方、縮小処理が行われていない1フレーム前の画像では、領域内の画素の座標値が整数値である。このため、縮小された画像に対しては線形補間を行って、座標値が整数値となる位置の信号レベルを算出する。例えば、上述の図6に示すようにKa×Ka画素の画像に対して(1/Z)に縮小処理を行ったことにより画像のサイズがKb×Kb画素のサイズとなったときには、線形補間を行ってKa×Ka画素の信号を用いて画素数を「Kb×Kb」とした画像の信号レベルを算出する。この算出された信号レベルと、縮小された画像と対応する位置の1フレーム前の信号レベルの誤差和を算出することにより、精度良く動き量を判別できる。
【0092】
画像基準位置CPが明らかでないとき、図22に示すように動き検出領域ARaの中心が位置Pa1から位置Pa2とされたときに誤差和が最小値となり、動き検出領域ARbの中心が位置Pb1から位置Pb2とされたときに誤差和が最小値となる場合には、動き検出領域ARaの動きベクトルMVEのベクトル方向と動き検出領域ARbの動きベクトルのベクトル方向が交差する点を検出することで画像基準位置CPを検出できる。
【0093】
また、右折時や左折時には、正面動画像の例えば上部側画像が水平移動することとなる。このため、画像基準位置CPを中心としてズームイン動作を行っても誤差和の最小値が検出されない場合には、動き検出領域の画像を横方向に移動させて誤差和の最小値を判別する。またこのとき、誤差和が最小値となるまでの動き検出領域の移動量を動きベクトルMVEの動き量として設定することができる。
【0094】
次に、後退時にはあたかも画像が画像基準位置CPに吸い込まれてしまうように見えることから、後退時の画像は画像基準位置CPを中心としたズームアウト動作画像と略等しくなる。このため、拡大率Zを「1」以下とする。すなわち、後退時には画像の動きが前進時とは逆となることから、前フレームの側端側に複数の動き検出領域を設定して、各動き検出領域を(1/Z)に縮小すると共に、この縮小された領域の位置を移動しながら注目フレームの画像との誤差和を算出する。あるいは、注目フレームの各動き検出領域を(1/Z)に縮小すると共に、この縮小された領域の位置を移動しながら1フレーム後の画像との誤差和を算出する。さらに拡大率Zを変化させて、同様に位置を移動しながら誤差和を算出する。このようにして誤差和が最小値となる位置を検出することで後退時の動きベクトルMVEも判別できる。
【0095】
以上のようにして動きベクトルMVEの判別を行うと、遠景の画像は動きが少ないため動きベクトルMVEの動き量は小さくなり、近景の画像は動きが多いため動きベクトルMVEの動き量は大きくなる。
【0096】
図23は、動き検出部42の構成を示しており、画像信号SDCはサイズ変換部421に供給されると共に、遅延部41から供給された画像信号SDCaは誤差和算出部422に供給される。サイズ変換部421は、正面動画像の側端部分を複数の動き検出領域、例えば16×16画素サイズの単位で複数の動き検出領域に分割して動き検出領域を設定する。さらに、サイズ変換部421は、後述する探索制御部425から供給された拡大率Zを用いて、動き検出領域の画像を(1/Z)倍した画像信号FEzを生成すると共に、画像基準位置CPを基準として動き検出領域の画像を(1/Z)倍したことにより変換された座標値Qzを設定して、この画像信号FEzと座標値Qzを誤差和算出部422に供給する。なお、画像信号FEzは、上述の図6に示すように補間処理によって座標値を整数値に変換したときの信号であり、座標値Qzは補間処理によって座標値を整数値に変換したときの座標値、すなわち図6における「Kb×Kb」の画素位置である。
【0097】
誤差和算出部422は、サイズ変換部421からの座標値Qzで示された位置の信号を画像信号SDCaから選択する共に、この選択された信号と画像信号FEzとの誤差和を算出して比較部423に通知する。
【0098】
比較部423は、誤差和最小値と誤差和算出部422で算出された誤差和とを比較する。ここで誤差和最小値が設定されていないとき、比較部423は、最初に算出された誤差和を誤差和最小値として設定する。算出された誤差和が誤差和最小値よりも小さいとき、比較部423は、この誤差和を新たな誤差和最小値として設定すると共に、誤差和最小値が更新されたことをデータ格納部424に通知する。また、比較部423は、誤差和最小値と誤差和算出部422で算出された誤差和との比較が完了したことを信号ESによって探索制御部425に通知する。なお、誤差和最小値は算出される誤差和よりも大きい値に予め設定しておくものとしても良い。
【0099】
データ格納部424は、比較部423から誤差和最小値が更新されたことが通知されたとき、探索制御部425から通知された拡大率Zを記憶する。また、既に拡大率を記憶されているとき、データ格納部424は、記憶されている拡大率を通知された拡大率Zで更新する。また、探索制御部425から拡大率の変更処理の完了が信号ERによって通知されたとき、データ格納部424は、記憶している拡大率を動き量とすると共に画像基準位置方向をベクトル方向とした動きベクトルMVEをレイヤ分類部46に供給する。
【0100】
探索制御部425は、拡大率の下限値が「1」に設定されていると共に、上限値も予め設定されており、最初に下限値を拡大率Zとしてサイズ変換部421とデータ格納部424に通知する。その後、比較部423から誤差和最小値と誤差和算出部422で算出された誤差和との比較が完了したことが通知される毎に、拡大率Zを順次増加してサイズ変換部421とデータ格納部424に通知する。その後、拡大率Zが上限値に達したとき、探索制御部425は、拡大率の変更処理の完了をデータ格納部424に通知する。
【0101】
また、比較部423で得られた誤差和最小値が小さくないとき、すなわち正面動画像の側端部分と等しい画像を検出できないとき、探索制御部425は、拡大率Zを「1」としてサイズ変換部421に通知して、動き検出領域の画像信号FEzを誤差和算出部422に供給させる。また、制御信号RPを誤差和算出部422に供給して、画像信号FEzの動き検出領域を水平方向に所定量移動させた位置の信号を画像信号SDCaから選択させる。その後、制御信号RPによって画像信号SDCaから選択する位置を水平方向に移動させて誤差和最小値を判別することにより、水平方向に移動させる画像の動きベクトルMVEも求めることができる。さらに、図示せずも1フレーム後の信号を誤差和算出部422に供給したり、1フレーム前の画像に動き検出領域を設定して注目フレームの画像の信号を誤差和算出部422に供給することで、画像基準位置CPに吸い込まれるような画像の動き量も判別できる。
【0102】
このように、探索方向を画像基準位置CPの方向や水平方向に移動させて、動き検出領域の画像と誤差和が最小となる他のフレームの画像位置を検出することで、動き検出領域の画像が右折や左折したときの画像、前を横切る車や人等の画像、あるいは追越し車両等の画像であっても正しく動きベクトルMVEを求めることができる。
【0103】
レイヤ分類部46は、各動き検出領域の動きベクトルMVEに基づき正面動画像がどのような動きパターンの画像であるかを判別すると共に、判別した動きパターンに基づいてレイヤを設定して、いずれの領域がいずれのレイヤに属するするかを示すレイヤ分類情報LBを情報生成部47に供給する。
【0104】
図24は、レイヤ分類部46の構成を示している。レイヤ分類部46の動きパターン判定部461は、動き検出部42から供給された各動き検出領域の動きベクトルMVEをフレーム単位で蓄積すると共に、蓄積された動きベクトルMVEに基づき動きパターンを判別する。
【0105】
ここで、動きパターン判定部461は、各動き検出領域の動きベクトルMVEのベクトル方向が、画像基準位置CPから放射方向とされて、全て画像が画像基準位置CPから沸き出すズームイン動作方向であるか否かを判別して、全て画像が画像基準位置CPから沸き出すズームイン動作方向であるときには直進動作と判別する。例えば、図25Aの矢印で示すように動きベクトルMVEのベクトル方向が画像基準位置CPから放射方向とされているときには直進動作と判別する。
【0106】
次に、動きパターン判定部461は、直進動作と判別しないとき、各動き検出領域の動きベクトルMVEのベクトル方向が放射方向とは逆方向であり、全て画像が画像基準位置CPに吸い込まれるズームアウト動作方向であるか否かを判別する。ここで、全て画像が画像基準位置CPに吸い込まれるズームアウト動作方向であるときには後退動作と判別する。例えば、図25Bの矢印で示すように画像基準位置CPの方向とされて、全て画像が画像基準位置CPに吸い込まれるズームアウト動作方向であることを検出したときには後退動作と判別する。
【0107】
また、動きパターン判定部461は、直進動作および後退動作と判別しないとき、一部のみがズームアウト動作方向であるか否かを判別して、一部のみがズームアウト動作方向であるときには、追越し車両があると判別する。例えば、図25Cに示すように左右両側端部の動き検出領域の動きがズームイン動作方向であると共に、一部のみがズームアウト動作方向であることを検出したときには追越し車両があると判別する。さらに、直進動作,後退動作および追越し車両があるものと判別しないとき、正面動画像の上部側の動き検出領域で、図25Dに示すように動きベクトルMVEのベクトル方向が水平方向とされているときには、ベクトル方向に応じて右折あるいは左折動作と判別する。また動き検出領域の一部で、図25Eに示すように動きベクトルMVEのベクトル方向が水平方向であるときには、横切り動作であると判別する。このようにして判別した動きパターンMPをレイヤ確定部462に通知する。なお、動きパターンとしては、上述のパターンだけでなく、動きの停止や後退しながら右折や左折を行うパターン等も考えられる。
【0108】
レイヤ確定部462は、動きパターン判定部461で判別された動きパターンMPに基づき、判別された動きパターンが所定のフレーム数以上連続したか否かを判別する。ここで、レイヤ確定部462は、動きパターンが所定のフレーム数以上連続したとき、判別された動きパターンに応じたレイヤパターン情報LPを生成して分類部463に通知する。
【0109】
ここで、レイヤ確定部462は、前進動作のように全画面が拡大する動きパターンであることを連続して所定のフレーム数以上判別したとき、例えば遠景,中景,近景のレイヤの作成を指示するレイヤパターン情報LPを生成して分類部463に通知する。また、レイヤ確定部462は、右折あるいは左折動作のように上部が水平方向に移動する動きパターンであることを連続して所定のフレーム数以上判別したとき、遠景,中景,近景のレイヤだけでなく水平方向に移動する画像が含まれるレイヤの作成を指示するレイヤパターン情報LPを生成して分類部463に通知する。また、追越し車両や後退時のように時間と共に縮小する画像が含まれている動きパターンであることを連続して所定のフレーム数以上連続して判別したとき、遠景,中景,近景のレイヤだけでなく縮小する画像が含まれる後退レイヤの作成を指示するレイヤパターン情報LPを生成する。また、横切り物体のように、一部が水平方向に移動する動きパターンであることを連続して所定のフレーム数以上判別したとき、水平方向に移動する画像が含まれるレイヤの作成を指示するレイヤパターン情報LPを生成する。このように、判別された動きパターンが所定のフレーム数以上連続したときに、判別された動きパターンMPに応じたレイヤパターン情報LPが生成されるので、動きパターンが誤って判別されたフレームが生じても、正しい動きパターンに応じたレイヤパターン情報LPを生成できる。
【0110】
閾値設定部464は、所定時間範囲(例えば注目フレームの前後30フレーム分)の動きベクトルMVEを用いて、ベクトル方向が画像基準位置CPから放射方向とされている動きベクトルMVEの動き量の平均値Vavgや最大値Vmax,最小値Vminを求めると共に、この平均値Vavgや最大値Vmax,最小値Vminに基づき、レイヤパターン情報LPで示されたレイヤに分類するための閾値Thを設定して分類部463に供給する。
【0111】
例えばレイヤパターン情報LPによって遠景,中景,近景のレイヤに分けることが示された場合、閾値設定部464は、遠景レイヤと中景レイヤとの区分位置を示す閾値Th-1を上述の式(1)に基づいて算出する。また中景レイヤと近景レイヤの区分位置を示す閾値Th-2を上述の式(2)に基づいて算出する。
【0112】
この閾値の設定は、上述の図10に示す場合と同様に、動き量のヒストグラムを求めて、このヒストグラムの極小値を利用して閾値Th-1,Th-2を求めるものとしても良い。このように、閾値Thは、動き量の分布に応じて動的に変化されるので、画像が1つのレイヤだけに分類されてしまうことがなく、動き量の分布に応じて良好にレイヤ分類を行うことができる。
【0113】
分類部463は、閾値設定部464からの閾値Thと動きベクトルMVEの動き量に基づいて、各フレームの各動き検出領域がレイヤパターン情報LPで作成が指示されたレイヤのいずれに属するかを判別してレイヤ分類を行う。また、分類部463は、水平方向に移動する動き検出領域やズームアウト動作方向の動き検出領域を、それぞれ対応するレイヤに割当てる。この分類部463での注目フレームの各動き検出領域のレイヤ分類が完了したとき、分類部463はレイヤ分類の結果を示すレイヤ分類情報LAを生成して分類補正部465に供給する。
【0114】
分類部463は、例えば遠景,中景,近景の3つのレイヤを作成する際には、動き検出部42からの動きベクトルMVEを用いて、動き検出領域毎に前mフレーム分と後nフレーム分の動き量の平均値を算出する。例えば、正面動画像の右側端部に設けた動き検出領域において、動きベクトルMVEの動き量が時間の経過と共に図26Aに示すように変化したとき(図の数字は動き量を示すものとする)、分類部463は、Fpフレームでの動き検出領域AR1に対して、Fpフレームでの動き検出領域AR1の動き量と、Fp-1〜Fp-mフレームの動き検出領域AR1の動き量と、Fp+1〜Fp+nフレームの動き検出領域AR1の動き量を用いて、動き量の平均値を算出する。さらに、動き検出領域AR1の動き量として算出された平均値と、上述のようにして設定された閾値Th-1,Th-2を比較することで、このFpフレームでの動き検出領域AR1が遠景,中景,近景のいずれのレイヤに属するかを判別する。このように、分類部463は、注目フレームの動き検出領域AR1について、前フレームや後フレームの動き量も用いて動き量の平均値を算出して、この平均値を用いて動き検出領域AR1のレイヤ分けを行うので、動き検出領域AR1の動き量に誤りが生じても、この動き検出領域AR1のレイヤ分類することができる。また、被写体の大きさの差や被写体までの距離の差によってフレーム毎の動き量の変動が生じても、これらの変動の影響を防止できる。さらに、分類部463は、他の領域や他のフレームに対しても同様に処理することで、図26Bに示すように各動き検出領域を遠景,中景,近景のいずれかのレイヤに分類して、レイヤ分類情報LAを分類補正部465に通知する。なお図26Bにおいて、クロスハッチで示す動き検出領域は近景、斜線で示す動き検出領域は中景、他の動き検出領域は遠景として分類されたことを示している。
【0115】
分類補正部465は、各動き検出領域のレイヤ分類情報LAを参照して、同じレイヤに属する領域の連結数が所定の数よりも少ない領域は周囲に合わせたレイヤに補正する。例えば図26Bにおいて、Fp+4フレームの領域AR4-gやFp-2フレームの領域AR6-hは、同じレイヤに属する領域が連結していない。このため、分類補正部465は、これらの領域を図26Cに示すように周囲に合わせた領域に補正して、いずれの領域がいずれのレイヤとされているかを示すレイヤ分類情報LBを、情報生成部47に供給する。
【0116】
また、追越し車両があるときには、レイヤは、上述の遠景,中景,近景だけでなく、図26Dに示すように追い越し車両の画像が含まれる後退レイヤも生成される。ここで、追越し車両は、遠景や中景および近景の画像とは動きベクトルMVEのベクトル方向が逆であることから、後退レイヤの時間軸方向は、他のレイヤとは方向を逆として生成する。
【0117】
図27は情報生成部47の構成を示している。レイヤ分類部46から供給されたレイヤ分類情報LBは、動き量平均値算出部471と中間画像信号生成部472に供給される。
【0118】
動き量平均値算出部471は、各動き検出領域の動き量を用いて、レイヤ毎の動き量の平均値をフレーム毎に算出する。例えばFeフレームにおいて、遠景レイヤとされた動き検出領域がny個であるとき、動き量平均値算出部471は、このny個の動き検出領域の動き量を用いて平均値を算出して中間画像信号生成部472に供給すると共に、この算出した動き量MYvを中間画像情報として蓄積部50の中間画像情報蓄積領域52に記憶させる。
【0119】
中間画像信号生成部472は、レイヤ分類部46から供給されたレイヤ分類情報LBに基づき、側端部から動き量平均値算出部471で算出された動き量MYvに応じてレイヤ毎に画像信号SDCを抽出してレイヤ毎の中間画像信号GFvを生成して、中間画像信号補間部473に供給する。
【0120】
中間画像信号補間部473は、各レイヤの動き量MYvに応じた信号量分の画像信号SDCを側端部から読み出して中間画像信号を生成する。例えば中間画像信号に基づく画像は、図28に示すものとなる。なお、図28Aは遠景レイヤの中間画像信号に基づく画像、図28Bは中景レイヤの中間画像信号に基づく画像、図28Cは近景レイヤの中間画像信号に基づく画像を示しており、斜線で塗りつぶした部分は画像の無い領域である。
【0121】
この中間画像信号補間部473は、動き量MYvの異なる各レイヤの画像を遠景,中景,近景の順に重ね合わせることで画像合成を行ったときに、画像の無い領域が生ずることがないように中間画像信号GFvの補正を行い、補正された信号を中間画像信号GYvとして中間画像情報蓄積領域52に記憶させる。この中間画像信号の補正は、手前のレイヤに対して全てを補間すると、奥のレイヤが隠れてしまうこととなる。したがって、中間画像信号補間部473は、最も奥のレイヤに対しては隙間全部を補間するものとし、中間に位置するレイヤではこのレイヤよりも手前のレイヤに属する領域によって生成された隙間に対してのみ、水平方向に隣接する信号を用いた補間処理を行い、画像の無い隙間領域の画像信号を作り出して中間画像信号に重ね合わせる。例えば、中間に位置するレイヤが図28Bの中景レイヤで、手前のレイヤが図28Cの近景レイヤの場合、隙間とは、中景レイヤの中の木や車の領域である。このように補間処理を行うことで、中間画像信号GFvに基づいた図28Aに示された画像は、画像の無い部分(斜線で塗りつぶした領域)が水平方向に隣接する信号を用いて補間されて、図29Aに示される画像となる。同様に、中間画像信号GFvに基づいた図28Bに示される画像は、図29Bに示されるように補正された画像となる。なお、例えば図28Cに示す近景レイヤが最も手前に位置するレイヤであるとき、最も手前に位置するレイヤでは、画像の無い領域が生じないので、最も手前に位置するレイヤに対する補間処理は不要となる。そのため、図29Cに示す近景レイヤは図28Cと等しいものである。
【0122】
蓄積部50の中間画像情報蓄積領域52は、レイヤ化処理ブロック45で生成されたレイヤ毎の動き量MYvとレイヤ毎の中間画像信号GYvとをフレーム毎に関係付けて、中間画像情報として記憶する。ここで、中間画像情報蓄積領域52に記憶された遠景レイヤの中間画像信号は、動き量が少ないため図29Aに示すように画像信号の信号量は少なくなる。また近景レイヤの中間画像信号では、動き量が大きいため図29Cに示すように信号量も多くなる。また中景レイヤでは図29Bに示すように遠景と中景の中間である信号量となる。なお、後退レイヤでは、動き方向が逆であることから後退レイヤの中間画像信号では、図29A〜図29Cとはフレーム方向が逆となる。
【0123】
この中間画像情報蓄積領域52は、レイヤパターン情報LPに基づいて水平移動レイヤを作成するものと指示されたとき、動きベクトルの方向が水平方向とされている動き検出領域の画像信号を、この水平移動レイヤの中間画像信号に設定する。ここで、水平方向に移動する画像は、正面動画像から外に移動する画像と中に入り込む画像が生じる。例えば、右折時には、正面動画像の右側端部から画像が入り込み左側端部から画像が出ていく。このため、外に移動する画像の水平移動レイヤは遠景レイヤ等と時間軸方向を等しくする。また、中に入り込む画像の水平移動レイヤは後退レイヤと同様に、遠景レイヤ等とは時間軸方向を逆方向とする。
【0124】
このようにして、中間画像情報蓄積領域52は、遠景,中景,近景の各レイヤの中間画像信号と後退レイヤや水平移動レイヤの中間画像信号を動き量に応じて生成して記憶する。また、各レイヤの動き量も上述のように合わせて記憶する。
【0125】
次に、蓄積部50の中間画像情報蓄積領域52に記憶された中間画像情報を用いて右側面の画像の周辺画像信号SDRを生成する場合について説明する。
【0126】
周辺画像信号SDRを生成する場合、周辺画像信号生成ブロック60は、中間画像情報蓄積領域52から中間画像情報として記憶されている動き量MYvを読み出して、レイヤ毎の中間画像信号GYvの信号読み出し量を動き量MYvに基づいて決定する。さらに、この動き量MYvに応じた信号量の中間画像信号をレイヤ毎に使用して、遠景レイヤ,中景レイヤ、近景レイヤの順に重ね合わせることで画像合成を行う。また、遠景,中景,近景のレイヤとは異なるレイヤが設けられているときには、このレイヤの画像合成処理も行い、周辺画像信号SDRを生成できる。この生成した周辺画像信号SDRを正面動画像の画像信号SDCの出力タイミングに合わせてプロジェクタ12Rに供給することで、正面動画像だけでなく右側面の画像も連続的に表示させることができる。
【0127】
図30は、中間画像情報蓄積領域52に記憶されている中間画像情報を読み出して周辺画像信号を生成する周辺画像信号生成ブロック60の構成を示している。周辺画像信号生成ブロック60の画像生成制御部61は、中間画像情報蓄積領域52に中間画像情報として記憶されているレイヤ毎の動き量MYvをフレーム順に読み出して、この読み出した動き量MYvに基づきレイヤ毎の中間画像信号の読み出し量を判別する。また、画像生成制御部61は、判別した読み出し量に基づいて、中間画像情報蓄積領域52から中間画像信号GYvをレイヤ毎に読み出して、信号抽出部62に設けられているレイヤ毎の合成部621-1〜621-5に供給する。
【0128】
ここで、右左折時に水平方向に移動する水平移動レイヤの中間画像信号は合成部621-1に供給する。また、遠景レイヤの中間画像信号は合成部621-2に供給すると共に、中景レイヤの中間画像信号および近景レイヤの中間画像信号は合成部621-3,621-4に供給する。さらに追越し車両の画像が含まれる後退レイヤの中間画像信号は合成部621-5に供給する。
【0129】
合成部621-1には、後述する画像シフト部623-1が接続されており、この合成部621-1は、画像シフト部623-1から供給された画像信号に、中間画像情報蓄積領域52から読み出した対応するレイヤの画像信号を重ね合わせることで画像合成を行う。この合成部621-1によって画像合成が行われて得られた水平移動レイヤの画像信号は、遅延部622-1と画像信号生成部44の遠景合成部641に供給される。
【0130】
遅延部622-1は、合成部621-1から供給された画像信号を1フレーム分だけ遅延させて画像シフト部623-1に供給する。画像シフト部623-1は、遅延部622-1から供給された画像信号に基づく画像を、画像生成制御部61から供給された水平移動レイヤの動き量MYvに基づいて水平方向に移動させる。さらにこの水平方向に移動させた画像の画像信号を合成部621-1に供給する。合成部621-1は、この水平方向に移動された画像に対して、中間画像情報蓄積領域52から各レイヤの動き量MYv分だけ読み出した中間画像信号GYvに基づく画像を重ね合わせることで画像合成を行い、順次画像が移動する画像信号を生成する。
【0131】
同様に、遅延部622-2〜622-5は1フレーム分遅延された画像信号を生成すると共に、画像シフト部623-2〜623-5は、この1フレーム分遅延された画像信号を画像生成制御部61から供給された各レイヤの動き量MYvに基づいて水平方向に移動させる。さらに、合成部621-2〜621-5は、この水平方向に移動された画像に対して、中間画像情報蓄積領域52から各レイヤの動き量分だけ読み出した中間画像信号GYvに基づく画像を重ね合わせることで画像合成を行い、順次画像が移動する画像信号をレイヤ毎に生成する。
【0132】
また、中間画像信号は、正面動画像信号から読み出した信号であるので、この中間画像信号に基づく画像は、スクリーン10Cと同じ面上の画像となる。しかし、周辺画像を表示するスクリーン10Rは正面のスクリーン10Cに対して傾きを持って設けられている。このため、遠景,中景,近景レイヤや後退レイヤのように、動きベクトルの方向が画像基準位置CPの方向あるいは逆方向であるレイヤの画像信号を用いて、各レイヤの画像を重ね合わせることで画像合成を行い周辺画像信号SDRを生成して画像表示を行うものとすると、スクリーン10Rに表示される画像は、スクリーン10Cに対するスクリーン10Rの傾きによって正しい形状とならない。このため、動きベクトルの方向が画像基準位置CPの方向あるいは逆方向であるレイヤの画像信号は、射影変換部63の各変換部631〜634に供給して、この各レイヤの画像をスクリーン10L,10Rに表示したときに、動きベクトルMVEのベクトル方向に画像が正しく移動するように射影変換を行う。また、水平移動レイヤの画像は、動きベクトルMVEのベクトル方向が水平方向であるため、遠景,中景,近景レイヤ,後退レイヤのような射影変換は行わないものとする。
【0133】
射影変換部63の変換部631〜634は、合成部621-2〜621-5から供給された画像信号に対して、画像がスクリーン10Rの向きに対応した形状となるように射影変換を行う。ここで、正面動画像から画像を順次読み出すと、読み出した画像の表示面10CRとスクリーン10Rは、上述の図14Aおよび図14Bに示すように同一面でないため、正面動画像から読み出した画像をスクリーン10Rに表示したときには、表示面10CRの画像をそのままスクリーン10Rの面上に投射したものとなり、正しい形状とならない。
【0134】
このため、変換部631〜634は、画像の垂直方向に対してズームインあるいはズームアウトの中心Czmから距離に比例した拡大率で拡大すると共に、画像の水平方向に対してその速度がズームインあるいはズームアウトの中心Czmからの距離に比例するような拡大率で拡大する射影変換を行う。この処理は、上述したように、正面画面端からそのまま読み出した画像の位置(x,y)と右側面動画像上に正しく画像表示できるように変換処理した後の位置(X,Y)が、垂直方向については上述の式(5)の関係となり、水平方向については上述の式(4)の関係となる。このため、図14Dに示すように、スクリーン10R上の(X,Y)の画像信号は、式(5),式(6)を満たす位置(x,y)の信号を用いることで、図14Eに示すようにスクリーン10R上に正しく右側面動画像を表示できる。
【0135】
この変換部631で得られた射影変換後の遠景レイヤの画像信号は、画像信号合成部64の遠景合成部641に供給される。また、変換部632で得られた射影変換後の中景レイヤの画像信号は中景合成部642に供給されると共に、変換部633で得られた射影変換後の近景レイヤの画像信号は近景合成部643に供給される。さらに、変換部634で得られた後退レイヤの画像信号は縮小画合成部644に供給される。
【0136】
遠景合成部641は、合成部621と変換部631から供給された画像信号に基づいて、水平移動レイヤの画像に遠景レイヤの画像を重ね合わることで画像合成を行い画像信号を生成して中景合成部642に供給する。
【0137】
中景合成部642は、変換部632と遠景合成部641から供給された画像信号に基づいて、遠景レイヤの画像が重ね合わされた画像に中景レイヤの画像を重ね合わせることで画像合成を行い画像信号を生成して近景合成部643に供給する。
【0138】
近景合成部643は、変換部633と中景合成部642から供給された画像信号に基づいて、中景レイヤの画像が重ね合わされた画像に近景レイヤの画像を重ね合わせることで画像合成を行い画像信号を生成して縮小画合成部644に供給する。
【0139】
縮小画合成部644は、変換部634と近景合成部643から供給された画像信号に基づいて、近景レイヤの画像が重ね合わされた画像に、時間と共に画像が縮小する後退レイヤの画像を重ね合わせることで画像合成を行い画像信号を生成する。この縮小画合成部644で生成された画像信号は、水平移動レイヤから縮小レイヤまでの各レイヤを重ね合わせる画像合成が行われた側面動画像の画像信号となる。
【0140】
このため、周辺画像信号生成ブロック60は、縮小画合成部644で生成された画像信号を周辺画像信号SDRとしてプロジェクタ12Rに供給することで、プロジェクタ12Rによって正面動画像と連続した右側面の画像をスクリーン10Rに表示することができる。
【0141】
また、中間画像情報蓄積領域52に記憶された中間画像信号に対して、画像の無い部分を補間する処理が行われていないとき、あるいは縮小画合成部644で生成された画像信号に画像の無い部分が生ずるとき、図示せずも画像信号合成部64に補間部を設けて、補間部は画像の無い部分と隣接する領域でどのようなレイヤの画像が重ね合わされたかを判別して、奥行きの深いレイヤの画像を用いて補間処理を行うものとする。例えば、中景レイヤと近景レイヤの画像が重ね合わされている領域と水平方向に隣接する部分で画像の無い部分が生じてとき、補間部は、奥行きの深い中景レイヤの画像を用いて補間処理を行うことで、画像の欠落のない良好な周辺画像信号SDRを生成できる。
【0142】
また、周辺画像信号生成ブロック60は、周辺画像信号SDRと同様にして周辺画像信号SDLを生成してプロジェクタ12Lに供給することで、プロジェクタ12Lによって正面動画像と連続した左側面の画像をスクリーン10Lに表示することができる。
【0143】
さらに、蓄積部50は、中間画像情報を蓄積するものであり、この中間画像情報は動き量とレイヤ毎の中間画像信号である。このため、蓄積部50に蓄積する情報量は、周辺画像の画像信号を蓄積する場合に比べて少なくなる。また、画像処理装置15Bは、大容量の記録媒体等を用いることなく広画角での画像表示を行うことができる。
【0144】
さらに、上述の各ブロックで行われる処理はソフトウェアで実現するものとしても良い。この場合の構成は上述の図15と同様であり説明は省略する。
【0145】
図31は、第2の実施の形態における画像処理プログラムの全体構成を示すフローチャートである。図において、ステップST41では動き検出処理を行い、画像の動きベクトルを検出する。次にステップST42では中間画像情報生成処理で動きベクトルに基づきレイヤ毎、例えば遠景レイヤ,中景レイヤ,近景レイヤ毎の画像情報と各レイヤの動き量を示す中間画像情報を生成する。ステップST43では、周辺画像生成処理を行い、中間画像情報に基づき周辺画像を合成する。
【0146】
図32は、図31のステップST41の動き検出処理を示すフローチャートである。ステップST51では、正面動画像に対して動き検出領域を設定してステップST52に進む。ステップST52では、動き検出領域の画像の縮小や位置の変更を行い誤差和を算出しステップST53に進む。ステップST53では既に算出されている誤差和を比較して誤差和が少なくなる画像位置を検出してステップST54に進む。ステップST54では、予め設定された画像サイズや位置の範囲内での検討が完了したか否かを判別して、完了していないときにはステップST51に戻り、完了したときにはステップST55に進む。ステップST55では、誤差和が最も少なくなる画像位置に基づき動き検出領域の動きを示す動きベクトルを決定する。
【0147】
図33は、図31のステップST42の中間画像情報生成処理を示すフローチャートである。ステップST61では、ステップST41の動き検出処理で検出された動きベクトルに基づき動きパターン、例えば直進動作であるか後退動作であるかあるいは右折や左折動作等のいずれの動きパターンであるかを判別して、どのようなレイヤを設けるかを示すレイヤパターン情報を生成する。ステップST62では、判別された動きパターンは、画面全体が拡大動きであるか否かを判別する。ここで拡大動きであるときにはステップST63に進み、拡大動きでないときにはステップST65に進む。ステップST63では、動きベクトルの動き量を用いて統計情報、例えば平均値を算出してステップST64に進む。ステップST64では、統計情報に基づき、画像を例えば遠景,中景,近景にレイヤ分けするための閾値を設定する。ステップST65では設定された閾値と動き量を比較して、動き検出領域がいずれのレイヤに属するかを示すレイヤ情報を生成する。また、画面全体が拡大動きでないときには、動き検出領域を動きパターンに応じたレイヤとしてレイヤ情報を生成する。
【0148】
ステップST66では、レイヤに含まれる動き検出領域の動き量に基づきレイヤ毎の動き量を算出する。ステップST67ではレイヤ情報とレイヤ毎の動き量に基づき、正面動画像からレイヤ毎に画像を抽出して中間画像を生成する。ステップST68では、中間画像で孤立領域があるか否かを判別して、孤立領域があるときにはステップST69に進み孤立領域がないときにはステップST70に進む。ステップST69では、補間処理を行い孤立領域を除去してステップST70に進む。ステップST70では孤立領域の無いレイヤ毎の中間画像とレイヤ毎の動き量を中間画像情報を生成する。
【0149】
図34は、図31のステップST43の周辺画像生成処理を示すフローチャートである。ステップST81では、中間画像情報で示されたレイヤ毎の動き量に基づいて、各レイヤ毎の中間画像からレイヤ毎に画像を抽出する。ステップST82では、抽出した各レイヤの画像を所定の位置に合成を生成する。ステップST83では、画像の合成を行ったときに画像の無い部分が生じて、この部分の画像を補う補間処理か必要か否かを判別する。ここで、画像の無い部分が生じるときにはステップST84に進み、画像の無い部分が生じていないときにはステップST85に進む。ステップST84では補間処理を行いステップST85に進む。例えば、画像の無い部分の周辺の画像を伸長して補間する。ステップST85では、合成された画像を投影するスクリーンの向きに合わせて幾何変換処理を行い、この幾何変換が行われた画像の画像信号をステップST86で周辺画像の画像信号として出力する。
【0150】
このような画像処理プログラムは、上述したようにリムーバブルの情報記録伝送媒体に記録したり、情報記録伝送媒体を介して伝送するものとしても良い。
【0151】
また、上述の第2の実施の形態において、画像処理プログラムが実行されて中間画像情報の生成が行われたときには、この中間画像情報が例えばハード・ディスク・ドライブ304あるいは記録媒体ドライブ312に装着された記録媒体に記録される。さらに、周辺画像の画像信号の出力が要求されたときには、中間画像情報が読み出されて左右側面動画像の周辺画像信号SDL,SDRが生成されると共に、この周辺画像信号SDL,SDRが正面動画像の画像信号SDCとタイミングを合わせて出力される。このため、正面と左右のスクリーンを用いて、広画角の連続した画像を表示することができる。
【0152】
ところで、上述の第2の実施の形態は、正面動画像の側端側に設けた動き検出領域の動きベクトルMVEに基づいて、遠景,中景,近景等の画像のレイヤ分けや動き量の判別等を行い、中間画像情報を生成して中間画像情報蓄積領域52に記憶させると共に、周辺画像を表示させる際には、中間画像情報蓄積領域52に蓄積されている中間画像情報を用いて、各レイヤの動き量MYvに応じて中間画像信号GYvを読み出して画像の重ね合わせを行うことで周辺画像信号を生成するものとした。しかし、周辺画像信号は、動きベクトルMVEを用いることなく生成することもできる。
【0153】
次にこの発明の第3の実施の形態の画像処理装置について説明する。この画像処理装置15Cは、動きベクトルMVEを用いることなく周辺画像信号を生成するものである。
【0154】
画像処理装置15Cは、幾何変換によって正面動画像に基づき側面方向の射影画像を生成し、この射影画像を積分処理して積分画像を生成すると共に、この積分画像を用いて画像のレイヤ分けを行い、レイヤ毎の動き量MYsやレイヤ毎の中間画像信号を生成して、中間画像情報として中間画像情報蓄積領域52に記憶させる。
【0155】
図35は、画像処理装置15Cの構成を示している。正面動画像の画像信号SDCは、幾何変換部71に供給される。幾何変換部71は、正面動画像の画像信号SDCを用いて正面動画像を進行方向の面である射影面に表示した画像の射影画像信号SDPを幾何変換処理によって生成する。この幾何変換部71によって生成された射影画像信号SDPは、動き検出ブロック72の動き判別画像生成部73と積分画像生成部74およびレイヤ化処理ブロック80の情報生成部82に供給される。
【0156】
動き判別画像生成部73は、幾何変換部71より供給された射影画像信号SDPを用いて、フレーム毎に正面動画像と接する端部側から所定範囲の射影画像信号SDPを抽出して順次重ね合わせることで画像合成を行うことにより動き判別画像信号SMDを生成する。この動き判別画像信号SMDは、動き判別部75に供給される。
【0157】
積分画像生成部74は、水平方向に位置をずらしながらmsフレーム分の射影画像信号SDPを足し込んで平均化することにより1つの積分画像信号を生成する。また、ns個の異なる位置のずらし量でns個の積分画像信号を生成する。この積分画像生成部74で生成したns個の積分画像信号SAは動き判別部75に供給される。
【0158】
動き判別部75は、ns個の積分画像信号SAと動き判別画像信号SMDとを比較し、そして、動き判別画像信号SMDに基づく画像とマッチングする積分画像信号SAに基づく画像を検出する。さらに動き判別部75は、その検出結果に基づき注目フレームの所定位置の動き量を判別する。ここで、積分画像は、位置のずらし量と画像の移動量が一致したときに、この被写体が画像として現れるものである。また、積分画像は、ずらし量を異なるものとしてns個だけ生成されているので、ns個の移動量の異なる画像を積分画像信号SAによって示すものとなる。このため、動き判別部75は、ns個の積分画像信号SAと動き判別画像信号SMDとの相関を判別して、この判別結果に基づき、動き判別画像を構成する被写体の移動量すなわち注目フレームの所定位置の動き量を判別する。ここで、被写体の画像が遠景であるとき、移動量は小さい。また、被写体の画像が近景であるとき、移動量は大きい。すなわち、この移動量は被写体の画像の奥行きを示すものである。このようにして、動き判別部75は、射影画像の各位置の動き量を判別すると共に、判別結果を示す動き量情報MFを生成してレイヤ化処理ブロック80のレイヤ分類部81と情報生成部82に供給する。
【0159】
レイヤ分類部81は、供給された動き量情報MFに基づき、注目フレームの所定位置が複数レイヤのいずれに属するかを示すレイヤ分類情報LBを生成して情報生成部82に供給する。
【0160】
情報生成部82は、各レイヤにおいて、フレーム毎に前後のフレームの移動量を用いて平均値を求めて、各レイヤの該当フレームの動き量MYsとして蓄積部50の中間画像情報蓄積領域52に供給する。また、情報生成部82は、求めたレイヤ毎の動き量MYsと、レイヤ分類部81から供給されたレイヤ分類情報LBに基づき、幾何変換部71より供給された画像信号SDPをレイヤ毎に分類して中間画像信号GFsを生成する。すなわち、情報生成部82は、動き量分だけ画像信号を水平方向に読み出して該当するレイヤ毎に順次重ね合わせることで画像合成を行うことにより、図28と同様なレイヤ毎の中間画像信号GFsを生成する。
【0161】
また、遠景レイヤや中景レイヤおよび近景レイヤの画像の動き方向を基準としたとき、後退レイヤの動き方向は逆方向となる。このため、情報生成部82は、動き量の絶対値分だけ正面動画像と接する端部側から射影面画像信号を読み込み左右反転を行って重ね合わせることで画像合成を行うことで、後退レイヤの中間画像信号を生成する。
【0162】
さらに、情報生成部82は、作成したレイヤ毎の中間画像信号GFsに対して、画像の無い領域が生じないように補間処理を行って画像の無い部分の埋め込みを行う。この情報生成部82で補間処理を行うことにより得られたレイヤ毎の中間画像信号GYsは、各レイヤの動き量MYsと関係付けられて中間画像情報として中間画像情報蓄積領域52に記憶される。
【0163】
周辺画像信号生成ブロック60は、中間画像情報を中間画像情報蓄積領域52から読み出して、上述と同様に処理することで、右側面動画像の周辺画像信号を生成できる。
【0164】
次に各ブロック等について詳細に説明する。図36は幾何変換部71での幾何変換処理を説明するための図である。この図36において、位置Oは正面動画像UCの撮影位置である。理想的には、撮影位置と視聴者の位置は同じとするのが良い。ここでは、撮影位置と視聴者の位置は同じと考える。幾何変換部71は、正面動画像の位置pの画像を進行方向と平行な射影面FI上の位置qに射影して、正面動画像に基づいて射影画像UIを生成する。ここで、射影面上の進行方向の位置xbと正面動画像上の水平位置Xbの関係は、式(7)に示すものとなる。また、射影面上の高さ方向の位置ybと正面動画像上の垂直位置Ybの関係は、式(8)に示すものとなる。
【0165】
【数4】
【0166】
なお、式(7)(8)において、「θg」は正面動画像の水平画角を半分とした角度を示しており、正面動画像を撮影したカメラの水平画角が明らかであるときには、この水平画角の半分の角度を「θg」とする。また、カメラの水平画角が明らかでないときには、使用したレンズの焦点距離に応じて予め設定された値を用いるものとする。「d」は正面動画像の水平方向の長さ(画枠の水平方向の長さ)を1/2にした値である。
【0167】
このように式(7)(8)を用いることで、幾何変換部71は、正面動画像の各フレームの画像信号に基づいて左右の射影画像の画像信号をフレーム単位で生成できる。また、入力画像が車載前進系の正面動画像の場合、左右の射影画像は側方画像となっており、この射影画像の動き量は車速に比例する。また、この射影画像の動き量は奥行きに反比例するものである。そのため、射影画像が遠景の画像であって奥行きが大きいとき、動き量は小さくなる。また、射影画像が近景の画像であって奥行きが小さいとき、動き量は大きくなる。射影画像の大きさは、後の各処理に対して十分な大きさがあれば良い。例えば、提示する周辺画像と同じ大きさが良い。
【0168】
図37は、動き判別画像生成部73の動作を説明するための図である。動き判別画像生成部73は、図37Aに示すように、フレーム毎に射影面画像の正面動画像側端部(右側射影面画像では右側端部)から水平方向に所定画素数wa(例えば4画素)の幅で画像信号を切り出すと共に、この切り出した画像信号を図37Bに示すようにフレーム順に所定フレーム分だけ重ね合わせることで画像合成を行い動き判別画像Upの動き判別画像信号SMDを生成する。なお、動き判別画像Upは、被写体の動き量が水平方向にwa画素/フレームで、画像信号の切り出し画素数waと等しいとき(図37では家)、被写体の画像は不連続点を有しない連続した画像となる。画像信号の切り出しよりも動きの遅い被写体(図37では山)の画像は、繰り返し切り出される部分が生じるため切り出された画像信号の繋ぎ部分で画像の不連続を生じる。また、画像信号の切り出しよりも動きの速い被写体の画像(図37では木)は、動きが速いために切り出されない部分が生じて繋ぎ部分で画像の不連続を生じる。
【0169】
積分画像生成部74は、動き判別画像の各画素の動き量を判別するために用いる積分画像信号SAを生成する。ここで図38を用いて動き量の判別動作の原理について説明する。例えば右方向に移動する被写体Jaと被写体Jaの2倍の速度で右方向に移動する被写体Jbを撮影すると、撮影画像は図38Aに示すものとなる。ここで、最初のフレームF1に対して次のフレームF2の画像を被写体Jaの移動方向とは逆方向で被写体Jaの画素量dxだけシフトさせる。また、次のフレームF3の画像も同様に、フレームF2に対して被写体Jaの移動方向とは逆方向で被写体Jaの画素量dxだけシフトさせる。このように、各フレーム間で一定量ずつシフトした各フレームの画像を加算して平均化した平均値画像Umを用いると、被写体Jaの位置が一定であると共に被写体Jbの位置は移動するので、被写体Jbの画像信号の信号レベルは被写体Jaに比べて小さいものとなり、図38Cに示すように平均値画像Umによって被写体Jaのみを抽出できる。
【0170】
また、図38Dに示すように、各フレームの画像のずらし量を2倍(2dx)として平均値画像Umを生成したとき、被写体Jbの位置は一定となると共に被写体Jaの位置は移動するので、図38Eに示すように平均値画像Umによって被写体Jbのみを抽出できる。
【0171】
このように、各フレームの画像を所定量だけ移動させて加算して平均化することにより得られた平均値画像を生成すると共に、この各フレームの画像のずらし量を変えて複数の平均値画像を生成する。そうすると、いずれの平均値画像で被写体が正しく表示されたかを判別することで、1つの画像に動き量の異なる被写体が含まれていても、平均値画像を用いて各被写体の動き量を判別できる。ここで、積分画像生成部74は、動き判別画像生成部73と同様に、複数の平均値画像に基づいてフレーム毎に水平方向に所定画素数の画像信号を切り出して積分画像を生成すると共に、この積分画像と動き判別画像を比較して、動き判別画像を構成する被写体と等しい画像がいずれの積分画像に現れたかを判別して、各フレームの所定位置の動き量を判別する。
【0172】
図39は、積分画像生成部74の構成を示す図である。幾何変換部71から供給された射影画像信号SDPは積分画像生成部74の加算処理部741-1〜741-nsに供給される。
【0173】
加算処理部741-1は、予め設定された画素数SH-1だけ前フレームよりも水平方向に移動させた射影面画像信号を、msフレーム分(例えば10フレーム分)加算して加算信号を順次算出する。さらに、加算処理部741-1は、この加算信号を1/m倍して平均値画像の画像信号を領域選択部742-1に供給する。
【0174】
領域選択部742-1は、供給された平均値画像の画像信号よりフレーム毎に正面動画像側端部(右側射影面画像では右側端部)より水平方向に所定画素数分wbの画像信号を切り出して、この切り出した画像信号を順次重ね合わせることにより積分画像信号SA-1として動き判別部75に出力する。この領域選択部742-1から出力された積分画像信号SA-1は、予め設定された画素数SH-1の動き量の被写体を示した画像信号となる。
【0175】
加算処理部741-2〜741-nsも加算処理部741-1と同様に、予め設定された画素数SH-2〜SH-nsだけ前フレームよりも水平方向に移動させた射影面画像信号を、msフレーム分加算して加算信号を順次算出して、この加算信号を1/m倍して平均化したのち領域選択部742-2〜742-nsに供給する。さらに、領域選択部742-2〜742-nsは、供給された画像信号より所定画素数分wbの信号を切り出して順次重ね合わせて積分画像信号として動き判別部75に出力する。この領域選択部742-2〜742-nsから出力された積分画像信号SA-2〜SA-nsは、それぞれ予め設定された画素数SH-2〜SH-3の動き量の被写体を示した画像信号となる。
【0176】
ここで、動き判別画像生成部73と積分画像生成部74の領域選択部742で切り出す画素数を等しいものとすると(wa=wb)、動き判別画像と積分画像における被写体の位置の整合性をとることができる。
【0177】
図40は積分画像生成部74の動作を示す図である。積分画像生成部74は、画像ずらし量を画素数SH-rとしたとき、図40Aに示すようにフレーム毎に画像を画素数SH-r(<wb)だけ移動して足し込む。このとき、足し込んだ画像は、図40Bに示すように山の画像を示すものとなる。また、画像ずらし量を画素数SH-rよりも多い画素数SH-s(=wb)としたとき、図40Cに示すようにフレーム毎に画像を画素数SH-sだけ移動して足し込む。このとき、足し込んだ画像は、図40Dに示すように山よりも動き量の大きい家の画像を示すものとなる。また、画像ずらし量を画素数SH-sよりも多い画素数SH-t(>wb)としたとき、図40Eに示すようにフレーム毎に画像を画素数SH-tだけ移動して足し込む。このとき、足し込んだ画像は、図40Fに示すように山よりも動き量の大きい家の画像を示すものとなる。
【0178】
ここで、積分画像生成部74は、動き判別画像生成部73で動き判別画像を生成する際に最初に切り出しを行ったフレームFaを基準として切り出しを開始すると共に、動き判別画像と等しい切り出し量(wa=wb)で同じフレーム数だけ画像の切り出しを行い積分画像を生成する。このとき、積分画像と動き判別画像は、水平方向の画像の長さが等しくなると共に被写体の位相が積分画像と動き判別画像とで一致する。
【0179】
また、動き判別画像は、切り出し量と動き量が等しくないとき被写体が不連続な形状となるが、積分画像も同様に、画素数SH-rが画素数wbよりも少ないときには、画像の切り出しが重なりを持って行われる。このため、積分画像Ub-rは図40Gに示すように、動き量に応じた不連続な画像となる。また、画素数SH-sが画素数wbと等しいとき、積分画像Ub-sは図40Hのように動き量に応じた連続した画像となる。さらに、画素数SH-tが画素数wbよりも多いときには画像の切り出しで欠落部分が生じて、積分画像Ub-tは図40Jのように動き量に応じた不連続な画像となる。このため、次に述べる動き判別部75は、動き判別画像と積分画像のマッチングを行い、マッチングすると判別された積分画像の画像ずらし量である画素数SHに基づいて、被写体の動き量を判別する。
【0180】
動き判別部75は、動き判別画像の各画素と各画像ずらし量の積分画像との相関値を求めて、この相関値に基づき、動き判別画像の各画素がいずれの積分画像と等しいか判別して、判別結果に基づき動き判別画像の各画素の動き量を判別する。
【0181】
相関値の算出では、画像Aの画素と画像Bとの相関値を算出する際に、画像Aの注目画素(相関値を算出する画素)を中心とした所定範囲を設定して、この所定範囲の画像信号を用いて注目画素の相関値を求める。例えば注目画素を中心としてx方向に±mvc画素、y方向に±nvc画素の矩形状範囲(注目画素を中心とした例えば水平31画素,垂直5画素の矩形状範囲)を設定し、式(9)に基づいて相関値VCを算出する。
【0182】
【数5】
【0183】
なお、式(9)において、画像Aの矩形状範囲内における各画素の信号レベルをDAi(i=1〜(mvc×nvc))、画像Bの矩形状範囲内における各画素の信号レベルをDBi(i=1〜(mvc×nvc))とし、矩形状範囲内における各画素の信号レベルの平均値をDAav,DBavとする。
【0184】
例えば、動き判別部75は、式(9)に基づいて図41Aに示す動き判別画像における山の画像が図41Bに示す積分画像とマッチングするものと判別したとき、この山の画像を構成する各画素の動き量が画素数SH-rに対応した動き量であると判別する。また、図41Aに示す動き判別画像におけるの家の画像が図41Cに示す積分画像とマッチングするものと判別したとき、この家の画像を構成する各画素の動き量が画素数SH-sに対応した動き量であると判別する。さらに、図41Aに示す動き判別画像おける木の画像が図41Dに示す積分画像とマッチングするものと判別したとき、この木の画像を構成する各画素の動き量が画素数SH-tに対応した動き量であると判別する。このように動き判別部75は、各画素に対して動き量を判別すると共に、この判別結果を示す動き量情報MFを生成してレイヤ分類部81と情報生成部82に供給する。
【0185】
なお、図示せずも、積分画像生成部74は、画像のずらし方向を図41B,図41C,図41Dとは逆方向も含むように設定(例えば画像のずらし量SHを48画素〜−24画素に設定)することで、木や家や山の画像に対して逆方向に移動する追越し車両等の画像を抽出できる。また、動き方向が遠景レイヤ等とは逆方向の画像の動き量を判別するため、図42Aに示すように、各フレームの画像より画像の切り出しを行い、この画像を左右反転してから重ね合わせることにより図42Bに示す動き判別画像Upを生成する。この場合、図42Bに示す動き判別画像Upでは、追越し車両のように動き方向が逆方向の画像が、遠景や中景および近景レイヤと同様な向きで正しく表示される。なお図42Cは画像の左右反転を行わないで重ね合わせた場合の動き判別画像Upである。このように、画像のずらし方向を逆方向とした積分画像の画像信号と、切り出した画像を反転させて重ね合わせることにより生成された動き判別画像の画像信号SMDを、基準となるフレームから順次比較することで、逆方向に移動する被写体の動き量を判別できる。
【0186】
レイヤ分類部81は、動き量情報MFに基づいて動き判別画像の各画素を奥行き方向にレイヤ化する。例えば、奥行きを予め遠景,中景,近景の3層と逆方向の動きを持つ層の4層にレイヤ化するものとして、各画素がいずれのレイヤに属するかレイヤ分類を行う。
【0187】
このレイヤ分類部81は、上述の閾値設定部464と同様にして閾値を設定すると共に、この閾値と各画素の動き量を比較して、各画素がいずれのレイヤに属するか判別して各画素に対応するレイヤ分類情報LBを生成する。この生成されたレイヤ分類情報LBは情報生成部82に供給される。
【0188】
図43は、情報生成部82の構成を示している。情報生成部82の動き量平均値算出部821は、動き判別部75からの動き量情報MFとレイヤ分類部81から供給されたレイヤ分類情報LBに基づき、それぞれのレイヤにおいて、注目フレーム毎に前後nzフレームの動き量の平均値を求め、そのレイヤの注目フレームの速度とする。この算出した各レイヤのフレーム毎の動き量MYsは、中間画像信号生成部822に供給されると共に中間画像情報蓄積領域52に記憶される。
【0189】
中間画像信号生成部822は、レイヤ分類情報LBに基づき、射影画像の画像信号SDPから動き量平均値算出部821で算出された動き量MYsに応じてレイヤ毎に信号を抽出して、レイヤ毎の中間画像信号GFsを生成する。この中間画像信号GFsは、中間画像信号補間部823に供給される。このとき、遠景レイヤの動き量は小さく近景レイヤの動き量は大きいので上述の図28と同様に、遠景レイヤの中間画像は水平方向の長さが短く、近景レイヤの中間画像では長くなる。また、後退レイヤでは動きが逆方向であるので、中間画像信号生成部822は、動き量の絶対値分だけ側面動画像から画像を読み込み左右反転して重ね合わせていくことで、後退レイヤの中間画像を作成する。
【0190】
中間画像信号補間部823は、中間画像信号補間部473と同様に、動き量MYsの異なる各レイヤの画像を遠景,中景,近景の順に重ね合わせることで画像合成を行っても、動き量の違いにかかわらず画像のない領域が生ずることがないように中間画像信号GFsの補正を行い、補正された信号を中間画像信号GYsとして中間画像情報蓄積領域52に記憶させる。
【0191】
また、中間画像信号補間部823は、追越し車両等の後退レイヤがあるとき、この後退レイヤが近景レイヤの手前のレイヤであるので補間処理を行わないものとする。また、右左折時に遠景に現れる建物等を示す水平移動レイヤが設けられているときには、遠景レイヤと同様に補間処理を行う。なお、後退レイヤや水平移動レイヤの被写体の判別は、右側射影画像と左側射影画像の動き判別画像の動き方向に基づいて図25の場合と同様に動きパターンを判別して、判別された動きパターンに基づいて判別できる。例えば左側画像の画面上部と右側画像の画面上部での動きが異なる方向を示しているときには右折あるいは左折動作中であることを判別できる。また、左側画像と右側画像の画面上部の動きが同じ方向を示しており、これらとは逆方向の動きである被写体は、後退レイヤと判別できる。
【0192】
次に、各レイヤの中間画像情報を用いて周辺画像を生成する動作について説明する。この周辺画像の生成は、上述の周辺画像信号生成ブロック60と同様にして、周辺画像信号を生成できる。すなわち、各レイヤの画像をその動き量分だけ読み出すと共に、遠景レイヤ、中景レイヤ、近景レイヤの順に重ね合わせることで画像合成を行う。また水平移動レイヤや後退レイヤが設定されているときにも周辺画像信号生成ブロック60と同様にして、周辺画像信号を生成できる。
【0193】
また、画像の合成では、例えば周辺画像として右側面動画像を生成するときには、各レイヤの同一フレーム部分が、生成する右側面動画像の左端で重なるように重ね合わせることで画像合成を行う。また、最初に正面動画像を変換して得た射影画像の右端と、生成した側面動画像の左端が等しくなるようにする。その後、レイヤ毎に、レイヤ毎の動き量に基づいて画像を移動させて、この移動された画像に次の画像をレイヤ毎に重ね合わせることで画像合成を行い、図44に示すように射影面画像UIと連続する側面の画像URIを生成することができる。
【0194】
ところで、中間画像情報を用いてレイヤ毎の中間画像を重ね合わせて生成された画像は、図45に示すように射影面FIと等しい面上の画像である。一方周辺画像が表示されるスクリーン10Rは、射影面FIとは傾きを持って設置されている。このため、各レイヤの画像を重ね合わせることで画像合成を行ってスクリーン10Rに表示させたとき、画像が正しい形状で移動するように画像の変換処理を行う。
【0195】
ここで、図45に示すように、正面動画像UCの水平方向の長さの1/2を距離dとし、正面動画像の撮影位置である位置Oが、スクリーン10Rの中心からの法線上となるようにスクリーン10Rを傾けて設置した場合を考える。この場合、スクリーン10R上の位置(Xc,Yc)の画像信号は、式(10)(11)に基づいて算出された変換前の画像URI上の位置(xc,yc)の画像信号を抽出すれば、射影変換後の右側面動画像の周辺画像信号SDRを容易に生成できる。また、この周辺画像信号SDRを用いてスクリーン10Rに右側面動画像を表示させることで、臨場感の高い右側面動画像を表示できる。
【0196】
【数6】
【0197】
なお、周辺画像信号SDLも周辺画像信号SDRと同様にして生成できることは勿論である。
【0198】
さらに、上述の各ブロックで行われる処理はハードウェアだけでなくソフトウェアで実現するものとしても良い。この場合は、上述の図15に示す構成とする。
【0199】
図46は、第3の実施の形態における画像処理プログラムの全体構成を示すフローチャートである。図において、ステップST91では動き検出処理を行い、射影面画像を生成して、射影面画像の画素毎の動き量を検出する。次にステップST92では動き量に基づき画素のレイヤ分けを行い、各レイヤの動き量を示す中間画像情報を生成する。ステップST93では、周辺画像生成処理を行い、中間画像情報に基づき周辺画像を合成する。
【0200】
図47は、図46のステップST91の動き検出処理を示すフローチャートである。ステップST101では、幾何変換よって正面動画像に基づいて側面の射影画像を作成する。ステップST102では、射影画像に基づいて動き量毎の積分画像を作成すると共に、射影画像からの画像の切り出しを行って切出画像を作成する。ステップST103では、動き量毎の積分画像と切出画像のマッチングを行う。ステップST104では、マッチングの結果に基づき最も相関値の高い積分画像を検出することで画素毎の動き量を決定する。
【0201】
図48は、図46のステップST92の中間画像情報生成処理を示すフローチャートである。ステップST111では、ステップST101の動き検出処理で検出された画素の動き量に基づき、動き量の統計量を算出する。ステップST112では、統計量に基づきレイヤ分けを行うための閾値を設定する。ステップST113では、設定された閾値と動き量を比較して、射影画像の各画素がいずれのレイヤに属するかを示すレイヤ分類情報を生成する。ステップST114では、レイヤに含まれる画素の動き量に基づきレイヤ毎の動き量を算出する。ステップST115ではレイヤ分類情報とレイヤ毎の動き量に基づき、射影画像からレイヤ毎に画像を抽出して中間画像を生成する。ステップST116では、中間画像で孤立領域があるか否かを判別して、孤立領域があるときにはステップST117に進み孤立領域がないときにはステップST118に進む。ステップST117では、補間処理を行い孤立領域を除去してステップST118に進む。ステップST118では孤立領域の無いレイヤ毎の中間画像とレイヤ毎の動き量を中間画像情報を生成する。
【0202】
図49は、図46のステップST93の周辺画像生成処理を示すフローチャートである。ステップST121では、中間画像情報で示されたレイヤ毎の動き量に基づいて、各レイヤ毎の中間画像を用いてレイヤ毎に画像を抽出する。ステップST122では、抽出した各レイヤの画像を所定の位置に合成を生成する。ステップST123では、画像の合成を行ったときに画像の無い部分が生じて、この部分の画像を補う補間処理か必要か否かを判別する。ここで、画像の無い部分が生じるときにはステップST124に進み、画像の無い部分が生じていないときにはステップST125に進む。ステップST124では補間処理を行いステップST125に進む。例えば、画像の無い部分の周辺の画像を伸長して補間する。ステップST125では、合成された画像が射影面と等しい面上の画像であるので画像を投影するスクリーンの向きに合わせて画像変換処理を行い、この画像変換が行われた画像信号をステップST126で周辺画像の画像信号として出力する。
【0203】
このような画像処理プログラムは、上述したようにリムーバブルの情報記録伝送媒体に記録したり、情報記録伝送媒体を介して伝送するものとしても良い。
【0204】
また、上述の第3の実施の形態において、画像処理プログラムが実行されて中間画像情報の生成が行われたときには、この中間画像情報が例えばハード・ディスク・ドライブ304あるいは記録媒体ドライブ312に装着された記録媒体に記録される。さらに、周辺画像の画像信号の出力が要求されたときには、中間画像情報が読み出されて左右側面動画像の周辺画像信号SDL,SDRが生成されると共に、この周辺画像信号SDL,SDRが正面動画像の画像信号SDCとタイミングを合わせて出力される。このため、正面と左右のスクリーンを用いて、広画角の連続した画像を表示することができる。
【0205】
なお、上述の各実施の形態は、車載カメラで得られた画像信号を用いて周辺画像の画像信号を生成する場合について説明したが、画像信号は動く船の上から撮影した風景動画像や人が歩きながら撮影した動画像の画像信号を用いるものとしても、同様に処理することで周辺画像の画像信号を生成できる。
【0206】
このように、上述の第1〜第3の実施の形態によれば、正面動画像の動きを判別して、この判別された動きに基づいて異方向の周辺画像を生成できる。このため、ビデオカメラ等で撮影された正面動画像に基づき同時系列で異方向の動画像を生成できるので、臨場感が高く広画角である多画面の画像提示ができる。
【0207】
また、1つの入力画像に基づき異方向の画像を生成できるので、複数のビデオカメラや広角レンズを用いたカメラ等を用いる必要がなく、撮影を容易に行うことができる。
【0208】
さらに、実写画像を用いて異方向の画像を生成するものであるため、コンピュータグラフィックスによる3次元仮想空間の画像よりもリアルで臨場感の高い画像を表示させることができると共に、奥行きを2次元平面の階層として表現するため、3次元の演算処理が不要となり、信号処理も容易である。
【0209】
また、画像処理装置やコンピュータは、入力画像信号として蓄積されている信号を用いることで、時間の経過と共に正面動画像内に入り込む画像を、正面動画像で表示される前に周辺画像で表示することができる。このようにリアルタイムの画像信号を用いたときには表示することができない画像を周辺画像として表示することができるので、より現実的で臨場感の高い広画角の画像表示を行うことができる。また、既に存在している莫大な画像ソースをこの発明の画像処理装置や画像信号生成方法を実行するコンピュータに入力することで、これらの画像を臨場感が高く広画角で楽しむこともできる。
【0210】
なお、上述の実施の形態は、正面動画像の側端部に複数の動き検出領域を設けて動き検出領域毎に動きベクトルを求めたり、射影画像を用いて動き判別画像を生成して積分画像と比較することにより、注目フレームの所定位置の動きを判別して中間画像情報を生成し、この中間画像情報を利用して周辺画像信号を生成したが、動き検出は、注目フレームの所定位置の動きを判別できるものであれば良いことは勿論である。
【0211】
【発明の効果】
この発明によれば、複数フレームの入力画像信号を用いて、この入力画像信号に基づく画像内における所定領域の動きを検出し、この検出した動きと複数フレームの入力画像信号に基づいて、注目フレームと同一時間であると共に、注目フレームの画像と画角の異なる周辺動画像の画像信号が生成される。このため、多数のカメラや特殊なカメラを用いることなく、表示範囲が広く奥行感のある画像を低コストで得ることができる。
【0212】
また、画像端部領域に複数の動き検出領域が設定されて、動き検出領域毎に動きが検出されるので、入力画像信号に基づく基準動画像に遠景や近景等の被写体が含まれていても、それぞれの被写体の動きを検出できる。さらに、画像の動きが所定位置を中心とした放射方向であるとの拘束条件を満たすときには、所定位置を中心として画像をズームさせながら前画面の画像との誤差値を算出することで動きを容易に判別できる。
【0213】
また、動きの検出結果に基づき、画像端部領域がレイヤ分けされてレイヤ毎に画面順序に応じた信号処理が行われるので、基準動画像に遠景や近景等の被写体が含まれていても、それぞれの被写体に応じた信号処理が行われて奥行感のある正しい周辺動画像の画像信号を生成できる。
【0214】
さらに、レイヤ毎の画像を貼り付けたときに隙間領域が生じたときには、隙間部分の画像の画像信号が補間処理によって生成されるので、良好な側面動画像の画像信号を生成できる。また、周辺動画像の投影面の向きに応じた信号変換処理が行われることから、奥行感のある周辺動画像をリアルに表示できる。
【図面の簡単な説明】
【図1】表示システムの構成を示す図である。
【図2】画像投影状態を示す図である。
【図3】第1の実施の形態の画像処理装置の構成を示す図である。
【図4】動き検出領域の設定を説明するための図である。
【図5】動き量の算出方法を説明するための図である。
【図6】ズーム時の領域サイズの変化を示す図である。
【図7】動き量算出ブロックの構成を示す図である。
【図8】各動き検出領域の動き量を示す図である。
【図9】レイヤ化処理ブロックの構成を示す図である。
【図10】閾値の設定を説明するための図である。
【図11】周辺画像信号生成ブロックの構成を示す図である。
【図12】右側面動画像の生成動作を説明するための図である。
【図13】隙間領域の発生と補間処理を説明するための図である。
【図14】画像変換処理を説明するための図である。
【図15】コンピュータを用いた構成を示す図である。
【図16】第1の実施の形態における画像処理プログラムの全体構成を示すフローチャートである。
【図17】第1の実施の形態での動き検出を示すフローチャートである。
【図18】第1の実施の形態でのレイヤ化処理を示すフローチャートである。
【図19】第1の実施の形態での周辺画像信号生成を示すフローチャートである。
【図20】第2の実施の形態の画像処理装置の構成を示す図である。
【図21】各動き検出領域の動きベクトルを示す図である。
【図22】画像基準位置の判別方法を示す図である。
【図23】動き検出部の構成を示す図である。
【図24】レイヤ分類部の構成を示す図である。
【図25】ベクトル方向と動きパターンの関係を説明するための図である。
【図26】レイヤ分類情報の生成動作を説明するための図である。
【図27】情報生成部の構成を示す図である。
【図28】レイヤ毎の中間画像を示す図である。
【図29】補間処理後のレイヤ毎の中間画像を示す図である。
【図30】周辺画像信号生成ブロックの構成を示す図である。
【図31】第2の実施の形態における画像処理プログラムの全体構成を示すフローチャートである。
【図32】第2の実施の形態での動き検出を示すフローチャートである。
【図33】第2の実施の形態でのレイヤ化処理を示すフローチャートである。
【図34】第2の実施の形態での周辺画像信号生成を示すフローチャートである。
【図35】第3の実施の形態の画像処理装置の構成を示す図である。
【図36】幾何変換処理を説明するための図である。
【図37】動き判別画像生成部の動作を説明するための図である。
【図38】動き量の判別動作の原理を説明するための図である。
【図39】積分画像生成部の構成を示す図である。
【図40】積分画像生成部の動作を説明するための図である。
【図41】動き量判別部の動作を説明するための図である。
【図42】後退レイヤの動き判別画像の生成動作を説明するための図である。
【図43】情報生成部の構成を示す図である。
【図44】射影面画像と生成した側面動画像を示す図である。
【図45】画像変換処理を説明するための図である。
【図46】第3の実施の形態における画像処理プログラムの全体構成を示すフローチャートである。
【図47】第3の実施の形態での動き検出処理を示すフローチャートである。
【図48】第3の実施の形態でのレイヤ化処理を示すフローチャートである。
【図49】第3の実施の形態での周辺画像信号生成を示すフローチャートである。
【符号の説明】
10L,10C,10R・・・スクリーン、12L,12C,12R・・・プロジェクタ、15A,15B,15C・・・画像処理装置、16,26,41,224、622-1〜622-5・・・遅延部、20,40・・・動き量算出ブロック、22,45,80・・・レイヤ分割処理ブロック、24,60,72・・・周辺画像信号生成ブロック、30・・・コンピュータ、42・・・動き検出部、44・・・画像信号生成部、46・・・レイヤ分類部、47・・・情報生成部、50・・・蓄積部、51・・・正面動画像信号蓄積領域、52・・・中間画像情報蓄積領域、61・・・画像生成制御部、62・・・信号抽出部、63・・・射影変換部、64・・・画像信号合成部、71・・・幾何変換部、73・・・判別画像生成部、74・・・積分画像生成部、75・・・動き判別部、81・・・レイヤ分類部、82・・・情報生成部、201・・・サイズ変更部、202,422・・・誤差和算出部、203,423・・・比較部、204,424・・・データ格納部、205・・・拡大率設定部、221・・・統計情報算出部、222・・・レイヤ分割閾値設定部、223・・・レイヤ判定部、225・・・レイヤ移動量算出部、241・・・信号抽出部、242,243,244・・・加算部、245・・・画像シフト部、246・・・補間部、247・・・中景貼り付け部、248・・・近景貼り付け部、249・・・画像変換部、421・・・サイズ変換部、425・・・探索制御部、461・・・パターン判定部、462・・・レイヤ確定部、463・・・分類部、464・・・閾値設定部、465・・・分類補正部、471,821・・・動き量平均値算出部、472,822・・・中間画像信号生成部、473,823・・・中間画像信号補間部、621-1〜621-5・・・合成部、623-1〜623-5・・・画像シフト部、631〜634・・・変換部、641・・・遠景合成部、642・・・中景合成部、643・・・近景合成部、644・・・縮小画合成部、741-1〜741-ns・・・加算処理部、742-1〜742-ns・・・領域選択部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image signal generation method, an image processing program, and an information recording medium. Specifically, using a plurality of frames of input image signals, for example, the movement of an image end region in the image based on the input image signals is detected, and based on the detected movement and the plurality of frames of input image signals, the frame of interest And an image signal of a peripheral moving image having the same time and a different angle of view from the image of the frame of interest.
[0002]
[Prior art]
In recent years, a multi-screen display system, a curved display, a wide-angle display, a head-mounted display, and the like have been put into practical use in order to display an image with enhanced realism.
[0003]
Here, in order to display an image with a higher sense of presence using the display as described above, for example, a three-dimensional virtual space is constructed by computer graphics. In addition, a large number of video cameras are used or a wide-angle lens is attached to the video camera to capture a wide range of space, and the captured image is converted into a flat or curved surface such as a multi-surface display or a head-mounted display and displayed. Yes.
[0004]
[Problems to be solved by the invention]
By the way, in the case of performing moving image display with enhanced realism using a multi-screen display, a wide-angle display, or the like, a high-speed computer device is used to construct a three-dimensional virtual space with computer graphics. Therefore, a large amount of cost and time are required, and the image is less realistic and realistic than a real image.
[0005]
In addition, when using live-action images, it is necessary to shoot the entire range without gaps in order to present a wide range of space, such as a large number of video cameras and video cameras with special lenses. A capture device is required, and a large amount of cost is required.
[0006]
Furthermore, when an image source shot with a general video camera already exists, a wide range of images cannot be presented unless the same scene is retaken with a plurality of video cameras.
[0007]
Therefore, according to the present invention, an image processing apparatus, an image signal generating method, and information that can generate a peripheral moving image corresponding to the moving image at the same time as the moving image by using an image signal of a moving image serving as a reference. A transmission recording medium is provided.
[0008]
[Means for Solving the Problems]
The image processing apparatus according to the present invention detects a movement of a predetermined area in an image formed on a specific plane. Using multi-frame input image signal Based on motion detection means to detect, layering processing means for classifying a predetermined area based on the motion detected by the motion detection means, and generating information indicating the classification result, classification information and a plurality of frames of input image signals In addition, the image processing apparatus includes peripheral image signal generation means that generates an image signal of a peripheral image that has the same time as the target frame in the input image signal and has a different angle of view from the image of the target frame.
[0009]
In addition, the image processing apparatus uses the image signal of the reference moving image that generates the movement satisfying at least one constraint condition, and uses the constraint condition to move the image end region in the screen for each screen of the reference moving image. A motion detection means for detecting the layer, a layering processing means for determining a layer of the predetermined area based on the motion detected by the motion detection means, and generating layer information, and layer information generated by the layering processing means And the image signal of the image edge area The The image processing apparatus includes a peripheral image generation unit that performs signal processing and generates an image signal of a peripheral moving image corresponding to the reference moving image while having the same time as the reference moving image.
[0010]
According to the image signal generation method of the present invention, the movement of a predetermined area in an image formed on a specific plane is detected. Multi-frame input image signal It is assumed that information is generated by classifying a predetermined region based on the detected movement and indicating a classification result, and based on the classification information and the input image signal of a plurality of frames, An image signal of a peripheral image having the same time as the frame of interest and a different angle of view from the image of the frame of interest is generated.
[0011]
In addition, the image signal generation method uses a reference moving image that generates a movement that satisfies at least one constraint condition, and detects the movement of the image edge region for each screen of the reference moving image by using the constraint condition. Based on the detected motion, use the image signal of the image edge area The Signal processing is performed to generate an image signal of a peripheral moving image corresponding to the reference moving image at the same time as the reference moving image.
[0012]
An image processing program according to the present invention allows a computer to detect movement of a predetermined area in an image formed on a specific plane. Using multi-frame input image signal A process of detecting, a process of classifying a predetermined region based on the detected motion and generating information indicating a classification result, and a frame of interest in the input image signal based on the classification information and the input image signal of a plurality of frames. And a process of generating an image signal of a peripheral image having a different angle of view from the image of the frame of interest at the same time.
[0013]
In addition, the image processing program uses the reference moving image that generates a movement satisfying at least one constraint condition to the computer, and detects the movement of the image end region for each screen of the reference moving image by using the constraint condition. Based on the first process and the detected motion, the image signal of the image end area is used. The Signal processing is performed to execute a process including a second process for generating an image signal of a peripheral moving image corresponding to the reference moving image at the same time as the reference moving image.
[0014]
The information recording medium according to the present invention allows a computer to detect movement of a predetermined area in an image formed on a specific plane. Using multi-frame input image signal A process of detecting, a process of classifying a predetermined region based on the detected motion and generating information indicating a classification result, and a frame of interest in the input image signal based on the classification information and the input image signal of a plurality of frames. And a program for executing a process of generating an image signal of a peripheral image having a different angle of view and an image of the frame of interest in a computer-readable manner.
[0015]
In addition, the information recording medium uses the reference moving image that causes the computer to move that satisfies at least one constraint condition, and detects the movement of the image end area for each screen of the reference moving image by using the constraint condition. Based on the first process and the detected motion, the image signal of the image end area is used. The A computer-readable recording of a program for performing a signal processing and executing a process including a second process for generating an image signal of a peripheral moving image corresponding to the reference moving image at the same time as the reference moving image It is.
[0016]
In the present invention, for example, with respect to a reference moving image that causes a movement that satisfies a constraint condition that the movement of the image is a radial direction centered on a predetermined position, a plurality of motion detection regions are provided in the image end region of the reference moving image. An error value with respect to the image on the previous screen is calculated while the image of the motion detection area is zoomed around a predetermined position, and the position where the calculated error value is minimized is detected. The movement of the detection area is determined.
[0017]
Based on this motion detection result, the image edge region is divided into layers, the movement amount is set for each layer, and the image of the layered image edge region is determined based on the movement amount of the corresponding layer. An image is extracted from the moving image and is pasted in order from a layer with a small amount of movement to a layer with a large amount of movement. In addition, the image of each layer that has already been pasted is moved according to the amount of movement set for each layer, and the extracted image is added to the moved image before pasting the image in units of layers. Is called.
[0018]
Here, when a gap portion is generated in the image by the pasting process in units of layers, an image signal of the image in the gap region is generated by extending the image located behind the gap portion in the moving direction of the layer. Further, signal conversion processing corresponding to the orientation of the projection plane of the peripheral moving image is performed on the image signal of the image pasted in units of layers.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows the overall configuration of a display system using an image processing apparatus according to the present invention. In this display system, for example, three screens are arranged on the front and both sides of the user, and images are projected from
[0020]
In this image processing device 15A (15B, 15C), a motion of a predetermined region in an image formed on a specific plane is detected using input image signals of a plurality of frames, and a predetermined motion is determined based on the detected motion. The area is classified and information indicating the classification result is generated. Further, based on the classification information and the input image signal of a plurality of frames, an image signal of a peripheral image having the same time as the frame of interest in the input image signal and having a different angle of view from the image of the frame of interest is generated.
[0021]
The image processing device 15A receives an image signal taken while moving, for example, an image signal SDC of a moving image taken forward by an in-vehicle camera. The image processing device 15A delays the input image signal SDC by a time required for generating side image peripheral image signals SDL and SDR of a side moving image, which will be described later, and then supplies it to the projector 12C as an image signal SDC '. The projector 12C projects the front moving image UC based on the image signal SDC ′ onto the
[0022]
FIG. 3 shows the configuration of the image processing apparatus 15A according to the first embodiment. The image signal SDC is supplied to the
[0023]
The
[0024]
The peripheral image
[0025]
Further, by supplying the image signals SEL and SER of the side moving image for each layer to the delay unit 26, the image signals are delayed by one frame and then supplied to the peripheral image
[0026]
Further, when creating an image in which images of a distant view, a middle view, and a foreground are superimposed in order, if a gap portion without an image is generated due to a difference in layer movement amount, the peripheral image
[0027]
Next, the configuration and operation of each block will be described in detail with reference to the drawings. In the following description, only the right side moving image will be described, and the description of the generation of the left side moving image will be omitted.
[0028]
As described above, the
[0029]
Here, when the reduction process is performed, there are pixels in which the coordinate values of the pixels in the region are not integer values. On the other hand, in the image one frame before which the reduction process is not performed, the coordinate value of the pixel in the region is an integer value. Therefore, linear interpolation is performed on the reduced image, and the signal level at the position where the coordinate value becomes an integer value is calculated. For example, as shown in FIG. 6, when the motion detection area of Ka × Ka pixels is multiplied by (1 / Z), the area size becomes Kb × Kb pixels, and linear interpolation is performed to obtain Ka × Ka pixels. Is used to calculate a signal level where the number of pixels is “Kb × Kb”. By calculating the sum of errors using this calculated signal level, the amount of motion can be determined with high accuracy.
[0030]
FIG. 7 shows the configuration of the
[0031]
The
[0032]
The error
[0033]
The
[0034]
The
[0035]
The enlargement
[0036]
As described above, the enlargement
[0037]
The same processing is also performed for all the set motion detection areas using the enlargement factor Z set by the enlargement
[0038]
The
[0039]
FIG. 9 shows the configuration of the
[0040]
The layer division
[0041]
Here, when the maximum value and the minimum value of the motion amount are indicated as the statistical information MS, when n threshold values are set, the range of the maximum value and the minimum value as the motion amount appearance range is expressed as (n−1). ) Divide equally to set the threshold. For example, as shown in FIG. 10A, the range from the maximum value MVmax to the minimum value MVmin is equally divided into three, and the boundary values are set to threshold values Th-1 and Th-2. Alternatively, the threshold values Th-1 and Th-2 are set based on the equations (1) and (2) using the average value MVavg.
[0042]
[Expression 1]
[0043]
When a threshold value one frame before is supplied, a new threshold value is calculated by correcting the threshold value based on the statistical information obtained by the statistical
[0044]
[Expression 2]
[0045]
When a histogram as shown in FIG. 10B is displayed as statistical information, the minimum amount of motion is determined, and thresholds Th-1 and Th-2 are set based on the determined minimum amount of motion. You can also Further, the threshold values Thd-1 and Thd-2 that have already been set based on the histogram are corrected based on the statistical information obtained by the statistical
[0046]
The
[0047]
By the way, when the motion detection area is a part of the blue sky, for example, even if the
[0048]
Next, based on the layer identification information LS and the layer movement amount LV, the peripheral image
[0049]
FIG. 11 shows the configuration of the peripheral image
[0050]
The layer identification information LS and the layer movement amount LV generated in the
[0051]
In this way, the image signal SR-f of the distant view layer extracted by the
[0052]
The
[0053]
The adder 242 generates an addition signal SRA-f of the image signal SR-f and the image signal SRd-f and supplies the generated signal SRA-f to the
[0054]
Here, for example, when the right side moving image UR generated by superimposing the image signals SERd-f, SERd-m, and SERd-n is as shown in FIG. Since the image is moved by the layer movement amounts MR1 and MR2, the right side moving image UR generated by superimposing the image signals SRd-f, SRd-m, and SRd-n is as shown in FIG. 12D. Further, since the image signals SR and SRd are added by the
[0055]
When the
[0056]
For this reason, the
[0057]
The added signal SRA-f after the interpolation processing by the interpolating
[0058]
Using the image signal SER-f and the image signal SER-m, the middle
[0059]
The
[0060]
The
[0061]
That is, as the image conversion process, the
[0062]
Here, as shown in FIG. 14C, the length from the front end of the right side moving image to the image reference position CPR is “L”, the length of the right side moving image in the horizontal direction is “A”, and the front moving image When the proportionality constant γ based on the angle θs formed by the projection plane and the right side moving image projection plane is set, as shown in FIG. 14D, the position (x, y) of the image based on the image signal SFR corresponds to this position. The relationship between the position (X, Y) after image conversion to be performed can be approximately expressed by equations (5) and (6). Note that the lengths “L” and “A” and the proportionality constant γ are set in advance before the side moving image is generated.
[0063]
[Equation 3]
[0064]
Therefore, if the signal at the position (x, y) on the image based on the image signal SFR calculated based on the equations (5) and (6) is extracted as the signal at the position (X, Y) after the image conversion, the image The converted peripheral image signal SDR can be easily generated. Further, the peripheral image signal SDL of the left side moving image can be generated in the same manner. For this reason, the
[0065]
Furthermore, the processing performed in each block described above may be realized not only by hardware but also by software. The configuration in this case is shown in FIG.
[0066]
The computer 30 includes a CPU (Central Processing Unit) 301 as shown in FIG. 15, and a
[0067]
When a command is input from an external device or a command is input from an
[0068]
The
[0069]
FIG. 16 is a flowchart illustrating the overall configuration of the image processing program according to the first embodiment. In the figure, in step ST1, motion detection processing is performed to detect the amount of motion of the image. Next, in step ST2, layer information indicating which layer the image belongs to is generated by layering processing, and a motion amount for each layer is calculated. In step ST3, peripheral image generation processing is performed, and a peripheral image is synthesized based on the layer information and the amount of motion for each layer.
[0070]
FIG. 17 is a flowchart showing the motion amount detection process in step ST1 of FIG. In step ST11, a motion detection area is set for the front moving image, and the process proceeds to step ST12. In step ST12, the image in the motion detection area is reduced to calculate the error sum, and the process proceeds to step ST13. In step ST13, the already calculated error sums are compared to detect a motion amount that reduces the error sum, and the process proceeds to step ST14. In step ST14, it is determined whether or not the processes in steps ST12 and ST13 have been completed with an image size within a preset range. If not completed, the process returns to step ST11, and if completed, the process proceeds to step ST15. In step ST15, the motion amount with the smallest error sum is set as the motion amount in the motion detection region.
[0071]
FIG. 18 is a flowchart showing the layering process in step ST2 of FIG. In step ST21, statistical information, for example, an average value is calculated using the motion amount detected in the motion amount detection process in step ST1, and the process proceeds to step ST22. In step ST22, based on the statistical information, a threshold for dividing the image into, for example, a distant view, a middle view, and a close view is set. In step ST23, the set threshold value is compared with the motion amount, and layer information indicating which layer the motion detection region belongs to is generated. In step ST24, the motion amount for each layer is calculated based on the motion amount of the motion detection area included in the layer.
[0072]
FIG. 19 is a flowchart showing the peripheral image generation processing in step ST3 of FIG. In step ST31, an image is extracted for each layer from the front moving image based on the amount of motion and layer information for each layer generated in the layering process. In step ST32, composition of the extracted image of each layer is generated at a predetermined position. In step ST33, when image synthesis is performed, a portion without an image is generated, and it is determined whether or not interpolation processing for supplementing this portion of the image is necessary. Here, when a portion having no image is generated, the process proceeds to step ST34, and when a portion having no image is generated, the process proceeds to step ST35. In step ST34, interpolation processing is performed and the process proceeds to step ST35. For example, an image around a portion having no image is expanded and interpolated. In step ST35, geometric transformation processing is performed in accordance with the orientation of the screen on which the synthesized image is projected, and an image signal of the image subjected to this geometric transformation is output as an image signal of a peripheral image in step ST36.
[0073]
Such an image processing program includes a removable recording medium using magnetic or light, a removable information recording / transmission medium configured using a semiconductor element, for example, an optical disk such as a floppy (R) disk or a CD-ROM, or an MO disk. It may be recorded on a magneto-optical disk such as a tape cartridge or a semiconductor memory. In this case, the removable information recording / transmission medium is mounted on the
[0074]
Further, the information recording and transmission medium includes a wired or wireless transmission path for transmitting the image processing program, for example, a network such as a LAN or the Internet, a satellite broadcast wave, a terrestrial broadcast wave, or the like. In this case, the information recording transmission medium is connected to the
[0075]
Here, when the image signal of the front moving image is input to the image input /
[0076]
As described above, according to the above-described embodiment, a moving image based on the image signal SDC can be obtained only by inputting the image signal SDC of a motion that satisfies at least one constraint condition obtained by photographing with one on-vehicle camera or the like. Since it is possible to present a peripheral image that does not exist in real time in real time, it is possible to present a multi-directional image with high presence.
[0077]
In addition, since the image of the originally absent part is created based on the input image, it is not necessary to use a large number of cameras or special cameras to obtain the image of the missing part, and it is low cost and has a wide display range and a sense of depth. An image can be obtained.
[0078]
Furthermore, since images are created using live-action images, more realistic image presentation is possible, and the 3D space is not reconstructed so as to create a virtual space with computer graphics. Images of different projection planes can be obtained.
[0079]
In addition, even for a huge image source that exists, if it is an image of a motion that satisfies at least one constraint condition, by performing the above-described processing, the image on both sides and the top and bottom sides are input. It can be presented at the same time, providing a greater sense of realism and representing a wide range of images.
[0080]
By the way, the above-described image processing device 15A adds the constraint condition that the moving direction of the front moving image is from one point to the radial direction, so that the image signal input with the front moving image, the left side moving image, and the right side moving image is input. The display was made in real time based on SDC. However, if the stored image signal SDC that can be freely read is used, the front moving image, the left side moving image, and the right side moving image are added based on the image signal SDC without adding the above-described constraint conditions. Can be displayed.
[0081]
The image processing device 15B that performs such processing supplies the stored image signal SDC of the front moving image taken by, for example, an in-vehicle camera to the projector 12C, and the front moving image based on the image signal SDC is shown in FIG. Are displayed on the
[0082]
Next, a case where the image signal SDC and intermediate image information are stored in the image processing device 15B will be described as a second embodiment of the present invention. FIG. 20 shows a schematic configuration of the image processing apparatus 15B. The image processing device 15B can display a front moving image, a left side moving image, and a right side moving image using the stored image signal SDC. The image signal SDC is accumulated in the front moving image
[0083]
The
[0084]
The
[0085]
Further, the
[0086]
The
[0087]
When displaying images on the
[0088]
Next, each part which comprises the motion detection block 40 is demonstrated in detail. In addition, in order to simplify description, in the following description, only the right side surface will be described, and description of the left side surface will be omitted.
[0089]
As described above, the motion detection block 40 determines the motion vector MVE for each motion detection area. Here, when the front moving image has the moving center of the image, that is, when the front image is captured by the on-vehicle camera, the image at time T shown in FIG. 5A is, for example, after one frame time has elapsed. It becomes what is shown in FIG. 5B at time T ′, and is substantially equal to the zoom-in operation image centered on the image reference position CP.
[0090]
Here, as shown in FIG. 5C, the enlargement ratio Z is set to reduce the motion detection area of the target frame to (1 / Z), and the position of the reduced motion detection area is moved one frame before. The error sum with the image signal is calculated. Further, the enlargement ratio Z is changed, and the error sum is calculated while moving the position in the same manner. Thus, by detecting the position where the error sum becomes the minimum value, the motion vector MVE of each motion detection region can be determined for each frame of interest. Further, the enlargement ratio Z when the error sum becomes the minimum value is set as the motion amount.
[0091]
By the way, when the reduction process is performed, a pixel in which the coordinate value of the pixel in the region is not an integer value is generated. On the other hand, in the image one frame before which the reduction process is not performed, the coordinate value of the pixel in the region is an integer value. Therefore, linear interpolation is performed on the reduced image, and the signal level at the position where the coordinate value becomes an integer value is calculated. For example, as shown in FIG. 6 described above, when the image size becomes Kb × Kb pixel size by performing the reduction process to (1 / Z) on the image of Ka × Ka pixel, linear interpolation is performed. Then, the signal level of the image with the number of pixels “Kb × Kb” is calculated using the signal of Ka × Ka pixels. By calculating the sum of errors between the calculated signal level and the signal level one frame before the position corresponding to the reduced image, the amount of motion can be accurately determined.
[0092]
When the image reference position CP is not clear, as shown in FIG. 22, when the center of the motion detection area ARa is changed from the position Pa1 to the position Pa2, the error sum becomes the minimum value, and the center of the motion detection area ARb is set from the position Pb1. When the sum of errors becomes the minimum value when Pb2, the image reference is detected by detecting a point where the vector direction of the motion vector MVE of the motion detection area ARa and the vector direction of the motion vector of the motion detection area ARb intersect. The position CP can be detected.
[0093]
In addition, when turning right or turning left, for example, the upper side image of the front moving image moves horizontally. For this reason, if the minimum value of the error sum is not detected even when the zoom-in operation is performed around the image reference position CP, the minimum value of the error sum is determined by moving the image in the motion detection region in the horizontal direction. At this time, the movement amount of the motion detection area until the error sum becomes the minimum value can be set as the motion amount of the motion vector MVE.
[0094]
Next, since the image appears to be sucked into the image reference position CP at the time of backward movement, the image at the time of backward movement is substantially equal to the zoom-out operation image centered on the image reference position CP. For this reason, the enlargement ratio Z is set to “1” or less. That is, when moving backward, the motion of the image is opposite to that when moving forward, so a plurality of motion detection areas are set on the side edge side of the previous frame, and each motion detection area is reduced to (1 / Z). The error sum with the image of the frame of interest is calculated while moving the position of the reduced area. Alternatively, each motion detection area of the target frame is reduced to (1 / Z), and the error sum with the image after one frame is calculated while moving the position of the reduced area. Further, the enlargement ratio Z is changed, and the error sum is calculated while moving the position in the same manner. Thus, by detecting the position where the error sum becomes the minimum value, the backward motion vector MVE can also be determined.
[0095]
When the motion vector MVE is determined as described above, the amount of motion of the motion vector MVE is small because the image of the distant view has little motion, and the amount of motion of the motion vector MVE is large since the image of the foreground has much motion.
[0096]
FIG. 23 shows the configuration of the
[0097]
The error
[0098]
The
[0099]
The
[0100]
In the
[0101]
When the minimum error sum obtained by the
[0102]
In this way, the search direction is moved in the direction of the image reference position CP or in the horizontal direction, and the image of the motion detection region is detected by detecting the image position of another frame that minimizes the error sum with the image of the motion detection region. The motion vector MVE can be correctly obtained even when the image is a right turn or left turn, an image of a car or a person crossing the front, or an image of an overtaking vehicle.
[0103]
The
[0104]
FIG. 24 shows the configuration of the
[0105]
Here, the motion
[0106]
Next, when the motion
[0107]
The movement
[0108]
Based on the motion pattern MP determined by the motion
[0109]
Here, when the
[0110]
The
[0111]
For example, when the layer pattern information LP indicates that the background scene, the middle scene, and the foreground layer are divided, the threshold
[0112]
As in the case shown in FIG. 10, the threshold value may be set by obtaining a motion amount histogram and obtaining threshold values Th-1 and Th-2 using the minimum value of the histogram. In this way, the threshold Th is dynamically changed according to the motion amount distribution, so that the image is not classified into only one layer, and the layer classification is favorably performed according to the motion amount distribution. It can be carried out.
[0113]
Based on the threshold Th from the
[0114]
For example, when creating the three layers of the distant view, the middle view, and the foreground, the
[0115]
The classification correction unit 465 refers to the layer classification information LA of each motion detection area, and corrects an area where the number of connected areas belonging to the same layer is smaller than a predetermined number to a layer that matches the surrounding area. For example, in FIG. 26B, the area AR4-g of the Fp + 4 frame and the area AR6-h of the Fp-2 frame are not connected to the same layer. For this reason, the classification correction unit 465 corrects these areas to areas that match the surroundings as shown in FIG. 26C, and generates layer classification information LB indicating which area is used as which layer. To the
[0116]
Further, when there is an overtaking vehicle, the layer generates not only the above-mentioned distant view, middle view, and close-up view, but also a reverse layer including an image of the overtaking vehicle as shown in FIG. 26D. Here, since the overtaking vehicle has the vector direction of the motion vector MVE opposite to that of the distant, middle, and foreground images, the time axis direction of the backward layer is generated with the direction opposite to that of the other layers.
[0117]
FIG. 27 shows the configuration of the
[0118]
The motion amount average
[0119]
Based on the layer classification information LB supplied from the
[0120]
The intermediate image
[0121]
The intermediate image
[0122]
The intermediate image
[0123]
When the intermediate image
[0124]
In this way, the intermediate image
[0125]
Next, a case where the peripheral image signal SDR of the right side image is generated using the intermediate image information stored in the intermediate image
[0126]
When generating the peripheral image signal SDR, the peripheral image
[0127]
FIG. 30 shows a configuration of a peripheral image
[0128]
Here, the intermediate image signal of the horizontal movement layer that moves in the horizontal direction when turning right or left is supplied to the synthesis unit 621-1. Further, the intermediate image signal of the far view layer is supplied to the synthesizing unit 621-2, and the intermediate image signal of the middle scene layer and the intermediate image signal of the foreground layer are supplied to the synthesizing units 621-3 and 621-4. Further, the intermediate image signal of the reverse layer including the image of the overtaking vehicle is supplied to the synthesis unit 621-5.
[0129]
An image shift unit 623-1, which will be described later, is connected to the combining unit 621-1. The combining unit 621-1 adds the intermediate image
[0130]
The delay unit 622-1 delays the image signal supplied from the combining unit 621-1 by one frame and supplies the delayed image signal to the image shift unit 623-1. The image shift unit 623-1 moves the image based on the image signal supplied from the delay unit 622-1 in the horizontal direction based on the amount of movement MYv of the horizontal movement layer supplied from the image
[0131]
Similarly, the delay units 622-2 to 622-5 generate image signals delayed by one frame, and the image shift units 623-2 to 623-5 generate image signals delayed by one frame. Based on the amount of movement MYv of each layer supplied from the
[0132]
Further, since the intermediate image signal is a signal read from the front moving image signal, the image based on the intermediate image signal is an image on the same plane as the
[0133]
The
[0134]
For this reason, the
[0135]
The image signal of the distant view layer after the projective conversion obtained by the converting
[0136]
Based on the image signals supplied from the combining unit 621 and the converting
[0137]
Based on the image signals supplied from the
[0138]
The
[0139]
Based on the image signals supplied from the
[0140]
Therefore, the peripheral image
[0141]
Further, when the intermediate image signal stored in the intermediate image
[0142]
The peripheral image
[0143]
Further, the storage unit 50 stores intermediate image information, and this intermediate image information is an amount of motion and an intermediate image signal for each layer. For this reason, the amount of information stored in the storage unit 50 is smaller than that in the case of storing image signals of peripheral images. The image processing device 15B can display an image with a wide angle of view without using a large-capacity recording medium or the like.
[0144]
Furthermore, the processing performed in each block described above may be realized by software. The configuration in this case is the same as that in FIG.
[0145]
FIG. 31 is a flowchart illustrating an overall configuration of an image processing program according to the second embodiment. In the figure, in step ST41, motion detection processing is performed to detect a motion vector of an image. Next, in step ST42, image information for each layer, for example, a distant view layer, a middle view layer, and a foreground layer, and intermediate image information indicating the amount of motion of each layer are generated based on the motion vector in the intermediate image information generation process. In step ST43, a peripheral image generation process is performed, and a peripheral image is synthesized based on the intermediate image information.
[0146]
FIG. 32 is a flowchart showing the motion detection process in step ST41 of FIG. In step ST51, a motion detection area is set for the front moving image, and the process proceeds to step ST52. In step ST52, the image of the motion detection area is reduced and the position is changed to calculate the error sum, and the process proceeds to step ST53. In step ST53, the already calculated error sum is compared to detect an image position where the error sum is reduced, and the process proceeds to step ST54. In step ST54, it is determined whether or not the examination within the preset image size and position range is completed. If not completed, the process returns to step ST51, and if completed, the process proceeds to step ST55. In step ST55, a motion vector indicating the motion of the motion detection area is determined based on the image position where the error sum is the smallest.
[0147]
FIG. 33 is a flowchart showing intermediate image information generation processing in step ST42 of FIG. In step ST61, based on the motion vector detected in the motion detection process in step ST41, it is determined whether the motion pattern is, for example, a straight motion or a backward motion, or a motion pattern such as a right turn or a left turn. Layer pattern information indicating what kind of layer is provided is generated. In step ST62, the determined motion pattern determines whether or not the entire screen is an enlarged motion. If it is an enlargement movement, the process proceeds to step ST63, and if it is not an enlargement movement, the process proceeds to step ST65. In step ST63, statistical information such as an average value is calculated using the motion amount of the motion vector, and the process proceeds to step ST64. In step ST64, based on the statistical information, a threshold for dividing the image into, for example, a distant view, a middle view, and a close view is set. In step ST65, the set threshold value is compared with the amount of motion to generate layer information indicating to which layer the motion detection region belongs. Further, when the entire screen is not an enlarged motion, layer information is generated with the motion detection area as a layer corresponding to the motion pattern.
[0148]
In step ST66, the motion amount for each layer is calculated based on the motion amount of the motion detection area included in the layer. In step ST67, based on the layer information and the motion amount for each layer, an image is extracted for each layer from the front moving image to generate an intermediate image. In step ST68, it is determined whether or not there is an isolated area in the intermediate image. If there is an isolated area, the process proceeds to step ST69, and if there is no isolated area, the process proceeds to step ST70. In step ST69, interpolation processing is performed to remove the isolated area, and the process proceeds to step ST70. In step ST70, intermediate image information is generated for an intermediate image for each layer having no isolated region and a motion amount for each layer.
[0149]
FIG. 34 is a flowchart showing the peripheral image generation processing in step ST43 of FIG. In step ST81, based on the amount of motion for each layer indicated by the intermediate image information, an image is extracted for each layer from the intermediate image for each layer. In step ST82, composition of the extracted image of each layer is generated at a predetermined position. In step ST83, when image synthesis is performed, a portion without an image is generated, and it is determined whether or not interpolation processing for supplementing the image of this portion is necessary. Here, when a portion without an image is generated, the process proceeds to step ST84, and when a portion without an image is generated, the process proceeds to step ST85. In step ST84, interpolation processing is performed and the process proceeds to step ST85. For example, an image around a portion having no image is expanded and interpolated. In step ST85, geometric transformation processing is performed in accordance with the orientation of the screen on which the synthesized image is projected, and an image signal of the image subjected to this geometric transformation is output as an image signal of a peripheral image in step ST86.
[0150]
Such an image processing program may be recorded on a removable information recording / transmission medium as described above or transmitted via the information recording / transmission medium.
[0151]
In the second embodiment described above, when the image processing program is executed and intermediate image information is generated, this intermediate image information is attached to, for example, the
[0152]
By the way, in the second embodiment described above, layering of images such as a distant view, a middle view, and a foreground, and determination of the amount of movement are performed based on the motion vector MVE of the motion detection area provided on the side edge side of the front moving image. The intermediate image information is generated and stored in the intermediate image
[0153]
Next explained is an image processing apparatus according to the third embodiment of the invention. The image processing device 15C generates a peripheral image signal without using the motion vector MVE.
[0154]
The image processing device 15C generates a projected image in the lateral direction based on the front moving image by geometric transformation, integrates the projected image to generate an integrated image, and performs image layering using the integrated image. Then, the motion amount MYs for each layer and the intermediate image signal for each layer are generated and stored as intermediate image information in the intermediate image
[0155]
FIG. 35 shows the configuration of the image processing apparatus 15C. The image signal SDC of the front moving image is supplied to the
[0156]
The motion discriminating
[0157]
The integral
[0158]
The
[0159]
Based on the supplied motion amount information MF, the
[0160]
In each layer, the
[0161]
Further, when the movement direction of the images in the distant view layer, the middle view layer, and the foreground layer is used as a reference, the movement direction of the backward layer is opposite. For this reason, the
[0162]
Further, the
[0163]
The peripheral image
[0164]
Next, each block will be described in detail. FIG. 36 is a diagram for explaining the geometric transformation process in the
[0165]
[Expression 4]
[0166]
In Equations (7) and (8), “θg” indicates an angle that halves the horizontal angle of view of the front moving image, and when the horizontal angle of view of the camera that captured the front moving image is clear, The angle half of the horizontal angle of view is “θg”. When the horizontal angle of view of the camera is not clear, a value set in advance according to the focal length of the used lens is used. “D” is a value obtained by halving the horizontal length of the front moving image (the horizontal length of the image frame).
[0167]
As described above, by using the equations (7) and (8), the
[0168]
FIG. 37 is a diagram for explaining the operation of the motion discrimination
[0169]
The integrated
[0170]
Further, as shown in FIG. 38D, when the average value image Um is generated by doubling the image shift amount of each frame (2dx), the position of the subject Jb becomes constant and the position of the subject Ja moves. As shown in FIG. 38E, only the subject Jb can be extracted from the average value image Um.
[0171]
In this way, an average value image obtained by moving the images of each frame by a predetermined amount, adding and averaging is generated, and a plurality of average value images are changed by changing the shift amount of the images of each frame. Is generated. Then, by determining which average value image the subject is correctly displayed, even if a subject with a different amount of motion is included in one image, the amount of motion of each subject can be determined using the average value image. . Here, similarly to the motion determination
[0172]
FIG. 39 is a diagram illustrating a configuration of the integral
[0173]
The addition processing unit 741-1 adds the projection plane image signal moved in the horizontal direction from the previous frame by the preset number of pixels SH-1, and sequentially adds the addition signal by ms frames (for example, 10 frames). calculate. Further, the addition processing unit 741-1 multiplies this addition signal by 1 / m and supplies the image signal of the average value image to the region selection unit 742-1.
[0174]
The region selection unit 742-1 generates an image signal of a predetermined number of pixels in the horizontal direction from the front moving image side end portion (right end portion in the right projection plane image) for each frame from the supplied average value image signal. Cut out and sequentially superimpose the cut out image signals to output them to the
[0175]
Similarly to the addition processing unit 741-1, the addition processing units 741-2 to 741-ns also output projection plane image signals that are moved in the horizontal direction from the previous frame by a preset number of pixels SH-2 to SH-ns. , Add the ms frames, sequentially calculate the addition signal, multiply the addition signal by 1 / m, average it, and supply it to the region selection units 742-2 to 742-ns. Further, the region selection units 742-2 to 742-ns cut out a signal of a predetermined number of pixels wb from the supplied image signal, sequentially superimpose them, and output them as an integrated image signal to the
[0176]
Here, assuming that the number of pixels cut out by the motion determination
[0177]
FIG. 40 is a diagram illustrating the operation of the integral
[0178]
Here, the integral
[0179]
The motion discrimination image has a discontinuous shape when the cutout amount and the motion amount are not equal. Similarly, the integral image also has a cutout image when the number of pixels SH-r is smaller than the number of pixels wb. It is done with overlap. For this reason, the integral image Ub-r is a discontinuous image corresponding to the amount of motion, as shown in FIG. 40G. When the number of pixels SH-s is equal to the number of pixels wb, the integrated image Ub-s becomes a continuous image corresponding to the amount of motion as shown in FIG. 40H. Further, when the number of pixels SH-t is larger than the number of pixels wb, a missing portion is generated by cutting out the image, and the integrated image Ub-t becomes a discontinuous image corresponding to the amount of motion as shown in FIG. 40J. Therefore, the
[0180]
The
[0181]
In the calculation of the correlation value, when calculating the correlation value between the pixel of the image A and the image B, a predetermined range centering on the target pixel of the image A (pixel for calculating the correlation value) is set, and this predetermined range is set. The correlation value of the target pixel is obtained using the image signal. For example, a rectangular range of ± mvc pixels in the x direction and ± nvc pixels in the y direction centered on the target pixel (for example, a rectangular range of 31 horizontal pixels and 5 vertical pixels centered on the target pixel) is set, and the equation (9 ) To calculate a correlation value VC.
[0182]
[Equation 5]
[0183]
In Expression (9), the signal level of each pixel in the rectangular range of the image A is DAi (i = 1 to (mvc × nvc)), and the signal level of each pixel in the rectangular range of the image B is DBi. (I = 1 to (mvc × nvc)), and the average value of the signal level of each pixel in the rectangular range is DAav, DBav.
[0184]
For example, when the
[0185]
Although not shown, the integral
[0186]
The
[0187]
The
[0188]
FIG. 43 shows the configuration of the
[0189]
Based on the layer classification information LB, the intermediate image
[0190]
Similar to the intermediate image
[0191]
Further, when there is a backward layer such as an overtaking vehicle, the intermediate image
[0192]
Next, an operation for generating a peripheral image using the intermediate image information of each layer will be described. The peripheral image can be generated in the same manner as the peripheral image
[0193]
Further, in image synthesis, for example, when generating a right-side moving image as a peripheral image, image composition is performed by superimposing the same frame portion of each layer so as to overlap at the left end of the generated right-side moving image. In addition, the right end of the projected image obtained by first converting the front moving image is set to be equal to the left end of the generated side moving image. Thereafter, for each layer, the image is moved based on the amount of motion for each layer, and the next image is superimposed on the moved image for each layer to perform image synthesis. As shown in FIG. An image URI of a side surface that is continuous with the image UI can be generated.
[0194]
Incidentally, the image generated by superimposing the intermediate images for each layer using the intermediate image information is an image on a plane equal to the projection plane FI as shown in FIG. On the other hand, the
[0195]
Here, as shown in FIG. 45, the distance d is ½ of the horizontal length of the front moving image UC, and the position O which is the shooting position of the front moving image is on the normal line from the center of the
[0196]
[Formula 6]
[0197]
Of course, the peripheral image signal SDL can be generated in the same manner as the peripheral image signal SDR.
[0198]
Furthermore, the processing performed in each block described above may be realized not only by hardware but also by software. In this case, the configuration shown in FIG.
[0199]
FIG. 46 is a flowchart showing the overall configuration of the image processing program according to the third embodiment. In the figure, in step ST91, a motion detection process is performed to generate a projection plane image, and a motion amount for each pixel of the projection plane image is detected. Next, in step ST92, pixel layers are divided based on the amount of motion, and intermediate image information indicating the amount of motion of each layer is generated. In step ST93, peripheral image generation processing is performed, and a peripheral image is synthesized based on the intermediate image information.
[0200]
FIG. 47 is a flowchart showing the motion detection process in step ST91 of FIG. In step ST101, a side projection image is created based on the front moving image by geometric transformation. In step ST102, an integrated image for each amount of motion is created based on the projected image, and a cut-out image is created by cutting out the image from the projected image. In step ST103, the integrated image and the cut-out image for each motion amount are matched. In step ST104, the motion amount for each pixel is determined by detecting an integrated image having the highest correlation value based on the matching result.
[0201]
FIG. 48 is a flowchart showing intermediate image information generation processing in step ST92 of FIG. In step ST111, based on the pixel motion amount detected by the motion detection process in step ST101, a motion amount statistic is calculated. In step ST112, a threshold for performing layer division is set based on the statistics. In step ST113, the set threshold value is compared with the amount of motion to generate layer classification information indicating which layer each pixel of the projected image belongs to. In step ST114, the motion amount for each layer is calculated based on the motion amount of the pixels included in the layer. In step ST115, based on the layer classification information and the amount of motion for each layer, an image is extracted for each layer from the projected image to generate an intermediate image. In step ST116, it is determined whether or not there is an isolated area in the intermediate image. If there is an isolated area, the process proceeds to step ST117. If there is no isolated area, the process proceeds to step ST118. In step ST117, interpolation processing is performed to remove the isolated region, and the process proceeds to step ST118. In step ST118, intermediate image information is generated for an intermediate image for each layer having no isolated region and a motion amount for each layer.
[0202]
FIG. 49 is a flowchart showing the peripheral image generation processing in step ST93 of FIG. In step ST121, based on the amount of motion for each layer indicated by the intermediate image information, an image is extracted for each layer using the intermediate image for each layer. In step ST122, composition of the extracted image of each layer is generated at a predetermined position. In step ST123, when an image is combined, a portion without an image is generated, and it is determined whether or not an interpolation process for supplementing the image of this portion is necessary. Here, when a portion without an image is generated, the process proceeds to step ST124, and when a portion without an image is generated, the process proceeds to step ST125. In step ST124, interpolation processing is performed and the process proceeds to step ST125. For example, an image around a portion having no image is expanded and interpolated. In step ST125, since the synthesized image is an image on the same plane as the projection plane, image conversion processing is performed according to the orientation of the screen on which the image is projected, and the image signal on which this image conversion has been performed is performed in step ST126. Output as an image signal.
[0203]
Such an image processing program may be recorded on a removable information recording / transmission medium as described above or transmitted via the information recording / transmission medium.
[0204]
In the third embodiment described above, when the image processing program is executed and intermediate image information is generated, this intermediate image information is attached to, for example, the
[0205]
In each of the embodiments described above, the case where the image signal of the peripheral image is generated using the image signal obtained by the in-vehicle camera is described. However, the image signal may be a landscape moving image or a person photographed from above the moving ship. Even if an image signal of a moving image taken while walking is used, an image signal of a peripheral image can be generated by performing the same processing.
[0206]
As described above, according to the first to third embodiments described above, it is possible to determine the motion of the front moving image and generate a peripheral image in a different direction based on the determined motion. For this reason, since moving images in different directions can be generated simultaneously based on a front moving image taken by a video camera or the like, it is possible to present a multi-screen image with a high sense of realism and a wide angle of view.
[0207]
In addition, since images in different directions can be generated based on one input image, it is not necessary to use a plurality of video cameras, cameras using wide-angle lenses, and the like, and shooting can be performed easily.
[0208]
Furthermore, since an image in a different direction is generated using a live-action image, an image that is more realistic and realistic than a three-dimensional virtual space image by computer graphics can be displayed, and the depth can be two-dimensionally displayed. Since it is expressed as a plane hierarchy, three-dimensional arithmetic processing is not required and signal processing is easy.
[0209]
In addition, the image processing apparatus and the computer use the signal stored as the input image signal to display the image that enters the front moving image with the passage of time as a peripheral image before the front moving image is displayed. be able to. As described above, since an image that cannot be displayed when using a real-time image signal can be displayed as a peripheral image, a more realistic and highly realistic image display with a wide angle of view can be performed. Further, by inputting a huge image source that already exists into a computer that executes the image processing apparatus and the image signal generation method of the present invention, these images can be enjoyed with a high sense of reality and a wide angle of view.
[0210]
In the above-described embodiment, a plurality of motion detection regions are provided at the side edges of the front moving image, and a motion vector is obtained for each motion detection region, or a motion determination image is generated using a projected image and an integrated image is obtained. The intermediate image information is generated by discriminating the motion at the predetermined position of the frame of interest by comparing with the above, and the peripheral image signal is generated using this intermediate image information. Of course, any device capable of discriminating movement is acceptable.
[0211]
【The invention's effect】
According to the present invention, a motion of a predetermined region in an image based on the input image signal is detected using the input image signal of a plurality of frames, and a frame of interest is detected based on the detected motion and the input image signal of the plurality of frames. The image signal of the peripheral moving image having the same time and the angle of view different from the image of the frame of interest is generated. Therefore, an image having a wide display range and a sense of depth can be obtained at low cost without using a large number of cameras or special cameras.
[0212]
In addition, since a plurality of motion detection regions are set in the image end region and motion is detected for each motion detection region, even if a subject such as a distant view or a near view is included in the reference moving image based on the input image signal The movement of each subject can be detected. Furthermore, when the constraint condition that the movement of the image is a radial direction centered on a predetermined position is satisfied, the movement is facilitated by calculating an error value from the image on the previous screen while zooming the image about the predetermined position. Can be determined.
[0213]
In addition, since the image end region is divided into layers based on the motion detection result, and signal processing corresponding to the screen order is performed for each layer, even if a subject such as a distant view or a foreground is included in the reference moving image, Signal processing corresponding to each subject is performed, and a correct peripheral moving image signal with a sense of depth can be generated.
[0214]
Furthermore, when a gap region is generated when an image for each layer is pasted, an image signal of an image of the gap portion is generated by interpolation processing, so that an excellent image signal of a side moving image can be generated. In addition, since signal conversion processing is performed according to the direction of the projection plane of the peripheral moving image, the peripheral moving image having a sense of depth can be displayed realistically.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a display system.
FIG. 2 is a diagram illustrating an image projection state.
FIG. 3 is a diagram illustrating a configuration of an image processing apparatus according to the first embodiment.
FIG. 4 is a diagram for explaining setting of a motion detection region.
FIG. 5 is a diagram for explaining a motion amount calculation method;
FIG. 6 is a diagram illustrating a change in region size during zooming.
FIG. 7 is a diagram illustrating a configuration of a motion amount calculation block.
FIG. 8 is a diagram showing the amount of motion in each motion detection region.
FIG. 9 is a diagram illustrating a configuration of a layering processing block;
FIG. 10 is a diagram for explaining threshold setting.
FIG. 11 is a diagram illustrating a configuration of a peripheral image signal generation block.
FIG. 12 is a diagram for explaining a right side moving image generation operation;
FIG. 13 is a diagram for explaining generation of a gap region and interpolation processing.
FIG. 14 is a diagram for explaining image conversion processing;
FIG. 15 is a diagram illustrating a configuration using a computer.
FIG. 16 is a flowchart showing an overall configuration of an image processing program according to the first embodiment.
FIG. 17 is a flowchart showing motion detection in the first embodiment.
FIG. 18 is a flowchart showing layering processing in the first embodiment;
FIG. 19 is a flowchart showing peripheral image signal generation in the first embodiment.
FIG. 20 is a diagram illustrating a configuration of an image processing apparatus according to a second embodiment.
FIG. 21 is a diagram illustrating a motion vector of each motion detection region.
FIG. 22 is a diagram illustrating a method for determining an image reference position.
FIG. 23 is a diagram illustrating a configuration of a motion detection unit.
FIG. 24 is a diagram illustrating a configuration of a layer classification unit.
FIG. 25 is a diagram for explaining a relationship between a vector direction and a motion pattern.
FIG. 26 is a diagram for describing a generation operation of layer classification information.
FIG. 27 is a diagram illustrating a configuration of an information generation unit.
FIG. 28 is a diagram illustrating an intermediate image for each layer.
FIG. 29 is a diagram illustrating an intermediate image for each layer after interpolation processing;
FIG. 30 is a diagram illustrating a configuration of a peripheral image signal generation block.
FIG. 31 is a flowchart illustrating an overall configuration of an image processing program according to the second embodiment.
FIG. 32 is a flowchart showing motion detection in the second embodiment.
FIG. 33 is a flowchart illustrating layering processing according to the second embodiment;
FIG. 34 is a flowchart showing peripheral image signal generation in the second embodiment.
FIG. 35 is a diagram illustrating a configuration of an image processing apparatus according to a third embodiment;
FIG. 36 is a diagram for explaining geometric transformation processing;
FIG. 37 is a diagram for explaining the operation of the motion discrimination image generation unit;
FIG. 38 is a diagram for explaining the principle of the motion amount determination operation;
FIG. 39 is a diagram illustrating a configuration of an integral image generation unit.
FIG. 40 is a diagram for explaining the operation of the integral image generation unit.
FIG. 41 is a diagram for explaining the operation of a motion amount determination unit;
FIG. 42 is a diagram for describing a generation operation of a backward layer motion determination image;
FIG. 43 is a diagram illustrating a configuration of an information generation unit.
FIG. 44 is a diagram showing a projected plane image and a generated side moving image.
FIG. 45 is a diagram for describing image conversion processing;
FIG. 46 is a flowchart illustrating an overall configuration of an image processing program according to the third embodiment.
FIG. 47 is a flowchart showing motion detection processing in the third embodiment;
FIG. 48 is a flowchart illustrating layering processing according to the third embodiment;
FIG. 49 is a flowchart showing peripheral image signal generation in the third embodiment.
[Explanation of symbols]
10L, 10C, 10R ... screen, 12L, 12C, 12R ... projector, 15A, 15B, 15C ... image processing device, 16, 26, 41, 224, 622-1 to 622-5 ... Delay unit, 20, 40 ... motion amount calculation block, 22, 45,80 ... layer division processing block, 24,60,72 ... peripheral image signal generation block, 30 ... computer, 42 ... -Motion detection unit, 44 ... Image signal generation unit, 46 ... Layer classification unit, 47 ... Information generation unit, 50 ... Storage unit, 51 ... Front moving image signal storage region, 52 ..Intermediate image
Claims (21)
前記動き検出手段で検出された動きに基づいて、前記所定領域を分類して分類結果を示す情報を生成するレイヤ化処理手段と、
前記分類情報と前記複数フレームの入力画像信号に基づいて、前記入力画像信号中の注目フレームと同一時間であると共に、前記注目フレームの画像と画角の異なる周辺画像の画像信号を生成する周辺画像信号生成手段とを有する
ことを特徴とする画像処理装置。A motion detection means for detecting a motion of a predetermined area in an image formed on a specific plane using a plurality of frames of input image signals ;
Layering processing means for classifying the predetermined area based on the motion detected by the motion detection means and generating information indicating a classification result;
Based on the classification information and the input image signals of the plurality of frames, a peripheral image that generates an image signal of a peripheral image that has the same time as the target frame in the input image signal and has a different angle of view from the image of the target frame An image processing apparatus comprising: a signal generation unit.
ことを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image based on the input image signal and the image formed on the specific plane are images on the same plane.
前記動き検出手段で検出された動きに基づいて、前記所定領域のレイヤを決定してレイヤ情報を生成するレイヤ化処理手段と、
前記レイヤ化処理手段で生成されたレイヤ情報と前記画像端部領域の画像信号を用いて信号処理を行い、前記基準動画像と同一時間であると共に、前記基準動画像に対応した周辺動画像の画像信号を生成する周辺画像生成手段とを備える
ことを特徴とする画像処理装置。Motion detection for detecting movement of an image end region in a screen for each screen of the reference moving image by using the constraint condition using an image signal of the reference moving image that generates a motion satisfying at least one constraint condition Means,
Layering processing means for determining a layer of the predetermined region based on the motion detected by the motion detecting means and generating layer information;
It performed have the signal processing use image signal of the layer information generated at Layer processing means and the image end regions, as well as a the reference moving picture and the same time, around moving image corresponding to the reference moving picture An image processing apparatus comprising peripheral image generation means for generating an image signal.
ことを特徴とする請求項3記載の画像処理装置。The image processing apparatus according to claim 3, wherein the motion detection unit sets a plurality of motion detection regions in the image edge region and detects motion for each motion detection region.
ことを特徴とする請求項4記載の画像処理装置。The image processing apparatus according to claim 4, wherein the one constraint condition is a radial direction in which the movement of the image is centered on a predetermined position.
ことを特徴とする請求項5記載の画像処理装置。The motion detection means calculates an error value with respect to the image on the previous screen while zooming the image of the motion detection area around the predetermined position, and determines the motion based on the calculated error value. The image processing apparatus according to claim 5, wherein:
ことを特徴とする請求項3記載の画像処理装置。The image processing apparatus according to claim 3.
ことを特徴とする請求項3記載の画像処理装置。In the peripheral image generation means, the image edge region is divided into layers based on the detection result of the motion detection means, and the image signal of the peripheral moving image is obtained by performing signal processing according to the screen order for each layer. The image processing apparatus according to claim 3, wherein the image processing apparatus is generated.
ことを特徴とする請求項8記載の画像処理装置。In the surrounding image generation means, a movement amount is set for each layer based on the detection result of the motion detection means, and the image of the image edge region divided into layers is determined according to the movement amount of the corresponding layer. 9. The image processing apparatus according to claim 8, wherein signal processing is performed to extract and paste the extracted image in units of layers.
ことを特徴とする請求項9記載の画像処理装置。The image processing apparatus according to claim 9, wherein the peripheral image generation unit performs the pasting process for each layer in order from a layer having a small movement amount to a layer having a large movement amount.
ことを特徴とする請求項9記載の画像処理装置。The peripheral image generation means moves the image of each layer that has already been pasted according to the amount of movement set for each layer, adds the extracted image to the moved image, and then adds the layer The image processing apparatus according to claim 9, wherein the processing of pasting in units is performed in screen order.
ことを特徴とする請求項9記載の画像処理装置。The image processing according to claim 9, wherein the peripheral image generation unit generates an image signal of an image of the gap portion by interpolation processing when a gap portion is generated in the image by the pasting process in units of layers. apparatus.
ことを特徴とする請求項12記載の画像処理装置。Wherein in the peripheral image generating means, as the interpolation process, according to claim 12 by extending the image positioned at the rear side of the gap portion in the layer direction of movement and generates an image signal of the image of the gap region Image processing apparatus.
ことを特徴とする請求項9記載の画像処理装置。The peripheral image generation means performs signal conversion processing according to the direction of the projection plane of the peripheral moving image on the signal obtained by performing signal processing for pasting the extracted image in units of layers. The image processing apparatus according to claim 9 .
前記検出された動きに基づいて、前記所定領域を分類して分類結果を示す情報を生成するものとし、
前記分類情報と前記複数フレームの入力画像信号に基づいて、前記入力画像信号中の注目フレームと同一時間であると共に、前記注目フレームの画像と画角の異なる周辺画像の画像信号を生成する
ことを特徴とする画像信号生成方法。The movement of a predetermined area in an image formed on a specific plane is detected using an input image signal of a plurality of frames ,
Based on the detected movement, the predetermined area is classified to generate information indicating a classification result,
Based on the classification information and the input image signals of the plurality of frames, generating an image signal of a peripheral image having the same time as the target frame in the input image signal and having a different angle of view from the image of the target frame. A characteristic image signal generation method.
検出された動きに基づき、前記画像端部領域の画像信号を用いて信号処理を行い、前記基準動画像と同一時間であると共に、前記基準動画像に対応した周辺動画像の画像信号を生成する
ことを特徴とする画像信号生成方法。Using a reference moving image that produces a movement that satisfies at least one constraint condition, and detecting the movement of the image edge region for each screen of the reference moving image by using the constraint condition;
Based on the detected motion, performs signal processing using the image signal of the image end region, together with the the reference moving picture and the same time, generates an image signal of the peripheral moving image corresponding to the reference moving picture An image signal generation method characterized by the above.
ことを特徴とする請求項16記載の画像信号生成方法。The image signal generating method according to claim 16.
特定の平面上に形成した画像内における所定領域の動きを複数フレームの入力画像信号を用いて検出する処理と、
前記検出された動きに基づいて、前記所定領域を分類して分類結果を示す情報を生成する処理と、
前記分類情報と前記複数フレームの入力画像信号に基づいて、前記入力画像信号中の注目フレームと同一時間であると共に、前記注目フレームの画像と画角の異なる周辺画像の画像信号を生成する処理とを実行させる
ことを特徴とする画像処理プログラム。On the computer,
A process of detecting a motion of a predetermined area in an image formed on a specific plane using input image signals of a plurality of frames ;
A process of classifying the predetermined region based on the detected movement and generating information indicating a classification result;
Based on the classification information and the input image signals of the plurality of frames, processing for generating an image signal of a peripheral image that has the same time as the target frame in the input image signal and has a different angle of view from the image of the target frame; An image processing program for executing
少なくとも1つの拘束条件を満たす動きを生ずる基準動画像を用いて、前記拘束条件を利用することにより前記基準動画像の画面毎に画像端部領域の動きを検出する第1の処理と、
検出された動きに基づき、前記画像端部領域の画像信号を用いて信号処理を行い、前記基準動画像と同一時間であると共に、前記基準動画像に対応した周辺動画像の画像信号を生成する第2の処理とを含む処理を実行させる
ことを特徴とする画像処理プログラム。On the computer,
Using a reference moving image that generates a movement that satisfies at least one constraint condition, and using the constraint condition to detect a movement of an image end region for each screen of the reference moving image;
Based on the detected motion, performs signal processing using the image signal of the image end region, together with the the reference moving picture and the same time, generates an image signal of the peripheral moving image corresponding to the reference moving picture An image processing program for executing a process including the second process.
特定の平面上に形成した画像内における所定領域の動きを複数フレームの入力画像信号を用いて検出する処理と、
前記検出された動きに基づいて、前記所定領域を分類して分類結果を示す情報を生成する処理と、
前記分類情報と前記複数フレームの入力画像信号に基づいて、前記入力画像信号中の注目フレームと同一時間であると共に、前記注目フレームの画像と画角の異なる周辺画像の画像信号を生成する処理とを実行させるプログラムをコンピュータ読み取り可能に記録した
ことを特徴とする情報記録媒体。On the computer,
A process of detecting a motion of a predetermined area in an image formed on a specific plane using input image signals of a plurality of frames ;
A process of classifying the predetermined region based on the detected movement and generating information indicating a classification result;
Based on the classification information and the input image signals of the plurality of frames, processing for generating an image signal of a peripheral image that has the same time as the target frame in the input image signal and has a different angle of view from the image of the target frame; An information recording medium having recorded thereon a computer-readable program.
少なくとも1つの拘束条件を満たす動きを生ずる基準動画像を用いて、前記拘束条件を利用することにより前記基準動画像の画面毎に画像端部領域の動きを検出する第1の処理と、
検出された動きに基づき、前記画像端部領域の画像信号を用いて信号処理を行い、前記基準動画像と同一時間であると共に、前記基準動画像に対応した周辺動画像の画像信号を生成する第2の処理とを含む処理を実行させるプログラムをコンピュータ読み取り可能に記録した
ことを特徴とする情報記録媒体。On the computer,
Using a reference moving image that generates a movement that satisfies at least one constraint condition, and using the constraint condition to detect a movement of an image end region for each screen of the reference moving image;
Based on the detected motion, performs signal processing using the image signal of the image end region, together with the the reference moving picture and the same time, generates an image signal of the peripheral moving image corresponding to the reference moving picture An information recording medium having recorded thereon a computer-readable program for executing a process including the second process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001383836A JP3823818B2 (en) | 2000-12-15 | 2001-12-17 | Image processing apparatus, image signal generation method, image processing program, and information recording medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-382369 | 2000-12-15 | ||
JP2000382369 | 2000-12-15 | ||
JP2001383836A JP3823818B2 (en) | 2000-12-15 | 2001-12-17 | Image processing apparatus, image signal generation method, image processing program, and information recording medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002271783A JP2002271783A (en) | 2002-09-20 |
JP2002271783A5 JP2002271783A5 (en) | 2005-07-28 |
JP3823818B2 true JP3823818B2 (en) | 2006-09-20 |
Family
ID=26605932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001383836A Expired - Fee Related JP3823818B2 (en) | 2000-12-15 | 2001-12-17 | Image processing apparatus, image signal generation method, image processing program, and information recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3823818B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017210264A1 (en) * | 2017-06-20 | 2018-12-20 | Zf Friedrichshafen Ag | Method for operating a vehicle operating system |
-
2001
- 2001-12-17 JP JP2001383836A patent/JP3823818B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002271783A (en) | 2002-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100859615B1 (en) | Image processor, image signal generating method, information recording medium, and image processing program | |
JP4474743B2 (en) | 3D image generating apparatus, 3D image generating method, and program recording medium | |
US20210312702A1 (en) | Damage detection from multi-view visual data | |
US8866887B2 (en) | Computer graphics video synthesizing device and method, and display device | |
JP5087963B2 (en) | Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program | |
Zheng et al. | Parallax photography: creating 3d cinematic effects from stills | |
JP6610535B2 (en) | Image processing apparatus and image processing method | |
JP5225313B2 (en) | Image generating apparatus, image generating method, and program | |
JP2010050795A (en) | Camera, image composition method, and program | |
JP2001022936A (en) | Device for generating three-dimensional shape | |
JP4904692B2 (en) | Image reproduction apparatus and image reproduction program | |
JP3823818B2 (en) | Image processing apparatus, image signal generation method, image processing program, and information recording medium | |
JPH0950540A (en) | Method for generating picture | |
JP4599775B2 (en) | Image processing apparatus, image processing method, image processing program, and information recording medium | |
JP7296735B2 (en) | Image processing device, image processing method and program | |
JP2003233836A (en) | Image processor for conducting rendering shading processing by using distance component in modeling and its method | |
JP3849481B2 (en) | Signal processing method, signal processing apparatus, and signal processing program | |
JPH09231408A (en) | Moving image compositing device | |
JP3982316B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4924131B2 (en) | Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program | |
JP5602818B2 (en) | Camera, image reproduction apparatus, image composition method, and program | |
JP5176857B2 (en) | Movie editing device | |
KR20220129852A (en) | Image processing apparatus and method for generating information beyond image area | |
JP2019197409A (en) | Image processing apparatus, image processing method, and program | |
JP2020178235A (en) | Video effect device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041217 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060619 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 3823818 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090707 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100707 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100707 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110707 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110707 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120707 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120707 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130707 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |