[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4131113B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP4131113B2
JP4131113B2 JP2002058917A JP2002058917A JP4131113B2 JP 4131113 B2 JP4131113 B2 JP 4131113B2 JP 2002058917 A JP2002058917 A JP 2002058917A JP 2002058917 A JP2002058917 A JP 2002058917A JP 4131113 B2 JP4131113 B2 JP 4131113B2
Authority
JP
Japan
Prior art keywords
image
display
display position
motion
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002058917A
Other languages
Japanese (ja)
Other versions
JP2003256846A (en
Inventor
哲二郎 近藤
大介 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002058917A priority Critical patent/JP4131113B2/en
Publication of JP2003256846A publication Critical patent/JP2003256846A/en
Application granted granted Critical
Publication of JP4131113B2 publication Critical patent/JP4131113B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、画像処理装置と画像処理方法および画像処理プログラムに関する。詳しくは、入力画像信号に基づく表示画像の動きベクトルを検出すると共に表示画像のシーンチェンジを検出し、また表示画像の画像サイズよりも大きい画像表示領域を設定すると共に、シーンチェンジの検出結果に基づき連続シーンを判別して、表示画像の表示位置を、画像表示領域おける表示画像の移動可能範囲内で、連続シーンの期間中に検出された動きベクトルに基づいて移動させることにより、臨場感の高い画像表示を可能とすると共に画像を途切れることなく正しく表示するものである。
【0002】
【従来の技術】
従来、テレビジョン放送番組や映画等の画像を表示する画像表示システムでは、テレビジョン装置の表示画面やスクリーン等のように、1つの固定された画枠を用いて画像表示がなされている。また、放送番組や映画等の画像コンテンツを制作する場合にも、このような固定画枠で画像表示を行うことを前提としてコンテンツ制作が行われている。
【0003】
さらに、近年では、臨場感を高めた画像表示を行うために多画面表示システムや曲面ディスプレイ、広画角ディスプレイ、ヘッドマウントディスプレイ等が実用化されている。しかし、このような多画面表示システム等を用いる場合でも、このシステムで形成される画像表示領域を1つの固定画枠として用い、この固定画枠に合わせた画像表示を行うことを前提としてコンテンツ制作が行われている。
【0004】
【発明が解決しようとする課題】
ところで、このように固定画枠に合わせて制作された画像コンテンツにおいて、撮影時にカメラ動きを含んだ画像などが含まれている場合、固定画枠で撮影画像を表示すると共に、この撮影画像における背景の動きによってカメラ動きを表現することが行われている。つまり、視聴者は固定画枠内に表示された画像の背景が移動することによって、その中の被写体が背景の動きと逆の方向に動いていることを認識すると共に、視聴者はあたかも自分が被写体の動きに合わせて向きを変えているような感覚を得る。
【0005】
これは、撮影された広い空間の画像を無理やり固定画枠内の2次元平面に射影した結果であり、視聴者は実際に動いていなくとも背景の動きによって感覚的には動いた感じを受けるため、現実空間との不整合による不自然さが付きまとう。このため、撮影画像に対して動き検出を行い、被写体の動きに合わせて表示位置を移動させるものとして、現実空間との不整合を防止することが例えば特開平10−301556号公報で開示されている。
【0006】
しかし、画像表示領域が限られているとき、被写体の動きに合わせて画像の表示位置を移動させると、画像が画像表示領域から外れてしまい、画像を正しく表示することができない。
【0007】
そこで、この発明では、現実世界に忠実で臨場感の高い画像表示を可能とすると共に、画像を途切れることなく正しく表示できる画像処理装置と画像処理方法および画像処理プログラムを提供するものである。
【0008】
【課題を解決するための手段】
この発明に係る画像処理装置は、入力画像信号に基づく表示画像の動きベクトルを検出する動き検出手段と、前記表示画像の連続シーンを判別することによりシーンチェンジを検出するシーンチェンジ検出手段と、前記表示画像の画像サイズよりも大きい画像表示領域を設定して、該画像表示領域に対する前記表示画像の表示位置を移動させる画像移動手段とを設け、前記画像移動手段は、前記シーンチェンジ検出手段での前記シーンジェンジの検出結果に基づき判別された前記連続シーンの期間中に前記動き検出手段で検出された動きベクトルの時間推移に基づいて前記連続シーンにおける前記表示画像の振れ幅を判別し、該振れ幅に基づき前記表示画像の表示位置が前記画像表示領域における前記表示画像の移動可能範囲内となるように表示位置を移動させるものである。
【0009】
また、画像処理方法は、入力画像信号に基づく表示画像の動きベクトルを検出し、前記表示画像の連続シーンを判別することによりシーンチェンジを検出し、前記表示画像の画像サイズよりも大きい画像表示領域を設定すると共に、前記シーンジェンジの検出結果に基づき判別された連続シーンの期間中に動き検出手段で検出された動きベクトルの時間推移に基づいて前記連続シーンにおける前記表示画像の振れ幅を判別し、該振れ幅に基づき前記表示画像の表示位置が画像表示領域における表示画像の移動可能範囲内となるように表示位置を移動させるものである。
【0010】
また、画像処理プログラムは、コンピュータに、入力画像信号に基づく表示画像の動きベクトルを検出する手順と、前記表示画像の連続シーンを判別することによりシーンチェンジを検出する手順と、前記表示画像の画像サイズよりも大きい画像表示領域を設定すると共に、前記シーンジェンジの検出結果に基づき判別された連続シーンの期間中に動き検出手段で検出された動きベクトルの時間推移に基づいて前記連続シーンにおける前記表示画像の振れ幅を判別し、該振れ幅に基づき前記表示画像の表示位置が画像表示領域における表示画像の移動可能範囲内となるように表示位置を移動させる手順とを実行させるものである。
【0011】
この発明においては、シーンチェンジの検出結果に基づき連続シーンが判別されると共に、この連続シーンの期間中に検出された動きベクトルを累積して動きベクトルの時間推移情報である動き累積値を生成して、この動き累積値に基づいて連続シーンにおける表示画像の振れ幅が判別される。表示画像の画像サイズよりも大きい画像表示領域における表示画像の移動可能範囲と振れ幅に基づき、振れ幅の中央に対応する表示画像の表示位置が移動可能範囲の中央となるように、連続シーンの最初の表示画像の表示位置が設定される。また、振れ幅が移動可能範囲よりも大きいときには、表示位置の移動方向が画像表示領域の外側方向であるときに動きベクトルの動き量を縮小させる補正処理や、表示位置が画像表示領域の中央から離れるに伴い動き量の縮小率を大きくする補正処理が行われて、この動き量に基づき表示画像の表示位置が移動される。
【0012】
さらに、基準表示位置が設定されると共に、検出された動きベクトルに対してフィルタ処理が行われて、このフィルタ処理が行われた動きベクトルに応じて表示画像の表示位置が基準表示位置から移動される。また、連続シーン内の動きベクトルに応じて表示画像の表示位置を基準表示位置から移動させたときに、表示画像が画像表示領域を超える場合には、連続シーン内の動きベクトルの動き量を縮小させる補正処理が行われる。
【0013】
【発明の実施の形態】
以下、図を参照しながら、この発明の実施の一形態について説明する。図1は、この発明における画像処理装置を用いた表示システムの全体構成を示している。この表示システムは、例えば3つのスクリーンをユーザの前面と両側面側に配置している。また、各スクリーン10L,10C,10Rに対応させてプロジェクタ12L,12C,12Rを設けている。この各プロジェクタ12L,12C,12Rを用いて画像を投影することにより、3スクリーン分の広範囲の画枠を用いて画像の表示が行われる。プロジェクタ12L,12C,12Rは、画像処理装置20と接続されている。
【0014】
画像処理装置20は、入力画像信号SDinに基づいて画像の動きベクトルやシーンチェンジを検出すると共に、検出した動きベクトルに応じて画像表示位置が移動するように3つの画像信号SDL,SDC,SDRを生成して、画像信号SDLをプロジェクタ12L、画像信号SDCをプロジェクタ12C、画像信号SDRをプロジェクタ12Rに供給する。また、シーンチェンジを検出したとき、シーンチェンジ前の連続シーンとは関連性を有しない表示位置に新たなシーンの画像を表示する。
【0015】
例えば、画像処理装置20に供給する入力画像信号SDinは、図2Aに示すように、静止している被写体OBaをビデオカメラ100で撮影し、その後図2Bに示すように、ビデオカメラ100をパンニングさせて前進,後退,前進の順に移動する被写体OBbを撮影し、さらに、図2Cに示すように、静止している被写体OBcを撮影して得た画像信号であるものとする。
【0016】
各スクリーンのサイズは例えばアスペクト比が「4:3」で表示サイズが「720画素×480画素」、入力画像信号SDinに基づく画像は、アスペクト比が「16:9」や映画等で用いられているワイド画像のアスペクト比で表示サイズが「720画素×270画素」の場合を図3に示す。
【0017】
画像処理装置20は、入力画像信号SDinに基づき画像信号SDCを生成してプロジェクタ12Cに供給し、図3Aに示すように例えば動きのない被写体OBaを撮影したシーンAの画像を前方のスクリーン10Cの中央に表示させる。その後、動きのある被写体OBbを撮影したシーンBの画像については、シーンBの画像の動きベクトルに基づいて表示位置の移動範囲を決定して、この移動範囲が画像表示領域の中央となるように、シーンBの最初の画像の表示位置を決定する。この決定された表示位置に基づき入力画像信号SDinから画像信号SDL,SDC,SDRを生成して、例えば画像信号SDC,SDRによって図3Bに示すように前方のスクリーン10Cと右側のスクリーン10Rを用いて画像を表示させる。その後、図3C,図3Dに示すように被写体OBbの動きに合わせて画像表示位置を右側から左側に移動させる。また、シーンチェンジが行われてシーンBからシーンCに切り替えられたとき、例えば動きのない被写体OBcを撮影したシーンCの画像を図3Eに示すようにスクリーン10Cの中央に表示させる。このように、画像の動き量に基づいて表示位置の移動範囲を決定して、この移動範囲が画像表示領域の中央となるように表示位置を設定する。また、移動範囲が画像表示領域よりも大きいときには、表示画像が欠けてしまうことがないように表示位置を調整する。このように、画像の動きベクトルに応じて表示位置を移動させる際に画像表示領域を有効に利用することで、臨場感の高い画像表示を行う。
【0018】
図4は、画像処理装置20の概略構成を示している。画像処理装置20は、入力画像信号SDinをシーンチェンジ検出部21と動き検出部22と画像位置移動部23に供給する。
【0019】
シーンチェンジ検出部21は、入力画像信号SDinに基づいてシーンチェンジ検出、すなわち連続シーンとこの連続シーンとは異なるシーンとの繋ぎ目部分である画像の不連続位置を検出する。図5は、シーンチェンジ検出部21の概略構成を示しており、例えば2フレーム分の画像信号を用いて連続するシーンであるか否かを検出するものである。
【0020】
シーンチェンジ検出部21の遅延回路211は、入力画像信号SDinを1フレーム遅延させて遅延画像信号SDaとして差分平均算出回路212に供給する。差分平均算出回路212は、入力画像信号SDinと遅延画像信号SDaに基づき、2フレーム間の差分平均値Davを算出して正規化回路214に供給する。この差分平均値Davの算出は、各画素における2フレーム間の輝度レベルの差分値を算出して、得られた差分値の平均値を差分平均値Davとして正規化回路214に供給する。なお、1フレームの画像の画素数が「N」で、入力画像信号SDinに基づく輝度レベルを「YC」、遅延画像信号SDaに基づく輝度レベルを「YP」としたとき、差分平均値Davは式(1)に基づいて算出できる。
【0021】
【数1】

Figure 0004131113
【0022】
ここで、差分平均値Davは、画像の輝度レベルによって大きく変化する。例えば画像が明るい場合、シーンの切り替えが行われなくとも画像の一部が暗い画像に変化するだけで差分平均値Davが大きくなってしまう。一方、画像が暗い場合、シーンの切り替えが行われても輝度レベルの変化が小さいことから差分平均値Davは大きくならない。このため、シーンチェンジ検出部21に正規化回路214を設けるものとして、画像の明るさに応じた差分平均値Davの正規化を行い、画像の明るさの影響を少なくして正しくシーンチェンジ検出を可能とする。
【0023】
輝度平均算出回路213は、入力画像信号SDinに基づき、各画素の輝度レベルに基づき1フレームにおける輝度レベルの平均値を算出して輝度平均値Yavとして正規化回路214に供給する。なお、上述のように1フレームの画像の画素数が「N」で入力画像信号SDinに基づく画素の輝度レベルを「YC」としたとき、輝度平均値Yavは式(2)に基づいて算出できる。
【0024】
【数2】
Figure 0004131113
【0025】
正規化回路214は、画像の明るさに応じた差分平均値Davの正規化を行う。すなわち、式(3)に示すように、画像の明るさを示す輝度平均値Yavに応じて差分平均値Davを補正して差分平均正規化値(以下単に「正規化値」という)Eを生成する。
E=Dav/Yav ・・・(3)
この正規化回路214で生成された正規化値Eは、判定回路215に供給される。
【0026】
判定回路215は、予め設定された閾値Lrを有しており、正規化値Eと閾値Lrを比較して、正規化値Eが閾値Lrよりも大きいときにはシーンチェンジと判定する。また、正規化値Eが閾値Lr以下であるときにはシーンチェンジでない連続シーンと判定する。さらに、判定回路215は、この判定結果を示すシーンチェンジ検出信号SCを生成して図4の動き検出部22と画像位置移動部23に供給する。
【0027】
このように、正規化回路214は画像の明るさに応じた差分平均値Davの正規化を行い、判定回路215は正規化値Eを用いてシーンチェンジであるか連続シーンであるかの判別を行うので、画像の明るさの影響を少なくして正しくシーンチェンジを検出できる。
【0028】
図6は、フレーム位置と正規化値Eの関係を例示的に示したものである。ここで、閾値Lrが「0.4」に設定されている場合、正規化値Eが「0.4」を超えるフレーム位置をシーンチェンジ検出位置Pscとする。
【0029】
ところで、上述のシーンチェンジ検出部21では、1フレーム内の全画素の信号を用いて、シーンチェンジ検出を行うものとしたが、全画素の信号を用いて差分平均値Davや輝度平均値Yavを算出すると、演算処理に時間を要してしまう。また、演算処理に要する時間を短くするために演算処理を高速化すると、演算処理コストが膨大となってしまう。このため、画素の間引き例えば図7に示すように1フレームの画像を8×4画素の領域に区分して各領域から斜線で示すように1画素だけを選択することで画素の間引きを行い、選択された画素の信号を用いて差分平均値Davや輝度平均値Yavを算出する。このように、画素の間引きを行うものとすれば、演算量が少なくなるので演算処理を簡単に行うことができると共に、演算処理を高速に行う必要がなく演算処理コストが膨大となってしまうことも防止できる。
【0030】
また、上述のシーンチェンジ検出部21では、正規化値Eを用いてシーンチェンジ検出を行うものとしたが、2フレーム間の画像の相関係数rを求めて、この相関係数rと閾値を比較することで、精度良くシーンチェンジ検出を行うこともできる。図8は、相関係数rを用いる場合のシーンチェンジ検出部の構成を示している。遅延回路211は、入力画像信号SDinを1フレーム遅延させて遅延画像信号SDaとして相関係数算出回路216に供給する。相関係数算出回路216は、入力画像信号SDinと遅延画像信号SDaに基づき、相関係数rの算出を行う。
【0031】
ここで、1フレームの画像の画素数を「N」、最初のフレームの画像信号に基づく画素の輝度レベルを「YF」、次のフレームの画像信号に基づく画素の輝度レベルを「YS」、最初のフレームの画像信号に基づく画素の輝度レベル平均を「YFav」、次のフレームの画像信号に基づく画素の輝度レベル平均を「YSav」としたとき、相関係数rは式(4)を用いて算出できる。
【0032】
【数3】
Figure 0004131113
【0033】
この相関係数算出回路216で算出された相関係数rは、判定回路217に供給される。
判定回路217は、予め設定された閾値Lrを有しており、相関係数rと閾値Lrを比較して、相関係数rが閾値Lr以下であるときにはシーンチェンジと判定する。また、相関係数rが閾値Lr以下でないときにはシーンチェンジでない連続シーンと判定する。さらに、判定回路217は、この判定結果を示すシーンチェンジ検出信号SCを生成して、図4の動き検出部22と画像位置移動部23に供給する。なお、図9は、フレーム位置と相関係数rの関係を例示的に示したものである。ここで、閾値Lrが例えば「0.4」に設定されている場合、相関係数rが「0.4」以下となるフレーム位置をシーンチェンジ検出位置Pscとする。
【0034】
動き検出部22は、シーンチェンジ検出部21からのシーンチェンジ検出信号SCによって連続シーンであることが示されたフレームに関して動きベクトルの検出を行い、表示面積の広い部分の動きベクトル例えば背景部分の動きベクトルを検出する。図10は、動き検出部22の構成を示しており、例えばブロックマッチング方法を用いて動きベクトルの検出を行う場合である。
【0035】
動き検出部22の遅延回路221は、入力画像信号SDinを1フレーム遅延させて遅延画像信号SDbとして画像位置切替回路222に供給する。画像位置切替回路222は、遅延画像信号SDbに基づく画像の位置を、予め設定された動き探索範囲内で水平方向や垂直方向に順次変更して新たな画像信号SDcを順次生成する。この生成された画像信号SDCは、差分演算回路223に供給される。また、画像位置切替回路222は、画像の移動方向と移動量を示す動きベクトルMVを最小値判定回路224に供給する。
【0036】
差分演算回路223は、画像信号SDcと入力画像信号SDinとの差分値DMを順次算出して、最小値判定回路224に供給する。
【0037】
最小値判定回路224は、差分値DMと、この差分値DMの算出に用いた画像信号SDcを生成する際の動きベクトルMVとを関係付けて保持する。また、画像位置切替回路222で動き探索範囲内での画像の移動を完了したとき、最小値判定回路224は、保持している差分値DMから最小値を判別して、この最小値となる差分値DMと関係付けて保持されている動きベクトルMVを、動き検出情報MVDとして図4の画像位置移動部23に供給する。
【0038】
ところで、シーンチェンジ検出信号SCによってシーンチェンジが検出されたことが示された後に再度連続シーンであることが示された場合、シーンチェンジ後の画像の移動方向は予測できない。このため、画像位置切替回路222は、シーンチェンジ検出後の最初の動きベクトルの検出時に、動き探索範囲を遅延画像信号SDbに基づく画像の位置を中心として設定する。このように動き探索範囲を設定すれば、シーンの切り替えが生じた後でも正しく背景画像の動きベクトルを検出できる。
【0039】
また、連続シーンでは画像の動きも連続していることが多い。このため、最小値判定回路224は、動き検出情報MVDを画像位置切替回路222にも供給するものとし、画像位置切替回路222は、次に画像の動きベクトルを判別する際の動き探索範囲の中心を、動き検出情報MVDに基づいて設定する。このように、画像の動きベクトルに応じて次に動き検出を行う際の動き探索範囲を設定すれば、動き探索範囲をシーンチェンジ検出後の最初の動きベクトルの検出時に比べて狭くしても、正しく画像の動きベクトルを検出することが可能となり、画像の動きベクトルの検出を効率よく速やかに行うことができる。
【0040】
図4に示す画像位置移動部23は、シーンチェンジ検出信号SCと動き検出情報MVDに基づき表示位置を決定する。さらに、決定した表示位置に基づき画像表示領域に応じた画像信号を生成する。例えば上述のように画像表示領域が3つの領域(スクリーン10L,10C,10R)に区分されており、この3つの領域を使用して画像表示を行う場合、決定した表示位置に基づき画像信号SDL,SDC,SDRを生成し、画像信号SDLをプロジェクタ12L、画像信号SDCをプロジェクタ12C、画像信号SDRをプロジェクタ12Rに供給することで、スクリーン10L,10C,10Rを使用して画像表示を行う。
【0041】
図11は、画像位置移動部23の構成を示している。画像位置移動部23の画像位置決定回路231は、シーンチェンジ検出信号SCと動き検出情報MVDに基づき表示位置を決定して、この表示位置を示す位置情報PDを書込読出制御回路237に供給する。
【0042】
図12は、画像位置決定回路231の構成を示している。動き累積回路232は、シーンチェンジ検出信号SCに基づいて連続シーンの期間を判別すると共に、この連続シーンの期間中における動き検出情報MVDで示された動きベクトルを累積して、動きベクトルの時間推移情報である動き累積値MVTを生成して初期位置決定回路233と表示範囲判定回路234に供給する。
【0043】
初期位置決定回路233では、動き累積値MVTに基づき第1の移動方向(例えば右方向や上方向)の最大値MVT-1と、第1の方向とは逆方向である第2の移動方向(例えば左方向や下方向)の最大値MVT-2を求め、最大値MVT-1と最大値MVT-2に基づき動き累積値MVTの振れ幅WTや中央値MVTctを求めて、この中央値MVTctが画像表示範囲の所定位置例えば中央となるように、連続シーンの最初の表示画像の表示位置を決定して初期位置PSとして表示範囲判定回路234と表示位置決定回路236に供給する。
【0044】
表示範囲判定回路234は、初期位置PSに連続シーンの最初の表示画像を表示してから連続シーンの最後の画像を表示するまでの期間中、動き検出情報MVDに基づいて画像の表示位置を移動させたときに、表示画像が画像表示領域に入りきるか否かを、初期位置PSと動き累積値MVTに基づいて判別する。この表示範囲判定回路234での判別結果を示す判別結果信号CHaは動き補正回路235に供給される。
【0045】
動き補正回路235は、判別結果信号CHaで表示画像が画像表示領域に入りきらないことが示されたとき、表示画像が画像表示領域に入りきるように動き検出情報MVDを補正して、動き検出情報MVEとして表示位置決定回路236に供給する。また、判別結果信号CHaで表示画像が画像表示領域に入りきることが示されたとき、動き検出情報MVDの補正を行うことなく表示位置決定回路236に供給する。
【0046】
表示位置決定回路236は、初期位置決定回路233から供給された初期位置PSを連続シーンの最初の表示画像の表示位置とする。その後、動き検出情報MVEに基づき、動き検出情報MVEで示された動きベクトルの方向とは逆方向に画像を移動させた位置を表示位置として、この表示位置を示す位置情報PDを順次出力して、図11の書込読出制御回路237に供給する。
【0047】
ここで、位置情報PDに基づいて画像の表示位置を切り換える場合、例えば上述のように画像表示領域が3つの領域(スクリーン10L,10C,10R)に区分されているときには、入力画像信号SDinと位置情報PDに基づき、各領域に対して画像表示を行うための画像信号SDL,SDC,SDRを生成しなければならない。このため、例えば画像表示領域に対応した記憶領域を有する画像メモリ238を設けるものとし、書込読出制御回路237は、画像メモリ238に入力画像信号SDinを書き込む際の書込位置を、位置情報PDに基づいて表示位置に対応させる。このように入力画像信号SDinを書き込むものとすれば、表示領域に対応した画像メモリ238の記憶領域の画像信号を用いることで、画像信号SDL,SDC,SDRを容易に生成できる。
【0048】
書込読出制御回路237は、画像メモリ238に画像信号を書き込むための書込制御信号WCと、画像メモリ238に書き込まれている画像信号を読み出すための読出制御信号RCを生成して、画像メモリ238に供給する。ここで、書込読出制御回路237は、上述したように画像位置決定回路231で決定された表示位置と対応する画像メモリ238の記憶領域の位置に画像信号を記憶させるため、位置情報PDに基づいて書込制御信号WCを生成する。
【0049】
画像メモリ238は、書込制御信号WCに基づき、画像位置決定回路231で決定された表示位置に対応する記憶領域に、この表示位置の決定が行われたフレームの入力画像信号SDinを記憶する。なお、入力画像信号SDinが記憶されていない領域には、例えば黒表示となる信号を記憶させる。また、画像メモリ238は、書込読出制御回路237からの読出制御信号RCに基づき、記憶領域に記憶されている画像信号を読み出して画像信号SDeとして画像分割回路239に供給する。
【0050】
画像分割回路239は、画像信号SDeから例えばスクリーン10Lに対応する記憶領域の信号を用いて画像信号SDLを生成する。同様に、スクリーン10C,10Rに対応する記憶領域の信号を用いて画像信号SDC,SDRを生成する。このようにして生成した画像信号SDLをプロジェクタ12L、画像信号SDCをプロジェクタ12C、画像信号SDRをプロジェクタ12Rにそれぞれ供給することにより、複数のスクリーンを利用して1つ画像を表示できると共に、表示画像が複数のスクリーンに跨るときには、表示画像がスクリーン毎に分割されて表示される。また、画像信号SDdが記憶されていない領域に黒表示となる信号を記憶させたときには、入力画像信号SDinに基づく画像の周囲が黒表示となる。
【0051】
なお、画像位置移動部23は、シーンチェンジ検出信号SCと動き検出情報MVDに基づき表示位置を決定して、この決定した表示位置に基づき画像表示領域に応じた画像信号を生成するものであれば良く、画像メモリ238に対する画像信号の書込位置を表示位置に応じて制御するものに限られるものではない。例えば、画像信号を所定の位置に記憶させると共に、記録されている信号の読出位置を表示位置に基づいて制御することでも、画像信号SDL,SDC,SDRを生成できる。
【0052】
次に、画像処理装置20の動作について説明する。なお、説明を簡単とするため動き検出情報MVDで示される動きベクトル方向の左右方向成分についてのみ説明する。図13Aは、入力画像信号SDinに基づく画像であり、フレームF(g-1)までがシーンAの画像、フレームF(g),F(g+1)〜フレームF(g+k)が連続フレームのシーンBの画像、フレームF(g+k+1)からシーンCの画像である場合を示している。
【0053】
入力画像信号SDinがフレームF(g-1)からフレームF(g)およびフレームF(g+k)からフレームF(g+k+1)となると、シーンチェンジ検出部21は、正規化値Eあるいは相関係数rに基づいて、このシーンチェンジ位置を検出すると共に、シーンチェンジ検出信号SCは、シーンチェンジであることを示すものとなる。
【0054】
画像位置決定回路231の動き累積回路232は、シーンチェンジ検出信号SCに基づいて連続シーンの期間中における動きベクトルを累積して動き累積値MVTを生成する。例えばフレームF(g)からフレームF(g+k)までの連続シーンであるシーンBの動きベクトルを累積して動き累積値MVTを生成する。
【0055】
図14はシーンBの動き累積値MVTに基づく左右方向の動き量を示している。なお、図14において、シーンA,シーンCは動きがないため動き累積値MVTの左右方向の動き量は「0」である。ここで、図2Bに示すように、ビデオカメラ100を左方向にパンニングさせて前進する被写体OBbを撮影すると背景画像は右方向に移動する。このため動き累積値MVTの動き量は右方向に増加する。その後、ビデオカメラ100のパンニングを停止したのち、右方向にパンニングさせて後退する被写体OBbを撮影すると、動き累積値MVTの動き量は減少したのち左方向に増加する。再度、ビデオカメラ100のパンニングを停止したのち左方向にパンニングさせて前進する被写体OBbを撮影すると、動き累積値MVTの動き量は減少したのち右方向に増加する。
【0056】
初期位置決定回路233は、動き累積値MVTの振れ幅WTを求めることでシーンBでの表示位置の移動範囲を判別し、この移動範囲が画像表示領域内の移動可能範囲LW(画像表示領域の右側端部に画像を表示したときと、画像を水平移動させて左側端部に表示したときの表示画像の中心間の距離)の中央となるように、フレームF(g)の画像の表示位置である初期位置PSを決定する。例えば、動き累積値MVTの振れ幅WTを求め、振れ幅WTの1/2を中央値MWctとする。さらに、右方向に動き量の最大値MVT-1から中央値MWctを減算すると、画像の移動範囲を画像表示領域の中央に設定した場合におけるフレームF(g)の画像に対する動き量MU-sを求めることができる。このため、画像表示領域の中央から動き量MU-sだけ動きベクトル方向とは逆方向に移動した位置を初期位置PSとする。このように初期位置PSを決定することで、動き検出情報MVDに基づいて画像の表示位置を移動させたとき、画像の移動範囲が画像表示領域の中央となる。このようにして初期位置決定回路233は初期位置PSを決定して表示範囲判定回路234と表示位置決定回路236に供給する。
【0057】
表示範囲判定回路234は、連続シーンの最初の表示画像を初期位置PSに表示してから、動き検出情報MVDで示された動き量だけ表示位置を動きベクトル方向とは逆方向に移動させたとき、表示画像が画像表示領域に入りきるか否かを判別する。例えば、動き累積値MVTに基づき振れ幅WTを算出して、この振れ幅WTと画像表示領域内の移動可能範囲LWを比較して、連続シーンの画像が図14に示すように移動可能範囲からはみ出すことなく移動されるものであるか、あるいは図15に示すように、シーンGの振れ幅WTが移動可能範囲LWよりも大きくなって、表示画像が画像表示領域に入りきらなくなってしまうかを判別して、判別結果を示す判別結果信号CHaを動き補正回路235に供給する。なお、振れ幅WTは、初期位置決定回路233で算出した振れ幅WTを用いるものとしても良い。
【0058】
動き補正回路235は、判別結果信号CHaで表示画像が画像表示領域に入りきらないことが示されたとき、動き検出情報MVDの動き量を少なくする補正を行い、動き検出情報MVEとして表示位置決定回路236に供給する。例えば、動き累積値MVTの振れ幅WTが大きくなって、図15で示すように画像表示領域の移動可能範囲LWを超えてしまう場合、シーンGの動き量に補正係数CR(<1)を乗算することで、動き量を少なくする補正を行い、振れ幅WTを小さくする。なお、振れ幅を小さくしたときに、表示位置が移動可能範囲LWを超えてしまうときには、動き検出情報MVEに係らず表示位置を移動可能範囲LW内に制限する。
【0059】
また、動き累積値MVTの振れ幅WTを動き補正回路235に供給すると共に、画像表示領域内の移動可能範囲LWを動き補正回路235に予め記憶させておくものとし、振れ幅WTと移動可能範囲LWを用いて補正係数CRを「CR=(LW/WT)」に設定することもできる。この場合には、表示位置を移動しても表示画像が画像表示領域内となるように動き量が補正されるので、表示位置が移動可能範囲LWを超えて制限されてしまうことを防止できる。
【0060】
ところで、動き量に固定の補正係数CRを乗算すると、常に画像の動き量が小さくなってしまい、臨場感の少ない画像となってしまう。このため、補正係数CRに重み付けを行うものとして、臨場感の高い画像表示を行うこともできる。
【0061】
ここで、画像表示領域の中央から端部側方向に画像の表示位置を移動させるときには動き量に補正係数CRを乗算して動き量を少なくする。また、端部側から画像表示領域の中央方向に表示位置を移動させる場合、補正係数CRを「1」とする。この場合、画像表示領域の端部側方向に表示位置が移動される場合にのみ動き量が小さくされるので、画像が途切れてしまうことを防止できると共に、画像表示領域の中央方向への表示位置の移動は、画像の動きベクトルに応じて行われるので、臨場感を確保できる。
【0062】
図16は、動き量の補正を行った場合と行わなかった場合での画像表示位置の違いを例示的に示したものである。ここで、実線で示す動き量の補正を行った場合、破線で示す動き量の補正を行わなかった場合に比べて、画像の表示位置が中央部分に近くなり、画像が途切れてしまうことを防止できる。
【0063】
また、動き量の補正では、画像表示領域の中央部分で表示位置の移動を行う場合に補正係数CRを「1」あるいは「1」に近づけて動き量の縮小率を少なくする。また、表示位置が画像表示領域の中央から離れて端部側に移動するに伴い補正係数CRを小さくして動き量の縮小率を大きくする。このように補正係数CRを設定すると、視聴者が注目する画像表示領域の中央部で画像の動きベクトルに応じた表示位置の移動が行われて、視聴者の注目が少ない画像表示領域の端部で表示位置の移動が少なくなるので、動き量の補正による臨場感の減少を抑えることができる。
【0064】
さらに、振れ幅WTが大きい場合、補正係数CRを「CR=(LW/WT)」に設定すると動き量が少なくなりすぎてしまう。このため、補正係数CRに制限を設けるものとし、表示位置を移動したときに表示画像が画像表示領域に入り切らない場合は、動き量に係らず表示画像を画像表示領域の端部側位置として、画像が途切れてしまうことを防止することもできる。
【0065】
このようにして、画像位置決定回路231で各フレームの画像の表示位置を決定して位置情報PDを生成すると、書込読出制御回路237は、位置情報PDに基づき書込制御信号WCを生成して画像メモリ238に供給し、図13Bに示すように、画像メモリ238の記憶領域における画像表示位置と対応する記憶領域AR1にシーンAのフレームF(g-1)の画像信号を記憶させる。また、シーンBの最初のフレームF(g)の画像信号を、位置情報PDに基づき初期位置PSに対応した記憶領域AR2に記憶させる。その後、フレームF(g+1)〜フレームF(g+k)の画像信号を位置情報PDに基づいて移動させながら画像メモリ238に記憶される。また、シーンCのフレームF(g+k+1)の画像信号を記憶領域AR1に記憶させる。
【0066】
書込読出制御回路237は、読出制御信号RCを生成して画像メモリ238に供給すると共に、画像メモリ238は記憶して画像信号を読出制御信号RCに基づいて読み出して画像分割回路239に供給する。画像分割回路239は、画像メモリ238の記憶領域が画像表示領域に対応して設けられていることから、スクリーン10Lと対応する記憶領域BALから読み出した信号に基づいて画像信号SDLを生成する。またスクリーン10Cと対応する記憶領域BACから読み出した信号に基づいて画像信号SDCを生成すると共に、スクリーン10Rと対応する記憶領域BARから読み出した信号に基づいて画像信号SDRを生成する。なお、画像の無い部分の信号レベルは上述のように黒表示として、画像表示領域には、入力画像信号SDinに基づく画像のみを表示させる。
【0067】
このようにして、生成した画像信号SDL,SDC,SDRをプロジェクタ12L,12C,12Rに供給することで、被写体の動きに応じて表示位置を移動させることができる。このように、撮影時のカメラ動き、あるいはカメラの向きに忠実な表現が可能となり、実世界と同じ位置、同じ方向に映像が表示されるため、視聴者は現実と同じ空間、あるいは動きを視聴時に取得することができる。さらに、画面自体の動きによって、従来よりも大きな躍動感を映像から得ることが可能であり、また視聴者自らの顔向きの動きなどにより、完全受動的であった動き表現の視聴を、視線を動かすというアクティブな操作で感じることが可能である。また、画像表示領域に応じた移動が行われるので、画像の途切れを無くして正しく画像表示を行うことができる。また、振れ幅を用いることで、振れ幅と画像表示領域の移動可能範囲から表示位置をどの位補正しなければならないか簡単に判別できるので、画像表示領域に合わせた表示画像の移動を容易に行うことができる。
【0068】
ところで、上述の画像位置決定回路231は、動き累積回路232で動き検出情報MVDの動きベクトルを累積して、この動き累積値MVTに基づいて表示画像の初期位置を決定すると共に、表示位置を動きベクトルに基づいて順次移動するものとしたが、基準表示位置を設定して動き検出情報MVDで示された動きベクトル分だけ表示位置を基準表示位置から移動させることもできる。
【0069】
例えば右方向へのパンニングを行って撮影したときには、背景画像が左方向に移動することから、動き検出情報MVDに基づき、表示位置を基準表示位置から動きベクトル方向とは逆方向に動き量分だけ移動する。パンニングが終了したときには、動き検出情報MVDの動き量が「0」となるので、表示位置は基準表示位置とする。このように動きベクトルに応じて表示位置を決定した場合には、動きベクトルの変化が表示位置の移動として表現されることとなり、ダイナミックな画像表示を行うことができる。
【0070】
図17は、基準表示位置から動きベクトル分だけ表示位置を移動させる場合と、動きベクトルに基づいて順次表示位置を移動させる場合の表示位置を例示的に示したものである。なお図において実線は基準表示位置から動きベクトル分だけ表示位置を移動させる場合を示しており、破線は動きベクトルに基づいて順次表示位置を移動させる場合を示している。図に示すように、例えば右方向へのパンニングが終了したときには、動き検出情報MVDの動き量が「0」となるので、基準表示位置から動きベクトル分だけ表示位置を移動させる場合の表示位置は、基準表示位置となる。また、動きベクトルに基づいて順次表示位置を移動させる場合には、表示位置が初期位置から最も右側に離れた位置となる。
【0071】
また、基準表示位置から動きベクトル分だけ表示位置を移動させる場合、動きベクトルの検出精度が高くないと、動きベクトルの検出の誤差によって表示位置が振動してしまい、安定感のない品位が低下した表示画像となってしまう。このため、動きベクトルに対してフィルタ処理を行い、動きベクトルから高域成分を除くことで表示位置の振動を防止する。このフィルタ処理は、例えば±20フレーム分の動きベクトルから平均を算出することで、高域成分を除くものとする。
【0072】
図18は、フィルタ処理を行った場合と行わない場合とでの表示位置の違いを例示的に示した図である。なお図において太線はフィルタ処理を行い動きベクトルから高域成分を除いた場合の表示位置を示しており、細線はフィルタ処理を行わない場合の表示位置を示している。この図18に示すように、フィルタ処理を行うことにより動きベクトルが平均化されるので、表示位置が振動してしまうことを防止して良好な画像表示を行うことができる。
【0073】
また、動き検出情報MVDに基づいて表示位置を決定する場合、動きベクトルに基づく表示位置の振れ幅が画像表示領域内の移動可能範囲LWに収まるように設定する。例えば、動き量が「0」であるときの表示位置を画像表示範囲の中央に基準表示位置として設定し、動きベクトルの動き量が最大となったときに表示位置が画像表示範囲の端部側となるように設定する。ここで、動き検出情報MVDで示された動きベクトルの動き量を「Md」、動き量の最大値を「Vmax」としたとき、表示位置Xは式(5)に基づいて算出することができ、この算出された表示位置Xに画像表示を行うものとすれば、画像表示領域を有効に活用して画像表示を行うことができる。
X = (LW/Vmax)Md ・・・(5)
【0074】
さらに、上述の処理はハードウェアだけでなくソフトウェアで実現するものとしても良い。この場合の構成を図19に示す。コンピュータは、図19に示すようにCPU(Central Processing Unit)301を内蔵しており、このCPU301にはバス320を介してROM302,RAM303,ハード・ディスク・ドライブ304,入出力インタフェース305が接続されている。さらに、入出力インタフェース305には入力部311や記録媒体ドライブ312,通信部313,画像信号入力部314,画像信号出力部315が接続されている。
【0075】
外部装置から命令が入力されたり、キーボードやマウス等の操作手段あるいはマイク等の音声入力手段等を用いて構成された入力部311から命令が入力されると、この命令が入出力インタフェース305を介してCPU301に供給される。
【0076】
CPU301は、ROM302やRAM303あるいはハード・ディスク・ドライブ304に記憶されているプログラムを実行して、供給された命令に応じた処理を行う。さらに、ROM302やRAM303あるいはハード・ディスク・ドライブ304には、上述の画像処理装置と同様な処理をコンピュータで実行させるための画像処理プログラムを予め記憶させて、画像信号入力部314に入力された入力画像信号SDinに基づき画像信号SDL,SDC,SDRを生成して、画像信号出力部315から出力する。また、記録媒体に画像処理プログラムを記録しておくものとし、記録媒体ドライブ312によって、画像処理プログラムを記録媒体に記録しあるいは記録媒体に記録されている画像処理プログラムを読み出してコンピュータで実行するものとしても良い。さらに、通信部313によって、伝送路を介した画像処理プログラムの送信あるいは受信を行うものとし、受信した画像処理プログラムをコンピュータで実行するものとしても良い。
【0077】
図20は、画像処理プログラムの全体構成を示すフローチャートである。ステップST1では動き累積値MVTを初期化してステップST2に進み、ステップST2ではシーン判別を行う。図21は、このシーン判別動作を示すフローチャートである。ステップST21では、フレーム間の差分平均値Davとフレーム内の輝度平均値Yavを算出してステップST22に進む。
【0078】
ステップST22は、輝度平均値Yavを用いて差分平均値Davの正規化を行い正規化値Eを算出する。
ステップST23は、正規化値Eと閾値Lrを比較してシーンチェンジであるか否かを判別する。ここで、正規化値Eが閾値Lr以下であるときにはステップST24に進み、連続シーンと判別してシーン判別を終了する、また、正規化値Eが閾値Lrよりも大きいときにはステップST25に進み、シーンチェンジであると判別してシーン判別を終了する。
【0079】
なお、シーン判別動作では、上述のように相関係数rを算出して、この相関係数rと閾値Lrを比較してシーンチェンジであるか否かを判別するものとしても良い。この場合、ステップST21とステップST22の処理に替えて、上述の式(4)で示した相関係数rの算出を行い、ステップST23では相関係数rが閾値よりも小さくないときにはステップST24に進み連続シーンと判別する。また相関係数rが閾値よりも小さいときにはステップST25にシーンチェンジであると判別する。
【0080】
図20のステップST3は、ステップST2のシーン判別でのシーン判別結果がシーンチェンジであるか否かを判別する。ここで、シーンチェンジでないすなわち連続シーンと判別されたときにはステップST4に進み、シーンチェンジであると判別されたときにはステップST6に進む。
【0081】
ステップST4は、動き検出を行う。この動き検出では、全画面動き検出を行い、表示面積の広い部分の動きベクトルを検出してステップST5に進む。ステップST5では動き累積値MVTにステップST4で検出された動きベクトルを加算して新たな動き累積値MVTとすると共に、新たな動き累積値MVTを順次記憶してステップST2に戻る。
【0082】
ステップST3でシーンチェンジであると判別されてステップST6に進むと、ステップST6では、順次記憶した動き累積値MVTに基づき動き累積値MVTの振れ幅WTを算出して、振れ幅WTの中心が画像表示領域の中央となるように画像表示位置の初期位置PSを決定する。
【0083】
次に、ステップST7では、動き累積値MVTに応じて画像表示位置を移動させたとき、表示画像が画像表示領域に入りきるか否かを判別する。ここの、表示画像が画像表示領域に入りきらないときにはステップST8に進み、入りきる場合にはステップST9に進む。
ステップST8では、表示画像が画像表示領域に入りきるように動きベクトルを補正してステップST9に進む。
【0084】
ステップST9では、ステップST6で決定された画像表示位置の初期位置PSとステップST4で検出された動きベクトル、あるいは補正された動きベクトルに基づいて表示位置を決定してステップST10に進む。
【0085】
ステップST10は、出力画像の分割処理を行う。ここで、図1に示すように3つのスクリーンを1つの画像表示領域として用いる場合、表示位置が移動されて表示画像が複数のスクリーンに跨って表示される場合でも、正しく画像を表示できるように、画像の分割を行い、各スクリーンに応じた画像信号SDL,SDC,SDRを生成する。このように入力画像信号SDinをコンピュータで処理して画像信号SDL,SDC,SDRを生成するものとしても、同様の効果を得ることができる。
【0086】
なお、上述の画像処理装置20は、連続シーンを判別してから、この連続シーンにおける全画面の動きベクトルに基づいて表示位置を移動させるものであり、複数の連続シーンの画像信号SDL,SDC,SDRをリアルタイムで生成することが困難である。このため、画像信号SDL,SDC,SDRを記録媒体に記録して、その後記録媒体に記録されている画像信号SDL,SDC,SDRを同期して再生することにより、上述の図3に示す画像表示が行われる。また、入力画像信号SDinと画像位置移動部23で設定された表示位置を関係付けて記録媒体に記録させるものとして、画像表示を行う際に、入力画像信号SDinとこの入力画像信号SDinに関係付けて記憶されている表示位置を記録媒体から読み出して画像信号SDL,SDC,SDRも生成するものとしても良い。この場合には、画像信号SDL,SDC,SDRを記録しておく必要がないので、記録する信号量を少なくできる。また、連続シーンにおける全画面の動きベクトルに基づいて表示位置を移動させるために記録媒体に蓄積されている入力画像信号SDinを用いる場合には、画像表示領域を設定してから表示位置の決定や画像信号SDL,SDC,SDRの生成を行うことができるので、スクリーンサイズやスクリーン数等が変更されても容易に対応することができる。
【0087】
また、上述の実施の形態におけるスクリーンやプロジェクタは例示的なものであり、表示画像サイズよりも画像表示領域が大きければ、本願発明のように現実世界に忠実で臨場感の高い画像表示が可能であると共にシーンの切り替えを容易に識別できる。
【0088】
さらに、新たに映像ソースや別のフォーマットを作らなくても、従来のテレビ用やビデオ映像などのコンテンツの画像信号を用いて本発明の処理を施すことで、従来の映像鑑賞以上の臨場感を得ることができる。
【0089】
【発明の効果】
この発明によれば、表示画像の画像サイズよりも大きい画像表示領域が設定されると共に、シーンチェンジの検出結果に基づき連続シーンが判別されて、表示画像の表示位置が、画像表示領域おける表示画像の移動可能範囲内で、連続シーンの期間中に検出された動きベクトルに基づいて移動させる。このため、連続シーンの画像が画像の動きに応じて移動されて現実世界に忠実で臨場感の高い画像表示を可能とすると共に、画像の途切れを防止して正しく表示できる。
【0090】
また、連続シーンの期間中に検出された動きベクトルから動きベクトルの時間推移情報を生成して、この時間推移情報に基づき連続シーンにおける表示画像の振れ幅が判別される。この判別された振れ幅に基づき表示画像の表示位置が画像表示領域おける表示画像の移動可能範囲内となるように表示位置が移動されるので、画像の途切れを生ずることなく画像表示領域に合わせた表示画像の移動を容易に行うことができる。
【0091】
また、振れ幅と移動可能範囲に基づき、振れ幅の中央に対応する表示画像の表示位置が移動可能範囲の中央となるように、連続シーンの最初の表示画像の表示位置が設定されるので、画像表示領域を有効に活用して画像表示を行うことができる。
【0092】
また、振れ幅が前記移動可能範囲よりも大きいときには、動きベクトルの動き量を縮小させる補正処理が行われて、補正処理後の動き量を用いて表示画像の表示位置が移動されるので、画像表示領域から表示画像が外れてしまうことを防止できる。また表示位置の移動方向が画像表示領域の外側方向であるときに補正処理が行われるので、補正処理を行っても臨場感を確保できる。また、補正処理では、表示位置が画像表示領域の中央から離れるに伴い動き量の縮小率が大きくされるので、臨場感の低下を少なくできる。
【0093】
さらに、基準表示位置を設定して、検出された動きベクトルに応じて表示画像の表示位置が基準表示位置から移動されるので、ダイナミックな画像表示を行うことができる。また、検出された動きベクトルに対してフィルタ処理が行われて、このフィルタ処理が行われた動きベクトルに応じて表示画像の表示位置が基準表示位置から移動されるので、表示画像が振動して品位が低下してしまうことを防止できる。また、連続シーン内の動きベクトルに応じて表示画像の表示位置を基準表示位置から移動させたときに、表示画像が画像表示領域を超える場合、連続シーン内の動きベクトルの動き量を縮小させる補正処理が行われるので、画像表示領域から表示画像が外れてしまうことを防止できる。
【図面の簡単な説明】
【図1】画像表示システムの構成を示す図である。
【図2】入力画像信号の生成動作を示す図である。
【図3】画像表示状態を示す図である。
【図4】画像処理装置の構成を示す図である。
【図5】シーンチェンジ検出部の構成を示す図である。
【図6】フレーム位置と正規化値の関係を示す図である。
【図7】画素の間引きを示す図である。
【図8】シーンチェンジ検出部の他の構成を示す図である。
【図9】フレーム位置と相関係数の関係を示す図である。
【図10】動き検出部の構成を示す図である。
【図11】画像位置移動部の構成を示す図である。
【図12】画像位置決定回路の構成を示す図である。
【図13】画像処理装置の動作を説明するための図である。
【図14】画像位置決定回路の動作を説明するための図である。
【図15】画像位置決定回路の他の動作を説明するための図である。
【図16】動き量の補正を行った場合の表示位置と動き量の補正を行わなかった場合の表示位置を示す図である。
【図17】基準表示位置から動きベクトル分だけ表示位置を移動させる場合と、動きベクトルに基づいて順次表示位置を移動させる場合での表示位置を示す図である。
【図18】フィルタ処理を行った場合の表示位置とフィルタ処理を行わなかった場合の表示位置を示す図である。
【図19】コンピュータを用いたときの構成を示す図である。
【図20】画像処理プログラムの全体構成を示すフローチャートである。
【図21】シーン判別の動作を示すフローチャートである。
【符号の説明】
10L,10C,10R・・・スクリーン、12L,12C,12R・・・プロジェクタ、20・・・画像処理装置、21・・・シーンチェンジ検出部、22・・・動き検出部、23・・・画像位置移動部、211,221,233・・・遅延回路、212・・・差分平均算出回路、213・・・輝度平均算出回路、214・・・正規化回路、215,217・・・判定回路、216・・・相関係数算出回路、222・・・画像位置切替回路、223・・・差分演算回路、224・・・最小値判定回路、231・・・画像位置決定回路、232・・・動き累積回路、233・・・初期位置決定回路、234・・・表示範囲判定回路、235・・・動き補正回路、236・・・表示位置決定回路、237・・・書込読出制御回路、238・・・画像メモリ、239・・・画像分割回路、301・・・CPU、302・・・ROM、303・・・RAM、314・・・画像信号入力部、315・・・画像信号出力部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, and an image processing program. Specifically, the motion vector of the display image based on the input image signal is detected, the scene change of the display image is detected, the image display area larger than the image size of the display image is set, and the detection result of the scene change is set. By identifying the continuous scene and moving the display position of the display image within the movable range of the display image in the image display area based on the motion vector detected during the continuous scene period, it is highly realistic The image display is possible and the image is correctly displayed without interruption.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in an image display system that displays an image such as a television broadcast program or a movie, an image is displayed using one fixed image frame, such as a display screen or a screen of a television device. Also, when producing image content such as a broadcast program or a movie, content production is performed on the assumption that image display is performed in such a fixed image frame.
[0003]
Furthermore, in recent years, a multi-screen display system, a curved display, a wide-angle display, a head-mounted display, and the like have been put into practical use in order to display an image with enhanced realism. However, even when such a multi-screen display system or the like is used, content production is performed on the premise that an image display area formed by this system is used as one fixed image frame and an image is displayed in accordance with the fixed image frame. Has been done.
[0004]
[Problems to be solved by the invention]
By the way, when the image content produced in accordance with the fixed image frame in this way includes an image including a camera movement at the time of shooting, the shot image is displayed in the fixed image frame and the background in the shot image is displayed. The movement of the camera is used to express the camera movement. In other words, the viewer recognizes that the subject in the image displayed in the fixed image frame moves, and the subject in the image moves in the direction opposite to the background motion, and the viewer feels as if he / she is Get the feeling of changing direction as the subject moves.
[0005]
This is a result of forcibly projecting the captured image of a wide space onto a two-dimensional plane in a fixed image frame, and the viewer feels that he / she moved sensuously by the movement of the background even if he / she did not actually move. There will be unnaturalness due to inconsistency with real space. For this reason, for example, Japanese Patent Laid-Open No. 10-301556 discloses that motion detection is performed on a photographed image and the display position is moved in accordance with the motion of the subject to prevent inconsistency with the real space. Yes.
[0006]
However, when the image display area is limited, if the display position of the image is moved in accordance with the movement of the subject, the image is out of the image display area, and the image cannot be displayed correctly.
[0007]
Therefore, the present invention provides an image processing apparatus, an image processing method, and an image processing program that enable an image display that is faithful to the real world and has a high sense of presence, and that can display an image correctly without interruption.
[0008]
[Means for Solving the Problems]
An image processing apparatus according to the present invention includes a motion detection unit that detects a motion vector of a display image based on an input image signal, a scene change detection unit that detects a scene change by determining a continuous scene of the display image, An image moving means for setting an image display area larger than the image size of the display image and moving the display position of the display image with respect to the image display area is provided, and the image moving means is provided by the scene change detecting means. Based on the temporal transition of the motion vector detected by the motion detection means during the continuous scene determined based on the detection result of the scene genge. Discriminating the amplitude of the display image in the continuous scene, based on the amplitude The display position is moved so that the display position of the display image is within a movable range of the display image in the image display area.
[0009]
Further, the image processing method detects a scene change by detecting a motion vector of a display image based on an input image signal, discriminates a continuous scene of the display image, and an image display area larger than an image size of the display image And based on the temporal transition of the motion vector detected by the motion detection means during the continuous scene determined based on the detection result of the scene genge Discriminating the amplitude of the display image in the continuous scene, based on the amplitude The display position is moved so that the display position of the display image is within a movable range of the display image in the image display area.
[0010]
Further, the image processing program causes the computer to detect a motion vector of the display image based on the input image signal, to detect a scene change by determining a continuous scene of the display image, and to display the image of the display image. Based on the time transition of the motion vector detected by the motion detection means during the continuous scene period determined based on the detection result of the scene genge while setting an image display area larger than the size Discriminating the amplitude of the display image in the continuous scene, based on the amplitude And a procedure for moving the display position so that the display position of the display image is within a movable range of the display image in the image display area.
[0011]
In the present invention, continuous scenes are discriminated based on the detection result of the scene change, and motion vectors detected during the period of the continuous scenes are accumulated to generate a motion accumulated value as time transition information of the motion vectors. Thus, the fluctuation width of the display image in the continuous scene is determined based on the accumulated motion value. Based on the movable range and the swing width of the display image in the image display area larger than the image size of the display image, the display position of the display image corresponding to the center of the swing width is set to the center of the movable range. The display position of the first display image is set. In addition, when the fluctuation width is larger than the movable range, correction processing for reducing the amount of motion vector movement when the moving direction of the display position is outside the image display area, or the display position from the center of the image display area. A correction process is performed to increase the reduction rate of the motion amount as the user leaves, and the display position of the display image is moved based on the motion amount.
[0012]
Further, a reference display position is set, and a filter process is performed on the detected motion vector, and the display position of the display image is moved from the reference display position in accordance with the motion vector subjected to the filter process. The Also, when the display position of the display image is moved from the reference display position according to the motion vector in the continuous scene, if the display image exceeds the image display area, the amount of motion vector motion in the continuous scene is reduced. Correction processing is performed.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows the overall configuration of a display system using an image processing apparatus according to the present invention. In this display system, for example, three screens are arranged on the front and both sides of the user. In addition, projectors 12L, 12C, and 12R are provided corresponding to the screens 10L, 10C, and 10R, respectively. By projecting an image using each of the projectors 12L, 12C, and 12R, an image is displayed using a wide image frame for three screens. The projectors 12L, 12C, and 12R are connected to the image processing device 20.
[0014]
The image processing device 20 detects an image motion vector and a scene change based on the input image signal SDin, and outputs three image signals SDL, SDC, and SDR so that the image display position moves according to the detected motion vector. Then, the image signal SDL is supplied to the projector 12L, the image signal SDC is supplied to the projector 12C, and the image signal SDR is supplied to the projector 12R. When a scene change is detected, an image of a new scene is displayed at a display position that is not related to the continuous scene before the scene change.
[0015]
For example, as shown in FIG. 2A, the input image signal SDin supplied to the image processing device 20 is obtained by photographing a stationary subject OBa with the video camera 100 and then panning the video camera 100 as shown in FIG. 2B. It is assumed that the image signal is obtained by photographing the subject OBb moving in the order of forward, backward, and forward, and further photographing the stationary subject OBc as shown in FIG. 2C.
[0016]
The size of each screen is, for example, an aspect ratio of “4: 3”, a display size of “720 pixels × 480 pixels”, and an image based on the input image signal SDin is used in movies with an aspect ratio of “16: 9”. FIG. 3 shows a case where the display size is “720 pixels × 270 pixels” with the aspect ratio of the wide image being displayed.
[0017]
The image processing device 20 generates an image signal SDC based on the input image signal SDin and supplies the image signal SDC to the projector 12C. As shown in FIG. Display in the center. Thereafter, with respect to the image of the scene B obtained by shooting the moving subject OBb, the moving range of the display position is determined based on the motion vector of the image of the scene B, and this moving range becomes the center of the image display area. The display position of the first image of scene B is determined. Based on the determined display position, image signals SDL, SDC, SDR are generated from the input image signal SDin. For example, the image signals SDC, SDR are used by using the front screen 10C and the right screen 10R as shown in FIG. 3B. Display an image. Thereafter, as shown in FIGS. 3C and 3D, the image display position is moved from the right side to the left side in accordance with the movement of the subject OBb. Further, when the scene change is performed and the scene B is switched to the scene C, for example, an image of the scene C obtained by photographing the non-moving subject OBc is displayed at the center of the screen 10C as shown in FIG. 3E. As described above, the moving range of the display position is determined based on the amount of movement of the image, and the display position is set so that the moving range becomes the center of the image display area. When the moving range is larger than the image display area, the display position is adjusted so that the display image is not lost. As described above, the image display area is effectively used when the display position is moved in accordance with the motion vector of the image, thereby displaying an image with a high sense of presence.
[0018]
FIG. 4 shows a schematic configuration of the image processing apparatus 20. The image processing apparatus 20 supplies the input image signal SDin to the scene change detection unit 21, the motion detection unit 22, and the image position movement unit 23.
[0019]
The scene change detection unit 21 detects a scene change based on the input image signal SDin, that is, detects a discontinuous position of an image which is a joint portion between a continuous scene and a scene different from the continuous scene. FIG. 5 shows a schematic configuration of the scene change detection unit 21, which detects, for example, whether or not the scenes are continuous using image signals for two frames.
[0020]
The delay circuit 211 of the scene change detection unit 21 delays the input image signal SDin by one frame and supplies it to the difference average calculation circuit 212 as a delayed image signal SDa. The difference average calculation circuit 212 calculates a difference average value Dav between two frames based on the input image signal SDin and the delayed image signal SDa and supplies the difference average value Dav to the normalization circuit 214. The difference average value Dav is calculated by calculating a difference value of luminance levels between two frames in each pixel and supplying the obtained difference value average value to the normalization circuit 214 as the difference average value Dav. When the number of pixels of an image of one frame is “N”, the luminance level based on the input image signal SDin is “YC”, and the luminance level based on the delayed image signal SDa is “YP”, the difference average value Dav is an expression. It can be calculated based on (1).
[0021]
[Expression 1]
Figure 0004131113
[0022]
Here, the difference average value Dav varies greatly depending on the luminance level of the image. For example, when the image is bright, even if the scene is not switched, the difference average value Dav increases only by changing a part of the image to a dark image. On the other hand, when the image is dark, the difference average value Dav does not increase because the change in the luminance level is small even when the scene is switched. For this reason, assuming that the scene change detection unit 21 is provided with a normalization circuit 214, normalization of the difference average value Dav corresponding to the brightness of the image is performed, and the influence of the brightness of the image is reduced to correctly detect the scene change. Make it possible.
[0023]
The luminance average calculation circuit 213 calculates an average value of luminance levels in one frame based on the luminance level of each pixel based on the input image signal SDin, and supplies the average value to the normalization circuit 214 as the luminance average value Yav. As described above, when the number of pixels of one frame image is “N” and the luminance level of the pixel based on the input image signal SDin is “YC”, the average luminance value Yav can be calculated based on the equation (2). .
[0024]
[Expression 2]
Figure 0004131113
[0025]
The normalization circuit 214 normalizes the difference average value Dav according to the brightness of the image. That is, as shown in Equation (3), the difference average value Dav is corrected according to the luminance average value Yav indicating the brightness of the image to generate a difference average normalized value (hereinafter simply referred to as “normalized value”) E. To do.
E = Dav / Yav (3)
The normalized value E generated by the normalization circuit 214 is supplied to the determination circuit 215.
[0026]
The determination circuit 215 has a preset threshold value Lr, and compares the normalized value E with the threshold value Lr. When the normalized value E is larger than the threshold value Lr, the determination circuit 215 determines a scene change. Further, when the normalized value E is less than or equal to the threshold value Lr, it is determined that the scene is not a continuous scene. Further, the determination circuit 215 generates a scene change detection signal SC indicating the determination result and supplies the scene change detection signal SC to the motion detection unit 22 and the image position movement unit 23 of FIG.
[0027]
As described above, the normalization circuit 214 normalizes the difference average value Dav according to the brightness of the image, and the determination circuit 215 determines whether the scene change or the continuous scene by using the normalization value E. Therefore, the scene change can be detected correctly with less influence of the brightness of the image.
[0028]
FIG. 6 exemplarily shows the relationship between the frame position and the normalized value E. Here, when the threshold value Lr is set to “0.4”, the frame position where the normalized value E exceeds “0.4” is set as the scene change detection position Psc.
[0029]
By the way, in the scene change detection unit 21 described above, scene change detection is performed using signals of all pixels in one frame, but the difference average value Dav and luminance average value Yav are calculated using signals of all pixels. If it calculates, time will be required for arithmetic processing. Further, if the calculation process is speeded up in order to shorten the time required for the calculation process, the calculation process cost becomes enormous. Therefore, pixel decimation, for example, as shown in FIG. 7, an image of one frame is divided into 8 × 4 pixel areas, and only one pixel is selected from each area as indicated by diagonal lines. The difference average value Dav and the luminance average value Yav are calculated using the signal of the selected pixel. In this way, if pixel thinning is performed, the amount of calculation is reduced, so that the calculation process can be easily performed, and the calculation process cost is enormous because it is not necessary to perform the calculation process at high speed. Can also be prevented.
[0030]
In the scene change detection unit 21 described above, the scene change detection is performed using the normalized value E. However, the correlation coefficient r of the image between two frames is obtained, and the correlation coefficient r and the threshold value are set. By comparing, scene change detection can be performed with high accuracy. FIG. 8 shows the configuration of the scene change detection unit when the correlation coefficient r is used. The delay circuit 211 delays the input image signal SDin by one frame and supplies it to the correlation coefficient calculation circuit 216 as a delayed image signal SDa. The correlation coefficient calculation circuit 216 calculates the correlation coefficient r based on the input image signal SDin and the delayed image signal SDa.
[0031]
Here, the number of pixels of the image of one frame is “N”, the luminance level of the pixel based on the image signal of the first frame is “YF”, the luminance level of the pixel based on the image signal of the next frame is “YS”, When the average luminance level of the pixels based on the image signal of the next frame is “YFav” and the average luminance level of the pixels based on the image signal of the next frame is “YSav”, the correlation coefficient r is calculated using the equation (4). It can be calculated.
[0032]
[Equation 3]
Figure 0004131113
[0033]
The correlation coefficient r calculated by the correlation coefficient calculation circuit 216 is supplied to the determination circuit 217.
The determination circuit 217 has a preset threshold value Lr, and compares the correlation coefficient r with the threshold value Lr. When the correlation coefficient r is equal to or less than the threshold value Lr, the determination circuit 217 determines a scene change. When the correlation coefficient r is not less than or equal to the threshold value Lr, it is determined that the scene is not a scene change. Further, the determination circuit 217 generates a scene change detection signal SC indicating the determination result, and supplies the scene change detection signal SC to the motion detection unit 22 and the image position movement unit 23 in FIG. FIG. 9 exemplarily shows the relationship between the frame position and the correlation coefficient r. Here, when the threshold Lr is set to “0.4”, for example, the frame position where the correlation coefficient r is “0.4” or less is set as the scene change detection position Psc.
[0034]
The motion detection unit 22 detects a motion vector with respect to a frame indicated by the scene change detection signal SC from the scene change detection unit 21 as a continuous scene, and a motion vector having a wide display area, for example, a motion of a background portion. Detect vectors. FIG. 10 shows a configuration of the motion detection unit 22, which is a case where a motion vector is detected using a block matching method, for example.
[0035]
The delay circuit 221 of the motion detector 22 delays the input image signal SDin by one frame and supplies it to the image position switching circuit 222 as a delayed image signal SDb. The image position switching circuit 222 sequentially changes the position of the image based on the delayed image signal SDb in the horizontal direction or the vertical direction within a preset motion search range, and sequentially generates new image signals SDc. The generated image signal SDC is supplied to the difference calculation circuit 223. Further, the image position switching circuit 222 supplies a motion vector MV indicating the moving direction and moving amount of the image to the minimum value determining circuit 224.
[0036]
The difference calculation circuit 223 sequentially calculates a difference value DM between the image signal SDc and the input image signal SDin and supplies the difference value DM to the minimum value determination circuit 224.
[0037]
The minimum value determination circuit 224 associates and holds the difference value DM and the motion vector MV when generating the image signal SDc used for calculating the difference value DM. When the image position switching circuit 222 completes the movement of the image within the motion search range, the minimum value determination circuit 224 determines the minimum value from the held difference value DM, and the difference that is the minimum value The motion vector MV held in association with the value DM is supplied to the image position moving unit 23 in FIG. 4 as motion detection information MVD.
[0038]
By the way, when the scene change detection signal SC indicates that a scene change has been detected and it is indicated that the scene is a continuous scene again, the moving direction of the image after the scene change cannot be predicted. Therefore, the image position switching circuit 222 sets the motion search range around the position of the image based on the delayed image signal SDb when detecting the first motion vector after the scene change is detected. By setting the motion search range in this way, it is possible to correctly detect the motion vector of the background image even after scene switching has occurred.
[0039]
Also, in a continuous scene, the movement of images is often continuous. For this reason, the minimum value determination circuit 224 also supplies the motion detection information MVD to the image position switching circuit 222, and the image position switching circuit 222 next determines the center of the motion search range when determining the motion vector of the image. Is set based on the motion detection information MVD. In this way, if the motion search range for the next motion detection is set according to the motion vector of the image, even if the motion search range is narrower than the detection of the first motion vector after the scene change detection, It becomes possible to correctly detect the motion vector of the image, and the motion vector of the image can be detected efficiently and promptly.
[0040]
4 determines the display position based on the scene change detection signal SC and the motion detection information MVD. Further, an image signal corresponding to the image display area is generated based on the determined display position. For example, as described above, the image display area is divided into three areas (screens 10L, 10C, and 10R), and when image display is performed using these three areas, the image signal SDL, SDC and SDR are generated, and the image signal SDL is supplied to the projector 12L, the image signal SDC is supplied to the projector 12C, and the image signal SDR is supplied to the projector 12R, thereby performing image display using the screens 10L, 10C, and 10R.
[0041]
FIG. 11 shows the configuration of the image position moving unit 23. The image position determining circuit 231 of the image position moving unit 23 determines a display position based on the scene change detection signal SC and the motion detection information MVD, and supplies position information PD indicating the display position to the writing / reading control circuit 237. .
[0042]
FIG. 12 shows the configuration of the image position determination circuit 231. The motion accumulation circuit 232 discriminates the period of the continuous scene based on the scene change detection signal SC, accumulates the motion vector indicated by the motion detection information MVD during the period of the continuous scene, and temporally changes the motion vector. The accumulated motion value MVT as information is generated and supplied to the initial position determination circuit 233 and the display range determination circuit 234.
[0043]
In the initial position determination circuit 233, the maximum value MVT-1 in the first movement direction (for example, the right direction or the upward direction) based on the accumulated motion value MVT and the second movement direction (the direction opposite to the first direction) ( For example, the maximum value MVT-2 in the left direction or the downward direction is obtained, and based on the maximum value MVT-1 and the maximum value MVT-2, the fluctuation width WT and the median value MVTct of the motion accumulated value MVT are obtained. The display position of the first display image of the continuous scene is determined so as to be a predetermined position of the image display range, for example, the center, and is supplied to the display range determination circuit 234 and the display position determination circuit 236 as the initial position PS.
[0044]
The display range determination circuit 234 moves the display position of the image based on the motion detection information MVD during a period from when the first display image of the continuous scene is displayed at the initial position PS to when the last image of the continuous scene is displayed. Whether or not the display image can completely enter the image display area is determined based on the initial position PS and the accumulated motion value MVT. A determination result signal CHa indicating the determination result in the display range determination circuit 234 is supplied to the motion correction circuit 235.
[0045]
The motion correction circuit 235 corrects the motion detection information MVD so that the display image can fit into the image display area when the discrimination result signal CHa indicates that the display image does not fit into the image display area, and motion detection is performed. The information MVE is supplied to the display position determination circuit 236. In addition, when the determination result signal CHa indicates that the display image is completely within the image display area, the motion detection information MVD is supplied to the display position determination circuit 236 without being corrected.
[0046]
The display position determination circuit 236 sets the initial position PS supplied from the initial position determination circuit 233 as the display position of the first display image of the continuous scene. Thereafter, based on the motion detection information MVE, the position where the image is moved in the direction opposite to the direction of the motion vector indicated by the motion detection information MVE is used as a display position, and position information PD indicating the display position is sequentially output. , Supplied to the write / read control circuit 237 of FIG.
[0047]
Here, when the image display position is switched based on the position information PD, for example, when the image display area is divided into three areas (screens 10L, 10C, and 10R) as described above, the input image signal SDin and the position are displayed. Based on the information PD, image signals SDL, SDC, and SDR for displaying an image on each area must be generated. For this reason, for example, an image memory 238 having a storage area corresponding to the image display area is provided, and the writing / reading control circuit 237 indicates the writing position when the input image signal SDin is written in the image memory 238 with the position information PD. To correspond to the display position. If the input image signal SDin is written in this way, the image signals SDL, SDC, SDR can be easily generated by using the image signal in the storage area of the image memory 238 corresponding to the display area.
[0048]
The write / read control circuit 237 generates a write control signal WC for writing an image signal in the image memory 238 and a read control signal RC for reading the image signal written in the image memory 238, 238. Here, the write / read control circuit 237 stores the image signal at the position of the storage area of the image memory 238 corresponding to the display position determined by the image position determination circuit 231 as described above. To generate a write control signal WC.
[0049]
Based on the write control signal WC, the image memory 238 stores the input image signal SDin of the frame in which the display position is determined in a storage area corresponding to the display position determined by the image position determination circuit 231. For example, a signal for displaying black is stored in an area where the input image signal SDin is not stored. Further, the image memory 238 reads the image signal stored in the storage area based on the read control signal RC from the write / read control circuit 237 and supplies it to the image dividing circuit 239 as the image signal SDe.
[0050]
The image dividing circuit 239 generates an image signal SDL from the image signal SDe using, for example, a signal in a storage area corresponding to the screen 10L. Similarly, image signals SDC and SDR are generated using the signals in the storage area corresponding to the screens 10C and 10R. By supplying the image signal SDL thus generated to the projector 12L, the image signal SDC to the projector 12C, and the image signal SDR to the projector 12R, it is possible to display one image using a plurality of screens and display images. When the image spans a plurality of screens, the display image is divided and displayed for each screen. In addition, when a black display signal is stored in an area where the image signal SDd is not stored, the periphery of the image based on the input image signal SDin is displayed in black.
[0051]
Note that the image position moving unit 23 determines a display position based on the scene change detection signal SC and the motion detection information MVD, and generates an image signal corresponding to the image display area based on the determined display position. The image signal writing position to the image memory 238 is not limited to controlling the display position according to the display position. For example, the image signals SDL, SDC, and SDR can be generated by storing the image signal at a predetermined position and controlling the read position of the recorded signal based on the display position.
[0052]
Next, the operation of the image processing apparatus 20 will be described. For the sake of simplicity, only the horizontal component in the motion vector direction indicated by the motion detection information MVD will be described. FIG. 13A shows an image based on the input image signal SDin. The image up to the frame F (g-1) is the image of the scene A, and the frames F (g), F (g + 1) to the frame F (g + k) are continuous. A case where the image is a scene C from a frame F, (g + k + 1) is shown.
[0053]
When the input image signal SDin changes from the frame F (g-1) to the frame F (g) and from the frame F (g + k) to the frame F (g + k + 1), the scene change detection unit 21 uses the normalized value E Alternatively, the scene change position is detected based on the correlation coefficient r, and the scene change detection signal SC indicates a scene change.
[0054]
The motion accumulation circuit 232 of the image position determination circuit 231 generates a motion accumulation value MVT by accumulating motion vectors during a continuous scene based on the scene change detection signal SC. For example, a motion accumulation value MVT is generated by accumulating motion vectors of scene B, which is a continuous scene from frame F (g) to frame F (g + k).
[0055]
FIG. 14 shows the amount of motion in the left-right direction based on the accumulated motion value MVT of the scene B. In FIG. 14, since the scenes A and C do not move, the motion amount in the left-right direction of the motion accumulated value MVT is “0”. Here, as shown in FIG. 2B, when the subject OBb moving forward by panning the video camera 100 to the left is photographed, the background image moves to the right. For this reason, the motion amount of the motion cumulative value MVT increases in the right direction. After that, when panning of the video camera 100 is stopped and the subject OBb panned rightward and then moved backward is photographed, the motion amount of the motion cumulative value MVT decreases and then increases to the left. When the subject OBb that is panned leftward and then moved forward is shot after the panning of the video camera 100 is stopped again, the motion amount of the motion cumulative value MVT decreases and then increases to the right.
[0056]
The initial position determination circuit 233 determines the movement range of the display position in the scene B by obtaining the fluctuation width WT of the accumulated motion value MVT, and this movement range is the movable range LW (the image display area of the image display area). The display position of the image of frame F (g) so that it is the center of the distance between the center of the display image when the image is displayed on the right edge and when the image is horizontally moved and displayed on the left edge. An initial position PS is determined. For example, the deflection width WT of the motion cumulative value MVT is obtained, and ½ of the deflection width WT is set as the median value MWct. Further, when the median value MWct is subtracted from the maximum motion amount MVT-1 in the right direction, the motion amount MU-s for the image of the frame F (g) when the image movement range is set at the center of the image display area is obtained. Can be sought. For this reason, the position moved from the center of the image display area by the motion amount MU-s in the direction opposite to the motion vector direction is set as the initial position PS. By determining the initial position PS in this way, when the image display position is moved based on the motion detection information MVD, the moving range of the image becomes the center of the image display area. In this way, the initial position determination circuit 233 determines the initial position PS and supplies it to the display range determination circuit 234 and the display position determination circuit 236.
[0057]
When the display range determination circuit 234 displays the first display image of the continuous scene at the initial position PS and then moves the display position by the amount of motion indicated by the motion detection information MVD in the direction opposite to the motion vector direction. Then, it is determined whether or not the display image can enter the image display area. For example, a shake width WT is calculated based on the accumulated motion value MVT, and the shake width WT is compared with the movable range LW in the image display area. As shown in FIG. 15, it is determined whether the swing width WT of the scene G is larger than the movable range LW and the display image does not completely enter the image display area. The discrimination result signal CHa indicating the discrimination result is supplied to the motion correction circuit 235. Note that the swing width WT calculated by the initial position determination circuit 233 may be used as the swing width WT.
[0058]
When the determination result signal CHa indicates that the display image does not fit into the image display area, the motion correction circuit 235 performs correction to reduce the motion amount of the motion detection information MVD, and determines the display position as the motion detection information MVE. Supply to circuit 236. For example, when the fluctuation width WT of the motion cumulative value MVT increases and exceeds the movable range LW of the image display area as shown in FIG. 15, the motion amount of the scene G is multiplied by the correction coefficient CR (<1). By doing so, correction for reducing the amount of motion is performed, and the deflection width WT is reduced. If the display position exceeds the movable range LW when the shake width is reduced, the display position is limited to the movable range LW regardless of the motion detection information MVE.
[0059]
Further, the shake width WT of the motion accumulated value MVT is supplied to the motion correction circuit 235, and the movable range LW in the image display area is stored in the motion correction circuit 235 in advance, so that the shake width WT and the movable range are stored. The correction coefficient CR can be set to “CR = (LW / WT)” using LW. In this case, since the amount of movement is corrected so that the display image is within the image display area even if the display position is moved, it is possible to prevent the display position from being restricted beyond the movable range LW.
[0060]
By the way, if the amount of motion is multiplied by a fixed correction coefficient CR, the amount of motion of the image is always reduced, resulting in an image with less presence. For this reason, it is also possible to display an image with a high sense of realism by weighting the correction coefficient CR.
[0061]
Here, when the display position of the image is moved from the center of the image display area to the end side, the amount of motion is reduced by multiplying the amount of motion by the correction coefficient CR. Further, when the display position is moved from the end side toward the center of the image display area, the correction coefficient CR is set to “1”. In this case, since the amount of movement is reduced only when the display position is moved in the direction toward the edge of the image display area, the image can be prevented from being interrupted, and the display position in the center direction of the image display area can be prevented. Since the movement is performed according to the motion vector of the image, a sense of reality can be ensured.
[0062]
FIG. 16 exemplarily shows the difference in image display position between when the motion amount is corrected and when it is not. Here, when the motion amount indicated by the solid line is corrected, the display position of the image is close to the center portion and the image is prevented from being interrupted, compared to the case where the motion amount indicated by the broken line is not corrected. it can.
[0063]
In the correction of the motion amount, when the display position is moved in the center portion of the image display area, the correction coefficient CR is set close to “1” or “1” to reduce the reduction rate of the motion amount. Further, as the display position moves away from the center of the image display area toward the end side, the correction coefficient CR is decreased to increase the reduction rate of the motion amount. When the correction coefficient CR is set in this way, the display position is moved in accordance with the motion vector of the image at the center of the image display area that is viewed by the viewer, and the end of the image display area that is less viewed by the viewer Since the movement of the display position is reduced, it is possible to suppress a reduction in the sense of reality due to the correction of the movement amount.
[0064]
Furthermore, when the deflection width WT is large, the amount of motion becomes too small if the correction coefficient CR is set to “CR = (LW / WT)”. For this reason, the correction coefficient CR is limited, and when the display image does not completely enter the image display area when the display position is moved, the display image is set as the end side position of the image display area regardless of the amount of movement. It is also possible to prevent the image from being interrupted.
[0065]
Thus, when the image position determination circuit 231 determines the display position of the image of each frame and generates the position information PD, the write / read control circuit 237 generates the write control signal WC based on the position information PD. The image signal of the frame F (g-1) of the scene A is stored in the storage area AR1 corresponding to the image display position in the storage area of the image memory 238 as shown in FIG. 13B. Further, the image signal of the first frame F (g) of the scene B is stored in the storage area AR2 corresponding to the initial position PS based on the position information PD. Thereafter, the image signals of the frames F (g + 1) to F (g + k) are stored in the image memory 238 while being moved based on the position information PD. Further, the image signal of the frame F (g + k + 1) of the scene C is stored in the storage area AR1.
[0066]
The write / read control circuit 237 generates a read control signal RC and supplies the read control signal RC to the image memory 238, and the image memory 238 stores and reads the image signal based on the read control signal RC and supplies the image signal to the image dividing circuit 239. . Since the storage area of the image memory 238 is provided corresponding to the image display area, the image dividing circuit 239 generates the image signal SDL based on the signal read from the storage area BAL corresponding to the screen 10L. Further, the image signal SDC is generated based on the signal read from the storage area BAC corresponding to the screen 10C, and the image signal SDR is generated based on the signal read from the storage area BAR corresponding to the screen 10R. It should be noted that the signal level of the portion without an image is displayed as black as described above, and only an image based on the input image signal SDin is displayed in the image display area.
[0067]
Thus, by supplying the generated image signals SDL, SDC, SDR to the projectors 12L, 12C, 12R, the display position can be moved according to the movement of the subject. In this way, it is possible to represent the camera movement or the camera orientation at the time of shooting, and the image is displayed in the same position and direction as the real world, so the viewer can view the same space or movement as the real world. Sometimes you can get it. In addition, it is possible to obtain a greater sense of movement from the image by the movement of the screen itself, and watching the movement expression that was completely passive due to the movement of the viewer's face, etc. It can be felt by an active operation of moving. Further, since the movement according to the image display area is performed, it is possible to display the image correctly without interruption of the image. In addition, by using the shake width, it is possible to easily determine how much the display position should be corrected from the shake width and the movable range of the image display area, so that the display image can be easily moved in accordance with the image display area. It can be carried out.
[0068]
By the way, the image position determination circuit 231 described above accumulates the motion vectors of the motion detection information MVD by the motion accumulation circuit 232, determines the initial position of the display image based on the motion accumulation value MVT, and moves the display position. Although it is assumed that the movement is performed sequentially based on the vector, it is also possible to set the reference display position and move the display position from the reference display position by the motion vector indicated by the motion detection information MVD.
[0069]
For example, when shooting is performed by panning in the right direction, the background image moves in the left direction. Therefore, based on the motion detection information MVD, the display position is changed from the reference display position by the amount of motion in the direction opposite to the motion vector direction. Moving. When panning ends, the amount of motion of the motion detection information MVD becomes “0”, so the display position is set as the reference display position. When the display position is determined according to the motion vector as described above, the change of the motion vector is expressed as the movement of the display position, and dynamic image display can be performed.
[0070]
FIG. 17 exemplarily shows display positions when the display position is moved from the reference display position by the motion vector and when the display position is sequentially moved based on the motion vector. In the figure, a solid line indicates a case where the display position is moved from the reference display position by the amount of the motion vector, and a broken line indicates a case where the display position is sequentially moved based on the motion vector. As shown in the figure, for example, when panning in the right direction is completed, the amount of motion of the motion detection information MVD is “0”, and therefore the display position when the display position is moved from the reference display position by the motion vector is The reference display position. Further, when the display position is sequentially moved based on the motion vector, the display position is a position farthest to the right from the initial position.
[0071]
Also, when moving the display position from the reference display position by the amount of the motion vector, if the detection accuracy of the motion vector is not high, the display position vibrates due to an error in detection of the motion vector, and the quality without stability is reduced. It becomes a display image. For this reason, filter processing is performed on the motion vector, and the vibration of the display position is prevented by removing the high frequency component from the motion vector. In this filter processing, for example, an average is calculated from motion vectors for ± 20 frames, thereby removing high frequency components.
[0072]
FIG. 18 is a diagram exemplarily showing a difference in display position between when the filtering process is performed and when the filtering process is not performed. In the figure, the thick line indicates the display position when the filtering process is performed and the high frequency component is removed from the motion vector, and the thin line indicates the display position when the filtering process is not performed. As shown in FIG. 18, since the motion vectors are averaged by performing the filter processing, it is possible to prevent the display position from vibrating and to display a good image.
[0073]
Further, when the display position is determined based on the motion detection information MVD, the display position based on the motion vector is set such that the fluctuation width of the display position is within the movable range LW in the image display area. For example, the display position when the movement amount is “0” is set as the reference display position in the center of the image display range, and the display position is set to the end side of the image display range when the movement amount of the motion vector becomes maximum. Set to be. Here, when the motion amount of the motion vector indicated by the motion detection information MVD is “Md” and the maximum value of the motion amount is “Vmax”, the display position X can be calculated based on Equation (5). If an image is displayed at the calculated display position X, the image display can be performed by effectively utilizing the image display area.
X = (LW / Vmax) Md (5)
[0074]
Furthermore, the above-described processing may be realized not only by hardware but also by software. The configuration in this case is shown in FIG. The computer includes a CPU (Central Processing Unit) 301 as shown in FIG. 19, and a ROM 302, a RAM 303, a hard disk drive 304, and an input / output interface 305 are connected to the CPU 301 via a bus 320. Yes. Further, an input unit 311, a recording medium drive 312, a communication unit 313, an image signal input unit 314, and an image signal output unit 315 are connected to the input / output interface 305.
[0075]
When a command is input from an external device, or when a command is input from an input unit 311 configured using an operation unit such as a keyboard or a mouse or a voice input unit such as a microphone, the command is input via the input / output interface 305. Are supplied to the CPU 301.
[0076]
The CPU 301 executes a program stored in the ROM 302, RAM 303, or hard disk drive 304, and performs processing according to the supplied command. Further, the ROM 302, the RAM 303, or the hard disk drive 304 stores in advance an image processing program for causing the computer to execute the same processing as that of the above-described image processing apparatus, and the input input to the image signal input unit 314. Based on the image signal SDin, image signals SDL, SDC, SDR are generated and output from the image signal output unit 315. Also, an image processing program is recorded on a recording medium, and the recording medium drive 312 records the image processing program on the recording medium or reads the image processing program recorded on the recording medium and executes it on a computer. It is also good. Furthermore, the communication unit 313 may transmit or receive an image processing program via a transmission path, and the received image processing program may be executed by a computer.
[0077]
FIG. 20 is a flowchart showing the overall configuration of the image processing program. In step ST1, the accumulated motion value MVT is initialized and the process proceeds to step ST2. In step ST2, scene discrimination is performed. FIG. 21 is a flowchart showing the scene discrimination operation. In step ST21, a difference average value Dav between frames and a luminance average value Yav in the frame are calculated, and the process proceeds to step ST22.
[0078]
In step ST22, the average difference value Dav is normalized using the luminance average value Yav to calculate a normalized value E.
In step ST23, the normalized value E and the threshold value Lr are compared to determine whether or not it is a scene change. Here, when the normalized value E is equal to or less than the threshold value Lr, the process proceeds to step ST24, where it is determined that the scene is a continuous scene and the scene determination is terminated. When the normalized value E is greater than the threshold value Lr, the process proceeds to step ST25. It is determined that it is a change, and the scene determination is terminated.
[0079]
In the scene determination operation, the correlation coefficient r may be calculated as described above, and the correlation coefficient r and the threshold value Lr may be compared to determine whether the scene change has occurred. In this case, instead of the processing in step ST21 and step ST22, the correlation coefficient r shown in the above equation (4) is calculated. In step ST23, if the correlation coefficient r is not smaller than the threshold value, the process proceeds to step ST24. Discriminated as a continuous scene. If the correlation coefficient r is smaller than the threshold value, it is determined in step ST25 that it is a scene change.
[0080]
Step ST3 in FIG. 20 determines whether or not the scene determination result in the scene determination in step ST2 is a scene change. If it is determined that the scene is not a scene change, that is, a continuous scene, the process proceeds to step ST4. If a scene change is determined, the process proceeds to step ST6.
[0081]
Step ST4 performs motion detection. In this motion detection, full-screen motion detection is performed to detect a motion vector of a portion with a large display area, and the process proceeds to step ST5. In step ST5, the motion vector detected in step ST4 is added to the motion cumulative value MVT to obtain a new motion cumulative value MVT, and the new motion cumulative value MVT is sequentially stored, and the process returns to step ST2.
[0082]
When it is determined in step ST3 that it is a scene change and the process proceeds to step ST6, in step ST6, a swing width WT of the motion cumulative value MVT is calculated based on the sequentially stored motion cumulative value MVT, and the center of the swing width WT is an image. The initial position PS of the image display position is determined so as to be in the center of the display area.
[0083]
Next, in step ST7, it is determined whether or not the display image can enter the image display area when the image display position is moved in accordance with the accumulated motion value MVT. If the display image does not fit into the image display area, the process proceeds to step ST8, and if it does, the process proceeds to step ST9.
In step ST8, the motion vector is corrected so that the display image can enter the image display area, and the process proceeds to step ST9.
[0084]
In step ST9, the display position is determined based on the initial position PS of the image display position determined in step ST6 and the motion vector detected in step ST4 or the corrected motion vector, and the process proceeds to step ST10.
[0085]
Step ST10 performs output image division processing. Here, when three screens are used as one image display area as shown in FIG. 1, even when the display position is moved and the display image is displayed across a plurality of screens, the image can be displayed correctly. Then, the image is divided and image signals SDL, SDC, SDR corresponding to each screen are generated. As described above, the same effect can be obtained even if the input image signal SDin is processed by the computer to generate the image signals SDL, SDC, SDR.
[0086]
The above-described image processing apparatus 20 determines a continuous scene and then moves the display position based on the motion vector of the entire screen in the continuous scene. The image signals SDL, SDC, It is difficult to generate SDR in real time. For this reason, the image signals SDL, SDC, SDR are recorded on the recording medium, and then the image signals SDL, SDC, SDR recorded on the recording medium are reproduced in synchronism, thereby displaying the image shown in FIG. Is done. In addition, the input image signal SDin and the display position set by the image position moving unit 23 are related to each other and recorded on the recording medium. When the image is displayed, the input image signal SDin and the input image signal SDin are related to each other. The stored display position may be read from the recording medium to generate the image signals SDL, SDC, and SDR. In this case, since it is not necessary to record the image signals SDL, SDC, SDR, the amount of signals to be recorded can be reduced. Further, when the input image signal SDin stored in the recording medium is used to move the display position based on the motion vector of the entire screen in the continuous scene, the display position is determined after setting the image display area. Since the image signals SDL, SDC, and SDR can be generated, it is possible to easily cope with changes in the screen size and the number of screens.
[0087]
The screens and projectors in the above-described embodiments are exemplary, and if the image display area is larger than the display image size, an image display that is faithful to the real world and has a high sense of reality can be displayed as in the present invention. In addition, scene switching can be easily identified.
[0088]
Furthermore, even without creating a new video source or another format, by applying the processing of the present invention using image signals of content such as conventional television and video images, a sense of realism more than conventional video viewing is provided. Obtainable.
[0089]
【The invention's effect】
According to the present invention, an image display area larger than the image size of the display image is set, a continuous scene is determined based on the detection result of the scene change, and the display position of the display image is the display image in the image display area. Are moved based on the motion vector detected during the continuous scene. For this reason, the images of the continuous scene are moved according to the movement of the images, and it is possible to display an image that is faithful to the real world and has a high sense of reality, and can be displayed correctly while preventing the image from being interrupted.
[0090]
Also, time transition information of the motion vector is generated from the motion vector detected during the continuous scene, and the fluctuation width of the display image in the continuous scene is determined based on the time transition information. Since the display position is moved so that the display position of the display image is within the movable range of the display image in the image display area based on the determined fluctuation width, the display position is adjusted to the image display area without causing any interruption of the image. The display image can be easily moved.
[0091]
In addition, since the display position of the first display image of the continuous scene is set so that the display position of the display image corresponding to the center of the swing width is the center of the movable range based on the swing width and the movable range, Image display can be performed by effectively utilizing the image display area.
[0092]
Further, when the shake width is larger than the movable range, a correction process for reducing the motion amount of the motion vector is performed, and the display position of the display image is moved using the motion amount after the correction process. It is possible to prevent the display image from being removed from the display area. Further, since the correction process is performed when the moving direction of the display position is the outside direction of the image display area, it is possible to ensure a sense of presence even if the correction process is performed. Further, in the correction process, the reduction rate of the motion amount is increased as the display position moves away from the center of the image display area, so that a reduction in the sense of reality can be reduced.
[0093]
Furthermore, since the reference display position is set and the display position of the display image is moved from the reference display position in accordance with the detected motion vector, dynamic image display can be performed. Further, the detected motion vector is filtered, and the display position of the display image is moved from the reference display position according to the filtered motion vector, so that the display image vibrates. It is possible to prevent the quality from deteriorating. In addition, when the display position of the display image is moved from the reference display position according to the motion vector in the continuous scene, if the display image exceeds the image display area, a correction that reduces the amount of motion of the motion vector in the continuous scene Since the process is performed, it is possible to prevent the display image from being detached from the image display area.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an image display system.
FIG. 2 is a diagram illustrating an operation of generating an input image signal.
FIG. 3 is a diagram illustrating an image display state.
FIG. 4 is a diagram illustrating a configuration of an image processing apparatus.
FIG. 5 is a diagram illustrating a configuration of a scene change detection unit.
FIG. 6 is a diagram illustrating a relationship between a frame position and a normalized value.
FIG. 7 is a diagram illustrating pixel thinning.
FIG. 8 is a diagram illustrating another configuration of a scene change detection unit.
FIG. 9 is a diagram illustrating a relationship between a frame position and a correlation coefficient.
FIG. 10 is a diagram illustrating a configuration of a motion detection unit.
FIG. 11 is a diagram illustrating a configuration of an image position moving unit.
FIG. 12 is a diagram illustrating a configuration of an image position determination circuit.
FIG. 13 is a diagram for explaining the operation of the image processing apparatus.
FIG. 14 is a diagram for explaining the operation of the image position determination circuit.
FIG. 15 is a diagram for explaining another operation of the image position determination circuit.
FIG. 16 is a diagram showing a display position when the motion amount is corrected and a display position when the motion amount is not corrected.
FIG. 17 is a diagram illustrating display positions when the display position is moved from the reference display position by a motion vector and when the display position is sequentially moved based on the motion vector.
FIG. 18 is a diagram illustrating a display position when filter processing is performed and a display position when filter processing is not performed.
FIG. 19 is a diagram illustrating a configuration when a computer is used.
FIG. 20 is a flowchart illustrating an overall configuration of an image processing program.
FIG. 21 is a flowchart showing an operation of scene discrimination.
[Explanation of symbols]
10L, 10C, 10R ... screen, 12L, 12C, 12R ... projector, 20 ... image processing device, 21 ... scene change detector, 22 ... motion detector, 23 ... image Position moving unit, 211, 211, 233 ... delay circuit, 212 ... difference average calculation circuit, 213 ... luminance average calculation circuit, 214 ... normalization circuit, 215, 217 ... determination circuit, 216: correlation coefficient calculation circuit, 222: image position switching circuit, 223: difference calculation circuit, 224 ... minimum value determination circuit, 231 ... image position determination circuit, 232 ... motion Accumulation circuit, 233 ... initial position determination circuit, 234 ... display range determination circuit, 235 ... motion correction circuit, 236 ... display position determination circuit, 237 ... write / read control circuit, 238 ..Image memo , 239 ... image dividing circuit, 301 ··· CPU, 302 ··· ROM, 303 ··· RAM, 314 ··· image signal input unit, 315 ... image signal output section

Claims (17)

入力画像信号に基づく表示画像の動きベクトルを検出する動き検出手段と、
前記表示画像の連続シーンを判別することによりシーンチェンジを検出するシーンチェンジ検出手段と、
前記表示画像の画像サイズよりも大きい画像表示領域を設定して、該画像表示領域に
対する前記表示画像の表示位置を移動させる画像移動手段とを設け、
前記画像移動手段は、前記シーンチェンジ検出手段での前記シーンジェンジの検出結果に基づき判別された前記連続シーンの期間中に前記動き検出手段で検出された動きベクトルの時間推移に基づいて前記連続シーンにおける前記表示画像の振れ幅を判別し、該振れ幅に基づき前記表示画像の表示位置が前記画像表示領域における前記表示画像の移動可能範囲内となるように表示位置を移動させる画像処理装置。
Motion detection means for detecting a motion vector of a display image based on an input image signal;
Scene change detection means for detecting a scene change by determining a continuous scene of the display image;
Image moving means for setting an image display area larger than the image size of the display image and moving the display position of the display image relative to the image display area;
The image moving means, the continuous based on the time course of the scene the scene Zhen di detection result based discriminated detected motion vector in the motion detecting means during the period of the continuous scene of change detection means to determine the amplitude of the displayed image in the scene, the movable range in the images processing was Ru move the display position so that the picture display position of the display image based on the shake width in the image display area apparatus.
前記画像移動手段は、前記振れ幅と前記移動可能範囲に基づき、前記振れ幅の中央に対応する表示画像の表示位置が前記移動可能範囲の中央となるように、前記連続シーンの最初の表示画像の表示位置を設定する請求項記載の画像処理装置。The image moving means is the first display image of the continuous scene based on the shake width and the movable range so that the display position of the display image corresponding to the center of the shake width is the center of the movable range. the image processing apparatus of the display Motomeko 1, wherein the position to set the. 前記画像移動手段は、前記振れ幅が前記移動可能範囲よりも大きいときには、前記動きベクトルの動き量を縮小させる補正処理を行い、該補正処理後の動き量を用いて前記表示画像の表示位置を移動させる請求項記載の画像処理装置。The image moving means performs a correction process for reducing the amount of motion of the motion vector when the fluctuation width is larger than the movable range, and uses the motion amount after the correction process to determine the display position of the display image. the image processing apparatus Motomeko 1 wherein Ru was moved. 前記画像移動手段は、前記表示位置の移動方向が前記画像表示領域の外側方向であるときに前記補正処理を行う請求項記載の画像処理装置。The image moving means, the correction processing image processing apparatus of rows cormorants請 Motomeko 3 describes when a moving direction of the display position is outside direction of the image display area. 前記画像移動手段は、前記補正処理において、前記表示位置が前記画像表示領域の中央から離れるに伴い前記動き量の縮小率を大きくする請求項記載の画像処理装置。The image moving means, the correction in processing, the display position is the image processing apparatus of the accompanying Motomeko 1, wherein you increase the reduction ratio of the motion amount away from the center of the image display area. 前記画像移動手段は、基準表示位置を設定し、前記動き検出手段で検出された動きベクトルに応じて前記表示画像の表示位置を前記基準表示位置から移動させる請求項1記載の画像処理装置。Said image moving unit sets the reference display position, the image processing apparatus of the motion Motomeko 1 wherein Before moving the display position of the display image from the reference display position in accordance with the motion vector detected by the detection means . 前記動き検出手段で検出された動きベクトルに対してフィルタ処理を行う低域フィルタ手段を設け、前記画像移動手段は、前記低域フィルタ手段でフィルタ処理が行われた動きベクトルに応じて前記表示画像の表示位置を前記基準表示位置から移動させる請求項記載の画像処理装置。Low-pass filter means for performing filter processing on the motion vector detected by the motion detection means is provided, and the image moving means is configured to display the display image according to the motion vector that has been filtered by the low-pass filter means. the image processing apparatus of the display position Motomeko 6 wherein Before moving from the reference display position. 前記画像移動手段は、前記連続シーン内の動きベクトルに応じて前記表示画像の表示位置を前記基準表示位置から移動させたときに、前記表示画像が前記画像表示領域を超える場合、前記連続シーン内の動きベクトルの動き量を縮小させる補正処理を行う請求項記載の画像処理装置。When the display image exceeds the image display area when the display position of the display image is moved from the reference display position according to a motion vector in the continuous scene, the image processing apparatus of the motion vector the motion amount to reduction correction processing line cormorants請 Motomeko 6, wherein the. 入力画像信号に基づく表示画像の動きベクトルを検出し、
前記表示画像の連続シーンを判別することによりシーンチェンジを検出し、
前記表示画像の画像サイズよりも大きい画像表示領域を設定すると共に、前記シーンジェンジの検出結果に基づき判別された連続シーンの期間中に動き検出手段で検出された動きベクトルの時間推移に基づいて前記連続シーンにおける前記表示画像の振れ幅を判別し、該振れ幅に基づき前記表示画像の表示位置が画像表示領域における表示画像の移動可能範囲内となるように表示位置を移動させる画像処理方法。
Detect the motion vector of the display image based on the input image signal,
Detecting a scene change by determining a continuous scene of the display image,
An image display area larger than the image size of the display image is set, and based on the temporal transition of the motion vector detected by the motion detection means during the continuous scene determined based on the detection result of the scene genge the amplitude of the displayed image to determine the movement range in the images processing was Ru move the display position so that the picture display position of the display image based on the shake width in the image display area in the continuous scene Method.
前記振れ幅と前記移動可能範囲に基づき、前記振れ幅の中央に対応する表示画像の表示位置が前記移動可能範囲の中央となるように、前記連続シーンの最初の表示画像の表示位置を設定する請求項記載の画像処理方法。Based on the swing width and the movable range, the display position of the first display image of the continuous scene is set so that the display position of the display image corresponding to the center of the swing width is the center of the movable range. that請 Motomeko 9 image processing method according. 前記振れ幅が前記移動可能範囲よりも大きいときには、前記動きベクトルの動き量を縮小させる補正処理を行い、該補正処理後の動き量を用いて前記表示画像の表示位置を移動させる請求項記載の画像処理方法。Wherein when amplitude is greater than the movable range, performs correction processing to reduce the amount of motion of the motion vector, Motomeko Before moving the display position of the display image using the motion amount after the correction 10. The image processing method according to 9 . 前記表示位置の移動方向が前記画像表示領域の外側方向であるときに前記補正処理を行う請求項11記載の画像処理方法。Wherein the correction processing line cormorants the Motomeko 11 image processing method according to when the moving direction of the display position is outside direction of the image display area. 前記補正処理において、前記表示位置が前記画像表示領域の中央から離れるに伴い前記動き量の縮小率を大きくする請求項記載の画像処理方法。Wherein in the correction process, the image processing method of the display position Motomeko 9 wherein you increase the reduction ratio of the motion amount with the distance from the center of the image display area. 基準表示位置を設定し、前記検出された動きベクトルに応じて前記表示画像の表示位置を前記基準表示位置から移動させる請求項記載の画像処理方法。Set the reference display position, the detected motion vector Motomeko 9 image processing according methods Before moving the display position of the display image from the reference display position according to. 前記検出された動きベクトルに対してフィルタ処理を行い、該フィルタ処理が行われた動きベクトルに応じて前記表示画像の表示位置を前記基準表示位置から移動させる請求項14記載の画像処理方法。Performs filter processing on the detected motion vector, image processing method Motomeko 14 wherein Before moving from the reference display position the display position of the display image according to the motion vector which the filter processing has been performed . 前記連続シーン内の動きベクトルに応じて前記表示画像の表示位置を前記基準表示位置から移動させたときに、前記表示画像が前記画像表示領域を超える場合、前記連続シーン内の動きベクトルの動き量を縮小させる補正処理を行う請求項14記載の画像処理方法。If the display image exceeds the image display area when the display position of the display image is moved from the reference display position according to the motion vector in the continuous scene, the amount of motion of the motion vector in the continuous scene the image processing method of the correction processing line cormorants請 Motomeko 14, wherein to reduce the. コンピュータに、
入力画像信号に基づく表示画像の動きベクトルを検出する手順と、
前記表示画像の連続シーンを判別することによりシーンチェンジを検出する手順と、
前記表示画像の画像サイズよりも大きい画像表示領域を設定すると共に、前記シーンジェンジの検出結果に基づき判別された連続シーンの期間中に動き検出手段で検出された動きベクトルの時間推移に基づいて前記連続シーンにおける前記表示画像の振れ幅を判別し、該振れ幅に基づき前記表示画像の表示位置が画像表示領域における表示画像の移動可能範囲内となるように表示位置を移動させる手順とを実行させる画像処理プログラム。
On the computer,
A procedure for detecting a motion vector of a display image based on an input image signal;
A procedure for detecting a scene change by determining a continuous scene of the display image;
An image display area larger than the image size of the display image is set, and based on the temporal transition of the motion vector detected by the motion detection means during the continuous scene determined based on the detection result of the scene genge A step of determining a shake width of the display image in the continuous scene and moving the display position based on the shake width so that the display position of the display image is within a movable range of the display image in the image display area. images processing program that Ru is.
JP2002058917A 2002-03-05 2002-03-05 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP4131113B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002058917A JP4131113B2 (en) 2002-03-05 2002-03-05 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002058917A JP4131113B2 (en) 2002-03-05 2002-03-05 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2003256846A JP2003256846A (en) 2003-09-12
JP4131113B2 true JP4131113B2 (en) 2008-08-13

Family

ID=28668758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002058917A Expired - Fee Related JP4131113B2 (en) 2002-03-05 2002-03-05 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP4131113B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101108634B1 (en) * 2004-01-06 2012-01-31 소니 주식회사 Image processing device and image processing method and recording medium
JP4924131B2 (en) * 2007-03-20 2012-04-25 ソニー株式会社 Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program
JP2010278997A (en) * 2009-06-01 2010-12-09 Sharp Corp Image processing device, image processing method, and program
JP5439474B2 (en) * 2009-08-31 2014-03-12 パナソニック株式会社 Image display control device, image display control method, and integrated circuit
JP2013026943A (en) * 2011-07-25 2013-02-04 Sharp Corp Stereoscopic image processing apparatus and stereoscopic image processing method

Also Published As

Publication number Publication date
JP2003256846A (en) 2003-09-12

Similar Documents

Publication Publication Date Title
JP4823179B2 (en) Imaging apparatus and imaging control method
US7916177B2 (en) Image-capturing apparatus, image-capturing method and program for detecting and correcting image blur
JP2951230B2 (en) Method for generating 3D image from 2D image
JP5592006B2 (en) 3D image processing
US20120105657A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
JP4924228B2 (en) Image processing apparatus, image processing method, and program
JP2007295559A (en) Video processing and display
CN109936697B (en) Video shooting target tracking method and device
JP2013172446A (en) Information processor, terminal, imaging apparatus, information processing method, and information provision method in imaging apparatus
JP2012119804A (en) Image recorder
JP4131113B2 (en) Image processing apparatus, image processing method, and image processing program
WO2012097020A1 (en) Determining a stereo image from video
JP3327520B2 (en) Shooting method with NG warning function, shooting apparatus with NG warning function, and recording medium storing shooting program
JPH08336128A (en) Video viewing device
JP3832362B2 (en) Image processing apparatus, image processing method, and image processing program
JP3982316B2 (en) Image processing apparatus, image processing method, and image processing program
JP2006246307A (en) Image data processing device
JP4924131B2 (en) Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program
JP3213105B2 (en) Video composition automatic decision processing method
JP4687748B2 (en) Video processing apparatus, video processing method, program and recording medium, and video processing system
JP3128467B2 (en) How to convert 2D video to 3D video
JP6346529B2 (en) Imaging device, control method thereof, and program
JP3209234B2 (en) Representative screen extraction method
JP4211324B2 (en) Video processing apparatus, video processing method, program and recording medium, and video processing system
JP7175941B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD FOR IMAGE PROCESSING APPARATUS, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050228

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080331

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080430

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080513

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees