JP4015010B2 - Image processing apparatus, image forming apparatus, image processing method, program for realizing the image processing method, and recording medium storing the program - Google Patents
Image processing apparatus, image forming apparatus, image processing method, program for realizing the image processing method, and recording medium storing the program Download PDFInfo
- Publication number
- JP4015010B2 JP4015010B2 JP2002339779A JP2002339779A JP4015010B2 JP 4015010 B2 JP4015010 B2 JP 4015010B2 JP 2002339779 A JP2002339779 A JP 2002339779A JP 2002339779 A JP2002339779 A JP 2002339779A JP 4015010 B2 JP4015010 B2 JP 4015010B2
- Authority
- JP
- Japan
- Prior art keywords
- component signal
- signal
- image
- correlation
- inter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Of Color Television Signals (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、コンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離して処理する画像処理装置、画像形成装置、画像処理方法、その画像処理方法を実現するためのプログラム、及びそのプログラムを記憶した記録媒体に関する。
【0002】
【従来の技術】
近年、カラーテレビジョン画像の画質向上のために、カラーテレビジョン信号を多様な方法で処理している。一般的なNTSC(National Television System Committee)方式及びPAL(Phase Alternating Line)方式等のコンポジットカラーテレビジョン信号は、輝度コンポーネント信号(以下Y信号と称する)や色コンポーネント信号(以下C信号と称する)を多重化したものであって、該各信号を多重化した状態で送受する。このため、受信側では、コンポジットカラーテレビジョン信号をY信号及びC信号に分離する必要がある。
【0003】
コンポジットカラーテレビジョン信号は、C信号をY信号の高周波領域に多重化することにより構成されており、その低周波成分のY信号とその高周波成分のC信号とを分離するために水平方向バンドパスフィルタが広く用いられている。しかしながら、水平方向バンドパスフィルタを用いた場合は、水平解像度の低下が発生したり、Y信号の一部がC信号として誤って扱われることに起因するクロストークと称される色にじみが発生し易かった。
【0004】
このため、最近では、水平解像度の低下を招かずに済むくし形フィルタを用いることが多くなっている。ところが、このくし形フィルタを用いた場合は、C信号の垂直方向の相関が低くなり、垂直方向の高周波成分が存在すると、これがY信号に漏れ出して、クロストークを招いた。
【0005】
そこで、この様なフィルタによるY信号及びC信号の分離に代わって、Y信号及びC信号(映像信号)に固有のフィールド内走査線間相関やフレーム間相関を利用して、Y信号及びC信号を分離するという方式が提案されている。
【0006】
コンポジットカラーテレビジョン信号では、奇数フィールド及び偶数フィールドのいずれについても、フィールド内の隣接する各走査線間の映像信号の位相に着目すれば、Y信号が同位相で、C信号が逆位相となっている。かつ、フィールド内の隣接する各走査線間の映像信号の振幅に着目すれば、Y信号及びC信号のいずれについても相関がある。このため、隣接する各走査線間の映像信号の和を求めると、Y信号の振幅が2倍となり、C信号が略相殺されることになる。また、隣接する各走査線間の映像信号の差を求めると、Y信号が略相殺され、C信号の振幅が2倍となる。従って、これらの和と差の1/2をY信号及びC信号として求めることができる。
【0007】
また、連続する各フレームの奇数フィールド間、及び該各フレームの偶数フィールド間についても、Y信号が同位相で、C信号が逆位相となり、かつY信号に相関があり、C信号に相関がある。このため、連続する各フレームの奇数フィールド及び偶数フィールド別に、映像信号の和を求めると、Y信号の振幅が2倍となり、C信号が略相殺されることになり、また映像信号の差を求めると、Y信号が略相殺され、C信号の振幅が2倍となる。従って、これらの和と差の1/2をY信号及びC信号として求めることができる。
【0008】
この様にフィールド内の隣接する各走査線間の相関、及び連続する各フレーム間の相関のいずれを利用しても、Y信号及びC信号を分離することができる。
【0009】
しかしながら、いずれの相関を利用するにしても、相関の度合いが高ければ、Y信号及びC信号を確実分離することができるものの、相関の度合いが低ければ、Y信号及びC信号の分離精度が低下する。例えば、画面の水平輪郭部分に位置する走査線については、該走査線を含む各走査線間の相関の度合いが低く、Y信号及びC信号の分離精度が低下する。また、連続する各フレーム間での画像の動きが激しいときには、該各フレーム間の相関の度合いが低下するので、Y信号及びC信号の分離精度が低下する。
【0010】
このため、フィールド内の隣接する各走査線間の相関、及び連続する各フレーム間の相関を適宜に使い分けるという方法もある。この方法は、各走査線間の相関により求められたY信号及びC信号及び各フレーム間の相関により求められたY信号及びC信号をそれぞれ重み付けし、画像の動きが小さいときには、各フレーム間の相関により求められたY信号及びC信号の重み付けを大きくし、また画像の動きが大きいときには、各走査線間の相関により求められたY信号及びC信号の重み付けを大きくし、これによりY信号及びC信号の分離精度の低下を防止するというものである。
【0011】
例えば、特許文献1に記載の技術では、フレーム間動き検出回路と、フィールド間動き検出回路と、フレーム間動き検出回路からの検出出力及びフィールド間動き検出回路からの検出出力を取り込み、これらの検出出力を混合して出力する動き信号混合回路と、動き信号混合回路による混合条件を決定する動き検出制御回路とを備えており、フレーム間の動きとフィールド間の動きを混合することにより動きの検出精度を向上させ、かつ動き信号混合回路の1走査線分の出力と1フィールドだけ遅延させた1走査線分の出力との差を用いて、動き信号混合回路による混合条件を決定し、これによりY信号及びC信号の分離精度を向上させている。
【0012】
【特許文献1】
特許第3040251号公報
【0013】
【発明が解決しようとする課題】
しかしながら、上記公報の技術では、フレーム間の動きを検出するために、2フレーム分の映像信号を記憶するメモリを設けることは最小限必要であるにしても、その上に混合条件を決定するために、動き信号混合回路の出力を1フィールド分遅延させるためのメモリを必要とするので、メモリが大容量化するという問題点があった。
【0014】
そこで、本発明は、上記従来の問題点に鑑みてなされたものであり、メモリの大容量化を招かずに、Y信号及びC信号の分離精度を向上させることが可能な画像処理装置を提供することを目的とする。
【0015】
また、本発明は、画像処理装置だけではなく、この画像処理装置を備える画像形成装置、画像処理方法、その画像処理方法を実現するためのプログラム、及びそのプログラムを記憶した記録媒体を提供することを目的とする。
【0016】
【課題を解決するための手段】
上記課題を解決するために、本発明は、画像を示すコンポジットカラーテレビジョン信号を入力し、このコンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離するYC分離処理手段を備える画像処理装置において、YC分離処理手段は、フィールド内走査線間相関を用いて、コンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離するYC分離部と、分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方の2フレーム分を用いて、画像の動きを検知する動き検知部と、検知された画像の動きに基づいて、輝度コンポーネント信号もしくは色コンポーネント信号の補正処理を行うか否かを判定し、補正処理を行うと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号を補正してから出力し、補正処理を行わないと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号をそのまま出力する補正部とを備えている。
【0017】
この様な構成の本発明によれば、コンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離し、分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方の2フレーム分を用いて、画像の動きを検知し、画像の動きがなければ、輝度コンポーネント信号及び色コンポーネント信号を補正して出力し、画像の動きがあれば、Y信号及びC信号をそのまま出力し、この結果として輝度コンポーネント信号及び色コンポーネント信号の分離精度を向上させている。また、2フレーム分の映像信号を記憶するメモリ容量だけで、一連の処理が可能であり、メモリの大容量化を招かずに済む。
【0018】
また、本発明においては、動き検知部は、輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方について、第1フレームにおける偶数フィールド及び第2フレームにおける奇数フィールドの和と第1フレームにおける奇数フィールド及び第2フレームにおける偶数フィールドの和との差の絶対値、第1フレームにおける偶数フィールドと第2フレームにおける偶数フィールドの差の絶対値、及び第1フレームにおける奇数フィールドと第2フレームにおける奇数フィールドの差の絶対値を求め、これらの絶対値をフレーム間相関として用いて、画像の動きを検知している。
【0019】
ここでは、特に第1フレームにおける偶数フィールド及び第2フレームにおける奇数フィールドの和と第1フレームにおける奇数フィールド及び第2フレームにおける偶数フィールドの和との差の絶対値をフレーム間相関の一部として用いて、画像の動きを検知していることから、色コンポーネント信号が輝度コンポーネント信号に漏れ出しても(クロストークが発生しても)、画像の動きを正確に検知することが可能になる。
【0020】
更に、本発明においては、動き検知部は、輝度コンポーネント信号及び色コンポーネント信号の少なくとも一方について、複数の画素からなる各画素ブロック別に、画素ブロックの和又は平均値を求め、各画素ブロックの和又は平均値を用いて、画素ブロック単位でフレーム間相関を求めている。
【0021】
この様に画素ブロック単位でフレーム間相関を求めれば、演算処理を簡略化したり、クロストークの影響を軽減することができる。
【0022】
また、本発明においては、動き検知部は、注目画素ブロックのフレーム間相関と該注目画素ブロックに隣接する他の画素ブロックのフレーム間相関の和又は平均値を求め、この和又は平均値を注目画素ブロックのフレーム間相関として置き換えている。
【0023】
これにより、孤立した注目画素ブロックの動き検知精度の劣化を低減させることができる。
【0024】
更に、本発明においては、動き検知部は、輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方について、フレームにおける各フィールドの差の絶対値を求め、この絶対値をフィールド間相関として用いて、画像の動きを検知している。
【0025】
この様なフィールド間相関によっても、画像の動きを検知することができる。
【0026】
また、本発明においては、動き検知部は、輝度コンポーネント信号及び色コンポーネント信号の少なくとも一方について、複数の画素からなる各画素ブロック別に、画素ブロックの和又は平均値を求め、各画素ブロックの和又は平均値を用いて、画素ブロック単位で、フィールド間相関を求めている。
【0027】
この様に画素ブロック単位でフィールド間相関を求めれば、演算処理を簡略化したり、クロストークの影響を軽減することができる。
【0028】
更に、本発明においては、動き検知部は、注目画素ブロックのフィールド間相関と該注目画素ブロックに隣接する他の画素ブロックのフィールド間相関の和又は平均値を求め、この和又は平均値を注目画素ブロックのフィールド間相関として置き換えている。
【0029】
これにより、孤立した注目画素ブロックの動き検知精度の劣化を低減させることができる。
【0030】
また、本発明においては、動き検知部により検知された画像の動きに基づいて、画像のシーンの変化があるか否かを判定するシーン変化判定部を備え、シーン変化判定部によりシーンの変化があると判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正部を介さずにそのまま出力し、シーン変化判定部によりシーンの変化がないと判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正部を介して出力している。
【0031】
この様にシーン変化判定部を更に設けることにより、補正部の処理を軽減することができ、処理速度が向上する。あるいは、シーン変化がなく、画像の動きもないときにだけ、補正処理を行っているので、この補正処理を簡単化することができる。
【0032】
更に、本発明においては、動き検知部は、輝度コンポーネント信号及び色コンポーネント信号の少なくとも一方について、複数の画素からなる各画素ブロック別に、画素ブロックの和又は平均値を求め、各画素ブロックの和又は平均値を用いて、画素ブロックが静止画素ブロック及び動画素ブロックのいずれであるかを判定し、シーン変化判定部は、画像の各走査線別に、走査線上の各画素ブロックに含まれる動画素ブロックの割合に応じて、走査線にシーンの変化があるか否かを判定している。
【0033】
この様に走査線上の各画素ブロックに含まれる動画素ブロックの割合に応じて、走査線にシーンの変化があるか否かを判定すれば、この判定を容易に行うことができ、判定処理が簡単化される。
【0034】
一方、本発明は、画像を示すコンポジットカラーテレビジョン信号を入力し、このコンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離するYC分離処理手段を備える画像処理装置において、YC分離処理手段は、フィールド内走査線間相関を用いて、コンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離するYC分離部と、分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方についてフレーム間相関を求め、このフレーム間相関を用いて画像の動きを検知する第1動き検知部と、第1動き検知部により検知された画像の動きに基づいて、画像のシーンの変化があるか否かを判定するシーン変化判定部と、分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方についてフィールド間相関を求め、このフィールド間相関及び第1動き検知部により求められたフレーム間相関を用いて画像の動きを検知する第2動き検知部と、第2動き検知部により検知された画像の動きに基づいて、輝度コンポーネント信号もしくは色コンポーネント信号の補正処理を行うか否かを判定し、補正処理を行うと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号を補正してから出力し、補正処理を行わないと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号をそのまま出力する補正部とを備え、シーン変化判定部によりシーンの変化があると判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正部を介さずにそのまま出力し、シーン変化判定部によりシーンの変化がないと判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正部を介して出力している。
【0035】
この様な構成の本発明によっても、輝度コンポーネント信号及び色コンポーネント信号の分離精度を向上させることができる。また、常に、第1動き検知部による動きの検知が行われ、シーン変化がないときにだけ、第2動き検知部による動きの検知が行われることから、一連の動きの検知処理速度が向上する。更に、2フレーム分の映像信号を記憶するメモリ容量だけで、一連の処理が可能であり、メモリの大容量化を招かずに済む。
【0036】
また、本発明は、画像処理装置だけではなく、表示装置やプリンタ等の画像形成装置、画像処理方法、その方法を実施するためのプログラム、及びそのプログラムを記憶した記録媒体を包含する。
【0037】
プログラムは、磁気ディスク、光ディスク、コンピュータに内蔵のハードディスク等の記録媒体に記録されたり、通信ネットワークを通じて送受される。コンピュータやマイクロプロセッサ内蔵の端末装置等は、プログラムを記録媒体から読み出したり、プログラムを通信ネットワークを通じて受信し、このプログラムを実行して、本発明を実施することができる。コンピュータ等の端末装置及びネットワーク等からなるシステムにおいては、複数の処理をコンピュータ等の端末装置に分散して行い得る。従って、プログラムは、コンピュータ等の単一の端末装置だけではなく、システムにも適用し得る。
【0038】
記録媒体としては、マスクROM、EPROM、EEPROM、フラッシュROMといった半導体記憶素子、ICカード、ハードディスク、フレキシブルディスク、あるいはMO、CD、MD、DVD等の光ディスク、磁気テープ等を挙げることができ、プログラムを記録することが可能であれば他の種類の記録媒体であっても良い。
【0039】
【発明の実施の形態】
以下、本発明の実施形態を添付図面を参照して詳細に説明する。
【0040】
図1は、本発明の画像処理装置の第1実施形態を示すブロック図である。本実施形態の画像処理装置10では、コンポジットカラーテレビジョン信号を入力し、このコンポジットカラーテレビジョン信号を輝度コンポーネント信号(以下Y信号と称する)及び色コンポーネント信号(以下C信号と称する)に分離するものであり、更に、これらのY信号及びC信号を処理して、これらのY信号及びC信号によって示される画像をプリントアウトする。
【0041】
この画像処理装置10は、コンポジットカラーテレビジョン信号を入力する入力手段(チューナー)11と、このコンポジットカラーテレビジョン信号をY信号及びC信号に分離するYC分離手段12と、C信号をCbコンポーネント信号及びCrコンポーネント信号に復調する色差復調手段13と、Y信号、Cbコンポーネント信号、及びCrコンポーネント信号に対して先鋭化処理を施すフィルタ処理手段14と、該各信号に対して拡大縮小処理を施す解像度変換処理手段15と、該各信号を例えばシアン、マゼンタ、イエロー、ブラックの各信号に変換してプリンタ等のデバイス色空間に適合させる色変換手段16と、シアン、マゼンタ、イエローの各信号に対して中間調処理を施すハーフトーン手段17とを備えている。Y信号及びC信号によって示される画像を表示装置に出力する場合は、上記色変換手段は上記信号を表示装置用のRGB(R:赤、G:緑、B:青)信号に変換し、表示装置のγ特性に応じてγ補正処理を行い、画像出力データとして出力される。尚、該各手段11〜17は、ディジタル信号を扱っており、CPU(Central Processing Unit)等により制御される。
【0042】
プリンタ部18は、電子写真方式やインクジェット方式のものであり、シアン、マゼンタ、イエロー、ブラックの各信号をハーフトーン手段17から入力し、該該各信号によって示される画像を記録用紙に印刷する。尚、プリンタ部18は、ネットワークを介して接続されても良いし、また複写機能等を備える複合機であっても構わない。更に、プリンタ部18の代わりに、画像の表示装置や記憶装置等を接続しても良い。
【0043】
さて、本実施形態では、YC分離手段12として図2に示す様な構成のものを適用しており、これによりY信号及びC信号の分離精度を向上させている。このYC分離手段12は、連続する各フレームのディジタル化されたコンポジットカラーテレビジョン信号に対してフィールド内走査線間相関(垂直相関)を用いたYC分離処理を行うことにより、コンポジットカラーテレビジョン信号をY信号及びC信号に分離するYC分離部21と、YC分離部21により分離抽出されたY信号についてフィールド間相関及びフレーム間相関を求め、これらの相関に基づいて画像の動きを検知する動き検知部22と、この検知された画像の動きに基づいてY信号もしくはC信号の補正処理を行うか否かを判定し、補正処理を行うと判定した場合は、Y信号及びC信号を補正してから出力し、補正処理を行わないと判定した場合は、Y信号及びC信号をそのまま出力する補正部23とを備えている。
【0044】
図3は、シーン変化判定部24を追加したYC分離手段12Aの構成を示している。
【0045】
シーン変化判定部24は、動き検知部22により検知された画像の動きに基づいて、連続する各フレーム間にシーン変化があるか否かを判定し、シーン変化がなければ、Y信号及びC信号を補正部23に出力し、またシーン変化があれば、Y信号及びC信号をそのまま出力する。従って、シーン変化がないときには、Y信号及びC信号が補正部23を通じて出力され、またシーン変化があるときには、YC分離部21によりフィールド内走査線間相関を用いて分離されたY信号及びC信号がそのまま出力されることになる。
【0046】
次に、YC分離部21、動き検知部22、シーン変化判定部24、及び補正部23について、更に詳細に説明する。
【0047】
YC分離部21は、フィールド内走査線間相関に基づいて、YC分離処理を行う。コンポジットカラーテレビジョン信号は、奇数フィールド及び偶数フィールドのいずれについても、フィールド内の隣接する各走査線間の映像信号(Y信号及びC信号)の位相に着目すれば、Y信号が同位相で、C信号が逆位相となっている。かつ、フィールド内の隣接する各走査線間の映像信号の振幅に着目すれば、Y信号及びC信号のいずれについても相関がある。このため、隣接する各走査線間の映像信号の和を求めると、Y信号の振幅が2倍となり、C信号が略相殺される。また、隣接する各走査線間の映像信号の差を求めると、Y信号が略相殺され、C信号の振幅が2倍となる。従って、これらの和と差の1/2をY信号及びC信号として求めることができる。
【0048】
動き検知部22は、YC分離部21によって分離されたY信号を1フレーム分遅延させ、この遅延された1フレーム分のY信号及び該フレームに引き続く次の1フレーム分のY信号を用いて、Y信号についてのフィールド間相関及びフレーム間相関を求め、これらのフィールド間相関及びフレーム間相関に基づいて画像の動きを検知する。
【0049】
ここで、フレーム間相関に関しては、連続する第1及び第2フレームの奇数フィールド間、及び第1及び第2フレームの偶数フィールド間では、Y信号が同位相となることから、例えば第1及び第2フレームの奇数フィールド及び偶数フィールド別に、Y信号の差を求め、この差をフレーム間相関とするという方法が考えられる。
【0050】
ところが、YC分離部21による処理に誤差が生じ、C信号の一部がY信号に漏れ出した場合は(クロストークが発生した場合は)、第1及び第2フレーム間の相関が高くても、第1及び第2フレームのフィールド間のY信号の差が0とならず、Y信号が完全に相殺されない。このため、第1及び第2フレーム間のフレーム間相関が低いと判定されてしまい、第1及び第2フレーム間に動きがあることになる。
【0051】
そこで、動き検知部22では、Y信号について、第1フレームにおける偶数フィールドと第2フレームにおける偶数フィールドの差の絶対値、及び第1フレームにおける奇数フィールドと第2フレームにおける奇数フィールドの差の絶対値を求めるだけではなく、第1フレームにおける偶数フィールド及び第2フレームにおける奇数フィールドの和と第1フレームにおける奇数フィールド及び第2フレームにおける偶数フィールドの和との差の絶対値を求め、更に該各絶対値の和を求めて、この和をフレーム間相関を示すフレーム間差分値として用い、このフレーム間差分値に基づいて画像の動きを検知している。これにより、C信号の一部がY信号に漏れ出しても(クロストークが発生しても)、画像の動きを正確に検知することが可能になる。
【0052】
図4は、C信号についての第1及び第2フレーム間の相関を示している。この図4に示す様に第1フレームNにおける264番目の走査線(偶数フィールド)及び2番目の走査線(奇数フィールド)と、第2フレーム(N+1)における264番目の走査線(偶数フィールド)及び2番目の走査線(奇数フィールド)に着目すると、第1フレームNにおける偶数フィールドと第2フレーム(N+1)における奇数フィールド間ではC信号が逆位相となり、第1フレームNにおける奇数フィールドと第2フレーム(N+1)における偶数フィールド間でもC信号が逆位相となる。このため、C信号の一部がY信号に混入していたとしても、Y信号について、第1フレームにおける偶数フィールド及び第2フレームにおける奇数フィールドの和を求めれば、Y信号が2倍になるだけではなく、混入したC信号が相殺され、また第1フレームにおける奇数フィールド及び第2フレームにおける偶数フィールドの和を求めれば、Y信号が2倍になるだけではなく、やはり混入したC信号が相殺される。従って、これらの和の差の絶対値は、クロストークを反映せず、第1及び第2フレーム間の相関を示すものとなる。勿論、第1フレームNにおける265番目以降の走査線及び3番目以降の走査線と、第2フレーム(N+1)における265番目以降の走査線及び3番目以降の走査線についても同様の処理により、第1及び第2フレーム間の相関を正確に求めることができる。
【0053】
一方、フィールド間相関に関しては、Y信号について、第1フレームにおける各フィールド間の差の絶対値にオフセット値(例えば16)を加えた値を求めて、この値を第1フィールド間差分値として用い、第2フレームにおける各フィールド間の差の絶対値にオフセット値(例えば16)を加えた値を求めて、この値を第2フィールド間差分値として用いる。
【0054】
先に述べた様にフレーム間差分値が3つの絶対値の和であることから、動きのある画像のときには、フレーム間差分値が第1及び第2フィールド間差分値よりも大きくなる傾向にある。従って、フィールド間相関は、静止画像のときの垂直相関を表す特徴として用いられていると言える。また、オフセット値は、フレーム間差分値が僅かに増大しただけでは、フレーム間差分値が第1及び第2フィールド間差分値を超えることなく、フレーム間相関が高いと判定される様にするためのものである。この結果として、補正部23による補正の機会が多くなって、クロストークが低減される。
【0055】
更に、YC分離部21によりフィールド内ライン相関に基づいてYC分離されたY信号がC信号を含んでいるため(クロストークがある)、このクロストークによる動き検知精度の低下を防止するべく、図5に示す様な近傍4×1画素ブロックのY信号の和について、フレーム間差分値と第1及び第2フィールド間差分値を求めている。
【0056】
ここで、NTSC方式の映像信号をNTSCとし、赤、緑、及び青の信号をR,G,Bとし、カラーサブキャリア周波数をfscとすると、Y信号及びC信号を次の関係式(1)から導くことができる。
【0057】
【数1】
この映像信号NSTCを復調するに際し、C信号からIQ成分を分離する必要がある。NTSC方式では、カラーサブキャリア周波数fscの整数倍のサンプリング周波数でC信号をサンプリングすることにより、C信号をIQ成分に復調している。カラーサブキャリア周波数fscの4倍のサンプリング周波数をNTSC-4fscと称している。このサンプリング周波数NTSC-4fscでC信号をサンプリングすることにより、次の関係式(2)に示す様なI、Q、−I、−Qを復調することができる。
【0058】
【数2】
従って、YC分離部21によりフィールド内ライン相関に基づいてYC分離されたY信号及びC信号には、サンプリング周波数に依存した周期でクロストークが発生する。そこで、図5に示す近傍4×1画素ブロックのY信号の和について、フレーム間差分値と第1及び第2フィールド間差分値を求めて、クロストークの影響を軽減する。
【0059】
次に、図6のフローチャートに従って、フレーム間差分値と第1及び第2フィールド間差分値を求め、これらの差分値に基づいて画像の動きを検知するための処理手順を説明する。
【0060】
まず、図7に示す様に画像から注目画素ブロックを抽出し、この注目画素ブロックのY信号の和について、フレーム間差分値と第1及び第2フィールド間差分値を求め、また該注目画素ブロックの左右の各画素ブロックのY信号の和についても、フレーム間差分値と第1及び第2フィールド間差分値を求める。そして、注目画素ブロックのフレーム間差分値と左右の各画素ブロックのフレーム間差分値の和を注目画素ブロックのフレーム間差分値として置き換えて設定し、かつ注目画素ブロックの第1及び第2フィールド間差分値と左右の各画素ブロックの第1及び第2フィールド間差分値のそれぞれの和を注目画素ブロックの第1及び第2フィールド間差分値として置き換えて設定する(ステップS101)。これにより、孤立した注目画素ブロックの動き検知精度の劣化を低減させることができる。
【0061】
こうして設定された注目画素ブロックのフレーム間差分値と第1及び第2フィールド間差分値を比較して、フレーム間差分値が第1及び第2フィールド間差分値のいずれよりも大きいか否かを判定する(ステップS102)。そして、フレーム間差分値が第1及び第2フィールド間差分値の少なくとも一方よりも小さければ(ステップS102で「Yes」)、各フレーム間の相関が高いことから、注目画素ブロックを静止画素ブロックであると判定する(ステップS103)。また、フレーム間差分値が第1及び第2フィールド間差分値のいずれよりも大きければ(ステップS102で「No」)、フィールド間相関(垂直相関)がフレーム間相関よりも高いことから、注目画素ブロックを動画素ブロックであると判定する(ステップS104)。
【0062】
この図6の処理は、画像の全ての各画素ブロック毎に行われ、該各画素ブロックが静止画素ブロック及び動画素ブロックのいずれであるかが判定される。
【0063】
シーン変化判定部24は、図8のフローチャートに従って、各フレーム間にシーン変化があるか否かを判定する。
【0064】
まず、フラッグF=0と初期化し(ステップS201)、走査線の各画素ブロックのうちの半数以上が動画素ブロックであるか否かを判定する(ステップS202)。そして、半数以上が動画素ブロックであれば(ステップS202で「Yes」)、シーンの変化があるものとして(ステップS203)、フラッグF=aに更新する(ステップS204)。また、半数以上が動画素ブロックでなければ(ステップS202で「No」)、シーンの変化がないものとして(ステップS205)、フラッグFを更新しない。
【0065】
そして、フラッグF=aとなったときには、フレーム間相関が殆どないため、判定の対象となった走査線のY信号及びC信号をYC分離部21から出力された状態のままで出力する。また、フラッグF=0のときには、フレーム間相関があるため、判定の対象となった走査線のY信号及びC信号を補正部23へと出力する。
【0066】
この図8の処理は、画像の全ての各走査線毎に行われ、シーンの変化があるときには、走査線のY信号及びC信号がそのまま出力され、シーンの変化がないときには、走査線のY信号及びC信号が補正部23に出力される。
【0067】
補正部23は、シーンの変化がないと判定された走査線のY信号及びC信号を入力すると、該走査線の各画素ブロックを順次処理する。例えば、画素ブロックが動き検知部22により静止画素ブロックと判定されていれば、連続する各フレームにおける該画素ブロックのY信号及びC信号の平均値を求めて出力する。つまり、画素ブロックのY信号及びC信号を補正して出力する。また、画素ブロックが動き検知部22により動画素ブロックと判定されていれば、該画素ブロックのY信号及びC信号をYC分離部21から出力された状態のままで出力する。
【0068】
次に、図9のフローチャートに従って、YC分離手段12Aによる一連の処理を説明する。
【0069】
まず、コンポジットカラーテレビジョン信号をYC分離部21によりY信号及びC信号に分離し(ステップS301)、1走査線の各画素ブロック別に、フィールド間相関及びフレーム間相関を用いて画像の動きを動き検知部22により検知し(ステップS302)、1走査線についての処理が終了するまで(ステップS303で「Yes」)、各ステップS301,S302を繰り返し、この後に、シーン変化判定部24による処理に移って(ステップS304)、1走査線について、連続する各フレーム間にシーン変化があるか否かを判定する(ステップS305)。そして、1走査線についてシーン変化がなければ(ステップS305で「No」)、1走査線の各画素ブロック別に、画素ブロックが動画素ブロックであるか否かを判定し(ステップS306)、画素ブロックが動画素ブロックでなければ(ステップS306で「No」)、該画素ブロックのY信号及びC信号を補正部23により補正して出力し(ステップS307)、また画素ブロックが動画素ブロックであれば(ステップS306で「Yes」)、YC分離部21によりフィールド内走査線間相関を用いて分離された該画素ブロックのY信号及びC信号をそのまま出力する(ステップS308)。また、1走査線についてシーン変化があれば(ステップS305で「Yes」)、YC分離部21によりフィールド内走査線間相関を用いて分離された該走査線のY信号及びC信号をそのまま出力する(ステップS308)。
【0070】
これらのステップS301〜S308は、画像の全ての走査線並びに全ての画素ブロックについての処理が終了するまで繰れ返される(ステップS309)。
【0071】
尚、図2のYC分離手段12による処理過程は、図9のフローチャートの各ステップS304,S305を省略したものである。
【0072】
この様に本実施形態では、コンポジットカラーテレビジョン信号をYC分離部21によりY信号及びC信号に分離し、フィールド間相関及びフレーム間相関を用いて画像の動きを動き検知部22により検知し、この画像の動きに基づいてフレーム間にシーン変化があるか否かをシーン変化判定部24により判定し、画像の動きがなく、かつシーン変化がなければ、Y信号及びC信号を補正部23により補正して出力し、シーン変化があったり、画像の動きがあれば、YC分離部21により分離されたY信号及びC信号をそのまま出力し、これによりY信号及びC信号の分離精度を向上させている。また、2フレーム分の映像信号を記憶するメモリ容量だけで、一連の処理が可能であり、メモリの大容量化を招かずに済む。
【0073】
尚、Y信号と同様に、C信号を用いることによっても動き検知を行うことができ、この動き検知結果に基づいてY信号及びC信号を補正しても良い。あるいは、Y信号及びC信号を共に用いて動き検知を行い、この動き検知結果に基づいてY信号及びC信号を補正しても構わない。また、各演算値に適宜の重み付け等を行ったり、各値の和の代わりに、該各値の平均値を用いても良い。
【0074】
図10は、本発明の画像処理装置の第2実施形態におけるYC分離手段を示すブロック図である。本実施形態の画像処理装置は、図2のYC分離手段12又は図3のYC分離手段12Aの代わりに、図10のYC分離手段12Bを適用したものである。
【0075】
本実施形態のYC分離手段12Bでは、図3の動き検知部22の代わりに、第1動き検知部31及び第2動き検知部32をシーン変化判定部24の前後に挿入している。
【0076】
YC分離部21は、コンポジットカラーテレビジョン信号に対してフィールド内走査線間相関(垂直相関)を用いたYC分離処理を行うことにより、コンポジットカラーテレビジョン信号をY信号及びC信号に分離する。
【0077】
第1動き検知部31は、YC分離部21によって分離されたY信号を1フレーム分遅延させ、この遅延された1フレーム分のY信号及び該フレームに引き続く次の1フレーム分のY信号を用いて、Y信号についてのフレーム間相関を求め、このフレーム間相関に基づいて画像の動きを検知する。
【0078】
ここでは、Y信号について、第1フレームにおける偶数フィールドと第2フレームにおける偶数フィールドの差の絶対値、第1フレームにおける奇数フィールドと第2フレームにおける奇数フィールドの差の絶対値、及び第1フレームにおける偶数フィールド及び第2フレームにおける奇数フィールドの和と第1フレームにおける奇数フィールド及び第2フレームにおける偶数フィールドの和との差の絶対値を求め、更に該各絶対値の和を求めて、この和をフレーム間相関を示すフレーム間差分値として用い、このフレーム間差分値に基づいて画像の動きを検知している。
【0079】
図11のフローチャートにしたがって、第1動き検知部31のより具体的な処理過程を説明する。
【0080】
まず、4×1の注目画素ブロックを抽出し、この注目画素ブロックのY信号の和について、フレーム間差分値を求め、また該注目画素ブロックの左右の各画素ブロックのY信号の和についても、フレーム間差分値を求める。そして、注目画素ブロックのフレーム間差分値と左右の各画素ブロックのフレーム間差分値の和を注目画素ブロックのフレーム間差分値として置き換えて設定する(ステップS401)。
【0081】
次に、注目画素ブロックのフレーム間差分値と予め設定された閾値(例えば48)を比較して、フレーム間差分値が閾値よりも小さいか否かを判定する(ステップS402)。そして、フレーム間差分値が閾値よりも小さければ(ステップS402で「Yes」)、各フレーム間の相関が高いことから、注目画素ブロックを静止画素ブロックであると判定する(ステップS403)。また、フレーム間差分値が閾値よりも小さくなければ(ステップS402で「No」)、各フレーム間の相関が低いことから、注目画素ブロックを動画素ブロックであると判定する(ステップS404)。
【0082】
この図11の処理は、画像の全ての各画素ブロック毎に行われ、該各画素ブロックが静止画素ブロック及び動画素ブロックのいずれであるかが判定される。
【0083】
シーン変化判定部24は、第1動き検知部31の検知結果に基づいて、走査線の各画素ブロックのうちの半数以上が動画素ブロックであるか否かを判定する。そして、半数以上が動画素ブロックであれば、シーンの変化があり、フレーム間相関が殆どないため、判定の対象となった走査線のY信号及びC信号をYC分離部21から出力された状態のままで出力する。また、半数以上が動画素ブロックでなければ、シーンの変化がなく、フレーム間相関があるため、走査線のY信号及びC信号を第2動き検知部32に出力する。
【0084】
第2動き検知部32は、YC分離部21によって分離された連続する2フレーム分のY信号を用いて、フィールド間相関を求め、このフィールド間相関及び第1動き検知部31により求められたフレーム間相関に基づいて、各画素ブロック別に動きを検知する。
【0085】
フィールド間相関に関しては、Y信号について、第1フレームにおける各フィールド間の差の絶対値にオフセット値(例えば16)を加えた値を求めて、この値を第1フィールド間差分値として用い、第2フレームにおける各フィールド間の差の絶対値にオフセット値(例えば16)を加えた値を求めて、この値を第2フィールド間差分値として用いる。
【0086】
ここでは、画像から注目画素ブロックを抽出し、この注目画素ブロックのY信号の和について、第1及び第2フィールド間差分値を求め、また該注目画素ブロックの左右の各画素ブロックのY信号の和についても、第1及び第2フィールド間差分値を求める。そして、注目画素ブロックの第1及び第2フィールド間差分値と左右の各画素ブロックの第1及び第2フィールド間差分値のそれぞれの和を注目画素ブロックの第1及び第2フィールド間差分値として置き換えて設定する。
【0087】
そして、第1動き検知部31により求められた注目画素ブロックのフレーム間差分値と該注目画素ブロックの第1及び第2フィールド間差分値とを比較し、フレーム間差分値が第1及び第2フィールド間差分値の少なくとも一方よりも小さければ、各フレーム間の相関が高いことから、注目画素ブロックを静止画素ブロックであると判定する。また、フレーム間差分値が第1及び第2フィールド間差分値のいずれよりも大きければ、フィールド間相関(垂直相関)がフレーム間相関よりも高いことから、注目画素ブロックを動画素ブロックであると判定する。
【0088】
この様な処理を画像の全ての各画素ブロック毎に行い、該各画素ブロックが静止画素ブロック及び動画素ブロックのいずれであるかを判定する。
【0089】
補正部23は、画素ブロックが第2動き検知部32により静止画素ブロックと判定されていれば、連続する各フレームにおける該画素ブロックのY信号及びC信号の平均値を求めて出力する。つまり、画素ブロックのY信号及びC信号を補正して出力する。また、画素ブロックが第2動き検知部32により動画素ブロックと判定されていれば、該画素ブロックのY信号及びC信号をYC分離部21から出力された状態のままで出力する。
【0090】
次に、図12のフローチャートに従って、YC分離手段12Bによる一連の処理を説明する。
【0091】
まず、コンポジットカラーテレビジョン信号をYC分離部21によりY信号及びC信号に分離し(ステップS501)、1走査線の各画素ブロック別に、フレーム間相関を用いて画像の動きを第1動き検知部31により検知し(ステップS502)、1走査線についての処理が終了するまで(ステップS503で「Yes」)、各ステップS501,S502を繰り返し、この後に、シーン変化判定部24による処理に移って(ステップS504)、1走査線について、連続する各フレーム間にシーン変化があるか否かを判定する(ステップS505)。そして、1走査線についてシーン変化がなければ(ステップS505で「No」)、1走査線の各画素ブロック別に、フィールド間相関及びフレーム間相関を用いて画像の動きを第2動き検知部32により検知し(ステップS506)、動画素ブロックでなければ(ステップS507で「No」)、該画素ブロックのY信号及びC信号を補正部23により補正して出力し(ステップS508)、また動画素ブロックであれば(ステップS507で「Yes」)、YC分離部21によりフィールド内走査線間相関を用いて分離された該画素ブロックのY信号及びC信号をそのまま出力する(ステップS509)。また、1走査線についてシーン変化があれば(ステップS505で「Yes」)、YC分離部21によりフィールド内走査線間相関を用いて分離された該走査線のY信号及びC信号をそのまま出力する(ステップ509)。
【0092】
これらのステップS501〜S509は、画像の全ての走査線並びに全ての画素ブロックについての処理が終了するまで繰れ返される(ステップS510)。
【0093】
この様に本実施形態では、コンポジットカラーテレビジョン信号をY信号及びC信号に分離し、フレーム間相関を用いて画像の動きを第1動き検知部31により検知し、この画像の動きに基づいてフレーム間にシーン変化があるか否かを判定し、シーン変化があれば、YC分離部21により分離されたY信号及びC信号をそのまま出力している。また、シーン変化がなければ、フィールド間相関及びフレーム間相関を用いて画像の動きを第2動き検知部32により再び検知し、画像の動きがあれば、YC分離部21により分離されたY信号及びC信号をそのまま出力し、また画像の動きがなければ、Y信号及びC信号を補正部23により補正して出力し、これによりY信号及びC信号の分離精度を向上させている。
【0094】
従って、常に、第1動き検知部31による動きの検知が行われ、シーン変化がないときにだけ、第2動き検知部32による動きの検知が行われる。これにより、一連の動きの検知処理速度を向上させることができる。更に、シーン変化がなく、画像の動きもないときにだけ、補正部23による補正を行っているので、この補正処理を簡単化することができる。
【0095】
また、2フレーム分の映像信号を記憶するメモリ容量だけで、一連の処理が可能であり、メモリの大容量化を招かずに済む。
【0096】
尚、Y信号と同様に、C信号を用いることによっても動き検知を行うことができ、この動き検知結果に基づいてY信号及びC信号を補正しても良い。あるいは、Y信号及びC信号を共に用いて動き検知を行い、この動き検知結果に基づいてY信号及びC信号を補正しても構わない。また、各演算値に適宜の重み付け等を行ったり、各値の和の代わりに、該各値の平均値を用いても良い。
【0097】
また、本発明は、画像処理方法を実現するためのプログラムをCPU等のハードウェアあるいはコンピュータ等により実行することによりなされる。従って、本発明は、画像処理装置だけではなく、画像処理方法、その方法を実施するためのプログラム、及びそのプログラムを記憶した記録媒体を包含する。また、本発明は、画像処理装置を適用した画像形成装置をも包含する。画像形成装置としては、CRT、液晶ディスプレイ、プリンタ等がある。
【0098】
プログラムは、磁気ディスク、光ディスク、コンピュータに内蔵のハードディスク等の記録媒体に記録されたり、通信ネットワークを通じて送受される。コンピュータやマイクロプロセッサ内蔵の端末装置等は、プログラムを記録媒体から読み出したり、プログラムをインターネット等の通信ネットワークを通じて受信し、このプログラムを実行して、本発明を実施することができる。プログラムをインターネット等の通信ネットワークを通じて受信する場合は、ダウンロード用のプログラムが必要になる。このダウンロード用のプログラムも、磁気ディスク、光ディスク、コンピュータに内蔵のハードディスク等の記録媒体に記録されたり、通信ネットワークを通じて送受される。また、これらのプログラムをインターネットを通じて定期的に端末装置にダウンロードすることもできる。
【0099】
更に、コンピュータ等の端末装置及びネットワーク等からなるシステムにおいては、複数の処理をコンピュータ等の端末装置に分散して行い得る。従って、プログラムは、コンピュータ等の単一の端末装置だけではなく、システムにも適用し得る。このシステムは、テレビジョン、ビデオカメラ、パーソナルコンピュータ、CRT、液晶ディスプレイ、プリンタ、サーバ等をネットワークを通じて接続したものである。ネットワークとしては、インターネット、LAN等がある。
【0100】
記録媒体としては、マスクROM、EPROM、EEPROM、フラッシュROMといった半導体記憶素子、ICカード、ハードディスク、フレキシブルディスク、あるいはMO、CD、MD、DVD等の光ディスク、磁気テープ等を挙げることができ、プログラムを記録することが可能であれば他の種類の記録媒体であっても良い。
【0101】
【発明の効果】
以上説明した様に本発明によれば、コンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離し、分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方の2フレーム分を用いて、画像の動きを検知し、画像の動きがなければ、輝度コンポーネント信号及び色コンポーネント信号を補正して出力し、画像の動きがあれば、Y信号及びC信号をそのまま出力し、これにより輝度コンポーネント信号及び色コンポーネント信号の分離精度を向上させている。また、2フレーム分の映像信号を記憶するメモリ容量だけで、一連の処理が可能であり、メモリの大容量化を招かずに済む。
【0102】
また、画素ブロック単位で相関を求めているので、演算処理を簡略化したり、クロストークの影響を軽減することができる。あるいは、注目画素ブロックに隣接する他の画素ブロックの相関を参照して、注目画素ブロックの相関を設定しているので、孤立した注目画素ブロックの動き検知精度の劣化を低減させることができる。
【0103】
更に、シーンの変化があると判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正部を介さずにそのまま出力しているので、補正部の処理を軽減することができ、処理速度が向上する。あるいは、シーン変化がなく、画像の動きもないときにだけ、補正処理を行っているので、この補正処理を簡単化することができる。また、走査線上の各画素ブロックに含まれる動画素ブロックの割合に応じて、走査線にシーンの変化があるか否かを判定しているので、この判定を容易に行うことができ、判定処理が簡単化される。
【図面の簡単な説明】
【図1】本発明の画像処理装置の第1実施形態を示すブロック図である。
【図2】図1の画像処理装置におけるYC分離手段の構成を示すブロック図である。
【図3】図1の画像処理装置におけるYC分離手段の他の構成例を示すブロック図である。
【図4】色コンポーネント信号についての第1及び第2フレーム間の相関を示す図である。
【図5】近傍4×1画素ブロックを模式的に示す図である。
【図6】図2及び図3のYC分離手段における動き検知部による動き検知のための処理手順を示すフローチャートである。
【図7】注目画素ブロック、及び該注目画素ブロックに隣接する他の各画素ブロックを示す図である。
【図8】図3のYC分離手段におけるシーン変化判定部によるシーン変化判定のための処理手順を示すフローチャートである。
【図9】図3のYC分離手段によるコンポジットカラーテレビジョン信号分離のための処理手順を示すフローチャートである。
【図10】本発明の画像処理装置の第2実施形態におけるYC分離手段を示すブロック図である。
【図11】図10のYC分離手段における第1動き検知部による処理手順を示すフローチャートである。
【図12】図10のYC分離手段によるコンポジットカラーテレビジョン信号分離のための処理手順を示すフローチャートである。
【符号の説明】
10 画像処理装置
11 入力手段
12,12A,12B YC分離手段
13 色差復調手段
14 フィルタ処理手段
15 解像度変換処理手段
16 色変換手段
17 ハーフトーン手段
18 プリンタ部
21 YC分離部
22 動き検知部
23 補正部
24 シーン変化判定部
31 第1動き検知部
32 第2動き検知部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image forming apparatus, an image processing method, a program for realizing the image processing method, and a program for realizing the image processing method for separating and processing a composite color television signal into a luminance component signal and a color component signal The present invention relates to a stored recording medium.
[0002]
[Prior art]
In recent years, color television signals have been processed in various ways in order to improve the quality of color television images. A composite color television signal such as a general NTSC (National Television System Committee) system and a PAL (Phase Alternating Line) system is a luminance component signal (hereinafter referred to as Y signal) or a color component signal (hereinafter referred to as C signal). Multiplexed signals are transmitted and received in a multiplexed state. For this reason, on the receiving side, it is necessary to separate the composite color television signal into a Y signal and a C signal.
[0003]
The composite color television signal is constructed by multiplexing the C signal in the high frequency region of the Y signal, and in order to separate the low frequency component Y signal and the high frequency component C signal, a horizontal bandpass. Filters are widely used. However, when a horizontal band-pass filter is used, a decrease in horizontal resolution occurs, or color bleeding called crosstalk occurs due to a part of the Y signal being erroneously treated as a C signal. It was easy.
[0004]
For this reason, recently, comb filters are often used which do not cause a decrease in horizontal resolution. However, when this comb filter is used, the correlation in the vertical direction of the C signal becomes low, and if a high-frequency component in the vertical direction exists, this leaks into the Y signal and causes crosstalk.
[0005]
Therefore, instead of separating the Y signal and the C signal by such a filter, the Y signal and the C signal are obtained by utilizing the intra-field scanning line correlation and the inter-frame correlation inherent in the Y signal and the C signal (video signal). A method of separating the two has been proposed.
[0006]
In the composite color television signal, in both the odd field and the even field, if attention is paid to the phase of the video signal between adjacent scanning lines in the field, the Y signal has the same phase and the C signal has the opposite phase. ing. If attention is paid to the amplitude of the video signal between adjacent scanning lines in the field, both the Y signal and the C signal have a correlation. Therefore, when the sum of the video signals between adjacent scanning lines is obtained, the amplitude of the Y signal is doubled and the C signal is substantially canceled. Further, when the difference between the video signals between the adjacent scanning lines is obtained, the Y signal is substantially canceled and the amplitude of the C signal is doubled. Therefore, 1/2 of these sums and differences can be obtained as Y signal and C signal.
[0007]
Also, between the odd fields of each successive frame and between the even fields of each frame, the Y signal has the same phase, the C signal has the opposite phase, the Y signal has a correlation, and the C signal has a correlation. . For this reason, when the sum of the video signals is obtained for each odd-numbered field and even-numbered field of each successive frame, the amplitude of the Y signal is doubled, the C signal is substantially canceled, and the difference between the video signals is obtained. As a result, the Y signal is substantially canceled, and the amplitude of the C signal is doubled. Therefore, 1/2 of these sums and differences can be obtained as Y signal and C signal.
[0008]
In this way, the Y signal and the C signal can be separated by using either the correlation between adjacent scanning lines in the field or the correlation between consecutive frames.
[0009]
However, regardless of which correlation is used, if the degree of correlation is high, the Y signal and the C signal can be reliably separated, but if the degree of correlation is low, the separation accuracy of the Y signal and the C signal decreases. To do. For example, for a scanning line located in the horizontal contour portion of the screen, the degree of correlation between the scanning lines including the scanning line is low, and the separation accuracy of the Y signal and the C signal is lowered. In addition, when the motion of the image between successive frames is intense, the degree of correlation between the frames decreases, so that the separation accuracy of the Y signal and the C signal decreases.
[0010]
For this reason, there is also a method in which the correlation between adjacent scanning lines in the field and the correlation between successive frames are properly used. This method weights the Y signal and C signal obtained by the correlation between the scanning lines and the Y signal and C signal obtained by the correlation between the frames, respectively. The weighting of the Y signal and C signal obtained by the correlation is increased, and when the motion of the image is large, the weighting of the Y signal and C signal obtained by the correlation between the scanning lines is increased. This is to prevent a reduction in the separation accuracy of the C signal.
[0011]
For example, in the technique described in Patent Document 1, the detection output from the inter-frame motion detection circuit, the inter-field motion detection circuit, and the detection output from the inter-frame motion detection circuit and the detection output from the inter-field motion detection circuit are fetched and detected. It is equipped with a motion signal mixing circuit that mixes the output and a motion detection control circuit that determines the mixing condition by the motion signal mixing circuit, and detects motion by mixing motion between frames and motion between fields Using the difference between the output of one scanning line of the motion signal mixing circuit and the output of one scanning line delayed by one field to improve the accuracy, the mixing condition by the motion signal mixing circuit is determined. The separation accuracy of the Y signal and the C signal is improved.
[0012]
[Patent Document 1]
Japanese Patent No. 3040251
[0013]
[Problems to be solved by the invention]
However, in the technique disclosed in the above publication, in order to determine the mixing condition on the top, it is necessary to provide a memory for storing the video signal for two frames in order to detect the motion between the frames. In addition, since a memory for delaying the output of the motion signal mixing circuit by one field is required, there is a problem that the capacity of the memory increases.
[0014]
Accordingly, the present invention has been made in view of the above-described conventional problems, and provides an image processing apparatus capable of improving the separation accuracy of a Y signal and a C signal without increasing the capacity of a memory. The purpose is to do.
[0015]
Further, the present invention provides not only an image processing apparatus, but also an image forming apparatus including the image processing apparatus, an image processing method, a program for realizing the image processing method, and a recording medium storing the program. With the goal.
[0016]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, the present invention provides an image processing apparatus including a YC separation processing unit that inputs a composite color television signal indicating an image and separates the composite color television signal into a luminance component signal and a color component signal. The YC separation processing means uses the intra-field scanning line correlation to separate the composite color television signal into the luminance component signal and the color component signal, and the separated luminance component signal and color component signal. Using at least one of the two frames, a motion detection unit that detects the motion of the image, and whether to perform correction processing of the luminance component signal or the color component signal based on the detected motion of the image And decided to perform correction processing If outputs from the corrected luminance component signal and the chrominance component signals, when it is determined that no correction processing, and a correcting section that outputs the luminance component signal and the chrominance component signals.
[0017]
According to the present invention having such a configuration, a composite color television signal is separated into a luminance component signal and a color component signal, and at least two frames of the separated luminance component signal and color component signal are used. If the image motion is detected, if there is no image motion, the luminance component signal and the color component signal are corrected and output. If there is an image motion, the Y signal and the C signal are output as they are. The separation accuracy of the component signal and the color component signal is improved. In addition, a series of processing is possible only with the memory capacity for storing the video signals for two frames, and it is not necessary to increase the memory capacity.
[0018]
Further, in the present invention, the motion detection unit, for at least one of the luminance component signal and the color component signal, adds the even field in the first frame and the odd field in the second frame and the odd field and the first frame in the first frame. The absolute value of the difference between the sum of the even fields in the two frames, the absolute value of the difference between the even fields in the first frame and the even fields in the second frame, and the difference between the odd fields in the first frame and the odd fields in the second frame. Absolute values are obtained, and these absolute values are used as inter-frame correlations to detect image motion.
[0019]
Here, in particular, the absolute value of the difference between the sum of the even field in the first frame and the odd field in the second frame and the sum of the odd field in the first frame and the even field in the second frame is used as part of the interframe correlation. Since the movement of the image is detected, it is possible to accurately detect the movement of the image even if the color component signal leaks into the luminance component signal (even if crosstalk occurs).
[0020]
Furthermore, in the present invention, the motion detection unit obtains the sum or average value of the pixel blocks for each pixel block composed of a plurality of pixels for at least one of the luminance component signal and the color component signal, and Using the average value, the inter-frame correlation is obtained for each pixel block.
[0021]
If the inter-frame correlation is obtained for each pixel block in this way, the arithmetic processing can be simplified and the influence of crosstalk can be reduced.
[0022]
In the present invention, the motion detection unit obtains the sum or average value of the inter-frame correlation of the pixel block of interest and the inter-frame correlation of other pixel blocks adjacent to the pixel block of interest, and pays attention to this sum or average value. It is replaced as the inter-frame correlation of the pixel block.
[0023]
As a result, it is possible to reduce deterioration in motion detection accuracy of the isolated pixel block of interest.
[0024]
Furthermore, in the present invention, the motion detection unit obtains an absolute value of a difference between fields in a frame for at least one of a luminance component signal and a color component signal, and uses the absolute value as a correlation between fields to obtain an image. Detecting movement.
[0025]
The motion of the image can be detected also by such inter-field correlation.
[0026]
In the present invention, the motion detection unit obtains the sum or average value of the pixel blocks for each pixel block including a plurality of pixels for at least one of the luminance component signal and the color component signal, and The inter-field correlation is obtained for each pixel block using the average value.
[0027]
Thus, if the correlation between fields is calculated | required per pixel block, a calculation process can be simplified or the influence of crosstalk can be reduced.
[0028]
Further, in the present invention, the motion detection unit obtains the sum or average value of the inter-field correlation of the pixel block of interest and the inter-field correlation of other pixel blocks adjacent to the pixel block of interest, and pays attention to this sum or average value. It is replaced as the inter-field correlation of the pixel block.
[0029]
As a result, it is possible to reduce deterioration in motion detection accuracy of the isolated pixel block of interest.
[0030]
The present invention further includes a scene change determination unit that determines whether or not there is a change in the scene of the image based on the motion of the image detected by the motion detection unit, and the scene change determination unit detects a change in the scene. When it is determined that there is a scene, the luminance component signal and the color component signal are output without passing through the correction unit, and when the scene change determination unit determines that there is no scene change, the luminance component signal and the color component signal are corrected. The output is via the part.
[0031]
By further providing the scene change determination unit in this way, the processing of the correction unit can be reduced and the processing speed is improved. Alternatively, since the correction process is performed only when there is no scene change and no image motion, this correction process can be simplified.
[0032]
Furthermore, in the present invention, the motion detection unit obtains the sum or average value of the pixel blocks for each pixel block composed of a plurality of pixels for at least one of the luminance component signal and the color component signal, and The average value is used to determine whether the pixel block is a still pixel block or a moving pixel block, and the scene change determination unit determines whether the moving pixel block is included in each pixel block on the scanning line for each scanning line of the image. It is determined whether or not there is a scene change in the scanning line in accordance with the ratio.
[0033]
Thus, if it is determined whether there is a scene change in the scanning line according to the ratio of the moving pixel block included in each pixel block on the scanning line, this determination can be easily performed, and the determination process Simplified.
[0034]
On the other hand, the present invention provides an image processing apparatus comprising YC separation processing means for inputting a composite color television signal indicating an image and separating the composite color television signal into a luminance component signal and a color component signal. Uses the intra-field scanning line correlation to separate the composite color television signal into a luminance component signal and a color component signal, and a frame for at least one of the separated luminance component signal and color component signal. A first motion detection unit that obtains an inter-correlation and detects the motion of the image using the inter-frame correlation, and whether there is a change in the scene of the image based on the motion of the image detected by the first motion detection unit A scene change determination unit that determines whether or not A second motion detection unit that obtains a correlation between fields for at least one of the degree component signal and the color component signal, and detects a motion of the image using the correlation between the fields and the inter-frame correlation obtained by the first motion detection unit And determining whether or not to correct the luminance component signal or the color component signal based on the motion of the image detected by the second motion detection unit. And a correction component that outputs the luminance component signal and the color component signal as they are, and outputs a luminance component signal and a color component signal as they are. When it is determined that the luminance component signal and the color component Signal as it is output without passing through the correcting section, when it is determined that there is no change in the scene by the scene change determination unit has a luminance component signal and the chrominance component signals output through the correction unit.
[0035]
Also according to the present invention having such a configuration, the separation accuracy of the luminance component signal and the color component signal can be improved. In addition, since the motion detection is always performed by the first motion detection unit, and the motion detection by the second motion detection unit is performed only when there is no scene change, a series of motion detection processing speed is improved. . Furthermore, a series of processing is possible only with a memory capacity for storing video signals for two frames, and it is not necessary to increase the capacity of the memory.
[0036]
The present invention includes not only an image processing apparatus but also an image forming apparatus such as a display device or a printer, an image processing method, a program for executing the method, and a recording medium storing the program.
[0037]
The program is recorded on a recording medium such as a magnetic disk, an optical disk, or a hard disk built in a computer, or transmitted and received through a communication network. A terminal device or the like with a computer or a microprocessor can implement the present invention by reading a program from a recording medium or receiving the program through a communication network and executing the program. In a system including a terminal device such as a computer and a network, a plurality of processes can be distributed to terminal devices such as a computer. Therefore, the program can be applied not only to a single terminal device such as a computer but also to a system.
[0038]
Examples of the recording medium include semiconductor storage elements such as mask ROM, EPROM, EEPROM, and flash ROM, IC cards, hard disks, flexible disks, optical disks such as MO, CD, MD, and DVD, and magnetic tapes. Other types of recording media may be used as long as they can be recorded.
[0039]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0040]
FIG. 1 is a block diagram showing a first embodiment of the image processing apparatus of the present invention. In the
[0041]
The
[0042]
The
[0043]
In the present embodiment, the YC separation means 12 is configured as shown in FIG. 2, thereby improving the separation accuracy of the Y signal and the C signal. The YC separation means 12 performs a YC separation process using the intra-field scanning line correlation (vertical correlation) on the digitized composite color television signal of each successive frame, whereby a composite color television signal is obtained. A
[0044]
FIG. 3 shows a configuration of the
[0045]
The scene
[0046]
Next, the
[0047]
The
[0048]
The
[0049]
Here, regarding the inter-frame correlation, the Y signal has the same phase between the odd fields of the first and second frames and between the even fields of the first and second frames. A method is conceivable in which the difference between the Y signals is obtained for each of the odd and even fields of the two frames, and this difference is used as the inter-frame correlation.
[0050]
However, when an error occurs in the processing by the
[0051]
Therefore, in the
[0052]
FIG. 4 shows the correlation between the first and second frames for the C signal. As shown in FIG. 4, the 264th scan line (even field) and the second scan line (odd field) in the first frame N, and the 264th scan line (even field) in the second frame (N + 1) and When attention is paid to the second scanning line (odd field), the C signal is in the opposite phase between the even field in the first frame N and the odd field in the second frame (N + 1), and the odd field and the second frame in the first frame N. The C signal has an opposite phase even between even fields in (N + 1). Therefore, even if a part of the C signal is mixed in the Y signal, if the sum of the even field in the first frame and the odd field in the second frame is obtained for the Y signal, the Y signal is only doubled. Rather, the mixed C signal is canceled, and if the sum of the odd field in the first frame and the even field in the second frame is calculated, the Y signal is not only doubled, but the mixed C signal is also canceled. The Therefore, the absolute value of the difference between these sums does not reflect crosstalk and indicates the correlation between the first and second frames. Of course, the 265th and subsequent scanning lines in the first frame N and the 265th and subsequent scanning lines and the third and subsequent scanning lines in the second frame (N + 1) are also processed in the same manner. The correlation between the first and second frames can be accurately obtained.
[0053]
On the other hand, regarding the inter-field correlation, a value obtained by adding an offset value (for example, 16) to the absolute value of the difference between each field in the first frame is obtained for the Y signal, and this value is used as the first inter-field difference value. Then, a value obtained by adding an offset value (for example, 16) to the absolute value of the difference between the fields in the second frame is obtained, and this value is used as the difference value between the second fields.
[0054]
Since the inter-frame difference value is the sum of three absolute values as described above, the inter-frame difference value tends to be larger than the first and second field difference values when there is a moving image. . Therefore, it can be said that the inter-field correlation is used as a feature representing the vertical correlation in the case of a still image. Further, the offset value is set so that the inter-frame difference value does not exceed the first and second field difference values and the inter-frame correlation is determined to be high if the inter-frame difference value is slightly increased. belongs to. As a result, opportunities for correction by the
[0055]
Furthermore, since the Y signal that has been YC separated based on the intra-field line correlation by the
[0056]
Here, assuming that the NTSC video signal is NTSC, the red, green, and blue signals are R, G, B, and the color subcarrier frequency is fsc, the Y signal and the C signal are expressed by the following relational expression (1). Can be derived from.
[0057]
[Expression 1]
When demodulating the video signal NSTC, it is necessary to separate the IQ component from the C signal. In the NTSC system, the C signal is demodulated into an IQ component by sampling the C signal at a sampling frequency that is an integral multiple of the color subcarrier frequency fsc. A sampling frequency four times the color subcarrier frequency fsc is referred to as NTSC-4fsc. By sampling the C signal at the sampling frequency NTSC-4fsc, I, Q, -I, and -Q as shown in the following relational expression (2) can be demodulated.
[0058]
[Expression 2]
Therefore, crosstalk occurs in the Y signal and the C signal YC separated by the
[0059]
Next, a processing procedure for obtaining the inter-frame difference value and the first and second field difference values and detecting the motion of the image based on these difference values will be described with reference to the flowchart of FIG.
[0060]
First, as shown in FIG. 7, the target pixel block is extracted from the image, and the inter-frame difference value and the first and second field difference values are obtained for the sum of the Y signals of the target pixel block. As for the sum of the Y signals of the left and right pixel blocks, the inter-frame difference value and the first and second field difference values are obtained. Then, the sum of the inter-frame difference value of the pixel block of interest and the inter-frame difference value of each pixel block on the left and right is replaced and set as the inter-frame difference value of the pixel block of interest, and between the first and second fields of the pixel block of interest The sum of the difference value and the first and second field difference values of the left and right pixel blocks is replaced and set as the difference value between the first and second fields of the pixel block of interest (step S101). As a result, it is possible to reduce deterioration in motion detection accuracy of the isolated pixel block of interest.
[0061]
By comparing the inter-frame difference value of the pixel block of interest thus set and the first and second field difference values, it is determined whether or not the inter-frame difference value is larger than any of the first and second field difference values. Determination is made (step S102). If the inter-frame difference value is smaller than at least one of the first and second field difference values (“Yes” in step S102), the correlation between the frames is high. It is determined that there is (step S103). In addition, if the inter-frame difference value is larger than any of the first and second field difference values (“No” in step S102), the inter-field correlation (vertical correlation) is higher than the inter-frame correlation, so that the target pixel It is determined that the block is a moving pixel block (step S104).
[0062]
The processing in FIG. 6 is performed for every pixel block of the image, and it is determined whether each pixel block is a still pixel block or a moving pixel block.
[0063]
The scene
[0064]
First, the flag F is initialized to 0 (step S201), and it is determined whether or not half or more of the pixel blocks on the scanning line are moving pixel blocks (step S202). If more than half are moving pixel blocks (“Yes” in step S202), the scene is changed (step S203), and the flag F is updated to “a” (step S204). If more than half are not moving pixel blocks (“No” in step S202), it is assumed that there is no scene change (step S205), and the flag F is not updated.
[0065]
When the flag F = a, since there is almost no correlation between frames, the Y signal and C signal of the scanning line that is the object of determination are output as they are output from the
[0066]
The processing of FIG. 8 is performed for every scanning line of the image. When there is a scene change, the Y signal and C signal of the scanning line are output as they are, and when there is no scene change, the Y of the scanning line is output. The signal and the C signal are output to the
[0067]
When the
[0068]
Next, a series of processing by the
[0069]
First, the composite color television signal is separated into a Y signal and a C signal by the YC separation unit 21 (step S301), and the motion of the image is moved using inter-field correlation and inter-frame correlation for each pixel block of one scanning line. Detection is performed by the detection unit 22 (step S302), and steps S301 and S302 are repeated until processing for one scanning line is completed (“Yes” in step S303), and thereafter, the process proceeds to processing by the scene
[0070]
These steps S301 to S308 are repeated until the processing for all the scanning lines and all the pixel blocks of the image is completed (step S309).
[0071]
2 is obtained by omitting the steps S304 and S305 in the flowchart of FIG.
[0072]
As described above, in this embodiment, the composite color television signal is separated into the Y signal and the C signal by the
[0073]
Similarly to the Y signal, motion detection can be performed by using the C signal, and the Y signal and the C signal may be corrected based on the motion detection result. Alternatively, motion detection may be performed using both the Y signal and the C signal, and the Y signal and the C signal may be corrected based on the motion detection result. Further, appropriate weighting or the like may be performed on each calculated value, or an average value of each value may be used instead of the sum of the values.
[0074]
FIG. 10 is a block diagram showing YC separation means in the second embodiment of the image processing apparatus of the present invention. The image processing apparatus according to the present embodiment applies the
[0075]
In the
[0076]
The
[0077]
The first
[0078]
Here, for the Y signal, the absolute value of the difference between the even field in the first frame and the even field in the second frame, the absolute value of the difference between the odd field in the first frame and the odd field in the second frame, and the The absolute value of the difference between the sum of the odd field in the even field and the second frame and the sum of the odd field in the first frame and the even field in the second frame is obtained, and the sum of the absolute values is further obtained. It is used as an inter-frame difference value indicating inter-frame correlation, and image motion is detected based on the inter-frame difference value.
[0079]
A more specific process of the first
[0080]
First, a 4 × 1 pixel block of interest is extracted, an inter-frame difference value is obtained for the Y signal sum of the pixel block of interest, and the Y signal sum of the left and right pixel blocks of the pixel block of interest is also calculated. The inter-frame difference value is obtained. Then, the sum of the inter-frame difference value of the target pixel block and the inter-frame difference value of the left and right pixel blocks is set as the inter-frame difference value of the target pixel block (step S401).
[0081]
Next, the inter-frame difference value of the pixel block of interest is compared with a preset threshold value (eg, 48) to determine whether the inter-frame difference value is smaller than the threshold value (step S402). If the inter-frame difference value is smaller than the threshold (“Yes” in step S402), since the correlation between the frames is high, it is determined that the pixel block of interest is a still pixel block (step S403). If the inter-frame difference value is not smaller than the threshold value (“No” in step S402), since the correlation between the frames is low, it is determined that the pixel block of interest is a moving pixel block (step S404).
[0082]
The processing in FIG. 11 is performed for every pixel block of the image, and it is determined whether each pixel block is a still pixel block or a moving pixel block.
[0083]
The scene
[0084]
The second
[0085]
Regarding the inter-field correlation, a value obtained by adding an offset value (for example, 16) to the absolute value of the difference between each field in the first frame is obtained for the Y signal, and this value is used as the first inter-field difference value. A value obtained by adding an offset value (for example, 16) to the absolute value of the difference between the fields in the two frames is obtained, and this value is used as the second inter-field difference value.
[0086]
Here, the target pixel block is extracted from the image, the difference value between the first and second fields is obtained for the sum of the Y signals of the target pixel block, and the Y signal of each pixel block on the left and right of the target pixel block is obtained. Also for the sum, a difference value between the first and second fields is obtained. Then, the sum of the first and second field difference values of the pixel block of interest and the first and second field difference values of the left and right pixel blocks is used as the first and second field difference values of the pixel block of interest. Replace and set.
[0087]
Then, the inter-frame difference value of the target pixel block obtained by the first
[0088]
Such processing is performed for every pixel block of the image, and it is determined whether each pixel block is a still pixel block or a moving pixel block.
[0089]
If the pixel block is determined to be a stationary pixel block by the second
[0090]
Next, a series of processing by the
[0091]
First, the composite color television signal is separated into a Y signal and a C signal by the YC separation unit 21 (step S501), and the first motion detection unit uses the inter-frame correlation for each pixel block of one scanning line. 31 (step S502), until the process for one scanning line is completed (“Yes” in step S503), steps S501 and S502 are repeated, and thereafter, the process proceeds to the process by the scene change determination unit 24 ( Step S504) It is determined whether or not there is a scene change between consecutive frames for one scanning line (step S505). If there is no scene change for one scanning line (“No” in step S505), the second
[0092]
These steps S501 to S509 are repeated until the processing for all the scanning lines and all the pixel blocks of the image is completed (step S510).
[0093]
As described above, in the present embodiment, the composite color television signal is separated into the Y signal and the C signal, and the motion of the image is detected by the first
[0094]
Therefore, the motion detection by the first
[0095]
In addition, a series of processing is possible only with the memory capacity for storing the video signals for two frames, and it is not necessary to increase the memory capacity.
[0096]
Similarly to the Y signal, motion detection can be performed by using the C signal, and the Y signal and the C signal may be corrected based on the motion detection result. Alternatively, motion detection may be performed using both the Y signal and the C signal, and the Y signal and the C signal may be corrected based on the motion detection result. Further, appropriate weighting or the like may be performed on each calculated value, or an average value of each value may be used instead of the sum of the values.
[0097]
In addition, the present invention is achieved by executing a program for realizing the image processing method by hardware such as a CPU or a computer. Therefore, the present invention includes not only an image processing apparatus but also an image processing method, a program for executing the method, and a recording medium storing the program. The present invention also includes an image forming apparatus to which the image processing apparatus is applied. Examples of the image forming apparatus include a CRT, a liquid crystal display, and a printer.
[0098]
The program is recorded on a recording medium such as a magnetic disk, an optical disk, or a hard disk built in a computer, or transmitted and received through a communication network. A terminal device or the like with a computer or a microprocessor can implement the present invention by reading a program from a recording medium or receiving the program through a communication network such as the Internet and executing the program. When the program is received through a communication network such as the Internet, a download program is required. The download program is also recorded on a recording medium such as a magnetic disk, an optical disk, or a hard disk built in the computer, or transmitted and received through a communication network. Also, these programs can be periodically downloaded to the terminal device via the Internet.
[0099]
Furthermore, in a system including a terminal device such as a computer and a network, a plurality of processes can be distributed to the terminal devices such as a computer. Therefore, the program can be applied not only to a single terminal device such as a computer but also to a system. In this system, a television, a video camera, a personal computer, a CRT, a liquid crystal display, a printer, a server, and the like are connected through a network. Examples of the network include the Internet and a LAN.
[0100]
Examples of the recording medium include semiconductor storage elements such as mask ROM, EPROM, EEPROM, and flash ROM, IC cards, hard disks, flexible disks, optical disks such as MO, CD, MD, and DVD, and magnetic tapes. Other types of recording media may be used as long as they can be recorded.
[0101]
【The invention's effect】
As described above, according to the present invention, a composite color television signal is separated into a luminance component signal and a color component signal, and at least two frames of the separated luminance component signal and color component signal are used. If the image motion is detected and there is no image motion, the luminance component signal and the color component signal are corrected and output. If there is an image motion, the Y signal and the C signal are output as they are, and thereby the luminance component signal is output. The separation accuracy of the signal and the color component signal is improved. In addition, a series of processing is possible only with the memory capacity for storing the video signals for two frames, and it is not necessary to increase the memory capacity.
[0102]
In addition, since the correlation is obtained for each pixel block, it is possible to simplify the arithmetic processing and reduce the influence of crosstalk. Alternatively, since the correlation of the pixel block of interest is set with reference to the correlation of other pixel blocks adjacent to the pixel block of interest, it is possible to reduce the deterioration of the motion detection accuracy of the isolated pixel block of interest.
[0103]
Furthermore, when it is determined that there is a scene change, the luminance component signal and the color component signal are output as they are without passing through the correction unit, so that the processing of the correction unit can be reduced and the processing speed is improved. . Alternatively, since the correction process is performed only when there is no scene change and no image motion, this correction process can be simplified. Further, since it is determined whether or not there is a scene change in the scanning line according to the ratio of the moving pixel block included in each pixel block on the scanning line, this determination can be easily performed, and the determination process Is simplified.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a first embodiment of an image processing apparatus according to the present invention.
2 is a block diagram showing a configuration of YC separation means in the image processing apparatus of FIG. 1. FIG.
3 is a block diagram showing another example of the configuration of YC separation means in the image processing apparatus of FIG. 1;
FIG. 4 is a diagram illustrating a correlation between first and second frames for a color component signal.
FIG. 5 is a diagram schematically showing a neighboring 4 × 1 pixel block.
6 is a flowchart showing a processing procedure for motion detection by a motion detection unit in the YC separation unit of FIGS. 2 and 3. FIG.
FIG. 7 is a diagram illustrating a target pixel block and other pixel blocks adjacent to the target pixel block.
FIG. 8 is a flowchart showing a processing procedure for scene change determination by a scene change determination unit in the YC separation unit of FIG. 3;
9 is a flowchart showing a processing procedure for composite color television signal separation by the YC separation means of FIG. 3;
FIG. 10 is a block diagram showing YC separation means in the second embodiment of the image processing apparatus of the present invention.
11 is a flowchart showing a processing procedure by a first motion detection unit in the YC separation unit of FIG.
12 is a flowchart showing a processing procedure for composite color television signal separation by the YC separation means of FIG. 10; FIG.
[Explanation of symbols]
10 Image processing device
11 Input means
12, 12A, 12B YC separation means
13 Color difference demodulation means
14 Filter processing means
15 Resolution conversion processing means
16 color conversion means
17 Halftone means
18 Printer section
21 YC separator
22 Motion detector
23 Correction part
24 Scene change determination unit
31 1st motion detection part
32 Second motion detector
Claims (15)
YC分離処理手段は、
フィールド内走査線間相関を用いて、コンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離するYC分離部と、
分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方の2フレーム分を用いて、画像の動きを検知する動き検知部と、
検知された画像の動きに基づいて、輝度コンポーネント信号もしくは色コンポーネント信号の補正処理を行うか否かを判定し、補正処理を行うと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号を補正してから出力し、補正処理を行わないと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号をそのまま出力する補正部と
を備えることを特徴とする画像処理装置。In an image processing apparatus comprising YC separation processing means for inputting a composite color television signal representing an image and separating the composite color television signal into a luminance component signal and a color component signal,
YC separation processing means
A YC separation unit for separating a composite color television signal into a luminance component signal and a color component signal using intra-field scanning line correlation;
A motion detection unit that detects a motion of an image using two frames of at least one of the separated luminance component signal and color component signal;
Based on the detected movement of the image, it is determined whether or not to perform the correction process of the luminance component signal or the color component signal. If it is determined that the correction process is to be performed, the luminance component signal and the color component signal are corrected. And a correction unit that outputs the luminance component signal and the color component signal as they are when it is determined that the correction processing is not performed.
シーン変化判定部によりシーンの変化があると判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正部を介さずにそのまま出力し、シーン変化判定部によりシーンの変化がないと判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正部を介して出力することを特徴とする請求項1に記載の画像処理装置。A scene change determination unit that determines whether there is a change in the scene of the image based on the movement of the image detected by the motion detection unit;
When the scene change determination unit determines that there is a scene change, the luminance component signal and the color component signal are output as they are without the correction unit, and when the scene change determination unit determines that there is no scene change, The image processing apparatus according to claim 1, wherein the luminance component signal and the color component signal are output via a correction unit.
シーン変化判定部は、画像の各走査線別に、走査線上の各画素ブロックに含まれる動画素ブロックの割合に応じて、走査線にシーンの変化があるか否かを判定することを特徴とする請求項8に記載の画像処理装置。The motion detection unit obtains the sum or average value of the pixel blocks for each pixel block composed of a plurality of pixels for at least one of the luminance component signal and the color component signal, and uses the sum or average value of the pixel blocks to Determine whether the block is a static pixel block or a moving pixel block,
The scene change determination unit is configured to determine, for each scanning line of an image, whether there is a scene change in the scanning line according to a ratio of moving pixel blocks included in each pixel block on the scanning line. The image processing apparatus according to claim 8.
YC分離処理手段は、
フィールド内走査線間相関を用いて、コンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離するYC分離部と、
分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方についてフレーム間相関を求め、このフレーム間相関を用いて画像の動きを検知する第1動き検知部と、
第1動き検知部により検知された画像の動きに基づいて、画像のシーンの変化があるか否かを判定するシーン変化判定部と、
分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方についてフィールド間相関を求め、このフィールド間相関及び第1動き検知部により求められたフレーム間相関を用いて画像の動きを検知する第2動き検知部と、
第2動き検知部により検知された画像の動きに基づいて、輝度コンポーネント信号もしくは色コンポーネント信号の補正処理を行うか否かを判定し、補正処理を行うと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号を補正してから出力し、補正処理を行わないと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号をそのまま出力する補正部とを備え、
シーン変化判定部によりシーンの変化があると判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正部を介さずにそのまま出力し、シーン変化判定部によりシーンの変化がないと判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正部を介して出力することを特徴とする画像処理装置。In an image processing apparatus comprising YC separation processing means for inputting a composite color television signal representing an image and separating the composite color television signal into a luminance component signal and a color component signal,
YC separation processing means
A YC separation unit for separating a composite color television signal into a luminance component signal and a color component signal using intra-field scanning line correlation;
A first motion detection unit for obtaining an inter-frame correlation for at least one of the separated luminance component signal and color component signal, and detecting a motion of the image using the inter-frame correlation;
A scene change determination unit that determines whether there is a change in the scene of the image based on the motion of the image detected by the first motion detection unit;
A second inter-field correlation is obtained for at least one of the separated luminance component signal and color component signal, and the motion of the image is detected using the inter-field correlation and the inter-frame correlation obtained by the first motion detector. A motion detector,
Based on the motion of the image detected by the second motion detection unit, it is determined whether or not to perform correction processing of the luminance component signal or the color component signal. When the component signal is corrected and then output, and when it is determined not to perform the correction process, a correction unit that outputs the luminance component signal and the color component signal as they are,
When the scene change determination unit determines that there is a scene change, the luminance component signal and the color component signal are output as they are without the correction unit, and when the scene change determination unit determines that there is no scene change, An image processing apparatus that outputs a luminance component signal and a color component signal via a correction unit.
フィールド内走査線間相関を用いて、コンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離するYC分離ステップと、
分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方の2フレーム分を用いて、画像の動きを検知する動き検知ステップと、
検知された画像の動きに基づいて、輝度コンポーネント信号もしくは色コンポーネント信号の補正処理を行うか否かを判定し、補正処理を行うと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号を補正してから出力し、補正処理を行わないと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号をそのまま出力する補正ステップと
を含むことを特徴とする画像処理方法。In an image processing method for inputting a composite color television signal representing an image and separating the composite color television signal into a luminance component signal and a color component signal,
A YC separation step of separating the composite color television signal into a luminance component signal and a color component signal using intra-field scanline correlation;
A motion detection step of detecting a motion of an image using two frames of at least one of the separated luminance component signal and color component signal;
Based on the detected movement of the image, it is determined whether or not to perform the correction process of the luminance component signal or the color component signal. If it is determined that the correction process is to be performed, the luminance component signal and the color component signal are corrected. And a correction step of outputting the luminance component signal and the color component signal as they are when it is determined that the correction processing is not performed.
フィールド内走査線間相関を用いて、コンポジットカラーテレビジョン信号を輝度コンポーネント信号及び色コンポーネント信号に分離するYC分離ステップと、
分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方についてフレーム間相関を求め、このフレーム間相関を用いて画像の動きを検知する第1動き検知ステップと、
第1動き検知ステップで検知された画像の動きに基づいて、画像のシーンの変化があるか否かを判定するシーン変化判定ステップと、
分離された輝度コンポーネント信号及び色コンポーネント信号のうちの少なくとも一方についてフィールド間相関を求め、このフィールド間相関及び第1動き検知ステップで求められたフレーム間相関を用いて画像の動きを検知する第2動き検知ステップと、
第2動き検知ステップで検知された画像の動きに基づいて、輝度コンポーネント信号もしくは色コンポーネント信号の補正処理を行うか否かを判定し、補正処理を行うと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号を補正してから出力し、補正処理を行わないと判定した場合は、輝度コンポーネント信号及び色コンポーネント信号をそのまま出力する補正ステップとを含み、
シーン変化判定ステップによりシーンの変化があると判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正ステップで処理せずにそのまま出力し、シーン変化判定ステップによりシーンの変化がないと判定されたときには、輝度コンポーネント信号及び色コンポーネント信号を補正ステップで処理してから出力することを特徴とする画像処理方法。In an image processing method for inputting a composite color television signal representing an image and separating the composite color television signal into a luminance component signal and a color component signal,
A YC separation step of separating the composite color television signal into a luminance component signal and a color component signal using intra-field scanline correlation;
A first motion detection step of obtaining an inter-frame correlation for at least one of the separated luminance component signal and color component signal and detecting a motion of the image using the inter-frame correlation;
A scene change determination step for determining whether there is a change in the scene of the image based on the motion of the image detected in the first motion detection step;
A second inter-field correlation is obtained for at least one of the separated luminance component signal and color component signal, and a motion of the image is detected using the inter-field correlation and the inter-frame correlation obtained in the first motion detection step. A motion detection step;
Based on the motion of the image detected in the second motion detection step, it is determined whether or not to correct the luminance component signal or the color component signal. If it is determined that the correction processing is to be performed, the luminance component signal and the color When it is determined that the component signal is corrected and then output, and the correction process is not performed, the luminance component signal and the color component signal are output as they are,
When it is determined that there is a scene change in the scene change determination step, the luminance component signal and the color component signal are output as they are without being processed in the correction step, and when it is determined that there is no scene change in the scene change determination step An image processing method comprising: outputting a luminance component signal and a color component signal after processing in a correction step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002339779A JP4015010B2 (en) | 2002-11-22 | 2002-11-22 | Image processing apparatus, image forming apparatus, image processing method, program for realizing the image processing method, and recording medium storing the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002339779A JP4015010B2 (en) | 2002-11-22 | 2002-11-22 | Image processing apparatus, image forming apparatus, image processing method, program for realizing the image processing method, and recording medium storing the program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004173215A JP2004173215A (en) | 2004-06-17 |
JP4015010B2 true JP4015010B2 (en) | 2007-11-28 |
Family
ID=32702652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002339779A Expired - Fee Related JP4015010B2 (en) | 2002-11-22 | 2002-11-22 | Image processing apparatus, image forming apparatus, image processing method, program for realizing the image processing method, and recording medium storing the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4015010B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4612517B2 (en) | 2005-09-29 | 2011-01-12 | Necディスプレイソリューションズ株式会社 | Video signal determination apparatus, video display apparatus, video signal determination method, and video display method |
US8270773B2 (en) | 2008-08-04 | 2012-09-18 | Kabushiki Kaisha Toshiba | Image processing apparatus and image processing method |
-
2002
- 2002-11-22 JP JP2002339779A patent/JP4015010B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004173215A (en) | 2004-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR940005178B1 (en) | Motion adaptive luminance signal and color signal separating filter | |
US7847862B2 (en) | Methods for cross color and/or cross luminance suppression | |
US7773157B2 (en) | Digital video signal processing apparatus and method for adaptive Y/C separation | |
EP2742681A1 (en) | Image processing apparatus and control method therefor | |
US7271850B2 (en) | Method and apparatus for cross color/cross luminance suppression | |
JP2005184764A (en) | Method of motion detection for 3d comb filter video decoder | |
US6031581A (en) | System for removing color bleed in a television image adapted for digital printing | |
US20060176406A1 (en) | Digital video signal processing apparatus and method for frame-based adaptive temporal and spatial Y/C separation | |
JP4015010B2 (en) | Image processing apparatus, image forming apparatus, image processing method, program for realizing the image processing method, and recording medium storing the program | |
US7515211B2 (en) | Video signal processing circuit, video signal display apparatus, and video signal recording apparatus | |
US20040179141A1 (en) | Method, apparatus, and system for reducing cross-color distortion in a composite video signal decoder | |
JP2004072528A (en) | Method and program for interpolation processing, recording medium with the same recorded thereon, image processor and image forming device provided with the same | |
JP2000165892A (en) | Pixel interpolation method and image processor | |
JP5067044B2 (en) | Image processing apparatus and image processing method | |
US5959683A (en) | System to remove artifacts in a digital image derived from a television signal | |
US20050117067A1 (en) | Method and device for detecting sawtooth artifact and/or field motion | |
US20060125842A1 (en) | Image interpolation device and method of preventing aliasing | |
US8712150B2 (en) | Device and method for adjusting a chrominance signal based on an edge strength | |
US7430020B1 (en) | Separation of composite video signals using dot crawl detector | |
JP3962518B2 (en) | Image signal processing device | |
JPH10150674A (en) | Receiver and its method | |
JP2548950B2 (en) | Video signal processing circuit | |
JPH11177997A (en) | Correlation value calculation circuit and method | |
KR100963451B1 (en) | Pal signal demodulating apparatus | |
JP3752911B2 (en) | Image signal processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070912 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4015010 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110921 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130921 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |