JP2000092454A - Device and method for image information conversion - Google Patents
Device and method for image information conversionInfo
- Publication number
- JP2000092454A JP2000092454A JP10260625A JP26062598A JP2000092454A JP 2000092454 A JP2000092454 A JP 2000092454A JP 10260625 A JP10260625 A JP 10260625A JP 26062598 A JP26062598 A JP 26062598A JP 2000092454 A JP2000092454 A JP 2000092454A
- Authority
- JP
- Japan
- Prior art keywords
- class
- image
- motion
- image signal
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Television Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、入力画像信号か
らより高い解像度を有する出力画像信号を生成する機能
を有する画像情報変換装置および画像情報変換方法に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information conversion apparatus and an image information conversion method having a function of generating an output image signal having a higher resolution from an input image signal.
【0002】[0002]
【従来の技術】オーディオ・ビジュアル指向の高まりか
ら、より高解像度の画像を得ることができるようテレビ
ジョン受像機の開発が要望されており、この要望に応え
て、いわゆるハイビジョンが開発された。ハイビジョン
では、走査線数が1125本とされており、これは、N
TSC方式に規定される走査線数525本の2倍以上で
ある。また、ハイビジョンでは、縦:横の比率が9:1
6とされており、NTSC方式における3:4に比して
広角画面となっている。このため、高解像度で臨場感の
ある画面を得ることができる。2. Description of the Related Art With the rise of audio-visual orientation, there has been a demand for the development of a television receiver so as to obtain a higher-resolution image, and in response to this demand, a so-called Hi-Vision has been developed. In Hi-Vision, the number of scanning lines is 1125, which is N
The number of scanning lines is twice or more the number of scanning lines 525 specified in the TSC system. In HDTV, the ratio of length to width is 9: 1.
6, which is a wide-angle screen compared to 3: 4 in the NTSC system. For this reason, it is possible to obtain a high-resolution screen with a sense of reality.
【0003】ハイビジョン方式での画面表示が可能なテ
レビジョン受像機にNTSC方式の画像信号をそのまま
供給しても、画像信号の規格が異なるため、画像表示を
行うことはできない。そこで、従来は、例えば図7に示
すような画像情報変換装置を用いて画像信号のレート変
換がなされる。SD(Standard Definition) 信号として
のNTSC方式の画像信号は、入力端子100を介して
入力し、水平補間フィルタ101に供給される。水平補
間フィルタ101は、供給される信号に水平方向の補間
処理を施す。さらに、垂直補間フィルタ102は、水平
補間フィルタ101の出力に垂直方向の補間処理を施
す。このようにして、HD(High Definition) 信号とし
てのハイビジョン方式の画像信号が出力される。[0003] Even if an image signal of the NTSC system is supplied as it is to a television receiver capable of displaying a screen in the Hi-Vision system, the image cannot be displayed because the standard of the image signal is different. Therefore, conventionally, for example, the rate conversion of an image signal is performed using an image information conversion apparatus as shown in FIG. An NTSC image signal as an SD (Standard Definition) signal is input through an input terminal 100 and supplied to a horizontal interpolation filter 101. The horizontal interpolation filter 101 performs a horizontal interpolation process on the supplied signal. Further, the vertical interpolation filter 102 performs a vertical interpolation process on the output of the horizontal interpolation filter 101. In this way, a high-vision image signal is output as an HD (High Definition) signal.
【0004】水平補間フィルタ101の具体的な構成に
ついて図8を参照して説明する。入力端子100を介し
て入力するNTSC方式の画像信号は、m+1個の乗算
器111m ,111m-1 ,111m-2 ,・・・,111
0 にそれぞれ供給される。乗算器111m-1 ,111
m-2 ,・・・,1110 は、供給される信号に所定の係
数を乗算する処理を行い、処理結果を加算器11
2m-1 ,112m-2 ,・・・,1120 に供給する。加
算器112m-1 ,112m-2 ,・・・,1120 の出力
がそれぞれ、遅延レジスタ113m-1 ,113m-2 ,・
・・,1130 に供給される。また、遅延レジスタ11
3m-1 ,113m-2 ,・・・,1130 の出力は、それ
ぞれ、加算器112m-2 ,112m-3 ・・・,1120
に供給される。A specific configuration of the horizontal interpolation filter 101 will be described with reference to FIG. The image signals of the NTSC system input via the input terminal 100 are divided into m + 1 multipliers 111 m , 111 m−1 , 111 m−2 ,.
0 is supplied respectively. Multipliers 111 m−1 , 111
m-2, ···, 111 0 performs a process of multiplying a predetermined coefficient to the signal supplied, adds the processing result 11
2 m-1, 112 m- 2, ···, supplied to 112 0. The outputs of the adders 112 m−1 , 112 m−2 ,..., 112 0 are the delay registers 113 m−1 , 113 m−2 ,.
..., it is supplied to the 113 0. The delay register 11
3 m-1, 113 m- 2, ···, 113 the output of 0, respectively, adders 112 m-2, 112 m- 3 ···, 112 0
Supplied to
【0005】さらに、乗算器111m の出力は、遅延レ
ジスタ113m に供給され、遅延レジスタ113m の出
力は、加算器112m-1 に供給される。ここで、遅延レ
ジスタ113m-1 ,113m-2 ,・・・,1130 は、
供給される信号に遅延時間Tを生じさせる。[0005] Further, the output of the multiplier 111 m is supplied to the delay register 113 m, the output of the delay register 113 m, it is supplied to the adder 112 m-1. Here, delay register 113 m-1, 113 m- 2, ···, 113 0 is
This causes a delay time T in the supplied signal.
【0006】従って、入力端子100を介して入力する
NTSC方式の画像信号は、遅延レジスタ113m によ
って時間Tの遅延が施され、加算器112m-1 に供給さ
れる。加算器112m-1 は、遅延レジスタ113m の出
力と、乗算器111m-1 の出力とを加算処理して出力す
る。加算器112m-1 の出力は、遅延レジスタ113
m-1 によって時間Tの遅延が施され、加算器112m-2
に供給される。加算器112m-2 は、遅延レジスタ11
3m-2 の出力と、乗算器111m-2 の出力とを加算処理
して出力する。Therefore, the image signal of the NTSC system input through the input terminal 100 is delayed by the time T by the delay register 113 m and supplied to the adder 112 m-1 . The adder 112 m-1 performs an addition process on the output of the delay register 113 m and the output of the multiplier 111 m-1 and outputs the result. The output of the adder 112 m-1 is
A delay of time T is given by m-1 and the adder 112 m-2
Supplied to The adder 112 m-2 is connected to the delay register 11
The output of 3 m−2 and the output of multiplier 111 m−2 are added and output.
【0007】以下、同様な処理が行われ、最終段の加算
器1120 は、遅延レジスタ1130 の出力と、乗算器
1110 の出力とを加算処理して出力する。加算器11
20の出力は、水平補間フィルタ101の最終的な出力
(従って、水平方向の補間処理によって得られる画像信
号)として、出力端子120を介して垂直補間フィルタ
102に供給される。Thereafter, the same processing is performed, and the adder 112 0 at the final stage adds the output of the delay register 113 0 and the output of the multiplier 111 0 and outputs the result. Adder 11
The output of the 2 0, the final output of the horizontal interpolation filter 101 (and thus, an image signal obtained by the horizontal direction interpolation processing) as supplied to the vertical interpolation filter 102 via the output terminal 120.
【0008】垂直補間フィルタ102は、水平補間フィ
ルタ101と同様の構成を有しており、水平補間フィル
タ101の出力に対して垂直方向の画素の補間処理を行
う。そして、垂直補間フィルタ102の出力として得ら
れるハイビジョン方式の画像信号がハイビジョン受像機
に供給される。以上のような画像情報変換によって、N
TSC方式の画像信号に応じた画像をハイビジョン受像
機に表示することができる。The vertical interpolation filter 102 has a configuration similar to that of the horizontal interpolation filter 101, and performs vertical pixel interpolation processing on the output of the horizontal interpolation filter 101. Then, a high-vision image signal obtained as an output of the vertical interpolation filter 102 is supplied to the high-vision receiver. By the above image information conversion, N
An image corresponding to the image signal of the TSC system can be displayed on a high-vision receiver.
【0009】[0009]
【発明が解決しようとする課題】しかし、上述したよう
な画像情報変換は、NTSC方式の画像信号に対して単
に水平方向および垂直方向の補間を行うに過ぎないの
で、解像度は元のNTSC方式の画像信号と何ら変わら
ない。特に、通常の動画を変換対象とする場合には、垂
直方向の補間をフィールド内処理として行うのが一般的
であるが、そのような処理においては、画像のフィール
ド間相関が使用されない。このため、変換ロスにより、
元のNTSC方式の画像信号よりも解像度が劣化するお
それがあった。However, since the above-described image information conversion merely performs horizontal and vertical interpolation on an NTSC image signal, the resolution of the original NTSC system image signal is low. No difference from image signal. In particular, when a normal moving image is to be converted, it is common practice to perform vertical interpolation as intra-field processing. In such processing, inter-field correlation of images is not used. Therefore, due to the conversion loss,
The resolution may be lower than that of the original NTSC image signal.
【0010】これに対し、本願出願人は、画像情報変換
処理としてクラス分類適応処理を行う装置を提案してい
る(特願平6−205934号公報参照)。クラス分類
適応処理は、入力するSD信号の信号レベルの3次元
(時空間)分布に応じてクラス分割を行い、クラス毎に
予め学習によって獲得された予測係数値を格納するメモ
リを備え、クラス分割の結果と予測係数値とを使用し
て、所定の予測式に基づく演算を行うことによって、H
D画素として最適な推定値を生成する処理である。On the other hand, the present applicant has proposed an apparatus for performing a classification adaptive process as an image information conversion process (see Japanese Patent Application No. 6-205934). The class classification adaptive processing includes class division according to a three-dimensional (spatio-temporal) distribution of signal levels of an input SD signal, and includes a memory for storing prediction coefficient values obtained by learning in advance for each class. By performing an operation based on a predetermined prediction equation using the result of
This is a process for generating an optimum estimation value as a D pixel.
【0011】クラス分類適応処理においては、HD画素
を生成する場合に、生成すべきHD画素の近傍にあるS
D画素データを用いてクラス分割処理を行う。そして、
クラス分割処理によって検出され得る各クラスについ
て、予測係数値を学習によって予め獲得することによ
り、画像静止部においてはフレーム内相関、また画像動
き部においてはフィールド内相関を利用して、より真値
に近いHD画素値を得るようになされる。In the class classification adaptive processing, when an HD pixel is generated, an S pixel in the vicinity of the HD pixel to be generated is generated.
A class division process is performed using the D pixel data. And
For each class that can be detected by the class division process, the prediction coefficient value is obtained in advance by learning, so that the intra-frame correlation is used in the image still unit, and the intra-field correlation is used in the image motion unit to obtain a more true value. It is made to obtain a near HD pixel value.
【0012】このような処理の具体例として、図9に示
すようなHD画素y1,y2の生成を行う場合について
説明する。SD画素m1 〜m5 およびSD画素n1 〜n
5 についてそれぞれ空間的に同一位置にある画素同士の
フレーム間差分の平均値を求め、それをしきい値処理し
てクラス分類することにより、主に動きの程度に係るク
ラス分類を行う。同時に、図10に示すようなSD画素
k1 〜k5 をADRC(Adaptive Dynamic Range Codin
g) 処理することにより、少ないビット数によって、主
に空間内の波形の表現に係るクラス分類を行う。As a specific example of such processing, a case where HD pixels y1 and y2 are generated as shown in FIG. 9 will be described. SD pixels m 1 to m 5 and SD pixels n 1 to n
For 5 , the average value of the inter-frame difference between pixels located at the same spatial position is calculated, and the average value is subjected to threshold value processing to perform class classification, thereby mainly performing the class classification relating to the degree of motion. At the same time, the SD pixels k 1 to k 5 as shown in FIG.
g) By processing, the class classification mainly related to the representation of the waveform in space is performed with a small number of bits.
【0013】そして、上述した2種類のクラス分類によ
って決定されるクラス毎に、以下のような線形一次式
(1)に従う演算によってHD画素y1,y2を生成す
る。Then, HD pixels y1 and y2 are generated for each class determined by the above-described two types of class classification by an operation according to the following linear linear equation (1).
【0014】 y=w1 ×x1 +w2 ×x2 +・・・+wn ×xn (1) かかる演算に使用されるSD画素x1 ,x2 ・・・xn
の配置の一例を図11に示す。ここでは17個のSD画
素が使用され、従って、n=17である。また、式
(1)において使用される予測係数値w1 〜wn は学習
によって予め獲得されるものである。このような処理に
おいては、主に動きの程度を表すクラス分類と、主に空
間内の波形を表すクラス分類とを別個に、それぞれに適
した形で行うため、比較的少ないクラス数で高い変換性
能を実現できるという特徴がある。すなわち、主に動き
の程度に係るクラス分類によって、動きの程度によって
例えば0〜3までのクラス(以下、このクラスを動きク
ラスと表記する)に分類するようになされる。ここで、
数値が小さい程、動きの程度が小さく、数値が大きい
程、動きの程度が大きい(すなわち動いている可能性が
大きい)ことを表すものとする。[0014] y = w 1 × x 1 + w 2 × x 2 + ··· + w n × x n (1) SD pixels x 1 to be used for such calculation, x 2 ··· x n
FIG. 11 shows an example of the arrangement. Here, 17 SD pixels are used, so n = 17. The prediction coefficient values w 1 to w n used in the equation (1) are obtained in advance by learning. In such processing, class conversion mainly representing the degree of motion and class classification mainly representing waveforms in space are performed separately and in a form suitable for each. There is a feature that performance can be realized. In other words, the class is mainly classified into classes from 0 to 3 (hereinafter, referred to as a motion class) according to the degree of movement, mainly by the class classification related to the degree of movement. here,
It is assumed that the smaller the numerical value is, the smaller the degree of the movement is, and the larger the numerical value is, the larger the degree of the movement is (that is, the more likely it is to move).
【0015】動きクラスが小さい場合には、推定すべき
HD画素が属するフィールドに属するデータと、他のフ
ィールドに属するデータとの間にも強い相関がある。こ
のため、HD画素の推定を行うに際し、他のフィールド
のデータを利用することが有効となる。一方、 動きク
ラスが大きい場合には、推定すべきHD画素が属するフ
ィールドに属するデータと、他のフィールドに属するデ
ータとの間の相関は弱い。この場合、HD画素の推定を
行うに際し、他のフィールドのデータを利用することは
有効でない。上述したようなクラス分類適応処理におい
ては、動きクラスに応じて、上述したようなフレーム内
相関/フィールド内相関をそれぞれ利用した処理の切替
えを巧みに実現することができる。When the motion class is small, there is a strong correlation between data belonging to the field to which the HD pixel to be estimated belongs and data belonging to another field. Therefore, it is effective to use data of other fields when estimating HD pixels. On the other hand, when the motion class is large, the correlation between the data belonging to the field to which the HD pixel to be estimated belongs and the data belonging to another field is weak. In this case, it is not effective to use data of other fields when estimating HD pixels. In the above-described classification adaptive processing, it is possible to skillfully realize the switching of the processing using the intra-frame correlation / intra-field correlation as described above according to the motion class.
【0016】ところで、上述したようなクラス分類適応
処理における動きクラス分類は、フレーム間差分に基づ
いて行われるものであり、基本的には動きの有無を表現
したものである。そのため、特に動きがある場合には現
フィールド以外の情報が変換処理に充分に反映されず、
そのような場合に変換性能の低下が生じていた。Incidentally, the motion class classification in the above-described class classification adaptive processing is performed based on the difference between frames, and basically expresses the presence or absence of motion. Therefore, especially when there is movement, information other than the current field is not sufficiently reflected in the conversion process,
In such a case, the conversion performance has been reduced.
【0017】例えば、図12に示すような動きが生じた
場合、HD画素y2の生成を行うに際してSD画素x6
の値が重要な役割を果たすような処理を行うことが有効
であると考えられる。しかしながら、上述したような変
換処理においては、x6 を利用した処理がなされること
は稀である。[0017] For example, if the motion as shown in FIG. 12 occurs, SD pixels x 6 in performing the production of HD pixel y2
It is considered effective to perform a process in which the value of plays an important role. However, in the conversion process as described above, it is rare for processing using the x 6 is made.
【0018】この発明は、上述の問題点に鑑みてなされ
たものであり、従って、この発明の目的は、特に動き部
分において変換性能を向上させることを可能とする、画
像情報変換装置および画像情報変換方法を提供すること
にある。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and it is therefore an object of the present invention to provide an image information conversion apparatus and an image information conversion method capable of improving conversion performance especially in a moving part. It is to provide a conversion method.
【0019】[0019]
【課題を解決するための手段】請求項1の発明は、入力
画像信号から走査線構造の異なる出力画像信号を形成す
るようにした画像情報変換装置において、入力画像信号
から所定の位置の画像データを切り出す第1の画像切り
出し手段と、第1の画像切り出し手段によって切り出さ
れる画像データを用いて動き量を算出し、算出した動き
量に基づいて、動きを表す動きクラスを決定し、決定さ
れる動きクラスに係る情報を出力する動きクラス検出手
段と、入力画像信号から所定の位置の画像データを切り
出す第2の画像切り出し手段と、第2の画像切り出し手
段によって切り出される画像データのレベル分布のパタ
ーンを検出し、検出されるパターンに基づいて画像デー
タが属する空間クラスを決定し、決定される空間クラス
に係る情報を出力する空間クラス検出手段と、動きクラ
ス検出手段の出力と、空間クラス検出手段の出力とを合
成してクラスを決定するクラスコード発生手段と、クラ
スコード発生手段の出力に対応して予め決定された予測
係数データを記憶する記憶手段と、入力画像信号から所
定の位置の画像データを切り出す第3の画像切り出し手
段と、クラスコード発生手段の出力に従って、記憶手段
から選択される予測係数データと、第3の画像データ選
択手段によって得られる画像データとを使用して、出力
画像信号を推定するための演算処理を行う演算処理手段
とを有することを特徴とする画像情報変換装置である。According to a first aspect of the present invention, there is provided an image information converting apparatus for forming an output image signal having a different scanning line structure from an input image signal. A motion amount is calculated by using a first image cutout unit that cuts out the image data and image data cut out by the first image cutout unit, and a motion class representing a motion is determined based on the calculated motion amount, and is determined. Motion class detecting means for outputting information relating to a motion class, second image cutting means for cutting out image data at a predetermined position from an input image signal, and a pattern of a level distribution of image data cut out by the second image cutting means And determines the space class to which the image data belongs based on the detected pattern, and outputs information on the determined space class. A class code generator for combining the output of the space class detector, the output of the motion class detector, and the output of the space class detector to determine a class; Storage means for storing prediction coefficient data; third image cutting means for cutting out image data at a predetermined position from the input image signal; prediction coefficient data selected from the storage means in accordance with the output of the class code generation means; 3. An image information conversion device, comprising: an arithmetic processing unit for performing an arithmetic process for estimating an output image signal using the image data obtained by the image data selecting unit.
【0020】請求項9の発明は、入力画像信号から走査
線構造の異なる出力画像信号を形成するようにした画像
情報変換方法において、入力画像信号から所定の位置の
画像データを切り出す第1の画像切り出しステップと、
第1の画像切り出しステップによって切り出される画像
データを用いて動き量を算出し、算出した動き量に基づ
いて、動きを表す動きクラスを決定する動きクラス検出
ステップと、入力画像信号から所定の位置の画像データ
を切り出す第2の画像切り出しステップと、第2の画像
切り出しステップによって切り出される画像データのレ
ベル分布のパターンを検出し、検出されるパターンに基
づいて画像データが属する空間クラスを決定する空間ク
ラス検出ステップと、動きクラス検出ステップの結果
と、空間クラス検出ステップの結果とを合成してクラス
を決定するクラスコード発生ステップと、クラスコード
発生ステップの結果に対応して予め決定された予測係数
データを記憶する記憶ステップと、入力画像信号から所
定の位置の画像データを切り出す第3の画像切り出しス
テップと、クラスコード発生ステップの結果に従って、
記憶ステップから選択される予測係数データと、第3の
画像データ選択ステップによって得られる画像データと
を使用して、出力画像信号を推定するための演算処理を
行う演算処理ステップとを有することを特徴とする画像
情報変換方法である。According to a ninth aspect of the present invention, there is provided an image information conversion method for forming an output image signal having a different scanning line structure from an input image signal, wherein the first image is obtained by cutting out image data at a predetermined position from the input image signal. A cutting step;
Calculating a motion amount using the image data cut out by the first image cutout step, determining a motion class representing the motion based on the calculated motion amount; A second image extraction step of extracting image data, and a space class for detecting a level distribution pattern of the image data extracted by the second image extraction step and determining a space class to which the image data belongs based on the detected pattern A detection step, a class code generation step of combining a result of the motion class detection step and a result of the space class detection step to determine a class, and prediction coefficient data determined in advance corresponding to the result of the class code generation step Storing an image data at a predetermined position from the input image signal. A third image extraction step of cutting out, according to the result of the class code generating step,
An arithmetic processing step of performing an arithmetic processing for estimating an output image signal using the prediction coefficient data selected from the storage step and the image data obtained by the third image data selecting step. Is an image information conversion method.
【0021】以上のような発明によれば、ブロックマッ
チング法等の方法によって検出される動き量に基づい
て、よりきめ細かい動きクラスを算出することができ
る。According to the above-described invention, a finer motion class can be calculated based on the motion amount detected by a method such as the block matching method.
【0022】[0022]
【発明の実施の形態】以下、この発明の一実施形態につ
いて説明する。なお、入力画像信号としてのSD信号/
出力画像信号としてのHD信号との組合わせとして、例
えば525i信号(走査線数が525本のインターレス
信号)/525p信号(走査線数が525本のプログレ
ッシブ信号)、525i信号/1050i信号(走査線
数が1050本のインターレス信号)等を使用する場合
等に、この発明を適用することができる。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below. Note that the SD signal /
As a combination with an HD signal as an output image signal, for example, a 525i signal (interlaced signal having 525 scanning lines) / 525p signal (progressive signal having 525 scanning lines), a 525i signal / 1050i signal (scanning) The present invention can be applied to a case where an interlace signal having 1050 lines is used.
【0023】図1は、この発明の一実施形態の全体的な
構成を示すブロック図である。入力端子1を介して例え
ばNTSC方式の信号がSD画像信号として供給され
る。SD画像信号は、領域切り出し部4および7、並び
に遅延回路12に供給される。領域切り出し部4は、動
きクラスの決定に必要とされる画素をSD画像信号から
切り出し、切り出した画素を動きクラス決定回路5に供
給する。動きクラス決定回路5は、ブロックマッチング
法等の方法によって動き量を検出する。FIG. 1 is a block diagram showing an overall configuration of an embodiment of the present invention. For example, a signal of the NTSC system is supplied as an SD image signal via the input terminal 1. The SD image signal is supplied to the region cutout units 4 and 7 and the delay circuit 12. The area cutout unit 4 cuts out pixels required for determining a motion class from the SD image signal, and supplies the cutout pixels to a motion class determination circuit 5. The motion class determination circuit 5 detects a motion amount by a method such as a block matching method.
【0024】ここで、入力画像信号としてのSD画素と
出力画像信号としてのHD画素との位置関係を図2に示
す。ここで、大きなドットがSD画素を示し、また、小
さなドットがHD画素を示す。HD画素には、同一フィ
ールド内で見た場合に、SD画素から近い位置に存在す
るy1と、SD画素から遠い位置に存在するy2との2
種類がある。以下の説明においては、HD画素y1を推
定するモードをモード1と表記し、また、HD画素y2
を推定するモードをモード2と表記する。FIG. 2 shows the positional relationship between SD pixels as input image signals and HD pixels as output image signals. Here, large dots indicate SD pixels, and small dots indicate HD pixels. When viewed in the same field, the HD pixel has two values, y1 existing at a position closer to the SD pixel and y2 existing at a position farther from the SD pixel.
There are types. In the following description, the mode for estimating the HD pixel y1 is described as mode 1, and the HD pixel y2 is estimated.
Is referred to as mode 2.
【0025】ここで、動きクラスの検出のために領域切
り出し部4によって切り出される画素配置の一例を図3
に示す。生成すべきHD画素値y1,y2に対してn
1,n2,n3,n4,n5、およびn1〜n5に対し
て水平方向に左右2画素の位置にある全体で5×5の
(計25画素からなる)ブロック(以下、ブロック1と
表記する)が切り出される。また、m1,m2,m3,
m4,m5、およびm1〜m5に対して水平方向に左右
2画素の位置を成す全体で5×5の(計25画素からな
る)ブロック(以下、ブロック1と表記する)が切り出
される。さらに、かかる25画素を所定のサーチ範囲内
で1画素ずつオフセットを有するブロックデータが切り
出される。FIG. 3 shows an example of a pixel arrangement cut out by the area cutout unit 4 for detecting a motion class.
Shown in N for the HD pixel values y1 and y2 to be generated
A block of 5 × 5 (composed of a total of 25 pixels) (to be referred to as a block 1 in the following) located at two horizontal pixels relative to 1, n2, n3, n4, n5, and n1 to n5. Is cut out. Also, m1, m2, m3,
A block of 5 × 5 (consisting of a total of 25 pixels) (hereinafter, referred to as block 1), which is located at left and right two pixels in the horizontal direction with respect to m4, m5, and m1 to m5, is cut out. Further, block data having an offset of each of these 25 pixels within a predetermined search range is cut out.
【0026】そして、動きクラス決定回路5は、以下の
式(2)に従って動きクラスmv_classを計算す
る。Then, the motion class determination circuit 5 calculates a motion class mv_class according to the following equation (2).
【0027】 mv_class=(vx +sx )×(sy ×2+1) +(vy +sy ) (2) ここで、vx は水平方向の動き量、vy は垂直方向の動
き量である。また、sx は水平方向のサーチ範囲の絶対
値であり、sy は垂直方向のサーチ範囲の絶対値であ
る。Mv_class = (v x + s x ) × (s y × 2 + 1) + (v y + s y ) (2) where v x is a horizontal motion amount and v y is a vertical motion amount. . Further, s x is the absolute value of the horizontal search range, s y is the absolute value of the vertical search range.
【0028】例えば、動き量のサーチ範囲が(±8,±
8)であり、検出された動き量が(+3,−2)である
場合には、動きクラスmv_clsは、次のように計算
される。For example, when the search range of the motion amount is (± 8, ±
8), and when the detected motion amount is (+3, -2), the motion class mv_cls is calculated as follows.
【0029】mv_cls=(3+8)×(8×2+
1)+((−2)+8)=193 なお、動き検出方法は、ブロックマッチング法以外の方
法、例えば勾配法、位相相関法等によって行うようにし
ても良い。Mv_cls = (3 + 8) × (8 × 2 +
1) + ((− 2) +8) = 193 The motion detection method may be performed by a method other than the block matching method, for example, a gradient method, a phase correlation method, or the like.
【0030】このようにして決定される動きクラスが図
1中の領域切り出し部2、およびクラスコード発生回路
6に供給される。領域切り出し回路2には、さらに、遅
延回路12の出力、すなわち遅延させられたSD画像信
号が供給される。領域切り出し回路2は、空間クラスの
決定に必要とされる画素をSD画像信号から切り出し、
切り出した画素をADRC回路3に供給する。なお、遅
延回路12は、動きクラス決定回路5の動作に要する時
間等に起因して、動きクラスが領域切り出し回路2に供
給されるタイミングと、入力端子1を介して入力するS
D画像信号が領域切り出し回路2に供給されるタイミン
グとの間に生じるずれを補償する。The motion class determined in this way is supplied to the area cutout unit 2 and the class code generation circuit 6 in FIG. The area cutout circuit 2 is further supplied with the output of the delay circuit 12, that is, the delayed SD image signal. The area cutout circuit 2 cuts out pixels required for determining the space class from the SD image signal,
The extracted pixels are supplied to the ADRC circuit 3. The delay circuit 12 determines the timing at which the motion class is supplied to the region cutout circuit 2 and the timing at which the motion class is input via the input terminal 1 due to the time required for the operation of the motion class determination circuit 5.
A deviation that occurs between the timing at which the D image signal is supplied to the area cutout circuit 2 is compensated.
【0031】領域切り出し部2によって切り出される画
素配置の一例を図4に示す。ここでは、生成すべきHD
画素値y1,y2に対してk1,k2,k3,k4,k
5が空間クラスの決定のために切り出される。FIG. 4 shows an example of the arrangement of pixels cut out by the area cut-out unit 2. Here, the HD to be generated
K1, k2, k3, k4, k for pixel values y1, y2
5 is cut out for the determination of the space class.
【0032】ADRC回路3は、空間内クラス分類、す
なわち供給されるSD画像信号の空間内波形の少ないビ
ット数によるパターン化を主たる目的として、領域切り
出し回路2の出力を例えば8ビットのSDデータから2
ビットのSDデータに圧縮する演算を行う。ADRC
は、本来、VTR(Video Tape Recoder)向け高能率符号
化用に開発された適応的再量子化法であるが、信号レベ
ルの局所的なパターンを短い語長で効率的に表現できる
ので、この発明の一実施形態では、ADRCを空間クラ
ス分類のコード発生に使用している。ADRCは、空間
クラスタップのダイナミックレンジをDR,ビット割当
をn,空間クラスタップの画素のデータレベルをL,再
量子化コードをQとして、以下の式(3)により、最大
値MAXと最小値MINとの間を指定されたビット長で
均等に分割して再量子化を行う。The ADRC circuit 3 converts the output of the area extracting circuit 2 from, for example, 8-bit SD data for the main purpose of classifying in the space, that is, patterning the supplied SD image signal with a small number of bits in the space waveform in the space. 2
An operation of compressing the data into bit SD data is performed. ADRC
Is an adaptive requantization method originally developed for high-efficiency coding for VTRs (Video Tape Recoders) .However, since local patterns at the signal level can be expressed efficiently with a short word length, In one embodiment of the invention, ADRC is used for code generation for spatial class classification. The ADRC calculates the maximum value MAX and the minimum value by the following equation (3), where DR is the dynamic range of the space class tap, n is the bit allocation, L is the data level of the pixel of the space class tap, and Q is the requantization code. Re-quantization is performed by equally dividing the data with the MIN by the designated bit length.
【0033】 DR=MAX−MIN+1 Q={(L−MIN+0.5)×2/DR} (3) 但し、{ }は切り捨て処理を意味する。DR = MAX−MIN + 1 Q = {(L−MIN + 0.5) × 2 / DR} (3) where {} indicates a truncation process.
【0034】この発明の一実施形態において、ADRC
回路3は、領域切り出し回路2によって分離されたそれ
ぞれ5画素のSDデータを各2ビットに圧縮するものと
する。以下、圧縮されたSDデータをそれぞれq1 〜q
5 と表記する。これらのパターン圧縮データがクラスコ
ード発生回路6に供給される。In one embodiment of the present invention, the ADRC
The circuit 3 compresses the SD data of 5 pixels each separated by the area cutout circuit 2 into 2 bits. Hereinafter, the compressed SD data will be referred to as q 1 to q, respectively.
Notation 5 These pattern compression data are supplied to the class code generation circuit 6.
【0035】一方、領域切り出し回路7は、供給される
SD画像信号から推定演算に使用する画素を切り出す。
切り出される画素配置の一例を図5に示す。この一例で
は17個の画素x1 〜x17が切り出される。領域切り出
し回路7の出力は、遅延回路8を介して推定演算回路1
0に供給される。遅延回路8は、領域切り出し回路7の
出力に、推定演算回路10における処理のタイミングを
合わせるために必要な遅延を施す。On the other hand, the area cutout circuit 7 cuts out the pixels used for the estimation calculation from the supplied SD image signal.
FIG. 5 shows an example of a pixel arrangement to be cut out. In one example the cut out 17 pixels x 1 ~x 17. The output of the region extracting circuit 7 is supplied to the estimation operation circuit 1 through the delay circuit 8.
0 is supplied. The delay circuit 8 delays the output of the area cutout circuit 7 with a delay necessary for adjusting the timing of processing in the estimation calculation circuit 10.
【0036】一方、クラスコード発生回路6は、ADR
C回路3から供給される空間クラスと、動きクラス決定
回路5から供給される動きクラスに基づいて以下の式
(4)に従う演算を行う。かかる演算により、各ブロッ
クについて、各々が属するクラスを検出する。そして、
検出したクラスを示すクラスコードclassをメモリ
9に供給する。On the other hand, the class code generation circuit 6
An operation according to the following equation (4) is performed based on the space class supplied from the C circuit 3 and the motion class supplied from the motion class determination circuit 5. With this operation, the class to which each belongs is detected for each block. And
The class code class indicating the detected class is supplied to the memory 9.
【0037】[0037]
【数1】 (Equation 1)
【0038】ここで、n,pの値は、例えばn=5,p
=2とすれば良い。Here, the values of n and p are, for example, n = 5, p
= 2.
【0039】メモリ9には、SD画素に対応するHD画
素を算出するための係数データが各クラス毎に記憶され
ている。かかる係数データは、SD画像信号を、より高
い解像度を有するHD画像信号に変換するための情報で
ある。この発明の一実施形態では、係数データがモード
1とモード2とに対して独立に用意される。メモリ9
は、クラスコード発生回路6から供給されるクラスコー
ドclassを読出しアドレスとして、そのクラスにつ
いての係数データであるwi (class)を出力す
る。メモリ9から出力される係数データは、推定演算回
路10に供給される。なお、メモリ9に記憶されている
係数データの学習による作成方法については後述する。The memory 9 stores coefficient data for calculating HD pixels corresponding to SD pixels for each class. Such coefficient data is information for converting an SD image signal into an HD image signal having a higher resolution. In one embodiment of the present invention, coefficient data is prepared independently for mode 1 and mode 2. Memory 9
Outputs, using the class code class supplied from the class code generation circuit 6 as a read address, wi (class) which is coefficient data for the class. The coefficient data output from the memory 9 is supplied to the estimation operation circuit 10. A method of creating the coefficient data stored in the memory 9 by learning will be described later.
【0040】推定演算回路10は、遅延回路8を介して
供給される領域切り出し回路7の出力と、メモリ9から
供給される係数データとに基づく演算により、入力され
るSD画素に対応するHD画素を生成する。The estimating operation circuit 10 performs an operation based on the output of the area extracting circuit 7 supplied via the delay circuit 8 and the coefficient data supplied from the memory 9 to obtain the HD pixel corresponding to the input SD pixel. Generate
【0041】より具体的には、領域切り出し回路7によ
って切り出される例えば17個のSD画素x1 〜x
17と、メモリ9から供給される係数データwi (cla
ss)とに基づいて以下の式(5)に従う演算を行うこ
とによって,SD画素に対応するHD画素を算出する。
但し、上述したように係数データがモード1とモード2
とに対して独立に用意されているので、モード1を行う
際にはブロック1についての係数データが使用され、ま
た、モード2を行う際にはブロック2についての係数デ
ータが使用される。More specifically, for example, 17 SD pixels x 1 to x cut out by the area cutout circuit 7
17, the coefficient data w i supplied from the memory 9 (cla
ss), an HD pixel corresponding to the SD pixel is calculated by performing an operation according to the following equation (5).
However, as described above, the coefficient data is set to the mode 1 and the mode 2
Are prepared independently of the above, the coefficient data for block 1 is used when mode 1 is performed, and the coefficient data for block 2 is used when mode 2 is performed.
【0042】 hd’=w1 ×x1 +w2 ×x2 +w3 ×x3 +・・・+w17×x17 (5) このようにして作成されるHD画素データが水平補間フ
ィルタ11に供給される。水平補間フィルタ11として
は、従来から使用されているものを用いることができ
る。すなわち、供給される信号に補間処理を施すことに
よって水平方向の画素数を2倍とする。水平補間フィル
タ11の出力は、出力端子12を介して出力される。か
かる出力は、例えばHDテレビジョン受像機やHDビデ
オテープレコーダ装置等に供給される。Hd ′ = w 1 × x 1 + w 2 × x 2 + w 3 × x 3 + ... + w 17 × x 17 (5) The HD pixel data created in this way is supplied to the horizontal interpolation filter 11. Is done. As the horizontal interpolation filter 11, a conventionally used filter can be used. That is, the number of pixels in the horizontal direction is doubled by performing an interpolation process on the supplied signal. The output of the horizontal interpolation filter 11 is output via an output terminal 12. Such an output is supplied to, for example, an HD television receiver or an HD video tape recorder.
【0043】次に、メモリ9に記憶される係数データの
作成について図6を参照して説明する。かかる係数デー
タを学習によって得るために、既知のHD画像信号に対
応する、当該HD画像信号の1/4の画素数を有するS
D画像信号をまず形成する。具体的には、垂直間引きフ
ィルタ22によってフィールド内の垂直方向の周波数が
1/2になるように間引き処理を行う。さらに、水平間
引きフィルタ23によってフィールド内の水平方向の周
波数が1/2になるように間引き処理を行う。水平間引
きフィルタ23の出力として、入力端子21を介して供
給されるHD画像信号の1/4の画素数を有するSD画
像信号が得られる。水平間引きフィルタ23の出力は、
領域切り出し回路24および26、並びに遅延回路34
に供給される。Next, creation of coefficient data stored in the memory 9 will be described with reference to FIG. In order to obtain such coefficient data by learning, an S corresponding to a known HD image signal and having 1/4 the number of pixels of the HD image signal is used.
First, a D image signal is formed. Specifically, the thinning-out process is performed by the vertical thinning filter 22 so that the frequency in the vertical direction in the field becomes に な る. Further, a thinning process is performed by the horizontal thinning filter 23 so that the horizontal frequency in the field becomes に な る. As an output of the horizontal thinning filter 23, an SD image signal having 1/4 the number of pixels of the HD image signal supplied via the input terminal 21 is obtained. The output of the horizontal thinning filter 23 is
Region cutout circuits 24 and 26, and delay circuit 34
Supplied to
【0044】領域切り出し回路26は、図1中の領域切
り出し回路4と同様に、供給されるSD画像信号から動
きクラス分類のために必要なデータを切り出し、切り出
したデータを動きクラス決定回路27に供給する。動き
クラス決定回路27は、図1中の動きクラス決定回路5
と同様に、動きクラスを決定し、決定した動きクラス
を、領域切り出し回路24と、クラスコード発生回路2
8とに供給する。The area cutout circuit 26 cuts out the data necessary for the motion class classification from the supplied SD image signal and sends the cutout data to the motion class determination circuit 27, similarly to the area cutout circuit 4 in FIG. Supply. The motion class determination circuit 27 shown in FIG.
In the same manner as described above, the motion class is determined, and the determined motion class is
And 8.
【0045】領域切り出し回路24には、さらに、遅延
回路34の出力、すなわち遅延させられたSD画像信号
が供給される。領域切り出し回路24は、空間クラスの
決定に必要とされる画素をSD画像信号から切り出し、
切り出した画素をADRC回路25に供給する。なお、
遅延回路34は、動きクラス決定回路27の動作に要す
る時間等に起因して、動きクラスが領域切り出し回路2
4に供給されるタイミングと、水平間引きフィルタ23
が出力するSD画像信号が領域切り出し回路24に供給
されるタイミングとがずれることに対処するために設け
られている。The output of the delay circuit 34, that is, the delayed SD image signal is further supplied to the area extracting circuit 24. The area cutout circuit 24 cuts out pixels required for determining the space class from the SD image signal,
The extracted pixels are supplied to the ADRC circuit 25. In addition,
The delay circuit 34 determines whether the motion class is determined by the time required for the operation of the motion class determination circuit 27 or the like.
4 and the horizontal thinning filter 23
Is provided to cope with a deviation from the timing at which the SD image signal output by the.
【0046】ADRC回路25は、供給されるSD画像
信号の1次元的、または2次元的なレベル分布のパター
ンを検出すると共に、領域切り出し回路25の出力を例
えば8ビットのSDデータから2ビットのSDデータに
圧縮する演算を行う。そして、かかる演算によって生成
されるパターン圧縮データをクラスコード発生回路28
に供給する。クラスコード発生回路28は、図1中のク
ラスコード発生回路6と同様なものである。すなわち、
クラスコード発生回路28は、供給されるパターン圧縮
データ(空間クラス)と、動きクラス決定回路27から
供給される動きクラスとに基づく演算を行って各ブロッ
クが属するクラスを検出し、そのクラスを示すクラスコ
ードを正規方程式加算回路31に供給する。The ADRC circuit 25 detects a one-dimensional or two-dimensional level distribution pattern of the supplied SD image signal, and outputs the output of the area extracting circuit 25 from, for example, 8-bit SD data to 2-bit SD data. An operation of compressing to SD data is performed. Then, the pattern compression data generated by the calculation is
To supply. The class code generation circuit 28 is similar to the class code generation circuit 6 in FIG. That is,
The class code generation circuit 28 performs an operation based on the supplied pattern compression data (space class) and the motion class supplied from the motion class determination circuit 27 to detect the class to which each block belongs, and indicates the class. The class code is supplied to the normal equation adding circuit 31.
【0047】一方、領域切り出し回路29は、図1中の
領域切り出し回路8と同様なものであり、水平間引きフ
ィルタ23から出力されるSD画像信号から、生成すべ
き画素を得るための推定演算において使用するSD画素
を切り出す。領域切り出し回路29の出力は、遅延回路
30を介して正規方程式加算回路31に供給される。な
お、遅延回路30は、領域切り出し回路29の出力に対
し正規方程式加算回路31における処理のタイミングを
合わせるために必要な遅延を施す。On the other hand, the area cutout circuit 29 is the same as the area cutout circuit 8 in FIG. 1, and performs an estimation calculation for obtaining a pixel to be generated from the SD image signal output from the horizontal thinning filter 23. Cut out the SD pixels to be used. The output of the area extracting circuit 29 is supplied to a normal equation adding circuit 31 via a delay circuit 30. Note that the delay circuit 30 delays the output of the area cutout circuit 29 to adjust the processing timing in the normal equation addition circuit 31.
【0048】ここで、正規方程式加算回路31の説明の
ために、複数個のSD画素からHD画素への変換を行う
際に使用される予測式の学習と、その予測式を用いた信
号変換について説明する。以下の説明は、n画素を用い
て予測を行う、一般的な場合についてのものである。n
個のSD画素レベルをx1 ,x2 ,x3 ,・・・,xn
と表記し、それらにpビットADRCを行った結果の再
量子化データをそれぞれ、q1 ,q2 ,q3 ,・・・,
qn と表記する。さらに、n個のSD画素レベルをx1
〜xn を含む領域のクラスclassを、上述の式
(4)で定義する。Here, for explanation of the normal equation adding circuit 31, learning of a prediction formula used when converting a plurality of SD pixels into HD pixels and signal conversion using the prediction formula will be described. explain. The following description is for a general case where prediction is performed using n pixels. n
The number of SD pixel levels x 1, x 2, x 3 , ···, x n
, And re-quantized data obtained by performing p-bit ADRC on them, respectively, are q 1 , q 2 , q 3 ,.
Notated as qn . Further, the n SD pixel levels are x 1
The class class of the area including ~ xn is defined by the above equation (4).
【0049】そして、各クラスについて学習によって決
められる係数w1 ,・・・wn によるnタップの線形推
定式(以下の式(6))を設定する。ここで、係数
w1 ,・・・wn は、学習によって決められるものであ
り、学習前には未定係数である。 y=w1 ×x1 +w2 ×x2 +‥‥+wn ×xn (6) 学習は、クラス毎に複数の画像信号データ(トレーニン
グデータと称する)に対して行う。トレーニングデータ
の総数をmと表記する場合、式(1)に従って、以下の
式(7)が設定される。Then, an n-tap linear estimation expression (the following expression (6)) is set using coefficients w 1 ,..., W n determined by learning for each class. Here, the coefficients w 1 ,..., W n are determined by learning, and are undetermined coefficients before learning. y = w 1 × x 1 + w 2 × x 2 + ‥‥ + w n × x n (6) Learning is performed on a plurality of image signal data (called training data) for each class. When the total number of training data is expressed as m, the following equation (7) is set according to the equation (1).
【0050】 y=w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn (7) (k=1,2,‥‥,m) m>nの場合、予測係数w1 ,‥‥,wn は一意に決ま
らないので、誤差ベクトルeの要素ek を以下の式
(8)で定義し、さらに、式(9)によって定義される
誤差ベクトルeを最小とするように予測係数を定めるよ
うにする。すなわち、いわゆる最小2乗法によって予測
係数を一意に定める。Y = w 1 × x k1 + w 2 × x k2 + ‥‥ + w n × x kn (7) (k = 1,2, ‥‥, m) When m> n, the prediction coefficients w 1 , ‥ Since ‥ and w n are not uniquely determined, the element e k of the error vector e is defined by the following equation (8), and the prediction coefficient is set so as to minimize the error vector e defined by the equation (9). To be determined. That is, the prediction coefficient is uniquely determined by the so-called least square method.
【0051】 ek =yk −{w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn} (8) (k=1,2,‥‥m)E k = y k − {w 1 × x k1 + w 2 × x k2 + Δ + w n × x kn } (8) (k = 1, 2, Δm)
【0052】[0052]
【数2】 (Equation 2)
【0053】式(9)のe2 を最小とする予測係数を求
めるための実際的な計算方法としては、e2 を予測係数
wi (i=1,2‥‥)で偏微分し(式(10))、iの各値
について偏微分値が0となるように各予測係数wi を定
めれば良い。As a practical calculation method for obtaining the prediction coefficient minimizing e 2 in Equation (9), partial differentiation of e 2 with the prediction coefficient w i (i = 1, 2 ‥‥) is performed (Equation 9). (10)) Each prediction coefficient w i may be determined so that the partial differential value becomes 0 for each value of i .
【0054】[0054]
【数3】 (Equation 3)
【0055】式(10)から各予測係数wi を定める具
体的な手順について説明する。式(11)、(12)の
ようにXji,Yi を定義すると、式(10)は、式(1
3)の行列式の形に書くことができる。A specific procedure for determining each prediction coefficient w i from equation (10) will be described. When X ji and Y i are defined as in Expressions (11) and (12), Expression (10) becomes Expression (1).
3) can be written in the form of the determinant.
【0056】[0056]
【数4】 (Equation 4)
【0057】[0057]
【数5】 (Equation 5)
【0058】[0058]
【数6】 (Equation 6)
【0059】式(13)が一般に正規方程式と呼ばれる
ものである。正規方程式加算回路27は、クラスコード
発生回路28から供給されたクラスコード、領域切り出
し回路30から供給されるSD画素データx1 ,x2 ,
x3 ,・・・,xn 、およびトレーニングデータとして
の、入力端子21を介して入力するHD画素レベルyに
基づいて、正規方程式の加算を行い、式(11)、(1
2)に従うXji,Yiの値を算出する。Equation (13) is generally called a normal equation. The normal equation adding circuit 27 includes a class code supplied from the class code generating circuit 28 and SD pixel data x 1 , x 2 , supplied from the area extracting circuit 30.
Based on x 3 ,..., x n and the HD pixel level y input via the input terminal 21 as training data, normal equations are added, and equations (11), (1)
The values of X ji and Y i according to 2) are calculated.
【0060】そして、全てのトレーニングデータの入力
が終了した後、正規方程式加算回路31は、正規方程式
データを予測係数決定回路32に供給する。予測係数決
定回路32は、供給される正規方程式データに基づい
て、掃き出し法等の一般的な行列解法に従って正規方程
式を解くための計算処理を行って予測係数wi を算出す
る。そして、算出した予測係数wi をメモリ33に供給
する。メモリ33は、供給される予測係数wi をクラス
毎に記憶する。After the input of all the training data is completed, the normal equation adding circuit 31 supplies the normal equation data to the prediction coefficient determining circuit 32. The prediction coefficient determination circuit 32 calculates a prediction coefficient w i by performing a calculation process for solving a normal equation according to a general matrix solution method such as a sweeping-out method based on the supplied normal equation data. Then, the calculated prediction coefficient w i is supplied to the memory 33. Memory 33 stores the prediction coefficient w i to be supplied to each class.
【0061】以上のような学習により、メモリ33に
は、クラス毎にHD画素データyを推定する際に、統計
的に最も真値に近い推定を可能とする予測係数が記憶さ
れる。メモリ33に記憶された係数データが図1中のメ
モリ9にロードされ、上述したように、画像情報変換処
理において使用される。By the learning as described above, the memory 33 stores a prediction coefficient that enables statistically closest estimation to the true value when estimating the HD pixel data y for each class. The coefficient data stored in the memory 33 is loaded into the memory 9 in FIG. 1 and used in the image information conversion processing as described above.
【0062】上述したように、この発明においては、動
きクラス分類において動き量を使用するようにした(式
(4)参照)ため、現在のフィールド以外のフィールド
に属する画素を、現在のフィールド内の画素の推定のた
めに有効に使用することが可能となる。As described above, in the present invention, the amount of motion is used in the motion class classification (see equation (4)), so that pixels belonging to fields other than the current field are replaced with pixels in the current field. It can be used effectively for pixel estimation.
【0063】[0063]
【発明の効果】上述したように、この発明は、画像情報
変換処理を行うに際して、入力画像信号から切り出され
る画像データの動き量を例えばブロックマッチング法に
よって算出し、算出した動き量に基づいて動きを表す動
きクラスを決定し、この動きクラスと、別途決定される
空間クラスとを合成して最終的なクラスを決定するよう
にしたものである。さらに、このようにして得られる最
終的なクラスに対応して、予め決定された予測係数デー
タを記憶するメモリを有する。As described above, according to the present invention, when performing image information conversion processing, the motion amount of image data cut out from an input image signal is calculated by, for example, a block matching method, and the motion amount is calculated based on the calculated motion amount. Is determined, and the final class is determined by combining the motion class and a separately determined space class. Further, it has a memory for storing prediction coefficient data determined in advance corresponding to the final class thus obtained.
【0064】このようにして動き量に基づいて動きクラ
スを決定することにより、従来から提案されているフレ
ーム差分の検出に基づく動きクラス分類に比して、より
きめ細かな動きクラス分類が可能となる。By determining the motion class based on the amount of motion in this way, a more detailed motion class classification can be performed as compared with the motion class classification based on the detection of the frame difference conventionally proposed. .
【0065】このため、画像情報変換処理において画素
を生成するための演算処理において、現フィールド以外
のフィールドに含まれる画素データを有効に利用するこ
とができるので、画像情報変換処理の変換性能を向上さ
せることができる。For this reason, in the arithmetic processing for generating pixels in the image information conversion processing, the pixel data included in the fields other than the current field can be effectively used, thereby improving the conversion performance of the image information conversion processing. Can be done.
【図1】この発明の一実施形態の全体的な構成の一例を
示すブロック図である。FIG. 1 is a block diagram showing an example of the overall configuration of an embodiment of the present invention.
【図2】この発明の一実施形態によってなされる画像情
報変換の一例を示す略線図である。FIG. 2 is a schematic diagram illustrating an example of image information conversion performed according to an embodiment of the present invention.
【図3】この発明の一実施形態において動きクラスを検
出するための画素配置の一例を示す略線図である。FIG. 3 is a schematic diagram illustrating an example of a pixel arrangement for detecting a motion class according to an embodiment of the present invention.
【図4】この発明の一実施形態において空間クラスを検
出するための画素配置の一例を示す略線図である。FIG. 4 is a schematic diagram illustrating an example of a pixel arrangement for detecting a space class in one embodiment of the present invention.
【図5】この発明の一実施形態において出力画像信号中
の画素の推定に使用される画素の配置の一例を示す略線
図である。FIG. 5 is a schematic diagram illustrating an example of an arrangement of pixels used for estimating pixels in an output image signal according to an embodiment of the present invention.
【図6】この発明の一実施形態における予測係数算出処
理系の構成の一例を示すブロック図である。FIG. 6 is a block diagram illustrating an example of a configuration of a prediction coefficient calculation processing system according to an embodiment of the present invention.
【図7】従来の画像情報変換処理について説明するため
のブロック図である。FIG. 7 is a block diagram for explaining a conventional image information conversion process.
【図8】従来の画像情報変換処理についてより詳細に説
明するためのブロック図である。FIG. 8 is a block diagram for explaining the conventional image information conversion processing in more detail.
【図9】従来の画像情報変換処理において動きクラスを
検出するための画素配置の一例を示す略線図である。FIG. 9 is a schematic diagram illustrating an example of a pixel arrangement for detecting a motion class in a conventional image information conversion process.
【図10】従来の画像情報変換処理において空間クラス
を検出するための画素配置の一例を示す略線図である。FIG. 10 is a schematic diagram illustrating an example of a pixel arrangement for detecting a space class in conventional image information conversion processing.
【図11】従来の画像情報変換処理において出力画像信
号中の画素の推定に使用される画素の配置の一例を示す
略線図である。FIG. 11 is a schematic diagram illustrating an example of an arrangement of pixels used for estimating pixels in an output image signal in a conventional image information conversion process.
【図12】従来の画像情報変換処理における問題点につ
いて説明するための略線図である。FIG. 12 is a schematic diagram for explaining a problem in a conventional image information conversion process.
5・・・動きクラス決定回路 5 ... Motion class determination circuit
Claims (9)
力画像信号を形成するようにした画像情報変換装置にお
いて、 入力画像信号から所定の位置の画像データを切り出す第
1の画像切り出し手段と、 上記第1の画像切り出し手段によって切り出される画像
データを用いて動き量を算出し、算出した上記動き量に
基づいて、動きを表す動きクラスを決定し、決定される
動きクラスに係る情報を出力する動きクラス検出手段
と、 上記入力画像信号から所定の位置の画像データを切り出
す第2の画像切り出し手段と、 上記第2の画像切り出し手段によって切り出される画像
データのレベル分布のパターンを検出し、検出されるパ
ターンに基づいて上記画像データが属する空間クラスを
決定し、決定される空間クラスに係る情報を出力する空
間クラス検出手段と、 上記動きクラス検出手段の出力と、上記空間クラス検出
手段の出力とを合成してクラスを決定するクラスコード
発生手段と、 上記クラスコード発生手段の出力に対応して予め決定さ
れた予測係数データを記憶する記憶手段と、 上記入力画像信号から所定の位置の画像データを切り出
す第3の画像切り出し手段と、 上記クラスコード発生手段の出力に従って、上記記憶手
段から選択される予測係数データと、上記第3の画像デ
ータ選択手段によって得られる画像データとを使用し
て、出力画像信号を推定するための演算処理を行う演算
処理手段とを有することを特徴とする画像情報変換装
置。1. An image information conversion apparatus for forming an output image signal having a different scanning line structure from an input image signal, wherein: first image cutout means for cutting out image data at a predetermined position from the input image signal; A motion calculating a motion amount using the image data clipped by the first image clipping unit, determining a motion class representing the motion based on the calculated motion amount, and outputting information relating to the determined motion class; Class detection means, second image cutout means for cutting out image data at a predetermined position from the input image signal, and a level distribution pattern of image data cut out by the second image cutout means is detected and detected. The spatial class to which the image data belongs is determined based on the pattern, and the spatial class that outputs information related to the determined spatial class. Class detection means; class code generation means for combining the output of the motion class detection means with the output of the space class detection means to determine a class; Storage means for storing the predicted coefficient data, third image cutout means for cutting out image data at a predetermined position from the input image signal, and a prediction coefficient selected from the storage means in accordance with an output of the class code generation means An image information conversion device comprising: an arithmetic processing unit that performs an arithmetic process for estimating an output image signal using data and image data obtained by the third image data selecting unit.
信号中の真の画素値と、上記第3の画像データ選択手段
によって選択された画像データとの線型一次結合の計算
値との差を最小とするように定められることを特徴とす
る画像情報変換装置。2. The image processing apparatus according to claim 1, wherein the prediction coefficient is selected by a true pixel value in a predetermined image signal having the same signal format as the output image signal and the third image data selection unit. An image information conversion apparatus characterized in that a difference between the calculated linear linear combination and image data is determined to be the minimum.
検出し、 検出した上記動き量を使用して、上記動きクラスを決定
するための演算を行うことを特徴とする画像情報変換装
置。3. The motion class detecting unit according to claim 1, wherein the motion class detecting unit detects a motion amount based on an output of the first image clipping unit, and determines the motion class using the detected motion amount. An image information conversion device characterized by performing an operation for performing the above operation.
する画像情報変換装置。4. The image information conversion device according to claim 3, wherein the motion amount is detected by a block matching method.
換装置。5. The image information conversion device according to claim 3, wherein the motion amount is detected by a gradient method.
報変換装置。6. The image information conversion device according to claim 3, wherein the motion amount is detected by a phase correlation method.
とを特徴とする画像情報変換装置。7. The apparatus according to claim 1, wherein the input image signal is an interlaced image signal having 525 scanning lines, and the output image signal is a progressive image signal having 525 scanning lines. Image information conversion device.
ことを特徴とする画像情報変換装置。8. The method according to claim 1, wherein the input image signal is an interlace image signal having 525 scanning lines, and the output image signal is a progressive image signal having 1050 scanning lines. Image information conversion device.
力画像信号を形成するようにした画像情報変換方法にお
いて、 入力画像信号から所定の位置の画像データを切り出す第
1の画像切り出しステップと、 上記第1の画像切り出しステップによって切り出される
画像データを用いて動き量を算出し、算出した上記動き
量に基づいて、動きを表す動きクラスを決定する動きク
ラス検出ステップと、 上記入力画像信号から所定の位置の画像データを切り出
す第2の画像切り出しステップと、 上記第2の画像切り出しステップによって切り出される
画像データのレベル分布のパターンを検出し、検出され
るパターンに基づいて上記画像データが属する空間クラ
スを決定する空間クラス検出ステップと、 上記動きクラス検出ステップの結果と、上記空間クラス
検出ステップの結果とを合成してクラスを決定するクラ
スコード発生ステップと、 上記クラスコード発生ステップの結果に対応して予め決
定された予測係数データを記憶する記憶ステップと、 上記入力画像信号から所定の位置の画像データを切り出
す第3の画像切り出しステップと、 上記クラスコード発生ステップの結果に従って、上記記
憶ステップから選択される予測係数データと、上記第3
の画像データ選択ステップによって得られる画像データ
とを使用して、出力画像信号を推定するための演算処理
を行う演算処理ステップとを有することを特徴とする画
像情報変換方法。9. An image information conversion method in which an output image signal having a different scanning line structure is formed from an input image signal, a first image cutout step of cutting out image data at a predetermined position from the input image signal, A motion class detecting step of calculating a motion amount using the image data cut out in the first image cutting step, and determining a motion class representing a motion based on the calculated motion amount; A second image cutout step of cutting out the image data of the position, a pattern of a level distribution of the image data cut out by the second image cutout step is detected, and a space class to which the image data belongs is determined based on the detected pattern. The spatial class detection step to be determined; the result of the motion class detection step; A class code generation step of combining the result of the inter-class detection step to determine a class; a storage step of storing prediction coefficient data determined in advance corresponding to the result of the class code generation step; A third image cutout step of cutting out image data at a predetermined position from the image data; prediction coefficient data selected from the storage step according to a result of the class code generation step;
An image processing method for estimating an output image signal using the image data obtained in the image data selecting step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10260625A JP2000092454A (en) | 1998-09-14 | 1998-09-14 | Device and method for image information conversion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10260625A JP2000092454A (en) | 1998-09-14 | 1998-09-14 | Device and method for image information conversion |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000092454A true JP2000092454A (en) | 2000-03-31 |
Family
ID=17350531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10260625A Pending JP2000092454A (en) | 1998-09-14 | 1998-09-14 | Device and method for image information conversion |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000092454A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6996266B2 (en) | 2000-08-11 | 2006-02-07 | Minolta Co., Ltd. | Method and apparatus for generating three-dimensional data of an object by selecting the method for detecting corresponding points that is suitable to the object |
US20130070971A1 (en) * | 2010-03-29 | 2013-03-21 | Sony Corporation | Data processing apparatus, data processing method, image processing apparatus and method, and program |
-
1998
- 1998-09-14 JP JP10260625A patent/JP2000092454A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6996266B2 (en) | 2000-08-11 | 2006-02-07 | Minolta Co., Ltd. | Method and apparatus for generating three-dimensional data of an object by selecting the method for detecting corresponding points that is suitable to the object |
US20130070971A1 (en) * | 2010-03-29 | 2013-03-21 | Sony Corporation | Data processing apparatus, data processing method, image processing apparatus and method, and program |
US9786052B2 (en) * | 2010-03-29 | 2017-10-10 | Sony Corporation | Image processing apparatus and method for evaluating objects in an image |
US10311582B2 (en) | 2010-03-29 | 2019-06-04 | Sony Corporation | Image processing apparatus and method for evaluating objects in an image |
US10692223B2 (en) | 2010-03-29 | 2020-06-23 | Sony Corporation | Image processing apparatus and method for evaluating objects in an image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4158232B2 (en) | Image information conversion device and image display device | |
JP4696388B2 (en) | Information signal processing apparatus, information signal processing method, image signal processing apparatus and image display apparatus using the same, coefficient seed data generation apparatus, coefficient data generation apparatus, and information recording medium | |
JP4147632B2 (en) | Image information conversion apparatus, image information conversion method, and television receiver | |
JP3271101B2 (en) | Digital image signal processing apparatus and processing method | |
JP3946781B2 (en) | Image information conversion apparatus and method | |
KR100813986B1 (en) | Method for motion adaptive deinterlacing and apparatus thereof | |
JP4140091B2 (en) | Image information conversion apparatus and image information conversion method | |
JP4193233B2 (en) | Motion determination device, method and image information conversion device | |
JP2000078539A (en) | Motion decision device, its method and image information converter | |
JP3723995B2 (en) | Image information conversion apparatus and method | |
JP4300603B2 (en) | Image information conversion apparatus and method | |
JP2000092454A (en) | Device and method for image information conversion | |
JP4470324B2 (en) | Image signal conversion apparatus and method | |
JP4099555B2 (en) | Image information converter | |
JP3800638B2 (en) | Image information conversion apparatus and method | |
JP3480011B2 (en) | Image information conversion device | |
JP3653287B2 (en) | Image information conversion apparatus and image information conversion method | |
JP4123587B2 (en) | Image information processing apparatus and method | |
JP3587188B2 (en) | Digital image signal processing apparatus and processing method | |
JP3826434B2 (en) | Signal conversion apparatus and method | |
JP4310847B2 (en) | Image information conversion apparatus and conversion method | |
JP4193236B2 (en) | Image information conversion apparatus, image information conversion method, and television receiver | |
JP4062326B2 (en) | Coefficient generation apparatus and method | |
JP4042121B2 (en) | Image information processing apparatus and image information processing method | |
JP4001143B2 (en) | Coefficient generation apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080219 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080421 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080527 |