[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4605468B2 - Image processing apparatus, image processing method, learning apparatus, learning method, and program - Google Patents

Image processing apparatus, image processing method, learning apparatus, learning method, and program Download PDF

Info

Publication number
JP4605468B2
JP4605468B2 JP2006073559A JP2006073559A JP4605468B2 JP 4605468 B2 JP4605468 B2 JP 4605468B2 JP 2006073559 A JP2006073559 A JP 2006073559A JP 2006073559 A JP2006073559 A JP 2006073559A JP 4605468 B2 JP4605468 B2 JP 4605468B2
Authority
JP
Japan
Prior art keywords
class
image
pixel
unit
tap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006073559A
Other languages
Japanese (ja)
Other versions
JP2007251689A (en
JP2007251689A5 (en
Inventor
大介 菊地
哲二郎 近藤
真史 内田
志津男 近岡
岳志 宮井
威 國弘
英樹 森
健一郎 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006073559A priority Critical patent/JP4605468B2/en
Publication of JP2007251689A publication Critical patent/JP2007251689A/en
Publication of JP2007251689A5 publication Critical patent/JP2007251689A5/ja
Application granted granted Critical
Publication of JP4605468B2 publication Critical patent/JP4605468B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理方法、学習装置および学習方法、並びにプログラムに関し、特に、人工的な画像の品質を的確に高めることができるようにする画像処理装置および画像処理方法、学習装置および学習方法、並びにプログラムに関する。   The present invention relates to an image processing device, an image processing method, a learning device, a learning method, and a program, and more particularly to an image processing device, an image processing method, and a learning device that can accurately improve the quality of an artificial image. And a learning method and program.

本出願人は、クラス分類適応処理を先に提案している(例えば、特許文献1参照)。クラス分類適応処理は、入力された第1の画像の所定領域の複数画素の画素値に応じて、その第1の画像により求められる第2の画像の画素である注目画素を、クラスに分類し、そのクラスに対応する、学習処理によりクラスごとに予め求めておいた予測係数と、第1の画像の所定領域の複数画素の画素値との線形1次式を演算することにより、入力された第1の画像から第2の画像を求める処理である。   The present applicant has previously proposed a classification adaptation process (see, for example, Patent Document 1). The class classification adaptive processing classifies the target pixel, which is the pixel of the second image obtained from the first image, into a class according to the pixel values of the plurality of pixels in the predetermined area of the input first image. The input is performed by calculating a linear linear expression of a prediction coefficient corresponding to the class, which is obtained in advance for each class by learning processing, and pixel values of a plurality of pixels in a predetermined area of the first image. This is a process for obtaining the second image from the first image.

例えば、第1の画像がノイズを含む画像であり、第2の画像がノイズが低減された画像であれば、このクラス分類適応処理は、ノイズ除去処理として機能し、また、第1の画像がSD(Standard Definition)画像であり、第2の画像がSD画像より高解像度のHD(High Definition)画像であれば、このクラス分類適応処理は、低解像度の画像を高解像度の画像に変換する解像度変換処理として機能する。   For example, if the first image is an image including noise and the second image is an image in which noise is reduced, the classification adaptation process functions as a noise removal process, and the first image If it is an SD (Standard Definition) image and the second image is an HD (High Definition) image with a higher resolution than the SD image, this classification adaptation processing is a resolution that converts a low-resolution image into a high-resolution image. Functions as a conversion process.

また、従来の学習処理においては、放送を主体とした一般的な動画像の予測を可能にするため、教師画像と生徒画像として、後述する人工画像ではない、自然界に存在するものをそのまま撮像することにより得られる画像である自然画像が用いられている。従って、第1の画像が自然画像である場合、学習処理により求められた予測係数を用いてクラス分類適応処理を行うことにより、第1の画像から、高精細で綺麗な第2の画像を予測することができる。   Further, in the conventional learning process, in order to enable prediction of general moving images mainly based on broadcasting, images that exist in the natural world, which are not artificial images described later, are captured as they are as teacher images and student images. A natural image that is an image obtained by this is used. Therefore, when the first image is a natural image, a high-definition and beautiful second image is predicted from the first image by performing the class classification adaptive processing using the prediction coefficient obtained by the learning processing. can do.

特開平9−167240号公報JP 9-167240 A

しかしながら、第1の画像が、文字や単純図形などの人工画像である場合、自然画像を用いた学習処理で求められた予測係数を用いてクラス分類適応処理を行うと、元々エッジが十分に立っている箇所の精細感がさらに強調されたり、平坦なノイズが正しい波形と認識されて、そのノイズの精細感が強調されてしまう。その結果、リンギングが発生したり、ノイズが強調される。   However, when the first image is an artificial image such as a character or a simple figure, when the class classification adaptive processing is performed using the prediction coefficient obtained by the learning processing using the natural image, the edge originally stands sufficiently. The sense of fineness of the current location is further emphasized, or flat noise is recognized as a correct waveform, and the fineness of the noise is emphasized. As a result, ringing occurs or noise is emphasized.

ここで、人工画像とは、文字や単純な図形などの、階調が少なく、エッジの位置を表す位相情報がはっきりした、すなわち、平坦部分が多い人工的な画像である。換言すれば、人工画像は、文字や単純図形等の階調があまり無く、輪郭等の位置を表す情報が支配的になっている画像である。   Here, the artificial image is an artificial image such as a character or a simple figure with few gradations and clear phase information indicating the position of the edge, that is, many flat portions. In other words, the artificial image is an image in which there is not much gradation such as characters and simple figures, and information indicating the position of the contour or the like is dominant.

本発明は、このような状況に鑑みてなされたものであり、人工画像の品質を的確に高めることができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to accurately improve the quality of an artificial image.

本発明の第1の側面の画像処理装置は、入力画像から、前記入力画像のうちの、階調が少なくエッジがはっきりした人工的な画像である人工画像を高品質にした出力画像を求める画像処理装置において、前記出力画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記入力画像から抽出する第1のクラスタップ抽出手段と、前記第1のクラスタップの隣接する画素どうしの画素値の差分を求める差分算出手段と、前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類する第1の分類手段と、前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記入力画像から抽出する第2のクラスタップ抽出手段と、前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類する第2の分類手段と、前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択する選択手段と、複数の人工画像を用いた学習により獲得された前記第1のクラスごとの予測係数および前記第2のクラスごとの予測係数を格納する格納手段と、前記入力画像と、前記注目画素のクラスとして選択された前記第1または第2のクラスの予測係数とを用いて演算することで、前記入力画像から前記出力画像を求める演算手段とを備える。 The image processing apparatus according to the first aspect of the present invention is an image for obtaining an output image having a high quality from an input image, which is an artificial image having a small gradation and a clear edge, out of the input images. In the processing device, a first class tap extraction that extracts, from the input image, a first class tap composed of a plurality of pixels that are used to classify a target pixel that is a pixel of the output image into a first class. Means for calculating a difference between pixel values of adjacent pixels of the first class tap, and a first classifying a target pixel corresponding to the difference into the first class based on the difference. And a second class tap extraction unit that extracts, from the input image, a second class tap composed of a plurality of pixels used for classifying the pixel of interest into a second class. , Based on the pixel value of each pixel of the second class taps, the pixel of interest corresponding to the second class taps, and a second classifying means for classifying the second class, the first class Based on the selection means for selecting one of the first class of the pixel of interest and the second class of the pixel of interest as the class of the pixel of interest, and using a plurality of artificial images Storage means for storing the prediction coefficient for each of the first classes and the prediction coefficient for each of the second classes obtained by learning, the input image, and the first or selected as the class of the target pixel Computation means for obtaining the output image from the input image by performing computation using the second class of prediction coefficients.

前記第1の分類手段は、前記差分の絶対値に基づいてその差分に対応する注目画素を前記第1のクラスに分類することができる。 Said first classifying means, based on the absolute value of the difference, it is possible to classify the target pixel corresponding to the difference in the first class.

前記第1の分類手段は、前記差分の絶対値の比に基づいてその差分に対応する注目画素を前記第1のクラスに分類することができる。 Said first classifying means, based on the ratio of the absolute value of the difference, it is possible to classify the target pixel corresponding to the difference in the first class.

本発明の第1の側面の画像処理方法は、入力画像から、前記入力画像のうちの、階調が少なくエッジがはっきりした人工的な画像である人工画像を高品質にした出力画像を求める画像処理方法において、前記出力画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記入力画像から抽出し、前記第1のクラスタップの隣接する画素どうしの画素値の差分を求め、前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類し、前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記入力画像から抽出し、前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類し、前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択し、前記入力画像と、複数の人工画像を用いた学習により獲得された前記第1のクラスごとの予測係数および前記第2のクラスごとの予測係数のうち、前記注目画素のクラスとして選択された前記第1または第2のクラスの予測係数とを用いて演算することで、前記入力画像から前記出力画像を求めるステップを含む。 The image processing method according to the first aspect of the present invention is an image for obtaining an output image with high quality from an input image, which is an artificial image having a small gradation and a clear edge, out of the input images. In the processing method, a first class tap composed of a plurality of pixels used for classifying a pixel of interest as a pixel of the output image into a first class is extracted from the input image, and the first class is extracted. In order to obtain a pixel value difference between adjacent pixels of the tap, classify the target pixel corresponding to the difference into the first class, and classify the target pixel into the second class based on the difference A second class tap composed of a plurality of pixels to be used is extracted from the input image, and based on the pixel value of each pixel of the second class tap, the target pixel corresponding to the second class tap The classified into the second class, based on the first class, said first class of the pixel of interest, either one of the second class of the pixel of interest, the pixel of interest Class of the pixel of interest among the prediction coefficient for each of the first class and the prediction coefficient for each of the second class acquired by learning using the input image and a plurality of artificial images And calculating the output image from the input image by calculating using the first or second class prediction coefficient selected as.

本発明の第1の側面のプログラムは、入力画像から、前記入力画像のうちの、階調が少なくエッジがはっきりした人工的な画像である人工画像を高品質にした出力画像を求める処理を、コンピュータに実行させるプログラムであって、前記出力画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記入力画像から抽出し、前記第1のクラスタップの隣接する画素どうしの画素値の差分を求め、前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類し、前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記入力画像から抽出し、前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類し、前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択し、前記入力画像と、複数の人工画像を用いた学習により獲得された前記第1のクラスごとの予測係数および前記第2のクラスごとの予測係数のうち、前記注目画素のクラスとして選択された前記第1または第2のクラスの予測係数とを用いて演算することで、前記入力画像から前記出力画像を求めるステップを含む。 The program according to the first aspect of the present invention is a process for obtaining an output image having a high quality artificial image, which is an artificial image with small gradation and clear edges, from the input image. A program to be executed by a computer, wherein a first class tap composed of a plurality of pixels used for classifying a target pixel as a pixel of the output image into a first class is extracted from the input image, A difference between pixel values of adjacent pixels of the first class tap is obtained, and based on the difference, a target pixel corresponding to the difference is classified into the first class, and the target pixel is classified into a second class. A second class tap composed of a plurality of pixels used to classify the second class tap is extracted from the input image, and based on the pixel value of each pixel of the second class tap, the second class tap is extracted. The target pixel corresponding to Stapp, classified into the second class, based on the first class, said first class of the pixel of interest, any of the second class of the pixel of interest One of them as the class of the pixel of interest, and the prediction coefficient for each of the first class and the prediction coefficient for each of the second class obtained by learning using the input image and a plurality of artificial images. Among them, the method includes a step of calculating the output image from the input image by calculating using the prediction coefficient of the first or second class selected as the class of the target pixel.

本発明の第1の側面においては、出力画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップが、入力画像から抽出され、第1のクラスタップの隣接する画素どうしの画素値の差分が求められ、差分に基づいて、その差分に対応する注目画素が第1のクラスに分類され、注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップが、入力画像から抽出され、第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素が、第2のクラスに分類され、第1のクラスに基づいて、注目画素の第1のクラスと、注目画素の第2のクラスのうちのいずれか一方が、注目画素のクラスとして選択され、入力画像と、複数の人工画像を用いた学習により獲得された第1のクラスごとの予測係数および第2のクラスごとの予測係数のうち、注目画素のクラスとして選択された第1または第2のクラスの予測係数とを用いて演算することで、入力画像から出力画像が求められる。 In the first aspect of the present invention, a first class tap composed of a plurality of pixels used for classifying a target pixel as a pixel of an output image into a first class is extracted from the input image, A difference between pixel values of adjacent pixels of one class tap is obtained, and based on the difference, a target pixel corresponding to the difference is classified into the first class, and the target pixel is classified into the second class. A second class tap composed of a plurality of pixels used in the above is extracted from the input image, and based on the pixel value of each pixel of the second class tap, the target pixel corresponding to the second class tap is is classified into the second class, based on the first class, the first class of the subject pixel, either one of the second class of the pixel of interest, is selected as the class of the subject pixel, the input image And multiple The prediction coefficient of the first or second class selected as the class of the pixel of interest among the prediction coefficient for each first class and the prediction coefficient for each second class acquired by learning using the processed image. The output image is obtained from the input image by using the calculation.

本発明の第2の側面の学習装置は、階調が少なくエッジがはっきりした人工的な画像である人工画像を、高品質な人工画像に変換する変換処理を行うとき用いられる予測係数を学習する学習装置であって、変換処理後の目標の人工画像となる教師画像と、前記変換処理が行われる前の前記人工画像に相当する生徒画像とを取得する取得手段と、前記教師画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記生徒画像から抽出する第1のクラスタップ抽出手段と、抽出された前記第1のクラスタップの隣接する画素どうしの画素値の差分を求める差分算出手段と、前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類する第1の分類手段と、前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記生徒画像から抽出する第2のクラスタップ抽出手段と、前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類する第2の分類手段と、前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択する選択手段と、前記注目画素を求めるのに用いる複数の画素から構成される予測タップを、前記生徒画像から抽出する予測タップ抽出手段と、抽出された前記予測タップに基づいて、前記予測タップに対応する注目画素のクラスとして選択された前記第1または第2のクラスごとに、前記予測係数を用いて求められる前記注目画素の予測誤差を統計的に最小にする前記予測係数を演算する演算手段とを備える。 The learning device according to the second aspect of the present invention learns a prediction coefficient used when performing a conversion process for converting an artificial image, which is an artificial image with few gradations and sharp edges, into a high-quality artificial image. A learning device, comprising: a teacher image that is a target artificial image after the conversion process; an acquisition unit that acquires a student image corresponding to the artificial image before the conversion process; and a pixel of the teacher image A first class tap extracting means for extracting a first class tap composed of a plurality of pixels used for classifying a certain target pixel into a first class from the student image; and the extracted first class tap Difference calculating means for obtaining a difference between pixel values of adjacent pixels of the class tap, first classification means for classifying a target pixel corresponding to the difference into the first class based on the difference, and the attention Second class tap extraction means for extracting from the student image a second class tap composed of a plurality of pixels used to classify a prime into a second class; and each pixel of the second class tap Second classifying means for classifying the target pixel corresponding to the second class tap into the second class based on the pixel value of the second class tap; and the second class means of the target pixel based on the first class . A selection unit that selects one of the first class and the second class of the target pixel as the class of the target pixel, and a prediction that includes a plurality of pixels that are used to obtain the target pixel Predictive tap extracting means for extracting a tap from the student image, and the first or second selected as a class of pixel of interest corresponding to the predictive tap based on the extracted predictive tap For each class, and a calculating means for calculating the prediction coefficients for statistically minimizing the prediction error of the pixel of interest is determined using the prediction coefficients.

本発明の第2の側面においては、変換処理後の目標の人工画像となる教師画像と、変換処理が行われる前の人工画像に相当する生徒画像とが取得され、教師画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップが、生徒画像から抽出され、抽出された第1のクラスタップの隣接する画素どうしの画素値の差分が求められ、差分に基づいて、その差分に対応する注目画素が第1のクラスに分類され、注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップが、生徒画像から抽出され、第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素が、第2のクラスに分類され、第1のクラスに基づいて、注目画素の第1のクラスと、注目画素の第2のクラスのうちのいずれか一方が、注目画素のクラスとして選択され、注目画素を求めるのに用いる複数の画素から構成される予測タップが、生徒画像から抽出され、抽出された予測タップに基づいて、予測タップに対応する注目画素のクラスとして選択された第1または第2のクラスごとに、予測係数を用いて求められる注目画素の予測誤差を統計的に最小にする予測係数が演算される。 In the second aspect of the present invention, a teacher image that is a target artificial image after the conversion process and a student image corresponding to the artificial image before the conversion process are acquired, and the attention image is a pixel of the teacher image A first class tap composed of a plurality of pixels used for classifying a pixel into the first class is extracted from the student image, and a difference between pixel values of adjacent pixels of the extracted first class tap is extracted. A second class tap composed of a plurality of pixels used to classify the pixel of interest into the second class based on the difference, the pixel of interest corresponding to the difference is classified into the first class Is extracted from the student image, and based on the pixel value of each pixel of the second class tap, the pixel of interest corresponding to the second class tap is classified into the second class, and based on the first class Featured image One of the first class and the second class of the target pixel is selected as the class of the target pixel, and a prediction tap including a plurality of pixels used for obtaining the target pixel is a student image. For each first or second class selected as the class of the target pixel corresponding to the prediction tap based on the extracted prediction tap, the prediction error of the target pixel obtained using the prediction coefficient is statistically calculated. The prediction coefficient that minimizes the result is calculated.

本発明によれば、人工画像の品質を的確に高めることができる。   According to the present invention, the quality of an artificial image can be improved accurately.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の第1の側面の画像処理装置は、入力画像(例えば、図1の出力位相変換部112から入力されるHD画像)から、前記入力画像のうちの、階調が少なくエッジがはっきりした人工的な画像である人工画像を高品質にした出力画像(例えば、人工高品質画像)を求める画像処理装置(例えば、図10の人工画予測部132)において、前記出力画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記入力画像から抽出する第1のクラスタップ抽出手段と、前記第1のクラスタップの隣接する画素どうしの画素値の差分を求める差分算出手段と、前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類する第1の分類手段(例えば、図10のクラス分類部651)と、前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記入力画像から抽出する第2のクラスタップ抽出手段と、前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類する第2の分類手段(例えば、図23のクラス分類器861)と、前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択する選択手段(例えば、図23のクラス選択部863)と、複数の人工画像を用いた学習により獲得された前記第1のクラスごとの予測係数および前記第2のクラスごとの予測係数(例えば、予測係数Wn)を格納する格納手段(例えば、図10の予測係数メモリ654)と、前記入力画像と、前記注目画素のクラスとして選択された前記第1または第2のクラスの予測係数とを用いて演算することで、前記入力画像から前記出力画像を求める演算手段(例えば、図10の予測部655)とを備える。 The image processing apparatus according to the first aspect of the present invention has a small gradation and a clear edge in the input image from an input image (for example, an HD image input from the output phase converter 112 in FIG. 1). In an image processing apparatus (for example, the artificial image prediction unit 132 in FIG. 10) that obtains an output image (for example, an artificial high quality image) obtained by improving the quality of an artificial image that is an artificial image, attention is given to pixels of the output image. First class tap extraction means for extracting, from the input image, a first class tap composed of a plurality of pixels used for classifying pixels into the first class, and adjacent to the first class tap. Difference calculating means for obtaining a pixel value difference between pixels, and first classification means for classifying the target pixel corresponding to the difference into the first class based on the difference (for example, the class classification unit in FIG. 10) 51), second class tap extraction means for extracting, from the input image, a second class tap composed of a plurality of pixels used for classifying the pixel of interest into a second class, and Based on the pixel value of each pixel of the class tap, second classifying means for classifying the target pixel corresponding to the second class tap into the second class (for example, class classifier 861 in FIG. 23) If, on the basis of the first class, said first class of the pixel of interest, either one of the second class of the pixel of interest, selecting means for selecting as a class of the pixel of interest ( For example, the prediction coefficient for each of the first classes and the prediction coefficient for each of the second classes (for example, the prediction coefficient W n ) acquired by learning using a class selection unit 863) and a plurality of artificial images in FIG. ) Storage means (for example, the prediction coefficient memory 654 in FIG. 10), the input image, and the prediction coefficient of the first or second class selected as the class of the target pixel, Computation means for obtaining the output image from the input image (for example, the prediction unit 655 in FIG. 10).

前記第1の分類手段は、前記差分の絶対値(例えば、隣接画素差分絶対値)に基づいてその差分に対応する注目画素を前記第1のクラスに分類する(例えば、図16のクラス分類処理)。 Said first classifying means, the absolute value of the difference (e.g., the adjacent pixel difference absolute value) on the basis of, classifying a pixel of interest that corresponds to the difference in the first class (e.g., the classification of FIG. 16 processing).

前記第1の分類手段は、前記差分の絶対値の比(例えば、水平差分比)に基づいてその差分に対応する注目画素を前記第1のクラスに分類する(例えば、図22のクラス分類処理)。 The first classifying unit classifies the target pixel corresponding to the difference into the first class based on a ratio of absolute values of the differences (for example, horizontal difference ratio) (for example, class classification in FIG. 22). processing).

本発明の第1の側面の画像処理方法は、入力画像(例えば、図1の出力位相変換部112から入力されるHD画像)から、前記入力画像のうちの、階調が少なくエッジがはっきりした人工的な画像である人工画像を高品質にした出力画像(例えば、人工高品質画像)を求める画像処理方法において、前記出力画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記入力画像から抽出し、前記第1のクラスタップの隣接する画素どうしの画素値の差分を求め、前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類し(例えば、図15のステップS701)、前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記入力画像から抽出し、前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類し、前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択し、前記入力画像と、複数の人工画像を用いた学習により獲得された前記第1のクラスごとの予測係数(例えば、予測係数Wn)および前記第2のクラスごとの予測係数のうち、前記注目画素のクラスとして選択された前記第1または第2のクラスの予測係数とを用いて演算することで、前記入力画像から前記出力画像を求める(例えば、図15のステップS706)ステップを含む。 In the image processing method according to the first aspect of the present invention, an input image (for example, an HD image input from the output phase converter 112 in FIG. 1) has a small gradation and a clear edge from the input image. In an image processing method for obtaining an output image (for example, an artificial high quality image) in which an artificial image, which is an artificial image, has a high quality, it is used to classify a pixel of interest that is a pixel of the output image into a first class. A first class tap composed of a plurality of pixels is extracted from the input image, a difference between pixel values of adjacent pixels of the first class tap is obtained, and the difference is handled based on the difference. Classifying the target pixel to be classified into the first class (for example, step S701 in FIG. 15), and selecting a second class tap composed of a plurality of pixels used to classify the target pixel into the second class. , Extracted from the input image, based on the pixel value of each pixel of the second class taps, the pixel of interest corresponding to the second class taps are classified into the second class, the first Based on the class , one of the first class of the pixel of interest and the second class of the pixel of interest is selected as the class of the pixel of interest, and the input image and a plurality of artificial Of the prediction coefficient (for example, prediction coefficient W n ) for each first class and the prediction coefficient for each second class acquired by learning using an image, the first pixel selected as the class of the pixel of interest It includes the step of obtaining the output image from the input image (for example, step S706 in FIG. 15) by calculating using the prediction coefficient of the first or second class.

本発明の第2の側面の学習装置は、階調が少なくエッジがはっきりした人工的な画像である人工画像(例えば、図1の出力位相変換部112から入力されるHD画像)を、高品質な人工画像(例えば、人工高品質画像)に変換する変換処理を行うとき用いられる予測係数(例えば、予測係数Wn)を学習する学習装置(例えば、図17の学習装置811)であって、変換処理後の目標の人工画像となる教師画像と、前記変換処理が行われる前の前記人工画像に相当する生徒画像とを取得する取得手段(例えば、図17の生徒画像生成部821)と、前記教師画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記生徒画像から抽出する第1のクラスタップ抽出手段(例えば、図11のクラスタップ抽出部671と同様に構成される図17のクラス分類部822のクラスタップ抽出部)と、抽出された前記第1のクラスタップの隣接する画素どうしの画素値の差分を求める差分算出手段と、前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類する第1の分類手段(例えば、図11のADRC処理部673と同様に構成される図17のクラス分類部822のADRC処理部)と、前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記生徒画像から抽出する第2のクラスタップ抽出手段と、前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類する第2の分類手段と、前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択する選択手段と、前記注目画素を求めるのに用いる複数の画素から構成される予測タップを、前記生徒画像から抽出する予測タップ抽出手段(例えば、図18の予測タップ抽出部831)と、抽出された前記予測タップに基づいて、前記予測タップに対応する注目画素のクラスとして選択された前記第1または第2のクラスごとに、前記予測係数を用いて求められる前記注目画素の予測誤差を統計的に最小にする前記予測係数を演算する演算手段(例えば、図18の正規方程式生成部832)とを備える。 The learning device according to the second aspect of the present invention provides an artificial image (for example, an HD image input from the output phase conversion unit 112 in FIG. 1), which is an artificial image with few gradations and clear edges, with high quality. A learning device (for example, the learning device 811 in FIG. 17) that learns a prediction coefficient (for example, the prediction coefficient W n ) that is used when performing a conversion process for converting into an artificial image (for example, an artificial high quality image) An acquisition means (for example, a student image generation unit 821 in FIG. 17) for acquiring a teacher image to be a target artificial image after the conversion process and a student image corresponding to the artificial image before the conversion process; First class tap extraction means for extracting a first class tap composed of a plurality of pixels used for classifying a target pixel as a pixel of the teacher image into a first class from the student image (for example, In FIG. A class tap extraction unit of the class classification unit 822 in FIG. 17 configured in the same manner as the last tap extraction unit 671, and a difference calculation unit that calculates a difference in pixel values between adjacent pixels of the extracted first class tap. First classifying means for classifying the target pixel corresponding to the difference into the first class based on the difference (for example, the class classification unit in FIG. 17 configured similarly to the ADRC processing unit 673 in FIG. 11) 822 ADRC processing unit) and second class tap extraction means for extracting from the student image a second class tap composed of a plurality of pixels used for classifying the pixel of interest into a second class. , Based on the pixel value of each pixel of the second class tap, second classifying means for classifying the target pixel corresponding to the second class tap into the second class, and the first class Based on And selecting means for selecting one of the first class of the pixel of interest and the second class of the pixel of interest as the class of the pixel of interest, and used for obtaining the pixel of interest. Corresponding to the prediction tap based on the prediction tap extraction means (for example, the prediction tap extraction unit 831 in FIG. 18) that extracts prediction taps composed of a plurality of pixels and the extracted prediction tap. Computing means for computing the prediction coefficient that statistically minimizes the prediction error of the pixel of interest obtained using the prediction coefficient for each of the first or second class selected as the class of the pixel of interest For example, a normal equation generation unit 832) of FIG.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した画像変換装置101の一実施の形態を示すブロック図である。画像変換装置101は、巡回型IP変換部111、出力位相変換部112、自然画予測部131、人工画予測部132、自然画人工画判定部114、および、合成部133により構成される。また、巡回型IP変換部111は、IP変換部121および巡回型変換部122により構成される。   FIG. 1 is a block diagram showing an embodiment of an image conversion apparatus 101 to which the present invention is applied. The image conversion apparatus 101 includes a cyclic IP conversion unit 111, an output phase conversion unit 112, a natural image prediction unit 131, an artificial image prediction unit 132, a natural image / artificial image determination unit 114, and a synthesis unit 133. The cyclic IP conversion unit 111 includes an IP conversion unit 121 and a cyclic conversion unit 122.

巡回型IP変換部111のIP変換部121および巡回型変換部122には、処理対象となるインターレース方式のSD画像が入力される。   An interlaced SD image to be processed is input to the IP conversion unit 121 and the cyclic conversion unit 122 of the cyclic IP conversion unit 111.

IP変換部121は、所定の方法に基づいて、入力されたインターレース方式のSD画像(以下、入力画像とも称する)をプログレッシブ方式のSD画像(以下、中間画像とも称する)にIP変換し、IP変換したプログレッシブ方式のSD画像を巡回型変換部122に供給する。   Based on a predetermined method, the IP conversion unit 121 converts an input interlaced SD image (hereinafter also referred to as an input image) into a progressive SD image (hereinafter also referred to as an intermediate image). The progressive SD image is supplied to the cyclic conversion unit 122.

巡回型変換部122は、入力画像と、1フレーム前に巡回型変換部122から出力されたプログレッシブ方式のSD画像(以下、出力画像とも称する)との間の動きベクトルを求める。巡回型変換部122は、入力画像の画素値と、求めた動きベクトルに基づいて、出力画像に動き補償を施した画像の画素値とを、巡回係数を用いて重み付け加算することにより、中間画像の画質を向上させる。巡回型変換部122は、中間画像をより高画質のプログレッシブ方式のSD画像である出力画像に変換し、出力画像を出力位相変換部112に供給する。なお、巡回係数は、中間画像の各画素について、変換前の入力画像において画素が存在する位置にあるか否か、動きベクトルの垂直方向の大きさ、および、動きベクトルの確からしさを表す信頼度確からしさに基づいて設定される。   The cyclic conversion unit 122 obtains a motion vector between an input image and a progressive SD image (hereinafter also referred to as an output image) output from the cyclic conversion unit 122 one frame before. The cyclic conversion unit 122 weights and adds the pixel value of the input image and the pixel value of the image that has been subjected to motion compensation to the output image based on the obtained motion vector, using the cyclic coefficient. Improve image quality. The recursive conversion unit 122 converts the intermediate image into an output image that is a higher-quality progressive SD image, and supplies the output image to the output phase conversion unit 112. Note that the cyclic coefficient is a reliability indicating whether each pixel of the intermediate image is in a position where the pixel exists in the input image before conversion, the magnitude of the motion vector in the vertical direction, and the probability of the motion vector. It is set based on the probability.

出力位相変換部112は、巡回型変換部122から供給される第1の画素数のSD画像に対して、水平方向および垂直方向に補間を行うことにより、第1の画素数より多い第2の画素数のHD画像を生成する。出力位相変換部112は、そのHD画像を、自然画予測部131、人工画予測部132、および、自然画人工画判定部114に供給する。   The output phase conversion unit 112 performs interpolation in the horizontal direction and the vertical direction on the SD image having the first number of pixels supplied from the cyclic conversion unit 122, so that the second number larger than the first number of pixels. An HD image having the number of pixels is generated. The output phase conversion unit 112 supplies the HD image to the natural image prediction unit 131, the artificial image prediction unit 132, and the natural image / artificial image determination unit 114.

画像処理部113は、自然画人工画判定部114より供給されてくる人工画度に基づいて、HD画像から高品質な画像に処理して、処理結果としての高品質なHD画像を出力する。   The image processing unit 113 processes the HD image into a high quality image based on the artificial image supplied from the natural image / artificial image determination unit 114, and outputs a high quality HD image as a processing result.

自然画人工画判定部114は、出力位相変換部112より供給されるHD画像の各画素について、人工画像に分類される領域、または、自然画像に分類される領域のいずれの領域に属するかを判定し、判定結果を人工画度として画像処理部113に出力する。すなわち、人工画度とは、人工画像と自然画像との中間に分類される領域において自然画像における人工画像の割合を0乃至1の値で示したものである。   The natural image / artificial image determination unit 114 determines whether each pixel of the HD image supplied from the output phase conversion unit 112 belongs to an area classified as an artificial image or an area classified as a natural image. The determination result is output to the image processing unit 113 as an artificial image degree. That is, the artificial degree of art is a value of 0 to 1 indicating the ratio of the artificial image in the natural image in the region classified between the artificial image and the natural image.

自然画予測部131は、出力位相変換部112から供給されるHD画像から、そのHD画像のうちの自然画像を高品質にしたHD画像(以下、自然高品質画像と称する)を予測する。具体的には、自然画予測部131は、HD画像の特徴に応じて、そのHD画像から求められる自然高品質画像の画素である注目画素を、自然画像の特徴に適したクラスに分類する。そして、自然画予測部131は、そのクラスに対応する、自然高品質画像を予測するための予測係数と、HD画像とを用いて演算することにより、出力位相変換部112から供給されたHD画像から、自然高品質画像を予測する。自然画予測部131は、その自然高品質画像を合成部133に供給する。   The natural image prediction unit 131 predicts, from the HD image supplied from the output phase conversion unit 112, an HD image (hereinafter, referred to as a natural high quality image) in which the natural image of the HD image is of high quality. Specifically, the natural image prediction unit 131 classifies the target pixel, which is a pixel of a natural high quality image obtained from the HD image, into a class suitable for the feature of the natural image, according to the feature of the HD image. Then, the natural image prediction unit 131 performs an operation using a prediction coefficient for predicting a natural high-quality image corresponding to the class and the HD image, thereby providing an HD image supplied from the output phase conversion unit 112. Predict natural high-quality images. The natural image prediction unit 131 supplies the natural high quality image to the synthesis unit 133.

人工画予測部132は、自然画予測部131と同様に、出力位相変換部112から供給されるHD画像から、そのHD画像のうちの人工画像を高品質にしたHD画像(以下、人工高品質画像と称する)を予測する。具体的には、人工画予測部132は、HD画像の特徴に応じて、そのHD画像から求められる人工高品質画像の画素である注目画素を、人工画像の特徴に適したクラスに分類する。そして、人工画予測部132は、そのクラスに対応する、人工高品質画像を予測するための予測係数と、HD画像とを用いて演算することにより、出力位相変換部112から供給されたHD画像から、人工高品質画像を予測する。人工画予測部132は、その人工高品質画像を合成部133に出力する。   Similar to the natural image prediction unit 131, the artificial image prediction unit 132 uses an HD image (hereinafter referred to as artificial high quality) obtained from the HD image supplied from the output phase conversion unit 112 to a high quality image of the HD image. (Referred to as image). Specifically, the artificial image prediction unit 132 classifies the target pixel, which is a pixel of an artificial high quality image obtained from the HD image, into a class suitable for the feature of the artificial image according to the feature of the HD image. Then, the artificial image predicting unit 132 performs an operation using a prediction coefficient for predicting the artificial high quality image corresponding to the class and the HD image, and thereby the HD image supplied from the output phase converting unit 112. To predict artificial high quality images. The artificial image prediction unit 132 outputs the artificial high quality image to the synthesis unit 133.

合成部133は、自然画人工画判定部114より供給される判定結果に基づいて、自然画予測部131から供給される自然高品質画像の各画素の画素値と、人工画予測部132から供給される人工高品質画像の各画素の画素値とを人工画度に応じた割合で合成し、合成の結果得られるHD画像を出力する。   Based on the determination result supplied from the natural-image / artificial-image determination unit 114, the synthesis unit 133 supplies the pixel value of each pixel of the natural high-quality image supplied from the natural-image prediction unit 131 and the artificial-image prediction unit 132. A pixel value of each pixel of the artificial high-quality image to be synthesized is synthesized at a ratio corresponding to the artificial picture degree, and an HD image obtained as a result of the synthesis is output.

次に、図2のフローチャートを参照して、画像変換装置101により実行される画像変換処理を説明する。なお、この処理は、例えば、外部からインターレース方式のSD画像の入力が開始されたとき開始される。   Next, image conversion processing executed by the image conversion apparatus 101 will be described with reference to the flowchart of FIG. This process is started, for example, when input of an interlaced SD image is started from the outside.

ステップS1において、IP変換部121は、IP変換を行う。具体的には、IP変換部121は、所定の方法に基づいて、インターレース方式の入力画像を、プログレッシブ方式の中間画像にIP変換し、IP変換した中間画像を巡回型変換部122に供給する。   In step S1, the IP conversion unit 121 performs IP conversion. Specifically, the IP conversion unit 121 IP-converts an interlaced input image into a progressive intermediate image based on a predetermined method, and supplies the IP-converted intermediate image to the cyclic conversion unit 122.

ステップS2において、巡回型変換部122は、巡回型変換処理を行う。具体的には、入力画像と、1フレーム前に巡回型変換部122から出力された出力画像との間の動きベクトルを求める。巡回型変換部122は、入力画像の画素値と、求めた動きベクトルに基づいて、出力画像に動き補償を施した画像の画素値とを、巡回係数を用いて重み付け加算することにより、中間画像の画質を向上させる。巡回型変換部122は、中間画像をより高画質のプログレッシブ方式のSD画像である出力画像に変換し、出力画像を出力位相変換部112に供給する。   In step S2, the cyclic conversion unit 122 performs a cyclic conversion process. Specifically, a motion vector between the input image and the output image output from the cyclic conversion unit 122 one frame before is obtained. The cyclic conversion unit 122 weights and adds the pixel value of the input image and the pixel value of the image that has been subjected to motion compensation to the output image based on the obtained motion vector, using the cyclic coefficient. Improve image quality. The recursive conversion unit 122 converts the intermediate image into an output image that is a higher-quality progressive SD image, and supplies the output image to the output phase conversion unit 112.

ステップS3において、出力位相変換部112は、出力位相変換処理を行う。具体的には、出力位相変換部112は、巡回型変換部122から供給されるSD画像に対して、水平方向および垂直方向に補間を行うことにより、HD画像を生成する。出力位相変換部112は、そのHD画像を、自然画予測部131、人工画予測部132、および、自然画人工画判定部114に供給する。   In step S3, the output phase converter 112 performs an output phase conversion process. Specifically, the output phase conversion unit 112 generates an HD image by performing interpolation in the horizontal direction and the vertical direction on the SD image supplied from the cyclic conversion unit 122. The output phase conversion unit 112 supplies the HD image to the natural image prediction unit 131, the artificial image prediction unit 132, and the natural image / artificial image determination unit 114.

ステップS4において、自然画予測部131は、自然画予測処理を行う。自然画予測処理の詳細は、図6を参照して後述するが、この処理により、HD画像から自然高品質画像が予測され、その自然高品質画像が合成部133に供給される。   In step S4, the natural image prediction unit 131 performs natural image prediction processing. Details of the natural image prediction process will be described later with reference to FIG. 6, and a natural high quality image is predicted from the HD image by this process, and the natural high quality image is supplied to the synthesis unit 133.

ステップS5において、人工画予測部132は、人工画予測処理を行う。人工画予測処理の詳細は、図15を参照して後述するが、この処理により、HD画像から人工高品質画像が予測され、その人工高品質画像が合成部133に出力される。   In step S5, the artificial image prediction unit 132 performs an artificial image prediction process. Details of the artificial image prediction process will be described later with reference to FIG. 15, and by this process, an artificial high quality image is predicted from the HD image, and the artificial high quality image is output to the synthesis unit 133.

ステップS6において、自然画人工画判定部114は、自然画人工画判定処理を行う。自然画予測処理の詳細は、図35を参照して後述するが、自然画人工画判定部114は、出力位相変換部112より供給されるHD画像の各画素について、人工画像に分類される領域、または、自然画像に分類される領域のいずれの領域に属するかを判定し、判定結果を人工画度として合成部133に出力する。   In step S6, the natural-image / artificial-image determination unit 114 performs a natural-image / artificial-image determination process. The details of the natural image prediction processing will be described later with reference to FIG. 35, but the natural image artificial image determination unit 114 is a region classified as an artificial image for each pixel of the HD image supplied from the output phase conversion unit 112. Alternatively, it is determined which of the areas classified as natural images belongs to, and the determination result is output to the synthesizing unit 133 as an artificial image degree.

ステップS7において、合成部133は、画像を合成する。具体的には、合成部133は、自然画人工画判定部114より供給される判定結果に基づいて、自然画予測部131から供給される自然高品質画像の各画素の画素値と、人工画予測部132から供給される人工高品質画像の各画素の画素値とを人工画度に応じた割合で合成する。合成部133は、合成した画像を後段の装置に出力する。   In step S7, the synthesizer 133 synthesizes the images. Specifically, the synthesis unit 133 determines the pixel value of each pixel of the natural high-quality image supplied from the natural image prediction unit 131 based on the determination result supplied from the natural image / artificial image determination unit 114, and the artificial image. The pixel values of the respective pixels of the artificial high quality image supplied from the prediction unit 132 are combined at a ratio corresponding to the artificial image quality. The combining unit 133 outputs the combined image to a subsequent apparatus.

なお、複数の画像の画像変換を連続して行う場合、上述したステップS1乃至S7の処理が繰り返し実行される。   In addition, when performing image conversion of a plurality of images continuously, the processes in steps S1 to S7 described above are repeatedly executed.

図3は、図1の自然画予測部131の構成例を示すブロック図である。   FIG. 3 is a block diagram illustrating a configuration example of the natural image prediction unit 131 in FIG.

図3の自然画予測部131は、クラスタップ抽出部551、ADRC(Adaptive Dynamic Range Coding)処理部552、係数種メモリ553、予測係数生成部554、予測係数メモリ555、予測タップ抽出部556、および予測演算部557により構成され、図1の出力位相変換部112から供給されるプログレッシブ方式のHD画像から、そのHD画像のうちの自然画像からノイズなどを除去して、高品質にした自然高品質画像を予測する。   3 includes a class tap extraction unit 551, an ADRC (Adaptive Dynamic Range Coding) processing unit 552, a coefficient seed memory 553, a prediction coefficient generation unit 554, a prediction coefficient memory 555, a prediction tap extraction unit 556, and A high-quality natural high-quality image that is composed of a prediction calculation unit 557 and removes noise from the natural image of the HD image from the progressive HD image supplied from the output phase conversion unit 112 in FIG. Predict images.

自然画予測部131には、図1の出力位相変換部112から供給される、プログレッシブ方式のHD画像が入力され、そのHD画像はクラスタップ抽出部551と予測タップ抽出部556に供給される。   The progressive HD image supplied from the output phase conversion unit 112 in FIG. 1 is input to the natural image prediction unit 131, and the HD image is supplied to the class tap extraction unit 551 and the prediction tap extraction unit 556.

クラスタップ抽出部551は、入力されたHD画像により求められる、自然高品質画像を構成する画素を、順次、注目画素とし、その注目画素をクラスに分類するために用いる、入力されたHD画像を構成する画素の幾つかを、クラスタップとして抽出する。クラスタップ抽出部551は、抽出されたクラスタップを、ADRC処理部552に供給する。   The class tap extraction unit 551 sequentially sets pixels constituting the natural high-quality image obtained from the input HD image as the target pixel, and uses the input HD image used to classify the target pixel into a class. Some of the constituent pixels are extracted as class taps. The class tap extraction unit 551 supplies the extracted class tap to the ADRC processing unit 552.

ADRC処理部552は、クラスタップ抽出部551から供給されるクラスタップを構成する画素の画素値を、クラスタップの波形の特徴として、その画素値に対してADRC処理などを行い、その結果得られるADRCコードを、クラスタップの特徴として検出する。   The ADRC processing unit 552 performs the ADRC processing on the pixel value of the pixel constituting the class tap supplied from the class tap extraction unit 551 as a characteristic of the class tap waveform, and the result is obtained. Detects ADRC code as a class tap feature.

なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算される。 In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixels constituting the class tap are detected, and DR = MAX-MIN is set as the local dynamic range of the set, and this dynamic range Based on DR, the pixel values constituting the class tap are requantized to K bits. That is, the pixel value of each pixel forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided by DR / 2 K.

そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最大値MAXと最小値MINとの平均値で除算されて、除算結果の小数点以下は切り捨てられ、これにより、各画素の画素値が1ビットとされる。即ち、各画素の画素値が2値化される。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。   A bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code. Therefore, for example, when a class tap is subjected to 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is divided by the average value of the maximum value MAX and the minimum value MIN, and the result of the division is The fractional part is rounded down, so that the pixel value of each pixel is 1 bit. That is, the pixel value of each pixel is binarized. Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code.

ADRC処理部552は、検出されたADRCコードに基づいてクラスを決定することにより、注目画素をクラスに分類し、そのクラスを予測係数メモリ555に供給する。例えば、ADRC処理部552は、ADRCコードをそのままクラスとして、予測係数メモリ555に供給する。   The ADRC processing unit 552 determines a class based on the detected ADRC code, classifies the target pixel into a class, and supplies the class to the prediction coefficient memory 555. For example, the ADRC processing unit 552 supplies the ADRC code as it is to the prediction coefficient memory 555 as a class.

係数種メモリ553は、図7乃至図9を参照して後述する学習により獲得されたクラスごとの係数種を格納している。予測係数生成部554は、係数種メモリ553から係数種を読み出す。予測係数生成部554は、ユーザにより入力される水平方向の解像度を決定するためのパラメータhと、垂直方向の解像度を決定するためのパラメータvとに基づいて、そのパラメータhとvを含む多項式を用いて、読み出された係数種から予測係数を生成し、予測係数メモリ555に供給して記憶させる。   The coefficient seed memory 553 stores coefficient seeds for each class acquired by learning described later with reference to FIGS. 7 to 9. The prediction coefficient generation unit 554 reads the coefficient seed from the coefficient seed memory 553. The prediction coefficient generation unit 554, based on the parameter h for determining the horizontal resolution input by the user and the parameter v for determining the vertical resolution, calculates a polynomial including the parameters h and v. The prediction coefficient is generated from the read coefficient type and supplied to the prediction coefficient memory 555 for storage.

予測係数メモリ555は、ADRC処理部552から供給されるクラスに応じて、そのクラスの予測係数を読み出し、予測演算部557に供給する。   The prediction coefficient memory 555 reads out the prediction coefficient of the class according to the class supplied from the ADRC processing unit 552 and supplies it to the prediction calculation unit 557.

なお、予測タップとクラスタップは、同一のタップ構造を有するものとすることも、異なるタップ構造を有するものとすることも可能である。   Note that the prediction tap and the class tap may have the same tap structure or different tap structures.

予測タップ抽出部556は、入力されたHD画像から、注目画素の画素値を予測するのに用いるHD画像を構成する画素を、予測タップとして抽出する。予測タップ抽出部556は、予測タップを予測演算部557に供給する。   The prediction tap extraction unit 556 extracts pixels constituting the HD image used for predicting the pixel value of the target pixel from the input HD image as a prediction tap. The prediction tap extraction unit 556 supplies the prediction tap to the prediction calculation unit 557.

予測演算部557は、予測タップ抽出部556から供給される予測タップと、予測係数メモリ555から供給される予測係数とを用いて、注目画素の真値の予測値を求める線形一次式の演算などの予測演算を行う。これにより、予測演算部557は、注目画素の画素値の予測値、即ち、自然高品質画像を構成する画素の画素値を求めて合成部133に出力する。   The prediction calculation unit 557 uses a prediction tap supplied from the prediction tap extraction unit 556 and a prediction coefficient supplied from the prediction coefficient memory 555 to calculate a linear linear expression that obtains a predicted value of the true value of the target pixel. The prediction calculation is performed. Thereby, the prediction calculation unit 557 obtains the predicted value of the pixel value of the target pixel, that is, the pixel value of the pixels constituting the natural high-quality image, and outputs the pixel value to the synthesis unit 133.

図4は、図3のクラスタップ抽出部551により抽出されるクラスタップのタップ構造の一例を示している。   FIG. 4 shows an example of a tap structure of class taps extracted by the class tap extraction unit 551 of FIG.

なお、図中白丸は、出力位相変換部112から供給されるHD画像の画素のうち、クラスタップを構成する画素を表し、点線の丸は、クラスタップを構成しない画素を表し、黒丸は注目画素を表している。このことは、後述する図5においても同様である。   In the figure, white circles represent pixels constituting a class tap among HD image pixels supplied from the output phase conversion unit 112, dotted circles represent pixels not constituting a class tap, and black circles represent a target pixel. Represents. The same applies to FIG. 5 described later.

図4では、9個の画素で、クラスタップが構成されている。即ち、注目画素q6に対応するHD画像を構成する画素p64を中心として、縦方向に1画素置きに並ぶ5画素p60,p61,p64,p67,p68、横方向に1画素置きに並ぶ画素p64を除いた4画素p62,p63,p65,p66から、いわば十字形状のクラスタップが構成されている。   In FIG. 4, a class tap is composed of nine pixels. That is, five pixels p60, p61, p64, p67, p68 arranged every other pixel in the vertical direction and pixels p64 arranged every other pixel in the horizontal direction around the pixel p64 constituting the HD image corresponding to the target pixel q6. The excluded four pixels p62, p63, p65, and p66 constitute a so-called cross-shaped class tap.

図5は、図3の予測タップ抽出部556により抽出される予測タップのタップ構造の一例を示している。   FIG. 5 shows an example of the tap structure of the prediction tap extracted by the prediction tap extraction unit 556 of FIG.

図5では、13個の画素で、予測タップが構成されている。即ち、図5では、出力位相変換部112から供給されるHD画像のうちの、注目画素q8に対応する画素p86を中心として縦方向に1画素置きに並ぶ5画素p80,p82,p86,p90,p92、横方向に1画素置きに並ぶ画素p86を除いた4画素p84、p85,p87,p88、画素p85を中心として、縦方向に1画素置きに並ぶ画素p85を除いた2画素p81,p89、画素p87を中心として、縦方向に1画素置きに並ぶ画素p87を除いた2画素p83,p91から、略ひし形状の予測タップが構成されている。   In FIG. 5, the prediction tap is comprised by 13 pixels. That is, in FIG. 5, among the HD images supplied from the output phase conversion unit 112, five pixels p80, p82, p86, p90, which are arranged every other pixel in the vertical direction around the pixel p86 corresponding to the target pixel q8. p92, 4 pixels p84, p85, p87, p88 excluding the pixels p86 arranged every other pixel in the horizontal direction, and 2 pixels p81, p89 excluding the pixels p85 arranged every other pixel in the vertical direction around the pixel p85, A substantially rhombic prediction tap is constituted by two pixels p83 and p91 excluding the pixels p87 arranged every other pixel in the vertical direction around the pixel p87.

なお、図4と図5では、クラスタップを構成する9画素p60乃至p68と、予測タップを構成する13画素p80乃至p92は、上下方向(垂直方向)または左右方向(水平方向)に1画素置きに、即ち2画素間隔で並んでいるが、その間隔は、これに限定されず、出力位相変換部112における変換前のSD画像と変換後のHD画像の画素数の比率、即ち補間倍率に応じて変更するとよい。   4 and 5, the nine pixels p60 to p68 constituting the class tap and the 13 pixels p80 to p92 constituting the prediction tap are arranged every other pixel in the vertical direction (vertical direction) or the horizontal direction (horizontal direction). However, the interval is not limited to this, and the interval depends on the ratio of the number of pixels of the SD image before conversion and the HD image after conversion in the output phase converter 112, that is, the interpolation magnification. To change.

例えば、水平方向と垂直方向の各画素数が、それぞれ2倍になるように、出力位相変換部112が画像を変換した場合、図4と図5に示されるように、垂直方向または水平方向に2画素間隔で並ぶ画素から、クラスタップと予測タップを構成すると、補間された画素および補間前から存在する画素のうちの一方だけで、クラスタップと予測タップが構成されるので、それらの両方が混在する、例えばクラスタップと予測タップが1画素間隔で並ぶ画素から構成される場合よりも、自然画予測部131による予測処理の結果の精度が向上する。   For example, when the output phase converter 112 converts the image so that the number of pixels in the horizontal direction and the vertical direction is doubled, as shown in FIGS. When a class tap and a prediction tap are configured from pixels arranged at intervals of two pixels, a class tap and a prediction tap are configured by only one of the interpolated pixel and the pixel existing before the interpolation. For example, the accuracy of the result of the prediction process by the natural image prediction unit 131 is improved as compared with a case where the class tap and the prediction tap are composed of pixels arranged at intervals of one pixel.

次に、図6を参照して、図3の自然画予測部131が行う図2のステップS4の自然画予測処理の詳細を説明する。   Next, the details of the natural image prediction process in step S4 of FIG. 2 performed by the natural image prediction unit 131 of FIG. 3 will be described with reference to FIG.

初めに、ステップS551において、クラスタップ抽出部551は、図1の出力位相変換部112から入力されたHD画像により求められる自然高品質画像を構成する画素のうちの1つを、注目画素として選択する。   First, in step S551, the class tap extraction unit 551 selects one of the pixels constituting the natural high quality image obtained from the HD image input from the output phase conversion unit 112 of FIG. 1 as the target pixel. To do.

ステップS552において、クラスタップ抽出部551は、図4に示されるような、ステップS551で選択された注目画素のクラス分類を行うのに用いる、入力されたHD画像を構成する画素の幾つかを、HD画像からクラスタップとして抽出し、ADRC処理部552に供給する。   In step S552, the class tap extraction unit 551 selects some of the pixels constituting the input HD image used for classifying the pixel of interest selected in step S551 as shown in FIG. A class tap is extracted from the HD image and supplied to the ADRC processing unit 552.

ステップS553において、ADRC処理部552は、クラスタップ抽出部551から供給されるクラスタップを構成する画素の画素値に対して、ADRC処理を行い、その結果得られるADRCコードを、クラスタップの特徴として検出する。   In step S553, the ADRC processing unit 552 performs ADRC processing on the pixel values of the pixels constituting the class tap supplied from the class tap extraction unit 551, and uses the resulting ADRC code as the class tap feature. To detect.

ステップS554において、ADRC処理部552は、ADRCコードに基づいてクラスを決定することにより、注目画素をクラスに分類し、そのクラスを予測係数メモリ555に供給する。   In step S554, the ADRC processing unit 552 determines a class based on the ADRC code, thereby classifying the pixel of interest into a class, and supplies the class to the prediction coefficient memory 555.

ステップS555において、予想係数生成部554は、係数種メモリ553から係数種を読み出す。   In step S555, the predicted coefficient generation unit 554 reads the coefficient seed from the coefficient seed memory 553.

ステップS556において、予測係数生成部554は、ユーザにより入力されたパラメータhとvに基づいて、パラメータhとvを含む多項式を用いて、係数種メモリ553から読み出された係数種から予測係数を生成し、予測係数メモリ555に供給して記憶させる。この係数種から予測係数を生成する処理の詳細については後述する。   In step S556, the prediction coefficient generation unit 554 calculates a prediction coefficient from the coefficient seed read from the coefficient seed memory 553 using a polynomial including the parameters h and v based on the parameters h and v input by the user. Generated and supplied to the prediction coefficient memory 555 for storage. Details of processing for generating a prediction coefficient from this coefficient type will be described later.

ステップS557において、予測係数メモリ555は、ADRC処理部552から供給されるクラスに基づいて、そのクラスの予測係数を読み出し、予測演算部557に供給する。   In step S557, the prediction coefficient memory 555 reads the prediction coefficient of the class based on the class supplied from the ADRC processing unit 552, and supplies the prediction coefficient to the prediction calculation unit 557.

ステップS558において、予測タップ抽出部556は、入力されたHD画像から、図5に示されるような、注目画素の画素値を予測するのに用いるHD画像を構成する画素を、予測タップとして抽出する。予測タップ抽出部556は、予測タップを予測演算部557に供給する。   In step S558, the prediction tap extraction unit 556 extracts, from the input HD image, the pixels constituting the HD image used to predict the pixel value of the target pixel as shown in FIG. 5 as the prediction tap. . The prediction tap extraction unit 556 supplies the prediction tap to the prediction calculation unit 557.

ステップS559において、予測演算部557は、予測タップ抽出部556から供給される予測タップと、予測係数メモリ555から供給される予測係数とを用いて、注目画素の真値の予測値を求める線形一次式などの予測演算を行う。   In step S559, the prediction calculation unit 557 uses the prediction tap supplied from the prediction tap extraction unit 556 and the prediction coefficient supplied from the prediction coefficient memory 555 to obtain a linear primary value for obtaining the true value prediction value of the target pixel. Perform prediction calculations such as formulas.

ステップS560において、予測演算部557は、予測演算の結果得られた注目画素の画素値の予測値、即ち、自然高品質画像を構成する画素の画素値を合成部133に出力する。   In step S560, the prediction calculation unit 557 outputs the predicted value of the pixel value of the target pixel obtained as a result of the prediction calculation, that is, the pixel value of the pixels constituting the natural high-quality image to the synthesis unit 133.

ステップS561において、クラスタップ抽出部551は、入力されたHD画像により求められる自然高品質画像を構成するすべての画素を、注目画素としたかどうかを判定する。ステップS561で、すべての画素をまだ注目画素としていないと判定された場合、ステップS562において、クラスタップ抽出部551は、自然高品質画像を構成する画素のうち、まだ注目画素としていないものを、新たに注目画素として決定し、処理をステップS552に戻し、以下同様の処理を繰り返す。一方、ステップS561で、クラスタップ抽出部551は、すべての画素を注目画素としたと判定した場合、自然画予測処理を終了する。   In step S561, the class tap extraction unit 551 determines whether or not all the pixels constituting the natural high quality image obtained from the input HD image are the target pixels. If it is determined in step S561 that all the pixels have not yet been set as the target pixel, in step S562, the class tap extraction unit 551 newly selects a pixel constituting the natural high-quality image that has not been set as the target pixel. Is determined as the pixel of interest, the process returns to step S552, and the same process is repeated thereafter. On the other hand, if the class tap extraction unit 551 determines in step S561 that all the pixels are the target pixel, the natural image prediction process ends.

以上のようにして、自然画予測部131は、出力位相変換部112から供給されるHD画像から、自然高品質画像を予測し、出力する。即ち、自然画予測部131は、HD画像を自然高品質画像に変換し、出力する。   As described above, the natural image prediction unit 131 predicts and outputs a natural high-quality image from the HD image supplied from the output phase conversion unit 112. That is, the natural image prediction unit 131 converts the HD image into a natural high quality image and outputs it.

以上のように、図1の画像変換装置101では、出力位相変換部112が、巡回型変換部122から供給されるSD画像を、自然画予測部131から出力するHD画像に変換して、自然画予測部131に供給するので、予測前と予測後の画像の画素数が同一であり、予測前後の画像の画素の位置にはズレがなくなる。   As described above, in the image conversion apparatus 101 in FIG. 1, the output phase conversion unit 112 converts the SD image supplied from the cyclic conversion unit 122 into an HD image output from the natural image prediction unit 131, Since the image is supplied to the image prediction unit 131, the number of pixels of the image before and after the prediction is the same, and the position of the pixel of the image before and after the prediction is not shifted.

従って、自然画予測部131は、自然高品質画像の画素である注目画素の位相と同一の位相のHD画像の画素からなる予測タップを用いて、注目画素の画素値を予測することができる。その結果、自然画予測部131は、自然高品質画像を正確に予測し、高精度の画像変換を行うことができる。即ち、出力位相変換部112と自然画予測部131は、巡回型変換部122から入力されるSD画像である画像を、画素数の異なる高品質なHD画像である自然高品質画像に的確に変換することができる。   Therefore, the natural image predicting unit 131 can predict the pixel value of the target pixel using the prediction tap including the HD image pixel having the same phase as the phase of the target pixel which is a pixel of the natural high quality image. As a result, the natural image prediction unit 131 can accurately predict a natural high quality image and perform high-accuracy image conversion. That is, the output phase conversion unit 112 and the natural image prediction unit 131 accurately convert an image that is an SD image input from the cyclic conversion unit 122 into a natural high quality image that is a high quality HD image having a different number of pixels. can do.

また、自然画予測部131は、クラスタップを構成する画素の画素値を、クラスタップの波形の特徴として、注目画素をクラスに分類するので、平坦部分が比較的少ない自然画像の特徴を分類するのに適した分類を行うことができる。その結果、自然画予測部131は、HD画像のうちの自然画像の品質を、的確に高めることができる。   Further, since the natural image prediction unit 131 classifies the pixel value of the pixel constituting the class tap as a class tap waveform characteristic, the target pixel is classified into the class, and thus classifies the feature of the natural image with relatively few flat portions. Classification suitable for As a result, the natural image prediction unit 131 can accurately improve the quality of the natural image of the HD images.

次に、図3の予測演算部557における予測演算と、その予測演算に用いられる予測係数の学習について説明する。   Next, prediction calculation in the prediction calculation unit 557 in FIG. 3 and learning of a prediction coefficient used for the prediction calculation will be described.

いま、入力されたHD画像から予測タップを抽出し、その予測タップと予測係数を用いて、自然高品質画像を構成する画素(以下、適宜、自然高品質画像画素と称する)の画素値を予測する所定の予測演算として、例えば、線形1次予測演算を採用することとすると、自然高品質画像画素の画素値yは、次の線形1次式によって求められることになる。   Now, a prediction tap is extracted from the input HD image, and a pixel value of a pixel (hereinafter, appropriately referred to as a natural high quality image pixel) constituting a natural high quality image is predicted using the prediction tap and the prediction coefficient. For example, if a linear primary prediction calculation is employed as the predetermined prediction calculation, the pixel value y of the natural high-quality image pixel is obtained by the following linear primary expression.

Figure 0004605468
Figure 0004605468

但し、式(1)において、xnは、画素値yの自然高品質画像画素についての予測タップを構成する、n番目のHD画像の画素(以下、適宜、HD画像画素と称する)の画素値を表し、Wnは、n番目のHD画像画素の画素値と乗算されるn番目の予測係数を表す。なお、式(1)では、予測タップが、N個のHD画像画素x1,x2,・・・,xNで構成されるものとしてある。 However, in Expression (1), x n is a pixel value of an nth HD image pixel (hereinafter, referred to as an HD image pixel as appropriate) that constitutes a prediction tap for a natural high quality image pixel having a pixel value y. Wn represents the nth prediction coefficient multiplied by the pixel value of the nth HD image pixel. In equation (1), the prediction tap is assumed to be composed of N HD image pixels x 1 , x 2 ,..., X N.

自然高品質画像画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   The pixel value y of the natural high-quality image pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.

いま、第kサンプルの自然高品質画像画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the natural high quality image pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k is expressed by the following equation.

Figure 0004605468
Figure 0004605468

式(2)の予測値yk'は、式(1)にしたがって求められるため、式(2)の予測値yk'を、式(1)にしたがって置き換えると、次式が得られる。 Since the predicted value y k ′ of the formula (2) is obtained according to the formula (1), the following formula is obtained by replacing the predicted value y k ′ of the formula (2) according to the formula (1).

Figure 0004605468
Figure 0004605468

但し、式(3)において、xn,kは、第kサンプルの自然高品質画像画素についての予測タップを構成するn番目のHD画像画素を表す。 In Equation (3), x n, k represents the nth HD image pixel constituting the prediction tap for the natural high quality image pixel of the kth sample.

式(3)または式(2)の予測誤差ekを0、即ち統計的に最小にする予測係数Wnが、自然高品質画像画素を予測するのに最適なものとなるが、すべての自然高品質画像画素について、そのような予測係数Wnを求めることは、一般には困難である。 0 prediction error e k of the formula (3) or formula (2), i.e. the prediction coefficient W n statistically minimizes found is the optimal to predict the high-quality natural image pixel, all natural It is generally difficult to obtain such a prediction coefficient W n for high quality image pixels.

そこで、予測係数Wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な予測係数Wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, if, for example, the least square method is adopted as a standard indicating that the prediction coefficient W n is optimum, the optimum prediction coefficient W n is obtained by calculating the sum E of square errors expressed by the following equation. It can be obtained by minimizing.

Figure 0004605468
Figure 0004605468

但し、式(4)において、Kは、高品質画像の画素値の真値ykと、その真値ykについての予測タップを構成するHD画像画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数、即ち学習用のサンプルの数を表す。 However, in the formula (4), K is, HD image pixels x 1 constituting the true value y k of the pixel values of the high-quality image, the prediction taps for the true value y k, k, x 2, k, · .., X N, k represents the number of samples, that is, the number of learning samples.

式(4)の自乗誤差の総和Eの最小値は、式(5)に示すように、総和Eを予測係数Wnで偏微分したものを0とするWnによって与えられる。 The minimum value of the sum E of square errors in equation (4) is given by W n , which is 0 as a result of partial differentiation of the sum E by the prediction coefficient W n as shown in equation (5).

Figure 0004605468
Figure 0004605468

そこで、上述の式(3)を予測係数Wnで偏微分すると、次式が得られる。 Therefore, when the above equation (3) is partially differentiated by the prediction coefficient W n , the following equation is obtained.

Figure 0004605468
Figure 0004605468

式(5)と式(6)から、次式が得られる。   From the equations (5) and (6), the following equation is obtained.

Figure 0004605468
Figure 0004605468

式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。 By substituting equation (3) into e k in equation (7), equation (7) can be expressed by the normal equation shown in equation (8).

Figure 0004605468
Figure 0004605468

式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、予測係数Wnについて解くことができる。 The normal equation of Expression (8) can be solved for the prediction coefficient W n by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like.

式(8)の正規方程式をクラスごとにたてて解くことにより、最適な予測係数として、自乗誤差の総和Eを最小にする予測係数Wnを、クラスごとに求めることができる。 By solving the normal equation of equation (8) for each class, a prediction coefficient W n that minimizes the sum E of square errors can be obtained for each class as an optimal prediction coefficient.

また、図3の予測係数生成部554において予測係数を生成する多項式と、その多項式に用いられる係数種の学習について説明する。   Also, a polynomial for generating a prediction coefficient in the prediction coefficient generation unit 554 in FIG. 3 and learning of a coefficient type used for the polynomial will be described.

いま、入力されたパラメータhとv、並びに係数種を用いて予測係数を生成する式として、例えば、多項式を採用することとすると、クラスごと、かつパラメータhとvの組み合わせごとの予測係数Wnは、次の多項式によって求められる。 As an expression for generating a prediction coefficient using the input parameters h and v and the coefficient type, for example, if a polynomial is adopted, the prediction coefficient W n for each class and each combination of the parameters h and v Is obtained by the following polynomial.

Figure 0004605468
Figure 0004605468

但し、式(9)において、wn,k(k=1,2・・・,9)は、式(14)で表される画素値yの自然高品質画像画素についての予測タップを構成する、n番目のHD画像の画素の画素値xnと乗算されるn番目の予測係数Wnを生成するための係数種のうちの、k番目の項の係数を表す。 However, in Equation (9), w n, k (k = 1, 2,..., 9) constitutes a prediction tap for the natural high quality image pixel having the pixel value y represented by Equation (14). , The coefficient of the k-th term among the coefficient seeds for generating the n-th prediction coefficient W n multiplied by the pixel value x n of the pixel of the n-th HD image.

ここで、パラメータhとvに対応する、n番目の予測係数の真値をWvhnと表すとともに、式(9)によって得られるその真値Wvhnの推測値をWvhn'と表すと、その推測誤差evhnは、次式で表される。 Here, when the true value of the nth prediction coefficient corresponding to the parameters h and v is expressed as W vhn and the estimated value of the true value W vhn obtained by the equation (9) is expressed as W vhn ′, The estimation error e vhn is expressed by the following equation.

Figure 0004605468
Figure 0004605468

式(10)の推測値Wvhn'は、式(9)にしたがって求められるため、式(10)の推測値Wvhn'を、式(9)にしたがって置き換えると、次式が得られる。 Since the estimated value W vhn ′ of the equation (10) is obtained according to the equation (9), the following equation is obtained by replacing the estimated value W vhn ′ of the equation (10) according to the equation (9).

Figure 0004605468
Figure 0004605468

なお、式(11)において、wvhn,kは、予測係数Wvhnを生成するための係数種のうちの、k番目の項の係数を表す。また、式(11)において、tkは次式で定義される。 In Equation (11), w vhn, k represents the coefficient of the k-th term among the coefficient types for generating the prediction coefficient W vhn . In the equation (11), t k is defined by the following equation.

Figure 0004605468
Figure 0004605468

式(10)または式(11)の予測誤差evhnを0、即ち統計的に最小にする係数種wvhn,kが、予測係数を推測するのに最適なものとなるが、すべての予測係数について、そのような係数種wvhn,kを求めることは、一般には困難である。 The prediction error e vhn in equation (10) or equation (11) is 0, that is, the coefficient type w vhn, k that statistically minimizes is optimal for estimating the prediction coefficient. In general, it is difficult to obtain such a coefficient seed w vhn, k .

そこで、係数種wvhn,kが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な係数種wvhn,kは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, if the least square method is adopted as a standard indicating that the coefficient type w vhn, k is optimal, for example, the optimal coefficient type w vhn, k is the square error represented by the following equation. Can be obtained by minimizing the sum E of

Figure 0004605468
Figure 0004605468

但し、式(13)において、Vは、パラメータvの種類の数を表し、Hは、パラメータhの種類の数を表す。   However, in Formula (13), V represents the number of types of parameter v, and H represents the number of types of parameter h.

式(13)の自乗誤差の総和Eの最小値は、式(14)に示すように、総和Eを係数種wvhn,kで偏微分したものを0とするwvhn,kによって与えられる。 The minimum value of the sum E of square errors in equation (13) is given by w vhn, k, where 0 is a partial differentiation of the sum E with a coefficient seed w vhn, k as shown in equation (14).

Figure 0004605468
Figure 0004605468

ここで、XklとYkをそれぞれ以下の式(15)と式(16)で定義すると、式(14)は以下の式(17)の正規方程式に書き換えられる。 Here, if X kl and Y k are defined by the following equations (15) and (16), respectively, equation (14) can be rewritten as a normal equation of the following equation (17).

Figure 0004605468
Figure 0004605468

Figure 0004605468
Figure 0004605468

Figure 0004605468
Figure 0004605468

式(17)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種wn,kについて解くことができる。 The normal equation of the equation (17) can be solved for the coefficient seed wn , k by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like.

式(17)の正規方程式をクラスごとにたてて解くことにより、最適な係数種として、自乗誤差の総和Eを最小にする係数種wn,kを、クラスごとに求めることができる。 By solving the normal equation of Equation (17) for each class, the coefficient type wn , k that minimizes the sum E of square errors can be obtained for each class as the optimum coefficient type.

図7は、式(17)の正規方程式をたてて解くことによりクラスごとの係数種wn,kを求める学習を行う学習装置601の構成例を示すブロック図である。 FIG. 7 is a block diagram illustrating a configuration example of a learning device 601 that performs learning to obtain the coefficient seed w n, k for each class by building and solving the normal equation of Expression (17).

図7の学習装置601は、帯域制限フィルタ611、クラスタップ抽出部612、ADRC処理部613、予測タップ抽出部614、正規方程式生成部615、予測係数生成部616、正規方程式生成部617、係数種決定部618、および係数種メモリ619により構成される。   7 includes a band limiting filter 611, a class tap extraction unit 612, an ADRC processing unit 613, a prediction tap extraction unit 614, a normal equation generation unit 615, a prediction coefficient generation unit 616, a normal equation generation unit 617, and coefficient types. The decision unit 618 and the coefficient seed memory 619 are configured.

学習装置601には、図示せぬデータベースから読み出された、予測処理後の目標の自然画像となる教師画像が複数入力され、その教師画像は、帯域制限フィルタ611と正規方程式生成部615に供給される。また、学習装置601には、ユーザの指示に基づいて、パラメータhとvが外部から入力され、帯域制限フィルタ611と正規方程式生成部615に供給される。なお、学習装置601には、1枚の教師画像が学習装置601に入力されるごとに、パラメータhとvの全通りの組み合わせが入力されるようになっている。   The learning device 601 receives a plurality of teacher images that are read from a database (not shown) and become target natural images after prediction processing, and the teacher images are supplied to the band limiting filter 611 and the normal equation generation unit 615. Is done. In addition, parameters h and v are input to the learning device 601 from the outside based on a user instruction, and are supplied to the band limiting filter 611 and the normal equation generation unit 615. Note that every time a single teacher image is input to the learning device 601, all combinations of parameters h and v are input to the learning device 601.

帯域制限フィルタ611は、外部から入力されるパラメータhとvに応じて、図示せぬデータベースから取得された教師画像の、垂直方向および水平方向の帯域をそれぞれ制限するフィルタ処理を行う。これにより、パラメータhとvの組み合わせごとの、予測処理が行われる前の自然画像に相当する生徒画像が生成される。例えば、パラメータhの種類が9種類であり、パラメータvの種類が9種類である場合、帯域制限フィルタ611は、外部から入力されるパラメータhとvに応じて、1枚の教師画像から81種類の生徒画像を生成する。   The band limiting filter 611 performs filter processing for limiting the vertical and horizontal bands of the teacher image acquired from a database (not shown) according to parameters h and v input from the outside. Thereby, a student image corresponding to the natural image before the prediction process is performed for each combination of the parameters h and v is generated. For example, when there are nine types of parameters h and nine types of parameters v, the band limiting filter 611 uses 81 types from one teacher image according to parameters h and v input from the outside. Generate student images.

帯域制限フィルタ611は、その生徒画像をクラスタップ抽出部612と予測タップ抽出部614に供給する。   The band limiting filter 611 supplies the student image to the class tap extraction unit 612 and the prediction tap extraction unit 614.

クラスタップ抽出部612は、図3のクラスタップ抽出部551と同様に構成される。クラスタップ抽出部612は、教師画像を構成する画素を、順次、注目教師画素として、その注目教師画素について、生徒画像から、図4に示されるような、図3のクラスタップ抽出部551が抽出するクラスタップと同一のタップ構造のクラスタップを抽出し、ADRC処理部613に供給する。   The class tap extraction unit 612 is configured in the same manner as the class tap extraction unit 551 in FIG. The class tap extraction unit 612 sequentially selects the pixels constituting the teacher image as the target teacher pixel, and the class tap extraction unit 551 of FIG. 3 extracts the target teacher pixel from the student image for the target teacher pixel as shown in FIG. The class tap having the same tap structure as the class tap to be extracted is extracted and supplied to the ADRC processing unit 613.

ADRC処理部613は、クラスタップ抽出部551から供給されるクラスタップを構成する画素の画素値に対して、ADRC処理などを行い、その結果得られるADRCコードを、クラスタップの特徴として検出する。ADRC処理部613は、そのADRCコードに基づいてクラスを決定し、そのクラスを正規方程式生成部615に供給する。   The ADRC processing unit 613 performs ADRC processing or the like on the pixel values of the pixels constituting the class tap supplied from the class tap extraction unit 551, and detects the resulting ADRC code as a class tap feature. The ADRC processing unit 613 determines a class based on the ADRC code, and supplies the class to the normal equation generation unit 615.

予測タップ抽出部614は、図3の予測タップ抽出部556と同様に構成される。予測タップ抽出部614は、帯域制限フィルタ611から供給される生徒画像から、図5に示されるような、注目教師画素の画素値を予測するのに用いる生徒画像を構成する画素を、予測タップとして抽出する。予測タップ抽出部556は、予測タップを正規方程式生成部615に供給する。   The prediction tap extraction unit 614 is configured similarly to the prediction tap extraction unit 556 of FIG. The prediction tap extraction unit 614 uses, as prediction taps, the pixels constituting the student image used to predict the pixel value of the teacher pixel of interest as shown in FIG. 5 from the student image supplied from the band limiting filter 611. Extract. The prediction tap extraction unit 556 supplies the prediction tap to the normal equation generation unit 615.

正規方程式生成部615は、入力された教師画像と、予測タップ抽出部614から供給される予測タップのペアを、予測係数Wnの学習に用いられる学習対として、ADRC処理部613から供給されるクラスごと、かつ外部から入力されるパラメータhとvの組み合わせごとに、上述した式(8)の正規方程式をたてると、その正規方程式を予測係数生成部616に供給する。 The normal equation generation unit 615 is supplied from the ADRC processing unit 613 using the input teacher image and the prediction tap pair supplied from the prediction tap extraction unit 614 as a learning pair used for learning the prediction coefficient W n. When the normal equation of the above equation (8) is established for each class and for each combination of parameters h and v input from the outside, the normal equation is supplied to the prediction coefficient generation unit 616.

予測係数生成部616は、正規方程式生成部615から供給されるクラスごとの正規方程式を解くことにより、予測誤差を統計的に最小にする予測係数Wnを、パラメータhとvの組み合わせごと、かつクラスごとに求めて、正規方程式生成部617に供給する。 The prediction coefficient generation unit 616 solves the normal equation for each class supplied from the normal equation generation unit 615, thereby calculating the prediction coefficient W n that statistically minimizes the prediction error for each combination of the parameters h and v, and It calculates | requires for every class and supplies it to the normal equation production | generation part 617. FIG.

正規方程式生成部617は、予測係数生成部616からの予測係数Wvhnに基づいて、上述した式(17)の正規方程式をクラスごとに生成し、係数種決定部618に出力する。係数種生成部618は、クラスごとの式(17)の正規方程式を解き、クラスごとの係数種wn,kを求めて係数種メモリ619に格納する。この係数種メモリ619に格納された係数種は、図3の係数種メモリ553に格納される。 Based on the prediction coefficient W vhn from the prediction coefficient generation unit 616, the normal equation generation unit 617 generates the above-described normal equation of Expression (17) for each class and outputs it to the coefficient type determination unit 618. The coefficient seed generation unit 618 solves the normal equation of the equation (17) for each class, obtains the coefficient seed w n, k for each class, and stores it in the coefficient seed memory 619. The coefficient seed stored in the coefficient seed memory 619 is stored in the coefficient seed memory 553 of FIG.

次に、図8を参照して、教師画像と生徒画像の画素の位置関係を説明する。   Next, with reference to FIG. 8, the positional relationship between the pixels of the teacher image and the student image will be described.

図8において、菱形は教師画像の画素を表し、白丸は生徒画像の画素を表している。また、図中横軸は水平方向の位置を表し、縦軸は垂直方向の位置を表す。   In FIG. 8, rhombuses represent pixels of the teacher image, and white circles represent pixels of the student image. In the figure, the horizontal axis represents the horizontal position, and the vertical axis represents the vertical position.

図8に示されるように、教師画像と生徒画像の画素の水平方向および垂直方向の位置は同一となっている。即ち、教師画像と生徒画像は同位相である。   As shown in FIG. 8, the horizontal and vertical positions of the pixels of the teacher image and the student image are the same. That is, the teacher image and the student image are in phase.

次に、図9のフローチャートを参照して、図7の学習装置601の学習処理について説明する。   Next, the learning process of the learning device 601 in FIG. 7 will be described with reference to the flowchart in FIG.

初めに、ステップS601において、帯域制限フィルタ611は、入力されたパラメータhとvに応じて、入力された教師画像の垂直方向および水平方向の帯域をそれぞれ制限するフィルタ処理を行うことにより、入力された教師画像から生徒画像を生成し、クラスタップ抽出部612と予測タップ抽出部614に供給する。   First, in step S601, the band limiting filter 611 is input by performing filter processing for limiting the vertical and horizontal bands of the input teacher image according to the input parameters h and v, respectively. A student image is generated from the teacher image and supplied to the class tap extraction unit 612 and the prediction tap extraction unit 614.

ステップS602において、クラスタップ抽出部612は、図3のクラスタップ抽出部551と同様に、教師画像を構成する画素のうちの1つを注目教師画素として、選択する。   In step S602, the class tap extraction unit 612 selects one of the pixels constituting the teacher image as a notable teacher pixel, similarly to the class tap extraction unit 551 in FIG.

ステップS603において、クラスタップ抽出部612は、クラスタップ抽出部551と同様に、生徒画像から、図4に示されるようなクラスタップを抽出し、ADRC処理部613に供給する。   In step S <b> 603, the class tap extraction unit 612 extracts a class tap as illustrated in FIG. 4 from the student image, and supplies it to the ADRC processing unit 613 in the same manner as the class tap extraction unit 551.

ステップS604において、ADRC処理部613は、クラスタップを構成する画素の画素値に対して、ADRC処理を行う。ステップS605において、ADRC処理部613は、ADRC処理の結果得られるADRCコードに基づいて、クラスを決定し、そのクラスを正規方程式生成部615に供給する。   In step S604, the ADRC processing unit 613 performs ADRC processing on the pixel values of the pixels constituting the class tap. In step S605, the ADRC processing unit 613 determines a class based on the ADRC code obtained as a result of the ADRC process, and supplies the class to the normal equation generation unit 615.

ステップS606において、予測タップ抽出部614は、図3の予測タップ抽出部556と同様に、注目教師画素について、帯域制限フィルタ611から供給される生徒画像から、図5に示されるような予測タップを抽出し、正規方程式生成部615に供給する。   In step S606, the prediction tap extraction unit 614 applies a prediction tap as shown in FIG. 5 from the student image supplied from the band limiting filter 611 for the teacher pixel of interest, as in the prediction tap extraction unit 556 of FIG. Extracted and supplied to the normal equation generation unit 615.

ステップS607において、正規方程式生成部615は、入力される教師画像から注目教師画素を抽出し、その注目教師画素と、予測タップ抽出部614から供給される注目教師画素について構成された予測タップを構成する生徒画像とを対象とした式(8)の足し込みを、パラメータhおよびvの組み合わせごと、かつADRC処理部613から供給されるクラスごとに行う。   In step S <b> 607, the normal equation generation unit 615 extracts a target teacher pixel from the input teacher image, and configures the prediction tap configured for the target teacher pixel and the target teacher pixel supplied from the prediction tap extraction unit 614. The addition of Expression (8) for the student image to be performed is performed for each combination of the parameters h and v and for each class supplied from the ADRC processing unit 613.

ステップS608において、クラスタップ抽出部612は、入力されるすべての教師画像の画素を注目教師画素としたかどうかを判定する。ステップS608で、まだすべての教師画像の画素を注目教師画素としていないと判定された場合、ステップS609において、クラスタップ抽出部612は、教師画像の画素のうち、まだ注目教師画素としていないものを、新たに注目教師画素として決定する。そして、処理はステップS603に戻り、以下、同様の処理が繰り返される。   In step S608, the class tap extraction unit 612 determines whether the pixels of all input teacher images are the target teacher pixels. If it is determined in step S608 that all the teacher image pixels are not yet the target teacher pixels, in step S609, the class tap extraction unit 612 determines that among the teacher image pixels that are not yet the target teacher pixels, It is newly determined as an attention teacher pixel. Then, the process returns to step S603, and the same process is repeated thereafter.

一方、ステップS608で、すべての教師画像の画素を注目教師画素としたと判定された場合、ステップS610において、正規方程式生成部615は、いままでの処理によって得られたパラメータhおよびvの組み合わせごと、かつクラスごとの式(8)における左辺の行列と、右辺のベクトルを、正規方程式として予測係数生成部616に供給する。   On the other hand, when it is determined in step S608 that all the teacher image pixels are the target teacher pixels, in step S610, the normal equation generation unit 615 determines whether each of the combinations of the parameters h and v obtained by the processing so far is performed. In addition, the matrix on the left side and the vector on the right side in Equation (8) for each class are supplied to the prediction coefficient generation unit 616 as normal equations.

ステップS611において、予測係数生成部616は、正規方程式生成部615から供給される、パラメータhおよびvの組み合わせごと、かつクラスごとの式(8)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解き、パラメータhおよびvの組み合わせごと、かつクラスごとの予測係数Wvhnを求めて、正規方程式生成部617に出力する。 In step S <b> 611, the prediction coefficient generation unit 616 supplies a class composed of a matrix on the left side and a vector on the right side in Expression (8) for each combination of parameters h and v and supplied from the normal equation generation unit 615. Each normal equation is solved, and a prediction coefficient W vhn for each combination of parameters h and v and for each class is obtained and output to the normal equation generation unit 617.

ステップS612において、正規方程式生成部617は、予測係数Wvhnに基づいて、式(17)の正規方程式をクラスごとに生成し、係数種決定部618に出力する。 In step S612, the normal equation generation unit 617 generates the normal equation of Expression (17) for each class based on the prediction coefficient W vhn and outputs the normal equation to the coefficient type determination unit 618.

ステップS613において、係数種決定部618は、式(17)の正規方程式を解き、クラスごとの係数種wn,kを求める。係数種メモリ619は、ステップS614において、その係数種wn,kを記憶する。この係数種が図3の係数種メモリ553に記憶される。 In step S613, the coefficient seed determination unit 618 solves the normal equation of Expression (17) to obtain the coefficient seed wn , k for each class. In step S614, the coefficient seed memory 619 stores the coefficient seed wn , k . This coefficient seed is stored in the coefficient seed memory 553 of FIG.

以上のように、自然画予測部131は、自然画像を用いた学習により獲得された係数種よにり生成された予測係数Wnを用いて、自然高品質画像を予測するので、出力位相変換部112から供給されるHD画像のうちの自然画像の品質を的確に高めることができる。 As described above, the natural image prediction unit 131 predicts a natural high-quality image using the prediction coefficient W n generated according to the coefficient type obtained by learning using the natural image. The quality of the natural image of the HD images supplied from the unit 112 can be improved accurately.

また、自然画予測部131は、クラスタップを構成する画素の画素値を、クラスタップの波形の特徴として、その特徴に応じて、注目画素をクラスに分類するので、自然画像の注目画素を、的確に分類することができる。その結果、自然画予測部131は、このクラスごとに学習により獲得された係数種により生成された予測係数を用いて、HD画像から自然高品質画像を予測することにより、自然画像に含まれるノイズ等をより的確に除去し、より高品質の自然高品質画像を出力することができる。   In addition, the natural image prediction unit 131 classifies the pixel value of the pixels constituting the class tap as a class tap waveform feature according to the feature, and classifies the pixel of interest into a class. Can be accurately classified. As a result, the natural image prediction unit 131 predicts a natural high-quality image from the HD image using the prediction coefficient generated by the coefficient type acquired by learning for each class, and thereby includes noise included in the natural image. Etc. can be removed more accurately, and a higher quality natural high quality image can be output.

図10は、図1の人工画予測部132の第1の実施の形態の詳細構成例を示している。   FIG. 10 shows a detailed configuration example of the first embodiment of the artificial image prediction unit 132 of FIG.

図10の人工画予測部132は、クラス分類部651、係数種メモリ652、予測係数生成部653、予測係数メモリ654、および予測部655により構成され、出力位相変換部112から供給されるプログレッシブ方式のHD画像から、そのHD画像のうちの人工画像からノイズなどを除去して、高品質にした人工高品質画像を予測する。   10 includes a class classification unit 651, a coefficient seed memory 652, a prediction coefficient generation unit 653, a prediction coefficient memory 654, and a prediction unit 655, and a progressive method supplied from the output phase conversion unit 112. From the HD image, noise and the like are removed from the artificial image of the HD image to predict a high-quality artificial high-quality image.

出力位相変換部112から供給されるHD画像は、クラス分類部651と予測部655に入力される。クラス分類部651は、そのHD画像により求められる人工高品質画像を構成する画素を、順次、注目画素とし、その注目画素を、HD画像の位相の特徴に応じて、幾つかのクラスのうちのいずれかのクラスに分類する。クラス分類部651は、分類されたクラスを予測係数メモリ654に供給する。   The HD image supplied from the output phase conversion unit 112 is input to the class classification unit 651 and the prediction unit 655. The class classification unit 651 sequentially sets a pixel constituting the artificial high quality image obtained from the HD image as a target pixel, and sets the target pixel as one of several classes according to the phase characteristics of the HD image. Classify into one of the classes. The class classification unit 651 supplies the classified class to the prediction coefficient memory 654.

係数種メモリ652は、例えばROM(Read Only Memory)などにより構成され、図17乃至図19を参照して後述する学習により獲得されたクラスごとの係数種を格納している。   The coefficient seed memory 652 is composed of, for example, a ROM (Read Only Memory) or the like, and stores a coefficient seed for each class acquired by learning described later with reference to FIGS.

予測係数生成部653は、ユーザにより入力されるパラメータhとvを含む式(9)の多項式を用いて、係数種メモリ652より読み出された係数種wn,kから予測係数Wnを生成し、予測係数メモリ654に記憶させる。 The prediction coefficient generation unit 653 generates a prediction coefficient W n from the coefficient seed w n, k read from the coefficient seed memory 652 by using the polynomial of Expression (9) including parameters h and v input by the user. And stored in the prediction coefficient memory 654.

予測係数メモリ654は、クラス分類部651から供給されるクラスに基づいて、そのクラスの予測係数Wnをから読み出し、予測部655に供給する。 The prediction coefficient memory 654, based on the class supplied from the classification unit 651 reads from the prediction coefficient W n of the class, and supplies the prediction unit 655.

予測部655は、HD画像と、予測係数メモリ654から供給される予測係数Wnとを用いて、注目画素の真値の予測値を求める所定の予測演算を行う。これにより、予測部655は、注目画素の画素値の予測値、即ち、人工高品質画像を構成する画素の画素値を求めて、図1の合成部133に出力する。 The prediction unit 655 uses the HD image and the prediction coefficient W n supplied from the prediction coefficient memory 654 to perform a predetermined prediction calculation for obtaining a true predicted value of the target pixel. Thereby, the prediction unit 655 obtains the predicted value of the pixel value of the target pixel, that is, the pixel value of the pixels constituting the artificial high quality image, and outputs the pixel value to the synthesis unit 133 in FIG.

図11は、図10のクラス分類部651の詳細構成例を示すブロック図である。   FIG. 11 is a block diagram illustrating a detailed configuration example of the class classification unit 651 in FIG.

図11のクラス分類部651は、クラスタップ抽出部671、差分算出部672、およびADRC処理部673により構成される。   The class classification unit 651 in FIG. 11 includes a class tap extraction unit 671, a difference calculation unit 672, and an ADRC processing unit 673.

クラスタップ抽出部671は、注目画素をクラスに分類するために用いるHD画像を構成する画素の幾つかを、クラスタップとして抽出し、差分算出部672に供給する。   The class tap extraction unit 671 extracts some of the pixels constituting the HD image used for classifying the pixel of interest into a class as class taps, and supplies them to the difference calculation unit 672.

差分算出部672は、クラスタップ抽出部671から供給されるクラスタップを構成する画素のうちの、隣接する2つの画素どうし(以下、隣接画素と称する)の画素値の差分の絶対値(以下、隣接差分絶対値と称する)を、クラスタップの位相の特徴として、隣接画素ごとに算出する。差分算出部672は、各隣接画素の隣接差分絶対値を、ADRC処理部673に供給する。   The difference calculation unit 672 includes an absolute value (hereinafter referred to as a difference between pixel values) of two adjacent pixels (hereinafter referred to as adjacent pixels) among the pixels constituting the class tap supplied from the class tap extraction unit 671. Is calculated for each adjacent pixel as a feature of the phase of the class tap. The difference calculation unit 672 supplies the adjacent difference absolute value of each adjacent pixel to the ADRC processing unit 673.

ADRC処理部673は、差分算出部672から供給される隣接差分絶対値に対して、1ビットADRC処理を行う。具体的には、ADRC処理部673は、クラスタップの隣接差分絶対値を、その最大値MAXと最小値MINとの平均値で除算し、その除算結果の小数点以下を切り捨てることにより、隣接差分絶対値を1ビットにする。即ち、ADRC処理部673は、隣接差分絶対値を2値化する。   The ADRC processing unit 673 performs 1-bit ADRC processing on the adjacent difference absolute value supplied from the difference calculation unit 672. Specifically, the ADRC processing unit 673 divides the adjacent difference absolute value of the class tap by the average value of the maximum value MAX and the minimum value MIN, and rounds off the decimal part of the division result to thereby calculate the adjacent difference absolute value. Set the value to 1 bit. That is, the ADRC processing unit 673 binarizes the adjacent difference absolute value.

そして、ADRC処理部673は、その1ビットの画素値を所定の順番で並べたビット列を、注目画素のクラスとして決定する。従って、クラスは、クラスタップ内のエッジの位置を表す位相情報となる。即ち、クラスは、クラスタップの位相を縮退した値となる。ADRC処理部673は、決定されたクラスを、図10の予測係数メモリ654に供給する。   Then, the ADRC processing unit 673 determines a bit string in which the 1-bit pixel values are arranged in a predetermined order as the class of the target pixel. Therefore, the class is phase information representing the position of the edge in the class tap. That is, the class has a value obtained by degenerating the phase of the class tap. The ADRC processing unit 673 supplies the determined class to the prediction coefficient memory 654 in FIG.

以上のように、クラス分類部651は、各隣接画素の隣接差分絶対値を、クラスタップの位相の特徴として、その位相の特徴に応じて、注目画素をクラスに分類する。   As described above, the class classification unit 651 classifies the pixel of interest into a class according to the feature of the phase, using the adjacent difference absolute value of each neighboring pixel as the feature of the phase of the class tap.

図12は、図11のクラスタップ抽出部671により抽出されるクラスタップのタップ構造の例を示している。なお、クラスタップのタップ構造は、図12に示されている以外の構造とすることも可能である。   FIG. 12 shows an example of a tap structure of class taps extracted by the class tap extraction unit 671 of FIG. Note that the tap structure of the class tap may be a structure other than that shown in FIG.

図12では、図1の出力位相変換部112から供給されるHD画像のうちの、注目画素に対応する画素p124と、その画素の上方向、左方向、右方向、下方向にそれぞれ隣接する2画素p120,p121,p122,p123,p125,p126,p127,p128とから、いわば十字形状のクラスタップが構成されている。   In FIG. 12, the pixel p124 corresponding to the target pixel in the HD image supplied from the output phase conversion unit 112 in FIG. 1 is adjacent to the pixel 2 in the upward, leftward, rightward, and downward directions, respectively. The so-called cross-shaped class taps are configured from the pixels p120, p121, p122, p123, p125, p126, p127, and p128.

図11の差分算出部672は、クラスタップを構成する9個の画素p120乃至p128のうちの、隣接画素である画素p120とp121,p121とp124,p122とp123,p123とp124,p124とp125,p125とp126,p124とp127,p127とp128の8個の隣接差分絶対値d0乃至d7を算出し、ADRC処理部673に供給する。その結果、ADRC処理部673から8ビットで表されるクラスが出力される。   The difference calculation unit 672 in FIG. 11 includes pixels p120 and p121, p121 and p124, p122 and p123, p123 and p124, p124 and p125, which are adjacent pixels among the nine pixels p120 to p128 constituting the class tap. Eight adjacent difference absolute values d0 to d7 of p125 and p126, p124 and p127, and p127 and p128 are calculated and supplied to the ADRC processing unit 673. As a result, a class represented by 8 bits is output from the ADRC processing unit 673.

図13は、図10の予測部655の詳細構成例を示すブロック図である。   FIG. 13 is a block diagram illustrating a detailed configuration example of the prediction unit 655 of FIG.

図13の予測部655は、予測タップ抽出部691と予測演算部692から構成される。   The prediction unit 655 of FIG. 13 includes a prediction tap extraction unit 691 and a prediction calculation unit 692.

予測タップ抽出部691は、注目画素の画素値を予測するのに用いるHD画像を構成する画素を、予測タップとして抽出する。   The prediction tap extraction unit 691 extracts pixels constituting an HD image used for predicting the pixel value of the target pixel as a prediction tap.

具体的には、予測タップ抽出部691は、注目画素に対応するHD画像の画素、例えば、注目画素に対して空間的に最も近い位置にあるHD画像の画素に対して、空間的に近い位置にある複数の画素を、HD画像から、予測タップとして抽出する。予測タップ抽出部691は、予測タップを予測演算部692に供給する。   Specifically, the prediction tap extraction unit 691 is a spatially close position to a pixel of the HD image corresponding to the target pixel, for example, a pixel of the HD image that is spatially closest to the target pixel. Are extracted as prediction taps from the HD image. The prediction tap extraction unit 691 supplies the prediction tap to the prediction calculation unit 692.

なお、予測タップとクラスタップは、同一のタップ構造を有するものとすることも、異なるタップ構造を有するものとすることも可能である。   Note that the prediction tap and the class tap may have the same tap structure or different tap structures.

予測演算部692には、予測タップ抽出部691から供給される予測タップのほかに、図10の予測係数メモリ654から予測係数が供給される。予測演算部692は、その予測タップと予測係数とを用いて、注目画素の真値の予測値を求める、式(1)に示した予測演算を行う。これにより、予測演算部692は、注目画素の画素値の予測値、即ち、人工高品質画像を構成する画素の画素値を求めて、図1の合成部133に出力する。   In addition to the prediction tap supplied from the prediction tap extraction unit 691, the prediction calculation unit 692 is supplied with a prediction coefficient from the prediction coefficient memory 654 of FIG. The prediction calculation unit 692 uses the prediction tap and the prediction coefficient to perform the prediction calculation shown in Expression (1) to obtain the true predicted value of the target pixel. Thereby, the prediction calculation unit 692 obtains the predicted value of the pixel value of the target pixel, that is, the pixel value of the pixels constituting the artificial high quality image, and outputs the pixel value to the synthesis unit 133 in FIG.

図14は、図13の予測タップ抽出部691により抽出される予測タップのタップ構造の例を示している。なお、予測タップのタップ構造は、図14に示されている以外の構造とすることも可能である。   FIG. 14 shows an example of the tap structure of the prediction tap extracted by the prediction tap extraction unit 691 of FIG. Note that the tap structure of the prediction tap may be a structure other than that shown in FIG.

図14では、13個の画素で、予測タップが構成されている。即ち、図14では、出力位相変換部112から供給されるHD画像のうちの、注目画素に対応する画素p146を中心として縦方向に並ぶ5画素p140,p142,p146,p150,p152、注目画素に対応する画素p146の左と右に隣接する画素p145,p147それぞれを中心として縦方向に並ぶ3画素p141,p145,p149,p143,p147,p151、および注目画素に対応する画素p146から左と右に2画素だけ離れた画素p144,p148から、略ひし形状の予測タップが構成されている。   In FIG. 14, the prediction tap is comprised by 13 pixels. That is, in FIG. 14, among the HD images supplied from the output phase conversion unit 112, five pixels p140, p142, p146, p150, and p152 arranged in the vertical direction centering on the pixel p146 corresponding to the pixel of interest, Three pixels p141, p145, p149, p143, p147, and p151 that are arranged in the vertical direction around the pixels p145 and p147 adjacent to the left and right of the corresponding pixel p146, and the pixel p146 that corresponds to the target pixel are on the left and right. A substantially rhombic prediction tap is formed from the pixels p144 and p148 separated by two pixels.

次に、図15を参照して、図10の人工画予測部132が行う図2のステップS5の人工画予測処理の詳細を説明する。   Next, with reference to FIG. 15, the details of the artificial image prediction process in step S5 of FIG. 2 performed by the artificial image prediction unit 132 of FIG.

初めに、ステップS701において、クラス分類部651は、求める人工高品質画像を構成する画素のうちの所定の画素である注目画素を、その注目画素に対応するHD画像の位相の特徴に応じてクラスに分類するクラス分類処理を行う。このクラス分類処理の詳細は、図16を参照して後述する。   First, in step S701, the class classification unit 651 classifies a target pixel, which is a predetermined pixel among pixels constituting the obtained artificial high quality image, according to the phase characteristics of the HD image corresponding to the target pixel. Class classification processing is performed to classify into Details of this class classification processing will be described later with reference to FIG.

ステップS702において、係数種メモリ652は係数種wn,kを読み出し、予測係数生成部653に出力する。ステップS703において、予測係数生成部653は、ユーザにより入力されたパラメータhとvに基づいて、そのパラメータhとvを含む式(9)の多項式を用いて、係数種wn,kから予測係数Wnを生成し、予測係数メモリ555に供給して記憶させる。 In step S702, the coefficient seed memory 652 reads the coefficient seed wn , k and outputs it to the prediction coefficient generation unit 653. In step S703, the prediction coefficient generation unit 653 uses the polynomial of the equation (9) including the parameters h and v based on the parameters h and v input by the user to calculate the prediction coefficient from the coefficient type wn , k. W n is generated and supplied to the prediction coefficient memory 555 for storage.

ステップS704において、予測係数メモリ654は、クラス分類部651により分類されたクラスに基づいて、そのクラスの予測係数Wnを読み出し、予測部655の予測演算部692に供給する。 In step S < b > 704, the prediction coefficient memory 654 reads the prediction coefficient W n of the class based on the class classified by the class classification unit 651, and supplies it to the prediction calculation unit 692 of the prediction unit 655.

ステップS705において、予測タップ抽出部691は、出力位相変換部112から供給されるHD画像から、図14に示されるような、注目画素の画素値を予測するのに用いるHD画像を構成する画素を、予測タップとして抽出し、予測演算部692に供給する。   In step S705, the prediction tap extraction unit 691 selects pixels constituting the HD image used to predict the pixel value of the target pixel as shown in FIG. 14 from the HD image supplied from the output phase conversion unit 112. , Extracted as a prediction tap, and supplied to the prediction calculation unit 692.

ステップS706において、予測演算部692は、予測タップ抽出部691から供給される予測タップと、予測係数メモリ654から供給される予測係数Wnとを用いて、式(1)に示した予測演算を行うことにより、人工高品質画像を構成する画素の画素値を求める。ステップS707において、予測演算部692は、ステップS706で求められた人工高品質画像を構成する画素の画素値を、図1の合成部133に出力する。 In step S706, the prediction computation unit 692, the prediction taps supplied from the prediction tap extracting unit 691, by using the prediction coefficients W n supplied from the prediction coefficient memory 654, a prediction computation shown in equation (1) By doing so, the pixel values of the pixels constituting the artificial high quality image are obtained. In step S707, the prediction calculation unit 692 outputs the pixel values of the pixels constituting the artificial high quality image obtained in step S706 to the synthesis unit 133 in FIG.

ステップS708において、クラス分類部651は、人工高品質画像を構成するすべての画素を注目画素としたかどうかを判定し、まだ人工高品質画像を構成するすべての画素を注目画素としていないと判定された場合、ステップS709において、クラス分類部651は、人工高品質画像を構成する画素のうち、まだ注目画素としていないものを新たに注目画素として決定し、処理をステップS701に戻し、以下、同様の処理を繰り返す。   In step S708, the class classification unit 651 determines whether or not all the pixels constituting the artificial high quality image are the target pixels, and it is determined that all the pixels constituting the artificial high quality image are not yet the target pixels. In such a case, in step S709, the class classification unit 651 newly determines a pixel of interest that is not yet a pixel of interest from among the pixels constituting the artificial high quality image, returns the processing to step S701, and so on. Repeat the process.

一方、ステップS708において、クラス分類部651は、人工高品質画像を構成するすべての画素を注目画素としたと判定した場合、人工画予測処理を終了する。   On the other hand, in step S708, when the class classification unit 651 determines that all the pixels constituting the artificial high quality image are the target pixels, the artificial image prediction process ends.

以上のようにして、人工画予測部132は、出力位相変換部112から供給されるHD画像から、人工高品質画像を予測し、出力する。即ち、人工画予測部132は、HD画像を人工高品質画像に変換し、出力する。   As described above, the artificial image prediction unit 132 predicts and outputs an artificial high quality image from the HD image supplied from the output phase conversion unit 112. That is, the artificial image prediction unit 132 converts the HD image into an artificial high quality image and outputs it.

次に、図16のフローチャートを参照して、図15のステップS701のクラス分類処理について説明する。   Next, the class classification processing in step S701 in FIG. 15 will be described with reference to the flowchart in FIG.

ステップS721において、クラス分類部651のクラスタップ抽出部671(図11)は、図12に示されるような、注目画素のクラス分類を行うのに用いるHD画像を構成する画素の幾つかを、クラスタップとして抽出し、差分算出部672に供給する。   In step S721, the class tap extraction unit 671 (FIG. 11) of the class classification unit 651 classifies some of the pixels constituting the HD image used for classifying the target pixel as shown in FIG. This is extracted as a tap and supplied to the difference calculation unit 672.

ステップS722において、差分算出部672は、クラスタップ抽出部671から供給されるクラスタップを構成する画素のうちの、各隣接画素の隣接差分絶対値を算出し、各隣接画素の隣接差分絶対値をADRC処理部673に供給する。   In step S722, the difference calculation unit 672 calculates the adjacent difference absolute value of each adjacent pixel among the pixels constituting the class tap supplied from the class tap extraction unit 671, and calculates the adjacent difference absolute value of each adjacent pixel. This is supplied to the ADRC processing unit 673.

ステップS723において、ADRC処理部673は、差分算出部672から供給される隣接差分絶対値に対して、1ビットADRC処理を行う。ADRC処理部673は、その結果得られるビット列を、クラスとして決定することにより、注目画素をクラスに分類する。そして、ADRC処理部673は、そのクラスを図10の予測係数メモリ654に供給する。その後、処理は図15のステップS701に戻る。   In step S723, the ADRC processing unit 673 performs 1-bit ADRC processing on the adjacent difference absolute value supplied from the difference calculation unit 672. The ADRC processing unit 673 classifies the target pixel into a class by determining the bit string obtained as a result as a class. Then, the ADRC processing unit 673 supplies the class to the prediction coefficient memory 654 in FIG. Thereafter, the processing returns to step S701 in FIG.

図17は、図10の係数種メモリ652に格納される係数種を求める学習を行う学習装置811の構成例を示すブロック図である。   FIG. 17 is a block diagram illustrating a configuration example of the learning device 811 that performs learning for obtaining the coefficient seed stored in the coefficient seed memory 652 of FIG.

図17の学習装置811は、生徒画像生成部821、クラス分類部822、生成部823、係数生成部824、正規方程式生成部825、係数種決定部826、および係数種メモリ827により構成される。   17 includes a student image generation unit 821, a class classification unit 822, a generation unit 823, a coefficient generation unit 824, a normal equation generation unit 825, a coefficient type determination unit 826, and a coefficient type memory 827.

この学習装置811は、上述した自然画予測部131の係数種メモリ553(図3)に格納される係数種wn,kの学習と同様に、係数種を学習する。即ち、学習装置811は、教師画像として、予測処理後の目標の人工画像に相当するHD画像を採用し、生徒画像として、予測処理が行われる前の人工画像に相当するHD画像を採用し、ユーザの指示に基づいて外部から入力されるパラメータhとvの組み合わせごと、かつクラスごとに上述した式(8)の正規方程式をたてて解くことにより、パラメータhとvの組み合わせごと、かつクラスごとの予測係数Wnである予測係数Wvhnを求める。 This learning device 811 learns the coefficient seed in the same manner as the learning of the coefficient seed wn , k stored in the coefficient seed memory 553 (FIG. 3) of the natural picture prediction unit 131 described above. That is, the learning device 811 employs an HD image corresponding to the target artificial image after the prediction process as the teacher image, and an HD image corresponding to the artificial image before the prediction process is performed as the student image. For each combination of parameters h and v, for each combination of parameters h and v, and for each class, by solving the normal equation of equation (8) described above for each class and for each class based on a user instruction A prediction coefficient W vhn that is a prediction coefficient W n for each is obtained .

そして、この予測係数Wvhnによりクラスごとに生成される上述した式(17)の正規方程式を解くことで、クラスごとの係数種wn,kが生成され、記憶される。 Then, by solving the normal equation of the above-described equation (17) generated for each class by the prediction coefficient W vhn, the coefficient type wn , k for each class is generated and stored.

学習装置811には、図示せぬデータベースから読み出された教師画像が複数入力され、その教師画像は、生徒画像生成部821と生成部823に供給される。また、学習装置811には、パラメータhおよびvが入力され、生徒画像生成部821、および生成部823に供給される。   A plurality of teacher images read from a database (not shown) are input to the learning device 811, and the teacher images are supplied to the student image generation unit 821 and the generation unit 823. In addition, the parameters h and v are input to the learning device 811 and supplied to the student image generation unit 821 and the generation unit 823.

生徒画像生成部821は、例えばローパスフィルタなどにより構成され、パラメータhおよびvに応じて、図示せぬデータベースから取得された人工画像である教師画像の品質を劣化させることにより、パラメータhおよびvの組み合わせごとの生徒画像を生成する。生徒画像生成部821は、その生徒画像をクラス分類部822と生成部823に供給する。   The student image generation unit 821 is configured by, for example, a low-pass filter or the like, and degrades the quality of the teacher image, which is an artificial image acquired from a database (not shown), according to the parameters h and v. A student image for each combination is generated. The student image generation unit 821 supplies the student image to the class classification unit 822 and the generation unit 823.

クラス分類部822は、人工画予測部132の図11のクラス分類部651と同様に構成される。クラス分類部822は、教師画像を構成する画素を、順次、注目教師画素として、その注目教師画素について、生徒画像から、図11のクラスタップ抽出部671が抽出するクラスタップ(図12)と同一のタップ構造のクラスタップを抽出する。   The class classification unit 822 is configured in the same manner as the class classification unit 651 in FIG. The class classification unit 822 sequentially uses the pixels constituting the teacher image as the target teacher pixel, and the same teacher tap pixel as the class tap (FIG. 12) extracted by the class tap extraction unit 671 in FIG. Class taps of the tap structure are extracted.

そして、クラス分類部822は、クラスタップを構成する画素のうちの各隣接画素の隣接差分絶対値を算出し、その隣接差分絶対値に対して、1ビットADRC処理を行う。クラス分類部822は、その結果得られるビット列を、注目教師画素のクラスとして決定し、生成部823に供給する。   Then, the class classification unit 822 calculates the adjacent difference absolute value of each adjacent pixel among the pixels constituting the class tap, and performs 1-bit ADRC processing on the adjacent difference absolute value. The class classification unit 822 determines the bit string obtained as a result as the class of the teacher pixel of interest, and supplies it to the generation unit 823.

生成部823は、教師画像と、生徒画像生成部821から供給される生徒画像のペアを、予測係数の学習に用いられる学習対として、外部から入力されるパラメータhとvの組み合わせごと、かつクラス分類部822から供給されるクラスごとに、式(8)に示した正規方程式をたてると、その正規方程式を、係数生成部824に供給する。   The generation unit 823 uses a pair of the teacher image and the student image supplied from the student image generation unit 821 as a learning pair used for learning of the prediction coefficient, for each combination of parameters h and v input from the outside, and a class. For each class supplied from the classification unit 822, when the normal equation shown in Expression (8) is established, the normal equation is supplied to the coefficient generation unit 824.

係数生成部824は、生成部823から供給される、パラメータhとvの組み合わせごと、かつクラスごとの正規方程式を解くことにより、予測係数Wvhnを、パラメータhとvの組み合わせごと、かつクラスごとに求めて正規方程式生成部825に出力する。 The coefficient generation unit 824 calculates the prediction coefficient W vhn for each combination of parameters h and v and for each class by solving a normal equation for each combination of parameters h and v and for each class supplied from the generation unit 823. And output to the normal equation generation unit 825.

正規方程式生成部825は、予測係数Wvhnに基づいて式(17)の正規方程式をクラスごとに生成し、係数種決定部826に出力する。係数種決定部826は、正規方程式を解くことで、係数種wn,kを求め、係数種メモリ827に格納する。係数種メモリ827に格納された係数種wn,kは、図10の係数種メモリ652に格納される。 The normal equation generation unit 825 generates a normal equation of Expression (17) for each class based on the prediction coefficient W vhn and outputs it to the coefficient type determination unit 826. The coefficient seed determination unit 826 calculates the coefficient seed wn , k by solving the normal equation and stores it in the coefficient seed memory 827. The coefficient seed w n, k stored in the coefficient seed memory 827 is stored in the coefficient seed memory 652 of FIG.

図18は、図17の生成部823の詳細構成例を示すブロック図である。   FIG. 18 is a block diagram illustrating a detailed configuration example of the generation unit 823 in FIG.

図18の生成部823は、予測タップ抽出部831と正規方程式生成部832により構成される。   The generation unit 823 in FIG. 18 includes a prediction tap extraction unit 831 and a normal equation generation unit 832.

生成部823に供給される学習対の生徒画像は、予測タップ抽出部831に供給され、教師画像は、正規方程式生成部832に供給される。   The learning pair student image supplied to the generation unit 823 is supplied to the prediction tap extraction unit 831, and the teacher image is supplied to the normal equation generation unit 832.

予測タップ抽出部831は、学習対の教師画像を構成する画素を、順次、注目教師画素とし、その注目教師画素について、学習対の生徒画像から、図13の予測タップ抽出部691が抽出する予測タップ(図14)と同一のタップ構造の予測タップを抽出し、正規方程式生成部832に供給する。   The prediction tap extraction unit 831 sequentially sets the pixels constituting the learning pair teacher image as the attention teacher pixel, and the prediction tap extraction unit 691 in FIG. 13 extracts the attention teacher pixel from the learning pair student image. A prediction tap having the same tap structure as that of the tap (FIG. 14) is extracted and supplied to the normal equation generation unit 832.

正規方程式生成部832は、教師画像から、注目教師画素を抽出し、その注目教師画素と、予測タップ抽出部831から供給される注目教師画素について構成された予測タップを構成する生徒画像とを対象とした足し込みを、外部から入力されるパラメータhとvの組み合わせごと、かつクラス分類部822から供給されるクラスごとに行う。   The normal equation generation unit 832 extracts the target teacher pixel from the teacher image, and targets the target teacher pixel and the student image constituting the prediction tap configured for the target teacher pixel supplied from the prediction tap extraction unit 831. Is added for each combination of parameters h and v input from the outside and for each class supplied from the class classification unit 822.

そして、正規方程式生成部832は、学習装置811に入力されるすべての教師画像の画素を注目教師画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、図17の係数生成部824に供給する。   Then, the normal equation generation unit 832 performs the above-mentioned addition using the pixels of all the teacher images input to the learning device 811 as the target teacher pixels, so that the normal equations shown in Equation (8) are obtained for each class. , The normal equation is supplied to the coefficient generation unit 824 in FIG.

次に、図19のフローチャートを参照して、図17の学習装置811の学習処理について説明する。   Next, the learning process of the learning device 811 in FIG. 17 will be described with reference to the flowchart in FIG.

初めに、ステップS741において、生徒画像生成部821は、外部から入力されたパラメータhとvに応じて、入力された教師画像から生徒画像を生成し、クラス分類部822と生成部823に供給する。   First, in step S741, the student image generation unit 821 generates a student image from the input teacher image according to the parameters h and v input from the outside, and supplies the student image to the class classification unit 822 and the generation unit 823. .

ステップS742において、クラス分類部822は、図16のクラス分類処理と同様に、教師画像のうちの所定の画素である注目教師画素を、その注目教師画素に対応する生徒画像の位相の特徴に応じて、クラスに分類するクラス分類処理を行う。クラス分類部822は、決定されたクラスを生成部823の正規方程式生成部832(図18)に供給する。   In step S742, the class classification unit 822 selects a target teacher pixel, which is a predetermined pixel in the teacher image, in accordance with the phase characteristics of the student image corresponding to the target teacher pixel, as in the class classification process of FIG. Class classification processing for classifying into classes. The class classification unit 822 supplies the determined class to the normal equation generation unit 832 (FIG. 18) of the generation unit 823.

ステップS743において、図18の予測タップ抽出部831は、注目教師画素について、生徒画像生成部821から供給される生徒画像から、予測タップを抽出し、正規方程式生成部832に供給する。   In step S743, the prediction tap extraction unit 831 in FIG. 18 extracts prediction taps from the student image supplied from the student image generation unit 821 for the teacher pixel of interest, and supplies the prediction tap to the normal equation generation unit 832.

ステップS744において、正規方程式生成部832は、入力される教師画像から注目教師画素を抽出し、その注目教師画素と、予測タップ抽出部831から供給される注目教師画素について構成された予測タップを構成する生徒画像とを対象とした式(8)の足し込みを、パラメータhおよびvの組み合わせごと、かつクラス分類部822から供給されるクラスごとに行う。   In step S744, the normal equation generation unit 832 extracts the target teacher pixel from the input teacher image, and configures the target teacher pixel and the prediction tap configured for the target teacher pixel supplied from the prediction tap extraction unit 831. The addition of Expression (8) for the student image to be performed is performed for each combination of parameters h and v and for each class supplied from the class classification unit 822.

ステップS745において、クラス分類部822は、入力されるすべての教師画像の画素を注目教師画素としたかどうかを判定する。ステップS745で、まだすべての教師画像の画素を注目教師画素としていないと判定された場合、ステップS746において、クラス分類部822は、まだ注目教師画素としていない教師画像の画素を、新たに注目教師画素として決定する。そして、処理はステップS742に戻り、以下、同様の処理が繰り返される。   In step S745, the class classification unit 822 determines whether or not the pixels of all input teacher images are the target teacher pixels. If it is determined in step S745 that all the teacher image pixels have not yet been set as the target teacher pixel, in step S746, the class classification unit 822 newly sets the teacher image pixel not yet set as the target teacher pixel as the target teacher pixel. Determine as. Then, the process returns to step S742, and the same process is repeated thereafter.

一方、ステップS745で、すべての教師画像の画素を注目教師画素としたと判定された場合、ステップS747において、正規方程式生成部832は、いままでの処理によって得られたパラメータhおよびvの組み合わせごと、かつクラスごとの式(8)における左辺の行列と、右辺のベクトルを、正規方程式として係数生成部824に供給する。   On the other hand, if it is determined in step S745 that all the teacher image pixels are the target teacher pixels, in step S747, the normal equation generation unit 832 determines each combination of the parameters h and v obtained by the processing so far. In addition, the matrix on the left side and the vector on the right side in Equation (8) for each class are supplied to the coefficient generation unit 824 as normal equations.

ステップS748において、係数生成部824は、生成部823から供給される、パラメータhおよびvの組み合わせごと、かつクラスごとの式(8)における左辺の行列と右辺のベクトルによって構成される正規方程式を解き、パラメータhおよびvの組み合わせごと、かつクラスごとの予測係数Wvhnを求め、正規方程式生成部825に出力する。 In step S748, the coefficient generation unit 824 solves the normal equation that is supplied from the generation unit 823 and is configured by the matrix on the left side and the vector on the right side in Expression (8) for each combination of parameters h and v and for each class. The prediction coefficient W vhn for each combination of parameters h and v and for each class is obtained and output to the normal equation generation unit 825.

ステップS749において、正規方程式生成部825は、予測係数Wvhnに基づいて式(17)の正規方程式をクラスごとに生成し、係数種決定部826に出力する。ステップS750において、係数種決定部826は、クラスごとの式(17)の正規方程式を解き、クラスごとの係数種wn,kを求める。ステップS751において、係数種メモリ827は、係数種wn,kを記憶する。この係数種が図10の係数種メモリ652に記憶される。 In step S749, the normal equation generation unit 825 generates a normal equation of Expression (17) for each class based on the prediction coefficient W vhn and outputs the normal equation to the coefficient type determination unit 826. In step S750, the coefficient type determination unit 826 solves the normal equation of the equation (17) for each class and obtains the coefficient type wn , k for each class. In step S751, the coefficient seed memory 827 stores the coefficient seed wn , k . This coefficient seed is stored in the coefficient seed memory 652 in FIG.

以上のように、人工画予測部132は、人工画像を用いた学習により獲得された係数種により生成される予測係数を用いて、人工高品質画像を予測するので、出力位相変換部112から供給されるHD画像のうちの人工画像の品質を的確に高めることができる。   As described above, the artificial image prediction unit 132 predicts the artificial high quality image using the prediction coefficient generated by the coefficient type obtained by learning using the artificial image, and is supplied from the output phase conversion unit 112. It is possible to accurately improve the quality of the artificial image among the HD images to be displayed.

また、人工画予測部132は、クラスタップのエッジの位置を位相の特徴として、その特徴に応じて、注目画素をクラスに分類するので、階調が少なく、位相情報がはっきりした人工画像の注目画素を、的確に分類することができる。その結果、人工画予測部132は、このクラスごとに学習により獲得された係数種により生成される予測係数を用いて、HD画像から人工高品質画像を予測することにより、人工画像に含まれるノイズ等をより的確に除去し、より高品質の人工高品質画像を出力することができる。   Further, since the artificial image prediction unit 132 uses the position of the edge of the class tap as a phase feature and classifies the pixel of interest into a class according to the feature, attention is paid to an artificial image with few gradations and clear phase information. Pixels can be classified accurately. As a result, the artificial image prediction unit 132 predicts an artificial high-quality image from the HD image using a prediction coefficient generated by the coefficient type obtained by learning for each class, and thereby includes noise included in the artificial image. And the like can be more accurately removed, and a higher quality artificial high quality image can be output.

次に、人工画予測部132の第2の実施の形態について説明する。   Next, a second embodiment of the artificial image prediction unit 132 will be described.

人工画予測部132の第2の実施の形態は、図10の人工画予測部132のクラス分類部651の代わりに、後述する図20のクラス分類部840を設けることにより構成される。なお、この場合、係数種メモリ652に格納される係数種wn,kを求める学習装置811は、クラス分類部822の代わりに、クラス分類部840と同様に構成されるクラス分類部を設けることにより構成される。 The second embodiment of the artificial image prediction unit 132 is configured by providing a class classification unit 840 of FIG. 20 described later, instead of the class classification unit 651 of the artificial image prediction unit 132 of FIG. In this case, the learning device 811 for obtaining the coefficient seed w n, k stored in the coefficient seed memory 652 is provided with a class classification unit configured similarly to the class classification unit 840 instead of the class classification unit 822. Consists of.

図20は、人工画予測部132の第2の実施の形態のクラス分類部の詳細構成例を示すブロック図である。   FIG. 20 is a block diagram illustrating a detailed configuration example of the class classification unit according to the second embodiment of the artificial image prediction unit 132.

図20のクラス分類部840は、クラスタップ抽出部671、差分算出部672、およびクラス決定部841により構成される。クラス分類部840は、クラスタップを構成する画素のうち、水平方向に隣接する隣接画素の隣接差分絶対値の比(以下、水平差分比と称する)と、垂直方向に隣接する隣接画素の隣接差分絶対値の比(以下、垂直差分比と称する)とを、クラスタップの位相の特徴として、その特徴に応じてクラス分類を行う。なお、図11と同一のものには、同一の符号を付してあり、説明は繰り返しになるので省略する。   The class classification unit 840 of FIG. 20 includes a class tap extraction unit 671, a difference calculation unit 672, and a class determination unit 841. The class classification unit 840 includes, among the pixels constituting the class tap, a ratio of adjacent difference absolute values of adjacent pixels adjacent in the horizontal direction (hereinafter referred to as a horizontal difference ratio) and an adjacent difference of adjacent pixels adjacent in the vertical direction. The absolute value ratio (hereinafter referred to as the vertical difference ratio) is used as a class tap phase feature, and class classification is performed according to the feature. Note that the same components as those in FIG. 11 are denoted by the same reference numerals, and the description thereof will be omitted to avoid repetition.

クラス決定部841には、差分算出部672により算出された隣接差分絶対値が供給される。クラス決定部841は、クラスタップの水平方向の位相を表す水平差分比と、クラスタップの垂直方向の位相を表す垂直差分比とを算出する。クラス決定部841は、水平差分比と垂直差分比を、クラスタップの位相の特徴として、その特徴に応じて、注目画素のクラスを決定する。   The class determination unit 841 is supplied with the adjacent difference absolute value calculated by the difference calculation unit 672. The class determining unit 841 calculates a horizontal difference ratio that represents the horizontal phase of the class tap and a vertical difference ratio that represents the vertical phase of the class tap. The class determining unit 841 uses the horizontal difference ratio and the vertical difference ratio as the characteristics of the phase of the class tap, and determines the class of the target pixel according to the characteristics.

図21は、図20のクラスタップ抽出部671により抽出されるクラスタップのタップ構造の例を示している。なお、クラスタップのタップ構造は、図21に示されている以外の構造とすることが可能である。   FIG. 21 shows an example of the tap structure of class taps extracted by the class tap extraction unit 671 of FIG. The tap structure of the class tap can be a structure other than that shown in FIG.

図21では、出力位相変換部112から供給されるHD画像のうちの、注目画素に対応する画素p162と、その画素の上方向、左方向、右方向、下方向にそれぞれ隣接する1画素p160,p161,p163,p164とから、いわば十字形状のクラスタップが構成されている。   In FIG. 21, among the HD images supplied from the output phase converter 112, the pixel p162 corresponding to the pixel of interest, and one pixel p160 adjacent to the pixel in the upward, leftward, rightward, and downward directions, respectively. From p161, p163, and p164, a so-called cross-shaped class tap is formed.

差分算出部672は、クラスタップを構成する5個の画素p160乃至p164のうちの、隣接画素である画素p161とp162,p162とp163,p160とp162,p162とp164の4個の隣接差分絶対値d40乃至d43を算出し、クラス決定部841に供給する。   The difference calculation unit 672 includes four adjacent difference absolute values of adjacent pixels p161 and p162, p162 and p163, p160 and p162, and p162 and p164 among the five pixels p160 to p164 constituting the class tap. d40 to d43 are calculated and supplied to the class determining unit 841.

クラス決定部841は、水平方向に隣接する隣接画素である画素p161とp162,p162とp163の隣接差分絶対値d40とd41の比(d40/d41)を、水平差分比として算出する。また、クラス決定部841は、垂直方向に隣接する隣接画素である画素p160とp162,p162とp164の隣接差分絶対値d42とd43の比(d42/d43)を、垂直差分比として算出する。そして、クラス決定部841は、水平差分比と垂直差分比に応じて、クラスを決定する。   The class determination unit 841 calculates the ratio (d40 / d41) of the adjacent difference absolute values d40 and d41 of the pixels p161 and p162, p162 and p163, which are adjacent pixels adjacent in the horizontal direction, as the horizontal difference ratio. Further, the class determining unit 841 calculates the ratio (d42 / d43) of the adjacent difference absolute values d42 and d43 of the pixels p160 and p162, p162 and p164, which are adjacent pixels adjacent in the vertical direction, as the vertical difference ratio. Then, the class determining unit 841 determines a class according to the horizontal difference ratio and the vertical difference ratio.

具体的には、クラス決定部841は、例えば、注目画素を水平差分比と垂直差分比のそれぞれを、その値に応じて、1乃至8の分類番号が付された8種類の分類(サブクラス)のいずれかに分ける。そして、クラス決定部841は、水平差分比に応じて分けられた分類の分類番号と、垂直差分比に応じて分けられた分類の分類番号との組み合わせを、クラスとして決定する。従って、このとき、注目画素は、64(=8×8)個のクラスに分類される。なお、勿論、分類の数は8個に限定されない。   Specifically, the class determination unit 841 determines, for example, eight types of classifications (subclasses) in which the horizontal difference ratio and the vertical difference ratio of the target pixel are assigned with classification numbers 1 to 8 according to the values, for example. Divide either. Then, the class determining unit 841 determines a combination of the classification number divided according to the horizontal difference ratio and the classification number divided according to the vertical difference ratio as a class. Accordingly, at this time, the target pixel is classified into 64 (= 8 × 8) classes. Of course, the number of classifications is not limited to eight.

次に、図22のフローチャートを参照して、図20のクラス分類部840が注目画素をクラスに分類するクラス分類処理について説明する。このクラス分類処理は、図15のステップS701のクラス分類処理に対応する。   Next, a class classification process in which the class classification unit 840 in FIG. 20 classifies the target pixel into a class will be described with reference to the flowchart in FIG. This class classification process corresponds to the class classification process in step S701 in FIG.

ステップS761において、クラス分類部840のクラスタップ抽出部671は、入力されたHD画像からクラスタップ(図21)を抽出し、差分算出部672に供給する。   In step S761, the class tap extraction unit 671 of the class classification unit 840 extracts the class tap (FIG. 21) from the input HD image and supplies the class tap to the difference calculation unit 672.

ステップS762において、差分算出部672は、クラスタップ抽出部671から供給されるクラスタップを構成する画素のうちの、各隣接画素の隣接差分絶対値を算出し、クラス決定部841に供給する。   In step S <b> 762, the difference calculation unit 672 calculates the adjacent difference absolute value of each adjacent pixel among the pixels constituting the class tap supplied from the class tap extraction unit 671, and supplies the calculated value to the class determination unit 841.

ステップS763において、クラス決定部841は、差分算出部672から供給される隣接差分絶対値から、水平差分比と垂直差分比を算出する。   In step S763, the class determination unit 841 calculates the horizontal difference ratio and the vertical difference ratio from the adjacent difference absolute value supplied from the difference calculation unit 672.

ステップS764において、クラス決定部841は、水平差分比と垂直差分比に基づいて、クラスを決定する。クラス決定部841は、そのクラスを図10の予測係数メモリ654に供給する。その後、処理は図15のステップS701に戻る。   In step S764, the class determination unit 841 determines a class based on the horizontal difference ratio and the vertical difference ratio. The class determination unit 841 supplies the class to the prediction coefficient memory 654 in FIG. Thereafter, the processing returns to step S701 in FIG.

次に、人工画予測部132の第3の実施の形態について説明する。   Next, a third embodiment of the artificial image prediction unit 132 will be described.

人工画予測部132の第3の実施の形態は、図10の人工画予測部132のクラス分類部651の代わりに、後述する図23のクラス分類部851を設けることにより構成される。なお、この場合、係数種メモリ652に格納される係数種wn,kを求める学習装置811は、クラス分類部822の代わりに、クラス分類部851と同様に構成されるクラス分類部を設けることにより構成される。 The third embodiment of the artificial image prediction unit 132 is configured by providing a class classification unit 851 of FIG. 23 described later instead of the class classification unit 651 of the artificial image prediction unit 132 of FIG. In this case, the learning device 811 for obtaining the coefficient seed w n, k stored in the coefficient seed memory 652 is provided with a class classification unit configured similarly to the class classification unit 851 instead of the class classification unit 822. Consists of.

図23は、人工画予測部132の第3の実施の形態のクラス分類部の詳細構成例を示すブロック図である。   FIG. 23 is a block diagram illustrating a detailed configuration example of the class classification unit according to the third embodiment of the artificial image prediction unit 132.

図23のクラス分類部851は、クラス分類器861、クラス分類器862、およびクラス選択部863により構成される。クラス分類部851は、HD画像の位相の特徴に応じたクラス分類を行うだけでなく、HD画像の波形の特徴に応じたクラス分類も行い、それらの結果得られるクラスのいずれか一方を選択して出力する。   The class classification unit 851 in FIG. 23 includes a class classifier 861, a class classifier 862, and a class selection unit 863. The class classification unit 851 not only performs class classification according to the phase characteristics of the HD image, but also performs class classification according to the waveform characteristics of the HD image, and selects one of the resulting classes. Output.

出力位相変換部112から供給されるHD画像は、クラス分類器861とクラス分類器862に入力される。   The HD image supplied from the output phase converter 112 is input to the class classifier 861 and the class classifier 862.

クラス分類器861は、人工高品質画像を構成する画素を、順次、注目画素とし、その注目画素を、注目画素に対応するHD画像の波形の特徴に応じて、幾つかのクラスのうちのいずれかのクラス(以下、波形分類クラスと称する)に分類する。クラス分類器861は、人工画像の中でも、平坦部分が比較的少ない、つまりエッジが比較的多い人工画像、即ち自然画像に近い人工画像の特徴を分類するのに適した分類を行う。クラス分類器861は、分類された波形分類クラスをクラス選択部863に供給する。   The class classifier 861 sequentially sets a pixel constituting the artificial high quality image as a target pixel, and the target pixel is selected from any of several classes according to the waveform characteristics of the HD image corresponding to the target pixel. Class (hereinafter referred to as waveform classification class). The class classifier 861 performs classification suitable for classifying features of an artificial image having relatively few flat portions, that is, having relatively many edges, that is, an artificial image close to a natural image, among the artificial images. The class classifier 861 supplies the classified waveform classification class to the class selection unit 863.

クラス分類器862は、図11のクラス分類部651と同様に構成される。クラス分類器862は、注目画素に対応するHD画像の位相の特徴に応じて、クラス(以下、位相分類クラスと称する)に分類する。クラス分類器862は、人工画像の中でも、平坦部分が比較的多い、つまりエッジが比較的少ない人工画像、即ち人工画像らしい人工画像の特徴を分類するのに適した分類を行う。クラス分類器862は、分類された位相分類クラスをクラス選択部863に供給する。   The class classifier 862 is configured in the same manner as the class classification unit 651 in FIG. The class classifier 862 classifies into a class (hereinafter referred to as a phase classification class) according to the phase characteristics of the HD image corresponding to the target pixel. The class classifier 862 performs classification suitable for classifying the features of an artificial image having a relatively large number of flat portions, that is, having relatively few edges, that is, an artificial image like an artificial image. The class classifier 862 supplies the classified phase classification class to the class selection unit 863.

クラス選択部863は、クラス分類器862から供給される位相分類クラスに基づいて、クラス分類器861から供給される波形分類クラスと、クラス分類器862から供給される位相分類クラスのいずれか一方を選択し、図10の予測係数メモリ654に出力する。   Based on the phase classification class supplied from the class classifier 862, the class selection unit 863 selects one of the waveform classification class supplied from the class classifier 861 and the phase classification class supplied from the class classifier 862. This is selected and output to the prediction coefficient memory 654 of FIG.

図24は、図23のクラス分類器861の詳細構成例を示すブロック図である。   FIG. 24 is a block diagram illustrating a detailed configuration example of the class classifier 861 in FIG.

図23のクラス分類器861は、クラスタップ抽出部871とADRC処理部872により構成される。   The class classifier 861 in FIG. 23 includes a class tap extraction unit 871 and an ADRC processing unit 872.

クラスタップ抽出部871には、HD画像が供給され、クラスタップ抽出部871は、注目画素を波形分類クラスに分類するために用いるHD画像を構成する画素を、クラスタップとして抽出し、ADRC処理部872に供給する。   The HD image is supplied to the class tap extraction unit 871, and the class tap extraction unit 871 extracts the pixels constituting the HD image used for classifying the target pixel into the waveform classification class as a class tap, and the ADRC processing unit 872.

ADRC処理部872は、クラスタップ抽出部871から供給されるクラスタップを構成する画素の画素値を、クラスタップの波形の特徴として、その画素値に対して、1ビットADRC処理を行う。そして、ADRC処理部872は、ADRC処理の結果得られる1ビットの画素値を所定の順番で並べたビット列を、注目画素の波形分類クラスとして決定する。従って、波形分類クラスは、クラスタップの波形を縮退した値となる。ADRC処理部872は、決定された波形分類クラスを、図10の予測係数メモリ654に供給する。 The ADRC processing unit 872 performs 1-bit ADRC processing on the pixel value of the pixel constituting the class tap supplied from the class tap extraction unit 871 as the characteristic of the class tap waveform. Then, the ADRC processing unit 872 determines a bit string in which 1-bit pixel values obtained as a result of the ADRC processing are arranged in a predetermined order as the waveform classification class of the target pixel. Therefore, the waveform classification class is a value obtained by degenerating the waveform of the class tap. The ADRC processing unit 872 supplies the determined waveform classification class to the prediction coefficient memory 654 in FIG.

以上のように、クラス分類器861は、クラスタップの波形の特徴に応じて、注目画素を波形分類クラスに分類する。   As described above, the class classifier 861 classifies the pixel of interest into the waveform classification class according to the waveform characteristics of the class tap.

図25は、クラスタップ抽出部871により抽出されるクラスタップの構造の例を示している。なお、クラスタップのタップ構造は、図25に示されている以外の構造とすることが可能である。   FIG. 25 shows an example of the structure of class taps extracted by the class tap extraction unit 871. The tap structure of the class tap can be a structure other than that shown in FIG.

図25では、クラスタップ抽出部871により抽出されるクラスタップは、図12と同様に、出力位相変換部112から供給されるHD画像のうちの、注目画素に対応する画素p184と、その画素の上方向、左方向、右方向、下方向にそれぞれ隣接する2画素p180,p181,p182,p183,p185,p186,p187,p188とから構成されている。   In FIG. 25, the class tap extracted by the class tap extraction unit 871 is the pixel p184 corresponding to the target pixel in the HD image supplied from the output phase conversion unit 112, and the pixel tap of the pixel, as in FIG. It consists of two pixels p180, p181, p182, p183, p185, p186, p187, and p188 that are adjacent in the upward, leftward, rightward, and downward directions, respectively.

ADRC処理部872は、クラスタップ抽出部871から供給される9個の画素p180乃至p188の各画素値に対して、1ビットADRC処理を行い、その結果得られる9ビットのビット列を波形分類クラスとして決定する。   The ADRC processing unit 872 performs 1-bit ADRC processing on the pixel values of the nine pixels p180 to p188 supplied from the class tap extraction unit 871, and uses the resulting 9-bit bit string as a waveform classification class. decide.

図26は、図23のクラス選択部863の詳細構成例を示すブロック図である。   FIG. 26 is a block diagram illustrating a detailed configuration example of the class selection unit 863 in FIG.

図26のクラス選択部863は、テーブル変換部891とスイッチ892により構成される。   The class selection unit 863 in FIG. 26 includes a table conversion unit 891 and a switch 892.

クラス分類器861から出力される9ビットの波形分類クラスは、スイッチ892の一方の入力Aに供給され、クラス分類器862から出力される8ビットの位相分類クラスは、テーブル変換部891とスイッチ892の他方の入力Bに供給される。   The 9-bit waveform classification class output from the class classifier 861 is supplied to one input A of the switch 892, and the 8-bit phase classification class output from the class classifier 862 includes the table conversion unit 891 and the switch 892. To the other input B.

テーブル変換部891は、図示せぬ内蔵するメモリに、クラス分類器862から供給される8ビットの位相分類クラスと、1ビットのセレクト信号とを対応付けることにより、8ビットの位相分類クラスを1ビットのセレクト信号に縮退する縮退テーブルを記憶している。テーブル変換部891は、その縮退テーブルに基づいて、クラス分類器862から供給される8ビットの位相分類クラスを、1ビットのセレクト信号に変換し、そのセレクト信号をスイッチ892に、それを切り換える制御信号として供給する。   The table conversion unit 891 associates an 8-bit phase classification class supplied from the class classifier 862 with a 1-bit select signal in a built-in memory (not shown), thereby converting the 8-bit phase classification class into one bit. A degeneration table for degeneration is stored in the select signal. Based on the degeneration table, the table conversion unit 891 converts the 8-bit phase classification class supplied from the class classifier 862 into a 1-bit select signal, and switches the select signal to the switch 892. Supply as a signal.

例えば、縮退テーブルは、8ビットのうち5個以上のビットが1である位相分類クラス、即ちエッジの数が基準値より多いクラスに対して、セレクト信号の1が、8ビットのうち5個より少ない数のビットが1である位相分類クラス、即ちエッジの数が基準値より少ないクラスに対して、セレクト信号の0が、それぞれ対応付けられることにより構成されている。これにより、例えば、位相分類クラスの値が(10110010)(1の数が4個)である場合、テーブル変換部891は、0を表すセレクト信号を出力し、位相分類クラスの値が(00110111)(1の数が5個)である場合、テーブル変換部891は、1を表すセレクト信号を出力する。   For example, in the degeneration table, for a phase classification class in which 5 or more bits out of 8 bits are 1, that is, a class in which the number of edges is larger than the reference value, 1 of the select signal is more than 5 out of 8 bits. The phase classification class having a small number of bits of 1, that is, the class having a smaller number of edges than the reference value is configured by associating 0 of the select signal with each other. Thereby, for example, when the value of the phase classification class is (10110010) (the number of 1s is four), the table conversion unit 891 outputs a select signal indicating 0, and the value of the phase classification class is (00110111). If (the number of 1s is 5), the table conversion unit 891 outputs a select signal representing 1.

スイッチ892は、テーブル変換部891から供給されるセレクト信号に応じて、セレクト信号が1のとき、即ちクラスタップにより構成されるHD画像が、エッジの数が基準値より多い人工画像、つまり自然画像に近い人工画像のとき、入力Aに供給される波形分類クラスを選択し、セレクト信号が0のとき、即ちクラスタップにより構成されるHD画像が、エッジの数が基準値より少ない人工画像、つまり人工画像らしい人工画像のとき、入力Bに供給される位相分類クラスを選択し、図10の予測係数メモリ654に出力する。   The switch 892 responds to a select signal supplied from the table conversion unit 891, and when the select signal is 1, that is, an HD image configured by class taps is an artificial image having more edges than the reference value, that is, a natural image. Is selected, the waveform classification class supplied to the input A is selected, and when the select signal is 0, that is, the HD image constituted by class taps is an artificial image having a number of edges smaller than the reference value, that is, In the case of an artificial image that seems to be an artificial image, the phase classification class supplied to the input B is selected and output to the prediction coefficient memory 654 of FIG.

次に、図27のフローチャートを参照して、図23のクラス分類部851が注目画素をクラス分類するクラス分類処理について説明する。このクラス分類処理は、図15のステップS701のクラス分類処理に対応する。   Next, a class classification process in which the class classification unit 851 in FIG. 23 classifies the target pixel will be described with reference to the flowchart in FIG. This class classification process corresponds to the class classification process in step S701 in FIG.

ステップS781において、クラス分類部851のクラス分類器861は、人工高品質画像を構成する画素を、順次、注目画素とし、その注目画素を、注目画素に対応するHD画像の波形の特徴に応じて、波形分類クラスに分類するクラス分類処理を行う。このクラス分類処理の詳細は、図28を参照して後述する。   In step S781, the class classifier 861 of the class classification unit 851 sequentially sets the pixels constituting the artificial high quality image as the target pixel, and sets the target pixel according to the characteristics of the waveform of the HD image corresponding to the target pixel. Then, class classification processing for classifying into waveform classification classes is performed. Details of this class classification processing will be described later with reference to FIG.

ステップS782において、クラス分類器862は、図16における場合と同様のクラス分類処理を行う。その説明は繰り返しになるので省略する。ステップS783において、クラス選択部863は、クラス分類器862から供給される位相分類クラスに基づいて、クラス分類器861から供給される波形分類クラスと、クラス分類器862から供給される位相分類クラスのいずれか一方を選択するクラス選択処理を行う。その後、処理は、図15のステップS701に戻る。このクラス選択処理の詳細は、図29を参照して後述する。   In step S782, the class classifier 862 performs the same class classification process as in FIG. Since the description is repeated, it is omitted. In step S783, the class selection unit 863 selects the waveform classification class supplied from the class classifier 861 and the phase classification class supplied from the class classifier 862 based on the phase classification class supplied from the class classifier 862. A class selection process for selecting either one is performed. Thereafter, the processing returns to step S701 in FIG. Details of this class selection processing will be described later with reference to FIG.

次に、図28のフローチャートを参照して、図27のステップS781のクラス分類処理について説明する。   Next, the class classification process in step S781 in FIG. 27 will be described with reference to the flowchart in FIG.

ステップS801において、クラス分類器861のクラスタップ抽出部871は、入力されたHD画像から、クラスタップ(図25)を抽出し、ADRC処理部872に供給する。   In step S801, the class tap extraction unit 871 of the class classifier 861 extracts a class tap (FIG. 25) from the input HD image and supplies the class tap to the ADRC processing unit 872.

ステップS802において、ADRC処理部872は、クラスタップ抽出部871から供給されるクラスタップの画素値に対して、1ビットADRC処理を行う。ADRC処理部872は、その結果得られる8ビットのビット列を、波形分類クラスとして決定する。ADRC処理部872は、その波形分類クラスをクラス選択部863の入力Aに供給し、処理を図27のステップS781に戻す。   In step S802, the ADRC processing unit 872 performs 1-bit ADRC processing on the pixel value of the class tap supplied from the class tap extraction unit 871. The ADRC processing unit 872 determines the 8-bit bit string obtained as a result as the waveform classification class. The ADRC processing unit 872 supplies the waveform classification class to the input A of the class selection unit 863, and returns the processing to step S781 in FIG.

これにより、人工画像の中でも、エッジが多い、即ち自然画像に近い人工画像の特徴に適したクラスの分類が行われる。   As a result, among the artificial images, classification of a class suitable for the feature of the artificial image having many edges, that is, close to the natural image is performed.

次に、図29のフローチャートを参照して、図27のステップS783のクラス選択処理について説明する。   Next, the class selection processing in step S783 in FIG. 27 will be described with reference to the flowchart in FIG.

ステップS821において、クラス選択部863のテーブル変換部891(図26)は、クラス分類器862から供給される8ビットの位相分類クラスを、1ビットのセレクト信号に縮退する。   In step S821, the table conversion unit 891 (FIG. 26) of the class selection unit 863 degenerates the 8-bit phase classification class supplied from the class classifier 862 into a 1-bit select signal.

ステップS822において、スイッチ892は、テーブル変換部891から供給されるセレクト信号が1であるかどうかを判定する。ステップS822で、セレクト信号が1であると判定された場合、即ちクラスタップにより構成されるHD画像がエッジの多い自然画像に近い人工画像である場合、ステップS823において、スイッチ892は、クラス分類器861から入力Aに供給される波形分類クラスと、入力Bに供給される位相分類クラスのうちの、波形分類クラスを選択し、予測係数メモリ654に出力する。   In step S822, the switch 892 determines whether the select signal supplied from the table conversion unit 891 is “1”. If it is determined in step S822 that the select signal is 1, that is, if the HD image composed of class taps is an artificial image close to a natural image with many edges, in step S823, the switch 892 A waveform classification class is selected from the waveform classification class supplied from 861 to the input A and the phase classification class supplied to the input B, and is output to the prediction coefficient memory 654.

一方、ステップS822で、セレクト信号が0であると判定された場合、即ちクラスタップにより構成されるHD画像がエッジの少ない代表的な人工画像である場合、ステップS824において、スイッチ892は、波形分類クラスと位相分類クラスのうちの、位相分類クラスを選択し、予測係数メモリ654に出力する。   On the other hand, if it is determined in step S822 that the select signal is 0, that is, if the HD image formed by class taps is a representative artificial image with few edges, in step S824, the switch 892 performs waveform classification. The phase classification class is selected from the class and the phase classification class, and is output to the prediction coefficient memory 654.

以上のように、クラス選択部863は、クラスタッップにより構成されるHD画像がエッジの多い、即ち平坦部分の少ない人工画像である場合、波形分類クラスを選択し、クラスタップにより構成されるHD画像がエッジの少ない、即ち平坦部分の多い人工画像である場合、位相分類クラスを選択する。   As described above, the class selection unit 863 selects the waveform classification class when the HD image configured by clustering is an artificial image having many edges, that is, a flat portion, and the HD image configured by class taps is selected. In the case of an artificial image with few edges, that is, many flat parts, the phase classification class is selected.

即ち、クラス分類器861は、クラスタップにより構成されるHD画像が平坦部分の少ない人工画像である場合、クラスタップの波形の特徴に応じて分類された波形分類クラスを出力するので、クラスタップが、階調が少なく位相情報がはっきりした人工画像のうち、平坦部分の少ない複雑な画像の部分であっても、そのクラスタップに対応する注目画素を的確にクラスに分類することができる。   That is, the class classifier 861 outputs the waveform classification class classified according to the waveform characteristics of the class tap when the HD image formed by the class tap is an artificial image with a small flat portion. Among the artificial images with small gradation and clear phase information, the target pixel corresponding to the class tap can be accurately classified into a class even in a complex image portion with a small flat portion.

その結果、人工画予測部132は、このクラスごとに学習により獲得された予測係数を用いて、HD画像から人工高品質画像を求めることにより、HD画像のうちの人工画像に含まれるノイズをより的確に除去し、より高品質の人工高品質画像を出力することができる。   As a result, the artificial image prediction unit 132 obtains an artificial high quality image from the HD image using the prediction coefficient obtained by learning for each class, thereby further reducing noise included in the artificial image of the HD image. It is possible to accurately remove and output a higher quality artificial high quality image.

なお、上述した説明では、図23のクラス分類器862は、図11のクラス分類部651と同様に構成されるようにしたが、図20のクラス分類部840と同様に構成されるようにしてもよい。   In the above description, the class classifier 862 in FIG. 23 is configured in the same manner as the class classification unit 651 in FIG. 11, but is configured in the same manner as the class classification unit 840 in FIG. Also good.

また、図23のクラス分類部851では、クラス分類器861が、クラス選択部863の前に配置されたが、クラス選択部863の後に配置されるようにしてもよい。この場合、セレクト信号が1であるとき、クラス選択部863は、クラス分類器861にクラス分類を行うように指示し、セレクト信号が0であるとき、クラス分類器862から供給される位相分類クラスを出力する。これにより、クラス分類器861は、セレクト信号が1であるときだけクラス分類を行えばよく、クラス分類器861の処理負荷を軽減することができる。   In the class classification unit 851 of FIG. 23, the class classifier 861 is disposed before the class selection unit 863, but may be disposed after the class selection unit 863. In this case, when the select signal is 1, the class selection unit 863 instructs the class classifier 861 to perform class classification, and when the select signal is 0, the phase classification class supplied from the class classifier 862. Is output. Thereby, the class classifier 861 only needs to perform class classification when the select signal is 1, and the processing load on the class classifier 861 can be reduced.

また、上述した説明では、自然画予測部131と人工画予測部132は、ノイズを含むHD画像から、ノイズが除去された高品質な自然高品質画像または人工高品質画像を予測したが、低解像度のHD画像から、高品質な高解像度の画像を予測するようにしてもよい。例えば、自然画予測部131と人工画予測部132は、入力された画像から、その画素数を4倍密にした画像を予測したり、画素数を減らした、即ち画素を間引いた画像を予測することもできる。即ち、本発明は、各種の画像処理を行う場合に利用することができる。   In the above description, the natural image prediction unit 131 and the artificial image prediction unit 132 predict a high-quality natural high-quality image or artificial high-quality image from which noise is removed from an HD image including noise. A high-quality high-resolution image may be predicted from the resolution HD image. For example, the natural image prediction unit 131 and the artificial image prediction unit 132 predict an image in which the number of pixels is quadrupled from the input image, or predict an image in which the number of pixels is reduced, that is, the pixels are thinned out. You can also That is, the present invention can be used when various image processing is performed.

さらに、自然画予測部131と人工画予測部132は、入力された圧縮画像から、原画像を予測することもできる。この場合、学習装置601と学習装置811では、例えば放送されてくる圧縮された画像や、DVD(Digital Versatile Disk)に記録されている圧縮された自然画像または人工画像などを生徒画像とし、生徒画像の原画像を教師画像として学習を行う。   Furthermore, the natural image prediction unit 131 and the artificial image prediction unit 132 can also predict an original image from the input compressed image. In this case, the learning device 601 and the learning device 811 use, for example, a compressed image that is broadcast, a compressed natural image or an artificial image that is recorded on a DVD (Digital Versatile Disk) as a student image, and the student image. Learning is performed using the original image as a teacher image.

また、上述した説明では、係数種が学習されるようにしたが、予測係数そのものが学習されるようにしてもよい。この場合、自然画予測部131と人工画予測部132は、学習により獲得された予測係数そのものを用いて予測を行う。   In the above description, the coefficient type is learned, but the prediction coefficient itself may be learned. In this case, the natural image prediction unit 131 and the artificial image prediction unit 132 perform prediction using the prediction coefficient itself acquired by learning.

次に、図30を参照して、自然画人工画判定部114の詳細構成例について説明する。自然画人工画判定部114は、広域特徴量抽出部911、広域人工画度算出部912、人工画度生成部913、狭域特徴量抽出部914、および狭域人工画度算出部915により構成される。   Next, a detailed configuration example of the natural-image / artificial-image determination unit 114 will be described with reference to FIG. The natural image / artificial image determination unit 114 includes a wide area feature amount extraction unit 911, a wide area artificial image degree calculation unit 912, an artificial image degree generation unit 913, a narrow area feature amount extraction unit 914, and a narrow area artificial image degree calculation unit 915. Is done.

広域特徴量抽出部911は、BEP(Broad Edge Parameter)抽出部931、BFP(Broad Flat Parameter)抽出部932、および特徴量合成部933より構成され、出力位相変換部112より供給されるHD画像の各画素より広域特徴量を抽出して広域人工画度算出部912に供給する。   The wide area feature amount extraction unit 911 includes a BEP (Broad Edge Parameter) extraction unit 931, a BFP (Broad Flat Parameter) extraction unit 932, and a feature amount synthesis unit 933, and the HD image supplied from the output phase conversion unit 112. A wide-area feature amount is extracted from each pixel and supplied to the wide-area artificial image degree calculation unit 912.

BEP抽出部931は、出力位相変換部112より供給されるHD画像の各画素について、注目画素に対応して設定される参照領域の画素の画素値のダイナミックレンジに基づいて得られる値を広域特徴量を構成する特徴量BEPとして抽出し、BFP抽出部932および特徴量合成部933に供給する。尚、BEP抽出部931の詳細な構成例については、図31を参照して後述する。また、以降、参照領域の画素、および特徴量BEPについては、単に参照画素、およびBEPとも称する。さらに、以降の説明において、注目画素とは、出力位相変換部112より供給されるHD画像の画素であって、自然画人工画判定部114における処理対象となる画素である。   The BEP extraction unit 931 sets, for each pixel of the HD image supplied from the output phase conversion unit 112, a value obtained based on the dynamic range of the pixel value of the pixel in the reference region set corresponding to the target pixel. The feature amount is extracted as a feature amount BEP and supplied to the BFP extraction unit 932 and the feature amount synthesis unit 933. A detailed configuration example of the BEP extraction unit 931 will be described later with reference to FIG. Hereinafter, the pixels in the reference area and the feature amount BEP are also simply referred to as reference pixels and BEP. Further, in the following description, the target pixel is a pixel of an HD image supplied from the output phase conversion unit 112 and is a pixel to be processed in the natural image / artificial image determination unit 114.

BFP抽出部932は、出力位相変換部112より供給されるHD画像の各画素について、注目画素に対応して設定される参照画素の隣接する画素間の画素値の差分絶対値およびBEPに基づいて得られる値を、広域特徴量を構成する特徴量BFPとして抽出し、特徴量合成部933に供給する。尚、BFP抽出部932の詳細な構成例については、図32を参照して後述する。また、以降、特徴量BFPについては、単にBFPとも称する。   The BFP extraction unit 932, for each pixel of the HD image supplied from the output phase conversion unit 112, based on the absolute value of the pixel value difference between adjacent pixels of the reference pixel set corresponding to the target pixel and the BEP The obtained value is extracted as a feature quantity BFP constituting the wide area feature quantity and supplied to the feature quantity synthesis unit 933. A detailed configuration example of the BFP extraction unit 932 will be described later with reference to FIG. Hereinafter, the feature amount BFP is also simply referred to as BFP.

特徴量合成部933は、BEP抽出部931より供給されてくるBEPおよびBFP抽出部932より供給されてくるBFPを合成し、広域特徴量を生成して広域人工画度算出部912に供給する。すなわち、広域特徴量は、上述したBEPおよびBFPという2種類の特徴量より構成され、注目画素の属する広い範囲の画像の特徴を示す特徴量である。   The feature amount synthesis unit 933 synthesizes the BEP supplied from the BEP extraction unit 931 and the BFP supplied from the BFP extraction unit 932, generates a wide area feature amount, and supplies it to the wide area artificial image degree calculation unit 912. That is, the wide-area feature amount is a feature amount that includes the above-described two types of feature amounts, BEP and BFP, and indicates the features of a wide range of images to which the target pixel belongs.

広域人工画度算出部912は、特徴量分離部951、広域境界線比較部952、広域境界線メモリ953、および内分計算部954から構成され、広域特徴量抽出部911より供給されてくる広域特徴量に基づいて、広域人工画度Artbを算出し、人工画度生成部913に供給する。 The wide-area artificial image degree calculation unit 912 includes a feature amount separation unit 951, a wide-area boundary line comparison unit 952, a wide-area boundary line memory 953, and an internal division calculation unit 954, and is supplied from the wide-area feature amount extraction unit 911. Based on the feature amount, the wide-area artificial image degree Art b is calculated and supplied to the artificial image degree generation unit 913.

特徴量分離部951は、広域特徴量抽出部911より供給されてくる広域特徴量を構成する特徴量を分離して、それぞれ広域境界線比較部952に供給する。すなわち、この例においては、広域特徴量は、BEPおよびBFPであるので、特徴量分離部951は、BEPおよびBFPをそれぞれ分離して広域境界線比較部952に供給する。   The feature amount separation unit 951 separates feature amounts constituting the wide area feature amount supplied from the wide area feature amount extraction unit 911 and supplies the separated feature amounts to the wide area boundary comparison unit 952. That is, in this example, since the wide area feature amounts are BEP and BFP, the feature amount separation unit 951 separates the BEP and BFP and supplies them to the wide area boundary comparison unit 952.

広域境界線比較部952は、特徴量分離部951より供給されてくる2種類の特徴量の値に基づいて、予め複数の人工画像および自然画像より統計的に求められており、広域境界線メモリ953に記憶されている人工画像または自然画像のいずれに属するかを示す広域境界線と比較し、比較結果を内分計算部954に供給する。   The wide area boundary line comparison unit 952 is statistically obtained in advance from a plurality of artificial images and natural images based on the two types of feature amount values supplied from the feature amount separation unit 951, and has a wide area boundary line memory. A comparison is made with a wide boundary line indicating whether the image belongs to an artificial image or a natural image stored in 953, and the comparison result is supplied to the internal division calculation unit 954.

内分計算部954は、広域境界線比較部952より供給されてくる比較結果に基づいて、広域特徴量に対応する広域人工画度Artbを計算して人工画度生成部913に供給する。 Based on the comparison result supplied from the wide area boundary line comparison unit 952, the internal division calculation unit 954 calculates a wide area artificial degree Art b corresponding to the wide area feature amount, and supplies it to the artificial image degree generation unit 913.

狭域特徴量抽出部914は、PNDP(Primary Narrow Discrimination Parameter)抽出部971、SNDP(Secondary Narrow Discrimination Parameter)抽出部972、および特徴量合成部973より構成され、出力位相変換部112より供給されるHD画像の各画素より狭域特徴量を抽出して狭域人工画度算出部915に供給する。   The narrow area feature amount extraction unit 914 includes a PNDP (Primary Narrow Discrimination Parameter) extraction unit 971, an SNDP (Secondary Narrow Discrimination Parameter) extraction unit 972, and a feature amount synthesis unit 973, and is supplied from the output phase conversion unit 112. A narrow area feature amount is extracted from each pixel of the HD image and supplied to the narrow area artificial image degree calculation unit 915.

PNDP抽出部971は、出力位相変換部112より供給されるHD画像の各画素について、注目画素に対応して設定される参照領域に含まれる長タップ領域の画素の画素値のダイナミックレンジに基づいて得られる値を狭域特徴量を構成する特徴量PNDPとして抽出し、SNDP抽出部972および特徴量合成部973に供給する。尚、PNDP抽出部971の詳細な構成例については、図33を参照して後述する。また、以降、単に、特徴量PNDPは、単に、PNDPとも称する。   For each pixel of the HD image supplied from the output phase conversion unit 112, the PNDP extraction unit 971 is based on the dynamic range of the pixel value of the pixel in the long tap region included in the reference region set corresponding to the target pixel. The obtained value is extracted as a feature quantity PNDP constituting the narrow area feature quantity, and supplied to the SNDP extraction unit 972 and the feature quantity synthesis unit 973. A detailed configuration example of the PNDP extraction unit 971 will be described later with reference to FIG. Hereinafter, the feature amount PNDP is also simply referred to as PNDP.

SNDP抽出部972は、出力位相変換部112より供給されるHD画像の各画素について、注目画素に対応して設定される参照領域に含まれる長タップ領域に内包される短タップ領域の画素の画素値のダイナミックレンジおよびPNDPに基づいて得られる特徴量SNDPを狭域特徴量を構成する特徴量として抽出し、特徴量合成部973に供給する。尚、SNDP抽出部972の詳細な構成例については、図34を参照して後述する。また、以降、特徴量SNDPについては、単に、SNDPとも称する。   The SNDP extraction unit 972, for each pixel of the HD image supplied from the output phase conversion unit 112, is a pixel of a pixel in a short tap region included in a long tap region included in a reference region set corresponding to the target pixel A feature quantity SNDP obtained based on the dynamic range of values and PNDP is extracted as a feature quantity constituting the narrow area feature quantity, and is supplied to the feature quantity synthesis unit 973. A detailed configuration example of the SNDP extraction unit 972 will be described later with reference to FIG. Hereinafter, the feature amount SNDP is also simply referred to as SNDP.

特徴量合成部973は、PNDP抽出部971より供給されてくるPNDPおよびSNDP抽出部972より供給されてくるSNDPを合成し、狭域特徴量を生成して狭域人工画度算出部915に供給する。すなわち、狭域特徴量とは、上述したPNDPおよびSNDPという2種類の特徴量より構成される特徴量であり、注目画素の属する狭い範囲の画像の特徴を示す特徴量である。   The feature amount combining unit 973 combines the PNDP supplied from the PNDP extraction unit 971 and the SNDP supplied from the SNDP extraction unit 972, generates a narrow region feature amount, and supplies the narrow region artificial image degree calculation unit 915 To do. That is, the narrow area feature amount is a feature amount composed of the above-described two types of feature amounts, PNDP and SNDP, and is a feature amount indicating a feature of a narrow range image to which the target pixel belongs.

狭域人工画度算出部915は、特徴量分離部991、狭域境界線比較部992、狭域境界線メモリ993、および内分計算部994から構成され、狭域特徴量抽出部914より供給されてくる狭域特徴量に基づいて、狭域人工画度Artnを算出し、人工画度生成部913に供給する。 The narrow area artificial degree-of-image calculation unit 915 includes a feature amount separation unit 991, a narrow region boundary line comparison unit 992, a narrow region boundary line memory 993, and an internal division calculation unit 994, and is supplied from the narrow region feature amount extraction unit 914. On the basis of the narrow area feature value, the narrow area artificial image degree Art n is calculated and supplied to the artificial image degree generating unit 913.

特徴量分離部991は、狭域特徴量抽出部914より供給されてくる狭域特徴量を構成する特徴量を分離して、それぞれ狭域境界線比較部992に供給する。すなわち、この例においては、狭域特徴量は、PNDPおよびSNDPであるので、特徴量分離部991は、PNDPおよびSNDPをそれぞれ分離して狭域境界線比較部992に供給する。   The feature amount separation unit 991 separates the feature amounts constituting the narrow region feature amount supplied from the narrow region feature amount extraction unit 914, and supplies the separated feature amounts to the narrow region boundary line comparison unit 992. That is, in this example, since the narrow area feature quantities are PNDP and SNDP, the feature quantity separating unit 991 separates PNDP and SNDP, respectively, and supplies them to the narrow area boundary comparison unit 992.

狭域境界線比較部992は、特徴量分離部991より供給されてくる2種類の特徴量の値に基づいて、予め複数の人工画像および自然画像より統計的に求められており、狭域境界線メモリ993に記憶されている人工画像または自然画像のいずれに属するかを示す狭域境界線と比較し、比較結果を内分計算部994に供給する。   The narrow area boundary line comparison unit 992 is statistically obtained in advance from a plurality of artificial images and natural images based on the values of the two types of feature values supplied from the feature amount separation unit 991, and the narrow area boundary line 992 The result is compared with a narrow boundary line indicating whether the image belongs to an artificial image or a natural image stored in the line memory 993, and the comparison result is supplied to the internal calculation unit 994.

内分計算部994は、狭域境界線比較部992より供給されてくる比較結果に基づいて、狭域特徴量に対応する狭域人工画度Artnを計算して人工画度生成部913に供給する。 Based on the comparison result supplied from the narrow boundary line comparison unit 992, the internal division calculation unit 994 calculates the narrow region artificial image degree Art n corresponding to the narrow region feature amount, and sends it to the artificial image degree generation unit 913. Supply.

人工画度生成部913は、広域人工画度算出部912より供給されてくる広域人工画度Artbと、狭域人工画度算出部915より供給されてくる狭域人工画度Artnとを合成して、人工画度Artを生成して、画像処理部113に出力する。 The articulation degree generation unit 913 obtains the wide-area articulation degree Art b supplied from the wide-area articulation degree calculation unit 912 and the narrow-area articulation degree Art n supplied from the narrow-area articulation degree calculation unit 915. The resultant image is combined to generate an artificial art degree Art and output to the image processing unit 113.

次に、図31を参照して、BEP抽出部931の詳細な構成例について説明する。   Next, a detailed configuration example of the BEP extraction unit 931 will be described with reference to FIG.

図31のBEP抽出部931は、バッファ1011、参照画素抽出部1012、重み計算部1013、画素間差分計算部1014、乗算部1015、蓄積部1016、最大値最小値抽出部1017、およびBEP計算部1018から構成される。   31 includes a buffer 1011, a reference pixel extraction unit 1012, a weight calculation unit 1013, an inter-pixel difference calculation unit 1014, a multiplication unit 1015, a storage unit 1016, a maximum / minimum value extraction unit 1017, and a BEP calculation unit. 1018.

バッファ1011は、出力位相変換部112より供給されるHD画像を一時的に記憶し、順次必要に応じて参照画素抽出部1012に供給する。参照画素抽出部1012は、順次、注目画素毎に参照画素を読み出して重み計算部1013および画素間差分計算部1014に供給する。ここで、参照画素とは、注目画素に対応付けて設定される所定の領域内の画素のことであり、例えば、注目画素を中心としたn画素×n画素の範囲の全ての画素である。尚、参照画素については、注目画素に対応付けて設定される複数の画素であればよいので、その他の数、または、配置の画素であっても良いことは言うまでもない。   The buffer 1011 temporarily stores the HD image supplied from the output phase conversion unit 112 and sequentially supplies the HD image to the reference pixel extraction unit 1012 as necessary. The reference pixel extraction unit 1012 sequentially reads out the reference pixels for each target pixel and supplies them to the weight calculation unit 1013 and the inter-pixel difference calculation unit 1014. Here, the reference pixel is a pixel in a predetermined area set in association with the target pixel, and is, for example, all pixels in a range of n pixels × n pixels centering on the target pixel. Note that the reference pixels may be a plurality of pixels set in association with the target pixel, and needless to say, other numbers or arrangement of pixels may be used.

重み計算部1013は、参照画素抽出部1012より供給されてくる参照画素毎に注目画素との距離に応じた重みを計算し乗算部1015に供給する。画素間差分計算部101は、参照画素抽出部1012より供給されてくる参照画素毎に注目画素との差分値を求めて乗算部1015に供給する。乗算部1015は、重み計算部1013より供給されてくる重みと、画素間差分計算部1014より供給されてくる注目画素と参照画素との差分値とを乗算し、蓄積部1016に蓄積させる。 The weight calculation unit 1013 calculates a weight corresponding to the distance from the target pixel for each reference pixel supplied from the reference pixel extraction unit 1012 and supplies the weight to the multiplication unit 1015. Pixel difference calculating unit 101 4 supplies to the multiplication unit 1015 obtains a difference value between the target pixel for each reference pixel supplied from the reference-pixel extracting portion 1012. The multiplication unit 1015 multiplies the weight supplied from the weight calculation unit 1013 by the difference value between the target pixel and the reference pixel supplied from the inter-pixel difference calculation unit 1014 and causes the accumulation unit 1016 to accumulate the result.

最大値最小値抽出部1017は、蓄積部1016に蓄積されている全ての参照画素と注目画素との差分値に、対応する参照画素と注目画素との距離に応じた重みが乗じられた値が全て蓄積されると、その中から最大値と最小値とを抽出し、BEP計算部1018に供給する。BEP計算部1018は、最大値最小値抽出部1017より供給されてくる、参照画素と注目画素との差分値、すなわち、参照画素と注目画素との差分により求められる差分ダイナミックレンジに、対応する参照画素と注目画素との距離に応じた重みが乗じられた値の差分値を注目画素のBEPとして出力する。尚、差分ダイナミックレンジに重みが乗じられた値を、注目画素からの距離に応じたダイナミックレンジ、または、単に
差分ダイナミックレンジとも称する。
The maximum value / minimum value extraction unit 1017 obtains a value obtained by multiplying the difference value between all the reference pixels accumulated in the accumulation unit 1016 and the target pixel by a weight according to the distance between the corresponding reference pixel and the target pixel. When all are accumulated, the maximum value and the minimum value are extracted from them and supplied to the BEP calculation unit 1018. The BEP calculation unit 1018 supplies a reference value corresponding to the difference value between the reference pixel and the target pixel, that is, the difference dynamic range obtained from the difference between the reference pixel and the target pixel, supplied from the maximum value / minimum value extraction unit 1017. The difference value of the value multiplied by the weight according to the distance between the pixel and the target pixel is output as the BEP of the target pixel. A value obtained by multiplying the differential dynamic range by the weight is also referred to as a dynamic range corresponding to the distance from the pixel of interest or simply as a differential dynamic range.

次に、図32を参照して、BFP抽出部932の詳細な構成例について説明する。   Next, a detailed configuration example of the BFP extraction unit 932 will be described with reference to FIG.

図32のBFP抽出部932は、バッファ1031、参照画素抽出部1032、隣接画素間差分計算部1033、関数変換部1034、重み計算部1035、乗算部1036、蓄積部1037、およびBFP計算部1038から構成されている。   32 includes a buffer 1031, a reference pixel extraction unit 1032, a difference calculation unit 1033 between adjacent pixels, a function conversion unit 1034, a weight calculation unit 1035, a multiplication unit 1036, a storage unit 1037, and a BFP calculation unit 1038. It is configured.

バッファ1031は、出力位相変換部112より供給されるHD画像を一時的に記憶し、順次必要に応じて参照画素抽出部1032に供給する。参照画素抽出部1032は、順次、注目画素毎に参照画素を読み出して隣接画素間差分計算部1033および重み計算部1035に供給する。   The buffer 1031 temporarily stores the HD image supplied from the output phase conversion unit 112 and sequentially supplies the HD image to the reference pixel extraction unit 1032 as necessary. The reference pixel extraction unit 1032 sequentially reads out the reference pixel for each target pixel and supplies the reference pixel difference calculation unit 1033 and the weight calculation unit 1035 to each other.

隣接画素間差分計算部1033は、参照画素抽出部1032より供給されてきた全ての参照画素について隣接画素間の差分絶対値を関数変換部1034に供給する。関数変換部1034は、BEP抽出部931より供給されてくるBEPに基づいて、変換関数を設定すると供に、隣接画素間差分計算部1033より供給されてくる隣接画素間差分絶対値を、設定した変換関数で変換し乗算部1036に供給する。   The inter-adjacent pixel difference calculation unit 1033 supplies an absolute difference value between adjacent pixels to the function conversion unit 1034 for all the reference pixels supplied from the reference pixel extraction unit 1032. Based on the BEP supplied from the BEP extraction unit 931, the function conversion unit 1034 sets the conversion function, and sets the adjacent pixel difference absolute value supplied from the adjacent pixel difference calculation unit 1033. The data is converted by the conversion function and supplied to the multiplication unit 1036.

重み計算部1035は、参照画素抽出部1032より供給されてくる参照画素の画素間の位置毎に、注目画素からの距離に応じた重みを計算し乗算部1036に供給する。乗算部1036は、重み計算部1035より供給されてくる重みと、関数変換部1034より供給されてくる関数変換された参照画素間差分絶対値とを乗算し、蓄積部1037に蓄積させる。   The weight calculation unit 1035 calculates a weight corresponding to the distance from the target pixel for each position of the reference pixels supplied from the reference pixel extraction unit 1032 and supplies the weight to the multiplication unit 1036. The multiplication unit 1036 multiplies the weight supplied from the weight calculation unit 1035 and the function-converted reference inter-pixel difference absolute value supplied from the function conversion unit 1034, and causes the accumulation unit 1037 to accumulate the result.

BFP計算部1038は、蓄積部1037に蓄積されている乗算結果を累積加算し、注目画素のBFPとして出力する。   The BFP calculation unit 1038 cumulatively adds the multiplication results stored in the storage unit 1037 and outputs the result as the BFP of the target pixel.

次に、図33を参照して、PNDP抽出部971の詳細な構成例について説明する。   Next, a detailed configuration example of the PNDP extraction unit 971 will be described with reference to FIG.

図33のPNDP抽出部971は、バッファ1051、参照画素抽出部1052、長タップ抽出部1053、画素値蓄積部1054、最大値最小値抽出部1055、およびPNDP計算部1056から構成されている。 33 includes a buffer 1051, a reference pixel extraction unit 1052, a long tap extraction unit 1053, a pixel value storage unit 1054, a maximum / minimum value extraction unit 1055, and a PNDP calculation unit 1056.

バッファ1051は、出力位相変換部112より供給されるHD画像を一時的に記憶し、順次必要に応じて参照画素抽出部1052に供給する。参照画素抽出部1052は、順次、注目画素毎に参照画素を読み出して、長タップ抽出部1053に供給する。   The buffer 1051 temporarily stores the HD image supplied from the output phase conversion unit 112 and sequentially supplies the HD image to the reference pixel extraction unit 1052 as necessary. The reference pixel extraction unit 1052 sequentially reads out the reference pixels for each target pixel and supplies the reference pixels to the long tap extraction unit 1053.

長タップ抽出部1053は、参照画素のうち、参照画素の領域に含まれる、すなわち、参照画素の領域と同様であるか、または、それよりも小さな領域から画素を抽出して画素値蓄積部1054に供給する。また、長タップ抽出部1053は、長タップの情報をSNDP抽出部972の短タップ抽出部1073にも供給する。さらに、長タップ抽出部1053は、長タップについて、全ての抽出が終了した段階で、その旨を最大値最小値抽出部1055に供給する。   The long tap extraction unit 1053 extracts a pixel from a region that is included in the reference pixel region of the reference pixels, that is, is the same as or smaller than the reference pixel region, and the pixel value storage unit 1054 To supply. The long tap extraction unit 1053 also supplies the long tap information to the short tap extraction unit 1073 of the SNDP extraction unit 972. Further, the long tap extraction unit 1053 supplies the fact to the maximum value / minimum value extraction unit 1055 at the stage where all the extraction has been completed for the long taps.

最大値最小値抽出部1055は、画素値蓄積部1054に蓄積された長タップの全ての画素値のうち、最大値と最小値を抽出してPNDP計算部1056に供給する。   The maximum value / minimum value extraction unit 1055 extracts the maximum value and the minimum value from all the pixel values of the long tap accumulated in the pixel value accumulation unit 1054 and supplies the extracted value to the PNDP calculation unit 1056.

PNDP計算部1056は、最大値最小値抽出部1055より供給されてくる画素値の最大値と最小値との差分値より参照画素の画素値ダイナミックレンジを求め、注目画素のPNDPとして出力する。ここで、画素値ダイナミックレンジとは、所定の領域に含まれる全ての画素値の最大値から最小値を引いた値である。   The PNDP calculation unit 1056 obtains the pixel value dynamic range of the reference pixel from the difference value between the maximum value and the minimum value of the pixel value supplied from the maximum value / minimum value extraction unit 1055, and outputs it as the PNDP of the target pixel. Here, the pixel value dynamic range is a value obtained by subtracting the minimum value from the maximum value of all the pixel values included in the predetermined area.

次に、図34を参照して、SNDP抽出部972の詳細な構成例について説明する。   Next, a detailed configuration example of the SNDP extraction unit 972 will be described with reference to FIG.

図34のSNDP抽出部972は、バッファ1071、参照画素抽出部1072、短タップ抽出部1073、画素値蓄積部1074、最大値最小値抽出部1075、DR計算部1076、DR蓄積部1077、およびSNDP選択部1078から構成されている。   34 includes a buffer 1071, a reference pixel extraction unit 1072, a short tap extraction unit 1073, a pixel value storage unit 1074, a maximum / minimum value extraction unit 1075, a DR calculation unit 1076, a DR storage unit 1077, and an SNDP. The selection unit 1078 is configured.

バッファ1071は、出力位相変換部112より供給されるHD画像を一時的に記憶し、順次必要に応じて参照画素抽出部1072に供給する。参照画素抽出部1072は、順次、注目画素毎に参照画素を読み出して、短タップ抽出部1073に供給する。   The buffer 1071 temporarily stores the HD image supplied from the output phase conversion unit 112 and sequentially supplies the HD image to the reference pixel extraction unit 1072 as necessary. The reference pixel extraction unit 1072 sequentially reads out the reference pixels for each target pixel and supplies them to the short tap extraction unit 1073.

短タップ抽出部1073は、長タップ抽出部1053より供給されてくる長タップの情報に基づいて、注目画素を含む領域であって、長タップに含まれる領域と同様であるか、または、それよりも小さな、複数の領域から画素を抽出して画素値蓄積部1074に供給する。すなわち、長タップが1個について、短タップは、複数のパターンが設定されることがある。また、短タップ抽出部1073は、複数の短タップについて、全てのパターンについて抽出が終了した段階で、その旨をSNDP選択部1078に供給する。   The short tap extraction unit 1073 is an area including the target pixel based on the long tap information supplied from the long tap extraction unit 1053, and is the same as or more than the area included in the long tap. Also, pixels are extracted from a plurality of small areas and supplied to the pixel value storage unit 1074. That is, for one long tap, a plurality of patterns may be set for the short tap. In addition, the short tap extraction unit 1073 supplies the fact to the SNDP selection unit 1078 when extraction of all the patterns for a plurality of short taps is completed.

最大値最小値抽出部1075は、画素値蓄積部1074に蓄積された、短タップに含まれる全ての画素値のうち、最大値と最小値を抽出してDR計算部1076に供給する。   The maximum value / minimum value extraction unit 1075 extracts the maximum value and the minimum value from all the pixel values included in the short tap accumulated in the pixel value accumulation unit 1074 and supplies the extracted value to the DR calculation unit 1076.

DR計算部1076は、最大値最小値選択部1075より供給されてくる短タップに含まれる全ての画素値のうち、最大値と最小値との差分から画素値ダイナミックレンジを求め、DR蓄積部1077に蓄積させる。   The DR calculation unit 1076 obtains a pixel value dynamic range from the difference between the maximum value and the minimum value among all the pixel values included in the short tap supplied from the maximum value / minimum value selection unit 1075, and the DR accumulation unit 1077. To accumulate.

SNDP1079は、短タップ抽出部1073より全てのパターンの短タップについて抽出が終了したことが通知されると、DR蓄積部1077に蓄積されている、全てのパターンの短タップ毎に求められている画素値ダイナミックレンジより、最小値を選択し、SNDPとして出力する。   When the SNDP 1079 is notified by the short tap extraction unit 1073 that extraction has been completed for all the short taps of the pattern, the pixels calculated for each short tap of all the patterns stored in the DR storage unit 1077 Select the minimum value from the value dynamic range and output as SNDP.

次に、図35のフローチャートを参照して、自然画人工画判定処理について説明する。   Next, the natural image / artificial image determination process will be described with reference to the flowchart of FIG.

ステップS831において、広域特徴量抽出部911のBEP抽出部931は、BEP抽出処理を実行し、出力位相変換部112より供給されるHD画像より画素毎にBEPを抽出して特徴量合成部933に供給する。   In step S831, the BEP extraction unit 931 of the wide area feature amount extraction unit 911 performs BEP extraction processing, extracts BEP for each pixel from the HD image supplied from the output phase conversion unit 112, and outputs it to the feature amount synthesis unit 933. Supply.

ここで、図36のフローチャートを参照して、図31のBEP抽出部931によるBEP抽出処理について説明する。   Here, the BEP extraction processing by the BEP extraction unit 931 in FIG. 31 will be described with reference to the flowchart in FIG.

ステップS851において、バッファ1011は、出力位相変換部112より供給されるHD画像を一時的に記憶する。   In step S851, the buffer 1011 temporarily stores the HD image supplied from the output phase converter 112.

ステップS852において、参照画素抽出部1012は、バッファ1011より、未処理の画素を注目画素に設定すると供に、ステップS853において、注目画素に対応して設定されている参照画素を読み出して重み計算部1013および画素間差分計算部1014に供給する。ここで、参照画素とは、例えば、注目画素に対応付けて設定される所定の領域内の画素のことであり、例えば、図37で示されるように、注目画素を中心としてn画素×n画素の範囲の全ての画素である。   In step S852, the reference pixel extraction unit 1012 sets an unprocessed pixel as a target pixel from the buffer 1011 and reads out a reference pixel set corresponding to the target pixel in step S853, thereby calculating a weight calculation unit. 1013 and the inter-pixel difference calculation unit 1014. Here, the reference pixel is, for example, a pixel in a predetermined region set in association with the target pixel. For example, as shown in FIG. 37, n pixels × n pixels centered on the target pixel. All the pixels in the range.

尚、図37においては、画像内における参照領域R内の黒丸印の注目画素Q(0,0)を中心としたx方向およびy方向の2次元空間の座標上の白丸印が参照画素Q(i,j)を示しており、注目画素Q(0,0)を中心としてn個×n個の点線で囲まれた範囲内の画素が、参照画素Q(i,j)(−(n−1)/2≦i≦(n−1)/2,−(n−1)/2≦j≦(n−1)/2:i,jは、整数)であることが示されている。   In FIG. 37, the white circles on the coordinates in the two-dimensional space in the x and y directions centered on the noticed pixel Q (0, 0) of the black circle in the reference region R in the image are the reference pixels Q ( i, j), and a pixel within a range surrounded by n × n dotted lines centered on the pixel of interest Q (0,0) is a reference pixel Q (i, j) (− (n− 1) / 2 ≦ i ≦ (n−1) / 2, − (n−1) / 2 ≦ j ≦ (n−1) / 2: i and j are integers).

ステップS854において、画素間差分計算部1014は、注目画素と未処理の参照画素との画素間の画素値の差分値を計算し、乗算部1015に供給する。すなわち、図37においては、画素間差分計算部1014は、画素間差分値として、(Q(0,0)−Q(i,j))を計算して乗算部1015に供給する。尚、画素間差分値におけるQ(0,0),Q(i,j)は、注目画素Q(0,0)および参照画素Q(i,j)のそれぞれの画素値である。   In step S854, the inter-pixel difference calculation unit 1014 calculates a pixel value difference value between the pixel of interest and the unprocessed reference pixel, and supplies the pixel value difference value to the multiplication unit 1015. That is, in FIG. 37, the inter-pixel difference calculation unit 1014 calculates (Q (0,0) −Q (i, j)) as the inter-pixel difference value and supplies the calculated value to the multiplication unit 1015. Note that Q (0,0) and Q (i, j) in the inter-pixel difference values are the pixel values of the target pixel Q (0,0) and the reference pixel Q (i, j), respectively.

ステップS855において、重み計算部1013は、注目画素と未処理の参照画素との距離に応じた重みを計算し、計算結果である重みを乗算部1015に供給する。より具体的には、例えば、画素間差分値を求めた参照画素が、参照画素Q(i,j)の場合、重み計算部1013は、座標のパラメータを用いて、例えば、重みとしてwd=a/(i2+j2)(a:定数)を計算する。尚、重みwdは、距離に応じて近いほど大きく、遠いほど小さくなるように値が求められれば良いので、上述の方法以外で計算するようにしてもよく、例えば、重みwd=a/√(i2+j2)(a:定数)などでもよい。 In step S855, the weight calculation unit 1013 calculates a weight according to the distance between the target pixel and an unprocessed reference pixel, and supplies the weight as a calculation result to the multiplication unit 1015. More specifically, for example, when the reference pixel for which the inter-pixel difference value has been obtained is the reference pixel Q (i, j), the weight calculation unit 1013 uses, for example, the coordinate parameter as the weight w d = a / (i 2 + j 2 ) (a: constant) is calculated. Note that the weight w d may be calculated by a method other than the above-described method because the value may be determined so as to increase as the distance increases and decreases as the distance increases. For example, the weight w d = a / √ (i 2 + j 2 ) (a: constant) may be used.

ステップS856において、乗算部1015は、画素間差分計算部1014より供給されてきた画素間差分値と、重み計算部1013より供給されてきた重みとを乗算し、蓄積部1016に蓄積させる。すなわち、図37の場合、乗算部1015は、画素間差分計算部1014より供給されてきた画素間差分値(Q(0,0)−Q(i,j))と、重み計算部1013より供給されてきた重みwdとを乗算し、乗算結果としてwd×(Q(0,0)−Q(i,j))を蓄積部1016に蓄積させる。 In step S856, the multiplication unit 1015 multiplies the inter-pixel difference value supplied from the inter-pixel difference calculation unit 1014 by the weight supplied from the weight calculation unit 1013, and causes the accumulation unit 1016 to accumulate the result. That is, in the case of FIG. 37, the multiplication unit 1015 supplies the inter-pixel difference value (Q (0,0) −Q (i, j)) supplied from the inter-pixel difference calculation unit 1014 and the weight calculation unit 1013. Multiplying by the weight w d that has been performed, the storage unit 1016 stores w d × (Q (0,0) −Q (i, j)) as a multiplication result.

ステップS857において、画素間差分計算部1014は、未処理の参照画素が存在するか否かを判定し、未処理の参照画素が存在する場合、その処理は、ステップS854に戻る。すなわち、全ての参照画素について、ステップS854乃至S857の処理が繰り返される。   In step S857, the inter-pixel difference calculation unit 1014 determines whether there is an unprocessed reference pixel. If there is an unprocessed reference pixel, the process returns to step S854. That is, the processes in steps S854 to S857 are repeated for all reference pixels.

そして、ステップS857において、未処理の参照画素がない、すなわち、全ての参照画素について注目画素との差分値が求められ、さらに、距離に応じた重みwdが設定され、それらが乗算されて蓄積部1016に全て蓄積されていると判定された場合、ステップS858において、画素間差分計算部1014は、全ての参照画素について処理が終了したことを最大値最小値抽出部1017に通知する。最大値最小値抽出部1017は、蓄積部1016に蓄積されている乗算結果のうち、最大値となる値と最小値となる値とを抽出してBEP計算部1018に供給する。 In step S857, there is no unprocessed reference pixel, that is, the difference value from the target pixel is obtained for all the reference pixels, and a weight w d corresponding to the distance is set and multiplied and accumulated. If it is determined that all are stored in the unit 1016, in step S858, the inter-pixel difference calculation unit 1014 notifies the maximum value / minimum value extraction unit 1017 that the processing has been completed for all reference pixels. The maximum value / minimum value extraction unit 1017 extracts the maximum value and the minimum value from the multiplication results stored in the storage unit 1016 and supplies the extracted value to the BEP calculation unit 1018.

ステップS859において、BFP計算部1018は、最大値最小値抽出部1017より供給されてきた乗算結果の最大値より最小値を引いた値である参照画素の差分ダイナミックレンジを、注目画素に対するBEPとして計算し、BFP抽出部932および特徴量合成部933に供給する。   In step S859, the BFP calculation unit 1018 calculates the difference dynamic range of the reference pixel, which is a value obtained by subtracting the minimum value from the maximum value of the multiplication result supplied from the maximum value / minimum value extraction unit 1017, as a BEP for the target pixel. And supplied to the BFP extraction unit 932 and the feature amount synthesis unit 933.

ステップS860において、参照画素抽出部1012は、バッファ1011に記憶されている画像における全ての画素について、BEPが求められたか否かを判定する。ステップS860において、画像の全ての画素についてBEPが求められていない場合、処理は、ステップS852に戻る。すなわち、バッファ1011に記憶された画像の全ての画素についてBEPが求められるまで、ステップS852乃至S860の処理が繰り返される。そして、ステップS860において、画像内の全ての画素についてBEPが求められたと判定された場合、BEP抽出処理が終了する。   In step S860, the reference pixel extraction unit 1012 determines whether BEPs have been obtained for all the pixels in the image stored in the buffer 1011. In step S860, when BEP is not calculated | required about all the pixels of an image, a process returns to step S852. That is, the processes in steps S852 to S860 are repeated until BEPs are obtained for all the pixels of the image stored in the buffer 1011. If it is determined in step S860 that BEPs have been obtained for all the pixels in the image, the BEP extraction process ends.

以上の処理により、BEPとして画像における広域のエッジを表現する特徴量であるBEPが求められる。すなわち、BEPは、注目画素に対する参照画素内の差分ダイナミックレンジを表現することで、注目画素が属する広域領域にエッジが存在したような場合、大きな値となり、逆にエッジが存在しない場合、小さな値を取ることになる。   Through the above processing, a BEP that is a feature amount representing a wide edge in an image is obtained as a BEP. In other words, the BEP expresses the differential dynamic range in the reference pixel with respect to the target pixel, and becomes a large value when an edge exists in the wide area to which the target pixel belongs, and conversely, a small value when there is no edge. Will take.

ここで、図35のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS831におけるBEP抽出処理によりBEPが画像より抽出されると、ステップS832において、広域特徴量抽出部911のBFP抽出部932は、BFP抽出処理を実行し、出力位相変換部112より供給されるHD画像より画素毎にBFPを抽出して特徴量合成部933に供給する。   When the BEP is extracted from the image by the BEP extraction process in step S831, the BFP extraction unit 932 of the wide area feature quantity extraction unit 911 executes the BFP extraction process in step S832, and is supplied from the output phase conversion unit 112. A BFP is extracted for each pixel from the image and supplied to the feature amount synthesis unit 933.

ここで、図38のフローチャートを参照して、図32のBFP抽出部932によるBFP抽出処理について説明する。   Here, the BFP extraction processing by the BFP extraction unit 932 in FIG. 32 will be described with reference to the flowchart in FIG. 38.

ステップS871において、バッファ1031は、出力位相変換部112より供給されるHD画像を一時的に記憶する。   In step S871, the buffer 1031 temporarily stores the HD image supplied from the output phase converter 112.

ステップS872において、参照画素抽出部1032は、バッファ1011より、未処理の画素を注目画素に設定すると供に、ステップS873において、注目画素に対応して設定されている参照画素を読み出して隣接画素間差分計算部1033および重み計算部1035に供給する。   In step S872, the reference pixel extraction unit 1032 sets an unprocessed pixel as a target pixel from the buffer 1011 and reads out a reference pixel set corresponding to the target pixel in step S873, so that it is not between adjacent pixels. The difference calculation unit 1033 and the weight calculation unit 1035 are supplied.

ステップS874において、隣接画素間差分計算部1033は、未処理の参照画素間(注目画素を含む)の画素値の差分絶対値を計算し、関数変換部1034に供給する。すなわち、図39においては、隣接画素間差分計算部1033は、隣接画素間差分絶対値eとして、例えば、e=|Q(i+1,j)−Q(i,j)|を計算して関数変換部1034に供給する。尚、画素間差分絶対値におけるQ(i+1,j),Q(i,j)は、参照画素Q(i+1,j),Q(i,j)のそれぞれの画素値である。また、図39における黒丸印は、注目画素Q(0,0)である。 In step S874, the difference calculation unit 1033 between adjacent pixels calculates a difference absolute value of pixel values between unprocessed reference pixels (including the target pixel), and supplies the calculated difference to the function conversion unit 1034. That is, in FIG. 39, the inter- adjacent pixel difference calculation unit 1033 calculates e = | Q (i + 1, j) −Q (i, j) | Part 1034. Note that Q (i + 1, j) and Q (i, j) in the inter-pixel difference absolute values are the pixel values of the reference pixels Q (i + 1, j) and Q (i, j), respectively. Also, the black circles in FIG. 39 are the target pixel Q (0, 0).

さらに、参照画素の隣接間差分絶対値eは、図39における丸印で示される各画素のx方向およびy方向に隣接する画素との画素値の差分絶対値である。したがって、参照画素Q(i,j)の隣接画素間差分絶対値eは、|Q(i+1,j)−Q(i,j)|,|Q(i,j+1)−Q(i,j)|,|Q(i−1,j)−Q(i,j)|,|Q(i,j−1)−Q(i,j)|の4種類の隣接画素間差分絶対値が設定される。ただし、参照画素の設定されている領域の辺縁部の画素については、xy方向の正方向または負方向いずれか1方向に参照画素と隣接していないので、3種類の隣接画素間差分絶対値が設定される。また、参照画素のうち、参照画素が設定されている領域の4箇所の角となる位置の参照画像については、xy方向の正方向または負方向いずれか2方向に参照画素と隣接していないので、2種類の隣接画素間差分絶対値が設定される。結果として、注目画素を中心としてn画素×n画素の参照画素が設定される場合、2n(n−1)個の画素間差分絶対値が設定されることになる。   Furthermore, the difference absolute value e between adjacent pixels of the reference pixel is a difference absolute value of a pixel value of each pixel indicated by a circle in FIG. 39 with a pixel adjacent in the x direction and the y direction. Accordingly, the difference value e between adjacent pixels of the reference pixel Q (i, j) is | Q (i + 1, j) −Q (i, j) |, | Q (i, j + 1) −Q (i, j). |, | Q (i-1, j) -Q (i, j) |, | Q (i, j-1) -Q (i, j) | The However, since the pixels at the edge of the region where the reference pixel is set are not adjacent to the reference pixel in either the positive or negative direction of the xy direction, the difference absolute value between the three types of adjacent pixels Is set. Further, among the reference pixels, the reference image at the four corners of the region where the reference pixel is set is not adjacent to the reference pixel in either the positive or negative direction of the xy direction. Two types of absolute difference values between adjacent pixels are set. As a result, when n pixels × n reference pixels are set around the pixel of interest, 2n (n−1) inter-pixel difference absolute values are set.

ステップS875において、関数変換部1034は、BEP抽出部931より供給されてくるBEPにより設定される関数fに基づいて、隣接画素間差分計算部1033より供給されてきた隣接画素間差分絶対値eを変換して、乗算部1036に供給する。より詳細には、関数変換部1034は、BEP抽出部931より供給されてくるBEPにより設定される以下の式(18)に基づいて、値を変換し、変換した値を乗算部1036に出力する。   In step S875, the function conversion unit 1034 uses the adjacent pixel difference absolute value e supplied from the adjacent pixel difference calculation unit 1033 based on the function f set by the BEP supplied from the BEP extraction unit 931. The data is converted and supplied to the multiplication unit 1036. More specifically, the function conversion unit 1034 converts a value based on the following equation (18) set by the BEP supplied from the BEP extraction unit 931, and outputs the converted value to the multiplication unit 1036. .

Figure 0004605468
Figure 0004605468

式(18)においては、隣接画素間差分絶対値eが閾値th=BEP/bより大きい場合、0が乗算部1036に出力され、隣接画素間差分絶対値eが閾値th=BEP/b以下である場合、1が乗算部1036に出力されることが示されている。尚、ここで、bは、定数である。また、閾値thの計算に用いられるBEPは、注目画素のBEPである。さらに、閾値thは、BEPの傾向が利用できればよいので、閾値th=BEP/b以外のBEPを用いた閾値でもよく、例えば、閾値th=(√BEP)/b、または、閾値th=(BEP)2/bなどを利用するようにしても良い。 In Expression (18), when the difference absolute value e between adjacent pixels is larger than the threshold th = BEP / b, 0 is output to the multiplication unit 1036, and the difference absolute value e between adjacent pixels is equal to or less than the threshold th = BEP / b. In some cases, 1 is output to the multiplier 1036. Here, b is a constant. The BEP used for calculating the threshold th is the BEP of the target pixel. Further, the threshold th may be a threshold using a BEP other than the threshold th = BEP / b, as long as the BEP tendency can be used. For example, the threshold th = (√BEP) / b or the threshold th = (BEP 2 / b etc. may be used.

ステップS876において、重み計算部1035は、注目画素と、隣接画素間差分絶対値を計算した画素間の中央位置との距離に応じた重みを計算し、計算結果である重みweを乗算部1036に供給する。より具体的には、例えば、隣接画素間差分絶対値を求めた参照画素が、参照画素Q(i,j),Q(i+1,j),の場合、重み計算部1013は、座標のパラメータを用いて、例えば、重みとしてwe=a/((i+1/2)2+j2)(a:定数)を計算する。尚、重みweは、距離に依存した値が求められれば良いので、上述の方法以外で計算するようにしてもよく、例えば、重みwe=a/√((i+1/2)2+j2)(a:定数)などでもよい。 In step S876, the weight calculator 1035, and the pixel of interest, a weight corresponding to the distance between the center position between the pixels to calculate the adjacent-pixel difference absolute value is calculated, and the calculation result of the weight w e multiplication unit 1036 is To supply. More specifically, for example, when the reference pixels for which the adjacent pixel difference absolute value is obtained are the reference pixels Q (i, j) and Q (i + 1, j), the weight calculation unit 1013 sets the coordinate parameters. used, for example, w e = a / as weights ((i + 1/2) 2 + j 2): to calculate the (a constant). The weight w e is the distance-dependent value is only needs to be determined, may be calculated in addition to the above-described manner, for example, the weight w e = a / √ (( i + 1/2) 2 + j 2 ) (A: constant) or the like.

ステップS877において、乗算部1036は、関数変換部1034より供給されてきた隣接画素間差分絶対値eと、重み計算部1035より供給されてきた重みweとを乗算し、ステップS878において、蓄積部1037に蓄積させる。すなわち、図39の場合、乗算部1036は、関数変換部1034より供給されてきた変換結果である1または0と、重み計算部1035より供給されてきた重みweとを乗算し、乗算結果としてweまたは0を蓄積部103に蓄積させる。 In step S877, the multiplication unit 1036 multiplies the adjacent-pixel difference absolute value e which is supplied from the function transformer 1034, a weight w e which is supplied from the weight calculator 1035, at step S878, the storage unit 1037. That is, in the case of FIG. 39, the multiplication unit 1036, 1 or 0 is a conversion result supplied from the function transformer 1034 multiplies the weight w e which is supplied from the weight calculator 1035, a multiplication result to accumulate w e or 0 in the storage unit 103 7.

ステップS879において、隣接画素間差分計算部1033は、未処理の参照画素が存在するか否か、すなわち、隣接画素間差分絶対値が設定されているにもかかわらず、求められていないものがあるか否かを判定し、存在する場合、その処理は、ステップS874に戻る。このとき、全ての隣接画素間差分絶対値について、ステップS874乃至S879の処理が繰り返される。すなわち、上述したように、図39で示されるように、参照画素がn画素×n画素で設定されている場合、2n(n−1)個の隣接画素間差分絶対値が求められることになるので、ステップS874乃至S879の処理が、2n(n−1)回繰り返されることになる。   In step S879, the inter-adjacent pixel difference calculation unit 1033 determines whether there is an unprocessed reference pixel, that is, there is a pixel that is not obtained even though the adjacent pixel difference absolute value is set. If it exists, the process returns to step S874. At this time, the processing of steps S874 to S879 is repeated for all the absolute values of differences between adjacent pixels. That is, as described above, as shown in FIG. 39, when the reference pixel is set to n pixels × n pixels, 2n (n−1) absolute difference values between adjacent pixels are obtained. Therefore, the processes in steps S874 to S879 are repeated 2n (n-1) times.

そして、ステップS879において、未処理の参照画素がない、すなわち、全ての隣接画素間差分絶対値が求められて関数変換され、さらに、距離に応じた重みが設定され、それらが乗算されて蓄積部1037に全て蓄積されていると判定された場合、ステップS880において、隣接画素間差分計算部1033は、全ての参照画素について処理が終了したことをBFP計算部1038に通知する。BFP計算部1038は、蓄積部1037に蓄積されている乗算結果の総和を求めてBFPとして出力する。   In step S879, there is no unprocessed reference pixel, that is, all adjacent pixel difference absolute values are obtained and function-converted, weights corresponding to the distances are set, they are multiplied, and the storage unit If it is determined that all are stored in 1037, in step S880, the adjacent pixel difference calculation unit 1033 notifies the BFP calculation unit 1038 that the processing has been completed for all reference pixels. The BFP calculation unit 1038 obtains the sum of the multiplication results accumulated in the accumulation unit 1037 and outputs it as BFP.

ステップS881において、参照画素抽出部1032は、バッファ1011に記憶されている画像における全ての画素について、BFPが求められたか否かを判定する。ステップS881において、画像の全ての画素についてBFPが求められていない場合、処理は、ステップS872に戻る。すなわち、バッファ1031に記憶された画像の全ての画素についてBFPが求められるまで、ステップS872乃至S881の処理が繰り返される。そして、ステップS881において、画像内の全ての画素についてBFPが求められたと判定された場合、BFP抽出処理が終了する。   In step S881, the reference pixel extraction unit 1032 determines whether BFP has been obtained for all the pixels in the image stored in the buffer 1011. In step S881, when BFP is not calculated | required about all the pixels of an image, a process returns to step S872. That is, the processes in steps S872 to S881 are repeated until BFP is obtained for all the pixels of the image stored in the buffer 1031. If it is determined in step S881 that the BFP has been obtained for all the pixels in the image, the BFP extraction process ends.

以上の処理により、画像における広域の平坦部を表現する特徴量としてBFPが求められる。すなわち、BFPは、仮に重みweが距離に応じたものではなく、均一に1であった場合、参照画素のうち、閾値thよりも小さい隣接画素間差分絶対値の数がカウントされた値となる。結果として、BFPは、注目画素の属する広域的な範囲が平坦である場合、値が大きくなり、逆に、エッジなどが多く存在する、平坦ではないような場合、値が小さくなる。 Through the above processing, BFP is obtained as a feature value representing a wide flat portion in the image. That, BFP is, if not the weight w e is corresponding to the distance, if uniformly was 1, among the reference pixels, and values which the number counted in the small adjacent-pixel difference absolute value than the threshold value th Become. As a result, the BFP value increases when the wide range to which the pixel of interest belongs is flat, and conversely, the value decreases when there are many edges or the like and the value is not flat.

尚、以上においては、隣接画素間差分絶対値を求めるに当たり、参照画素の全ての隣接画素間の差分絶対値を求める例について説明してきたが、隣接している画素間の画素値の関係が明らかになる値が抽出できれば良いので、その他の方法で隣接画素間差分絶対値を求めるようにしてもよく、例えば、図39におけるx方向、または、y方向の何れかの方向に隣接する画素間の画素値の差分絶対値を求めるようにしても良いし、各参照画素について、上下方に隣接するそれぞれの画素との隣接画素間差分絶対値の和、左右に隣接するそれぞれの画素との隣接画素間差分絶対値の和、または上下左右方向に隣接するそれぞれの画素との画素間差分絶対値の総和などを隣接画素間差分絶対値として利用するようにしてもよい。さらに、以降の説明においても隣接画素間差分絶対値を求める処理があるが、上述のように様々な形式を用いるようにしてよいことは同様である。   In the above description, the example of obtaining the absolute difference value between all adjacent pixels of the reference pixel has been described in calculating the absolute difference value between adjacent pixels. However, the relationship between the pixel values between adjacent pixels is clear. The absolute value of the difference between adjacent pixels may be obtained by other methods, for example, between pixels adjacent in either the x direction or the y direction in FIG. You may make it obtain | require the absolute difference value of a pixel value, and about each reference pixel, the sum of the absolute difference value between adjacent pixels with each pixel adjoining up and down, the adjacent pixel with each pixel adjacent to right and left The sum of absolute differences between pixels or the sum of absolute differences between pixels with pixels adjacent in the vertical and horizontal directions may be used as the absolute difference between adjacent pixels. Further, in the following description, there is a process for obtaining the absolute value of the difference between adjacent pixels, but it is the same that various formats may be used as described above.

また、上述した関数変換部1034は、式(18)で示されるような関数により隣接画素間差分絶対値eを変換して出力するようにしていたが、変換関数は、式(18)で示されるものでなくてもよく、例えば、図40で示されるように、傾向として隣接画素間差分絶対値の大きさの差を鮮明にできる値に変換し、結果として、式(18)で示されるような関数を用いた場合と同様の効果を得るようにしても良い。   In addition, the function conversion unit 1034 described above converts the difference absolute value e between adjacent pixels by a function as shown in Expression (18) and outputs the converted value, but the conversion function is expressed by Expression (18). For example, as shown in FIG. 40, the difference in the absolute value of the difference between adjacent pixels is converted into a value that can be clarified as shown in FIG. You may make it acquire the effect similar to the case where such a function is used.

さらに、変換関数fは、例えば、図40で示されるようなものでもよいことは、上述した通りであるが、BEPと対応付けるようにしてもよく、例えば、隣接画素間差分絶対値eが、閾値th1=BEP/b1以上の場合、f(e)=A(Aは定数)とし、隣接画素間差分絶対値eが、閾値th2=BEP/b2以下の場合、f(e)=B(Bは定数)とし、さらに、隣接画素間差分絶対値eが、閾値th2=BEP/b2より大きく閾値th1=BEP/b1より小さい場合、f(e)=(B−A)・(e−th1)/(th2−th1)+Aとするようにしてもよい。また、閾値th1,th2は、BEPの傾向が使えればよいので、例えば、閾値th1=(BEP)2/b1,th2=(BEP)2/b2、または、閾値th1=(√BEP)/b1,th2=(√BEP)/b2などを利用するようにしても良い。 Furthermore, the conversion function f may be, for example, as shown in FIG. 40 as described above. However, the conversion function f may be associated with the BEP. For example, the absolute difference e between adjacent pixels is a threshold value. When th1 = BEP / b1 or more, f (e) = A (A is a constant). When the absolute difference e between adjacent pixels is equal to or less than the threshold th2 = BEP / b2, f (e) = B (B is And the difference absolute value e between adjacent pixels is larger than the threshold th2 = BEP / b2 and smaller than the threshold th1 = BEP / b1, f (e) = (B−A) · (e−th1) / You may make it be (th2-th1) + A. The thresholds th1 and th2 only need to use the BEP tendency. For example, the threshold th1 = (BEP) 2 / b1, th2 = (BEP) 2 / b2, or the threshold th1 = (√BEP) / b1, You may make it utilize th2 = (√BEP) / b2.

ここで、図35のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS832の処理により、BFPが求められると、ステップS833において、特徴量合成部933は、BEP抽出部931より供給されてくるBEPと、BFP抽出部932より供給されてくるBFPとを合成し、広域特徴量として広域人工画度算出部912に供給する。   When the BFP is obtained by the process of step S832, in step S833, the feature amount combining unit 933 combines the BEP supplied from the BEP extracting unit 931 and the BFP supplied from the BFP extracting unit 932, This is supplied to the wide-area artificial image degree calculation unit 912 as a wide-area feature amount.

ステップS834において、広域人工画度算出部912は、広域特徴量抽出部911より供給されてくる広域特徴量に基づいて、広域人工画度算出処理を実行して、広域人工画度Artbを算出し、人工画度生成部913に供給する。 In step S834, the wide-area artificial degree-of-gravity calculation unit 912 calculates a wide-area artificial degree of art Art b by executing a wide-area artificial degree-of-gravity calculation process based on the wide-area feature amount supplied from the wide-area feature amount extraction unit 911. Then, the image is supplied to the artificial image degree generation unit 913.

ここで、図41のフローチャートを参照して、図30の広域人工画度算出部912による広域人工画度算出処理について説明する。   Here, with reference to the flowchart of FIG. 41, the wide-area artificial image degree calculation processing by the wide-area artificial image degree calculation unit 912 of FIG.

ステップS891において、特徴量分離部951は、広域特徴量抽出部911より供給されてくる広域特徴量を取得すると供に、BEPおよびBFPを分離して、それぞれを広域境界線比較部952に供給する。   In step S891, the feature amount separation unit 951 obtains the wide area feature amount supplied from the wide area feature amount extraction unit 911, separates the BEP and the BFP, and supplies them to the wide area boundary line comparison unit 952. .

ステップS892において、広域境界線比較部952は、広域境界線メモリ953より広域境界線の情報を読み出す。   In step S <b> 892, the wide area boundary line comparison unit 952 reads information on the wide area line from the wide area line memory 953.

ステップS893において、広域境界線比較部952は、未処理の画素を注目画素とし、その注目画素のBEPおよびBFPを抽出して、BEP-BFPの2次元平面上にプロットすると供に、読み出した広域境界線との位置関係を比較する。   In step S893, the wide area boundary line comparison unit 952 uses the unprocessed pixel as the target pixel, extracts the BEP and BFP of the target pixel, and plots them on the two-dimensional plane of the BEP-BFP. Compare the positional relationship with the boundary line.

ここで、広域境界線とは、複数の人工画像および自然画像から抽出されるBEPおよびBFPを、BEP軸およびBFP軸からなる2次元空間に(BEP,BFP)としてプロットすることで得られる統計上の分布から生成される境界線である。広域境界線には、広域人工画像境界線および広域自然画像境界線の2種類の境界線がある。このうち、広域人工画像境界線は、人工画像の広域特徴量のみがプロットされている領域と、人工画像および自然画像の広域特徴量が混在してプロットされている領域との境界線である。また、広域自然画像境界線は、自然画像の広域特徴量のみがプロットされている領域と、人工画像および自然画像の広域特徴量が混在してプロットされている領域との境界線である。したがって、BEP軸およびBFP軸からなる領域は、図42で示されるように、広域人工画像境界線および広域自然画像境界線に基づいて、広域人工画像領域、広域自然画像領域、および人工画像および自然画像の広域混在領域の3種類の領域に分割されることになる。ここで、図42においては、広域人工画像境界線は、図中の曲線L1であり、広域自然画像境界線は、図中の曲線L2である。尚、以下、曲線L1,L2については、適宜、広域人工画像境界線L1および広域自然画像境界線L2とも称するものとする。また、図42においては、広域人工画像境界線L1よりも上部の領域が、広域人工画像領域であり、広域人工画像境界線L1および広域自然画像境界線L2の間の領域が、広域混在領域であり、広域自然画像境界線L2よりも下部の領域が広域自然画像領域である。   Here, the wide boundary line is statistically obtained by plotting BEP and BFP extracted from multiple artificial images and natural images as (BEP, BFP) in a two-dimensional space consisting of BEP axes and BFP axes. Is a boundary generated from the distribution of. There are two types of wide boundary lines, wide area artificial image boundary lines and wide area natural image boundary lines. Among these, the wide-area artificial image boundary line is a boundary line between a region where only the wide-area feature amount of the artificial image is plotted and a region where the wide-area feature amount of the artificial image and the natural image is mixed. The wide area natural image boundary line is a boundary line between an area where only the wide area feature amount of the natural image is plotted and an area where the wide area feature amount of the artificial image and the natural image is mixed. Therefore, as shown in FIG. 42, the area composed of the BEP axis and the BFP axis is based on the wide area artificial image boundary line and the wide area natural image boundary line, and the wide area artificial image area, the wide area natural image area, and the artificial image and natural image area. The image is divided into three types of areas, that is, a wide mixed area of images. Here, in FIG. 42, the wide-area artificial image boundary line is the curve L1 in the figure, and the wide-area natural image boundary line is the curve L2 in the figure. Hereinafter, the curves L1 and L2 are also referred to as a wide-area artificial image boundary line L1 and a wide-area natural image boundary line L2 as appropriate. In FIG. 42, the area above the wide area artificial image boundary line L1 is a wide area artificial image area, and the area between the wide area artificial image boundary line L1 and the wide area natural image boundary line L2 is a wide area mixed area. Yes, the area below the wide area natural image boundary L2 is the wide area natural image area.

ステップS894において、広域境界線比較部952は、注目画素のBEPおよびBFPをプロットした位置が、広域人工画像領域であるか否かを判定する。例えば、注目画素のBEPおよびBFPをプロットした位置が、図42における位置B1である場合、ステップS895において、広域境界線比較部952は、その画素が広域人工画像領域に属していることを内分計算部954に通知する。   In step S894, the wide area boundary line comparison unit 952 determines whether or not the position where the BEP and BFP of the target pixel are plotted is the wide area artificial image area. For example, when the position where the BEP and BFP of the target pixel are plotted is the position B1 in FIG. 42, the wide area boundary comparison unit 952 determines that the pixel belongs to the wide area artificial image area in step S895. The calculation unit 954 is notified.

ステップS896において、内分計算部954は、広域境界線比較部952からの注目画素の広域特徴量が広域人工画像領域に属している旨の通知を取得すると、広域人工画度Artbを1として人工画度生成部913に供給し、その処理は、ステップS902に進む。 In step S896, the internal division calculation unit 954 obtains a notification from the wide area boundary line comparison unit 952 that the wide area feature amount of the pixel of interest belongs to the wide area artificial image area, and sets the wide area art degree Art b to 1. The image is supplied to the artificial image degree generation unit 913, and the process proceeds to step S902.

ステップS894において、例えば、注目画素のBEPおよびBFPをプロットした位置が、図42における位置B1ではなく、位置B2またはB3である場合、広域境界線比較部952は、その画素が広域人工画像領域に属していないとみなし、処理は、ステップS897に進む。   In step S894, for example, when the position where the BEP and BFP of the pixel of interest are plotted is not the position B1 in FIG. 42 but the position B2 or B3, the wide area boundary comparison unit 952 places the pixel in the wide area artificial image area. The process proceeds to step S897 because it does not belong.

ステップS897において、広域境界線比較部952は、注目画素のBEPおよびBFPをプロットした位置が、広域自然画像領域であるか否かを判定する。例えば、注目画素のBEPおよびBFPをプロットした位置が、図42における位置B3である場合、ステップS898において、広域境界線比較部952は、その画素が広域自然画像領域に属していることを内分計算部954に通知する。   In step S897, the wide area boundary comparison unit 952 determines whether or not the position where the BEP and BFP of the pixel of interest are plotted is the wide natural image area. For example, when the position where the BEP and BFP of the pixel of interest are plotted is the position B3 in FIG. 42, in step S898, the wide area boundary line comparison unit 952 determines that the pixel belongs to the wide natural image area. The calculation unit 954 is notified.

ステップS899において、内分計算部954は、広域境界線比較部952からの注目画素の広域特徴量が広域自然画像領域に属している旨の通知を取得すると、広域人工画度Artbを0として人工画度生成部913に供給し、その処理は、ステップS902に進む。 In step S899, the internal division calculation unit 954 obtains a notification from the wide area boundary line comparison unit 952 that the wide area feature amount of the pixel of interest belongs to the wide area natural image area, and sets the wide area artificial art degree Art b to 0. The image is supplied to the artificial image degree generation unit 913, and the process proceeds to step S902.

ステップS897において、例えば、注目画素のBEPおよびBFPをプロットした位置が、図42における位置B3ではなく、位置B2である場合、広域境界線比較部952は、その画素が広域人工画像領域にも広域自然画像領域にも属していないとみなし、処理は、ステップS900に進む。   In step S897, for example, when the position where the BEP and BFP of the pixel of interest are plotted is not the position B3 in FIG. 42 but the position B2, the wide area boundary comparison unit 952 determines that the pixel is also in the wide area artificial image area. Assuming that the image does not belong to the natural image area, the process proceeds to step S900.

ステップS900において、広域境界線比較部952は、その画素が広域混在領域に属していることと供に、広域人工画像境界線L1と広域自然画像境界線L2との内分比率を内分計算部954に通知する。すなわち、図42の場合、位置B2は、広域人工画像境界線L1までの距離:広域自然画像境界線L2までの距離との比率は、1−q:qとなるので、この情報が内分計算部954に通知される。   In step S900, the wide area boundary comparison unit 952 calculates the internal division ratio between the wide area artificial image boundary line L1 and the wide area natural image boundary line L2 while the pixel belongs to the wide area mixed area. 954 is notified. That is, in the case of FIG. 42, since the ratio of the position B2 to the distance to the wide-area artificial image boundary line L1: distance to the wide-area natural image boundary line L2 is 1-q: q, this information is calculated internally. Section 954 is notified.

ステップS901において、内分計算部954は、広域境界線比較部952からの注目画素の広域特徴量が広域混在領域に属している旨と供に、内分比率の通知を取得すると、内分比率qを広域人工画度Artbとして人工画度生成部913に供給し、その処理は、ステップS902に進む。 In step S <b> 901, the internal division calculation unit 954 obtains the internal division ratio notification together with the fact that the wide area feature amount of the pixel of interest from the wide area boundary line comparison unit 952 belongs to the wide area mixed area. q is supplied to the artificial-image-ratio generating unit 913 as the wide-area artificial image degree Art b , and the process proceeds to step S902.

ステップS902において、広域境界線比較部952は、未処理の画素が存在するか否かを判定し、未処理の画素、すなわち、広域特徴量が、広域人工画像領域、広域自然画像領域、または、広域混在領域のいずれに属しているかが比較され、広域人工画度が求められているか否かを判定し、全ての画素について、広域人工画像度が求められていないと判定された場合、処理は、ステップS893に戻る。   In step S902, the wide area boundary comparison unit 952 determines whether or not an unprocessed pixel exists, and the unprocessed pixel, that is, the wide area feature amount is a wide area artificial image area, a wide area natural image area, or Compared to which of the wide-area mixed area, it is determined whether or not a wide-area artificial image degree is required, and if it is determined that the wide-area artificial image degree is not required for all pixels, the process is Return to step S893.

一方、全ての画素について、広域人工画度Artbが求められている場合、処理は終了する。 On the other hand, when the wide-area artificial image degree Art b is obtained for all the pixels, the process ends.

以上の処理により、全ての画素についてBEPおよびBFPからなる広域特徴量が読み出されて、BEP-BFP空間においてプロットされ、複数の人工画像および自然画像の分布より統計的に求められた広域人工画像境界線および広域自然画像境界線と比較されることにより、BEP-BFP空間におけるプロット位置(BEP,BFP)と、広域人工画像境界線および広域自然画像境界線との位置関係に基づいて、広域人工画像度Artbが算出されることになる。尚、以上においては、広域混在領域に存在する場合、内分比率qが広域人工画度Artbとして設定される例について説明してきたが、内分比が傾向として反映される値となればよいので、広域人工画度としては、例えば、q2または√qなどでもよい。 Through the above process, wide area feature values consisting of BEP and BFP are read for all pixels, plotted in the BEP-BFP space, and statistically obtained from the distribution of multiple artificial images and natural images. Based on the positional relationship between the plot position (BEP, BFP) in the BEP-BFP space and the wide-area artificial image boundary line and wide-area natural image boundary line by comparing with the boundary line and wide-area natural image boundary line The image degree Art b is calculated. In the above description, an example in which the internal ratio q is set as the wide-area artificial image degree Art b when it exists in the wide-area mixed area has been described. However, the internal ratio should be a value that reflects the tendency as a trend. Therefore, as the wide-area artificial image, for example, q 2 or √q may be used.

ここで、図35のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS835において、狭域特徴量抽出部91のPNDP抽出部971は、PNDP抽出処理を実行し、出力位相変換部112より供給されるHD画像より画素毎にPNDPを抽出して特徴量合成部933に供給する。 In step S835, PNDP extracting portion 971 of the narrow-range feature extraction unit 91 4 performs the PNDP extraction processing, feature synthesizer extracts the PNDP for each pixel from the HD image supplied from the output phase converter 112 933.

ここで、図43のフローチャートを参照して、図31のPNDP抽出部971によるPNDP抽出処理について説明する。   Here, the PNDP extraction processing by the PNDP extraction unit 971 in FIG. 31 will be described with reference to the flowchart in FIG.

ステップS911において、バッファ1051は、出力位相変換部112より供給されるHD画像を一時的に記憶する。   In step S911, the buffer 1051 temporarily stores the HD image supplied from the output phase converter 112.

ステップS912において、参照画素抽出部1052は、バッファ1051より、未処理の画素を注目画素に設定すると供に、ステップS913において、注目画素に対応して設定されている参照画素を読み出して長タップ抽出部1053に供給する。   In step S912, the reference pixel extraction unit 1052 sets an unprocessed pixel as a target pixel from the buffer 1051, and reads a reference pixel set corresponding to the target pixel in step S913 to extract a long tap. Supplied to the unit 1053.

ステップS914において、長タップ抽出部1053は、参照画素より長タップを抽出すると供に、ステップS915において、長タップの画素値を画素値蓄積部1054蓄積させ、さらに、SNDP抽出部972に供給する。ここで、長タップとは、例えば、参照画素に含まれる、注目画素に対応付けて設定される所定の領域内の画素のことであり、例えば、図44で示されるように、注目画素を中心としてm画素×m画素の画素である。尚、図44においては、n画素×n画素(n>m)の範囲が参照画素の範囲を示している。また、図44においては、画像内における黒丸印の注目画素P(0,0)を中心としたx方向およびy方向の2次元空間の座標上の白丸印が長タップP(i,j)を示しており、注目画素P(0,0)を中心としてm個×m個の点線で囲まれた範囲内の画素が、長タップP(i,j)(−(m−1)/2≦i≦(m−1)/2,−(m−1)/2≦j≦(m−1)/2:i,jは、整数)であることが示されている。   In step S914, the long tap extraction unit 1053 extracts the long tap from the reference pixel, and in step S915, the long tap pixel value is accumulated in the pixel value accumulation unit 1054, and further supplied to the SNDP extraction unit 972. Here, the long tap is, for example, a pixel in a predetermined area set in association with the target pixel included in the reference pixel. For example, as shown in FIG. M pixels × m pixels. In FIG. 44, a range of n pixels × n pixels (n> m) indicates a range of reference pixels. In FIG. 44, the white circle on the coordinates in the two-dimensional space in the x and y directions centered on the target pixel P (0, 0) of the black circle in the image represents the long tap P (i, j). A pixel within a range surrounded by m × m dotted lines with the pixel of interest P (0, 0) as the center is represented by a long tap P (i, j) (− (m−1) / 2 ≦ It is shown that i ≦ (m−1) / 2, − (m−1) / 2 ≦ j ≦ (m−1) / 2: i and j are integers.

ステップS916において、画素値蓄積部1054は、未処理の長タップが存在するか否かを判定し、未処理の長タップが存在する場合、その処理は、ステップS915に戻る。すなわち、全ての長タップについて、ステップS915,S916の処理が繰り返される。 In step S916, the pixel value storage unit 1054 determines whether there is an unprocessed long tap. If there is an unprocessed long tap, the process returns to step S915. That is, the processing in steps S915 and S916 is repeated for all long taps.

そして、ステップS916において、未処理の長タップがない、すなわち、全ての長タップについて画素値が抽出され、画素値蓄積部1054に全て蓄積されていると判定された場合、ステップS917において、画素値蓄積部1054は、全ての長タップについて処理が終了したことを最大値最小値抽出部1055に通知する。これを受けて、最大値最小値抽出部1055は、画素値蓄積部1054に蓄積されている画素値のうち、最大値となる値と最小値となる値とを抽出してPNDP計算部1056に供給する。 If it is determined in step S916 that there are no unprocessed long taps, that is, pixel values are extracted for all long taps and all are stored in the pixel value storage unit 1054, the pixel values are determined in step S917. The accumulation unit 1054 notifies the maximum value / minimum value extraction unit 1055 that the processing has been completed for all the long taps. In response to this, the maximum value / minimum value extraction unit 1055 extracts the maximum value and the minimum value from the pixel values stored in the pixel value storage unit 1054, and outputs them to the PNDP calculation unit 1056. Supply.

ステップS918において、PNDP計算部1056は、最大値最小値抽出部1055より供給されてきた最大値より最小値を引いた値である長タップの画素値ダイナミックレンジを、注目画素に対するPNDPとして計算し、特徴量合成部933に供給する。   In step S918, the PNDP calculation unit 1056 calculates a long tap pixel value dynamic range, which is a value obtained by subtracting the minimum value from the maximum value supplied from the maximum value / minimum value extraction unit 1055, as the PNDP for the pixel of interest, This is supplied to the feature value composition unit 933.

ステップS919において、参照画素抽出部1052は、バッファ1051に記憶されている画像における全ての画素について、PNDPが求められたか否かを判定する。ステップS919において、画像の全ての画素についてPNDPが求められていない場合、処理は、ステップS912に戻る。すなわち、バッファ1051に記憶された画像の全ての画素についてPNDPが求められるまで、ステップS912乃至S919の処理が繰り返される。そして、ステップS919において、画像内の全ての画素についてPNDPが求められたと判定された場合、PNDP抽出処理が終了する。   In step S919, the reference pixel extraction unit 1052 determines whether PNDP has been obtained for all the pixels in the image stored in the buffer 1051. In step S919, when the PNDP has not been obtained for all the pixels of the image, the process returns to step S912. That is, the processes of steps S912 to S919 are repeated until PNDP is obtained for all the pixels of the image stored in the buffer 1051. If it is determined in step S919 that PNDP has been obtained for all pixels in the image, the PNDP extraction process ends.

以上の処理により、画像における狭域のエッジを表現する特徴量であるPNDPが求められる。すなわち、PNDPは、注目画素に対する長タップ内の画素値ダイナミックレンジを表現することで、注目画素が属する狭域領域にエッジが存在したような場合、大きな値となり、逆にエッジが存在しない場合、小さな値を取ることになる。   Through the above processing, PNDP, which is a feature amount representing a narrow edge in an image, is obtained. That is, PNDP expresses the pixel value dynamic range within the long tap for the pixel of interest, and if the edge exists in the narrow area to which the pixel of interest belongs, it becomes a large value, and conversely, if there is no edge, It will take a small value.

ここで、図35のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS835におけるPNDP抽出処理によりPNDPが画像より抽出されると、ステップS836において、狭域特徴量抽出部914のSNDP抽出部972は、SNDP抽出処理を実行し、出力位相変換部112より供給されるHD画像より画素毎にSNDPを抽出して特徴量合成部933に供給する。   When the PNDP is extracted from the image by the PNDP extraction process in step S835, the SNDP extraction unit 972 of the narrow area feature quantity extraction unit 914 executes the SNDP extraction process and is supplied from the output phase conversion unit 112 in step S836. SNDP is extracted for each pixel from the HD image and supplied to the feature amount synthesis unit 933.

ここで、図45のフローチャートを参照して、図34のSNDP抽出部972によるSNDP抽出処理について説明する。   Here, the SNDP extraction processing by the SNDP extraction unit 972 in FIG. 34 will be described with reference to the flowchart in FIG.

ステップS941において、バッファ1071は、出力位相変換部112より供給されるHD画像を一時的に記憶する。   In step S941, the buffer 1071 temporarily stores the HD image supplied from the output phase converter 112.

ステップS942において、参照画素抽出部1072は、バッファ1051より、未処理の画素を注目画素に設定すると供に、ステップS943において、注目画素に対応して設定されている参照画素を読み出して短タップ抽出部1073に供給する。   In step S942, the reference pixel extraction unit 1072 sets an unprocessed pixel as a target pixel from the buffer 1051, and reads out a reference pixel set corresponding to the target pixel in step S943 to extract a short tap. To the unit 1073.

ステップS944において、短タップ抽出部1073は、参照画素、およびPNDP抽出部971より供給される長タップの情報に基づいて、参照画素より短タップ群を抽出する。ここで、短タップとは、長タップに含まれた画素であって、注目画素を含む複数の画素のことであり、例えば、参照画素のうち長タップに含まれる画素であって、注目画素に対応付けて設定される所定の領域内の画素のことであり、例えば、図46のパターンAで示されるように、注目画素を中心として、水平方向および垂直方向に隣接する4画素を含めた5画素からなる短タップST1であったり、パターンBで示されるように、注目画素を右下隅として、水平方向および垂直方向に3画素×3画素の9画素からなる短タップST2であったり、パターンCで示されるように、注目画素を左上隅として、水平方向および垂直方向に3画素×3画素の9画素からなる短タップST3であったり、パターンDで示されるように、注目画素を左下隅として、水平方向および垂直方向に3画素×3画素の9画素からなる短タップST4であったり、または、パターンEで示されるように、注目画素を右上隅として、水平方向および垂直方向に3画素×3画素の9画素からなる短タップST5などでもよい。また、複数のパターンの短タップを短タップ群と称している。従って、図46の短タップST1乃至ST5が短タップとして使用される場合、5パターンの短タップからなる短タップ群が構成されていると言える。尚、図46においては、丸印が画素を示しており、そのうち黒丸印が注目画素を示しており、さらに、実線で囲まれている範囲内の画素が、短タップを構成する画素であることを示している。   In step S944, the short tap extraction unit 1073 extracts a short tap group from the reference pixel based on the reference pixel and the long tap information supplied from the PNDP extraction unit 971. Here, the short tap is a pixel included in the long tap and is a plurality of pixels including the pixel of interest. For example, among the reference pixels, the pixel included in the long tap is the pixel of interest. This is a pixel in a predetermined area set in association with each other. For example, as shown by a pattern A in FIG. 46, 5 pixels including four pixels adjacent to each other in the horizontal direction and the vertical direction centering on the target pixel. A short tap ST1 composed of pixels, or a short tap ST2 composed of nine pixels of 3 pixels × 3 pixels in the horizontal and vertical directions with the target pixel as the lower right corner as shown in the pattern B, or a pattern C As shown in the figure, the pixel of interest is a short tap ST3 consisting of 9 pixels of 3 pixels × 3 pixels in the horizontal direction and the vertical direction with the pixel of interest at the upper left corner. Or a short tap ST4 consisting of 9 pixels of 3 pixels × 3 pixels in the horizontal and vertical directions, or 3 pixels in the horizontal and vertical directions with the target pixel as the upper right corner as shown by the pattern E A short tap ST5 composed of 9 pixels of 3 pixels may be used. A plurality of patterns of short taps is referred to as a short tap group. Therefore, when the short taps ST1 to ST5 in FIG. 46 are used as short taps, it can be said that a short tap group composed of five patterns of short taps is configured. In FIG. 46, a circle indicates a pixel, a black circle indicates a target pixel, and pixels within a range surrounded by a solid line are pixels constituting a short tap. Is shown.

ステップS945において、短タップ抽出部1073は、未処理の1つの短タップの画素値を抽出し、画素値蓄積部1074に蓄積させる。   In step S945, the short tap extraction unit 1073 extracts the pixel value of one unprocessed short tap and stores the pixel value in the pixel value storage unit 1074.

ステップS946において、短タップ抽出部1073は、未処理の短タップが存在するか否かを判定し、未処理の短タップが存在する場合、その処理は、ステップS945に戻る。すなわち、1つの短タップに含まれる全ての画素について、ステップS945,S946の処理が繰り返される。   In step S946, the short tap extraction unit 1073 determines whether there is an unprocessed short tap. If there is an unprocessed short tap, the process returns to step S945. That is, the processes in steps S945 and S946 are repeated for all the pixels included in one short tap.

そして、ステップS946において、未処理の短タップがない、すなわち、1つの短タップの全ての画素値が、画素値蓄積部1074に全て蓄積されていると判定された場合、ステップS947において、画素値抽出部1074は、1つの短タップの全ての画素を蓄積する処理が終了したことを最大値最小値抽出部1075に通知する。最大値最小値抽出部1075は、画素値蓄積部1074に蓄積されている1つの短タップの画素値のうち、最大値となる値と最小値となる値とを抽出してDR計算部1076に供給する。   If it is determined in step S946 that there are no unprocessed short taps, that is, all pixel values of one short tap are all stored in the pixel value storage unit 1074, the pixel value is determined in step S947. The extraction unit 1074 notifies the maximum value / minimum value extraction unit 1075 that the process of accumulating all the pixels of one short tap is completed. The maximum value / minimum value extraction unit 1075 extracts the value that becomes the maximum value and the value that becomes the minimum value from the pixel values of one short tap stored in the pixel value storage unit 1074, and sends them to the DR calculation unit 1076. Supply.

ステップS948において、DR計算部1076は、最大値最小値抽出部1075より供給されてきた画素値の最大値より最小値を引いた値である1つの短タップの画素値ダイナミックレンジを、注目画素に対する画素値DR(画素値ダイナミックレンジ)として計算し、ステップS949において、DR蓄積部1077に蓄積させる。   In step S948, the DR calculation unit 1076 calculates the pixel value dynamic range of one short tap, which is a value obtained by subtracting the minimum value from the maximum value of the pixel value supplied from the maximum value / minimum value extraction unit 1075, for the target pixel. The pixel value DR (pixel value dynamic range) is calculated and stored in the DR storage unit 1077 in step S949.

ステップS950において、短タップ抽出部1073は、未処理の短タップ群が残されているか否かを判定し、残されていると判定した場合、その処理は、ステップS944に戻る。すなわち、全ての短タップ群についてDRが求められたと判定されるまで、ステップS944乃至S950の処理が繰り返される。従って、例えば、短タップ群が、図46で示される5パターンである場合、ステップS944乃至S950の処理が5回繰り返されることになる。   In step S950, the short tap extraction unit 1073 determines whether or not an unprocessed short tap group remains. If it is determined that the unprocessed short tap group remains, the process returns to step S944. That is, the processes in steps S944 to S950 are repeated until it is determined that DR has been obtained for all the short tap groups. Therefore, for example, when the short tap group has the five patterns shown in FIG. 46, the processes in steps S944 to S950 are repeated five times.

そして、ステップS950において、全ての短タップ群の処理が終了した、すなわち、全ての短タップについてDRが求められた場合、ステップS951において、短タップ抽出部1073は、その旨をSNDP選択部1078に通知する。さらに、SNDP選択部1078は、DR蓄積部1077に蓄積されている各短タップ群のDRを比較し、最小となるDRをSNDPとして選択し、特徴量合成部973に供給する。   In step S950, when all the short tap groups have been processed, that is, when DR is obtained for all the short taps, in step S951, the short tap extraction unit 1073 informs the SNDP selection unit 1078 to that effect. Notice. Further, the SNDP selection unit 1078 compares the DRs of the respective short tap groups stored in the DR storage unit 1077, selects the minimum DR as the SNDP, and supplies the SNDP to the feature amount combining unit 973.

ステップS952において、参照画素抽出部1072は、バッファ1071に記憶されている画像における全ての画素について、SNDPが求められたか否かを判定する。ステップS952において、画像の全ての画素についてSNDPが求められていない場合、処理は、ステップS942に戻る。すなわち、バッファ1071に記憶された画像の全ての画素についてSNDPが求められるまで、ステップS942乃至S952の処理が繰り返される。そして、ステップS952において、画像内の全ての画素についてSNDPが求められたと判定された場合、SNDP抽出処理が終了する。   In step S952, the reference pixel extraction unit 1072 determines whether SNDP has been obtained for all the pixels in the image stored in the buffer 1071. In step S952, when SNDP is not calculated | required about all the pixels of an image, a process returns to step S942. That is, the processes in steps S942 to S952 are repeated until SNDPs are obtained for all the pixels of the image stored in the buffer 1071. If it is determined in step S952 that the SNDP has been obtained for all the pixels in the image, the SNDP extraction process ends.

以上の処理により、画像における各画素の属する狭域の平坦部の程度を表現する特徴量であるSNDPが求められる。すなわち、SNDPは、注目画素に対する長タップ内の複数の短タップの画素値ダイナミックレンジのうちの最小値により長タップ内において、短タップで表現される領域の中で最も平坦な領域における平坦さの程度が表現されることになるので、注目画素が属する狭域領域に含まれる平坦部が平坦であるほど小さな値となり、平坦ではなくなるほど大きな値となる。   Through the above processing, the SNDP that is a feature amount representing the degree of the narrow flat portion to which each pixel belongs in the image is obtained. That is, SNDP is the flatness of the flattest region among the regions represented by short taps in the long taps by the minimum value of the pixel value dynamic range of a plurality of short taps in the long taps for the target pixel. Since the degree is expressed, the flat portion included in the narrow area to which the pixel of interest belongs is flatter, and the smaller the value, the smaller the flat portion, the larger the flat portion.

ここで、図35のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS836の処理により、SNDPが求められると、ステップS837において、特徴量合成部973は、PNDP抽出部971より供給されてくるPNDPと、SNDP抽出部972より供給されてくるSNDPとを合成し、狭域特徴量として狭域人工画度算出部915に供給する。   When the SNDP is obtained by the processing in step S836, in step S837, the feature amount combining unit 973 combines the PNDP supplied from the PNDP extracting unit 971 and the SNDP supplied from the SNDP extracting unit 972, The narrow area feature quantity is supplied to the narrow area artificial image degree calculation unit 915.

ステップS838において、狭域人工画度算出部915は、狭域特徴量抽出部914より供給されてくる狭域特徴量に基づいて、狭域人工画度算出処理を実行し、狭域人工画度Artnを算出し、人工画度生成部913に供給する。 In step S838, the narrow area artificial degree-of-gravity calculation unit 915 executes the narrow area artificial degree-of-gravity calculation process based on the narrow area feature amount supplied from the narrow area feature amount extraction unit 914, and the narrow area artificial degree of view. Art n is calculated and supplied to the artificial image degree generation unit 913.

ここで、図47のフローチャートを参照して、図30の狭域人工画度算出部915による狭域人工画度算出処理について説明する。   Here, with reference to the flowchart of FIG. 47, the narrow area artificial image degree calculation processing by the narrow area artificial image degree calculation unit 915 of FIG. 30 will be described.

ステップS971において、特徴量分離部991は、狭域特徴量抽出部914より供給されてくる狭域特徴量を取得すると供に、PNDPおよびSNDPを分離して、それぞれを狭域境界線比較部992に供給する。   In step S971, the feature amount separation unit 991 acquires the narrow region feature amount supplied from the narrow region feature amount extraction unit 914, separates the PNDP and the SNDP, and separates them from the narrow region boundary line comparison unit 992. To supply.

ステップS972において、狭域境界線比較部992は、狭域境界線メモリ993より狭域境界線の情報を読み出す。   In step S <b> 972, the narrow area boundary comparison unit 992 reads the narrow area boundary line information from the narrow area boundary line memory 993.

ステップS973において、狭域境界線比較部992は、未処理の画素を注目画素とし、その注目画素のPNDPおよびSNDPを抽出して、PNDP-SNDPの2次元平面上にプロットすると供に、読み出した狭域境界線との位置関係を比較する。   In step S973, the narrow boundary line comparison unit 992 uses an unprocessed pixel as a pixel of interest, extracts the PNDP and SNDP of the pixel of interest, and plots them on a two-dimensional plane of PNDP-SNDP. Compare the positional relationship with the narrow boundary line.

ここで、狭域境界線とは、複数の人工画像および自然画像から抽出されるPNDPおよびSNDPを、PNDP軸およびSNDP軸からなる2次元空間に(PNDP,SNDP)としてプロットすることで得られる統計上の分布から生成される境界線である。狭域境界線には、狭域人工画像境界線および狭域自然画像境界線の2種類の境界線がある。このうち、狭域人工画像境界線は、人工画像の狭域特徴量のみがプロットされている領域と、人工画像および自然画像の狭域特徴量が混在してプロットされている領域との境界線である。また、狭域自然画像境界線は、自然画像の狭域特徴量のみがプロットされている領域と、人工画像および自然画像の狭域特徴量が混在してプロットされている領域との境界線である。したがって、PNDP軸およびSNDP軸からなる領域は、図48で示されるように、狭域人工画像境界線および狭域自然画像境界線に基づいて、狭域人工画像領域、狭域自然画像領域、および人工画像および自然画像の狭域混在領域の3種類の領域に分割されることになる。ここで、図48においては、狭域自然画像境界線は、図中の曲線L11であり、狭域人工画像境界線は、図中の曲線L12である。尚、以下、曲線L11,L12については、適宜、狭域自然画像境界線L11および狭域人工画像境界線L12とも称するものとする。また、図48においては、狭域自然画像境界線L11よりも上部の領域が、狭域自然画像領域であり、狭域自然画像境界線L11および狭域人工画像境界線L12の間の領域が、狭域混在領域であり、狭域人工画像境界線L12よりも下部の領域が狭域人工画像領域である。   Here, the narrow boundary line is a statistic obtained by plotting PNDP and SNDP extracted from a plurality of artificial images and natural images as (PNDP, SNDP) in a two-dimensional space consisting of PNDP axes and SNDP axes. A boundary line generated from the above distribution. The narrow boundary line includes two types of boundary lines: a narrow artificial image boundary line and a narrow natural image boundary line. Among these, the narrow-area artificial image boundary line is the boundary line between the area where only the narrow-area feature amount of the artificial image is plotted and the area where the narrow-area feature amount of the artificial image and the natural image is mixed. It is. The narrow natural image boundary line is the boundary line between the area where only the narrow area feature amount of the natural image is plotted and the area where the narrow area feature amount of the artificial image and the natural image is mixed. is there. Therefore, the region composed of the PNDP axis and the SNDP axis is, as shown in FIG. 48, based on the narrow artificial image boundary and the narrow natural image boundary, and the narrow artificial image region, the narrow natural image region, and It is divided into three types of areas, which are a narrow-area mixed area of an artificial image and a natural image. Here, in FIG. 48, the narrow natural image boundary line is the curve L11 in the figure, and the narrow artificial image boundary line is the curve L12 in the figure. Hereinafter, the curves L11 and L12 are also referred to as a narrow natural image boundary line L11 and a narrow artificial image boundary line L12 as appropriate. In FIG. 48, the region above the narrow natural image boundary line L11 is the narrow natural image region, and the region between the narrow natural image boundary line L11 and the narrow artificial image boundary line L12 is The narrow area mixed area, and the area below the narrow area artificial image boundary L12 is the narrow area artificial image area.

ステップS974において、狭域境界線比較部992は、注目画素のPNDPおよびSNDPをプロットした位置が、狭域人工画像領域であるか否かを判定する。例えば、注目画素のPNDPおよびSNDPをプロットした位置が、図48における位置N3である場合、ステップS975において、狭域境界線比較部992は、その画素が狭域人工画像領域に属していることを内分計算部994に通知する。   In step S974, the narrow area boundary comparison unit 992 determines whether or not the position where the PNDP and SNDP of the target pixel are plotted is the narrow area artificial image area. For example, when the position where the PNDP and SNDP of the target pixel are plotted is the position N3 in FIG. 48, in step S975, the narrow boundary line comparison unit 992 indicates that the pixel belongs to the narrow artificial image area. Notify the internal calculation unit 994.

ステップS976において、内分計算部994は、狭域境界線比較部992からの注目画素の狭域特徴量が狭域人工画像領域に属している旨の通知を取得すると、狭域人工画度Artnを1として人工画度生成部913に供給し、その処理は、ステップS982に進む。 In step S976, when the internal division calculation unit 994 obtains a notification from the narrow area boundary line comparison unit 992 that the narrow area feature amount of the target pixel belongs to the narrow area artificial image area, the narrow area artificial degree of art Art n is set to 1 and is supplied to the artificial degree-of-image generation unit 913, and the process proceeds to step S982.

ステップS974において、例えば、注目画素のPNDPおよびSNDPをプロットした位置が、図48における位置N3ではなく、位置N2またはN1である場合、狭域境界線比較部992は、その画素が狭域人工画像領域に属していないとみなし、処理は、ステップS977に進む。   In step S974, for example, when the position where the PNDP and SNDP of the pixel of interest are plotted is not the position N3 in FIG. 48 but the position N2 or N1, the narrow boundary line comparison unit 992 has the pixel narrow-area artificial image. The processing proceeds to step S977, assuming that it does not belong to the area.

ステップS977において、狭域境界線比較部992は、注目画素のPNDPおよびSNDPをプロットした位置が、狭域自然画像領域であるか否かを判定する。例えば、注目画素のPNDPおよびSNDPをプロットした位置が、図48における位置N1である場合、ステップS978において、狭域境界線比較部992は、その画素が広域自然画像領域に属していることを内分計算部994に通知する。   In step S977, the narrow area boundary comparison unit 992 determines whether or not the position where the PNDP and SNDP of the target pixel are plotted is the narrow natural image area. For example, if the position where the PNDP and SNDP of the pixel of interest are plotted is the position N1 in FIG. 48, the narrow boundary line comparison unit 992 confirms that the pixel belongs to the wide natural image area in step S978. The minute calculation unit 994 is notified.

ステップS979において、内分計算部994は、狭域境界線比較部992からの注目画素の狭域特徴量が狭域自然画像領域に属している旨の通知を取得すると、狭域人工画度Artnを0として人工画度生成部913に供給し、その処理は、ステップS982に進む。 In step S979, when the internal division calculation unit 994 obtains notification from the narrow area boundary line comparison unit 992 that the narrow area feature amount of the target pixel belongs to the narrow area natural image area, the narrow area artificial degree of art Art n is set to 0 and supplied to the artificial-image-degree generation unit 913, and the process proceeds to step S982.

ステップS977において、例えば、注目画素のPNDPおよびSNDPをプロットした位置が、図48における位置N1ではなく、位置N2である場合、狭域境界線比較部992は、その画素が狭域人工画像領域にも狭域自然画像領域にも属していないとみなし、処理は、ステップS980に進む。   In step S977, for example, when the position where the PNDP and SNDP of the pixel of interest are plotted is not the position N1 in FIG. 48 but the position N2, the narrow boundary line comparison unit 992 places the pixel in the narrow artificial image area. Are not belonging to the narrow natural image area, and the process proceeds to step S980.

ステップS980において、狭域境界線比較部992は、その画素が狭域混在領域に属していることと供に、狭域自然画像境界線L11と狭域人工画像境界線L12との内分比率を内分計算部994に通知する。すなわち、図48の場合、位置N2は、狭域自然画像境界線L11までの距離:狭域人工画像境界線L12までの距離との比率は、p:1−pとなるので、この情報が内分計算部994に通知される。   In step S980, the narrow area boundary comparison unit 992 calculates the internal ratio between the narrow area natural image boundary line L11 and the narrow area artificial image boundary line L12 while the pixel belongs to the narrow area mixed region. Notify the internal calculation unit 994. That is, in the case of FIG. 48, since the ratio of the position N2 to the distance to the narrow natural image boundary line L11: the distance to the narrow artificial image boundary line L12 is p: 1−p. The minute calculation unit 994 is notified.

ステップS981において、内分計算部994は、狭域境界線比較部992からの注目画素の狭域特徴量が狭域混在領域に属している旨と供に、内分比率の通知を取得すると、内分比率pを狭域人工画度Artnとして人工画度生成部913に供給し、その処理は、ステップS982に進む。 In step S981, the internal division calculation unit 994 obtains the notification of the internal division ratio together with the fact that the narrow region feature amount of the target pixel from the narrow region boundary line comparison unit 992 belongs to the narrow region mixed region. The internal ratio p is supplied to the artificial-image-ratio generating unit 913 as the narrow-area artificial image degree Art n , and the process proceeds to step S982.

ステップS982において、狭域境界線比較部992は、未処理の画素が存在するか否かを判定し、未処理の画素、すなわち、狭域特徴量が、狭域人工画像領域、狭域自然画像領域、または、狭域混在領域のいずれに属しているかが比較され、狭域人工画度が求められているか否かを判定し、全ての画素について、狭域人工画像度が求められていないと判定された場合、処理は、ステップS973に戻る。   In step S982, the narrow area boundary comparison unit 992 determines whether or not an unprocessed pixel exists, and the unprocessed pixel, that is, the narrow area feature amount is a narrow area artificial image area or a narrow area natural image. It is determined whether it belongs to a region or a narrow-area mixed region, and whether or not a narrow-area artificial image degree is required. If determined, the process returns to step S973.

一方、全ての画素について、狭域人工画度Artnが求められている場合、処理は終了する。 On the other hand, when the narrow-area artificial image degree Art n is obtained for all the pixels, the process ends.

以上の処理により、全ての画素についてPNDPおよびSNDPからなる狭域特徴量が読み出されて、PNDP-SNDP空間においてプロットされ、複数の人工画像および自然画像の分布より統計的に求められた狭域人工画像境界線および狭域自然画像境界線と比較されることにより、PNDP-SNDP空間におけるプロット位置(PNDP,SNDP)と、狭域人工画像境界線および狭域自然画像境界線との位置関係に基づいて、狭域人工画像度Artnが算出されることになる。尚、以上においては、狭域混在領域に存在する場合、内分比率pが狭域人工画度Artnとして設定される例について説明してきたが、内分比が傾向として反映される値となればよいので、広域人工画度としては、例えば、p2または√pなどでもよい。 Through the above processing, the narrow area feature quantity consisting of PNDP and SNDP is read for all pixels, plotted in the PNDP-SNDP space, and statistically obtained from the distribution of multiple artificial images and natural images Compared with the artificial image boundary line and the narrow natural image boundary line, the positional relationship between the plot position (PNDP, SNDP) in the PNDP-SNDP space and the narrow artificial image boundary line and the narrow natural image boundary line Based on this, the narrow-area artificial image degree Art n is calculated. In the above description, the example in which the internal ratio p is set as the narrow-area artificial image degree Art n when it exists in the narrow mixed area has been described. However, the internal ratio should be a value that reflects the tendency. Therefore, the wide-area artificial image may be, for example, p 2 or √p.

ここで、図35のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS839において、人工画度生成部913は、広域人工画度算出部912より供給されてきた広域人工画度Artb、および狭域人工画度算出部915より供給されてきた狭域人工画度Artnに基づいて、以下の式(19)を計算することで、人工画度Artを生成し、画像処理部113に供給する。 In step S <b> 839, the artificial image creation unit 913 performs the wide-area artificial image Art b supplied from the wide-area artificial image degree calculation unit 912 and the narrow-area artificial image degree supplied from the narrow-area artificial image degree calculation unit 915. Based on Art n , the following equation (19) is calculated to generate an artificial art degree Art and supply it to the image processing unit 113.

Figure 0004605468
Figure 0004605468

ここで、α,β,γは、定数である。また、人工画度Artは、0≦Art≦1を想定して設定されている値であるため、式(19)の計算結果、人工画度Artが1以上である場合、人工画度生成部913は、人工画度Artを1にクリップして画像処理部113に供給する。   Here, α, β, and γ are constants. Further, since the artificial art degree Art is a value set on the assumption that 0 ≦ Art ≦ 1, when the calculation result of Expression (19) indicates that the artificial art degree Art is 1 or more, the artificial art degree generator In step 913, the artificial art degree Art is clipped to 1 and supplied to the image processing unit 113.

以上の処理により、上述した図2におけるステップS7の処理において、合成部133は、例えば、以下の式(20)を演算することにより、自然画予測部131から供給される自然高品質画像の各画素の画素値と、人工画予測部132から供給される人工高品質画像の各画素の画素値とを人工画度に応じた割合で合成する。   With the above processing, in the processing of step S7 in FIG. 2 described above, the synthesis unit 133 calculates each of the natural high quality images supplied from the natural image prediction unit 131 by, for example, calculating the following equation (20). The pixel value of the pixel and the pixel value of each pixel of the artificial high quality image supplied from the artificial image predicting unit 132 are combined at a ratio according to the artificial image degree.

Figure 0004605468
Figure 0004605468

ここで、Pixは、最終的に合成されて生成される高品質画像の各画素の画素値であり、Pixnatは、自然画予測部131より供給されてきた自然画像であり、Pixartは、人工画予測部132より供給されてきた人工画像であり、さらに、Artは、人工画度の係数である。 Here, Pix is a pixel value of each pixel of the high-quality image that is finally synthesized and generated, Pix nat is a natural image supplied from the natural image prediction unit 131, and Pix art is It is an artificial image supplied from the artificial image prediction unit 132, and Art is a coefficient of the artificial image degree.

以上によれば、画像に対して人工画像としての画像処理を施した画素と、自然画像としての画像処理を施した画素とを、人工画度に応じて合成することで、画像における自然画像としての要素を含む領域と人工画像としての要素を含む領域とを区別して、それぞれの領域に対して最適な処理を施すことが可能となる。   According to the above, as a natural image in an image, a pixel that has been subjected to image processing as an artificial image and a pixel that has been subjected to image processing as a natural image are synthesized according to the degree of artificial image. It is possible to distinguish an area including the element and an area including an element as an artificial image, and to perform optimum processing on each area.

以上においては、図38のフローチャートを参照して説明したBEP抽出処理のように、参照画素と注目画素との差分値の最大値と最小値との差分値を求めることにより、参照画素の差分ダイナミックレンジを求めることで、BEPを抽出する例について説明してきたが、参照画素の画素値の変化の大きな部分が求められればよいので、その他の方法でもよく、参照領域に含まれる画素の画素値の画素値ダイナミックレンジでも良い。尚、BEPとして画素値ダイナミックレンジを使用すると、参照領域の境界近傍の参照画素にエッジ領域に属する画素が含まれる場合と含まれない場合とで、BEPの値が大きく変化してしまう恐れがある。そこで、上述したように、BEPについては、距離に応じて重みを付する差分ダイナミックレンジの方がより好ましい結果を期待することができる。   In the above, as in the BEP extraction process described with reference to the flowchart of FIG. 38, the difference value between the maximum value and the minimum value of the difference value between the reference pixel and the target pixel is obtained, thereby obtaining the difference dynamic of the reference pixel. The example of extracting the BEP by calculating the range has been described. However, since it is only necessary to obtain a part where the change in the pixel value of the reference pixel is large, other methods may be used, and the pixel value of the pixel included in the reference region may be determined. The pixel value dynamic range may be used. If the pixel value dynamic range is used as the BEP, the BEP value may change greatly depending on whether or not the reference pixel near the boundary of the reference region includes the pixel belonging to the edge region. . Therefore, as described above, for BEP, a more preferable result can be expected when the differential dynamic range is weighted according to the distance.

また、BEPとしては、例えば、各参照画素の隣接画素間の画素値の差分絶対値を昇順に並べ替えて、上位の差分絶対値を用いて求めるようにしてもよい。   In addition, as the BEP, for example, the absolute difference values of the pixel values between adjacent pixels of each reference pixel may be rearranged in ascending order and may be obtained using the upper absolute difference value.

図49は、各参照画素の隣接画素間の画素値の差分絶対値を昇順に並べ替えて、上位の差分絶対値を用いて参照画素のエッジの存在を表現するBEPとして求めるようにしたBEP抽出部931の構成例を示している。   FIG. 49 shows the BEP extraction in which the absolute value of the pixel value between adjacent pixels of each reference pixel is rearranged in ascending order and is obtained as a BEP that represents the presence of the edge of the reference pixel using the upper absolute difference value. A configuration example of the unit 931 is shown.

図49のBEP抽出部931は、バッファ1101、参照画素抽出部1102、隣接画素間差分絶対値計算部1103、並び替え部1104、上位抽出部1105、およびBEP計算部1106から構成されている。   The BEP extraction unit 931 in FIG. 49 includes a buffer 1101, a reference pixel extraction unit 1102, an adjacent pixel difference absolute value calculation unit 1103, a rearrangement unit 1104, an upper extraction unit 1105, and a BEP calculation unit 1106.

バッファ1101は、基本的に図31におけるバッファ1011と同様のものであり、出力位相変換部112より供給されるHD画像を一時的に記憶し、順次必要に応じて参照画素抽出部1102に供給する。参照画素抽出部1102は、基本的に図31における参照画素抽出部1012と同様のものであり、順次、注目画素毎に参照画素を読み出して隣接画素間差分絶対値計算部1103に供給する。 The buffer 1101 is basically the same as the buffer 1011 in FIG. 31, temporarily stores the HD image supplied from the output phase converter 112, and sequentially supplies it to the reference pixel extractor 1102 as necessary. . Reference-pixel extracting portion 1102 is the same as the basic reference-pixel extracting portion 1012 in FIG. 31, are sequentially supplied to the adjacent-pixel difference absolute value calculator 1103 reads out reference pixels for each subject pixel.

隣接画素間差分絶対値計算部1103は、参照画素抽出部1102より供給されてくる参照画素のうち、上下左右方向に隣接する画素間の画素値の差分絶対値を求めて並び替え部1104に供給する。並び替え部1104は、隣接画素間差分絶対値計算部1103より供給されてくる参照画素の隣接画素間の差分絶対値を昇順に並び替えて上位抽出部1105に供給する。   The inter-adjacent pixel difference absolute value calculation unit 1103 calculates the absolute difference value of the pixel value between pixels adjacent in the vertical and horizontal directions among the reference pixels supplied from the reference pixel extraction unit 1102 and supplies the difference absolute value to the rearrangement unit 1104. To do. The rearrangement unit 1104 rearranges the absolute difference values between adjacent pixels of the reference pixel supplied from the adjacent pixel difference absolute value calculation unit 1103 in ascending order and supplies the rearrangement absolute values to the upper extraction unit 1105.

上位抽出部1105は、並び替え部1104より供給されてきた隣接画素間差分絶対値の昇順に並び替えられた情報に基づいて、上位N1番目乃至N2番目の順位の値を抽出して、BEP計算部1106に供給する。BEP計算部1106は、上位抽出部1105より供給されてきた、隣接画素間差分絶対値の昇順に並び替えられた情報に基づいて、上位N1番目乃至N2番目の順位の値の平均値をBEPとして求め、特徴量合成部933に供給する。   The upper extraction unit 1105 extracts values of the upper N1 to N2 ranks based on the information rearranged in ascending order of the absolute value of the difference between adjacent pixels supplied from the rearrangement unit 1104, and performs BEP calculation. To the unit 1106. The BEP calculation unit 1106 uses, as the BEP, the average value of the highest N1 to N2 rank values based on the information supplied from the higher extraction unit 1105 and rearranged in the ascending order of the difference value between adjacent pixels. It is obtained and supplied to the feature value composition unit 933.

ここで、図50のフローチャートを参照して、図49のBEP抽出部931によるBEP抽出処理について説明する。   Here, the BEP extraction processing by the BEP extraction unit 931 in FIG. 49 will be described with reference to the flowchart in FIG.

ステップS1001において、バッファ1101は、出力位相変換部112より供給されるHD画像を一時的に記憶する。   In step S1001, the buffer 1101 temporarily stores the HD image supplied from the output phase converter 112.

ステップS1002において、参照画素抽出部1102は、バッファ1101より、未処理の画素を注目画素に設定すると供に、ステップS1003において、注目画素に対応して設定されている参照画素を読み出して隣接画素間差分絶対値計算部1103に供給する。   In step S1002, the reference pixel extraction unit 1102 sets an unprocessed pixel as a target pixel from the buffer 1101, and reads out a reference pixel set corresponding to the target pixel in step S1003, so that it is not between adjacent pixels. This is supplied to the difference absolute value calculation unit 1103.

ステップS1004において、隣接画素間差分絶対値計算部1103は、未処理の参照画素の隣接画素間(注目画素を含む)の画素値の差分絶対値を計算し、並び替え部1104に供給する。   In step S <b> 1004, the inter-adjacent-pixel difference absolute value calculation unit 1103 calculates a difference absolute value of pixel values between adjacent pixels (including the target pixel) of the unprocessed reference pixel, and supplies the calculated difference to the rearrangement unit 1104.

ステップS1005において、並び替え部1104は、隣接画素間差分絶対値計算部1103より供給されてきた隣接画素間差分絶対値を蓄積する。   In step S <b> 1005, the rearrangement unit 1104 accumulates the adjacent pixel difference absolute value supplied from the adjacent pixel difference absolute value calculation unit 1103.

ステップS1006において、隣接画素間差分絶対値計算部1103は、参照画素における全ての隣接画素間の差分絶対値を求めたか否かを判定し、例えば、全ての隣接画素間の差分絶対値が求められていないと判定された場合、処理は、ステップS1004に戻る。   In step S1006, the adjacent pixel difference absolute value calculation unit 1103 determines whether or not the difference absolute value between all adjacent pixels in the reference pixel has been obtained. For example, the difference absolute value between all adjacent pixels is obtained. If it is determined that it is not, the process returns to step S1004.

すなわち、全ての隣接画素間の差分絶対値が求められるまで、ステップS1004乃至S1006の処理が繰り返される。そして、ステップS1004において、全ての隣接画素間の差分絶対値が求められて、並び替え部1104に全て蓄積されていると判定された場合、ステップS1007において、並び替え部1104は、隣接画素間差分絶対値の計算結果を昇順に並び替えて上位抽出部1105に供給する。すなわち、並び替え部1104は、例えば、図51で示されるように、隣接画素間差分絶対値を昇順に並び替えて、上位抽出部1105に供給する。尚、図51においては、横軸が順位を示しており、縦軸が隣接画素間差分絶対値を示している。   That is, the processes in steps S1004 to S1006 are repeated until the absolute difference value between all adjacent pixels is obtained. In step S1004, when the absolute difference values between all adjacent pixels are obtained and it is determined that all the difference pixels are stored in the rearrangement unit 1104, in step S1007, the rearrangement unit 1104 determines the difference between adjacent pixels. The absolute value calculation results are rearranged in ascending order and supplied to the upper extraction unit 1105. That is, the rearrangement unit 1104 rearranges the adjacent pixel difference absolute values in ascending order as shown in FIG. In FIG. 51, the horizontal axis indicates the ranking, and the vertical axis indicates the adjacent pixel difference absolute value.

ステップS1008において、上位抽出部1105は、並び替え部1104より供給されてきた昇順に並び替えられている隣接画素間差分絶対値より上位N1番目乃至N2番目の順位の隣接画素間差分絶対値を抽出して、BEP計算部1106に供給する。すなわち、例えば、図51の場合、図中の上位N1番目乃至N2番目の順位の隣接画素間差分絶対値から抽出される。   In step S <b> 1008, the upper extraction unit 1105 extracts the adjacent pixel difference absolute values in the higher N1 to N2 ranks from the adjacent pixel difference absolute values rearranged in the ascending order supplied from the rearrangement unit 1104. Then, the data is supplied to the BEP calculation unit 1106. That is, for example, in the case of FIG. 51, it is extracted from the absolute value of the difference between adjacent pixels of the highest N1 to N2 ranks in the figure.

ステップS1009において、BEP計算部1106は、上位N1番目乃至N2番目の順位の隣接画素間差分絶対値の平均値をBEPとして計算し、特徴量合成部933に出力する。   In step S <b> 1009, the BEP calculation unit 1106 calculates the average value of the difference values between adjacent pixels in the highest N1 to N2 ranks as BEP, and outputs the BEP to the feature amount synthesis unit 933.

ステップS1010において、参照画素抽出部1102は、バッファ1101に記憶されている画像における全ての画素について、BEPが求められたか否かを判定する。ステップS1010において、画像の全ての画素についてBEPが求められていない場合、処理は、ステップS1002に戻る。すなわち、バッファ1101に記憶された画像の全ての画素についてBEPが求められるまで、ステップS1002乃至S1010の処理が繰り返される。そして、ステップS1010において、画像内の全ての画素についてBEPが求められたと判定された場合、BEP抽出処理が終了する。   In step S1010, the reference pixel extraction unit 1102 determines whether or not a BEP has been obtained for all the pixels in the image stored in the buffer 1101. In step S1010, when BEP is not calculated | required about all the pixels of an image, a process returns to step S1002. That is, the processes in steps S1002 to S1010 are repeated until BEP is obtained for all the pixels of the image stored in the buffer 1101. If it is determined in step S1010 that the BEP has been obtained for all the pixels in the image, the BEP extraction process ends.

以上の処理により、画像における広域のエッジを表現する特徴量であるBEPが求められる。すなわち、BEPは、隣接画素間差分絶対値の上位N1番目乃至N2番目の順位の平均値であり、参照画素の隣接画素間差分絶対値のうち比較的大きな値が、広域のエッジを表現する特徴量として抽出される。   Through the above processing, a BEP that is a feature amount that represents a wide edge in an image is obtained. That is, BEP is the average value of the highest N1 to N2 ranks of the absolute difference value between adjacent pixels, and a relatively large value among the absolute difference values between adjacent pixels of the reference pixel represents a wide-area edge. Extracted as a quantity.

尚、以上においては、上位N1番目乃至N2番目の順位の平均値をBEPとする例について説明してきたが、参照画素における隣接画素間差分絶対値を用いた広域の特徴量が求められればよいので、求め方は以上の方法以外でもよく、例えば、平均値ではなく各隣接画素間差分絶対値に対して重みを付加して積和を用いるようにしてもよいし、さらには、図51で示されるように、上位N1番目乃至N2番目前後のN番目の順位の値をそのままBEPとするようにしてもよい。   In the above description, the example in which the average value of the top N1 to N2 ranks is set as BEP has been described. However, it is only necessary to obtain a wide-area feature amount using the absolute value of the difference between adjacent pixels in the reference pixel. The calculation method may be other than the above method. For example, the product sum may be used by adding a weight to each absolute difference value between adjacent pixels instead of the average value, and further, as shown in FIG. As described above, the Nth order values from the top N1 th to the N2 th order may be used as BEP as they are.

また、以上においては、図38のフローチャートを参照して説明したBFP抽出処理のように、参照画素の隣接画素間差分絶対値を所定の閾値thと比較し、閾値thよりも大きな値については、関数により所定の値を設定し、全ての参照画素における総和をBFPとする例について説明してきたが、参照画素の画素値の変化の小さな部分が求められればよいので、その他の方法でもよく、例えば、各参照画素の隣接画素間の画素値の差分絶対値を昇順に並べ替えて、下位の差分絶対値を用いて求めるようにしてもよい。   In the above, as in the BFP extraction process described with reference to the flowchart of FIG. 38, the difference absolute value between adjacent pixels of the reference pixel is compared with a predetermined threshold th. Although an example in which a predetermined value is set by a function and the sum of all reference pixels is set to BFP has been described, it is only necessary to obtain a small change in the pixel value of the reference pixel. The difference absolute values of the pixel values between adjacent pixels of each reference pixel may be rearranged in ascending order, and may be obtained using the lower difference absolute value.

図52は、各参照画素の隣接画素間の画素値の差分絶対値を昇順に並べ替えて、下位の差分絶対値を用いて参照画素の平坦部の存在を表現するBFPを求めるようにしたBFP抽出部932の構成例を示している。   FIG. 52 shows a BFP in which absolute values of pixel values between adjacent pixels of each reference pixel are rearranged in ascending order, and a BFP expressing the presence of a flat portion of the reference pixel is obtained using the lower absolute difference value. A configuration example of the extraction unit 932 is shown.

図52のBFP抽出部932は、バッファ1121、参照画素抽出部1122、隣接画素間差分絶対値計算部1123、並び替え部1124、位抽出部1125、およびBFP計算部1126から構成されている。 BFP extracting portion 932 of FIG. 52, the buffer 1121, the reference-pixel extracting portion 1122, an adjacent-pixel difference absolute value calculating unit 1123, rearrangement unit 1124, and a lower position extracting unit 1125, and the BFP calculator 1126.

バッファ1121は、基本的に図32におけるバッファ1031と同様のものであり、出力位相変換部112より供給されるHD画像を一時的に記憶し、順次必要に応じて参照画素抽出部1122に供給する。参照画素抽出部1122は、基本的に図32における参照画素抽出部103と同様のものであり、順次、注目画素毎に参照画素を読み出して重み隣接画素間差分絶対値計算部1123に供給する。 The buffer 1121 is basically the same as the buffer 1031 in FIG. 32, temporarily stores the HD image supplied from the output phase converter 112, and sequentially supplies it to the reference pixel extractor 1122 as necessary. . Reference-pixel extracting portion 1122 is of basically the same as the reference-pixel extracting unit 1032 in FIG. 32, are sequentially supplied to the weighting adjacent-pixel difference absolute value calculator 1123 reads out reference pixels for each subject pixel .

隣接画素間差分絶対値計算部1123は、参照画素抽出部1122より供給されてくる参照画素のうち、上下左右方向に隣接する画素間の画素値の差分絶対値を求めて並び替え部1124に供給する。並び替え部1124は、隣接画素間差分絶対値計算部1123より供給されてくる参照画素の隣接画素間の差分絶対値を昇順に並び替えて下位抽出部1125に供給する。   The inter-adjacent pixel difference absolute value calculation unit 1123 obtains the absolute difference value of the pixel value between pixels adjacent in the vertical and horizontal directions among the reference pixels supplied from the reference pixel extraction unit 1122 and supplies the difference absolute value to the rearrangement unit 1124. To do. The rearrangement unit 1124 rearranges the absolute difference values between adjacent pixels of the reference pixel supplied from the adjacent pixel difference absolute value calculation unit 1123 in ascending order and supplies the rearrangement unit 1124 to the lower extraction unit 1125.

下位抽出部1125は、並び替え部1124より供給されてきた隣接画素間差分絶対値の昇順に並び替えられた情報に基づいて、下位n1番目乃至n2番目の順位の値を抽出して、BFP計算部1126に供給する。BFP計算部1126は、下位抽出部1125より供給されてきた、隣接画素間差分絶対値の昇順に並び替えられた情報に基づいて、下位n1番目乃至n2番目の順位の値の平均値をBFPとして求め、特徴量合成部933に供給する。   The lower order extraction unit 1125 extracts the values of the lower order n1 to n2 based on the information rearranged in ascending order of the difference value between adjacent pixels supplied from the rearrangement unit 1124, and performs BFP calculation. Supplied to the unit 1126. Based on the information supplied from the lower extraction unit 1125 and rearranged in the ascending order of the difference value between adjacent pixels, the BFP calculation unit 1126 uses the average value of the values of the lower n1 to n2 ranks as the BFP. It is obtained and supplied to the feature value composition unit 933.

ここで、図53のフローチャートを参照して、図52のBFP抽出部932によるBFP抽出処理について説明する。   Here, the BFP extraction processing by the BFP extraction unit 932 in FIG. 52 will be described with reference to the flowchart in FIG.

ステップS1031において、バッファ1121は、出力位相変換部112より供給されるHD画像を一時的に記憶する。   In step S1031, the buffer 1121 temporarily stores the HD image supplied from the output phase converter 112.

ステップS1032において、参照画素抽出部1122は、バッファ1121より、未処理の画素を注目画素に設定すると供に、ステップS1033において、注目画素に対応して設定されている参照画素を読み出して隣接画素間差分絶対値計算部1123に供給する。   In step S1032, the reference pixel extraction unit 1122 sets an unprocessed pixel as a target pixel from the buffer 1121, and reads out a reference pixel set corresponding to the target pixel in step S1033 so that the pixel between adjacent pixels is read. This is supplied to the difference absolute value calculation unit 1123.

ステップS1034において、隣接画素間差分絶対値計算部1123は、未処理の参照画素の隣接画素間(注目画素を含む)の画素値の差分絶対値を計算し、並び替え部1124に供給する。   In step S <b> 1034, the inter-adjacent-pixel difference absolute value calculation unit 1123 calculates an absolute difference value of pixel values between adjacent pixels of the unprocessed reference pixel (including the target pixel), and supplies the calculated difference to the rearrangement unit 1124.

ステップS1035において、並び替え部1124は、隣接画素間差分絶対値計算部1123より供給されてきた隣接画素間差分絶対値を蓄積する。   In step S <b> 1035, the rearrangement unit 1124 accumulates the adjacent pixel difference absolute value supplied from the adjacent pixel difference absolute value calculation unit 1123.

ステップS1036において、隣接画素間差分絶対値計算部1123は、参照画素における全ての隣接画素間の差分絶対値を求めたか否かを判定し、例えば、全ての隣接画素間の差分絶対値が求められていないと判定された場合、処理は、ステップS1034に戻る。   In step S1036, the adjacent pixel difference absolute value calculation unit 1123 determines whether or not the difference absolute value between all adjacent pixels in the reference pixel has been obtained. For example, the difference absolute value between all adjacent pixels is obtained. If it is determined that it is not, the process returns to step S1034.

すなわち、全ての隣接画素間の差分絶対値が求められるまで、ステップS1034乃至S1036の処理が繰り返される。そして、ステップS1034において、全ての隣接画素間の差分絶対値が求められて、並び替え部1124に全て蓄積されていると判定された場合、ステップS1037において、並び替え部1124は、隣接画素間差分絶対値の計算結果を昇順に並び替えて下位抽出部1125に供給する。すなわち、並び替え部1124は、例えば、図54で示されるように、隣接画素間差分絶対値を昇順に並び替えて、下位抽出部1125に供給する。尚、図54においては、横軸が順位を示しており、縦軸が隣接画素間差分絶対値を示している。   That is, the processes in steps S1034 to S1036 are repeated until the absolute difference value between all adjacent pixels is obtained. In step S1034, if the absolute difference values between all adjacent pixels are obtained and it is determined that all are stored in the rearrangement unit 1124, in step S1037, the rearrangement unit 1124 determines the difference between adjacent pixels. The absolute value calculation results are rearranged in ascending order and supplied to the lower extraction unit 1125. That is, the rearrangement unit 1124 rearranges the adjacent pixel difference absolute values in ascending order as shown in FIG. In FIG. 54, the horizontal axis indicates the ranking, and the vertical axis indicates the adjacent pixel difference absolute value.

ステップS1038において、下位抽出部1125は、並び替え部1124より供給されてきた昇順に並び替えられている隣接画素間差分絶対値より下位n1番目乃至n2番目の順位の隣接画素間差分絶対値を抽出して、BFP計算部1126に供給する。すなわち、例えば、図54の場合、図中の下位n1番目乃至n2番目の順位の隣接画素間差分絶対値から抽出される。   In step S1038, the lower-order extraction unit 1125 extracts the difference absolute values between adjacent pixels ranked n1 to n2 from the lower-order adjacent pixel difference absolute values rearranged in ascending order supplied from the rearrangement unit 1124. Then, the data is supplied to the BFP calculation unit 1126. That is, for example, in the case of FIG. 54, it is extracted from the absolute value of the difference between adjacent pixels in the lower order n1 to n2 in the figure.

ステップS1039において、BFP計算部1126は、下位n1番目乃至n2番目の順位の隣接画素間差分絶対値の平均値をBFPとして計算し、特徴量合成部933に出力する。   In step S <b> 1039, the BFP calculation unit 1126 calculates the average value of the difference values between adjacent pixels of the lowest n1 to n2 ranks as BFP, and outputs it to the feature amount synthesis unit 933.

ステップS1040において、参照画素抽出部1122は、バッファ1121に記憶されている画像における全ての画素について、BFPが求められたか否かを判定する。ステップS1040において、画像の全ての画素についてBFPが求められていない場合、処理は、ステップS1032に戻る。すなわち、バッファ1121に記憶された画像の全ての画素についてBFPが求められるまで、ステップS1032乃至S1040の処理が繰り返される。そして、ステップS1040において、画像内の全ての画素についてBFPが求められたと判定された場合、BFP抽出処理が終了する。   In step S1040, the reference pixel extraction unit 1122 determines whether or not BFP has been obtained for all the pixels in the image stored in the buffer 1121. In step S1040, when BFP is not calculated | required about all the pixels of an image, a process returns to step S1032. That is, the processes in steps S1032 to S1040 are repeated until BFP is obtained for all the pixels of the image stored in the buffer 1121. If it is determined in step S1040 that the BFP has been obtained for all the pixels in the image, the BFP extraction process ends.

以上の処理により、画像における広域の平坦部を表現する特徴量であるBFPが求められる。すなわち、BFPは、隣接画素間差分絶対値の下位n1番目乃至n2番目の順位の平均値であり、参照画素の隣接画素間差分絶対値のうち比較的小さな値が、広域の平坦部を表現する特徴量として抽出される。   Through the above processing, a BFP that is a feature amount representing a wide flat portion in an image is obtained. That is, BFP is an average value in the order of the lowest n1 to n2 of the absolute difference value between adjacent pixels, and a relatively small value among the absolute difference values between adjacent pixels of the reference pixel represents a wide flat portion. It is extracted as a feature value.

尚、以上においては、下位n1番目乃至n2番目の順位の平均値をBFPとする例について説明してきたが、参照画素における隣接画素間差分絶対値を用いた広域の特徴量が求められればよいので、求め方は以上の方法以外でもよく、例えば、平均値ではなく各隣接画素間差分絶対値に対して重みを付加して積和を用いるようにしてもよいし、さらには、図54で示されるように、下位n1番目乃至n2番目の順位の前後のn番目の順位の値をそのままBFPとするようにしてもよい。   In the above description, an example in which the average value of the lowest n1 to n2 ranks is set to BFP has been described. However, since a wide-area feature amount using the absolute value of the difference between adjacent pixels in the reference pixel may be obtained. The method of obtaining may be other than the above method. For example, a product sum may be used by adding a weight to each absolute difference value between adjacent pixels instead of the average value, and further, as shown in FIG. As described above, the values of the nth ranks before and after the lowest n1th to n2nd ranks may be used as BFP as they are.

また、以上においては、PNDPは、図43のフローチャートを参照して説明したPNDP抽出処理のように、参照画素に含まれる長タップの画素値ダイナミックレンジより求められる例について説明してきたが、参照画素の画素値ダイナミックレンジを用いるようにしてもよい。   In the above description, the PNDP has been described with respect to the example obtained from the long tap pixel value dynamic range included in the reference pixel as in the PNDP extraction process described with reference to the flowchart of FIG. The pixel value dynamic range may be used.

図55は、参照画素の画素値ダイナミックレンジを用いるようにしてPNDPを求めるようにしたPNDP抽出部971の構成例を示している。   FIG. 55 shows a configuration example of the PNDP extraction unit 971 in which the PNDP is obtained by using the pixel value dynamic range of the reference pixel.

図55のPNDP抽出部971は、バッファ1141、参照画素抽出部1142、画素値抽出部1143、画素値蓄積部1143、最大値最小値抽出部1144、およびPNDP計算部1145から構成されている。   55 includes a buffer 1141, a reference pixel extraction unit 1142, a pixel value extraction unit 1143, a pixel value storage unit 1143, a maximum / minimum value extraction unit 1144, and a PNDP calculation unit 1145.

バッファ1141は、出力位相変換部112より供給されるHD画像を一時的に記憶し、順次必要に応じて参照画素抽出部1142に供給する。参照画素抽出部1142は、順次、注目画素毎に参照画素を読み出して、画素値を画素値蓄積部1143に蓄積させる。   The buffer 1141 temporarily stores the HD image supplied from the output phase conversion unit 112 and sequentially supplies the HD image to the reference pixel extraction unit 1142 as necessary. The reference pixel extraction unit 1142 sequentially reads out the reference pixels for each pixel of interest and causes the pixel value storage unit 1143 to store the pixel values.

最大値最小値抽出部1144は、画素値蓄積部1143に蓄積された参照画素の全ての画素の画素値のうち、最大値と最小値を抽出してPNDP計算部1145に供給する。   The maximum value / minimum value extraction unit 1144 extracts the maximum value and the minimum value from the pixel values of all the reference pixels accumulated in the pixel value accumulation unit 1143 and supplies the extracted value to the PNDP calculation unit 1145.

PNDP計算部1145は、最大値最小値抽出部1144より供給されてくる全ての参照画素の画素値の最大値から最小値を引いた値より参照画素の画素値ダイナミックレンジを求め、注目画素のPNDPとして出力する。   The PNDP calculation unit 1145 obtains the pixel value dynamic range of the reference pixel from the value obtained by subtracting the minimum value from the maximum value of the pixel values of all reference pixels supplied from the maximum value / minimum value extraction unit 1144, and calculates the PNDP of the target pixel. Output as.

次に、図56のフローチャートを参照して、図55のPNDP抽出部971によるPNDP抽出処理について説明する。   Next, the PNDP extraction process by the PNDP extraction unit 971 in FIG. 55 will be described with reference to the flowchart in FIG.

ステップS1051において、バッファ1141は、出力位相変換部112より供給されるHD画像を一時的に記憶する。   In step S1051, the buffer 1141 temporarily stores the HD image supplied from the output phase converter 112.

ステップS1052において、参照画素抽出部1142は、バッファ1141より、未処理の画素を注目画素に設定すると供に、ステップS1053において、注目画素に対応して設定されている参照画素を読み出してその画素値を、ステップS1054において、画素値蓄積部1143に蓄積させる。   In step S1052, the reference pixel extraction unit 1142 sets an unprocessed pixel as a target pixel from the buffer 1141, and reads out a reference pixel set corresponding to the target pixel in step S1053 and outputs the pixel value. Is stored in the pixel value storage unit 1143 in step S1054.

ステップS1055において、参照画素抽出部1142は、未処理の参照画素が存在するか否か、すなわち、全ての参照画素の画素値が画素値蓄積部1143に蓄積されたか否かを判定し、未処理の参照画素が存在する場合、その処理は、ステップS1054に戻る。すなわち、全ての参照画素について、ステップS1054,S1055の処理が繰り返される。   In step S1055, the reference pixel extraction unit 1142 determines whether or not there is an unprocessed reference pixel, that is, whether or not the pixel values of all reference pixels are accumulated in the pixel value accumulation unit 1143, and the unprocessed reference pixel is determined. If there is a reference pixel, the process returns to step S1054. That is, the processing in steps S1054 and S1055 is repeated for all reference pixels.

そして、ステップS1055において、未処理の参照画素がない、すなわち、全ての参照画素について画素値が抽出され、画素値蓄積部1143に全て蓄積されていると判定された場合、ステップS1056において、参照画素抽出部1142は、全ての参照画素について処理が終了したことを最大値最小値抽出部1144に通知する。これを受けて、最大値最小値抽出部1144は、画素値蓄積部1054に蓄積されている画素値のうち、最大値となる値と最小値となる値とを抽出してPNDP計算部1145に供給する。   If it is determined in step S1055 that there is no unprocessed reference pixel, that is, pixel values are extracted for all reference pixels and all are stored in the pixel value storage unit 1143, in step S1056, the reference pixels The extraction unit 1142 notifies the maximum value / minimum value extraction unit 1144 that the processing has been completed for all the reference pixels. In response to this, the maximum value / minimum value extraction unit 1144 extracts the maximum value and the minimum value from the pixel values stored in the pixel value storage unit 1054, and outputs the extracted value to the PNDP calculation unit 1145. Supply.

ステップS1057において、PNDP計算部1145は、最大値最小値抽出部1144より供給されてきた画素値の最大値から最小値を引いた値である参照画素の画素値ダイナミックレンジを、注目画素に対するPNDPとして計算し、特徴量合成部933に供給する。   In step S1057, the PNDP calculation unit 1145 sets the pixel value dynamic range of the reference pixel, which is a value obtained by subtracting the minimum value from the maximum value of the pixel value supplied from the maximum value / minimum value extraction unit 1144, as the PNDP for the target pixel. Calculate and supply to the feature value composition unit 933.

ステップS1058において、参照画素抽出部1142は、バッファ1141に記憶されている画像における全ての画素について、PNDPが求められたか否かを判定する。ステップS1058において、画像の全ての画素についてPNDPが求められていない場合、処理は、ステップS1052に戻る。すなわち、バッファ1141に記憶された画像の全ての画素についてPNDPが求められるまで、ステップS1052乃至S1058の処理が繰り返される。そして、ステップS1058において、画像内の全ての画素についてPNDPが求められたと判定された場合、PNDP抽出処理が終了する。   In step S <b> 1058, the reference pixel extraction unit 1142 determines whether PNDP has been obtained for all pixels in the image stored in the buffer 1141. In step S1058, when the PNDP has not been obtained for all the pixels of the image, the process returns to step S1052. That is, the processes in steps S1052 to S1058 are repeated until the PNDP is obtained for all the pixels of the image stored in the buffer 1141. If it is determined in step S1058 that PNDP has been obtained for all pixels in the image, the PNDP extraction process ends.

以上の処理により、画像における狭域のエッジを表現する特徴量であるPNDPが求められる。すなわち、PNDPは、注目画素に対する参照画素内の画素値ダイナミックレンジを表現することで、注目画素が属する狭域領域にエッジが存在したような場合、大きな値となり、逆にエッジが存在しない場合、小さな値を取ることになる。   Through the above processing, PNDP, which is a feature amount representing a narrow edge in an image, is obtained. In other words, the PNDP expresses the pixel value dynamic range in the reference pixel with respect to the target pixel, and when the edge exists in the narrow area to which the target pixel belongs, it becomes a large value, and conversely, when the edge does not exist, It will take a small value.

さらに、以上においては、図45のフローチャートを参照して説明したSNDP抽出処理のように、短タップの画素値ダイナミックレンジのうち最小の値をSNDPとして抽出する例について説明してきたが、狭域の平坦部の傾向を特徴量に利用できればよいので、図32のBFP抽出部932と同様に、参照画素と注目画素との差分絶対値を関数で変換し、参照画素から注目画素までの経路に応じた重みを付して、閾値と比較し、比較結果を加算してSNDPとして抽出するようにしてもよい。   Furthermore, in the above description, an example in which the minimum value of the short-tap pixel value dynamic range is extracted as the SNDP as in the SNDP extraction process described with reference to the flowchart of FIG. 45 has been described. As long as the tendency of the flat part can be used as the feature amount, the difference absolute value between the reference pixel and the target pixel is converted by a function in accordance with the path from the reference pixel to the target pixel, as in the BFP extraction unit 932 in FIG. It is also possible to add a weight, compare with a threshold value, add the comparison results, and extract as SNDP.

図57は、参照画素と注目画素との差分絶対値を関数で変換し、参照画素から注目画素までの経路に応じた重みを付して、閾値と比較し、比較結果を加算してSNDPとして抽出するようにしたSNDP抽出部972の構成例を示している。   In FIG. 57, the absolute value of the difference between the reference pixel and the target pixel is converted by a function, a weight corresponding to the path from the reference pixel to the target pixel is added, compared with a threshold value, and the comparison result is added as SNDP. The example of a structure of the SNDP extraction part 972 made to extract is shown.

図57のSNDP抽出部972は、バッファ1161、参照画素抽出部1162画素間差分計算部1163、関数変換部1164、重み計算部1165、乗算部1166、蓄積部1167、およびSNDP計算部1168から構成されている。 57 includes a buffer 1161, a reference pixel extraction unit 1162 , an inter-pixel difference calculation unit 1163, a function conversion unit 1164, a weight calculation unit 1165, a multiplication unit 1166, an accumulation unit 1167, and an SNDP calculation unit 1168. Has been.

バッファ1161は、出力位相変換部112より供給されるHD画像を一時的に記憶し、順次必要に応じて参照画素抽出部1162に供給する。参照画素抽出部1162は、順次、注目画素毎に参照画素を読み出して画素間差分計算部1163および重み計算部1165に供給する。   The buffer 1161 temporarily stores the HD image supplied from the output phase conversion unit 112 and sequentially supplies the HD image to the reference pixel extraction unit 1162 as necessary. The reference pixel extraction unit 1162 sequentially reads out the reference pixels for each target pixel and supplies them to the inter-pixel difference calculation unit 1163 and the weight calculation unit 1165.

画素間差分計算部1163は、参照画素抽出部1162より供給されてきた全ての参照画素について注目画素との差分絶対値を関数変換部1164に供給する。関数変換部1164は、画素間差分計算部1163より供給されてくる画素間差分絶対値を、設定した変換関数で変換し乗算部1166に供給する。   The inter-pixel difference calculation unit 1163 supplies, to the function conversion unit 1164, the absolute difference values of all the reference pixels supplied from the reference pixel extraction unit 1162 and the target pixel. The function conversion unit 1164 converts the inter-pixel difference absolute value supplied from the inter-pixel difference calculation unit 1163 with the set conversion function and supplies the converted difference value to the multiplication unit 1166.

重み計算部1165は、補間画素生成部1165aおよび差分計算部1165bを備えており、参照画素抽出部1162より供給されてくる参照画素の位置毎に、注目画素からの距離に応じた重みを計算し乗算部1166に供給する。より詳細には、重み計算部1165は、差分計算部1165bを制御して、注目画素と参照画素との経路上に存在する画素間の差分絶対値を積算し、積算結果に基づいて、重みwsを求める。この際、重み計算部1165は、補間画素生成部1165a制御して、注目画素と参照画素との経路上に必要に応じて補間により画素を生成する。 The weight calculation unit 1165 includes an interpolation pixel generation unit 1165a and a difference calculation unit 1165b, and calculates a weight corresponding to the distance from the target pixel for each reference pixel position supplied from the reference pixel extraction unit 1162. This is supplied to the multiplier 1166. More specifically, the weight calculation unit 1165 controls the difference calculation unit 1165b to integrate the absolute difference value between pixels existing on the path between the target pixel and the reference pixel, and based on the integration result, the weight w Find s . At this time, the weight calculation unit 1165 controls the interpolation pixel generation unit 1165a to generate a pixel by interpolation on the path between the target pixel and the reference pixel as necessary.

乗算部1166は、重み計算部1165より供給されてくる重みwsと、関数変換部1164より供給されてくる関数変換された画素間差分絶対値とを乗算し、蓄積部1167に蓄積させる。 The multiplying unit 1166 multiplies the weight w s supplied from the weight calculating unit 1165 and the function-converted inter-pixel difference absolute value supplied from the function converting unit 1164, and causes the accumulating unit 1167 to accumulate the result.

SNDP計算部1168は、蓄積部1167に蓄積されている乗算結果を累積加算し、注目画素のSNDPとして出力する。   The SNDP calculation unit 1168 cumulatively adds the multiplication results stored in the storage unit 1167 and outputs the result as the SNDP of the target pixel.

ここで、図58のフローチャートを参照して、図57のSNDP抽出部972によるSNDP抽出処理について説明する。   Here, the SNDP extraction processing by the SNDP extraction unit 972 in FIG. 57 will be described with reference to the flowchart in FIG.

ステップS1081において、バッファ1161は、出力位相変換部112より供給されるHD画像を一時的に記憶する。   In step S1081, the buffer 1161 temporarily stores the HD image supplied from the output phase converter 112.

ステップS1082において、参照画素抽出部1162は、バッファ1161より、未処理の画素を注目画素に設定すると供に、ステップS1083において、注目画素に対応して設定されている参照画素を読み出して画素間差分計算部1163および重み計算部1165に供給する。   In step S1082, the reference pixel extraction unit 1162 sets an unprocessed pixel as a target pixel from the buffer 1161, and reads out a reference pixel set corresponding to the target pixel in step S1083 to obtain an inter-pixel difference. The data is supplied to the calculation unit 1163 and the weight calculation unit 1165.

ステップS1084において、画素間差分計算部1163は、未処理の参照画素、すなわち、注目画素の画素値との差分絶対値を計算していない参照画素について、注目画素との画素値の画素間差分絶対値gを計算し、関数変換部1164に供給する。   In step S <b> 1084, the inter-pixel difference calculation unit 1163 calculates the absolute difference between the pixel values of the pixel of interest with respect to the pixel of interest for an unprocessed reference pixel, i.e., a reference pixel for which the absolute value of the difference of the pixel of interest is not calculated. The value g is calculated and supplied to the function converter 1164.

ステップS1085において、関数変換部1164は、予め設定される関数Fに基づいて、画素間差分計算部1163より供給されてきた画素間差分絶対値gを変換して、乗算部1166に供給する。より詳細には、関数変換部1164は、例えば、図59の実線で示される関数F(g)に基づいて、値を変換し、変換した値を乗算部1166に出力する。図59の実線で示される関数F(g)においては、画素間差分絶対値gは、関数Fにより、所定の値より小さいときより大きく、所定の値より大きいときより小さく変換される。すなわち、所定の値を境界として値が変化する。   In step S <b> 1085, the function conversion unit 1164 converts the inter-pixel difference absolute value g supplied from the inter-pixel difference calculation unit 1163 based on a preset function F, and supplies the converted inter-pixel difference absolute value g to the multiplication unit 1166. More specifically, for example, the function conversion unit 1164 converts the value based on the function F (g) indicated by the solid line in FIG. 59 and outputs the converted value to the multiplication unit 1166. In the function F (g) indicated by the solid line in FIG. 59, the inter-pixel difference absolute value g is converted by the function F to be larger than when it is smaller than a predetermined value and smaller than when it is larger than a predetermined value. That is, the value changes with a predetermined value as a boundary.

ステップS1086において、重み計算部1165は、注目画素と参照画素との間に補間生成すべき画素が存在するか否かを判定する。より詳細には、例えば、図60で示されるように、注目画素P(0,0)と図中の二重丸印で示される参照画素P(2,4)とであった場合、注目画素P(0,0)と参照画素P(2,4)との経路上には、補間画素P(0.5,1),P(1.5,3)が必要となるため、補間の必要な画素が存在すると判定されることになる。この場合、処理は、ステップS1087に進む。   In step S1086, the weight calculation unit 1165 determines whether there is a pixel to be interpolated between the target pixel and the reference pixel. More specifically, for example, as shown in FIG. 60, when the target pixel P (0, 0) and the reference pixel P (2, 4) indicated by a double circle in the figure, the target pixel Interpolation pixels P (0.5,1) and P (1.5,3) are required on the path between P (0,0) and reference pixel P (2,4), so interpolation is necessary. It is determined that a correct pixel exists. In this case, the process proceeds to step S1087.

ステップS1087において、重み計算部1165は、補間画素生成部1165aを制御し、補間画素を生成させる。例えば,図60で注目画素P(0,0)と参照画素P(2,4)との場合、補間画素生成部1165aは、補間画素P(0.5,1),P(1.5,3)の画素値を、例えば、それぞれ(P(0,1)+P(1,1))/2,(P(1,3)+P(1,1))/2などのように平均値として求める。尚、補間の方法はこれに限らず、それ以外の方法でもよく、例えば、重みを付加して総和を求めるようにしてもよい。 In step S1087, the weight calculation unit 1165 controls the interpolation pixel generation unit 1165a to generate an interpolation pixel. For example, in the case of the target pixel P (0, 0) and the reference pixel P (2, 4) in FIG. 60, the interpolation pixel generation unit 1165a performs interpolation pixel P (0.5, 1), P (1.5, For example, the pixel values of 3) are average values such as (P (0,1) + P (1,1)) / 2, (P (1,3) + P (1,1)) / 2, respectively. Ask. The interpolation method is not limited to this, and other methods may be used. For example, a sum may be obtained by adding weights.

ステップS1086において、例えば、図60において注目画素P(0,0)と図中のバツ印で示される参照画素P(3,3)とであった場合、注目画素P(0,0)と参照画素P(3,3)との経路上には、補間画素P(1,1),P(2,2)が存在するため、補間の必要な画素がないため、補間が必要な画素がないと判定されることになる。この場合、処理は、ステップS1087の処理はスキップされる。   In step S1086, for example, when the pixel of interest P (0, 0) in FIG. 60 and the reference pixel P (3, 3) indicated by the cross in the drawing are referred to, the pixel of interest P (0, 0) is referred to. Since there are interpolated pixels P (1,1) and P (2,2) on the path to the pixel P (3,3), there is no pixel that needs to be interpolated, so there is no pixel that needs to be interpolated. It will be determined. In this case, the process of step S1087 is skipped.

ステップS1088において、重み計算部1165は、差分計算部1165bを制御して、注目画素と、参照画素との経路上の画素間差分絶対値の総和Dを計算し、総和Dより重みwg=1−D/H(Hは定数)を求め、乗算部1166に供給する。すなわち、図60における注目画素P(0,0)と参照画素P(2,4)との場合、差分計算部1165bは、|P(0,0)−P(0.5,1)|,|P(0.5,1)−P(1,2)|,|P(1,2)−P(1.5,3)|,|P(1.5,3)−P(2,4)|の総和Dを計算する。さらに、重み計算部1165は、重みwg=1−D/Hを計算し、乗算部1166に供給する。尚、重みwgは、PNDP等のパラメータに対応付けた値としてもよく、例えば、重みwg=1−D/PNDP、または重みwg=1−D/(√PNDP)とするようにしてもよい。 In step S1088, the weight calculation unit 1165 controls the difference calculation unit 1165b to calculate the sum D of absolute differences between pixels on the path between the target pixel and the reference pixel, and the weight w g = 1 from the sum D. -D / H (H is a constant) is obtained and supplied to the multiplier 1166. That is, in the case of the target pixel P (0,0) and the reference pixel P (2,4) in FIG. 60, the difference calculation unit 1165b calculates | P (0,0) −P (0.5,1) | | P (0.5,1) -P (1,2) |, | P (1,2) -P (1.5,3) |, | P (1.5,3) -P (2, 4) The sum D of | is calculated. Further, the weight calculator 1165 calculates the weight w g = 1−D / H and supplies it to the multiplier 1166. The weight w g may be a value associated with a parameter such as PNDP. For example, the weight w g = 1−D / PNDP or the weight w g = 1−D / (√PNDP). Also good.

ステップS1089において、乗算部1166は、関数変換部1164より供給されてきた画素間差分絶対値gと、重み計算部1165より供給されてきた重みwgとを乗算し、ステップS1090において、蓄積部1167に蓄積させる。 In step S1089, the multiplication unit 1166 multiplies the inter-pixel difference absolute value g supplied from the function conversion unit 1164 and the weight w g supplied from the weight calculation unit 1165, and in step S1090, the accumulation unit 1167. To accumulate.

ステップS1091において、画素間差分計算部1163は、未処理の参照画素が存在するか否かを判定し、存在する場合、その処理は、ステップS1084に戻る。すなわち、全ての参照画素と注目画素との画素間差分絶対値が、ステップS1084乃至S1091の処理が繰り返されることにより求められる。   In step S1091, the inter-pixel difference calculation unit 1163 determines whether or not an unprocessed reference pixel exists. If there is, the process returns to step S1084. That is, the absolute value of the inter-pixel difference between all the reference pixels and the target pixel is obtained by repeating the processes in steps S1084 to S1091.

そして、ステップS1091において、未処理の参照画素がないと判定された場合、ステップS1092において、画素間差分計算部1163は、全ての参照画素について処理が終了したことをSNDP計算部1168に通知する。SNDP計算部1168は、蓄積部1167に蓄積されている乗算結果の総和を求めてSNDPとして出力する。   If it is determined in step S1091 that there are no unprocessed reference pixels, in step S1092, the inter-pixel difference calculation unit 1163 notifies the SNDP calculation unit 1168 that the processing has been completed for all reference pixels. The SNDP calculation unit 1168 calculates the sum of the multiplication results stored in the storage unit 1167 and outputs it as SNDP.

ステップS1093において、参照画素抽出部1162は、バッファ1161に記憶されている画像における全ての画素について、SNDPが求められたか否かを判定する。ステップS1093において、画像の全ての画素についてSNDPが求められていない場合、処理は、ステップS1082に戻る。すなわち、バッファ1161に記憶された画像の全ての画素についてSNDPが求められるまで、ステップS1082乃至S1093の処理が繰り返される。そして、ステップS1093において、画像内の全ての画素についてSNDPが求められたと判定された場合、SNDP抽出処理が終了する。   In step S1093, the reference pixel extraction unit 1162 determines whether SNDP has been obtained for all the pixels in the image stored in the buffer 1161. In step S1093, when the SNDP has not been obtained for all the pixels of the image, the process returns to step S1082. That is, the processes in steps S1082 to S1093 are repeated until SNDPs are obtained for all the pixels of the image stored in the buffer 1161. If it is determined in step S1093 that the SNDP has been obtained for all the pixels in the image, the SNDP extraction process ends.

以上の処理により、画像における狭域の平坦部を表現する特徴量であるSNDPが求められる。すなわち、SNDPは、注目画素の属する狭域が平坦である場合、値が大きくなり、逆に、エッジなどが多く存在する、平坦ではないような場合、値が小さくなる。   Through the above processing, SNDP, which is a feature amount representing a narrow flat portion in an image, is obtained. That is, the SNDP has a large value when the narrow area to which the pixel of interest belongs is flat, and conversely has a small value when there are many edges and the like and is not flat.

以上において、変換関数Fは、例えば、図59で示されるようなものでもよいことは、上述した通りであるが、PNDPと対応付けるようにしてもよく、例えば、画素間差分絶対値gが、閾値th11=PNDP/b11以上の場合、F(g)=AA(AAは定数)とし、画素間差分絶対値gが、閾値th2=PNDP/b12以下の場合、F(g)=BB(BBは定数)とし、さらに、画素間差分絶対値gが、閾値th12=PNDP/b12より大きく閾値th11=BEP/b11より小さい場合、F(g)=(BB−AA)・(g−th11)/(th12−th11)+AAとするようにしてもよい。また、閾値th11,th12は、PNDPの傾向が使えればよいので、例えば、閾値th11=(PNDP)2/b11,th12=(PNDP)2/b12、または、閾値th11=(√PNDP)/b11,th12=(√PNDP)/b12などを利用するようにしても良い。 In the above, the conversion function F may be, for example, as shown in FIG. 59 as described above. However, the conversion function F may be associated with the PNDP. When th11 = PNDP / b11 or more, F (g) = AA (AA is a constant), and when the inter-pixel difference absolute value g is equal to or less than the threshold th2 = PNDP / b12, F (g) = BB (BB is a constant) Further, when the absolute difference value g between pixels is larger than the threshold th12 = PNDP / b12 and smaller than the threshold th11 = BEP / b11, F (g) = (BB−AA) · (g−th11) / (th12 -Th11) + AA. The thresholds th11 and th12 only need to use the PNDP tendency. For example, the threshold th11 = (PNDP) 2 / b11, th12 = (PNDP) 2 / b12, or the threshold th11 = (√PNDP) / b11, th12 = (√PNDP) / b12 may be used.

以上においては、図1で示されるように、自然画予測部131および人工画予測部132が、それぞれ予測処理を行った後、それらを自然画人工画判定部114により求められる人工画度Artに基づいて合成する例について説明してきたが、予め自然画像と人工画像とを分離して、それぞれ自然画予測部131および人工画予測部132に供給するようにしてもよい。   In the above, as shown in FIG. 1, after the natural image prediction unit 131 and the artificial image prediction unit 132 perform the respective prediction processes, they are converted into the artificial image Art obtained by the natural image artificial image determination unit 114. Although an example of combining based on the above has been described, a natural image and an artificial image may be separated in advance and supplied to the natural image prediction unit 131 and the artificial image prediction unit 132, respectively.

図61は、予め自然画像と人工画像とを分離して、それぞれ自然画予測部131および人工画予測部132に供給するようにした画像変換装置101の構成例を示している。尚、図1における画像変換装置101と同様の構成については、同一の符号を付しており、その説明は適宜省略するものとする。   FIG. 61 illustrates a configuration example of the image conversion apparatus 101 in which a natural image and an artificial image are separated in advance and supplied to the natural image prediction unit 131 and the artificial image prediction unit 132, respectively. Note that the same components as those of the image conversion apparatus 101 in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

図61の画像変換装置101において、図1の画像変換装置101と異なるのは、出力位相変換部112の後段に分離部1201が設けられており、自然画予測部131および人工画予測部132の後段に加算部1202が設けられている点が異なる。   The image conversion apparatus 101 in FIG. 61 differs from the image conversion apparatus 101 in FIG. 1 in that a separation unit 1201 is provided at the subsequent stage of the output phase conversion unit 112, and the natural image prediction unit 131 and the artificial image prediction unit 132 The difference is that an adder 1202 is provided in the subsequent stage.

分離部1201は、自然画人工画判定部114からの人工画度Artに基づいて、出力位相変換部112より供給されるHD画像を画素単位で分離し、自然画予測部131および人工画予測部132に供給する。   The separation unit 1201 separates the HD image supplied from the output phase conversion unit 112 on a pixel-by-pixel basis based on the artificial image degree Art from the natural-image / artificial-image determination unit 114, and the natural-image prediction unit 131 and the artificial-image prediction unit 132.

加算部1202は、自然画予測部131および人工画予測部132より供給されてくる画素を加算することにより、すなわち、分離されて、高画質化された画素をそれぞれ分離前の位置に再配置することで画像にする。   The adding unit 1202 adds the pixels supplied from the natural image prediction unit 131 and the artificial image prediction unit 132, that is, rearranges the separated and high-quality pixels to the positions before the separation. Make an image.

次に、図62のフローチャートを参照して、図61の画像変換装置101による画像変換処理について説明する。尚、図62のフローチャートにおけるステップS1111乃至S1114,S1116,S1117の処理については、図2のフローチャートにおけるステップS1乃至S3,S6,S4,S5の処理と同様であるので、その説明は省略する。   Next, image conversion processing by the image conversion apparatus 101 in FIG. 61 will be described with reference to the flowchart in FIG. Note that the processing of steps S1111 to S1114, S1116, and S1117 in the flowchart of FIG. 62 is the same as the processing of steps S1 to S3, S6, S4, and S5 in the flowchart of FIG.

ステップS1115において、分離部1201は、自然画人工画判定部114より供給されてくる人工画度Artに基づいて、出力位相変換部112より供給されるHD画像を画素単位で分離し、自然画予測部131および人工画予測部132にそれぞれ供給する。より詳細には、画素単位で、分離部1201は、人工画度Artが1の場合、その画素を人工画予測部132に供給し、一方、人工画度Artが0の場合、その画素を自然画予測部131に供給する。また、人工画度Artが0より大きく1より小さい場合、人工画度の情報と共にその画素を自然画予測部131および人工画予測部132の両方に供給する。このとき、分離部1201は、分離した画素の情報と併せて、自然画予測処理および人工画予測処理のために、入力画像も自然画予測部131および人工画予測部132に供給する。   In step S1115, the separation unit 1201 separates the HD image supplied from the output phase conversion unit 112 in units of pixels based on the artificial image degree Art supplied from the natural image / artificial image determination unit 114, and performs natural image prediction. To the unit 131 and the artificial image prediction unit 132, respectively. More specifically, in the pixel unit, the separation unit 1201 supplies the pixel to the artificial image prediction unit 132 when the artificial art degree Art is 1, while if the artificial art degree Art is 0, the separation unit 1201 The image is supplied to the image prediction unit 131. Further, when the artificial picture degree Art is larger than 0 and smaller than 1, the pixel is supplied to both the natural picture prediction unit 131 and the artificial picture prediction unit 132 together with information on the artificial picture degree. At this time, the separation unit 1201 also supplies the input image to the natural image prediction unit 131 and the artificial image prediction unit 132 for the natural image prediction process and the artificial image prediction process together with the separated pixel information.

そして、ステップS1116,S1117の処理により、自然画予測処理および人工画予測処理が行われた後、ステップS1118において、加算部1202は、自然画予測部131および人工画予測部132より供給されてくる画素を合わせることにより、高画質化された画像を生成して出力する。この際、分離部1201により分離される際、人工画度Artが0より大きく1より小さいときに、自然画予測部131および人工画予測部132のそれぞれに人工画度Artが付された状態で分離された画素については、人工画像には、人工画度Artを乗じると共に、自然画像には1より人工画度Artを引いた値(1−Art)を乗じた後、加算することで画素を生成する。   After the natural image prediction process and the artificial image prediction process are performed by the processes in steps S1116 and S1117, the addition unit 1202 is supplied from the natural image prediction unit 131 and the artificial image prediction unit 132 in step S1118. By combining the pixels, an image with high image quality is generated and output. At this time, when the image is separated by the separation unit 1201, the artificial image degree Art is added to each of the natural image prediction unit 131 and the artificial image prediction unit 132 when the artificial image degree Art is larger than 0 and smaller than 1. For the separated pixels, the artificial image is multiplied by the artificial art degree Art, and the natural image is multiplied by the value obtained by subtracting the artificial art degree Art from 1 (1−Art), and then the pixel is added. Generate.

以上の処理により、図1の画像変換装置101と同様の効果を得ることが可能となる。また、図61の画像変換装置101においては、人工画度Artにより自然画予測部131および人工画予測部132にそれぞれ供給される画素が振り分けられるので、処理負荷を低減させることが可能となる。   With the above processing, it is possible to obtain the same effect as that of the image conversion apparatus 101 in FIG. In the image conversion apparatus 101 in FIG. 61, the pixels supplied to the natural image prediction unit 131 and the artificial image prediction unit 132 are distributed according to the artificial image degree Art, so that the processing load can be reduced.

なお、以上においては、図42で示されるように、広域人工画境界線L1が広域自然画像境界線L2の上側に存在する例について説明してきたが、この位置関係はBEPおよびBFPとして採用する特徴量によっては逆転することもある。   In the above description, as shown in FIG. 42, the example in which the wide-area artificial image boundary line L1 is present above the wide-area natural image boundary line L2 has been described, but this positional relationship is a feature adopted as BEP and BFP. Depending on the amount, it may be reversed.

すなわち、BEPとして、参照画素の差分ダイナミックレンジ、参照画素を用いた画素値ダイナミックレンジ、または、参照画素の隣接画素間の画素値の差分絶対値を昇順に並べ替えて、上位の差分絶対値を用いる場合であって、BFPとして、参照画素の隣接画素間差分絶対値を所定の閾値thと比較し、閾値thよりも大きな値については、関数により所定の値を設定し、全ての参照画素における総和を用いるようなとき、縦軸にBFP、および横軸にBEPをとると、広域人工画像境界線は、広域自然画像境界線よりも上に位置する。また、BEPとして、参照画素の差分ダイナミックレンジ、参照画素を用いた画素値ダイナミックレンジ、または、参照画素の隣接画素間の画素値の差分絶対値を昇順に並べ替えて、上位の差分絶対値を用いる場合であって、BFPとして、参照画素の隣接画素間差分絶対値を昇順に並べ替えたとき、上位の値を用いるようなとき、縦軸にBFP、および横軸にBEPをとると、広域人工画像境界線は、広域自然画像境界線よりも下に位置する。   That is, as the BEP, the difference dynamic range of the reference pixel, the pixel value dynamic range using the reference pixel, or the difference absolute value of the pixel value between adjacent pixels of the reference pixel are rearranged in ascending order, and the upper difference absolute value is As a BFP, the difference value between adjacent pixels of a reference pixel is compared with a predetermined threshold th as a BFP, and for a value larger than the threshold th, a predetermined value is set by a function. When using the summation, if the vertical axis is BFP and the horizontal axis is BEP, the wide-area artificial image boundary line is positioned above the wide-area natural image boundary line. Also, as BEP, the difference dynamic range of the reference pixel, the pixel value dynamic range using the reference pixel, or the difference absolute value of the pixel value between adjacent pixels of the reference pixel are rearranged in ascending order, and the upper difference absolute value is If the absolute value of the difference between adjacent pixels of the reference pixel is rearranged in ascending order as BFP, and the higher value is used, BFP on the vertical axis and BEP on the horizontal axis, The artificial image boundary line is located below the wide area natural image boundary line.

また、広域人工画境界線L1および広域自然画像境界線L2は、例えば、画像変換処理をする際のパラメータ、例えば、解像度軸値、ノイズ軸値、ズーム倍率といった設定により、広域人工画度Artbの値を高くしたり低くしたりすることが可能である。 Further, broad-range artificial image boundary L1 and the broad-range natural image boundary L2 is, for example, parameter for the image conversion processing, for example, the resolution axis value, the noise-axis value, by setting such a zoom magnification, broad-range degree-of-artificiality Art b The value of can be increased or decreased.

すなわち、図63の中段で示される広域人工画境界線L1および広域自然画像境界線L2は、図42と同一のものであるが、例えば、画像変換処理における解像度を変化させた場合、解像度を上げたとき、図63の上段で示されるように、広域人工画境界線L1’および広域自然画像境界線L2’が、それぞれ広域人工画境界線L1および広域自然画像境界線L2よりも低い位置となるため、同一の広域特徴量であれば、広域人工画度Artbが高い値を取りやすい状態となる。一方、解像度を下げたとき、図63の下段で示されるように、広域人工画境界線L1’’および広域自然画像境界線L2’’が、高い位置となるため、同一の広域特徴量であれば、広域人工画度Artbが低い値をとりやすい状態となる。 That is, the wide-area artificial image boundary line L1 and the wide-area natural image boundary line L2 shown in the middle part of FIG. 63 are the same as those in FIG. 42. For example, when the resolution in the image conversion process is changed, the resolution is increased. 63, the wide-area artificial image boundary line L1 ′ and the wide-area natural image boundary line L2 ′ are lower than the wide-area artificial image boundary line L1 and the wide-area natural image boundary line L2, respectively, as shown in the upper part of FIG. For this reason, if the same wide area feature amount is set, the wide area artificial art degree Art b is likely to take a high value. On the other hand, when the resolution is lowered, as shown in the lower part of FIG. 63, the wide-area artificial image boundary line L1 ″ and the wide-area natural image boundary line L2 ″ are at high positions. For example, the wide-area artificial image degree Art b is likely to take a low value.

同様にして、以上においては、図48で示されるように、狭域自然画像境界線L11が狭域人工画像境界線L12の上側に存在する例について説明してきたが、この位置関係はPNDPおよびSNDPとして採用する特徴量によっては逆転することもある。   Similarly, in the above description, as shown in FIG. 48, an example in which the narrow natural image boundary line L11 is present above the narrow artificial image boundary line L12 has been described, but this positional relationship is based on PNDP and SNDP. May be reversed depending on the feature quantity adopted.

すなわち、PNDPとして、参照画素の画素値ダイナミックレンジを用いる場合であって、SNDPとして、注目画素と各参照画素との経路による重み付き差分絶対値和を用いたとき、縦軸にPNDP、および横軸にSNDPをとると、狭域人工画像境界線L12は、狭域自然画像境界線L11よりも上に位置する。また、PNDPとして、長タップの画素値ダイナミックレンジを用いる場合であって、SNDPとして、短タップの画素値ダイナミックレンジを用いるようなとき、縦軸にPNDP、および横軸にSNDPをとると、狭域人工画像境界線L12は、狭域自然画像境界線L11よりも下に位置する。   That is, when the pixel value dynamic range of the reference pixel is used as the PNDP, and when the weighted difference absolute value sum by the path between the target pixel and each reference pixel is used as the SNDP, the vertical axis indicates the PNDP and the horizontal When SNDP is taken as an axis, the narrow-area artificial image boundary line L12 is positioned above the narrow-area natural image boundary line L11. In addition, when a long tap pixel value dynamic range is used as the PNDP, and when a short tap pixel value dynamic range is used as the SNDP, the vertical axis is PNDP and the horizontal axis is SNDP. The area artificial image boundary line L12 is located below the narrow area natural image boundary line L11.

また、狭域自然画像境界線L11および狭域人工画像境界線L12は、例えば、画像変換処理をする際のパラメータ、例えば、解像度軸値、ノイズ軸値、ズーム倍率といった設定により、狭域人工画度Artnの値を高くしたり低くしたりすることが可能である。 In addition, the narrow natural image boundary line L11 and the narrow artificial image boundary line L12 are, for example, a narrow artificial image by setting parameters such as a resolution axis value, a noise axis value, and a zoom magnification when performing image conversion processing. It is possible to increase or decrease the value of Art n .

すなわち、図64の中段で示される狭域自然画像境界線L11および狭域人工画像境界線L12は、図48と同一のものであるが、例えば、画像変換処理におけるノイズ軸値を変化させた場合、ノイズ軸値を上げたとき、図64の上段で示されるように、狭域自然画像境界線L11’および狭域人工画像境界線L12’が、それぞれ狭域自然画像境界線L11および狭域人工画像境界線L12よりも低い位置となるため、同一の狭域特徴量であれば、狭域人工画度Artnが高い値を取りやすい状態となる。一方、ノイズ軸値を下げたとき、図64の下段で示されるように、狭域自然画像境界線L11’’および狭域人工画像境界線L12’’が、それぞれ狭域自然画像境界線L11および狭域人工画像境界線L12よりも高い位置となるため、同一の狭域特徴量であれば狭域人工画度Artnが低い値をとりやすい状態となる。 That is, the narrow natural image boundary line L11 and the narrow artificial image boundary line L12 shown in the middle stage of FIG. 64 are the same as those in FIG. 48. For example, when the noise axis value in the image conversion processing is changed. When the noise axis value is increased, as shown in the upper part of FIG. 64, the narrow natural image boundary line L11 ′ and the narrow artificial image boundary line L12 ′ are respectively converted into the narrow natural image boundary line L11 and the narrow regional artificial line. Since the position is lower than the image boundary line L12, the narrow-area artificial image degree Art n is likely to take a high value with the same narrow-area feature amount. On the other hand, when the noise axis value is lowered, as shown in the lower part of FIG. 64, the narrow natural image boundary line L11 ″ and the narrow artificial image boundary line L12 ″ become the narrow natural image boundary line L11 and Since the position is higher than the narrow-area artificial image boundary line L12, the narrow-area artificial image degree Art n is likely to take a low value if the same narrow-area feature amount.

以上においては、広域特徴量としてBEPおよびBFPを、狭域特徴量としてPNDP、およびSNDPを用いた例について説明してきたが、広域特徴量については、エッジや平坦部を表現できるパラメータであれば、BEPおよびBFPに限るものではなく、それ以外の特徴量を使用するようにしてもよい。また、狭域特徴量についても同様に、上述したPNDPおよびSNDPのみならず、狭域の細線、エッジ、点、エッジ付近の平坦部、またはグラデーションなどが表現できる特徴量であれば、それらの特徴量を使用するようにしてもよい。さらに、以上においては、広域特徴量および狭域特徴量について、それぞれ2種類の特徴量を使用する例について説明してきたが、それ以上の種類の特徴量を使用するようにしてもよく、その場合、人工画像と自然画像との境界線については、図42や図48で示されるような2次元ではなく、特徴量の数nに応じたn次元で表現される境界線または境界面などとなるが、n次空間における特徴量の存在領域を判定したり、混在領域において、境界線間、または、境界面間の距離の比率を求めるといった基本的な処理は同様である。   In the above, examples have been described in which BEP and BFP are used as the wide area feature quantity, and PNDP and SNDP are used as the narrow area feature quantity, but for the wide area feature quantity, if it is a parameter that can express an edge or a flat part, The feature amount is not limited to BEP and BFP, and other feature amounts may be used. Similarly, the narrow area feature amount is not limited to the above-described PNDP and SNDP, but may be any feature amount that can express a narrow line, an edge, a point, a flat portion near the edge, or a gradation. An amount may be used. Further, in the above description, examples of using two types of feature amounts for each of the wide-area feature amount and the narrow-area feature amount have been described. However, more types of feature amounts may be used. The boundary line between the artificial image and the natural image is not two-dimensional as shown in FIGS. 42 and 48, but is a boundary line or boundary surface expressed in n-dimensions according to the number n of feature quantities. However, the basic processing is the same, such as determining the existence area of the feature quantity in the n-th order space and obtaining the ratio of the distance between the boundary lines or the boundary surfaces in the mixed area.

以上によれば、画像を画素単位で自然画像または人工画像を識別し、自然画予測処理および人工画予測処理を施すことが可能となり、各画素について適切に予測処理を施すことができるので、画像全体の品質を的確に高めることが可能となる。   According to the above, it is possible to identify a natural image or an artificial image in units of pixels and perform natural image prediction processing and artificial image prediction processing, and appropriately perform prediction processing for each pixel. It is possible to accurately improve the overall quality.

上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行させることが可能な、例えば汎用のパーソナルコンピュータなどに記録媒体からインストールされる。   The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processes is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

図65は、図1,図61の画像変換装置101の電気的な内部構成をソフトウェアにより実現する場合のパーソナルコンピュータの一実施の形態の構成を示している。パーソナルコンピュータのCPU2001は、パーソナルコンピュータの全体の動作を制御する。また、CPU2001は、バス2004および入出力インタフェース2005を介してユーザからキーボードやマウスなどからなる入力部2006から指令が入力されると、それに対応してROM(Read Only Memory)2002に格納されているプログラムを実行する。あるいはまた、CPU2001は、ドライブ2010に接続された磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリを含むリムーバルディスク2011から読み出され、記憶部2008にインストールされたプログラムを、RAM(Random Access Memory)2003にロードして実行する。これにより、上述した図1,図61の画像変換装置101の機能が、ソフトウェアにより実現されている。さらに、CPU2001は、通信部2009を制御して、外部と通信し、データの授受を実行する。   FIG. 65 shows the configuration of an embodiment of a personal computer when the electrical internal configuration of the image conversion apparatus 101 of FIGS. 1 and 61 is realized by software. A CPU 2001 of the personal computer controls the overall operation of the personal computer. Further, when a command is input from the input unit 2006 such as a keyboard or a mouse from the user via the bus 2004 and the input / output interface 2005, the CPU 2001 is stored in a ROM (Read Only Memory) 2002 correspondingly. Run the program. Alternatively, the CPU 2001 reads a program read from a removable disk 2011 including a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory connected to the drive 2010 and installed in the storage unit 2008 into a RAM (Random Access Memory). It is loaded into 2003 and executed. As a result, the above-described functions of the image conversion apparatus 101 in FIGS. 1 and 61 are realized by software. Further, the CPU 2001 controls the communication unit 2009 to communicate with the outside, and exchange data.

プログラムが記録されている記録媒体は、図65に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリを含むリムーバルメディア2011などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM2002や、記憶部2008に含まれるハードディスクなどで構成される。   As shown in FIG. 65, the recording medium on which the program is recorded is distributed to provide the program to the user separately from the computer. The magnetic disk (including the flexible disk) on which the program is recorded and the optical disk are distributed. (Including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disk)), magneto-optical disk (MD (Mini-Disc) included), or removable media 2011 including semiconductor memory And a ROM 2002 on which a program is recorded and a hard disk included in the storage unit 2008, which is provided to the user in a state of being incorporated in the computer in advance.

尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。   In this specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series in the order described, but of course, it is not necessarily performed in time series. Or the process performed separately is included.

本発明を適用した画像変換装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the image converter to which this invention is applied. 図1の画像変換装置により実行される画像変換処理を説明するフローチャートである。3 is a flowchart for explaining image conversion processing executed by the image conversion apparatus in FIG. 1. 自然画予測部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a natural picture prediction part. クラスタップのタップ構造を示す図である。It is a figure which shows the tap structure of a class tap. 予測タップのタップ構造を示す図である。It is a figure which shows the tap structure of a prediction tap. 自然画予測処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of a natural image prediction process. 学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a learning apparatus. 教師画像と生徒画像の画素の位置関係を説明する図である。It is a figure explaining the positional relationship of the pixel of a teacher image and a student image. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 人工画予測部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the artificial-image prediction part. クラス分類部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a class classification | category part. 他のクラスタップのタップ構造を示す図である。It is a figure which shows the tap structure of another class tap. 予測部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a prediction part. 他の予測タップのタップ構造を示す図である。It is a figure which shows the tap structure of another prediction tap. 人工画予測処理を説明するフローチャートである。It is a flowchart explaining an artificial image prediction process. クラス分類処理を説明するフローチャートである。It is a flowchart explaining a class classification process. 他の学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of another learning apparatus. 生成部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a production | generation part. 他の学習処理を説明するフローチャートである。It is a flowchart explaining another learning process. クラス分類部の他の詳細構成例を示すブロック図である。It is a block diagram which shows the other detailed structural example of a class classification | category part. さらに他のクラスタップのタップ構造を示す図である。It is a figure which shows the tap structure of another class tap. 他のクラス分類処理を説明するフローチャートである。It is a flowchart explaining another class classification process. クラス分類部のさらに他の詳細構成例を示すブロック図である。It is a block diagram which shows the further detailed structural example of a class classification | category part. クラス分類器の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a classifier. さらに他のクラスタップのタップ構造を示す図である。It is a figure which shows the tap structure of another class tap. クラス選択部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a class selection part. さらに他のクラス分類処理を説明するフローチャートである。It is a flow chart explaining other class classification processing. 図27のステップS781のクラス分類処理を説明するフローチャートである。It is a flowchart explaining the class classification process of step S781 of FIG. クラス選択処理を説明するフローチャートである。It is a flowchart explaining a class selection process. 自然画人工画判定部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the natural image artificial image determination part. 図30のBEP抽出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the BEP extraction part of FIG. 図30のBFP抽出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the BFP extraction part of FIG. 図30のPNDP抽出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the PNDP extraction part of FIG. 図30のSNDP抽出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the SNDP extraction part of FIG. 図30の自然画人工画判定部による自然画人工画判定処理を説明するフローチャートである。It is a flowchart explaining the natural image artificial image determination process by the natural image artificial image determination part of FIG. 図31のBEP抽出部によるBEP抽出処理を説明するフローチャートである。It is a flowchart explaining the BEP extraction process by the BEP extraction part of FIG. 参照画素を説明する図である。It is a figure explaining a reference pixel. 図32のBFP抽出部によるBFP抽出処理を説明するフローチャートである。It is a flowchart explaining the BFP extraction process by the BFP extraction part of FIG. 隣接画素間差分絶対値を求める参照画素の関係について説明する図である。It is a figure explaining the relationship of the reference pixel which calculates | requires the difference value between adjacent pixels. 変換関数fを説明する図である。It is a figure explaining conversion function f. 広域人工画度算出処理を説明するフローチャートである。It is a flowchart explaining a wide-area artificial image degree calculation process. 広域境界線を説明する図である。It is a figure explaining a wide area boundary line. 図33のPNDP抽出部によるPNDP抽出処理を説明するフローチャートである。It is a flowchart explaining the PNDP extraction process by the PNDP extraction part of FIG. 長タップを説明する図である。It is a figure explaining a long tap. 図34のSNDP抽出部によるSNDP抽出処理を説明するフローチャートである。It is a flowchart explaining the SNDP extraction process by the SNDP extraction part of FIG. 短タップを説明する図である。It is a figure explaining a short tap. 狭域人工画度算出処理を説明するフローチャートである。It is a flowchart explaining a narrow area artificial image degree calculation process. 狭域境界線を説明する図である。It is a figure explaining a narrow region boundary line. BEP抽出部のその他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of a BEP extraction part. 図49のBEP抽出部によるBEP抽出処理を説明するフローチャートである。It is a flowchart explaining the BEP extraction process by the BEP extraction part of FIG. 図49のBEP抽出部によるBEP抽出処理を説明する図である。It is a figure explaining the BEP extraction process by the BEP extraction part of FIG. BFP抽出部のその他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of a BFP extraction part. 図52のBFP抽出部によるBFP抽出処理を説明するフローチャートである。53 is a flowchart for describing BFP extraction processing by a BFP extraction unit in FIG. 52. 図52のBFP抽出部によるBFP抽出処理を説明する図である。FIG. 53 is a diagram illustrating a BFP extraction process by a BFP extraction unit in FIG. 52. PNDP抽出部のその他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of a PNDP extraction part. 図55のPNDP抽出部によるPNDP抽出処理を説明するフローチャートである。56 is a flowchart for describing PNDP extraction processing by a PNDP extraction unit in FIG. 55. SNDP抽出部のその他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of a SNDP extraction part. 図57のSNDP抽出部によるSNDP抽出処理を説明するフローチャートである。58 is a flowchart for describing SNDP extraction processing by the SNDP extraction unit in FIG. 57. 変換関数Fを説明する図である。6 is a diagram for explaining a conversion function F. 補間生成する画素を説明する図である。It is a figure explaining the pixel produced | generated by interpolation. 画像変換装置のその他の構成例を説明する図である。It is a figure explaining the other structural example of an image converter. 図61による画像変換処理を説明するフローチャートである。FIG. 62 is a flowchart for describing image conversion processing according to FIG. 61. FIG. 広域人工画境界線および広域自然画境界線を説明する図である。It is a figure explaining a wide area | region artificial image boundary line and a wide area | region natural image boundary line. 狭域人工画境界線および狭域自然画境界線を説明する図である。It is a figure explaining a narrow area artificial picture boundary line and a narrow area natural picture boundary line. 媒体を説明する図である。It is a figure explaining a medium.

符号の説明Explanation of symbols

132 人工画予測部, 651 クラス分類部, 652 係数種メモリ, 653 予測係数生成部, 654 予測係数メモリ, 655 予測部, 811 学習装置, 822 クラス分類部, 823 生成部, 824 係数生成部, 825 正規方程式生成部, 826 係数種決定部, 827 係数種メモリ, 831 予測タップ抽出部, 832 正規方程式生成部, 840 クラス分類部, 841 クラス決定部, 861 クラス分類器, 862 クラス分類器, 863 クラス選択部   132 Artificial image prediction unit, 651 class classification unit, 652 coefficient seed memory, 653 prediction coefficient generation unit, 654 prediction coefficient memory, 655 prediction unit, 811 learning device, 822 class classification unit, 823 generation unit, 824 coefficient generation unit, 825 Normal equation generator, 826 coefficient seed determiner, 827 coefficient seed memory, 831 prediction tap extractor, 832 normal equation generator, 840 class classifier, 841 class determiner, 861 class classifier, 862 class classifier, 863 class Select part

Claims (6)

入力画像から、前記入力画像のうちの、階調が少なくエッジがはっきりした人工的な画像である人工画像を高品質にした出力画像を求める画像処理装置において、
前記出力画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記入力画像から抽出する第1のクラスタップ抽出手段と、
前記第1のクラスタップの隣接する画素どうしの画素値の差分を求める差分算出手段と、
前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類する第1の分類手段と、
前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記入力画像から抽出する第2のクラスタップ抽出手段と、
前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類する第2の分類手段と、
前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択する選択手段と、
複数の人工画像を用いた学習により獲得された前記第1のクラスごとの予測係数および前記第2のクラスごとの予測係数を格納する格納手段と、
前記入力画像と、前記注目画素のクラスとして選択された前記第1または第2のクラスの予測係数とを用いて演算することで、前記入力画像から前記出力画像を求める演算手段と
を備える画像処理装置。
In an image processing apparatus for obtaining an output image with a high quality artificial image, which is an artificial image with low gradation and clear edges, from the input image,
First class tap extraction means for extracting, from the input image, a first class tap composed of a plurality of pixels used for classifying a target pixel as a pixel of the output image into a first class;
A difference calculating means for calculating a difference between pixel values of adjacent pixels of the first class tap;
First classification means for classifying the target pixel corresponding to the difference into the first class based on the difference;
Second class tap extraction means for extracting a second class tap composed of a plurality of pixels used for classifying the pixel of interest into a second class from the input image;
Second classification means for classifying a target pixel corresponding to the second class tap into the second class based on a pixel value of each pixel of the second class tap;
Based on the first class, said first class of the pixel of interest, either one of the second class of the pixel of interest, and selecting means for selecting as a class of the pixel of interest,
Storage means for storing a prediction coefficient for each of the first classes and a prediction coefficient for each of the second classes acquired by learning using a plurality of artificial images;
Image processing comprising: an arithmetic unit that calculates the output image from the input image by calculating using the input image and the prediction coefficient of the first or second class selected as the class of the target pixel apparatus.
前記第1の分類手段は、前記差分の絶対値に基づいて、その差分に対応する注目画素を前記第1のクラスに分類する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the first classifying unit classifies the target pixel corresponding to the difference into the first class based on the absolute value of the difference.
前記第1の分類手段は、前記差分の絶対値の比に基づいて、その差分に対応する注目画素を前記第1のクラスに分類する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the first classifying unit classifies the target pixel corresponding to the difference into the first class based on a ratio of absolute values of the differences.
入力画像から、前記入力画像のうちの、階調が少なくエッジがはっきりした人工的な画像である人工画像を高品質にした出力画像を求める画像処理方法において、
前記出力画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記入力画像から抽出し、
前記第1のクラスタップの隣接する画素どうしの画素値の差分を求め、
前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類し、
前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記入力画像から抽出し、
前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類し、
前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択し、
前記入力画像と、複数の人工画像を用いた学習により獲得された前記第1のクラスごとの予測係数および前記第2のクラスごとの予測係数のうち、前記注目画素のクラスとして選択された前記第1または第2のクラスの予測係数とを用いて演算することで、前記入力画像から前記出力画像を求める
ステップを含む画像処理方法。
In an image processing method for obtaining an output image with a high quality artificial image, which is an artificial image with few gradations and clear edges, from the input image,
Extracting from the input image a first class tap composed of a plurality of pixels used for classifying a target pixel as a pixel of the output image into a first class;
Obtaining a difference between pixel values of adjacent pixels of the first class tap;
Based on the difference, classify the target pixel corresponding to the difference into the first class,
Extracting a second class tap composed of a plurality of pixels used for classifying the pixel of interest into a second class from the input image;
Based on the pixel value of each pixel of the second class tap, classify the target pixel corresponding to the second class tap into the second class,
Based on the first class, said first class of the pixel of interest, either one of the second class of the pixel of interest is selected as class of the pixel of interest,
Of the input image and the prediction coefficient for each first class and the prediction coefficient for each second class acquired by learning using a plurality of artificial images, the first selected as the class of the pixel of interest An image processing method including a step of obtaining the output image from the input image by calculating using a prediction coefficient of one or a second class.
入力画像から、前記入力画像のうちの、階調が少なくエッジがはっきりした人工的な画像である人工画像を高品質にした出力画像を求める処理を、コンピュータに実行させるプログラムであって、
前記出力画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記入力画像から抽出し、
前記第1のクラスタップの隣接する画素どうしの画素値の差分を求め、
前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類し、
前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記入力画像から抽出し、
前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類し、
前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択し、
前記入力画像と、複数の人工画像を用いた学習により獲得された前記第1のクラスごとの予測係数および前記第2のクラスごとの予測係数のうち、前記注目画素のクラスとして選択された前記第1または第2のクラスの予測係数とを用いて演算することで、前記入力画像から前記出力画像を求める
ステップを含むプログラム。
A program for causing a computer to execute a process for obtaining an output image with a high quality artificial image, which is an artificial image with a small gradation and a clear edge, from the input image,
Extracting from the input image a first class tap composed of a plurality of pixels used for classifying a target pixel as a pixel of the output image into a first class;
Obtaining a difference between pixel values of adjacent pixels of the first class tap;
Based on the difference, classify the target pixel corresponding to the difference into the first class,
Extracting a second class tap composed of a plurality of pixels used for classifying the pixel of interest into a second class from the input image;
Based on the pixel value of each pixel of the second class tap, classify the target pixel corresponding to the second class tap into the second class,
Based on the first class, said first class of the pixel of interest, either one of the second class of the pixel of interest is selected as class of the pixel of interest,
Of the input image and the prediction coefficient for each first class and the prediction coefficient for each second class acquired by learning using a plurality of artificial images, the first selected as the class of the pixel of interest A program including a step of obtaining the output image from the input image by calculating using a prediction coefficient of the first or second class.
階調が少なくエッジがはっきりした人工的な画像である人工画像を、高品質な人工画像に変換する変換処理を行うとき用いられる予測係数を学習する学習装置であって、
変換処理後の目標の人工画像となる教師画像と、前記変換処理が行われる前の前記人工画像に相当する生徒画像とを取得する取得手段と、
前記教師画像の画素である注目画素を第1のクラスに分類するために用いる複数の画素から構成される第1のクラスタップを、前記生徒画像から抽出する第1のクラスタップ抽出手段と、
抽出された前記第1のクラスタップの隣接する画素どうしの画素値の差分を求める差分算出手段と、
前記差分に基づいて、その差分に対応する注目画素を前記第1のクラスに分類する第1の分類手段と、
前記注目画素を第2のクラスに分類するために用いる複数の画素から構成される第2のクラスタップを、前記生徒画像から抽出する第2のクラスタップ抽出手段と、
前記第2のクラスタップの各画素の画素値に基づいて、その第2のクラスタップに対応する注目画素を、前記第2のクラスに分類する第2の分類手段と、
前記第1のクラスに基づいて、前記注目画素の前記第1のクラスと、前記注目画素の前記第2のクラスのうちのいずれか一方を、前記注目画素のクラスとして選択する選択手段と、
前記注目画素を求めるのに用いる複数の画素から構成される予測タップを、前記生徒画像から抽出する予測タップ抽出手段と、
抽出された前記予測タップに基づいて、前記予測タップに対応する注目画素のクラスとして選択された前記第1または第2のクラスごとに、前記予測係数を用いて求められる前記注目画素の予測誤差を統計的に最小にする前記予測係数を演算する演算手段と
を備える学習装置。
A learning device that learns a prediction coefficient used when performing a conversion process for converting an artificial image, which is an artificial image with small gradation and clear edges, into a high-quality artificial image,
An acquisition means for acquiring a teacher image to be a target artificial image after the conversion process and a student image corresponding to the artificial image before the conversion process;
First class tap extraction means for extracting, from the student image, a first class tap composed of a plurality of pixels used for classifying a target pixel as a pixel of the teacher image into a first class;
A difference calculating means for obtaining a difference between pixel values of adjacent pixels of the extracted first class tap;
First classification means for classifying the target pixel corresponding to the difference into the first class based on the difference;
Second class tap extraction means for extracting, from the student image, a second class tap composed of a plurality of pixels used for classifying the target pixel into a second class;
Second classification means for classifying a target pixel corresponding to the second class tap into the second class based on a pixel value of each pixel of the second class tap;
Based on the first class, the first class of the pixel of interest, either one of the second class of the pixel of interest, and selecting means for selecting as a class of the pixel of interest,
A prediction tap extracting means for extracting a prediction tap composed of a plurality of pixels used for obtaining the target pixel from the student image;
Based on the extracted prediction tap, for each of the first or second class selected as the class of the target pixel corresponding to the prediction tap, the prediction error of the target pixel obtained using the prediction coefficient is calculated. A learning device comprising: a calculation unit that calculates the prediction coefficient that is statistically minimized.
JP2006073559A 2006-03-16 2006-03-16 Image processing apparatus, image processing method, learning apparatus, learning method, and program Expired - Fee Related JP4605468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006073559A JP4605468B2 (en) 2006-03-16 2006-03-16 Image processing apparatus, image processing method, learning apparatus, learning method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006073559A JP4605468B2 (en) 2006-03-16 2006-03-16 Image processing apparatus, image processing method, learning apparatus, learning method, and program

Publications (3)

Publication Number Publication Date
JP2007251689A JP2007251689A (en) 2007-09-27
JP2007251689A5 JP2007251689A5 (en) 2009-04-02
JP4605468B2 true JP4605468B2 (en) 2011-01-05

Family

ID=38595501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006073559A Expired - Fee Related JP4605468B2 (en) 2006-03-16 2006-03-16 Image processing apparatus, image processing method, learning apparatus, learning method, and program

Country Status (1)

Country Link
JP (1) JP4605468B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5073075B2 (en) * 2011-03-31 2012-11-14 株式会社ナナオ Thin line / character detection method and apparatus
JP2013239108A (en) 2012-05-17 2013-11-28 Sony Corp Image processing device and method, learning device and method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348020A (en) * 1999-06-09 2000-12-15 Sony Corp Data processor, data processing method and medium
JP2001212993A (en) * 1999-12-03 2001-08-07 Xerox Corp Method for processing document image data
JP2001222702A (en) * 2000-02-07 2001-08-17 Sony Corp Device and method for image processing and recording medium
JP2001298713A (en) * 2000-04-13 2001-10-26 Sony Corp Image processor and image processing method, and recording medium
JP2002064835A (en) * 2000-08-22 2002-02-28 Sony Corp Image signal processing apparatus, image signal processing method, learning device, learning method and recording medium
JP2004171366A (en) * 2002-11-21 2004-06-17 Sony Corp Device and method for processing data, recording medium, and program
JP2004252866A (en) * 2003-02-21 2004-09-09 Fuji Photo Film Co Ltd Color conversion device and color conversion program
JP2004272557A (en) * 2003-03-07 2004-09-30 Sharp Corp Area separation processing method, area separation processing program and record medium recording it, and image processor and image forming device equipped therewith

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09167240A (en) * 1995-12-15 1997-06-24 Sony Corp Digital image signal processing device and method therefor
JPH09284534A (en) * 1996-04-10 1997-10-31 Fuji Xerox Co Ltd Picture output controller

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348020A (en) * 1999-06-09 2000-12-15 Sony Corp Data processor, data processing method and medium
JP2001212993A (en) * 1999-12-03 2001-08-07 Xerox Corp Method for processing document image data
JP2001222702A (en) * 2000-02-07 2001-08-17 Sony Corp Device and method for image processing and recording medium
JP2001298713A (en) * 2000-04-13 2001-10-26 Sony Corp Image processor and image processing method, and recording medium
JP2002064835A (en) * 2000-08-22 2002-02-28 Sony Corp Image signal processing apparatus, image signal processing method, learning device, learning method and recording medium
JP2004171366A (en) * 2002-11-21 2004-06-17 Sony Corp Device and method for processing data, recording medium, and program
JP2004252866A (en) * 2003-02-21 2004-09-09 Fuji Photo Film Co Ltd Color conversion device and color conversion program
JP2004272557A (en) * 2003-03-07 2004-09-30 Sharp Corp Area separation processing method, area separation processing program and record medium recording it, and image processor and image forming device equipped therewith

Also Published As

Publication number Publication date
JP2007251689A (en) 2007-09-27

Similar Documents

Publication Publication Date Title
JP4683294B2 (en) Image processing apparatus and method, program recording medium, and program
JP4470899B2 (en) Image processing apparatus, image processing method, and program
EP1280072B1 (en) Image retrieval apparatus and image retrieving method
WO2015083396A1 (en) Image processing device and image processing method
JPH08180176A (en) Image storage/control device, image index generating method and image index generator
JP2015011585A (en) Image processing apparatus, image forming apparatus, image forming system, image processing method, and program
JP2017146840A (en) Image processing device and program
JP2003141540A (en) Similarity determining device, method and program
JP4772819B2 (en) Image search apparatus and image search method
JP4605468B2 (en) Image processing apparatus, image processing method, learning apparatus, learning method, and program
KR20000023569A (en) Image converter and image conversion method
JP3671469B2 (en) Prediction coefficient learning method and signal conversion apparatus and method
JP4973591B2 (en) Motion vector detection apparatus and motion vector detection method
JP5701467B1 (en) Image processing apparatus and image processing method
JP2005250561A (en) Motion vector detecting device, motion vector detecting method and computer program
JP3861325B2 (en) Motion vector detection apparatus and detection method
GB2292039A (en) Motion analysis of moving images
US20110194607A1 (en) Information Processing Device, Information Processing Method, and Program
JP3020299B2 (en) Motion vector detection device
JPH04266292A (en) Movement compensation prediction method for picture signal
JP4273979B2 (en) Information processing apparatus and method, recording medium, and program
JPH09265530A (en) Dictionary generating method and color image recognizing method
CN106530221B (en) A kind of image composition method and device
JP6200797B2 (en) Image processing apparatus and image processing method
JP6274778B2 (en) Image processing method, image processing apparatus, and computer program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100909

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100922

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees