[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2002319020A - Image processing device and method - Google Patents

Image processing device and method

Info

Publication number
JP2002319020A
JP2002319020A JP2001125284A JP2001125284A JP2002319020A JP 2002319020 A JP2002319020 A JP 2002319020A JP 2001125284 A JP2001125284 A JP 2001125284A JP 2001125284 A JP2001125284 A JP 2001125284A JP 2002319020 A JP2002319020 A JP 2002319020A
Authority
JP
Japan
Prior art keywords
edge
image
interpolation
image processing
enlargement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001125284A
Other languages
Japanese (ja)
Inventor
Satoshi Kubota
聡 久保田
Takashi Nagao
隆 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2001125284A priority Critical patent/JP2002319020A/en
Publication of JP2002319020A publication Critical patent/JP2002319020A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve the process of enlarging an image at high quality with small processing load and at high speed, without impairing the quality of the image, such as making its edges blurred or jagged. SOLUTION: This image processing device, which carries out an enlargement process for an original image through pixel interpolation, is provided with an edge detection means 40 for extracting edge components from the original image, an edge information conversion means 41 for producing edge strength information not including noise components, from the edges extracted, and an interpolation computing means 42 for making variable the shape of an interpolation function used in the enlargement process according to the edge strength information produced.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像の拡大処理を
行う機能を有した画像処理装置に関する。ここで、画像
の拡大処理とは、原画像を構成する画素に新たな画素を
補間して追加する処理のことを総称していい、代表的な
例としては画像サイズを拡大する場合(A4サイズ→A
3サイズ等)や低解像度画像を高解像度で出力する場合
(400dpi→600dpi等)に必要となる処理が
挙げられる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus having a function of performing image enlargement processing. Here, the image enlargement process is a generic term for a process of adding new pixels to the pixels constituting the original image by interpolation, and a typical example is a case where the image size is enlarged (A4 size). → A
For example, there is a process required when a low-resolution image is output at a high resolution (eg, 400 dpi → 600 dpi).

【0002】[0002]

【従来の技術】画像の拡大処理は、画像の編集、ファイ
リング、表示、印刷等を行うシステムにて用いられる画
像処理装置にとっては、基本的な処理の一つである。特
に、近年では、いわゆるインターネットのホームページ
上の画像やデジタルビデオで撮影されたディスプレイ解
像度対応の画像等の普及により、これらの低解像度画像
を高解像度のプリンタ等で印刷出力するといったことが
増えており、これに伴って高画質化を実現し得る拡大処
理の重要度も高まっている。
2. Description of the Related Art An image enlargement process is one of the basic processes for an image processing apparatus used in a system for editing, filing, displaying, printing, etc., an image. In particular, in recent years, with the spread of images on so-called Internet homepages and images corresponding to display resolutions taken by digital video, the number of printouts of these low-resolution images using a high-resolution printer has increased. Along with this, the importance of enlargement processing capable of realizing higher image quality is increasing.

【0003】一般に、画像の拡大処理を行う場合に用い
られる既存の手法としては、例えば処理対象が多階調で
表現されたカラー画像(以下、単に「多値画像」とい
う)であれば、原画像を構成する画素値をそのまま使う
最近傍法や、各画素間の値の変化が直線的であると仮定
し線形に補間して画素値を求める線形補間法や、標本化
定理に基づいてsinc関数(sin(x)/x)を近
似した補間関数を用いて補間すべき画素値を求めるキュ
ービック・コンボリューション法等を用いることが考え
られる。ところが、これらの各手法では、拡大後の画像
中にジャギーやモザイク状等の劣化が発生したり(最近
傍法)、エッジ部分を中心に画像全体がボケ気味になっ
てしまったり(線形補間法)、高域強調気味の特性を持
つためエッジ部分で軽いジャギーが発生したりノイズ成
分が強調されてしまう(キュービック・コンボリューシ
ョン法)、といったように拡大処理の高画質化を実現す
る上で難がある。
In general, as an existing method used when performing image enlargement processing, for example, if a processing object is a color image expressed in multiple gradations (hereinafter, simply referred to as a “multi-valued image”), an original method is used. The nearest neighbor method using the pixel values of an image as they are, the linear interpolation method in which the change in value between pixels is assumed to be linear and linearly interpolating to obtain pixel values, and sinc based on the sampling theorem It is conceivable to use a cubic convolution method or the like for obtaining a pixel value to be interpolated using an interpolation function approximating the function (sin (x) / x). However, in each of these methods, jagged or mosaic-like degradation occurs in the enlarged image (nearest neighbor method), or the entire image is slightly blurred around the edge portion (linear interpolation method). ), It is difficult to achieve high image quality of the enlargement processing, such as light jaggies occurring at the edge portion or noise components being emphasized due to the characteristic of high frequency emphasis (cubic convolution method). There is.

【0004】これらのことから、例えば特開平7−11
4636号公報、特開平7−129759号公報、特開
平6−54172号公報、「適応的な2次元標本化関数
による高品質な画像拡大再構成」(画像電子学会誌第2
8巻第5号P.620〜626)等には、上述した難点
を解消するための拡大処理の手法が提案されている。
From these facts, for example, Japanese Patent Application Laid-Open No.
4636, JP-A-7-129759, JP-A-6-54172, "High-quality image reconstructing by adaptive two-dimensional sampling function"
Vol. 8, No. 5, p. 620-626) and the like, a method of enlargement processing for solving the above-described difficulties is proposed.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、これら
従来の拡大処理の手法では、以下に述べる理由により、
必ずしも高画質の拡大処理を高速で行えるとはいえな
い。
However, in these conventional enlargement processing methods, for the following reasons,
It cannot always be said that high-quality enlargement processing can be performed at high speed.

【0006】例えば特開平7−114636号公報に
は、図11に示すように、原画像に対して未知の画素値
を持つ画素群PCUを間挿し、その画素群PCUに含ま
れる各画素について、近傍画素が既知である個数が閾値
以上であればその近傍既知画素の平均値を用いて未知の
画素値を決定し、その閾値での処理が終わって未知の画
素が残っていると順次閾値を下げて同じ処理を繰り返
し、最終的に拡大後の画像を得ることで、処理の高速化
および高画質化を図ることが開示されている。ところ
が、かかる手法では、間挿による拡大を行っているた
め、既知の画素についての位置がそのままとなり、画像
に位置ずれが生じてしまう。また、既知画素群からの未
知画素値の決定に平均値を用いているため、画像にボケ
が生じるという問題もある。そのため、高速処理が可能
であっても、高画質化な拡大処理を実現しているとはい
えない。
For example, Japanese Patent Laid-Open Publication No. Hei 7-114636 discloses that, as shown in FIG. 11, a pixel group PCU having an unknown pixel value is interpolated with respect to an original image, and for each pixel included in the pixel group PCU, If the number of neighboring pixels that are known is equal to or greater than the threshold value, an unknown pixel value is determined using the average value of the neighboring known pixels. It is disclosed that the processing speed is increased and the image quality is improved by obtaining the enlarged image finally by lowering and repeating the same processing. However, in such a method, since enlargement is performed by interpolation, the position of a known pixel remains as it is, and a position shift occurs in an image. Further, since the average value is used for determining the unknown pixel value from the known pixel group, there is a problem that the image is blurred. Therefore, even if high-speed processing is possible, it cannot be said that high-quality enlargement processing is realized.

【0007】また、例えば特開平7−129759号公
報には、JPEG(Joint Photographic Expert Grou
p)圧縮等により離散コサイン変換(以下「DCT」と
略す)された画像データを対象に、DCT係数を拡張し
てこれまでなかった高周波部分に「0」を代入して逆離
散コサイン変換(以下「IDCT」と略す)することで
拡大を行う手法において、DCT係数の特徴やユーザ指
示等により逆変換時の関数をIDCTではなく視覚的に
誤差の少ない別の関数に変換することで、ノイズの少な
い拡大処理を行うことが開示されている。ところが、か
かる手法では、ブロック毎にDCT変換されたデータを
対象としているため、任意倍率での拡大ができない。ま
た、拡張後のDCT係数サイズが「2」のべき乗でない
場合には、演算が複雑になる等の問題がある。そのた
め、高画質化が可能であっても、高速で柔軟性のある拡
大処理を実現しているとはいえない。
For example, Japanese Patent Application Laid-Open No. 7-129759 discloses a JPEG (Joint Photographic Expert Group).
p) An inverse discrete cosine transform (hereinafter, referred to as “DCT”) for image data that has been subjected to a discrete cosine transform (hereinafter, abbreviated as “DCT”) by compression or the like by substituting “0” into a high-frequency portion that has not been used before In the technique of enlarging by "IDCT"), the function at the time of inverse transformation is converted into another function having a visually small error, instead of the IDCT, by the characteristic of the DCT coefficient or the user's instruction. It is disclosed that a small enlargement process is performed. However, in this method, since data subjected to DCT conversion is used for each block, enlargement at an arbitrary magnification cannot be performed. If the expanded DCT coefficient size is not a power of "2", there is a problem that the operation becomes complicated. Therefore, even if high image quality can be achieved, it cannot be said that high-speed and flexible enlargement processing is realized.

【0008】また、例えば特開平6−54172号公報
には、図12に示すように、DCT/IDCTとゲルヒ
ベルグーパポリス(Gerchberg-Papoulis)の反復法の組
み合わせにより、DCT/IDCTによる拡大において
「0」等の適当な値を代入していた未知の高周波成分を
推定復元することで、ボケやジャギーの少ない高画質な
拡大画像を得るのを可能にすることが開示されている。
ところが、かかる手法では、演算量の多い処理であるD
CT/IDCTを画像に対して反復的に行う必要がある
ため、膨大な演算時間を必要としてしまう。また、図中
において「nN、mM、nmNの全てが整数値にならな
ければならない」との条件から、任意倍率での拡大がで
きないという問題がある。そのため、かかる手法におい
ても、高画質化は可能であっても、高速で柔軟性のある
拡大処理を実現しているとはいえない。
Japanese Patent Application Laid-Open No. 6-54172 discloses, for example, an enlargement by DCT / IDCT by a combination of DCT / IDCT and an iterative method of Gerchberg-Papoulis as shown in FIG. Discloses that it is possible to obtain a high-quality enlarged image with less blur and jaggy by estimating and restoring an unknown high-frequency component to which an appropriate value such as “0” is substituted.
However, in such a technique, D, which is a process with a large amount of computation,
Since it is necessary to perform CT / IDCT repeatedly on an image, an enormous amount of calculation time is required. Also, in the figure, there is a problem that magnification at an arbitrary magnification cannot be performed from the condition that "all of nN, mM, and nmN must be integer values". Therefore, even in such a method, high-quality image processing is possible, but high-speed and flexible enlargement processing cannot be said to be realized.

【0009】さらに、「適応的な2次元標本化関数によ
る高品質な画像拡大再構成」には、キュービック・コン
ボリューション法においてsinc関数が無限系列であ
るため有限で打ち切った近似関数を用いることによる誤
差や、標本化定理が連続かつ微分可能な信号を対象とし
ているのに対し画像には不連続な点が多く存在すること
等を課題として、不連続に向いており、かつ、局所性の
ある、sinc関数とは異なる補間関数を用い、さらに
エッジ方向を大域的に検出して補間関数をその方向に変
形させることで、ボケやジャギーの少ない拡大画像を得
ることが開示されている。ところが、この手法で用いら
れる関数は、局所的ではあるが倍率nに対して畳み込み
のマトリクスサイズが4nになることや、大域的なエッ
ジ方向の検出等により演算量が多いという問題がある。
つまり、かかる手法においても、高画質化は可能であっ
ても、高速な拡大処理を実現しているとはいえない。
Further, "high-quality image enlargement reconstruction by an adaptive two-dimensional sampling function" is performed by using an approximation function truncated finitely because the sinc function is an infinite series in the cubic convolution method. Error and sampling theorem are intended for continuous and differentiable signals, whereas images have many discontinuous points. , A sinc function and an edge direction are detected globally and the interpolation function is deformed in that direction to obtain an enlarged image with less blur and jaggy. However, the function used in this method has a problem that the convolution matrix size is 4n with respect to the magnification n although it is local, and the amount of calculation is large due to detection of a global edge direction and the like.
That is, even with such a method, high image quality can be achieved, but high-speed enlargement processing cannot be said to be realized.

【0010】そこで、本発明は、以上のような従来技術
の問題点を鑑み、多階調で表現された多値画像に対する
拡大処理を行う場合であっても、エッジ部分のボケやジ
ャギー等といった画質劣化が生じることなく拡大処理を
高画質に行うことができ、しかもその拡大処理を少ない
処理負荷で高速に行うことのできる画像処理装置および
画像処理方法を提供することを目的とする。
Accordingly, the present invention has been made in view of the above-described problems of the prior art, and is not limited to the case of performing enlargement processing on a multi-valued image expressed in multiple gradations, such as blurring of an edge portion and jaggies. It is an object of the present invention to provide an image processing apparatus and an image processing method capable of performing enlargement processing with high image quality without deteriorating image quality, and performing high-speed enlargement processing with a small processing load.

【0011】[0011]

【課題を解決するための手段】本発明は、上記目的を達
成するために案出された画像処理装置である。すなわ
ち、本発明は、新たな画素の補間により原画像に対する
拡大処理を行う画像処理装置であって、前記原画像にお
けるエッジ成分を抽出するエッジ検出手段と、前記エッ
ジ検出手段による抽出結果からノイズ成分を含まないエ
ッジの強度情報を生成するエッジ情報変換手段と、前記
エッジ情報変換手段が生成したエッジの強度情報に応じ
て拡大処理の際に用いる補間関数の形状を可変して当該
拡大処理を行う補間演算手段とを備えることを特徴とす
るものである。
SUMMARY OF THE INVENTION The present invention is an image processing apparatus devised to achieve the above object. That is, the present invention is an image processing apparatus for performing an enlargement process on an original image by interpolation of a new pixel, wherein the edge detection unit extracts an edge component in the original image, and a noise component is extracted from an extraction result by the edge detection unit. Edge information converting means for generating intensity information of an edge not including the edge information, and performing the enlarging processing by changing the shape of an interpolation function used in enlarging processing according to the edge intensity information generated by the edge information converting means. And an interpolation calculating means.

【0012】また、本発明は、上記目的を達成するため
に案出された画像処理方法で、新たな画素の補間により
原画像に対する拡大処理を行うのにあたって、前記原画
像におけるエッジ成分を抽出し、その抽出結果からノイ
ズ成分を含まないエッジの強度情報を生成し、生成した
エッジの強度情報に応じて拡大処理の際に用いる補間関
数の形状を可変して当該拡大処理を行うことを特徴とす
る。
Further, the present invention provides an image processing method devised to achieve the above object, wherein an edge component in the original image is extracted when performing enlargement processing on the original image by interpolation of a new pixel. Generating intensity information of an edge that does not include a noise component from the extraction result, and performing the enlarging process by changing the shape of an interpolation function used in the enlarging process according to the generated edge intensity information. I do.

【0013】上記構成の画像処理装置または上記手順の
画像処理方法によれば、エッジの強度情報に応じて補間
関数の形状を可変するので、その補間関数によって補間
される画素にエッジの強度情報が反映される。したがっ
て、補間すべき画素をその近傍画素から求めて拡大処理
を行っても、その処理後の画像にエッジ部分のボケやジ
ャギー等といった画質劣化が生じるのを極力抑えられ
る。しかも、近傍画素から補間画素を特定できるので、
処理負荷が膨大になってしまうこともない。
According to the image processing apparatus having the above configuration or the image processing method having the above procedure, the shape of the interpolation function is changed in accordance with the edge intensity information. Will be reflected. Therefore, even if the pixel to be interpolated is obtained from the neighboring pixels and the enlargement process is performed, it is possible to minimize the occurrence of image quality deterioration such as blurring of an edge portion or jaggy in the processed image. Moreover, since the interpolation pixel can be specified from the neighboring pixels,
The processing load does not become enormous.

【0014】[0014]

【発明の実施の形態】以下、図面に基づき本発明に係る
画像処理装置および画像処理方法について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing apparatus and an image processing method according to the present invention will be described below with reference to the drawings.

【0015】〔本実施形態における装置構成の説明〕先
ず、はじめに、本発明に係る画像処理装置の概略構成に
ついて説明する。図1は本発明に係る画像処理装置の要
部の構成例を示すブロック図であり、図2は本発明に係
る画像処理装置全体の概略構成例を示すブロック図であ
る。
[Explanation of Apparatus Configuration in this Embodiment] First, a schematic configuration of an image processing apparatus according to the present invention will be described. FIG. 1 is a block diagram illustrating a configuration example of a main part of an image processing apparatus according to the present invention, and FIG. 2 is a block diagram illustrating a schematic configuration example of the entire image processing apparatus according to the present invention.

【0016】ここで説明する画像処理装置は、図2に示
すように、画像データ入力部10と、画像データ格納部
11と、拡大処理部12と、画像データ出力部13と、
を備えて構成されている。
As shown in FIG. 2, the image processing apparatus described here includes an image data input unit 10, an image data storage unit 11, an enlargement processing unit 12, an image data output unit 13,
It is provided with.

【0017】画像データ入力部10は、拡大処理の対象
となる多値画像についての画像データが入力されるもの
であり、そのために画像データの供給元である外部との
通信機能を有している。この画像データ入力部10に入
力される画像データとしては、画像処理装置で処理可能
なJPEG形式、BMP(ビットマップ)形式、PNG
(Portable Network Graphics)形式等の画像フォーマ
ットで記述されたもの、さらに具体的には、例えばパー
ソナルコンピュータ上で動作するアプリケーションプロ
グラムによって作成されたものや、デジタルカメラによ
って撮像されたもの等が挙げられる。
The image data input unit 10 receives image data of a multivalued image to be enlarged and has a function of communicating with an external source that supplies the image data. . The image data input to the image data input unit 10 includes JPEG format, BMP (bitmap) format, PNG that can be processed by the image processing apparatus.
(Portable Network Graphics), and more specifically, those described in an image format such as an application program that operates on a personal computer, and those captured by a digital camera.

【0018】画像データ格納部11は、画像データ入力
部10に入力された画像データが拡大処理部12に出力
されるまでこれを一時的に保持記憶する機能、拡大処理
部12での拡大処理により解像度変換された後の画像デ
ータが画像データ出力部13に出力されるまでこれを一
時的に保持記憶する機能、および画像データ入力部10
に入力された画像データが例えば圧縮されている場合に
はその圧縮画像データを伸長する機能等を有したもので
ある。
The image data storage unit 11 has a function of temporarily storing image data input to the image data input unit 10 until the image data is output to the enlargement processing unit 12. A function of temporarily storing image data after resolution conversion until the image data is output to the image data output unit 13;
In the case where the image data input to the CPU is compressed, for example, it has a function of decompressing the compressed image data.

【0019】拡大処理部12は、画像データ入力部10
に入力された後、画像データ格納部11を経て受け取っ
た画像データに対して拡大処理を行って、その画像デー
タを指定された任意の解像度に変換処理する機能を有し
たものである。なお、拡大処理部12の詳細については
後述するものとする。
The enlargement processing section 12 includes an image data input section 10
After the image data is input to the image data storage unit 11, the image data received via the image data storage unit 11 is subjected to an enlargement process, and the image data is converted to a designated resolution. The details of the enlargement processing unit 12 will be described later.

【0020】画像データ出力部13は、画像データ格納
部11から拡大処理後の解像度に変換された画像データ
を受け取って、これを拡大画像データとして出力するも
のであり、そのために画像データの出力先である外部
(例えばプリンタ)との通信機能を有している。
The image data output section 13 receives the image data converted to the resolution after the enlargement processing from the image data storage section 11 and outputs the image data as enlarged image data. Communication function with an external device (for example, a printer).

【0021】続いて、以上のように構成された画像処理
装置の要部、すなわち画像の拡大処理を行う拡大処理部
12について、さらに詳しく説明する。拡大処理部12
は、図1に示すように、エッジ検出処理部40と、エッ
ジ情報変換処理部41と、画素補間処理部42と、を備
えて構成されている。
Next, the main part of the image processing apparatus configured as described above, that is, the enlargement processing unit 12 for performing the image enlargement processing will be described in more detail. Enlargement processing unit 12
Is configured to include an edge detection processing unit 40, an edge information conversion processing unit 41, and a pixel interpolation processing unit 42, as shown in FIG.

【0022】エッジ検出処理部40は、拡大処理の処理
対象となる画像データからエッジ成分の抽出を行うもの
である。具体的には、例えばラプラシアンオペレータ等
の局所エッジ検出フィルタを用いて、画像データの構成
画素の値が急激に変化する部分をエッジ成分として抽出
する。
The edge detection processing section 40 extracts an edge component from image data to be processed in the enlargement processing. Specifically, for example, using a local edge detection filter such as a Laplacian operator, a portion where the values of the constituent pixels of the image data rapidly change is extracted as an edge component.

【0023】エッジ情報変換処理部41では、エッジ検
出処理部40で抽出されたエッジ成分から、処理対象の
画像データと整合性のあるラインプロセスと呼ばれる多
値の変数を推定して、これをその画像データに関するノ
イズ成分を含まないエッジの強度情報とするものであ
る。
The edge information conversion processing unit 41 estimates a multi-valued variable called a line process that is consistent with the image data to be processed from the edge components extracted by the edge detection processing unit 40, This is to be edge intensity information that does not include noise components related to image data.

【0024】画素補間処理部42は、エッジ情報変換処
理部41で推定された多値ラインプロセスに基づいて、
拡大処理の際に用いる補間関数の形状を可変し、その可
変後の補間関数を用いて補間すべき画素値を決定し、こ
れにより処理対象の画像データに対する拡大処理を行う
ものである。
The pixel interpolation processing unit 42 performs processing based on the multi-valued line process estimated by the edge information conversion processing unit 41.
The shape of the interpolation function used in the enlargement process is changed, and the pixel value to be interpolated is determined using the interpolation function after the change, whereby the enlargement process is performed on the image data to be processed.

【0025】〔本実施形態における処理動作の説明〕次
に、以上のように構成された画像処理装置における処理
動作例、すなわち本発明に係る画像処理方法の処理手順
について説明する。
[Explanation of Processing Operation in the Present Embodiment] Next, an example of a processing operation in the image processing apparatus configured as described above, that is, a processing procedure of the image processing method according to the present invention will be described.

【0026】画像拡大処理を行う場合には、先ず、処理
対象となる画像データが画像データ入力部10に入力さ
れ、画像データ格納部11で一時的に保持記憶された後
に、拡大処理部12へ送られる。そして、処理対象の画
像データを受け取ると、拡大処理部12では、エッジ検
出処理部40がその画像データからエッジ成分を抽出す
る。ここまでは、公知技術を利用して実現すればよいた
め、ここではその詳細を省略する。
When performing image enlargement processing, first, image data to be processed is input to the image data input unit 10, temporarily stored in the image data storage unit 11, and then transmitted to the enlargement processing unit 12. Sent. When the image data to be processed is received, in the enlargement processing unit 12, the edge detection processing unit 40 extracts an edge component from the image data. Up to this point, a known technique may be used, and therefore, details thereof are omitted here.

【0027】〔エッジ情報変換処理部での処理〕エッジ
成分の抽出後は、続いて、エッジ情報変換処理部41
が、そのエッジ成分からエッジの強度情報を生成する。
ここで、このエッジ情報変換処理部41が行うエッジの
強度情報の生成処理について詳しく説明する。
[Processing in Edge Information Conversion Processing Unit] After the extraction of the edge component, the edge information conversion processing unit 41
Generates edge intensity information from the edge component.
Here, the generation processing of the edge intensity information performed by the edge information conversion processing unit 41 will be described in detail.

【0028】一般に、エッジ検出処理部40で得られる
エッジ成分の抽出結果には、ラプラシアンオペレータ等
の局所フィルタを用いているため、画像データに対する
確からしいエッジ情報とは違い、本来はエッジ成分とす
るべきでない雑音(ノイズ)が多く含まれていたり、エ
ッジ成分が途中で切れていたりすることが多い。そこ
で、エッジ情報変換処理部41では、エッジ検出処理部
40がエッジ成分を抽出すると、エネルギー関数最小化
を用いて、入力画像データと整合性のある確からしいエ
ッジ情報であるラインプロセスを推定し、そのエッジ検
出処理部40による抽出結果からノイズ成分を除去す
る。
In general, since a local filter such as a Laplacian operator is used as an extraction result of an edge component obtained by the edge detection processing unit 40, unlike a reliable edge information for image data, an edge component is originally used. In many cases, noise (noise) that should not be included is included, or edge components are cut off in the middle. Therefore, in the edge information conversion processing unit 41, when the edge detection processing unit 40 extracts the edge component, it estimates a line process that is likely edge information consistent with the input image data using energy function minimization, The noise component is removed from the extraction result by the edge detection processing unit 40.

【0029】図3は、ある画素fi,jに対するラインプ
ロセスを表す説明図である。ラインプロセスとは、互い
に隣り合う画素間におけるエッジ成分の存在を示す変数
である。すなわち、例えば図中における水平ラインプロ
セスhi,jは、画素fi,jと画素fi+1,j間のエッジの存
在を示す変数であり、垂直ラインプロセスvi,jは、画
素fi,jと画素fi,j+1間のエッジの存在を示す変数であ
る。さらに、各々のラインプロセスの値は、「0」から
「1.0」の可変値を採る確率変数である。
FIG. 3 is an explanatory diagram showing a line process for a certain pixel fi, j. The line process is a variable indicating the presence of an edge component between pixels adjacent to each other. That is, for example, the horizontal line process hi, j in the figure is a variable indicating the existence of an edge between the pixel fi, j and the pixel fi + 1, j, and the vertical line process vi, j is the pixel fi, j and the pixel fi, j. This is a variable indicating the existence of an edge between fi, j + 1. Further, the value of each line process is a random variable taking a variable value from “0” to “1.0”.

【0030】エッジ情報変換処理部41では、上述した
確率変数であるラインプロセスに関して、以下に示す
(1)式で表されるエネルギー関数を、例えば統計的緩
和法を用いて最小化することにより、処理対象の画像デ
ータに対する確からしいラインプロセスを推定する。
The edge information conversion processing unit 41 minimizes the energy function represented by the following equation (1) with respect to the line process, which is the above-mentioned random variable, by using, for example, a statistical relaxation method. Estimate a likely line process for the image data to be processed.

【0031】[0031]

【数1】 (Equation 1)

【0032】この(1)式において、li,jは推定され
た水平および垂直ラインプロセス、ei,jはエッジ検出
処理部40で検出された、入力された画像データに対し
てラプラシアンオペレータ等の局所フィルタを施して得
られたエッジ成分情報、f′i,jはラインプロセスli,j
を挟んだ隣接画素の値である。
In the equation (1), li, j is the estimated horizontal and vertical line processes, and ei, j is the local Laplacian operator or the like for the input image data detected by the edge detection processing unit 40. The edge component information f'i, j obtained by applying the filter is a line process li, j
Are the values of the adjacent pixels sandwiching.

【0033】また、(1)式における第1項は、推定さ
れるラインプロセスli,jと、エッジ成分情報ei,jが一
致することを要求する項である。第2項は、隣り合う画
素値の差とラインプロセスli,jの整合を要求する項で
あり、画素値の差が小さいあるいは大きく、またライン
プロセスli,jの値がそれら濃度差に整合している場合
にこの項のエネルギーは小さくなる。第3項は、画像に
エッジ(不連続)が存在すること自体に対するペナルテ
ィーおよびラインプロセスの相互作用を表す項である。
なお、α、β、γは、それぞれ第1項、第2項および第
3項の重み係数で任意の値である。また、第3項は、以
下の(2)式で表される。
The first term in the equation (1) is a term that requires that the estimated line process li, j and the edge component information ei, j match. The second term is a term that requires matching between the difference between adjacent pixel values and the line process li, j. The difference between the pixel values is small or large, and the value of the line process li, j matches the density difference. , The energy of this term becomes smaller. The third term is a term representing the interaction of the penalty and the line process on the existence of an edge (discontinuity) in the image itself.
Note that α, β, and γ are weighting coefficients of the first, second, and third terms, respectively, and are arbitrary values. The third term is expressed by the following equation (2).

【0034】[0034]

【数2】 (Equation 2)

【0035】この(2)式におけるV(h)、V(v)
は、それぞれの近傍系のラインプロセスにより計算され
る。図4は、水平ラインプロセスhi,jおよび垂直ライ
ンプロセスvi,jのそれぞれの近傍系のラインプロセス
を表す説明図である。また、(2)式において、第1項
および第2項は、同方向のラインプロセスはすぐ隣には
存在しないことを要求する項、第3項はラインプロセス
自身に対してペナルティーを与える項である。
V (h) and V (v) in equation (2)
Is calculated by the line process of each neighboring system. FIG. 4 is an explanatory diagram showing a line process of a neighboring system of each of the horizontal line process hi, j and the vertical line process vi, j. In equation (2), the first and second terms are terms that require that a line process in the same direction does not exist immediately next to the equation, and the third term is a term that gives a penalty to the line process itself. is there.

【0036】さらに、(2)式において、第4項は、二
次形式で与えることができない非線形の相互作用のエネ
ルギーであり、ラインプロセスが連続性を有してなけれ
ばならないことを要求する項である。図5は、ラインプ
ロセスの連続性とエネルギーとの関係の具体例を示す説
明図である。図例のように、各項の重み係数Cp、Cc
およびC1それぞれは、各ラインプロセス相互の関係
(連続性の具体的態様)に応じた個別のエネルギーが与
えられる。すなわち、ラインプロセスが連続性(図中の
continuationあるいはturn)を有していれば小さいエネ
ルギーが与えられるが、ラインプロセスが途中で途切れ
たり(図中のending)、すぐ隣り合ったり(図中のpara
llel)、T字型あるいは十字型に交わる場合には、高い
エネルギーが与えられる。
Further, in the equation (2), the fourth term is the energy of the nonlinear interaction which cannot be given in a quadratic form, and requires that the line process must have continuity. It is. FIG. 5 is an explanatory diagram showing a specific example of the relationship between the continuity of the line process and the energy. As shown in the figure, the weighting factors Cp, Cc
C1 and C1 are supplied with individual energies according to the relationship between the respective line processes (specific manner of continuity). In other words, the line process is continuous (the
If it has a continuation or a turn, a small energy is given, but the line process is interrupted in the middle (ending in the figure) or is immediately adjacent (para in the figure).
llel), T-shaped or cross-shaped, gives high energy.

【0037】つまり、エッジ情報変換処理部41は、エ
ッジを挟む画素間の濃度差やエッジ成分の連続性等とい
ったエッジ強度に影響を与える要因によりエネルギーを
定義し、その定義したエネルギーに対応するエネルギー
関数を統計的緩和法により最小化し、これにより確から
しいラインプロセスを推定する。
That is, the edge information conversion processing unit 41 defines the energy based on factors that affect the edge strength, such as the density difference between the pixels sandwiching the edge and the continuity of the edge components, and the energy corresponding to the defined energy. The function is minimized by a statistical relaxation method, which estimates a likely line process.

【0038】次いで、そのラインプロセス推定の処理手
順の概要について説明する。図6は、ラインプロセス推
定の流れの概要を示すフローチャートである。
Next, an outline of the processing procedure of the line process estimation will be described. FIG. 6 is a flowchart showing an outline of the flow of the line process estimation.

【0039】確からしいラインプロセスを推定するのに
あたって、エッジ情報変換処理部41は、先ず、統計的
緩和法における温度パラメータTを十分高温に設定する
(ステップ60、以下ステップを「S」と略す)。そし
て、初期ラインプロセスとして、水平ラインプロセスh
i,jおよび垂直ラインプロセスvi,jに「0」から「1.
0」の値を任意に設定し(S61)、ある位置における
現状態のラインプロセスhi,jおよびvi,jについて、上
記の(1)式および(2)式を用いて現状態のエネルギ
ー関数Eline(l)を計算する(S62)。
In estimating a probable line process, the edge information conversion processing unit 41 first sets the temperature parameter T in the statistical relaxation method to a sufficiently high temperature (step 60; hereinafter, step is abbreviated as "S"). . Then, as an initial line process, a horizontal line process h
i, j and the vertical line process vi, j from “0” to “1.
A value of "0" is arbitrarily set (S61), and for the current state line processes hi, j and vi, j at a certain position, the current state energy function Eline is obtained by using the above equations (1) and (2). (1) is calculated (S62).

【0040】その後、エッジ情報変換処理部41は、現
状態のラインプロセスhi,jおよびvi,jに対して、乱数
等を用いてランダムに変化させた次状態候補のラインプ
ロセスhi,j′およびvi,j′を作り、それら次状態候補
のラインプロセスhi,j′およびvi,j′について、
(1)式および(2)式を用いてエネルギー関数Eline
(l′)を計算する(S63)。
Thereafter, the edge information conversion processing unit 41 changes the line process hi, j 'of the next state candidate which is randomly changed using a random number or the like with respect to the line process hi, j and vi, j of the current state. vi, j ', and for the line processes hi, j' and vi, j 'of these next state candidates,
The energy function Eline is calculated using the equations (1) and (2).
(L ') is calculated (S63).

【0041】エネルギー関数Eline(l)およびEline
(l′)を計算すると、エッジ情報変換処理部41は、
これらと温度パラメータTとを用いて、次状態ラインプ
ロセスを決定する(S64)。詳しくは、現状態のエネ
ルギー関数Eline(l)と、次状態候補のエネルギー関
数Eline(l′)と、温度パラメータTとから、以下に
示す(3)式で表されるdUを計算する。
The energy functions Eline (l) and Eline
After calculating (l ′), the edge information conversion processing unit 41 calculates
Using these and the temperature parameter T, a next state line process is determined (S64). Specifically, dU represented by the following equation (3) is calculated from the energy function Eline (l) of the current state, the energy function Eline (l ') of the next state candidate, and the temperature parameter T.

【0042】[0042]

【数3】 (Equation 3)

【0043】このとき、dU<0ならば、エッジ情報変
換処理部41は、ある位置におけるラインプロセスを次
状態候補のラインプロセスhi,j′およびvi,j′により
更新する。また、dU≧0の場合は、以下に示す(4)
式で表される状態推移確率qを計算する。
At this time, if dU <0, the edge information conversion processing unit 41 updates the line process at a certain position with the next state candidate line processes hi, j 'and vi, j'. When dU ≧ 0, the following (4)
Calculate the state transition probability q represented by the equation.

【0044】[0044]

【数4】 (Equation 4)

【0045】この(4)式において、Zは正規化のため
の定数である。dU≧0の場合は、0≦ξ≦1であるよ
うなξを選ぶ。そして、(4)式で計算された状態遷移
確率qを用いて、ξ≦qの場合には、ある位置における
ラインプロセスを次状態候補のラインプロセスhi,j′
およびvi,j′により更新し、ξ>qの場合には、状態
を更新せず現状態のラインプロセスhi,jおよびvi,jの
ままとする。
In the equation (4), Z is a constant for normalization. If dU ≧ 0, select ξ such that 0 ≦ ξ ≦ 1. Then, using the state transition probability q calculated by the equation (4), if ξ ≦ q, the line process at a certain position is changed to the next state candidate line process hi, j ′.
And vi, j ', and if ξ> q, the state is not updated and the line processes hi, j and vi, j in the current state remain.

【0046】このような現在のラインプロセス推定の反
復回数が、予め設定されている反復回数に到達すれば
(S65)、エッジ情報変換処理部41は、ラインプロ
セス推定処理を終了する。ただし、到達していない場合
には、温度パラメータTを所定量だけ下げ(S66)、
再び上述した各ステップ(S62〜S65)における処
理を繰り返して行う。このとき、温度パラメータTを下
げるアニーリングスケジュールは、例えば以下に示す
(5)式で表されるスケジュールを用いればよい。
When the current iteration number of the line process estimation reaches the preset iteration number (S65), the edge information conversion processing section 41 ends the line process estimation processing. However, if not reached, the temperature parameter T is lowered by a predetermined amount (S66),
The processing in each of the above-described steps (S62 to S65) is performed again. At this time, as the annealing schedule for lowering the temperature parameter T, for example, a schedule represented by the following equation (5) may be used.

【0047】[0047]

【数5】 (Equation 5)

【0048】この(5)式において、Cはアニーリング
の初期定数、αはアニーリングの加速パラメータ、iは
現時点でのラインプロセス推定の反復回数である。な
お、(5)式では、加速パラメータαを用いているが、
これに限定されるわけではなく、例えばα=1として加
速パラメータを用いなくても本質的に変わらない。
In the equation (5), C is an initial constant of annealing, α is an acceleration parameter of annealing, and i is the number of repetitions of the line process estimation at the present time. In equation (5), the acceleration parameter α is used.
The invention is not limited to this. For example, there is essentially no change even if α = 1 and no acceleration parameter is used.

【0049】以上のように、エッジ情報変換処理部41
では、(1)式で表されるエネルギー関数を、上述した
手順の統計的緩和法を用いて最小化し、確からしい多値
ラインプロセスを推定することによって、エッジ検出処
理部40が抽出したエッジ成分からノイズ成分を除去
し、本来的に原画像内に存在するエッジ強度(濃度差等
から特定される確からしさ)を正規化したエッジ強度情
報を得る。
As described above, the edge information conversion processing section 41
Then, the energy function represented by the equation (1) is minimized by using the statistical relaxation method of the above-described procedure, and a probable multi-valued line process is estimated, whereby the edge component extracted by the edge detection processing unit 40 is extracted. , A noise component is removed from the original image, and edge intensity information obtained by normalizing the edge intensity (probability specified from the density difference or the like) that originally exists in the original image is obtained.

【0050】なお、ここでは、統計的緩和法を用いてエ
ネルギー関数を最小化する場合を例に挙げて説明した
が、最小化はこの手法に限定されるわけではなく、例え
ば公知である最急降下法等といった決定論的手法を用い
て行ってもよいし、さらに他の最適解探索手法により最
小解を求めるようにしてもよい。
Here, the case where the energy function is minimized using the statistical relaxation method has been described as an example. However, the minimization is not limited to this method. This may be performed using a deterministic method such as a method, or a minimum solution may be obtained by another optimal solution search method.

【0051】〔画素補間処理部での処理〕エッジの強度
情報の生成後は、続いて、画素補間処理部42が、その
強度情報である多値ラインプロセスを基にしつつ、処理
対象の画像データの対する拡大処理を行う。ここで、こ
の画素補間処理部42が行う拡大処理について詳しく説
明する。
[Processing in Pixel Interpolation Processing Unit] After the generation of the edge intensity information, the pixel interpolation processing unit 42 subsequently processes the image data to be processed based on the multivalued line process as the intensity information. Is performed. Here, the enlargement processing performed by the pixel interpolation processing unit 42 will be described in detail.

【0052】画素補間処理部42は、拡大処理にあたっ
て、先ず、エッジ情報変換処理部41で推定された多値
ラインプロセスに基づいて、処理対象の画像データに対
する拡大処理のために用いる補間画素の画素値を決定す
る。このとき、画素補間処理部42は、その補間画素値
をシグモイド補間関数g(x)により決定する。シグモ
イド関数とは、全ての実数入力で定義され、至る所で正
の導関数をとる有解な微分可能実数関数であり、その引
数が大きくなるとある固定された有解上限(「0」と
「1」)に急速に漸近し、その引数が小さくなるとある
固定された有限下限に急速に漸近する関数である。シグ
モイド補間関数g(x)を、以下の(6)式に示す。
In the enlargement processing, the pixel interpolation processing unit 42 first determines the pixels of the interpolation pixels used for the enlargement processing on the image data to be processed based on the multi-valued line process estimated by the edge information conversion processing unit 41. Determine the value. At this time, the pixel interpolation processing unit 42 determines the interpolated pixel value using the sigmoid interpolation function g (x). A sigmoid function is a solvable differentiable real function that is defined by all real inputs and takes positive derivatives everywhere. As its argument increases, certain fixed upper bounds (“0” and “ 1)), which rapidly asymptotic to a fixed finite lower bound as its argument decreases. The sigmoid interpolation function g (x) is shown in the following equation (6).

【0053】[0053]

【数6】 (Equation 6)

【0054】この(6)式において、lはエッジ情報変
換処理部41により推定された各画素間のラインプロセ
ス値である。したがって、(6)式で表されるシグモイ
ド補間関数g(x)を図示すると、図7に示すように、
ラインプロセス値lの値が大きい場合には(例えばl=
0.8)、シグモイド補間関数g(x)がステップ関数
的な形状になるが、ラインプロセス値lの値が大きい場
合には(例えばl=0.2)、シグモイド補間関数g
(x)が線形関数的な形状となる。これにより、画像拡
大処理後の画像データにおいても、ラインプロセスlの
値に応じたエッジ情報が保持されることになる。
In the equation (6), 1 is a line process value between pixels estimated by the edge information conversion processing unit 41. Therefore, when the sigmoid interpolation function g (x) represented by the equation (6) is illustrated, as shown in FIG.
When the value of the line process value l is large (for example, l =
0.8), the sigmoid interpolation function g (x) has a step-like shape, but when the value of the line process value l is large (for example, l = 0.2), the sigmoid interpolation function g (x)
(X) has a linear functional shape. As a result, even in the image data after the image enlargement processing, the edge information corresponding to the value of the line process 1 is held.

【0055】ここで、具体的な一例として、画像データ
を5倍に拡大する場合を説明する。図8は画像データを
5倍に拡大する場合の概要を示す説明図、図9は補間画
素値決定の一具体例を示す説明図、図10は補間すべき
画素領域の補足説明図である。
Here, as a specific example, a case where image data is enlarged five times will be described. FIG. 8 is an explanatory diagram showing an outline of a case where image data is enlarged five times, FIG. 9 is an explanatory diagram showing a specific example of determining an interpolated pixel value, and FIG. 10 is a supplementary explanatory diagram of a pixel area to be interpolated.

【0056】例えば、ある画素fi,jに対するラインプ
ロセスおよびその近傍のラインプロセスが、図8(a)
に示すような値に推定された場合について考える。この
とき、画素fi,jと画素fi,j+1との間および画素fi,j
と画素fi+1,jとの間のラインプロセス値がそれぞれ
「0.8」であるから、(6)式で表されるシグモイド
補間関数g(x)は、図7に示すように、比較的ステッ
プ関数に近い形状となる。したがって、図8(b)に示
す領域A1および領域A2の補間画素群の値は、例えば
fi,j<fi,j+1(fi+1,j)の場合には、それぞれ図9
に示すように、ステップ関数に近い形状のシグモイド補
間関数g(x)により決定されることになる。
For example, a line process for a certain pixel fi, j and a line process in the vicinity thereof are shown in FIG.
Let us consider a case where the value is estimated as shown in FIG. At this time, between the pixel fi, j and the pixel fi, j + 1 and the pixel fi, j
Since the line process values between the pixel fi and the pixel fi + 1, j are respectively “0.8”, the sigmoid interpolation function g (x) expressed by the equation (6) can be calculated as shown in FIG. It becomes a shape close to a typical step function. Therefore, the values of the interpolated pixel groups of the area A1 and the area A2 shown in FIG. 8B are, for example, in the case of fi, j <fi, j + 1 (fi + 1, j), respectively.
As shown in (1), it is determined by the sigmoid interpolation function g (x) having a shape close to the step function.

【0057】また、図8(a)において、画素fi+1,j
と画素fi+1,j+1との間および画素fi,j+1と画素fi+1,
j+1との間のラインプロセス値はそれぞれ「0.2」で
あるから、シグモイド補間関数g(x)は、図7に示す
ように、比較的線形関数に近い形状となる。したがっ
て、図8(b)に示す領域B1および領域B2の補間画
素群の値も、上記の場合と略同様に、線形関数に近い形
状のシグモイド補間関数g(x)により決定されること
になる。
In FIG. 8A, a pixel fi + 1, j
And pixels fi + 1, j + 1 and pixels fi, j + 1 and pixels fi + 1,
Since the line process values between j + 1 and “j + 1” are “0.2”, the sigmoid interpolation function g (x) has a shape relatively close to a linear function as shown in FIG. Therefore, the values of the interpolated pixel groups in the areas B1 and B2 shown in FIG. 8B are also determined by the sigmoid interpolation function g (x) having a shape close to a linear function, similarly to the above case. .

【0058】そして、領域A1,A2,B1,B2の補
間画素群の値を決定した後は、これらの画素群に囲まれ
る領域Cの補間画素群の値を決定する。ただし、このと
き、領域A1,A2,B1,B2の各補間画素値は、既
に決定されている。したがって、領域Cについては、図
10に示すように、両端に既知の画素値を含む領域(例
えば領域C′)毎に分割し、各領域別に(6)式で表さ
れるシグモイド補間関数g(x)を用いて、領域A1,
A2,B1,B2における各補間画素と同様に画素値を
決定する。この場合のラインプロセス値lは、エッジ情
報変換処理部41で推定されたラインプロセス値から決
定され、例えば図8(a)の場合では、l=0.8、l
=0.2から線形的に決定される。
After determining the values of the interpolation pixel groups of the areas A1, A2, B1, and B2, the values of the interpolation pixel group of the area C surrounded by these pixel groups are determined. However, at this time, the interpolation pixel values of the regions A1, A2, B1, and B2 have already been determined. Therefore, as shown in FIG. 10, the region C is divided into regions (for example, a region C ′) including known pixel values at both ends, and the sigmoid interpolation function g ( x), the area A1,
Pixel values are determined in the same manner as the respective interpolated pixels in A2, B1, and B2. The line process value 1 in this case is determined from the line process value estimated by the edge information conversion processing unit 41. For example, in the case of FIG.
= 0.2 is determined linearly.

【0059】このようにして、画素補間処理部42は、
エッジ情報変換処理部41で推定されたラインプロセス
値に応じて、シグモイド補間関数g(x)の形状をステ
ップ関数的または線形関数的に可変させつつ、そのシグ
モイド補間関数g(x)を用いて補間画素値を決定し、
その補間画素値により処理対象の画像データを補完する
ことで、その画像データに対する拡大処理を行う。
As described above, the pixel interpolation processing unit 42
The shape of the sigmoid interpolation function g (x) is varied stepwise or linearly in accordance with the line process value estimated by the edge information conversion processing unit 41, while using the sigmoid interpolation function g (x). Determine the interpolation pixel value,
By complementing the image data to be processed with the interpolated pixel values, enlargement processing is performed on the image data.

【0060】なお、ここでは、例えば画像データを5倍
に拡大する場合であれば、図8(b)に示す領域A(A
1およびA2)、領域B(B1およびB2)、領域C
(C′を含む)の順で補間処理を行うように説明した
が、この順番に限定されるわけではなく、画像データに
対して水平方向の補間処理(領域A1および領域B1の
補間処理)後に、垂直方向の補間処理(領域A2、領域
Cおよび領域B2)を行うといった順で補間処理を行う
ことも考えられる。また、領域Cの補間処理についても
上述の手法に限定されるわけではなく、シグモイド補間
関数g(x)を用いないで、すでに補間値の決定した近
傍画素の値によって、例えば重み付け平均値を用いた公
知の手法で補間値を決定してもよい。
Here, for example, if the image data is enlarged five times, the area A (A) shown in FIG.
1 and A2), area B (B1 and B2), area C
It has been described that the interpolation processing is performed in the order of (including C ′). However, the interpolation processing is not limited to this order, and the interpolation processing is performed on the image data in the horizontal direction (the interpolation processing of the area A1 and the area B1). It is also conceivable to perform interpolation processing in the order of performing vertical interpolation processing (area A2, area C and area B2). Further, the interpolation processing of the area C is not limited to the above-described method. For example, the weighted average value is used without using the sigmoid interpolation function g (x) and using the values of the neighboring pixels for which the interpolation value has been determined. The interpolation value may be determined by a known method.

【0061】〔本実施形態における作用効果の説明〕以
上のように、本実施形態で説明した画像処理装置および
画像処理方法によれば、エッジの強度情報であるライン
プロセス値に応じて、シグモイド補間関数g(x)の形
状が可変されるので、そのシグモイド補間関数g(x)
によって補間される画素の値にエッジの強度情報が反映
されることになる。つまり、補間すべき画素の近傍画素
がエッジ部分を構成していれば、エッジ部分を鈍らせな
いような補間画素値が決定される一方、エッジ部分を構
成していなければ、階調連続性を維持するような補間画
素値が決定される。そのため、補間すべき画素をその近
傍画素から求めて拡大処理を行っても、特に画質に大き
な影響を与えるエッジ部分のボケやジャギー等といった
画質劣化が生じるのを極力抑えられるので、結果として
高画質化な拡大処理を実現し得るようになる。しかも、
拡大処理にあたって近傍画素から補間画素を特定できる
ので、例えば演算量の多い処理であるDCT/IDCT
を反復的に繰り返すと行った必要がなく、処理負荷が膨
大になってしまうこともなく、結果として高速な拡大処
理を実現し得るようになる。その上、シグモイド補間関
数g(x)を用いて補間画素値を決定するので、任意倍
率での拡大処理に対応することができ、拡大処理の柔軟
性をも確保し得るようになる。
[Explanation of Operation and Effect in this Embodiment] As described above, according to the image processing apparatus and the image processing method described in this embodiment, sigmoid interpolation is performed according to the line process value which is the edge intensity information. Since the shape of the function g (x) is variable, its sigmoid interpolation function g (x)
The edge intensity information is reflected on the value of the pixel to be interpolated. That is, if the neighboring pixels of the pixel to be interpolated constitute an edge portion, an interpolated pixel value that does not obscure the edge portion is determined. An interpolated pixel value to be maintained is determined. Therefore, even if the pixel to be interpolated is obtained from the neighboring pixels and the enlargement process is performed, image quality deterioration such as blurring or jaggies at the edge portion, which greatly affects the image quality, can be suppressed as much as possible. It is possible to realize a complicated enlargement process. Moreover,
In the enlargement processing, the interpolation pixel can be specified from the neighboring pixels.
It is not necessary to repeat this step repeatedly, so that the processing load does not become enormous, and as a result, high-speed enlargement processing can be realized. In addition, since the interpolated pixel value is determined using the sigmoid interpolation function g (x), it is possible to cope with enlargement processing at an arbitrary magnification and to secure flexibility of enlargement processing.

【0062】また、本実施形態で説明した画像処理装置
および画像処理方法によれば、エッジの強度情報である
ラインプロセス値の推定にあたり、エッジ成分の連続性
およびエッジを挟む画素間の濃度差の両方を基にしてい
るので、そのラインプロセス値の推定結果に人間の視覚
特性が反映されるようになる。したがって、人間の視覚
がエッジと認識し難い部分についてはノイズ成分として
除去される一方、本来的なエッジ部分についてはボケや
ジャギー等の画質劣化が確実に抑えられるので、より一
層の拡大処理の高画質化が図れるようになる。その上、
エッジ成分の連続性およびエッジを挟む画素間の濃度差
の両方に基づいてエネルギーを定義し、そのエネルギー
を最小化することでラインプロセス値を推定しているの
で、その推定結果に人間の視覚特性を反映させつつ、処
理負荷の膨大化も回避し得るようになる。ただし、これ
らのことは、エッジ成分の連続性とエッジを挟む画素間
の濃度差とのいずれか一方のみを基にした場合であって
も同様であるといえる。
Further, according to the image processing apparatus and the image processing method described in the present embodiment, the continuity of the edge component and the density difference between pixels sandwiching the edge are estimated in estimating the line process value as the edge intensity information. Since both are based, human visual characteristics are reflected in the estimation result of the line process value. Therefore, a portion that is difficult for human eyes to recognize as an edge is removed as a noise component, while a degradation in image quality such as blurring or jaggedness is reliably suppressed for an original edge portion. Image quality can be improved. Moreover,
The energy is defined based on both the continuity of the edge component and the density difference between the pixels sandwiching the edge, and the line process value is estimated by minimizing the energy. , While avoiding an enormous processing load. However, this can be said to be the same even when only one of the continuity of the edge component and the density difference between pixels sandwiching the edge is based.

【0063】[0063]

【発明の効果】以上に説明したように、本発明の画像処
理装置および画像処理方法では、多階調で表現された多
値画像に対する拡大処理を行う場合であっても、エッジ
部分のボケやジャギー等といった画質劣化が生じること
なく拡大処理を高画質に行うことができ、しかもその拡
大処理を少ない処理負荷で高速に行うことができる。
As described above, according to the image processing apparatus and the image processing method of the present invention, even if the enlargement process is performed on the multi-valued image expressed by the multi-gradation, blurring of the edge portion or blurring of the edge portion may be caused. Enlargement processing can be performed with high image quality without image quality deterioration such as jaggies, and the enlargement processing can be performed at high speed with a small processing load.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る画像処理装置の要部の構成例を
示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of a main part of an image processing apparatus according to the present invention.

【図2】 本発明に係る画像処理装置全体の概略構成例
を示すブロック図である。
FIG. 2 is a block diagram illustrating a schematic configuration example of an entire image processing apparatus according to the present invention.

【図3】 ある画素に対するラインプロセスを表す説明
図である。
FIG. 3 is an explanatory diagram illustrating a line process for a certain pixel.

【図4】 水平ラインプロセスおよび垂直ラインプロセ
スのそれぞれの近傍系のラインプロセスを表す説明図で
ある。
FIG. 4 is an explanatory diagram illustrating a line process of a neighboring system of a horizontal line process and a vertical line process.

【図5】 ラインプロセスの連続性とエネルギーとの関
係の具体例を示す説明図である。
FIG. 5 is an explanatory diagram showing a specific example of a relationship between continuity of a line process and energy.

【図6】 ラインプロセス推定の流れの概要を示すフロ
ーチャートである。
FIG. 6 is a flowchart showing an outline of a flow of line process estimation.

【図7】 シグモイド関数の形状例を示す説明図であ
る。
FIG. 7 is an explanatory diagram illustrating a shape example of a sigmoid function.

【図8】 画像データを5倍に拡大する場合の概要を示
す説明図であり、(a)は各画素間のラインプロセス値
の具体例を示す図、(b)は補間すべき画素領域の具体
例を示す図である。
8A and 8B are explanatory diagrams showing an outline of a case where image data is magnified five times; FIG. 8A is a diagram showing a specific example of a line process value between pixels; FIG. It is a figure showing a specific example.

【図9】 図8の場合における補間画素値決定の一具体
例を示す説明図である。
FIG. 9 is an explanatory diagram showing a specific example of determining an interpolation pixel value in the case of FIG. 8;

【図10】 図8の場合における補間すべき画素領域の
具体例の補足説明図である。
FIG. 10 is a supplementary explanatory diagram of a specific example of a pixel area to be interpolated in the case of FIG. 8;

【図11】 従来における画素補間の一例の概要を示す
説明図である。
FIG. 11 is an explanatory diagram showing an outline of an example of conventional pixel interpolation.

【図12】 従来における画像拡大処理の他の例の概要
を示す説明図である。
FIG. 12 is an explanatory diagram showing an outline of another example of the conventional image enlargement process.

【符号の説明】[Explanation of symbols]

10…画像データ入力部、11…画像データ格納部、1
2…拡大処理部、13…画像データ出力部、40…エッ
ジ検出処理部、41…エッジ情報変換処理部、42…画
素補間処理部
10: image data input unit, 11: image data storage unit, 1
2 ... Enlargement processing unit, 13 ... Image data output unit, 40 ... Edge detection processing unit, 41 ... Edge information conversion processing unit, 42 ... Pixel interpolation processing unit

フロントページの続き Fターム(参考) 5B057 AA20 CA08 CA12 CA16 CB08 CB12 CB16 CD06 CE03 DA17 DB02 DB09 DC16 5C076 AA21 AA32 BB04 BB15 5C077 LL02 MP01 MP08 NN02 NP01 PP03 PP20 PP43 PP65 TT02Continued on the front page F term (reference) 5B057 AA20 CA08 CA12 CA16 CB08 CB12 CB16 CD06 CE03 DA17 DB02 DB09 DC16 5C076 AA21 AA32 BB04 BB15 5C077 LL02 MP01 MP08 NN02 NP01 PP03 PP20 PP43 PP65 TT02

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 新たな画素の補間により原画像に対する
拡大処理を行う画像処理装置であって、 前記原画像におけるエッジ成分を抽出するエッジ検出手
段と、 前記エッジ検出手段による抽出結果からノイズ成分を含
まないエッジの強度情報を生成するエッジ情報変換手段
と、 前記エッジ情報変換手段が生成したエッジの強度情報に
応じて拡大処理の際に用いる補間関数の形状を可変して
当該拡大処理を行う補間演算手段とを備えることを特徴
とする画像処理装置。
1. An image processing apparatus for performing an enlargement process on an original image by interpolating a new pixel, comprising: an edge detection unit for extracting an edge component in the original image; and a noise component from an extraction result by the edge detection unit. Edge information conversion means for generating intensity information of edges not included; interpolation for performing the enlargement processing by changing the shape of an interpolation function used in enlargement processing according to the edge intensity information generated by the edge information conversion means An image processing apparatus comprising: a calculation unit.
【請求項2】 前記エッジ情報変換手段は、エッジの強
度情報の生成にあたり、少なくとも前記エッジ検出手段
が抽出したエッジ成分の連続性とエッジを挟む画素間の
濃度差とのいずれか一方を基にすることを特徴とする請
求項1記載の画像処理装置。
2. The method according to claim 1, wherein the edge information conversion unit generates the edge intensity information based on at least one of a continuity of an edge component extracted by the edge detection unit and a density difference between pixels sandwiching the edge. The image processing apparatus according to claim 1, wherein:
【請求項3】 前記エッジ情報変換手段は、エッジ成分
の連続性の要因とエッジを挟む画素間の濃度差の要因と
の少なくとも一方に基づいてエネルギーを定義し、当該
エネルギーを最小化することでエッジの強度情報の生成
を行うことを特徴とする請求項1または2記載の画像処
理装置。
3. The edge information conversion means defines energy based on at least one of a factor of continuity of an edge component and a factor of a density difference between pixels sandwiching the edge, and minimizes the energy. The image processing apparatus according to claim 1, wherein edge intensity information is generated.
【請求項4】 前記エッジ情報変換手段は、統計的緩和
法を用いて前記エネルギーの最小化を行うことを特徴と
する請求項3記載の画像処理装置。
4. The image processing apparatus according to claim 3, wherein the edge information conversion unit minimizes the energy by using a statistical relaxation method.
【請求項5】 前記エッジ情報変換手段は、最急降下法
を用いて前記エネルギーの最小化を行うことを特徴とす
る請求項3記載の画像処理装置。
5. The image processing apparatus according to claim 3, wherein the edge information conversion unit minimizes the energy using a steepest descent method.
【請求項6】 前記補間演算手段は、前記補間関数とし
てシグモイド関数を用いることを特徴とする請求項1,
2,3,4または5記載の画像処理装置。
6. The apparatus according to claim 1, wherein said interpolation operation means uses a sigmoid function as said interpolation function.
The image processing apparatus according to 2, 3, 4, or 5.
【請求項7】 新たな画素の補間により原画像に対する
拡大処理を行う画像処理方法であって、 前記原画像におけるエッジ成分を抽出し、 その抽出結果からノイズ成分を含まないエッジの強度情
報を生成し、 生成したエッジの強度情報に応じて拡大処理の際に用い
る補間関数の形状を可変して当該拡大処理を行うことを
特徴とする画像処理方法。
7. An image processing method for performing an enlargement process on an original image by interpolation of a new pixel, wherein an edge component in the original image is extracted, and edge intensity information containing no noise component is generated from the extraction result. An image processing method characterized in that the enlargement process is performed by changing the shape of an interpolation function used in the enlargement process according to the generated edge intensity information.
JP2001125284A 2001-04-24 2001-04-24 Image processing device and method Pending JP2002319020A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001125284A JP2002319020A (en) 2001-04-24 2001-04-24 Image processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001125284A JP2002319020A (en) 2001-04-24 2001-04-24 Image processing device and method

Publications (1)

Publication Number Publication Date
JP2002319020A true JP2002319020A (en) 2002-10-31

Family

ID=18974530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001125284A Pending JP2002319020A (en) 2001-04-24 2001-04-24 Image processing device and method

Country Status (1)

Country Link
JP (1) JP2002319020A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155179A (en) * 2004-11-29 2006-06-15 Sony Corp Image processor and processing method, storage medium and program
JP2007094783A (en) * 2005-09-29 2007-04-12 Toshiba Corp Image processor and image processing method
US7391920B2 (en) 2003-11-04 2008-06-24 Fujifilm Corporation Image processing method, apparatus, and program
US7609912B2 (en) 2004-04-20 2009-10-27 Samsung Electronics Co., Ltd. Image transforming device and method based on edges
JP2010067272A (en) * 2008-09-15 2010-03-25 Sony Corp System and method for high quality image and video upscaling
US7764839B2 (en) 2003-08-14 2010-07-27 Fujifilm Corporation Edge detecting apparatus and method, and image size enlarging and reducing apparatus and method
CN101849246A (en) * 2007-09-19 2010-09-29 汤姆森特许公司 System and method for scaling images
JP2010263441A (en) * 2009-05-07 2010-11-18 Canon Inc Image processing apparatus, image processing method and program
US8340473B2 (en) 2008-09-22 2012-12-25 Samsung Electronics Co., Ltd. Apparatus and method of interpolating image using region segmentation
JP2013157867A (en) * 2012-01-31 2013-08-15 Toshiba Corp Image processing apparatus

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7764839B2 (en) 2003-08-14 2010-07-27 Fujifilm Corporation Edge detecting apparatus and method, and image size enlarging and reducing apparatus and method
US7391920B2 (en) 2003-11-04 2008-06-24 Fujifilm Corporation Image processing method, apparatus, and program
US7609912B2 (en) 2004-04-20 2009-10-27 Samsung Electronics Co., Ltd. Image transforming device and method based on edges
JP4600011B2 (en) * 2004-11-29 2010-12-15 ソニー株式会社 Image processing apparatus and method, recording medium, and program
KR101174503B1 (en) 2004-11-29 2012-08-16 소니 주식회사 Image processing apparatus and method thereof, and recording medium
JP2006155179A (en) * 2004-11-29 2006-06-15 Sony Corp Image processor and processing method, storage medium and program
JP2007094783A (en) * 2005-09-29 2007-04-12 Toshiba Corp Image processor and image processing method
CN101849246A (en) * 2007-09-19 2010-09-29 汤姆森特许公司 System and method for scaling images
JP2011501835A (en) * 2007-09-19 2011-01-13 トムソン ライセンシング System and method for scaling an image
US8351730B2 (en) 2007-09-19 2013-01-08 Thomson Licensing System and method for scaling images
JP2010067272A (en) * 2008-09-15 2010-03-25 Sony Corp System and method for high quality image and video upscaling
JP2013109769A (en) * 2008-09-15 2013-06-06 Sony Corp System and method for high quality image and video upscaling
US8340473B2 (en) 2008-09-22 2012-12-25 Samsung Electronics Co., Ltd. Apparatus and method of interpolating image using region segmentation
JP2010263441A (en) * 2009-05-07 2010-11-18 Canon Inc Image processing apparatus, image processing method and program
JP2013157867A (en) * 2012-01-31 2013-08-15 Toshiba Corp Image processing apparatus

Similar Documents

Publication Publication Date Title
EP1347410B1 (en) Edge-based enlargement and interpolation of images
JP4140690B2 (en) Method for generating a super-resolution image from a pixel image
US20030179953A1 (en) Image processing apparatus, image processing method, and image processing program
EP1814075A1 (en) Method and apparatus for enhancing the resolution of a digital image
JPH0944657A (en) Method and device for processing image
US8326071B2 (en) Image processing method to restore an image
JP2002319020A (en) Image processing device and method
Son Inverse halftoning through structure-aware deep convolutional neural networks
Kavya et al. Survey on learning based super resolution techniques for enhancement of digital images
JPH08294001A (en) Image processing method and image processing unit
JP3738791B2 (en) Image processing method and apparatus
JP4250237B2 (en) Image processing apparatus, method, and computer-readable storage medium
Alvarez-Ramos et al. Image super-resolution via two coupled dictionaries and sparse representation
Cao et al. Single image motion deblurring with reduced ringing effects using variational Bayesian estimation
JP2002074356A (en) Method and device for processing picture and recording medium
JP5198500B2 (en) Signal processing apparatus and program
JP2000354244A (en) Image processing unit, its method and computer-readable storage medium
JP5181345B2 (en) Image processing apparatus and image processing method
JP3750164B2 (en) Image processing method and image processing apparatus
CN106204445A (en) Image/video super-resolution method based on structure tensor total variation
Taguchi et al. Enlargement method of digital images based on Laplacian pyramid representation
JP3972625B2 (en) Image processing apparatus and image processing method
Lee et al. A content-adaptive up-sampling technique for image resolution enhancement
JP2001056856A (en) Method and device for image processing and recording medium
JPH0846778A (en) Image magnification method