[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014086957A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2014086957A
JP2014086957A JP2012235876A JP2012235876A JP2014086957A JP 2014086957 A JP2014086957 A JP 2014086957A JP 2012235876 A JP2012235876 A JP 2012235876A JP 2012235876 A JP2012235876 A JP 2012235876A JP 2014086957 A JP2014086957 A JP 2014086957A
Authority
JP
Japan
Prior art keywords
pixel
image data
noise reduction
processing
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012235876A
Other languages
Japanese (ja)
Inventor
Yoshitaka Sasaki
良隆 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012235876A priority Critical patent/JP2014086957A/en
Publication of JP2014086957A publication Critical patent/JP2014086957A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which, when color image data is generated by interpolating pixels while noise is included in RAW image data, the noise may be emphasized, resulting in deterioration in image quality.SOLUTION: Noise reduction processing is performed on RAW image data, and pixel interpolation processing is performed on image data subjected to the noise reduction processing, thereby generating color image data. Then, the pixel interpolation processing is performed using edge information generated in the noise reduction processing.

Description

本発明は、画像データに含まれるノイズを低減する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for reducing noise included in image data.

デジタルスチルカメラやデジタルビデオカメラなどのデジタル撮像装置が広く普及して一般に利用されている。これらのデジタル撮像装置は、CCDやCMOSセンサなどの光電荷変換素子(撮像素子)で受光した光をデジタル信号に変換することでデジタル画像データを生成する。ここで、カラー画像を示す画像データを得るためには撮像素子の手前に光の波長によって透過率の異なるカラーフィルタを規則的に配置する。デジタル撮像装置は、カラーフィルタを透過した光量の違いから色信号を生成する。従って、デジタル撮像装置で記録される画像データ(以下、RAW画像データという)においてはカラーフィルタの配置に応じたデータが記録される。その後、ホワイトバランス補正や画素補間などの一連の画像処理がRAW画像データに対して行われて、RGB画像などの一般的なカラー画像を示す画像データが生成される。このように、デジタル撮像装置が備えるイメージセンサで記録された画像データから一般的なカラー画像を生成するデジタル画像処理は一般に現像処理と呼ばれる。   Digital imaging devices such as digital still cameras and digital video cameras are widely spread and are generally used. These digital imaging devices generate digital image data by converting light received by a photoelectric charge conversion device (imaging device) such as a CCD or CMOS sensor into a digital signal. Here, in order to obtain image data indicating a color image, color filters having different transmittances according to the wavelength of light are regularly arranged in front of the image sensor. The digital imaging device generates a color signal from the difference in the amount of light transmitted through the color filter. Therefore, data corresponding to the arrangement of the color filters is recorded in image data (hereinafter referred to as RAW image data) recorded by the digital imaging apparatus. Thereafter, a series of image processing such as white balance correction and pixel interpolation is performed on the RAW image data, and image data indicating a general color image such as an RGB image is generated. Thus, digital image processing for generating a general color image from image data recorded by an image sensor included in a digital imaging device is generally called development processing.

デジタル画像データを生成する過程では、撮像素子や回路の特性により暗電流ノイズ、熱雑音、ショットノイズなどが発生し、デジタル画像データにノイズが混入する。近年の撮像素子の小型化、高画素化に伴い画素ピッチが極小化しているため、ノイズが目立ちやすくなっており、特に撮影感度を高くした場合などはノイズが顕著に発生し、画質劣化の大きな要因になっている。従って、このようなノイズを低減し、高画質な画像を得るためには、RAW画像データに混入したノイズを低減する必要がある。   In the process of generating digital image data, dark current noise, thermal noise, shot noise, and the like are generated due to the characteristics of the imaging device and circuit, and the noise is mixed into the digital image data. With recent miniaturization of image sensors and higher pixel counts, the pixel pitch has been minimized, making noise more conspicuous, especially when shooting sensitivity is increased, resulting in noticeable noise and significant deterioration in image quality. It is a factor. Therefore, in order to reduce such noise and obtain a high-quality image, it is necessary to reduce noise mixed in the RAW image data.

従来、ノイズ周波数以下の信号成分を通すローパスフィルタを適用してノイズを低減する手法が知られている。しかしながら、ノイズ以外にエッジもぼけてしまうため高画質な画像を得ることが難しい。そこで、ノイズとエッジに関する情報を何らかの方法で判断し、適応的にノイズ低減を行う方法が数多く提案されている。   Conventionally, a technique for reducing noise by applying a low-pass filter that passes a signal component below a noise frequency is known. However, it is difficult to obtain a high-quality image because edges are blurred in addition to noise. Therefore, many methods have been proposed for determining noise and edge information by some method and adaptively reducing noise.

一般に、適応的なノイズ低減では、着目画素のノイズを低減するために、着目画素近傍の複数の画素を参照画素として選択して、それらの参照画素の適当な加重平均値により着目画素を置き換えることでノイズ低減を行う。   In general, in adaptive noise reduction, in order to reduce noise of a target pixel, a plurality of pixels near the target pixel are selected as reference pixels, and the target pixel is replaced with an appropriate weighted average value of the reference pixels. To reduce noise.

適応的なノイズ低減手法の一つとして、着目画素を含む領域(着目領域)を定め、その領域単位で着目画素と参照画素の類似度を求め、この類似度に応じた加重平均値を算出することでノイズ低減を実現する(特許文献1、特許文献2)。   As one of adaptive noise reduction methods, a region including a target pixel (target region) is determined, the similarity between the target pixel and the reference pixel is obtained for each region, and a weighted average value corresponding to the similarity is calculated. Thus, noise reduction is realized (Patent Document 1, Patent Document 2).

また、画素補間においてもエッジのぼけを低減する適応的な補間処理が提案されている(特許文献3)。   In addition, adaptive interpolation processing that reduces edge blur has also been proposed in pixel interpolation (Patent Document 3).

特表2007−536662号公報Special table 2007-536662 gazette 特開2011−39675号公報JP 2011-39675 A 特開平8−298669号公報JP-A-8-298669

現像処理における従来の方法では、画素補間処理を行いRGB画像データを生成した後に、RGB画像データに対してノイズ低減処理が行われる。この場合、前段の画素補間処理と後段のノイズ低減処理とで重複して画像中のエッジを検出する処理が適用されていた。また、RAW画像データにノイズを含んだまま画素補間を行ってカラー画像データを生成すると、ノイズを強調してしまう場合があり画質劣化の要因になるという問題があった。   In a conventional method in development processing, pixel interpolation processing is performed to generate RGB image data, and then noise reduction processing is performed on the RGB image data. In this case, a process of detecting an edge in an image overlappingly in the preceding pixel interpolation process and the subsequent noise reduction process has been applied. Further, when color image data is generated by performing pixel interpolation while including noise in RAW image data, there is a problem that noise may be emphasized, resulting in deterioration of image quality.

本発明に係る画像処理装置は、RAW画像データにノイズ低減処理をするノイズ低減手段と、前記ノイズ低減手段によってノイズ低減処理された画像データに画素補間処理をしてカラー画像データを生成する画素補間手段とを備えることを特徴とする。   An image processing apparatus according to the present invention includes a noise reduction unit that performs noise reduction processing on RAW image data, and pixel interpolation that generates color image data by performing pixel interpolation processing on the image data subjected to noise reduction processing by the noise reduction unit. Means.

本発明により、RAW画像データからカラー画像データを生成する現像処理において、RAW画像データのノイズを低減した画像データに対して画素補間処理を適用することにより、画質劣化を低減することができる。また、ノイズ低減処理で得られる画像のエッジ情報を参照して画素補間処理を行うことが可能になる。従って、現像処理において画像のエッジ検出に関わる負荷を低減しつつ画質を向上する効果を奏する。   According to the present invention, in the development processing for generating color image data from RAW image data, it is possible to reduce image quality deterioration by applying pixel interpolation processing to image data with reduced noise in the RAW image data. Also, pixel interpolation processing can be performed with reference to image edge information obtained by noise reduction processing. Therefore, there is an effect of improving the image quality while reducing the load related to image edge detection in the development processing.

本発明の実施例に係る画像処理装置のハードウェア構成の例を示すブロック図である。It is a block diagram which shows the example of the hardware constitutions of the image processing apparatus which concerns on the Example of this invention. 本発明の実施例に係る画像処理装置の論理構成の例を示すブロック図である。It is a block diagram which shows the example of the logic structure of the image processing apparatus which concerns on the Example of this invention. 本発明の実施例に係る画像処理の流れの一例を示すフローチャート図である。It is a flowchart figure which shows an example of the flow of the image processing which concerns on the Example of this invention. 本発明の実施例に係るベイヤ配列を説明する模式図である。It is a schematic diagram explaining the Bayer arrangement which concerns on the Example of this invention. 本発明の実施例に係るノイズ低減処理の流れの一例を示すフローチャート図である。It is a flowchart figure which shows an example of the flow of the noise reduction process which concerns on the Example of this invention. 本発明の実施例に係る画素補間処理の流れの一例を示すフローチャート図である。It is a flowchart figure which shows an example of the flow of the pixel interpolation process which concerns on the Example of this invention. 本発明の実施例に係る画素補間処理を説明する模式図である。It is a schematic diagram explaining the pixel interpolation process which concerns on the Example of this invention. 本発明の実施例に係るノイズ低減方法を説明する模式図である。It is a schematic diagram explaining the noise reduction method which concerns on the Example of this invention. 本発明の実施例に係る参照画素の重みを算出する関数を説明する模式図である。It is a schematic diagram explaining the function which calculates the weight of the reference pixel which concerns on the Example of this invention.

以下、図面を参照して本発明を実施する形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本実施例における画像処理装置の構成について、図1を参照して説明する。   The configuration of the image processing apparatus in this embodiment will be described with reference to FIG.

図1において、画像処理装置はCPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108、及びメインバス109を備える。汎用I/F104はカメラなどの撮像装置105や、マウス、キーボードなどの入力装置106、メモリーカードなどの外部メモリ107をメインバス109に接続する。   In FIG. 1, the image processing apparatus includes a CPU 101, a RAM 102, an HDD 103, a general-purpose interface (I / F) 104, a monitor 108, and a main bus 109. The general-purpose I / F 104 connects an imaging device 105 such as a camera, an input device 106 such as a mouse and a keyboard, and an external memory 107 such as a memory card to a main bus 109.

以下では、CPU101がHDD103に格納された各種ソフトウェア(コンピュータプログラム)を動作させることで実現する各種処理について述べる。   In the following, various processes realized by the CPU 101 operating various software (computer programs) stored in the HDD 103 will be described.

まず、CPU101はHDD103に格納されている画像処理アプリケーションを起動し、RAM102に展開するとともに、モニタ108にユーザインターフェース(UI)を表示する。続いて、HDD103や外部メモリ107に格納されている各種データ、撮像装置105で撮影されたRAW画像データ、及び入力装置106からの指示などがRAM102に転送される。さらに、画像処理アプリケーション内の処理に従って、RAM102に格納されているデータに対してCPU101からの指令に基づき各種演算を行う。演算結果はモニタ108に表示したり、HDD103、外部メモリ107に格納したりする。なお、HDD103や外部メモリ107に格納されているRAW画像データがRAM102に転送されてもよい。また、不図示のネットワークを介してサーバから送信されたRAW画像データがRAM102に転送されてもよい。   First, the CPU 101 activates an image processing application stored in the HDD 103, expands it in the RAM 102, and displays a user interface (UI) on the monitor 108. Subsequently, various data stored in the HDD 103 and the external memory 107, RAW image data captured by the imaging device 105, instructions from the input device 106, and the like are transferred to the RAM 102. Further, various calculations are performed on the data stored in the RAM 102 based on instructions from the CPU 101 in accordance with the processing in the image processing application. The calculation result is displayed on the monitor 108 or stored in the HDD 103 or the external memory 107. Note that RAW image data stored in the HDD 103 or the external memory 107 may be transferred to the RAM 102. Further, RAW image data transmitted from a server via a network (not shown) may be transferred to the RAM 102.

上記の構成に於いて、CPU101からの指令に基づき、画像処理アプリケーションに画像データを入力してノイズを低減した画像データを生成し、出力する処理の詳細について説明する。   In the above configuration, details of processing for generating and outputting image data with reduced noise by inputting image data to the image processing application based on a command from the CPU 101 will be described.

(NonLocalMeans)
まず、本実施例で説明するノイズ低減処理について説明しておく。本実施例では、NonLocalMeans(NLM)と呼ばれる手法を用いる例を説明する。この手法は、ノイズ低減対象となる着目画素を含む、着目画素の周辺に存在する複数の参照画素の画素値に適応的な重みを掛け、その結果を全て加算した結果で着目画素の画素値を置き換える事でノイズを低減する。参照画素の画素数をN、参照画素の画素値をI(j=1〜N)、参照画素の重みをw(j=1〜N)とすると、ノイズ低減処理後の着目画素の画素値Inewは次式になる。
(NonLocalMeans)
First, the noise reduction process described in the present embodiment will be described. In this embodiment, an example using a technique called NonLocalMeans (NLM) will be described. This method multiplies the pixel values of a plurality of reference pixels that exist around the pixel of interest, including the pixel of interest that is subject to noise reduction, adaptively weights the pixel values of the pixel of interest by adding all the results. Noise is reduced by replacement. When the number of reference pixels is N S , the pixel value of the reference pixel is I j (j = 1 to N S ), and the weight of the reference pixel is w j (j = 1 to N S ), attention after noise reduction processing The pixel value I new of the pixel is given by

Figure 2014086957
Figure 2014086957

次に、参照画素の重みの算出方法について、図8及び図9を参照して説明する。   Next, a method for calculating the weight of the reference pixel will be described with reference to FIGS.

図8(a)において、801は画像データの例を示しており、左上の画素を原点として各画素の画素値をI(x、y)と表すものとする。ここで、802は着目画素であり、その画素値はI(4、4)である。803は着目領域であり、ノイズ低減対象となる着目画素802を中心とした3×3画素の矩形領域である。804は参照画素であり、着目画素802を含む5×5画素(N=25)の矩形領域内の画素である。805は、参照画素I(2,2)の参照領域であり、参照画素I(2,2)を中心とし、着目領域と同サイズの3×3画素の矩形領域である。尚、参照領域は参照画素毎に存在するが、ここでは参照画素I(2,2)の参照領域だけ示している。 In FIG. 8A, reference numeral 801 denotes an example of image data, and the pixel value of each pixel is represented as I (x, y) with the upper left pixel as the origin. Here, reference numeral 802 denotes a pixel of interest, and its pixel value is I (4, 4). Reference numeral 803 denotes a region of interest, which is a 3 × 3 pixel rectangular region centered on the pixel of interest 802 that is a noise reduction target. Reference numeral 804 denotes a reference pixel, which is a pixel in a 5 × 5 pixel (N S = 25) rectangular area including the target pixel 802. Reference numeral 805 denotes a reference area of the reference pixel I (2, 2), which is a 3 × 3 rectangular area having the same size as the area of interest centered on the reference pixel I (2, 2). A reference area exists for each reference pixel, but only the reference area of the reference pixel I (2, 2) is shown here.

参照画素I(2、2)の重みを求めるために、まず、着目領域803と当該参照画素I(2、2)の参照領域805とを比較して類似度を算出する。尚、類似度は所望の方法で求めてよい。例えば、図8(b)のように、着目領域803の画素をb(p,q)、参照領域の画素をb(p,q)(j=1〜N)とする。そして、着目領域803と参照領域805の空間的に対応する画素の差を類似度とすると、類似度Cjは次式になる。 In order to obtain the weight of the reference pixel I (2, 2), first, the similarity is calculated by comparing the region of interest 803 with the reference region 805 of the reference pixel I (2, 2). Note that the similarity may be obtained by a desired method. For example, as shown in FIG. 8B, the pixel of the attention area 803 is b s (p, q), and the pixel of the reference area is b j (p, q) (j = 1 to N S ). Then, assuming that the difference between spatially corresponding pixels in the region of interest 803 and the reference region 805 is the similarity, the similarity C j is expressed by the following equation.

Figure 2014086957
Figure 2014086957

類似度Cは値が小さいほど着目領域と参照領域の類似度が高くなる。そこで、類似度に応じて、重みを決定する。重みは図9に示す関数のように類似度Cが小さいほど重みが大きく、類似度Cが大きいほど重みが小さくなるように決定すればよく、例えば次式で定まる。 The smaller the value of the similarity C j, the higher the similarity between the focus area and the reference area. Therefore, the weight is determined according to the degree of similarity. The weight may be determined so that the weight is larger as the similarity C j is smaller and the weight is smaller as the similarity C j is larger as in the function shown in FIG.

Figure 2014086957
Figure 2014086957

ここで、hは重みの大きさを制御する変数であり、hを大きくするとノイズ低減効果が高くなるが、エッジがぼける。   Here, h is a variable that controls the magnitude of the weight. Increasing h increases the noise reduction effect but blurs the edge.

以下同様に、着目領域803と各参照画素の参照領域とを順次比較していくことで、各参照画素の重みが得られる。   Similarly, the weight of each reference pixel can be obtained by sequentially comparing the attention area 803 and the reference area of each reference pixel.

尚、本実施例におけるノイズ低減処理は、参照画素の重みを着目領域と参照領域との類似度に基づいて決定する処理を説明したが、着目画素と参照画素との類似度に基づいて決定する処理であってもよい。例えば、ε-フィルタやバイラテラルフィルタ等を用いて参照画素の重みを求めても構わない。   In addition, although the noise reduction process in a present Example demonstrated the process which determines the weight of a reference pixel based on the similarity degree of an attention area and a reference area, it determines based on the similarity degree of an attention pixel and a reference pixel. It may be a process. For example, the weight of the reference pixel may be obtained using an ε-filter, a bilateral filter, or the like.

(画像処理装置の論理構成)
以下では、本実施例における画像処理について図2と図3を参照して説明する。
(Logical configuration of image processing device)
Hereinafter, image processing in the present embodiment will be described with reference to FIGS.

図2は本実施例の画像処理装置の論理構成を示す模式図であり、入力部201、記憶部202、処理部203、及び出力部204を備える。処理部203は、ホワイトバランス処理部205、ノイズ低減処理部206、画素補間処理部207、及び補正処理部208を含む。図2において、入力部201は、画像データや画像処理パラメータを画像処理装置に入力する。画像処理パラメータは、後述するホワイトバランス処理において用いられるパラメータである。入力するデータはCPU101からの指示に基づき、撮像装置105或いはHDD103や外部メモリ107から入力される。勿論、撮像装置105で撮影して得られる画像データや画像処理パラメータをHDD103などの記憶装置に一旦記憶した後で入力してもかまわない。   FIG. 2 is a schematic diagram illustrating a logical configuration of the image processing apparatus according to the present exemplary embodiment, which includes an input unit 201, a storage unit 202, a processing unit 203, and an output unit 204. The processing unit 203 includes a white balance processing unit 205, a noise reduction processing unit 206, a pixel interpolation processing unit 207, and a correction processing unit 208. In FIG. 2, an input unit 201 inputs image data and image processing parameters to the image processing apparatus. The image processing parameter is a parameter used in white balance processing described later. Data to be input is input from the imaging device 105, the HDD 103, or the external memory 107 based on an instruction from the CPU 101. Of course, image data and image processing parameters obtained by photographing with the imaging device 105 may be temporarily stored in a storage device such as the HDD 103 and then input.

記憶部202は、入力部201から入力された画像データ、画像処理パラメータ、及び画像処理した結果の画像データなどを保持する。記憶部202は、CPU101からの指示に基づき、RAM102、HDD103、または外部メモリ107などにデータを記憶する。勿論、CPU101からの指示に基づいて記憶したデータを読み出すことも可能である。   The storage unit 202 holds image data input from the input unit 201, image processing parameters, image data obtained as a result of image processing, and the like. The storage unit 202 stores data in the RAM 102, the HDD 103, the external memory 107, or the like based on an instruction from the CPU 101. Of course, it is also possible to read the stored data based on an instruction from the CPU 101.

処理部は203、画像データ及び画像処理パラメータを読み込んで画像処理を行う。処理部203は、まず、CPU101からの指示に基づき、入力部201或いは記憶部202から画像データや画像処理パラメータを読み込む。そして、読みこんだデータに基づいて画像処理を適用し、処理結果を記憶部202や出力部204に出力する。処理部203における画像処理の詳細は後述する。   A processing unit 203 reads image data and image processing parameters and performs image processing. The processing unit 203 first reads image data and image processing parameters from the input unit 201 or the storage unit 202 based on an instruction from the CPU 101. Then, image processing is applied based on the read data, and the processing result is output to the storage unit 202 and the output unit 204. Details of the image processing in the processing unit 203 will be described later.

出力部204は、処理部203で処理した画像データや記憶部202に記憶された画像データなどを出力する。出力部204はCPU101からの指示に基づき、モニタ108やHDD103などに出力する。尚、出力先はこれに限られるものではなく、例えば、汎用I/F104に接続した外部メモリ107や不図示の外部サーバに出力してもよいし、プリンタなどを接続して出力しても構わない。   The output unit 204 outputs image data processed by the processing unit 203, image data stored in the storage unit 202, and the like. The output unit 204 outputs to the monitor 108, the HDD 103, etc. based on an instruction from the CPU 101. The output destination is not limited to this. For example, the output destination may be output to the external memory 107 connected to the general-purpose I / F 104 or an external server (not shown), or may be output by connecting a printer or the like. Absent.

(メイン処理フロー)
以下では、図2で説明した画像処理装置の論理構成において、撮像装置105で撮影したRAW画像データからカラー画像データを生成する各処理の詳細について、図3のフローチャートを参照して説明する。
(Main processing flow)
In the following, details of each process for generating color image data from RAW image data captured by the imaging apparatus 105 in the logical configuration of the image processing apparatus described in FIG. 2 will be described with reference to the flowchart of FIG. 3.

ステップS301において、入力部201はRAW画像データを入力して、記憶部202に記憶する。尚、本実施例では入力するRAW画像データはベイヤ配列のカラーフィルタを持つ撮像装置で撮影された画像データであるものとして説明する。ベイヤ配列は図4に示すように、緑(G)の画素と赤(R)の画素とが交互に繰り返される行と、青(B)の画素と緑(G)の画素とが交互に繰り返される行とが交互に配列されている。但し、本実施例の適用範囲はベイヤ配列のカラーフィルタを持つ撮像装置で撮影された画像データに限られたものではない。RAW画像データからカラー画像データを生成する際に、ノイズ低減処理及び画素補間が可能な画像データであれば、任意のカラーフィルタを持つ撮像装置で撮影された画像データに対して適用可能である。   In step S <b> 301, the input unit 201 inputs RAW image data and stores it in the storage unit 202. In this embodiment, it is assumed that the input RAW image data is image data taken by an imaging device having a Bayer array color filter. As shown in FIG. 4, the Bayer array has rows in which green (G) pixels and red (R) pixels are alternately repeated, and blue (B) pixels and green (G) pixels are alternately repeated. Are alternately arranged. However, the application range of the present embodiment is not limited to image data captured by an imaging apparatus having a Bayer array color filter. Any image data that can be subjected to noise reduction processing and pixel interpolation when generating color image data from RAW image data can be applied to image data captured by an imaging device having an arbitrary color filter.

ステップS302においては、ホワイトバランス処理部205は、ステップS301で入力したRAW画像データを記憶部202から読み出し、ホワイトバランス処理を適用する。ここで、ホワイトバランス処理に適用される画像処理パラメータはRAW画像データの付加情報として記憶部202から読みだしても良いし、別途UIなどから適切な画像処理パラメータを指定して入力部201から入力してもよい。一般に、ホワイトバランス処理の画像処理パラメータは撮影時の光源に対応したRGBそれぞれのゲイン値として与えられ、各色に対応するゲイン値を画像データに乗算することで補正する。   In step S302, the white balance processing unit 205 reads out the RAW image data input in step S301 from the storage unit 202 and applies white balance processing. Here, the image processing parameters applied to the white balance processing may be read from the storage unit 202 as additional information of the RAW image data, or input from the input unit 201 by separately specifying appropriate image processing parameters from a UI or the like. May be. In general, image processing parameters for white balance processing are given as gain values for RGB corresponding to the light sources at the time of shooting, and are corrected by multiplying image data by gain values corresponding to each color.

ステップS303において、ノイズ低減処理部206は、ステップS302でホワイトバランス処理を適用した画像データに対してノイズ低減処理を適用する。ノイズ低減処理の詳細は後述する。   In step S303, the noise reduction processing unit 206 applies noise reduction processing to the image data to which the white balance processing is applied in step S302. Details of the noise reduction processing will be described later.

ステップS304において、画素補間処理部207は、ステップS303でノイズ低減処理を適用した画像データに対して画素補間処理(デモザイク処理)を適用する。画素補間処理の詳細は後述する。   In step S304, the pixel interpolation processing unit 207 applies pixel interpolation processing (demosaic processing) to the image data to which the noise reduction processing is applied in step S303. Details of the pixel interpolation processing will be described later.

ステップS305において、補正処理部208は、ステップS304でノイズ低減処理を適用した画像データに対して補正処理を適用する。ここで、補正処理は出力画像が好適に見えるように補正する処理全般を含む。例えば、メリハリを増すためのエッジ強調や、明るさを補正するγ補正、鮮やかさを増すための色補正などである。尚、補正処理の詳細は本実施例の主眼ではないため説明は省略する。処理部203は、補正処理を適用した画像データを記憶部202に記憶する。   In step S305, the correction processing unit 208 applies the correction process to the image data to which the noise reduction process is applied in step S304. Here, the correction processing includes general processing for correcting the output image so as to be seen suitably. For example, edge enhancement for increasing sharpness, γ correction for correcting brightness, color correction for increasing vividness, and the like. The details of the correction process are not the main point of the present embodiment, and thus the description thereof is omitted. The processing unit 203 stores the image data to which the correction process is applied in the storage unit 202.

ステップS306において、出力部204は、ステップS305で補正処理を適用した画像データを記憶部202から読み出し、出力する。   In step S306, the output unit 204 reads out and outputs the image data to which the correction process is applied in step S305 from the storage unit 202.

尚、RAW画像データからカラー画像データを生成する処理はこれに限られるものではない。例えば、レンズやセンサの特性により生じる画質劣化を補正する処理が含まれていても構わない。   In addition, the process which produces | generates color image data from RAW image data is not restricted to this. For example, processing for correcting image quality degradation caused by the characteristics of a lens or sensor may be included.

(ノイズ低減処理)
以下では、図3で説明したステップS303におけるノイズ低減処理の詳細について図5のフローチャート図を参照して説明する。
(Noise reduction processing)
Hereinafter, details of the noise reduction processing in step S303 described in FIG. 3 will be described with reference to the flowchart of FIG.

ステップS501においてノイズ低減処理部206は、ステップS302でホワイトバランス処理を適用した画像データを取得する。   In step S501, the noise reduction processing unit 206 acquires image data to which the white balance process is applied in step S302.

ステップS502においてノイズ低減処理部206は、ノイズ低減処理のパラメータを取得する。ここで、ノイズ低減処理として上述のNonLocalMeans法を適用する場合、パラメータは着目領域として用いる画素、参照画素、制御パラメータhなどである。尚、ノイズ低減パラメータは入力部201から入力しても良いし、記憶部202に予め記憶されているパラメータを読みだしても構わない。   In step S502, the noise reduction processing unit 206 acquires parameters for noise reduction processing. Here, when the above-mentioned NonLocalMeans method is applied as noise reduction processing, the parameters are a pixel used as a region of interest, a reference pixel, a control parameter h, and the like. The noise reduction parameter may be input from the input unit 201, or a parameter stored in advance in the storage unit 202 may be read.

ステップS503においてノイズ低減処理部206は、ステップS501で取得した画像データから、ノイズ低減処理を適用する処理画素を選択する。   In step S503, the noise reduction processing unit 206 selects a processing pixel to which the noise reduction processing is applied, from the image data acquired in step S501.

ステップS504においてノイズ低減処理部206は、ステップS503で選択した処理画素に対して、ステップS502で取得したパラメータに基づきノイズ低減処理を実行する。具体的には、式(1)から式(3)を順次適用すればよい。   In step S504, the noise reduction processing unit 206 performs noise reduction processing on the processing pixel selected in step S503 based on the parameters acquired in step S502. Specifically, equations (1) to (3) may be applied sequentially.

ステップS505においてノイズ低減処理部206は、エッジ情報生成を行う。エッジ情報Eiは式(3)で算出する重みwの総和と二乗和の比を用いて次式で得られる。 In step S505, the noise reduction processing unit 206 performs edge information generation. The edge information E i is obtained by the following equation using the ratio of the sum of the weights w j calculated by the equation (3) and the sum of squares.

Figure 2014086957
Figure 2014086957

エッジ情報は値が大きいほど対象画素がエッジである可能性が高いことを示す。例えば、ノイズが低減できない、即ち着目画素以外の参照画素の重みが0の場合、Ei=1となる。一方、ノイズがない場合、即ち参照画素の重みが全て等しい場合、Ei=1/Nsになる。その結果、エッジ部のように、重みが0の参照画素が含まれるような領域ではエッジ情報は大きい値になり、平坦部のように同程度の重みの画素が多く含まれる領域ではエッジ情報は小さい値になる。尚、エッジ情報は着目画素がエッジであるか否かを判定可能な値であればよく、これに限られるものではない。例えば、重みが閾値以下になる参照画素の数などもエッジ情報として利用できる。具体的には、平坦部などの画素値の変化が小さいところでは参照画素に相応の重みが生じるが、エッジ部などの画素値の変化が大きい領域では重みが0或いは極めて小さい参照画素数が増加する。従って、重みが0或いは極めて小さい参照画素の数をカウントすることでエッジ情報として利用可能である。さらには、類似度Cj、ノイズ低減補正前後の画素値の差、など重み以外の情報もエッジ情報として利用可能である。例えば、類似度Cjは値が小さいほど着目領域と参照領域とが類似していることを示すため、平坦部ほど類似度Cjが小さい参照画素が多くなる。従って、類似度Cjの総和は平坦部ほど小さく、エッジ部ほど大きくなるエッジ情報として利用できる。また、ノイズ補正前後の画素値の差は平坦部ほどノイズ低減により画素値の変化が大きくなるため、平坦部ほど大きく、エッジ部ほど小さくなるエッジ情報として利用できる。 The larger the value of the edge information, the higher the possibility that the target pixel is an edge. For example, if the noise cannot be reduced, that is, if the weights of reference pixels other than the target pixel are 0, E i = 1. On the other hand, when there is no noise, that is, when the weights of the reference pixels are all equal, E i = 1 / Ns. As a result, the edge information has a large value in an area including a reference pixel having a weight of 0, such as an edge portion, and the edge information is not included in an area including many pixels of the same weight, such as a flat portion. Small value. Note that the edge information may be a value that can determine whether or not the target pixel is an edge, and is not limited thereto. For example, the number of reference pixels whose weight is equal to or less than a threshold can be used as edge information. Specifically, the reference pixel has a corresponding weight when the change in the pixel value is small, such as in a flat portion, but the number of reference pixels having a weight of 0 or extremely small increases in a region where the change in the pixel value is large, such as an edge portion. To do. Therefore, it can be used as edge information by counting the number of reference pixels whose weight is 0 or very small. Furthermore, information other than the weight, such as the similarity C j and the difference between pixel values before and after noise reduction correction, can also be used as edge information. For example, the smaller the value of the similarity Cj is, the more the reference region is similar to the target region and the reference region. Therefore, the sum of the similarities Cj can be used as edge information that is smaller as the flat portion is larger and larger as the edge portion is larger. Further, the difference between the pixel values before and after the noise correction becomes larger as the flat portion changes the pixel value due to noise reduction. Therefore, it can be used as edge information that is larger in the flat portion and smaller in the edge portion.

ステップS506においてノイズ低減処理部206は、全画素のノイズ低減処理が終了したかどうか判定する。終了していればステップS507に移行し、終了していなければステップS503に移行して処理を継続する。   In step S506, the noise reduction processing unit 206 determines whether the noise reduction processing for all pixels has been completed. If completed, the process proceeds to step S507, and if not completed, the process proceeds to step S503 to continue the process.

ステップS507においてノイズ低減処理部206は、ステップS504でノイズ低減した画像データとステップS505で算出したエッジ情報とを出力する。   In step S507, the noise reduction processing unit 206 outputs the image data whose noise is reduced in step S504 and the edge information calculated in step S505.

(画素補間処理)
以下では、図3で説明したステップS304における画素補間処理の詳細について図6のフローチャート図を参照して説明する。
(Pixel interpolation processing)
Hereinafter, details of the pixel interpolation processing in step S304 described in FIG. 3 will be described with reference to the flowchart in FIG.

ステップS601において画素補間処理部207は、ステップS303で求めたノイズ低減後の画像データとエッジ情報とを取得する。   In step S601, the pixel interpolation processing unit 207 acquires the image data and edge information after noise reduction obtained in step S303.

ステップS602において画素補間処理部207は、ステップS601で取得した画像データから、画素補間処理を適用する処理画素を選択する。   In step S602, the pixel interpolation processing unit 207 selects a processing pixel to which the pixel interpolation process is applied from the image data acquired in step S601.

ステップS603において画素補間処理部207は、ステップS601で取得したエッジ情報から、ステップS602で選択した処理画素に対応するエッジ情報を取得する。   In step S603, the pixel interpolation processing unit 207 acquires edge information corresponding to the processing pixel selected in step S602 from the edge information acquired in step S601.

ステップS604において画素補間処理部207は、処理画素がエッジ部分かどうか判定する。判定はエッジ情報の大きさに基づいて決定すればよい。例えば、閾値Ethを定め、エッジ情報Eiが閾値Ethよりも小さい場合は平坦部であるとしてステップS605に移行する。また、エッジ情報Eiが閾値Ethよりも大きい場合はエッジ部であるとしてステップS606に移行する。   In step S604, the pixel interpolation processing unit 207 determines whether the processing pixel is an edge portion. The determination may be made based on the size of the edge information. For example, the threshold value Eth is determined, and if the edge information Ei is smaller than the threshold value Eth, the process proceeds to step S605 as a flat portion. On the other hand, if the edge information Ei is larger than the threshold Eth, it is determined that the edge portion is an edge portion, and the process proceeds to step S606.

ステップS605において画素補間処理部207は、処理画素に線形補間を適用する。ここで、図7はベイヤ配列の画素を示しており、RXXは赤画素、GXXは緑画素、BXXは青画素である(XXには任意の整数が入る)。赤画素R33の画素位置に対応する緑画素G33及びB33を算出する方法を説明する。処理画素はステップS604においてエッジではないと判定された画素であるから、近傍のG画素或いはB画素の平均値として次式で算出される。   In step S605, the pixel interpolation processing unit 207 applies linear interpolation to the processing pixel. Here, FIG. 7 shows pixels in a Bayer array, where RXX is a red pixel, GXX is a green pixel, and BXX is a blue pixel (XX is an arbitrary integer). A method for calculating the green pixels G33 and B33 corresponding to the pixel position of the red pixel R33 will be described. Since the processing pixel is a pixel determined not to be an edge in step S604, it is calculated by the following equation as an average value of neighboring G pixels or B pixels.

Figure 2014086957
Figure 2014086957

Figure 2014086957
Figure 2014086957

尚、処理画素が青画素であった場合の赤画素の値は式(6)と同様に算出可能である。   Note that the value of the red pixel when the processing pixel is a blue pixel can be calculated in the same manner as Equation (6).

ステップS606において画素補間処理部207は、処理画素に適応補間を適用する。ここも同様に、R33の画素位置に対応するG33及びB33を算出する方法を説明する。処理画素はステップS604においてエッジであると判定された画素であるから、まずはエッジの方向を求めるために縦横それぞれの画素差分値DV,DHを算出する。   In step S606, the pixel interpolation processing unit 207 applies adaptive interpolation to the processing pixel. Similarly, a method for calculating G33 and B33 corresponding to the pixel position of R33 will be described. Since the processing pixel is a pixel determined to be an edge in step S604, first, the vertical and horizontal pixel difference values DV and DH are calculated in order to obtain the edge direction.

Figure 2014086957
Figure 2014086957

Figure 2014086957
Figure 2014086957

次に、DV,DHの大小関係に基づき、次式でG33の画素値を算出する。   Next, based on the magnitude relationship between DV and DH, the pixel value of G33 is calculated by the following equation.

Figure 2014086957
Figure 2014086957

このようにエッジの方向に応じて平均する画素を変更することで画像のエッジを保存した画素補間が可能になる。また、青画素の補間の場合も同様に次式で画素差分値DN,NPを算出する。   In this way, by changing the pixel to be averaged according to the edge direction, pixel interpolation that preserves the edge of the image becomes possible. Similarly, in the case of blue pixel interpolation, the pixel difference values DN and NP are calculated by the following equation.

Figure 2014086957
Figure 2014086957

Figure 2014086957
Figure 2014086957

次に、DN、DPの大小関係に基づき、次式でB33の画素値を算出する。   Next, based on the magnitude relationship between DN and DP, the pixel value of B33 is calculated by the following equation.

Figure 2014086957
Figure 2014086957

尚、本実施例では簡易な線形補間及び適応補間の方法を説明したが、ステップS303のノイズ低減処理から取得したエッジ情報に基づいて2種類以上の異なる補間方法を適用すれば所望の補間方法を用いて構わない。例えば、特許文献1に記載の方法も用いることが可能である。   In this embodiment, simple linear interpolation and adaptive interpolation methods have been described. However, if two or more different interpolation methods are applied based on the edge information acquired from the noise reduction processing in step S303, a desired interpolation method can be obtained. You can use it. For example, the method described in Patent Document 1 can also be used.

ステップS607において画素補間処理部207は、全画素の画素補間処理が終了したかどうか判定する。終了していればステップS608に移行し、終了していなければステップS602に移行して処理を継続する。   In step S <b> 607, the pixel interpolation processing unit 207 determines whether the pixel interpolation processing for all pixels has been completed. If completed, the process proceeds to step S608, and if not completed, the process proceeds to step S602 to continue the process.

ステップS608において画素補間処理部207は、画素補間処理後の画像データを出力する。   In step S608, the pixel interpolation processing unit 207 outputs the image data after the pixel interpolation processing.

以上の処理により、ノイズ低減後の画像データに対して画素補間処理を適用することができる。したがって、画質劣化が低減した画像を提供することができる。また、ノイズ低減処理で得られる画像のエッジ情報を参照して画素補間処理を行うことが可能になる。その結果、現像処理における画像のエッジ検出に関わる負荷を低減しつつ、ノイズ低減処理で得られるエッジ情報を画素補間処理に用いることで画質を向上することができる。   With the above processing, pixel interpolation processing can be applied to the image data after noise reduction. Therefore, an image with reduced image quality deterioration can be provided. Also, pixel interpolation processing can be performed with reference to image edge information obtained by noise reduction processing. As a result, it is possible to improve image quality by using the edge information obtained by the noise reduction process for the pixel interpolation process while reducing the load related to the edge detection of the image in the development process.

<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other examples>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (14)

RAW画像データにノイズ低減処理をするノイズ低減手段と、
前記ノイズ低減手段によってノイズ低減処理された画像データに画素補間処理をしてカラー画像データを生成する画素補間手段と
を備えることを特徴とする画像処理装置。
Noise reduction means for performing noise reduction processing on RAW image data;
An image processing apparatus comprising: pixel interpolating means for generating color image data by subjecting image data subjected to noise reduction processing by the noise reducing means to pixel interpolation processing.
前記ノイズ低減手段は、前記RAW画像データにおける着目画素の近傍の参照画素の重みを決定し、決定した参照画素の重みを用いて該着目画素を補正することを特徴とする請求項1に記載の画像処理装置。   The said noise reduction means determines the weight of the reference pixel of the vicinity of the attention pixel in the said RAW image data, and correct | amends this attention pixel using the weight of the determined reference pixel. Image processing device. 前記ノイズ低減手段は、前記着目画素と参照画素との類似度または着目領域と参照領域との類似度に基づいて前記参照画素の重みを決定することを特徴とする請求項2に記載の画像処理装置。   The image processing according to claim 2, wherein the noise reduction unit determines a weight of the reference pixel based on a similarity between the target pixel and a reference pixel or a similarity between the target region and a reference region. apparatus. 前記ノイズ低減手段は、前記決定した重みに関する情報に基づいて、前記着目画素がエッジか否かを示すエッジ情報を生成することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the noise reduction unit generates edge information indicating whether or not the pixel of interest is an edge based on information on the determined weight. 前記エッジ情報は、前記類似度に基づいて生成されることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the edge information is generated based on the similarity. 前記エッジ情報は、前記着目画素と前記ノイズ低減手段で補正した画素との差に基づいて生成されることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the edge information is generated based on a difference between the pixel of interest and a pixel corrected by the noise reduction unit. 前記画素補間手段は、前記ノイズ低減手段によって生成されたエッジ情報を用いて前記画素補間処理を行うことを特徴とする請求項4から6のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the pixel interpolation unit performs the pixel interpolation process using edge information generated by the noise reduction unit. 前記画素補間手段は、前記ノイズ低減手段によって生成されたエッジ情報に基づいて、画素補間処理の対象の画素の補間方法を決定することを特徴とする請求項4から6のいずれかに記載の画像処理装置。   The image according to any one of claims 4 to 6, wherein the pixel interpolation unit determines an interpolation method of a pixel to be subjected to pixel interpolation processing based on the edge information generated by the noise reduction unit. Processing equipment. 前記RAW画像データはベイヤ配列のカラーフィルタを備えた撮像装置で撮影された画像データであることを特徴とする請求項1から8のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the RAW image data is image data captured by an imaging apparatus having a Bayer array color filter. RAW画像データを入力する入力手段と、
前記入力されたRAW画像データのノイズを低減した画像データと、前記RAW画像データの各画素のエッジ情報とを出力するノイズ低減手段と、
前記ノイズ低減手段によって出力されたノイズを低減した画像データの各画素の画素補間方法を、前記ノイズ低減手段によって出力された各画素のエッジ情報に基づいて決定する決定手段と、
前記決定手段で決定された画素補間方法を用いて前記ノイズを低減した画像データの各画素を補間する画素補間手段と
を備えることを特徴とする画像処理装置。
Input means for inputting RAW image data;
Noise reduction means for outputting image data obtained by reducing noise of the input RAW image data, and edge information of each pixel of the RAW image data;
Determining means for determining a pixel interpolation method for each pixel of the image data with reduced noise output by the noise reducing means based on edge information of each pixel output by the noise reducing means;
An image processing apparatus comprising: a pixel interpolation unit that interpolates each pixel of the image data with reduced noise using the pixel interpolation method determined by the determination unit.
RAW画像データを入力する入力手段と、
前記入力されたRAW画像データからカラー画像データを出力する出力手段と
を備える画像処理装置であって、
前記出力手段で出力されるカラー画像データは、前記入力されたRAW画像データに対して画素補間処理を行い画素補間処理後のカラー画像データに対してノイズ低減処理を行ったカラー画像データよりも、ノイズが低減され、かつエッジ部分のエッジが強調されたカラー画像データである、
ことを特徴とする画像処理装置。
Input means for inputting RAW image data;
An image processing apparatus comprising output means for outputting color image data from the input RAW image data,
The color image data output by the output means is more than color image data obtained by performing pixel interpolation processing on the input RAW image data and performing noise reduction processing on the color image data after pixel interpolation processing. Color image data in which noise is reduced and edges of edge portions are enhanced.
An image processing apparatus.
請求項1から11のいずれかに記載の画像処理装置を含む撮像装置。   An imaging apparatus including the image processing apparatus according to claim 1. RAW画像データにノイズ低減処理をするノイズ低減ステップと、
前記ノイズ低減ステップによってノイズ低減処理された画像データに画素補間処理をしてカラー画像データを生成する画素補間ステップと
を備えることを特徴とする画像処理方法。
A noise reduction step of performing noise reduction processing on the RAW image data;
An image processing method comprising: a pixel interpolation step of generating color image data by subjecting the image data subjected to noise reduction processing by the noise reduction step to pixel interpolation processing.
コンピュータを、請求項1から11のいずれかに記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 11.
JP2012235876A 2012-10-25 2012-10-25 Image processing device and image processing method Pending JP2014086957A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012235876A JP2014086957A (en) 2012-10-25 2012-10-25 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012235876A JP2014086957A (en) 2012-10-25 2012-10-25 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2014086957A true JP2014086957A (en) 2014-05-12

Family

ID=50789624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012235876A Pending JP2014086957A (en) 2012-10-25 2012-10-25 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2014086957A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106768077A (en) * 2017-02-18 2017-05-31 塔里木大学 A kind of jujube quality detection system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106768077A (en) * 2017-02-18 2017-05-31 塔里木大学 A kind of jujube quality detection system

Similar Documents

Publication Publication Date Title
JP6071419B2 (en) Image processing apparatus and image processing method
JP2010245977A (en) Image processing apparatus, image processing method, and image processing program
CN107395991B (en) Image synthesis method, image synthesis device, computer-readable storage medium and computer equipment
US8238685B2 (en) Image noise reduction method and image processing apparatus using the same
US8520099B2 (en) Imaging apparatus, integrated circuit, and image processing method
JP2013218487A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JPWO2017169039A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US20220198625A1 (en) High-dynamic-range image generation with pre-combination denoising
JP6087612B2 (en) Image processing apparatus and image processing method
JP2014021928A (en) Image processor, image processing method and program
JP2011171885A (en) Image processing apparatus and image processing method
JP2010268426A (en) Image processing apparatus, image processing method, and program
TWI544785B (en) Image downsampling apparatus and method
JP2020145553A (en) Image processing apparatus, image processing method and program
JP5631769B2 (en) Image processing device
JP2009194721A (en) Image signal processing device, image signal processing method, and imaging device
JP2014086957A (en) Image processing device and image processing method
JP6408884B2 (en) Image processing apparatus, image processing method, and program
JP2007096437A (en) Determination of image creator&#39;s intention
JP7183015B2 (en) Image processing device, image processing method, and program
JP6245847B2 (en) Image processing apparatus and image processing method
JP6494388B2 (en) Image processing apparatus, image processing method, and program
JP5846885B2 (en) Image processing apparatus and image processing method
JP2010028374A (en) Image processor, method of interpolating image signal, and image processing program