[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008205737A - Imaging system, image processing program, and image processing method - Google Patents

Imaging system, image processing program, and image processing method Download PDF

Info

Publication number
JP2008205737A
JP2008205737A JP2007038471A JP2007038471A JP2008205737A JP 2008205737 A JP2008205737 A JP 2008205737A JP 2007038471 A JP2007038471 A JP 2007038471A JP 2007038471 A JP2007038471 A JP 2007038471A JP 2008205737 A JP2008205737 A JP 2008205737A
Authority
JP
Japan
Prior art keywords
pixel
value
peripheral
correlation
divergence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007038471A
Other languages
Japanese (ja)
Inventor
Daisuke Teramoto
大輔 寺本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007038471A priority Critical patent/JP2008205737A/en
Priority to PCT/JP2008/052345 priority patent/WO2008102677A1/en
Publication of JP2008205737A publication Critical patent/JP2008205737A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Picture Signal Circuits (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging system etc., capable of obtaining a smoothing model with an edge preserved therein by operational processing with a comparatively small load. <P>SOLUTION: The imaging system includes: a difference calculating part 203 for calculating a pixel value divergence degree between a target pixel in a target area and a peripheral pixel; a distance calculating part 202 for calculating a position divergence degree between the target pixel and the peripheral pixel; a peripheral pixel coefficient calculating part 207 for obtaining a correlative relation value by multiplying the pixel value divergence degree by the position divergence degree, obtaining a correlative index value by adding a tuning value to the correlative relation value and obtaining the reciprocal number, and obtaining the filter coefficient of the peripheral pixel from the correlative index value; a target pixel coefficient calculating part 208 for obtaining the filter coefficient of the target pixel from the pixel value divergence degree; and a convolution calculating part 210 for calculating the smoothing model pixel value of the target pixel by performing filter calculation by the use of the obtained filter coefficient. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像のノイズ低減に用いる平滑化モデルを算出する撮像システム、画像処理プログラム、画像処理方法に関する。   The present invention relates to an imaging system, an image processing program, and an image processing method for calculating a smoothing model used for image noise reduction.

撮像システムから得られる画像信号中には、一般にノイズ成分が含まれており、このノイズは、撮像素子やアナログ回路などから発生するランダム性のノイズと、撮像素子の欠陥画素などに起因して発生するスパイク性のノイズと、に大別することができる。   An image signal obtained from an imaging system generally contains a noise component. This noise is generated due to random noise generated from an image sensor or an analog circuit, a defective pixel of the image sensor, and the like. It can be roughly divided into spike noise.

これらの内のランダム性のノイズは、ホワイトノイズ特性に近い特性を有しており、従来より種々のノイズモデルが提案されている。   Among them, random noise has characteristics close to white noise characteristics, and various noise models have been proposed.

そして、このようなランダム性のノイズを低減するための様々な技術が、従来より提案されている。   Various techniques for reducing such random noise have been proposed.

例えば、SUSANフィルタ(バイラテラルフィルタ)として知られる第1の技術(後述する特開2004−159311号公報の[背景技術]を参照)は、次の数式、

Figure 2008205737
に示すようなフィルタを用いるものである。このSUSANフィルタは、数式を見れば分かるように、画素位置(x,y)の注目画素と画素位置(x+i,y+i)の各周辺画素との距離と、注目画素の画素値f(x,y)と各周辺画素f(x+i,y+i)の画素値との差分と、に基づいて、相関性の高い(すなわち、距離が小さいほど相関性が高く、かつ差分が小さいほど相関性が高い)画素は重みを大きく、相関性の低い(すなわち、距離が大きいほど相関性が低く、かつ差分が大きいほど相関性が低い)画素は重みを小さくするフィルタとなっている。そして、このときに適用される重みは、注目画素と周辺画素との距離に応じたガウス分布と、注目画素値と周辺画素値との差分に応じたガウス分布と、の積となっている。 For example, a first technique known as a SUSAN filter (bilateral filter) (see [Background Art] in Japanese Patent Application Laid-Open No. 2004-159511 described later) has the following formula:
Figure 2008205737
A filter as shown in FIG. As can be seen from the mathematical expression, this SUSAN filter can detect the distance between the pixel of interest at the pixel position (x, y) and each peripheral pixel at the pixel position (x + i, y + i), and the pixel value f (x, y) of the pixel of interest. ) And the difference between the pixel values of the surrounding pixels f (x + i, y + i) and the higher the correlation (that is, the smaller the distance, the higher the correlation, and the smaller the difference, the higher the correlation). The pixel has a large weight and a low correlation (that is, the correlation is low as the distance is large and the correlation is low as the difference is large) is a filter that reduces the weight. The weight applied at this time is a product of a Gaussian distribution according to the distance between the target pixel and the peripheral pixels and a Gaussian distribution according to the difference between the target pixel value and the peripheral pixel value.

また、第2の技術としては、例えば特開2004−159311号公報に記載の技術が挙げられる。該公報に記載の技術は、上述したSUSANフィルタを改良して得られる次の数式、

Figure 2008205737
に示すようなフィルタを用いるものである。この技術は、画像ブロック毎に分布係数(ここではU(X,Y))を算出して、画像ブロック毎にフィルタ係数を制御するものとなっている。 Moreover, as a 2nd technique, the technique as described in Unexamined-Japanese-Patent No. 2004-159511 is mentioned, for example. The technique described in the publication is obtained by improving the above-described SUSAN filter,
Figure 2008205737
A filter as shown in FIG. In this technique, a distribution coefficient (here, U (X, Y)) is calculated for each image block, and a filter coefficient is controlled for each image block.

一方、第3の技術として、例えば特開平10−200751号公報には、注目領域内の注目画素以外の周辺画素の濃度値を代表的に表現する周辺濃度値U(該公報の実施形態においては画素の平均値)を算出して、この周辺濃度値Uと注目画素濃度値Sとの差分に基づいて注目画素に適用するフィルタ係数(荷重値)Wsと周辺画素に適用するフィルタ係数(荷重値)Wuとを決定し、次の数式、

Figure 2008205737
に示すように、ノイズ低減後の注目画素濃度値S0を算出する技術が記載されている。該公報に記載の技術は、図16(A)〜図16(C)に示すように、周辺濃度値Uと注目画素濃度値Sとの差分が所定の設定値αよりも大きい場合には周辺濃度値Uに適用するフィルタ係数Wuを相対的に大きくし、逆に、該差分が所定の設定値αよりも小さい場合には注目画素濃度値Sに適用するフィルタ係数Wsを相対的に大きくする(つまり、注目画素と周辺画素との重みの比率を変化させる)ものとなっている。なお、図16におけるIDは、使用するLUTに対応するID番号であり、周辺濃度値Uに応じて決定される。ここに、図16は、従来のフィルタリング処理における注目画素と周辺画素との重み係数の相関を概念的に示す図である。 On the other hand, as a third technique, for example, Japanese Patent Application Laid-Open No. 10-200271 discloses a peripheral density value U representatively representing density values of peripheral pixels other than the target pixel in the target area (in the embodiment of the publication). An average pixel value) is calculated, and a filter coefficient (load value) Ws applied to the target pixel based on the difference between the peripheral density value U and the target pixel density value S, and a filter coefficient (load value) applied to the peripheral pixel ) Determine Wu and the following formula:
Figure 2008205737
As shown in FIG. 5, a technique for calculating a target pixel density value S0 after noise reduction is described. As shown in FIGS. 16 (A) to 16 (C), the technique described in this publication is used when the difference between the peripheral density value U and the target pixel density value S is larger than a predetermined set value α. The filter coefficient Wu applied to the density value U is relatively increased. Conversely, when the difference is smaller than the predetermined set value α, the filter coefficient Ws applied to the target pixel density value S is relatively increased. (In other words, the weight ratio between the target pixel and the surrounding pixels is changed). The ID in FIG. 16 is an ID number corresponding to the LUT to be used, and is determined according to the peripheral density value U. FIG. 16 is a diagram conceptually showing the correlation between the weighting factors of the pixel of interest and the surrounding pixels in the conventional filtering process.

そして、第4の技術として、例えば特開2004−88149号公報には、信号レベル、CCDの温度、露光時間、ゲインなどの要因や撮影状況に基づいてノイズモデルを推定し、推定されたノイズモデルを撮影シーンに適合するように補正して、補正されたノイズモデル以下の映像信号成分を抑制することによりノイズ低減を行う技術が記載されている。この第4の技術は、図17に示すように、ノイズモデルを超える映像信号成分を保存するものであるために、エッジを原信号として保存した平滑化処理を実現することができる。ここに、図17は、従来のコアリング処理においてエッジ部のノイズが残留する様子を概念的に示す図である。
特開2004−159311号公報 特開平10−200751号公報 特開2004−88149号公報
As a fourth technique, for example, in Japanese Patent Application Laid-Open No. 2004-88149, a noise model is estimated based on factors such as a signal level, a temperature of a CCD, an exposure time, a gain, and a photographing situation. Describes a technique for reducing noise by correcting video to match the shooting scene and suppressing video signal components below the corrected noise model. As shown in FIG. 17, the fourth technique stores video signal components that exceed the noise model, and thus can realize a smoothing process that stores edges as original signals. FIG. 17 is a diagram conceptually showing how the noise at the edge portion remains in the conventional coring process.
JP 2004-159511 A Japanese Patent Laid-Open No. 10-200751 JP 2004-88149 A

しかしながら、上述したような第1の技術および第2の技術は、指数関数演算などの処理を行うものであって、演算処理の負荷が大きいために、カメラ等の撮像システムに搭載するためのランダムノイズ低減装置としてハードウェア化することは現実的でない。   However, since the first technique and the second technique as described above perform processing such as exponential function calculation, and the load of the calculation processing is large, the first technique and the second technique are random for mounting in an imaging system such as a camera. Realizing hardware as a noise reduction device is not practical.

また、上述したような第3の技術は、全ての周辺画素を同一のフィルタ係数を用いて平滑化するものであるために、エッジや微細領域の保存が十分であるとはいえない。   In addition, since the third technique as described above smoothes all peripheral pixels using the same filter coefficient, it cannot be said that the preservation of edges and fine regions is sufficient.

そして、上述したような第4の技術は、近傍画素の単純平均を取った平滑化モデルを想定しているために、図17に示したように、エッジ部分で平滑化モデルがなまってしまい、該エッジ部分でノイズ低減効果が不十分である。   And since the 4th technique as mentioned above assumes the smoothing model which took the simple average of the neighborhood pixel, as shown in Drawing 17, the smoothing model is lost at the edge part, The noise reduction effect is insufficient at the edge portion.

本発明は上記事情に鑑みてなされたものであり、エッジを保存した平滑化モデルを、比較的小さい負荷の演算処理により得ることができる撮像システム、画像処理プログラム、画像処理方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and provides an imaging system, an image processing program, and an image processing method that can obtain a smoothed model in which edges are preserved by arithmetic processing with a relatively small load. It is aimed.

上記の目的を達成するために、第1の発明による撮像システムは、撮像系から取り込まれた映像信号に対してノイズ低減処理を行う撮像システムにおいて、上記映像信号におけるノイズ低減処理を行う対象となる注目画素と該注目画素の空間的近傍に位置する1以上の周辺画素との間の空間相関性と画素値相関性との少なくとも一方に基づいて算出した相関関連値と該相関関連値を調整するための調整値とに基づき該注目画素に対する平滑化信号を算出する平滑化信号算出手段と、上記平滑化信号算出手段により算出された上記注目画素の平滑化信号に基づいて上記注目画素に含まれるノイズ量を推定するノイズ量推定手段と、上記平滑化信号算出手段により算出された平滑化信号および上記ノイズ量推定手段により推定されたノイズ量に基づいて上記注目画素に対してノイズ低減処理を行うノイズ低減手段と、を有するものである。   In order to achieve the above object, an imaging system according to a first invention is a target for performing noise reduction processing on a video signal in an imaging system that performs noise reduction processing on a video signal captured from the imaging system. The correlation value calculated based on at least one of the spatial correlation and the pixel value correlation between the target pixel and one or more peripheral pixels located in the spatial vicinity of the target pixel is adjusted. A smoothing signal calculation unit that calculates a smoothing signal for the target pixel based on the adjustment value for the target pixel, and the target pixel is included based on the smoothed signal of the target pixel calculated by the smoothing signal calculation unit A noise amount estimating means for estimating a noise amount; a smoothing signal calculated by the smoothed signal calculating means; and a noise amount estimated by the noise amount estimating means. There are those having a noise reduction means for performing noise reduction processing on the target pixel.

また、第2の発明による撮像システムは、上記第1の発明による撮像システムにおいて、上記平滑化信号算出手段が、入力される画像信号に注目画素とこの注目画素の空間的近傍に位置する1以上の周辺画素とにより構成される注目領域を設定する注目領域設定手段と、上記注目画素と上記周辺画素との画素値の乖離の度合を示す画素値乖離度を各周辺画素毎に算出する画素値乖離度算出手段と、上記注目画素と上記周辺画素との空間的な乖離の度合を示す位置乖離度を各周辺画素毎に算出する位置乖離度算出手段と、同一の周辺画素に係る上記画素値乖離度と上記位置乖離度とを各周辺画素毎に乗算することにより上記注目画素と上記周辺画素との相関性に関連する値である相関関連値を各周辺画素毎に求める相関関連値演算手段と、上記相関関連値に調整用の定数であるチューニング値を加算してこの加算した値に基づき上記注目画素と上記周辺画素との相関性を示す指標となる相関指標値を各周辺画素毎に求める相関指標値演算手段と、上記相関指標値と該相関指標値を求める過程で得られた値との少なくとも一方に基づき上記注目領域に含まれる全画素に対するフィルタ係数を各画素毎に求めるフィルタ係数演算手段と、上記フィルタ係数を用いて上記注目領域に対しフィルタ演算を行うことにより注目画素に係る平滑化モデル画素値を算出するフィルタ演算手段と、を有するものである。   An imaging system according to a second invention is the imaging system according to the first invention, wherein the smoothed signal calculating means is one or more pixels located in a spatial vicinity of the target pixel in the input image signal and the target pixel. Pixel value for calculating a pixel value divergence degree for each peripheral pixel, and a target area setting unit that sets a target area configured by the peripheral pixels of A divergence degree calculating means, a position divergence degree calculating means for calculating, for each peripheral pixel, a position divergence degree indicating the degree of spatial divergence between the target pixel and the peripheral pixel, and the pixel values relating to the same peripheral pixel Correlation-related value calculation means for obtaining, for each peripheral pixel, a correlation-related value that is a value related to the correlation between the pixel of interest and the peripheral pixel by multiplying the degree of divergence and the position divergence degree for each peripheral pixel. And above A correlation index that adds a tuning value, which is a constant for adjustment, to the correlation value and obtains a correlation index value for each peripheral pixel that serves as an index indicating the correlation between the pixel of interest and the peripheral pixel based on the added value Value calculation means, and filter coefficient calculation means for obtaining, for each pixel, filter coefficients for all pixels included in the region of interest based on at least one of the correlation index value and the value obtained in the process of obtaining the correlation index value. Filter calculation means for calculating a smoothed model pixel value related to the target pixel by performing a filter operation on the target region using the filter coefficient.

さらに、第3の発明による撮像システムは、上記第2の発明による撮像システムにおいて、上記フィルタ係数演算手段が、上記注目領域内の全ての周辺画素に対する上記画素値乖離度を加算したものが大きくなるに従って、注目画素に対するフィルタ係数が周辺画素に対するフィルタ係数に相対して大きくなるように、該注目画素に対するフィルタ係数および該周辺画素に対するフィルタ係数を求めるものである。   Furthermore, the imaging system according to the third invention is the imaging system according to the second invention, wherein the filter coefficient calculation means adds the pixel value divergence degree with respect to all peripheral pixels in the region of interest. Accordingly, the filter coefficient for the target pixel and the filter coefficient for the peripheral pixel are obtained so that the filter coefficient for the target pixel becomes larger relative to the filter coefficient for the peripheral pixel.

第4の発明による撮像システムは、上記第3の発明による撮像システムにおいて、上記フィルタ係数演算手段が、上記注目領域内の全ての周辺画素に対する上記画素値乖離度を加算したものが大きくなるに従って、注目画素に対するフィルタ係数が0以上1以下の予め定められた上限値以下の範囲で大きくなるようにし、かつ、1から注目画素に対するフィルタ係数を減算したものが周辺画素に対するフィルタ係数の因子として含まれるようにすることにより、注目画素に対するフィルタ係数が周辺画素に対するフィルタ係数に相対して大きくなるようにするものである。   The imaging system according to a fourth invention is the imaging system according to the third invention, wherein the filter coefficient calculation means adds the pixel value divergence degrees for all the surrounding pixels in the region of interest, The filter coefficient for the pixel of interest is increased within a range of a predetermined upper limit value of 0 or more and 1 or less, and the value obtained by subtracting the filter coefficient for the pixel of interest from 1 is included as a filter coefficient factor for the surrounding pixels. By doing so, the filter coefficient for the pixel of interest is increased relative to the filter coefficient for the surrounding pixels.

第5の発明による撮像システムは、上記第3の発明による撮像システムにおいて、上記注目画素の位置を(x,y)(ここに、x,yは実数)、上記周辺画素の位置を(x+i,y+j)(ここに、i,jは実数であって、iとjとは同時に0とはならない。)、上記注目画素の画素値をP(x,y)、上記周辺画素の画素値をP(x+i,y+j)とするとき、
上記画素値乖離度算出手段は、画素値乖離度D(i,j)を、次の数式

Figure 2008205737
または、次の数式
Figure 2008205737
により算出するものであり、
上記位置乖離度算出手段は、位置乖離度r(i,j)を、次の数式
Figure 2008205737
または、次の数式
Figure 2008205737
により算出するものであり、
上記相関関連値演算手段は、相関関連値を、次の演算
Figure 2008205737
により算出するものであり、
上記相関指標値演算手段は、相関指標値Cor(i,j)を、上記相関関連値と上記チューニング値tune(ここに、チューニング値tuneは0以上の実数)とに基づき、次の数式
Figure 2008205737
により算出するものであり、
上記フィルタ係数演算手段は、上記注目画素のフィルタ係数Wcenterを、次の数式
Figure 2008205737
により算出する(ここに、総和は、注目領域に含まれる全周辺画素に対応する(i,j)についてとる(すなわち、総和からは、i=0かつj=0の場合は除外される)ものとする)ものであるとともに、上記周辺画素のフィルタ係数W(i,j)を、次の数式
Figure 2008205737
により算出する(ここに、総和は、注目領域に含まれる全周辺画素に対応する(i,j)についてとる(すなわち、総和からは、i=0かつj=0の場合は除外される)ものとする)ものであり、
上記フィルタ演算手段は、注目画素に係る平滑化モデル画素値P’(x,y)を、次の数式、
Figure 2008205737
により算出する(ここに、総和は、注目領域に含まれる全周辺画素に対応する(i,j)についてとる(すなわち、総和からは、i=0かつj=0の場合は除外される)ものとする)ものである。 An imaging system according to a fifth invention is the imaging system according to the third invention, wherein the position of the pixel of interest is (x, y) (where x and y are real numbers), and the position of the surrounding pixels is (x + i, y + j) (where i and j are real numbers, i and j are not 0 at the same time), the pixel value of the pixel of interest is P (x, y), and the pixel values of the peripheral pixels are P When (x + i, y + j),
The pixel value divergence degree calculation means calculates the pixel value divergence degree D (i, j) as follows:
Figure 2008205737
Or the following formula
Figure 2008205737
Is calculated by
The position divergence calculating means calculates the position divergence r (i, j) by the following formula.
Figure 2008205737
Or the following formula
Figure 2008205737
Is calculated by
The correlation related value calculating means calculates the correlation related value by
Figure 2008205737
Is calculated by
The correlation index value calculation means calculates the correlation index value Cor (i, j) based on the correlation-related value and the tuning value tune (where the tuning value tune is a real number greater than or equal to 0) as follows:
Figure 2008205737
Is calculated by
The filter coefficient calculation means calculates the filter coefficient Wcenter of the target pixel by the following formula
Figure 2008205737
(Here, the sum is taken for (i, j) corresponding to all peripheral pixels included in the region of interest (that is, excluded from the sum when i = 0 and j = 0)) And the filter coefficient W (i, j) of the surrounding pixels is expressed by the following formula:
Figure 2008205737
(Here, the sum is taken for (i, j) corresponding to all peripheral pixels included in the region of interest (that is, excluded from the sum when i = 0 and j = 0)) And)
The filter calculation means calculates the smoothed model pixel value P ′ (x, y) relating to the target pixel by the following formula:
Figure 2008205737
(Here, the sum is taken for (i, j) corresponding to all peripheral pixels included in the region of interest (that is, excluded from the sum when i = 0 and j = 0)) And).

第6の発明による撮像システムは、上記第2の発明による撮像システムにおいて、上記注目領域設定手段が上記注目画素の画素位置を順次変更するように上記注目領域を順次設定するものであり、上記注目領域設定手段により現在設定されている注目領域と該注目領域設定手段により過去に設定された注目領域とが類似するか否かを判定する領域類似判定手段をさらに具備し、上記領域類似判定手段により類似すると判定された場合には、上記画素値乖離度算出手段と上記位置乖離度算出手段と上記相関関連値演算手段と上記相関指標値演算手段と上記フィルタ係数演算手段との処理を省略して、上記過去に設定された注目領域に関して既に求められているフィルタ係数を現在設定されている注目領域に対して用いて上記フィルタ演算手段により平滑化モデル画素値を算出するものである。   An imaging system according to a sixth invention is the imaging system according to the second invention, wherein the attention area setting means sequentially sets the attention area so that the pixel position of the attention pixel is sequentially changed. A region similarity determining unit that determines whether or not the region of interest currently set by the region setting unit is similar to the region of interest set in the past by the region of interest setting unit; If it is determined that they are similar, the processing of the pixel value deviation degree calculating means, the position deviation degree calculating means, the correlation related value calculating means, the correlation index value calculating means, and the filter coefficient calculating means is omitted. , The filter coefficient already obtained for the attention area set in the past is used for the attention area currently set to the filter calculation means. Ri and calculates the smoothed model pixel values.

第7の発明による撮像システムは、上記第2の発明による撮像システムにおいて、上記入力された画像信号に係る注目画素の画素値と、該注目画素に係る上記平滑化モデル画素値と、を用いてコアリング処理を行うコアリング演算手段をさらに具備したものである。   An imaging system according to a seventh invention is the imaging system according to the second invention, wherein the pixel value of the target pixel related to the input image signal and the smoothed model pixel value related to the target pixel are used. The apparatus further includes coring calculation means for performing a coring process.

第8の発明による撮像システムは、上記第7の発明による撮像システムにおいて、上記入力された画像信号と上記コアリング処理後の画像信号とに応じて、上記チューニング値を変化させるチューニング調整手段をさらに具備したものである。   An imaging system according to an eighth invention is the imaging system according to the seventh invention, further comprising tuning adjustment means for changing the tuning value in accordance with the inputted image signal and the image signal after the coring process. It is equipped.

第9の発明による撮像システムは、上記第8の発明による撮像システムにおいて、上記入力された画像信号のSN比を算出する入力SN算出手段と、上記コアリング処理後の画像信号のSN比を算出するノイズ低減後SN算出手段と、をさらに具備し、上記チューニング調整手段は、上記入力された画像信号のSN比と、上記コアリング処理後の画像信号のSN比と、に応じて、上記チューニング値を変化させるものである。   An imaging system according to a ninth invention is the imaging system according to the eighth invention, wherein an input SN calculation means for calculating an SN ratio of the inputted image signal and an SN ratio of the image signal after the coring process are calculated. A noise-reduced SN calculation unit that performs the tuning adjustment according to the S / N ratio of the input image signal and the S / N ratio of the image signal after the coring process. The value is changed.

第10の発明による撮像システムは、上記第9の発明による撮像システムにおいて、上記入力SN算出手段が、上記入力された画像信号の平坦領域を抽出して該平坦領域のSN比を算出するものであり、上記ノイズ低減後SN算出手段は、上記コアリング処理後の画像信号における上記平坦領域と同一の領域のSN比を算出するものである。   An imaging system according to a tenth invention is the imaging system according to the ninth invention, wherein the input SN calculation means extracts a flat area of the input image signal and calculates an SN ratio of the flat area. And the noise-reduced SN calculation means calculates an SN ratio of the same area as the flat area in the image signal after the coring process.

第11の発明による撮像システムは、上記第2の発明による撮像システムにおいて、画像を撮像して画像信号を出力する撮像手段をさらに有し、上記撮像手段から出力される画像信号を、上記入力される画像信号とするものである。   An image pickup system according to an eleventh aspect of the invention is the image pickup system according to the second aspect of the invention, further comprising image pickup means for picking up an image and outputting an image signal, and the image signal output from the image pickup means is inputted as described above. Image signal.

第12の発明による画像処理プログラムは、コンピュータに、入力される画像信号に注目画素とこの注目画素の空間的近傍に位置する1以上の周辺画素とにより構成される注目領域を設定する注目領域設定ステップと、上記注目画素と上記周辺画素との画素値の乖離の度合を示す画素値乖離度を各周辺画素毎に算出する画素値乖離度算出ステップと、上記注目画素と上記周辺画素との空間的な乖離の度合を示す位置乖離度を各周辺画素毎に算出する位置乖離度算出ステップと、同一の周辺画素に係る上記画素値乖離度と上記位置乖離度とを各周辺画素毎に乗算することにより上記注目画素と上記周辺画素との相関性に関連する値である相関関連値を各周辺画素毎に求める相関関連値演算ステップと、上記相関関連値に調整用の定数であるチューニング値を加算してこの加算した値に基づき上記注目画素と上記周辺画素との相関性を示す指標となる相関指標値を各周辺画素毎に求める相関指標値演算ステップと、上記相関指標値と該相関指標値を求める過程で得られた値との少なくとも一方に基づき上記注目領域に含まれる全画素に対するフィルタ係数を各画素毎に求めるフィルタ係数演算ステップと、上記フィルタ係数を用いて上記注目領域に対しフィルタ演算を行うことにより注目画素に係る平滑化モデル画素値を算出するフィルタ演算ステップと、を実行させるためのプログラムである。   An image processing program according to a twelfth aspect of the invention is an attention area setting for setting an attention area composed of a target pixel and one or more peripheral pixels located in the spatial vicinity of the target pixel in an input image signal. A step of calculating a pixel value divergence degree for each peripheral pixel, and a space between the target pixel and the peripheral pixel, and a step of calculating a pixel value divergence degree indicating a degree of divergence between the target pixel and the peripheral pixel. A position divergence degree calculation step for calculating a position divergence degree for each peripheral pixel, and the pixel value divergence degree and the position divergence degree for the same peripheral pixel are multiplied for each peripheral pixel. As a result, a correlation value calculation step for obtaining a correlation value, which is a value related to the correlation between the target pixel and the peripheral pixel, for each peripheral pixel, and a adjustment constant for the correlation value are selected. A correlation index value calculating step for obtaining, for each peripheral pixel, a correlation index value serving as an index indicating the correlation between the pixel of interest and the surrounding pixels based on the added value, and the correlation index value A filter coefficient calculation step for obtaining, for each pixel, filter coefficients for all pixels included in the region of interest based on at least one of the values obtained in the process of obtaining the correlation index value; and the region of interest using the filter coefficient And a filter calculation step of calculating a smoothed model pixel value related to the target pixel by performing a filter calculation on the program.

第13の発明による画像処理方法は、入力される画像信号に注目画素とこの注目画素の空間的近傍に位置する1以上の周辺画素とにより構成される注目領域を設定する注目領域設定ステップと、上記注目画素と上記周辺画素との画素値の乖離の度合を示す画素値乖離度を各周辺画素毎に算出する画素値乖離度算出ステップと、上記注目画素と上記周辺画素との空間的な乖離の度合を示す位置乖離度を各周辺画素毎に算出する位置乖離度算出ステップと、同一の周辺画素に係る上記画素値乖離度と上記位置乖離度とを各周辺画素毎に乗算することにより上記注目画素と上記周辺画素との相関性に関連する値である相関関連値を各周辺画素毎に求める相関関連値演算ステップと、上記相関関連値に調整用の定数であるチューニング値を加算してこの加算した値に基づき上記注目画素と上記周辺画素との相関性を示す指標となる相関指標値を各周辺画素毎に求める相関指標値演算ステップと、上記相関指標値と該相関指標値を求める過程で得られた値との少なくとも一方に基づき上記注目領域に含まれる全画素に対するフィルタ係数を各画素毎に求めるフィルタ係数演算ステップと、上記フィルタ係数を用いて上記注目領域に対しフィルタ演算を行うことにより注目画素に係る平滑化モデル画素値を算出するフィルタ演算ステップと、を含む方法である。   An image processing method according to a thirteenth aspect of the present invention is an attention area setting step of setting an attention area composed of a target pixel and one or more peripheral pixels located in the spatial vicinity of the target pixel in an input image signal; A pixel value divergence calculating step for calculating a pixel value divergence degree indicating the degree of divergence between the target pixel and the peripheral pixel for each peripheral pixel; and a spatial divergence between the target pixel and the peripheral pixel. A position divergence degree calculating step for calculating a position divergence degree for each peripheral pixel, and multiplying the pixel value divergence degree and the position divergence degree for the same peripheral pixel for each peripheral pixel. A correlation value calculation step for obtaining a correlation value, which is a value related to the correlation between the target pixel and the peripheral pixel, for each peripheral pixel, and a tuning value that is an adjustment constant is added to the correlation value. A correlation index value calculating step for obtaining a correlation index value for each peripheral pixel as an index indicating the correlation between the pixel of interest and the peripheral pixel based on the added value; and a process of calculating the correlation index value and the correlation index value A filter coefficient calculation step for obtaining, for each pixel, a filter coefficient for all pixels included in the region of interest based on at least one of the values obtained in step 1, and performing a filter operation on the region of interest using the filter coefficient And a filter operation step of calculating a smoothed model pixel value related to the target pixel.

本発明の撮像システム、画像処理プログラム、画像処理方法によれば、エッジを保存した平滑化モデルを、比較的小さい負荷の演算処理により得ることが可能となる。   According to the imaging system, the image processing program, and the image processing method of the present invention, it is possible to obtain a smoothed model in which edges are stored by an arithmetic processing with a relatively small load.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[実施形態1]
図1から図11は本発明の実施形態1を示したものであり、図1は、ノイズ低減処理部の構成を示すブロック図である。
[Embodiment 1]
1 to 11 show Embodiment 1 of the present invention, and FIG. 1 is a block diagram showing a configuration of a noise reduction processing unit.

ノイズ低減処理部100は、撮像システムの少なくとも一部を構成するものであり、平滑化信号算出手段であり注目領域設定手段たるフィルタリング演算部101と、コアリング演算手段たるコアリング演算部102と、を有して構成されている。   The noise reduction processing unit 100 constitutes at least a part of the imaging system, and is a smoothing signal calculation unit and a filtering calculation unit 101 as an attention area setting unit, a coring calculation unit 102 as a coring calculation unit, It is comprised.

入力原画像の信号である入力画像信号は、フィルタリング演算部101へ接続されるとともに、コアリング演算部102へ接続されている。フィルタリング演算部101は、コアリング演算部102へ接続されている。コアリング演算部102は、ノイズ低減後の出力信号を出力するようになっている。   An input image signal that is a signal of the input original image is connected to the filtering operation unit 101 and is also connected to the coring operation unit 102. The filtering operation unit 101 is connected to the coring operation unit 102. The coring calculation unit 102 outputs an output signal after noise reduction.

フィルタリング演算部101は、入力画像信号に平滑化を行って平滑化モデル信号を算出し、算出した平滑化モデル信号をコアリング演算部102へ出力する。   The filtering operation unit 101 performs smoothing on the input image signal to calculate a smoothed model signal, and outputs the calculated smoothed model signal to the coring operation unit 102.

コアリング演算部102は、フィルタリング演算部101から入力される平滑化モデル信号と、入力画像信号と、に基づきコアリング処理を行うことにより、ノイズを抑圧した出力信号を算出し、出力する。   The coring calculation unit 102 calculates and outputs an output signal in which noise is suppressed by performing a coring process based on the smoothed model signal input from the filtering calculation unit 101 and the input image signal.

次に、図2は、フィルタリング演算部101の構成を示すブロック図である。   Next, FIG. 2 is a block diagram illustrating a configuration of the filtering operation unit 101.

このフィルタリング演算部101は、メモリ201と、平滑化信号算出手段であり位置乖離度算出手段たる距離算出部202と、平滑化信号算出手段であり画素値乖離度算出手段たる差分算出部203と、メモリ204と、メモリ205と、チューニング定数記憶部206と、平滑化信号算出手段、相関関連値演算手段、相関指標値演算手段、フィルタ係数演算手段を兼ねた周辺画素係数算出部207と、平滑化信号算出手段でありフィルタ係数演算手段たる注目画素係数算出部208と、メモリ209と、平滑化信号算出手段でありフィルタ演算手段たる畳み込み演算部210と、を有して構成されている。   The filtering calculation unit 101 includes a memory 201, a distance calculation unit 202 that is a smoothing signal calculation unit and a position deviation degree calculation unit, a difference calculation unit 203 that is a smoothing signal calculation unit and a pixel value deviation degree calculation unit, A memory 204, a memory 205, a tuning constant storage unit 206, a smoothing signal calculation unit, a correlation-related value calculation unit, a correlation index value calculation unit, a peripheral pixel coefficient calculation unit 207 that also serves as a filter coefficient calculation unit, and smoothing The pixel pixel calculation unit 208 is a signal calculation unit and filter coefficient calculation unit, a memory 209, and a convolution calculation unit 210 that is a smoothing signal calculation unit and filter calculation unit.

ここに、入力原画像は、メモリ201に記憶されるようになっている。メモリ201は、距離算出部202と、差分算出部203と、畳み込み演算部210と、へ接続されている。距離算出部202は、メモリ204を介して周辺画素係数算出部207へ接続されている。差分算出部203は、メモリ205を介して、周辺画素係数算出部207および注目画素係数算出部208へ接続されている。チューニング定数記憶部206は、周辺画素係数算出部207へ接続されている。周辺画素係数算出部207および注目画素係数算出部208は、メモリ209を介して、畳み込み演算部210へ接続されている。そして、畳み込み演算部210から、平滑化モデル信号が出力されるようになっている。   Here, the input original image is stored in the memory 201. The memory 201 is connected to the distance calculation unit 202, the difference calculation unit 203, and the convolution operation unit 210. The distance calculation unit 202 is connected to the peripheral pixel coefficient calculation unit 207 via the memory 204. The difference calculation unit 203 is connected to the surrounding pixel coefficient calculation unit 207 and the target pixel coefficient calculation unit 208 via the memory 205. The tuning constant storage unit 206 is connected to the peripheral pixel coefficient calculation unit 207. The peripheral pixel coefficient calculation unit 207 and the target pixel coefficient calculation unit 208 are connected to the convolution operation unit 210 via the memory 209. A smoothing model signal is output from the convolution operation unit 210.

続いて、図2に示したような構成のフィルタリング演算部101の作用について、図7に沿って説明する。図7はフィルタリング演算部101の作用を示すフローチャートである。   Next, the operation of the filtering operation unit 101 configured as shown in FIG. 2 will be described with reference to FIG. FIG. 7 is a flowchart showing the operation of the filtering operation unit 101.

入力原画像は、メモリ201に、例えば画素単位で順次入力されてくる。このとき、フィルタリング演算部101は、1画素目の画素データが入力されたところですぐに処理を開始するのではなく、フィルタリング処理が可能となる所定ライン分の画素データが揃うまで遅延を行う。   The input original image is sequentially input to the memory 201 in units of pixels, for example. At this time, the filtering calculation unit 101 does not start the process immediately after the pixel data of the first pixel is input, but delays until the pixel data for a predetermined line that can perform the filtering process is completed.

こうして、メモリ201に、フィルタリング処理が可能となる所定ライン分の画素データが格納されたところで、例えば図4に示すような注目領域の画素、すなわち、画像中の画素位置(x,y)(ここに、「x」は横方向の画素位置を表す座標、「y」は縦方向の画素位置を表す座標である。なお、これらの座標は、実数値として表現することができるが、実用的には整数値として表現しても構わない。従って以下では、整数値として表現するものとする。)における注目画素の画素値(以下では、適宜「注目画素値」という)P(x,y)と、その周辺の画素位置(x+i,y+j)(ここに、i,jは実数値として表現することができるが、より実用的な観点から、以下では整数として表現するものとする。そして、iとjとは同時に0とはならない。)における周辺画素の画素値(以下では、適宜「周辺画素値」という)P(x+i,y+j)とが抽出され、距離算出部202と差分算出部203と畳み込み演算部210とへ出力される(ステップS101)。ここに、図4は、注目領域における注目画素と各周辺画素との関係の一例を示す図である。なお、この図4においては、注目領域を3×3画素として、−1≦i≦1,−1≦j≦1となっている例を示しているが、これに限るものではなく、任意の(正の整数)×(正の整数)画素の注目領域を抽出することも可能である。   Thus, when pixel data for a predetermined line that can be filtered is stored in the memory 201, for example, a pixel in a region of interest as shown in FIG. 4, that is, a pixel position (x, y) (here) In addition, “x” is a coordinate representing the pixel position in the horizontal direction, and “y” is a coordinate representing the pixel position in the vertical direction, although these coordinates can be expressed as real values, May be expressed as an integer value, and hence will be expressed as an integer value in the following.) P (x, y) of the pixel value of the target pixel (hereinafter referred to as “target pixel value” as appropriate) , The surrounding pixel position (x + i, y + j) (where i and j can be expressed as real values, but from a more practical point of view, they will be expressed as integers below. At the same time as j The pixel values of the surrounding pixels (hereinafter referred to as “neighboring pixel values”) P (x + i, y + j) as appropriate are extracted and transferred to the distance calculation unit 202, the difference calculation unit 203, and the convolution calculation unit 210. Is output (step S101). FIG. 4 is a diagram illustrating an example of the relationship between the target pixel and each peripheral pixel in the target region. FIG. 4 shows an example in which the region of interest is 3 × 3 pixels, and −1 ≦ i ≦ 1, −1 ≦ j ≦ 1, but the present invention is not limited to this. It is also possible to extract a region of interest of (positive integer) × (positive integer) pixels.

距離算出部202は、抽出された注目領域内における注目画素(画素位置(x,y))と各周辺画素(画素位置(x+i,y+j))との空間的な乖離の度合を示す位置乖離度r(i,j)を、例えば次の数式1に示すような距離として、または数式2に示すような距離の2乗として、算出する(なお、何れの数式により算出された値を位置乖離度r(i,j)とするかは、処理系の回路構成、あるいは画像に係る各種の条件等に応じて、適宜決めることが可能である。)。
[数1]

Figure 2008205737
[数2]
Figure 2008205737
The distance calculation unit 202 determines the degree of spatial divergence indicating the degree of spatial divergence between the pixel of interest (pixel position (x, y)) and each peripheral pixel (pixel position (x + i, y + j)) in the extracted region of interest. r (i, j) is calculated, for example, as a distance as shown in the following formula 1 or as a square of the distance as shown in formula 2 (note that the value calculated by any formula is used as the position divergence degree). Whether r (i, j) is set can be determined as appropriate according to the circuit configuration of the processing system, various conditions relating to the image, and the like.
[Equation 1]
Figure 2008205737
[Equation 2]
Figure 2008205737

なお、ここでは、位置乖離度r(i,j)として、数式1または数式2により求められた値を用いる例を示したが、これらに限るものではない。例えば、画素が正方画素でない場合には、iまたはjに適宜の係数を乗算することも考えられるし、これに限らず、注目画素と周辺画素との空間的な乖離の度合を示す量であって、演算時の負荷が比較的小さい量であれば、適宜の量を位置乖離度r(i,j)として用いることが可能である。   In addition, although the example using the value calculated | required by Numerical formula 1 or Numerical formula 2 as the position deviation degree r (i, j) was shown here, it does not restrict to these. For example, when the pixel is not a square pixel, it is conceivable to multiply i or j by an appropriate coefficient. However, the present invention is not limited to this, and is an amount indicating the degree of spatial divergence between the target pixel and surrounding pixels. If the load at the time of calculation is a relatively small amount, an appropriate amount can be used as the position deviation r (i, j).

そして、距離算出部202は、算出した位置乖離度r(i,j)を出力して、メモリ204に格納する(ステップS102)。   Then, the distance calculation unit 202 outputs the calculated position deviation r (i, j) and stores it in the memory 204 (step S102).

一方、差分算出部203は、抽出された注目領域内の注目画素値P(x,y)と各周辺画素値P(x+i,y+j)との乖離の度合を示す画素値乖離度D(i,j)を、例えば次の数式3に示すような差分の絶対値、または数式4に示すような差分の2乗値として算出する。
[数3]

Figure 2008205737
[数4]
Figure 2008205737
On the other hand, the difference calculation unit 203 outputs a pixel value divergence degree D (i, i) indicating the degree of divergence between the pixel value of interest P (x, y) in the extracted attention area and the surrounding pixel values P (x + i, y + j). j) is calculated as, for example, the absolute value of the difference as shown in the following Equation 3 or the square value of the difference as shown in Equation 4.
[Equation 3]
Figure 2008205737
[Equation 4]
Figure 2008205737

なお、画素値乖離度D(i,j)に絶対値を用いる場合と比較して、画素値乖離度D(i,j)に2乗値を用いる場合の方が、エッジ保存度が大きくなって、平滑化強度が小さくなる傾向にある。従って、平滑化の強度を強くしたい場合には画素値乖離度D(i,j)に絶対値を用い、エッジの保存をより重要視したい場合には画素値乖離度D(i,j)に2乗値を用いるなどの使い分けを行うと良い。   Note that the degree of edge preservation is greater when the square value is used for the pixel value deviation degree D (i, j) than when the absolute value is used for the pixel value deviation degree D (i, j). Therefore, the smoothing strength tends to be small. Therefore, the absolute value is used as the pixel value divergence degree D (i, j) when it is desired to increase the smoothing strength, and the pixel value divergence degree D (i, j) is used when the preservation of edges is more important. It is good to use properly such as using a square value.

また、ここでは、画素値乖離度D(i,j)として、数式3または数式4により求められた値を用いる例を示したが、これらに限らず、注目画素値と周辺画素値との乖離の度合を示す量であって、演算時の負荷が比較的小さい量であれば、適宜の量を画素値乖離度D(i,j)として用いることが可能である。   In addition, here, as the pixel value divergence degree D (i, j), the example using the value obtained by Expression 3 or 4 is shown, but the present invention is not limited thereto, and the divergence between the target pixel value and the surrounding pixel value is shown. An appropriate amount can be used as the pixel value deviation degree D (i, j) as long as the load at the time of calculation is a relatively small amount.

そして、差分算出部203は、算出した画素値乖離度D(i,j)を出力して、メモリ205に格納する(ステップS103)。   Then, the difference calculation unit 203 outputs the calculated pixel value deviation degree D (i, j) and stores it in the memory 205 (step S103).

続いて、注目画素係数算出部208は、メモリ205から画素値乖離度D(i,j)を入力してその総和ΣD(i,j)を算出し(ステップS104)、さらに定数Constで除算することにより、注目画素のフィルタ係数である重み係数Wcenterを総和ΣD(i,j)に比例する値として、次の数式5に示すように算出する(ステップS105)。
[数5]

Figure 2008205737
ここに、定数Constは、ΣD(i,j)の取り得る最大値などであり、0≦Wcenter≦1となるように設定されている。また、総和は、注目領域に含まれる全周辺画素に対応する(i,j)についてとるものとする。従って、総和からは、i=0かつj=0の場合は除外される。 Subsequently, the pixel-of-interest coefficient calculation unit 208 inputs the pixel value deviation degree D (i, j) from the memory 205, calculates the sum ΣD (i, j) (step S104), and further divides by the constant Const. Thus, the weighting coefficient Wcenter, which is the filter coefficient of the pixel of interest, is calculated as a value proportional to the total sum ΣD (i, j) as shown in the following Expression 5 (step S105).
[Equation 5]
Figure 2008205737
Here, the constant Const is a maximum value that ΣD (i, j) can take, and is set to satisfy 0 ≦ Wcenter ≦ 1. The sum is taken for (i, j) corresponding to all peripheral pixels included in the region of interest. Therefore, it is excluded from the summation when i = 0 and j = 0.

さらに、注目画素係数算出部208は、数式5に示すように算出した重み係数Wcenterを、予め設定された最大値max(ここに、0≦max≦1)と比較する(ステップS106)。   Further, the target pixel coefficient calculation unit 208 compares the weight coefficient Wcenter calculated as shown in Equation 5 with a preset maximum value max (here, 0 ≦ max ≦ 1) (step S106).

そして、注目画素係数算出部208は、重み係数Wcenterが最大値max以下である場合には、数式5により算出された重み係数を最終的な重み係数Wcenterとする(ステップS107)。   Then, when the weighting coefficient Wcenter is equal to or less than the maximum value max, the target pixel coefficient calculation unit 208 sets the weighting coefficient calculated by Equation 5 as the final weighting coefficient Wcenter (step S107).

これに対して、数式5により算出された重み係数Wcenterが最大値maxを越える場合には、注目画素係数算出部208は、図5に示すように、注目画素の重み係数Wcenterを最大値maxによりクリップする(ステップS108)。ここに、図5は、注目画素の重み係数と周辺画素の重み係数との関係が画素値乖離度の総和に依存して変化する様子を示す線図である。上述したような注目画素係数算出部208による注目画素の重み係数Wcenterの算出過程は、次の数式6により表される。
[数6]

Figure 2008205737
On the other hand, when the weighting coefficient Wcenter calculated by Expression 5 exceeds the maximum value max, the target pixel coefficient calculation unit 208 sets the weighting coefficient Wcenter of the target pixel to the maximum value max as shown in FIG. Clip (step S108). FIG. 5 is a diagram showing how the relationship between the weighting coefficient of the target pixel and the weighting coefficients of the surrounding pixels changes depending on the sum of the pixel value deviation degrees. The process of calculating the weight coefficient Wcenter of the target pixel by the target pixel coefficient calculation unit 208 as described above is expressed by the following Expression 6.
[Equation 6]
Figure 2008205737

そして、注目画素係数算出部208は、算出した重み係数Wcenterをメモリ209に格納する。   The target pixel coefficient calculation unit 208 stores the calculated weight coefficient Wcenter in the memory 209.

続いて、周辺画素係数算出部207は、メモリ204から位置乖離度r(i,j)を入力するとともに、メモリ205から同一の周辺画素に係る画素値乖離度D(i,j)を入力して、これらを次の数式7に示すように乗算することにより、各周辺画素毎に、注目画素と周辺画素との相関性に関連する値である相関関連値を求める。
[数7]

Figure 2008205737
Subsequently, the peripheral pixel coefficient calculation unit 207 inputs the position divergence degree r (i, j) from the memory 204 and also inputs the pixel value divergence degree D (i, j) related to the same peripheral pixel from the memory 205. Then, by multiplying them as shown in the following Expression 7, a correlation-related value that is a value related to the correlation between the target pixel and the peripheral pixel is obtained for each peripheral pixel.
[Equation 7]
Figure 2008205737

さらに、周辺画素係数算出部207は、チューニング定数記憶部206から入力したチューニング値tune(ここに、チューニング値tuneは、0以上の実数であり、相関指標値における相関関連値の影響度を調整するための定数である。)を加算して、その逆数をとることにより、次の数式8に示すように、注目画素と周辺画素との相関性を示す指標となる相関指標値Cor(i,j)を各周辺画素毎に算出する(ステップS109)。
[数8]

Figure 2008205737
Further, the peripheral pixel coefficient calculation unit 207 adjusts the influence of the correlation-related value in the correlation index value by inputting the tuning value tune input from the tuning constant storage unit 206 (where the tuning value tune is a real number of 0 or more. The correlation index value Cor (i, j, which is an index indicating the correlation between the pixel of interest and the surrounding pixels, as shown in the following Expression 8, by adding ) Is calculated for each peripheral pixel (step S109).
[Equation 8]
Figure 2008205737

さらに、周辺画素係数算出部207は、注目領域内の全ての相関指標値Cor(i,j)を正規化することにより、周辺画素に対するフィルタ係数の因子となる重み係数W(i,j)を次の数式9に示すように算出する。
[数9]

Figure 2008205737
ここに、総和は、注目領域に含まれる全周辺画素に対応する(i,j)についてとるものとする。従って、総和からは、i=0かつj=0の場合は除外される。 Further, the peripheral pixel coefficient calculation unit 207 normalizes all correlation index values Cor (i, j) in the attention area, thereby obtaining a weighting coefficient W (i, j) that is a factor of a filter coefficient for the peripheral pixels. Calculation is performed as shown in the following Equation 9.
[Equation 9]
Figure 2008205737
Here, the sum is taken for (i, j) corresponding to all peripheral pixels included in the region of interest. Therefore, it is excluded from the summation when i = 0 and j = 0.

そして、周辺画素係数算出部207は、算出した重み係数W(i,j)をメモリ209に格納する(ステップS110)。   Then, the surrounding pixel coefficient calculation unit 207 stores the calculated weighting coefficient W (i, j) in the memory 209 (step S110).

畳み込み演算部210は、メモリ201から注目領域内の注目画素値P(x,y)および各周辺画素値P(x+i,y+j)を入力するとともに、メモリ209から注目画素の重み係数Wcenterおよび各周辺画素の重み係数W(i,j)を入力して、次の数式10に示すようにフィルタ演算としての畳み込み演算を行うことにより、平滑化モデル信号である平滑化モデル画素値P’(x,y)を算出する(ステップS111)。
[数10]

Figure 2008205737
ここに、総和は、注目領域に含まれる全周辺画素に対応する(i,j)についてとるものとする。従って、総和からは、i=0かつj=0の場合は除外される。 The convolution operation unit 210 inputs the target pixel value P (x, y) and each peripheral pixel value P (x + i, y + j) in the target region from the memory 201, and the target pixel weight coefficient Wcenter and each peripheral from the memory 209. A pixel weighting factor W (i, j) is input, and a convolution operation as a filter operation is performed as shown in Equation 10 below, whereby a smoothed model pixel value P ′ (x, y) is calculated (step S111).
[Equation 10]
Figure 2008205737
Here, the sum is taken for (i, j) corresponding to all peripheral pixels included in the region of interest. Therefore, it is excluded from the summation when i = 0 and j = 0.

この数式10を見れば分かるように、注目画素のフィルタ係数は重み係数Wcenterであるのに対して、周辺画素のフィルタ係数は重み係数W(i,j)に(1−Wcenter)の因子を乗算したものとなる。従って、注目画素の重み係数Wcenter(注目領域内の全ての周辺画素に対する画素値乖離度D(i,j)を加算した値に比例する)が大きくなるに従って、該注目画素の平滑化モデル画素値P’(x,y)に対する寄与が大きくなる。これに対して、周辺画素には(1−Wcenter)の因子が含まれているために、注目画素の重み係数Wcenterが大きくなるに従って、該周辺画素の平滑化モデル画素値P’(x,y)に対する寄与が小さくなる。   As can be seen from Equation 10, the filter coefficient of the pixel of interest is the weight coefficient Wcenter, while the filter coefficient of the surrounding pixels is the weight coefficient W (i, j) multiplied by a factor of (1-Wcenter). Will be. Therefore, as the weight coefficient Wcenter of the target pixel (proportional to the value obtained by adding the pixel value divergence degree D (i, j) to all the surrounding pixels in the target region) increases, the smoothed model pixel value of the target pixel The contribution to P ′ (x, y) increases. On the other hand, since the peripheral pixel includes the factor (1-Wcenter), the smoothed model pixel value P ′ (x, y) of the peripheral pixel increases as the weight coefficient Wcenter of the target pixel increases. ) Will be reduced.

これは、注目画素と周辺画素との画素値乖離度の総和ΣD(i,j)が大きい場合、つまり注目画素がエッジや微細領域等に含まれる場合には、注目画素の重みを大きくすることになるために、入力画像信号における注目画素の値をより保存した平滑化を行うことを意味する。   This is because the weight of the target pixel is increased when the total sum ΣD (i, j) of the pixel value divergence between the target pixel and the surrounding pixels is large, that is, when the target pixel is included in an edge or a fine region. Therefore, smoothing that preserves the value of the target pixel in the input image signal is performed.

一方、注目画素と周辺画素との画素値乖離度の総和ΣD(i,j)が小さい場合、つまり注目画素が平坦領域に含まれる場合には、注目画素の重みを小さくする(すなわち、周辺画素の重みを大きくする)ことになるために、周辺画素による平滑化効果が強くはたらくことを意味する。   On the other hand, when the sum ΣD (i, j) of pixel value divergence degrees between the target pixel and the peripheral pixels is small, that is, when the target pixel is included in the flat region, the weight of the target pixel is reduced (that is, the peripheral pixel) This means that the smoothing effect by the peripheral pixels works strongly.

こうして、本実施形態は、注目画素の重みと周辺画素の重みとを適応的に変化させるものとなっている。   Thus, the present embodiment adaptively changes the weight of the target pixel and the weights of the peripheral pixels.

そして、畳み込み演算部210は、算出した平滑化モデル画素値P’(x,y)をコアリング演算部102へ出力する(ステップS112)。   Then, the convolution operation unit 210 outputs the calculated smoothed model pixel value P ′ (x, y) to the coring operation unit 102 (step S112).

入力原画像は、光学像から得られる原信号にさらにノイズが含まれたものとなっているが、このフィルタリング演算部101により算出された平滑化モデル信号は、図6に示すようになる。すなわち、図17に示したような近傍画素の単純平均を取ることにより算出された平滑化モデルに比べて、本実施形態の平滑化モデルは、図6に示すように、エッジの鮮鋭度を保存しながら平滑化フィルタリングを行った信号となる。   The input original image includes noise further included in the original signal obtained from the optical image. The smoothed model signal calculated by the filtering operation unit 101 is as shown in FIG. That is, compared with the smoothing model calculated by taking a simple average of neighboring pixels as shown in FIG. 17, the smoothing model of this embodiment preserves the sharpness of the edge as shown in FIG. Thus, the signal is subjected to smoothing filtering.

次に、図3は、コアリング演算部102の構成を示すブロック図である。   Next, FIG. 3 is a block diagram illustrating a configuration of the coring calculation unit 102.

このコアリング演算部102は、ノイズ量推定手段たるノイズ量推定部と、ノイズ低減手段たるノイズ低減処理部と、の2つに大別される機能部を有して構成されている。まず、前者のノイズ量推定部は、信号値とノイズ量との関係を記憶しておく手段たるノイズモデルLUT301と、撮影時のISO感度を記憶しておく手段たるISO感度記憶部302と、推定されたノイズ量のゲインを制御する手段たるゲイン制御部303と、を有して構成されている。また、後者のノイズ低減処理部は、ユーザーの操作に基づいてノイズ量を補正する手段たるノイズ量補正部304と、ノイズ量に基づいてコアリングを行う手段たるコアリング処理部305と、を有して構成されている。   The coring calculation unit 102 is configured to include two functional units that are roughly divided into a noise amount estimation unit that is a noise amount estimation unit and a noise reduction processing unit that is a noise reduction unit. First, the former noise amount estimation unit estimates a noise model LUT 301 as a means for storing the relationship between the signal value and the noise amount, an ISO sensitivity storage unit 302 as a means for storing the ISO sensitivity at the time of shooting, and an estimation. And a gain control unit 303 as means for controlling the gain of the noise amount. The latter noise reduction processing unit includes a noise amount correction unit 304 that is a unit that corrects a noise amount based on a user operation, and a coring processing unit 305 that is a unit that performs coring based on the noise amount. Configured.

フィルタリング演算部101からの平滑化モデル信号は、ノイズモデルLUT301およびコアリング処理部305へ入力されるようになっている。また、入力原画像は、コアリング処理部305へ入力されるようになっている。さらに、ノイズモデルLUT301は、ゲイン制御部303へ接続されている。ISO感度記憶部302は、ゲイン制御部303へ接続されている。ゲイン制御部303は、ノイズ量補正部304へ接続されている。ノイズ量補正部304は、コアリング処理部305へ接続されている。そして、コアリング処理部305から、ノイズ低減後の出力画像が出力されるようになっている。   The smoothed model signal from the filtering operation unit 101 is input to the noise model LUT 301 and the coring processing unit 305. The input original image is input to the coring processing unit 305. Further, the noise model LUT 301 is connected to the gain control unit 303. The ISO sensitivity storage unit 302 is connected to the gain control unit 303. The gain control unit 303 is connected to the noise amount correction unit 304. The noise amount correction unit 304 is connected to the coring processing unit 305. The coring processing unit 305 outputs an output image after noise reduction.

ノイズモデルLUT301は、フィルタリング演算部101から入力された平滑化モデル画素値P’(x,y)に基づいて、ルックアップテーブルを参照することにより、ノイズモデル振幅Nmをゲイン制御部303へ出力する。このノイズモデルLUT301のルックアップテーブルは、入力原画像を撮像した撮像素子の特性などに基づいて、信号値とノイズモデル振幅Nmとの関係が予め設定されたテーブルである。ここで信号値とノイズモデル振幅Nmとは、例えば、均一所定輝度の対象物を撮像したときの所定撮像領域内の画素値の平均値と、標準偏差と、によって定義される。   The noise model LUT 301 outputs the noise model amplitude Nm to the gain control unit 303 by referring to the lookup table based on the smoothed model pixel value P ′ (x, y) input from the filtering operation unit 101. . The look-up table of the noise model LUT 301 is a table in which the relationship between the signal value and the noise model amplitude Nm is set in advance based on the characteristics of the image sensor that captured the input original image. Here, the signal value and the noise model amplitude Nm are defined by, for example, an average value of pixel values in a predetermined imaging region and a standard deviation when an object with uniform predetermined luminance is imaged.

ISO感度記憶部302は、ユーザーの操作によって設定された撮影時のISO感度を記憶している。   The ISO sensitivity storage unit 302 stores the ISO sensitivity at the time of shooting set by the user's operation.

ゲイン制御部303は、ノイズモデルLUT301から入力されるノイズモデル振幅Nmに対して、ISO感度記憶部302から入力されたISO感度に基づくゲインGISOを乗算することによりノイズ量NISOを算出し、算出したノイズ量NISOをノイズ量補正部304へ出力する。この算出過程は、次の数式により示される。
NISO=Nm×GISO
The gain control unit 303 calculates the noise amount NISO by multiplying the noise model amplitude Nm input from the noise model LUT 301 by the gain GISO based on the ISO sensitivity input from the ISO sensitivity storage unit 302. The noise amount NISO is output to the noise amount correction unit 304. This calculation process is shown by the following mathematical formula.
NISO = Nm × GISO

ノイズ量補正部304は、ゲイン制御部303から入力されたノイズ量NISOに対して、ユーザーが設定したノイズ低減の強度に対応したゲインGUを乗算することによりノイズ量Nを算出し、算出したノイズ量Nをコアリング処理部305へ出力する。この算出過程は、次の数式により示される。
N=NISO×GU
The noise amount correction unit 304 calculates the noise amount N by multiplying the noise amount NISO input from the gain control unit 303 by the gain GU corresponding to the noise reduction intensity set by the user, and calculates the calculated noise. The amount N is output to the coring processing unit 305. This calculation process is shown by the following mathematical formula.
N = NISO × GU

この機能により、例えば、ユーザーが撮影状況(例えば、風景撮影、人物撮影、夜景撮影、接写撮影、動きのある被写体の撮影など)に応じてノイズ低減の強度を任意に設定することができ、ノイズ低減の強度を調節することが可能となる。   With this function, for example, the user can arbitrarily set the noise reduction intensity according to the shooting situation (for example, landscape shooting, portrait shooting, night scene shooting, close-up shooting, shooting of a moving subject, etc.) It is possible to adjust the intensity of the reduction.

図6はコアリング処理によるエッジ部のノイズ抑圧の様子を示す図、図8はコアリング処理部305の作用を示すフローチャートである。   FIG. 6 is a diagram showing a state of noise suppression at the edge portion by coring processing, and FIG. 8 is a flowchart showing the operation of the coring processing unit 305.

コアリング処理部305は、図6に示すように、平滑化モデル画素値P’(x,y)を基準値とし、入力画像信号の注目画素値P(x,y)と基準値とを、ノイズ量補正部304から出力されたノイズ量Nに基づいて比較し、コアリング処理を行ってノイズ低減後の最終出力信号Poutを出力する。   As shown in FIG. 6, the coring processing unit 305 uses the smoothed model pixel value P ′ (x, y) as a reference value, and calculates the target pixel value P (x, y) and the reference value of the input image signal. Comparison is made based on the noise amount N output from the noise amount correction unit 304, and coring processing is performed to output a final output signal Pout after noise reduction.

ここに、コアリング処理は、次のように行う。
コアリング処理部305は、フィルタリング演算部101から入力された平滑化モデル信号である平滑化モデル画素値P’(x,y)を基準値とし、入力画像信号である注目画素値P(x,y)と基準値との差分絶対値を算出して(ステップS201)、算出した差分絶対値とノイズ量補正部304から入力されたノイズ量Nとを比較する(ステップS202)。
Here, the coring process is performed as follows.
The coring processing unit 305 uses the smoothed model pixel value P ′ (x, y) that is the smoothed model signal input from the filtering operation unit 101 as a reference value, and the target pixel value P (x, y) that is the input image signal. The difference absolute value between y) and the reference value is calculated (step S201), and the calculated difference absolute value is compared with the noise amount N input from the noise amount correction unit 304 (step S202).

そして、コアリング処理部305は、差分絶対値がノイズ量N以下である場合には、注目画素値P(x,y)を平滑化モデル画素値P’(x,y)に置き換えたものを最終出力信号Poutとする(ステップS203)。   When the difference absolute value is equal to or less than the noise amount N, the coring processing unit 305 replaces the target pixel value P (x, y) with the smoothed model pixel value P ′ (x, y). The final output signal Pout is set (step S203).

一方、コアリング処理部305は、差分絶対値がノイズ量Nよりも大きい場合には、注目画素値P(x,y)が平滑化モデル画素値P’(x,y)よりも大きいか否かを判定する(ステップS204)。   On the other hand, when the difference absolute value is larger than the noise amount N, the coring processing unit 305 determines whether the target pixel value P (x, y) is larger than the smoothed model pixel value P ′ (x, y). Is determined (step S204).

そして、コアリング処理部305は、大きいと判定した場合には、注目画素値P(x,y)からノイズ量Nを減算したものを最終出力信号Poutとし(ステップS206)、一方、大きくない(つまり小さい)と判定した場合には、注目画素値P(x,y)にノイズ量Nを加算したものを最終出力信号Poutとする(ステップS205)。   If the coring processing unit 305 determines that the value is large, the final output signal Pout is obtained by subtracting the noise amount N from the target pixel value P (x, y) (step S206), but is not large ( In other words, the final output signal Pout is obtained by adding the amount of noise N to the target pixel value P (x, y) (step S205).

上述したような最終出力信号Poutの算出過程は、次の数式11により表すことができる。
[数11]

Figure 2008205737
The calculation process of the final output signal Pout as described above can be expressed by the following formula 11.
[Equation 11]
Figure 2008205737

こうして、ステップS203,S205,S206の何れかの処理が終了したら、最終出力信号Poutを出力して(ステップS207)、この処理を終了する。   Thus, when the process in any of steps S203, S205, and S206 is completed, the final output signal Pout is output (step S207), and this process is terminated.

このようなコアリング演算部102における処理によれば、信号値とノイズモデル振幅Nmとの関係を、入力原画像を撮像した撮像素子の特性に基づいて算出しているために、撮像素子の特性に適したノイズ低減を行うことができる。また、画像の一画素毎に平滑化モデル信号値に応じたノイズ量を推定しているために、明部から暗部にかけて最適なノイズ低減を行うことが可能である。さらに、撮影時のISO感度に応じてノイズ量を補正するようにしているために、ノイズ量推定の精度を高めることができる。さらに、ユーザーがノイズ低減の強度を調節することが可能となるために、撮影状況などに応じてユーザーの目的に合ったノイズ低減効果を得ることができる。   According to such processing in the coring calculation unit 102, since the relationship between the signal value and the noise model amplitude Nm is calculated based on the characteristics of the image sensor that captured the input original image, the characteristics of the image sensor. Can be reduced. Further, since the amount of noise corresponding to the smoothed model signal value is estimated for each pixel of the image, it is possible to perform optimum noise reduction from the bright part to the dark part. Furthermore, since the noise amount is corrected according to the ISO sensitivity at the time of shooting, the accuracy of noise amount estimation can be improved. Furthermore, since it is possible for the user to adjust the intensity of noise reduction, it is possible to obtain a noise reduction effect that suits the user's purpose in accordance with shooting conditions and the like.

また、コアリング処理においては、コアリングの基準となる基準値と、コアリングの範囲であるノイズ量と、を用いてノイズ低減処理を行っているために、効果的にノイズ低減処理を行うには、最適な基準値とノイズ量とを推定することが求められる。これに対して、本実施形態においては、エッジの鮮鋭度を保存した平滑化モデル信号を使用してノイズ量の推定を行うようにしたために、急峻なエッジ領域においても精度良くノイズ量を推定することが可能となる。また、エッジの鮮鋭度を保存した平滑化モデル信号をコアリングの基準値として使用するようにしたために、急峻なエッジ領域においても画像の構造を保存した基準値を得ることが可能となる。これにより、本実施形態のコアリング処理によれば、エッジ付近においても効果的にノイズを低減することが可能となる。   Also, in the coring process, since the noise reduction process is performed using the reference value that is a reference for coring and the noise amount that is the range of the coring, the noise reduction process can be effectively performed. Is required to estimate an optimal reference value and noise amount. In contrast, in the present embodiment, since the noise amount is estimated using the smoothed model signal that preserves the sharpness of the edge, the noise amount is accurately estimated even in a steep edge region. It becomes possible. In addition, since the smoothed model signal that preserves the sharpness of the edge is used as the correlating reference value, it is possible to obtain a reference value that preserves the image structure even in a steep edge region. Thereby, according to the coring process of this embodiment, it becomes possible to reduce noise effectively also near the edge.

図17は、従来の、平均値で生成した平滑化モデル信号を使用した場合を示すものであり、本来の入力画像信号がもつ急峻なエッジに対してなまった平滑化モデル信号となる。このような場合に、急峻なエッジ付近での平滑化モデル画素値P’(x,y)は入力画像信号である注目画素値P(x,y)とかけ離れてしまうために、ノイズモデルLUT301から出力される推定ノイズ量は正しくないものとなる。さらに、このような急峻なエッジ付近では、コアリング処理において算出する平滑化モデル画素値P’(x,y)と入力画像信号である注目画素値P(x,y)との差分絶対値が必要以上に大きくなるとともに、上記正しくない推定ノイズ量と比較されることになるために、エッジ付近の平坦部において本来ならば注目画素値P(x,y)が平滑化モデル画素値P’(x,y)に置き換わるはずがそうはならず、ノイズが残留した状態となる。   FIG. 17 shows a case where a conventional smoothed model signal generated with an average value is used, and becomes a smoothed model signal distorted with respect to a steep edge of the original input image signal. In such a case, the smoothed model pixel value P ′ (x, y) in the vicinity of the steep edge is far from the target pixel value P (x, y) that is the input image signal, and therefore from the noise model LUT 301. The estimated noise amount to be output is not correct. Furthermore, in the vicinity of such a steep edge, the difference absolute value between the smoothed model pixel value P ′ (x, y) calculated in the coring process and the target pixel value P (x, y) that is the input image signal is Since it becomes larger than necessary and is compared with the above-mentioned incorrect estimated noise amount, the pixel value of interest P (x, y) is originally the smoothed model pixel value P ′ ( x, y) should not be replaced, but noise remains.

一方、図6は、本実施形態の、エッジの鮮鋭度を保存した平滑化フィルタを使用した場合を示すものであり、本来の入力画像信号がもつ急峻なエッジに対してより近似した平滑化モデル信号を生成することができる。つまり、急峻なエッジ付近での平滑化モデル画素値P’(x,y)が入力画像信号である注目画素値P(x,y)とかけ離れることがなく、このようなエッジ近傍においてもより確からしいノイズ量推定を行うことが可能となる。さらに、このような急峻なエッジ付近でのコアリング処理においても、平滑化モデル画素値P’(x,y)と入力画像信号である注目画素値P(x,y)との差分絶対値が必要以上に大きくなることはないとともに、確からしい推定ノイズ量と比較されることになるために、エッジ付近の平坦部において注目画素値P(x,y)が平滑化モデル画素値P’(x,y)に置き換わることになり、急峻なエッジ境界ぎりぎりまでノイズ抑圧を行うことが可能となるのである。   On the other hand, FIG. 6 shows a case where the smoothing filter storing the sharpness of the edge according to the present embodiment is used, and a smoothing model more approximate to the steep edge of the original input image signal. A signal can be generated. That is, the smoothed model pixel value P ′ (x, y) in the vicinity of the steep edge is not far from the target pixel value P (x, y) as the input image signal, and even in the vicinity of such an edge. A certain amount of noise can be estimated. Further, even in the coring process in the vicinity of such a steep edge, the absolute difference value between the smoothed model pixel value P ′ (x, y) and the target pixel value P (x, y) that is the input image signal is obtained. The pixel value P (x, y) of interest is smoothed model pixel value P ′ (x) in the flat part near the edge, since it does not become larger than necessary and is compared with a probable estimated noise amount. , Y), and noise suppression can be performed up to the steep edge boundary.

次に、図9から図11を参照して、上述したようなノイズ低減処理部100をデジタルカメラに適用した例について説明する。これら図9から図11は、ノイズ低減処理部100を、撮像システムたるデジタルカメラのセンサノイズを低減するために適用する例となっている。   Next, an example in which the above-described noise reduction processing unit 100 is applied to a digital camera will be described with reference to FIGS. 9 to 11 show an example in which the noise reduction processing unit 100 is applied to reduce sensor noise of a digital camera that is an imaging system.

まず、図9はデジタルカメラの構成を示すブロック図である。   First, FIG. 9 is a block diagram showing a configuration of a digital camera.

このデジタルカメラは、図9に示すように、光学系601と、撮像手段たる撮像部602と、画像処理部603と、表示部604と、記録部605と、出力部606と、を有して構成された撮像システムである。   As shown in FIG. 9, the digital camera includes an optical system 601, an imaging unit 602 that is an imaging unit, an image processing unit 603, a display unit 604, a recording unit 605, and an output unit 606. This is a configured imaging system.

光学系601は、レンズと、光学フィルタであるIRカットフィルタおよび光学ローパスフィルタと、を含み、通過する光を撮像部602の撮像素子上に光学像として結像させるものである。   The optical system 601 includes a lens, an IR cut filter that is an optical filter, and an optical low-pass filter, and forms an image of passing light as an optical image on the image sensor of the imaging unit 602.

撮像部602は、撮像素子と、電気信号増幅器と、A/D変換器と、撮像素子コントローラと、を含み、光学系601により撮像素子上に結像された光学像を光電変換して、光電変換された各画素の信号を電気信号増幅器により増幅し、増幅されたアナログの信号をA/D変換器によりデジタル信号に変換し、さらに撮像素子コントローラにより画像処理部603へ出力するものである。   The imaging unit 602 includes an imaging device, an electric signal amplifier, an A / D converter, and an imaging device controller. The imaging unit 602 photoelectrically converts an optical image formed on the imaging device by the optical system 601 to generate photoelectric signals. The converted signal of each pixel is amplified by an electric signal amplifier, the amplified analog signal is converted into a digital signal by an A / D converter, and further output to the image processing unit 603 by an image sensor controller.

画像処理部603は、撮像部602から入力された画像信号を色毎にノイズ低減して、表示部604と記録部605と出力部606とへ出力するものである。   The image processing unit 603 performs noise reduction for each color of the image signal input from the imaging unit 602 and outputs the image signal to the display unit 604, the recording unit 605, and the output unit 606.

表示部604は、このデジタルカメラにより撮像され画像処理部603から入力された画像信号やその他の各種情報を表示するためのものであり、例えば液晶モニタとして構成されている。   The display unit 604 displays an image signal captured by the digital camera and input from the image processing unit 603 and other various information, and is configured as a liquid crystal monitor, for example.

記録部605は、画像処理部603から入力された画像情報を記録媒体へ記録するものである。   The recording unit 605 records the image information input from the image processing unit 603 on a recording medium.

出力部606は、画像処理部603または記録部605から入力された画像情報などを、外部の装置等へ出力するものである。   The output unit 606 outputs image information or the like input from the image processing unit 603 or the recording unit 605 to an external device or the like.

次に、図10は図9における画像処理部603の構成をより詳細に示すブロック図、図11は図10におけるノイズ低減処理部100の構成をより詳細に示すブロック図である。   Next, FIG. 10 is a block diagram showing in more detail the configuration of the image processing unit 603 in FIG. 9, and FIG. 11 is a block diagram showing in more detail the configuration of the noise reduction processing unit 100 in FIG.

画像処理部603は、図10に示すように、色信号分離部701と、ノイズ低減処理部100と、を有して構成されている。   As illustrated in FIG. 10, the image processing unit 603 includes a color signal separation unit 701 and a noise reduction processing unit 100.

色信号分離部701は、撮像部602から入力された画像信号を、RGBの各色信号に分離して、ノイズ低減処理部100へ出力するものである。   The color signal separation unit 701 separates the image signal input from the imaging unit 602 into RGB color signals and outputs the separated RGB color signals to the noise reduction processing unit 100.

ノイズ低減処理部100は、図11に示すように、フィルタリング演算部101と、コアリング演算部102と、を含んで構成されていて、図1に示したものと同様である。このノイズ低減処理部100は、色信号分離部701により分離された色信号毎に、上述したようにノイズ抑圧処理を行って、ノイズ低減後の各色信号を表示部604と記録部605と出力部606とへそれぞれ出力する。   As shown in FIG. 11, the noise reduction processing unit 100 includes a filtering calculation unit 101 and a coring calculation unit 102, and is the same as that shown in FIG. The noise reduction processing unit 100 performs noise suppression processing for each color signal separated by the color signal separation unit 701 as described above, and displays each color signal after noise reduction by a display unit 604, a recording unit 605, and an output unit. 606 and 606, respectively.

このような実施形態1によれば、注目画素と周辺画素との相関を検出して、検出した相関に基づきフィルタ係数を適応的に変化させて平滑化フィルタリングを行っているために、微細領域の構造やエッジを保存した平滑化モデルを生成することができる。   According to the first embodiment, since the correlation between the target pixel and the surrounding pixels is detected and the smoothing filtering is performed by adaptively changing the filter coefficient based on the detected correlation, A smoothing model that preserves the structure and edges can be generated.

そして、エッジや微細領域の鮮鋭度を保存した平滑化モデルを用いてコアリング処理することにより、微細領域の構造やエッジをなまらせることなく、エッジや微細領域付近のノイズを十分に低減することが可能となる。   And, by performing coring processing using a smoothing model that preserves the sharpness of edges and fine areas, noise near the edges and fine areas can be sufficiently reduced without smoothing the structure and edges of the fine areas. Is possible.

さらに、画素値乖離度D(i,j)や位置乖離度r(i,j)の算出を、加算、減算、絶対値、2乗、平方根といった比較的簡単な演算の組み合わせを用いて行うようにしているために、処理の負荷が小さくなる。   Further, the pixel value deviation degree D (i, j) and the position deviation degree r (i, j) are calculated using a combination of relatively simple operations such as addition, subtraction, absolute value, square, and square root. Therefore, the processing load is reduced.

加えて、画素値乖離度D(i,j)と位置乖離度r(i,j)とを乗算したものにチューニング値tuneを加算し、さらにそれの逆数をとったものを相関指標値Cor(i,j)として、この相関指標値Cor(i,j)に基づき周辺画素のフィルタ係数を算出するとともに、画素値乖離度D(i,j)に基づき注目画素のフィルタ係数を算出しているために、乗算、加算、除算の組み合わせという比較的簡単な処理により演算を行うことが可能となる。   In addition, the tuning value tune is added to the product of the pixel value divergence degree D (i, j) and the position divergence degree r (i, j), and the reciprocal thereof is obtained as the correlation index value Cor ( i, j), the filter coefficient of the surrounding pixel is calculated based on the correlation index value Cor (i, j), and the filter coefficient of the target pixel is calculated based on the pixel value deviation degree D (i, j). Therefore, it is possible to perform an operation by a relatively simple process such as a combination of multiplication, addition, and division.

また、平滑化フィルタリングの係数の算出において、位置乖離度r(i,j)を使用することなく、画素値乖離度D(i,j)のみに基づいてフィルタ係数を算出するようにしても良い。この場合においても、前述した微細領域の構造やエッジを保存した平滑化モデル信号を生成する機能を果たすことが十分に可能であり、さらに、演算処理をより一層単純化することも可能となる。   Further, in the calculation of the smoothing filtering coefficient, the filter coefficient may be calculated based only on the pixel value deviation degree D (i, j) without using the position deviation degree r (i, j). . Even in this case, it is possible to fulfill the function of generating the smoothed model signal in which the structure and edges of the fine area described above are stored, and it is possible to further simplify the arithmetic processing.

こうして、平滑化モデルを算出するために必要な処理の負荷が比較的小さいために、撮像システムに搭載するためのハードウェア化を図ることが可能となる。   Thus, since the processing load necessary for calculating the smoothing model is relatively small, it is possible to implement hardware for mounting in the imaging system.

[実施形態2]
図12および図13は本発明の実施形態2を示したものであり、図12はフィルタリング演算部の構成を示すブロック図である。この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。
[Embodiment 2]
12 and 13 show the second embodiment of the present invention, and FIG. 12 is a block diagram showing the configuration of the filtering operation unit. In the second embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals, description thereof is omitted, and only different points will be mainly described.

本実施形態のノイズ低減処理部100の構成は、図1に示したものと同様であり、フィルタリング演算部101の内部構成が上述した実施形態1とはやや異なっている。   The configuration of the noise reduction processing unit 100 of the present embodiment is the same as that shown in FIG. 1, and the internal configuration of the filtering operation unit 101 is slightly different from that of the first embodiment described above.

すなわち、フィルタリング演算部101は、図12に示すように、メモリ201と、距離算出部202と、差分算出部203と、メモリ204と、メモリ205と、チューニング定数記憶部206と、周辺画素係数算出部207と、注目画素係数算出部208と、メモリ209と、畳み込み演算部210と、を有するとともに、さらに、領域類似判定手段たる領域類似判定部401を有して構成されている。   That is, as shown in FIG. 12, the filtering calculation unit 101 includes a memory 201, a distance calculation unit 202, a difference calculation unit 203, a memory 204, a memory 205, a tuning constant storage unit 206, and a surrounding pixel coefficient calculation. A unit 207, a target pixel coefficient calculation unit 208, a memory 209, and a convolution operation unit 210, and further includes a region similarity determination unit 401 serving as a region similarity determination unit.

メモリ201は、畳み込み演算部210へ接続されるとともに、さらに、領域類似判定部401へ接続されている。領域類似判定部401は、距離算出部202と、差分算出部203と、メモリ209と、へ接続されている。   The memory 201 is connected to the convolution operation unit 210 and further connected to the region similarity determination unit 401. The area similarity determination unit 401 is connected to the distance calculation unit 202, the difference calculation unit 203, and the memory 209.

続いて、図12に示したような構成のフィルタリング演算部101の作用について、図13に沿って説明する。図13は、フィルタリング演算部101の作用を示すフローチャートである。   Next, the operation of the filtering operation unit 101 configured as shown in FIG. 12 will be described with reference to FIG. FIG. 13 is a flowchart showing the operation of the filtering operation unit 101.

フィルタリング処理が可能となる所定ライン分の画素がメモリ201に格納されたところで、例えば図4に示したような、注目画素(画素位置(x,y))と周辺画素(画素位置(x+i,y+j))とを含む注目領域の画素値が抽出され、領域類似判定部401と畳み込み演算部210とへ出力される(ステップS301)。   When pixels for a predetermined line that can be filtered are stored in the memory 201, for example, as shown in FIG. 4, the pixel of interest (pixel position (x, y)) and surrounding pixels (pixel position (x + i, y + j) )) Is extracted and output to the region similarity determination unit 401 and the convolution operation unit 210 (step S301).

領域類似判定部401は、抽出された注目領域内の画素のパターンの判別を行う(ステップS302)。   The region similarity determination unit 401 determines the pattern of pixels in the extracted attention region (step S302).

そして、領域類似判定部401は、注目領域内の画素のパターンを以前に処理した隣接領域内の画素のパターンと比較して、類似性が高いか低いかを判定する(ステップS303)。   Then, the region similarity determination unit 401 compares the pixel pattern in the attention region with the previously processed pixel pattern in the adjacent region to determine whether the similarity is high or low (step S303).

ここで類似性が低いと判定した場合には、領域類似判定部401は、注目領域の各画素を距離算出部202および差分算出部203へ出力する。これにより、上述した実施形態1と同様にして、フィルタ係数としての重み係数Wcenter,W(i,j)の算出処理が行われる(ステップS304)。なお、このステップS304におけるフィルタ係数の算出処理は、図7のステップS102からステップS110までに示した処理と同様である。   When it is determined that the similarity is low, the region similarity determination unit 401 outputs each pixel of the attention region to the distance calculation unit 202 and the difference calculation unit 203. Thereby, similarly to the first embodiment described above, the calculation processing of the weighting factors Wcenter, W (i, j) as the filter coefficients is performed (step S304). Note that the filter coefficient calculation processing in step S304 is the same as the processing shown in steps S102 to S110 in FIG.

このようにして算出された各重み係数Wcenter、W(i,j)は、メモリ209に格納される(ステップS305)。   The weighting factors Wcenter and W (i, j) calculated in this way are stored in the memory 209 (step S305).

一方、ステップS303において、領域類似判定部401が注目領域内の画素のパターンと以前に処理した隣接領域内の画素のパターンとの類似性が高いと判定した場合には、ステップS304およびステップS305の処理を行うことなく(すなわち、フィルタ係数算出処理を省略して)、既にメモリ209に記憶されている以前に処理した隣接領域のフィルタ係数を、そのまま以下の平滑化処理に使用する。   On the other hand, in step S303, when the region similarity determination unit 401 determines that the similarity between the pixel pattern in the attention region and the pixel pattern in the adjacent region processed previously is high, the process proceeds to steps S304 and S305. Without performing the process (that is, omitting the filter coefficient calculation process), the filter coefficient of the adjacent region that has been previously processed and is already stored in the memory 209 is used as it is for the following smoothing process.

すなわち、ステップS305の処理が終了するか、またはステップS303において類似性が高いと判定された場合には、図7のステップS111に示した処理と同様に、メモリ209に格納されている重み係数WcenterおよびW(i,j)と、領域内の注目画素値P(x,y)および周辺画素値P(x+i,y+j)とのフィルタ演算である畳み込み演算を上述した数式10に示すように行って、平滑化モデル信号である平滑化モデル画素値P’(x,y)を算出する(ステップS306)。   That is, when the process of step S305 is completed or when it is determined in step S303 that the similarity is high, the weighting factor Wcenter stored in the memory 209 is similar to the process shown in step S111 of FIG. And a convolution operation, which is a filter operation between W (i, j), the target pixel value P (x, y) and the peripheral pixel value P (x + i, y + j) in the region, as shown in Equation 10 above. Then, a smoothed model pixel value P ′ (x, y), which is a smoothed model signal, is calculated (step S306).

そして、畳み込み演算部210は、算出した平滑化モデル画素値P’(x,y)をコアリング演算部102へ出力する(ステップS307)。   Then, the convolution operation unit 210 outputs the calculated smoothed model pixel value P ′ (x, y) to the coring operation unit 102 (step S307).

なお、上述したような、現在設定されている注目領域内の画素のパターンと以前に処理した隣接領域内の画素のパターンとの比較は、1つ前に処理した領域に対して行うだけでなく、過去に処理した複数の領域に対して行うようにしても構わない。ただし、この場合には、比較対象とする分の過去のフィルタ係数を、メモリ209内に保持しておく必要がある。これにより、パターン類似のヒット率を上げて、処理負荷の軽減をより図ることが可能となる。   In addition, the comparison between the pixel pattern in the attention area currently set as described above and the pixel pattern in the adjacent area that has been processed before is not only performed on the area that has been previously processed. Alternatively, it may be performed for a plurality of areas processed in the past. However, in this case, it is necessary to store the past filter coefficients for the comparison target in the memory 209. Thereby, it is possible to increase the pattern-similar hit rate and further reduce the processing load.

また、本実施形態のノイズ低減処理部100も、上述した実施形態1と同様に、デジタルカメラ等の撮像システムに適用することが可能である。   Also, the noise reduction processing unit 100 of the present embodiment can be applied to an imaging system such as a digital camera, as in the first embodiment.

このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、フィルタリング演算においてフィルタ係数を算出する際に、抽出された注目領域の画素値のパターンを検出して、以前にフィルタ係数を算出した注目領域のパターンと類似する場合には、新たなフィルタ係数の算出を省略するとともに、以前に算出したフィルタ係数を適用するようにしたために、フィルタリング演算処理の負荷の軽減と処理の高速化とを図ることが可能となる。   According to the second embodiment, the same effect as that of the first embodiment described above is obtained, and when the filter coefficient is calculated in the filtering calculation, the extracted pixel value pattern of the attention area is detected. If it is similar to the pattern of the region of interest for which the filter coefficient was calculated previously, the calculation of the new filter coefficient is omitted and the filter coefficient calculated previously is applied. It is possible to increase the processing speed.

[実施形態3]
図14および図15は本発明の実施形態3を示したものであり、図14はノイズ低減処理部の構成を示すブロック図である。この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。
[Embodiment 3]
14 and 15 show Embodiment 3 of the present invention, and FIG. 14 is a block diagram showing the configuration of the noise reduction processing unit. In the third embodiment, parts that are the same as those in the first and second embodiments are given the same reference numerals, description thereof is omitted, and only differences are mainly described.

本実施形態は、相関指標値Cor(i,j)における相関関連値の影響度を調整するためのチューニング値を、可変に制御することができるようにしたものとなっている。   In the present embodiment, the tuning value for adjusting the degree of influence of the correlation-related value in the correlation index value Cor (i, j) can be variably controlled.

すなわち、本実施形態のノイズ低減処理部100は、フィルタリング演算部101と、コアリング演算部102と、を有するとともに、さらに、入力画像を記憶するためのフレームメモリ501と、入力SN算出手段たる入力SN算出部502と、ノイズ低減後の画像を記憶するためのフレームメモリ503と、ノイズ低減後SN算出手段たるSN改善量判定部504と、チューニング調整手段たるチューニング調整部505と、を有して構成されている。   That is, the noise reduction processing unit 100 of the present embodiment includes a filtering calculation unit 101 and a coring calculation unit 102, a frame memory 501 for storing an input image, and an input as an input SN calculation unit. An SN calculation unit 502, a frame memory 503 for storing an image after noise reduction, an SN improvement amount determination unit 504 serving as an SN calculation unit after noise reduction, and a tuning adjustment unit 505 serving as a tuning adjustment unit. It is configured.

ここに、入力原画像は、フィルタリング演算部101とコアリング演算部102とへ入力されるとともに、フレームメモリ501を介してさらに、入力SN算出部502へも入力されるようになっている。入力SN算出部502は、SN改善量判定部504へ接続されている。コアリング演算部102は、フレームメモリ503を介してSN改善量判定部504へ接続されている。SN改善量判定部504は、チューニング調整部505を介して、フィルタリング演算部101へ接続されている。また、SN改善量判定部504は、出力画像を出力するようになっている。   Here, the input original image is input to the filtering operation unit 101 and the coring operation unit 102, and is also input to the input SN calculation unit 502 via the frame memory 501. The input SN calculation unit 502 is connected to the SN improvement amount determination unit 504. The coring calculation unit 102 is connected to the SN improvement amount determination unit 504 via the frame memory 503. The SN improvement amount determination unit 504 is connected to the filtering operation unit 101 via the tuning adjustment unit 505. The SN improvement amount determination unit 504 outputs an output image.

続いて、図14に示したような構成のノイズ低減処理部100の作用について、図15に沿って説明する。図15は、ノイズ低減処理部100の作用を示すフローチャートである。   Next, the operation of the noise reduction processing unit 100 configured as shown in FIG. 14 will be described with reference to FIG. FIG. 15 is a flowchart showing the operation of the noise reduction processing unit 100.

この処理を開始すると、入力原画像がフレームメモリ501に格納される(ステップS401)。入力SN算出部502は、フレームメモリ501に格納された入力原画像の画像信号から平坦領域を抽出して(ステップS402)、抽出した平坦領域内の各画素の画素値の分散に基づき入力SN値SNinを算出し、算出したSN値SNinをSN改善量判定部504へ出力する。SN改善量判定部504は、入力されたSN値SNinに基づき、チューニング調整部505を制御することにより、チューニング値tuneの初期値をチューニング定数記憶部206に設定させる(ステップS403)。   When this process is started, the input original image is stored in the frame memory 501 (step S401). The input SN calculation unit 502 extracts a flat area from the image signal of the input original image stored in the frame memory 501 (Step S402), and based on the variance of the pixel value of each pixel in the extracted flat area, the input SN value SNin is calculated, and the calculated SN value SNin is output to the SN improvement determination unit 504. The SN improvement amount determination unit 504 controls the tuning adjustment unit 505 based on the input SN value SNin, thereby causing the tuning constant storage unit 206 to set the initial value of the tuning value tune (step S403).

また、フィルタリング演算部101は、図7に示した処理と同様にして、注目領域の入力画像信号(P(x,y)およびP(x+i,y+j))に対してフィルタリング演算を行うことにより平滑化し、平滑化モデル信号である平滑化モデル画素値P’(x,y)をコアリング演算部102へ出力する(ステップS404)。   Further, the filtering operation unit 101 performs smoothing by performing a filtering operation on the input image signals (P (x, y) and P (x + i, y + j)) in the region of interest in the same manner as the processing shown in FIG. And outputs the smoothed model pixel value P ′ (x, y), which is a smoothed model signal, to the coring operation unit 102 (step S404).

コアリング演算部102は、図8に示した処理と同様にして、入力画像信号である注目画素値P(x,y)と平滑化モデル信号である平滑化モデル画素値P’(x,y)とに基づき、コアリング処理を行ってノイズを抑圧し、最終出力信号Poutの候補となる出力信号Poutを算出する(ステップS405)。   Similar to the processing shown in FIG. 8, the coring calculation unit 102 receives the target pixel value P (x, y) that is the input image signal and the smoothed model pixel value P ′ (x, y) that is the smoothed model signal. ) To suppress the noise and calculate an output signal Pout that is a candidate for the final output signal Pout (step S405).

コアリング演算部102の出力信号Poutはフレームメモリ503に格納され(ステップS406)、SN改善量判定部504は、コアリング演算部102の出力信号Poutから、入力画像信号のSN値SNinを算出した平坦領域と同じ領域を抽出して(ステップS407)、この領域内の各画素の画素値の分散に基づき出力SN値SNoutを算出する。そして、SN改善量判定部504は、出力SN値SNoutと、入力SN算出部502から入力された入力SN値SNinと、の差分を次の数式12に示すように算出し、SN改善量ΔSNとする(ステップS408)。
[数12]

Figure 2008205737
The output signal Pout of the coring calculation unit 102 is stored in the frame memory 503 (step S406), and the SN improvement amount determination unit 504 calculates the SN value SNin of the input image signal from the output signal Pout of the coring calculation unit 102. The same area as the flat area is extracted (step S407), and the output SN value SNout is calculated based on the variance of the pixel values of each pixel in this area. Then, the SN improvement amount determination unit 504 calculates the difference between the output SN value SNout and the input SN value SNin input from the input SN calculation unit 502 as shown in the following Expression 12, and the SN improvement amount ΔSN (Step S408).
[Equation 12]
Figure 2008205737

次に、SN改善量判定部504は、ステップS408により算出したSN改善量ΔSNと、予め設定された目標SN改善量ΔSNgoalと、の差分を算出して(ステップS409)、算出した差分の絶対値が一定の閾値Th以下であるか否かを判定する(ステップS410)。   Next, the SN improvement amount determination unit 504 calculates the difference between the SN improvement amount ΔSN calculated in step S408 and the preset target SN improvement amount ΔSNgoal (step S409), and the absolute value of the calculated difference Is less than or equal to a certain threshold Th (step S410).

ここで、差分の絶対値が一定の閾値Thを越えると判定した場合には、SN改善量判定部504は、SN改善量ΔSNと目標SN改善量ΔSNgoalとをチューニング調整部505へ出力する。すると、チューニング調整部505は、まず、SN改善量ΔSNが目標SN改善量ΔSNgoalよりも小さいか否かを判定する(ステップS411)。   When it is determined that the absolute value of the difference exceeds a certain threshold Th, the SN improvement amount determination unit 504 outputs the SN improvement amount ΔSN and the target SN improvement amount ΔSNgoal to the tuning adjustment unit 505. Then, the tuning adjustment unit 505 first determines whether or not the SN improvement amount ΔSN is smaller than the target SN improvement amount ΔSNgoal (step S411).

ここで、チューニング調整部505は、SN改善量ΔSNが目標SN改善量ΔSNgoalよりも小さいと判定した場合には、フィルタリング演算に用いるチューニング値tuneを増加させる(ステップS412)。チューニング値tuneを増加させると、相関指標値Cor(i,j)における相関関連値の影響度が小さくなるために、フィルタ係数がより均一に近づき、平滑化効果が強くなって、エッジや微細領域の鮮鋭度を保存する効果は弱くなる。   Here, if the tuning adjustment unit 505 determines that the SN improvement amount ΔSN is smaller than the target SN improvement amount ΔSNgoal, the tuning adjustment unit 505 increases the tuning value tune used for the filtering calculation (step S412). When the tuning value tune is increased, the degree of influence of the correlation-related value in the correlation index value Cor (i, j) decreases, so that the filter coefficient approaches more uniformly and the smoothing effect becomes stronger, so that the edge or fine region is increased. The effect of preserving sharpness is weakened.

また、チューニング調整部505は、SN改善量ΔSNが目標SN改善量ΔSNgoalよりも大きいと判定した場合には、フィルタリング演算に用いるチューニング値tuneを減少させる(ステップS413)。チューニング値tuneを減少させると、相関指標値Cor(i,j)における相関関連値の影響度が大きくなるために、相関関連値により大きく依存する重み付けが行われることになり、平滑化効果が弱くなって、エッジや微細領域の鮮鋭度を保存する効果は強くなる。   When the tuning adjustment unit 505 determines that the SN improvement amount ΔSN is larger than the target SN improvement amount ΔSNgoal, the tuning adjustment unit 505 decreases the tuning value tune used for the filtering calculation (step S413). When the tuning value tune is decreased, the degree of influence of the correlation value on the correlation index value Cor (i, j) increases, so that weighting that greatly depends on the correlation value is performed, and the smoothing effect is weak. As a result, the effect of preserving the sharpness of the edges and fine regions becomes stronger.

そして、チューニング調整部505は、ステップS412またはステップS413の処理により算出したチューニング値tuneを、新たなチューニング値としてチューニング定数記憶部206に設定する(ステップS414)。その後、ステップS404に戻って、上述したようなノイズ低減処理を繰り返して行う。   Then, the tuning adjustment unit 505 sets the tuning value “tune” calculated by the processing in step S412 or step S413 as a new tuning value in the tuning constant storage unit 206 (step S414). Thereafter, the process returns to step S404, and the noise reduction process as described above is repeated.

このような処理を行うことにより、ステップS410において、SN改善量ΔSNと目標SN改善量ΔSNgoalとの差分の絶対値が一定の閾値Th以下であると判定した場合には、SN改善量判定部504は、コアリング演算部102からの出力信号Poutをそのまま最終出力信号Poutとして出力する(ステップS415)。   By performing such processing, if it is determined in step S410 that the absolute value of the difference between the SN improvement amount ΔSN and the target SN improvement amount ΔSNgoal is equal to or less than a certain threshold Th, the SN improvement amount determination unit 504 Outputs the output signal Pout from the coring operation unit 102 as it is as the final output signal Pout (step S415).

なお、本実施形態のノイズ低減処理部100も、上述した実施形態1,2と同様に、デジタルカメラ等の撮像システムに適用することが可能である。   Note that the noise reduction processing unit 100 of the present embodiment can also be applied to an imaging system such as a digital camera, as in the first and second embodiments.

このような実施形態3によれば、上述した実施形態1,2とほぼ同様の効果を奏するとともに、画像に応じてチューニング値を適応的に変化させるようにしたために、平滑化効果と、エッジや微細領域の鮮鋭度を保存する効果と、のバランスを制御することができる。   According to the third embodiment, the effects similar to those of the first and second embodiments described above are obtained, and the tuning value is adaptively changed according to the image. The balance between the effect of preserving the sharpness of the fine region and the effect can be controlled.

そして、予め設定された目標SN改善量を達成するまで、チューニング値を変化させながらノイズ低減処理を自動的に繰り返すようにしたために、最適な平滑化強度にチューニングされた出力画像を得ることができる。   Since the noise reduction process is automatically repeated while changing the tuning value until a preset target SN improvement amount is achieved, an output image tuned to the optimum smoothing intensity can be obtained. .

なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications and applications can be made without departing from the spirit of the invention.

本発明は、画像のノイズ低減に用いる平滑化モデルを算出する撮像システム、画像処理プログラム、画像処理方法に好適に利用することができる。   The present invention can be suitably used for an imaging system, an image processing program, and an image processing method for calculating a smoothing model used for image noise reduction.

本発明の実施形態1におけるノイズ低減処理部の構成を示すブロック図。The block diagram which shows the structure of the noise reduction process part in Embodiment 1 of this invention. 上記実施形態1におけるフィルタリング演算部の構成を示すブロック図。The block diagram which shows the structure of the filtering calculating part in the said Embodiment 1. FIG. 上記実施形態1におけるコアリング演算部の構成を示すブロック図。The block diagram which shows the structure of the coring calculating part in the said Embodiment 1. FIG. 上記実施形態1において、注目領域における注目画素と各周辺画素との関係の一例を示す図。FIG. 3 is a diagram illustrating an example of a relationship between a pixel of interest in a region of interest and each peripheral pixel in the first embodiment. 上記実施形態1において、注目画素の重み係数と周辺画素の重み係数との関係が画素値乖離度の総和に依存して変化する様子を示す線図。FIG. 5 is a diagram showing a manner in which the relationship between the weighting coefficient of the target pixel and the weighting coefficients of surrounding pixels changes depending on the sum of the pixel value divergence degrees in the first embodiment. 上記実施形態1において、コアリング処理によるエッジ部のノイズ抑圧の様子を示す図。In the said Embodiment 1, the figure which shows the mode of the noise suppression of the edge part by a coring process. 上記実施形態1におけるフィルタリング演算部の作用を示すフローチャート。The flowchart which shows the effect | action of the filtering calculating part in the said Embodiment 1. FIG. 上記実施形態1におけるコアリング処理部の作用を示すフローチャート。The flowchart which shows the effect | action of the coring process part in the said Embodiment 1. FIG. 上記実施形態1におけるデジタルカメラの構成を示すブロック図。FIG. 2 is a block diagram illustrating a configuration of a digital camera according to the first embodiment. 上記実施形態1の図9における画像処理部の構成をより詳細に示すブロック図。The block diagram which shows the structure of the image process part in FIG. 9 of the said Embodiment 1 in detail. 上記実施形態1の図10におけるノイズ低減処理部の構成をより詳細に示すブロック図。The block diagram which shows the structure of the noise reduction process part in FIG. 10 of the said Embodiment 1 in detail. 本発明の実施形態2におけるフィルタリング演算部の構成を示すブロック図。The block diagram which shows the structure of the filtering calculating part in Embodiment 2 of this invention. 上記実施形態2におけるフィルタリング演算部の作用を示すフローチャート。The flowchart which shows the effect | action of the filtering calculating part in the said Embodiment 2. 本発明の実施形態3におけるノイズ低減処理部の構成を示すブロック図。The block diagram which shows the structure of the noise reduction process part in Embodiment 3 of this invention. 上記実施形態3におけるノイズ低減処理部の作用を示すフローチャート。10 is a flowchart showing the operation of the noise reduction processing unit in the third embodiment. 従来のフィルタリング処理における注目画素と周辺画素との重み係数の相関を概念的に示す図。The figure which shows notionally the correlation of the weighting coefficient of the attention pixel and surrounding pixel in the conventional filtering process. 従来のコアリング処理においてエッジ部のノイズが残留する様子を概念的に示す図。The figure which shows notionally the mode that the noise of an edge part remains in the conventional coring process.

符号の説明Explanation of symbols

100…ノイズ低減処理部(撮像システムの少なくとも一部)
101…フィルタリング演算部(平滑化信号算出手段、注目領域設定手段)
102…コアリング演算部(コアリング演算手段)
201,204,205,209…メモリ
202…距離算出部(平滑化信号算出手段、位置乖離度算出手段)
203…差分算出部(平滑化信号算出手段、画素値乖離度算出手段)
206…チューニング定数記憶部
207…周辺画素係数算出部(平滑化信号算出手段、相関関連値演算手段、相関指標値演算手段、フィルタ係数演算手段)
208…注目画素係数算出部(平滑化信号算出手段、フィルタ係数演算手段)
210…畳み込み演算部(平滑化信号算出手段、フィルタ演算手段)
301…ノイズモデルLUT(ノイズ量推定手段)
302…ISO感度記憶部(ノイズ量推定手段)
303…ゲイン制御部(ノイズ量推定手段)
304…ノイズ量補正部(ノイズ低減手段)
305…コアリング処理部(ノイズ低減手段)
401…領域類似判定部(領域類似判定手段)
501…フレームメモリ
502…入力SN算出部(入力SN算出手段)
503…フレームメモリ
504…SN改善量判定部(ノイズ低減後SN算出手段)
505…チューニング調整部(チューニング調整手段)
601…光学系
602…撮像部(撮像手段)
603…画像処理部
604…表示部
605…記録部
606…出力部
701…色信号分離部
100: Noise reduction processing unit (at least a part of the imaging system)
101... Filtering operation unit (smoothing signal calculation means, attention area setting means)
102: Coring calculation unit (coring calculation means)
201, 204, 205, 209 ... Memory 202 ... Distance calculation section (smoothing signal calculation means, position deviation degree calculation means)
203... Difference calculation unit (smoothing signal calculation means, pixel value deviation degree calculation means)
206 ... Tuning constant storage unit 207 ... Peripheral pixel coefficient calculation unit (smoothing signal calculation means, correlation related value calculation means, correlation index value calculation means, filter coefficient calculation means)
208... Pixel pixel calculation unit (smoothing signal calculation means, filter coefficient calculation means)
210: Convolution calculation unit (smoothing signal calculation means, filter calculation means)
301 ... Noise model LUT (noise amount estimating means)
302 ... ISO sensitivity storage unit (noise amount estimation means)
303 ... Gain control section (noise amount estimating means)
304: Noise amount correction unit (noise reduction means)
305 ... Coring processing unit (noise reduction means)
401... Area similarity determination unit (area similarity determination means)
501... Frame memory 502... Input SN calculation unit (input SN calculation means)
503... Frame memory 504... SN improvement amount determination unit (SN calculation means after noise reduction)
505 ... Tuning adjustment unit (tuning adjustment means)
601: Optical system 602 ... Imaging unit (imaging means)
603 ... Image processing unit 604 ... Display unit 605 ... Recording unit 606 ... Output unit 701 ... Color signal separation unit

Claims (13)

撮像系から取り込まれた映像信号に対してノイズ低減処理を行う撮像システムにおいて、
上記映像信号におけるノイズ低減処理を行う対象となる注目画素と、該注目画素の空間的近傍に位置する1以上の周辺画素と、の間の空間相関性と画素値相関性との少なくとも一方に基づいて算出した相関関連値と、該相関関連値を調整するための調整値と、に基づき、該注目画素に対する平滑化信号を算出する平滑化信号算出手段と、
上記平滑化信号算出手段により算出された上記注目画素の平滑化信号に基づいて上記注目画素に含まれるノイズ量を推定するノイズ量推定手段と、
上記平滑化信号算出手段により算出された平滑化信号および上記ノイズ量推定手段により推定されたノイズ量に基づいて、上記注目画素に対してノイズ低減処理を行うノイズ低減手段と、
を有することを特徴とする撮像システム。
In an imaging system that performs noise reduction processing on a video signal captured from an imaging system,
Based on at least one of spatial correlation and pixel value correlation between a target pixel to be subjected to noise reduction processing in the video signal and one or more peripheral pixels located in the spatial vicinity of the target pixel. Smoothing signal calculation means for calculating a smoothing signal for the pixel of interest based on the correlation-related value calculated in the above and an adjustment value for adjusting the correlation-related value;
Noise amount estimating means for estimating the amount of noise included in the target pixel based on the smoothed signal of the target pixel calculated by the smoothed signal calculating means;
Noise reduction means for performing noise reduction processing on the pixel of interest based on the smoothed signal calculated by the smoothed signal calculation means and the noise amount estimated by the noise amount estimation means;
An imaging system comprising:
上記平滑化信号算出手段は、
入力される画像信号に、注目画素とこの注目画素の空間的近傍に位置する1以上の周辺画素とにより構成される注目領域を設定する注目領域設定手段と、
上記注目画素と上記周辺画素との画素値の乖離の度合を示す画素値乖離度を各周辺画素毎に算出する画素値乖離度算出手段と、
上記注目画素と上記周辺画素との空間的な乖離の度合を示す位置乖離度を各周辺画素毎に算出する位置乖離度算出手段と、
同一の周辺画素に係る上記画素値乖離度と上記位置乖離度とを各周辺画素毎に乗算することにより、上記注目画素と上記周辺画素との相関性に関連する値である相関関連値を各周辺画素毎に求める相関関連値演算手段と、
上記相関関連値に調整用の定数であるチューニング値を加算して、この加算した値に基づき、上記注目画素と上記周辺画素との相関性を示す指標となる相関指標値を各周辺画素毎に求める相関指標値演算手段と、
上記相関指標値と、該相関指標値を求める過程で得られた値と、の少なくとも一方に基づき、上記注目領域に含まれる全画素に対するフィルタ係数を各画素毎に求めるフィルタ係数演算手段と、
上記フィルタ係数を用いて上記注目領域に対しフィルタ演算を行うことにより、注目画素に係る平滑化モデル画素値を算出するフィルタ演算手段と、を有する
ことを特徴とする請求項1に記載の撮像システム。
The smoothed signal calculation means includes:
Attention area setting means for setting an attention area constituted by a target pixel and one or more peripheral pixels located in the spatial vicinity of the target pixel in an input image signal;
Pixel value divergence calculating means for calculating a pixel value divergence degree for each peripheral pixel indicating a degree of divergence between the pixel of interest and the peripheral pixels;
A position divergence calculating means for calculating a position divergence degree indicating the degree of spatial divergence between the target pixel and the peripheral pixels for each peripheral pixel;
By multiplying the pixel value divergence degree and the position divergence degree related to the same peripheral pixel for each peripheral pixel, a correlation related value, which is a value related to the correlation between the target pixel and the peripheral pixel, is obtained. Correlation-related value calculating means for each peripheral pixel;
A tuning value that is a constant for adjustment is added to the correlation-related value, and based on the added value, a correlation index value that serves as an index indicating the correlation between the target pixel and the peripheral pixel is determined for each peripheral pixel. A correlation index value calculating means to be obtained;
A filter coefficient computing means for obtaining, for each pixel, filter coefficients for all pixels included in the region of interest based on at least one of the correlation index value and a value obtained in the process of obtaining the correlation index value;
2. The imaging system according to claim 1, further comprising: a filter calculation unit that calculates a smoothed model pixel value related to the target pixel by performing a filter operation on the target region using the filter coefficient. .
上記フィルタ係数演算手段は、上記注目領域内の全ての周辺画素に対する上記画素値乖離度を加算したものが大きくなるに従って、注目画素に対するフィルタ係数が周辺画素に対するフィルタ係数に相対して大きくなるように、該注目画素に対するフィルタ係数および該周辺画素に対するフィルタ係数を求めるものであることを特徴とする請求項2に記載の撮像システム。   The filter coefficient calculation means increases the filter coefficient for the target pixel relative to the filter coefficient for the peripheral pixel as the sum of the pixel value divergence degrees for all the peripheral pixels in the target area increases. 3. The imaging system according to claim 2, wherein a filter coefficient for the target pixel and a filter coefficient for the peripheral pixel are obtained. 上記フィルタ係数演算手段は、上記注目領域内の全ての周辺画素に対する上記画素値乖離度を加算したものが大きくなるに従って、注目画素に対するフィルタ係数が0以上1以下の予め定められた上限値以下の範囲で大きくなるようにし、かつ、1から注目画素に対するフィルタ係数を減算したものが周辺画素に対するフィルタ係数の因子として含まれるようにすることにより、注目画素に対するフィルタ係数が周辺画素に対するフィルタ係数に相対して大きくなるようにするものであることを特徴とする請求項3に記載の撮像システム。   The filter coefficient calculation means has a filter coefficient for the pixel of interest that is not less than a predetermined upper limit value of 0 or more and 1 or less as the sum of the pixel value divergence degrees for all the surrounding pixels in the region of interest increases. By increasing the range, and subtracting the filter coefficient for the target pixel from 1 as a factor of the filter coefficient for the peripheral pixel, the filter coefficient for the target pixel is relative to the filter coefficient for the peripheral pixel. The imaging system according to claim 3, wherein the imaging system is configured to be large. 上記注目画素の位置を(x,y)(ここに、x,yは実数)、上記周辺画素の位置を(x+i,y+j)(ここに、i,jは実数であって、iとjとは同時に0とはならない。)、上記注目画素の画素値をP(x,y)、上記周辺画素の画素値をP(x+i,y+j)とするとき、
上記画素値乖離度算出手段は、画素値乖離度D(i,j)を、次の数式
Figure 2008205737
または、次の数式
Figure 2008205737
により算出するものであり、
上記位置乖離度算出手段は、位置乖離度r(i,j)を、次の数式
Figure 2008205737
または、次の数式
Figure 2008205737
により算出するものであり、
上記相関関連値演算手段は、相関関連値を、次の演算
Figure 2008205737
により算出するものであり、
上記相関指標値演算手段は、相関指標値Cor(i,j)を、上記相関関連値と上記チューニング値tune(ここに、チューニング値tuneは0以上の実数)とに基づき、次の数式
Figure 2008205737
により算出するものであり、
上記フィルタ係数演算手段は、上記注目画素のフィルタ係数Wcenterを、次の数式
Figure 2008205737
により算出する(ここに、総和は、注目領域に含まれる全周辺画素に対応する(i,j)についてとる(すなわち、総和からは、i=0かつj=0の場合は除外される)ものとする)ものであるとともに、上記周辺画素のフィルタ係数W(i,j)を、次の数式
Figure 2008205737
により算出する(ここに、総和は、注目領域に含まれる全周辺画素に対応する(i,j)についてとる(すなわち、総和からは、i=0かつj=0の場合は除外される)ものとする)ものであり、
上記フィルタ演算手段は、注目画素に係る平滑化モデル画素値P’(x,y)を、次の数式、
Figure 2008205737
により算出する(ここに、総和は、注目領域に含まれる全周辺画素に対応する(i,j)についてとる(すなわち、総和からは、i=0かつj=0の場合は除外される)ものとする)ものであることを特徴とする請求項3に記載の撮像システム。
The position of the pixel of interest is (x, y) (where x and y are real numbers), and the position of the peripheral pixel is (x + i, y + j) (where i and j are real numbers, i and j Are not simultaneously 0.) When the pixel value of the pixel of interest is P (x, y) and the pixel value of the peripheral pixels is P (x + i, y + j),
The pixel value divergence degree calculation means calculates the pixel value divergence degree D (i, j) as follows:
Figure 2008205737
Or the following formula
Figure 2008205737
Is calculated by
The position divergence calculating means calculates the position divergence r (i, j) by the following formula.
Figure 2008205737
Or the following formula
Figure 2008205737
Is calculated by
The correlation related value calculating means calculates the correlation related value by
Figure 2008205737
Is calculated by
The correlation index value calculation means calculates the correlation index value Cor (i, j) based on the correlation-related value and the tuning value tune (where the tuning value tune is a real number greater than or equal to 0) as follows:
Figure 2008205737
Is calculated by
The filter coefficient calculation means calculates the filter coefficient Wcenter of the target pixel by the following formula
Figure 2008205737
(Here, the sum is taken for (i, j) corresponding to all peripheral pixels included in the region of interest (that is, excluded from the sum if i = 0 and j = 0)) And the filter coefficient W (i, j) of the surrounding pixels is expressed by the following formula:
Figure 2008205737
(Here, the sum is taken for (i, j) corresponding to all peripheral pixels included in the region of interest (that is, excluded from the sum if i = 0 and j = 0)) And)
The filter calculation means calculates the smoothed model pixel value P ′ (x, y) related to the target pixel by the following formula:
Figure 2008205737
(Here, the sum is taken for (i, j) corresponding to all peripheral pixels included in the region of interest (that is, excluded from the sum if i = 0 and j = 0)) The imaging system according to claim 3, wherein
上記注目領域設定手段は、上記注目画素の画素位置を順次変更するように、上記注目領域を順次設定するものであり、
上記注目領域設定手段により現在設定されている注目領域と、該注目領域設定手段により過去に設定された注目領域と、が類似するか否かを判定する領域類似判定手段をさらに具備し、
上記領域類似判定手段により類似すると判定された場合には、上記画素値乖離度算出手段と上記位置乖離度算出手段と上記相関関連値演算手段と上記相関指標値演算手段と上記フィルタ係数演算手段との処理を省略して、上記過去に設定された注目領域に関して既に求められているフィルタ係数を現在設定されている注目領域に対して用いて上記フィルタ演算手段により平滑化モデル画素値を算出するものであることを特徴とする請求項2に記載の撮像システム。
The region of interest setting means sequentially sets the region of interest so as to sequentially change the pixel position of the pixel of interest.
A region similarity determination unit that determines whether the attention region currently set by the attention region setting unit and the attention region set in the past by the attention region setting unit are similar to each other;
If it is determined by the region similarity determining means that the images are similar, the pixel value divergence calculating means, the position divergence calculating means, the correlation related value calculating means, the correlation index value calculating means, and the filter coefficient calculating means, In which the filter calculation means calculates the smoothed model pixel value using the filter coefficients already obtained for the attention area set in the past for the attention area currently set. The imaging system according to claim 2, wherein:
上記入力された画像信号に係る注目画素の画素値と、該注目画素に係る上記平滑化モデル画素値と、を用いてコアリング処理を行うコアリング演算手段をさらに具備したことを特徴とする請求項2に記載の撮像システム。   The apparatus further comprises coring calculation means for performing a coring process using the pixel value of the target pixel related to the input image signal and the smoothed model pixel value related to the target pixel. Item 3. The imaging system according to Item 2. 上記入力された画像信号と上記コアリング処理後の画像信号とに応じて、上記チューニング値を変化させるチューニング調整手段をさらに具備したことを特徴とする請求項7に記載の撮像システム。   The imaging system according to claim 7, further comprising tuning adjustment means for changing the tuning value in accordance with the input image signal and the image signal after the coring process. 上記入力された画像信号のSN比を算出する入力SN算出手段と、
上記コアリング処理後の画像信号のSN比を算出するノイズ低減後SN算出手段と、
をさらに具備し、
上記チューニング調整手段は、上記入力された画像信号のSN比と、上記コアリング処理後の画像信号のSN比と、に応じて、上記チューニング値を変化させるものであることを特徴とする請求項8に記載の撮像システム。
Input SN calculation means for calculating the SN ratio of the input image signal;
A noise-reduced SN calculation means for calculating an SN ratio of the image signal after the coring process;
Further comprising
The tuning adjustment unit is configured to change the tuning value in accordance with an S / N ratio of the input image signal and an S / N ratio of the image signal after the coring process. 9. The imaging system according to 8.
上記入力SN算出手段は、上記入力された画像信号の平坦領域を抽出して、該平坦領域のSN比を算出するものであり、
上記ノイズ低減後SN算出手段は、上記コアリング処理後の画像信号における上記平坦領域と同一の領域のSN比を算出するものであることを特徴とする請求項9に記載の撮像システム。
The input SN calculation means extracts a flat area of the input image signal and calculates an SN ratio of the flat area.
The imaging system according to claim 9, wherein the noise-reduced SN calculation means calculates an SN ratio of the same area as the flat area in the image signal after the coring process.
画像を撮像して画像信号を出力する撮像手段をさらに有し、
上記撮像手段から出力される画像信号を、上記入力される画像信号とするものであることを特徴とする請求項2に記載の撮像システム。
It further has an imaging means for capturing an image and outputting an image signal,
The imaging system according to claim 2, wherein the image signal output from the imaging means is the input image signal.
コンピュータに、
入力される画像信号に、注目画素とこの注目画素の空間的近傍に位置する1以上の周辺画素とにより構成される注目領域を設定する注目領域設定ステップと、
上記注目画素と上記周辺画素との画素値の乖離の度合を示す画素値乖離度を各周辺画素毎に算出する画素値乖離度算出ステップと、
上記注目画素と上記周辺画素との空間的な乖離の度合を示す位置乖離度を各周辺画素毎に算出する位置乖離度算出ステップと、
同一の周辺画素に係る上記画素値乖離度と上記位置乖離度とを各周辺画素毎に乗算することにより、上記注目画素と上記周辺画素との相関性に関連する値である相関関連値を各周辺画素毎に求める相関関連値演算ステップと、
上記相関関連値に調整用の定数であるチューニング値を加算して、この加算した値に基づき、上記注目画素と上記周辺画素との相関性を示す指標となる相関指標値を各周辺画素毎に求める相関指標値演算ステップと、
上記相関指標値と、該相関指標値を求める過程で得られた値と、の少なくとも一方に基づき、上記注目領域に含まれる全画素に対するフィルタ係数を各画素毎に求めるフィルタ係数演算ステップと、
上記フィルタ係数を用いて上記注目領域に対しフィルタ演算を行うことにより、注目画素に係る平滑化モデル画素値を算出するフィルタ演算ステップと、
を実行させるための画像処理プログラム。
On the computer,
An attention area setting step for setting an attention area composed of the attention pixel and one or more peripheral pixels located in the spatial vicinity of the attention pixel in the input image signal;
A pixel value divergence calculating step for calculating a pixel value divergence degree indicating the degree of divergence between the pixel of interest and the peripheral pixel for each peripheral pixel;
A position divergence degree calculating step for calculating a position divergence degree indicating the degree of spatial divergence between the target pixel and the peripheral pixels for each peripheral pixel;
By multiplying the pixel value divergence degree and the position divergence degree related to the same peripheral pixel for each peripheral pixel, a correlation related value, which is a value related to the correlation between the target pixel and the peripheral pixel, is obtained. Correlation-related value calculation step for each peripheral pixel;
A tuning value that is a constant for adjustment is added to the correlation-related value, and based on the added value, a correlation index value that serves as an index indicating the correlation between the target pixel and the peripheral pixel is determined for each peripheral pixel. A correlation index value calculation step to be obtained;
A filter coefficient calculation step for obtaining, for each pixel, filter coefficients for all pixels included in the region of interest based on at least one of the correlation index value and a value obtained in the process of obtaining the correlation index value;
A filter calculation step of calculating a smoothed model pixel value related to the target pixel by performing a filter operation on the target region using the filter coefficient;
An image processing program for executing
入力される画像信号に、注目画素とこの注目画素の空間的近傍に位置する1以上の周辺画素とにより構成される注目領域を設定する注目領域設定ステップと、
上記注目画素と上記周辺画素との画素値の乖離の度合を示す画素値乖離度を各周辺画素毎に算出する画素値乖離度算出ステップと、
上記注目画素と上記周辺画素との空間的な乖離の度合を示す位置乖離度を各周辺画素毎に算出する位置乖離度算出ステップと、
同一の周辺画素に係る上記画素値乖離度と上記位置乖離度とを各周辺画素毎に乗算することにより、上記注目画素と上記周辺画素との相関性に関連する値である相関関連値を各周辺画素毎に求める相関関連値演算ステップと、
上記相関関連値に調整用の定数であるチューニング値を加算して、この加算した値に基づき、上記注目画素と上記周辺画素との相関性を示す指標となる相関指標値を各周辺画素毎に求める相関指標値演算ステップと、
上記相関指標値と、該相関指標値を求める過程で得られた値と、の少なくとも一方に基づき、上記注目領域に含まれる全画素に対するフィルタ係数を各画素毎に求めるフィルタ係数演算ステップと、
上記フィルタ係数を用いて上記注目領域に対しフィルタ演算を行うことにより、注目画素に係る平滑化モデル画素値を算出するフィルタ演算ステップと、
を含むことを特徴とする画像処理方法。
An attention area setting step for setting an attention area composed of the attention pixel and one or more peripheral pixels located in the spatial vicinity of the attention pixel in the input image signal;
A pixel value divergence calculating step for calculating a pixel value divergence degree indicating the degree of divergence between the pixel of interest and the peripheral pixel for each peripheral pixel;
A position divergence degree calculating step for calculating a position divergence degree indicating the degree of spatial divergence between the target pixel and the peripheral pixels for each peripheral pixel;
By multiplying the pixel value divergence degree and the position divergence degree related to the same peripheral pixel for each peripheral pixel, a correlation related value, which is a value related to the correlation between the target pixel and the peripheral pixel, is obtained. Correlation-related value calculation step for each peripheral pixel;
A tuning value that is a constant for adjustment is added to the correlation-related value, and based on the added value, a correlation index value that serves as an index indicating the correlation between the target pixel and the peripheral pixel is determined for each peripheral pixel. A correlation index value calculation step to be obtained;
A filter coefficient calculation step for obtaining, for each pixel, filter coefficients for all pixels included in the region of interest based on at least one of the correlation index value and a value obtained in the process of obtaining the correlation index value;
A filter calculation step of calculating a smoothed model pixel value related to the target pixel by performing a filter operation on the target region using the filter coefficient;
An image processing method comprising:
JP2007038471A 2007-02-19 2007-02-19 Imaging system, image processing program, and image processing method Withdrawn JP2008205737A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007038471A JP2008205737A (en) 2007-02-19 2007-02-19 Imaging system, image processing program, and image processing method
PCT/JP2008/052345 WO2008102677A1 (en) 2007-02-19 2008-02-13 Image picking-up system, image processing program and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007038471A JP2008205737A (en) 2007-02-19 2007-02-19 Imaging system, image processing program, and image processing method

Publications (1)

Publication Number Publication Date
JP2008205737A true JP2008205737A (en) 2008-09-04

Family

ID=39709954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007038471A Withdrawn JP2008205737A (en) 2007-02-19 2007-02-19 Imaging system, image processing program, and image processing method

Country Status (2)

Country Link
JP (1) JP2008205737A (en)
WO (1) WO2008102677A1 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010074670A (en) * 2008-09-19 2010-04-02 Sanyo Electric Co Ltd Video display device
JP2010124412A (en) * 2008-11-21 2010-06-03 Olympus Imaging Corp Image processing apparatus, image processing method and image processing program
WO2010064316A1 (en) * 2008-12-05 2010-06-10 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP2010178302A (en) * 2009-02-02 2010-08-12 Olympus Corp Image processing apparatus and image processing method
JP2010178301A (en) * 2009-02-02 2010-08-12 Olympus Corp Image processing apparatus and image processing method
JP2011061646A (en) * 2009-09-14 2011-03-24 Hitachi Consumer Electronics Co Ltd Video processing apparatus, and video display apparatus
JP2011114642A (en) * 2009-11-27 2011-06-09 Mitsubishi Electric Corp Noise eliminating device and noise elimination method
WO2011145365A1 (en) * 2010-05-18 2011-11-24 シャープ株式会社 Image processing system and display device
WO2012060290A1 (en) * 2010-11-02 2012-05-10 シャープ株式会社 Image processing apparatus, image processing method, and display apparatus
WO2012121280A1 (en) * 2011-03-09 2012-09-13 日本電信電話株式会社 Video encoding/decoding method, video encoding/decoding device, and programs therefor
WO2012121269A1 (en) * 2011-03-09 2012-09-13 日本電信電話株式会社 Image processing method, image processing device, video encoding/decoding method, video encoding/decoding device, and programs therefor
JP2013038479A (en) * 2011-08-04 2013-02-21 Kyocera Document Solutions Inc Image processing apparatus, image formation apparatus with the same, and image processing method
US8411205B2 (en) 2007-07-11 2013-04-02 Olympus Corporation Noise reducing image processing apparatus
US8654259B2 (en) 2010-02-18 2014-02-18 Sharp Kabushiki Kaisha Image processing system and display device
US8750638B2 (en) 2009-08-07 2014-06-10 Ricoh Company, Ltd. Image processing apparatus, image processing method, and computer program
US8971660B2 (en) 2009-03-16 2015-03-03 Ricoh Company, Ltd. Noise reduction device, noise reduction method, noise reduction program, and recording medium
US9154716B2 (en) 2012-12-17 2015-10-06 Ricoh Company, Ltd. Image processing apparatus and method for smoothing pixel values according to a divergence of pixel candidates
JP2016004020A (en) * 2014-06-19 2016-01-12 株式会社Screenホールディングス Image processing apparatus, image acquisition apparatus, image processing method, and image acquisition method
US9357144B2 (en) 2012-01-06 2016-05-31 Ricoh Company, Ltd. Image processing apparatus, imaging device, image processing method, and computer-readable recording medium
JP2020027033A (en) * 2018-08-10 2020-02-20 ソニー株式会社 Information processing apparatus, information processing method and program
JP2021119491A (en) * 2016-01-29 2021-08-12 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Light level adaptive filter and method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5412791B2 (en) * 2008-10-27 2014-02-12 株式会社ニコン Digital camera and image processing program
CN114038440B (en) * 2021-11-30 2023-04-07 京东方科技集团股份有限公司 Display device and control method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4539027B2 (en) * 2003-05-12 2010-09-08 ソニー株式会社 Signal processing apparatus, signal processing method, and program
JP2005117449A (en) * 2003-10-09 2005-04-28 Victor Co Of Japan Ltd Mosquito noise reducer, mosquito noise reducing method, and program for reducing mosquito noise
JP2006087030A (en) * 2004-09-17 2006-03-30 Olympus Corp Noise reducer

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8411205B2 (en) 2007-07-11 2013-04-02 Olympus Corporation Noise reducing image processing apparatus
JP2010074670A (en) * 2008-09-19 2010-04-02 Sanyo Electric Co Ltd Video display device
JP2010124412A (en) * 2008-11-21 2010-06-03 Olympus Imaging Corp Image processing apparatus, image processing method and image processing program
WO2010064316A1 (en) * 2008-12-05 2010-06-10 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP2010178302A (en) * 2009-02-02 2010-08-12 Olympus Corp Image processing apparatus and image processing method
JP2010178301A (en) * 2009-02-02 2010-08-12 Olympus Corp Image processing apparatus and image processing method
US8971660B2 (en) 2009-03-16 2015-03-03 Ricoh Company, Ltd. Noise reduction device, noise reduction method, noise reduction program, and recording medium
US8750638B2 (en) 2009-08-07 2014-06-10 Ricoh Company, Ltd. Image processing apparatus, image processing method, and computer program
JP2011061646A (en) * 2009-09-14 2011-03-24 Hitachi Consumer Electronics Co Ltd Video processing apparatus, and video display apparatus
JP2011114642A (en) * 2009-11-27 2011-06-09 Mitsubishi Electric Corp Noise eliminating device and noise elimination method
US8654259B2 (en) 2010-02-18 2014-02-18 Sharp Kabushiki Kaisha Image processing system and display device
WO2011145365A1 (en) * 2010-05-18 2011-11-24 シャープ株式会社 Image processing system and display device
US8687125B2 (en) 2010-05-18 2014-04-01 Sharp Kabushiki Kaisha Image processing system and display device for carrying out subtraction or addition of a pixel value of a target pixel in accordance with a value equivalent to a noise quantity
WO2012060290A1 (en) * 2010-11-02 2012-05-10 シャープ株式会社 Image processing apparatus, image processing method, and display apparatus
US9438912B2 (en) 2011-03-09 2016-09-06 Nippon Telegraph And Telephone Corporation Video encoding/decoding methods, video encoding/decoding apparatuses, and programs therefor
JP2012191311A (en) * 2011-03-09 2012-10-04 Nippon Telegr & Teleph Corp <Ntt> Video encoding/decoding method, video encoding/decoding device, and programs therefor
WO2012121269A1 (en) * 2011-03-09 2012-09-13 日本電信電話株式会社 Image processing method, image processing device, video encoding/decoding method, video encoding/decoding device, and programs therefor
WO2012121280A1 (en) * 2011-03-09 2012-09-13 日本電信電話株式会社 Video encoding/decoding method, video encoding/decoding device, and programs therefor
JP2012191310A (en) * 2011-03-09 2012-10-04 Nippon Telegr & Teleph Corp <Ntt> Image processing method, image processing device, video encoding/decoding method, video encoding/decoding device, and programs therefor
CN103416061A (en) * 2011-03-09 2013-11-27 日本电信电话株式会社 Video encoding/decoding method, video encoding/decoding device, and programs therefor
CN103416061B (en) * 2011-03-09 2016-08-17 日本电信电话株式会社 Video coding/decoding method, video coding-decoding device
US9363515B2 (en) 2011-03-09 2016-06-07 Nippon Telegraph And Telephone Corporation Image processing method, image processing apparatus, video encoding/decoding methods, video encoding/decoding apparatuses, and non-transitory computer-readable media therefor that perform denoising by means of template matching using search shape that is set in accordance with edge direction of image
JP2013038479A (en) * 2011-08-04 2013-02-21 Kyocera Document Solutions Inc Image processing apparatus, image formation apparatus with the same, and image processing method
US9357144B2 (en) 2012-01-06 2016-05-31 Ricoh Company, Ltd. Image processing apparatus, imaging device, image processing method, and computer-readable recording medium
US9154716B2 (en) 2012-12-17 2015-10-06 Ricoh Company, Ltd. Image processing apparatus and method for smoothing pixel values according to a divergence of pixel candidates
CN105282461A (en) * 2014-06-19 2016-01-27 斯克林集团公司 Image processing apparatus image, acquiring apparatus, image processing method and image acquiring method
JP2016004020A (en) * 2014-06-19 2016-01-12 株式会社Screenホールディングス Image processing apparatus, image acquisition apparatus, image processing method, and image acquisition method
JP7571207B2 (en) 2016-01-29 2024-10-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Light level adaptive filter and method
JP2021119491A (en) * 2016-01-29 2021-08-12 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Light level adaptive filter and method
US11704774B2 (en) 2016-01-29 2023-07-18 Intuitive Surgical Operations, Inc. Light level adaptive filter and method
JP7225600B2 (en) 2018-08-10 2023-02-21 ソニーグループ株式会社 Information processing device, information processing method, program
US12056851B2 (en) 2018-08-10 2024-08-06 Sony Group Corporation Information processing device, information processing method, and program
JP2020027033A (en) * 2018-08-10 2020-02-20 ソニー株式会社 Information processing apparatus, information processing method and program

Also Published As

Publication number Publication date
WO2008102677A1 (en) 2008-08-28

Similar Documents

Publication Publication Date Title
JP2008205737A (en) Imaging system, image processing program, and image processing method
US7791656B2 (en) Image sensing apparatus and image processing method
US9288392B2 (en) Image capturing device capable of blending images and image processing method for blending images thereof
US8208039B2 (en) Image processing apparatus and computer-readable medium
EP3125527A1 (en) Image processing device, photography device, image processing method, and image processing program
JP6720012B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP5948073B2 (en) Image signal processing apparatus and image signal processing method
JP6559229B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium storing image processing program of image processing apparatus
JP5901667B2 (en) Image processing apparatus and method, image processing program, and imaging apparatus
JP6097588B2 (en) Image processing apparatus and image processing method
JP5392560B2 (en) Image processing apparatus and image processing method
JP6352547B2 (en) Image processing apparatus and image processing method
US20100245632A1 (en) Noise reduction method for video signal and image pickup apparatus
JP6160292B2 (en) Image correction apparatus, imaging apparatus, and computer program for image correction
JP5911525B2 (en) Image processing apparatus and method, image processing program, and imaging apparatus
US8989510B2 (en) Contrast enhancement using gradation conversion processing
EP1998552B1 (en) Imaging apparatus and image processing program
JP2009088935A (en) Image recording apparatus, image correcting apparatus, and image pickup apparatus
JP2008124653A (en) Image signal processing apparatus, image signal processing program, and image signal processing method
JP5557635B2 (en) Outline enhancement device
JP2011120299A (en) Gradation conversion apparatus, program, electronic camera, and method therefor
JP2009296210A (en) Image processor and image processing method
JP5561389B2 (en) Image processing program, image processing apparatus, electronic camera, and image processing method
KR101007840B1 (en) Signal processing device and method, and recording medium
JP6514577B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGING APPARATUS

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100511