JP2020195127A - Image processing device, image processing method, imaging apparatus, program, and storage medium - Google Patents
Image processing device, image processing method, imaging apparatus, program, and storage medium Download PDFInfo
- Publication number
- JP2020195127A JP2020195127A JP2020028363A JP2020028363A JP2020195127A JP 2020195127 A JP2020195127 A JP 2020195127A JP 2020028363 A JP2020028363 A JP 2020028363A JP 2020028363 A JP2020028363 A JP 2020028363A JP 2020195127 A JP2020195127 A JP 2020195127A
- Authority
- JP
- Japan
- Prior art keywords
- gradation correction
- image processing
- image data
- gradation
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 128
- 238000003384 imaging method Methods 0.000 title claims description 8
- 238000003672 processing method Methods 0.000 title claims 2
- 238000012937 correction Methods 0.000 claims abstract description 198
- 238000002834 transmittance Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 109
- 230000008569 process Effects 0.000 claims description 84
- 238000004458 analytical method Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 12
- 239000000203 mixture Substances 0.000 claims description 8
- 239000006185 dispersion Substances 0.000 claims description 4
- 125000001475 halogen functional group Chemical group 0.000 description 22
- 230000000694 effects Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004501 airglow Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009931 harmful effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、霧霞が発生している状況で撮影した画像の霧霞を除去して視認性を向上させる技術に関するものである。 The present invention relates to a technique for removing fog haze in an image taken in a situation where fog haze is generated to improve visibility.
従来の監視等の用途で使用されるカメラにおいては、屋外を撮影する際に霧霞が発生して視認性が低下する場合がある。このような画像を救済するため、霧霞が発生した場合にそれらを除去する補正処理を行う技術が知られている。補正処理には、全画面に対してトーンカーブを用いてコントラストを補正する方法、大気モデルにおいてミー散乱とレイリー散乱を分離し、霧霞など波長に依存しないミー散乱成分を除去する散乱分離方式を採用する方法とがある。 In a camera used for conventional surveillance and the like, fog haze may occur when shooting outdoors, which may reduce visibility. In order to relieve such an image, there is known a technique of performing a correction process for removing fog haze when it occurs. For the correction processing, a method of correcting the contrast using a tone curve for the entire screen, and a scattering separation method that separates Mie scattering and Rayleigh scattering in the atmospheric model and removes wavelength-independent Mie scattering components such as fog haze. There is a method to adopt.
散乱分離方式は、画像の領域毎のダークチャネル値を用いて透過率を推定し、階調を制御して霧霞を除去する方式である。具体的には、大気モデルにおける霧霞の濃度に起因する透過率を推定し、階調制御を行う技術が提案されている。 The scattering separation method is a method in which the transmittance is estimated using the dark channel value for each region of the image and the gradation is controlled to remove the fog haze. Specifically, a technique has been proposed in which the transmittance due to the concentration of fog haze in the atmospheric model is estimated and the gradation is controlled.
特許文献1では、空領域または逆光領域を算出し、その領域におけるダークチャネル値を補正し、ダークチャネル値から透過率を算出し、その透過率を用いて入力画像から霧霞成分の除去を行う。 In Patent Document 1, an empty region or a backlit region is calculated, a dark channel value in that region is corrected, a transmittance is calculated from the dark channel value, and the fog haze component is removed from an input image using the transmittance. ..
特許文献2では、カラー画像で散乱光の基準強度の導出に用いる画素を選択し、散乱光の第1の色成分に対応する第1の基準強度と、第2の色成分に対応する第2の基準強度を導出する。第1の基準強度と重み値を用いてカラー画像の第1の色成分の画素値を補正するとともに、第2の基準強度と重み値を用いて第2の色成分の画素値を補正し、補正画像を生成する。 In Patent Document 2, a pixel used for deriving a reference intensity of scattered light is selected in a color image, and a first reference intensity corresponding to a first color component of scattered light and a second reference intensity corresponding to a second color component are selected. Derivation of the reference strength of. The first reference intensity and weight value are used to correct the pixel value of the first color component of the color image, and the second reference intensity and weight value are used to correct the pixel value of the second color component. Generate a corrected image.
しかしながら、特許文献1に開示された従来技術では、ダークチャネル値を用いて散乱光に対する補正は可能であるが、画像内の輪郭部にハローノイズが発生してしまい、そのノイズを抑制することができない。 However, in the prior art disclosed in Patent Document 1, although it is possible to correct scattered light by using the dark channel value, halo noise is generated in the contour portion in the image, and the noise can be suppressed. Can not.
また、特許文献2に開示された従来技術でも同様に、大気モデルにおける散乱光を用いて霧霞の濃度に起因する成分を除去して補正することはできるが、やはり画像内の輪郭部にハローノイズが発生してしまい、そのノイズを抑制することができない。 Further, in the conventional technique disclosed in Patent Document 2, similarly, the component caused by the concentration of fog haze can be removed and corrected by using the scattered light in the atmospheric model, but the contour portion in the image is also halo. Noise is generated, and the noise cannot be suppressed.
本発明は上述した課題に鑑みてなされたものであり、その目的は、画像内の霧霞を良好に除去することができる画像処理装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an image processing apparatus capable of satisfactorily removing fog haze in an image.
本発明に係わる画像処理装置は、画像データを取得する取得手段と、前記画像データの領域毎のダークチャネル値を取得して透過率を推定し、階調を補正する第1の階調補正手段と、トーンカーブを用いて前記画像データの階調を補正する第2の階調補正手段と、どの階調補正手段を用いて階調補正を行うかを制御する制御手段と、を備えることを特徴とする。 The image processing apparatus according to the present invention includes an acquisition means for acquiring image data and a first gradation correction means for acquiring dark channel values for each region of the image data to estimate transmission and correct gradation. A second gradation correction means for correcting the gradation of the image data using a tone curve, and a control means for controlling which gradation correction means is used for gradation correction are provided. It is a feature.
本発明によれば、画像内の霧霞を良好に除去することができる画像処理装置を提供することが可能となる。 According to the present invention, it is possible to provide an image processing apparatus capable of satisfactorily removing fog haze in an image.
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate description is omitted.
(第1の実施形態)
図1は、本発明の画像処理装置の第1の実施形態であるデジタルカメラ100の構成を示す図である。
(First Embodiment)
FIG. 1 is a diagram showing a configuration of a
図1において、レンズ部102は、被写体の光学像を、CCDやCMOSセンサなどからなる撮像素子を有する撮像部101に結像させる。また、レンズ駆動装置103によってズーム制御、フォーカス制御、絞り制御などが行われる。撮像信号処理回路104は、撮像部101から出力される画像信号に各種の補正処理やデータ圧縮処理等を行う。また、撮像信号処理回路104は、内部に画像の霧霞を除去するための画像処理回路120を有する。撮像素子駆動回路105は撮像部101内の撮像素子に各種電源や撮影モードの指示信号、各種タイミング信号を出力する。
In FIG. 1, the
メモリ部106は、画像データを一時的に記憶するためのメモリとして機能し、全体制御演算部107は各種演算とデジタルカメラ100全体の制御を行う。記録媒体制御I/F部108は記録媒体へのデータの記録または記録媒体からのデータの読み出しを行うためのインターフェースである。記録媒体109は、画像データの記録または読み出しを行うための着脱可能な半導体メモリである。さらに、表示部110は、各種情報や撮影画像を表示する液晶表示装置などの表示デバイスである。
The
図2は、図1における画像処理回路120の構成を示すブロック図である。画像処理回路120は、画像の輪郭部に発生するハローノイズを抑制しつつ霧霞を除去する機能を備える。
FIG. 2 is a block diagram showing the configuration of the
図2において、画像処理回路120は、第1の画像処理部11、第1のかすみ補正部12、第2のかすみ補正部14、第2の画像処理部15、画像出力部16、ヒストグラム取得・解析部13を備える。
In FIG. 2, the
撮像部101により撮像された画像データは、画像処理回路120に入力される。第1の画像処理部11は、画像データの1段目の画像処理部である。具体的には撮像部101から取得した画像データに対して、センサ補正処理、キズ補正処理、ベイヤー型のRGB信号からYC信号に変換する変換処理、輪郭強調処理、ノイズリダクション処理、ホワイトバランス処理などを行う。第1のかすみ補正部12は、画像の領域毎のダークチャネル値を用いて透過率(濃度マップ)を推定し、階調を制御する第1の階調補正処理(階調補正動作)を行う第1段の階調補正部である。ヒストグラム取得・解析部13は第1の階調補正処理を行った後の補正画像において、輝度成分のヒストグラムを取得し、その分散値を算出することにより画像のコントラストを検出する。第2のかすみ補正部14はトーンカーブを用いてコントラストや中間階調の制御を行う第2の階調補正処理(階調補正動作)を行う第2段の階調補正部である。
The image data captured by the
以下、第1の階調補正処理の詳細について説明する。まず、霧霞が発生している画像Iと、霧霞除去後の画像Jは式(1)のような大気モデルで関係づけられる。 Hereinafter, the details of the first gradation correction processing will be described. First, the image I in which the fog haze is generated and the image J after the fog haze is removed are related by the atmospheric model as in the equation (1).
I(x,y)=J(x,y)・t(x,y)+A(1−t(x,y) 式(1)
x,yは画像内における水平方向と垂直方向の2次元座標位置、tは霧霞の濃度マップ、Aは環境光を示す。ここで、濃度マップt(x,y)は大気による減衰を意味しており、カメラからの被写体距離が長いほど減衰量(画素値)が大きく、近いほど減衰量(画素値)は小さくなる。式(1)において、環境光Aおよび、濃度マップt(x,y)を推定することで、霧霞除去後のJ(x,y)を求めることが可能になる。
I (x, y) = J (x, y) · t (x, y) + A (1-t (x, y) equation (1)
x and y are two-dimensional coordinate positions in the horizontal and vertical directions in the image, t is a fog haze density map, and A is ambient light. Here, the density map t (x, y) means attenuation due to the atmosphere. The longer the subject distance from the camera, the larger the attenuation (pixel value), and the closer it is, the smaller the attenuation (pixel value). By estimating the ambient light A and the density map t (x, y) in the equation (1), it is possible to obtain J (x, y) after removing the fog haze.
まず、環境光Aの推定方法について数式を用いて説明する。環境光Aは、空領域のRGB成分の平均画素値であり、式(2)のようにして算出される。 First, the method of estimating the ambient light A will be described using a mathematical formula. The ambient light A is an average pixel value of the RGB components in the empty region, and is calculated by the equation (2).
ave関数は引数内の平均値を算出する関数を表し、cは色成分を表し、Ωskyは空領域内の局所領域を示す。ここで、空領域は、例えば、ヒストグラムの分布に基づき算出する方法や、予め指定した座標位置を用いる方法、ユーザーからの指示位置を用いる方法等により特定することができる。 The ave function represents a function for calculating the average value in the argument, c represents a color component, and Ωsky represents a local region in an empty region. Here, the empty region can be specified by, for example, a method of calculating based on the distribution of the histogram, a method of using a coordinate position specified in advance, a method of using a position instructed by the user, or the like.
続いて、濃度マップt(x,y)の推定方法について説明する。本実施形態における第1の階調処理は、ダークチャネル値に基づき濃度マップt(x,y)を推定する処理であり、霧霞が発生していない屋外画像において、RGB成分の少なくとも1つの成分の画素値が局所的に非常に小さいことを前提にしている。ダークチャネル値Idrkは、式(3)のようにして算出される。 Subsequently, a method of estimating the density map t (x, y) will be described. The first gradation process in the present embodiment is a process of estimating the density map t (x, y) based on the dark channel value, and is at least one component of the RGB component in an outdoor image in which fog haze is not generated. It is assumed that the pixel value of is locally very small. The dark channel value I drk is calculated as in Eq. (3).
cは色成分を表し、Ωは注目座標(x,y)を含む局所領域を示す。式(3)に示されるように、ダークチャネル値は、注目画素を含む局所領域内におけるRGB成分の最小値となる。式(1)の大気モデルに、式(3)のダークチャネルの算出式を代入すると、大気モデルからダークチャネル値を算出する式(4)が得られる。 c represents a color component, and Ω represents a local region including the coordinates of interest (x, y). As shown in the equation (3), the dark channel value is the minimum value of the RGB component in the local region including the pixel of interest. By substituting the calculation formula for the dark channel of the formula (3) into the atmospheric model of the formula (1), the formula (4) for calculating the dark channel value from the atmospheric model can be obtained.
Idrk=Jdrk(x,y)・t(x,y)+A(1−t(x,y)) 式(4)
ここで、霧霞が発生していない画像において、RGB成分の少なくとも1つの成分の画素値は局所的に小さいという前提を考慮すると、式(4)における霧霞除去画像のダークチャネル値Jdrk(x,y)は0に限りなく近い値となる。従って、式(4)は式(5)のように近似することができる。
I drk = J drk (x, y) · t (x, y) + A (1-t (x, y)) Equation (4)
Here, considering the premise that the pixel value of at least one component of the RGB component is locally small in the image in which the fog haze is not generated, the dark channel value J drk (the dark channel value of the fog haze removal image in the equation (4)) ( x, y) is a value as close to 0 as possible. Therefore, the equation (4) can be approximated as the equation (5).
Idrk(x,y)≒A(1−t(x,y)) 式(5)
式(5)の近似式を変形することで、式(6)のようにして濃度マップt(x,y)を推定することができる。
I drk (x, y) ≒ A (1-t (x, y)) Equation (5)
By modifying the approximate expression of the equation (5), the concentration map t (x, y) can be estimated as in the equation (6).
t(x,y)≒1−{ω×Idrk(x,y)/A} 式(6)
ここで、ωは霧霞の補正度合いを制御するパラメータであり、0.0から1.0の範囲で定義され、値が大きいほど霧霞の補正効果を強く設定することができる。以上説明した式(2)〜(6)によって算出される大気光A、濃度マップt(x,y)を式(7)に代入することで、霧霞除去後のJ(x,y)を求めることができる。
t (x, y) ≈1- {ω × I drk (x, y) / A} Equation (6)
Here, ω is a parameter that controls the degree of correction of fog haze, and is defined in the range of 0.0 to 1.0. The larger the value, the stronger the correction effect of fog haze can be set. By substituting the airglow A and the concentration map t (x, y) calculated by the above-described equations (2) to (6) into the equation (7), J (x, y) after removing the fog haze can be obtained. Can be sought.
J(x,y)={(I(x,y)−A)/t(x,y)}+A 式(7)
式(1)に示されるように、ダークチャネルに基づく第1の階調補正処理は、環境光Aに加えて、カメラからの被写体距離に応じて変化する濃度マップも考慮して、画素毎に補正量を算出する。従って、近景の被写体だけでなく、遠景の被写体に対しても、霧霞を効果的に除去できる。しかしながら、式(3)で示されるように、ダークチャネル値の算出がエッジ情報を考慮していない点や、式(4)で示されるように、濃度マップを近似で求めている点があるため、エッジ部周辺で誤補正、具体的には、白く浮きあがってしまう現象(以降、この現象をハローノイズ(白領域)と呼ぶ)が発生してしまう。
J (x, y) = {(I (x, y) -A) / t (x, y)} + A formula (7)
As shown in the equation (1), the first gradation correction process based on the dark channel takes into consideration the density map that changes according to the subject distance from the camera in addition to the ambient light A, for each pixel. Calculate the correction amount. Therefore, fog haze can be effectively removed not only for a subject in a near view but also for a subject in a distant view. However, as shown by the equation (3), the calculation of the dark channel value does not consider the edge information, and as shown by the equation (4), the density map is obtained by approximation. , Miscorrection occurs around the edge portion, specifically, a phenomenon in which white appears (hereinafter, this phenomenon is referred to as halo noise (white area)) occurs.
続いて、第2のかすみ補正部14の詳細について説明する。まず、ヒストグラム取得・解析部13では、入力画像のヒストグラムを生成し、生成したヒストグラムの分布密度を表す統計値を算出する。例えば、式(8)のようにして、ヒストグラムの分散σ2を求める。
Subsequently, the details of the second
σ2={(x1−μ)2・f1+(x2−μ)2・f2+…+(xN−μ)2}/n 式(8)
ここで、xiは入力輝度レベル、xNは入力輝度レベルの最大値、fは頻度、nはデータの合計(総画素数)、μは平均を示す。なお、本実施形態では、分布密度を表す統計値として、ヒストグラムの分散を用いたが、これに限るものではない。
σ 2 = {(x1-μ) 2 · f1 + (x2-μ) 2 · f2 +… + (xN−μ) 2 } / n Equation (8)
Here, xi is the input luminance level, xN is the maximum value of the input luminance level, f is the frequency, n is the total number of data (total number of pixels), and μ is the average. In the present embodiment, the variance of the histogram is used as the statistical value representing the distribution density, but the present invention is not limited to this.
更に、ヒストグラム取得・解析部13では、前述のヒストグラムおよび、統計値に基づき、霧霞の発生度合いを算出する。一般的に霧霞が発生している画像は、図3(a)に示すように、ヒストグラムの分布が一部領域に集中し、コントラストの低い映像になっている。従って、霧霞が発生している場合は、分散値は比較的小さな値になる。そこで、霧霞補正部2は、任意の閾値Thと分散値σ2を比較することで、霧霞の発生度合いHを算出する。例えば、式(9)のようにして算出する。
Further, the histogram acquisition /
0.0 (if σ2<0)
H= (Th−σ2)/Th (if 0≦σ2≦Th)
1.0 (if Th<σ2) 式(9)
ここで、式(9)で表される霧霞の発生度合いHは、0.0から1.0の範囲で正規化され、値が大きいほど霧霞の発生度合いが強い指標となる。
0.0 (if σ 2 <0)
H = (Th−σ 2 ) / Th (if 0 ≦ σ 2 ≦ Th)
1.0 (if Th <σ 2 ) Equation (9)
Here, the degree of fog haze H represented by the equation (9) is normalized in the range of 0.0 to 1.0, and the larger the value, the stronger the degree of fog haze generation becomes an index.
続いて、第2のかすみ補正部14は、ヒストグラム取得・解析部13で算出される霧霞の発生度合いに応じて、トーカーブを調整する。具体的には、図4に示されるように、霧霞の発生度合いが強いほど、暗部を下げ、明部を持ち上げるトーンカーブを適用する。前述のトーンカーブを適用することで、図3(b)に示すように、ヒストグラムが滑らかに分布することになり、霧霞を除去することができる。
Subsequently, the second
従って、第2のかすみ補正部14は、ヒストグラムの分布(霧霞の発生度合い)に応じて、画面全体のコントラストを向上させることで、弊害を抑えつつ、霧霞を除去することが可能になる。しかしながら、被写体距離を考慮した補正量を算出してないため、遠景の被写体に対して効果が弱い手法となる。
Therefore, the second
なお、上記では第1のかすみ補正部12(一方のかすみ補正部)で第1の階調補正処理を行った後に第2のかすみ補正部14(他方のかすみ補正部)で第2の階調補正処理を行っているが、その順番は逆にしてもよい。つまり、第1のかすみ補正部12で第2の階調補正処理を行った後に第2のかすみ補正部14で第1の階調補正処理を行っても同様な霧霞除去効果が得られる。
In the above, the first haze correction unit 12 (one haze correction unit) performs the first gradation correction process, and then the second haze correction unit 14 (the other haze correction unit) performs the second gradation. Although the correction process is performed, the order may be reversed. That is, the same effect of removing fog haze can be obtained even if the first
第2の画像処理部15では第1のかすみ補正部12、第2のかすみ補正部14で霧霞を除去した画像に対して2段目の画像処理を行う。具体的には輪郭強調処理、ノイズリダクション処理、色補正処理、解像度変換処理などを行う。ここで、輪郭強調処理、ノイズリダクション処理、色補正処理等は、第1の画像処理部11で行ってもよいし、第2の画像処理部15で行ってもよい。画像出力部16は、画像処理や霧霞除去処理を行った画像を画像圧縮処理等を行う別の画像処理部や表示部110等に出力する。
The second
なお、第1の階調補正処理においては、時間をかけて徐々に補正効果を得るように補正処理を実行する。具体的には、式(6)のωの値を小さな値から徐々に大きく設定する。そして、輪郭部にハローノイズを抽出した場合、第1の階調補正処理を中止(停止)する。そうすることにより、第1の階調補正処理で発生しうる輪郭部のハローノイズを抑制することが可能となる。 In the first gradation correction process, the correction process is executed so as to gradually obtain the correction effect over time. Specifically, the value of ω in the equation (6) is gradually set from a small value to a large value. Then, when the halo noise is extracted from the contour portion, the first gradation correction process is stopped (stopped). By doing so, it becomes possible to suppress the halo noise of the contour portion that may be generated in the first gradation correction process.
また、上記で説明したように、第1のかすみ補正部12で第1の階調補正処理を行い、第2のかすみ補正部14で第2の階調補正処理を行う場合と、階調補正処理の順番をその逆とする場合とが考えられる。それぞれの場合について、以下のような方法で階調補正処理が行われる。
Further, as described above, there are cases where the first
まず、第1のかすみ補正部12で第1の階調補正処理を行い、第2のかすみ補正部14で第2の階調補正処理を行う場合は、次のような方法をとる。すなわち、第1のかすみ補正部12で上記のようにハローノイズの出方を見ながら、徐々に第1の階調補正処理を行い、その階調補正処理が止まってから画像の統計量、具体的には輝度ヒストグラムをみて階調制御の効果(補正結果)を判断する。もし階調制御の効果が不十分な場合には、第2のかすみ補正部14で、時間をかけて十分な効果が得られる階調補正量(目標とする階調)に達するまで第2の階調補正処理を行う。ただし、第2の階調補正処理は、ハローノイズを考慮する必要がないので、必ずしもゆっくり行う必要はない。
First, when the first
また、第1のかすみ補正部12で第2の階調補正処理を行い、第2のかすみ補正部14で第1の階調補正処理を行う場合は、次のような方法をとる。すなわち、第1のかすみ補正部12で、第2の階調補正処理の効果を見ながら、時間をかけて徐々に第2の階調補正処理を行う。第2の階調補正処理では、遠景部分には霧霞除去の大きな効果が得られないので、その効果の程度を見ながら処理を行う。ただし、第2の階調補正処理は、時間をかけて行った方が効果の変化を見やすいというメリットがあるが、上記で述べたようにハローノイズを考慮する必要がないので、必ずしもゆっくり行う必要はない。そして、第2の階調補正処理が止まってから、もし階調制御の効果が不十分な場合には、第2のかすみ補正部14で、時間をかけて十分な効果が得られる階調補正に達するまで第1の階調補正処理を行う。この場合も、第1の階調補正処理では、輪郭部にハローノイズを抽出したら、処理を中止する。
Further, when the first
以上のような方法により、ハローノイズの発生を抑制した良好な霧霞除去処理を行うことができる。 By the above method, it is possible to perform a good fog haze removal process in which the generation of halo noise is suppressed.
図3は、画像の輪郭部にハローノイズが発生しないように霧霞の除去を行う動作を示したフローチャートである。なお、図3は、第1のかすみ補正部12で第1の階調補正処理を行い、第2のかすみ補正部14で第2の階調補正処理を行う場合の例を示している。
FIG. 3 is a flowchart showing an operation of removing fog haze so that halo noise does not occur in the contour portion of the image. Note that FIG. 3 shows an example in which the first
霧霞除去処理のフローが開始されると、ステップS31では、撮像部101により取得された画像が画像処理部120に入力される。ステップS32では、第1のかすみ補正部12が、第1の階調補正処理を行う。ここでは、前述したように画像の輪郭部にハローノイズが発生しない範囲で補正処理を行う。
When the flow of the fog haze removal processing is started, in step S31, the image acquired by the
ステップS33では、全体制御演算部107は、ステップS32において第1の階調補正処理を行った結果の画像に対して、コントラストの大きさを判断する。コントラストが所定の値より小さい場合には、ステップS34に進み、コントラストが所定の値以上の場合には階調補正処理を終了する。
In step S33, the overall
ステップS34では、ステップS32において実行した第1の階調補正処理で取りきれなかった霧霞を除去するために、第2の階調補正処理を実行し、階調補正処理を終了する。 In step S34, in order to remove the fog haze that could not be removed by the first gradation correction processing executed in step S32, the second gradation correction processing is executed and the gradation correction processing is completed.
なお、図3では、ステップS32において第1の階調補正処理を行い、ステップS34において第2の階調補正処理を行う例を示した。しかし、既に説明したように、ステップS32において第2の階調補正処理を行い、ステップS34において第1の階調補正処理を行うようにしてもよい。どちらの場合でも、第1の階調補正処理では、ハローノイズが発生しない範囲で補正処理を行う。 Note that FIG. 3 shows an example in which the first gradation correction process is performed in step S32 and the second gradation correction process is performed in step S34. However, as already described, the second gradation correction process may be performed in step S32, and the first gradation correction process may be performed in step S34. In either case, in the first gradation correction process, the correction process is performed within a range in which halo noise does not occur.
以上説明したように、第1の実施形態によれば、ハローノイズが発生しない範囲で、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the first embodiment, it is possible to perform an effective fog haze removal process within a range in which halo noise does not occur.
(第2の実施形態)
以下、本発明の画像処理装置の第2の実施形態であるデジタルカメラについて説明する。第2の実施形態におけるデジタルカメラの全体構成は、図1に示した第1の実施形態の構成と同様であるので、その説明を省略する。この第2の実施形態では、第1の実施形態で説明した第1の階調補正処理と第2の階調補正処理に重みをつけて実施する。
(Second Embodiment)
Hereinafter, a digital camera according to a second embodiment of the image processing apparatus of the present invention will be described. Since the overall configuration of the digital camera in the second embodiment is the same as the configuration of the first embodiment shown in FIG. 1, the description thereof will be omitted. In this second embodiment, the first gradation correction process and the second gradation correction process described in the first embodiment are weighted and implemented.
図4は、第2の実施形態における画像の輪郭部にハローノイズが発生しないように霧霞除去を行う動作を示したフローチャートである。 FIG. 4 is a flowchart showing an operation of removing fog haze so that halo noise does not occur in the contour portion of the image in the second embodiment.
霧霞除去処理のフローが開始されると、ステップS41では、撮像部101により取得された画像が画像処理部120に入力される。ステップS42では、第1の画像処理部11は、入力された画像の輝度値の統計量、具体的には輝度ヒストグラムを取得する。
When the flow of the fog haze removal processing is started, in step S41, the image acquired by the
ステップS43では、全体制御演算部107は、ステップS42において取得した輝度ヒストグラムからコントラストの大きさを判断する。コントラストが所定値よりも小さければ、霧霞が強くかかっていると判断してステップS44へ進み、コントラストが所定値以上であれば、霧霞がそれほど強くはないと判断してステップS46へ進む。
In step S43, the overall
ステップS44では、第1の実施形態で説明した第1の階調補正処理の重みを大きくする。ここでは、画像の輪郭部に発生するハローノイズを多少許容してでも、霧霞の除去度合いを強くする。また、ステップS45では、ステップS44で取り切れなかった霧霞を除去するために、第1の実施形態で説明した第2の階調補正処理を行う。そして、霧霞除去処理を終了する。なお、ステップS44とステップS45の順序は逆でも同様な効果が得られる。 In step S44, the weight of the first gradation correction process described in the first embodiment is increased. Here, the degree of removal of fog haze is increased even if the halo noise generated in the outline of the image is allowed to some extent. Further, in step S45, in order to remove the fog haze that could not be removed in step S44, the second gradation correction process described in the first embodiment is performed. Then, the fog haze removal process is completed. The same effect can be obtained even if the order of steps S44 and S45 is reversed.
ステップS46では、コントラストがそれほど小さくはなく霧霞が強くはかかっていないため、画像の輪郭部のハローノイズが発生しないように、第1の階調補正処理の重みを小さくする。ステップS47では、ステップS46で取りきれなかった霧霞を除去するために、第2の階調補正処理の重みを大きくする。そして、霧霞除去処理を終了する。なお、ステップS46とステップS47の順序は逆でも同様な効果が得られる。 In step S46, since the contrast is not so small and the fog haze is not strongly applied, the weight of the first gradation correction process is reduced so that the halo noise of the outline portion of the image is not generated. In step S47, the weight of the second gradation correction process is increased in order to remove the fog haze that could not be removed in step S46. Then, the fog haze removal process is completed. The same effect can be obtained even if the order of steps S46 and S47 is reversed.
以上説明したように、第2の実施形態によれば、霧霞の強さに応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the second embodiment, it is possible to perform an effective fog haze removal treatment according to the strength of the fog haze.
(第3の実施形態)
以下、本発明の画像処理装置の第3の実施形態であるデジタルカメラについて説明する。第3の実施形態におけるデジタルカメラの全体構成も、図1に示した第1の実施形態の構成と同様である。ただし、本実施形態では、画像処理回路121の構成が、第1の実施形態の画像処理回路120の構成とは異なる。この第3の実施形態では、注目領域に応じて、霧霞除去の方式を切り換えて実行する。
(Third Embodiment)
Hereinafter, a digital camera according to a third embodiment of the image processing apparatus of the present invention will be described. The overall configuration of the digital camera in the third embodiment is also the same as the configuration of the first embodiment shown in FIG. However, in the present embodiment, the configuration of the
図5は、第3の実施形態における画像処理回路121の構成を示す図である。画像処理回路121は、注目領域を指定(設定)し、その領域の被写体距離を測定し、被写体距離に応じて階調制御の方式を切り換え、霧霞の除去を行う。
FIG. 5 is a diagram showing the configuration of the
図5において、画像処理回路121は、第1の画像処理部21、注目領域指定部22、距離情報取得部23、第1のかすみ補正部24、第2のかすみ補正部25、第2の画像処理部26、画像出力部27を備える。
In FIG. 5, the
撮像部101により撮像された画像データは、画像処理回路121に入力される。第1の画像処理部21は、画像データの1段目の画像処理部であり、第1の実施形態で説明した第1の画像処理部11と同様である。注目領域指定部22は、画像データ内で注目したい領域を指定する機能を有し、注目したい領域をユーザーが指定するGUI等を備える。距離情報取得部23は、注目領域指定部22によって指定された注目領域までの距離を測定する。ここで注目領域までの距離は、レンズ部102に配置されたフォーカスレンズやズームレンズの制御情報等を用いて測定する。
The image data captured by the
第1のかすみ補正部24は、第1の実施形態で説明した第1の階調補正処理を実行する。第2のかすみ補正部25は、第1の実施形態で説明した第2の階調補正処理を実行する。第2の画像処理部26は、第1のかすみ補正部24で補正された画像と第2のかすみ補正部25で補正された画像の選択処理もしくは混合処理、及び2段目の画像処理を行う。第1のかすみ補正部24は、遠い距離にある注目領域の霧霞を除去するのに効果があるため、距離情報取得部23で取得した距離情報が第1の所定距離より遠い場合に、第1のかすみ補正部24が選択される。第2のかすみ補正部25は、近い距離にある注目領域の霧霞を除去するのに効果があるために、距離情報取得部23で取得した距離情報が第2の所定距離より近い場合に、第2のかすみ補正部25が選択される。距離情報取得部23により取得された距離情報が第1の所定距離以下で、第2の所定距離以上の場合には、第1のかすみ補正部24で補正された画像と第2のかすみ補正部25で補正された画像の混合処理(合成処理)を行う。
The first
ここで、画像の合成比率は、領域ごとに被写体のエッジ情報を用いて決定する。具体的には、エッジであると考えられる領域に関しては、第1の実施形態で説明した第2の階調補正処理の比率を大きく設定する。一方、平坦であると考えられる領域に関しては、第1の実施形態で説明した第1の階調補正処理の比率を大きく設定する。このような比率で合成することで、エッジ部のハローノイズを抑制しつつ、霧霞除去を効果的に実行することができる。具体的な手順を以下で述べる。 Here, the image composition ratio is determined for each region using the edge information of the subject. Specifically, for the region considered to be an edge, the ratio of the second gradation correction processing described in the first embodiment is set large. On the other hand, with respect to the region considered to be flat, the ratio of the first gradation correction processing described in the first embodiment is set large. By synthesizing at such a ratio, it is possible to effectively remove fog haze while suppressing halo noise at the edge portion. The specific procedure will be described below.
まず始めに、画像からエッジを検出する。エッジ検出の方法として、霧霞が発生している入力画像Iに対して、ソーベルフィルタを実行することで、エッジ情報を濃淡画像として抽出することができる。 First of all, the edges are detected from the image. As a method of edge detection, edge information can be extracted as a shading image by executing a sobel filter on the input image I in which fog haze is generated.
続いて、生成されたエッジ情報(濃度値 F(x,y))に基づき、例えば、式(10)のようにして、混合比率Blend(x,y)を求める。 Subsequently, based on the generated edge information (concentration value F (x, y)), the mixing ratio Blend (x, y) is obtained, for example, as in the formula (10).
Blend(x,y)=F(x,y)/Fmax 式(10)
ここで、Fmaxは濃度値の最大値を示し、混合比率は0.0から1.0の値で正規化される。
Blend (x, y) = F (x, y) / Fmax equation (10)
Here, Fmax indicates the maximum value of the concentration value, and the mixing ratio is normalized by a value of 0.0 to 1.0.
最後に、式(10)の混合比率に基づき、第1のかすみ補正部24で補正された画像Dehaze1(x,y)と、第2のかすみ補正部25で補正された画像Dehaze2(x,y)を式(11)のようにして合成する。
Finally, based on the mixing ratio of the equation (10), the image Dehaze1 (x, y) corrected by the first
DehazeBlend(x,y)
=(1.0−Blend(x,y))×Dehaze1(x,y)+Blend(x,y)×Dehaze2(x,y)
式(11)
以上のような手順を踏むことで、エッジ部のハローノイズを抑制しつつ、霧霞除去を効果的に実行された混合画像DehazeBlend(x,y)が得られる。
Dehaze Blend (x, y)
= (1.0-Blend (x, y)) x Dehaze1 (x, y) + Blend (x, y) x Dehaze2 (x, y)
Equation (11)
By following the above procedure, a mixed image Dehaze Blend (x, y) in which fog haze removal is effectively performed while suppressing halo noise at the edge portion can be obtained.
なお、第2の画像処理部26は、第1の実施形態で説明した第2の画像処理部15と同様である。各画像処理機能は第1の画像処理部21で行ってもよいし、第2の画像処理部26で行ってもよい。画像出力部27は、画像処理や霧霞除去処理を行った画像を、画像圧縮処理等を行う別の画像処理部や表示部110等に出力する。
The second
図6は、指定した注目領域の距離に応じて階調制御の方式を切り換えて霧霞の除去を行う動作を示すフローチャートである。 FIG. 6 is a flowchart showing an operation of removing fog haze by switching the gradation control method according to the distance of the designated region of interest.
霧霞除去処理のフローが開始されると、ステップS61では、撮像部101により取得された画像が画像処理部121に入力される。ステップS62では、ユーザーが注目したい領域をGUI等で指定する。ステップS63では、距離情報取得部23が、ユーザーが指定した注目領域までの距離を測定する。注目領域までの距離は、レンズ部102に配置されたフォーカスレンズやズームレンズの制御情報等を用いて測定される。
When the flow of the fog haze removal processing is started, in step S61, the image acquired by the
ステップS64では、全体制御演算部107は、注目領域に含まれる被写体までの距離が第1の所定距離より遠いか否かを判別する。被写体までの距離が第1の所定距離より遠い場合には、ステップS65に進む。被写体までの距離が第1の所定距離より遠くない場合には、ステップS66に進む。
In step S64, the overall
ステップS65では、遠い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第1の階調補正処理を実行する。 In step S65, the first gradation correction process described in the first embodiment, which is effective for removing the fog haze on a distant subject, is executed.
ステップS66では、注目領域に含まれる被写体までの距離が第2の所定距離より近いか否かを判別する。被写体までの距離が第2の所定距離より近い場合には、ステップS67に進む。被写体までの距離が第2の所定距離より近くない場合には、ステップS68に進む。 In step S66, it is determined whether or not the distance to the subject included in the region of interest is closer than the second predetermined distance. If the distance to the subject is closer than the second predetermined distance, the process proceeds to step S67. If the distance to the subject is not closer than the second predetermined distance, the process proceeds to step S68.
ステップS67では、近い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第2の階調補正処理を実行する。ステップS68では、式(10)で求められる合成比率に基づき。第1の実施形態で説明した第1の階調補正処理で得られた画像と第2の階調補正処理で得られた画像を式(11)に示されるように混合処理を行う。このステップS68は、注目領域に含まれる被写体までの距離が第1の所定距離以下で、第2の所定距離以上の場合に実行される。ステップS65、またはS67、またはS68を実行後、霧霞の除去動作を終了する。 In step S67, the second gradation correction process described in the first embodiment, which is effective for removing the fog haze on a nearby subject, is executed. In step S68, based on the synthesis ratio obtained by the formula (10). The image obtained by the first gradation correction process described in the first embodiment and the image obtained by the second gradation correction process are mixed as shown in the equation (11). This step S68 is executed when the distance to the subject included in the region of interest is equal to or less than the first predetermined distance and greater than or equal to the second predetermined distance. After executing step S65, S67, or S68, the fog haze removal operation is terminated.
以上説明したように、第3の実施形態によれば、被写体の距離に応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the third embodiment, it is possible to perform an effective fog haze removal process according to the distance of the subject.
(第4の実施形態)
以下、本発明の画像処理装置の第4の実施形態であるデジタルカメラについて説明する。第4の実施形態における画像処理回路の構成は、図5に示した第3の実施形態の構成と同様である。ただし、本実施形態では、注目領域指定部22は、注目したい被写体を検出して、その被写体が存在する領域を自動で指定する。
(Fourth Embodiment)
Hereinafter, a digital camera according to a fourth embodiment of the image processing apparatus of the present invention will be described. The configuration of the image processing circuit in the fourth embodiment is the same as the configuration of the third embodiment shown in FIG. However, in the present embodiment, the attention
図7は、注目被写体を検出して、注目被写体までの距離に基づいて階調制御の方式を切り換えて霧霞の除去を行う動作を示すフローチャートである。 FIG. 7 is a flowchart showing an operation of detecting a subject of interest and switching the gradation control method based on the distance to the subject of interest to remove fog haze.
霧霞除去処理のフローが開始されると、ステップS71では、撮像部101により取得された画像が画像処理部121に入力される。ステップS72では、注目したい被写体を検出し、その被写体が存在する領域を自動的に指定する。注目したい被写体を検出するためには、例えばユーザーが注目したい物体や人を指定する。そしてオブジェクト検出やAI技術等を用いて注目したい物体や人を検知し、それらを含む領域を指定する。あるいは動体検知などを用いて動いている物体や人を検知して、それらを含む領域を指定してもよい。
When the flow of the fog haze removal processing is started, in step S71, the image acquired by the
ステップS73では、距離情報取得部23は、指定された注目被写体を含む領域までの距離を測定する。注目領域までの距離は、レンズ部102に配置されたフォーカスレンズやズームレンズの制御情報等を用いて測定される。
In step S73, the distance
ステップS74では、全体制御演算部107は、注目被写体までの距離が第1の所定距離より遠いか否かを判別する。被写体までの距離が第1の所定距離より遠い場合には、ステップS75に進む。被写体までの距離が第1の所定距離より遠くない場合には、ステップS76に進む。
In step S74, the overall
ステップS75では、遠い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第1の階調補正処理を実行する。 In step S75, the first gradation correction process described in the first embodiment, which is effective for removing the fog haze on a distant subject, is executed.
ステップS76では、注目被写体までの距離が第2の所定距離より近いか否かを判別する。被写体までの距離が第2の所定距離より近い場合には、ステップS77に進む。被写体までの距離が第2の所定距離より近くない場合には、ステップS78に進む。 In step S76, it is determined whether or not the distance to the subject of interest is closer than the second predetermined distance. If the distance to the subject is closer than the second predetermined distance, the process proceeds to step S77. If the distance to the subject is not closer than the second predetermined distance, the process proceeds to step S78.
ステップS77では、近い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第2の階調補正処理を実行する。ステップS78では、第1の実施形態で説明した第1の階調補正処理で得られた画像と第2の階調補正処理で得られた画像の混合処理を行う。このステップS78は、注目被写体までの距離が第1の所定距離以下で、第2の所定距離以上の場合に実行される。ステップS75、またはS77、またはS78を実行後、霧霞の除去動作を終了する。 In step S77, the second gradation correction process described in the first embodiment, which is effective for removing the fog haze on a nearby subject, is executed. In step S78, the image obtained by the first gradation correction process described in the first embodiment and the image obtained by the second gradation correction process are mixed. This step S78 is executed when the distance to the subject of interest is equal to or less than the first predetermined distance and is equal to or greater than the second predetermined distance. After executing step S75, S77, or S78, the fog haze removal operation is terminated.
以上説明したように、第4の実施形態によれば、検出された注目被写体の距離に応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the fourth embodiment, it is possible to perform an effective fog haze removal process according to the detected distance of the subject of interest.
(第5の実施形態)
以下、本発明の画像処理装置の第5の実施形態であるネットワークカメラについて説明する。第5の実施形態における画像処理回路の構成は、図10に示されるように、ネットワークカメラと、ネットワーク、クライアント装置から構成されている。
(Fifth Embodiment)
Hereinafter, a network camera according to a fifth embodiment of the image processing apparatus of the present invention will be described. As shown in FIG. 10, the configuration of the image processing circuit in the fifth embodiment includes a network camera, a network, and a client device.
この第5の実施形態では、クライアント装置で実行される認識・解析アプリに応じて、霧霞除去の方式を切り替えて実行する。本実施形態では、人の顔の識別を行う顔識別アプリ、および、画面内に存在する被写体をカウントする人数カウントアプリを用いて例示的に説明する。 In this fifth embodiment, the fog haze removal method is switched and executed according to the recognition / analysis application executed by the client device. In the present embodiment, a face identification application for identifying a person's face and a number of people counting application for counting a subject existing on the screen will be used as an example.
それぞれのアプリの特徴として、顔識別アプリは、顔の細かな特徴をベースに識別を行うため、前述のハローノイズに代表されるアーチファクトの発生をなるべく抑える必要がある。一方、人数カウントアプリは、細かな構造をベースに検出を行う和ではなく、顔識別アプリと比較すると、より大雑把な構造、形状の検出を行い、人数をカウントする。そのため、人数カウントアプリを実行時に、霧霞を除去する場合、ハローノイズを抑えるよりは、霧霞の除去効果を優先した方が被写体の検出精度が向上する。なお、認識・解析アプリはこれに限るものではなく、例えば、人の動線をヒートマップ化する解析アプリ、特定人物を追尾するアプリ、被写体の属性を解析するアプリ等でもよい。 As a feature of each application, since the face identification application performs identification based on the detailed features of the face, it is necessary to suppress the occurrence of artifacts typified by the above-mentioned halo noise as much as possible. On the other hand, the number of people counting application is not a sum that detects based on a detailed structure, but detects a rougher structure and shape as compared with a face recognition application, and counts the number of people. Therefore, when removing fog haze when running the number counting app, prioritizing the fog haze removal effect rather than suppressing halo noise improves the subject detection accuracy. The recognition / analysis application is not limited to this, and may be, for example, an analysis application that heat-maps a person's movement line, an application that tracks a specific person, an application that analyzes the attributes of a subject, and the like.
図11は、本実施形態において霧霞除去を行う動作を示すフローチャートである。 FIG. 11 is a flowchart showing an operation of removing fog haze in the present embodiment.
霧霞除去処理のフローが開始されると、ステップS111では、撮像部101により取得された画像が画像処理部121に入力される。ステップS112では、クライアント装置で実行される認識・解析アプリの情報を取得する。
When the flow of the fog haze removal processing is started, in step S111, the image acquired by the
ステップS113では、全体制御演算部107は、取得された認識・解析アプリの種類が顔識別アプリであるか否かを判別する。顔識別アプリである場合には、ステップS114に進む。顔識別アプリでない場合には、ステップS115に進む。
In step S113, the overall
ステップS114では、弊害を抑えつつ、霧霞を除去するのに効果的な第1の実施形態で説明した第2の階調補正処理を実行する。 In step S114, the second gradation correction process described in the first embodiment, which is effective for removing fog haze, is executed while suppressing adverse effects.
ステップS115では、取得された認識・解析アプリの種類が人数カウントアプリであるか否かを判別する。人数カウントアプリである場合には、ステップS116に進む。顔識別アプリでも人数カウントアプリでもない場合は、ステップS117に進む。 In step S115, it is determined whether or not the acquired recognition / analysis application type is a number counting application. If it is a number counting application, the process proceeds to step S116. If it is neither a face recognition application nor a number counting application, the process proceeds to step S117.
ステップS116では、遠い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第1の階調補正処理を実行する。 In step S116, the first gradation correction process described in the first embodiment, which is effective for removing the fog haze on a distant subject, is executed.
ステップS117では、第3の実施形態で説明したステップS68と同様に、エッジ情報に基づき、第1の階調補正処理で得られた画像と第2の階調補正処理で得られた画像の混合処理を行う。ステップS114、またはステップS116、またはステップS117を実行後、霧霞の除去動作を終了する。 In step S117, similarly to step S68 described in the third embodiment, the image obtained by the first gradation correction process and the image obtained by the second gradation correction process are mixed based on the edge information. Perform processing. After executing step S114, step S116, or step S117, the fog haze removal operation is terminated.
以上説明したように、第5の実施形態によれば、クライアント装置で実行される認識・解析アプリに応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the fifth embodiment, it is possible to perform an effective fog haze removal process according to the recognition / analysis application executed by the client device.
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.
100:デジタルカメラ、101:撮像部、102:レンズ部、104:撮像信号処理回路、107:全体制御演算部、120,121:画像処理回路 100: Digital camera, 101: Image pickup unit, 102: Lens section, 104: Image pickup signal processing circuit, 107: Overall control calculation unit, 120, 121: Image processing circuit
Claims (22)
前記画像データの領域毎のダークチャネル値を取得して透過率を推定し、階調を補正する第1の階調補正手段と、
トーンカーブを用いて前記画像データの階調を補正する第2の階調補正手段と、
どの階調補正手段を用いて階調補正を行うかを制御する制御手段と、
を備えることを特徴とする画像処理装置。 Acquisition method for acquiring image data and
A first gradation correction means that acquires a dark channel value for each region of the image data, estimates the transmittance, and corrects the gradation.
A second gradation correction means for correcting the gradation of the image data using a tone curve, and
A control means for controlling which gradation correction means is used for gradation correction, and
An image processing device characterized by comprising.
請求項1乃至18のいずれか1項に記載の画像処理装置と、
を備えることを特徴とする撮像装置。 An imaging means that captures the subject,
The image processing apparatus according to any one of claims 1 to 18.
An imaging device characterized by comprising.
前記画像データの領域毎のダークチャネル値を取得して透過率を推定し、階調を補正する第1の階調補正工程と、
トーンカーブを用いて前記画像データの階調を補正する第2の階調補正工程と、
どの階調補正工程を用いて階調補正を行うかを制御する制御工程と、
を有することを特徴とする画像処理方法。 The acquisition process to acquire image data and
The first gradation correction step of acquiring the dark channel value for each region of the image data, estimating the transmittance, and correcting the gradation,
A second gradation correction step of correcting the gradation of the image data using a tone curve, and
A control process that controls which gradation correction process is used to perform gradation correction,
An image processing method characterized by having.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/881,425 US11301974B2 (en) | 2019-05-27 | 2020-05-22 | Image processing apparatus, image processing method, image capturing apparatus, and storage medium |
EP20176632.6A EP3745348B1 (en) | 2019-05-27 | 2020-05-26 | Image processing for removing fog or haze in images |
CN202010460486.2A CN112001853A (en) | 2019-05-27 | 2020-05-27 | Image processing apparatus, image processing method, image capturing apparatus, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019098808 | 2019-05-27 | ||
JP2019098808 | 2019-05-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020195127A true JP2020195127A (en) | 2020-12-03 |
JP7510258B2 JP7510258B2 (en) | 2024-07-03 |
Family
ID=73548076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020028363A Active JP7510258B2 (en) | 2019-05-27 | 2020-02-21 | Image processing device, image processing method, imaging device, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7510258B2 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5004305B2 (en) | 2008-09-04 | 2012-08-22 | 株式会社リコー | Image processing apparatus, image processing method, program, and recording medium |
CN103700079A (en) | 2013-12-17 | 2014-04-02 | 中国科学院深圳先进技术研究院 | Image defogging method and device |
CN104463816A (en) | 2014-12-02 | 2015-03-25 | 苏州大学 | Image processing method and device |
CN105574830B (en) | 2016-02-04 | 2020-02-21 | 沈阳工业大学 | Low-quality image enhancement method under extreme weather condition |
CN106548463B (en) | 2016-10-28 | 2019-05-10 | 大连理工大学 | Sea fog image automatic defogging method and system based on dark and Retinex |
CN107277299B (en) | 2017-07-27 | 2020-08-18 | Oppo广东移动通信有限公司 | Image processing method, image processing device, mobile terminal and computer readable storage medium |
CN107481202B (en) | 2017-08-14 | 2020-08-04 | 深圳市华星光电半导体显示技术有限公司 | Method for enhancing dynamic range of image |
CN111148965B (en) | 2017-09-27 | 2022-01-25 | 索尼公司 | Information processing apparatus, information processing method, control apparatus, and image processing apparatus |
CN107767353A (en) | 2017-12-04 | 2018-03-06 | 河南工业大学 | A kind of adapting to image defogging method based on definition evaluation |
-
2020
- 2020-02-21 JP JP2020028363A patent/JP7510258B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7510258B2 (en) | 2024-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210365720A1 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
KR101662846B1 (en) | Apparatus and method for generating bokeh in out-of-focus shooting | |
JP4748244B2 (en) | Image selection apparatus, image selection method, and program | |
US8698910B2 (en) | Apparatus, camera, method, and computer-readable storage medium for generating advice for capturing an image | |
US8116521B2 (en) | Moving body image extraction apparatus and computer readable storage medium storing program | |
JP6961797B2 (en) | Methods and devices for blurring preview photos and storage media | |
KR101590868B1 (en) | A image processing method an image processing apparatus a digital photographing apparatus and a computer-readable storage medium for correcting skin color | |
US8917938B2 (en) | Method for estimating blur degree of image and method for evaluating image quality | |
JP2017138647A (en) | Image processing device, image processing method, video photographing apparatus, video recording reproduction apparatus, program and recording medium | |
EP3745348B1 (en) | Image processing for removing fog or haze in images | |
CN107533756B (en) | Image processing device, imaging device, image processing method, and storage medium storing image processing program for image processing device | |
JP6818463B2 (en) | Image processing equipment, image processing methods and programs | |
JP2012256168A (en) | Image processing device and image pickup device | |
US8711250B2 (en) | Image signal processing apparatus and image signal processing method | |
US20180018759A1 (en) | Image artifact detection and correction in scenes obtained from multiple visual images | |
JP7510258B2 (en) | Image processing device, image processing method, imaging device, program, and storage medium | |
CN113379631B (en) | Image defogging method and device | |
US20220343529A1 (en) | Image signal processing based on virtual superimposition | |
US9135687B2 (en) | Threshold setting apparatus, threshold setting method and recording medium in which program for threshold setting method is stored | |
KR101634246B1 (en) | Method for providing standing out degree information of subject and digital photographing apparatus applying the method | |
US20230276127A1 (en) | Image processing apparatus and image processing method | |
Husain et al. | Different Haze Image Conditions for Single Image Dehazing Method | |
JP2017151562A (en) | Image processing device, imaging device, control method and program therefor | |
JP2021013056A (en) | Image processing device, imaging apparatus, image processing method, and program | |
JP2009258771A (en) | Image processing method, image processor, image processing program ,and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7510258 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |