[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020195127A - Image processing device, image processing method, imaging apparatus, program, and storage medium - Google Patents

Image processing device, image processing method, imaging apparatus, program, and storage medium Download PDF

Info

Publication number
JP2020195127A
JP2020195127A JP2020028363A JP2020028363A JP2020195127A JP 2020195127 A JP2020195127 A JP 2020195127A JP 2020028363 A JP2020028363 A JP 2020028363A JP 2020028363 A JP2020028363 A JP 2020028363A JP 2020195127 A JP2020195127 A JP 2020195127A
Authority
JP
Japan
Prior art keywords
gradation correction
image processing
image data
gradation
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020028363A
Other languages
Japanese (ja)
Other versions
JP7510258B2 (en
Inventor
広崇 大森
Hirotaka Omori
広崇 大森
博行 浦上
Hiroyuki Uragami
博行 浦上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/881,425 priority Critical patent/US11301974B2/en
Priority to EP20176632.6A priority patent/EP3745348B1/en
Priority to CN202010460486.2A priority patent/CN112001853A/en
Publication of JP2020195127A publication Critical patent/JP2020195127A/en
Application granted granted Critical
Publication of JP7510258B2 publication Critical patent/JP7510258B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing device capable of satisfactorily removing fog and haze in an image.SOLUTION: An image processing device includes an acquisition unit for acquiring image data, a first gradation correction unit for acquiring a dark channel value for each area of the image data to estimate the transmittance and correct the gradation, a second gradation correction unit for correcting the gradation of the image data using a tone curve, and a control unit for controlling which gradation correction unit is to be used to perform the gradation correction.SELECTED DRAWING: Figure 2

Description

本発明は、霧霞が発生している状況で撮影した画像の霧霞を除去して視認性を向上させる技術に関するものである。 The present invention relates to a technique for removing fog haze in an image taken in a situation where fog haze is generated to improve visibility.

従来の監視等の用途で使用されるカメラにおいては、屋外を撮影する際に霧霞が発生して視認性が低下する場合がある。このような画像を救済するため、霧霞が発生した場合にそれらを除去する補正処理を行う技術が知られている。補正処理には、全画面に対してトーンカーブを用いてコントラストを補正する方法、大気モデルにおいてミー散乱とレイリー散乱を分離し、霧霞など波長に依存しないミー散乱成分を除去する散乱分離方式を採用する方法とがある。 In a camera used for conventional surveillance and the like, fog haze may occur when shooting outdoors, which may reduce visibility. In order to relieve such an image, there is known a technique of performing a correction process for removing fog haze when it occurs. For the correction processing, a method of correcting the contrast using a tone curve for the entire screen, and a scattering separation method that separates Mie scattering and Rayleigh scattering in the atmospheric model and removes wavelength-independent Mie scattering components such as fog haze. There is a method to adopt.

散乱分離方式は、画像の領域毎のダークチャネル値を用いて透過率を推定し、階調を制御して霧霞を除去する方式である。具体的には、大気モデルにおける霧霞の濃度に起因する透過率を推定し、階調制御を行う技術が提案されている。 The scattering separation method is a method in which the transmittance is estimated using the dark channel value for each region of the image and the gradation is controlled to remove the fog haze. Specifically, a technique has been proposed in which the transmittance due to the concentration of fog haze in the atmospheric model is estimated and the gradation is controlled.

特許文献1では、空領域または逆光領域を算出し、その領域におけるダークチャネル値を補正し、ダークチャネル値から透過率を算出し、その透過率を用いて入力画像から霧霞成分の除去を行う。 In Patent Document 1, an empty region or a backlit region is calculated, a dark channel value in that region is corrected, a transmittance is calculated from the dark channel value, and the fog haze component is removed from an input image using the transmittance. ..

特許文献2では、カラー画像で散乱光の基準強度の導出に用いる画素を選択し、散乱光の第1の色成分に対応する第1の基準強度と、第2の色成分に対応する第2の基準強度を導出する。第1の基準強度と重み値を用いてカラー画像の第1の色成分の画素値を補正するとともに、第2の基準強度と重み値を用いて第2の色成分の画素値を補正し、補正画像を生成する。 In Patent Document 2, a pixel used for deriving a reference intensity of scattered light is selected in a color image, and a first reference intensity corresponding to a first color component of scattered light and a second reference intensity corresponding to a second color component are selected. Derivation of the reference strength of. The first reference intensity and weight value are used to correct the pixel value of the first color component of the color image, and the second reference intensity and weight value are used to correct the pixel value of the second color component. Generate a corrected image.

特開2017−138647号公報JP-A-2017-138647 特開2015−103167号公報JP-A-2015-103167

しかしながら、特許文献1に開示された従来技術では、ダークチャネル値を用いて散乱光に対する補正は可能であるが、画像内の輪郭部にハローノイズが発生してしまい、そのノイズを抑制することができない。 However, in the prior art disclosed in Patent Document 1, although it is possible to correct scattered light by using the dark channel value, halo noise is generated in the contour portion in the image, and the noise can be suppressed. Can not.

また、特許文献2に開示された従来技術でも同様に、大気モデルにおける散乱光を用いて霧霞の濃度に起因する成分を除去して補正することはできるが、やはり画像内の輪郭部にハローノイズが発生してしまい、そのノイズを抑制することができない。 Further, in the conventional technique disclosed in Patent Document 2, similarly, the component caused by the concentration of fog haze can be removed and corrected by using the scattered light in the atmospheric model, but the contour portion in the image is also halo. Noise is generated, and the noise cannot be suppressed.

本発明は上述した課題に鑑みてなされたものであり、その目的は、画像内の霧霞を良好に除去することができる画像処理装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an image processing apparatus capable of satisfactorily removing fog haze in an image.

本発明に係わる画像処理装置は、画像データを取得する取得手段と、前記画像データの領域毎のダークチャネル値を取得して透過率を推定し、階調を補正する第1の階調補正手段と、トーンカーブを用いて前記画像データの階調を補正する第2の階調補正手段と、どの階調補正手段を用いて階調補正を行うかを制御する制御手段と、を備えることを特徴とする。 The image processing apparatus according to the present invention includes an acquisition means for acquiring image data and a first gradation correction means for acquiring dark channel values for each region of the image data to estimate transmission and correct gradation. A second gradation correction means for correcting the gradation of the image data using a tone curve, and a control means for controlling which gradation correction means is used for gradation correction are provided. It is a feature.

本発明によれば、画像内の霧霞を良好に除去することができる画像処理装置を提供することが可能となる。 According to the present invention, it is possible to provide an image processing apparatus capable of satisfactorily removing fog haze in an image.

本発明の画像処理装置の第1の実施形態であるデジタルカメラの構成を示す図。The figure which shows the structure of the digital camera which is 1st Embodiment of the image processing apparatus of this invention. 第1の実施形態における画像処理回路120の構成を示すブロック図。The block diagram which shows the structure of the image processing circuit 120 in 1st Embodiment. 霧霞発生有無における輝度ヒストグラムを示す図。The figure which shows the luminance histogram in the presence or absence of fog haze. 霧霞発生度合いに応じたトーカーブ補正の例を示す図。The figure which shows the example of the toe curve correction according to the degree of fog haze generation. 第1の実施形態における霧霞の除去動作を示したフローチャート。The flowchart which showed the fog haze removal operation in the 1st Embodiment. 第2の実施形態における霧霞の除去動作を示したフローチャート。The flowchart which showed the removal operation of the fog haze in the 2nd Embodiment. 第3の実施形態における画像処理回路121の構成を示すブロック図。The block diagram which shows the structure of the image processing circuit 121 in 3rd Embodiment. 第3の実施形態における霧霞の除去動作を示したフローチャート。The flowchart which showed the fog haze removal operation in 3rd Embodiment. 第4の実施形態における霧霞の除去動作を示したフローチャート。The flowchart which showed the removal operation of fog haze in 4th Embodiment. 第5の実施形態における撮像システムの構成を示す図。The figure which shows the structure of the image pickup system in 5th Embodiment. 第5の実施形態における霧霞の除去動作を示したフローチャート。The flowchart which showed the fog haze removal operation in 5th Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate description is omitted.

(第1の実施形態)
図1は、本発明の画像処理装置の第1の実施形態であるデジタルカメラ100の構成を示す図である。
(First Embodiment)
FIG. 1 is a diagram showing a configuration of a digital camera 100, which is a first embodiment of the image processing apparatus of the present invention.

図1において、レンズ部102は、被写体の光学像を、CCDやCMOSセンサなどからなる撮像素子を有する撮像部101に結像させる。また、レンズ駆動装置103によってズーム制御、フォーカス制御、絞り制御などが行われる。撮像信号処理回路104は、撮像部101から出力される画像信号に各種の補正処理やデータ圧縮処理等を行う。また、撮像信号処理回路104は、内部に画像の霧霞を除去するための画像処理回路120を有する。撮像素子駆動回路105は撮像部101内の撮像素子に各種電源や撮影モードの指示信号、各種タイミング信号を出力する。 In FIG. 1, the lens unit 102 forms an optical image of a subject on an image pickup unit 101 having an image pickup element including a CCD or a CMOS sensor. Further, the lens driving device 103 performs zoom control, focus control, aperture control, and the like. The image pickup signal processing circuit 104 performs various correction processes, data compression processes, and the like on the image signal output from the image pickup unit 101. Further, the image pickup signal processing circuit 104 has an image processing circuit 120 inside for removing fog haze of the image. The image sensor drive circuit 105 outputs various power sources, shooting mode instruction signals, and various timing signals to the image sensor in the image sensor 101.

メモリ部106は、画像データを一時的に記憶するためのメモリとして機能し、全体制御演算部107は各種演算とデジタルカメラ100全体の制御を行う。記録媒体制御I/F部108は記録媒体へのデータの記録または記録媒体からのデータの読み出しを行うためのインターフェースである。記録媒体109は、画像データの記録または読み出しを行うための着脱可能な半導体メモリである。さらに、表示部110は、各種情報や撮影画像を表示する液晶表示装置などの表示デバイスである。 The memory unit 106 functions as a memory for temporarily storing image data, and the overall control calculation unit 107 performs various calculations and controls the entire digital camera 100. The recording medium control I / F unit 108 is an interface for recording data on the recording medium or reading data from the recording medium. The recording medium 109 is a detachable semiconductor memory for recording or reading image data. Further, the display unit 110 is a display device such as a liquid crystal display device that displays various information and captured images.

図2は、図1における画像処理回路120の構成を示すブロック図である。画像処理回路120は、画像の輪郭部に発生するハローノイズを抑制しつつ霧霞を除去する機能を備える。 FIG. 2 is a block diagram showing the configuration of the image processing circuit 120 in FIG. The image processing circuit 120 has a function of removing fog haze while suppressing halo noise generated in the contour portion of an image.

図2において、画像処理回路120は、第1の画像処理部11、第1のかすみ補正部12、第2のかすみ補正部14、第2の画像処理部15、画像出力部16、ヒストグラム取得・解析部13を備える。 In FIG. 2, the image processing circuit 120 includes a first image processing unit 11, a first haze correction unit 12, a second haze correction unit 14, a second image processing unit 15, an image output unit 16, and a histogram acquisition. The analysis unit 13 is provided.

撮像部101により撮像された画像データは、画像処理回路120に入力される。第1の画像処理部11は、画像データの1段目の画像処理部である。具体的には撮像部101から取得した画像データに対して、センサ補正処理、キズ補正処理、ベイヤー型のRGB信号からYC信号に変換する変換処理、輪郭強調処理、ノイズリダクション処理、ホワイトバランス処理などを行う。第1のかすみ補正部12は、画像の領域毎のダークチャネル値を用いて透過率(濃度マップ)を推定し、階調を制御する第1の階調補正処理(階調補正動作)を行う第1段の階調補正部である。ヒストグラム取得・解析部13は第1の階調補正処理を行った後の補正画像において、輝度成分のヒストグラムを取得し、その分散値を算出することにより画像のコントラストを検出する。第2のかすみ補正部14はトーンカーブを用いてコントラストや中間階調の制御を行う第2の階調補正処理(階調補正動作)を行う第2段の階調補正部である。 The image data captured by the image pickup unit 101 is input to the image processing circuit 120. The first image processing unit 11 is an image processing unit of the first stage of image data. Specifically, the image data acquired from the image pickup unit 101 is subjected to sensor correction processing, scratch correction processing, conversion processing for converting a Bayer-type RGB signal into a YC signal, contour enhancement processing, noise reduction processing, white balance processing, etc. I do. The first haze correction unit 12 estimates the transmittance (density map) using the dark channel value for each area of the image, and performs the first gradation correction process (gradation correction operation) to control the gradation. This is the first-stage gradation correction unit. The histogram acquisition / analysis unit 13 detects the contrast of the image by acquiring the histogram of the luminance component in the corrected image after the first gradation correction process and calculating the dispersion value thereof. The second haze correction unit 14 is a second-stage gradation correction unit that performs a second gradation correction process (gradation correction operation) that controls contrast and intermediate gradation using a tone curve.

以下、第1の階調補正処理の詳細について説明する。まず、霧霞が発生している画像Iと、霧霞除去後の画像Jは式(1)のような大気モデルで関係づけられる。 Hereinafter, the details of the first gradation correction processing will be described. First, the image I in which the fog haze is generated and the image J after the fog haze is removed are related by the atmospheric model as in the equation (1).

I(x,y)=J(x,y)・t(x,y)+A(1−t(x,y) 式(1)
x,yは画像内における水平方向と垂直方向の2次元座標位置、tは霧霞の濃度マップ、Aは環境光を示す。ここで、濃度マップt(x,y)は大気による減衰を意味しており、カメラからの被写体距離が長いほど減衰量(画素値)が大きく、近いほど減衰量(画素値)は小さくなる。式(1)において、環境光Aおよび、濃度マップt(x,y)を推定することで、霧霞除去後のJ(x,y)を求めることが可能になる。
I (x, y) = J (x, y) · t (x, y) + A (1-t (x, y) equation (1)
x and y are two-dimensional coordinate positions in the horizontal and vertical directions in the image, t is a fog haze density map, and A is ambient light. Here, the density map t (x, y) means attenuation due to the atmosphere. The longer the subject distance from the camera, the larger the attenuation (pixel value), and the closer it is, the smaller the attenuation (pixel value). By estimating the ambient light A and the density map t (x, y) in the equation (1), it is possible to obtain J (x, y) after removing the fog haze.

まず、環境光Aの推定方法について数式を用いて説明する。環境光Aは、空領域のRGB成分の平均画素値であり、式(2)のようにして算出される。 First, the method of estimating the ambient light A will be described using a mathematical formula. The ambient light A is an average pixel value of the RGB components in the empty region, and is calculated by the equation (2).

Figure 2020195127
Figure 2020195127

ave関数は引数内の平均値を算出する関数を表し、cは色成分を表し、Ωskyは空領域内の局所領域を示す。ここで、空領域は、例えば、ヒストグラムの分布に基づき算出する方法や、予め指定した座標位置を用いる方法、ユーザーからの指示位置を用いる方法等により特定することができる。 The ave function represents a function for calculating the average value in the argument, c represents a color component, and Ωsky represents a local region in an empty region. Here, the empty region can be specified by, for example, a method of calculating based on the distribution of the histogram, a method of using a coordinate position specified in advance, a method of using a position instructed by the user, or the like.

続いて、濃度マップt(x,y)の推定方法について説明する。本実施形態における第1の階調処理は、ダークチャネル値に基づき濃度マップt(x,y)を推定する処理であり、霧霞が発生していない屋外画像において、RGB成分の少なくとも1つの成分の画素値が局所的に非常に小さいことを前提にしている。ダークチャネル値Idrkは、式(3)のようにして算出される。 Subsequently, a method of estimating the density map t (x, y) will be described. The first gradation process in the present embodiment is a process of estimating the density map t (x, y) based on the dark channel value, and is at least one component of the RGB component in an outdoor image in which fog haze is not generated. It is assumed that the pixel value of is locally very small. The dark channel value I drk is calculated as in Eq. (3).

Figure 2020195127
Figure 2020195127

cは色成分を表し、Ωは注目座標(x,y)を含む局所領域を示す。式(3)に示されるように、ダークチャネル値は、注目画素を含む局所領域内におけるRGB成分の最小値となる。式(1)の大気モデルに、式(3)のダークチャネルの算出式を代入すると、大気モデルからダークチャネル値を算出する式(4)が得られる。 c represents a color component, and Ω represents a local region including the coordinates of interest (x, y). As shown in the equation (3), the dark channel value is the minimum value of the RGB component in the local region including the pixel of interest. By substituting the calculation formula for the dark channel of the formula (3) into the atmospheric model of the formula (1), the formula (4) for calculating the dark channel value from the atmospheric model can be obtained.

drk=Jdrk(x,y)・t(x,y)+A(1−t(x,y)) 式(4)
ここで、霧霞が発生していない画像において、RGB成分の少なくとも1つの成分の画素値は局所的に小さいという前提を考慮すると、式(4)における霧霞除去画像のダークチャネル値Jdrk(x,y)は0に限りなく近い値となる。従って、式(4)は式(5)のように近似することができる。
I drk = J drk (x, y) · t (x, y) + A (1-t (x, y)) Equation (4)
Here, considering the premise that the pixel value of at least one component of the RGB component is locally small in the image in which the fog haze is not generated, the dark channel value J drk (the dark channel value of the fog haze removal image in the equation (4)) ( x, y) is a value as close to 0 as possible. Therefore, the equation (4) can be approximated as the equation (5).

drk(x,y)≒A(1−t(x,y)) 式(5)
式(5)の近似式を変形することで、式(6)のようにして濃度マップt(x,y)を推定することができる。
I drk (x, y) ≒ A (1-t (x, y)) Equation (5)
By modifying the approximate expression of the equation (5), the concentration map t (x, y) can be estimated as in the equation (6).

t(x,y)≒1−{ω×Idrk(x,y)/A} 式(6)
ここで、ωは霧霞の補正度合いを制御するパラメータであり、0.0から1.0の範囲で定義され、値が大きいほど霧霞の補正効果を強く設定することができる。以上説明した式(2)〜(6)によって算出される大気光A、濃度マップt(x,y)を式(7)に代入することで、霧霞除去後のJ(x,y)を求めることができる。
t (x, y) ≈1- {ω × I drk (x, y) / A} Equation (6)
Here, ω is a parameter that controls the degree of correction of fog haze, and is defined in the range of 0.0 to 1.0. The larger the value, the stronger the correction effect of fog haze can be set. By substituting the airglow A and the concentration map t (x, y) calculated by the above-described equations (2) to (6) into the equation (7), J (x, y) after removing the fog haze can be obtained. Can be sought.

J(x,y)={(I(x,y)−A)/t(x,y)}+A 式(7)
式(1)に示されるように、ダークチャネルに基づく第1の階調補正処理は、環境光Aに加えて、カメラからの被写体距離に応じて変化する濃度マップも考慮して、画素毎に補正量を算出する。従って、近景の被写体だけでなく、遠景の被写体に対しても、霧霞を効果的に除去できる。しかしながら、式(3)で示されるように、ダークチャネル値の算出がエッジ情報を考慮していない点や、式(4)で示されるように、濃度マップを近似で求めている点があるため、エッジ部周辺で誤補正、具体的には、白く浮きあがってしまう現象(以降、この現象をハローノイズ(白領域)と呼ぶ)が発生してしまう。
J (x, y) = {(I (x, y) -A) / t (x, y)} + A formula (7)
As shown in the equation (1), the first gradation correction process based on the dark channel takes into consideration the density map that changes according to the subject distance from the camera in addition to the ambient light A, for each pixel. Calculate the correction amount. Therefore, fog haze can be effectively removed not only for a subject in a near view but also for a subject in a distant view. However, as shown by the equation (3), the calculation of the dark channel value does not consider the edge information, and as shown by the equation (4), the density map is obtained by approximation. , Miscorrection occurs around the edge portion, specifically, a phenomenon in which white appears (hereinafter, this phenomenon is referred to as halo noise (white area)) occurs.

続いて、第2のかすみ補正部14の詳細について説明する。まず、ヒストグラム取得・解析部13では、入力画像のヒストグラムを生成し、生成したヒストグラムの分布密度を表す統計値を算出する。例えば、式(8)のようにして、ヒストグラムの分散σ2を求める。 Subsequently, the details of the second haze correction unit 14 will be described. First, the histogram acquisition / analysis unit 13 generates a histogram of the input image and calculates a statistical value representing the distribution density of the generated histogram. For example, the variance σ 2 of the histogram is obtained as in Eq. (8).

σ2={(x1−μ)2・f1+(x2−μ)2・f2+…+(xN−μ)2}/n 式(8)
ここで、xiは入力輝度レベル、xNは入力輝度レベルの最大値、fは頻度、nはデータの合計(総画素数)、μは平均を示す。なお、本実施形態では、分布密度を表す統計値として、ヒストグラムの分散を用いたが、これに限るものではない。
σ 2 = {(x1-μ) 2 · f1 + (x2-μ) 2 · f2 +… + (xN−μ) 2 } / n Equation (8)
Here, xi is the input luminance level, xN is the maximum value of the input luminance level, f is the frequency, n is the total number of data (total number of pixels), and μ is the average. In the present embodiment, the variance of the histogram is used as the statistical value representing the distribution density, but the present invention is not limited to this.

更に、ヒストグラム取得・解析部13では、前述のヒストグラムおよび、統計値に基づき、霧霞の発生度合いを算出する。一般的に霧霞が発生している画像は、図3(a)に示すように、ヒストグラムの分布が一部領域に集中し、コントラストの低い映像になっている。従って、霧霞が発生している場合は、分散値は比較的小さな値になる。そこで、霧霞補正部2は、任意の閾値Thと分散値σ2を比較することで、霧霞の発生度合いHを算出する。例えば、式(9)のようにして算出する。 Further, the histogram acquisition / analysis unit 13 calculates the degree of fog haze generation based on the above-mentioned histogram and statistical values. Generally, in an image in which fog haze is generated, as shown in FIG. 3A, the distribution of the histogram is concentrated in a part of the region, and the image has low contrast. Therefore, when fog haze is generated, the variance value becomes a relatively small value. Therefore, the fog haze correction unit 2 calculates the degree of fog haze generation H by comparing an arbitrary threshold value Th with the variance value σ 2 . For example, it is calculated by the formula (9).

0.0 (if σ2<0)
H= (Th−σ2)/Th (if 0≦σ2≦Th)
1.0 (if Th<σ2) 式(9)
ここで、式(9)で表される霧霞の発生度合いHは、0.0から1.0の範囲で正規化され、値が大きいほど霧霞の発生度合いが強い指標となる。
0.0 (if σ 2 <0)
H = (Th−σ 2 ) / Th (if 0 ≦ σ 2 ≦ Th)
1.0 (if Th <σ 2 ) Equation (9)
Here, the degree of fog haze H represented by the equation (9) is normalized in the range of 0.0 to 1.0, and the larger the value, the stronger the degree of fog haze generation becomes an index.

続いて、第2のかすみ補正部14は、ヒストグラム取得・解析部13で算出される霧霞の発生度合いに応じて、トーカーブを調整する。具体的には、図4に示されるように、霧霞の発生度合いが強いほど、暗部を下げ、明部を持ち上げるトーンカーブを適用する。前述のトーンカーブを適用することで、図3(b)に示すように、ヒストグラムが滑らかに分布することになり、霧霞を除去することができる。 Subsequently, the second haze correction unit 14 adjusts the toe curve according to the degree of fog haze calculated by the histogram acquisition / analysis unit 13. Specifically, as shown in FIG. 4, a tone curve that lowers the dark part and raises the bright part is applied as the degree of fog haze is stronger. By applying the above-mentioned tone curve, as shown in FIG. 3B, the histogram is smoothly distributed, and fog haze can be removed.

従って、第2のかすみ補正部14は、ヒストグラムの分布(霧霞の発生度合い)に応じて、画面全体のコントラストを向上させることで、弊害を抑えつつ、霧霞を除去することが可能になる。しかしながら、被写体距離を考慮した補正量を算出してないため、遠景の被写体に対して効果が弱い手法となる。 Therefore, the second haze correction unit 14 can remove the fog haze while suppressing harmful effects by improving the contrast of the entire screen according to the distribution of the histogram (the degree of fog haze generation). .. However, since the correction amount in consideration of the subject distance is not calculated, this method is less effective for a distant subject.

なお、上記では第1のかすみ補正部12(一方のかすみ補正部)で第1の階調補正処理を行った後に第2のかすみ補正部14(他方のかすみ補正部)で第2の階調補正処理を行っているが、その順番は逆にしてもよい。つまり、第1のかすみ補正部12で第2の階調補正処理を行った後に第2のかすみ補正部14で第1の階調補正処理を行っても同様な霧霞除去効果が得られる。 In the above, the first haze correction unit 12 (one haze correction unit) performs the first gradation correction process, and then the second haze correction unit 14 (the other haze correction unit) performs the second gradation. Although the correction process is performed, the order may be reversed. That is, the same effect of removing fog haze can be obtained even if the first haze correction unit 12 performs the second gradation correction process and then the second haze correction unit 14 performs the first gradation correction process.

第2の画像処理部15では第1のかすみ補正部12、第2のかすみ補正部14で霧霞を除去した画像に対して2段目の画像処理を行う。具体的には輪郭強調処理、ノイズリダクション処理、色補正処理、解像度変換処理などを行う。ここで、輪郭強調処理、ノイズリダクション処理、色補正処理等は、第1の画像処理部11で行ってもよいし、第2の画像処理部15で行ってもよい。画像出力部16は、画像処理や霧霞除去処理を行った画像を画像圧縮処理等を行う別の画像処理部や表示部110等に出力する。 The second image processing unit 15 performs the second stage image processing on the image from which the fog haze has been removed by the first haze correction unit 12 and the second haze correction unit 14. Specifically, contour enhancement processing, noise reduction processing, color correction processing, resolution conversion processing, and the like are performed. Here, the contour enhancement processing, the noise reduction processing, the color correction processing, and the like may be performed by the first image processing unit 11 or the second image processing unit 15. The image output unit 16 outputs an image that has undergone image processing or fog haze removal processing to another image processing unit, display unit 110, or the like that performs image compression processing or the like.

なお、第1の階調補正処理においては、時間をかけて徐々に補正効果を得るように補正処理を実行する。具体的には、式(6)のωの値を小さな値から徐々に大きく設定する。そして、輪郭部にハローノイズを抽出した場合、第1の階調補正処理を中止(停止)する。そうすることにより、第1の階調補正処理で発生しうる輪郭部のハローノイズを抑制することが可能となる。 In the first gradation correction process, the correction process is executed so as to gradually obtain the correction effect over time. Specifically, the value of ω in the equation (6) is gradually set from a small value to a large value. Then, when the halo noise is extracted from the contour portion, the first gradation correction process is stopped (stopped). By doing so, it becomes possible to suppress the halo noise of the contour portion that may be generated in the first gradation correction process.

また、上記で説明したように、第1のかすみ補正部12で第1の階調補正処理を行い、第2のかすみ補正部14で第2の階調補正処理を行う場合と、階調補正処理の順番をその逆とする場合とが考えられる。それぞれの場合について、以下のような方法で階調補正処理が行われる。 Further, as described above, there are cases where the first haze correction unit 12 performs the first gradation correction processing and the second haze correction unit 14 performs the second gradation correction processing, and gradation correction. It is conceivable that the order of processing is reversed. In each case, the gradation correction process is performed by the following method.

まず、第1のかすみ補正部12で第1の階調補正処理を行い、第2のかすみ補正部14で第2の階調補正処理を行う場合は、次のような方法をとる。すなわち、第1のかすみ補正部12で上記のようにハローノイズの出方を見ながら、徐々に第1の階調補正処理を行い、その階調補正処理が止まってから画像の統計量、具体的には輝度ヒストグラムをみて階調制御の効果(補正結果)を判断する。もし階調制御の効果が不十分な場合には、第2のかすみ補正部14で、時間をかけて十分な効果が得られる階調補正量(目標とする階調)に達するまで第2の階調補正処理を行う。ただし、第2の階調補正処理は、ハローノイズを考慮する必要がないので、必ずしもゆっくり行う必要はない。 First, when the first haze correction unit 12 performs the first gradation correction process and the second haze correction unit 14 performs the second gradation correction process, the following method is used. That is, the first haze correction unit 12 gradually performs the first gradation correction processing while observing the appearance of the halo noise as described above, and after the gradation correction processing is stopped, the statistic of the image, concretely Specifically, the effect of gradation control (correction result) is judged by looking at the luminance histogram. If the effect of gradation control is insufficient, the second haze correction unit 14 takes a second time until a gradation correction amount (target gradation) at which a sufficient effect can be obtained is reached. Perform gradation correction processing. However, since it is not necessary to consider halo noise, the second gradation correction process does not necessarily have to be performed slowly.

また、第1のかすみ補正部12で第2の階調補正処理を行い、第2のかすみ補正部14で第1の階調補正処理を行う場合は、次のような方法をとる。すなわち、第1のかすみ補正部12で、第2の階調補正処理の効果を見ながら、時間をかけて徐々に第2の階調補正処理を行う。第2の階調補正処理では、遠景部分には霧霞除去の大きな効果が得られないので、その効果の程度を見ながら処理を行う。ただし、第2の階調補正処理は、時間をかけて行った方が効果の変化を見やすいというメリットがあるが、上記で述べたようにハローノイズを考慮する必要がないので、必ずしもゆっくり行う必要はない。そして、第2の階調補正処理が止まってから、もし階調制御の効果が不十分な場合には、第2のかすみ補正部14で、時間をかけて十分な効果が得られる階調補正に達するまで第1の階調補正処理を行う。この場合も、第1の階調補正処理では、輪郭部にハローノイズを抽出したら、処理を中止する。 Further, when the first haze correction unit 12 performs the second gradation correction processing and the second haze correction unit 14 performs the first gradation correction processing, the following method is used. That is, the first haze correction unit 12 gradually performs the second gradation correction processing over time while observing the effect of the second gradation correction processing. In the second gradation correction process, the effect of removing fog haze cannot be obtained in the distant view portion, so the process is performed while observing the degree of the effect. However, the second gradation correction process has the advantage that it is easier to see the change in the effect if it is performed over time, but as described above, it is not necessary to consider halo noise, so it is not always necessary to perform it slowly. There is no. Then, if the effect of gradation control is insufficient after the second gradation correction processing is stopped, the second haze correction unit 14 takes time to obtain a sufficient effect. The first gradation correction process is performed until the value reaches. Also in this case, in the first gradation correction process, when the halo noise is extracted from the contour portion, the process is stopped.

以上のような方法により、ハローノイズの発生を抑制した良好な霧霞除去処理を行うことができる。 By the above method, it is possible to perform a good fog haze removal process in which the generation of halo noise is suppressed.

図3は、画像の輪郭部にハローノイズが発生しないように霧霞の除去を行う動作を示したフローチャートである。なお、図3は、第1のかすみ補正部12で第1の階調補正処理を行い、第2のかすみ補正部14で第2の階調補正処理を行う場合の例を示している。 FIG. 3 is a flowchart showing an operation of removing fog haze so that halo noise does not occur in the contour portion of the image. Note that FIG. 3 shows an example in which the first haze correction unit 12 performs the first gradation correction process and the second haze correction unit 14 performs the second gradation correction process.

霧霞除去処理のフローが開始されると、ステップS31では、撮像部101により取得された画像が画像処理部120に入力される。ステップS32では、第1のかすみ補正部12が、第1の階調補正処理を行う。ここでは、前述したように画像の輪郭部にハローノイズが発生しない範囲で補正処理を行う。 When the flow of the fog haze removal processing is started, in step S31, the image acquired by the imaging unit 101 is input to the image processing unit 120. In step S32, the first haze correction unit 12 performs the first gradation correction process. Here, as described above, the correction process is performed within a range in which halo noise does not occur in the contour portion of the image.

ステップS33では、全体制御演算部107は、ステップS32において第1の階調補正処理を行った結果の画像に対して、コントラストの大きさを判断する。コントラストが所定の値より小さい場合には、ステップS34に進み、コントラストが所定の値以上の場合には階調補正処理を終了する。 In step S33, the overall control calculation unit 107 determines the magnitude of contrast with respect to the image resulting from the first gradation correction process performed in step S32. If the contrast is smaller than the predetermined value, the process proceeds to step S34, and if the contrast is greater than or equal to the predetermined value, the gradation correction process is terminated.

ステップS34では、ステップS32において実行した第1の階調補正処理で取りきれなかった霧霞を除去するために、第2の階調補正処理を実行し、階調補正処理を終了する。 In step S34, in order to remove the fog haze that could not be removed by the first gradation correction processing executed in step S32, the second gradation correction processing is executed and the gradation correction processing is completed.

なお、図3では、ステップS32において第1の階調補正処理を行い、ステップS34において第2の階調補正処理を行う例を示した。しかし、既に説明したように、ステップS32において第2の階調補正処理を行い、ステップS34において第1の階調補正処理を行うようにしてもよい。どちらの場合でも、第1の階調補正処理では、ハローノイズが発生しない範囲で補正処理を行う。 Note that FIG. 3 shows an example in which the first gradation correction process is performed in step S32 and the second gradation correction process is performed in step S34. However, as already described, the second gradation correction process may be performed in step S32, and the first gradation correction process may be performed in step S34. In either case, in the first gradation correction process, the correction process is performed within a range in which halo noise does not occur.

以上説明したように、第1の実施形態によれば、ハローノイズが発生しない範囲で、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the first embodiment, it is possible to perform an effective fog haze removal process within a range in which halo noise does not occur.

(第2の実施形態)
以下、本発明の画像処理装置の第2の実施形態であるデジタルカメラについて説明する。第2の実施形態におけるデジタルカメラの全体構成は、図1に示した第1の実施形態の構成と同様であるので、その説明を省略する。この第2の実施形態では、第1の実施形態で説明した第1の階調補正処理と第2の階調補正処理に重みをつけて実施する。
(Second Embodiment)
Hereinafter, a digital camera according to a second embodiment of the image processing apparatus of the present invention will be described. Since the overall configuration of the digital camera in the second embodiment is the same as the configuration of the first embodiment shown in FIG. 1, the description thereof will be omitted. In this second embodiment, the first gradation correction process and the second gradation correction process described in the first embodiment are weighted and implemented.

図4は、第2の実施形態における画像の輪郭部にハローノイズが発生しないように霧霞除去を行う動作を示したフローチャートである。 FIG. 4 is a flowchart showing an operation of removing fog haze so that halo noise does not occur in the contour portion of the image in the second embodiment.

霧霞除去処理のフローが開始されると、ステップS41では、撮像部101により取得された画像が画像処理部120に入力される。ステップS42では、第1の画像処理部11は、入力された画像の輝度値の統計量、具体的には輝度ヒストグラムを取得する。 When the flow of the fog haze removal processing is started, in step S41, the image acquired by the imaging unit 101 is input to the image processing unit 120. In step S42, the first image processing unit 11 acquires a statistic of the brightness value of the input image, specifically, a brightness histogram.

ステップS43では、全体制御演算部107は、ステップS42において取得した輝度ヒストグラムからコントラストの大きさを判断する。コントラストが所定値よりも小さければ、霧霞が強くかかっていると判断してステップS44へ進み、コントラストが所定値以上であれば、霧霞がそれほど強くはないと判断してステップS46へ進む。 In step S43, the overall control calculation unit 107 determines the magnitude of contrast from the luminance histogram acquired in step S42. If the contrast is smaller than the predetermined value, it is determined that the fog haze is strong and the process proceeds to step S44. If the contrast is equal to or more than the predetermined value, it is determined that the fog haze is not so strong and the process proceeds to step S46.

ステップS44では、第1の実施形態で説明した第1の階調補正処理の重みを大きくする。ここでは、画像の輪郭部に発生するハローノイズを多少許容してでも、霧霞の除去度合いを強くする。また、ステップS45では、ステップS44で取り切れなかった霧霞を除去するために、第1の実施形態で説明した第2の階調補正処理を行う。そして、霧霞除去処理を終了する。なお、ステップS44とステップS45の順序は逆でも同様な効果が得られる。 In step S44, the weight of the first gradation correction process described in the first embodiment is increased. Here, the degree of removal of fog haze is increased even if the halo noise generated in the outline of the image is allowed to some extent. Further, in step S45, in order to remove the fog haze that could not be removed in step S44, the second gradation correction process described in the first embodiment is performed. Then, the fog haze removal process is completed. The same effect can be obtained even if the order of steps S44 and S45 is reversed.

ステップS46では、コントラストがそれほど小さくはなく霧霞が強くはかかっていないため、画像の輪郭部のハローノイズが発生しないように、第1の階調補正処理の重みを小さくする。ステップS47では、ステップS46で取りきれなかった霧霞を除去するために、第2の階調補正処理の重みを大きくする。そして、霧霞除去処理を終了する。なお、ステップS46とステップS47の順序は逆でも同様な効果が得られる。 In step S46, since the contrast is not so small and the fog haze is not strongly applied, the weight of the first gradation correction process is reduced so that the halo noise of the outline portion of the image is not generated. In step S47, the weight of the second gradation correction process is increased in order to remove the fog haze that could not be removed in step S46. Then, the fog haze removal process is completed. The same effect can be obtained even if the order of steps S46 and S47 is reversed.

以上説明したように、第2の実施形態によれば、霧霞の強さに応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the second embodiment, it is possible to perform an effective fog haze removal treatment according to the strength of the fog haze.

(第3の実施形態)
以下、本発明の画像処理装置の第3の実施形態であるデジタルカメラについて説明する。第3の実施形態におけるデジタルカメラの全体構成も、図1に示した第1の実施形態の構成と同様である。ただし、本実施形態では、画像処理回路121の構成が、第1の実施形態の画像処理回路120の構成とは異なる。この第3の実施形態では、注目領域に応じて、霧霞除去の方式を切り換えて実行する。
(Third Embodiment)
Hereinafter, a digital camera according to a third embodiment of the image processing apparatus of the present invention will be described. The overall configuration of the digital camera in the third embodiment is also the same as the configuration of the first embodiment shown in FIG. However, in the present embodiment, the configuration of the image processing circuit 121 is different from the configuration of the image processing circuit 120 of the first embodiment. In this third embodiment, the method of removing fog haze is switched and executed according to the region of interest.

図5は、第3の実施形態における画像処理回路121の構成を示す図である。画像処理回路121は、注目領域を指定(設定)し、その領域の被写体距離を測定し、被写体距離に応じて階調制御の方式を切り換え、霧霞の除去を行う。 FIG. 5 is a diagram showing the configuration of the image processing circuit 121 according to the third embodiment. The image processing circuit 121 specifies (sets) a region of interest, measures the subject distance in that region, switches the gradation control method according to the subject distance, and removes fog haze.

図5において、画像処理回路121は、第1の画像処理部21、注目領域指定部22、距離情報取得部23、第1のかすみ補正部24、第2のかすみ補正部25、第2の画像処理部26、画像出力部27を備える。 In FIG. 5, the image processing circuit 121 includes a first image processing unit 21, a region of interest designation unit 22, a distance information acquisition unit 23, a first haze correction unit 24, a second haze correction unit 25, and a second image. It includes a processing unit 26 and an image output unit 27.

撮像部101により撮像された画像データは、画像処理回路121に入力される。第1の画像処理部21は、画像データの1段目の画像処理部であり、第1の実施形態で説明した第1の画像処理部11と同様である。注目領域指定部22は、画像データ内で注目したい領域を指定する機能を有し、注目したい領域をユーザーが指定するGUI等を備える。距離情報取得部23は、注目領域指定部22によって指定された注目領域までの距離を測定する。ここで注目領域までの距離は、レンズ部102に配置されたフォーカスレンズやズームレンズの制御情報等を用いて測定する。 The image data captured by the image pickup unit 101 is input to the image processing circuit 121. The first image processing unit 21 is an image processing unit of the first stage of image data, and is the same as the first image processing unit 11 described in the first embodiment. The attention area designation unit 22 has a function of designating an area of interest in the image data, and includes a GUI or the like in which the user specifies the area of interest. The distance information acquisition unit 23 measures the distance to the attention area designated by the attention area designation unit 22. Here, the distance to the region of interest is measured using control information of a focus lens or a zoom lens arranged in the lens unit 102.

第1のかすみ補正部24は、第1の実施形態で説明した第1の階調補正処理を実行する。第2のかすみ補正部25は、第1の実施形態で説明した第2の階調補正処理を実行する。第2の画像処理部26は、第1のかすみ補正部24で補正された画像と第2のかすみ補正部25で補正された画像の選択処理もしくは混合処理、及び2段目の画像処理を行う。第1のかすみ補正部24は、遠い距離にある注目領域の霧霞を除去するのに効果があるため、距離情報取得部23で取得した距離情報が第1の所定距離より遠い場合に、第1のかすみ補正部24が選択される。第2のかすみ補正部25は、近い距離にある注目領域の霧霞を除去するのに効果があるために、距離情報取得部23で取得した距離情報が第2の所定距離より近い場合に、第2のかすみ補正部25が選択される。距離情報取得部23により取得された距離情報が第1の所定距離以下で、第2の所定距離以上の場合には、第1のかすみ補正部24で補正された画像と第2のかすみ補正部25で補正された画像の混合処理(合成処理)を行う。 The first haze correction unit 24 executes the first gradation correction process described in the first embodiment. The second haze correction unit 25 executes the second gradation correction process described in the first embodiment. The second image processing unit 26 performs selection processing or mixing processing of the image corrected by the first haze correction unit 24 and the image corrected by the second haze correction unit 25, and image processing of the second stage. .. Since the first haze correction unit 24 is effective in removing fog haze in a region of interest at a long distance, the first haze correction unit 24 is the first when the distance information acquired by the distance information acquisition unit 23 is farther than the first predetermined distance. The haze correction unit 24 of 1 is selected. Since the second haze correction unit 25 is effective in removing fog haze in a region of interest at a short distance, when the distance information acquired by the distance information acquisition unit 23 is closer than the second predetermined distance, The second haze correction unit 25 is selected. When the distance information acquired by the distance information acquisition unit 23 is less than or equal to the first predetermined distance and greater than or equal to the second predetermined distance, the image corrected by the first haze correction unit 24 and the second haze correction unit The mixed processing (compositing processing) of the images corrected in 25 is performed.

ここで、画像の合成比率は、領域ごとに被写体のエッジ情報を用いて決定する。具体的には、エッジであると考えられる領域に関しては、第1の実施形態で説明した第2の階調補正処理の比率を大きく設定する。一方、平坦であると考えられる領域に関しては、第1の実施形態で説明した第1の階調補正処理の比率を大きく設定する。このような比率で合成することで、エッジ部のハローノイズを抑制しつつ、霧霞除去を効果的に実行することができる。具体的な手順を以下で述べる。 Here, the image composition ratio is determined for each region using the edge information of the subject. Specifically, for the region considered to be an edge, the ratio of the second gradation correction processing described in the first embodiment is set large. On the other hand, with respect to the region considered to be flat, the ratio of the first gradation correction processing described in the first embodiment is set large. By synthesizing at such a ratio, it is possible to effectively remove fog haze while suppressing halo noise at the edge portion. The specific procedure will be described below.

まず始めに、画像からエッジを検出する。エッジ検出の方法として、霧霞が発生している入力画像Iに対して、ソーベルフィルタを実行することで、エッジ情報を濃淡画像として抽出することができる。 First of all, the edges are detected from the image. As a method of edge detection, edge information can be extracted as a shading image by executing a sobel filter on the input image I in which fog haze is generated.

続いて、生成されたエッジ情報(濃度値 F(x,y))に基づき、例えば、式(10)のようにして、混合比率Blend(x,y)を求める。 Subsequently, based on the generated edge information (concentration value F (x, y)), the mixing ratio Blend (x, y) is obtained, for example, as in the formula (10).

Blend(x,y)=F(x,y)/Fmax 式(10)
ここで、Fmaxは濃度値の最大値を示し、混合比率は0.0から1.0の値で正規化される。
Blend (x, y) = F (x, y) / Fmax equation (10)
Here, Fmax indicates the maximum value of the concentration value, and the mixing ratio is normalized by a value of 0.0 to 1.0.

最後に、式(10)の混合比率に基づき、第1のかすみ補正部24で補正された画像Dehaze1(x,y)と、第2のかすみ補正部25で補正された画像Dehaze2(x,y)を式(11)のようにして合成する。 Finally, based on the mixing ratio of the equation (10), the image Dehaze1 (x, y) corrected by the first haze correction unit 24 and the image Dehaze2 (x, y) corrected by the second haze correction unit 25. ) Is synthesized as in the formula (11).

DehazeBlend(x,y)
=(1.0−Blend(x,y))×Dehaze1(x,y)+Blend(x,y)×Dehaze2(x,y)
式(11)
以上のような手順を踏むことで、エッジ部のハローノイズを抑制しつつ、霧霞除去を効果的に実行された混合画像DehazeBlend(x,y)が得られる。
Dehaze Blend (x, y)
= (1.0-Blend (x, y)) x Dehaze1 (x, y) + Blend (x, y) x Dehaze2 (x, y)
Equation (11)
By following the above procedure, a mixed image Dehaze Blend (x, y) in which fog haze removal is effectively performed while suppressing halo noise at the edge portion can be obtained.

なお、第2の画像処理部26は、第1の実施形態で説明した第2の画像処理部15と同様である。各画像処理機能は第1の画像処理部21で行ってもよいし、第2の画像処理部26で行ってもよい。画像出力部27は、画像処理や霧霞除去処理を行った画像を、画像圧縮処理等を行う別の画像処理部や表示部110等に出力する。 The second image processing unit 26 is the same as the second image processing unit 15 described in the first embodiment. Each image processing function may be performed by the first image processing unit 21 or may be performed by the second image processing unit 26. The image output unit 27 outputs an image that has undergone image processing or fog haze removal processing to another image processing unit, display unit 110, or the like that performs image compression processing or the like.

図6は、指定した注目領域の距離に応じて階調制御の方式を切り換えて霧霞の除去を行う動作を示すフローチャートである。 FIG. 6 is a flowchart showing an operation of removing fog haze by switching the gradation control method according to the distance of the designated region of interest.

霧霞除去処理のフローが開始されると、ステップS61では、撮像部101により取得された画像が画像処理部121に入力される。ステップS62では、ユーザーが注目したい領域をGUI等で指定する。ステップS63では、距離情報取得部23が、ユーザーが指定した注目領域までの距離を測定する。注目領域までの距離は、レンズ部102に配置されたフォーカスレンズやズームレンズの制御情報等を用いて測定される。 When the flow of the fog haze removal processing is started, in step S61, the image acquired by the imaging unit 101 is input to the image processing unit 121. In step S62, the area that the user wants to pay attention to is designated by GUI or the like. In step S63, the distance information acquisition unit 23 measures the distance to the region of interest designated by the user. The distance to the region of interest is measured using control information of a focus lens or a zoom lens arranged in the lens unit 102.

ステップS64では、全体制御演算部107は、注目領域に含まれる被写体までの距離が第1の所定距離より遠いか否かを判別する。被写体までの距離が第1の所定距離より遠い場合には、ステップS65に進む。被写体までの距離が第1の所定距離より遠くない場合には、ステップS66に進む。 In step S64, the overall control calculation unit 107 determines whether or not the distance to the subject included in the region of interest is farther than the first predetermined distance. If the distance to the subject is longer than the first predetermined distance, the process proceeds to step S65. If the distance to the subject is not longer than the first predetermined distance, the process proceeds to step S66.

ステップS65では、遠い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第1の階調補正処理を実行する。 In step S65, the first gradation correction process described in the first embodiment, which is effective for removing the fog haze on a distant subject, is executed.

ステップS66では、注目領域に含まれる被写体までの距離が第2の所定距離より近いか否かを判別する。被写体までの距離が第2の所定距離より近い場合には、ステップS67に進む。被写体までの距離が第2の所定距離より近くない場合には、ステップS68に進む。 In step S66, it is determined whether or not the distance to the subject included in the region of interest is closer than the second predetermined distance. If the distance to the subject is closer than the second predetermined distance, the process proceeds to step S67. If the distance to the subject is not closer than the second predetermined distance, the process proceeds to step S68.

ステップS67では、近い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第2の階調補正処理を実行する。ステップS68では、式(10)で求められる合成比率に基づき。第1の実施形態で説明した第1の階調補正処理で得られた画像と第2の階調補正処理で得られた画像を式(11)に示されるように混合処理を行う。このステップS68は、注目領域に含まれる被写体までの距離が第1の所定距離以下で、第2の所定距離以上の場合に実行される。ステップS65、またはS67、またはS68を実行後、霧霞の除去動作を終了する。 In step S67, the second gradation correction process described in the first embodiment, which is effective for removing the fog haze on a nearby subject, is executed. In step S68, based on the synthesis ratio obtained by the formula (10). The image obtained by the first gradation correction process described in the first embodiment and the image obtained by the second gradation correction process are mixed as shown in the equation (11). This step S68 is executed when the distance to the subject included in the region of interest is equal to or less than the first predetermined distance and greater than or equal to the second predetermined distance. After executing step S65, S67, or S68, the fog haze removal operation is terminated.

以上説明したように、第3の実施形態によれば、被写体の距離に応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the third embodiment, it is possible to perform an effective fog haze removal process according to the distance of the subject.

(第4の実施形態)
以下、本発明の画像処理装置の第4の実施形態であるデジタルカメラについて説明する。第4の実施形態における画像処理回路の構成は、図5に示した第3の実施形態の構成と同様である。ただし、本実施形態では、注目領域指定部22は、注目したい被写体を検出して、その被写体が存在する領域を自動で指定する。
(Fourth Embodiment)
Hereinafter, a digital camera according to a fourth embodiment of the image processing apparatus of the present invention will be described. The configuration of the image processing circuit in the fourth embodiment is the same as the configuration of the third embodiment shown in FIG. However, in the present embodiment, the attention area designation unit 22 detects the subject to be focused on and automatically designates the area in which the subject exists.

図7は、注目被写体を検出して、注目被写体までの距離に基づいて階調制御の方式を切り換えて霧霞の除去を行う動作を示すフローチャートである。 FIG. 7 is a flowchart showing an operation of detecting a subject of interest and switching the gradation control method based on the distance to the subject of interest to remove fog haze.

霧霞除去処理のフローが開始されると、ステップS71では、撮像部101により取得された画像が画像処理部121に入力される。ステップS72では、注目したい被写体を検出し、その被写体が存在する領域を自動的に指定する。注目したい被写体を検出するためには、例えばユーザーが注目したい物体や人を指定する。そしてオブジェクト検出やAI技術等を用いて注目したい物体や人を検知し、それらを含む領域を指定する。あるいは動体検知などを用いて動いている物体や人を検知して、それらを含む領域を指定してもよい。 When the flow of the fog haze removal processing is started, in step S71, the image acquired by the imaging unit 101 is input to the image processing unit 121. In step S72, the subject to be noticed is detected, and the area in which the subject exists is automatically specified. In order to detect the subject to be focused on, for example, the user specifies an object or a person to be watched. Then, using object detection, AI technology, etc., the object or person to be noticed is detected, and the area including them is specified. Alternatively, a moving object or person may be detected by using motion detection or the like, and an area including them may be specified.

ステップS73では、距離情報取得部23は、指定された注目被写体を含む領域までの距離を測定する。注目領域までの距離は、レンズ部102に配置されたフォーカスレンズやズームレンズの制御情報等を用いて測定される。 In step S73, the distance information acquisition unit 23 measures the distance to the area including the designated subject of interest. The distance to the region of interest is measured using control information of a focus lens or a zoom lens arranged in the lens unit 102.

ステップS74では、全体制御演算部107は、注目被写体までの距離が第1の所定距離より遠いか否かを判別する。被写体までの距離が第1の所定距離より遠い場合には、ステップS75に進む。被写体までの距離が第1の所定距離より遠くない場合には、ステップS76に進む。 In step S74, the overall control calculation unit 107 determines whether or not the distance to the subject of interest is greater than the first predetermined distance. If the distance to the subject is longer than the first predetermined distance, the process proceeds to step S75. If the distance to the subject is not longer than the first predetermined distance, the process proceeds to step S76.

ステップS75では、遠い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第1の階調補正処理を実行する。 In step S75, the first gradation correction process described in the first embodiment, which is effective for removing the fog haze on a distant subject, is executed.

ステップS76では、注目被写体までの距離が第2の所定距離より近いか否かを判別する。被写体までの距離が第2の所定距離より近い場合には、ステップS77に進む。被写体までの距離が第2の所定距離より近くない場合には、ステップS78に進む。 In step S76, it is determined whether or not the distance to the subject of interest is closer than the second predetermined distance. If the distance to the subject is closer than the second predetermined distance, the process proceeds to step S77. If the distance to the subject is not closer than the second predetermined distance, the process proceeds to step S78.

ステップS77では、近い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第2の階調補正処理を実行する。ステップS78では、第1の実施形態で説明した第1の階調補正処理で得られた画像と第2の階調補正処理で得られた画像の混合処理を行う。このステップS78は、注目被写体までの距離が第1の所定距離以下で、第2の所定距離以上の場合に実行される。ステップS75、またはS77、またはS78を実行後、霧霞の除去動作を終了する。 In step S77, the second gradation correction process described in the first embodiment, which is effective for removing the fog haze on a nearby subject, is executed. In step S78, the image obtained by the first gradation correction process described in the first embodiment and the image obtained by the second gradation correction process are mixed. This step S78 is executed when the distance to the subject of interest is equal to or less than the first predetermined distance and is equal to or greater than the second predetermined distance. After executing step S75, S77, or S78, the fog haze removal operation is terminated.

以上説明したように、第4の実施形態によれば、検出された注目被写体の距離に応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the fourth embodiment, it is possible to perform an effective fog haze removal process according to the detected distance of the subject of interest.

(第5の実施形態)
以下、本発明の画像処理装置の第5の実施形態であるネットワークカメラについて説明する。第5の実施形態における画像処理回路の構成は、図10に示されるように、ネットワークカメラと、ネットワーク、クライアント装置から構成されている。
(Fifth Embodiment)
Hereinafter, a network camera according to a fifth embodiment of the image processing apparatus of the present invention will be described. As shown in FIG. 10, the configuration of the image processing circuit in the fifth embodiment includes a network camera, a network, and a client device.

この第5の実施形態では、クライアント装置で実行される認識・解析アプリに応じて、霧霞除去の方式を切り替えて実行する。本実施形態では、人の顔の識別を行う顔識別アプリ、および、画面内に存在する被写体をカウントする人数カウントアプリを用いて例示的に説明する。 In this fifth embodiment, the fog haze removal method is switched and executed according to the recognition / analysis application executed by the client device. In the present embodiment, a face identification application for identifying a person's face and a number of people counting application for counting a subject existing on the screen will be used as an example.

それぞれのアプリの特徴として、顔識別アプリは、顔の細かな特徴をベースに識別を行うため、前述のハローノイズに代表されるアーチファクトの発生をなるべく抑える必要がある。一方、人数カウントアプリは、細かな構造をベースに検出を行う和ではなく、顔識別アプリと比較すると、より大雑把な構造、形状の検出を行い、人数をカウントする。そのため、人数カウントアプリを実行時に、霧霞を除去する場合、ハローノイズを抑えるよりは、霧霞の除去効果を優先した方が被写体の検出精度が向上する。なお、認識・解析アプリはこれに限るものではなく、例えば、人の動線をヒートマップ化する解析アプリ、特定人物を追尾するアプリ、被写体の属性を解析するアプリ等でもよい。 As a feature of each application, since the face identification application performs identification based on the detailed features of the face, it is necessary to suppress the occurrence of artifacts typified by the above-mentioned halo noise as much as possible. On the other hand, the number of people counting application is not a sum that detects based on a detailed structure, but detects a rougher structure and shape as compared with a face recognition application, and counts the number of people. Therefore, when removing fog haze when running the number counting app, prioritizing the fog haze removal effect rather than suppressing halo noise improves the subject detection accuracy. The recognition / analysis application is not limited to this, and may be, for example, an analysis application that heat-maps a person's movement line, an application that tracks a specific person, an application that analyzes the attributes of a subject, and the like.

図11は、本実施形態において霧霞除去を行う動作を示すフローチャートである。 FIG. 11 is a flowchart showing an operation of removing fog haze in the present embodiment.

霧霞除去処理のフローが開始されると、ステップS111では、撮像部101により取得された画像が画像処理部121に入力される。ステップS112では、クライアント装置で実行される認識・解析アプリの情報を取得する。 When the flow of the fog haze removal processing is started, in step S111, the image acquired by the imaging unit 101 is input to the image processing unit 121. In step S112, the information of the recognition / analysis application executed by the client device is acquired.

ステップS113では、全体制御演算部107は、取得された認識・解析アプリの種類が顔識別アプリであるか否かを判別する。顔識別アプリである場合には、ステップS114に進む。顔識別アプリでない場合には、ステップS115に進む。 In step S113, the overall control calculation unit 107 determines whether or not the acquired recognition / analysis application type is a face identification application. If it is a face recognition application, the process proceeds to step S114. If it is not a face recognition application, the process proceeds to step S115.

ステップS114では、弊害を抑えつつ、霧霞を除去するのに効果的な第1の実施形態で説明した第2の階調補正処理を実行する。 In step S114, the second gradation correction process described in the first embodiment, which is effective for removing fog haze, is executed while suppressing adverse effects.

ステップS115では、取得された認識・解析アプリの種類が人数カウントアプリであるか否かを判別する。人数カウントアプリである場合には、ステップS116に進む。顔識別アプリでも人数カウントアプリでもない場合は、ステップS117に進む。 In step S115, it is determined whether or not the acquired recognition / analysis application type is a number counting application. If it is a number counting application, the process proceeds to step S116. If it is neither a face recognition application nor a number counting application, the process proceeds to step S117.

ステップS116では、遠い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第1の階調補正処理を実行する。 In step S116, the first gradation correction process described in the first embodiment, which is effective for removing the fog haze on a distant subject, is executed.

ステップS117では、第3の実施形態で説明したステップS68と同様に、エッジ情報に基づき、第1の階調補正処理で得られた画像と第2の階調補正処理で得られた画像の混合処理を行う。ステップS114、またはステップS116、またはステップS117を実行後、霧霞の除去動作を終了する。 In step S117, similarly to step S68 described in the third embodiment, the image obtained by the first gradation correction process and the image obtained by the second gradation correction process are mixed based on the edge information. Perform processing. After executing step S114, step S116, or step S117, the fog haze removal operation is terminated.

以上説明したように、第5の実施形態によれば、クライアント装置で実行される認識・解析アプリに応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the fifth embodiment, it is possible to perform an effective fog haze removal process according to the recognition / analysis application executed by the client device.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

100:デジタルカメラ、101:撮像部、102:レンズ部、104:撮像信号処理回路、107:全体制御演算部、120,121:画像処理回路 100: Digital camera, 101: Image pickup unit, 102: Lens section, 104: Image pickup signal processing circuit, 107: Overall control calculation unit, 120, 121: Image processing circuit

Claims (22)

画像データを取得する取得手段と、
前記画像データの領域毎のダークチャネル値を取得して透過率を推定し、階調を補正する第1の階調補正手段と、
トーンカーブを用いて前記画像データの階調を補正する第2の階調補正手段と、
どの階調補正手段を用いて階調補正を行うかを制御する制御手段と、
を備えることを特徴とする画像処理装置。
Acquisition method for acquiring image data and
A first gradation correction means that acquires a dark channel value for each region of the image data, estimates the transmittance, and corrects the gradation.
A second gradation correction means for correcting the gradation of the image data using a tone curve, and
A control means for controlling which gradation correction means is used for gradation correction, and
An image processing device characterized by comprising.
前記制御手段は、前記第1の階調補正手段と前記第2の階調補正手段の一方に前記画像データの第1段の階調補正を行わせ、該第1段の階調補正を行った後の画像データの補正結果に基づいて、前記第1の階調補正手段と前記第2の階調補正手段の他方に、前記第1段の階調補正を行った後の画像データに対する第2段の階調補正を行わせることを特徴とする請求項1に記載の画像処理装置。 The control means causes one of the first gradation correction means and the second gradation correction means to perform the gradation correction of the first stage of the image data, and performs the gradation correction of the first stage. Based on the correction result of the image data after that, the image data after the first stage gradation correction is performed on the other of the first gradation correction means and the second gradation correction means. The image processing apparatus according to claim 1, wherein two-step gradation correction is performed. 前記制御手段は、前記第1段の階調補正を行った後の画像データのコントラストが所定値より低い場合に、前記第1の階調補正手段と前記第2の階調補正手段の他方に、前記第1段の階調補正を行った後の画像データに対する前記第2段の階調補正を行わせることを特徴とする請求項2に記載の画像処理装置。 When the contrast of the image data after performing the gradation correction of the first stage is lower than a predetermined value, the control means is used on the other of the first gradation correction means and the second gradation correction means. The image processing apparatus according to claim 2, wherein the second-stage gradation correction is performed on the image data after the first-stage gradation correction is performed. 前記コントラストは、前記第1段の階調補正を行った後の画像データの輝度ヒストグラムに基づいて算出されることを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the contrast is calculated based on a luminance histogram of the image data after the gradation correction of the first stage is performed. 前記制御手段は、前記第1の階調補正手段と前記第2の階調補正手段の他方に、前記コントラストが目標とする値に達するまで、前記第2段の階調補正を行わせることを特徴とする請求項3または4に記載の画像処理装置。 The control means causes the other of the first gradation correction means and the second gradation correction means to perform the second stage gradation correction until the contrast reaches a target value. The image processing apparatus according to claim 3 or 4. 前記制御手段は、前記第1の階調補正手段に、前記第1段の階調補正を行わせることを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 2 to 5, wherein the control means causes the first gradation correction means to perform gradation correction in the first stage. 前記制御手段は、前記第2の階調補正手段に、前記第1段の階調補正を行わせることを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 2 to 5, wherein the control means causes the second gradation correction means to perform gradation correction in the first stage. 前記制御手段は、前記第1の階調補正手段に、時間をかけて徐々に階調補正を行わせ、画像データの輪郭部に白領域が抽出された場合に、前記第1の階調補正手段の階調補正動作を停止させることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 The control means causes the first gradation correction means to gradually perform gradation correction over time, and when a white region is extracted from the outline portion of the image data, the first gradation correction The image processing apparatus according to any one of claims 1 to 7, wherein the gradation correction operation of the means is stopped. 前記画像データの輝度値の統計量の分散値を算出する算出手段をさらに備え、算出された前記分散値が所定値より小さい場合に、前記制御手段は、前記第1の階調補正手段による階調補正を強くするとともに、前記第2の階調補正手段による階調補正を弱くすることを特徴とする請求項1に記載の画像処理装置。 A calculation means for calculating a dispersion value of a statistic of the brightness value of the image data is further provided, and when the calculated dispersion value is smaller than a predetermined value, the control means is a floor by the first gradation correction means. The image processing apparatus according to claim 1, wherein the gradation correction is strengthened and the gradation correction by the second gradation correction means is weakened. 前記画像データの輝度値の統計量の分散値を算出する算出手段をさらに備え、算出された前記分散値が所定値以上の場合に、前記制御手段は、前記第1の階調補正手段による階調補正を弱くするとともに、前記第2の階調補正手段による階調補正を強くすることを特徴とする請求項1に記載の画像処理装置。 A calculation means for calculating the variance value of the statistic of the brightness value of the image data is further provided, and when the calculated dispersion value is equal to or more than a predetermined value, the control means is a floor by the first gradation correction means. The image processing apparatus according to claim 1, wherein the gradation correction is weakened and the gradation correction by the second gradation correction means is strengthened. 前記画像データにおける注目被写体を設定する設定手段と、前記注目被写体までの距離を測定する測定手段とをさらに備え、前記制御手段は、前記注目被写体までの距離に基づいて、前記第1の階調補正手段の階調補正動作と、前記第2の階調補正手段の階調補正動作とを制御することを特徴とする請求項1に記載の画像処理装置。 The control means further includes a setting means for setting the subject of interest in the image data and a measuring means for measuring the distance to the subject of interest, and the control means has the first gradation based on the distance to the subject of interest. The image processing apparatus according to claim 1, wherein the gradation correction operation of the correction means and the gradation correction operation of the second gradation correction means are controlled. 前記画像データを用いて解析を行う解析手段をさらに備え、前記解析手段の解析の結果に基づいて、前記第1の階調補正手段の階調補正動作と、前記第2の階調補正手段の階調補正動作とを制御することを特徴とする請求項1に記載の画像処理装置。 An analysis means for performing analysis using the image data is further provided, and based on the analysis result of the analysis means, the gradation correction operation of the first gradation correction means and the gradation correction operation of the second gradation correction means The image processing apparatus according to claim 1, wherein the gradation correction operation is controlled. 前記制御手段は、前記注目被写体までの距離が第1の所定の距離よりも遠い場合に、前記第1の階調補正手段に、前記画像データの階調補正を行わせることを特徴とする請求項11に記載の画像処理装置。 A claim characterized in that the control means causes the first gradation correction means to perform gradation correction of the image data when the distance to the subject of interest is longer than the first predetermined distance. Item 11. The image processing apparatus according to item 11. 前記制御手段は、前記注目被写体までの距離が第2の所定の距離よりも近い場合に、前記第2の階調補正手段に、前記画像データの階調補正を行わせることを特徴とする請求項11に記載の画像処理装置。 A claim characterized in that the control means causes the second gradation correction means to perform gradation correction of the image data when the distance to the subject of interest is closer than a second predetermined distance. Item 11. The image processing apparatus according to item 11. 前記制御手段は、前記注目被写体までの距離が第1の所定の距離以下で、前記第1の所定の距離よりも小さい第2の所定の距離以上である場合に、前記第1の階調補正手段による前記画像データの階調補正の結果と、前記第2の階調補正手段による前記画像データの階調補正の結果とを合成することを特徴とする請求項11に記載の画像処理装置。 When the distance to the subject of interest is equal to or less than the first predetermined distance and is equal to or greater than the second predetermined distance smaller than the first predetermined distance, the control means corrects the first gradation. The image processing apparatus according to claim 11, wherein the result of gradation correction of the image data by the means and the result of gradation correction of the image data by the second gradation correction means are combined. 前記画像データのエッジ情報を検出するエッジ検出手段をさらに備え、検出されたエッジ情報に基づいて、前記合成の比率を算出することを特徴とする請求項15に記載の画像処理装置。 The image processing apparatus according to claim 15, further comprising an edge detecting means for detecting the edge information of the image data, and calculating the ratio of the composition based on the detected edge information. 前記注目被写体をユーザーが指定する指定手段をさらに備えることを特徴とする請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11, further comprising a designation means for designating the subject of interest by the user. 前記注目被写体を自動的に指定する指定手段をさらに備えることを特徴とする請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11, further comprising a designating means for automatically designating the subject of interest. 被写体を撮像する撮像手段と、
請求項1乃至18のいずれか1項に記載の画像処理装置と、
を備えることを特徴とする撮像装置。
An imaging means that captures the subject,
The image processing apparatus according to any one of claims 1 to 18.
An imaging device characterized by comprising.
画像データを取得する取得工程と、
前記画像データの領域毎のダークチャネル値を取得して透過率を推定し、階調を補正する第1の階調補正工程と、
トーンカーブを用いて前記画像データの階調を補正する第2の階調補正工程と、
どの階調補正工程を用いて階調補正を行うかを制御する制御工程と、
を有することを特徴とする画像処理方法。
The acquisition process to acquire image data and
The first gradation correction step of acquiring the dark channel value for each region of the image data, estimating the transmittance, and correcting the gradation,
A second gradation correction step of correcting the gradation of the image data using a tone curve, and
A control process that controls which gradation correction process is used to perform gradation correction,
An image processing method characterized by having.
コンピュータを、請求項1乃至18のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 18. コンピュータを、請求項1乃至18のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores a program for causing the computer to function as each means of the image processing apparatus according to any one of claims 1 to 18.
JP2020028363A 2019-05-27 2020-02-21 Image processing device, image processing method, imaging device, program, and storage medium Active JP7510258B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/881,425 US11301974B2 (en) 2019-05-27 2020-05-22 Image processing apparatus, image processing method, image capturing apparatus, and storage medium
EP20176632.6A EP3745348B1 (en) 2019-05-27 2020-05-26 Image processing for removing fog or haze in images
CN202010460486.2A CN112001853A (en) 2019-05-27 2020-05-27 Image processing apparatus, image processing method, image capturing apparatus, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019098808 2019-05-27
JP2019098808 2019-05-27

Publications (2)

Publication Number Publication Date
JP2020195127A true JP2020195127A (en) 2020-12-03
JP7510258B2 JP7510258B2 (en) 2024-07-03

Family

ID=73548076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020028363A Active JP7510258B2 (en) 2019-05-27 2020-02-21 Image processing device, image processing method, imaging device, program, and storage medium

Country Status (1)

Country Link
JP (1) JP7510258B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5004305B2 (en) 2008-09-04 2012-08-22 株式会社リコー Image processing apparatus, image processing method, program, and recording medium
CN103700079A (en) 2013-12-17 2014-04-02 中国科学院深圳先进技术研究院 Image defogging method and device
CN104463816A (en) 2014-12-02 2015-03-25 苏州大学 Image processing method and device
CN105574830B (en) 2016-02-04 2020-02-21 沈阳工业大学 Low-quality image enhancement method under extreme weather condition
CN106548463B (en) 2016-10-28 2019-05-10 大连理工大学 Sea fog image automatic defogging method and system based on dark and Retinex
CN107277299B (en) 2017-07-27 2020-08-18 Oppo广东移动通信有限公司 Image processing method, image processing device, mobile terminal and computer readable storage medium
CN107481202B (en) 2017-08-14 2020-08-04 深圳市华星光电半导体显示技术有限公司 Method for enhancing dynamic range of image
CN111148965B (en) 2017-09-27 2022-01-25 索尼公司 Information processing apparatus, information processing method, control apparatus, and image processing apparatus
CN107767353A (en) 2017-12-04 2018-03-06 河南工业大学 A kind of adapting to image defogging method based on definition evaluation

Also Published As

Publication number Publication date
JP7510258B2 (en) 2024-07-03

Similar Documents

Publication Publication Date Title
US20210365720A1 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
KR101662846B1 (en) Apparatus and method for generating bokeh in out-of-focus shooting
JP4748244B2 (en) Image selection apparatus, image selection method, and program
US8698910B2 (en) Apparatus, camera, method, and computer-readable storage medium for generating advice for capturing an image
US8116521B2 (en) Moving body image extraction apparatus and computer readable storage medium storing program
JP6961797B2 (en) Methods and devices for blurring preview photos and storage media
KR101590868B1 (en) A image processing method an image processing apparatus a digital photographing apparatus and a computer-readable storage medium for correcting skin color
US8917938B2 (en) Method for estimating blur degree of image and method for evaluating image quality
JP2017138647A (en) Image processing device, image processing method, video photographing apparatus, video recording reproduction apparatus, program and recording medium
EP3745348B1 (en) Image processing for removing fog or haze in images
CN107533756B (en) Image processing device, imaging device, image processing method, and storage medium storing image processing program for image processing device
JP6818463B2 (en) Image processing equipment, image processing methods and programs
JP2012256168A (en) Image processing device and image pickup device
US8711250B2 (en) Image signal processing apparatus and image signal processing method
US20180018759A1 (en) Image artifact detection and correction in scenes obtained from multiple visual images
JP7510258B2 (en) Image processing device, image processing method, imaging device, program, and storage medium
CN113379631B (en) Image defogging method and device
US20220343529A1 (en) Image signal processing based on virtual superimposition
US9135687B2 (en) Threshold setting apparatus, threshold setting method and recording medium in which program for threshold setting method is stored
KR101634246B1 (en) Method for providing standing out degree information of subject and digital photographing apparatus applying the method
US20230276127A1 (en) Image processing apparatus and image processing method
Husain et al. Different Haze Image Conditions for Single Image Dehazing Method
JP2017151562A (en) Image processing device, imaging device, control method and program therefor
JP2021013056A (en) Image processing device, imaging apparatus, image processing method, and program
JP2009258771A (en) Image processing method, image processor, image processing program ,and imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240621

R150 Certificate of patent or registration of utility model

Ref document number: 7510258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150