WO2015119271A1 - 画像処理装置、撮像装置、画像処理方法、コンピュータにより処理可能な一時的でない記憶媒体 - Google Patents
画像処理装置、撮像装置、画像処理方法、コンピュータにより処理可能な一時的でない記憶媒体 Download PDFInfo
- Publication number
- WO2015119271A1 WO2015119271A1 PCT/JP2015/053510 JP2015053510W WO2015119271A1 WO 2015119271 A1 WO2015119271 A1 WO 2015119271A1 JP 2015053510 W JP2015053510 W JP 2015053510W WO 2015119271 A1 WO2015119271 A1 WO 2015119271A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- correction
- correction coefficient
- unit
- value
- deterioration
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 67
- 238000003384 imaging method Methods 0.000 title claims description 19
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000012937 correction Methods 0.000 claims abstract description 318
- 230000003044 adaptive effect Effects 0.000 claims abstract description 24
- 230000015556 catabolic process Effects 0.000 claims abstract description 16
- 238000006731 degradation reaction Methods 0.000 claims abstract description 16
- 238000001514 detection method Methods 0.000 claims abstract description 16
- 230000006866 deterioration Effects 0.000 claims description 53
- 238000006243 chemical reaction Methods 0.000 claims description 30
- 238000010606 normalization Methods 0.000 claims description 14
- 230000001186 cumulative effect Effects 0.000 claims description 12
- 230000002708 enhancing effect Effects 0.000 claims description 6
- 230000007423 decrease Effects 0.000 claims description 4
- 230000006978 adaptation Effects 0.000 claims 1
- 230000037303 wrinkles Effects 0.000 description 83
- 235000019557 luminance Nutrition 0.000 description 45
- 238000010586 diagram Methods 0.000 description 18
- 239000004071 soot Substances 0.000 description 16
- 238000007906 compression Methods 0.000 description 13
- 230000006835 compression Effects 0.000 description 12
- 210000000744 eyelid Anatomy 0.000 description 12
- 238000012546 transfer Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 238000005375 photometry Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/407—Control or modification of tonal gradation or of extreme levels, e.g. background level
- H04N1/4072—Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
- H04N1/4074—Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original using histograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20008—Globally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Definitions
- the present invention relates to an image processing apparatus, an image processing method, an image processing program, and an imaging apparatus for correcting an image in which image quality such as contrast and color is impaired due to, for example, the influence of fog or fog.
- Image quality such as contrast and color of the image may be lost due to the influence of haze and fog generated in the atmosphere.
- a landscape photograph of a distant mountain etc. may be taken outdoors. If a haze is hung on a distant mountain during this shooting, the quality of the image taken with this hail may be impaired, and the visibility of the distant mountain may be reduced.
- Patent Documents 1 and 2 are, for example, Patent Documents 1 and 2 as techniques for solving such problems.
- Patent Document 1 calculates the maximum value and minimum value of luminance from within an image, and performs contrast correction so as to increase the difference between the calculated maximum value and minimum value, thereby improving the visibility of the image. Is disclosed. If it is this patent document 1, the sufficient effect of improving visibility with respect to the image in which the whole image was uniformly wrinkled can be acquired.
- Patent Document 2 discloses that the maximum and minimum luminances are calculated for each local region of an image, and adaptive contrast correction is performed so that the difference between the maximum and minimum values becomes large. According to Patent Document 2, sufficient contrast correction can be performed to improve visibility even in an image in which a region having no wrinkles and a region having wrinkles are mixed.
- Patent Document 1 uses the maximum value and the minimum value of the luminance of the entire image, there may be a case where a wrinkled area and a wrinkled area are mixed in the image. In this case, since the difference between the maximum value and the minimum value of the luminance tends to increase originally, the effect of improving the visibility of the image cannot be sufficiently obtained.
- Patent Document 2 performs processing based on the maximum value and the minimum value of the luminance in the local region of the image regardless of the shade of the cocoon. For this reason, excessive contrast correction may be performed on an area that is originally free of wrinkles, which increases the sense of discomfort in the corrected image.
- the present invention relates to an image processing device, an imaging device, and an image that can improve the visibility of a wrinkled region by estimating the shading of the wrinkle component and performing adaptive gradation correction according to the shading of the wrinkle component It is an object to provide a processing method and a non-transitory storage medium that can be processed by a computer.
- An image processing apparatus calculates a deterioration level detection unit that detects a deterioration level of image quality for each area of a predetermined size in image data, and calculates a correction coefficient for tone correction for each area of the image data.
- An adaptive level corresponding to the degree of deterioration of the image data based on the degree of deterioration detected by the correction coefficient calculating unit, the degree of deterioration detecting unit, and the correction coefficient calculated by the correction coefficient calculating unit.
- an adaptive tone correction unit that performs tone correction.
- the imaging device of the present invention detects an image sensor that captures an optical image from a subject, and a degree of deterioration in image quality of image data acquired by imaging of the image sensor, and the image data according to the degree of deterioration is detected.
- the image processing apparatus which performs adaptive gradation correction according to a degree of deterioration, and an output unit that outputs the image data subjected to gradation correction by the image processing apparatus.
- the image processing method of the present invention detects a deterioration degree of image quality for each area of a predetermined size in image data, calculates a correction coefficient for gradation correction for each area of the image data, Based on the correction coefficient, adaptive gradation correction according to the degree of deterioration of the image data is performed.
- the non-temporary storage medium that can be processed by the computer according to the present invention includes a deterioration degree detection function that causes the computer to detect a deterioration degree of image quality for each area of a predetermined size in the image data, and a level for each area of the image data. Based on a correction coefficient calculation function for calculating a correction coefficient for tone correction, the deterioration level detected by the deterioration level detection unit, and the correction coefficient calculated by the correction coefficient calculation unit. An image processing program for realizing an adaptive gradation correction function for performing adaptive gradation correction according to the degree of deterioration is stored.
- an image processing device an imaging device, an image processing method, and a non-temporary storage medium that can be processed by a computer, which perform an appropriate contrast correction according to the density of the wrinkles and obtain a high-quality image.
- FIG. 1 is a block diagram showing an image pickup apparatus to which the first embodiment of the image processing apparatus according to the present invention is applied.
- FIG. 2 is a specific block diagram showing a wrinkle correction unit in the apparatus.
- FIG. 3A is a schematic diagram illustrating the input image for explaining the estimation of the heel component H (x, y) of each pixel of the input image by the apparatus.
- FIG. 3B is a diagram illustrating a soot component H (x, y) obtained by imaging min (Ir, Ig, Ib) for each target pixel acquired by the apparatus.
- FIG. 4A is a diagram illustrating scanning of a local region with respect to an input image by a correction coefficient calculation unit in the apparatus.
- FIG. 4B is a diagram showing a local region histogram generated by a correction coefficient calculation unit in the apparatus.
- FIG. 4C is a diagram showing a cumulative histogram generated by a correction coefficient calculation unit in the apparatus.
- FIG. 5 is a schematic diagram showing a contrast correction operation by the contrast correction unit in the apparatus.
- FIG. 6 is a flowchart of a photographing operation in the apparatus.
- FIG. 7 is a flowchart of the eyelid component correction operation in the apparatus.
- FIG. 8 is a specific block diagram showing a wrinkle correction unit in the second embodiment of the imaging apparatus according to the present invention.
- FIG. 9 is a diagram illustrating a weight value for a luminance signal used for processing of the wrinkle correction unit in the apparatus.
- FIG. 9 is a diagram illustrating a weight value for a luminance signal used for processing of the wrinkle correction unit in the apparatus.
- FIG. 10 is a diagram illustrating a weight value for a saturation signal used for processing of the wrinkle correction unit in the apparatus.
- FIG. 11 is a specific block diagram showing a wrinkle correction unit in the third embodiment of the imaging apparatus according to the present invention.
- FIG. 12 is a diagram showing the saturation correction coefficient of the color correction unit in the apparatus.
- FIG. 1 is a block diagram of an imaging apparatus to which an image processing apparatus is applied.
- a thick solid line arrow indicates the flow of the video signal
- a thin solid line arrow indicates the flow of the control signal
- a dotted line arrow indicates the flow of the other signals. The same applies to FIG. 2, FIG. 8, and FIG.
- the lens system 100 includes a focus lens, a diaphragm 101, and the like.
- the lens system 100 forms a light image from the subject on the image sensor 102.
- the lens system 100 includes an autofocus motor (AF motor) 103.
- a lens control unit 107 is connected to the AF motor 103.
- the lens control unit 107 controls driving of the AF motor 103. Accordingly, the lens system 100 moves the focus lens along the optical axis direction of the lens system 100 by driving the AF motor 103.
- An imaging sensor 102 is provided on the optical axis of the lens system 100.
- the image sensor 102 receives the optical image from the lens system 100, performs photoelectric conversion, and outputs RGB analog video signals.
- a buffer 105, a signal processing unit 108, a wrinkle correction unit 109, a compression unit 110, and an output unit 111 are connected to the output end of the image sensor 102 via an A / D converter 104.
- the A / D converter 104 converts the RGB analog video signal output from the imaging sensor 102 into an RGB digital video signal.
- the buffer 105 temporarily stores the digital video signal transferred from the A / D converter 104.
- the photometric evaluation unit 106 controls the aperture 101 of the lens system 100 based on the luminance information of the digital video signal stored in the buffer 105 and the control signal output from the control unit 112, and is output from the imaging sensor 102. Adjust the output level of the analog video signal.
- the signal processing unit 108 performs image processing such as known interpolation processing, WB correction processing, and noise reduction processing on the digital video signal stored in the buffer 105, and the digital video signal after the image processing is converted into a wrinkle correction unit. 109.
- the wrinkle correction unit 109 receives the digital video signal transferred from the signal processing unit 108, and performs correction for enhancing the contrast in a region of the digital video signal in which the contrast is lowered due to the influence of wrinkles.
- the wrinkle correction unit 109 transfers the corrected digital video signal to the compression unit 110.
- FIG. 2 shows a specific block configuration diagram of an example of the wrinkle correction unit 109.
- the wrinkle correction unit 109 includes a wrinkle component estimation unit (deterioration degree detection unit) 200, a correction coefficient calculation unit 201, and a contrast correction unit (adaptive gradation correction unit) 202.
- the digital video signal output from the signal processing unit 108 is input to the eyelid component estimation unit 200, the correction coefficient calculation unit 201, and the contrast correction unit 202, respectively.
- the operations of the eyelid component estimation unit 200, the correction coefficient calculation unit 201, and the contrast correction unit 202 are controlled by the control unit 112, respectively.
- the wrinkle component estimated by the wrinkle component estimation unit 200 and the correction coefficient calculated by the correction coefficient calculation unit 201 are transferred to the contrast correction unit 202, respectively.
- the soot component estimation unit 200 receives the digital video signal transferred from the signal processing unit 108 and estimates the density of the component that degrades the image quality of the image data acquired from the digital video signal.
- a factor that lowers the image quality of the image data is expressed as a degree of deterioration.
- the degree of deterioration is a factor that impairs image quality such as contrast or color of image data and degrades image recognizability.
- the degree of deterioration includes, for example, the density of a component that lowers the image quality due to light white, such as a haze component, a haze component, or a component that becomes turbid, included in image data.
- the estimation of the deterioration level of the soot component is performed based on the feature that the soot component has high luminance and low saturation. As a result, the degree of deterioration indicates that the higher the luminance and the lower the saturation, the larger the deterioration.
- the estimation of the degree of deterioration compares the sizes of a plurality of color channels in each pixel of the image data, that is, the R value, G value, and B value, and becomes the minimum value among these R value, G value, and B value.
- R value, G value or B value is calculated.
- the eyelid component estimation unit 200 receives a digital video signal transferred from the signal processing unit 108, acquires image data (hereinafter referred to as an input image I) from the digital video signal, The R value, G value, and B value of each pixel at the coordinates (x, y) are detected, and the wrinkle component (how much wrinkle is applied, the concentration of wrinkles) based on the R value, G value, and B value. Etc.).
- the heel component at the coordinate (x, y) is H (x, y) and the R value at the coordinate (x, y).
- FIG. 3A is a schematic diagram of the input image I for explaining the estimation of the haze component H (x, y) of each pixel.
- a scan area (small area) F formed in a matrix of a predetermined size n ⁇ m (n and m are natural numbers) is preset.
- the scan area F is formed in a 5 ⁇ 5 pixel matrix, for example.
- the scan area F has a matrix-like center as a target pixel.
- the scan area F may be, for example, one pixel.
- the eyelid component estimation unit 200 scans the scan area F for each pixel of the input image I.
- the ⁇ component estimation unit 200 calculates min (Ir, Ig, Ib) for each pixel that is a target pixel on the input image I during scanning of the scan region F, and uses the min (Ir, Ig, Ib) as a ⁇ component. Let H (x, y). More specifically, the eyelid component estimation unit 200 performs, for each pixel of the input image I during scanning of the scan area F, each min (Ir, Ig, Ib) is calculated. That is, the eyelid component estimation unit 200 calculates min (Ir, Ig, Ib) for all the pixels in the scan region F.
- the heel component estimation unit 200 obtains the minimum value min (Ir, Ig, Ib) among the respective min (Ir, Ig, Ib), and uses the min (Ir, Ig, Ib) as the heel component of the target pixel.
- H (x, y) min (Ir, Ig, Ib).
- the wrinkle component estimation unit 200 calculates the wrinkle component H (x, y) of the target pixel as the degree of deterioration of the target pixel or the degree of deterioration of the scan region F. As will be described later, the greater the soot component H (x, y), the greater the degree of deterioration.
- FIG. 3B shows a saddle component H (x, y) obtained by imaging min (Ir, Ig, Ib) for each pixel of interest.
- the R value, G value, and B value of the pixel values in the high luminance and low saturation region are equal and large.
- the value of the right side min (Ir, Ig, Ib) of the above equation (1) indicating the soot component H (x, y) increases. That is, the haze component H (x, y) takes a large value in a region with high luminance and low saturation. That is, it can be considered that the degree of deterioration is large.
- the pixel value in the low luminance or high saturation region is any of the R value, the G value, and the B value
- the value of min (Ir, Ig, Ib) is small. That is, the haze component H (x, y) has a small value in the low luminance or high saturation region. That is, it can be considered that the degree of deterioration is small.
- the soot component H (x, y) has the following characteristics. That is, the soot component H (x, y) becomes a larger value as the soot concentration is higher, indicating that the degree of deterioration is greater. The soot component H (x, y) becomes a smaller value as the soot concentration is lower, indicating that the degree of deterioration is smaller.
- the correction coefficient calculation unit 201 calculates a correction coefficient (gain coefficient) for gradation correction for each pixel of the input image I during scanning of the scan area F with respect to the input image I.
- the correction coefficient calculation unit 201 calculates a correction coefficient for performing correction for enhancing the contrast of a low contrast area in the input image I.
- the correction coefficient calculation unit 201 calculates the correction coefficient without considering the soot component H (x, y).
- the local area E is preset in the correction coefficient calculation unit 201.
- the local region E is formed in a matrix of a predetermined size k ⁇ l (k and l are natural numbers).
- the local region E has a matrix-like center as a target pixel.
- the correction coefficient calculation unit 201 scans the inside of the local region E with respect to the input image I as shown in FIG. 4A.
- the correction coefficient calculation unit 201 scans the inside of the local region E with respect to the input image I, and for each target pixel, the R value and G value in the local region E centering on the target pixel as shown in FIG. 4B.
- B value histograms (local region histograms) are generated.
- the horizontal axis of the histogram shown in the figure represents the luminance component of the R value, G value, or B value, and the vertical axis represents the frequency (number of pixels).
- the correction coefficient calculation unit 201 accumulates the histograms of the local regions generated for each pixel of interest in the input image I to generate a cumulative histogram as shown in FIG. 4C.
- the horizontal axis of the cumulative histogram shown in FIG. 4C indicates the luminance component of the R value, the G value, or the B value.
- the vertical axis represents the cumulative frequency (the number of cumulative pixels) of the color pixels corresponding to the luminance component of the R value, G value or B value, or the tone correction of the color pixel corresponding to the luminance component of the R value, G value or B value.
- the output value after (histogram flattening) is shown.
- a known image processing technique may be used as a method for performing gradation correction (histogram flattening) from the cumulative histogram.
- the correction coefficient calculation unit 201 calculates correction coefficients (gain coefficients) gainR, gainG, and gainB for the R value, G value, and B value of the target pixel based on the cumulative histogram.
- the R value, the G value, and the B value of the pixel of interest (x, y) are I_r (x, y), I_g (x, y), and I_b (x, y), respectively.
- the R value, G value, and B value calculated corresponding to the corrected output image (corrected image RP) based on the cumulative histogram shown in FIG. 4C are Io_r (x, y), Io_g (x, y), and Io_b, respectively.
- the correction coefficient calculation unit 201 calculates the correction coefficients gainR, gainG, and gainB for flattening the histogram of the local area for each pixel of the input image I.
- Each of the correction coefficients gainR, gainG, and gainB is a gain coefficient that is multiplied for each of the color channels R, G, and B having a plurality of pixels of the input image I.
- the correction coefficients gainR, gainG, and gainB are calculated using the pixel information (for example, histogram, maximum value / minimum value, etc.) in the local region E, specifying the local region E centered on the target pixel.
- the correction coefficient calculation unit 201 transfers the calculated correction coefficients gainR, gainG, and gainB to the contrast correction unit 202.
- the contrast correction unit (adaptive gradation correction unit) 202 is based on the haze component H (x, y) estimated by the haze component estimation unit 200 and the correction coefficients gainR, gainG, and gainB calculated by the correction coefficient calculation unit 201.
- adaptive gradation correction (contrast correction) according to the haze component H (x, y) of the input image I is performed. That is, the contrast correction unit 202 inputs the wrinkle component H (x, y) estimated by the wrinkle component estimation unit 200 and the correction coefficients gainR, gainG, and gainB calculated by the correction coefficient calculation unit 201, and inputs the wrinkle component. Contrast correction by gain multiplication is performed for each pixel of the input image I based on H (x, y) and the correction coefficients gainR, gainG, and gainB.
- the contrast correction unit 202 adjusts the correction coefficients gainR, gainG, and gainB according to the wrinkle component H (x, y) for each pixel of the input image I as shown in FIG.
- the contrast correction unit 202 multiplies the adjusted correction coefficients gainR, gainG, and gainB by the pixel value of each pixel to obtain a corrected image RP that has undergone contrast correction.
- the contrast correction unit 202 adjusts the correction coefficients gainR, gainG, and gainB so as to retain the original values for a dark region in the input image I, that is, a region with high luminance and low saturation.
- the contrast correction unit 202 adjusts the correction coefficients gainR, gainG, and gainB to be close to 1.0 with respect to a region with a light wrinkle in the input image I, that is, a region with low luminance or high saturation.
- the contrast correction unit 202 normalizes the correction coefficients gainR, gainG, and gainB calculated by the correction coefficient calculation unit 201 based on the haze component H (x, y) estimated by the haze component estimation unit 200, that is, Perform weighting.
- the contrast correction unit 202 performs contrast correction on each pixel using the correction coefficients gainR ′, gainG ′, and gainB ′ adjusted by weighting.
- the contrast correction unit 202 includes a normalization coefficient calculation unit 202a and a coefficient conversion unit 202b.
- the normalization coefficient calculation unit 202a calculates a normalization coefficient obtained by normalizing, ie, weighting, the heel component H (x, y) estimated by the heel component estimation unit 200.
- the coefficient conversion unit 202b is configured to weight each correction coefficient gainR, gainG, gainB calculated by the correction coefficient calculation unit 201 based on the normalization coefficient calculated by the normalization coefficient calculation unit 202a. , GainB ′.
- the coefficient conversion unit 202b increases the correction coefficients gainR, gainG, gainB calculated by the correction coefficient calculation unit 201 as the normalization coefficient calculated by the normalization coefficient calculation unit 202a increases. Convert to hold the value of gainB.
- the coefficient conversion unit 202b converts the values of the correction coefficients gainR, gainG, and gainB so as to approach 1.0 as the normalization coefficient is smaller.
- the ⁇ component H (x, y) takes a large value in the high luminance and low saturation region that becomes the ⁇ component H (x, y).
- the correction coefficients gainR ′, gainG ′, and gainB ′ are adjusted so that the magnitudes of the original values gainR, gainG, and gainB are maintained.
- the haze component H (x, y) has a small value.
- the correction coefficients gainR ′, gainG ′, and gainB ′ are adjusted so as to be close to 1.0.
- the compression unit 110 performs a known compression process such as JPEG or MPEG on the digital video signal transferred from the wrinkle correction unit 109 and transfers the digital video signal to the output unit 111.
- the output unit 111 stores the compressed digital video signal transferred from the compression unit 110 in a memory card or the like.
- the output unit 111 may transfer the digital video signal transferred from the compression unit 110 to a display provided separately.
- the control unit 112 is composed of a microcomputer or the like.
- the control unit 112 includes an A / D converter 104, a photometric evaluation unit 106, a lens control unit 107, a signal processing unit 108, a wrinkle correction unit 109, a compression unit 110, and an output unit 111.
- the A / D converter 104, the photometric evaluation unit 106, the lens control unit 107, the signal processing unit 108, the eyelid correction unit 109, the compression unit 110, and the output unit 111 are exchanged. Control each one.
- An external I / F unit 113 is connected to the control unit 112.
- the external I / F unit 113 includes a power switch, a shutter button, and an interface for switching each mode such as shooting, recording, or reproduction. In order to switch the shooting, recording, or playback mode, the interface may include, for example, a shooting button, a recording button, and a playback button.
- the external I / F unit 113 controls the control unit 112 in step S ⁇ b> 1 to send various setting-related information regarding the shooting operation, such as header information. Send to.
- the control unit 112 switches to the shooting mode.
- the image sensor 102 In the photographing mode, when the light image from the lens system 100 enters the image sensor 102, the image sensor 102 receives the light image from the lens system 100, performs photoelectric conversion, and outputs an analog video signal.
- the analog video signal is input to the A / D converter 104.
- the A / D converter 104 converts the analog video signal output from the imaging sensor 102 into a digital video signal and sends the digital video signal to the buffer 105.
- the buffer 105 temporarily stores the digital video signal transferred from the A / D converter 104.
- step S ⁇ b> 2 the signal processing unit 108 performs image processing such as known interpolation processing, WB correction processing, and noise reduction processing on the digital video signal stored in the buffer 105.
- the signal processing unit 108 transfers the digital video signal obtained by the image processing to the wrinkle correction unit 109.
- the wrinkle correction unit 109 receives the digital video signal transferred from the signal processing unit 108, and performs correction for enhancing the contrast of an area of the digital video signal in which the contrast is lowered due to the influence of wrinkles, for example. .
- the wrinkle correction unit 109 performs a wrinkle component correction operation according to the wrinkle component correction operation flowchart shown in FIG.
- the heel component estimation unit 200 receives the digital video signal transferred from the signal processing unit 108, and estimates the density of the heel component based on the digital video signal.
- the eyelid component estimation unit 200 scans the inside of the scan area F having a predetermined size with respect to the input image I acquired by the digital video signal as shown in FIG. 3A.
- the heel component estimation unit 200 calculates min (Ir, Ig, Ib) by the above equation (1) for each scan region F of the pixel on the input image I that is the target pixel of the scan region F, and the min (Ir , Ig, Ib) is the soot component H (x, y).
- the soot component H (x, y) has a characteristic that it becomes larger as the soot concentration is higher and becomes smaller as the soot concentration is lower.
- a high-brightness and low-saturation region where the wrinkles are dark such as the imaged wrinkle component H (x, y) shown in FIG. 3B
- the wrinkle component H (x, y) has a large value.
- a low-brightness or high-saturation region where the wrinkle is thin the wrinkle component H (x, y) has a small value.
- step S ⁇ b> 11 the correction coefficient calculation unit 201 calculates a correction coefficient for performing correction that enhances contrast in a region where the contrast is reduced due to the influence of a high-luminance and low-saturation wrinkle component in the input image I. .
- the correction coefficient calculation unit 201 scans the inside of the local region E with respect to the input image I as shown in FIG. 4A.
- the correction coefficient calculation unit 201 scans the inside of the local region E, and for each target pixel, a histogram of R values, G values, and B values in the local region E centering on the target pixel as shown in FIG. 4B ( Local area histogram).
- the correction coefficient calculation unit 201 accumulates the histograms of the local regions generated for each target pixel to generate a cumulative histogram as shown in FIG. 4C.
- the correction coefficient calculation unit 201 calculates the correction coefficients gainR, gainG, and gainB for the R value, G value, and B value of the pixel of interest based on the accumulated histogram, using the above equations (2) to (4).
- the correction coefficient calculation unit 201 transfers the calculated correction coefficients gainR, gainG, and gainB to the contrast correction unit 202.
- the contrast correcting unit 202 inputs the wrinkle component H (x, y) estimated by the wrinkle component estimating unit 200 and the correction coefficients gainR, gainG, and gainB calculated by the correction coefficient calculating unit 201.
- Contrast correction by gain multiplication is performed for each pixel of the input image I based on the haze component H (x, y) and the correction coefficients gainR, gainG, and gainB.
- the contrast correction unit 202 adjusts the values of the correction coefficients gainR, gainG, and gainB for the dark area in the input image I, that is, the high luminance and low saturation area.
- the contrast correction unit 202 adjusts the correction coefficients gainR, gainG, and gainB so as to approach 1.0 with respect to a region with a thin eyelid, that is, a region with low luminance or high saturation.
- the contrast correction unit 202 adjusts the correction coefficients gainR, gainG, and gainB according to the wrinkle component H (x, y) for each pixel of the input image I as shown in FIG.
- the contrast correction unit 202 multiplies the pixel values of each pixel by the adjusted correction coefficients gainR ′, gainG ′, and gainB ′, and performs contrast correction according to the ⁇ component H (x, y).
- a corrected image RP is obtained.
- the contrast correction unit 202 weights the correction coefficients gainR, gainG, and gainB according to the value of the heel component H (x, y) as shown in the above equations (5) to (7). .
- the contrast correction unit 202 performs contrast correction on each pixel using the correction coefficients gainR ′, gainG ′, and gainB ′ adjusted by weighting.
- the contrast correction unit 202 uses the correction coefficients gainR ′, gainG ′, and gainB ′ adjusted by weighting, and the pixel values I′_r (x , y), I′_g (x, y), and I′_b (x, y) are calculated.
- step S4 the compression unit 110 performs known JPEG or MPEG compression processing on the contrast-corrected digital video signal transferred from the wrinkle correction unit 109, that is, the digital video signal in which the wrinkle component has been corrected.
- step S5 the output unit 111 stores the compressed digital video signal transferred from the compression unit 110 in a memory card or the like, or transfers the digital video signal transferred from the compression unit 110 to a separate display.
- the wrinkle correction unit 109 that performs the correction for enhancing the contrast in the region where the contrast is lowered due to the influence of the wrinkle component in the digital video signal is provided.
- the wrinkle correction unit 109 adjusts the correction coefficients gainR, gainG, and gainB so that the values of the correction coefficient gainR, gainG, and gainB are held in a region having a high wrinkle component in the input image I, that is, a region with high luminance and low saturation.
- the wrinkle correction unit 109 adjusts the correction coefficients gainR, gainG, and gainB to be close to 1.0 with respect to a region with a thin wrinkle component, that is, a region with low luminance or high saturation.
- the shade (degradation degree) of the cocoon component is estimated, and adaptive gradation correction is performed according to the shade (deterioration degree) of the cocoon component. It is possible to acquire a corrected image RP that can improve the visibility of a region (a region with a high degree of degradation) that has been subjected to.
- FIG. 8 is a block diagram of the wrinkle correction unit 109 in the imaging apparatus to which the image processing apparatus is applied.
- the wrinkle correction unit 109 has a color space conversion unit 203 added to the wrinkle correction unit 109 in the first embodiment.
- the output end of the color space conversion unit 203 is connected to the wrinkle component estimation unit 200.
- the color space conversion unit 203 is connected to the control unit 112.
- the color space conversion unit 203 exchanges data and the like with the control unit 112, and the conversion operation is controlled by the control unit 112.
- the color space conversion unit 203 converts the digital video signal transferred from the signal processing unit 108 into a YCbCr (luminance signal, color difference signal) color space or an HSV (hue signal, saturation signal, lightness signal) color space.
- the color space conversion unit 203 transfers the converted YCbCr color space or HSV color space digital video signal to the heel component estimation unit 200.
- the heel component estimation unit 200 inputs a digital video signal in the YCbCr color space or HSV color space transferred from the color space conversion unit 203.
- the wrinkle component estimation unit 200 estimates a wrinkle component based on the luminance signal Y, the color difference signal (saturation signal) CbCr, and the like in the digital video signal.
- FIG. 9 shows the weight value H1 for the luminance Y.
- the weight value H1 for the luminance Y is a value from 0.0 to 1.0.
- the value of the weight value H1 increases as the luminance increases. That is, the weight value H1 increases as the amount of wrinkle components increases (the darker the wrinkles).
- FIG. 10 shows the weight value H2 for the saturation CbCr.
- the weight value H2 for the saturation CbCr has a value of 0.0 to 1.0.
- the value of the weight value H2 increases as the saturation decreases. That is, the weight value H2 increases as the amount of wrinkle components increases (the darker the wrinkles).
- the haze component estimation unit 200 calculates the haze component H from, for example, the following equation (11).
- H H1 * H2 (11)
- Luminance Y and saturation CbCr are calculated as follows. In the YCbCr color space, the luminance is Y and the saturation is (Cb ⁇ 2 + Cr ⁇ 2) 1/2 .
- the luminance is V and the saturation is S.
- the color space conversion unit 203 converts the digital video signal into a YCbCr color space or HSV color space, and transfers the converted YCbCr color space and HSV color space digital video signals to the heel component estimation unit 200.
- the wrinkle component estimation unit 200 receives the YCbCr color space or HSV color space digital video signal transferred from the color space conversion unit 203, and the luminance signal Y, color difference signal (saturation signal) CbCr, etc. in the digital video signal.
- the wrinkle component is estimated based on
- the correction coefficient calculation unit 201 calculates the correction coefficients gainR, gainG, and gainB for performing correction that enhances contrast in a low contrast area in the input image I.
- the contrast correction unit 202 inputs the haze component H estimated by the haze component estimation unit 200 and the correction coefficients gainR, gainG, and gainB calculated by the correction coefficient calculation unit 201, and is the same as in the first embodiment. As shown in the above equations (5) to (7), the correction coefficients gainR, gainG, and gainB are weighted according to the value of the heel component H (x, y).
- the contrast correction unit 202 performs contrast correction by multiplying the correction coefficients gainR ′, gainG ′, and gainB ′ adjusted by weighting for each pixel of the input image I.
- FIG. 11 is a block diagram of the wrinkle correction unit 109 in the imaging apparatus to which the image processing apparatus is applied.
- the wrinkle correction unit 109 has a color correction unit 204 and a second color space conversion unit 205 added to the wrinkle correction unit 109 in the second embodiment.
- a color correction unit 204 is connected to the output end of the contrast correction unit 202.
- a second color space conversion unit 205 is connected to the output end of the color correction unit 204.
- the color correction unit 204 and the second color space conversion unit 205 are connected to the control unit 112.
- the color correction unit 204 and the second color space conversion unit 205 exchange data with the control unit 112 and are controlled in operation by the control unit 112.
- the correction coefficient calculation unit 201 calculates a correction coefficient for contrast correction using the luminance signal Y (V) among the digital video signals in the YCbCr color space or HSV color space transferred from the color space conversion unit 203. Specifically, the correction coefficient calculation unit 201 calculates a correction coefficient gainY for the luminance signal Y of each pixel based on a luminance histogram in a local region E having a predetermined size centered on the target pixel as shown in FIG. 4B, for example.
- the contrast correction unit 202 performs contrast correction on the luminance signal Y among the digital video signals in the YCbCr color space and HSV color space transferred from the color space conversion unit 203.
- the contrast correction unit 202 performs contrast correction on the luminance signal Y based on the haze component H (x, y) transferred from the haze component estimation unit 200 and the correction coefficient gainY transferred from the correction coefficient calculation unit 201. Do.
- the adjusted correction coefficient gainY ′ is calculated. Contrast correction is performed by the following correction formula.
- the contrast correction unit 202 transfers the luminance signal Y ′ after contrast correction and the color difference signal (saturation signal) CbCr to the color correction unit 204.
- the color correction unit 204 calculates a saturation correction coefficient corresponding to the correction coefficient gainY ′ adjusted by the contrast correction unit 202, and enhances the saturation with respect to the color difference signal (saturation signal) of each pixel. I do.
- FIG. 12 shows the saturation correction coefficient with respect to the correction coefficient gainY ′.
- the saturation correction coefficient increases the saturation enhancement as gainY ′ is smaller. In the figure, the saturation correction coefficient increases from 1.0 to 2.0 as gainY ′ decreases.
- the correction coefficient gainY ′ tends to take a value smaller than 1.0.
- the saturation of the image after contrast correction is lowered.
- the color correction unit 204 performs saturation correction according to the gain coefficient (correction coefficient gainY ′) after the contrast correction processing for the luminance signal of each pixel.
- the correction coefficient gainY ′ is smaller than 1.0, the color correction unit 204 has a gain coefficient larger than 1.0 for the saturation CbCr (or S) according to the value of the correction coefficient gainY ′.
- the saturation CbCr (or S) is enhanced by multiplying (saturation correction coefficient).
- the second color space conversion unit 205 returns the digital video signal in the YCbCr (luminance signal, color difference signal) color space or HSV (hue signal, saturation signal, lightness signal) color space to the RGB digital video signal.
- the color correction unit 204 calculates a saturation correction coefficient corresponding to the correction coefficient gainY ′ adjusted by the contrast correction unit 202, and the color difference signal (saturation) of each pixel. Signal) to enhance the saturation.
- the saturation enhancement the smaller the correction coefficient gainY ′, the stronger the saturation enhancement.
- the second color space conversion unit 205 returns the digital video signal in the YCbCr (luminance signal, color difference signal) color space or HSV (hue signal, saturation signal, lightness signal) color space to the RGB digital video signal.
- the saturation correction coefficient corresponding to the adjusted correction coefficient is calculated by the contrast correction unit 202, and the saturation for the color difference signal (saturation signal) of each pixel is calculated. Since the color correction unit 204 for emphasizing is provided, contrast correction according to the haze component H (x, y) can be performed. As a result, a high-quality contrast correction image RP can be acquired.
- this invention is not limited to said each embodiment, You may deform
- the haze component H (x, y) is estimated as the degree of deterioration.
- the present invention is not limited to this, and contrast correction is performed on the haze component, the fog component, and the white component in the image data. It may be.
- Each of the above embodiments is premised on processing by hardware.
- the present invention is not limited to this. For example, a configuration in which a video signal output from the signal processing unit 108 is separately processed by software is also possible. .
- the process of estimating the wrinkle component and the correction coefficient is performed on each pixel of the video signal input from the signal processing unit 108.
- the present invention is not limited to this.
- the video signal It is also possible to perform the process of estimating the wrinkle component and calculating the correction coefficient after reducing the size.
- the wrinkle component and the correction coefficient are enlarged to the original size by a known interpolation process (for example, bilinear interpolation, bicubic interpolation, etc.) at the time of contrast correction. Contrast correction may be performed later.
- the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.
- various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
- constituent elements over different embodiments may be appropriately combined.
- SYMBOLS 100 Lens system, 101: Aperture, 102: Image sensor, 103: Autofocus motor (AF motor), 104: A / D converter, 105: Buffer, 106: Photometry evaluation part, 107: Lens control part, 108 : Signal processing unit, 109: wrinkle correction unit, 110: compression unit, 111: output unit, 112: control unit, 113: external I / F unit, 200: wrinkle component estimation unit, 201: correction coefficient calculation unit, 202: Contrast correction unit, 203: color space conversion unit, 204: color correction unit, 205: second color space conversion unit.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
画像処理装置は、劣化度検出部(200)と、補正係数算出部(201)と、適応階調補正部(202)とを含む。前記劣化度検出部(200)は、画像データ中における所定サイズの領域毎に画質の劣化度を検出する。前記補正係数算出部(201)は、前記画像データの前記領域毎に階調補正のための補正係数を算出する。前記適応階調補正部(202)は、前記劣化度検出部(200)により検出された前記劣化度と、前記補正係数算出部(201)により算出された前記補正係数とに基づいて前記画像データの前記劣化度に応じた適応的な階調補正を行う。
Description
本発明は、例えば靄や霧等の影響によりコントラスト,色彩等の画質が損なわれた画像の補正を行う画像処理装置及び画像処理方法、画像処理プログラム、撮像装置に関する。
大気中に発生する靄や霧等の影響によって画像のコントラスト,色彩等の画質が失われることがある。例えば、屋外において遠方の山等の風景写真を撮影する場合がある。この撮影で遠方の山に霞が掛かっていると、この霞によって撮影した画像は、品位が損なわれ、遠方の山に対する視認性を低下させてしまうことがある。
このような問題を解決する技術として例えば特許文献1、2がある。特許文献1は、画像内から輝度の最大値、最小値を算出し、これら算出した最大値と最小値との間の差が大きくなるようにコントラスト補正を行って画像の視認性を向上させることを開示する。この特許文献1であれば、画像全体に一様に霞が掛かった画像に対して視認性を向上させるという十分な効果を得ることができる。
特許文献2は、画像の局所領域毎に輝度の最大、最小を算出し、これら最大、最小の差が大きくなるように適応的なコントラスト補正を行うことを開示する。この特許文献2であれば、霞のない領域と霞のある領域とが混在する画像においても視認性を向上させるという十分なコントラスト補正を行うことができる。
しかしながら、特許文献1は、画像全体の輝度の最大値、最小値を使用するため、画像内で霞のない領域と霞のある領域とが混在する場合がある。この場合には、輝度の最大値と最小値との差が元々大きくなる傾向があるために、画像の視認性を向上させるという効果を十分に得られない。
特許文献2は、霞の濃淡に関わらず、画像の局所領域内の輝度の最大値、最小値に基づいて処理を行う。このため、元々霞のない領域に対して過度なコントラスト補正が行われてしまうことがあり、補正後の画像の違和感が大きくなる。
本発明は、霞成分の濃淡を推定し、この霞成分の濃淡に応じた適応的な階調補正を行うことにより、霞の掛かった領域の視認性を向上できる画像処理装置、撮像装置、画像処理方法、コンピュータにより処理可能な一時的でない記憶媒体を提供することを目的とする。
本発明の画像処理装置は、画像データ中における所定サイズの領域毎に画質の劣化度を検出する劣化度検出部と、前記画像データの前記領域毎に階調補正のための補正係数を算出する補正係数算出部と、前記劣化度検出部により検出された前記劣化度と、前記補正係数算出部により算出された前記補正係数とに基づいて前記画像データの前記劣化度に応じた適応的な階調補正を行う適応階調補正部とを具備する。
本発明の撮像装置は、被写体からの光像を撮像する撮像素子と、前記撮像素子の撮像により取得される画像データの画質の劣化度を検出し、当該劣化度に応じて前記画像データの前記劣化度に応じた適応的な階調補正を行う請求項1に記載の画像処理装置と、前記画像処理装置により階調補正された前記画像データを出力する出力部とを具備する。
本発明の画像処理方法は、画像データ中における所定サイズの領域毎に画質の劣化度を検出し、前記画像データの前記領域毎に階調補正のための補正係数を算出し、前記劣化度と、前記補正係数とに基づいて前記画像データの前記劣化度に応じた適応的な階調補正を行う。
本発明のコンピュータにより処理可能な一時的でない記憶媒体は、コンピュータに、画像データ中における所定サイズの領域毎に画質の劣化度を検出させる劣化度検出機能と、前記画像データの前記領域毎に階調補正のための補正係数を算出させる補正係数算出機能と、前記劣化度検出部により検出された前記劣化度と、前記補正係数算出部により算出された前記補正係数とに基づいて前記画像データの前記劣化度に応じた適応的な階調補正を行わさせる適応階調補正機能とを実現させるための画像処理プログラムを記憶する。
本発明によれば、霞の濃淡に応じて適切なコントラスト補正を行い、高品位な画像が得られる画像処理装置、撮像装置、画像処理方法、コンピュータにより処理可能な一時的でない記憶媒体を提供できる。
[第1の実施の形態]
以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は画像処理装置を適用した撮像装置のブロック構成図を示す。同図中において、太い実線の矢印は映像信号の流れを示し、細い実線の矢印は制御信号の流れを示し、点線の矢印はその他の信号の流れを示す。以下、図2、図8及び図11においても同様である。
以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は画像処理装置を適用した撮像装置のブロック構成図を示す。同図中において、太い実線の矢印は映像信号の流れを示し、細い実線の矢印は制御信号の流れを示し、点線の矢印はその他の信号の流れを示す。以下、図2、図8及び図11においても同様である。
レンズ系100は、フォーカスレンズ及び絞り101等を含む。レンズ系100は、被写体からの光像を撮像センサ102上に結像する。レンズ系100は、オートフォーカス用モータ(AFモータ)103を含む。AFモータ103には、レンズ制御部107が接続されている。レンズ制御部107は、AFモータ103を駆動制御する。これにより、レンズ系100は、AFモータ103の駆動によりフォーカスレンズを当該レンズ系100の光軸方向に沿って移動する。
レンズ系100の光軸上には、撮像センサ102が設けられている。撮像センサ102は、レンズ系100からの光像を受光し、光電変換を行ってRGBのアナログ映像信号を出力する。撮像センサ102の出力端には、A/D変換器104を介してバッファ105と、信号処理部108と、霞補正部109と、圧縮部110と、出力部111とが接続されている。
A/D変換器104は、撮像センサ102から出力されたRGBのアナログ映像信号をRGBのデジタル映像信号に変換する。
バッファ105は、A/D変換器104から転送されるデジタル映像信号を一時的に保存する。
測光評価部106は、バッファ105に保存されるデジタル映像信号の輝度情報と、制御部112から出力される制御信号とに基づいてレンズ系100の絞り101を制御し、かつ撮像センサ102から出力されるアナログ映像信号の出力レベル等を調整する。
A/D変換器104は、撮像センサ102から出力されたRGBのアナログ映像信号をRGBのデジタル映像信号に変換する。
バッファ105は、A/D変換器104から転送されるデジタル映像信号を一時的に保存する。
測光評価部106は、バッファ105に保存されるデジタル映像信号の輝度情報と、制御部112から出力される制御信号とに基づいてレンズ系100の絞り101を制御し、かつ撮像センサ102から出力されるアナログ映像信号の出力レベル等を調整する。
信号処理部108は、バッファ105に保存されているデジタル映像信号に対して公知の補間処理、WB補正処理及びノイズ低減処理などの画像処理を行い、当該画像処理後のデジタル映像信号を霞補正部109に転送する。
霞補正部109は、信号処理部108から転送されるデジタル映像信号を入力し、デジタル映像信号における例えば霞の影響によりコントラストが低下した領域に対してコントラストを強調する補正を行う。霞補正部109は、補正したデジタル映像信号を圧縮部110に転送する。
図2は霞補正部109の一例の具体的なブロック構成図を示す。霞補正部109は、霞成分推定部(劣化度検出部)200と、補正係数算出部201と、コントラスト補正部(適応階調補正部)202とを含む。霞成分推定部200と補正係数算出部201とコントラスト補正部202とには、信号処理部108から出力されたデジタル映像信号がそれぞれ入力する。霞成分推定部200と補正係数算出部201とコントラスト補正部202とは、制御部112によってそれぞれ動作が制御される。霞成分推定部200によって推定された霞成分と、補正係数算出部201によって算出された補正係数とは、コントラスト補正部202にそれぞれ転送される。
図2は霞補正部109の一例の具体的なブロック構成図を示す。霞補正部109は、霞成分推定部(劣化度検出部)200と、補正係数算出部201と、コントラスト補正部(適応階調補正部)202とを含む。霞成分推定部200と補正係数算出部201とコントラスト補正部202とには、信号処理部108から出力されたデジタル映像信号がそれぞれ入力する。霞成分推定部200と補正係数算出部201とコントラスト補正部202とは、制御部112によってそれぞれ動作が制御される。霞成分推定部200によって推定された霞成分と、補正係数算出部201によって算出された補正係数とは、コントラスト補正部202にそれぞれ転送される。
霞成分推定部200は、信号処理部108から転送されるデジタル映像信号を入力し、デジタル映像信号から取得される画像データの画質を低下させる成分の濃淡を推定する。画像データの画質を低下させる要因は、劣化度として表される。劣化度は、画像データのコントラスト又は色彩等の画質を損ない、画像の認識性を劣化させる要因となるものである。劣化度は、例えば、画像データ中に含まれる霞成分、靄成分、又は濁りとなる成分等の淡白色により画質を低下させる成分の濃淡を含む。
霞成分等の劣化度の推定では、霞成分が高輝度でかつ低彩度であるという特徴に基づいて行われる。これにより、劣化度は、高輝度でかつ低彩度である程、劣化が大きいことを示すものとなる。
劣化度の推定は、画像データの各画素における複数のカラーチャンネル同士、すなわちR値,G値,B値同士の大きさを比較し、これらR値,G値,B値のうち最小値となるR値,G値又はB値を算出する。
具体的に霞成分推定部200は、信号処理部108から転送されるデジタル映像信号を入力し、当該デジタル映像信号により画像データ(以下、入力画像Iと称する)を取得し、当該入力画像I上の座標(x,y)における各画素のR値,G値,B値を検出し、当該R値,G値,B値に基づいて当該各画素の霞成分(霞のかかり具合、霞の濃度等)の推定を行う。
ここで、信号処理部108から転送されるデジタル映像信号により取得される入力画像I上において、座標(x,y)における霞成分をH(x,y)、座標(x,y)におけるR値,G値,B値をそれぞれIr,Ig,Ibとすると、座標(x,y)の各画素における霞成分H(x,y)は、次式(1)に示すようにIr,Ig,Ibの各最小値min(Ir,Ig,Ib)により推定される。
H(x,y)=min(Ir,Ig,Ib) …(1)
図3Aは各画素の霞成分H(x,y)の推定を説明するための入力画像Iの模式図を示す。霞成分推定部200には、所定サイズn×m(n,mは自然数)のマトリックス状に形成されたスキャン領域(小領域)Fが予め設定される。スキャン領域Fは、例えば5×5画素のマトリックス状に形成されている。スキャン領域Fは、マトリックス状の中心を注目画素とする。スキャン領域Fは、例えば1画素であってもよい。
ここで、信号処理部108から転送されるデジタル映像信号により取得される入力画像I上において、座標(x,y)における霞成分をH(x,y)、座標(x,y)におけるR値,G値,B値をそれぞれIr,Ig,Ibとすると、座標(x,y)の各画素における霞成分H(x,y)は、次式(1)に示すようにIr,Ig,Ibの各最小値min(Ir,Ig,Ib)により推定される。
H(x,y)=min(Ir,Ig,Ib) …(1)
図3Aは各画素の霞成分H(x,y)の推定を説明するための入力画像Iの模式図を示す。霞成分推定部200には、所定サイズn×m(n,mは自然数)のマトリックス状に形成されたスキャン領域(小領域)Fが予め設定される。スキャン領域Fは、例えば5×5画素のマトリックス状に形成されている。スキャン領域Fは、マトリックス状の中心を注目画素とする。スキャン領域Fは、例えば1画素であってもよい。
霞成分推定部200は、入力画像Iに対してスキャン領域Fを画素毎にスキャンする。霞成分推定部200は、スキャン領域Fのスキャン中、入力画像I上の注目画素となる画素毎にmin(Ir,Ig,Ib)を算出し、当該min(Ir,Ig,Ib)を霞成分H(x,y)とする。
具体的に説明すると、霞成分推定部200は、スキャン領域Fのスキャン中、入力画像Iの画素毎に、スキャン領域Fの注目画素を含むn×mのマトリックス内において各min(Ir,Ig,Ib)を算出する。すなわち、霞成分推定部200は、min(Ir,Ig,Ib)をスキャン領域F内の全画素について算出する。霞成分推定部200は、当該各min(Ir,Ig,Ib)のうちのさらに最小値のmin(Ir,Ig,Ib)を求め、当該min(Ir,Ig,Ib)を注目画素の霞成分H(x,y)=min(Ir,Ig,Ib)とする。霞成分推定部200は、入力画像Iの全体にスキャン領域Fをスキャンし、入力画像Iの各画素に対して霞成分H(x,y)=min(Ir,Ig,Ib)を求める。
具体的に説明すると、霞成分推定部200は、スキャン領域Fのスキャン中、入力画像Iの画素毎に、スキャン領域Fの注目画素を含むn×mのマトリックス内において各min(Ir,Ig,Ib)を算出する。すなわち、霞成分推定部200は、min(Ir,Ig,Ib)をスキャン領域F内の全画素について算出する。霞成分推定部200は、当該各min(Ir,Ig,Ib)のうちのさらに最小値のmin(Ir,Ig,Ib)を求め、当該min(Ir,Ig,Ib)を注目画素の霞成分H(x,y)=min(Ir,Ig,Ib)とする。霞成分推定部200は、入力画像Iの全体にスキャン領域Fをスキャンし、入力画像Iの各画素に対して霞成分H(x,y)=min(Ir,Ig,Ib)を求める。
霞成分推定部200は、注目画素の霞成分H(x、y)を注目画素の劣化度、又はスキャン領域Fの劣化度として算出する。そして、後述するように霞成分H(x、y)が大きい程、劣化度が大きいものとなる。
図3Bは注目画素毎のmin(Ir,Ig,Ib)を画像化した霞成分H(x,y)を示す。当該霞成分H(x,y)の画像データにおいて、高輝度かつ低彩度な領域の画素値は、R値,G値,B値が同等かつ大きくなる。これにより、霞成分H(x,y)を示す上記式(1)の右辺min(Ir,Ig,Ib)の値は大きくなる。すなわち、高輝度かつ低彩度な領域では、霞成分H(x,y)が大きな値となる。つまり劣化度が大きいものと見なすことができる。
これに対して低輝度又は高彩度の領域の画素値は、R値,G値,B値のいずれかが小さくなるので、上記min(Ir,Ig,Ib)の値は小さくなる。すなわち、低輝度や高彩度の領域では、霞成分H(x,y)が小さな値となる。つまり、劣化度が小さいものと見なすことができる。
しかるに、霞成分H(x,y)は、次のような特徴を持つ。すなわち、霞成分H(x,y)は、霞の濃度が濃いほど大きな値となり、劣化度が大きいことを示す。霞成分H(x,y)は、霞の濃度が薄いほど小さな値となり、劣化度が小さいことを示す。
補正係数算出部201は、入力画像Iに対するスキャン領域Fのスキャン中、入力画像Iの画素毎に階調補正のための補正係数(ゲイン係数)を算出する。補正係数算出部201は、入力画像Iにおいてコントラストが低い領域に対してコントラストを強調する補正を行うための補正係数を算出する。補正係数算出部201では、霞成分H(x,y)を考慮しないで補正係数を算出する。
具体的に補正係数算出部201には、局所領域Eが予め設定されている。局所領域Eは、所定サイズk×l(k,lは自然数)のマトリックス状に形成されている。局所領域Eは、マトリックス状の中心を注目画素とする。
補正係数算出部201は、図4Aに示すように入力画像Iに対して局所領域Eの内部をスキャンする。補正係数算出部201は、入力画像Iに対して局所領域Eの内部をスキャンし、注目画素毎に、図4Bに示すような当該注目画素を中心とする局所領域E内のR値,G値,B値のヒストグラム(局所領域のヒストグラム)をそれぞれ生成する。同図に示すヒストグラムの横軸は、R値、G値又はB値の輝度成分を示し、縦軸は度数(画素数)を示す。
補正係数算出部201は、図4Aに示すように入力画像Iに対して局所領域Eの内部をスキャンする。補正係数算出部201は、入力画像Iに対して局所領域Eの内部をスキャンし、注目画素毎に、図4Bに示すような当該注目画素を中心とする局所領域E内のR値,G値,B値のヒストグラム(局所領域のヒストグラム)をそれぞれ生成する。同図に示すヒストグラムの横軸は、R値、G値又はB値の輝度成分を示し、縦軸は度数(画素数)を示す。
補正係数算出部201は、入力画像Iにおける注目画素毎に生成された局所領域のヒストグラムを累積して図4Cに示すような累積ヒストグラムを生成する。図4Cに示す累積ヒストグラムの横軸は、R値、G値又はB値の輝度成分を示す。縦軸は、R値、G値又はB値の輝度成分に対応するカラー画素の累積度数(累積画素数)、又はR値、G値又はB値の輝度成分に対応するカラー画素の階調補正(ヒストグラム平坦化)後の出力値を示す。累積ヒストグラムから階調補正(ヒストグラム平坦化)を行う手法は、公知の画像処理技術を用いればよい。
補正係数算出部201は、累積ヒストグラムに基づいて注目画素のR値,G値,B値に対する補正係数(ゲイン係数)gainR,gainG,gainBを算出する。
ここで、注目画素(x,y)のR値,G値,B値をそれぞれI_r(x,y),I_g(x,y),I_b(x,y)とする。図4Cに示す累積ヒストグラムに基づき補正後の出力画像(補正画像RP)に対応して算出されるR値,G値,B値をそれぞれIo_r(x,y),Io_g(x,y),Io_b(x,y)とすると、
各補正係数gainR,gainG,gainBは、
gainR=Io_r(x,y)/I_r(x,y) …(2)
gainG=Io_g(x,y)/I_g(x,y) …(3)
gainB=Io_b(x,y)/I_b(x,y) …(4)
により算出される。
ここで、注目画素(x,y)のR値,G値,B値をそれぞれI_r(x,y),I_g(x,y),I_b(x,y)とする。図4Cに示す累積ヒストグラムに基づき補正後の出力画像(補正画像RP)に対応して算出されるR値,G値,B値をそれぞれIo_r(x,y),Io_g(x,y),Io_b(x,y)とすると、
各補正係数gainR,gainG,gainBは、
gainR=Io_r(x,y)/I_r(x,y) …(2)
gainG=Io_g(x,y)/I_g(x,y) …(3)
gainB=Io_b(x,y)/I_b(x,y) …(4)
により算出される。
すなわち、補正係数算出部201は、入力画像Iの画素毎に、局所領域のヒストグラムの平坦化のための各補正係数gainR,gainG,gainBを算出する。各補正係数gainR,gainG,gainBは、入力画像Iの画素の複数あるカラーチャンネルR,G,B毎に乗算するゲイン係数である。
このように各補正係数gainR,gainG,gainBは、注目画素を中心とする局所領域Eを指定し、この局所領域E内の画素情報(例えばヒストグラム、最大値・最小値など)を用いて算出される。
補正係数算出部201は、算出した各補正係数gainR,gainG,gainBをコントラスト補正部202に転送する。
このように各補正係数gainR,gainG,gainBは、注目画素を中心とする局所領域Eを指定し、この局所領域E内の画素情報(例えばヒストグラム、最大値・最小値など)を用いて算出される。
補正係数算出部201は、算出した各補正係数gainR,gainG,gainBをコントラスト補正部202に転送する。
コントラスト補正部(適応階調補正部)202は、霞成分推定部200により推定された霞成分H(x,y)と補正係数算出部201により算出された補正係数gainR,gainG,gainBとに基づいて入力画像Iの霞成分H(x,y)に応じた適応的な階調補正(コントラスト補正)を行う。すなわち、コントラスト補正部202は、霞成分推定部200により推定される霞成分H(x,y)と、補正係数算出部201により算出される補正係数gainR,gainG,gainBとを入力し、霞成分H(x,y)と各補正係数gainR,gainG,gainBとに基づいて入力画像Iの画素毎にゲイン乗算によるコントラスト補正を行う。
すなわち、コントラスト補正部202は、図5に示すように入力画像Iの画素毎の霞成分H(x,y)に応じて各補正係数gainR,gainG,gainBの調節を行う。コントラスト補正部202は、調節後の各補正係数gainR,gainG,gainBを各画素の画素値に対して乗算を行い、コントラスト補正の行われた補正画像RPを得る。
コントラスト補正部202は、入力画像Iにおける霞の濃い領域、すなわち高輝度でかつ低彩度な領域に対して各補正係数gainR,gainG,gainBを元の値を保持するように調整する。
コントラスト補正部202は、入力画像Iにおける霞の薄い領域、すなわち低輝度又は高彩度な領域に対して各補正係数gainR,gainG,gainBを1.0に近づけるように調整する。
コントラスト補正部202は、入力画像Iにおける霞の濃い領域、すなわち高輝度でかつ低彩度な領域に対して各補正係数gainR,gainG,gainBを元の値を保持するように調整する。
コントラスト補正部202は、入力画像Iにおける霞の薄い領域、すなわち低輝度又は高彩度な領域に対して各補正係数gainR,gainG,gainBを1.0に近づけるように調整する。
具体的にコントラスト補正部202は、霞成分推定部200により推定される霞成分H(x,y)に基づいて補正係数算出部201により算出される各補正係数gainR,gainG,gainBの正規化すなわち重み付けを行う。コントラスト補正部202は、重み付けにより調整された各補正係数gainR’,gainG’,gainB’を用いて各画素に対するコントラスト補正を行う。コントラスト補正部202は、正規化係数算出部202aと、係数変換部202bとを含む。
正規化係数算出部202aは、霞成分推定部200により推定された霞成分H(x,y)を正規化すなわち重み付けした正規化係数を算出する。
係数変換部202bは、正規化係数算出部202aにより算出される正規化係数に基づいて補正係数算出部201により算出される各補正係数gainR,gainG,gainBを重み付けした各補正係数gainR’,gainG’,gainB’に変換する。
係数変換部202bは、補正係数算出部201により算出される各補正係数gainR,gainG,gainBを、正規化係数算出部202aにより算出される正規化係数が大きい程、当該各補正係数gainR,gainG,gainBの値を保持するように変換する。係数変換部202bは、正規化係数が小さい程、各補正係数gainR,gainG,gainBの値を1.0に近づくように変換する。
係数変換部202bは、正規化係数算出部202aにより算出される正規化係数に基づいて補正係数算出部201により算出される各補正係数gainR,gainG,gainBを重み付けした各補正係数gainR’,gainG’,gainB’に変換する。
係数変換部202bは、補正係数算出部201により算出される各補正係数gainR,gainG,gainBを、正規化係数算出部202aにより算出される正規化係数が大きい程、当該各補正係数gainR,gainG,gainBの値を保持するように変換する。係数変換部202bは、正規化係数が小さい程、各補正係数gainR,gainG,gainBの値を1.0に近づくように変換する。
具体的に、補正強度パラメータをStrengthとすると、重み付けにより調整された各補正係数gainR’,gainG’,gainB’は、
gainR’=1.0+(gainR-1.0)*H(x,y)/255*Strength …(5)
gainG’=1.0+(gainG-1.0)*H(x,y)/255*Strength …(6)
gainB’=1.0+(gainB-1.0)*H(x,y)/255*Strength …(7)
により算出される。
gainR’=1.0+(gainR-1.0)*H(x,y)/255*Strength …(5)
gainG’=1.0+(gainG-1.0)*H(x,y)/255*Strength …(6)
gainB’=1.0+(gainB-1.0)*H(x,y)/255*Strength …(7)
により算出される。
各補正係数gainR’,gainG’,gainB’によれば、霞成分H(x,y)となる高輝度かつ低彩度の領域では、霞成分H(x,y)が大きな値となる。これにより、各補正係数gainR’,gainG’,gainB’は、元の値gainR,gainG,gainBの大きさが保持されるように調整される。
これに対して霞成分H(x,y)となる低輝度又は高彩度の領域では、霞成分H(x,y)が小さな値となる。これにより、各補正係数gainR’,gainG’,gainB’は、1.0に近い値となるように調整される。
これに対して霞成分H(x,y)となる低輝度又は高彩度の領域では、霞成分H(x,y)が小さな値となる。これにより、各補正係数gainR’,gainG’,gainB’は、1.0に近い値となるように調整される。
各画素に対するコントラスト補正は、重み付けにより調整された各補正係数gainR’,gainG’,gainB’を用いて行われる。各画素に対するコントラスト補正は、
I’_r(x,y)=I_r(x,y)*gainR’ …(8)
I’_g(x,y)=I_g(x,y)*gainG’ …(9)
I’_b(x,y)=I_b(x,y)*gainB’ …(10)
により算出される。
I’_r(x,y)=I_r(x,y)*gainR’ …(8)
I’_g(x,y)=I_g(x,y)*gainG’ …(9)
I’_b(x,y)=I_b(x,y)*gainB’ …(10)
により算出される。
圧縮部110は、霞補正部109から転送されたデジタル映像信号に対して公知のJPEG、MPEG等の圧縮処理を行って出力部111に転送する。
出力部111は、圧縮部110から転送された圧縮処理後のデジタル映像信号をメモリーカード等に保存する。出力部111は、圧縮部110から転送されたデジタル映像信号を別途設けられたディスプレイに転送してもよい。
出力部111は、圧縮部110から転送された圧縮処理後のデジタル映像信号をメモリーカード等に保存する。出力部111は、圧縮部110から転送されたデジタル映像信号を別途設けられたディスプレイに転送してもよい。
制御部112は、マイクロコンピュータ等から成る。制御部112は、A/D変換器104と、測光評価部106と、レンズ制御部107と、信号処理部108と、霞補正部109と、圧縮部110と、出力部111との間でそれぞれデータ等の授受を行い、かつA/D変換器104と、測光評価部106と、レンズ制御部107と、信号処理部108と、霞補正部109と、圧縮部110と、出力部111とをそれぞれ制御する。制御部112には、外部I/F部113が接続されている。外部I/F部113は、電源スイッチ、シャッターボタン、撮影、記録又は再生等の各モードの切り替えを行うためのインターフェースを備える。撮影、記録又は再生のモードの切り替えるためにインターフェースは、例えば撮影ボタン、記録ボタン及び再生ボタンを含むものとしてもよい。
次に、上記の通り構成された装置による撮影動作について図6に示す撮影動作フローチャートを参照して説明する。
外部I/F部113に対して操作者により操作が行われると、当該外部I/F部113は、ステップS1において、操作入力された撮影に関する各種設定の情報、例えばヘッダ情報等を制御部112に送る。
外部I/F部113の撮影ボタンが押下されると、制御部112は、撮影モードに切り替える。
外部I/F部113に対して操作者により操作が行われると、当該外部I/F部113は、ステップS1において、操作入力された撮影に関する各種設定の情報、例えばヘッダ情報等を制御部112に送る。
外部I/F部113の撮影ボタンが押下されると、制御部112は、撮影モードに切り替える。
撮影モードにおいて、レンズ系100からの光像が撮像センサ102に入射すると、撮像センサ102は、レンズ系100からの光像を受光し、光電変換を行ってアナログ映像信号を出力する。アナログ映像信号は、A/D変換器104に入力する。A/D変換器104は、撮像センサ102から出力されたアナログ映像信号をデジタル映像信号に変換し、バッファ105に送る。バッファ105は、A/D変換器104から転送されるデジタル映像信号を一時的に保存する。
信号処理部108は、ステップS2において、バッファ105に保存されているデジタル映像信号に対して公知の補間処理、WB補正処理、ノイズ低減処理などの画像処理を行う。信号処理部108は、画像処理により得られたデジタル映像信号を霞補正部109に転送する。
霞補正部109は、ステップS3において、信号処理部108から転送されたデジタル映像信号を入力し、当該デジタル映像信号における例えば霞の影響によりコントラストが低下した領域に対してコントラストを強調する補正を行う。
霞補正部109は、ステップS3において、信号処理部108から転送されたデジタル映像信号を入力し、当該デジタル映像信号における例えば霞の影響によりコントラストが低下した領域に対してコントラストを強調する補正を行う。
具体的に、霞補正部109は、図7に示す霞成分補正動作フローチャートに従って霞成分の補正動作を行う。霞成分推定部200は、ステップS10において、信号処理部108から転送されるデジタル映像信号を入力し、当該デジタル映像信号に基づいて霞成分の濃淡を推定する。具体的に霞成分推定部200は、図3Aに示すようにデジタル映像信号により取得される入力画像Iに対して所定サイズのスキャン領域Fの内部をスキャンする。霞成分推定部200は、スキャン領域Fの注目画素となる入力画像I上の画素の各スキャン領域F毎に上記式(1)によりmin(Ir,Ig,Ib)を算出し、当該min(Ir,Ig,Ib)を霞成分H(x,y)とする。
霞成分H(x,y)は、霞の濃度が濃いほど大きな値となり、霞の濃度が薄いほど小さな値となる特徴を持つ。図3Bに示す画像化した霞成分H(x,y)のように霞の濃い高輝度かつ低彩度な領域では、霞成分H(x,y)が大きな値となる。霞の薄い低輝度または高彩度の領域では、霞成分H(x,y)が小さな値となる。
補正係数算出部201は、ステップS11において、入力画像Iにおける高輝度でかつ低彩度な霞成分の影響によりコントラストが低下した領域に対してコントラストを強調する補正を行うための補正係数を算出する。
具体的に補正係数算出部201は、図4Aに示すように入力画像Iに対して局所領域Eの内部をスキャンする。補正係数算出部201は、局所領域Eの内部をスキャンし、注目画素毎に、図4Bに示すような当該注目画素を中心とする局所領域E内のR値,G値,B値のヒストグラム(局所領域のヒストグラム)を生成する。
補正係数算出部201は、各注目画素毎に生成された局所領域のヒストグラムを累積して図4Cに示すような累積ヒストグラムを生成する。
補正係数算出部201は、この累積ヒストグラムに基づいて注目画素のR値,G値,B値に対する各補正係数gainR,gainG,gainBを上記各式(2)乃至(4)により算出する。
補正係数算出部201は、算出した各補正係数gainR,gainG,gainBをコントラスト補正部202に転送する。
補正係数算出部201は、各注目画素毎に生成された局所領域のヒストグラムを累積して図4Cに示すような累積ヒストグラムを生成する。
補正係数算出部201は、この累積ヒストグラムに基づいて注目画素のR値,G値,B値に対する各補正係数gainR,gainG,gainBを上記各式(2)乃至(4)により算出する。
補正係数算出部201は、算出した各補正係数gainR,gainG,gainBをコントラスト補正部202に転送する。
コントラスト補正部202は、ステップS12において、霞成分推定部200により推定される霞成分H(x,y)と、補正係数算出部201により算出される各補正係数gainR,gainG,gainBとを入力し、霞成分H(x,y)と各補正係数gainR,gainG,gainBとに基づいて入力画像Iの画素毎にゲイン乗算によるコントラスト補正を行う。
例えば、コントラスト補正部202は、入力画像Iにおける霞の濃い領域すなわち高輝度でかつ低彩度な領域に対して各補正係数gainR,gainG,gainBの値を保持するように調整する。
コントラスト補正部202は、霞の薄い領域すなわち低輝度又は高彩度な領域に対して各補正係数gainR,gainG,gainBを1.0に近づけるように調整する。
例えば、コントラスト補正部202は、入力画像Iにおける霞の濃い領域すなわち高輝度でかつ低彩度な領域に対して各補正係数gainR,gainG,gainBの値を保持するように調整する。
コントラスト補正部202は、霞の薄い領域すなわち低輝度又は高彩度な領域に対して各補正係数gainR,gainG,gainBを1.0に近づけるように調整する。
このようにコントラスト補正部202は、図5に示すように入力画像Iの画素毎の霞成分H(x,y)に応じて各補正係数gainR,gainG,gainBの調節を行う。コントラスト補正部202は、調節後の各補正係数gainR’,gainG’,gainB’を各画素の画素値に対して乗算を行い、霞成分H(x、y)に応じたコントラスト補正の行われた補正画像RPを得る。
具体的にコントラスト補正部202は、上記各式(5)乃至(7)に示すように各補正係数gainR,gainG,gainBに対して霞成分H(x,y)の値に応じた重み付けを行う。コントラスト補正部202は、重み付けにより調整された各補正係数gainR’,gainG’,gainB’を用いて各画素に対するコントラスト補正を行う。
コントラスト補正部202は、重み付けにより調整された各補正係数gainR’,gainG’,gainB’を用い、上記各式(8)乃至(10)により各画素に対するコントラスト補正された画素値I’_r(x,y)、I’_g(x,y)、I’_b(x,y)を算出する。
コントラスト補正部202は、重み付けにより調整された各補正係数gainR’,gainG’,gainB’を用い、上記各式(8)乃至(10)により各画素に対するコントラスト補正された画素値I’_r(x,y)、I’_g(x,y)、I’_b(x,y)を算出する。
圧縮部110は、ステップS4において、霞補正部109から転送されたコントラスト補正されたデジタル映像信号、すなわち霞成分の補正がなされたデジタル映像信号に対して公知のJPEG、MPEG等の圧縮処理を行って出力部111に転送する。
出力部111は、ステップS5において、圧縮部110から転送された圧縮処理後のデジタル映像信号をメモリーカード等に保存したり、又は圧縮部110から転送されたデジタル映像信号を別途ディスプレイに転送する。
出力部111は、ステップS5において、圧縮部110から転送された圧縮処理後のデジタル映像信号をメモリーカード等に保存したり、又は圧縮部110から転送されたデジタル映像信号を別途ディスプレイに転送する。
このように上記第1の実施の形態によれば、デジタル映像信号における例えば霞成分の影響によりコントラストが低下した領域に対してコントラストを強調する補正を行う霞補正部109を設けた。霞補正部109は、入力画像Iにおける霞成分の濃い領域すなわち高輝度でかつ低彩度な領域に対して各補正係数gainR,gainG,gainBの値が保持するように調整する。霞補正部109は、霞成分の薄い領域すなわち低輝度又は高彩度な領域に対して各補正係数gainR,gainG,gainBが1.0に近づけるように調整する。これにより、霞の濃い又は薄い等の濃度に応じて霞の影響によるコントラストが低下した領域に対してコントラストを強調する補正を行うことができる。
この結果、上記第1の実施の形態によれば、霞成分の濃淡(劣化度)を推定し、この霞成分の濃淡(劣化度)に応じた適応的な階調補正を行うことにより、霞の掛かった領域(劣化度が大きい領域)の視認性を向上できる補正画像RPを取得できる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について図面を参照して説明する。第2の実施の形態は、第1の実施の形態の図1と同様の構成であり、霞補正部109の内部構成だけが異なる。なお、図2と同一部分には同一符号を付してその詳しい説明は省略する。
図8は画像処理装置を適用した撮像装置における霞補正部109のブロック構成図を示す。霞補正部109は、上記第1の実施の形態における霞補正部109に、色空間変換部203を追加している。
色空間変換部203の出力端は、霞成分推定部200に接続されている。色空間変換部203は、制御部112に接続されている。色空間変換部203は、制御部112との間でデータ等の授受を行い、かつ制御部112によって変換動作が制御される。
この結果、上記第1の実施の形態によれば、霞成分の濃淡(劣化度)を推定し、この霞成分の濃淡(劣化度)に応じた適応的な階調補正を行うことにより、霞の掛かった領域(劣化度が大きい領域)の視認性を向上できる補正画像RPを取得できる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について図面を参照して説明する。第2の実施の形態は、第1の実施の形態の図1と同様の構成であり、霞補正部109の内部構成だけが異なる。なお、図2と同一部分には同一符号を付してその詳しい説明は省略する。
図8は画像処理装置を適用した撮像装置における霞補正部109のブロック構成図を示す。霞補正部109は、上記第1の実施の形態における霞補正部109に、色空間変換部203を追加している。
色空間変換部203の出力端は、霞成分推定部200に接続されている。色空間変換部203は、制御部112に接続されている。色空間変換部203は、制御部112との間でデータ等の授受を行い、かつ制御部112によって変換動作が制御される。
色空間変換部203は、信号処理部108から転送されるデジタル映像信号をYCbCr(輝度信号、色差信号)色空間、又はHSV(色相信号、彩度信号、明度信号)色空間に変換する。色空間変換部203は、変換したYCbCr色空間、又はHSV色空間のデジタル映像信号を霞成分推定部200に転送する。
霞成分推定部200は、色空間変換部203から転送されるYCbCr色空間、又はHSV色空間のデジタル映像信号を入力する。霞成分推定部200は、当該デジタル映像信号における輝度信号Y、色差信号(彩度信号)CbCr等に基づいて霞成分を推定する。
霞成分推定部200は、色空間変換部203から転送されるYCbCr色空間、又はHSV色空間のデジタル映像信号を入力する。霞成分推定部200は、当該デジタル映像信号における輝度信号Y、色差信号(彩度信号)CbCr等に基づいて霞成分を推定する。
図9は輝度Yに対する重み値H1を示す。輝度Yに対する重み値H1は、0.0~1.0の値を示す。重み値H1は、高輝度になるに従って値が大きくなる。すなわち、重み値H1は、霞成分が多い(霞が濃い)程、大きな値になる。
図10は彩度CbCrに対する重み値H2を示す。彩度CbCrに対する重み値H2は、0.0~1.0の値を示す。重み値H2は、低彩度になるに従って値が大きくなる。すなわち、重み値H2は、霞成分が多い(霞が濃い)程、大きな値になる。
図10は彩度CbCrに対する重み値H2を示す。彩度CbCrに対する重み値H2は、0.0~1.0の値を示す。重み値H2は、低彩度になるに従って値が大きくなる。すなわち、重み値H2は、霞成分が多い(霞が濃い)程、大きな値になる。
このような輝度Yと彩度CbCrとの関係から霞成分推定部200は、霞成分Hを例えば次式(11)から算出する。
H=H1*H2 …(11)
輝度Yと彩度CbCrとは、次のように算出する。
YCbCr色空間であれば、輝度はYであり、彩度は、(Cb^2+Cr^2)1/2である。
H=H1*H2 …(11)
輝度Yと彩度CbCrとは、次のように算出する。
YCbCr色空間であれば、輝度はYであり、彩度は、(Cb^2+Cr^2)1/2である。
HSV色空間であれば、輝度はVであり、彩度はSである。
次に、上記の通り構成された霞補正部109による霞補正動作について説明する。
色空間変換部203は、デジタル映像信号をYCbCr色空間又はHSV色空間に変換し、当該変換したYCbCr色空間及びHSV色空間のデジタル映像信号を霞成分推定部200に転送する。
霞成分推定部200は、色空間変換部203から転送されるYCbCr色空間、又はHSV色空間のデジタル映像信号を入力し、当該デジタル映像信号における輝度信号Y、色差信号(彩度信号)CbCr等に基づいて霞成分を推定する。
色空間変換部203は、デジタル映像信号をYCbCr色空間又はHSV色空間に変換し、当該変換したYCbCr色空間及びHSV色空間のデジタル映像信号を霞成分推定部200に転送する。
霞成分推定部200は、色空間変換部203から転送されるYCbCr色空間、又はHSV色空間のデジタル映像信号を入力し、当該デジタル映像信号における輝度信号Y、色差信号(彩度信号)CbCr等に基づいて霞成分を推定する。
補正係数算出部201は、入力画像Iにおいてコントラストが低い領域に対してコントラストを強調する補正を行うための各補正係数gainR,gainG,gainBを算出する。
コントラスト補正部202は、霞成分推定部200により推定される霞成分Hと、補正係数算出部201により算出される各補正係数gainR,gainG,gainBとを入力し、第1の実施形態と同様に、上記各式(5)乃至(7)に示すように各補正係数gainR,gainG,gainBに対して霞成分H(x,y)の値に応じた重み付けを行う。コントラスト補正部202は、重み付けにより調整された各補正係数gainR’,gainG’,gainB’を入力画像Iの画素毎に乗算することによるコントラスト補正を行う。
このように上記第2の実施の形態によれば、信号処理部108から転送されるRGBの映像信号をYCbCr色空間又はHSV色空間に変換する色空間変換部203を設けても、上記第1の実施の形態と同様の効果を奏することができる。
[第3の実施の形態]
次に、本発明の第3の実施の形態について図面を参照して説明する。第3の実施の形態は、第1の実施の形態の図1と同様の構成であり、霞補正部109の内部構成だけが異なる。なお、図8と同一部分には同一符号を付してその詳しい説明は省略する。
図11は画像処理装置を適用した撮像装置における霞補正部109のブロック構成図を示す。霞補正部109は、上記第2の実施の形態における霞補正部109に、色補正部204と、第2色空間変換部205とを追加している。
コントラスト補正部202の出力端には、色補正部204が接続されている。色補正部204の出力端には、第2色空間変換部205が接続されている。色補正部204と第2色空間変換部205とは、制御部112に接続されている。色補正部204と第2色空間変換部205とは、制御部112との間でデータ等の授受を行い、かつ制御部112によって動作制御される。
コントラスト補正部202は、霞成分推定部200により推定される霞成分Hと、補正係数算出部201により算出される各補正係数gainR,gainG,gainBとを入力し、第1の実施形態と同様に、上記各式(5)乃至(7)に示すように各補正係数gainR,gainG,gainBに対して霞成分H(x,y)の値に応じた重み付けを行う。コントラスト補正部202は、重み付けにより調整された各補正係数gainR’,gainG’,gainB’を入力画像Iの画素毎に乗算することによるコントラスト補正を行う。
このように上記第2の実施の形態によれば、信号処理部108から転送されるRGBの映像信号をYCbCr色空間又はHSV色空間に変換する色空間変換部203を設けても、上記第1の実施の形態と同様の効果を奏することができる。
[第3の実施の形態]
次に、本発明の第3の実施の形態について図面を参照して説明する。第3の実施の形態は、第1の実施の形態の図1と同様の構成であり、霞補正部109の内部構成だけが異なる。なお、図8と同一部分には同一符号を付してその詳しい説明は省略する。
図11は画像処理装置を適用した撮像装置における霞補正部109のブロック構成図を示す。霞補正部109は、上記第2の実施の形態における霞補正部109に、色補正部204と、第2色空間変換部205とを追加している。
コントラスト補正部202の出力端には、色補正部204が接続されている。色補正部204の出力端には、第2色空間変換部205が接続されている。色補正部204と第2色空間変換部205とは、制御部112に接続されている。色補正部204と第2色空間変換部205とは、制御部112との間でデータ等の授受を行い、かつ制御部112によって動作制御される。
補正係数算出部201は、色空間変換部203から転送されるYCbCr色空間、又はHSV色空間のデジタル映像信号のうち輝度信号Y(V)を用いてコントラスト補正のための補正係数を算出する。具体的に補正係数算出部201は、例えば上記図4Bに示すような注目画素を中心とする所定サイズの局所領域Eにおける輝度ヒストグラムに基づいて各画素の輝度信号Yに対する補正係数gainYを算出する。
コントラスト補正部202は、色空間変換部203から転送されるYCbCr色空間及びHSV色空間のデジタル映像信号のうち輝度信号Yに対してコントラスト補正を行う。コントラスト補正部202は、霞成分推定部200から転送される霞成分H(x,y)と、補正係数算出部201から転送される補正係数gainYとに基づいて輝度信号Yに対してコントラスト補正を行う。
輝度信号Yに対するコントラスト補正は、以下の式に基づいて行う。
gainY’=1.0+(gainY-1.0)*H(x,y)/255*Strength …(11)
により、調整された補正係数gainY’を算出する。
下記の補正式によりコントラスト補正を行う。
Y’(x,y)=Y(x,y)*gainY’ …(12)
コントラスト補正部202は、コントラスト補正後の輝度信号Y’と、色差信号(彩度信号)CbCrとを色補正部204に転送する。
輝度信号Yに対するコントラスト補正は、以下の式に基づいて行う。
gainY’=1.0+(gainY-1.0)*H(x,y)/255*Strength …(11)
により、調整された補正係数gainY’を算出する。
下記の補正式によりコントラスト補正を行う。
Y’(x,y)=Y(x,y)*gainY’ …(12)
コントラスト補正部202は、コントラスト補正後の輝度信号Y’と、色差信号(彩度信号)CbCrとを色補正部204に転送する。
色補正部204は、コントラスト補正部202により調整された後の補正係数gainY’に応じた彩度補正係数を算出し、各画素の色差信号(彩度信号)に対して彩度を強調する処理を行う。
図12は補正係数gainY’に対する彩度補正係数を示す。彩度補正係数は、gainY’が小さい程、彩度強調を強くする。同図では、gainY’が小さくなるに従って彩度補正係数が1.0から2.0に大きくなっている。
図12は補正係数gainY’に対する彩度補正係数を示す。彩度補正係数は、gainY’が小さい程、彩度強調を強くする。同図では、gainY’が小さくなるに従って彩度補正係数が1.0から2.0に大きくなっている。
高輝度の画素に対して階調を広げる補正を行う場合、上記補正係数gainY’は、1.0よりも小さい値が掛かる傾向にある。1.0よりも小さいゲイン係数(補正係数gainY’)が乗算されることによりコントラスト補正後の画像の彩度は低下する。
このような事から色補正部204は、各画素の輝度信号に対するコントラスト補正処理後、ゲイン係数(補正係数gainY’)に応じた彩度補正を行う。具体的に色補正部204は、補正係数gainY’が1.0よりも小さい場合、当該補正係数gainY’の値に応じて彩度CbCr(又はS)に対して1.0よりも大きいゲイン係数(彩度補正係数)を乗算して彩度CbCr(又はS)を強調する。
第2色空間変換部205は、YCbCr(輝度信号、色差信号)色空間、又はHSV(色相信号、彩度信号、明度信号)色空間のデジタル映像信号をRGBのデジタル映像信号に戻す。
このような事から色補正部204は、各画素の輝度信号に対するコントラスト補正処理後、ゲイン係数(補正係数gainY’)に応じた彩度補正を行う。具体的に色補正部204は、補正係数gainY’が1.0よりも小さい場合、当該補正係数gainY’の値に応じて彩度CbCr(又はS)に対して1.0よりも大きいゲイン係数(彩度補正係数)を乗算して彩度CbCr(又はS)を強調する。
第2色空間変換部205は、YCbCr(輝度信号、色差信号)色空間、又はHSV(色相信号、彩度信号、明度信号)色空間のデジタル映像信号をRGBのデジタル映像信号に戻す。
このような霞補正部109の構成であれば、色補正部204は、コントラスト補正部202により調整された補正係数gainY’に応じた彩度補正係数を算出し、各画素の色差信号(彩度信号)に対して乗算して彩度を強調する。彩度の強調では、補正係数gainY’が小さい程、彩度強調を強くする。
第2色空間変換部205は、YCbCr(輝度信号、色差信号)色空間、又はHSV(色相信号、彩度信号、明度信号)色空間のデジタル映像信号をRGBのデジタル映像信号に戻す。
第2色空間変換部205は、YCbCr(輝度信号、色差信号)色空間、又はHSV(色相信号、彩度信号、明度信号)色空間のデジタル映像信号をRGBのデジタル映像信号に戻す。
このように上記第3の実施の形態によれば、コントラスト補正部202により調整後の補正係数に応じた彩度補正係数を算出し、各画素の色差信号(彩度信号)に対して彩度を強調する色補正部204を設けたので、霞成分H(x,y)に応じたコントラスト補正が可能になる。この結果、高品位なコントラスト補正画像RPが取得できる。
なお、本発明は、上記各実施の形態に限定されるものでなく、次のように変形してもよい。
上記各実施の形態では、劣化度として霞成分H(x,y)を推定しているが、これに限らず、画像データ中の靄成分や霧成分、白色成分に対してコントラスト補正を行うようにしてもよい。
上記各実施の形態は、ハードウェアによる処理を前提としているが、これに限定されるものでなく、例えば、信号処理部108から出力される映像信号を別途ソフトウェアにて処理する構成も可能である。
上記各実施の形態では、劣化度として霞成分H(x,y)を推定しているが、これに限らず、画像データ中の靄成分や霧成分、白色成分に対してコントラスト補正を行うようにしてもよい。
上記各実施の形態は、ハードウェアによる処理を前提としているが、これに限定されるものでなく、例えば、信号処理部108から出力される映像信号を別途ソフトウェアにて処理する構成も可能である。
上記各実施の形態は、信号処理部108から入力される映像信号の各画素に対して霞成分推定や補正係数算出の処理を行っているが、これに限定されるものでなく、例えば映像信号のサイズを縮小した後に霞成分推定、補正係数算出の処理を行うことも可能である。
縮小画像に対して霞成分推定、補正係数算出の処理を行う場合は、コントラスト補正時に公知の補間処理(例えばバイリニア補間、バイキュービック補間など)にて霞成分と補正係数を元のサイズに拡大した後にコントラスト補正を行えばよい。
縮小画像に対して霞成分推定、補正係数算出の処理を行う場合は、コントラスト補正時に公知の補間処理(例えばバイリニア補間、バイキュービック補間など)にて霞成分と補正係数を元のサイズに拡大した後にコントラスト補正を行えばよい。
さらに、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
100:レンズ系、101:絞り、102:撮像センサ、103:オートフォーカス用モータ(AFモータ)、104:A/D変換器、105:バッファ、106:測光評価部、107:レンズ制御部、108:信号処理部、109:霞補正部、110:圧縮部、111:出力部、112:制御部、113:外部I/F部、200:霞成分推定部、201:補正係数算出部、202:コントラスト補正部、203:色空間変換部、204:色補正部、205:第2色空間変換部。
Claims (19)
- 画像データ中における所定サイズの領域毎に画質の劣化度を検出する劣化度検出部と、
前記画像データの前記領域毎に階調補正のための補正係数を算出する補正係数算出部と、
前記劣化度検出部により検出された前記劣化度と、前記補正係数算出部により算出された前記補正係数とに基づいて前記画像データの前記劣化度に応じた適応的な階調補正を行う適応階調補正部と、
を具備することを特徴とする画像処理装置。 - 前記適応階調補正部は、前記劣化度検出部により検出される前記劣化度に基づいて前記補正係数算出部により算出される前記補正係数に重み付けを行うことを特徴とする請求項1に記載の画像処理装置。
- 前記画像データは、複数の画素データから成り、
前記画素データは、複数のカラーチャンネルを含み、
前記劣化度検出部は、前記画像データの注目画素を含む当該画像データの前記領域内において、前記複数のカラーチャンネルの大きさを比較して最小値の前記カラーチャンネルを選択し、当該最小値に基づいて前記劣化度を検出する、
ことを特徴とする請求項1に記載の画像処理装置。 - 前記複数のカラーチャンネルは、R値、G値、B値を含み、
前記劣化度検出部は、前記R値、前記G値、前記B値のうち最小値となる前記R値、前記G値又は前記B値を選択する、
ことを特徴とする請求項3に記載の画像処理装置。 - 前記補正係数算出部は、前記画像データの注目画素に対してコントラストを強調するためのゲイン係数を前記補正係数として算出することを特徴とする請求項1に記載の画像処理装置。
- 前記適応階調補正部は、前記劣化度検出部により検出される前記劣化度を重み付けした正規化係数を算出する正規化係数算出部と、
前記正規化係数算出部により算出される前記正規化係数に基づいて前記補正係数算出部により算出される前記補正係数を変換する係数変換部と、
を含むことを特徴とする請求項1に記載の画像処理装置。 - 前記係数変換部は、前記補正係数を変換するとき、前記正規化係数が大きい程、前記補正係数の値を保持するよう当該値に変換し、かつ前記正規化係数が小さい程、前記補正係数の値を1.0に近づけて変換することを特徴とする請求項6に記載の画像処理装置。
- 前記劣化度は、前記画像データの前記領域毎のコントラストと彩度とに関連する指標を含むことを特徴とする請求項1に記載の画像処理装置。
- 前記劣化度は、霞成分、靄成分又は濁りとなる成分を含む高輝度かつ低彩度の度合いを示すことを特徴とする請求項8に記載の画像処理装置。
- 前記適応階調補正部は、前記補正係数算出部により算出された前記補正係数に対して前記霞成分、前記靄成分又は前記濁りとなる成分の値に応じた重み付けを行い、当該重み付けされた前記補正係数を用いて前記画像データの各画素に対するコントラスト補正を行うことを特徴とする請求項9に記載の画像処理装置。
- 前記補正係数算出部は、前記画像データにおける局所領域内の各画素値の輝度成分のヒストグラムを生成し、当該ヒストグラムを累積して累積ヒストグラムを生成し、当該累積ヒストグラムに基づいて前記各画素値に対する前記補正係数を算出することを特徴とする請求項1に記載の画像処理装置。
- 前記画像データをYCbCr色空間又はHSV色空間に変換する色空間変換部を含み、
前記劣化度検出部は、前記色空間変換部により変換された前記YCbCr色空間における輝度及び彩度、又は前記HSV色空間における輝度及び彩度に基づいて前記劣化度を検出する、
ことを特徴とする請求項1に記載の画像処理装置。 - 前記劣化度検出部は、前記輝度に対する第1の重み値と、前記彩度に対する第2の重み値を含み、
前記第1の重み値は、前記輝度が高くなるに従って値が大きくなり、前記第2の重み値は、前記彩度が低くなるに従って値が大きくなる関係を有し、
前記輝度と前記彩度との関係から前記劣化度を算出する、
ことを特徴とする請求項12に記載の画像処理装置。 - 前記適応階調補正部により調整された前記補正係数に応じた彩度補正係数を算出し、当該彩度補正係数に基づいて前記画像データに対する彩度の強調を行う色補正部を含むことを特徴とする請求項1に記載の画像処理装置。
- 前記色補正部は、前記補正係数が1.0よりも小さい場合、当該補正係数の値に応じて彩度に対して1.0よりも大きい前記彩度補正係数を乗算して前記彩度を強調することを特徴とする請求項14に記載の画像処理装置。
- 前記彩度補正係数は、前記補正係数が小さい程、彩度強調を強くすることを特徴とする請求項14に記載の画像処理装置。
- 被写体からの光像を撮像する撮像素子と、
前記撮像素子の撮像により取得される画像データの画質の劣化度を検出し、当該劣化度に応じて前記画像データの前記劣化度に応じた適応的な階調補正を行う請求項1に記載の画像処理装置と、
前記画像処理装置により階調補正された前記画像データを出力する出力部と、
を具備することを特徴とする撮像装置。 - 画像データ中における所定サイズの領域毎に画質の劣化度を検出し、
前記画像データの前記領域毎に階調補正のための補正係数を算出し、
前記劣化度と、前記補正係数とに基づいて前記画像データの前記劣化度に応じた適応的な階調補正を行う、
ことを特徴とする画像処理方法。 - コンピュータに、
画像データ中における所定サイズの領域毎に画質の劣化度を検出させる劣化度検出機能と、
前記画像データの前記領域毎に階調補正のための補正係数を算出させる補正係数算出機能と、
前記劣化度検出部により検出された前記劣化度と、前記補正係数算出部により算出された前記補正係数とに基づいて前記画像データの前記劣化度に応じた適応的な階調補正を行わさせる適応階調補正機能と、
を実現させるための画像処理プログラムを記憶するコンピュータにより処理可能な一時的でない記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15746265.6A EP3107064A4 (en) | 2014-02-10 | 2015-02-09 | Image processing device, imaging device, image processing method, computer-processable non-temporary storage medium |
CN201580007406.5A CN105960658B (zh) | 2014-02-10 | 2015-02-09 | 图像处理装置、摄像装置、图像处理方法以及可通过计算机处理的非暂时性的存储介质 |
US15/232,004 US9865041B2 (en) | 2014-02-10 | 2016-08-09 | Image processing apparatus, imaging apparatus, image processing method, and computer-processable non-transitory storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014023644A JP5901667B2 (ja) | 2014-02-10 | 2014-02-10 | 画像処理装置及び方法、画像処理プログラム、撮像装置 |
JP2014-023644 | 2014-02-10 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US15/232,004 Continuation US9865041B2 (en) | 2014-02-10 | 2016-08-09 | Image processing apparatus, imaging apparatus, image processing method, and computer-processable non-transitory storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015119271A1 true WO2015119271A1 (ja) | 2015-08-13 |
Family
ID=53778068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/053510 WO2015119271A1 (ja) | 2014-02-10 | 2015-02-09 | 画像処理装置、撮像装置、画像処理方法、コンピュータにより処理可能な一時的でない記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9865041B2 (ja) |
EP (1) | EP3107064A4 (ja) |
JP (1) | JP5901667B2 (ja) |
CN (1) | CN105960658B (ja) |
WO (1) | WO2015119271A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111955004A (zh) * | 2018-06-18 | 2020-11-17 | Jvc建伍株式会社 | 颜色校正装置 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5901667B2 (ja) * | 2014-02-10 | 2016-04-13 | オリンパス株式会社 | 画像処理装置及び方法、画像処理プログラム、撮像装置 |
US10621710B2 (en) * | 2016-02-12 | 2020-04-14 | Samsung Electronics Co., Ltd. | Display device and display method therefor |
CN106331427B (zh) * | 2016-08-24 | 2019-12-03 | 北京小米移动软件有限公司 | 饱和度增强方法及装置 |
KR102268970B1 (ko) | 2017-04-03 | 2021-06-24 | 한화테크윈 주식회사 | 안개 제거 방법 및 이를 적용한 안개 제거 시스템 |
JP6595649B2 (ja) * | 2018-03-22 | 2019-10-23 | 上銀科技股▲分▼有限公司 | 画像処理方法 |
KR102534125B1 (ko) * | 2018-09-13 | 2023-05-19 | 삼성디스플레이 주식회사 | 영상 데이터 보정 장치, 및 이를 포함하는 표시 장치 |
DE102018220236A1 (de) * | 2018-11-26 | 2020-05-28 | Heidelberger Druckmaschinen Ag | Schnelle Bildentzerrung für Bildinspektion |
US10924682B2 (en) * | 2019-01-30 | 2021-02-16 | Intel Corporation | Self-adaptive color based haze removal for video |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011175608A (ja) * | 2010-02-25 | 2011-09-08 | Olympus Corp | 画像処理装置及び画像処理方法 |
JP2012027547A (ja) * | 2010-07-20 | 2012-02-09 | Mitsubishi Electric Corp | 画像処理装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3509448B2 (ja) * | 1996-04-12 | 2004-03-22 | ソニー株式会社 | ビデオカメラ装置、映像信号処理装置、カラー映像信号のレベル圧縮方法および階調変換方法 |
US6038266A (en) * | 1998-09-30 | 2000-03-14 | Lucent Technologies, Inc. | Mixed mode adaptive analog receive architecture for data communications |
JP2007067815A (ja) * | 2005-08-31 | 2007-03-15 | Olympus Imaging Corp | 画像処理装置及び画像処理方法 |
WO2008004439A1 (fr) * | 2006-07-06 | 2008-01-10 | Nikon Corporation | Dispositif d'évaluation de caractéristiques de correction de gradation, dispositif de traitement d'image, procédé d'évaluation de caractéristiques de correction de gradation, procédé de traitement d'image, programme d'évaluation de caractéristiques de cor |
CN101627408B (zh) * | 2007-03-13 | 2012-08-22 | 奥林巴斯株式会社 | 图像信号处理装置、图像信号处理方法 |
JP5078837B2 (ja) * | 2007-10-29 | 2012-11-21 | キヤノン株式会社 | 符号化装置、符号化装置の制御方法及びコンピュータプログラム |
JP2009276671A (ja) * | 2008-05-16 | 2009-11-26 | Canon Inc | 発光装置 |
JP4982475B2 (ja) | 2008-12-24 | 2012-07-25 | ローム株式会社 | 画像処理方法及びコンピュータプログラム |
JP2012054659A (ja) | 2010-08-31 | 2012-03-15 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
US9002138B2 (en) * | 2011-12-19 | 2015-04-07 | Ziva Corporation | Computational imaging using variable optical transfer function |
EP3499453B1 (en) * | 2013-04-03 | 2023-09-20 | Maxell, Ltd. | Video display device |
JP5901667B2 (ja) * | 2014-02-10 | 2016-04-13 | オリンパス株式会社 | 画像処理装置及び方法、画像処理プログラム、撮像装置 |
JP2015156600A (ja) * | 2014-02-21 | 2015-08-27 | 株式会社 日立産業制御ソリューションズ | 画像信号処理装置,画像信号処理方法,および撮像装置 |
-
2014
- 2014-02-10 JP JP2014023644A patent/JP5901667B2/ja not_active Expired - Fee Related
-
2015
- 2015-02-09 WO PCT/JP2015/053510 patent/WO2015119271A1/ja active Application Filing
- 2015-02-09 CN CN201580007406.5A patent/CN105960658B/zh not_active Expired - Fee Related
- 2015-02-09 EP EP15746265.6A patent/EP3107064A4/en not_active Withdrawn
-
2016
- 2016-08-09 US US15/232,004 patent/US9865041B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011175608A (ja) * | 2010-02-25 | 2011-09-08 | Olympus Corp | 画像処理装置及び画像処理方法 |
JP2012027547A (ja) * | 2010-07-20 | 2012-02-09 | Mitsubishi Electric Corp | 画像処理装置 |
Non-Patent Citations (2)
Title |
---|
KAIMING HE ET AL.: "Single Image Haze Removal Using Dark Channel Prior", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 33, no. 12, December 2011 (2011-12-01), pages 2343 - 2344, XP011409121 * |
See also references of EP3107064A4 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111955004A (zh) * | 2018-06-18 | 2020-11-17 | Jvc建伍株式会社 | 颜色校正装置 |
CN111955004B (zh) * | 2018-06-18 | 2022-02-25 | Jvc建伍株式会社 | 颜色校正装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2015154102A (ja) | 2015-08-24 |
EP3107064A4 (en) | 2017-09-13 |
US9865041B2 (en) | 2018-01-09 |
US20160350899A1 (en) | 2016-12-01 |
EP3107064A1 (en) | 2016-12-21 |
CN105960658B (zh) | 2020-08-18 |
JP5901667B2 (ja) | 2016-04-13 |
CN105960658A (zh) | 2016-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015119271A1 (ja) | 画像処理装置、撮像装置、画像処理方法、コンピュータにより処理可能な一時的でない記憶媒体 | |
US8199227B2 (en) | Image-signal processing apparatus for performing space-variant image-signal processing | |
US8363131B2 (en) | Apparatus and method for local contrast enhanced tone mapping | |
US8208039B2 (en) | Image processing apparatus and computer-readable medium | |
US7969480B2 (en) | Method of controlling auto white balance | |
US10672134B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium storing image processing program | |
US20180061029A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium storing image processing program of image processing apparatus | |
US8493458B2 (en) | Image capture apparatus and image capturing method | |
JP5911525B2 (ja) | 画像処理装置及び方法、画像処理プログラム、撮像装置 | |
WO2007058126A1 (ja) | 画像処理システム、画像処理プログラム | |
US20060215908A1 (en) | Image pickup apparatus and image processing method | |
US20100195906A1 (en) | Automatic image enhancement | |
CN113411554A (zh) | 水下图像色彩还原方法和装置 | |
JP2007329619A (ja) | 映像信号処理装置と映像信号処理方法、および映像信号処理プログラム。 | |
KR20120122574A (ko) | 디지털 카메라 장치에서 영상 처리 장치 및 방법 | |
US8102446B2 (en) | Image capturing system and image processing method for applying grayscale conversion to a video signal, and computer-readable recording medium having recorded thereon an image processing program for applying grayscale conversion to a video signal | |
JP2012044559A (ja) | 撮像装置及びその制御方法 | |
JP7263018B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US9055232B2 (en) | Image processing apparatus capable of adding soft focus effects, image processing method, and storage medium | |
JP2009004893A (ja) | 画像処理装置およびこれを備える撮像システム | |
JP6849351B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US8106977B2 (en) | Image capturing system and image processing method for applying grayscale conversion to a video signal, and computer-readable recording medium having recorded thereon an image processing program for applying grayscale conversion to a video signal | |
JP2024060345A (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15746265 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
REEP | Request for entry into the european phase |
Ref document number: 2015746265 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2015746265 Country of ref document: EP |