WO2010137387A1 - 画像処理装置及びプログラム - Google Patents
画像処理装置及びプログラム Download PDFInfo
- Publication number
- WO2010137387A1 WO2010137387A1 PCT/JP2010/054627 JP2010054627W WO2010137387A1 WO 2010137387 A1 WO2010137387 A1 WO 2010137387A1 JP 2010054627 W JP2010054627 W JP 2010054627W WO 2010137387 A1 WO2010137387 A1 WO 2010137387A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- luminance
- unit
- gain characteristic
- luminance distribution
- gain
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 71
- 238000009826 distribution Methods 0.000 claims abstract description 146
- 238000000605 extraction Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 abstract description 6
- 235000019557 luminance Nutrition 0.000 description 230
- 238000000034 method Methods 0.000 description 71
- 230000006870 function Effects 0.000 description 33
- 238000004458 analytical method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000001953 sensory effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000009499 grossing Methods 0.000 description 6
- 230000010354 integration Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 239000000796 flavoring agent Substances 0.000 description 2
- 235000019634 flavors Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 241001504424 Zosteropidae Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/142—Edging; Contouring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0626—Adjustment of display parameters for control of overall brightness
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/20—Circuitry for controlling amplitude response
- H04N5/205—Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
- H04N5/208—Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
Definitions
- the present invention provides an image processing comprising: a contour component extracting unit that extracts a contour component of an input image; and a contour emphasizing unit that applies a gain to the contour component extracted by the contour component extracting unit to emphasize the contour component It relates to devices.
- FIG. 24 is a diagram illustrating a configuration of a sharpening unit 900 that enhances and sharpens an image outline.
- the sharpening unit 900 is configured to be included in a normal image processing apparatus.
- the sharpening unit 900 includes a contour component extraction unit 910 (smoothing processing unit 912 and subtractor 914), an adder 916, a level determination unit 918, and a contour enhancement unit 920. It is configured. Further, the degree of emphasis is instructed and controlled from the external control unit 800.
- FIG. 25 shows the state of an image signal.
- FIG. 25A is a diagram illustrating an image signal (luminance component) input to the sharpening unit 900.
- an input image (luminance Y) is input to the smoothing processing unit 912, whereby a smoothed image (smoothed image) is output (FIG. 25 (b)). Then, the smoothed image is subtracted from the original input image by the subtracter 914, whereby a contour component is output (FIG. 25C).
- the gain is determined by the level determination unit 918 based on the luminance Y of the input image.
- the level determination unit 918 determines the gain for each pixel based on the set value and the enhancement degree coefficient input from the control unit 800.
- the contour is emphasized by the contour emphasizing unit 920 based on the gain determined by the level determining unit 918 and the contour component output to the subtracter 914 (FIG. 25 (d)). As shown in FIG. 25 (d), the method for enhancing the contour is performed by suppressing the dark portion and enhancing the bright portion.
- a bright portion for example, a white-eye portion of the person is obtained by performing a conventional sharpening process. Etc. was overemphasized, resulting in an unnatural image.
- the entire image is bright (that is, an image whose luminance distribution is biased toward a high-luminance region), such as displaying characters on a white background
- a conventional sharpening process is applied to outline the boundary between the background and characters.
- emphasis is applied, the character portion does not have an appropriate brightness, and the color is darkened and sunk, resulting in an unnatural image that is different from the flavor of the original image.
- the object of the present invention is to adjust an edge emphasis degree according to the luminance distribution of an image, so that an image having a sense of incongruity can be processed even in an image with a biased luminance distribution.
- An image processing apparatus or the like is provided.
- an object of the image processing apparatus of the present invention is to apply a gain to a contour component extraction unit that extracts a contour component of an input image and a contour component extracted by the contour component extraction unit.
- an image processing apparatus including an edge emphasis unit that emphasizes an edge component, a luminance distribution acquisition unit that acquires a luminance distribution of pixels of the input image for each luminance, and a luminance distribution acquired by the luminance distribution acquisition unit And determining the gain for each pixel based on the gain characteristic calculation unit for calculating the gain characteristic, the luminance value of the input image, and the gain characteristic calculated by the gain characteristic calculation unit. And an emphasis degree adjusting unit that adjusts the emphasis degree of the component.
- the gain characteristic calculation unit may determine that the enhancement degree of luminance with a large number of pixels is the enhancement degree of luminance with a small number of pixels based on the luminance distribution acquired by the luminance distribution acquisition unit. The gain characteristic as described above is calculated.
- the gain characteristic calculation unit may calculate the gain at the luminance when the number of pixels having a certain luminance in the luminance distribution acquired by the luminance distribution acquisition unit is equal to or less than a predetermined threshold. It returns a minimum gain characteristic.
- the gain characteristic calculation unit may calculate a gain at the luminance when the number of pixels having a certain luminance in the luminance distribution acquired by the luminance distribution acquisition unit is larger than a predetermined threshold. It returns the maximum gain characteristic.
- the gain characteristic calculation unit may be equal to or greater than a second threshold at which the number of pixels having a certain luminance in the luminance distribution acquired by the luminance distribution acquisition unit is greater than the predetermined threshold.
- the gain characteristic that maximizes the gain at the brightness is returned, and when the number of pixels is smaller than the second threshold, the gain is determined by a gain characteristic determination function using the number of pixels as a parameter. It is characterized by returning properties.
- the gain characteristic determination function may be configured such that when the number of pixels as a parameter is larger than a predetermined threshold and smaller than a second threshold, the relationship between the number of pixels and a gain coefficient as an output. Is a monotonically increasing function.
- the gain characteristic calculation unit returns different gain characteristics in a low luminance / high luminance region and a medium luminance region.
- the luminance distribution acquisition unit acquires a luminance distribution of pixels that do not belong to a flat portion in the input image.
- the image processing apparatus of the present invention further includes a region dividing unit that divides the input image into predetermined regions, and the luminance distribution acquisition unit flattenes the input image for each region divided by the region dividing unit. Whether the luminance distribution of the pixel in the non-flat region is obtained.
- the program of the present invention includes a computer that extracts a contour component of an input image, a contour component extracting step, a contour emphasizing step of applying a gain to the contour component extracted by the contour component extracting step, and emphasizing the contour component,
- Enhancement for adjusting the enhancement degree of the contour component by determining a gain for each pixel based on a gain characteristic calculation step, a luminance value of the input image, and a gain characteristic calculated by the gain characteristic calculation unit And a degree adjustment step.
- the luminance distribution of the input image is acquired, and gain characteristics are calculated based on the acquired luminance distribution. Then, by determining the gain for each pixel based on the luminance value of the input image and the calculated gain characteristic, the degree of enhancement of the contour component is adjusted and the contour component of the input image is enhanced. . Therefore, when the contour component is emphasized, the enhancement degree can be adjusted based on the luminance distribution without being uniformly enhanced, and a more natural image can be output.
- the gain such that the enhancement degree of luminance with a large number of pixels is equal to or higher than the enhancement degree of luminance with a small number of pixels, based on the luminance distribution acquired by the luminance distribution acquisition unit. The characteristic will be calculated.
- the image processing apparatus of the present invention when the number of pixels of a certain luminance in the luminance distribution acquired by the luminance distribution acquisition unit is equal to or less than a predetermined threshold, the gain characteristic that minimizes the gain at the luminance is obtained. Will return. Accordingly, unnecessary enhancement of luminance pixels with a small number of pixels in the luminance distribution is suppressed, and thus processing that does not cause unnatural enhancement for the viewer can be performed.
- the image processing apparatus of the present invention when the number of pixels having a certain luminance in the luminance distribution is larger than a predetermined threshold value, a gain characteristic that maximizes the gain at the luminance is returned. Therefore, the enhancement degree of luminance with a large number of pixels is equal to or higher than the enhancement degree of luminance with a small number of pixels, and a sharpened and sharp image can be provided.
- the image processing apparatus of the present invention when the number of pixels of a certain luminance in the luminance distribution is equal to or larger than the second threshold value that is larger than the predetermined threshold value, the gain characteristic that maximizes the gain at the luminance value.
- the gain characteristic when the number of pixels is smaller than the second threshold value, a gain characteristic determined by a gain characteristic determination function using the number of pixels as a parameter is returned. Accordingly, it is possible to return a smooth gain characteristic along the peak of the luminance distribution.
- the gain characteristic determination function is configured such that when the number of pixels as a parameter is larger than a predetermined threshold and smaller than a second threshold, the number of pixels and the gain coefficient as an output are calculated.
- the relationship is a monotonically increasing function. As a result, it is possible to have a property closer to the user sense characteristic, and to improve the sharpness.
- the gain characteristic calculation unit returns different gain characteristics in the low luminance / high luminance region and the medium luminance region. Accordingly, it is possible to provide a clearer image by using different gain functions for the low-brightness / high-brightness region that is easily noticeable by the user and the middle-brightness region.
- FIG. 1 is an appearance of a mobile phone 1 to which the image processing apparatus of the present invention is applied.
- the mobile phone 1 includes an operation unit 70 (for example, a dial button) and a display unit 80 (for example, a liquid crystal display), and each image is output to the display unit 80.
- the image may be a still image or a moving image.
- the TV reception antenna 25 is an antenna for receiving a broadcast wave (program) from a broadcast station.
- the broadcast wave received by the TV reception antenna 25 is decoded by the mobile phone 1 and then displayed on the display unit 80. Will be displayed. Note that the TV receiving antenna 25 may be incorporated in the casing of the mobile phone 1.
- the mobile phone 1 includes a control unit 10, a TV receiving unit 20, a wireless communication unit 30, a camera photographing unit 40, an image processing unit 50, a storage unit 60, and an operation unit 70.
- the display unit 80 and the voice call unit 90 are provided.
- the control unit 10 is a functional unit that controls the mobile phone 1, and is configured by a processing device such as a CPU.
- the control unit 10 implements each function by reading and executing various programs stored in the storage unit 60.
- the TV receiving unit 20 is connected to a TV receiving antenna 25 and receives a broadcast wave (program) of a digital broadcast from a broadcasting station via the TV receiving antenna 25.
- the functional unit demodulates the received broadcast wave and outputs the demodulated program (video / audio signal). Note that the operation of the TV receiver 20 is not an essential part of the present invention, but is a known technique, and a description thereof will be omitted.
- the wireless communication unit 30 is a functional unit to which a wireless communication antenna 35 is connected and which transmits / receives voice / data from the base station via the communication network. Note that the operation of the wireless communication unit 30 is not an essential part of the present invention and is a known technique, and thus the description thereof is omitted.
- the camera photographing unit 40 photographs a subject with a camera and outputs it as an image (image data).
- the output image data is once output to the frame memory 62 and then subjected to various processes such as reproduction and storage.
- the image processing unit is a functional unit for performing various processes on the input image.
- a color adjustment unit 52 a noise removal unit 54, a sharpening unit 56, and a color correction unit 58 are provided.
- the color adjustment unit 52 is a functional unit that performs color adjustment of the input image
- the noise removal unit 54 is a functional unit for removing main noise from the input image
- the color correction unit 58 is a functional unit that corrects a color when an image is displayed on the display unit 80. Since these functional units are equivalent to those conventionally used in the image processing apparatus, detailed description thereof will be omitted.
- the sharpening unit 56 is a functional unit that sharpens an image by emphasizing the contour of the input image, and the detailed operation thereof will be described later.
- the storage unit 60 is a functional unit that stores a setting state of the mobile phone 1 or temporarily stores an input image.
- the storage unit 60 is configured by a storage device such as a semiconductor memory or a hard disk drive, for example. Further, various data and programs for operating the mobile phone 1 are also stored.
- the control unit 10 executes various control processes by reading and executing the control program stored in the storage unit 60.
- the storage unit 60 reserves an area for storing the frame memory 62, the luminance distribution table 64, and the gain characteristic table 66.
- the frame memory 62 is an area for storing an input image (image data). Images received by the TV receiver, images taken by the camera photographing unit, and the like are once stored in the frame memory 62.
- the luminance distribution table 64 is a table that stores a luminance distribution that is a distribution of the number of pixels x (Y) for each luminance in one screen (one frame) stored in the frame memory 62. The luminance Y of each pixel is extracted, and the proportion of the luminance Y included in the entire screen is stored. Note that a histogram can be generated based on data stored in the luminance distribution table 64.
- the gain characteristic table 66 is a table in which the gain characteristic calculated by the gain characteristic calculation unit 512 described later is stored.
- the sharpening unit 56 sharpens the input image based on the gain characteristics stored in the gain characteristic table 66. Note that the luminance distribution table 64 and the gain characteristic table 66 may be stored in the sharpening unit 56.
- the operation unit 70 is a functional unit that is used when the user performs an operation on the mobile phone 1, and includes, for example, an operation button, a touch panel, and the like.
- the display unit 80 is a functional unit that displays various notifications to the user or displays images from the mobile phone 1. For example, it is composed of a liquid crystal display or the like.
- the voice call unit 90 is a functional unit used when the mobile phone 1 functions as a telephone, and includes a microphone for inputting voice, a speaker for outputting voice, a voice encoder, a decoder, and the like. Yes.
- the voice call unit 90 is the same as the conventional configuration, and is not an essential part in the present invention, so the description thereof is omitted.
- the sharpening unit 56 includes a contour component extraction unit 500 (smoothing processing unit 502 and subtractor 504), a luminance distribution acquisition unit 510, a gain characteristic calculation unit 512, an enhancement degree adjustment unit 514, and a contour enhancement unit 516. , And an adder 518.
- the input image signal (luminance component) input to the sharpening unit 56 is input to the contour component extraction unit 500, the enhancement degree adjustment unit 514, and the luminance distribution acquisition unit 510.
- the luminance distribution acquisition unit 510 acquires the luminance distribution from the image signal of the luminance component of the input image that has been input. Specifically, the luminance component is acquired for all the pixels on the screen, and the number of pixels x (Y) with respect to the luminance Y is acquired. The acquired pixel count x (Y) for each luminance Y is output to the gain characteristic calculation unit 512 as a luminance distribution.
- the horizontal size of the input image is W and the vertical size is H
- the total number of pixels of the input image is W ⁇ H.
- the gain characteristic calculation unit 512 is a functional unit that calculates the gain characteristic g (Y) based on the input luminance distribution. That is, the gain coefficient is determined by a gain coefficient determination function using the number of pixels of luminance Y in the luminance distribution as a parameter. Then, the gain characteristic g (Y) is calculated by a predetermined method and output to the enhancement degree adjustment unit 514.
- the enhancement degree adjustment unit 514 is a functional unit that determines and outputs a gain for each pixel based on the gain characteristic g (Y) calculated by the gain characteristic calculation unit 512 using the luminance Y of the input pixel as a parameter.
- the gain determined for each pixel is output to the contour enhancement unit 516.
- the contour enhancement unit 516 enhances the contour based on the contour component output from the contour component extraction unit 500 and the gain for each pixel input from the enhancement degree adjustment unit 514.
- the emphasized contour component is output to the adder 518.
- the adder 518 adds the inputted input image signal and the emphasized contour component inputted from the contour emphasizing unit 516, and outputs the result as an output image signal.
- the input image signal is contour-enhanced based on the luminance distribution and output as an output image signal.
- the sharpening unit 56 is described as being configured by hardware in order to operate at high speed, but part of the processing or all processing can also be realized by software.
- FIG. 4 shows a sharpening unit 56a that realizes the processing of the gain characteristic calculation unit 512 by software in the control unit 10 as the gain characteristic calculation procedure 512a.
- the sharpening unit 56 a outputs the luminance distribution acquired by the luminance distribution acquisition unit 510 to the control unit 10.
- the control unit 10 executes the gain characteristic calculation procedure by executing the program stored in the storage unit 60, and outputs the gain characteristic to the sharpening unit 56a.
- FIG. 5 is a configuration diagram when the processing of the sharpening unit 56 is entirely realized by software.
- the control unit 10 reads out the input image stored in the frame memory 62 and executes various processes / procedures to output an output image.
- the luminance distribution acquisition procedure acquires the luminance distribution
- the gain characteristic calculation procedure (procedure 2) is executed.
- the gain characteristic is calculated by executing the gain characteristic calculation procedure.
- the contour component extraction procedure, the enhancement degree adjustment procedure, and the contour enhancement procedure (procedure 3) are executed.
- the same image as the output image output from the sharpening unit 56 is output to the frame memory 62.
- the luminance Y is extracted from the frame memory 62 (step S100). Then, the number of pixels x (Y) is acquired for each extracted luminance Y (step S102), and when the processing of all the pixels is completed, acquisition of the luminance distribution that is the distribution of the number of pixels x (Y) for each luminance Y is completed. (Step S104).
- step S104 when the luminance distribution for all pixels (W ⁇ H) of the input image is acquired (step S104; Yes), the gain characteristic calculation process is executed (step S106), and the gain characteristic is calculated. Then, the luminance of each pixel is extracted from the input image of the frame memory 62 (step S108), and the contour component is extracted by the contour component extraction process (step S110).
- the enhancement degree adjustment process is executed (step S112), and the enhancement degree is adjusted based on the gain characteristic calculated in the gain characteristic calculation process (step S106) and the extracted contour component. Each gain is determined.
- contour enhancement processing is executed based on the determined gain (step S114), the contour is enhanced, and the enhanced luminance Y is output to the frame memory 62 as an output image (step S116).
- step S118 when all the pixels are finished (step S118; Yes), this process is finished. If there are still pixels, the process is repeatedly executed from step S108 on the next pixel.
- the gain characteristic calculation process is a process executed by the gain characteristic calculation unit 512 in the case of the hardware of FIG. 3, and in the case of software, the gain characteristic calculation procedure of FIG. 4 and FIG. 5 (that is, the step of FIG. 6). This process is executed in S106). These gain characteristic calculation processes will be described using a plurality of embodiments.
- the first gain calculation process will be described.
- the gain characteristic is 0 when the pixel number x (Y) of the luminance Y in the luminance distribution is equal to or smaller than the predetermined threshold value THL, and the gain characteristic when the pixel number exceeds the predetermined threshold value THL. Is a process of setting G to G.
- the gain characteristic represented by the following formula 1 is used. This will be specifically described with reference to FIG.
- the pixel number x (Y) of luminance Y is read from the luminance distribution table 64 (step S200).
- THL a predetermined threshold value
- various values can be considered as the predetermined threshold value.
- THL 1.0%
- FIG. 8 is a diagram showing a histogram based on the luminance distribution.
- a shaded columnar graph is a histogram based on the luminance distribution, with the horizontal axis indicating luminance Y and the vertical axis indicating the number of pixels x (Y).
- L100 two-dot chain line
- THL threshold value
- L102 thin line
- g gain characteristic
- the gain characteristic g (Y) is “1.0G” because the number of pixels x (Y) exceeds the threshold value THL.
- the gain characteristic g (Y) is “0G” because the number of pixels x (Y) is equal to or less than the predetermined threshold value THL.
- the gain characteristic g (Y) is returned as “0G” when the threshold value is equal to or lower than the threshold value THL.
- the predetermined gain G (“1.0G” in the present embodiment)
- a value of 0 or more may be used as long as the value is sufficiently suppressed.
- the gain characteristic is determined using the gain characteristic determination function shown in Equation 2.
- ⁇ is a predetermined constant, and is calculated by the formula “W ⁇ H / THU” in the present embodiment.
- G is a contour emphasis gain constant, which is “1.0 G” in this embodiment.
- the second gain characteristic calculation process will be described with reference to FIG.
- the pixel number x (Y) of luminance Y in the luminance distribution is read (step S300). If the ratio of the number of pixels x (Y) is equal to or less than the threshold value THL (step S302; Yes), the gain characteristic g (Y) is set to “0G” (step S310).
- step S302 if the ratio of the number of pixels x (Y) is greater than or equal to the threshold value THL, it is next determined whether or not the number of pixels x (Y) is greater than or equal to the threshold value THU (step S302; No ⁇ step S304). .
- the gain characteristic g (Y) is set to “1.0 G” (step S304; Yes ⁇ step S308).
- a gain characteristic determination function using the number of pixels x (Y) as a parameter in this case, x (Y) ⁇ ⁇ ⁇ 1. 0 / (W ⁇ H)
- the gain characteristic g (Y) is determined (step S306).
- Step S312 If all the luminances are not completed, the same processing is executed for the next luminance (Step S312; No ⁇ Step S314 ⁇ Step S300), and the processing is completed for all the luminances. Ends the process (step S312; Yes).
- FIG. 10 is a diagram showing a histogram based on the luminance distribution.
- L200 two-dot chain line
- THL threshold
- THU threshold
- L204 thin line
- the gain characteristic g (Y) is determined according to the gain characteristic determination function. That is, the gain characteristic g (Y) is determined in proportion to the number of pixels x (Y).
- the gain characteristic g (Y) is “1.0G”. In the region R206, since the number of pixels x (Y) is equal to or less than the threshold value THL, the gain characteristic g (Y) is “0G”.
- the circuit configuration (processing procedure) of the second embodiment is more complicated than that of the first embodiment, but the gain characteristic of the first embodiment has a steep characteristic. By providing smooth gain characteristics along the peaks of the luminance distribution, image quality deterioration is further suppressed.
- f ⁇ 1 (x (Y)) is a function for calculating a gain coefficient corresponding to human sensory characteristics based on the input of the number of pixels x (Y). Specifically, a function as shown in FIG. 11 is used.
- the degree of emphasis may be small, and a small value is output as the gain coefficient.
- the number of pixels x (Y) is large, since the ratio is large on the input screen, the corresponding luminance Y pixels are not differentiated by humans and have a sensory characteristic that is not sharp. Therefore, by increasing the degree of emphasis, a larger value is output as the gain coefficient.
- THL to THU are monotonically increasing functions, functions represented by other sensory characteristic graphs may be used.
- FIG. 12 is a diagram showing a histogram based on the luminance distribution.
- L300 two-dot chain line
- THL threshold value
- THU threshold value
- L304 thin line
- g (Y) gain characteristics
- the gain characteristic g (Y) is based on the gain coefficient determined based on the gain characteristic determination function described above. Is calculated and output.
- the sharpness of the image has been reduced. Therefore, by providing a non-linear characteristic (logarithmic characteristic) close to human sensory characteristics, it is possible to provide a gain characteristic that improves sharpness.
- the fourth example is an example in which the degree of enhancement is changed in the low luminance / high luminance region and the other medium luminance regions in the second example (third example).
- f THL (Y) is a lower limit determination function, and is a function for calculating the lower limit according to a human sensory characteristic or video scene having luminance Y as an input.
- f THU (X) is an upper limit determination function, and is a function for calculating the upper limit according to the human sensory characteristic or video scene having the luminance Y as an input.
- f ⁇ 2 (Y, x (Y)) is a function for calculating a gain coefficient based on the input of luminance Y and the number of pixels x (Y), and specifically, as shown in FIG. Use functions.
- the gradient is a function that can be expected to have an effect of improving the naturalness of the image by realizing the degree of amplification and suppressing the degree of low luminance and high luminance in which the luminance change is easily noticeable by the viewer.
- FIG. 14 is a diagram showing a histogram based on the luminance distribution.
- L400 two-dot chain line
- THL threshold value
- THU threshold value
- L404 thin line
- the region R400 is a low luminance region
- the region R404 is a high luminance region
- the region R402 is a medium luminance region.
- the threshold value THL and the threshold value THU change according to this region.
- the gain characteristic g (Y) is a characteristic close to the second embodiment for the low luminance region / high luminance region, and a characteristic close to the third embodiment for the medium luminance region.
- the enhancement degree of the low luminance / high luminance region in which the luminance change is easily noticeable to the user and the middle luminance region in which the sharpening effect is difficult for other users to change is changed that is, the low luminance / high luminance region.
- FIG. 15 is a diagram showing a display screen on which a person and a landscape are displayed and a histogram based on the luminance distribution of the display screen.
- FIG. 15A shows a state where no sharpening process is performed
- FIG. 15B shows a state where a sharpening process to which the present invention is applied
- FIG. 15C shows a state where a conventional sharpening process is performed. Show.
- a screen example is shown on the left side and a histogram is shown on the right side.
- the luminance distribution in the middle luminance region is the same as the region R500, and at the same time, the luminance in the low luminance region is enhanced. Has been. Therefore, since the luminance of the low luminance region having a large number of pixels is appropriately emphasized, an effect of suppressing unnaturalness of the high luminance region can be expected while maintaining the sharpness of the entire image.
- FIG. 16 is an image in which characters are displayed on an image with a white background (that is, a high luminance region is strong).
- FIG. 16 (a) shows a state where no sharpening process is performed
- FIG. 16 (b) shows a state where a sharpening process to which the present invention is applied
- FIG. 16 (c) shows a conventional sharpening process.
- the state which processed is shown.
- a screen example is shown on the left side and a histogram is shown on the right side.
- the entire luminance distribution is emphasized as compared with the histogram of FIG. Therefore, the luminance distribution of the medium luminance region in the region R600 is also moved to the low luminance region in the region R604. For this reason, the middle luminance area (character portion) of the image is dark and sinking in color, resulting in an unnatural image different from the flavor of the original image.
- the luminance distribution in the medium luminance region is distributed in the same manner as the region 600, and at the same time, the luminance in the high luminance region is emphasized. Has been. Therefore, since the luminance of the high luminance region having a large number of pixels is appropriately emphasized, an effect of suppressing unnaturalness of the middle luminance region can be expected while maintaining the sharpness of the entire image.
- the degree of contour emphasis is adjusted according to the luminance distribution of the image, and a natural contour without a sense of incongruity particularly in a scene where the luminance distribution is biased. Emphasis can be made.
- step S402 to S404 shown in FIG. 17 is executed instead of the process of step S102 “Luminance distribution acquisition”.
- a flat value around the current pixel (the pixel from which luminance is extracted in step S100) (in this embodiment, a dispersion value is used as a value for determining the flat value) is acquired (step S402).
- a dispersion value is used as a value for determining the flat value
- a luminance distribution is obtained by adding a counter corresponding to the luminance value of the pixel (Step S404; Yes ⁇ Step S406). ).
- step S404 if the variance value is less than the threshold value, it is determined that the pixel belongs to the flat portion, the counter is not added, and is excluded from the luminance distribution (step S404; No).
- the variance is a value used to determine whether or not a pixel is flat, and is a group of N ⁇ N pixels (for example, 3 ⁇ 3 or 5 ⁇ 5 pixels) around the current pixel. Group).
- the variance value is obtained by the following equation. Note that whether or not it is flat is determined using variance, but other methods such as calculating edge strength for each pixel and determining whether or not it is flat may be used. .
- FIG. 18A an image having a black belt portion (R700) is processed.
- the left side R702 low luminance side
- the portions (R704, R706) that should be emphasized are not emphasized.
- the high luminance side (R708) a portion that should be emphasized / suppressed is not properly processed.
- FIG. 18B shows the processing performed by removing the black belt portion.
- the black belt portion R750
- the left side R752 low luminance side
- the portions R754 and R756 are also appropriately emphasized / suppressed.
- the luminance distribution is extracted by dividing into regions assumed in advance, and processing is performed by determining whether or not the region is flat.
- the sharpening unit 56b in the second embodiment will be described with reference to FIG.
- the sharpening unit 56b in FIG. 19 is a functional unit that can be replaced with the sharpening unit 56 in FIG. 3, and the same components as those in FIG.
- the sharpening unit 56 b includes a contour component extraction unit 500 (smoothing processing unit 502 and subtractor 504), a gain characteristic calculation unit 512, an enhancement degree adjustment unit 514, and a contour enhancement unit 516. , An adder 518, a region dividing unit 550, one or a plurality of region analyzing units (region analyzing unit 552 to region analyzing unit M 554), and a luminance distribution integrating unit 560.
- the region dividing unit 550 is a functional unit that divides an input image into designated regions.
- the divided images are output to region analysis unit 552 to region analysis unit M554.
- regions are set at the left end, the right end, and the central portion where the actual image is present, where black bands are often present. Will be described as existing.
- the region analysis unit is a functional unit provided for each divided region.
- M region analysis units 552 to M554 are provided, and the region analysis unit 552 will be described as an example.
- the region analysis unit 552 includes a luminance distribution acquisition unit 552a and a flatness determination unit 552b.
- the luminance distribution acquisition unit 552a is a functional unit that acquires the luminance distribution of the input image
- the flatness determination unit 552b is a functional unit that determines whether or not the input image is flat.
- the flatness determination unit 552b determines whether or not the input image is flat, for example, the variance value of the variance values of all the pixels is acquired, and the total of the acquired variance values is a predetermined threshold value. The determination is made based on whether or not the above is true.
- the region analysis unit 552 outputs the luminance distribution acquired by the luminance distribution acquisition unit 552a and the result of the determination as to whether or not the flatness determination unit 552b is flat to the luminance distribution integration unit 560.
- the luminance distribution integration unit 560 generates a luminance distribution for use in gain characteristic calculation based on the flatness determination value from each region analysis unit.
- the luminance distribution generated by the luminance distribution integration unit 560 is input to the gain characteristic calculation unit 512.
- Step S500 the image before combination is divided into three regions (left end, center, right end) (step S500).
- step S502 the luminance distribution of each divided area is acquired.
- step S506 the distributed data of each region is acquired, and the flatness of all the regions is evaluated.
- step S508 when the evaluation of the flatness of the entire region is completed (step S506; Yes), it is determined whether or not the leftmost region is flat (step S508). If the left end region is not flat, the luminance distribution of the left end region is combined with the central luminance distribution (step S508; No ⁇ step S510). When the left end region is flat, it is not combined with the central luminance distribution (step S508; Yes).
- step S512 it is determined whether or not the right end region is flat. If the right end region is not flat, the luminance distribution of the right end region is combined with the central luminance distribution (step S512; No ⁇ step S514). Further, when the right end region is flat, it is not combined with the central luminance distribution (step S512; Yes).
- the region is a part that adversely affects the gain characteristic calculation, and thus the left end and the center are not coupled.
- the region is a portion that adversely affects the gain characteristic calculation, and thus the right end portion and the center portion are not coupled.
- the luminance distribution integrating unit 560 outputs a luminance distribution excluding the flat portion (that is, the black belt portion).
- FIG. 21 is a diagram showing an example of the state of area division.
- FIG. 21A since there are black belt portions on the left and right, it is divided into a left end, a center and a right end.
- FIG. 21B since there are black belt portions at the top and bottom, it is divided into an upper end, a center, and a lower end.
- a luminance distribution to be combined may be determined by, for example, observing symmetry. That is, since the black belt portion used for the aspect adjustment exists in the left and right (up and down) objects, an appropriate luminance distribution can be generated by observing this symmetry. More specifically, if both sides are determined to be flat, a central luminance distribution that does not include unnecessary left and right (up and down) portions is output, assuming that a black belt portion exists.
- the area to be divided is explicitly indicated and processed. However, for example, only a designated area may be read. In this case, the region analysis unit may directly read the designated region without dividing the region by the region dividing unit 550.
- the present invention can be applied to devices for displaying various images (videos) such as televisions and computers.
- each constant is recorded in advance, but the user may be able to vary within a predetermined range.
- a user interface as shown in FIG. 22 may be provided, and the user may arbitrarily set gain strength, threshold value THL (lower limit value), threshold value THU (upper limit value), gain coefficient, and the like. As a result, the image quality can be adjusted according to the user's preference.
- the mobile phone 1 described in the above-described embodiment may be used by connecting to a network.
- FIG. 23 shows an example of a network configuration.
- the mobile phone 3000 (4000) receives broadcast waves from the broadcast station 1000 and is connected to the network NW via the base station 5000 (6000). Further, a server 2000 is connected to the network NW, and the mobile phone 3000 (4000) can be connected via the network NW.
- the setting of the mobile phone 3000 may be transmitted to the mobile phone 4000 via the network NW. Thereby, the setting can be shared between users.
- the set value may be included in the broadcast wave received from the broadcast station 1000.
- the mobile phone 3000 (4000) that has received the broadcast wave executes the sharpening process of the present invention using the set value included in the broadcast wave.
- the content providing side can transmit setting values suitable for the program, and the user can view more appropriate images.
- the setting value may be downloaded from the server 2000.
- the terminal side of the mobile phone 3000 (4000) does not need to store many setting values, and even when the storage capacity on the terminal side is small, appropriate setting values are used each time. It becomes possible.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
入力画像の輪郭成分を抽出する輪郭成分抽出部500と、輪郭成分抽出部により抽出された輪郭成分に、ゲインをかけて輪郭成分を強調する輪郭強調部516と、を備え、入力画像の輝度分布を取得する輝度分布取得部510と、取得された輝度分布に基づいて、ゲイン特性を算出するゲイン特性算出部512と、入力画像の輝度値と、ゲイン特性算出部512により算出されたゲイン特性とに基づいて、画素毎のゲインを決定することにより、輪郭成分の強調度合いを調整する強調度合い調整部514と、を備える。これにより、画像の輝度分布に応じて輪郭強調度合いを調整することで、輝度分布に偏りのある画像においても、違和感の無い画像をとして処理可能な画像処理装置等を提供することができる。
Description
本発明は、入力画像の輪郭成分を抽出する輪郭成分抽出部と、前記輪郭成分抽出部により抽出された輪郭成分に、ゲインをかけて輪郭成分を強調する輪郭強調部と、を備えた画像処理装置等に関する。
従来から入力された画像(例えば、静止画像や、動画像)を鮮鋭化するために、種々の技術が知られている。例えば、入力された画像信号の輝度成分である輝度Yのレベルに応じて強調度合いを調整し、とくに輪郭部分を強調することにより、利用者に対してより鮮鋭化された画像を提供する技術が知られている(例えば、特許文献1参照)。
ここで、従来から行われている画像の鮮鋭化処理について説明する。図24は、画像の輪郭を強調し鮮鋭化を行う鮮鋭化部900の構成を示した図である。鮮鋭化部900は、通常画像処理装置に含まれて構成されている。
鮮鋭化部900は、図24に示すように、輪郭成分抽出部910(平滑化処理部912及び減算器914)と、加算器916と、レベル判定部918と、輪郭強調部920とを備えて構成されている。また、強調度合いが外部の制御部800から指示・制御される。また、図25において、画像の信号の様子を示す。例えば、図25(a)は、鮮鋭化部900に入力された画像の信号(輝度成分)を示した図である。
まず、入力画像(輝度Y)が、平滑化処理部912に入力されることにより、平滑化された画像(平滑化画像)が出力される(図25(b))。そして、元の入力画像から、平滑化画像が減算器914により減算されることにより、輪郭成分が出力される(図25(c))。
また、入力画像の輝度Yに基づいて、レベル判定部918によりゲインが決定される。ここで、レベル判定部918は、制御部800から入力された設定値、強調度合い係数に基づいてゲインが画素毎に判定されることとなる。
この、レベル判定部918により判定されたゲインと、減算器914に出力された輪郭成分とに基づいて、輪郭強調部920により輪郭が強調される(図25(d))。図25(d)に示すように、輪郭を強調する方法としては、暗部を抑圧し、明部を強調する方法により行う。
そして、強調後の輪郭成分と、元の入力画像とを加算器916により加算することにより、輪郭が強調された出力画像が出力される(図25(e))。
しかしながら、従来の画像を鮮鋭化するために、輪郭を強調する処理を施した場合、画像全体(輝度全体)の輪郭が強調されてしまうといった問題があった。これは、画像全体の輝度分布に偏りが無い場合は問題とならないが、輝度分布に偏りがある画像の場合、不自然に輪郭が強調されてしまうといった問題があった。
例えば、全体が暗い画像(すなわち輝度分布が低輝度領域に偏っている画像)において、被写体として人物が映っている場合、従来の鮮鋭化処理を施すことにより、人物の明るい部分(例えば、白目部分等)が余計に強調されてしまい、不自然な画像となってしまっていた。
また、白い背景に文字を表示させるような、全体が明るい画像(すなわち輝度分布が高輝度領域に偏っている画像)の場合、従来の鮮鋭化処理を施すことにより、背景と文字の境界で輪郭強調が施されるが、文字部分については適切な輝度とならず暗く沈み込んだ色となり原画像の風味と異なった不自然な画像となってしまっていた。
上述した課題に鑑み、本発明が目的としているところは、画像の輝度分布に応じて輪郭強調度合いを調整することで、輝度分布に偏りのある画像においても、違和感の無い画像をとして処理可能な画像処理装置等を提供することである。
上述した課題に鑑み、本発明の画像処理装置が目的とするところは,入力画像の輪郭成分を抽出する輪郭成分抽出部と、前記輪郭成分抽出部により抽出された輪郭成分に、ゲインをかけて輪郭成分を強調する輪郭強調部と、を備えた画像処理装置において、輝度毎に前記入力画像の画素の輝度分布を取得する輝度分布取得部と、前記輝度分布取得部により取得された輝度分布に基づいて、ゲイン特性を算出するゲイン特性算出部と、前記入力画像の輝度値と、前記ゲイン特性算出部により算出されたゲイン特性とに基づいて、画素毎のゲインを決定することにより、前記輪郭成分の強調度合いを調整する強調度合い調整部と、を備えることを特徴とする。
また、本発明の画像処理装置において、前記ゲイン特性算出部は、前記輝度分布取得部により取得された輝度分布に基づいて、画素数が多い輝度の強調度合いが、画素数が少ない輝度の強調度合い以上になるようなゲイン特性を算出することを特徴とする。
また、本発明の画像処理装置において、前記ゲイン特性算出部は、前記輝度分布取得部により取得された輝度分布におけるある輝度の画素数が、所定の閾値以下の場合には、当該輝度におけるゲインが最小となるゲイン特性を返すことを特徴とする。
また、本発明の画像処理装置において、前記ゲイン特性算出部は、前記輝度分布取得部により取得された輝度分布におけるある輝度の画素数が、所定の閾値より大きい場合には、当該輝度におけるゲインが最大となるゲイン特性を返すことを特徴とする。
また、本発明の画像処理装置において、前記ゲイン特性算出部は、前記輝度分布取得部により取得された輝度分布におけるある輝度の画素数が、前記所定の閾値より大きな値となる第2の閾値以上の場合には、当該輝度におけるゲインが最大となるゲイン特性を返し、前記画素数が、前記第2の閾値より小さい場合には、前記画素数をパラメータとするゲイン特性決定関数により決定されるゲイン特性を返すことを特徴とする。
また、本発明の画像処理装置において、前記ゲイン特性決定関数は、パラメータである画素数が所定の閾値より大きく、第2の閾値より小さい場合には、前記画素数と出力であるゲイン係数の関係が単調増加となる関数であることを特徴とする。
また、本発明の画像処理装置において、前記ゲイン特性算出部は、低輝度/高輝度の領域と、中輝度の領域で異なるゲイン特性を返すことを特徴とする。
また、本発明の画像処理装置において、前記輝度分布取得部は、前記入力画像のうち、平坦部に属していない画素の輝度分布を取得することを特徴とする。
また、本発明の画像処理装置において、入力画像を所定の領域に分割する領域分割部を更に有し、前記輝度分布取得部は、前記領域分割部に分割された領域毎に、入力画像が平坦か否かを判定し、平坦でない領域の画素の輝度分布を取得することを特徴とする。
本発明のプログラムは、コンピュータに、入力画像の輪郭成分を抽出する輪郭成分抽出ステップと、前記輪郭成分抽出ステップにより抽出された輪郭成分に、ゲインをかけて輪郭成分を強調する輪郭強調ステップと、を実現させるためのプログラムであって、輝度毎に前記入力画像の画素の輝度分布を取得する輝度分布取得ステップと、前記輝度分布取得ステップにより取得された輝度分布に基づいて、ゲイン特性を算出するゲイン特性算出ステップと、前記入力画像の輝度値と、前記ゲイン特性算出部により算出されたゲイン特性とに基づいて、画素毎のゲインを決定することにより、前記輪郭成分の強調度合いを調整する強調度合い調整ステップと、を実現させることを特徴とする。
本発明の画像処理装置によれば、入力画像の輝度分布を取得し、取得された輝度分布に基づいて、ゲイン特性を算出する。そして、入力画像の輝度値と、算出されたゲイン特性とに基づいて、画素毎のゲインを決定することにより、輪郭成分の強調度合いを調整して、入力画像の輪郭成分を強調することとなる。したがって、輪郭成分を強調する場合に、一律に強調されることなく、輝度分布に基づいて強調度合いを調整することが可能となり、より自然な画像を出力することが可能となる。
また、本発明の画像処理装置によれば、輝度分布取得部により取得された輝度分布に基づいて、画素数が多い輝度の強調度合いが、画素数が少ない輝度の強調度合い以上になるようなゲイン特性が算出されることとなる。
また、本発明の画像処理装置によれば、輝度分布取得部により取得された輝度分布におけるある輝度の画素数が、所定の閾値以下の場合には、当該輝度におけるゲインが最小となるゲイン特性を返すこととなる。したがって、輝度分布の中で画素数が少ない輝度の画素が不必要に強調されることが抑制されるため、視聴者にとって不自然な強調とならない処理を施すことが可能となる。
また、本発明の画像処理装置によれば、輝度分布におけるある輝度の画素数が、所定の閾値より大きい場合には、当該輝度におけるゲインが最大となるゲイン特性を返すこととなる。したがって、画素数が多い輝度の強調度合いが、画素数が少ない輝度の強調度合い以上になることとなり、メリハリのある鮮鋭化された画像を提供することが可能となる。
また、本発明の画像処理装置によれば、輝度分布におけるある輝度の画素数が、所定の閾値より大きな値となる第2の閾値以上の場合には、当該輝度におけるゲインが最大となるゲイン特性を返し、前記画素数が、第2の閾値より小さい場合には、前記画素数をパラメータとするゲイン特性決定関数により決定されるゲイン特性を返すこととなる。従って、輝度分布の山に沿った滑らかなゲイン特性を返すことが可能となる。
また、本発明の画像処理装置によれば、ゲイン特性決定関数は、パラメータである画素数が所定の閾値より大きく、第2の閾値より小さい場合には、前記画素数と出力であるゲイン係数の関係が単調増加となる関数となる。これにより、より利用者感覚特性に近い性質を持たせることが可能となり、よりメリハリ感の向上を図ることが可能となる。
また、本発明の画像処理装置によれば、ゲイン特性算出部は、低輝度/高輝度の領域と、中輝度の領域で異なるゲイン特性を返すこととなる。これにより、利用者の目につきやすい低輝度/高輝度の領域と、中輝度の領域で異なるゲイン関数とすることにより、より鮮明となる画像を提供することが可能となる。
以下、図面を参照して本発明を実施するための最良の形態について説明する。なお、本実施形態では、画像処理装置の一例として、地上波デジタル放送が受信可能な携帯電話1において適用した場合について説明する。
[1.第1実施形態]
本発明の画像処理装置を携帯電話に適用した場合について、第1実施形態について説明する。
本発明の画像処理装置を携帯電話に適用した場合について、第1実施形態について説明する。
[1.1 装置外観]
まず、図1は、本発明の画像処理装置を適用した携帯電話1の外観である。携帯電話1は、操作部70(例えば、ダイヤルボタン)と、表示部80(例えば、液晶ディスプレイ)とを備えており、表示部80には各画像が出力される。なお、本実施形態において、画像とは、静止画であってもよいし、動画であっても良い。
まず、図1は、本発明の画像処理装置を適用した携帯電話1の外観である。携帯電話1は、操作部70(例えば、ダイヤルボタン)と、表示部80(例えば、液晶ディスプレイ)とを備えており、表示部80には各画像が出力される。なお、本実施形態において、画像とは、静止画であってもよいし、動画であっても良い。
また、TV用受信アンテナ25は、放送局から放送波(番組)を受信するためのアンテナである、TV用受信アンテナ25で受信された放送波は、携帯電話1でデコード後、表示部80に表示されることとなる。なお、TV用受信アンテナ25は、携帯電話1の筐体に内蔵されるものであっても良い。
[1.2 機能構成]
続いて、携帯電話1の機能構成について、図2を用いて説明する。図2に示すように、携帯電話1は、制御部10に、TV受信部20と、無線通信部30と、カメラ撮影部40と、画像処理部50と、記憶部60と、操作部70と、表示部80と、音声通話部90とを備えて構成されている。
続いて、携帯電話1の機能構成について、図2を用いて説明する。図2に示すように、携帯電話1は、制御部10に、TV受信部20と、無線通信部30と、カメラ撮影部40と、画像処理部50と、記憶部60と、操作部70と、表示部80と、音声通話部90とを備えて構成されている。
制御部10は、携帯電話1を制御する機能部であり、例えばCPU等の処理装置により構成されている。制御部10は、記憶部60に記憶されている各種プログラムを読み出して実行することにより、各機能を実現することとなる。
TV受信部20は、TV用受信アンテナ25が接続されており、放送局からデジタル放送の放送波(番組)をTV用受信アンテナ25介して受信する。そして、受信された放送波を復調し、復調された番組(映像/音声信号)を出力する機能部である。なお、TV受信部20の動作については、本発明の本質的な部分ではなく、公知の技術であるため、その説明を省略する。
無線通信部30は、無線通信用アンテナ35が接続されており、基地局から通信網を介して音声/データを送受信する機能部である。なお、無線通信部30の動作については、本発明の本質的な部分ではなく、公知の技術であるため、その説明を省略する。
カメラ撮影部40は、カメラにより被写体が撮影され、画像(画像データ)として出力される。出力された画像データは、一度フレームメモリ62に出力されたあと、各種再生、保存等の処理が行われる。
画像処理部は、入力画像に各種処理を施すための機能部である。本実施形態においては、色調整部52と、ノイズ除去部54と、鮮鋭化部56と、色補正部58とを備えて構成されている。
色調整部52は、入力された画像の色調整を行う機能部であり、ノイズ除去部54は、入力された画像から主たるノイズを除去するための機能部である。また、色補正部58は、表示部80に画像を表示する場合の色について補正を行う機能部である。これらの機能部については、画像処理装置において、従前から用いられているものと同等なため、その詳細な説明は省略する。また、鮮鋭化部56は、入力された画像の輪郭を強調することにより、画像の鮮鋭化を行う機能部であり、その詳細な動作については後述する。
記憶部60は、携帯電話1の設定状態を記憶したり、入力された画像を一時的に記憶したりする機能部である。ここで、記憶部60は、例えば、半導体メモリ、ハードディスクドライブ等のいずれかの記憶装置により構成されている。また、携帯電話1を動作させる為の各種データやプログラム等も記憶している。制御部10は、記憶部60に記憶されている制御プログラムを読み出して実行することにより、各種制御処理を実行する。
また、記憶部60は、フレームメモリ62と、輝度分布テーブル64と、ゲイン特性テーブル66とを記憶するための領域を確保している。
フレームメモリ62は、入力された画像(画像データ)を記憶する領域である。TV受信部により受信された映像や、カメラ撮影部により撮影された画像等は、一度フレームメモリ62に記憶される。
輝度分布テーブル64は、フレームメモリ62に記憶されている1画面(1フレーム)における輝度毎の画素数x(Y)の分布である輝度分布を記憶しているテーブルである。各画素の輝度Yを抽出し、当該輝度Yが、全画面のどれくらいの割合で含まれているかを記憶している。なお、輝度分布テーブル64に記憶されているデータに基づいて、ヒストグラムを生成することが可能である。
ゲイン特性テーブル66は、後述するゲイン特性算出部512により算出されたゲイン特性が記憶されるテーブルである。鮮鋭化部56は、ゲイン特性テーブル66に記憶されているゲイン特性に基づいて、入力画像を鮮鋭化する。なお、輝度分布テーブル64およびゲイン特性テーブル66は鮮鋭化部56の中に記憶されてもよい。
操作部70は、利用者が携帯電話1に対して操作を行う場合に利用する機能部であり、例えば、操作ボタンや、タッチパネル等から構成されている。また、表示部80は、携帯電話1から、利用者に対する各種報知を表示したり、画像を表示したりする機能部である。例えば、液晶ディスプレイ等から構成されている。
音声通話部90は、携帯電話1が、電話機として機能する場合に利用される機能部であり、音声入力をするためのマイクや、音声出力するためのスピーカ、音声エンコーダ、デコーダ等から構成されている。なお、音声通話部90については、従来からの構成と同じであり、また、本発明において本質的な部分でないため、その説明を省略する。
[1.3 鮮鋭化部]
[1.3.1 ハードウェアによる構成]
続いて、鮮鋭化部56について、図3を用いて詳細に説明する。鮮鋭化部56は、輪郭成分抽出部500(平滑化処理部502及び減算器504)と、輝度分布取得部510と、ゲイン特性算出部512と、強調度合い調整部514と、輪郭強調部516と、加算器518とを備えて構成されている。
[1.3.1 ハードウェアによる構成]
続いて、鮮鋭化部56について、図3を用いて詳細に説明する。鮮鋭化部56は、輪郭成分抽出部500(平滑化処理部502及び減算器504)と、輝度分布取得部510と、ゲイン特性算出部512と、強調度合い調整部514と、輪郭強調部516と、加算器518とを備えて構成されている。
まず、鮮鋭化部56に入力された入力画像信号(輝度成分)は、輪郭成分抽出部500と、強調度合い調整部514と、輝度分布取得部510とに入力される。
輝度分布取得部510は、入力された入力画像の輝度成分の画像信号から、輝度分布を取得する。具体的には、画面の全画素について、輝度成分を取得し、輝度Yに対する画素数x(Y)を取得する。取得された輝度Y毎の画素数x(Y)は輝度分布として、ゲイン特性算出部512に出力される。
ここで、入力画像の水平サイズをW、垂直サイズをHとした場合、入力画像(例えば、映像1フレーム分)の総画素数はW×Hとなる。そして、x(Y)の総和(Y=0~Y=255の画素数の総和)と、W×Hとの値は等しい関係となる。
ゲイン特性算出部512は、入力された輝度分布に基づいて、ゲイン特性g(Y)を算出する機能部である。すなわち、輝度分布における輝度Yの画素数をパラメータとするゲイン係数決定関数により、ゲイン係数が決定される。そして、予め定められた方式によりゲイン特性g(Y)を算出し、強調度合い調整部514に出力する。
強調度合い調整部514は、入力された画素の輝度Yをパラメータとし、ゲイン特性算出部512により算出されたゲイン特性g(Y)によって画素毎のゲインを決定し出力する機能部である。画素毎に決定されたゲインは、輪郭強調部516に出力される。
輪郭強調部516は、輪郭成分抽出部500から出力された輪郭成分と、強調度合い調整部514から入力された画素毎のゲインとに基づき、輪郭を強調する。そして、強調された輪郭成分が、加算器518に出力される。
加算器518は、入力された入力画像信号と、輪郭強調部516から入力された強調後の輪郭成分とを加算し、出力画像信号として出力する。このように、鮮鋭化部56によれば、入力画像信号を、輝度分布に基づいて輪郭強調し、出力画像信号として出力することとなる。
[1.3.2 ソフトウェアによる構成]
なお、本実施形態において、鮮鋭化部56は、高速に動作させるためにハードウェアで構成するものとして説明するが、一部の処理又は全部の処理をソフトウェアで実現することも可能である。
なお、本実施形態において、鮮鋭化部56は、高速に動作させるためにハードウェアで構成するものとして説明するが、一部の処理又は全部の処理をソフトウェアで実現することも可能である。
例えば、図4は、ゲイン特性算出部512の処理を、制御部10において、ゲイン特性算出手順512aとして、ソフトウェアにて実現する鮮鋭化部56aである。鮮鋭化部56aは、輝度分布取得部510により取得された輝度分布を制御部10に出力する。制御部10は、記憶部60に記憶されているプログラムを実行することにより、ゲイン特性算出手順を実行し、ゲイン特性を鮮鋭化部56aに出力する。
また、図5は、鮮鋭化部56の処理をすべてソフトウェアにて実現した場合における構成図である。フレームメモリ62に記憶されている入力画像を、制御部10が読み出し、各種処理・手順を実行することにより出力画像が出力される。
具体的には、輝度Yが、輝度分布取得手順(手順1)に出力されると、輝度分布取得手順は、輝度分布を取得し、ゲイン特性算出手順(手順2)が実行される。ゲイン特性算出手順が実行されることにより、ゲイン特性が算出される。そして、入力画像の輝度Yと、ゲイン特性とに基づいて、輪郭成分抽出手順、強調度合い調整手順及び輪郭強調手順(手順3)が実行される。これにより、鮮鋭化部56において出力される出力画像と同じ画像が、フレームメモリ62に出力される。
この場合における具体的な処理手順について、図6を用いて説明する。まず、フレームメモリ62から、輝度Yが抽出される(ステップS100)。そして、抽出された輝度Y毎に画素数x(Y)が取得され(ステップS102)、全画素の処理が完了すると輝度Y毎の画素数x(Y)の分布である輝度分布の取得が完了する(ステップS104)。
ここで、入力画像の全画素(W×H)分の輝度分布を取得すると(ステップS104;Yes)、ゲイン特性算出処理が実行され(ステップS106)、ゲイン特性が算出される。そして、フレームメモリ62の入力画像から各画素の輝度が抽出され(ステップS108)、輪郭成分抽出処理により輪郭成分が抽出される(ステップS110)。
その後、強調度合い調整処理が実行されることにより(ステップS112)、ゲイン特性算出処理(ステップS106)において算出されたゲイン特性と、抽出された輪郭成分とに基づいて、強調度合いが調整され、画素毎のゲインが決定する。
そして、決定されたゲインに基づいて輪郭強調処理が実行され(ステップS114)、輪郭が強調され、強調された輝度Yはフレームメモリ62へ出力画像として出力される(ステップS116)。
そして、全画素が終了したら(ステップS118;Yes)、本処理を終了し、まだ画素が残っている場合は、次の画素についてステップS108から処理を繰り返し実行する。
[1.4 ゲイン特性算出処理について]
ここで、ゲイン特性を算出する処理について、説明する。ゲイン特性算出処理としては、図3のハードウェアの場合は、ゲイン特性算出部512において実行される処理であり、ソフトウェアの場合、図4及び図5のゲイン特性算出手順(すなわち、図6のステップS106)において実行される処理である。これらのゲイン特性算出処理について、複数の実施例を用いて説明する。
ここで、ゲイン特性を算出する処理について、説明する。ゲイン特性算出処理としては、図3のハードウェアの場合は、ゲイン特性算出部512において実行される処理であり、ソフトウェアの場合、図4及び図5のゲイン特性算出手順(すなわち、図6のステップS106)において実行される処理である。これらのゲイン特性算出処理について、複数の実施例を用いて説明する。
[1.4.1 ゲイン特性算出処理(第1実施例)]
第1実施例は、第1ゲイン算出処理について、説明する。第1ゲイン特性算出処理は、輝度分布における輝度Yの画素数x(Y)が、所定の閾値THL以下の場合には、ゲイン特性を0と、所定の閾値THLを超えた場合にはゲイン特性をGとする処理である。
第1実施例は、第1ゲイン算出処理について、説明する。第1ゲイン特性算出処理は、輝度分布における輝度Yの画素数x(Y)が、所定の閾値THL以下の場合には、ゲイン特性を0と、所定の閾値THLを超えた場合にはゲイン特性をGとする処理である。
すなわち、以下の数1で表されるゲイン特性を用いることとなる。
具体的に、図7を用いて説明する。まず、輝度Yの画素数x(Y)を輝度分布テーブル64から読み出す(ステップS200)。ここで、画素数x(Y)の割合が、所定の閾値であるTHL以下であるか否かを判定する(ステップS202)。ここで、所定の閾値としては種々の値が考えられるが、本実施形態においては、「THL=1.0%」として判定する。ここで「1.0%の割合」とは全画素(W×H)に対する割合であり、画素数で表すと「THL=W×H×1/100」となる。
x(Y)が閾値THL以下の場合には(ステップS202;Yes)、ゲイン特性g(Y)=0Gとする(ステップS206)。他方、x(Y)が閾値THLを超えている場合には(ステップS202;No)、ゲイン特性g(Y)=1.0Gとする(ステップS204)。
そして、総ての輝度について完了していない場合には、次の輝度について、同様の処理を実行し(ステップS208;No→ステップS210→ステップS200)、総ての輝度について処理が完了した場合には、処理を終了する(ステップS208;Yes)。
ここで、第1実施例におけるゲイン特性の具体例を図8を用いて説明する。図8は、輝度分布に基づいてヒストグラムを表した図である。網がけの柱状グラフが、輝度分布に基づくヒストグラムであり、横軸に輝度Y、縦軸に画素数x(Y)を示している。
また、L100(二点鎖線)が、閾値THLを示しており、本実施形態においては「1.0%」である。更に、L102(太線)が、ゲイン特性g(Y)を示すグラフである。
図8に示すように、領域R100においては、画素数x(Y)が閾値THLを超えているために、ゲイン特性g(Y)は、「1.0G」となっている。また、領域R102においては、画素数x(Y)が所定の閾値THL以下であるために、ゲイン特性g(Y)は「0G」となっている。
なお、上述した実施形態においては、閾値THL以下の場合、ゲイン特性g(Y)を「0G」として返しているが、所定のゲインG(本実施形態においては「1.0G」)よりも、十分抑圧された値であれば0以上の値を用いても良い。
このように、第1実施例のゲイン特性を適用することにより、ゲイン特性が「画素数の多い輝度の輪郭強調度合い≧画素数が少ない輝度の輪郭強調度合い」となるように、コンパクトな回路構成(処理手順)で実現することにより、高速かつ適切な出力画像を得る事が可能となる。
[1.4.2 ゲイン特性算出処理(第2実施例)]
続いて、第2実施例について説明する。第2実施例は、第1実施例に加えて、画素数x(Y)の割合が、所定の閾値THU以上(本実施形態の場合、一例として10%)の場合はゲイン特性g(Y)はGとするが、x(Y)が、閾値THUを超えていない場合には、画素数x(Y)をパラメータとするゲイン特性決定関数によりゲイン特性g(Y)を決定する実施例である。
続いて、第2実施例について説明する。第2実施例は、第1実施例に加えて、画素数x(Y)の割合が、所定の閾値THU以上(本実施形態の場合、一例として10%)の場合はゲイン特性g(Y)はGとするが、x(Y)が、閾値THUを超えていない場合には、画素数x(Y)をパラメータとするゲイン特性決定関数によりゲイン特性g(Y)を決定する実施例である。
ここで、第2実施例において、数2において示されるゲイン特性決定関数を用いて、ゲイン特性を決定するものとする。
ここで、αは所定の定数であり、本実施形態においては「W×H/THU」の式にて計算される。また、Gは輪郭強調ゲイン定数であり、本実施形態においては「1.0G」とする。
具体的に図9を用いて第2ゲイン特性算出処理を説明する。まず、輝度分布における輝度Yの画素数x(Y)が読み出される(ステップS300)。そして、画素数x(Y)の割合が閾値THL以下の場合は(ステップS302;Yes)、ゲイン特性g(Y)を「0G」とする(ステップS310)。
他方、画素数x(Y)の割合が、閾値THL以上である場合には、次に画素数x(Y)が閾値THU以上であるか否かを判定する(ステップS302;No→ステップS304)。
ここで、画素数x(Y)が閾値THU以上の場合は、ゲイン特性g(Y)を「1.0G」とする(ステップS304;Yes→ステップS308)。また、画素数x(Y)が閾値THU未満の場合には(ステップS304;No)、画素数x(Y)をパラメータとするゲイン特性決定関数(この場合、x(Y)×α×1.0/(W×H))にて、ゲイン特性g(Y)を決定する(ステップS306)。
そして、総ての輝度について完了していない場合には、次の輝度について、同様の処理を実行し(ステップS312;No→ステップS314→ステップS300)、総ての輝度について処理が完了した場合には、処理を終了する(ステップS312;Yes)。
ここで、第2実施例におけるゲイン特性の具体例を図10を用いて説明する。図10は輝度分布に基づいてヒストグラムを表した図である。ここで。L200(二点鎖線)が閾値THL、L202(一点鎖線)が閾値THU、L204(太線)がゲイン特性g(Y)を示すグラフである。
図10に示すように、領域R200、R204においては、x(Y)が、THLとTHUの間にあるため、ゲイン特性決定関数に従って、ゲイン特性g(Y)が決定されている。すなわち、画素数x(Y)に比例してゲイン特性g(Y)が決定されている。
領域R202においては、画素数x(Y)が、閾値THU以上となっているために、ゲイン特性g(Y)は「1.0G」となっている。また、領域R206においては、画素数x(Y)が閾値THL以下となっているため、ゲイン特性g(Y)は「0G」となっている。
このように、第2実施例は、第1実施例と比較して回路構成(処理手順)は複雑となるが、第1実施例のゲイン特性が急峻な特性を持っているのに比べて、輝度分布の山に沿って滑らかなゲイン特性を持たせることにより、より画質劣化が抑制されることとなる。
[1.4.3 ゲイン特性算出処理(第3実施例)]
続いて、第3実施例について説明する。第3実施例は、第2実施例において、ゲイン特性決定関数を他の数式に変えたものである。
続いて、第3実施例について説明する。第3実施例は、第2実施例において、ゲイン特性決定関数を他の数式に変えたものである。
ここで、第3実施例においては、数3において示されるゲイン特性決定関数を用いて、ゲイン特性を決定するものとする。
ここで、fα1(x(Y))は、画素数x(Y)の入力に基づく人間の感覚特性に応じたゲイン係数を算出する関数である。具体的には、図11で示されるような関数を利用する。
すなわち、画素数x(Y)が小さい場合は、入力画面において割合が小さいため、それに対応する輝度Yの画素については、人間にとって既に差別化されている感覚特性を獲得できる。したがって、強調度合いは小さくてよく、ゲイン係数は小さな値が出力されるようにする。他方、画素数x(Y)が大きい場合は、入力画面において割合が大きいため、それに対応する輝度Yの画素については、人間にとって差別化されておらず、メリハリがないような感覚特性となる。したがって、強調度合いを大きくすることにより、ゲイン係数はより大きな値が出力されるようにする。
このように、非線形なゲイン係数とすることで、人間の感覚特性(対数的な特性)に近い形を実現出来ることとなる。なお、THL~THUに関しては、単調増加の関数としているが、他の感覚特性のグラフで表される関数を利用しても良い。
ここで、第3実施例におけるゲイン特性の具体例を図12を用いて説明する。図12は輝度分布に基づいてヒストグラムを表した図である。ここで、L300(二点鎖線)が閾値THL、L302(一点鎖線)が閾値THU、L304(太線)がゲイン特性g(Y)を示すグラフである。
図12に示すように、画素数x(Y)が、THL~THUの間にある場合には、上述したゲイン特性決定関数に基づいて決定されたゲイン係数に基づいて、ゲイン特性g(Y)が算出され、出力されることになる。
このように、第3実施例のゲイン特性を適用することにより、第2実施例において、ゲイン特性を滑らかにしたことにより、画像のメリハリ感が低減してしまっていた。そこで、人間の感覚特性に近い非線形特性(対数的な特性)を持たせることにより、メリハリ感の向上を図ったゲイン特性を提供することができる。
[1.4.4 ゲイン特性算出処理(第4実施例)]
続いて、第4実施例について説明する。第4実施例は、第2実施例(第3実施例)において、低輝度/高輝度領域と、その他の中輝度領域において、強調度合いを変化させる実施例である。
続いて、第4実施例について説明する。第4実施例は、第2実施例(第3実施例)において、低輝度/高輝度領域と、その他の中輝度領域において、強調度合いを変化させる実施例である。
ここで、第4実施例においては、数4において示されるゲイン特性決定関数を用いて、ゲイン特性を決定するものとする。
ここで、fTHL(Y)は、下限値決定関数であり、輝度Yを入力に持つ人間の感覚特性又は映像シーンに応じて下限値を算出する関数である。また、fTHU(X)は、上限値決定関数であり、輝度Yを入力に持つ人間の感覚特性又は映像シーンに応じて上限値を算出する関数である。
さらに、fα2(Y、x(Y))は、輝度Yと、画素数x(Y)の入力に基づいてゲイン係数を算出する関数であり、具体的には、図13で示されるような関数を利用する。ここで、勾配が増幅の度合いを実現し、輝度変化が視聴者の目につきやすい低輝度と高輝度の度合いを抑えることで、画像の自然さが向上する効果が期待できる関数である。
次に、第4実施例におけるゲイン特性の具体例を図14を用いて説明する。図14は、輝度分布に基づいてヒストグラムを表した図である。ここで、L400(二点鎖線)が閾値THL、L402(一点鎖線)が閾値THU、L404(太線)がゲイン特性g(Y)を示すグラフである。
図14に示すように、領域R400は低輝度領域、領域R404は高輝度領域となっており、領域R402は中輝度領域となっている。この領域に応じて、閾値THL及び閾値THUは変化する。また、ゲイン特性g(Y)についても、低輝度領域/高輝度領域については第2実施例に近い特性に、中輝度領域については第3実施例に近い特性となっている。
このように、輝度変化が利用者の目につきやすい低輝度/高輝度領域と、その他の利用者にとって鮮鋭化の効果がわかりにくい中輝度領域の強調度合いを変化させる、すなわち低輝度/高輝度領域については強調度合いの適用を小さく、中輝度領域については強調度合いの適用を大きくすることで、更に画質の向上がはかれ、メリハリ感のある画像を提供することが可能となる。
[1.5 適用例]
それでは、本発明を適用した場合における具体的な適用例について、図を用いて説明する。
それでは、本発明を適用した場合における具体的な適用例について、図を用いて説明する。
例えば、図15は、人物及び景色が表示されている表示画面と、その表示画面の輝度分布に基づくヒストグラムとを表した図である。図15(a)は鮮鋭化処理を施してない状態、図15(b)は本発明を適用した鮮鋭化処理を施した状態、図15(c)は従来の鮮鋭化処理を施した状態を示している。また、各図とも、左側に画面例を、右側にヒストグラムを示している。
ここで、各ヒストグラムの領域を比較すると、従来の鮮鋭化の処理を適用した図15(c)は、図15(a)のヒストグラムと比較すると、輝度分布の全体が強調されている。したがって、領域R500の中輝度領域の輝度分布については、領域R504では高輝度領域に分布が移動している。このため、画像の明るい部分が余計に強調され、不自然な画像となっている。
それと比較し、本発明を適用した図15(b)の領域R502を見ると、中輝度領域の輝度分布は領域R500と同じように輝度が分布していると同時に、低輝度領域の輝度が強調されている。したがって、画素数の多い低輝度領域の輝度が適切に強調されていることから、画像全体としてメリハリ感を保ちながら高輝度領域の不自然さを抑制する効果が期待できる。
次に、図16は、背景が白色の画像(すなわち高輝度領域が強い)に、文字が表示されている画像となる。図15と同様に、図16(a)は鮮鋭化処理を施してない状態、図16(b)は本発明を適用した鮮鋭化処理を施した状態、図16(c)は従来の鮮鋭化処理を施した状態を示している。また、各図とも、左側に画面例を、右側にヒストグラムを示している。
ここで、各ヒストグラムの領域を比較すると、従来の鮮鋭化の処理を適用した図16(c)は、図16(a)のヒストグラムと比較すると、輝度分布の全体が強調されている。したがって、領域R600の中輝度領域の輝度分布についても、領域R604では低輝度領域に分布が移動している。このため、画像の中輝度領域(文字部分)はが暗く沈みこんだ色となり原画像の風味と異なった不自然な画像となっている。
それと比較し、本発明を適用した図16(b)の領域R602を見ると、中輝度領域の輝度分布は領域600と同じように輝度が分布していると同時に、高輝度領域の輝度が強調されている。したがって、画素数の多い高輝度領域の輝度が適切に強調されていることから、画像全体としてメリハリ感を保ちながら中輝度領域の不自然さを抑制する効果が期待できる。
このように、本発明を適用した画像処理装置を用いることにより、画像の輝度分布に応じて輪郭強調の度合いを調整することとなり、特に輝度分布に偏りがあるシーンにおいて、違和感のない自然な輪郭強調をすることが可能となる。
例えば、人物が映っている暗い画像を輪郭強調する場合、顔や目(白目)等の照明が反射して光っている部分が過度に強調されてしまい、不自然な画像になることを防ぐことが出来る。
[2.第2実施形態]
続いて、第2実施形態について説明する。上述した第1実施形態では、画面全体で輝度分布を取得することとして説明したが、第2実施形態では、画像中の平坦部を除外して輝度分布を取得する場合について説明する。
続いて、第2実施形態について説明する。上述した第1実施形態では、画面全体で輝度分布を取得することとして説明したが、第2実施形態では、画像中の平坦部を除外して輝度分布を取得する場合について説明する。
[2.1 第1実施例]
まず、第2実施形態の第1実施例として、1ピクセルずつ平坦か否かを確認しながら輝度分布を取得する例について説明する。
まず、第2実施形態の第1実施例として、1ピクセルずつ平坦か否かを確認しながら輝度分布を取得する例について説明する。
具体的な処理としては、図6のメイン処理において、ステップS102「輝度分布取得」の処理について、図17に示すステップS402~S404の処理を代わりに実行する。
まず、現在の画素(ステップS100において輝度が抽出された画素)周辺の平坦値(本実施形態においては、平坦値を判定する値として分散値を利用する)を取得する(ステップS402)。つづいて、取得された分散値が、閾値以上である場合、すなわち平坦でない場合は、その画素の輝度値に対応するカウンタを加算することにより、輝度分布を取得する(ステップS404;Yes→ステップS406)。
他方、分散値が閾値未満の場合には、その画素は平坦部に属していると判定され、カウンタが加算されず、輝度分布から除外されることとなる(ステップS404;No)。
ここで、分散とは、画素が平坦か否かを判定するのに用いられる値であり、現在の画素を中心としたN×N個のピクセル群(例えば、3×3や5×5のピクセル群)から取得される。
ここで、分散値は以下の式により取得される。
なお、上述した平坦か否かは分散を用いて判定しているが、例えばエッジ強度をそれぞれの画素で算出し、その値から平坦か否かを判定する等といった他の方法であっても良い。
ここで、第1実施例における適用例について図18を用いて説明する。図18(a)は、黒帯部分(R700)を有する画像が処理されている。このとき、輝度分布を抽出すると、黒帯部分に応じて左側R702(低輝度側)が強調されることとなり、本来強調されるべき部分(R704、R706)が強調されないこととなる。また、高輝度側(R708)についても、本来強調・抑制されるべき箇所が適切に処理されない状態となる。
ここで、黒帯部分を除外して処理をしたのが図18(b)である。黒帯部分(R750)が除外されたことにより、左側R752(低輝度側)が適切に抑制されている。また、輝度分布が低輝度側に偏っていないことから、R754及びR756の部分についても適切に強調・抑制されることとなる。
[2.2 第2実施例]
続いて第2実施例について説明する。第2実施例は、予め想定される領域に分割して輝度分布を抽出し、当該領域が平坦であるか否かを判定して処理を施す。
続いて第2実施例について説明する。第2実施例は、予め想定される領域に分割して輝度分布を抽出し、当該領域が平坦であるか否かを判定して処理を施す。
ここで、第2実施例における鮮鋭化部56bについて、図19を用いて説明する。図19の鮮鋭化部56bは、図3の鮮鋭化部56に置き換えられる機能部であり、図3と同一の構成要素には同一の符号を付して、その説明を省略する。
図19に示すように、鮮鋭化部56bは、輪郭成分抽出部500(平滑化処理部502及び減算器504)と、ゲイン特性算出部512と、強調度合い調整部514と、輪郭強調部516と、加算器518と、領域分割部550と、一又は複数の領域解析部(領域解析部552~領域解析部M554)と、輝度分布統合部560とを備えて構成されている。
領域分割部550は、入力された画像を指定された領域に分割する機能部である。分割された画像は、領域解析部552~領域解析部M554へ出力される。分割される領域としては、一例として黒帯部分がよく存在する左端部、右端部、そして実際の画像が存在する中央部に領域を設定し、本実施例においては、左右端部に黒帯部分が存在することとして説明する。
領域解析部は、分割される領域毎に設けられている機能部である。本実施例においては、領域解析部552~領域解析部M554のM個を設けており、領域解析部552を一例にとって説明する。
この領域解析部552は、輝度分布取得部552aと、平坦判定部552bとを備えて構成されている。輝度分布取得部552aは、入力された画像の輝度分布を取得する機能部であり、平坦判定部552bは、入力された画像が平坦であるか否かを判定する機能部である。
ここで、平坦判定部552bが、入力された画像が平坦であるか否かを判定するには、例えば全画素の分散値の分散値を取得し、取得された分散値の合計が所定の閾値以上であるか否かに基づいて判定する。
そして、領域解析部552は、輝度分布取得部552aにより取得された輝度分布と、平坦判定部552bにより平坦か否かを判定された結果を輝度分布統合部560に出力される。
輝度分布統合部560は、各領域解析部からの平坦判定値を元に、ゲイン特性算出に利用するための輝度分布を生成する。輝度分布統合部560により生成された輝度分布は、ゲイン特性算出部512に入力される。
具体的には、平坦と判定された領域を除外して輝度分布を加算する方法が用いられる。
この場合の処理について図20を用いて説明する。
この場合の処理について図20を用いて説明する。
まず、結合前の画像は3つの領域(左端、中央、右端)に分割する(ステップS500)。次に、分割された各領域の輝度分布を取得する(ステップS502)。続いて、各領域の分散データを取得し、全領域の平坦さを評価する(ステップS504→ステップS506;No)。
ここで、全領域の平坦さの評価を終了すると(ステップS506;Yes)、左端の領域が平坦であるか否かを判定する(ステップS508)。ここで、左端の領域が平坦でない場合は、左端の領域の輝度分布を中央の輝度分布に結合する(ステップS508;No→ステップS510)。また、左端の領域が平坦である場合は、中央の輝度分布とは結合しない(ステップS508;Yes)。
続いて、右端の領域が平坦であるか否かを判定する(ステップS512)。ここで、右端の領域が平坦でない場合は、右端の領域の輝度分布を中央の輝度分布に結合する(ステップS512;No→ステップS514)。また、右端の領域が平坦である場合は、中央の輝度分布とは結合しない(ステップS512;Yes)。
すなわち、結合前は、3つの輝度分布が存在している場合に、左端部、右端部が平坦でない場合は、この3つの輝度分布を加算する。なお、この加算された輝度分布は、1画面分の輝度分布と等価となる。
また、左端部が平坦であると判定された場合、当該領域はゲイン特性算出に悪影響を与える部分となるため、左端部と中央部の結合は行わない。また、右端部が平坦であると判定された場合、当該領域はゲイン特性算出に悪影響を与える部分となるため、右端部と中央部の結合は行わない。
このように、輝度分布統合部560からは、平坦部(すなわち黒帯部分)を除外した輝度分布が出力されることとなる。
図21は、領域分割の様子の一例を示した図である。例えば、図21(a)の場合は、左右に黒帯部分があるため、左端、中央、右端に分割される。また、図21(b)の場合は、上下に黒帯部分があるため、上端、中央、下端に分割される。
このように、本実施形態によれば、黒帯部分を有する画像であっても、より適切な鮮鋭化処理を実行することができる。
なお、輝度分布統合部560において、各領域の平坦さを判定する以外にも、例えば対称性を見ることによって結合する輝度分布を決定してもよい。すなわち、アスペクト調整に用いられる黒帯部分は左右(上下)対象に存在しているため、この対称性をみることにより適切な輝度分布を生成することができる。具体的には、両サイドが両方とも平坦と判定された場合には黒帯部分が存在するとして、不要な左右(上下)部分を含まない、中央の輝度分布を出力することとなる。
また、上述した実施形態では、分割する領域を明示的に示して処理したが、例えば指定された領域のみ読み取る方式としても良い。この場合、領域分割部550にて領域分割することなく、指定された領域について直接領域解析部が読み取れば良い。
[3.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
また、上述した実施形態においては、本発明の画像処理装置を携帯電話に適用する場合について説明したが、本発明が適用できる装置はこれに限定されるものではなく、カーナビゲーション、ポータブルDVD、液晶テレビ、コンピュータ等の種々の画像(映像)を表示する装置に適用可能なことは勿論である。
また、上述した実施形態においては、各定数は予め記録されていることとして説明したが、利用者が所定の範囲で可変できることとしても良い。例えば、図22に示すような、ユーザインタフェースを提供し、利用者がゲインの強弱や、閾値THL(下限値)、閾値THU(上限値)、ゲイン係数等を任意に設定出来ることとしても良い。これにより、利用者の好みに応じて画質を調整することが可能となる。
また、上述した実施形態において説明した携帯電話1を、ネットワークに接続して利用する場合も考えられる。例えば、図23にネットワークの構成の一例を示す。
携帯電話3000(4000)は、放送局1000から放送波を受信するとともに、基地局5000(6000)を介してネットワークNWに接続されている。また、ネットワークNWには、サーバ2000が接続されており、携帯電話3000(4000)は、ネットワークNWを介して接続可能である。
ここで、携帯電話3000の設定を、ネットワークNWを介して携帯電話4000に送信出来ることとしてもよい。これにより、利用者同士の設定の共有が可能となる。
また、放送局1000から受信される放送波に、設定値が含まれていることとしてもよい。放送波を受信した携帯電話3000(4000)は、放送波に含まれる設定値を利用して、本発明の鮮鋭化処理を実行する。これにより、コンテンツ提供側が、番組に適した設定値を送信することが可能となり、利用者はより適切な画像を視聴することができる。
また、設定値をサーバ2000からダウンロードすることが出来るようにしてもよい。これにより、携帯電話3000(4000)の端末側は、多くの設定値を記憶する必要が無くなり、端末側の記憶容量が少ない場合であっても、適切な設定値をその都度利用するといったことが可能となる。
1 携帯電話
10 制御部
20 TV受信部
25 TV用受信アンテナ
30 無線通信部
35 無線通信用アンテナ
40 カメラ撮影部
50 画像処理部
52 色調整部
54 ノイズ除去部
56 鮮鋭化部
500 輪郭成分抽出部
502 平滑化処理部
504 減算器
510 輝度分布取得部
512 ゲイン特性算出部
514 強調度合い調整部
516 輪郭強調部
518 加算器
550 領域分割部
552 領域解析部
552a 輝度分布取得部
552b 平坦判定部
554 領域解析部M
560 輝度分布統合部
58 色補正部
60 記憶部
62 フレームメモリ
64 輝度分布テーブル
66 ゲイン特性テーブル
70 操作部
80 表示部
90 音声通話部
10 制御部
20 TV受信部
25 TV用受信アンテナ
30 無線通信部
35 無線通信用アンテナ
40 カメラ撮影部
50 画像処理部
52 色調整部
54 ノイズ除去部
56 鮮鋭化部
500 輪郭成分抽出部
502 平滑化処理部
504 減算器
510 輝度分布取得部
512 ゲイン特性算出部
514 強調度合い調整部
516 輪郭強調部
518 加算器
550 領域分割部
552 領域解析部
552a 輝度分布取得部
552b 平坦判定部
554 領域解析部M
560 輝度分布統合部
58 色補正部
60 記憶部
62 フレームメモリ
64 輝度分布テーブル
66 ゲイン特性テーブル
70 操作部
80 表示部
90 音声通話部
Claims (10)
- 入力画像の輪郭成分を抽出する輪郭成分抽出部と、
前記輪郭成分抽出部により抽出された輪郭成分に、ゲインをかけて輪郭成分を強調する輪郭強調部と、
を備えた画像処理装置において、
輝度毎に前記入力画像の画素の輝度分布を取得する輝度分布取得部と、
前記輝度分布取得部により取得された輝度分布に基づいて、ゲイン特性を算出するゲイン特性算出部と、
前記入力画像の輝度値と、前記ゲイン特性算出部により算出されたゲイン特性とに基づいて、画素毎のゲインを決定することにより、前記輪郭成分の強調度合いを調整する強調度合い調整部と、
を備えることを特徴とする画像処理装置。 - 前記ゲイン特性算出部は、前記輝度分布取得部により取得された輝度分布に基づいて、
画素数が多い輝度の強調度合いが、画素数が少ない輝度の強調度合い以上になるようなゲイン特性を算出することを特徴とする請求項1に記載の画像処理装置。 - 前記ゲイン特性算出部は、前記輝度分布取得部により取得された輝度分布におけるある輝度の画素数が、所定の閾値以下の場合には、前記輝度におけるゲインが最小となるゲイン特性を返すことを特徴とする請求項2に記載の画像処理装置。
- 前記ゲイン特性算出部は、前記輝度分布取得部により取得された輝度分布におけるある輝度の画素数が、所定の閾値より大きい場合には、前記輝度におけるゲインが最大となるゲイン特性を返すことを特徴とする請求項3に記載の画像処理装置。
- 前記ゲイン特性算出部は、
前記輝度分布取得部により取得された輝度分布におけるある輝度の画素数が、前記所定の閾値より大きな値となる第2の閾値以上の場合には、前記輝度におけるゲインが最大となるゲイン特性を返し、
前記画素数が、前記第2の閾値より小さい場合には、前記画素数を入力とするゲイン特性決定関数により決定されるゲイン特性を返すことを特徴とする請求項3に記載の画像処理装置。 - 前記ゲイン特性決定関数は、入力の画素数が所定の閾値より大きく、第2の閾値より小さい場合には、入力の画素数と出力のゲイン係数の関係が単調増加となる関数であることを特徴とする請求項5に記載の画像処理装置。
- 前記ゲイン特性算出部は、低輝度/高輝度の領域と、中輝度の領域で異なるゲイン特性を返すことを特徴とする請求項1から6のいずれか一項に記載の画像処理装置。
- 前記輝度分布取得部は、前記入力画像のうち、平坦部に属していない画素の輝度分布を取得することを特徴とする請求項1から7のいずれか一項に記載の画像処理装置。
- 入力画像を所定の領域に分割する領域分割部を更に有し、
前記輝度分布取得部は、前記領域分割部に分割された領域毎に、入力画像が平坦か否かを判定し、平坦でない領域の画素の輝度分布を取得することを特徴とする請求項1から7の何れか一項に記載の画像処理装置。 - コンピュータに、
入力画像の輪郭成分を抽出する輪郭成分抽出ステップと、
前記輪郭成分抽出ステップにより抽出された輪郭成分に、ゲインをかけて輪郭成分を強調する輪郭強調ステップと、
を実現させるためのプログラムであって、
輝度毎に前記入力画像の画素の輝度分布を取得する輝度分布取得ステップと、
前記輝度分布取得ステップにより取得された輝度分布に基づいて、ゲイン特性を算出するゲイン特性算出ステップと、
前記入力画像の輝度値と、前記ゲイン特性算出ステップにより算出されたゲイン特性とに基づいて、画素毎のゲインを決定することにより、前記輪郭成分の強調度合いを調整する強調度合い調整ステップと、
を実現させるためのプログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009-127251 | 2009-05-27 | ||
JP2009127251 | 2009-05-27 | ||
JP2009-237541 | 2009-10-14 | ||
JP2009237541 | 2009-10-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2010137387A1 true WO2010137387A1 (ja) | 2010-12-02 |
Family
ID=43222511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/054627 WO2010137387A1 (ja) | 2009-05-27 | 2010-03-18 | 画像処理装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2010137387A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11056050B2 (en) * | 2012-06-14 | 2021-07-06 | Sony Corporation | Display unit, image processing unit, and display method for improving image quality |
JP7210142B2 (ja) | 2018-02-28 | 2023-01-23 | 東京電力ホールディングス株式会社 | データ処理装置、画像解析方法、およびプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002300402A (ja) * | 2001-03-30 | 2002-10-11 | Fuji Photo Film Co Ltd | 画像処理装置、方法及び記録媒体 |
JP2005252869A (ja) * | 2004-03-05 | 2005-09-15 | Canon Inc | 映像信号処理装置及び映像信号処理方法 |
JP2006013735A (ja) * | 2004-06-24 | 2006-01-12 | Hitachi Ltd | 映像表示装置 |
JP2007324764A (ja) * | 2006-05-30 | 2007-12-13 | Toshiba Corp | 映像信号処理装置及び映像信号処理方法 |
JP2007336258A (ja) * | 2006-06-15 | 2007-12-27 | Matsushita Electric Ind Co Ltd | 映像信号処理装置及び映像信号処理方法 |
-
2010
- 2010-03-18 WO PCT/JP2010/054627 patent/WO2010137387A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002300402A (ja) * | 2001-03-30 | 2002-10-11 | Fuji Photo Film Co Ltd | 画像処理装置、方法及び記録媒体 |
JP2005252869A (ja) * | 2004-03-05 | 2005-09-15 | Canon Inc | 映像信号処理装置及び映像信号処理方法 |
JP2006013735A (ja) * | 2004-06-24 | 2006-01-12 | Hitachi Ltd | 映像表示装置 |
JP2007324764A (ja) * | 2006-05-30 | 2007-12-13 | Toshiba Corp | 映像信号処理装置及び映像信号処理方法 |
JP2007336258A (ja) * | 2006-06-15 | 2007-12-27 | Matsushita Electric Ind Co Ltd | 映像信号処理装置及び映像信号処理方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11056050B2 (en) * | 2012-06-14 | 2021-07-06 | Sony Corporation | Display unit, image processing unit, and display method for improving image quality |
JP7210142B2 (ja) | 2018-02-28 | 2023-01-23 | 東京電力ホールディングス株式会社 | データ処理装置、画像解析方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chang et al. | Automatic contrast-limited adaptive histogram equalization with dual gamma correction | |
US7881549B2 (en) | Visual processing device, display device, visual processing method, program, and integrated circuit | |
JP4558806B2 (ja) | 視覚処理装置、視覚処理方法、プログラム、表示装置および集積回路 | |
US7860339B2 (en) | Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal | |
US8766999B2 (en) | Systems and methods for local tone mapping of high dynamic range images | |
US8606009B2 (en) | High dynamic range image generation and rendering | |
JP4688945B2 (ja) | 視覚処理装置、視覚処理方法、テレビジョン、携帯情報端末、カメラおよびプロセッサ | |
JP6024110B2 (ja) | 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム | |
US20110128296A1 (en) | Image processing apparatus, non-transitory storage medium storing image processing program and image processing method | |
US20170018059A1 (en) | Global Approximation to Spatially Varying Tone Mapping Operators | |
US9113089B2 (en) | Noise-constrained tone curve generation | |
CN109345490B (zh) | 一种移动播放端实时视频画质增强方法及系统 | |
JP2008125112A (ja) | 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路 | |
KR101201620B1 (ko) | 휴대단말기의 영상 개선장치 및 방법 | |
US8351734B2 (en) | Video signal processing device and video display device | |
WO2010137387A1 (ja) | 画像処理装置及びプログラム | |
JP4414307B2 (ja) | 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置 | |
JP2006024176A (ja) | 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末 | |
CN117593218B (zh) | 一种基于引导滤波的自适应增益调节图像锐化方法 | |
JP2011141829A (ja) | 画像処理装置、画像処理方法及びプログラム | |
GB2489233A (en) | Image Noise Reduction Resulting in Higher Noise and/or Texture in Image Parts Representing Human Skin | |
Jung et al. | Detail-preserving tone mapping for low dynamic range displays with adaptive gamma correction | |
Wang et al. | Tone-preserving contrast enhancement in images using rational tone mapping and constrained optimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10780345 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10780345 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |