KR20120010182A - Image processing apparatus, image processing method, and program product - Google Patents
Image processing apparatus, image processing method, and program product Download PDFInfo
- Publication number
- KR20120010182A KR20120010182A KR1020110072350A KR20110072350A KR20120010182A KR 20120010182 A KR20120010182 A KR 20120010182A KR 1020110072350 A KR1020110072350 A KR 1020110072350A KR 20110072350 A KR20110072350 A KR 20110072350A KR 20120010182 A KR20120010182 A KR 20120010182A
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- emphasis
- image
- processing
- contrast
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 5
- 238000000034 method Methods 0.000 claims abstract description 128
- 230000008569 process Effects 0.000 claims abstract description 119
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 claims 1
- 239000002131 composite material Substances 0.000 abstract description 74
- 230000009467 reduction Effects 0.000 abstract description 11
- 230000015572 biosynthetic process Effects 0.000 description 20
- 238000003786 synthesis reaction Methods 0.000 description 20
- 238000003384 imaging method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 8
- 101000797092 Mesorhizobium japonicum (strain LMG 29417 / CECT 9101 / MAFF 303099) Probable acetoacetate decarboxylase 3 Proteins 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000002087 whitening effect Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 화상 처리 장치, 화상 처리 방법, 및 프로그램 프로덕트에 관한 것으로서, 본 발명의 콘트라스트 강조 처리부(31)는, 합성 휘도 성분 화상 데이터에 있어서 주목 화소를 설정하고, 콘트라스트를 강조하는 처리를 행한다. 또한, 채도 강조 처리부(31)는, 합성 색차 성분 화상 데이터에 대하여, 전체적인 채도 강조 처리를 행하고, 또한 콘트라스트 강조 처리에서 사용한 강조량과 동일한 양의 강조량으로 주목 화소에 대하여 부분적인 강조 처리를 행한다. 그리고, 이들 강조 처리된 합성 휘도 성분 화상과 합성 색차 성분 화상을 조합하여, 이것을 강조 처리 후의 화상 데이터로 하고, 강조 처리 후 화상 데이터를 노이즈 저감부(13)에 공급하여 노이즈를 저감 처리를 행한다BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a program product. The contrast emphasis processing section 31 of the present invention sets a pixel of interest in the composite luminance component image data and performs a process of emphasizing contrast. In addition, the chroma enhancement processing unit 31 performs the overall chroma enhancement process on the composite chrominance component image data, and performs a partial emphasis process on the pixel of interest with an enhancement amount equal to the enhancement amount used in the contrast enhancement process. . The combined luminance component image and the composite chrominance component image subjected to the emphasis processing are combined to be image data after the emphasis processing, and the image data after the emphasis processing is supplied to the noise reduction unit 13 to reduce the noise.
Description
본 발명은, 예를 들면, 다이나믹레인지(dynamic range)가 확대된 화상 등에 붙어 화상 처리하는 기술에 관한 것이다.TECHNICAL FIELD This invention relates to the technique of image processing stuck to the image etc. which enlarged the dynamic range, for example.
최근, 감상 시의 연출 효과를 높이는 목적으로, 촬영된 화상에 대하여 각종 화상 처리가 행해지고 있다.In recent years, various image processing is performed with respect to the image | photographed image in order to raise the directing effect at the time of appreciation.
그리고, 이와 같은 화상 처리로서 일본 특허출원 공개번호 2006-345509호 공보에 의해 소개되는, 노광(露光) 조건을 달리한 화상을 적소(適所)에 합성하고, 백화 현상(whiteout)이나 흑화 현상(shadowing)이 없는 화상[이하, 이와 같은 화상을 HDR(High Dynamic Range) 화상이라고 함]를 생성하는 처리가 알려져 있다.Then, an image having different exposure conditions, which is introduced by Japanese Patent Application Laid-open No. 2006-345509 as such image processing, is synthesized in place, and whitening or shadowing occurs. Is a process for generating an image (hereinafter referred to as an HDR (High Dynamic Range) image) having no).
그러나, 전술한 합성 처리는 촬상 화각(畵角)의 재현성을 높이는 것이 목적이다.However, the above synthesis process aims at increasing the reproducibility of the imaging angle of view.
그러므로, 과도하게 색공간(color space)의 각 파라미터를 조정하고, 또한 현실감을 잃지 않도록 하는 화상을 얻고자 할 경우, 그 촬상 화상을 베이스로 하여 제로부터 새롭게 묘화(描畵) 처리를 행하지 않으면 안된다.Therefore, in order to obtain an image in which each parameter of the color space is excessively adjusted and the reality is not lost, a new drawing process must be performed from the zero based on the captured image. .
본 발명은, 이와 같은 상황을 감안하여 이루어진 것이며, 촬상 화상을 사용하여 색공간의 각 파라미터를 조정하고, 또한 현실감을 잃지않도록 한 화상을 생성하는 것을 목적으로 한다.This invention is made | formed in view of such a situation, Comprising: It aims at generating each image which adjusts each parameter of a color space using a picked-up image, and does not lose a sense of reality.
상기 목적 달성을 위하여, 본 발명의 제1 관점에 있어서, 소정의 색공간에 있어서 규정되는 휘도 성분과 그 외의 성분으로 구성되는 화상 데이터를 처리하는 화상 처리 장치는 이하의 구성을 구비한다.In order to achieve the above object, in the first aspect of the present invention, an image processing apparatus for processing image data composed of luminance components and other components defined in a predetermined color space has the following configuration.
상기 화상 데이터 중, 휘도 성분으로 이루어지는 제1 화상 데이터를 소정의 제1 강조량을 사용하여 콘트라스트를 강조하도록 처리하는 제1 강조 처리 수단,First emphasis processing means for processing first image data comprising luminance components among the image data to emphasize contrast using a predetermined first enhancement amount;
상기 화상 데이터 중, 그 외의 성분으로 이루어지는 제2 화상 데이터를 상기 제1 강조 처리 수단에서 사용한 제1 강조량을 사용하여 채도를 강조하도록 처리하는 제2 강조 처리 수단,Second emphasis processing means for processing second image data including other components among the image data to emphasize saturation using the first emphasis amount used in the first emphasis processing means;
상기 제1 강조 처리 수단에 의해 콘트라스트가 강조된 제1 화상 데이터와, 상기 제2 강조 처리 수단에 의해 채도가 강조된 제2 화상 데이터를 조합하여, 새로운 화상 데이터를 취득하는 화상 데이터 취득 수단.Image data acquisition means for acquiring new image data by combining first image data whose contrast is emphasized by the first emphasis processing means and second image data whose saturation is enhanced by the second emphasis processing means.
상기 목적 달성을 위하여, 본 발명의 제2 관점에 있어서, 소정의 색공간에 있어서 규정되는 휘도 성분과 그 외의 성분으로 구성되는 화상 데이터를 처리하는 화상 처리 방법은 이하의 단계로 이루어진다.In order to achieve the above object, in the second aspect of the present invention, an image processing method for processing image data composed of luminance components and other components defined in a predetermined color space comprises the following steps.
상기 화상 데이터 중, 휘도 성분으로 이루어지는 제1 화상 데이터를 소정의 제1 강조량을 사용하여 콘트라스트를 강조하도록 처리하는 제1 강조 처리 단계,A first emphasis processing step of processing first image data comprising luminance components among the image data to emphasize contrast using a predetermined first enhancement amount;
상기 화상 데이터 중, 그 외의 성분으로 이루어지는 제2 화상 데이터를 상기 제1 강조 처리 단계에서 사용한 제1 강조량을 사용하여 채도를 강조하도록 처리하는 제2 강조 처리 단계,A second emphasis processing step of processing second image data consisting of other components among the image data to emphasize saturation using the first emphasis amount used in the first emphasis processing step,
상기 제1 강조 처리 단계에서 콘트라스트가 강조된 제1 화상 데이터와, 상기 제2 강조 처리 단계에서 채도가 강조된 제2 화상 데이터를 조합하여, 새로운 화상 데이터를 취득하는 화상 데이터 취득 단계.An image data acquisition step of acquiring new image data by combining first image data in which contrast is emphasized in the first emphasis processing step and second image data in which saturation is enhanced in the second emphasis processing step.
상기 목적 달성을 위하여, 본 발명의 제3 관점은, 컴퓨터에 의한 소정의 색공간에 있어서 규정되는 휘도 성분과 그 외의 성분으로 구성되는 화상 데이터를 처리하는 프로그램을 기억한 프로그램 프로덕트로서, 상기 컴퓨터를, 또한 이하의 수단으로서 기능하게 한다.In order to achieve the above object, a third aspect of the present invention is a program product that stores a program for processing image data composed of luminance components and other components defined in a predetermined color space by a computer. It also serves as the following means.
상기 화상 데이터 중, 휘도 성분으로 이루어지는 제1 화상 데이터를 소정의 제1 강조량을 사용하여 콘트라스트를 강조하도록 처리하는 제1 강조 처리 수단,First emphasis processing means for processing first image data comprising luminance components among the image data to emphasize contrast using a predetermined first enhancement amount;
상기 화상 데이터 중, 그 외의 성분으로 이루어지는 제2 화상 데이터를 상기 제1 강조 처리 수단에 의해 사용한 제1 강조량을 사용하여 채도를 강조하도록 처리하는 제2 강조 처리 수단,Second emphasis processing means for processing second image data including other components among the image data to emphasize saturation using a first emphasis amount used by the first emphasis processing means;
상기 제1 강조 처리 수단에 의해 콘트라스트가 강조된 제1 화상 데이터와, 상기 제2 강조 처리 수단에 의해 채도가 강조된 제2 화상 데이터를 조합하여, 새로운 화상 데이터를 취득하는 화상 데이터 취득 수단.Image data acquisition means for acquiring new image data by combining first image data whose contrast is emphasized by the first emphasis processing means and second image data whose saturation is enhanced by the second emphasis processing means.
도 1은, 본 발명의 일실시예에 따른 촬상 장치의 회로 구성도이다.
도 2는, 본 발명에서의 화상 가공 처리를 실행하는 기능에 대한 기능적 구성을 나타낸 기능 블록도이다.
도 3은, 도 2의 화상 처리 장치가 실행하는 화상 가공 처리의 흐름의 일례를 나타낸 흐름도이다.
도 4의 (A)?도 4의 (E)는 도 2의 화상 처리 장치의 합성부에 의한 구체적인 처리 결과를 나타내고 있는 도면이다.
도 5는, 도 2의 화상 처리 장치의 강조 화상 생성부가 실행하는 휘도 강조 처리의 흐름의 일례를 나타낸 흐름도이다.
도 6은, 도 2의 화상 처리 장치의 강조 화상 생성부가 실행하는 색차 강조 처리의 흐름의 일례를 나타낸 흐름도이다.
도 7의 (A)?도 7의 (D)는 도 3의 화상 가공 처리의 대상이 되는 화상 데이터의 일례를 나타낸 도면이다.
도 8은 도 7의 (A)?도 7의 (D)의 각 데이터를 사용하여 도 3의 화상 가공 처리가 실행된 결과 얻어지는, 강조 처리된 후의 화상 데이터의 일례를 나타내고 있는 도면이다.
도 9는, 본 발명의 화상 처리 장치의 일실시예에 따른 화상 처리 장치의 하드웨어의 구성을 나타낸 블록도이다.1 is a circuit configuration diagram of an imaging device according to an embodiment of the present invention.
2 is a functional block diagram showing a functional configuration of a function for executing the image processing process in the present invention.
3 is a flowchart illustrating an example of a flow of image processing performed by the image processing apparatus of FIG. 2.
4A to 4E are diagrams showing specific processing results by the combining unit of the image processing apparatus of FIG. 2.
FIG. 5 is a flowchart showing an example of the flow of luminance enhancement processing executed by the emphasis image generating unit of the image processing apparatus of FIG. 2.
6 is a flowchart illustrating an example of a flow of color difference emphasis processing executed by an emphasis image generating unit of the image processing apparatus of FIG. 2.
7A to 7D are diagrams showing an example of image data that is the object of the image processing process of FIG. 3.
FIG. 8 is a diagram showing an example of image data after emphasis processing, which is obtained as a result of performing the image processing process of FIG. 3 using each data of FIGS. 7A to 7D.
9 is a block diagram showing the hardware configuration of an image processing apparatus according to an embodiment of the image processing apparatus of the present invention.
이하, 본 발명의 일실시예를 도면을 참조하여 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
도 1은, 본 발명의 일실시예에 따른 화상 처리 장치를 구비한 촬상 장치의 회로 구성도이다.1 is a circuit configuration diagram of an imaging device having an image processing device according to an embodiment of the present invention.
이 촬상 장치는, 촬상부(1)와, 구동 제어부(2)와, CDS/ADC(3)와, 키 입력부(4)와, 표시부(5)와, 화상 기록부(6)와, 프로그램 메모리(7)와, RAM(8)과, 제어부(9)와, 화상 처리부(10)를 구비하고 있다.The imaging device includes an imaging section 1, a
키 입력부(4)는, 촬영자의 기록 지시를 검출하기 위한 셔터 키(41)를 구비하고 있다. 화상 처리부(10)는, 본 발명의 특징적 구성에 대응하는 합성부(11)를 구비하고 있다. 또한, 후술하는 화상 생성부(12)와, 노이즈 저감부(13)의 기능을 가진다.The
그리고, 전술한 각 구성은 버스 라인을 통하여 접속되어 있다.Each of the above-described configurations is connected via a bus line.
도 1에 있어서, 촬상부(1)는, CMOS 등의 이미지 센서와, 이 이미지 센서 상에 설치된 RGB의 컬러 필터와, 구동 제어부(2)로부터의 제어에 의해, 광의 강도를 전하의 축적으로서 일정 시간 유지하고, CDS/ADC(3)에 아날로그의 촬상 신호로서 이들을 출력하는 드라이버를 내장한다.In FIG. 1, the imaging part 1 is made into the light intensity by accumulating an electric charge by image sensor, such as a CMOS, the color filter of RGB provided on this image sensor, and the control from the
그리고, 촬상부(1)는, 셔터 키(41), 제어부(9), 구동 제어부(2)를 경유한 촬영자의 촬영 지시를 검출함으로써, 노광 조건(셔터 스피드, 또는 조리개값)을 바꾸면서, 노출 부족(underexposure image data), 적정 노출(correct exposure image data), 노출 과다(overexposure image data)를 포함하는 복수 화상(컬러 화상)을 취득한다.Then, the imaging unit 1 detects the photographing instruction of the photographer via the
CDS/ADC(3)는, 촬상부(1)로부터 출력되는 피사체의 광학상에 따른 아날로그의 촬상 신호가 입력되는 회로이다. CDS/ADC(3)는, 입력한 촬상 신호를 유지하는 CDS와, 이 촬상 신호를 증폭하는 게인 조정 앰프(AGC)와, 증폭된 촬상 신호를 디지털의 촬상 신호로 변환하는 A/D 변환기(ADC)를 포함하도록 구성되어 있다.The CDS /
그리고, 게인 조정 앰프의 조정와 관련된 제어에 대해서도, 구동 제어부(2)로부터의 지시에 따라 실행된다. 그러므로, 노광 조건을 동일하게 하여 복수 화상을 취득해도, RGB의 게인 조정 앰프나 화상의 색조(image hue)를 차례로 변경하는 것에 의한 복수 조건의 상이한 화상을 생성할 수 있다.The control associated with the adjustment of the gain adjustment amplifier is also executed in accordance with the instruction from the
키 입력부(4)는, 전술한 셔터 키(41) 외에, 본 발명에 따른 화상의 취득이나 기록을 목적으로 하는 촬영 모드로의 전환, 표시의 전환 등을 검출하기 위한 각종 키를 구비하고 있다.In addition to the
표시부(5)는, 합성 처리된 화상을 표시하는 기능을 가진다.The
화상 기록부(6)은, 본 발명에 따른 합성 처리가 실행된 후, JPEG 방식으로 부호화된 화상 데이터(화상 파일)를 기억하고 저장한다.The
프로그램 메모리(7)는, 제어부(9), 화상 처리부(10)에 의해 실행되는 프로그램을 기억하고, 필요에 따라 제어부(9)가 판독한다.The
RAM(8)은, 각종 처리에 의해 발생하는 처리 중의 데이터를 일시적으로 유지하는 기능을 가진다.The
제어부(9)는 촬상 장치 전체의 처리 동작을 제어한다.The
화상 처리부(10)는, 화상 데이터의 부호화/복호화 처리 외에, 본 발명에 따른 합성 처리를 실행하기 위한 합성부(11)를 구비하고 있다.The
다음으로, 화상 가공 처리를 실행하는 기능에 대하여, 도 2의 기능 블록도를 사용하여 설명한다.Next, a function for executing the image processing will be described using the functional block diagram of FIG. 2.
본 실시예에서 상세하게 설명하는 화상 가공 처리는, 처리 대상이 되는 화상끼리를 화소 가산 합성하고, 또한 그 합성 후, 콘트라스트나 선명함(채도)을 강조시키는 처리를 말한다.The image processing described in detail in this embodiment refers to a process of pixel-adding and synthesizing the images to be processed, and further highlighting contrast and vividness (saturation) after the composition.
또한, 상기 합성 처리에 있어서는, 촬상부(1), CDS/ADC(3)를 거쳐, 노광 조건(셔터 스피드, 조리개값, 또는 게인 조정값)을 변경하면서 연사(連寫)되어 취득된 복수 화상에 대하여, 이들 화상 데이터 각각이, YUV 색공간에서 규정되는 Y 성분을 나타내는 휘도 신호와, 그 이외의 UV 성분을 나타내는 청색의 색차 신호와, 적색의 색차 신호의 3요소의 성분 중, 휘도 성분과 각 색차 성분으로 분리되고, 이 분리 후의 복수의 휘도 성분에 대하여 화소 가산 합성되고, 또한 분리 후의 복수의 색차 성분에 대해서도 개별적으로 화소 가산 합성된다.In addition, in the said combining process, it passes through the imaging part 1 and the CDS /
또한, 상기 합성 처리에 의해 생성된 HDR 합성 화상 데이터의 휘도 신호와, 색차 신호(U)와, 색차 신호(V)의 3요소의 성분 중, 휘도 신호에 대하여는 콘트라스트를 강조하는 처리를 실행하고, 각 색차 신호에 대해서는 채도(선명함)를 강조하는 처리를 각각 개별적으로 실행한다.Further, among the components of the three components of the luminance signal, the color difference signal U and the color difference signal V, the luminance signal of the HDR synthesized image data generated by the above-described synthesis process is executed to emphasize the contrast. For each color difference signal, a process of emphasizing saturation (sharpness) is performed separately.
특히, 전술한 처리에서는, 단순하게 화상 전체가 일률적으로 콘트라스트나 채도에 대하여 강조되는 것은 아니며, 화소 단위로 적응적으로 설정된 강조량을 사용하여, 화소 단위로 강조된다.In particular, in the above-described processing, the entire image is not simply emphasized with respect to contrast and saturation, but is emphasized pixel by pixel using an emphasis amount adaptively set in units of pixels.
도 2에서는, 화상 처리 장치는, 합성부(11)와, 화상 생성부(12)와, 노이즈 저감부(13)를 구비하고 있다.In FIG. 2, the image processing apparatus includes a combining
본 실시예에서는, 노출 조건이 각각 상이한 복수 화상 데이터로서, 도 2에 나타낸 바와 같이, 적정 노출값의 화상(이하, 「적정 노출값 화상」이라고 함), 적정 노출값을 초과한 노출값의 화상(이하, 「노출값 오버 화상」이라고 함), 및 적정 노출값 미만의 노출값의 화상(이하, 「노출값 언더 화상」이라고 함)의 각 데이터가 합성부(11)에 입력된다.In the present embodiment, as a plurality of image data each having different exposure conditions, as shown in FIG. 2, an image of an appropriate exposure value (hereinafter referred to as a "proper exposure value image") and an image of an exposure value exceeding an appropriate exposure value (hereinafter, " Data of the exposure value below the appropriate exposure value (hereinafter referred to as the "exposure value under image") is input to the combining
여기서, 적정한 노출값이란, 반드시 촬상 시의 조건으로서 적정한 노출값인 것을 의미하지 않고, 노출값 오버 화상 및 노출값 언더 화상 각각을 촬상했을 때 사용한 2개의 노출값의 사이의 중간적인 노출값을 의미한다.Here, an appropriate exposure value does not necessarily mean an appropriate exposure value as a condition at the time of imaging, but means an intermediate exposure value between the two exposure values used when imaging each of an exposure value over image and an exposure value underimage.
합성부(11)는, 적정 노출값 화상, 노출값 오버 화상, 및 노출값 언더 화상의 각 데이터를 화소 가산 합성함으로써, HDR 합성 화상 데이터를 생성한다.The combining
그리고, 합성부(11)가 실행하는 합성 처리의 종류는, 특별히 한정되지 않지만, 종래의 HDR 합성 화상 데이터를 생성하기 위한 합성 처리와 비교하여, 다이나믹레인지 확대 효과를 강하게 한 합성 처리를 채용하면 된다.The type of the synthesis processing performed by the combining
또한, 그 효과를 강하게 하는 방법도, 특별히 한정되지 않고, 예를 들면, 촬영 시에 노출값 언더와 노출값 오버의 차(편차)를 크게 하거나, 합성 매수를 증가시키거나, 그 외에 색조 등의 게인 파라미터를 변경하는 등의 방법을 채용할 수 있다.The method of strengthening the effect is also not particularly limited, and for example, increases the difference (deviation) between the exposure value under and the exposure value over at the time of shooting, increases the number of shots, and other gain parameters such as color tone. It is possible to adopt a method such as changing the.
본 실시예에서는, 합성부(11)는, 합성 처리로서, 다음과 같은 일련의 처리를 실행하는 것으로 한다.In this embodiment, the synthesizing
즉, 본 실시예에서는, 도시하지 않지만, 적정 노출값 화상 데이터로부터 분리된 적정 노출값의 휘도 성분 화상 데이터, 및 적정 노출값의 색차 성분 화상 데이터가 독립적으로 합성부(11)에 입력된다.That is, in this embodiment, although not shown, the luminance component image data of the appropriate exposure value and the chrominance component image data of the appropriate exposure value separated from the appropriate exposure value image data are independently input to the combining
마찬가지로, 노출값 오버 화상 데이터로부터 분리된 노출값 오버의 휘도 성분 화상 데이터, 및 노출값 오버의 색차 성분 화상 데이터가 독립적으로 합성부(11)에 입력된다.Similarly, the luminance component image data of the exposure value over and the chrominance component image data of the exposure value over which are separated from the exposure value over image data are independently input to the combining
마찬가지로, 노출값 언더 화상 데이터로부터 분리된 노출값 언더의 휘도 성분 화상 데이터, 및 노출값 언더의 색차 성분 화상 데이터가 독립적으로 합성부(11)에 입력된다.Similarly, the luminance component image data of the exposure value under and the chrominance component image data of the exposure value under which are separated from the exposure value under image data are independently input to the combining
합성부(11)는, 적정 노출값의 휘도 성분 화상 데이터, 노출값 오버의 휘도 성분 화상 데이터, 및 노출값 언더의 휘도 성분 화상 데이터를 화소 가산 합성함으로써, 합성 화상 데이터를 생성한다.The synthesizing
한편, 합성부(11)는, 적정 노출값의 색차 성분 화상 데이터, 노출값 오버의 색차 성분 화상 데이터, 및 노출값 언더의 색차 성분 화상 데이터를 화소 가산 합성함으로써, 합성 화상 데이터를 생성한다.On the other hand, the combining
본 실시예에서는, 휘도 성분의 합성 처리에 있어서, 적정 노출값의 휘도 성분 화상 데이터, 노출값 오버의 휘도 성분 화상 데이터, 및 노출값 언더의 휘도 성분 화상 데이터는, 소정의 합성 비율에 따라 화소 가산 합성된다.In the present embodiment, in the combining process of the luminance components, the luminance component image data of the appropriate exposure value, the luminance component image data of the exposure value over, and the luminance component image data of the exposure value under are pixel-added and synthesized according to a predetermined composition ratio.
소정의 합성 비율이란, 2 이상의 화상 데이터가 화소 가산 합성되는 경우, 각각의 화상 데이터의 혼합 비율을 말한다.The predetermined composition ratio means a mixing ratio of respective image data when two or more image data are pixel-added and synthesized.
예를 들면, 적정 노출값의 휘도 성분 화상 데이터, 노출값 오버의 휘도 성분 화상 데이터, 및 노출값 언더의 휘도 성분 화상 데이터의 합성 비율 각각 이, 70%, 30%, 0%인 경우에는, 적정 노출값의 휘도 성분 화상 데이터 70%, 노출값 오버의 휘도 성분 화상 데이터 30%, 노출값 언더의 휘도 성분 화상 데이터 0%의 비율로 혼합된 결과 얻어지는 데이터가, 합성 휘도 성분 화상 데이터가 된다.For example, when the combination ratios of the luminance component image data of the appropriate exposure value, the luminance component image data of the exposure value over, and the luminance component image data of the exposure value under each are 70%, 30%, and 0%, the luminance of the appropriate exposure value Data obtained as a result of mixing at a ratio of 70% of the component image data, 30% of the luminance component image data over the exposure value and 0% of the luminance component image data at the exposure value under becomes the composite luminance component image data.
한편, 색차 성분 합성 처리에 있어서도, 적정 노출값의 색차 성분 화상 데이터, 노출값 오버의 색차 성분 화상 데이터, 및 노출값 언더의 색차 성분 화상 데이터는, 소정의 합성 비율에 따라 화소 가산 합성된다.On the other hand, also in the chrominance component synthesis process, the chrominance component image data of the appropriate exposure value, the chrominance component image data of the exposure value over, and the chrominance component image data of the exposure value under are pixel-added and synthesized according to a predetermined composition ratio.
여기서, 색차 성분 합성 처리에 사용되는 합성 비율은, 휘도 성분 합성 처리에 사용되는 합성 비율이 그대로 사용된다.Here, as for the synthesis ratio used for the chrominance component synthesis processing, the synthesis ratio used for the luminance component synthesis processing is used as it is.
이와 같이 하여, 합성부(11)로부터는, 휘도 성분 합성 처리에 의해 생성된 합성 휘도 성분 화상 데이터와, 색차 성분 합성 처리에 의해 생성된 합성 색차 성분 화상 데이터의 조(組)가 출력된다.In this way, the combining
화상 생성부(12)는, 합성부(11)로부터 출력되는 합성 휘도 성분 화상 데이터에 대해서는 콘트라스트의 강조 처리를, 합성 색차 화상 데이터에 대하여는 채도의 강조 처리를, 각각 행한다.The
여기서, 합성 휘도 성분 화상 데이터에 대하여 행하는 콘트라스트의 강조 처리를, 이하, 콘트라스트 강조 처리라고 한다. 한편, 합성 색차 성분 화상 데이터에 대하여 행하는 채도의 강조 처리를, 이하, 채도 강조 처리라고 한다.Here, contrast enhancement processing performed on the synthesized luminance component image data is referred to as contrast enhancement processing below. On the other hand, the saturation emphasis processing performed on the composite color difference component image data is referred to as saturation emphasis processing below.
화상 생성부(12)에는, 콘트라스트 강조 처리를 실행하는 콘트라스트 강조 처리부(31)와, 채도 강조 처리를 실행하는 채도 강조 처리를 실행하는 채도 강조 처리부(32)가 설치되어 있다.The
콘트라스트 강조 처리부(31)는, 콘트라스트 강조 처리로서, 합성 휘도 성분 화상 데이터에 대하여, 2종류의 주파수 대역[예를 들면, 저역(低域) 및 중역(中域)]에서 언샤프 마스크 처리(unsharpening mask processing)를 각각 행함으로써, 국소적으로 콘트라스트를 강조한다.The contrast
2종류의 주파수 대역(예를 들면, 저역 및 중역)에서 언샤프 마스크 처리를 각각 행할 때는, 합성 휘도 성분 화상 데이터의 평활화가 행해진다.When the unsharp mask processing is performed in two kinds of frequency bands (for example, low and mid range), smoothing of the composite luminance component image data is performed.
이와 같은 평활화를 위해 사용하는 필터는, 특별히 한정되지 않고, 통상의 LPF(Low Pass Filter)를 채용해도 되지만, 에지 보존형 ε 필터나 쌍방 필터 등, 비선형 필터를 채용하면 바람직하다.The filter to be used for such smoothing is not particularly limited, and a general LPF (Low Pass Filter) may be employed, but nonlinear filters such as an edge retention type ε filter and a bilateral filter are preferably employed.
콘트라스트 강조 처리부(31)는, 합성 휘도 성분 화상 취득부(41)와, ε 필터부(42A, 42B)와, 콘트라스트 성분 작성부(43A, 43B)와, 콘트라스트 합성부(44)와, 콘트라스트 강조부(45)를 구비하고 있다.The contrast
이들 콘트라스트 강조 처리부(31)의 각 요소의 기능 등에 대해서는, 후술하는 도 3의 흐름도를 참조한 콘트라스트 강조 처리의 흐름을 설명할 때 적절하게 설명한다.The function and the like of each element of the contrast
채도 강조 처리부(31)는, 합성 색차 성분의 화상 데이터에 대하여, 소정의 게인(이하, 「UV 게인」이라고 함)을 강조량으로서 사용하여, 채도를 강조하는 처리를 실행한다.The saturation
이 경우의 채도를 강조하는 처리는, 전체 강조 처리와 부분 강조 처리의 2종류로 대별된다.In this case, the process of emphasizing saturation is roughly divided into two types, the whole emphasis process and the partial emphasis process.
전체 강조 처리란, 화상 전체의 인상을 화려하게 하도록, 채도를 강조하는 처리를 말한다.The whole emphasis process refers to a process of emphasizing saturation to make the impression of the entire image colorful.
부분 강조 처리란, 콘트라스트 강조 처리에 사용된 합성 콘트라스트 성분의 강조량과 연동시킨 강조량을 사용하여, 채도를 강조하는 처리를 말한다.The partial emphasis process refers to a process of emphasizing saturation using an emphasis amount linked with an enhancement amount of a synthetic contrast component used in the contrast enhancement process.
그리고, 이하, 콘트라스트 강조 처리용 강조량을, 「콘트라스트 성분 강조량」이라고 한다. 한편, 채도 성분 강조 처리용 강조량을, 「채도 성분 강조량」이라고 한다.In the following, the enhancement amount for contrast enhancement processing is referred to as "contrast component enhancement amount". On the other hand, the emphasis amount for chroma component emphasis processing is called "saturation component emphasis amount".
채도 성분 강조량은, 또한, 전체 강조 처리에서 사용되는 강조량과, 부분 강조 처리에서 사용되는 강조량으로 대별되어, 전자를 이하, 「전체적인 채도 성분 강조량」이라고 하고, 후자를, 이하, 「부분적인 채도 성분 강조량」이라고 한다.The saturation component enhancement amount is further divided into the enhancement amount used in the entire emphasis process and the enhancement amount used in the partial emphasis process, and the former is hereinafter referred to as "the overall saturation component enhancement amount", and the latter is hereinafter referred to as " Partial saturation component emphasis.
또한, 채도 강조 처리부(32)에 의한 일련의 처리를, 이하, 「채도 강조 처리」라고 한다.In addition, a series of processing by the saturation
채도 강조 처리부(32)는, 채도 강조 처리를 실행하기 위하여, 합성 색차 성분 화상 취득부(51)와, 전체적인 채도 강조부(52)와, 콘트라스트 성분 강조량 취득부(53)와, 부분적인 채도 강조부(54)를 구비하고 있다.The saturation
또한, 화상 생성부(12)에는, 강조 처리 후 화상 취득부(33)가 설치되어 있다.In addition, the
강조 처리 후 화상 취득부(33)는, 콘트라스트 강조 처리부(31)에 의해 콘트라스트 강조 처리가 행해진 합성 휘도 성분의 화상 데이터와, 채도 강조 처리부(32)에 의해 채도 강조 처리가 행해진 합성 색차 성분의 화상 데이터의 조합으로 이루어지는 강조 처리 후 화상 데이터를 취득한다.After the emphasis processing, the
강조 처리 후 화상 취득부(33)에 의해 취득된 강조 처리 후 화상 데이터는, 노이즈 저감부(13)에 공급된다.After the emphasis processing, the image data after the emphasis processing acquired by the
노이즈 저감부(13)는, 강조 처리 후 화상 데이터에 대하여, 노이즈 저감 처리를 행한다.The
다음으로, 도 3의 흐름도를 참조하여, 이와 같은 기능적 구성을 가지는 도 2의 화상 처리 장치가 실행하는 화상 가공 처리에 대하여 설명한다.Next, with reference to the flowchart of FIG. 3, the image processing process performed by the image processing apparatus of FIG. 2 which has such a functional structure is demonstrated.
도 3은, 화상 가공 처리의 흐름의 일례를 나타낸 흐름도이다.3 is a flowchart showing an example of the flow of an image processing process.
단계 S1에 있어서, 합성부(11)는, 연속 촬영 등에 의해 얻은 노출값이 각각 상이한 복수 화상 데이터를 취득한다.In step S1, the combining
단계 S2에 있어서, 합성부(11)는, 노출값이 각각 상이한 복수 화상 데이터를 화소 가산 합성함으로써, 하이 다이나믹레인지의 합성 화상 데이터를 생성한다.In step S2, the combining
구체적으로는, 본 실시예에서는, 적정 노출값 화상, 노출값 오버 화상, 및 노출값 언더 화상의 각 데이터가, 단계 S1의 처리에서 취득되고, 단계 S2의 처리로 화소 가산 합성되는 것에 의해, 하이 다이나믹레인지의 합성 화상 데이터가 생성된다.Specifically, in the present embodiment, each data of the appropriate exposure value image, the exposure value over image, and the exposure value under image is acquired in the process of step S1, and pixel-added and synthesized by the process of step S2, so as to achieve high dynamic range. Synthetic image data is generated.
도 4의 (A)?(E)는, 합성부(11)에 의한 단계 S1 및 S2의 구체적인 처리 결과를 나타내고 있다.4A to 4E show the specific processing results of steps S1 and S2 by the combining
도 4의 (A)는, 단계 S1의 처리에서 취득되는 노출값 언더의 휘도 성분의 화상 데이터의 일례를 나타내고 있다.4A illustrates an example of image data of the luminance component of the exposure value under acquired in the process of step S1.
도 4의 (B)는, 단계 S1의 처리에서 취득되는 적정 노출값의 휘도 성분의 화상 데이터의 일례를 나타내고 있다.4B illustrates an example of image data of luminance components of appropriate exposure values obtained in the process of step S1.
도 4의 (C)는, 단계 S1의 처리에서 취득되는 노출값 오버의 휘도 성분 화상 데이터의 일례를 나타내고 있다.4C shows an example of the luminance component image data of the exposure value over obtained in the process of step S1.
도 4의 (D)는, 도 4의 (A) 내지 (B)의 각 데이터가 단계 S2의 처리에서 화소 가산 합성된 결과 얻어지는, 합성 화상 데이터의 일례를 나타내고 있다.FIG. 4D shows an example of synthesized image data obtained as a result of pixel addition synthesis of each data in FIGS. 4A to 4B in the process of step S2.
도 4의 (E)는, 도 4의 (D)보다 합성의 효과를 강하게 한 경우의 예를 나타내고 있다.4E shows an example in the case where the effect of the synthesis is stronger than in FIG. 4D.
전술한 바와 같이, 합성의 효과를 강하게 함으로써, 색공간의 각 파라미터가 과도하게 조정되어 있어도, 현실감을 잃지않도록 하는 하이 다이나믹레인지의 합성 화상을 얻을 수 있는 효과가 현저하게 된다.As described above, by intensifying the effect of compositing, the effect of obtaining a high dynamic range synthesized image that does not lose reality even if each parameter of the color space is excessively adjusted is remarkable.
이에, 본 실시예에서는, 도 4의 (D)와 도 4의 (E)의 합성 화상 데이터 중, 도 4의 (E)의 합성 화상 데이터가 처리 대상으로서, 화상 생성부(12)에 주어지고, 도 3의 단계 S3 이후의 처리가 실행되는 것으로 한다.Therefore, in the present embodiment, the composite image data of FIG. 4E is given to the
단계 S3에 있어서, 화상 생성부(12)의 콘트라스트 강조 처리부(31)는, 단계 S2의 처리에 의해 생성된 합성 화상 데이터 중, 합성 휘도 성분 화상 데이터에 대하여 콘트라스트 강조 처리를 행한다.In step S3, the contrast
단계 S4에 있어서, 화상 생성부(12)의 채도 강조 처리부(31)는, 단계 S2의 처리에 의해 생성된 합성 화상 데이터 중, 합성 색차 성분의 화상 데이터에 대하여 채도 강조 처리를 행한다.In step S4, the chroma
그리고, 단계 S3의 콘트라스트 강조 처리의 상세한 것에 대해서는 도 5의 흐름도를 참조함으로써, 또한, 단계 S4의 채도 강조 처리의 상세한 것에 대해서는 도 6의 흐름도를 참조함으로써 후술한다.The details of the contrast enhancement process of step S3 will be described later by referring to the flowchart of FIG. 5 and the details of the chroma enhancement process of step S4 by referring to the flowchart of FIG. 6.
단계 S5에 있어서, 강조 처리 후 화상 취득부(33)는, 단계 S3의 콘트라스트 강조 처리가 행해진 합성 휘도 성분의 화상 데이터와, 단계 S4의 채도 강조 처리가 행해진 합성 색차 성분의 화상 데이터를 조합한 것을, 강조 처리 후의 화상 데이터로서 취득한다.In step S5, the
단계 S6에 있어서, 노이즈 저감부(13)는, 단계 S5의 처리에서 취득된 강조 처리 후의 화상 데이터에 대하여, 노이즈 저감 처리를 행한다.In step S6, the
노이즈 저감 처리가 행해진 강조 처리 후의 화상 데이터가, 노이즈 저감부(13)로부터 외부에 출력되면, 상기 화상 가공 처리는 종료하게 된다.When the image data after the emphasis processing in which the noise reduction processing has been performed is output from the
다음으로, 이와 같은 화상 가공 처리 중, 단계 S3의 콘트라스트 강조 처리와, 단계 S4의 채도 강조 처리의 각각의 상세한 것에 대하여, 이 순서대로 개별적으로 설명한다.Next, details of the contrast enhancement process of step S3 and the saturation emphasis process of step S4 are individually described in this order among such image processing processes.
처음에, 도 5의 흐름도를 참조하여, 단계 S3의 콘트라스트 강조 처리를 상세하게 설명한다.First, with reference to the flowchart of FIG. 5, the contrast emphasis process of step S3 is demonstrated in detail.
도 5는, 콘트라스트 강조 처리의 흐름의 일례를 나타낸 흐름도이다.5 is a flowchart showing an example of the flow of contrast enhancement processing.
단계 S21에 있어서, 도 2의 콘트라스트 강조 처리부(31)의 합성 휘도 성분 화상 취득부(41)는, 합성부(11)로부터 출력된 합성 화상 데이터 중, 합성 휘도 성분 화상 데이터를 취득한다.In step S21, the composite luminance component
단계 S22에 있어서, 콘트라스트 강조 처리부(31)는, 합성 휘도 성분 화상의 각각을 구성하는 화소 중, 소정의 위치(좌표)에 배치된 화소를, 처리의 대상으로서 주목할 화소(이하, 「주목 화소」라고 함)로서 설정한다.In step S22, the contrast
합성 휘도 성분 화상의 주목 화소의 데이터(화소값)가, ε 필터부(42A, 43A) 및 콘트라스트 작성부(43A, 43B)의 각각에 공급되면, 처리는 단계 S23으로 진행한다.If data (pixel values) of the pixel of interest of the synthesized luminance component image are supplied to each of the?
단계 S23에 있어서, ε 필터부(42A, 43A) 및 콘트라스트 성분 작성부(43A, 43B)는, 합성 휘도 성분 화상의 주목 화소의 데이터(화소값)로부터, 2종류의 주파수(중역 및 저역)의 각각의 ε 필터를 사용하여, 주목 화소의 2종류의 콘트라스트 성분을 작성한다.In step S23, the
본 실시예에서는, 성분 작성 대상인 2종류의 콘트라스트 중 한쪽 종류에 대해서는, 필터 사이즈가 작은 중역 강조의 ε 필터를 사용하여 그 성분이 생성된다.In this embodiment, the component is generated using one of the two types of contrasts that are the components to be created using a mid-weighted epsilon filter having a small filter size.
여기서, 이와 같은 종류의 콘트라스트를, 이하, 「중역용 콘트라스트」라고한다.Here, this kind of contrast is referred to as "medium contrast".
한편, 2종류의 콘트라스트 중 다른 쪽 종류에 대해서는, 필터 사이즈가 큰 저강조의 ε 필터를 사용하여 그 성분이 생성된다.On the other hand, about the other of the two types of contrast, the component is produced using the low intensity (epsilon) filter with a large filter size.
여기서, 이와 같은 종류의 콘트라스를, 이하, 「저역용 콘트라스트」라고 한다.Here, such a kind of contrast is referred to as "low contrast".
본 실시예에서는, 중역용 콘트라스트는, ε 필터부(42A) 및 콘트라스트 성분 작성부(43A)에 의해, 다음과 같은 일련의 처리가 실행됨으로써 생성된다.In the present embodiment, the midrange contrast is generated by the? Filter section 42A and the contrast
즉, ε 필터부(42A)는, 합성 휘도 성분 화상의 주목 화소의 데이터에 대하여 중역 강조의 ε 필터로 처리하여, 그 결과 얻어지는 데이터(이하, 「필터링 처리 후 데이터」라고 함)를 콘트라스트 작성부(43A)에 공급한다.That is, the ε filter unit 42A processes the data of the pixel of interest in the composite luminance component image with the ε filter of the midpoint emphasis, and the resulting data (hereinafter referred to as "filtering data") is a contrast creation unit. It supplies to 43A.
콘트라스트 성분 작성부(43A)는, 합성 휘도 성분 화상의 주목 화소의 데이터와, 주목 화소의 필터링 처리 후 데이터와의 차분을 취함으로써, 주목 화소 중역용 콘트라스트 성분을 작성한다.The contrast
상세하게는, 다음 식 (1)이 연산됨으로써, 주목 화소 중역용 콘트라스트 성분이 작성된다.?‥…In detail, the following formula (1) is calculated, and the contrast component for pixel range of interest is created.
Y_contrast_1 = Y_HDR - Y_ε_1 …(1)Y_contrast_1 = Y_HDR-Y_ε_1... (One)
식 (1)에 있어서,In formula (1),
Y_contrast_1은, 주목 화소 중역용 콘트라스트를 나타내고 있다.Y_contrast_1 represents the pixel contrast contrast of interest.
Y_HDR은, HDR 합성 Y화상의 주목 화소의 데이터(화소값)를 나타내고 있다.Y_HDR represents data (pixel value) of the pixel of interest of the HDR composite Y image.
Y_ε_1은, 중역용의 ε 필터를 사용하여 생성된, 주목 화소의 필터링 처리 후 데이터를 나타내고 있다.Y_ε_1 shows the data after the filtering process of the pixel of interest produced | generated using the epsilon filter for midrange.
한편, 본 실시예에서는, 저역용 콘트라스트는, ε 필터부(42B) 및 콘트라스트 성분 작성부(43B)에 의해, 다음과 같은 일련의 처리가 실행됨으로써 생성된다.On the other hand, in the present embodiment, the low contrast is generated by the
즉, ε 필터부(42B)는, 합성 휘도 성분 화상의 주목 화소의 데이터에 대하여 저역 강조의 ε 필터로 처리하여, 그 결과 얻어지는 필터링 처리 후의 데이터를 콘트라스트 성분 작성부(43B)에 공급한다.That is, the
콘트라스트 성분 작성부(43B)는, 합성 휘도 성분 화상의 주목 화소의 데이터와, 주목 화소의 필터링 처리 후의 데이터와의 차분을 취함으로써, 주목 화소의 저역용 콘트라스트 성분을 작성한다.The contrast
즉, 다음 식 (2)가 연산됨으로써, 주목 화소의 저역용 콘트라스트 성분이 작성된다.That is, the following formula (2) is calculated, and the low contrast contrast component of the pixel of interest is created.
Y_contrast_2 = Y_HDR-Y_ε_2 …(2)Y_contrast_2 = Y_HDR-Y_ε_2... (2)
식 (2)에 있어서,In formula (2),
Y_contrast_2는, 주목 화소의 저역용 콘트라스트 성분을 나타내고 있다.Y_contrast_2 represents the low contrast component of the pixel of interest.
Y_HDR은, 합성 휘도 성분 화상의 주목 화소의 데이터(화소값)를 나타내고 있다.Y_HDR represents data (pixel value) of the pixel of interest in the composite luminance component image.
Y_ε_2는, 저역용의 ε 필터를 사용하여 생성된, 주목 화소의 필터링 처리 후 데이터를 나타내고 있다.Y_ε_2 shows the data after the filtering process of the pixel of interest produced | generated using the lowpass epsilon filter.
이와 같이 하여 생성된 주목 화소의 2종류의 콘트라스트, 즉 콘트라스트 작성부(43A)에 의해 생성된 주목 화소 중역용 콘트라스트 성분과, 콘트라스트 작성부(43B)에 의해 생성된 주목 화소의 저역용 콘트라스트 성분은, 콘트라스트 합성부(44)에 공급된다. 이로써, 처리는 도 5의 단계 S24로 진행한다.Two kinds of contrasts of the pixel of interest generated in this manner, that is, the pixel intermediate contrast component generated by the
단계 S24에 있어서, 콘트라스트 합성부(44)는, 주목 화소의 2종류의 콘트라스트 성분, 즉 주목 화소 중역용 콘트라스트 성분 및 저역용 콘트라스트 성분을 화소 가산 합성함으로써, 주목 화소의 합성 콘트라스트 성분을 작성한다.In step S24, the
즉, 다음 식 (3)이 연산됨으로써, 주목 화소의 합성 콘트라스트가 작성된다.That is, the compound contrast of the pixel of interest is created by calculating the following equation (3).
Y_contrast = Y_contrast_1 + Y_contrast_2 …(3)Y_contrast = Y_contrast_1 + Y_contrast_2... (3)
식 (3)에 있어서,In formula (3),
Y_contrast는, 주목 화소의 합성 콘트라스트 성분을 나타내고 있다.Y_contrast represents the composite contrast component of the pixel of interest.
Y_contrast_1은, 전술한 식 (1)에서 연산된 주목 화소 중역용 콘트라스트 성분을 나타내고 있다.Y_contrast_1 represents the contrast component for pixel midrange of interest computed by the above-mentioned Formula (1).
Y_contrast_2는, 전술한 식 (2)에서 연산된 주목 화소의 저역용 콘트라스트 성분을 나타내고 있다.Y_contrast_2 represents the low-pass contrast component of the pixel of interest computed in the above formula (2).
이와 같이 하여 콘트라스트 합성부(44)에 의해 생성된 주목 화소의 합성 콘트라스트 성분은, 콘트라스트 강조부(45)에 공급된다. 이로써, 처리는 도 5의 단계 S25로 진행한다.In this way, the combined contrast component of the pixel of interest generated by the
단계 S25에 있어서, 콘트라스트 강조부(45)는, 주목 화소의 합성 콘트라스트 성분에 대하여, 조절 및 제한을 행한다.In step S25, the
구체적으로는, 본 실시예에서는, 주목 화소의 합성 콘트라스트 성분에 대한 조절은, 다음 식 (4)에 따라 행해진다.Specifically, in the present embodiment, the adjustment to the composite contrast component of the pixel of interest is performed according to the following equation (4).
Y_contrast = Y_contrast×(Y_gain_lev/100)×(Y_adj_lev/100) …(4)Y_contrast = Y_contrast × (Y_gain_lev / 100) × (Y_adj_lev / 100)... (4)
식 (4)에 있어서,In formula (4),
좌변의 Y_contrast는, 조절 후의 주목 화소의 합성 콘트라스트 성분을 나타내고 있다.The Y_contrast on the left side represents the composite contrast component of the pixel of interest after the adjustment.
한편, 우변의 Y_contrast는, 조절 전의 주목 화소의 합성 콘트라스트 성분을 나타내고 있다.On the other hand, Y_contrast on the right side represents the composite contrast component of the pixel of interest before adjustment.
또한, 식 (4)에 있어서, Y_gain_lev는, 합성 휘도 성분 화상 데이터 전체에 대하여 일률적으로 설정된 게인(이하, 「휘도 성분 게인」이라고 함)의 레벨(%)을 나타내고 있다.In Equation (4), Y_gain_lev represents the level (%) of gain (hereinafter, referred to as "luminance component gain") uniformly set for the entire composite luminance component image data.
한편, Y_adj_lev는, 합성 휘도 성분 화상의 주목 화소의 데이터에 대하여 개별적으로 설정된 조정량(이하, 「휘도 성분 조정량」이라고 함)의 레벨(%)을 나타내고 있다.On the other hand, Y_adj_lev represents the level (%) of the adjustment amount (hereinafter referred to as "luminance component adjustment amount") set individually for the data of the pixel of interest in the composite luminance component image.
그리고, 휘도 성분 조정량 Y_adj_lev는, 합성 휘도 성분 화상의 각 화소마다, 그 데이터(화소값) Y_HDR에 따라 개별적으로 설정되는 것이다.The luminance component adjustment amount Y_adj_lev is set individually for each pixel of the composite luminance component image according to the data (pixel value) Y_HDR.
그러므로, 주목 화소로서 설정된 화소마다, 그 데이터(화소값) Y_HDR에 따라 휘도 성분 조정량 Y_adj_lev가 적응적으로 변화되고, 그 결과, 합성 콘트라스트 성분 Y_contrast도 화소마다 적응적으로 조절된다.Therefore, for each pixel set as the pixel of interest, the luminance component adjustment amount Y_adj_lev is adaptively changed in accordance with the data (pixel value) Y_HDR, and as a result, the composite contrast component Y_contrast is adaptively adjusted for each pixel.
이로써, 콘트라스트 강조에 의한 화소값의 포화(飽和)에 의한 악영향, 예를 들면, 흑화 현상이나, 백화 현상, 색포화 등의 악영향을 경감시킬 수 있다.As a result, adverse effects due to saturation of the pixel value due to contrast enhancement, for example, blackening, whitening, color saturation, and the like, can be reduced.
또한, 본 실시예에서는, 주목 화소의 합성 콘트라스트 성분에 대한 제한은, 주목 화소의 합성 콘트라스트 성분이 0 미만일 때[(If(Y_contrast>0)], 다음 식 (5)에 따라 행해지고, 그 이외일 때(Else), 다음 식 (6)에 따라 행해진다.In addition, in the present embodiment, the restriction on the composite contrast component of the pixel of interest is performed according to the following formula (5) when the composite contrast component of the pixel of interest is less than zero (If (Y_contrast> 0)). Else is performed according to the following equation (6).
Y_contrast = fMin(Y_contrast, Y_contrast_max_lev) …(5)Y_contrast = fMin (Y_contrast, Y_contrast_max_lev)... (5)
Y_contrast = fMax(Y_contrast, |Y_contrast_max_lev|) …(6)Y_contrast = fMax (Y_contrast, Y_contrast_max_lev |)... (6)
식 (5)와 식 (6)에 있어서,In formula (5) and formula (6),
좌변의 Y_contrast는, 제한 후의 주목 화소의 합성 콘트라스트 성분을 나타내고 있다.The Y_contrast on the left side represents the composite contrast component of the pixel of interest after limitation.
한편, 우변의 Y_contrast는, 제한 전의 주목 화소의 합성 콘트라트 성분을 나타내고 있다.On the other hand, Y_contrast on the right side represents the composite contrast component of the pixel of interest before restriction.
또한, 식 (5)와 식 (6)에 있어서, Y_contrast_max_lev는, 합성 콘트라스트 성분으로서 미리 설정된 상한의 레벨을 나타내고 있다.In addition, in Formula (5) and Formula (6), Y_contrast_max_lev has shown the upper limit level preset as a synthetic contrast component.
식 (5)에서의 fMin(α, β)는, α와 β 중 최소값을 출력하는 함수를 나타내고 있다.FMin ((alpha), (beta)) in Formula (5) has shown the function which outputs the minimum value of (alpha) and (beta).
한편, 식 (6)에서의 fMax(α, β)는, α와 β 중 최대값을 출력하는 함수를 나타내고 있다.In addition, fMax ((alpha), (beta)) in Formula (6) has shown the function which outputs the maximum value of (alpha) and (beta).
다음으로, 도 5의 단계 S26에 있어서, 콘트라스트 강조부(45)는, 합성 휘도 성분 화상의 주목 화소의 데이터에 대하여, 단계 S25의 처리에서 조절 및 제한이 행해진 후의 주목 화소의 합성 콘트라스트를 가산한다.Next, in step S26 of FIG. 5, the
이로써, 합성 휘도 성분 화상의 주목 화소의 데이터에 대하여, 단계 S25의 처리에서 조절 및 제한이 행해진 주목 화소의 합성 콘트라스트 성분만, 콘트라스트가 강조되게 된다.Thus, the contrast is emphasized only for the composite contrast component of the pixel of interest whose adjustment and limitation have been performed in the process of step S25 for the data of the pixel of interest of the composite luminance component image.
구체적으로는, 다음 식 (7)이 연산됨으로써, 합성 휘도 성분 화상의 주목 화소의 데이터에 대하여 콘트라스트가 강조되게 된다.Specifically, by calculating the following equation (7), the contrast is emphasized with respect to the data of the pixel of interest of the composite luminance component image.
Y_result = Y_HDR + Y_contrast …(7)Y_result = Y_HDR + Y_contrast… (7)
식 (7)에 있어서,In formula (7),
Y_result는, 콘트라스트 강조 처리 후의 주목 화소의 데이터(콘트라스트 강조 처리 후의 주목 화소의 화소값)를 나타내고 있다.Y_result represents data of the pixel of interest after the contrast enhancement process (pixel value of the pixel of interest after the contrast enhancement process).
한편, Y_HDR은, 콘트라스트 강조 처리 전의 주목 화소의 데이터(콘트라스트 강조 처리 전의 주목 화소의 화소값)를 나타내고 있다.On the other hand, Y_HDR represents data of the pixel of interest before the contrast enhancement process (pixel value of the pixel of interest before the contrast enhancement process).
또한, Y_contrast는, 식 (4)에 의한 조정 및 식 (5) 또는 식 (6)에 의한 제한이 행해진 후의 주목 화소의 합성 콘트라스트 성분으로서, 콘트라스트 성분 강조량을 나타내고 있다.In addition, Y_contrast represents the amount of contrast component emphasis as a composite contrast component of the pixel of interest after the adjustment by Expression (4) and the restriction by Expression (5) or Expression (6) is performed.
단계 S27에 있어서, 콘트라스트 강조 처리부(31)는, 모든 화소를 주목 화소로 설정했는지의 여부를 판정한다.In step S27, the contrast
합성 휘도 성분 화상을 구성하는 화소 중, 주목 화소로 아직 설정되어 있지 않은 화소가 존재하는 경우, 단계 S27에 있어서 NO인 것으로 판정되어, 처리는 단계 S22로 리턴하고, 그 이후의 처리가 반복된다.If there is a pixel that has not yet been set as the pixel of interest among the pixels constituting the synthesized luminance component image, it is determined as NO in Step S27, the processing returns to Step S22, and the subsequent processing is repeated.
즉, 합성 휘도 성분 화상을 구성하는 화소가 주목 화소로서 차례로 설정될 때마다, 단계 S22 내지 S27의 루프 처리가 반복적으로 실행되어, 주목 화소로서 설정된 화소의 데이터가, 콘트라스트가 강조되도록 계속적으로 갱신된다.That is, whenever the pixels constituting the composite luminance component image are sequentially set as the pixel of interest, the loop processing of steps S22 to S27 is repeatedly executed, so that the data of the pixel set as the pixel of interest is continuously updated so that the contrast is emphasized. .
다만, 이 콘트라스트의 강조 정도는, 전술한 바와 같이, 주목 화소로서 설정된 화소의 갱신 전의 데이터 Y_HDR의 값에 따라 적응적으로 가변한다.However, as described above, the emphasis level of the contrast is adaptively changed in accordance with the value of the data Y_HDR before updating of the pixel set as the pixel of interest.
그리고, 마지막 화소가 단계 S22의 처리에서 주목 화소에 설정되고, 단계 S23 내지 S26의 처리가 실행되면, 합성 휘도 성분 화상을 구성하는 모든 화소가 갱신되었으므로[모든 화소의 화소값이, 전술한 식 (7)의 값 Y_result로 갱신되었으므로], 다음의 단계 S27에 있어서 YES인 것으로 판정되어, 콘트라스트 강조 처리는 종료된다.Then, when the last pixel is set to the pixel of interest in the process of step S22, and the processes of steps S23 to S26 are executed, all the pixels constituting the synthesized luminance component image have been updated. Since the value Y_result has been updated to 7), it is determined as YES in the next step S27, and the contrast emphasis process ends.
이로써, 도 3의 화상 가공 처리 중, 단계 S3의 콘트라스트 강조 처리가 종료되고, 단계 S4의 채도 강조 처리가 실행된다.Thereby, the contrast enhancement process of step S3 is complete | finished during the image processing process of FIG. 3, and the saturation emphasis process of step S4 is performed.
여기서, 이하, 도 6의 흐름도를 참조하여, 단계 S4의 채도 강조 처리를 상세하게 설명한다.Here, with reference to the flowchart of FIG. 6, the saturation emphasis process of step S4 is demonstrated in detail.
도 6은, 채도 강조 처리의 흐름의 일례를 나타낸 흐름도이다.6 is a flowchart showing an example of the flow of chroma enhancement processing.
단계 S41에 있어서, 도 2의 채도 성분 강조 처리부(31)의 합성 색차 성분 화상 취득부(51)는, 합성부(11)로부터 출력된 합성 화상 데이터 중, 합성 색차 성분의 화상 데이터를 취득한다.In step S41, the composite chrominance component
단계 S42에 있어서, 채도 강조 처리부(31)는, 합성 색차 성분 화상의 각각 을 구성하는 화소 중, 소정의 위치(좌표)에 배치된 화소를 주목 화소로서 설정한다.In step S42, the saturation
여기서, 본 실시예에서는, 채도 강조 처리부(31)는, 강조부(32)와 비동기로 실행하고 있지만, 합성 색차 성분 화상의 주목 화소와 합성 휘도 성분 화상의 주목 화소는, 동일 위치(좌표)의 각각 대응하는 화소인 것으로서 이하의 설명을 행한다.Here, in the present embodiment, the chroma
단계 S43에 있어서, 전체적인 채도 강조부(52)는, 합성 색차 성분 화상의 주목 화상 데이터에 대하여, 전체적인 채도 성분 강조량을 사용한 전체적인 채도 강조 처리를 행한다.In step S43, the overall
구체적으로는 본 실시예에서는, 다음 식 (8) 및 식 (9)이 연산됨으로써, 합성 색차 성분 화상의 주목 화상 데이터에 대하여 전체적인 채도 강조 처리가 행해진다.Specifically, in the present embodiment, the following equations (8) and (9) are calculated, so that the overall chroma enhancement process is performed on the image data of interest of the composite color difference component image.
U_HDR' = U_HDR×UV_gain_lev_al/100 …(8)U_HDR '= U_HDR x UV_gain_lev_al / 100... (8)
V_HDR' = V_HDR×UV_gain_lev_al/100 …(9)V_HDR '= V_HDR x UV_gain_lev_al / 100... (9)
식 (8)에 있어서,In formula (8),
U_HDR'는, 전체적인 채도 강조 처리가 행해진 후의 합성 색차 성분 화상의 주목 화상의 색차 성분값(U성분값)을 나타내고 있다.U_HDR 'represents the color difference component value (U component value) of the image of interest of the synthesized color difference component image after the overall chroma enhancement process is performed.
한편, U_HDR은, 전체적인 채도 강조 처리가 행해지기 전의 합성 색차 화상의 주목 화상의 색차 성분값(U성분값)을 나타내고 있다.On the other hand, U_HDR represents the color difference component value (U component value) of the image of interest of the composite color difference image before the overall chroma enhancement process is performed.
식 (9)에 있어서,In formula (9),
V_HDR'는, 전체적인 채도 강조 처리가 행해진 후의 합성 색차 화상의 주목 화상의 색차 성분값(V성분값)을 나타내고 있다.V_HDR 'represents the color difference component value (V component value) of the image of interest of the synthesized color difference image after the overall chroma enhancement process is performed.
한편, V_HDR은, 전체적인 채도 강조 처리가 행해지기 전의 합성 색차 성분 화상의 주목 화상의 색차 성분값(V성분값)을 나타내고 있다.On the other hand, V_HDR represents the color difference component value (V component value) of the image of interest in the composite color difference component image before the overall chroma enhancement process is performed.
식 (8)과 식 (9)에 있어서, UV_gain_lev_al은, 합성 색차 화상 전체에 일률적으로 설정된 전체적인 채도 성분의 강조량으로서의 전체 게인(%)을 나타내고 있다.In the formulas (8) and (9), UV_gain_lev_al represents the total gain (%) as the emphasis amount of the overall saturation component set uniformly on the entire composite color difference image.
단계 S44에 있어서, 콘트라스트 성분 강조량 취득부(53)는, 앞의 콘트라스트 강조 처리에 있어서 합성 휘도 성분 화상의 주목 화소에 대하여 사용된 콘트라스트 성분의 강조량을 취득한다.In step S44, the contrast component enhancement
구체적으로는, 다음 식 (10)이 연산되어, 콘트라스트 성분 강조량이 취득된다.Specifically, following formula (10) is calculated and the contrast component emphasis amount is acquired.
Y_emphasis_Lev = |Y_contrast| …(10)Y_emphasis_Lev = | Y_contrast | … 10
식 (10)에 있어서,In formula (10),
좌변의 Y_emphasis_Lev는, 취득된 콘트라스트 성분 강조량을 나타내고 있다.The Y_emphasis_Lev on the left side represents the acquired contrast component enhancement amount.
우변의 Y_contrast는, 전술한 식 (4)에 의한 조정 및 식 (5) 또는 식 (6)에 의한 제한이 행해진 후의 주목 화소의 합성 콘트라스트 성분으로서, 전술한 식 (7)에 있어서, 콘트라스트 성분 강조 전의 주목 화소의 데이터(화소값 Y_HDR)에 더해진 보정량이다.The right side Y_contrast is a composite contrast component of the pixel of interest after the adjustment by Expression (4) described above and the restriction by Expression (5) or Expression (6) is performed. It is a correction amount added to the data (pixel value Y_HDR) of the preceding pixel of interest.
단계 S44에 있어서, 부분적인 채도 강조부(54)는, 단계 S42의 처리에서 전체적인 채도 강조 처리가 행해진 합성 색차 성분 화상의 주목 화상 데이터에 대하여, 단계 S43의 처리에서 취득된 콘트라스트 성분 강조량에 연동하는 부분적인 채도 성분 강조량을 사용하여, 부분적인 채도 강조 처리를 행한다.In step S44, the partial
구체적으로는 본 실시예에서는, 다음 식 (11)이 연산됨으로써, 전체적인 채도 강조 처리가 행해진 합성 색차 성분 화상의 주목 화상의 U성분값에 대하여, 또한 부분적인 채도 강조 처리가 행해진다.Specifically, in the present embodiment, the following equation (11) is calculated to perform partial chroma enhancement processing on the U component values of the image of interest of the synthesized color difference component image on which the overall chroma enhancement processing is performed.
U_result = U_HDR'U_result = U_HDR '
+ U_HDR×(UV_gain_lev_part×Y_emphasis_lev/Y_contrast_max_lev)/100 + U_HDR × (UV_gain_lev_part × Y_emphasis_lev / Y_contrast_max_lev) / 100
×UV_adj_lev/100 …(11) X UV_adj_lev / 100... (11)
식 (11)에 있어서,In formula (11),
좌변의 U_result는, 전체적인 채도 강조 처리 및 부분적인 채도 강조 처리가 행해진 합성 색차 성분 화상의 주목 화상의 U성분값을 나타내고 있다.The U_result on the left side represents the U component value of the image of interest in the synthesized color difference component image in which the overall chroma enhancement process and the partial chroma enhancement process are performed.
우변의 U_HDR'는, 전술한 식 (8)에 의해 전체적인 채도 강조 처리가 행해진 후의 합성 색차 성분 화상의 주목 화상의 U성분값을 나타내고 있다.U_HDR 'on the right side represents the U component value of the image of interest of the composite chrominance component image after the overall saturation enhancement process is performed by the above-described formula (8).
U_HDR'는, 전술한 식 (8)에 의해 전체적인 채도 강조 처리가 행해진 후의 합성 색차 성분 화상의 주목 화상의 U성분값을 나타내고 있다.U_HDR 'represents the U component value of the image of interest of the composite chrominance component image after the overall chroma enhancement process is performed by the above-described formula (8).
UV_gain_lev_part는, 부분 게인(%)을 나타내고 있다.UV_gain_lev_part represents partial gain (%).
Y_emphasis_lev는, 전술한 식 (10)에 의해 취득된 콘트라스트 성분 강조량을 나타내고 있다.Y_emphasis_lev represents the amount of contrast component enhancement obtained by the above formula (10).
Y_contrast_max_lev는, 합성 콘트라스트 성분으로서 미리 설정된 상한의 레벨을 나타내고 있다.Y_contrast_max_lev represents the upper limit level preset as a composite contrast component.
(UV_gain_lev_part×Y_emphasis_lev/Y_contrast_max_lev)/100은, 콘트라스트 강조량과 연동한 부분적인 채도 강조량(%)을 나타내고 있다.(UV_gain_lev_part × Y_emphasis_lev / Y_contrast_max_lev) / 100 represents the partial saturation enhancement amount (%) linked with the contrast enhancement amount.
UV_adj_lev는, 합성 색차 성분 화상의 주목 화소의 데이터에 대하여 개별적으로 설정된 조정량(이하, 「색차 조정량」이라고 함)의 레벨(%)을 나타내고 있다.UV_adj_lev represents the level (%) of the adjustment amount (hereinafter referred to as "color difference adjustment amount") set individually for the data of the pixel of interest of the composite chrominance component image.
합성 색차 성분 화상 데이터 UV_HDR은, 식 (12)에 나타낸 바와 같이, U성분값 U_HDR과 V성분값 V_HDR의 각각의 절대값 중 큰 쪽을 채용한다.As shown in equation (12), the composite color difference component image data UV_HDR adopts the larger of the absolute values of the U component value U_HDR and the V component value V_HDR.
UV_HDR = fmax(|U_HDR|, |V_HDR|) …(12)UV_HDR = fmax (| U_HDR |, | V_HDR |)... (12)
식 (12)에 있어서, fmax(α, β)는, α와 β 중 최대값을 출력하는 함수를 나타내고 있다.In Formula (12), fmax ((alpha), (beta)) has shown the function which outputs the maximum value of (alpha) and (beta).
색차 조정량 UV_adj_lev는, 합성 색차 성분 화상의 각 화소마다, 그 데이터(화소값) UV_HDR에 따라 개별적으로 설정되는 것이다.The color difference adjustment amount UV_adj_lev is individually set for each pixel of the composite color difference component image according to the data (pixel value) UV_HDR.
그러므로, 주목 화소로서 설정된 화소마다, 그 데이터(화소값) UV_HDR에 따라 색차 조정량 UV_adj_lev는 적응적으로 변화된다.Therefore, for each pixel set as the pixel of interest, the color difference adjustment amount UV_adj_lev is adaptively changed in accordance with the data (pixel value) UV_HDR.
그리고, 이 결과, 주목 화상의 U성분 U_HDR에 대한 부분적인 채도 강조의 정도도 화소마다 적응적으로 조절된다. 이로써, 채도 강조에 의한 화소값의 포화에 의한 악영향, 예를 들면, 흑화 현상, 백화 현상, 색포화 등의 악영향을 경감시킬 수 있다.As a result, the degree of partial chroma enhancement for the U component U_HDR of the target image is also adaptively adjusted for each pixel. As a result, adverse effects due to saturation of the pixel value due to saturation emphasis, for example, blackening, whitening, color saturation, and the like, can be reduced.
또한, 본 실시예에서는, 다음 식 (13)이 연산됨으로써, 전체적인 채도 강조 처리가 행해진 합성 색차 성분 화상의 주목 화상의 V성분값에 대하여, 또한 부분적인 채도 강조 처리가 행해진다.In the present embodiment, the following equation (13) is calculated to perform partial chroma enhancement processing on the V component values of the image of interest of the composite color difference component image on which the overall chroma enhancement processing is performed.
V_result = V_HDR'V_result = V_HDR '
+ V_HDR×(UV_gain_lev_part×Y_emphasis_lev/Y_contrast_max_lev)/100 + V_HDR × (UV_gain_lev_part × Y_emphasis_lev / Y_contrast_max_lev) / 100
×UV_adj_lev/100 …(13)X UV_adj_lev / 100... (13)
식 (13)에 있어서,In formula (13),
좌변의 V_result는, 전체 강조 처리 및 부분 강조 처리가 행해진 합성 색차 성분 화상의 주목 화상의 V성분값을 나타내고 있다.The V_result on the left side represents the V component values of the image of interest in the composite color difference component image on which the full emphasis process and the partial emphasis process have been performed.
우변의 V_HDR'는, 전술한 식 (9)에 의해 전체적인 채도 강조 처리가 행해진 후의 합성 색차 성분 화상의 주목 화상의 V성분값을 나타내고 있다.The right side V_HDR 'represents the V component value of the image of interest of the synthesized chrominance component image after the overall saturation enhancement process is performed by the above formula (9).
V_HDR'는, 전술한 식 (9)에 의해 전체적인 채도 강조 처리가 행해진 후의 합성 색차 성분 화상의 주목 화상의 V성분값을 나타내고 있다.V_HDR 'represents the V component value of the image of interest of the composite chrominance component image after the overall chroma enhancement process is performed by the above formula (9).
또한, 식 (13)에 있어서도, 식 (11)과 마찬가지로, (UV_gain_lev_part×Y_emphasis_lev/Y_contrast_max_lev)/100이, 콘트라스트 성분 강조량과 연동한 부분적인 채도 강조량(%)으로서 사용되고 있다.Also in (13), (UV_gain_lev_part × Y_emphasis_lev / Y_contrast_max_lev) / 100 is used as the partial saturation enhancement amount (%) in conjunction with the contrast component enhancement amount, similarly to equation (11).
또한, 식 (13)에 있어서도, 식 (11)과 마찬가지로, 색차 조정량 UV_adj_lev가 사용되고 있다.In addition, also in Formula (13), the color difference adjustment amount UV_adj_lev is used similarly to Formula (11).
도 6의 단계 S46에 있어서, 채도 강조 처리부(31)는, 모든 화소를 주목 화소로 설정했는지의 여부를 판정한다.In step S46 of FIG. 6, the saturation
합성 색차 성분 화상을 구성하는 화소 중, 주목 화소로 아직 설정되어 있지 않은 화소가 존재하는 경우, 단계 S46에 있어서 NO인 것으로 판정되고, 처리는 단계 S42로 리턴하고, 그 이후의 처리가 반복된다.If there is a pixel which is not yet set as the pixel of interest among the pixels constituting the composite chrominance component image, it is determined as NO in Step S46, the processing returns to Step S42, and the subsequent processing is repeated.
즉, 합성 색차 화상을 구성하는 화소가 주목 화소로서 차례로 설정될 때마다, 단계 S42 내지 S46의 루프 처리가 반복적으로 실행되어, 주목 화소로서 설정된 화소의 데이터가, 채도가 강조되도록 계속적으로 갱신된다.That is, whenever the pixels constituting the composite chrominance image are sequentially set as the pixel of interest, the loop processing of steps S42 to S46 is repeatedly executed, so that the data of the pixel set as the pixel of interest is continuously updated so that the saturation is emphasized.
다만, 그 채도의 강조 정도는, 전술한 바와 같이, 콘트라스트의 강조 정도에 연동하고, 또한 주목 화소로서 설정된 화소의 갱신 전의 데이터 U_HDR 및 V_HDR의 값에 따라 적응적으로 변화된다.However, as described above, the degree of enhancement of the saturation is adaptively changed in accordance with the values of the data U_HDR and V_HDR before updating the pixel set as the pixel of interest, in conjunction with the degree of contrast enhancement.
그리고, 마지막 화소가 단계 S42의 처리에서 주목 화소로 설정되어, 단계 S43 내지 S46의 처리가 실행되면, 합성 색차 성분 화상을 구성하는 모든 화소가 갱신되었으므로[모든 화소의 화소값이, 전술한 식 (11)의 값 U_result 및 식 (13)의 값 V_result로 갱신되었으므로], 다음의 단계 S46에 있어서 YES인 것으로 판정되어, 채도 강조 처리는 종료된다.Then, when the last pixel is set as the pixel of interest in the process of step S42, and the processes of steps S43 to S46 are executed, all the pixels constituting the composite chrominance component image have been updated. The value U_result of 11) and the value V_result of the formula (13)] are determined to be YES in the next step S46, and the chroma enhancement processing ends.
이로써, 도 3의 화상 가공 처리 중, 단계 S4의 채도 강조 처리가 종료하고, 처리는 단계 S5로 진행한다. 즉, 단계 S3의 콘트라스트 강조 처리가 행해진 합성 휘도 성분의 화상 데이터와, 단계 S4의 채도 강조 처리가 행해진 합성 색차 성분의 화상 데이터의 조합이, 강조 처리 후의 화상 데이터로서, 강조 처리 후 화상 취득부(33)에 의해 취득된다.Thereby, in the image processing process of FIG. 3, the saturation emphasis process of step S4 is complete | finished, and a process progresses to step S5. That is, the combination of the image data of the synthesized luminance component subjected to the contrast enhancement processing in step S3 and the image data of the synthesized color difference component subjected to the saturation enhancement processing in step S4 is the image data after the emphasis processing. 33).
이상 설명한 바와 같이, 합성 화상 데이터가, 휘도 성분으로 이루어지는 합성 휘도 성분 화상 데이터와, 색차 성분으로 이루어지는 합성 색차 성분 화상 데이터로 분리되어 있는 경우, 도 2의 콘트라스트 강조 처리부(31)는, 소정의 콘트라스트 성분 강조량을 사용하여, 합성 휘도 성분의 화상 데이터의 콘트라스트를 강조하도록 처리한다.As described above, when the synthesized image data is separated into synthesized luminance component image data composed of luminance components and synthesized chrominance component image data composed of chrominance components, the contrast
한편, 채도 강조 처리부(31)는, 콘트라스트 강조 처리부(31)의 콘트라스트 성분 강조량에 연동하여 가변하는 채도 강조량을 사용하여, 합성 색차 성분의 화상 데이터의 채도를 강조하도록 처리한다.On the other hand, the chroma
이로써, 과도하게 색공간의 각 파라미터가 조정되어 있어도 현실감을 잃지않도록 하는 하이 다이나믹레인지의 합성 화상 데이터가 얻어지는 효과를 얻을 수 있게 된다.In this way, it is possible to obtain an effect of obtaining composite image data of high dynamic range that does not lose reality even when each parameter of the color space is excessively adjusted.
특히, 콘트라스트 강조 처리부(31)가, 합성 휘도 성분의 화상 내의 소정의 위치(좌표)의 화소의 데이터를, 위치마다 상이한 콘트라스트 성분 강조량을 사용하여 콘트라스트를 강조 처리하고, 그리고, 채도 강조 처리부(31)가, 상기 위치(좌표)와 동일한 합성 휘도 성분 화상 내의 위치용의 콘트라스트 성분 강조량에 연동하여 가변하는 채도 성분 강조량을 사용하여, 합성 색차 성분 화상 내의 소정의 위치(좌표)의 화소의 데이터를 채도 강조 처리함으로써, 상기 효과는 현저하게 된다.In particular, the
이와 같은 효과는, 도 7의 (A)?(D), 도 8을 참조함으로써 명확하게 알 수 있다.Such an effect can be clearly seen by referring to Figs. 7A to 7D and Fig. 8.
도 7의 (A)?(D)는, 도 3의 화상 가공 처리의 대상이 되는 화상 데이터의 일례로서, 도 4의 (E)의 예와 동일한 데이터를 나타내고 있다.7A to 7D show an example of image data which is the object of the image processing in FIG. 3, and shows the same data as the example of FIG. 4E.
도 7의 (A)는, 단계 S2의 처리의 결과 얻어진 합성 화상 데이터의 일례를 나타내고 있다.FIG. 7A shows an example of synthesized image data obtained as a result of the process of step S2.
도 7의 (B)는, 단계 S3의 콘트라스트 강조 처리에 있어서, 도 7의 (A)의 합성 화상 데이터 전체에 대하여 중역용 콘트라스트 성분 강조용의 ε 필터[33×33(픽셀) 사이즈]로 처리하여, 그 결과 얻어지는 화상 전체의 필터링 처리 후 데이터(도 5의 단계 S23 참조)의 일례를 나타내고 있다.FIG. 7B shows that in the contrast enhancement process of step S3, an ε filter [33 x 33 (pixel) size] for mid-range contrast component emphasis is performed on the entire composite image data of FIG. 7A. An example of the data (see step S23 in FIG. 5) after the filtering of the entire image obtained as a result is shown.
도 7의 (C)는, 단계 S3의 콘트라스트 강조 처리에 있어서, 도 7의 (A)의 합성 화상 데이터 전체에 대하여 저역용 콘트라스트 성분 강조용의 ε 필터(129×129의 사이즈)로 처리하여, 그 결과 얻어지는 화상 전체의 필터링 처리 후 데이터(도 5의 단계 S23 참조)의 일례를 나타내고 있다.FIG. 7C shows that in the contrast enhancement process of step S3, the entire composite image data of FIG. 7A is processed with an ε filter (size of 129 x 129) for low contrast contrast component enhancement. An example of the data after the filtering process of the entire image obtained as a result (see step S23 in FIG. 5) is shown.
도 7의 (D)는, 단계 S3의 콘트라스트 강조 처리에 있어서, 도 7의 (A)?(C)의 각 데이터를 사용하여 생성된 화상 전체의 콘트라스트 성분(도 5의 단계 S24 및 S25 참조)의 일례를 나타내고 있다.FIG. 7D shows the contrast components of the entire image generated using the data of FIGS. 7A to 7C in the contrast enhancement process of step S3 (see steps S24 and S25 of FIG. 5). An example is shown.
도 8은, 도 7의 (A)?(E)의 각 데이터를 사용하여 도 3의 화상 가공 처리가 실행된 결과 얻어지는, 강조 처리 후의 화상 데이터의 일례를 나타내고, 이 강조 처리 후의 화상은, 색공간의 각 파라미터가 과도하게 조정되어 있어도 현실감을 잃지않도록 하는 합성 화상으로 되어 있는 것을 알 수 있다.FIG. 8 shows an example of the image data after the emphasis processing, which is obtained as a result of the image processing processing of FIG. 3 being performed using the data of FIGS. 7A to 7E, and the image after the emphasis processing has a color. It can be seen that it is a composite image that does not lose reality even if each parameter of the space is excessively adjusted.
그리고, 본 발명은 상기 실시예로 한정되지 않고, 본 발명의 목적을 달성할 수 있는 범위에서의 변형, 개량 등은 본 발명에 포함되는 것이다.In addition, this invention is not limited to the said Example, A deformation | transformation, improvement, etc. in the range which can achieve the objective of this invention are included in this invention.
예를 들면, 전술한 실시예에서는, 콘트라스트 강조 처리부(31)에 의한 콘트라스트 강조 처리에 있어서, ε 필터가 평활화를 위해 사용하는 필터로서 채용되었다.For example, in the above-described embodiment, in the contrast enhancement process performed by the contrast
그러나, 전술한 바와 같이, 특히 ε 필터로 한정되지 않고, 예를 들면, 국소적으로 콘트라스트 성분을 강조할 때 발생하는 언더슈트(undershoot)나 오버슈트(overshoot)를 의도적으로 나타낸 화상을 생성하고자 할 경우에는, 통상의 LPF를 채용할 수도 있다.However, as described above, it is not particularly limited to the ε filter, and for example, it is intended to generate an image intentionally indicating undershoot or overshoot that occurs when the contrast component is locally emphasized. In this case, ordinary LPF may be employed.
또한, 예를 들면, 전술한 실시예에서는, 콘트라스트를 강조하기 위한 콘트라스트 강조 처리에 있어서는, 2종류의 주파수(저역과 중역)가 채용되고 있지만, 특별히 이것으로 한정되지 않고, 3종류 이상이라도 된다. 예를 들면, 저역과 중역에 더하여, 고역을 더 채용함으로써, 고역을 강조하여, 샤프니스를 향상시킬 수도 있다.For example, in the above-mentioned embodiment, although two types of frequencies (low range and mid range) are employ | adopted in contrast enhancement process for emphasizing contrast, it is not limited to this especially, Three or more types may be sufficient. For example, in addition to the low range and the mid range, by adopting a high range further, the high range can be emphasized to improve the sharpness.
그리고, 전술한 실시예에서는, 부분적인 채도 강조 처리에 있어서 처리 대상이 되는 화상에 있어서 얼굴 화상 영역이 존재하고 경우를 고려하고 있지 않지만, 공지의 얼굴 화상 영역 검출 기술을 사용하여 얼굴 화상 영역을 검출시키고, 이 검출된 얼굴 화상의 존재를 고려하여, 강조량이 적은 부분적인 채도 강조 처리를 행해도 된다. 이와 같이 하면, 본 처리에 의해 과도한 강조에 의해 얼굴의 살색 성분의 색감과 질감 등을 잃는 문제를 해소할 수 있다.Incidentally, in the above-described embodiment, although the face image area exists and is not considered in the image to be processed in the partial saturation enhancement process, the face image area is detected using a known face image area detection technique. In consideration of the presence of the detected face image, a partial saturation emphasis process with a small amount of emphasis may be performed. In this way, the problem of losing color and texture of the skin color component of the face due to excessive emphasis can be solved by this process.
보다 구체적으로는, 얼굴 화상 영역을 검출한 경우에는, 이 검출한 얼굴 화상 영역의 휘도 성분 화상에 적용시키는 콘트라스트 성분 강조량, 및 색차 성분 화상에 적용시키는 채도 성분 강조량을 미리 설정해 둔다.More specifically, when the face image region is detected, the amount of contrast component enhancement applied to the luminance component image of the detected face image region and the amount of chroma component enhancement applied to the chrominance component image are set in advance.
그리고, 이들 강조량은 지금까지 설명한 콘트라스트 성분 강조량 및 채도 성분 강조량보다 적으며, 상세하게는 80% 정도로 억제된 것이면 된다.The amount of these enhancements is less than the amount of contrast component enhancement and saturation component enhancement described so far, and may be suppressed to about 80% in detail.
그리고, 얼굴 화상 영역을 검출하면, 전술한 단계 S3?단계 S4에서 콘트라스트 강조량과 채도 성분 강조량으로 부분 강조 처리된 화상과, 얼굴 화상 영역을 검출한 경우에 적용되는 콘트라스트 성분 강조량과 채도 성분 강조량으로 부분 강조 처리된 화상을 생성한다.When the face image area is detected, the image partially processed by the contrast enhancement amount and the saturation component enhancement amount in steps S3 to S4 described above, and the contrast component enhancement amount and the saturation component applied when the face image area is detected. An image with partial emphasis is generated by the emphasis amount.
또한, 이들 화상끼리를 화소 단위로 α블렌딩(투과도를 조절하여 혼합하는 처리를 행하는 것)하여 합성 화상을 얻는다.Furthermore, these images are alpha-blended (processing by adjusting and adjusting the permeability) for each pixel to obtain a composite image.
이 경우 검출된 얼굴 화상 영역과 그 주변 영역에 대해서는, 얼굴 화상 영역을 검출한 경우에 적용되는 콘트라스트 성분 강조량과 채도 성분 강조량으로 부분적 강조 처리된 화상의 비율이 높아지도록 합성하고, 그 이외의 영역에 대해서는 전술한 단계 S3?단계 S4에서 콘트라스트 강조량과 채도 성분 강조량으로 부분적으로 강조 처리된 화상의 비율이 높아지도록 합성할 수 있다.In this case, the detected face image region and its surrounding region are synthesized so that the ratio of the partially emphasized image is increased by the contrast component enhancement amount and chroma component enhancement amount applied when the face image area is detected. The area can be synthesized so that the ratio of the image partially emphasized by the contrast enhancement amount and the saturation component enhancement amount in steps S3 to S4 described above is increased.
또한, 예를 들면, 전술한 실시예에서는, 노출값이 각각 상이한 복수 화상 데이터로서, 3매의 화상 데이터가 화소 가산 합성되었지만, 합성 대상의 화상 데이터 수는, 특별히 이것으로 한정되지 않는다. 즉, 본 발명은, 2매 이상의 임의의 수의 화상 데이터를 화소 가산 합성하는 경우에도 널리 적용할 수 있다.For example, in the above-mentioned embodiment, although three pieces of image data are pixel-added as plural image data with different exposure values, the number of image data to be synthesized is not particularly limited thereto. That is, the present invention can be widely applied to the case of pixel addition synthesis of any number of image data of two or more sheets.
또한, 화상 가공 처리의 대상으로 되는 각종 화상 데이터는, 전술한 각 도면에 나타내는 구체예로 특별히 한정되지 않는다. 예를 들면, 합성 대상이 되는 복수 화상 데이터가 촬상될 때의 노출값의 설정은, 전술한 각 도면에 나타내는 구체예로 한정되지 않고, 노출값이 각각 다르면 임의로 해도 된다.In addition, the various image data made into the object of image processing is not specifically limited to the specific example shown in each above-mentioned figure. For example, the setting of the exposure value at the time of imaging the multiple image data used as a synthesis object is not limited to the specific example shown in each above-mentioned figure, You may arbitrarily as long as exposure value differs, respectively.
또한, 전술한 실시예에서는 특별히 언급하지 않았지만, 노출값이 각각 상이한 복수 화상 데이터는, 화소 가산 합성되는 것을 고려하면, 위치 어긋남이 미리 보정되어 있는 것이 바람직하다.In addition, although not specifically mentioned in the above-mentioned embodiment, it is preferable that the position shift is correct | amended previously in consideration of pixel-added synthesis | combination of several image data from which exposure values differ, respectively.
또한, 예를 들면, 전술한 실시예에서는, 본 발명이 적용되는 화상 처리 장치는, 디지털 카메라로서 구성되는 예로서 설명하였다.For example, in the above-mentioned embodiment, the image processing apparatus to which the present invention is applied has been described as an example configured as a digital camera.
그러나, 본 발명은, 특별히 이것으로 한정되지 않고, 화상 처리 기능을 가지는 전자 기기에 일반적으로 적용할 수 있고, 예를 들면, 본 발명은, 디지털 포토 프레임, 퍼스널 컴퓨터, 휴대형 네비게이션 장치, 휴대용 게임기 등에 널리 적용할 수 있다.However, the present invention is not particularly limited to this, and can be generally applied to an electronic device having an image processing function. For example, the present invention is a digital photo frame, a personal computer, a portable navigation device, a portable game machine, or the like. It is widely applicable.
환언하면, 전술한 일련의 처리는, 하드웨어에 의해 실행시킬 수도 있고, 소프트웨어에 의해 실행시킬 수도 있다.In other words, the above-described series of processes may be executed by hardware or may be executed by software.
도 9는, 전술한 일련의 처리를 소프트웨어에 의해 실행시키는 경우의, 본 발명이 적용되는 화상 처리 장치의 하드웨어 구성을 나타낸 블록도이다.9 is a block diagram showing a hardware configuration of an image processing apparatus to which the present invention is applied when the series of processes described above are executed by software.
도 9의 예에서는, 화상 처리 장치는, CPU(Central Processing Unit)(201)와, ROM(Read Only Memory)(202)과, RAM(Random Access Memory)(203)과, 버스(204)와, 입출력 인터페이스(205)와, 입력부(206)와, 출력부(207)와, 기억부(208)와, 통신부(209)와, 드라이브(210)를 구비하고 있다.In the example of FIG. 9, the image processing apparatus includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, a
CPU(201)는, ROM(202)에 기록되어 있는 프로그램에 따라 각종 처리를 실행한다. 또는, CPU(201)는, 기억부(208)로부터 RAM(203)에 로드된 프로그램에 따라 각종 처리를 실행한다.The
RAM(203)에는, 또한 CPU(201)가 각종 처리를 실행하는데 있어서 필요한 데이터 등도 적절하게 기억된다.The
예를 들면, 본 실시예에서는, 합성부(11) 내지 노이즈 저감부(13)의 기능을 실현하는 프로그램이, ROM(202)이나 기억부(208)에 기억되어 있다. 따라서, CPU(201)가, 이들 프로그램에 따른 처리를 실행함으로써, 합성부(11) 내지 노이즈 저감부(13)의 기능을 실현할 수 있다.For example, in this embodiment, a program for realizing the functions of the synthesizing
CPU(201), ROM(202), 및 RAM(203)은, 버스(204)를 통하여 서로 접속되어 있다. 이 버스(204)에는, 또한 입출력 인터페이스(205)도 접속되어 있다. 입출력 인터페이스(205)에는, 입력부(206), 출력부(207), 기억부(208), 및 통신부(209)가 접속되어 있다.The
입력부(206)는, 각종 버튼 등의 조작부에 의해 구성되며, 사용자의 지시 조작을 받아들이는 것 외에, 각종 정보를 입력한다.The
출력부(207)은, 각종 정보를 출력한다. 예를 들면, 출력부(207)에는, 도시하지 않은 표시부가 설치되어 있고, 합성부(11)의 출력 데이터에 의해 나타내어지는 합성 화상이 표시된다.The
기억부(208)는, 하드디스크나 DRAM(Dynamic Random Access Memory) 등으로 구성되며, 각종 데이터를 기억한다.The
통신부(209)는, 인터넷을 포함하는 네트워크를 통하여 다른 장치(도시하지 않음)와의 사이에서 행하는 통신을 제어한다.The
입출력 인터페이스(205)에는, 또한 필요에 따라 드라이브(210)가 접속되고, 자기 디스크, 광디스크, 광 자기 디스크, 또는 반도체 메모리 등으로 이루어지는 리무버블 미디어(211)가 적절하게 장착된다. 드라이브(210)에 의해 리무버블 미디어(211)로부터 판독된 프로그램은, 필요에 따라 기억부(208)에 인스톨된다. 또한, 리무버블 미디어(211)는, 기억부(208)에 기억되어 있는 화상 데이터 등의 각종 데이터도, 기억부(208)와 마찬가지로 기억할 수 있다.The
일련의 처리를 소프트웨어에 의해 실행시키는 경우에는, 이 소프트웨어를 구성하는 프로그램이, 컴퓨터 등에 네트워크나 기록 매체로부터 인스톨된다. 컴퓨터는, 전용 하드웨어에 내장되어 있는 컴퓨터라도 된다. 또한, 컴퓨터는, 각종 프로그램을 인스톨함으로써, 각종 기능을 실행하는 것이 가능한 컴퓨터, 예를 들면, 범용 퍼스널 컴퓨터라도 된다.When a series of processes are performed by software, the program which comprises this software is installed in a computer etc. from a network or a recording medium. The computer may be a computer built in dedicated hardware. The computer may be a computer that can execute various functions by installing various programs, for example, a general purpose personal computer.
이와 같은 프로그램을 포함하는 기록 매체는, 사용자에게 프로그램을 제공하기 위해 장치 본체와는 별도로 배포되는 리무버블 미디어(211)에 의해 구성될 뿐만 아니라, 장치 본체에 미리 내장된 상태로 사용자에게 제공되는 기록 매체 등으로 구성된다. 리무버블 미디어(211)는, 예를 들면, 자기 디스크(floppy disk를 포함함), 광디스크, 또는 광자기 디스크 등에 의해 구성된다. 광디스크는, 예를 들면, CD-ROM(Compact Disk-Read Only Memory), DVD(Digital Versatile Disk) 등에 의해 구성된다. 광자기 디스크는, MD(Mini-Disk) 등에 의해 구성된다. 또한, 장치 본체에 미리 내장된 상태로 사용자에게 제공되는 기록 매체는, 예를 들면, 프로그램이 기록되어 있는 ROM(202)이나 기억부(208)에 포함되는 하드디스크 등으로 구성된다.The recording medium including such a program is not only constituted by the
그리고, 본 명세서에 있어서, 기록 매체에 기록되는 프로그램을 기술하는 단계는, 그 순서에 따라 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않아도, 병렬적 또는 개별적으로 실행되는 처리도 포함하는 것이다.In the present specification, the step of describing a program recorded on the recording medium includes not only processing performed in time series according to the order, but also processing executed in parallel or separately, without necessarily processing in time series. It is.
Claims (9)
상기 화상 데이터 중, 휘도 성분으로 이루어지는 제1 화상 데이터를 소정의 제1 강조량을 사용하여 콘트라스트를 강조하도록 처리하는 제1 강조 처리 수단;
상기 화상 데이터 중, 그 외의 성분으로 이루어지는 제2 화상 데이터를 상기 제1 강조 처리 수단에 의해 사용한 상기 제1 강조량을 사용하여 채도를 강조하도록 처리하는 제2 강조 처리 수단; 및
상기 제1 강조 처리 수단에 의해 콘트라스트가 강조된 제1 화상 데이터와, 상기 제2 강조 처리 수단에 의해 채도가 강조된 상기 제2 화상 데이터를 조합하여, 새로운 화상 데이터를 취득하는 화상 데이터 취득 수단
을 포함하는 화상 처리 장치.An image processing apparatus for processing image data composed of luminance components defined in a predetermined color space and other components,
First emphasis processing means for processing first image data comprising luminance components among the image data to emphasize contrast using a predetermined first enhancement amount;
Second emphasis processing means for processing second image data including other components among the image data to emphasize saturation using the first emphasis amount used by the first emphasis processing means; And
Image data acquisition means for acquiring new image data by combining first image data whose contrast is emphasized by the first emphasis processing means and the second image data whose saturation is enhanced by the second emphasis processing means.
Image processing apparatus comprising a.
상기 제1 강조 처리 수단은, 상기 제1 화상 내의 소정의 위치의 화소의 데이터를, 위치마다 상이한 상기 제1 강조량을 사용하여 콘트라스트를 강조하도록 처리하는 한편,
상기 제2 강조 처리 수단은, 상기 제2 화상 내의 소정의 위치의 화소의 데이터를, 상기 위치와 동일한 상기 제1 화상 내의 위치용의 상기 제1 강조량에 연동하여 변화되는 상기 제2 강조량을 사용하여, 채도를 강조하도록 처리하는, 화상 처리 장치.The method of claim 1,
The first emphasis processing means processes the data of the pixel at a predetermined position in the first image to emphasize contrast using the first emphasis amount different for each position,
The second emphasis processing means converts the data of the pixel at a predetermined position in the second image into the second emphasis amount that is changed in conjunction with the first emphasis amount for a position in the first image that is the same as the position. And processing to emphasize saturation.
상기 제2 강조 처리 수단은,
상기 제2 화상 내의 상기 소정의 위치의 화소의 데이터를, 상기 제2 화상에 전체적으로 적용되고 있는 제3 강조량을 사용하여, 채도를 강조 처리하는 전체적인 채도 강조 처리 수단; 및
상기 소정의 위치와 동일한 상기 제1 화상 내의 위치용의 상기 제1 강조량에 연동하여 변화되는 상기 제2 강조량을 취득하는 취득 수단
을 포함하고,
상기 전체적인 채도 강조 처리 수단에 의한 전체적인 채도의 강조 처리와, 상기 취득 수단에 의해 취득된 제2 강조량을 사용한 상기 제2 화상 내의 소정의 위치의 화소의 데이터의 채도의 강조 처리에 의해 상기 그 외의 성분으로 이루어지는 상기 제2 화상 데이터의 채도를 강조하도록 처리하는, 화상 처리 장치.The method of claim 2,
The second emphasis processing means,
Overall saturation enhancement processing means for processing saturation by applying the third enhancement amount which is applied to the data of the pixel at the predetermined position in the second image as a whole; And
Acquisition means for acquiring the second enhancement amount that changes in conjunction with the first enhancement amount for a position in the first image that is equal to the predetermined position.
Including,
The saturation enhancement processing by the overall saturation enhancement processing means and the saturation enhancement processing of the data of pixels at predetermined positions in the second image using the second enhancement amount acquired by the acquisition means. An image processing apparatus which processes to emphasize the saturation of the second image data composed of the component.
처리 대상이 되는 화상 데이터로부터 얼굴 화상 영역을 검출하는 화상 영역 검출 수단을 더 포함하고,
상기 제1 강조 수단은, 상기 화상 영역 검출 수단에 의해 얼굴 화상 영역이 검출되면, 상기 소정의 제1 강조량보다 적은 제4 강조량을 사용하여 상기 제1 화상 데이터의 콘트라스트를 강조하고,
상기 제2 강조 수단은, 상기 제1 강조 수단의 상기 제4 강조량에 연동하여 변화되는 제5 강조량을 사용하여, 상기 제2 화상 데이터의 채도를 강조하는, 화상 처리 장치.The method of claim 1,
Image area detection means for detecting a face image area from the image data to be processed;
When the face image area is detected by the image area detection means, the first emphasis means emphasizes the contrast of the first image data by using a fourth emphasis amount less than the predetermined first emphasis amount,
And said second emphasis means emphasizes saturation of said second image data using a fifth emphasis amount that changes in conjunction with said fourth emphasis amount of said first emphasis means.
상기 제1 강조 수단은 상기 제1 화상 데이터에서의 상기 얼굴 화상 영역 주변 부분의 콘트라스트를 강조하는, 화상 처리 장치.The method of claim 4, wherein
And the first emphasis means for emphasizing the contrast of the peripheral portion of the face image area in the first image data.
상기 제2 강조 수단은 상기 제2 화상 데이터에서의 상기 얼굴 화상 영역 주변 부분의 채도를 강조하는, 화상 처리 장치.The method of claim 4, wherein
And the second emphasizing means emphasizes the saturation of a portion around the face image area in the second image data.
상기 소정의 색공간에 있어서 규정되는 휘도 성분과 그 외의 성분으로 구성되는 화상 데이터는, 노출 조건을 상이하게 하여 촬영된 복수 화상을 합성함으로써 생성된 다이나믹 레인지를 확대시킨 화상 데이터인, 화상 처리 장치.The method of claim 1,
The image data composed of the luminance component defined in the predetermined color space and other components is image data obtained by enlarging the dynamic range generated by synthesizing a plurality of images photographed with different exposure conditions.
상기 화상 데이터 중, 휘도 성분으로 이루어지는 제1 화상 데이터를 소정의 제1 강조량을 사용하여 콘트라스트를 강조하도록 처리하는 제1 강조 처리 단계;
상기 화상 데이터 중, 그 외의 성분으로 이루어지는 제2 화상 데이터를 상기 제1 강조 처리 단계에 의해 사용한 제1 강조량을 사용하여 채도를 강조하도록 처리하는 제2 강조 처리 단계; 및
상기 제1 강조 처리 단계에서 콘트라스트가 강조된 상기 제1 화상 데이터와, 상기 제2 강조 처리 단계에서 채도가 강조된 상기 제2 화상 데이터를 조합하여, 새로운 화상 데이터를 취득하는 화상 데이터 취득 단계
를 포함하는 화상 처리 방법.An image processing method for processing image data composed of luminance components and other components defined in a predetermined color space,
A first emphasis processing step of processing first image data comprising luminance components among the image data to emphasize contrast using a predetermined first enhancement amount;
A second emphasis processing step of processing second image data consisting of other components among the image data to emphasize saturation using the first emphasis amount used by the first emphasis processing step; And
An image data acquisition step of acquiring new image data by combining the first image data whose contrast is emphasized in the first emphasis processing step and the second image data whose saturation is enhanced in the second emphasis processing step.
Image processing method comprising a.
상기 컴퓨터를,
상기 화상 데이터 중, 휘도 성분으로 이루어지는 제1 화상 데이터를 소정의 제1 강조량을 사용하여 콘트라스트를 강조하도록 처리하는 제1 강조 처리 수단;
상기 화상 데이터 중, 그 외의 성분으로 이루어지는 제2 화상 데이터를 상기 제1 강조 처리 수단에서 사용한 제1 강조량을 사용하여 채도를 강조하도록 처리하는 제2 강조 처리 수단; 및
상기 제1 강조 처리 수단에 의해 콘트라스트가 강조된 상기 제1 화상 데이터와, 상기 제2 강조 처리 수단에 의해 채도가 강조된 상기 제2 화상 데이터를 조합하여, 새로운 화상 데이터를 취득하는 화상 데이터 취득 수단
으로서 기능하게 하는, 프로그램 프로덕트.
As a program product that stores a program for processing image data composed of luminance components and other components defined in a predetermined color space by a computer,
The computer,
First emphasis processing means for processing first image data comprising luminance components among the image data to emphasize contrast using a predetermined first enhancement amount;
Second emphasis processing means for processing second image data consisting of other components among the image data to emphasize saturation using the first emphasis amount used in the first emphasis processing means; And
Image data acquisition means for acquiring new image data by combining the first image data whose contrast is emphasized by the first emphasis processing means and the second image data whose saturation is enhanced by the second emphasis processing means.
Program product to function as.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2010-164148 | 2010-07-21 | ||
JP2010164148 | 2010-07-21 | ||
JP2011044532A JP5136665B2 (en) | 2010-07-21 | 2011-03-01 | Image processing apparatus and program |
JPJP-P-2011-044532 | 2011-03-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120010182A true KR20120010182A (en) | 2012-02-02 |
KR101267404B1 KR101267404B1 (en) | 2013-05-30 |
Family
ID=45493654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110072350A KR101267404B1 (en) | 2010-07-21 | 2011-07-21 | Image processor, image processing method, and recording medium |
Country Status (5)
Country | Link |
---|---|
US (1) | US8472713B2 (en) |
JP (1) | JP5136665B2 (en) |
KR (1) | KR101267404B1 (en) |
CN (1) | CN102348070B (en) |
HK (1) | HK1164593A1 (en) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5743384B2 (en) * | 2009-04-14 | 2015-07-01 | キヤノン株式会社 | Image processing apparatus, image processing method, and computer program |
JP5136664B2 (en) * | 2010-07-09 | 2013-02-06 | カシオ計算機株式会社 | Image processing apparatus and program |
JP5141733B2 (en) * | 2010-08-18 | 2013-02-13 | カシオ計算機株式会社 | Imaging apparatus, imaging method, and program |
US9354748B2 (en) | 2012-02-13 | 2016-05-31 | Microsoft Technology Licensing, Llc | Optical stylus interaction |
US9870066B2 (en) | 2012-03-02 | 2018-01-16 | Microsoft Technology Licensing, Llc | Method of manufacturing an input device |
US9075566B2 (en) | 2012-03-02 | 2015-07-07 | Microsoft Technoogy Licensing, LLC | Flexible hinge spine |
US9134807B2 (en) | 2012-03-02 | 2015-09-15 | Microsoft Technology Licensing, Llc | Pressure sensitive key normalization |
US20130300590A1 (en) | 2012-05-14 | 2013-11-14 | Paul Henry Dietz | Audio Feedback |
US8964379B2 (en) | 2012-08-20 | 2015-02-24 | Microsoft Corporation | Switchable magnetic lock |
JP5633550B2 (en) * | 2012-09-05 | 2014-12-03 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
US8786767B2 (en) * | 2012-11-02 | 2014-07-22 | Microsoft Corporation | Rapid synchronized lighting and shuttering |
JP5975215B2 (en) * | 2012-11-14 | 2016-08-23 | 富士ゼロックス株式会社 | Image processing apparatus, image processing program, image adjustment apparatus, and image adjustment program |
EP3968621A3 (en) * | 2012-12-05 | 2022-03-23 | Vorwerk & Co. Interholding GmbH | Mobile floor cleaning device and method for its operation |
WO2014130019A1 (en) * | 2013-02-20 | 2014-08-28 | Intel Corporation | Real-time automatic conversion of 2-dimensional images or video to 3-dimensional stereo images or video |
JP5889247B2 (en) * | 2013-07-02 | 2016-03-22 | キヤノン株式会社 | Image processing apparatus, image processing method, image processing program, and imaging apparatus |
US10120420B2 (en) | 2014-03-21 | 2018-11-06 | Microsoft Technology Licensing, Llc | Lockable display and techniques enabling use of lockable displays |
US10324733B2 (en) | 2014-07-30 | 2019-06-18 | Microsoft Technology Licensing, Llc | Shutdown notifications |
DE112015005499T5 (en) * | 2015-01-20 | 2018-03-22 | Olympus Corporation | Image processing apparatus, image processing method and program |
CN105657243A (en) * | 2015-11-08 | 2016-06-08 | 乐视移动智能信息技术(北京)有限公司 | Anti-jitter delay photographing method and device |
CN108293090B (en) * | 2015-12-15 | 2020-10-20 | 株式会社理光 | Image processing apparatus and image processing method |
WO2018092465A1 (en) | 2016-11-15 | 2018-05-24 | シャープ株式会社 | Display device |
US10642062B2 (en) | 2017-03-09 | 2020-05-05 | Pure Depth, Inc. | Content redirection in a multi-layered display system |
US10630901B2 (en) * | 2017-05-23 | 2020-04-21 | Google Llc | Systems and methods for selectively activating high dynamic range in a video capture system |
CN110427823B (en) * | 2019-06-28 | 2021-12-21 | 北京大学 | Joint target detection method and device based on video frame and pulse array signal |
JP7507554B2 (en) * | 2019-11-20 | 2024-06-28 | キヤノン株式会社 | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM |
CN112669231B (en) * | 2020-12-23 | 2024-03-05 | 北京小米松果电子有限公司 | Image processing method, training method, device and medium of image processing model |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3629403C2 (en) | 1986-08-29 | 1994-09-29 | Agfa Gevaert Ag | Method of correcting color saturation in electronic image processing |
JP3501252B2 (en) * | 1995-06-16 | 2004-03-02 | 三菱電機株式会社 | Gradation correction device |
US6360022B1 (en) * | 1997-04-04 | 2002-03-19 | Sarnoff Corporation | Method and apparatus for assessing the visibility of differences between two signal sequences |
JP3732978B2 (en) * | 1999-08-23 | 2006-01-11 | ペンタックス株式会社 | Image compression and decompression apparatus and method |
US6804408B1 (en) * | 1999-12-22 | 2004-10-12 | Eastman Kodak Company | Method for enhancing a digital image with noise-dependent control of texture |
US6809838B1 (en) * | 2000-10-19 | 2004-10-26 | Eastman Kodak Company | Transforms for display or printing digital images |
JP2003331307A (en) * | 2002-05-08 | 2003-11-21 | Seiko Epson Corp | Image processing apparatus, image processing method, and image processing program |
US7130485B2 (en) * | 2002-10-02 | 2006-10-31 | Eastman Kodak Company | Enhancing the tonal and color characteristics of digital images using expansive and compressive tone scale functions |
JP3817635B2 (en) * | 2002-11-26 | 2006-09-06 | 学校法人慶應義塾 | Color image processing apparatus and processing method |
US7245781B2 (en) * | 2003-10-23 | 2007-07-17 | Eastman Kodak Companny | Applying a tone scale function to a digital image |
KR100680058B1 (en) * | 2003-11-13 | 2007-02-07 | 엘지.필립스 엘시디 주식회사 | Driving Method and Driving Device of Liquid Crystal Display |
US7480421B2 (en) | 2005-05-23 | 2009-01-20 | Canon Kabushiki Kaisha | Rendering of high dynamic range images |
JP4967454B2 (en) * | 2006-05-23 | 2012-07-04 | ソニー株式会社 | Image correction circuit, image correction method, and image display apparatus |
JP4717720B2 (en) | 2006-06-05 | 2011-07-06 | 富士フイルム株式会社 | Image processing apparatus and method, and program |
KR101257942B1 (en) * | 2008-04-23 | 2013-04-23 | 고려대학교 산학협력단 | Pre-processing method and apparatus in Wide Dynamic Range image processing |
US8477247B2 (en) * | 2008-09-30 | 2013-07-02 | Intel Corporation | Joint enhancement of lightness, color and contrast of images and video |
JP5299867B2 (en) * | 2009-06-30 | 2013-09-25 | 日立コンシューマエレクトロニクス株式会社 | Image signal processing device |
JP5136664B2 (en) * | 2010-07-09 | 2013-02-06 | カシオ計算機株式会社 | Image processing apparatus and program |
-
2011
- 2011-03-01 JP JP2011044532A patent/JP5136665B2/en active Active
- 2011-07-19 CN CN201110202004.4A patent/CN102348070B/en active Active
- 2011-07-20 US US13/187,233 patent/US8472713B2/en active Active
- 2011-07-21 KR KR1020110072350A patent/KR101267404B1/en active IP Right Grant
-
2012
- 2012-05-18 HK HK12104877.6A patent/HK1164593A1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
CN102348070A (en) | 2012-02-08 |
JP2012044639A (en) | 2012-03-01 |
CN102348070B (en) | 2014-04-23 |
US20120020556A1 (en) | 2012-01-26 |
US8472713B2 (en) | 2013-06-25 |
KR101267404B1 (en) | 2013-05-30 |
JP5136665B2 (en) | 2013-02-06 |
HK1164593A1 (en) | 2012-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101267404B1 (en) | Image processor, image processing method, and recording medium | |
JP5316625B2 (en) | Image composition apparatus and program | |
KR101247646B1 (en) | Image combining apparatus, image combining method and recording medium | |
JP5157753B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR101099401B1 (en) | Image processing apparatus and computer-readable medium | |
JP5633550B2 (en) | Image processing apparatus, image processing method, and program | |
JP2008165312A (en) | Image processor and image processing method | |
CN102801916A (en) | Image processing device and method | |
JP2007228451A (en) | Imaging apparatus | |
JP2018117288A (en) | Image processing device and image processing method | |
JP4869653B2 (en) | Image processing device | |
JP4944061B2 (en) | Image processing apparatus and method, and program | |
JP2018182376A (en) | Image processing device | |
JP2004246644A (en) | Apparatus, method, and program for image processing | |
JP6335614B2 (en) | Image processing apparatus, control method thereof, and program | |
JP5146500B2 (en) | Image composition apparatus, image composition method, and program | |
JP2008219230A (en) | Imaging apparatus, and image processing method | |
JP2005101949A (en) | Image processing apparatus, image processing method, image processing program, and digital camera provided with contour enhancement function | |
JP2007180851A (en) | Gray scale transformation device, program and method for raw image, and electronic camera | |
JP2020149589A (en) | Image processing equipment, imaging equipment, image processing methods, and programs | |
JP2006114006A (en) | Gradation conversion apparatus, program, electronic camera, and method therefor | |
JP7318251B2 (en) | Image processing device, image processing method and program | |
JP2009284269A (en) | Image processor, imaging apparatus, image processing method, and program | |
JP2009111894A (en) | Video signal processing device, imaging apparatus and video signal processing method | |
JP2009094697A (en) | Image processor, electronic camera, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20110721 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20120822 Patent event code: PE09021S01D |
|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20130222 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20120822 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
AMND | Amendment | ||
PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20130222 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20121017 Comment text: Amendment to Specification, etc. |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20130425 Comment text: Decision to Grant Registration Patent event code: PX07013S01D Patent event date: 20130326 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20130222 Comment text: Decision to Refuse Application Patent event code: PX07011S01I Patent event date: 20121017 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I |
|
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20130520 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20130521 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20160418 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20160418 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170421 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20170421 Start annual number: 5 End annual number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180503 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20180503 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20200506 Start annual number: 8 End annual number: 8 |
|
PR1001 | Payment of annual fee |
Payment date: 20210429 Start annual number: 9 End annual number: 9 |
|
PR1001 | Payment of annual fee |
Payment date: 20220418 Start annual number: 10 End annual number: 10 |
|
PR1001 | Payment of annual fee |
Payment date: 20240429 Start annual number: 12 End annual number: 12 |