[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20090103669A - Image processing apparatus, image processing method, and program for attaining image processing - Google Patents

Image processing apparatus, image processing method, and program for attaining image processing

Info

Publication number
KR20090103669A
KR20090103669A KR1020080091581A KR20080091581A KR20090103669A KR 20090103669 A KR20090103669 A KR 20090103669A KR 1020080091581 A KR1020080091581 A KR 1020080091581A KR 20080091581 A KR20080091581 A KR 20080091581A KR 20090103669 A KR20090103669 A KR 20090103669A
Authority
KR
South Korea
Prior art keywords
component
pixel
color
pixels
image data
Prior art date
Application number
KR1020080091581A
Other languages
Korean (ko)
Other versions
KR100996797B1 (en
Inventor
라스티스랄브 루칵
Original Assignee
세이코 엡슨 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세이코 엡슨 가부시키가이샤 filed Critical 세이코 엡슨 가부시키가이샤
Priority to KR1020080091581A priority Critical patent/KR100996797B1/en
Publication of KR20090103669A publication Critical patent/KR20090103669A/en
Application granted granted Critical
Publication of KR100996797B1 publication Critical patent/KR100996797B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

PURPOSE: An image processing apparatus, an image processing method, and a program for attaining image processing are provided to process an image at a high speed while simplifying the generation process of an edge direction map by properly interpolating the omitted color components of each pixel. CONSTITUTION: A digital camera(100) is equipped with an image processing apparatus(30). The digital camera includes an optical system(10) that has a group of multiple lenses, an imaging assembly(20) that converts an image of a subject formed by the optical system into electric signals, and the image processing apparatus that receives the electric signals from the imaging assembly and makes the received electric signals subjected to a predetermined series of image processing to generate color image data. The imaging assembly has an image sensor(24) with a two-dimensional arrangement of multiple fine imaging elements for converting the light intensities into electric signals. A color filter array(22) is provided before the image sensor and has a mosaic arrangement of fine color filters of R(Red), G(Green), and B(Blue). The R color filters, the G color filters, and the B color filters are constructed to allow transmission of R color light, transmission of G color light, and transmission of B color light, respectively. The image sensor captures image data having a mosaic arrangement of image parts responsive to the R light intensities, image parts responsive to the G light intensities, and image parts responsive to the B light intensities according to the mosaic arrangement of the R, G, and B color filters in the color filter array. The image processing apparatus mounted on the digital camera receives the image data of the mosaic arrangement from the imaging assembly and generates color image data with settings of the R component, the G component, and the B component in the respective pixels. In the image processing apparatus of the embodiment, a CPU, a ROM, a RAM, and a data IF(Input/output interface) are interconnected via a bus to enable mutual data transmission. The CPU performs a series of processing to generate the color image data according to a program stored in the ROM. The resulting color image data thus generated may be output to an external device via an external output terminal(40) or may be output to an external recording medium(50).

Description

화상 처리 장치, 화상 처리 방법, 및 화상 처리를 달성하는 프로그램 {IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM FOR ATTAINING IMAGE PROCESSING}Image processing apparatus, image processing method, and program for achieving image processing {IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM FOR ATTAINING IMAGE PROCESSING}

본 발명은 디지털 카메라와 같은 촬상 장치로 화상 데이터를 생성하는 기술에 관한 것이다. 보다 상세하게, 본 발명은 빛의 3원색에 대응하는 R(적색), G(녹색), 및 B(청색)의 파인 컬러 필터(fine color filter)의 모자이크(mosaic) 배열을 갖는 컬러 필터 어레이의 적용에 의해 컬러 화상 데이터를 생성하는 기술에 관한 것이다.The present invention relates to a technique for generating image data with an imaging device such as a digital camera. More specifically, the present invention relates to a color filter array having a mosaic arrangement of fine color filters of R (red), G (green), and B (blue) corresponding to the three primary colors of light. It relates to a technique for generating color image data by application.

디지털 기술의 진보에 의해, 일반적으로 화상은 디지털 데이터(화상 데이터)로서 처리된다. 디지털 카메라와 같은 촬상 장치는 캡쳐(capture)된 화상을 화상 데이터의 형태로 즉시 출력할 수 있게 한다. 촬상 장치는 일반적으로 빛의 세기(light intensity)를 전기 신호로 변환하기 위한 작은 소자들로 구성된 전기 화상 센서가 장비된다. 촬상 장치가 광학계에 의하여 피사체의 캡쳐된 화상을 화상 센서 상에 초점 맞추며, 개개의 소자들에서 빛의 세기를 전기 신호로서 검출하여 화상 데이터를 생성한다. 광학계에 입사하는 빛은, 빛의 3원색에 대응하는 3개의 색 성분 R, G, 및 B로 분리될 수 있다. 3개의 색 성분 R, G, 및 B의 각 컬러 빛은 화상 센서 상에 초점 맞추어지고, 각 색 성분의 빛의 세기를 나타내는 전기 신호가 출력되어 컬러 화상 데이터를 생성한다.With advances in digital technology, images are generally processed as digital data (image data). An imaging device such as a digital camera makes it possible to immediately output a captured image in the form of image data. Imaging devices are generally equipped with an electrical image sensor composed of small elements for converting light intensity into an electrical signal. The imaging device focuses the captured image of the subject on the image sensor by the optical system, and detects the intensity of light as an electrical signal in the individual elements to generate image data. Light incident on the optical system may be separated into three color components R, G, and B corresponding to three primary colors of light. Each color light of the three color components R, G, and B is focused on the image sensor, and an electrical signal indicative of the light intensity of each color component is output to generate color image data.

광학계에 입사하는 광의 분리로서 획득된 3개의 색 성분 R, G, 및 B의 각 컬러 빛을 화상 센서 상에 초점 맞추는 가장 간단한 방법은, 분광 프리즘(spectroscopic prism)을 이용하여 입사광을 3개의 색 성분 R, G, 및 B의 컬러 빛으로 분리하고 각 컬러 빛을 화상 센서 상에 초점 맞추어 각 색 성분 R, G, 및 B에 관한 화상 데이터를 생성하는 것이다. 이 방법은 바람직스럽지 않게도 3개의 화상 센서를 필요로 한다. 하나의 넓게 사용되는 방법은 R, G, 및 B의 색 성분 중 하나를 화상 센서를 구성하는 각각의 소자에 할당하여 하나의 화상 센서에 의해 각 색 성분 R, G, 및 B의 검출을 달성하는 것이다. 이 기술의 일반적인 구성은, R 성분의 검출을 위해 지정된 소자의 전면에 R 성분만의 투과를 허용하는 작은 컬러 필터, G 성분의 검출을 위해 지정된 소자의 전면에 G 성분만의 투과를 허용하는 작은 컬러 필터, 및 B 성분의 검출을 위해 지정된 소자의 전면에 B 성분만의 투과를 허용하는 작은 컬러 필터를 제공한다. 이러한 구성은 하나의 화상 센서로 3개의 색 성분 R, G, 및 B의 화상 데이터의 동시 검출을 가능하게 한다. 하나의 화상 센서로 각 색 성분 R, G, 및 B를 검출하는 기술에 있어서는, 미리 설정된 색 성분(예컨대, R 성분)의 검출을 위해 지정된 각 소자가 다른 색 성분(예컨대, G 성분 및 B 성분)을 검출할 수 없다. 따라서, 결과 화상 데이터는 R 성분의 픽셀, G 성분의 픽셀, B 성분의 픽셀의 모자이크 배열을 갖는다. 각 픽셀의 누락 색 성분의 이웃 픽셀의 색 성분과의 보간(interpolation)은, 모든 픽셀의 모든 색 성분 R, G, 및 B의 설정을 갖는 컬러 화상 데이터의 생성을 가능하게 한다.The simplest method of focusing each color light of the three color components R, G, and B obtained as the separation of the light incident on the optical system onto the image sensor is by using spectroscopic prism to focus the incident light into three color components. It separates into the color light of R, G, and B and focuses each color light on an image sensor, and produces the image data regarding each color component R, G, and B. FIG. This method undesirably requires three image sensors. One widely used method is to assign one of the color components of R, G, and B to each element constituting the image sensor to achieve detection of each color component R, G, and B by one image sensor. will be. The general construction of this technique is a small color filter allowing the transmission of only the R component to the front of the device specified for the detection of the R component, and a small color filter allowing the transmission of only the G component to the front of the device specified for the detection of the G component. A color filter, and a small color filter allowing the transmission of only the B component on the front of the device designated for the detection of the B component. This configuration enables simultaneous detection of image data of three color components R, G, and B with one image sensor. In the technique of detecting each color component R, G, and B with one image sensor, each element designated for the detection of a predetermined color component (e.g., R component) has a different color component (e.g., G component and B component). ) Cannot be detected. Thus, the resulting image data has a mosaic arrangement of pixels of the R component, pixels of the G component, and pixels of the B component. Interpolation of the missing color component of each pixel with the color component of the neighboring pixel enables generation of color image data having the settings of all the color components R, G, and B of all the pixels.

3개의 화상 센서에 의존하여 3개의 색 성분 R, G, 및 B의 분리 컬러 빛을 전기 신호로 변환하여 각 색 성분 R, G, 및 B의 화상 데이터를 생성하는 촬상 장치는, 때때로 ‘3 화상 센서’ 장치로 호칭된다. 하나의 화상 센서만을 사용하여 모자이크 배열의 화상 데이터를 생성하고 보간에 의해 누락 색 성분을 연산하는 촬상 장치는 때때로 ‘단일 화상 센서’장치로 호칭된다. 모자이크 배열의 화상 데이터의 누락 색 성분을 보간하여 모든 색 성분 R, G, 및 B의 설정을 갖는 컬러 화상 데이터를 생성하는 처리는 가끔씩 ‘디모자이킹(demosaicking) 처리’로 일컬어진다.An imaging device that converts separate color light of three color components R, G, and B into an electrical signal depending on three image sensors to generate image data of each color component R, G, and B is sometimes called a '3 image. Sensor 'device. An imaging device that generates image data in a mosaic array using only one image sensor and calculates missing color components by interpolation is sometimes referred to as a "single image sensor" device. The process of generating color image data having the settings of all the color components R, G, and B by interpolating the missing color components of the image data of the mosaic array is sometimes referred to as "demosaicking process".

단일 화상 센서 장치는 누락 색 성분의 보간을 필요로 한다. 이것은 당연히 보간을 위한 시간을 소비하고 보간 오류에 기인한 의사(擬似, pseudo) 컬러의 발생을 야기할 수 있다. 의사 컬러의 발생을 방지하면서 보간을 위해 요구되는 시간의 증가를 최소화시킬 목적의 다양한 제안 기술들이 있다. 하나의 제안 기술은 누락 색 성분의 연산 후에 각 픽셀의 색차(color difference) 성분(예컨대, G 성분과 R 성분 간의 차분)을 연산하고, 목표 픽셀을 포함하는 미리 설정된 수의 픽셀의 픽셀 어레이로부터 최대 색차 성분을 갖는 픽셀과 최소 색차 성분을 갖는 픽셀을 노이즈로서 제거하며, 목표 픽셀의 각 색 성분을 재산출한다(일본 특허 공개 공보 제2005-167974호 참조). 다른 제안 기술은 각 픽셀의 연산된 색차 성분에 로우 패스 필터(low-pass filter)를 적용하고, 노이즈의 제거 후에 색차 성분으로부터 목표 픽셀의 각 색 성분을 재산출한다(일본 특허 공개 공보 제2005-260908호 참조).Single image sensor devices require interpolation of missing color components. This naturally takes time for interpolation and can result in the generation of pseudo colors due to interpolation errors. There are various proposed techniques aimed at minimizing the increase in time required for interpolation while preventing the generation of pseudo colors. One proposed technique computes the color difference component (e.g., the difference between the G component and the R component) of each pixel after the calculation of the missing color component, and maximizes from a pixel array of a preset number of pixels including the target pixel. Pixels having a chrominance component and pixels having a minimum chrominance component are removed as noise, and each color component of the target pixel is recalculated (see Japanese Patent Laid-Open No. 2005-167974). Another proposed technique applies a low-pass filter to the computed chrominance components of each pixel and recalculates each color component of the target pixel from the chrominance components after removal of noise (Japanese Patent Laid-Open No. 2005- 260908).

촬상 장치의 더 높은 사진 품질에 대한 소비자들의 증가하는 요구에 의해, 의사 컬러의 발생을 방지하는 디모자이킹 기술의 개발이 높게 요구되었다. 더 높은 사진 품질에 대한 소비자들의 요구를 충족시키기 위해 촬상 장치에 의해 캡쳐된 각 화상을 구성하는 픽셀의 개수가 증가되고 있다. 고속 처리를 가능하게 하는 디모자이킹 기술의 개발도 요구되었다.With the increasing demand of consumers for higher picture quality of imaging devices, the development of demosaicing techniques to prevent the generation of pseudo colors has been highly demanded. In order to meet consumer demand for higher picture quality, the number of pixels constituting each image captured by the imaging device is increasing. There is also a need for development of demosaicing technology that enables high speed processing.

종래 기술의 디모자이킹 처리에 대한 이들 모순된 요구들을 동시에 만족시키기 위해서, 의사 컬러의 발생을 효과적으로 방지하면서 고속 처리를 가능하게 하는 디모자이킹 기술을 제공하기 위한 요구가 있을 것이다.In order to simultaneously meet these contradictory requirements for prior art demosaicing processing, there would be a need to provide a demosaicing technique that enables high speed processing while effectively preventing the generation of pseudo colors.

앞서 언급된 요구의 적어도 일부를 성취하기 위해서, 본 발명의 일 양태는 각 픽셀의 빛의 3원색에 대응하는 3개의 색 성분 R, G, 및 B 중에 단일 색 성분의 설정을 갖는 모자이크 화상 데이터를 수신하고 수신된 모자이크 화상 데이터에 일련의 화상 처리를 하여 각 픽셀의 3개의 색 성분 R, G, 및 B 모두의 설정을 갖는 컬러 화상 데이터를 생성하는 화상 처리 장치에 대한 것이다. 모자이크 화상 데이터는, G 성분의 픽셀과 수직 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼(column), G 성분의 픽셀과 수직 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수평 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 로우(row), 및 G 성분의 픽셀과 수평 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 로우의 조합에 의해 표현된다.In order to achieve at least some of the aforementioned requirements, one aspect of the present invention provides mosaic image data having a setting of a single color component among three color components R, G, and B corresponding to the three primary colors of light of each pixel. An image processing apparatus for generating color image data having settings of all three color components R, G, and B of each pixel by subjecting the received mosaic image data to a series of image processing. The mosaic image data includes a pixel column having an alternating arrangement of pixels of the G component and pixels of the R component, which are different color components in the vertical direction, and alternating pixels of the B component, which are pixels of the G component and other color components in the vertical direction. A pixel column having an array, a pixel row having an alternating arrangement of pixels of the G component and pixels of the R component, which are different color components in the horizontal direction, and pixels of the component B, which are pixels of the G component and other color components in the horizontal direction Is represented by a combination of pixel rows having an alternating array of.

상기 화상 처리 장치는 2개 방향의 색차 연산 모듈, 에지 방향 검출 모듈, 및 누락 색 성분 보간 모듈을 포함한다. 수직 방향 색차 성분 연산 모듈은, 모자이크 화상의 각 픽셀 칼럼에 포함된 각 픽셀의 G 성분과 다른 색 성분 간의 수직 방향 색차 성분을 연산하기 위해, 수직으로 이웃하는 가용한 성분들을 이용하여 다른 색 성분의 픽셀 위치에서 G 성분을 획득하거나 G 성분 픽셀에서 다른 색 성분을 획득한다. 수평 방향 색차 성분 연산 모듈은, 모자이크 화상의 각 픽셀 로우에 포함된 각 픽셀의 G 성분과 다른 색 성분 간의 수평 방향 색차 성분을 연산하기 위해, 수평으로 이웃하는 색 성분들을 이용하여 다른 색 성분의 픽셀 위치에서 G 성분을 획득하거나 G 성분 픽셀에서 다른 색 성분을 획득한다. 에지 방향 검출 모듈은, 모자이크 화상으로부터 R 성분의 픽셀과 B 성분의 픽셀을 선택하고, 픽셀 위치 각각에서, 적어도 선택된 픽셀의 각각에 관하여 수직 방향 색차 성분의 변화량(variation)을 수평 방향 색차 성분의 변화량과 비교하여 적어도 선택된 픽셀의 에지 방향을 검출한다. 마지막으로, 누락 색 성분 보간 모듈은, 검출된 에지 방향을 참조하여 모자이크 화상 데이터의 각 픽셀의 누락 색 성분을 모자이크 화상 데이터의 각 픽셀의 하나의 색 성분의 설정과 보간한다.The image processing apparatus includes a color difference calculation module in two directions, an edge direction detection module, and a missing color component interpolation module. The vertical color difference component calculating module calculates the vertical color difference component between the G component of each pixel included in each pixel column of the mosaic image and the other color components, using the vertically neighboring available components. Obtain a G component at a pixel location or obtain a different color component at a G component pixel. The horizontal color difference component calculating module uses the horizontally neighboring color components to calculate the horizontal color difference component between the G component of each pixel included in each pixel row of the mosaic image and the other color components. Obtain a G component at a location or other color component at a G component pixel. The edge direction detection module selects the pixels of the R component and the pixels of the B component from the mosaic image, and at each pixel position, changes the vertical color difference component with respect to at least each of the selected pixels, and changes the horizontal color difference component. Detect at least the edge direction of the selected pixel. Finally, the missing color component interpolation module interpolates the missing color component of each pixel of the mosaic image data with the setting of one color component of each pixel of the mosaic image data with reference to the detected edge direction.

본 발명의 다른 양태는 상기 구성의 화상 처리 장치에 대응하는 화상 처리 방법이다. 상기 화상 처리 방법은, 각 픽셀의 빛의 3원색에 대응하는 3개의 색 성분 R, G, 및 B 중에 단일 색 성분의 설정을 갖는 모자이크 화상 데이터를 수신하고 수신된 모자이크 화상 데이터에 일련의 화상 처리를 하여 각 픽셀의 3개의 색 성분 R, G, 및 B 모두의 설정을 갖는 컬러 화상 데이터를 생성한다.Another aspect of the present invention is an image processing method corresponding to the image processing apparatus of the above configuration. The image processing method receives mosaic image data having a setting of a single color component among three color components R, G, and B corresponding to three primary colors of light of each pixel, and performs a series of image processing on the received mosaic image data. To generate color image data having the settings of all three color components R, G, and B of each pixel.

상기 화상 처리 방법은, G 성분의 픽셀과 수직 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수직 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수평 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 로우, 및 G 성분의 픽셀과 수평 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 로우의 조합에 의해 표현되는 화상 데이터를 모자이크 화상 데이터로서 수신한다. 상기 화상 처리 방법은 그 후에, 모자이크 화상 데이터의 각 픽셀 칼럼에 포함된 각 픽셀의 G 성분과 다른 색 성분을 보간에 의해 획득하여, 수직 방향의 각 픽셀 칼럼에 포함된 각 픽셀의 G 성분과 다른 색 성분 간의 수직 방향 색차 성분을 연산한다. 유사하게, 상기 화상 처리 방법은, 모자이크 화상의 각 픽셀 로우에 포함된 각 픽셀의 G 성분과 다른 색 성분을 보간에 의해 획득하여, 수평 방향의 각 픽셀 로우에 포함된 각 픽셀의 G 성분과 다른 색 성분 간의 수평 방향 색차 성분을 연산한다. 상기 화상 처리 방법은 그 다음에, 모자이크 화상 데이터로부터 R 성분의 픽셀과 B 성분의 픽셀을 선택하고, 상기 픽셀 위치 각각에서, 적어도 선택된 픽셀의 각각에 관하여 수직 방향 색차 성분의 변화량을 수평 방향 색차 성분의 변화량과 비교하여 적어도 선택된 픽셀의 에지 방향을 검출한다. 상기 화상 처리 방법은, 검출된 에지 방향을 참조하여, 모자이크 화상 데이터의 각 픽셀의 누락 색 성분을 모자이크 화상 데이터의 각 픽셀의 하나의 색 성분의 설정과 보간한다.The image processing method includes a pixel column having an alternating arrangement of pixels of the G component and an R component pixel which is another color component in the vertical direction, and an alternating arrangement of pixels of the G component and B component which are other color components in the vertical direction. A pixel column having an alternating arrangement of pixels of the G component and pixels of the R component, which are other color components in the horizontal direction, and alternating arrays of pixels of the B component, which are pixels of the G component and other color components in the horizontal direction Image data represented by a combination of pixel rows is received as mosaic image data. The image processing method is then obtained by interpolating the G component of each pixel included in each pixel column of mosaic image data by interpolation, and different from the G component of each pixel included in each pixel column in the vertical direction. Calculate the vertical color difference component between color components. Similarly, the image processing method obtains color components different from the G component of each pixel included in each pixel row of the mosaic image by interpolation, so as to differ from the G component of each pixel included in each pixel row in the horizontal direction. The horizontal color difference component between color components is calculated. The image processing method then selects the pixels of the R component and the pixels of the B component from the mosaic image data, and at each of the pixel positions, changes the amount of change in the vertical color difference component with respect to each of at least the selected pixels in the horizontal color difference component. At least the edge direction of the selected pixel is detected in comparison with the amount of change in. The image processing method interpolates the missing color component of each pixel of the mosaic image data with the setting of one color component of each pixel of the mosaic image data with reference to the detected edge direction.

본 발명의 양태에 따른 상기 화상 처리 장치 및 상기 대응하는 화상 처리 방법에 있어서, 그 절차는 수신된 모자이크 화상 데이터를 구성하는 각 픽셀 칼럼의 수직 방향 색차 성분과 모자이크 화상 데이터를 구성하는 각 픽셀 로우의 수평 방향 색차 성분의 양쪽을 산출한다. 상기 모자이크 화상 데이터는, 수직 방향의 G 성분의 픽셀과 R 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, 수직 방향의 G 성분의 픽셀과 B 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, 수평 방향의 G 성분의 픽셀과 R 성분의 픽셀의 교번 배열을 갖는 픽셀 로우, 및 수평 방향의 G 성분의 픽셀과 B 성분의 픽셀의 교번 배열을 갖는 픽셀 로우의 조합으로서 표현된다. G 성분과 R 성분 간의 색차 성분 또는 G 성분과 B 성분 간의 색차 성분이 각 픽셀 칼럼의 수직 방향 색차 성분으로서 획득된다. 유사하게, G 성분과 R 성분 간의 색차 성분 또는 G 성분과 B 성분 간의 색차 성분이 각 픽셀 로우의 수평 방향 색차 성분으로서 획득된다. 상기 절차는 그 다음에, 모자이크 화상 데이터로부터 R 성분의 픽셀과 B 성분의 픽셀을 선택하고, 적어도 선택된 픽셀의 각각에 관하여 수직 방향 색차 성분의 변화량을 수평 방향 색차 성분의 변화량과 비교하여 적어도 선택된 픽셀의 에지 방향을 검출한다. 앞서 설명된 바와 같이, 수직 방향 색차 성분과 수평 방향 색차 성분의 각각은 G 성분과 R 성분 간의 색차 성분 또는 G 성분과 B 성분 간의 색차 성분을 나타낸다. R 성분의 픽셀에 있어서는, 수직 방향 색차 성분과 수평 방향 색차 성분의 양쪽이 G 성분과 R 성분 간의 색차 성분이다. 따라서, 수직 방향 색차 성분과 수평 방향 색차 성분 간의 비교는 이들 R 성분의 픽셀 각각의 에지 방향의 정확한 검출을 가능하게 한다. B 성분의 픽셀에 있어서는, 수직 방향 색차 성분과 수평 방향 색차 성분의 양쪽이 G 성분과 B 성분 간의 색차 성분이다. 따라서, 수직 방향 색차 성분과 수평 방향 색차 성분 간의 비교는 이들 B 성분의 픽셀 각각의 에지 방향의 정확한 검출을 가능하게 한다. 상기 절차는 상기 정확하게 검출된 에지 방향을 참조하여, 모자이크 화상 데이터의 각 픽셀의 누락 색 성분을 모자이크 화상 데이터의 각 픽셀의 하나의 색 성분의 설정과 적정하게 보간한다. 따라서, 이러한 배열은 적정한 컬러 화상 데이터의 생성을 가능하게 한다.In the image processing apparatus and the corresponding image processing method according to an aspect of the present invention, the procedure is performed for each pixel row constituting mosaic image data and the vertical color difference component of each pixel column constituting the received mosaic image data. Both sides of the horizontal color difference component are calculated. The mosaic image data includes a pixel column having an alternating arrangement of pixels of a G component and an R component pixel in a vertical direction, a pixel column having an alternating arrangement of pixels of a G component in a vertical direction and a pixel of a B component, and a G in a horizontal direction A pixel row having an alternating arrangement of pixels of a component and a pixel of an R component, and a pixel row having an alternating arrangement of pixels of a G component and a pixel of a B component in the horizontal direction. The color difference component between the G component and the R component or the color difference component between the G component and the B component is obtained as the vertical color difference component of each pixel column. Similarly, a color difference component between the G component and the R component or a color difference component between the G component and the B component is obtained as the horizontal color difference component of each pixel row. The procedure then selects pixels of the R component and B components from the mosaic image data, and compares the amount of change in the vertical color difference component with the amount of change in the horizontal color difference component with respect to at least each of the selected pixels. To detect the edge direction. As described above, each of the vertical color difference component and the horizontal color difference component represents a color difference component between the G component and the R component or a color difference component between the G component and the B component. In the pixel of the R component, both the vertical color difference component and the horizontal color difference component are color difference components between the G component and the R component. Thus, the comparison between the vertical color difference component and the horizontal color difference component enables accurate detection of the edge direction of each pixel of these R components. In the pixel of the B component, both the vertical color difference component and the horizontal color difference component are color difference components between the G component and the B component. Thus, the comparison between the vertical color difference component and the horizontal color difference component enables accurate detection of the edge direction of each pixel of these B components. The procedure interpolates the missing color component of each pixel of the mosaic image data with the setting of one color component of each pixel of the mosaic image data with reference to the correctly detected edge direction. Thus, such an arrangement makes it possible to generate proper color image data.

본 발명의 일 양태에 따른 화상 처리 장치에 있어서, 각 픽셀의 에지 방향의 검출을 위해 이용되는 수직 방향 색차 성분의 변화량과 수평 방향 색차 성분의 변화량은 하기의 방식으로 산출될 수 있다. 하나의 바람직한 응용에 따르면, 화상 처리 장치는 먼저 에지 방향의 검출의 객체로서 각각의 목표 픽셀을 선택한다. 목표 픽셀의 수직 방향 색차 성분의 변화량이 목표 픽셀을 포함하는 목표 픽셀 칼럼의 수직 방향 색차 성분과 상기 목표 픽셀 칼럼에 인접한 인근 픽셀 칼럼의 수직 방향 색차 성분으로부터 산출된다. 일예로서, 목표 픽셀의 수직 방향 색차 성분의 변화량이, 목표 픽셀을 포함하는 목표 픽셀 칼럼과 2개의 픽셀 칼럼, 즉, 상기 목표 픽셀 칼럼에 인접한 2개의 인근 픽셀 칼럼의 수직 방향 색차 성분으로부터 산출될 수 있다. 다른 예로서, 목표 픽셀의 수직 방향 색차 성분의 변화량이, 더 많은 수의 픽셀 칼럼 즉, 적어도, 목표 칼럼을 포함하는 목표 픽셀 칼럼과 상기 목표 픽셀 칼럼의 양측의 2개의 인근 픽셀 칼럼의 수직 방향 색차 성분으로부터 산출될 수 있다. 유사하게, 목표 픽셀의 수평 방향 색차 성분의 변화량이 목표 픽셀을 포함하는 목표 픽셀 로우의 수평 방향 색차 성분과 상기 목표 픽셀 로우에 인접한 인근 픽셀 로우의 수평 방향 색차 성분으로부터 산출된다. 이 경우에, 목표 픽셀의 수평 방향 색차 성분의 변화량이 2개의 픽셀 로우, 즉, 목표 픽셀을 포함하는 목표 픽셀 로우와 상기 목표 픽셀 로우에 인접한 하나의 인근 픽셀 로우의 수평 방향 색차 성분으로부터 산출될 수 있거나, 더 많은 수의 픽셀 로우의 수평 방향 색차 성분으로부터 산출될 수 있다.In the image processing apparatus according to one aspect of the present invention, the amount of change in the vertical color difference component and the amount of change in the horizontal color difference component used for detecting the edge direction of each pixel can be calculated in the following manner. According to one preferred application, the image processing apparatus first selects each target pixel as an object of detection in the edge direction. The amount of change in the vertical color difference component of the target pixel is calculated from the vertical color difference component of the target pixel column containing the target pixel and the vertical color difference component of the adjacent pixel column adjacent to the target pixel column. As an example, the amount of change in the vertical chrominance component of the target pixel may be calculated from the target pixel column including the target pixel and the vertical chrominance component of two pixel columns, that is, two adjacent pixel columns adjacent to the target pixel column. have. As another example, the amount of change in the vertical color difference component of the target pixel is the vertical color difference of the larger number of pixel columns, that is, at least the target pixel column including the target column and two adjacent pixel columns on both sides of the target pixel column. It can be calculated from the components. Similarly, the amount of change in the horizontal color difference component of the target pixel is calculated from the horizontal color difference component of the target pixel row containing the target pixel and the horizontal color difference component of the adjacent pixel row adjacent to the target pixel row. In this case, the amount of change in the horizontal chrominance component of the target pixel may be calculated from two pixel rows, that is, the horizontal chrominance component of the target pixel row including the target pixel and one neighboring pixel row adjacent to the target pixel row. Or from a horizontal color difference component of a larger number of pixel rows.

에지 방향 검출의 객체로서 목표 픽셀을 포함하는 목표 픽셀 칼럼과 상기 목표 픽셀 칼럼에 인접한 하나의 인근 픽셀 칼럼을 적어도 포함하는 다중 픽셀 칼럼에 기반한 산출은, 단일 픽셀 칼럼에 기반한 산출과 비교하여, 더 높은 정밀도로 수직 방향 색차 성분의 변화량을 판정한다. 유사하게, 목표 픽셀을 포함하는 목표 픽셀 로우와 상기 목표 픽셀 로우에 인접한 하나의 인근 픽셀 로우를 적어도 포함하는 다중 픽셀 로우에 기반한 산출은, 단일 픽셀 로우에 기반한 산출과 비교하여, 더 높은 정밀도로 수평 방향 색차 성분의 변화량을 판정한다. 목표 픽셀의 정밀하게 산출된 수직 방향 색차 성분과 정밀하게 산출된 수평 방향 색차 성분 간의 비교는 목표 픽셀의 에지 방향의 적정한 검출을 가능하게 한다.The calculation based on a target pixel column including a target pixel as an object of edge direction detection and a multi-pixel column including at least one neighboring pixel column adjacent to the target pixel column is higher than the calculation based on a single pixel column. The amount of change in the vertical color difference component is determined with accuracy. Similarly, a calculation based on a target pixel row containing a target pixel and a multiple pixel row including at least one neighboring pixel row adjacent to the target pixel row is horizontal with higher precision compared to a calculation based on a single pixel row. The amount of change in the directional color difference component is determined. The comparison between the precisely calculated vertical color difference component of the target pixel and the precisely calculated horizontal color difference component enables proper detection of the edge direction of the target pixel.

픽셀 칼럼의 2가지 상이한 타입의 수직 방향 색차 성분, 즉, G 성분과 R 성분 간의 색차 성분 및 G 성분과 B 성분 간의 색차 성분이 있다. 서로 인접한 픽셀 칼럼의 수직 방향 색차 성분은 동일 타입의 수직 방향 색차 성분을 갖지 않을 수 있다. 이 경우에는, 상이한 타입의 색차 성분으로부터의 변화량의 산출이 무의미한 것으로 여겨진다. 하지만, 상이한 타입의 색차 성분이라도 화상의 인근 위치의 유사한 경향의 변화량을 갖는다는 것이 경험적으로 알려져 있다. 따라서, 상이한 타입의 색차 성분으로부터 산출된 목표 픽셀의 수직 방향 색차 성분의 변화량일지라도 중요하다. 따라서, 다중의 인근 픽셀 칼럼의 수직 방향 색차 성분으로부터의 산출은, 높은 정밀도로 목표 픽셀의 수직 방향 색차 성분의 변화량을 판정한다. 픽셀 로우의 2가지 상이한 타입의 수평 방향 색차 성분, 즉, G 성분과 R 성분 간의 색차 성분 및 G 성분과 B 성분 간의 색차 성분도 있다. 따라서, 상이한 타입의 색차 성분으로부터 산출된 목표 픽셀의 수평 방향 색차 성분의 변화량일지라도 중요하다. 따라서, 다중 인근 픽셀 로우의 수평 방향 색차 성분으로부터의 산출은 높은 정밀도로 목표 픽셀의 수평 방향 색차 성분의 변화량을 판정한다. 목표 픽셀의 수직 방향 색차 성분의 변화량과 수평 방향 색차 성분의 변화량 간의 비교는 목표 픽셀의 에지 방향의 적정한 검출을 가능하게 한다.There are two different types of vertical color difference components of the pixel column, namely the color difference component between the G component and the R component and the color difference component between the G component and the B component. Vertical color difference components of pixel columns adjacent to each other may not have the same type of vertical color difference components. In this case, it is considered that the calculation of the amount of change from different types of color difference components is meaningless. However, it is empirically known that even different types of chrominance components have variations in the similar tendency of nearby positions of the image. Therefore, it is important even if the amount of change in the vertical color difference component of the target pixel calculated from the different types of color difference components. Therefore, the calculation from the vertical color difference component of multiple neighboring pixel columns determines the amount of change in the vertical color difference component of the target pixel with high precision. There are also two different types of horizontal color difference components of the pixel rows, namely, the color difference component between the G component and the R component and the color difference component between the G component and the B component. Therefore, even if the amount of change in the horizontal color difference component of the target pixel calculated from the different type of color difference components is important. Therefore, the calculation from the horizontal color difference component of the multiple neighboring pixel rows determines the amount of change in the horizontal color difference component of the target pixel with high precision. The comparison between the amount of change in the vertical color difference component of the target pixel and the amount of change in the horizontal color difference component enables proper detection of the edge direction of the target pixel.

본 발명의 상기한 양태의 다른 바람직한 응용에 따르면, 화상 처리 장치가 모자이크 화상 데이터에 포함된 R 성분의 픽셀과 B 성분의 픽셀만의 에지 방향을 검출한다.According to another preferred application of the above aspect of the present invention, the image processing apparatus detects edge directions of only pixels of the R component and pixels of the B component included in the mosaic image data.

모자이크 화상 데이터의 R 성분의 픽셀과 B 성분의 픽셀은 G 성분의 보간을 필요로 한다. G 성분은 B 성분 및 R 성분과 비교하여, 인간의 시각이 밝기의 변화량에 더 높은 민감성을 갖는 특정 파장에 더 가깝다. 따라서, G 성분은 결과적인 사진 품질에 더 큰 영향을 미친다. 모자이크 화상 데이터의 R 성분의 픽셀과 B 성분의 픽셀의 에지 방향의 검출은 G 성분으로 하여금 상기 검출된 에지 방향을 참조하여 이들 픽셀에 보간될 수 있게 한다. 이러한 배열은 모든 픽셀에 대해 에지 방향이 검출되지는 않은 경우에서도 효과적이고 적정한 보간을 보장한다.The pixels of the R component and the pixels of the B component of the mosaic image data require interpolation of the G components. The G component is closer to a particular wavelength where human vision is more sensitive to the amount of change in brightness, compared to the B and R components. Thus, the G component has a greater impact on the resulting picture quality. The detection of the edge direction of the pixel of the R component and the pixel of the B component of the mosaic image data enables the G component to be interpolated to these pixels with reference to the detected edge direction. This arrangement ensures effective and proper interpolation even if no edge direction is detected for every pixel.

본 발명의 상기한 양태의 또 다른 바람직한 응용에 따르면, 픽셀의 수직 방향 색차 성분의 변화량이 픽셀의 수평 방향 색차 성분의 변화량보다 더 큰 경우에, 화상 처리 장치가 각 픽셀의 에지 방향을 수평 방향으로 검출한다. 픽셀의 수직 방향 색차 성분의 변화량이 픽셀의 수평 방향 색차 성분의 변화량보다 더 작은 경우에, 화상 처리 장치가 각 픽셀의 에지 방향을 수직 방향으로 검출한다. 픽셀의 수직 방향 색차 성분의 변화량이 픽셀의 수평 방향 색차 성분의 변화량과 동등한 경우에, 화상 처리 장치가 각 픽셀의 에지 방향을 수직 방향 또는 수평 방향으로서 검출한다. 이 경우에, 픽셀의 에지 방향이 수직 방향이나 수평 방향으로 고정될 수 있고, 혹은 수직 방향과 수평 방향 간에 교번적으로 또는 랜덤하게 전환될 수 있다.According to another preferred application of the above aspect of the present invention, when the amount of change in the vertical color difference component of a pixel is larger than the amount of change in the horizontal color difference component of the pixel, the image processing apparatus makes the edge direction of each pixel in the horizontal direction. Detect. When the amount of change in the vertical color difference component of the pixel is smaller than the amount of change in the horizontal color difference component of the pixel, the image processing apparatus detects the edge direction of each pixel in the vertical direction. When the amount of change in the vertical color difference component of the pixel is equal to the amount of change in the horizontal color difference component of the pixel, the image processing apparatus detects the edge direction of each pixel as the vertical direction or the horizontal direction. In this case, the edge direction of the pixel can be fixed in the vertical direction or the horizontal direction, or can be switched alternately or randomly between the vertical direction and the horizontal direction.

에지 방향은 수직 방향이나 수평 방향이다. 상기 설정은 누락 색 성분의 보간을 현저히 단순화시킨다. 이러한 응용에 있어서, 수직 방향의 에지나 수평 방향의 에지가 실제적으로 대각선 에지를 갖거나 에지조차 없는 픽셀에서도 존재한다고 하는 가정 아래 보간이 수행된다. 그러나, 에지가 없는 픽셀의 수직 방향의 에지 또는 수평 방향의 에지의 존재의 가정은, 대개 결과적인 사진 품질에 영향을 미치지 않는다. 또한, 대각선 에지를 갖는 픽셀의 수직 및 수평 에지 방향의 추정에 의한 보간은, 후술되는 정밀한 보간 개념을 이용하는 것으로 인해서, 대개는 결과적인 사진 품질을 눈에 띌 정도로는 악화시키지 않는다.The edge direction is vertical or horizontal. This setting significantly simplifies the interpolation of missing color components. In this application, interpolation is performed under the assumption that the vertical edge or the horizontal edge actually exists even in pixels with diagonal edges or even no edges. However, the assumption of the existence of vertical edges or horizontal edges of pixels without edges usually does not affect the resulting picture quality. In addition, interpolation by estimation of the vertical and horizontal edge directions of pixels having diagonal edges usually does not significantly deteriorate the resulting photographic quality due to using the precise interpolation concept described below.

본 발명의 상기 양태의 다른 바람직한 응용에 따르면, 상기 화상 처리 장치는, 보간의 객체인 보간 목표 픽셀의 누락 색 성분인 G 성분을, 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 인근 픽셀의 쌍과 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 인근 픽셀의 쌍 사이에서 선택되는 한 쌍의 인근 픽셀의 색 성분과 보간한다.According to another preferred application of the above aspect of the present invention, the image processing apparatus comprises a G component which is a missing color component of an interpolation target pixel, which is an object of interpolation, with a pair of upper and lower neighboring pixels above and below the interpolation target pixel. Interpolate with the color components of a pair of neighboring pixels selected between a pair of left and right neighboring pixels on the left and right of the interpolation target pixel.

보간 목표 픽셀에서 검출된 에지 방향이 수직 방향인 경우에는, 보간 목표 픽셀의 G 성분이 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 인근 픽셀의 쌍에서 획득되는 색 성분과 보간된다. 한편, 보간 목표 픽셀에서 검출된 에지 방향이 수평 방향인 경우에는, 보간 목표 픽셀의 G 성분이 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 인근 픽셀의 쌍에서 획득되는 색 성분과 보간된다. 보간 목표 픽셀이 에지를 갖지 않는 경우에는, 보간 목표 픽셀의 G 성분이 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 인근 픽셀의 쌍 또는 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 인근 픽셀의 쌍에서 획득된 색 성분과 보간된다. 이러한 배열은 2개의 인근 픽셀의 색 성분에 기반하여 G 성분의 고속 보간을 가능하게 한다. G 성분의 보간의 객체인 보간 목표 픽셀은 모자이크 화상 데이터의 G 성분의 설정이 없는 비-G 픽셀(R 픽셀과 B 픽셀)이다. 모자이크 화상 데이터는 상대적으로 다수의 상기 비-G 픽셀을 포함한다. G 성분의 고속 보간은 모자이크 화상 데이터의 누락 색 성분을 보간하는 처리의 전반을 현저히 가속화한다.When the edge direction detected in the interpolation target pixel is the vertical direction, the G component of the interpolation target pixel is interpolated with the color component obtained in the pair of upper and lower neighboring pixels above and below the interpolation target pixel. On the other hand, when the edge direction detected in the interpolation target pixel is the horizontal direction, the G component of the interpolation target pixel is interpolated with the color component obtained in the pair of left and right neighboring pixels on the left and right sides of the interpolation target pixel. If the interpolation target pixel does not have an edge, the G component of the interpolation target pixel is either a pair of upper and lower neighboring pixels above and below the interpolation target pixel or a pair of left and right neighboring pixels left and right of the interpolation target pixel. It is interpolated with the obtained color component. This arrangement allows for fast interpolation of the G components based on the color components of two neighboring pixels. Interpolation target pixels, which are objects of G component interpolation, are non-G pixels (R pixels and B pixels) without setting of the G component of the mosaic image data. Mosaic image data includes a relatively large number of said non-G pixels. Fast interpolation of the G component significantly accelerates the first half of the process of interpolating missing color components of the mosaic image data.

보간 목표 픽셀의 G 성분의 보간을 위한 상기 응용의 바람직한 일 실시예에 있어서, 화상 처리 장치는 보간 목표 픽셀의 수직 방향 색차 성분 또는 수평 방향 색차 성분을 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 인근 픽셀의 쌍의 수직 방향 색차 성분 또는 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 인근 픽셀의 쌍의 수평 방향 색차 성분과 보간한다. 그 다음에, 화상 처리 장치는, 보간 목표 픽셀에서 보간된 수직 방향 색차 성분 또는 수평 방향 색차 성분과 모자이크 화상 데이터의 보간 목표 픽셀의 색 성분의 설정에 기반하여, 보간 목표 픽셀의 G 성분을 연산한다.In a preferred embodiment of the above application for interpolation of the G component of the interpolation target pixel, the image processing apparatus is arranged so that the vertical color difference component or the horizontal direction color difference component of the interpolation target pixel is adjacent to the upper and lower portions of the upper and lower portions of the interpolation target pixel. Interpolate with the vertical chrominance component of the pair of pixels or the horizontal chrominance component of the pair of left and right neighboring pixels on the left and right of the interpolation target pixel. Then, the image processing apparatus calculates the G component of the interpolation target pixel based on the setting of the vertical color difference component or the horizontal color difference component interpolated in the interpolation target pixel and the color component of the interpolation target pixel of the mosaic image data. .

보간의 객체가 G 성분인 보간 픽셀에 있어서는, R 성분 또는 B 성분이 존재한다. 수직 방향의 색차 성분과 수평 방향의 색차 성분은 G 성분과 기존 성분 간의 차분으로서 부여된다. 상기 구성의 화상 처리 장치는 보간 목표 픽셀의 수직 방향 색차 성분 또는 수평 방향 색차 성분을 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 인근 픽셀의 수직 방향 색차 성분 또는 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 인근 픽셀의 수평 방향 색차 성분과 보간한다. 보간 목표 픽셀의 G 성분은 보간된 수직 방향 색차 성분 또는 수평 방향 색차 성분과 보간 목표 픽셀의 모자이크 화상 데이터 세트의 색 성분으로부터 즉시 연산될 수 있다. 수직 방향 또는 수평 방향의 보간된 색차 성분으로부터의 연산은 G 성분의 적정한 연산을 보장하고, 의사 컬러의 발생을 효과적으로 방지한다. G 성분과 R 성분 간의 차분의 현저한 변화량 또는 G 성분과 B 성분 간의 차분의 현저한 변화량은 눈에 띄는 색 변화를 이끈다. 각 색 성분 R, G, 및 B의 보간은, 보간 목표 픽셀의 색 성분들 간의 차분으로 하여금 인근 픽셀의 색 성분들 간의 대응 차분으로부터 현저히 변화되게 한다. 이것은 의사 컬러의 발생을 이끌 수 있다. 하지만, 수직 방향 또는 수평 방향의 색차 성분의 보간과 보간된 색차 성분으로부터 G 성분의 연산은, 적어도 보간하는 방향의 색 성분들 간의 차분의 큰 변화량을 방지한다. 이러한 배열은 의사 컬러의 발생을 효과적으로 방지한다.In an interpolation pixel in which the object of interpolation is a G component, an R component or a B component exists. The color difference component in the vertical direction and the color difference component in the horizontal direction are given as the difference between the G component and the existing component. The image processing apparatus having the above-described configuration includes the vertical color difference component or the horizontal color difference component of the interpolation target pixel and the vertical color difference component of the upper and lower neighboring pixels above and below the interpolation target pixel, or the left and right sides of the interpolation target pixel. Interpolate with the horizontal chrominance component of the right neighboring pixel. The G component of the interpolation target pixel can be computed immediately from the interpolated vertical color difference component or horizontal color difference component and the color component of the mosaic image data set of the interpolation target pixel. The calculation from the interpolated chrominance components in the vertical or horizontal direction ensures proper calculation of the G components and effectively prevents the generation of pseudo colors. A significant change in the difference between the G and R components or a significant change in the difference between the G and B components leads to a noticeable color change. Interpolation of each of the color components R, G, and B causes the difference between the color components of the interpolation target pixel to change significantly from the corresponding difference between the color components of the neighboring pixels. This can lead to the generation of pseudo colors. However, the calculation of the G component from the interpolation of the color difference component in the vertical direction or the horizontal direction and the interpolated color difference component prevents a large amount of change of the difference between the color components in the interpolating direction at least. This arrangement effectively prevents the generation of pseudo colors.

상기 응용의 다른 바람직한 실시예에 있어서, 화상 처리 장치가 모자이크 데이터의 G 성분의 설정이 없는 모든 픽셀의 G 성분을 보간하고, 그 후에 픽셀의 다른 누락 색 성분을 보간한다.In another preferred embodiment of the application, the image processing apparatus interpolates the G components of all pixels without the setting of the G components of the mosaic data, and then interpolates other missing color components of the pixels.

상기한 바와 같이, 보간 목표 픽셀의 상부 및 하부의 인근 픽셀 또는 보간 목표 픽셀의 좌측 및 우측의 인근 픽셀에서 획득되는 생 성분에 기반하여, 각 보간 목표 픽셀의 G 성분이 신속하게 보간된다. 모자이크 화상 데이터의 G 성분의 설정이 없는 모든 픽셀의 G 성분의 고속 보간 후에, 다른 누락 색 성분이 보간된 G 성분과 모자이크 화상 데이터의 픽셀의 색 성분의 설정과 즉시로 그리고 신속하게 보간될 수 있다.As described above, the G component of each interpolation target pixel is interpolated quickly based on the raw components obtained at neighboring pixels above and below the interpolation target pixel or neighboring pixels to the left and right of the interpolation target pixel. After fast interpolation of the G component of all pixels without setting the G component of the mosaic image data, other missing color components can be interpolated immediately and quickly with the setting of the interpolated G component and the color component of the pixel of the mosaic image data. .

본 발명의 상기한 양태의 다른 바람직한 응용에 있어서, 누락 색 성분의 보간 전에, 화상 처리 장치는 모자이크 화상 데이터에 포함된 적어도 R 성분의 픽셀과 B 성분의 픽셀의 에지 방향을 검출하여, 에지 방향 맵(map)을 생성한다. 화상 처리 장치는 에지 방향 맵에 저장된 에지 방향을 참조하여 모자이크 화상 데이터의 각 픽셀의 누락 색 성분을 보간한다.In another preferred application of the above aspect of the present invention, before interpolation of the missing color component, the image processing apparatus detects an edge direction of at least an R component pixel and a B component pixel included in the mosaic image data, thereby providing an edge direction map. Create a map. The image processing apparatus interpolates missing color components of each pixel of the mosaic image data with reference to the edge directions stored in the edge direction map.

이러한 구성의 화상 처리 장치에 있어서, 에지 방향의 검출은 각 픽셀의 누락 색 성분의 보간으로부터 분리되고, 따라서 처리의 전반을 이상적으로 단순화시킨다. 다중 픽셀의 에지 검출은 에지 방향 맵을 간단히 참조하는 것에 의해 동시에 획득될 수 있다. 각 픽셀의 누락 색 성분은 인근 픽셀의 에지 방향에 기반하여 적정하게 보간된다. 모자이크 화상 데이터의 R 성분의 픽셀과 B 성분의 픽셀에 관해서만 에지 방향을 검출하는 구조에 있어서는, 에지 방향의 검출이 없는 픽셀이 있다. 상기한 경우에서도, 각 픽셀의 누락 색 성분은 인근 픽셀의 검출된 에지 방향으로부터 추정된 픽셀의 에지 방향에 기반하여 보간될 수 있다.In the image processing apparatus of such a configuration, detection of the edge direction is separated from interpolation of missing color components of each pixel, thus ideally simplifying the first half of the processing. Edge detection of multiple pixels can be obtained simultaneously by simply referencing an edge direction map. The missing color component of each pixel is appropriately interpolated based on the edge direction of the neighboring pixel. In the structure in which the edge direction is detected only with respect to the pixel of the R component and the pixel of the B component of the mosaic image data, there are pixels without detection of the edge direction. Even in the above case, the missing color component of each pixel may be interpolated based on the edge direction of the pixel estimated from the detected edge direction of the neighboring pixel.

본 발명의 다른 응용에 있어서, 컴퓨터가 상기한 화상 처리 방법을 실현하기 위한 컴퓨터 판독 가능 매체에 저장된 프로그램을 읽어 들여서 각각의 기능을 달성한다. 따라서, 본 발명의 다른 양태는, 각 픽셀의 빛의 3원색에 대응하는 3개의 색 성분 R, G, 및 B 중에 단일 색 성분의 설정을 갖는 모자이크 화상 데이터를 수신하고 수신된 모자이크 화상 데이터에 일련의 화상 처리를 하여 각 픽셀의 3개의 색 성분 R, G, 및 B 모두의 설정을 갖는 컬러 화상 데이터를 생성하는 방법을 컴퓨터로 하여금 실현하게 하는 프로그램을 저장한 컴퓨터 판독 가능 매체이다.In another application of the present invention, a computer reads out a program stored in a computer readable medium for realizing the above-described image processing method to achieve each function. Accordingly, another aspect of the present invention is to receive mosaic image data having a setting of a single color component among three color components R, G, and B corresponding to the three primary colors of light of each pixel and serially receive the received mosaic image data. A computer readable medium storing a program for causing a computer to realize a method of generating color image data having settings of all three color components R, G, and B of each pixel by performing image processing.

상기 프로그램은,The program,

G 성분의 픽셀과 수직 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수직 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수평 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 로우, 및 G 성분의 픽셀과 수평 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 로우의 조합에 의해 표현되는 화상 데이터를 모자이크 화상 데이터로서 수신하는 기능;A pixel column having an alternating arrangement of pixels of the G component and an R component pixel which is another color component in the vertical direction, a pixel column having an alternating arrangement of pixels of the G component and a B component pixel which is another color component in the vertical direction, a G component A combination of pixels rows having an alternating arrangement of pixels of R and pixels of R components that are different color components in the horizontal direction, and pixels rows having an alternating arrangement of pixels of G components and pixels of B components, which are other color components in the horizontal direction. Receiving image data to be expressed as mosaic image data;

모자이크 화상 데이터의 각 픽셀 칼럼에 포함된 각 픽셀의 G 성분과 다른 색 성분 간의 수직 방향 색차 성분을 연산하기 위해, 수직으로 이웃하는 가용한 성분을 이용하여, 다른 색 성분의 픽셀 위치의 G 성분을 획득하거나 G 성분 픽셀 위치의 다른 색 성분을 획득하는 기능;In order to calculate the vertical color difference component between the G component of each pixel included in each pixel column of the mosaic image data and the other color components, the G component of the pixel position of the other color component is used by using the available components that are vertically neighboring. Obtaining or obtaining another color component of the G component pixel position;

모자이크 화상 데이터의 각 픽셀 로우에 포함된 각 픽셀의 G 성분과 다른 색 성분 간의 수평 방향 색차 성분을 연산하기 위해, 수평으로 이웃하는 색 성분을 이용하여, 다른 색 성분의 픽셀 위치의 G 성분을 획득하거나 G 성분 픽셀 위치의 다른 색 성분을 획득하는 기능;In order to calculate the horizontal color difference component between the G component of each pixel included in each pixel row of the mosaic image data and the other color components, horizontally neighboring color components are used to obtain the G components of pixel positions of other color components. Or to obtain another color component of the G component pixel position;

모자이크 화상 데이터로부터 R 성분의 픽셀과 B 성분의 픽셀을 선택하고, 상기 픽셀 위치 각각에서, 선택된 픽셀에 관하여 수직 방향 색차 성분의 변화량을 수평 방향 색차 성분의 변화량과 비교하여 적어도 선택된 픽셀의 에지 방향을 검출하는 기능; 및From the mosaic image data, pixels of the R component and pixels of the B component are selected, and at each of the pixel positions, at least the edge direction of the selected pixel is determined by comparing the change amount of the vertical color difference component with respect to the selected pixel with the change amount of the horizontal color difference component. Detecting; And

검출된 에지 방향을 참조하여, 모자이크 화상 데이터의 각 픽셀의 2개의 누락 색 성분을 모자이크 화상 데이터의 각 픽셀의 하나의 색 성분의 설정과 보간하는 기능들을 컴퓨터로 하여금 달성하게 한다.With reference to the detected edge direction, the computer causes the functions to interpolate the two missing color components of each pixel of the mosaic image data with the setting of one color component of each pixel of the mosaic image data.

컴퓨터는 본 발명의 이 양태에 따른 프로그램을 판독하여, 상기한 각 기능을 달성하고 모자이크 화상 데이터의 누락 색 성분을 적정하게 보간한다. 따라서, 이러한 배열은 컬러 화상 데이터의 고속 생성을 보장하고, 의사 컬러의 발생을 효과적으로 방지한다.The computer reads the program according to this aspect of the present invention to achieve each of the above functions and to appropriately interpolate missing color components of the mosaic image data. Thus, this arrangement ensures high speed generation of color image data and effectively prevents generation of pseudo colors.

본 발명은 작은 크기의 에지까지도 고도로 정밀하게 검출하는 것을 보장하고 따라서 정밀한 에지 방향 맵을 생성하는 것을 가능하게 한다. 본 발명은 이러한 정밀한 에지 방향 맵을 참조하여 각 픽셀의 누락 색 성분을 적정하게 보간하므로, 에지 방향 맵의 생성 처리와 누락 색 성분의 보간이 도리어 간소하면서도 고속으로 실행될 수 있다. 따라서, 본 발명은, R, G, 및 B 색 성분의 모자이크 배열을 갖는 원 화상 데이터로부터 적정한 컬러 화상 데이터의 고속 생성을 가능하게 한다.The present invention ensures highly precise detection of even small sized edges and thus makes it possible to generate a precise edge direction map. The present invention properly interpolates the missing color components of each pixel with reference to such an accurate edge direction map, so that the generation process and the interpolation of the missing color components of the edge direction map can be executed at a simple and high speed. Therefore, the present invention enables high-speed generation of appropriate color image data from original image data having a mosaic arrangement of R, G, and B color components.

도 1은 본 발명의 일 실시예의 화상 처리 장치가 장비된 디지털 카메라의 구성을 개략적으로 예시한다.1 schematically illustrates a configuration of a digital camera equipped with an image processing apparatus of an embodiment of the present invention.

도 2는 도 1의 화상 처리 징치에 포함된 컬러 필터 어레이와 화상 센서의 구조를 도시한 개념도이다.FIG. 2 is a conceptual diagram illustrating a structure of a color filter array and an image sensor included in the image processing device of FIG. 1.

도 3은 원(raw) 화상 데이터로부터 컬러 화상 데이터를 생성하기 위해 실시예의 화상 처리 장치에 의해 실행되는, 컬러 화상 데이터 생성 처리를 도시한 플로우차트이다.Fig. 3 is a flowchart showing color image data generation processing executed by the image processing apparatus of the embodiment to generate color image data from raw image data.

도 4는 원 화상 데이터를 색차 성분의 데이터로 변환하는 처리를 개념적으로 도시한다.4 conceptually illustrates a process of converting original image data into data of color difference components.

도 5는 원 화상 데이터로부터 색차 성분을 산출하기 위한 계산식을 도시한다.5 shows a calculation formula for calculating the color difference component from the original image data.

도 6은 색차 성분에 포함된 노이즈의 제거를 위해 적용된 로우 패스 필터를 도시한다.6 illustrates a low pass filter applied for the removal of noise included in a chrominance component.

도 7은 실시예의 화상 처리 장치에 의해 도 3의 컬러 화상 데이터 생성 처리에서 실행되는 에지 방향 맵 생성 처리의 세부를 도시한 플로우차트이다.FIG. 7 is a flowchart showing details of the edge direction map generation process executed in the color image data generation process of FIG. 3 by the image processing apparatus of the embodiment. FIG.

도 8은 수직 방향의 색차 성분(CDv)으로부터 수직 방향의 변화량(Vv)의 산출을 도시한다.Fig. 8 shows the calculation of the change amount Vv in the vertical direction from the color difference component CDv in the vertical direction.

도 9는 수평 방향의 색차 성분(CDh)으로부터 수평 방향의 변화량(Vh)의 산출을 도시한다.9 shows the calculation of the change amount Vh in the horizontal direction from the color difference component CDh in the horizontal direction.

도 10은 에지 방향의 검출을 위해 선택된 목표 픽셀 주위의 인근 픽셀의 가능한 배열을 도시한다.10 shows a possible arrangement of neighboring pixels around a target pixel selected for detection of the edge direction.

도 11은 G 픽셀의 에지 방향의 검출에 적용할 수 있는 하나의 방법을 도시한다. 11 shows one method applicable to detection of the edge direction of a G pixel.

도 12는 G 픽셀의 에지 방향의 검출에 적용할 수 있는 다른 방법을 도시한다.12 shows another method applicable to detection of the edge direction of a G pixel.

도 13은 색차 성분의 변화량을 산출하는데 적용할 수 있는 다른 방법을 도시한다.13 shows another method that can be applied to calculating the amount of change in the color difference component.

도 14는 색차 성분의 변화량을 산출하는데 적용할 수 있는 또 다른 방법을 도시한다.14 shows another method that can be applied to calculating the amount of change in the color difference component.

도 15는 색차 성분의 작은 변화량까지 산출하는데 적용할 수 있는 또 다른 방법을 도시한다.FIG. 15 shows another method applicable to calculating even small amounts of change in color difference components.

도 16은 실시예의 화상 처리 장치에 의해 도 3의 컬러 화상 데이터 생성 처리에서 실행되는 G 성분 보간 처리의 세부를 도시한 플로우차트이다.FIG. 16 is a flowchart showing details of the G component interpolation processing executed in the color image data generation processing of FIG. 3 by the image processing apparatus of the embodiment.

도 17은 비-G 픽셀의 누락 G 성분을 연산하는 처리 흐름을 도시한다.17 shows a processing flow for computing missing G components of non-G pixels.

도 18은 실시예의 화상 처리 장치에 의해 도 3의 컬러 화상 데이터 생성 처리에서 실행되는 비-G 픽셀 보간 처리의 세부를 도시한 플로우차트이다.FIG. 18 is a flowchart showing details of non-G pixel interpolation processing executed in the color image data generation processing of FIG. 3 by the image processing apparatus of the embodiment. FIG.

도 19는 실시예의 화상 처리 장치에 의해 도 3의 컬러 화상 데이터 생성 처리에서 실행되는 G 픽셀 보간 처리의 세부를 도시한 플로우차트이다.FIG. 19 is a flowchart showing details of the G pixel interpolation processing executed in the color image data generation processing of FIG. 3 by the image processing apparatus of the embodiment.

도 20은 인근 픽셀의 에지 방향으로부터 G 보간 목표 픽셀의 에지 방향의 추정을 도시한다.20 shows the estimation of the edge direction of the G interpolation target pixel from the edge direction of the neighboring pixel.

본 발명은 첨부 도면에 기반한 하기의 시퀀스(sequence)의 후술되는 바람직한 실시예를 참조하여 더욱 충분히 이해될 수 있다.The present invention may be more fully understood with reference to the following preferred embodiment of the following sequence based on the accompanying drawings.

A. 시스템 구성A. System Configuration

B. 컬러 화상 데이터 생성 처리의 개요B. Outline of Color Image Data Generation Processing

C. 에지 방향 맵 생성 처리C. Edge Direction Map Generation Processing

D. G 성분 보간 처리D. G component interpolation

E. 비(non)-G 픽셀 보간 처리E. Non-G Pixel Interpolation

F. G 픽셀 보간 처리F. G pixel interpolation

A. 시스템 구성A. System Configuration

도 1은 본 발명의 일 실시예의 화상 처리 장치(30)가 장비된 디지털 카메라(100)의 구성을 개략적으로 예시한다. 예시된 바와 같이, 디지털 카메라(100)는 다중 렌즈의 군을 갖는 광학계(10), 광학계(10)에 의해 형성된 피사체의 화상을 전기 신호로 변환하는 촬상 어셈블리(assembly)(20), 및 촬상 어셈블리(20)로부터 전기 신호를 수신하여 수신된 전기 신호에 미리 설정된 일련의 화상 처리를 하여 컬러 화상 데이터를 생성하는 화상 처리 장치(30)를 포함한다.1 schematically illustrates the configuration of a digital camera 100 equipped with an image processing apparatus 30 of an embodiment of the present invention. As illustrated, the digital camera 100 includes an optical system 10 having a group of multiple lenses, an imaging assembly 20 for converting an image of a subject formed by the optical system 10 into an electrical signal, and an imaging assembly. And an image processing apparatus 30 that receives the electric signal from the 20 and performs a series of preset image processing on the received electric signal to generate color image data.

촬상 어셈블리(20)는 빛의 세기를 전기 신호로 변환하기 위한 다중 파인 촬상 소자의 2차원 배열을 갖는 화상 센서(24)를 갖는다. 컬러 필터 어레이(22)는 화상 센서(24)의 전방에 구비되고 R(적색), G(녹색), 및 B(청색)의 파인 컬러 필터의 모자이크 배열을 갖는다. 컬러 필터 어레이(22)를 구성하는 R, G, 및 B 컬러 필터의 배열은 상세하게 후술될 것이다. R 컬러 필터, G 컬러 필터, 및 B 컬러 필터는 R 컬러 빛의 투과, G 컬러 빛의 투과, 및 B 컬러 빛의 투과를 각각 가능하게 하도록 구성되었다. 화상 센서(24)는, 컬러 필터 어레이(22)의 R, G, 및 B 컬러 필터의 모자이크 배열에 따라, R 빛의 세기에 감응하는 화상 부분, G 빛의 세기에 감응하는 화상 부분, 및 B 빛의 세기에 감응하는 화상 부분의 모자이크 배열을 갖는 화상 데이터를 캡쳐한다.The imaging assembly 20 has an image sensor 24 having a two dimensional array of multiple fine imaging elements for converting light intensity into an electrical signal. The color filter array 22 is provided in front of the image sensor 24 and has a mosaic arrangement of fine color filters of R (red), G (green), and B (blue). The arrangement of the R, G, and B color filters constituting the color filter array 22 will be described later in detail. The R color filter, the G color filter, and the B color filter were configured to enable transmission of R color light, transmission of G color light, and transmission of B color light, respectively. The image sensor 24 includes an image portion sensitive to the R light intensity, an image portion sensitive to the G light intensity, and B, according to a mosaic arrangement of the R, G, and B color filters of the color filter array 22. Image data having a mosaic arrangement of image portions sensitive to light intensity is captured.

디지털 카메라(100)에 장착된 화상 처리 장치(30)는 촬상 어셈블리(20)로부터 모자이크 배열의 화상 데이터를 수신하여 각 픽셀의 R 성분, G 성분, B 성분의 설정을 갖는 컬러 화상 데이터를 생성한다. 본 실시예의 화상 처리 장치(30)에서는, CPU, ROM, RAM, 및 데이터 입출력 인터페이스(I/F)가 상호 데이터 전송을 가능하게 하도록 버스(bus)를 통해 상호 접속되어 있다. CPU는 ROM에 저장된 프로그램에 따라 컬러 화상 데이터를 생성하도록 일련의 처리를 실행한다. 따라서, 생성된 결과적인 컬러 화상 데이터는 외부 출력 단자(40)를 통해 외부 장치에 출력될 수 있고, 또는 외부 기록 매체(50)에 출력될 수 있다.The image processing apparatus 30 mounted on the digital camera 100 receives image data in a mosaic array from the imaging assembly 20 and generates color image data having settings of R, G, and B components of each pixel. . In the image processing apparatus 30 of the present embodiment, the CPU, the ROM, the RAM, and the data input / output interface (I / F) are interconnected via a bus so as to enable mutual data transfer. The CPU executes a series of processes to generate color image data in accordance with the program stored in the ROM. Thus, the resulting color image data can be output to the external device via the external output terminal 40 or can be output to the external recording medium 50.

화상 센서(24)에 의해 캡쳐되는 R, G, 및 B 성분의 모자이크 배열을 갖는 화상 데이터는, 각 픽셀의 R, G, 및 B 성분의 설정을 갖는 컬러 화상 데이터를 생성하기 위해 화상 처리 장치(30)에 의해 참조되는 소스(source) 데이터로서 이용된다. 따라서, 화상 센서(24)에 의해 캡쳐되는 모자이크 배열의 화상 데이터는, 이하에서 ‘원(raw) 화상 데이터’로 일컬어질 수 있다. The image data having a mosaic arrangement of R, G, and B components captured by the image sensor 24 may be used to generate color image data having settings of the R, G, and B components of each pixel. It is used as source data referenced by 30). Therefore, the image data of the mosaic arrangement captured by the image sensor 24 may be referred to as 'raw image data' below.

도 2는 컬러 필터 어레이(22)와 화상 센서(22)의 구조를 도시한 개념도이다. 앞서 언급된 바와 같이, 화상 센서(24)는 빛의 세기에 대응하는 전기 신호를 출력하는 파인 촬상 소자의 2차원 배열을 갖는다. 도 2의 예시된 예에 있어서, 파인 촬상 소자는 격자 무늬로 배열된다. 화상 센서(24)의 격자 패턴의 작은 직사각형의 각각은 하나의 촬상 소자를 개념적으로 나타낸다.2 is a conceptual diagram illustrating the structures of the color filter array 22 and the image sensor 22. As mentioned above, the image sensor 24 has a two-dimensional array of fine imaging elements for outputting an electrical signal corresponding to the light intensity. In the illustrated example of FIG. 2, the fine imaging elements are arranged in a lattice pattern. Each of the small rectangles of the lattice pattern of the image sensor 24 conceptually represents one imaging device.

컬러 필터 어레이(22)는 화상 센서(24)를 구성하는 다중 촬상 소자의 각각의 위치에 대응하는 하나의 R 컬러 필터, G 컬러 필터, 및 B 컬러 필터 세트를 갖는다. 도 2에 있어서, 드문드문하게 해치(hatch)를 넣은 직사각형, 빽빽하게 해치를 넣은 직사각형, 및 해치를 넣지 않은 비어 있는 직사각형은, 각각, R 컬러 필터, B 컬러 필터, 및 G 컬러 필터를 나타낸다. R, G, 및 B 컬러 필터의 배열에 있어서, G 컬러 필터가 먼저 서로 대각선이 되도록 위치되어, 체커보드(checkerboard) 무늬를 형성한다. 즉, G 컬러 필터는 컬러 필터 어레이(22)의 면적의 절반을 점유한다. 그 다음에 동일 개수의 R 컬러 필터와 B 컬러 필터가 컬러 필터 어레이(22)의 나머지 절반 면적에 고르게 배열된다. 도 2에 도시된 이러한 배열의 결과적인 컬러 필터 어레이(22)는 베이어(Bayer) 컬러 필터 어레이로 칭해진다.The color filter array 22 has one R color filter, a G color filter, and a B color filter set corresponding to each position of the multiple imaging elements constituting the image sensor 24. In FIG. 2, a sparse hatched rectangle, a tightly hatched rectangle, and a blank hatched rectangle represent an R color filter, a B color filter, and a G color filter, respectively. In the arrangement of the R, G, and B color filters, the G color filters are first positioned diagonally to each other, forming a checkerboard pattern. That is, the G color filter occupies half of the area of the color filter array 22. The same number of R color filters and B color filters are then evenly arranged in the remaining half of the color filter array 22. The resulting color filter array 22 of this arrangement shown in FIG. 2 is referred to as a Bayer color filter array.

앞서 언급된 바와 같이, G 컬러 필터, R 컬러 필터, 및 B 컬러 필터는 G 컬러 빛만의 투과, R 컬러 빛만의 투과, B 컬러 빛만의 투과를, 각각, 가능하게 하도록 설계되었다. 따라서, 화상 센서(24)는 도 2에 도시된 바와 같은 화상 센서(24)의 전방에 위치되는 베이어 컬러 필터 어레이(22)의 기능에 의해 모자이크 배열의 화상 데이터를 캡쳐한다. 모자이크 배열의 화상 데이터는 보통의 화상 데이터와 동일한 방식으로 처리될 수 없으며, 바로는 화상으로 표현될 수 없다. 화상 처리 장치(30)는 모자이크 배열의 화상 데이터(원 화상 데이터)를 수신하여 각 픽셀의 R, G, 및 B 성분의 설정을 갖는 보통의 컬러 화상 데이터를 생성한다.As mentioned above, the G color filter, the R color filter, and the B color filter are designed to enable transmission of only the G color light, transmission of only the R color light, and transmission of only the B color light, respectively. Thus, the image sensor 24 captures image data in a mosaic arrangement by the function of the Bayer color filter array 22 located in front of the image sensor 24 as shown in FIG. The image data of the mosaic arrangement cannot be processed in the same manner as ordinary image data, and cannot be represented directly as an image. The image processing apparatus 30 receives the image data (original image data) of the mosaic arrangement and generates normal color image data having the settings of the R, G, and B components of each pixel.

B. 컬러 화상 데이터 생성 처리의 개요B. Outline of Color Image Data Generation Processing

도 3은 원 화상 데이터로부터 컬러 화상 데이터를 생성하기 위해 실시예의 화상 처리 장치(30)에 의해 실행되는, 컬러 화상 데이터 생성 처리를 도시하는 플로우차트이다. 이러한 실시예의 구조에 있어서, 화상 처리 장치(30)에 포함된 CPU는 소프트웨어 구성에 의해 이러한 컬러 화상 데이터 생성을 실행한다. 하지만, 이것은 필수적이지는 않으며, 특정 하드웨어 요소, 예컨대, 신호 프로세서가 동일 목적을 위해 이용될 수 있다.3 is a flowchart showing color image data generation processing executed by the image processing apparatus 30 of the embodiment to generate color image data from original image data. In the structure of this embodiment, the CPU included in the image processing apparatus 30 executes such color image data generation by a software configuration. However, this is not essential and certain hardware elements, such as signal processors, may be used for the same purpose.

컬러 화상 데이터 생성 처리의 시작 시에, CPU는 먼저 화상 센서(24)로부터 소스 데이터인 원 화상 데이터를 수신하고(단계 S100), 상세하게 후술되는 바와 같이 수신되는 원 화상 데이터를 색차 성분의 데이터로 변환한다(단계 S102).At the start of the color image data generation process, the CPU first receives the original image data which is the source data from the image sensor 24 (step S100), and converts the received original image data into the data of the color difference component as described later in detail. (Step S102).

도 4는 원 화상 데이터를 색차 성분의 데이터로 변환하는 처리를 개념적으로 도시한다. 도 4의 상부는 화상 센서(24)로부터 읽어 들여지는 원 화상 데이터의 개념도를 도시한다. 베이어 컬러 필터 어레이에 의해 획득되는 원 화상 데이터는 R, G, 및 B 성분의 모자이크 배열을 갖는다. 수평 방향에 있어서는, 원 화상 데이터의 2가지 타입의 픽셀 로우: 교번적으로 배열된 G 픽셀(G 성분을 갖는 픽셀)과 R 픽셀(R 성분을 갖는 픽셀)을 갖는 픽셀 로우, 및 교번적으로 배열된 G 픽셀과 B 픽셀(B 성분을 갖는 픽셀)을 갖는 픽셀 로우만이 있다. 유사하게, 수직 방향에 있어서는, 원 화상 데이터의 2가지 타입의 픽셀 칼럼: 교번적으로 배열된 G 픽셀과 R 픽셀을 갖는 픽셀 칼럼, 및 교번적으로 배열된 G 픽셀과 B 픽셀을 갖는 픽셀 칼럼만이 있다. 도 4의 중간은, 원 화상 데이터가 수평 방향으로 교번적인 G 픽셀과 R 픽셀의 픽셀 로우 및 교번적인 G 픽셀과 B 픽셀의 픽셀 로우만으로 이루어지고 교번적인 G 픽셀과 R 픽셀의 픽셀 칼럼 및 교번적인 G 픽셀과 B 픽셀의 픽셀 칼럼만으로 이루어지는 것을 개념적으로 도시한다.4 conceptually illustrates a process of converting original image data into data of color difference components. 4 shows a conceptual diagram of the original image data read out from the image sensor 24. The original image data obtained by the Bayer color filter array has a mosaic arrangement of R, G, and B components. In the horizontal direction, two types of pixel rows of original image data: pixel rows having alternatingly arranged G pixels (pixels having G components) and R pixels (pixels having R components), and alternately arranged There are only pixel rows with G pixels and B pixels (pixels with B components). Similarly, in the vertical direction, only two types of pixel columns of original image data: pixel columns having alternately arranged G and R pixels, and pixel columns having alternately arranged G and B pixels. There is this. In the middle of Fig. 4, the original image data consists only of alternating G and R pixels in the horizontal and pixel rows of alternating G and B pixels, and alternating pixel and alternating pixel and R pixel columns. Conceptually illustrating what consists of only pixel columns of G pixels and B pixels.

이러한 관찰의 결과에 근거하여, 본 실시예의 컬러 화상 데이터 생성 처리는 R, G, 및 B 성분의 원 화상 데이터를, 수평 방향의 픽셀 로우의 색 성분의 차분(수평 방향의 색차 성분)을 나타내는 데이터 및 수직 방향의 픽셀 칼럼의 색 성분의 차분(수직 방향의 색차 성분)을 나타내는 데이터로 변환한다. 예를 들어, 원 화상 데이터는 교번적인 G 픽셀과 R 픽셀의 픽셀 로우 또는 픽셀 칼럼에 관한 G 및 R 성분 간의 색차 성분의 데이터로 변환된다. 유사하게, 원 화상 데이터는 교번적인 G 픽셀과 B 픽셀의 픽셀 로우 또는 픽셀 칼럼에 관한 G 및 B 성분 간의 색차 성분의 데이터로 변환된다. 색차 성분을 산출하기 위한 계산식이 추후에 상세히 기술될 것이다.Based on the results of such observation, the color image data generation processing of the present embodiment uses the original image data of the R, G, and B components to express the difference (the horizontal color difference component) of the color components of the pixel rows in the horizontal direction. And data representing the difference (color difference component in the vertical direction) of the color component in the pixel column in the vertical direction. For example, the original image data is converted into data of color difference components between G and R components with respect to pixel rows or pixel columns of alternating G and R pixels. Similarly, the original image data is converted into data of chrominance components between G and B components with respect to pixel rows or pixel columns of alternating G and B pixels. The formula for calculating the color difference component will be described later in detail.

도 4의 하부는 이렇게 획득된 수평 방향 및 수직 방향의 색차 성분을 개념적으로 도시한다. 하부의 좌측 도면은 수직 방향의 원 화상 데이터를 처리하여 획득되는 수직 방향의 색차 성분(CDv)을 도시한다. 해치를 넣은 픽셀 칼럼의 각각은 교번적인 G 픽셀과 B 픽셀의 픽셀 칼럼이다. 따라서, 이 픽셀 칼럼의 각 색차 성분(CDv)은 G 성분과 B 성분 간의 색차 성분을 나타낸다. 나머지 해치를 넣지 않은 픽셀 칼럼의 각각은 교번적인 G 픽셀과 R 픽셀의 픽셀 칼럼이다. 따라서, 이 픽셀 칼럼의 각 색차 성분(CDv)은 G 성분과 R 성분 간의 색차 성분을 나타낸다. 수평 방향의 원 화상 데이터는 유사하게 처리될 수 있다. 해치를 넣은 픽셀 로우의 각각은 G 픽셀과 B 픽셀 간의 색차 성분(CDh)을 부여한다. 나머지 해치를 넣지 않은 픽셀 로우의 각각은 G 픽셀과 R 픽셀 간의 색차 성분(CDh)을 부여한다.The lower part of FIG. 4 conceptually illustrates the color difference components in the horizontal and vertical directions thus obtained. The lower left figure shows the vertical color difference component CDv obtained by processing the original image data in the vertical direction. Each of the hatched pixel columns is an alternating pixel column of G and B pixels. Therefore, each color difference component CDv of this pixel column represents a color difference component between the G component and the B component. Each of the pixel columns without the remaining hatch is a pixel column of alternating G and R pixels. Therefore, each color difference component CDv of this pixel column represents a color difference component between the G component and the R component. The original image data in the horizontal direction can be similarly processed. Each of the hatched pixel rows imparts a color difference component (CDh) between G and B pixels. Each of the pixel rows that do not have the remaining hatch gives the color difference component CDh between the G pixels and the R pixels.

도 5는 원 화상 데이터로부터 색차 성분을 산출하기 위한 계산식을 도시한다. 도 5(a)는 수직 방향의 색차 성분(CDv)을 산출하기 위한 계산식을 나타내고, 도 5(b)는 수평 방향의 색차 성분(CDv)을 산출하기 위한 계산식을 나타낸다. 이들 계산식에서는, ‘z’가 화상 센서(24)에 의해 획득된 원 화상 데이터의 값을 나타내고, z(r,s)가 화상의 원래 세트의 위치로부터 아래 방향의 r번째 픽셀 위치와 원래의 위치로부터 우측 방향의 s번째 픽셀 위치에 의해 정의되는 특정 위치의 값을 나타낸다(도 4의 상부 참조).5 shows a calculation formula for calculating the color difference component from the original image data. FIG. 5A shows a calculation formula for calculating the color difference component CDv in the vertical direction, and FIG. 5B shows a calculation formula for calculating the color difference component CDv in the horizontal direction. In these calculations, 'z' represents the value of the original image data obtained by the image sensor 24, and z (r, s) is the r-th pixel position and the original position downward from the position of the original set of images. Denotes a value of a specific position defined by the s-th pixel position in the rightward direction (see upper portion of FIG. 4).

도 5(a)를 참조하여 보면, 그 설명은 수직 방향의 색차 성분(CDv)을 산출하기 위한 계산식에 관한 것이다. 색차 성분(CDv)의 연산의 객체인 목표 픽셀이 G 성분(G 픽셀)을 갖는 픽셀인 경우에는, 도 5(a)의 상부 계산식이 채택된다. 처리는 먼저 목표 픽셀의 상부 및 하부의 상부 및 하부 픽셀의 평균 값(즉, 일점쇄선으로 에워싸인 2번째 항)을 산출하고 목표 픽셀의 G 성분에서 산출된 평균(즉, 파선으로 에워싸인 1번째 항)을 감산하여 수직 방향의 목표 픽셀의 색차 성분(CDv)을 산출한다. 색차 성분(CDv)의 연산을 위한 목표 픽셀이 G 픽셀이므로, 목표 픽셀의 색조(tone) 값 z(r,s)는 당연히 G 성분을 나타낸다. 2번째 항의 요소 z(r-1,s)는 목표 픽셀 상부의 상부 픽셀의 원 화상 데이터의 색조 값을 나타내는 반면, 2번째 항의 요소 z(r+1,s)는 목표 픽셀 하부의 하부 픽셀의 원 화상 데이터의 색조 값을 나타낸다. 도 4를 참조하여 앞서 설명된 바와 같이, 목표 G 픽셀의 상부 및 하부의 상부 및 하부 픽셀은 R 픽셀 또는 B 픽셀일 수 있지만 항상 동일 색 성분의 픽셀이다. 따라서, 도 5(a)의 상부 계산식의 일점 쇄선에 의해 에워싸인 2번째 항은 상부 및 하부 픽셀(즉, R 픽셀 또는 B 픽셀)의 값으로부터 산출된 R 성분 또는 B 성분을 나타낸다. 도 5(a)의 상부 계산식의 적용은, R 픽셀 또는 B 픽셀인 상부 및 하부 픽셀과는 관계없이, G 성분(G 픽셀)을 갖는 픽셀에 관한 수직 방향의 색차 성분(CDv)을 판정한다.Referring to FIG. 5 (a), the description relates to a calculation formula for calculating the color difference component CDv in the vertical direction. When the target pixel, which is the object of the calculation of the chrominance component CDv, is a pixel having the G component (G pixel), the upper calculation formula of Fig. 5A is adopted. The process first yields an average value of the upper and lower pixels above and below the target pixel (i.e., the second term surrounded by dashed lines) and an average calculated from the G component of the target pixel (i.e., surrounded by dashed lines). Subtraction) to calculate the color difference component CDv of the target pixel in the vertical direction. Since the target pixel for the calculation of the chrominance component CDv is a G pixel, the tone value z (r, s) of the target pixel naturally represents the G component. The element z (r-1, s) of the second term represents the hue value of the original image data of the upper pixel above the target pixel, while the element z (r + 1, s) of the second term represents the lower pixel of the lower pixel below the target pixel. The hue value of the original image data is shown. As described above with reference to FIG. 4, the top and bottom pixels above and below the target G pixel can be either R pixels or B pixels but are always pixels of the same color component. Therefore, the second term surrounded by the dashed-dotted line in the upper equation of Fig. 5A represents the R component or the B component calculated from the values of the upper and lower pixels (i.e., R pixels or B pixels). Application of the upper equation of Fig. 5 (a) determines the color difference component CDv in the vertical direction with respect to the pixel having the G component (G pixel), irrespective of the upper and lower pixels which are R pixels or B pixels.

상부 및 하부 픽셀인 R 픽셀 및 B 픽셀에 대한 동일 계산식의 적용이 2가지 상이한 타입의 색차 성분(CDv)을 부여한다는 것에 주목해야 한다. 상부 및 하부 픽셀이 R 픽셀인 경우에는, 수직방향의 결과적인 색차 성분(CDv)이 G 성분과 R 성분 간의 색차 성분을 나타낸다. 한편, 상부 및 하부 픽셀이 B 픽셀인 경우에는, 수직방향의 결과적인 색차 성분(CDv)이 G 성분과 B 성분 간의 색차 성분을 나타낸다.It should be noted that the application of the same equation for the upper and lower pixels, R and B pixels, gives two different types of color difference components (CDv). When the upper and lower pixels are R pixels, the resulting color difference component CDv in the vertical direction represents the color difference component between the G component and the R component. On the other hand, when the upper and lower pixels are B pixels, the resulting color difference component CDv in the vertical direction represents the color difference component between the G component and the B component.

수직 방향의 색차 성분(CDv)은 G 픽셀 이외의 픽셀(즉, R 픽셀과 B 픽셀)에 관하여 유사하게 연산될 수 있다. 예를 들어, 색차 성분(CDv)의 연산의 객체인 목표 픽셀이 R 픽셀인 경우에는, 도 4를 참조하여 앞서 설명된 바와 같이 목표 픽셀의 상부 및 하부의 상부 및 하부 픽셀이 G 픽셀이다. 상부 및 하부 픽셀의 평균값은 색차 성분(CDv)의 연산의 객체인 목표 픽셀의 G 성분을 지정하는 것으로 생각된다. 지정된 G 성분에서 목표 픽셀(이 경우에는, R 성분)의 색조 값의 감산은 색차 성분(CDv)을 판정한다. 목표 픽셀인 B 픽셀 세트의 각각은 동일한 일련의 처리를 받는다. G 픽셀 이외의 픽셀에 관해서는, 도 5(a)의 하부 계산식에 나타낸 바와 같이, 우측의 파선에 의해 에워싸인 1번째 항에서 일점쇄선에 의해 에워싸인 2번째 항의 감산은 수직 방향의 색차 성분(CDv)을 부여한다.The color difference component CDv in the vertical direction can be similarly calculated with respect to pixels other than G pixels (ie, R pixels and B pixels). For example, if the target pixel, which is an object of the operation of the chrominance component CDv, is an R pixel, the upper and lower pixels above and below the target pixel are G pixels as described above with reference to FIG. The average value of the upper and lower pixels is considered to designate the G component of the target pixel, which is an object of the operation of the chrominance component CDv. The subtraction of the hue value of the target pixel (in this case, the R component) in the designated G component determines the chrominance component CDv. Each of the set of B pixels that is the target pixel receives the same series of processing. As for the pixels other than the G pixels, as shown in the lower calculation formula of FIG. 5 (a), the subtraction of the second term surrounded by the dashed line in the first term surrounded by the dashed line on the right indicates that the color difference component in the vertical direction ( CDv).

동일 계산식이, G 픽셀 이외의 목표 픽셀인 R 픽셀과 B 픽셀 세트의 양쪽에 관하여, 수직 방향의 색차 성분(CDv)의 연산에 적용될 수 있다. 하지만, 목표 픽셀로서 처리된 R 픽셀과 B 픽셀이 2가지 상이한 타입의 색차 성분(CDv)을 부여한다는 것에 주목해야 한다. 목표 픽셀이 R 픽셀인 경우에는, 결과적인 색차 성분(CDv)이 G 성분과 R 성분 간의 색차 성분을 나타낸다. 한편, 목표 픽셀이 B 픽셀인 경우에는, 결과적인 색차 성분(CDv)이 G 성분과 R 성분 간의 색차 성분을 나타낸다.The same calculation can be applied to the calculation of the color difference component CDv in the vertical direction with respect to both the R pixel and the B pixel set which are target pixels other than the G pixel. However, it should be noted that the R and B pixels treated as target pixels impart two different types of color difference components (CDv). When the target pixel is an R pixel, the resulting color difference component CDv represents the color difference component between the G component and the R component. On the other hand, when the target pixel is a B pixel, the resulting color difference component CDv represents the color difference component between the G component and the R component.

본 실시예의 컬러 화상 데이터 생성 처리는 2가지 상이한 타입의 색차 성분(CDv)이 있는 진보된 처리를 위한 완전히 동일한 계산식을 적용한다. 동일 계산식의 적용은 종래의 단순 처리에 비교될 수 있는 2가지 상이한 타입의 색차 성분(CDv)을 갖는 진보된 처리의 간소함과 높은 속도를 이상적으로 달성한다. 하지만, 종래의 단순 처리와는 달리, 본 실시예의 이러한 진보된 처리는 의사 컬러의 발생의 방지와 더불어 적정한 디모자이킹을 가능하게 한다. The color image data generation process of this embodiment applies the exact same calculation formula for the advanced process with two different types of color difference components (CDv). The application of the same formula ideally achieves the simplicity and high speed of advanced processing with two different types of color difference components (CDv) which can be compared to conventional simple processing. However, unlike conventional simple processing, this advanced processing of the present embodiment enables proper demosaicing as well as prevention of generation of pseudo color.

수평 방향의 색차 성분(CDh)은 앞서 설명된 수직 방향의 색차 성분(CDv)와 동일한 방식으로 연산될 수 있다. 색차 성분(CDh)의 연산은 도 5(b)를 참조하여 간략히 설명된다. 도 5(b)의 상부 계산식에 나타낸 바와 같이, 우측의 파선에 의해 에워싸인 1번째 항에서 일점쇄선에 의해 에워싸인 2번째 항의 감산은 수평 방향의 G 픽셀의 색차 성분(CDh)을 부여한다. 계산식에 있어서, 요소 z(r,s)는 색차 성분의 연산의 객체인 목표 픽셀의 원 화상 데이터의 색조 값(즉, G 성분)을 나타낸다. 요소 z(r,s-1)가 목표 픽셀 좌측의 좌측 픽셀의 원 화상 데이터의 색조 값을 나타내는 반면, 요소 z(r,s+1)는 목표 픽셀 우측의 우측 픽셀의 원 화상 데이터의 색조 값을 나타낸다. 목표 픽셀의 좌측 및 우측의 좌측 및 우측 픽셀은 R 픽셀이거나 B 픽셀일 수 있지만 항상 동일 색 성분의 픽셀이다.The color difference component CDh in the horizontal direction may be calculated in the same manner as the color difference component CDv in the vertical direction described above. The calculation of the color difference component CDh is briefly described with reference to Fig. 5B. As shown in the upper calculation formula of Fig. 5B, the subtraction of the second term surrounded by the dashed line in the first term surrounded by the broken line on the right gives the color difference component CDh of the G pixel in the horizontal direction. In the formula, the element z (r, s) represents the hue value (that is, the G component) of the original image data of the target pixel that is the object of the calculation of the chrominance component. The element z (r, s-1) represents the hue value of the original image data of the left pixel to the left of the target pixel, while the element z (r, s + 1) represents the hue value of the original image data of the right pixel to the right of the target pixel. Indicates. The left and right pixels to the left and right of the target pixel can be either R pixels or B pixels but are always pixels of the same color component.

G 픽셀 이외의 목표 픽셀에 관한(즉, R 목표 픽셀 또는 B 목표 픽셀에 관한) 수평 방향의 색차 성분(CDh)의 연산에 있어서, R 또는 B 목표 픽셀의 좌측 및 우측의 좌측 및 우측 픽셀은 G 픽셀이다. 도 5(b)의 하부 계산식에 나타낸 바와 같이, 파선에 의해 에워싸인 1번째 항(좌측 및 우측 픽셀의 평균값)에서 일점 쇄선에 의해 에워싸인 2번째 항(목표 픽셀의 색조 값)의 감산은 수평 방향의 색차 성분(CDh)을 부여한다.In the calculation of the color difference component CDh in the horizontal direction with respect to the target pixel other than the G pixel (ie, with respect to the R target pixel or the B target pixel), the left and right pixels on the left and right sides of the R or B target pixel are G. Pixels. As shown in the lower equation of Fig. 5 (b), the subtraction of the second term (the hue value of the target pixel) surrounded by the dashed line in the first term (average value of the left and right pixels) surrounded by the dashed line is horizontal. The color difference component CDh in the direction is given.

동일 계산식이, 좌측 및 우측 픽셀로서 R 픽셀 또는 B 픽셀을 갖는 목표 G 픽셀에 관한 그리고 G 픽셀 이외의 목표 픽셀인 R 픽셀과 B 픽셀 세트의 양쪽에 관한, 수평 방향의 색차 성분(CDh)의 연산에 적용될 수 있다. 하지만, 상기 연산은 2가지 상이한 타입의 색차 성분(CDh), 즉, G 성분과 R 성분 간의 색차 성분 및 G 성분과 B 성분 간의 색차 성분을 부여한다. 완전히 동일한 계산식의 적용은 종래의 단순 처리에 비교될 수 있는 수평 방향의 2가지 상이한 타입의 색차 성분(CDh)을 갖는 진보된 처리의 간소함과 높은 속도를 이상적으로 달성한다.The same calculation calculates the horizontal color difference component (CDh) for a target G pixel having R pixels or B pixels as left and right pixels and for both a set of R pixels and B pixels that are target pixels other than G pixels. Can be applied to However, the operation gives two different types of color difference components (CDh), namely the color difference component between the G component and the R component and the color difference component between the G component and the B component. The application of completely identical calculations ideally achieves the simplicity and high speed of advanced processing with two different types of color difference components (CDh) in the horizontal direction, which can be compared to conventional simple processing.

도 5(a)와 5(b) 간의 비교로부터 명확히 이해되는 바와 같이, 수직 방향의 색차 성분(CDv)의 연산을 위해 사용되는 계산식은 수평 방향의 색차 성분(CDh)의 연산을 위해 사용되는 계산식과 상당히 유사하다. 즉, 처리 흐름은 상이한 2 방향의 색차 성분(CDv, CDh)의 양쪽의 연산을 위해 표준화될 수 있다. 이것은 처리 전반의 간소함과 높은 속도를 더욱 향상시킨다.As clearly understood from the comparison between Figs. 5 (a) and 5 (b), the equation used for the calculation of the color difference component CDv in the vertical direction is the equation used for the calculation of the color difference component CDh in the horizontal direction. Is quite similar to That is, the process flow can be normalized for the calculation of both of the color difference components (CDv, CDh) in different two directions. This further improves the simplicity and high speed of the overall process.

도 3의 플로우차트의 단계(S102)에서, 화상 센서(24)에 의해 캡쳐된 원 화상 데이터는 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)으로 변환된다. 필수적이지는 않을지라도, 이들 색차 성분으로부터 있음직한 노이즈의 제거 목적을 위해, 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)에 로우 패스 필터를 적용하는 것이 바람직하다. 후술되는 바와 같이, 본 실시예의 컬러 화상 데이터 생성 처리는 화상에 포함된 에지 방향의 검출을 위해 색차 성분을 이용한다. 로우 패스 필터가 에지를 희미해지게 하고 에지의 검출 정밀도를 저하시키는 경향을 갖기 때문에, 로우 패스 필터의 적용은 일반적으로 바람직하지 않다. 하지만, 본 실시예의 절차는 후술되는 바와 같이 극도로 높은 정밀도로 에지 방향의 검출을 가능하게 한다. 따라서, 약간의 에지 희미해짐(blur)은 검출 정밀도를 현저히 저하시키지 않으며, 노이즈 제거가 에지 방향의 안정적인 검출을 가능하게 한다.In step S102 of the flowchart of FIG. 3, the original image data captured by the image sensor 24 is converted into a vertical color difference component CDv and a horizontal color difference component CDh. Although not essential, it is desirable to apply a low pass filter to the vertical color difference component CDv and the horizontal color difference component CDh for the purpose of removing likely noise from these color difference components. As will be described later, the color image data generation processing of the present embodiment uses the color difference component for detection of the edge direction included in the image. Application of low pass filters is generally undesirable because low pass filters tend to fade edges and degrade edge detection accuracy. However, the procedure of this embodiment enables detection of the edge direction with extremely high precision as described below. Thus, slight edge blur does not significantly reduce the detection accuracy, and noise removal enables stable detection in the edge direction.

도 6은 색차 성분에 포함된 노이즈의 제거를 위해 적용되는 로우 패스 필터를 도시한다. 도 6(a)은 수직 방향의 색차 성분(CDv)에 적용되고 수평 방향의 색차 성분(CDh)에 적용되는 로우 패스 필터를 도시한다. 더 나은 이해를 위해서, 도 6(b)은 수평 방향의 색차 성분(CDh)에의 로우 패스 필터의 적용을 도시한다. 로우 패스 필터 적용의 객체인 목표 픽셀은 도 6(b)에서 해치를 넣은 직사각형에 의해 표시된다. 본 실시예의 로우 패스 필터는 목표 픽셀의 색차 성분과 목표 픽셀의 좌측 및 우측의 2개의 좌측 픽셀 및 2개의 우측 픽셀의 색차 성분을 합산한다. 목표 픽셀의 색차 성분은 4개의 픽셀의 웨이트(weight)로 곱해짐으로써, 합산된 색차 성분이 8개의 픽셀에 대응한다. 이 경우에 있어서, 상기 합계의 더 낮은 비트(bit)로의 간단한 3-비트 시프트(shift)는 상기 합계를 8로 나눈 것과 동등한 하나의 픽셀의 색차 성분을 부여한다. 이러한 웨이트 부여는 로우 패스 필터에 의해 고속 처리를 하는 것을 가능하게 한다.6 illustrates a low pass filter applied to remove noise included in a chrominance component. Fig. 6A shows a low pass filter applied to the color difference component CDv in the vertical direction and to the color difference component CDh in the horizontal direction. For a better understanding, Fig. 6 (b) shows the application of the low pass filter to the color difference component CDh in the horizontal direction. The target pixel, which is the object of low pass filter application, is indicated by the rectangle with hatch in Fig. 6 (b). The low pass filter of this embodiment sums the color difference components of the target pixel and the color difference components of two left pixels and two right pixels on the left and right sides of the target pixel. The color difference component of the target pixel is multiplied by the weight of four pixels, so that the summed color difference component corresponds to eight pixels. In this case, a simple three-bit shift of the sum to a lower bit imparts a color difference component of one pixel equal to the sum divided by eight. This weighting makes it possible to perform high speed processing by the low pass filter.

이전에 설명된 바와 같이, 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)의 각각은 G 성분과 R 성분 간의 색차 성분 또는 G 성분과 B 성분 간의 색차 성분을 나타낼 수 있다. 로우 패스 필터는, 색차 성분의 그 상이한 타입을 고려함 없이, 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)에 적용될 수 있다. 따라서, 본 실시예의 컬러 화상 데이터 생성 처리는 진보된 처리의 극도의 간소함과 높은 속도를 달성한다.As described previously, each of the vertical color difference component CDv and the horizontal color difference component CDh may represent a color difference component between the G component and the R component or a color difference component between the G component and the B component. The low pass filter can be applied to the vertical color difference component CDv and the horizontal color difference component CDh without considering those different types of color difference components. Thus, the color image data generation processing of this embodiment achieves the extreme simplicity and high speed of the advanced processing.

도 3의 플로우차트를 다시 참조하여 보면, 상기한 방식의 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)의 연산 후에, 본 발명의 컬러 화상 데이터 생성 처리는 이들 색차 성분의 데이터로 에지 방향 맵을 생성한다(에지 방향 맵 생성 처리)(단계 S104). 에지 방향 맵은 화상에 포함된 각 에지의 방향을 수직 방향 또는 수평 방향으로 나타낸다. 에지 방향은 모든 픽셀에 대해 필수적으로 설정되지는 않을 수도 있으나, 적어도 비-G 픽셀(즉, R 픽셀과 B 픽셀)에 대해서는 설정되어야 한다. 본 실시예의 컬러 화상 데이터 생성 처리는 후술되는 바와 같이 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)에 근거하여 에지 방향을 검출한다. 이것은 에지 방향의 정밀하고 상대적으로 고속의 검출을 보장한다. 에지 방향 맵 생성 처리의 세부는 후술될 것이다.Referring again to the flowchart of Fig. 3, after calculating the color difference component CDv in the vertical direction and the color difference component CDh in the horizontal direction, the color image data generation process of the present invention performs the data of these color difference components. A low edge direction map is generated (edge direction map generation process) (step S104). The edge direction map indicates the direction of each edge included in the image in the vertical direction or the horizontal direction. The edge direction may not be necessarily set for all pixels, but should be set for at least non-G pixels (ie R pixels and B pixels). The color image data generation processing of this embodiment detects the edge direction based on the color difference component CDv in the vertical direction and the color difference component CDh in the horizontal direction as described later. This ensures accurate and relatively high speed detection in the edge direction. Details of the edge direction map generation process will be described later.

에지 방향 맵의 생성 후에, CPU는 G 픽셀 이외의 각 목표 픽셀(즉, R 픽셀 또는 B 픽셀)의 G 성분의 색조 값을 보간에 의해 판정한다(G 성분 보간 처리)(단계 S106). G 성분 보간 처리는 에지 방향 맵을 참조하여 인근 픽셀의 G 성분의 값과의 보간을 실행하여 비-G 목표 픽셀의 G 성분의 적정한 값을 판정한다. G 성분 보간 처리의 세부는 후술될 것이다.After generation of the edge direction map, the CPU determines the hue value of the G component of each target pixel (i.e., R pixel or B pixel) other than the G pixel by interpolation (G component interpolation processing) (step S106). The G component interpolation process performs interpolation with the value of the G component of the neighboring pixel with reference to the edge direction map to determine an appropriate value of the G component of the non-G target pixel. Details of the G component interpolation processing will be described later.

CPU는 G 픽셀 이외의 비-G 목표 픽셀의 나머지 색 성분의 보간을 동시에 실행한다(비-G 픽셀 보간 처리)(단계 S108). R 픽셀 또는 B 픽셀일 수 있는 비-G 목표 픽셀의 G 성분은 이전 단계(S106)에서 보간에 의해 이미 판정되었다. 따라서, 단계(S108)의 처리는 B 목표 픽셀에 대한 R 성분을 보간하면서, R 목표 픽셀의 B 성분을 보간한다. 따라서, G 픽셀 이외의 픽셀은 획득된 모든 색 성분 R, G, 및 B를 갖는다. 비-G 픽셀 보간 처리(G 픽셀 이외의 비-G 목표 픽셀 각각에 관한 G 성분의 보간 후에 나머지 색 성분의 보간)의 세부는 후술될 것이다.The CPU simultaneously performs interpolation of the remaining color components of the non-G target pixels other than the G pixels (non-G pixel interpolation processing) (step S108). The G component of the non-G target pixel, which may be an R pixel or a B pixel, has already been determined by interpolation in the previous step S106. Thus, the process of step S108 interpolates the B component of the R target pixel while interpolating the R component for the B target pixel. Thus, pixels other than G pixels have all of the color components R, G, and B obtained. Details of the non-G pixel interpolation processing (interpolation of the remaining color components after interpolation of the G component for each non-G target pixel other than the G pixel) will be described later.

G 픽셀 이외의 픽셀의 보간의 완료 시에, CPU는 각 G 목표 픽셀에 관하여 원 화상 데이터의 누락 색 성분(R 성분 및 B 성분)을 보간한다(G 픽셀 보간 처리)(단계 S110). G 픽셀 보간 처리는 또한 에지 방향 맵을 참조하여 보간을 실행해서 G 목표 픽셀의 누락 색 성분의 적정한 값을 판정한다. 이 G 픽셀 보간 처리의 세부는 후술될 것이다.Upon completion of interpolation of pixels other than G pixels, the CPU interpolates the missing color components (R component and B component) of the original image data for each G target pixel (G pixel interpolation processing) (step S110). The G pixel interpolation process also performs interpolation with reference to the edge direction map to determine an appropriate value of the missing color component of the G target pixel. Details of this G pixel interpolation process will be described later.

G 픽셀 이외의 픽셀의 누락 색 성분의 보간(단계 S106 및 S108)과 G 픽셀의 누락 색 성분의 보간(단계 S110)의 완료 시에, 모든 픽셀은 획득된 모든 색 성분 R, G, 및 B를 갖는다. 그 후에, CPU는 획득된 RGB 색 성분을 원 화상 데이터로부터 생성된 컬러 화상 데이터로서 출력하고(단계 S112), 도 3의 컬러 화상 데이터 생성 처리를 종료한다.Upon completion of the interpolation of missing color components of pixels other than G pixels (steps S106 and S108) and the interpolation of missing color components of G pixels (step S110), all pixels acquire all the obtained color components R, G, and B. Have Thereafter, the CPU outputs the obtained RGB color component as color image data generated from the original image data (step S112), and ends the color image data generation process of FIG.

상기한 바와 같이, 본 실시예의 컬러 화상 데이터 생성 처리는 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)에 기반해서 에지 방향을 검출하여 에지 방향 맵을 생성한다. 보다 상세하게는, 에지 방향이 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)의 2가지 상이한 타입(G 성분과 R 성분 간의 색차 성분 및 G 성분과 B 성분 간의 색차 성분)에 따라 검출된다. 이러한 특성은 높은 정밀도를 갖는 에지 방향 맵의 생성을 가능하게 한다. 고도로 정밀한 에지 방향 맵의 적용은 원 화상 데이터에 대한 누락 색 성분의 적정한 보간을 가능하게 한다. 에지 방향 맵 생성 처리와 누락 색 성분의 보간 양쪽은 도리어 간단하며 고속으로 실행될 수 있다. 따라서, 본 실시예의 상기한 일련의 처리는 R, G, 및 B 색 성분의 모자이크 배열을 갖는 원 화상 데이터로부터 적정한 컬러 화상 데이터의 고속 생성을 가능하게 한다. 하기의 설명은 순차적으로 에지 방향 맵 생성 처리, G 성분 보간 처리(G 픽셀 이외의 픽셀의 G 성분의 보간), 비-G 픽셀 보간 처리(G 픽셀 이외의 픽셀의 나머지 색 성분의 보간), 및 G 픽셀 보간 처리(G 픽셀의 누락 색 성분의 보간)의 세부에 관한 것이다.As described above, the color image data generation process of this embodiment generates an edge direction map by detecting the edge direction based on the color difference component CDv in the vertical direction and the color difference component CDh in the horizontal direction. More specifically, the edge direction is divided into two different types (color difference component between G component and R component and color difference component between G component and B component) of vertical color difference component CDv and horizontal color difference component CDh. Is detected accordingly. This property enables the generation of edge direction maps with high precision. Application of highly precise edge direction maps allows for proper interpolation of missing color components to the original image data. Both the edge direction map generation process and the interpolation of missing color components are simple and can be executed at high speed. Therefore, the above series of processes of this embodiment enable the high speed generation of appropriate color image data from the original image data having a mosaic arrangement of R, G, and B color components. The following description sequentially describes edge direction map generation processing, G component interpolation processing (interpolation of G components of pixels other than G pixels), non-G pixel interpolation processing (interpolation of remaining color components of pixels other than G pixels), and It relates to the details of G pixel interpolation processing (interpolation of missing color components of G pixels).

C. 에지 방향 맵 생성 처리C. Edge Direction Map Generation Processing

도 7은 본 실시예의 화상 처리 장치(30)에 의해 도 3의 컬러 화상 데이터 생성 처리의 단계 S104에서 실행되는 에지 방향 맵 생성 처리의 세부를 도시하는 플로우차트이다.FIG. 7 is a flowchart showing details of the edge direction map generation process executed in step S104 of the color image data generation process of FIG. 3 by the image processing apparatus 30 of the present embodiment.

에지 방향 맵 생성 처리는 먼저 에지 방향 검출의 객체로서 하나의 목표 픽셀을 선택하고(단계 S200), 수직 방향의 색차 성분의 변화량(Vv)을 산출한다(단계 S202). 수직 방향의 변화량(Vv)은 당연히 수직 방향의 색차 성분(CDv)으로부터 산출된다.The edge direction map generation process first selects one target pixel as an object of edge direction detection (step S200), and calculates the change amount Vv of the color difference component in the vertical direction (step S202). The amount of change Vv in the vertical direction is naturally calculated from the color difference component CDv in the vertical direction.

도 8은 수직 방향의 색차 성분(CDv)으로부터의 수직 방향의 변화량(Vv)의 산출을 도시한다. 도 8(a)은 계산식을 도시하고 도 8(b)은 도 8(a)의 계산식에 따른 수직 방향의 변화량(Vv)의 산출을 개념적으로 도시한다. 도 8(b)의 해치를 넣은 직사각형은 목표 픽셀의 위치를 나타낸다. 수직 방향의 변화량(Vv)의 연산 처리는 먼저 목표 픽셀의 색차 성분(CDv)과 목표 픽셀 상부의 상부 픽셀 간의 차분의 제곱을 산출한다. 유사하게, 연산 처리는 목표 픽셀의 색차 성분(CDv)과 목표 픽셀 하부의 하부 픽셀 간의 차분의 제곱을 산출한다. 도 8(b)의 해치를 넣은 목표 픽셀과 상부 픽셀의 사이 및 해치를 넣은 목표 픽셀과 하부 픽셀의 사이에 도시된 빈 화살표는, 각 픽셀의 색차 성분(CDv) 간의 차분의 제곱의 연산을 나타낸다.Fig. 8 shows the calculation of the change amount Vv in the vertical direction from the color difference component CDv in the vertical direction. FIG. 8A shows a calculation formula and FIG. 8B conceptually shows the calculation of the change amount Vv in the vertical direction according to the calculation formula of FIG. 8A. The rectangle into which the hatch in Fig. 8B is inserted indicates the position of the target pixel. The calculation processing of the change amount Vv in the vertical direction first calculates the square of the difference between the color difference component CDv of the target pixel and the upper pixel above the target pixel. Similarly, the operation process calculates the square of the difference between the color difference component CDv of the target pixel and the lower pixel below the target pixel. The blank arrows shown between the target pixel and the top pixel with the hatch shown in FIG. 8 (b) and between the target pixel and the bottom pixel with the hatch indicate the calculation of the square of the difference between the chrominance components CDv of each pixel. .

목표 픽셀과 상부 및 하부 픽셀의 색차 성분들(CDv) 간의 각 차분의 제곱의 연산 후에, 연산 처리는 유사하게, 목표 픽셀 좌측의 좌측 픽셀의 색차 성분(CDv)과 상기 좌측 픽셀의 상부 및 하부의 상부 및 하부 픽셀 간의 각 차분의 제곱과 더불어, 목표 픽셀 우측의 우측 픽셀의 색차 성분(CDv)과 상기 우측 픽셀의 상부 및 하부의 상부 및 하부 픽셀 간의 각 차분의 제곱을 산출한다. 도 8(b)은 수직 방향으로 배열된 6쌍의 픽셀로부터 획득된 6개의 제곱을 도시한다. 이들 6개의 제곱의 합계가 목표 픽셀에 관한 수직 방향의 변화량(Vv)으로 지정된다.After the calculation of the square of each difference between the chrominance components CDv of the target pixel and the upper and lower pixels, the operation process is similarly performed by the chrominance components CDv of the left pixel of the target pixel and the upper and lower portions of the left pixel. In addition to the square of each difference between the upper and lower pixels, the square of the color difference component CDv of the right pixel to the right of the target pixel and the difference between the upper and lower pixels of the upper and lower pixels of the right pixel is calculated. Fig. 8B shows six squares obtained from six pairs of pixels arranged in the vertical direction. The sum of these six squares is designated as the change amount Vv in the vertical direction with respect to the target pixel.

도 7의 플로우차트를 다시 참조하여 보면, 수직 방향의 변화량(Vv)의 산출 후에, 에지 방향 맵 생성 처리는 수평 방향의 색차 성분의 변화량(Vh)을 산출한다(단계 S204). 수평 방향의 변화량(Vh)은 연산을 위한 수평 방향의 색차 성분(CDh)의 이용을 제외하고 수직 방향의 변화량(Vv)의 산출과 동일한 방식으로 산출된다.Referring again to the flowchart of Fig. 7, after the calculation of the change amount Vv in the vertical direction, the edge direction map generation process calculates the change amount Vh of the color difference components in the horizontal direction (step S204). The change amount Vh in the horizontal direction is calculated in the same manner as the calculation of the change amount Vv in the vertical direction except for the use of the color difference component CDh in the horizontal direction for calculation.

도 9는 수평 방향의 색차 성분(CDh)으로부터의 수평 방향의 변화량(Vh)의 산출을 도시한다. 도 9(a)는 계산식을 도시하고 도 9(b)는 도 9(a)의 계산식에 따른 수평 방향의 변화량(Vh)의 산출을 개념적으로 도시한다. 도 9(b)의 빈 화살표에 의해 도시된 바와 같이, 연산 처리는 목표 픽셀의 색차 성분(CDh)과 목표 픽셀의 좌측 및 우측의 좌측 및 우측 픽셀 간의 각 차분의 제곱, 목표 픽셀 상부의 상부 픽셀의 색차 성분(CDh)과 상기 상부 픽셀의 좌측 및 우측의 좌측 및 우측 픽셀 간의 각 차분의 제곱, 및 목표 픽셀 하부의 하부 픽셀의 색차 성분(CDh)과 상기 하부 픽셀의 좌측 및 우측의 좌측 및 우측 픽셀 간의 각 차분의 제곱을 연속적으로 산출한다. 이들 6개의 제곱의 합계가 목표 픽셀에 관한 수평 방향의 변화량(Vh)으로 지정된다.9 shows the calculation of the change amount Vh in the horizontal direction from the color difference component CDh in the horizontal direction. FIG. 9A shows a calculation formula and FIG. 9B conceptually shows the calculation of the change amount Vh in the horizontal direction according to the calculation formula of FIG. 9A. As shown by the empty arrows in Fig. 9B, the arithmetic processing is the square of each difference between the color difference component CDh of the target pixel and the left and right pixels of the left and right sides of the target pixel, the upper pixel above the target pixel. Square of each difference between the chrominance component CDh of the pixel and the left and right pixels of the left and right of the upper pixel, and the chrominance component CDh of the lower pixel below the target pixel and the left and right of the left and right of the lower pixel. The square of each difference between pixels is continuously calculated. The sum of these six squares is designated as the change amount Vh in the horizontal direction with respect to the target pixel.

도 7의 플로우차트를 다시 참조하여 보면, 상기한 바와 같이 산출된 수직 방향의 변화량(Vv)와 수평 방향의 변화량(Vh)은 목표 픽셀에 관하여 서로 비교된다(단계 S206). 수평 방향의 변화량(Vh)이 수직 방향의 변화량(Vv)의 이상이면(단계 S206; 예), 에지가 목표 픽셀을 통해 수직 방향을 향하는 것으로 판정된다. 그러면, 에지 방향을 나타내는 값 ‘d’가 ‘1’과 동등하게 설정된다(단계 S208). 반대로, 수직 방향의 변화량(Vv)이 수평 방향의 변화량(Vh)의 이상이면(단계 S206; 아니오), 에지가 목표 픽셀을 통해 수평 방향을 향하는 것으로 판정된다. 그러면, 에지 방향을 나타내는 값 ‘d’가 ‘3’과 동등하게 설정된다(단계 S210). 즉, ‘1’로 설정된 에지 방향 ‘d’의 픽셀은 수직 방향의 에지를 갖는 반면에, ‘3’으로 설정된 에지 방향 ‘d’의 픽셀은 수평 방향의 에지를 갖는다.Referring back to the flowchart of Fig. 7, the variation amount Vv in the vertical direction and the variation amount Vh in the horizontal direction calculated as described above are compared with respect to the target pixel (step S206). If the amount of change Vh in the horizontal direction is equal to or more than the amount of change Vv in the vertical direction (step S206; YES), it is determined that the edge is directed in the vertical direction through the target pixel. Then, the value "d" representing the edge direction is set equal to "1" (step S208). On the contrary, if the amount of change Vv in the vertical direction is equal to or more than the amount of change Vh in the horizontal direction (step S206; NO), it is determined that the edge faces the horizontal direction through the target pixel. Then, the value 'd' representing the edge direction is set equal to '3' (step S210). That is, pixels in the edge direction 'd' set to '1' have edges in the vertical direction, whereas pixels in the edge direction 'd' set to '3' have edges in the horizontal direction.

색차 성분 간의 차분의 제곱은 수직 방향의 변화량(Vv)의 판정 시에(도 8 참조) 그리고 수평 방향의 변화량(Vh)의 판정 시에(도 9 참조) 산출된다. 이러한 산출은 색차 성분 간의 차분의 기호(sign)를 고려하지 않는 에지 방향의 검출을 가능하게 한다. 따라서, 하나의 가능한 변형은 그들의 제곱의 산출 대신에 색차 성분 간의 각 차분의 절대 값을 산출할 수 있다. 인근 픽셀에 관한 절대 값의 합계는 수직 방향의 변화량(Vv) 또는 수평 방향의 변화량(Vh)을 부여한다. 하지만, 제곱은 절대 값과 비교하여 색차 성분 간의 차분을 증강시키고 따라서 에지 방향의 검출 정밀도를 증가시킨다. 본 발명은 절대 또는 제곱 차분에 한정되지 않으며 여타의 차분 또는 유사한 수단이 에지 방향을 판정하는 데에 대신하여 이용될 수 있다는 것을 이해해야 한다.The square of the difference between the color difference components is calculated at the time of the determination of the change amount Vv in the vertical direction (see FIG. 8) and at the time of the determination of the change amount Vh in the horizontal direction (see FIG. 9). This calculation enables detection of the edge direction without taking into account the sign of the difference between the chrominance components. Thus, one possible variant may yield the absolute value of each difference between chrominance components instead of calculating their squares. The sum of the absolute values with respect to the neighboring pixels gives the change amount Vv in the vertical direction or the change amount Vh in the horizontal direction. However, squares enhance the difference between chrominance components compared to absolute values and thus increase the detection accuracy in the edge direction. It is to be understood that the present invention is not limited to absolute or squared differences and that other differences or similar means can be used instead to determine the edge direction.

수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh) 간의 비교를 위해 몇 가지 주의가 요구된다. 따라서, 후술되는 바와 같이 도 7에 도시된 에지 방향 맵 생성 처리의 몇가지 변형이 있다.Some care is required for comparison between the amount of change Vv in the vertical direction and the amount of change Vh in the horizontal direction. Therefore, there are some variations of the edge direction map generation process shown in FIG. 7 as described below.

도 10은 에지 방향의 검출을 위해 선택된 목표 픽셀 주위의 인근 픽셀의 가능한 배열을 도시한다. 선택된 목표 픽셀 주위의 인근 픽셀은 도 10(a) 내지 10(d)에 도시된 4개의 상태 중 하나를 충족시킨다. 도 10(a)의 상태에 있어서는, 목표 픽셀의 목표 픽셀 칼럼과 그 수직 방향의 상부 및 하부 픽셀이 G 성분과 R 성분 간의 2개의 색차 성분(CDGR)의 각각의 제곱을 부여하는 반면에, 목표 픽셀 칼럼의 좌측 및 우측의 수직 방향의 좌측 우측 픽셀 칼럼은 G 성분과 B 성분 간의 4개의 색차 성분(CDGB)의 각각의 제곱을 부여한다. 따라서, 수직 방향의 변화량(Vv)이 2개의 색차 성분(CDGR)의 제곱과 4개의 색차 성분(CDGB)의 제곱의 합계로서 연산된다. 유사하게, 수평 방향의 변화량(Vh)이 2개의 색차 성분(CDGR)의 제곱과 4개의 색차 성분(CDGB)의 제곱의 합계로서 연산된다. 따라서, 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh) 간의 간단한 비교는 목표 픽셀의 에지 방향의 적정한 검출을 가능하게 한다.10 shows a possible arrangement of neighboring pixels around a target pixel selected for detection of the edge direction. The neighboring pixels around the selected target pixel satisfy one of the four states shown in Figs. 10 (a) to 10 (d). In the state of Fig. 10A, the target pixel column of the target pixel and the upper and lower pixels in the vertical direction give each square of the two chrominance components CD GR between the G component and the R component, The left and right pixel columns in the vertical direction to the left and the right of the target pixel column give each square of four chrominance components (CD GB ) between the G and B components. Therefore, the amount of change Vv in the vertical direction is calculated as the sum of the squares of the two color difference components CD GR and the squares of the four color difference components CD GB . Similarly, the amount of change Vh in the horizontal direction is calculated as the sum of the squares of the two color difference components CD GR and the squares of the four color difference components CD GB . Thus, a simple comparison between the change amount Vv in the vertical direction and the change amount Vh in the horizontal direction enables proper detection of the edge direction of the target pixel.

도 10(b)의 상태에 있어서, 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh)의 각각이 2개의 색차 성분(CDGR)의 제곱과 4개의 색차 성분(CDGB)의 제곱의 합계로서 연산된다. 따라서, 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh) 간의 간단한 비교는 목표 픽셀의 에지 방향의 적정한 검출을 가능하게 한다.In the state of FIG. 10 (b), each of the change amount Vv in the vertical direction and the change amount Vh in the horizontal direction is the square of the two color difference components CD GR and the square of the four color difference components CD GB . It is calculated as the sum. Thus, a simple comparison between the change amount Vv in the vertical direction and the change amount Vh in the horizontal direction enables proper detection of the edge direction of the target pixel.

하지만, 이것은 도 10(c)의 상태 또는 도 10(d)의 상태에서는 충족되지 않는다. 예를 들어, 도 10(c)의 상태에 있어서는, 수직 방향의 변화량(Vv)이 2개의 색차 성분(CDGB)의 제곱과 4개의 색차 성분(CDGR)의 제곱의 합계로서 연산된다. 하지만, 수평 방향의 변화량(Vh)은 2개의 색차 성분(CDGR)의 제곱과 4개의 색차 성분(CDGB)의 제곱의 합계로서 연산된다. 즉, 수직 방향의 변화량(Vv)은 수평 방향의 변화량(Vh)과는 간단히 비교될 수 없다. 도 10(d)의 상태에 있어서도 수직 방향의 변화량(Vv)이 수평 방향의 변화량(Vh)과는 간단히 비교될 수 없다.However, this is not satisfied in the state of Fig. 10 (c) or the state of Fig. 10 (d). For example, in the state of FIG. 10C, the change amount Vv in the vertical direction is calculated as the sum of the squares of the two color difference components CD GB and the squares of the four color difference components CD GR . However, the horizontal change amount Vh is calculated as the sum of the squares of the two color difference components CD GR and the squares of the four color difference components CD GB . That is, the change amount Vv in the vertical direction cannot be simply compared with the change amount Vh in the horizontal direction. Even in the state of Fig. 10 (d), the amount of change Vv in the vertical direction cannot be easily compared with the amount of change Vh in the horizontal direction.

이러한 문제에 대비하는 하나의 가능한 수단은 도 10(a)의 상태 또는 도 10(b)의 상태를 충족시키는 픽셀에 대해서만 에지 방향을 검출하는 것이다. 이러한 수단에 있어서는, 도 7의 에지 방향 맵 생성 처리가, 단계 S200에서, G 픽셀 이외의 픽셀 즉, R 픽셀과 B 픽셀 중에서만 목표 픽셀을 선택한다. 도 2에 관해 이전에 설명된 바와 같이, G 픽셀은 베이어 컬러 필터 어레이의 면적의 절반을 점유한다. R 픽셀과 B 픽셀에 대해서만 에지 방향을 검출하는 것은 처리될 픽셀 개수를 반분하여 에지 방향 맵의 고속 생성을 보장한다. 이 경우에 있어서는, 에지 방향이 G 픽셀에서는 알려져 있지 않다. 하지만, 적정한 보간 절차의 적용이 결과적인 사진 품질 상에서의 G 픽셀의 알려지지 않은 에지 방향의 역효과를 방지한다. One possible means to prepare for this problem is to detect the edge direction only for pixels that meet the state of FIG. 10 (a) or the state of FIG. 10 (b). In this means, the edge direction map generation process of FIG. 7 selects the target pixel only among pixels other than G pixels, that is, R pixels and B pixels, in step S200. As previously described with respect to FIG. 2, the G pixels occupy half of the area of the Bayer color filter array. Detecting the edge direction only for R and B pixels halves the number of pixels to be processed to ensure fast generation of the edge direction map. In this case, the edge direction is not known for G pixels. However, application of an appropriate interpolation procedure prevents adverse effects of unknown edge direction of G pixels on the resulting picture quality.

에지 방향이 G 픽셀에 대해서 검출될 수 없으나, 하기의 절차에 따라서는 검출될 수 있다. 도 11의 절차는 다른 픽셀 칼럼 또는 픽셀 로우에 적용되는 웨이트와 비교하여, 목표 픽셀을 포함하는 목표 픽셀 칼럼 또는 목표 픽셀 로우에 2배의 웨이트를 적용한다. 도 11(a)은 수직 방향의 변화량(Vv)의 판정을 위해 이용되는 계산식을 도시하고, 도 11(b)은 수평 방향의 변화량(Vh)의 판정을 위해 이용되는 계산식을 도시한다. 계산식에 따르면, 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh)은 모든 픽셀, 즉, G 픽셀, R 픽셀, 및 B 픽셀에 관하여 연산될 수 있다. 그 다음에, 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh) 간의 비교에 의해 이들 모든 픽셀에 대해 에지 방향이 판정될 수 있다. 도 11의 계산식에 있어서는, 목표 픽셀 없는 픽셀 칼럼 또는 픽셀 로우에 대해 웨이트가 교번적으로 반분될 수 있다.The edge direction cannot be detected for G pixels, but can be detected according to the following procedure. The procedure of FIG. 11 applies twice the weight to the target pixel column or target pixel row containing the target pixel, compared to the weight applied to another pixel column or pixel row. Fig. 11A shows a calculation equation used for the determination of the change amount Vv in the vertical direction, and Fig. 11B shows the calculation equation used for the determination of the change amount Vh in the horizontal direction. According to the calculation formula, the change amount Vv in the vertical direction and the change amount Vh in the horizontal direction can be calculated with respect to all the pixels, that is, the G pixel, the R pixel, and the B pixel. Then, the edge direction can be determined for all these pixels by comparison between the change amount Vv in the vertical direction and the change amount Vh in the horizontal direction. In the equation of FIG. 11, the weight may be divided in half for a pixel column or pixel row without a target pixel.

다른 연산 방법은 2개의 픽셀 칼럼의 변화량과 2개의 픽셀 로우의 변화량 즉, 목표 픽셀을 포함하는 목표 픽셀 칼럼과 목표 픽셀 칼럼에 인접한 하나의 인근 픽셀 칼럼을 및 목표 픽셀을 포함하는 목표 픽셀 로우와 목표 픽셀 로우에 인접한 하나의 인근 픽셀 로우에 기반하여 목표 픽셀 각각의 에지 방향을 검출할 수 있다. 도 12(a)는 수직 방향의 목표 픽셀을 포함하는 목표 픽셀 칼럼과 목표 픽셀 칼럼의 우측의 수직 방향의 우측 픽셀 칼럼에 관한 수직 방향의 변화량(Vv)을 산출하기 위해 이용되는 계산식을 도시한다. 도 12(b)는 도 12(a)의 계산식에 따른 수직 방향의 변화량(Vv)의 산출을 개념적으로 도시한다. 도 4를 참조하여 이전에 설명된 바와 같이, 교번적으로 배열된 G 픽셀과 R 픽셀의 픽셀 칼럼과 교번적으로 배열된 G 픽셀과 B 픽셀의 픽셀 칼럼은 베이어 컬러 필터 어레이에 기반하는 원 화상 데이터의 수직 방향에서 교번적으로 나타난다. 따라서, 수직 방향의 변화량(Vv)은 2개의 색차 성분(CDGB)의 제곱과 2개의 색차 성분(CDGR)의 제곱의 합계로서 부여된다.Another method of calculation is the amount of change of two pixel columns and the amount of change of two pixel rows, that is, a target pixel column containing a target pixel and one neighboring pixel column adjacent to the target pixel column, and a target pixel row and a target including the target pixel. An edge direction of each target pixel may be detected based on one neighboring pixel row adjacent to the pixel row. FIG. 12A shows a calculation formula used to calculate a change amount Vv in the vertical direction with respect to the target pixel column including the target pixel in the vertical direction and the right pixel column in the vertical direction on the right side of the target pixel column. FIG. 12B conceptually shows the calculation of the change amount Vv in the vertical direction according to the calculation formula of FIG. 12A. As previously described with reference to FIG. 4, the alternately arranged pixel columns of the G and R pixels and the alternately arranged pixel columns of the G and B pixels are based on the Bayer color filter array. Alternately in the vertical direction. Therefore, the change amount Vv in the vertical direction is given as the sum of the squares of the two color difference components CD GB and the square of the two color difference components CD GR .

수평 방향의 변화량(Vh)이 2개의 픽셀 로우에 관하여 유사하게 산출된다. 도 12(c)는 수평 방향의 변화량(Vh)을 산출하기 위해 이용되는 계산식을 도시하고, 도 12(d)는 도 12(c)의 계산식에 따른 수평 방향의 변화량(Vh)의 산출을 개념적으로 도시한다. 도 4에 관하여 이전에 설명된 바와 같이, 교번적으로 배열된 G 픽셀과 R 픽셀의 픽셀 로우와 교번적으로 배열된 G 픽셀과 B 픽셀의 픽셀 로우는 베이어 컬러 필터 어레이에 기반하는 원 화상 데이터의 수평 방향에서 교번적으로 나타난다. 따라서, 도 12(a)의 계산식에 따른 수직 방향의 변화량(Vv)과 같이, 도 12(c)의 계산식에 따른 수평 방향의 변화량(Vh)이 2개의 색차 성분(CDGB)의 제곱과 2개의 색차 성분(CDGR)의 제곱의 합계로서 부여된다. 따라서, 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh) 간의 비교에 의해 에지 방향이 검출될 수 있다.The amount of change Vh in the horizontal direction is similarly calculated for two pixel rows. 12 (c) shows a calculation formula used to calculate the change amount Vh in the horizontal direction, and FIG. 12 (d) conceptualizes the calculation of the change amount Vh in the horizontal direction according to the calculation formula in FIG. 12 (c). As shown. As previously described with respect to Fig. 4, the alternatingly arranged pixel rows of G and R pixels and the alternatingly arranged pixel rows of G and B pixels are obtained from the original image data based on the Bayer color filter array. It appears alternately in the horizontal direction. Therefore, as in the vertical change amount Vv according to the calculation formula of FIG. 12A, the horizontal change amount Vh according to the calculation formula of FIG. 12C is equal to the square of the two color difference components CD GB . It is given as the sum of the squares of the two color difference components (CD GR ). Therefore, the edge direction can be detected by comparison between the change amount Vv in the vertical direction and the change amount Vh in the horizontal direction.

도 7의 플로우차트를 다시 참조하여 보면, 상기한 바와 같이, 본 실시예의 에지 방향 맵 생성 처리가 수직 방향의 색차 성분의 변화량(Vv)과 수평 방향의 색차 성분의 변화량(Vh)을 산출하고(단계 S202 및 S204), 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh) 간의 비교에 기반하여 목표 픽셀의 에지 방향을 검출한다(단계 S206 내지 S210). 도 8 및 9에 도시된 방법에 따른 변화량(Vv 및 Vh)의 연산의 경우에 있어서는, 에지 방향 검출의 객체로서의 목표 픽셀이 G 픽셀 이외의 픽셀 즉, R 픽셀과 B 픽셀 중에서만 선택될 수 있다(단계 S200). 한편, 도 11 및 12에 도시된 방법 중 하나에 따른 변화량(Vv 및 Vh)의 연산의 경우에 있어서는, 목표 픽셀이 모든 픽셀 중에서 선택될 수 있다(단계 S200). 하지만, 이것은 한정적이지 않다. 도 11 및 12에 도시된 방법 중 하나에 따른 변화량(Vv 및 Vh)의 연산의 경우에 있어서일지라도, 목표 픽셀이 G 픽셀 이외의 픽셀 즉, R 픽셀과 B 픽셀 중에서만 선택될 수도 있다. 단계 S200에서 선택된 목표 픽셀의 에지 방향의 검출 후에, CPU는 모든 픽셀에 관해서 에지 방향이 검출되었는지의 여부를 판정한다(단계 S212). 어느 처리되지 않은 픽셀이 있는 경우에(단계 S212: 아니오), 에지 방향 맵 생성 처리는 단계 S200로 되돌아가서 처리되지 않은 픽셀 중 다른 목표 픽셀을 선택하고 일련의 후속 처리를 실행한다. 모든 픽셀에 관하여 에지 방향의 검출의 완료 시에(단계 S212: 예), 도 7의 에지 방향 맵 생성 처리가 종료된다.Referring again to the flowchart of Fig. 7, as described above, the edge direction map generation process of this embodiment calculates the change amount Vv of the color difference components in the vertical direction and the change amount Vh of the color difference components in the horizontal direction ( Steps S202 and S204, the edge direction of the target pixel is detected based on the comparison between the change amount Vv in the vertical direction and the change amount Vh in the horizontal direction (steps S206 to S210). In the case of the calculation of the variation amounts Vv and Vh according to the methods shown in Figs. 8 and 9, the target pixel as the object of edge direction detection can be selected only from pixels other than G pixels, that is, R pixels and B pixels. (Step S200). On the other hand, in the case of the calculation of the variation amounts Vv and Vh according to one of the methods shown in Figs. 11 and 12, the target pixel can be selected from all the pixels (step S200). However, this is not limiting. Even in the case of the calculation of the variation amounts Vv and Vh according to one of the methods shown in FIGS. 11 and 12, the target pixel may be selected only from pixels other than G pixels, that is, R pixels and B pixels. After detection of the edge direction of the target pixel selected in step S200, the CPU determines whether the edge direction has been detected for all the pixels (step S212). If there are any unprocessed pixels (step S212: NO), the edge direction map generation process returns to step S200 to select another target pixel among the unprocessed pixels and execute a series of subsequent processes. Upon completion of detection of the edge direction with respect to all the pixels (step S212: YES), the edge direction map generation process in Fig. 7 is finished.

본 실시예의 에지 방향 맵 생성 처리는 극도로 높은 정밀도로 원 화상 데이터에 포함된 에지 방향의 검출을 가능하게 한다. 원 화상 데이터를 구성하는 각 픽셀의 누락 색 성분의 보간은 이러한 고도로 정밀한 에지 방향 맵을 참조하여 실행된다. 이것은 의사 컬러의 발생 없는 적정한 보간을 보장한다. 본 실시예의 에지 방향 맵 생성 처리에 따른 고도로 정밀한 에지 방향 맵의 생성에 대한 이유가 후술된다.The edge direction map generation process of this embodiment enables detection of the edge direction included in the original image data with extremely high precision. Interpolation of missing color components of each pixel constituting the original image data is performed with reference to this highly precise edge direction map. This ensures proper interpolation without generating pseudo color. The reason for the generation of the highly precise edge direction map according to the edge direction map generation process of this embodiment is described below.

도 2 및 4에 도시된 바와 같이, 베이어 컬러 필터 어레이에 기반한 원 화상 데이터는 별개의 픽셀 위치에서만 여느 색 성분 R, G, 및 B의 데이터를 갖는다. G 성분은 2 픽셀 당 1개(G 픽셀) 비율의 데이터를 갖고, R 성분과 B 성분은 4 픽셀 당 1개(R 픽셀과 B 픽셀) 비율의 데이터를 갖는다. 이러한 데이터의 별개의 출현으로 인해, 색 성분 R, G, 및 B의 각각에 관한 색조 값의 변화량으로부터 높은 정밀도로 에지를 검출하는 것이 어렵다.As shown in Figs. 2 and 4, the original image data based on the Bayer color filter array has data of certain color components R, G, and B only at separate pixel positions. The G component has data of one ratio (G pixels) per two pixels, and the R component and B components have data of one ratio (R pixels and B pixels) per four pixels. Due to the distinct appearance of this data, it is difficult to detect the edge with high precision from the amount of change in the hue value for each of the color components R, G, and B.

따라서, 색차 성분이 R, G, 및 B 색 성분 대신에 이용된다. G 성분과 R 성분의 교번 배열을 갖는 픽셀 칼럼 또는 픽셀 로우의 각각에 관해서는, 로우 화상 데이터가 G 성분과 R 성분 간의 색차 성분의 데이터로 변환된다. G 성분과 B 성분의 교번 배열을 갖는 픽셀 칼럼 또는 픽셀 로우의 각각에 관해서는, 로우 화상 데이터가 G 성분과 B 성분 간의 색차 성분의 데이터로 변환된다. 도 4의 하부는 로우 화상 데이터의 수직 방향의 색차 성분(CDv) 및 수평 방향의 색차 성분(CDh)로의 변환을 도시한다. G 성분과 B 성분 간의 색차 성분을 갖는 픽셀 칼럼과 픽셀 로우가 도 4에서 해치를 넣은 직사각형으로 도시되었다.Thus, color difference components are used in place of the R, G, and B color components. For each pixel column or pixel row having an alternating arrangement of the G and R components, the row image data is converted into data of the color difference component between the G and R components. Regarding each of the pixel columns or pixel rows having an alternating arrangement of the G and B components, the row image data is converted into data of the color difference component between the G and B components. The lower part of Fig. 4 shows the conversion of the row image data into the vertical color difference component CDv and the horizontal color difference component CDh. Pixel columns and pixel rows having color difference components between the G and B components are shown as rectangles hatched in FIG. 4.

색차 성분의 변화량은 인근의 픽셀 칼럼들 또는 인근의 픽셀 로우들 사이에서 비교될 수 있다. 예를 들어, 밝기의 급변을 갖는 화상 영역에서는, G 성분과 R 성분 간의 색차 성분 및 G 성분과 B 성분 간의 색차 성분 양쪽의 상당한 변화량이 있다. 유사하게, 색의 급변을 갖는 화상 영역에서는, G 성분과 R 성분 간의 색차 성분 및/또는 G 성분과 B 성분 간의 색차 성분의 어느 한 쪽 또는 양쪽의 상당한 변화량이 또한 있다. 따라서, 상이한 타입을 갖는 색차 성분의 변화량까지도 비교될 수 있다. 그 다음에, 에지가 인근 픽셀 칼럼 또는 인근 픽셀 로우의 색차 성분에 따라 검출될 수 있다. 인근 픽셀 칼럼 또는 인근 픽셀 로우의 색차 성분에 따른 이 에지 검출 기술은 작은 크기의 에지까지도 정밀한 검출을 가능하게 한다.The amount of change in the chrominance component can be compared between neighboring pixel columns or neighboring pixel rows. For example, in an image region having a sudden change in brightness, there is a considerable amount of change in both the color difference component between the G component and the R component and the color difference component between the G component and the B component. Similarly, in an image region having a sudden change in color, there is also a considerable amount of change in either or both of the color difference component between the G component and the R component and / or the color difference component between the G component and the B component. Therefore, even the amount of change in the color difference component having different types can be compared. The edge can then be detected according to the chrominance component of the neighboring pixel column or the neighboring pixel row. This edge detection technique, based on the chrominance components of neighboring pixel columns or neighboring pixel rows, enables precise detection of even small edges.

본 실시예의 에지 방향 맵 생성 처리는 상기의 고려에 기반하여 높은 정밀도로 에지 방향을 검출하고 따라서 고도로 정밀한 에지 방향 맵을 부여한다. 그 구체적인 절차는 베이어 컬러 필터 어레이에 기반한 원 화상 데이터를 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)으로 변환한다. 도 4의 하부에 도시된 바와 같이, 색차 성분의 획득된 데이터는 G 성분과 R 성분 간의 색차 성분(CDGR)의 픽셀 칼럼 또는 픽셀 로우, 및 G 성분과 B 성분 간의 색차 성분(CDGB)의 픽셀 칼럼 또는 픽셀 로우의 교번 배열을 갖는다. 그 다음, 색차 성분의 변화량이 도 8 및 9의 계산식에 따라서 또는 도 11 및 12의 계산식 중 하나에 따라서 산출된다. 산출된 변화량은 상이한 타입을 갖는 인근 픽셀 칼럼 또는 인근 픽셀 로우의 색차 성분으로부터 획득된다. 상이한 타입을 갖는 색차 성분에서까지 산출된 변화량은 상기한 바와 같이 에지 검출을 위해 비교될 수 있다. 인근 픽셀 칼럼 또는 인근 픽셀 로우의 색차 성분에 따른 이러한 에지 검출은 작은 크기의 에지까지도 고도로 정밀한 검출을 보장한다. 따라서, 각 픽셀의 에지 방향의 정밀한 검출은 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh) 간의 비교에 의해 가능하게 된다.The edge direction map generation process of this embodiment detects the edge direction with high precision based on the above consideration and thus gives a highly precise edge direction map. The specific procedure converts the original image data based on the Bayer color filter array into a vertical color difference component CDv and a horizontal color difference component CDh. As shown in the lower part of FIG. 4, the obtained data of the color difference component is obtained by the pixel column or pixel row of the color difference component (CD GR ) between the G component and the R component, and the color difference component (CD GB ) between the G component and the B component. It has an alternating array of pixel columns or pixel rows. Then, the change amount of the color difference component is calculated according to the formulas of FIGS. 8 and 9 or according to one of the formulas of FIGS. 11 and 12. The calculated amount of change is obtained from color difference components of neighboring pixel columns or neighboring pixel rows having different types. The amount of variation calculated up to the chrominance component having different types can be compared for edge detection as described above. This edge detection, based on the chrominance component of the neighboring pixel column or the neighboring pixel row, ensures highly precise detection even of small edges. Therefore, accurate detection of the edge direction of each pixel is made possible by the comparison between the change amount Vv in the vertical direction and the change amount Vh in the horizontal direction.

이러한 설명으로부터 명확히 이해되는 바와 같이, 본 실시예의 에지 방향 맵 생성 처리에 있어서는, 인근 픽셀 칼럼 또는 인근 픽셀 로우의 색차 성분에 기반하여 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh)을 연산하는 것이 중요하다. 환언하면, 수직 방향의 변화량(Vv)과 수평 방향의 변화량(Vh)의 연산을 위해 이용되는 계산식이 무엇인가는 그렇게 중요하지가 않다는 것이다. 따라서, 도 8 및 9의 계산식 또는 도 11 및 12의 계산식을 대신하여 다양한 계산식이 적용될 수 있다.As is clearly understood from this description, in the edge direction map generation process of this embodiment, the amount of change Vv in the vertical direction and the amount of change Vh in the horizontal direction are calculated based on the color difference component of the adjacent pixel column or the adjacent pixel row. It is important to do. In other words, it is not so important what formula is used for the calculation of the change amount Vv in the vertical direction and the change amount Vh in the horizontal direction. Accordingly, various calculations may be applied instead of the calculations of FIGS. 8 and 9 or the calculations of FIGS. 11 and 12.

하나의 변형된 절차는 도 13에 도시된 바와 같이 각 픽셀 칼럼 또는 각 픽셀 로우의 2개의 픽셀마다의 색차 성분들 간의 각 차분의 제곱을 산출하고 상기 제곱을 합산하여 색차 성분의 변화량을 판정할 수 있다. 도 13이 수평 방향의 변화량(Vh)의 산출만을 도시하지만. 수직 방향의 변화량(Vv)이 유사한 방식으로 연산될 수 있다. 다른 변형된 절차는 도 14에 도시된 바와 같이 인근 픽셀과 더불어 각 픽셀 칼럼 또는 각 픽셀 로우의 2개의 픽셀 마다의 색차 성분들 간의 각 차분의 제곱을 산출하고, 상기 제곱을 합산하여 색차 성분의 변화량을 판정할 수 있다.One modified procedure is to calculate the square of each difference between the color difference components of each pixel column or each pixel row of each pixel row as shown in FIG. 13 and sum the squares to determine the amount of change in the color difference component. have. Although FIG. 13 only shows calculation of the change amount Vh of a horizontal direction. The amount of change Vv in the vertical direction can be calculated in a similar manner. Another modified procedure calculates the square of each difference between the color difference components of each pixel column or each pixel row of each pixel row as well as neighboring pixels, as shown in FIG. Can be determined.

또 다른 변형은 더 멀리 있는 픽셀의 색차 성분 간의 차분을 고려하는 것에 의해 색차 성분의 변화량을 판정할 수 있다. 예를 들어, 도 15의 변형된 절차는 각 픽셀 칼럼 또는 각 픽셀 로우의 4개의 픽셀 마다의 색차 성분들 간의 차분과 더불어 각 픽셀 칼럼 또는 각 픽셀 로우의 2개의 픽셀 마다의 색차 성분 간의 차분을 고려하는 것에 의해 색차 성분의 변화량을 판정한다. 도 14 및 15가 수평 방향의 변화량(Vh)의 산출만을 도시하지만, 수직 방향의 변화량(Vv)이 유사한 방식으로 연산될 수 있다.Another variation can determine the amount of change in the chrominance component by considering the difference between the chrominance components of the further distant pixels. For example, the modified procedure of FIG. 15 takes into account the difference between the color difference components of each pixel column or each pixel row of four pixels, as well as the difference between the color difference components of each pixel column or each pixel row of two pixels. The amount of change in the color difference component is determined. 14 and 15 only show the calculation of the change amount Vh in the horizontal direction, the change amount Vv in the vertical direction can be calculated in a similar manner.

D. G 성분 보간 처리D. G component interpolation

도 3의 플로우차트를 참조하여 앞서 설명된 바와 같이, 본 실시예의 컬러 화상 데이터 생성 처리는, 에지 방향 맵의 생성 후에(단계 S104), G 성분 보간 처리를 개시하여 G 픽셀 이외의 픽셀(즉, R 픽셀과 B 픽셀)의 G 성분을 보간한다.(단계 S106).As described above with reference to the flowchart of Fig. 3, the color image data generation processing of this embodiment starts the G component interpolation processing after generation of the edge direction map (step S104), so that pixels other than G pixels (i.e., The G component of the R pixel and the B pixel is interpolated (step S106).

도 16은 R 픽셀과 B 픽셀의 G 성분을 보간하는 G 성분 보간 처리의 세부를 도시하는 플로우차트이다. G 성분 보간 처리는 먼저 생성된 에지 방향 맵을 참조하여 보간의 객체인 각 보간 목표 픽셀의 에지 방향 ‘d’를 지정한다(단계 S300). 상기한 바와 같이, 에지 방향 맵은 모든 픽셀에 대해 검출된 에지 방향 ‘d’ 또는 비-G 픽셀(즉, R 픽셀과 B 픽셀)에 대해서만 검출된 에지 방향 ‘d’를 가질 수 있다. 비-G 픽셀의 G 성분의 보간에 있어서, 에지 방향 ‘d’는 항상 에지 방향 맵을 참조하는 것에 의해 지정된다.FIG. 16 is a flowchart showing the details of the G component interpolation process of interpolating G components of R pixels and B pixels. The G component interpolation process first specifies an edge direction 'd' of each interpolation target pixel, which is an object of interpolation, with reference to the generated edge direction map (step S300). As noted above, the edge direction map may have edge direction 'd' detected for all pixels or edge direction 'd' detected only for non-G pixels (ie, R and B pixels). For interpolation of the G component of a non-G pixel, the edge direction 'd' is always specified by referring to the edge direction map.

그 후에 G 성분 보간 처리는 지정된 에지 방향 ‘d’가 ‘1’과 동등한지의 여부를 판정한다(단계 S302). 지정된 에지 방향 ‘d’가 ‘1’과 동등하면(단계 S302: 예), 보간 목표 픽셀의 색차 성분이 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 픽셀의 색차 성분과 보간된다(단계 S304). 한편, 지정된 에지 방향 ‘d’가 ‘3’과 동등하면(단계 S302: 아니오), 보간 목표 픽셀의 색차 성분이 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 픽셀의 색차 성분과 보간된다(단계 S306). 그 다음에, G 성분 보간 처리는 보간 목표 픽셀의 원 화상 데이터를 획득하고(단계 S308), 보간 목표 픽셀의 보간된 색차 성분에 원 화상 데이터를 더하여 보간 목표 픽셀의 G 성분을 연산한다(단계 S310). 이러한 일련의 처리는 더욱 상세하게 기술된다.Thereafter, the G component interpolation process determines whether the specified edge direction 'd' is equal to '1' (step S302). If the specified edge direction 'd' is equal to '1' (step S302: YES), the chrominance components of the interpolation target pixel are interpolated with the chrominance components of the upper and lower pixels above and below the interpolation target pixel (step S304). On the other hand, if the specified edge direction 'd' is equivalent to '3' (step S302: NO), the color difference components of the interpolation target pixel are interpolated with the color difference components of the left and right pixels of the left and right sides of the interpolation target pixel (step S306). ). Then, the G component interpolation processing obtains original image data of the interpolation target pixel (step S308), and calculates the G component of the interpolation target pixel by adding the original image data to the interpolated chrominance component of the interpolation target pixel (step S310). ). This series of processes is described in more detail.

도 17은 비-G 픽셀의 누락 G 성분을 연산하는 처리 흐름을 도시한다. 보간 목표 픽셀은 비-G 픽셀, 즉, R 픽셀 또는 B 픽셀이다. 보간 목표 픽셀이 R 픽셀인 경우에, 인근 픽셀은 도 17(a)에 도시된 바와 같이 배열된다. 한편, 보간 목표 픽셀이 B 픽셀인 경우에, 인근 픽셀은 도 17(b)에 도시된 바와 같이 배열된다. 여기서는, G 성분의 보간 객체인 보간 목표 픽셀이 R 픽셀이고 지정된 에지 방향 ‘d’가 ‘1’과 동등한 것으로 가정한다.17 shows a processing flow for computing missing G components of non-G pixels. The interpolation target pixel is a non-G pixel, that is, an R pixel or a B pixel. When the interpolation target pixel is an R pixel, neighboring pixels are arranged as shown in Fig. 17A. On the other hand, when the interpolation target pixel is a B pixel, neighboring pixels are arranged as shown in Fig. 17B. Here, it is assumed that the interpolation target pixel, which is the interpolation object of the G component, is an R pixel and the specified edge direction 'd' is equivalent to '1'.

에지 방향‘d’가 ‘1’과 동등할 때, 수평 방향의 색차 성분의 변화량(Vh)은 수직 방향의 색차 성분의 변화량(Vv)의 이상이다. 일반적으로, 더 적은 변화량의 상태(안정된 상태에 더 가까움)에서의 보간은 더 큰 변화량의 상태에서의 보간보다 더 나은 보간 결과를 갖는 것으로 예기된다. 따라서, 더 적은 변화량을 갖는 수직 방향의 색차 성분이 G 성분의 연산을 위해 사용된다. 도 17(a)로부터 명확히 이해되는 바와 같이, R 보간 목표 픽셀에 있어서는, 수직 방향의 색차 성분과 수평 방향의 색차 성분의 양쪽이 G 성분에서 R 성분을 감산하는 것에 의해 획득된다. 즉, 보간 목표 픽셀의 G 성분은 수직 방향의 색차 성분 또는 수평 방향의 색차 성분으로부터 연산될 수 있다. 향상된 보간 정밀도를 위해서, 보간 목표 픽셀의 G 성분이, 보간 목표 픽셀의 대응 에지 방향 지시자(indicator) ‘d’의 값 ‘1’에 의해 이미 지시된 바와 같이, 더 적은 변화량을 갖는 수직 방향의 색차 성분으로부터 연산된다. When the edge direction 'd' is equal to '1', the change amount Vh of the color difference component in the horizontal direction is more than the change amount Vv of the color difference component in the vertical direction. In general, interpolation at a smaller amount of change (closer to a stable state) is expected to have better interpolation results than interpolation at a larger amount of change. Therefore, a vertical color difference component having a smaller amount of change is used for the calculation of the G component. As clearly understood from Fig. 17A, in the R interpolation target pixel, both of the vertical color difference component and the horizontal color difference component are obtained by subtracting the R component from the G component. That is, the G component of the interpolation target pixel may be calculated from the color difference component in the vertical direction or the color difference component in the horizontal direction. For improved interpolation precision, the G component of the interpolation target pixel has a smaller amount of change in the vertical direction, as already indicated by the value '1' of the corresponding edge direction indicator 'd' of the interpolation target pixel. It is calculated from the components.

수직 방향의 색차 성분은 G 성분에서 R 성분을 감산한 것이고, 보간 목표 픽셀에서 획득된 원 화상 데이터는 R 성분이다. 따라서, 색차 성분에의 원 화상 데이터의 추가는 보간 목표 픽셀의 G 성분을 즉각적으로 판정한다. G 성분의 연산을 위해 이용되는 색차 성분은 도 5의 계산식에 따라 산출된 보간 목표 픽셀의 색차 성분일 수 있다. 바람직하게는, G 성분의 연산을 위해 이용되는 색차 성분은 도 6에 도시된 로우 패스 필터로 노이즈를 제거한 후의 색차 성분일 수 있다.The color difference component in the vertical direction is obtained by subtracting the R component from the G component, and the original image data obtained from the interpolation target pixel is the R component. Therefore, addition of the original image data to the chrominance component immediately determines the G component of the interpolation target pixel. The color difference component used for calculating the G component may be a color difference component of an interpolation target pixel calculated according to the calculation equation of FIG. 5. Preferably, the color difference component used for calculating the G component may be a color difference component after noise is removed by the low pass filter shown in FIG. 6.

보간 목표 픽셀의 색차 성분은, 직접적으로 읽어 들여지는 대신, 인근 픽셀의 색차 성분으로부터 산출될 수 있다. 변형된 절차는 수직 방향의 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 픽셀의 색차 성분을 읽어 들이고 판독된 색차 성분으로부터 보간 목표 픽셀의 색차 성분을 산출할 수 있다. 도 16의 G 성분 보간 처리는 단계 S304 또는 단계 S306에서 인근 픽셀의 색차 성분으로부터 보간 목표 픽셀의 색차 성분을 산출한다. 다른 변형된 절차는 판독된 색차 성분으로부터 보간 목표 픽셀의 색차 성분을 산출하기 위해 보간 목표 픽셀의 더 큰 이웃 픽셀의 색차 성분을 읽어 들일 수 있다.The chrominance component of the interpolation target pixel may be calculated from the chrominance component of neighboring pixels instead of being read directly. The modified procedure may read out the color difference components of the upper and lower pixels above and below the interpolation target pixel in the vertical direction and calculate the color difference components of the interpolation target pixel from the read color difference components. The G component interpolation processing of Fig. 16 calculates the color difference component of the interpolation target pixel from the color difference component of the neighboring pixel in step S304 or step S306. Another modified procedure may read the color difference component of the larger neighbor pixel of the interpolation target pixel to calculate the color difference component of the interpolation target pixel from the read color difference component.

상기한 바와 같은 모든 보간 목표 픽셀의 G 성분의 연산 후에, CPU는 도 16의 G 성분 보간 처리를 종료하고 도 3의 컬러 화상 데이터 생성 처리로 되돌아간다. 다음에, 컬러 화상 데이터 생성 처리는 비-G 픽셀 보간 처리를 개시하여 G 픽셀 이외의 픽셀의 나머지 색 성분을 보간한다(단계 S108).After the calculation of the G component of all the interpolation target pixels as described above, the CPU ends the G component interpolation processing in FIG. 16 and returns to the color image data generation processing in FIG. Next, the color image data generation processing starts non-G pixel interpolation processing to interpolate the remaining color components of pixels other than the G pixels (step S108).

E. 비-G 픽셀 보간 처리E. Non-G Pixel Interpolation Processing

도 18은 비-G 픽셀 보간 처리의 세부를 도시한 플로우차트이다. 이전에 설명된 바와 같이, 비-G 픽셀의 G 성분의 보간 후에, 비-G 픽셀 보간 처리는 각 비-G 픽셀의 나머지 색 성분, 즉, R 픽셀의 B 성분 또는 B 픽셀의 R 성분을 보간한다. 비-G 픽셀 보간 처리의 기본 개념이 처리 세부에 앞서 간략히 기술된다.18 is a flowchart showing details of non-G pixel interpolation processing. As previously described, after interpolation of the G component of a non-G pixel, the non-G pixel interpolation process interpolates the remaining color components of each non-G pixel, that is, the B component of the R pixel or the R component of the B pixel. do. The basic concept of non-G pixel interpolation processing is briefly described before processing details.

비-G 픽셀 보간 처리는, B 픽셀의 R 성분을 보간하면서, R 픽셀의 B 성분을 보간한다. 보간 목표 픽셀이 R 픽셀인 경우에, 보간 목표 픽셀에 인접하여 대각선으로 배열된 4개의 픽셀은 도 17(a)에 도시된 바와 같이 모두 B 픽셀이다. B 성분은 이들 4개의 인근 픽셀의 원 화상 데이터로서 획득된다. 한편, 보간 목표 픽셀이 B 픽셀인 경우에, 보간 목표 픽셀에 인접하여 대각선으로 배열된 4개의 픽셀은 도 17(b)에 도시된 바와 같이 모두 R 픽셀이다. R 성분은 이들 4개의 인근 픽셀의 원 화상 데이터로서 획득된다. 가장 단순한 절차는 보간 목표 픽셀에 인접하여 대각선으로 배열된 4개의 픽셀의 원 화상 데이터로 보간을 실행하여 보간 목표 픽셀의 나머지 색 성분의 색조 값을 판정한다. 예를 들어, 보간 목표 픽셀의 R 성분은 대각선으로 에워싸인 픽셀의 사용 가능한 4개의 원 R 성분의 평균으로서 획득될 수 있다. 유사하게, 보간 목표 픽셀의 B 성분은 대각선으로 에워싸인 픽셀의 사용 가능한 4개의 원 B 성분의 평균으로서 획득될 수 있다.Non-G pixel interpolation processing interpolates the B component of an R pixel while interpolating the R component of a B pixel. In the case where the interpolation target pixel is an R pixel, all four pixels arranged diagonally adjacent to the interpolation target pixel are all B pixels as shown in Fig. 17A. The B component is obtained as original image data of these four neighboring pixels. On the other hand, when the interpolation target pixel is a B pixel, all four pixels arranged diagonally adjacent to the interpolation target pixel are all R pixels as shown in Fig. 17B. The R component is obtained as original image data of these four neighboring pixels. The simplest procedure is to perform interpolation with the original image data of four pixels arranged diagonally adjacent to the interpolation target pixel to determine the hue value of the remaining color components of the interpolation target pixel. For example, the R component of the interpolation target pixel can be obtained as an average of the four available R components of the diagonally surrounded pixel. Similarly, the B component of the interpolation target pixel can be obtained as the average of the four available circle B components of the diagonally surrounded pixel.

인근 픽셀의 원 화상 데이터에 의한 나머지 색 성분의 직접 보간은 다른 색 성분으로부터의 차분의 몇몇 편차로 인해 의사 컬러의 발생을 야기할 수 있다. 자연의 컬러 화상에 있어서, RGB 데이터는 채널 내부 및 채널 간 감지의 양쪽에 현저히 상관(correlate)된다. 이것은 국부 화상 영역의 픽셀이 대개 유사한 색차 특성을 갖는다는 것을 의미한다. 따라서, 인근 픽셀의 색차 성분으로 보간 목적 픽셀의 색차 성분을 보간하고, 보간된 색차 성분에 기반하여 보간 목표 픽셀의 나머지 색 성분의 색조 값을 판정하는 것이 바람직하다. 따라서, 보간 목표 픽셀에 인접하여 대각선으로 배열된 4개의 픽셀의 원 화상 데이터에 의한 직접 보간 대신에, 다른 사용 가능한 절차는 4개의 인근 픽셀의 색차 성분으로부터 보간 목표 픽셀의 색차 성분을 산출하고, 보간 목표 픽셀의 산출된 색차 성분에 기반하여 보간 목표 픽셀의 나머지 색 성분의 색조 값을 판정한다. 예를 들어, 보간 객체는 도 17(a)의 상태의 R 보간 목표 픽셀에 대한 B 성분이다. 바람직한 절차는, R 보간 목표 픽셀에 인접하여 대각선으로 배열된 4개의 B 픽셀의 G 성분과 B 성분 간의 색차 성분을 획득하고, 이들 4개의 색차 성분을 이용하여 R 보간 목표 픽셀의 대응하는 색차 성분을 산출한다. 예를 들어, 보간 목표 위치의 색차 성분은 사용 가능한 색차 성분의 평균으로서 산출될 수 있다. 그 다음, 절차는 R 보간 목표 픽셀의 산출된 색차 성분과 보간된 G 성분으로부터 나머지 색 성분의 색조 값을 산출한다.Direct interpolation of the remaining color components by the original image data of neighboring pixels can cause the generation of pseudo colors due to some deviation of the difference from other color components. In natural color images, RGB data is significantly correlated to both intra-channel and inter-channel sensing. This means that pixels in the local picture area usually have similar color difference characteristics. Therefore, it is preferable to interpolate the color difference component of the interpolation target pixel with the color difference component of the neighboring pixel, and to determine the hue value of the remaining color components of the interpolation target pixel based on the interpolated color difference component. Thus, instead of direct interpolation by the original image data of four pixels arranged diagonally adjacent to the interpolation target pixel, another available procedure calculates the color difference component of the interpolation target pixel from the color difference component of four neighboring pixels, and interpolates. The hue value of the remaining color components of the interpolation target pixel is determined based on the calculated chrominance components of the target pixel. For example, the interpolation object is the B component for the R interpolation target pixel in the state of FIG. 17 (a). A preferred procedure is to obtain the chrominance components between the G and B components of four B pixels arranged diagonally adjacent to the R interpolation target pixel, and use these four chrominance components to determine the corresponding chrominance components of the R interpolation target pixel. Calculate. For example, the color difference component of the interpolation target position may be calculated as an average of the available color difference components. The procedure then calculates the hue values of the remaining color components from the calculated color difference component and the interpolated G component of the R interpolation target pixel.

R 보간 목표 픽셀에 인접하여 대각선으로 배열된 픽셀은 모두 B 픽셀이다. 도 5의 계산식에 따라 이들 인근 픽셀에 관하여 연산된 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)의 양쪽은 G 성분과 B 성분 간의 색차 성분이다. 보간 목표 픽셀의 대응 색차 성분은 총 8개의 색차 성분으로부터 산출될 수 있다. 하나의 전형적인 절차는 보간 목표 픽셀에 인접하여 대각선으로 배열된 4개의 픽셀의 각각의 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)의 평균을 픽셀의 대표 색차 성분으로서 산출하고, 4개의 인근 픽셀의 대표 색차 성분으로부터 보간 목표 픽셀의 대응 색차 성분을 판정할 수 있다. 다른 전형적인 절차는 보간 목표 픽셀의 에지 방향을 검출하고 검출된 에지 방향을 충족하는 인근 픽셀의 (도 5의 계산식에 따라 획득된) 색차 성분으로부터만 보간 목표 픽셀의 색차 성분을 산출할 수 있다. 인근 픽셀에 관한 수직 방향의 색차 성분(CDv) 및 수평 방향의 색차 성분(CDh) 양쪽을 고려하는 것에 의해 보간 목표 픽셀의 색차 성분을 판정하는 이러한 방법은 도리어 복잡한 일련의 처리를 필요로 한다. 한편, 보간 목표 픽셀에 인접하여 대각선으로 배열된 4개의 픽셀의 G 성분과 B 성분에 기반한 산출은 보간 목표 픽셀의 색차 성분(CDGB)의 더 높은 속도의 판정을 가능하게 한다.All pixels arranged diagonally adjacent to the R interpolation target pixel are B pixels. Both of the vertical color difference component CDv and the horizontal color difference component CDh computed with respect to these neighboring pixels according to the calculation formula of FIG. 5 are the color difference components between the G component and the B component. The corresponding color difference component of the interpolation target pixel may be calculated from a total of eight color difference components. One typical procedure calculates the average of each of the vertical color difference component CDv and the horizontal color difference component CDh of four pixels arranged diagonally adjacent to the interpolation target pixel as the representative color difference component of the pixel, The corresponding chrominance component of the interpolation target pixel can be determined from the representative chrominance component of four neighboring pixels. Another exemplary procedure may detect the edge direction of the interpolation target pixel and calculate the color difference component of the interpolation target pixel only from the chrominance component (obtained according to the calculation formula of FIG. 5) of the neighboring pixel that meets the detected edge direction. This method of determining the color difference component of the interpolation target pixel by considering both the vertical color difference component CDv and the horizontal color difference component CDh with respect to the neighboring pixels requires a complicated series of processing. On the other hand, the calculation based on the G component and the B component of four pixels arranged diagonally adjacent to the interpolation target pixel enables the determination of the higher speed of the color difference component (CD GB ) of the interpolation target pixel.

이러한 기본 개념에 기초하여, 그 G 성분의 보간 후에, 도 18의 플로우차트에 도시된 본 실시예의 비-G 픽셀 보간 처리가 각 비-G 픽셀의 나머지 색 성분을 보간한다. 비-G 픽셀 보간 처리의 구체적인 절차는 도 18의 플로우차트를 참조하여 설명된다.Based on this basic concept, after interpolation of the G component, the non-G pixel interpolation process of the present embodiment shown in the flowchart of FIG. 18 interpolates the remaining color components of each non-G pixel. Specific procedures of the non-G pixel interpolation process are described with reference to the flowchart of FIG. 18.

비-G 픽셀 보간 처리는 먼저 보간 목표 픽셀에 인접하여 대각선으로 배열된 4개의 픽셀의 G 성분과 원 화상 데이터를 획득한다(단계 S350). 보간 목표 픽셀이 R 픽셀인 경우에, 대각선으로 배열된 4개의 인근 픽셀은 도 17(a)에 도시된 바와 같이 모두 B 픽셀이다. 따라서, 여기서는 이들 인근 픽셀의 원 화상 데이터가 B 성분에 관하여 획득된다. 한편, 보간 목표 픽셀이 B 픽셀인 경우에, 대각선으로 배열된 4개의 인근 픽셀은 도 17(b)에 도시된 바와 같이 모두 R 픽셀이다. 따라서, 여기서는 이들 인근 픽셀의 원 화상 데이터가 R 성분에 관하여 획득된다.The non-G pixel interpolation process first obtains the G component and the original image data of four pixels arranged diagonally adjacent to the interpolation target pixel (step S350). In the case where the interpolation target pixel is an R pixel, four neighboring pixels arranged diagonally are all B pixels as shown in Fig. 17A. Thus, original image data of these neighboring pixels is obtained with respect to the B component here. On the other hand, when the interpolation target pixel is a B pixel, four neighboring pixels arranged diagonally are all R pixels as shown in Fig. 17B. Thus, original image data of these neighboring pixels is obtained here with respect to the R component.

그 후에, 비-G 픽셀 보간 처리는 원 화상 데이터에서 G 성분을 감산하는 것에 의해 이들 4개의 인근 픽셀의 색차 성분을 산출하고, 4개의 색차 성분의 평균을 보간 목표 픽셀의 색차 성분으로서 연산한다(단계 S352). 이것의 적용에 있어서, 일반적으로 색차 성분은 도 5에 도시된 바와 같이 G 성분에서 R 성분 또는 B 성분의 감산을 나타낸다. 하지만, 단계 S352의 산출은 원 화상 데이터(R 성분 또는 B 성분)에서 G 성분을 감산하는 것에 의해 색차 성분의 기호(sign)를 변경한다. 이것은 이후의 연산에서 기호를 변경하는 수고를 던다.Then, the non-G pixel interpolation process calculates the color difference component of these four neighboring pixels by subtracting the G component from the original image data, and calculates the average of the four color difference components as the color difference component of the interpolation target pixel ( Step S352). In its application, the color difference component generally shows the subtraction of the R component or the B component from the G component as shown in FIG. However, the calculation of step S352 changes the sign of the color difference component by subtracting the G component from the original image data (R component or B component). This is a labor to change symbol in subsequent operations.

보간 목표 픽셀의 색차 성분의 연산 후에, 비-G 픽셀 보간 처리는 보간 목표 픽셀의 G 성분을 획득한다(단계 S534). 보간 목표 픽셀이 비-G 픽셀이므로, 보간 목표 픽셀의 원 화상 데이터는 G 성분에 관한 것이 아니다. 하지만, 보간 목표 픽셀의 G 성분은 이 비-G 픽셀 보간 처리에 앞서 실행된 도 16의 G 성분 보간 처리에 의해 이미 판정되었다.After the calculation of the color difference component of the interpolation target pixel, the non-G pixel interpolation process obtains the G component of the interpolation target pixel (step S534). Since the interpolation target pixel is a non-G pixel, the original image data of the interpolation target pixel is not related to the G component. However, the G component of the interpolation target pixel has already been determined by the G component interpolation process of FIG. 16 executed before this non-G pixel interpolation process.

단계 S352에서 연산된 보간 목표 픽셀의 색차 성분과 단계 S354에서 획득된 G 성분의 합산은 보간 목표 픽셀의 나머지 색 성분을 판정한다(단계 S356).The sum of the color difference component of the interpolation target pixel calculated in step S352 and the G component obtained in step S354 determines the remaining color components of the interpolation target pixel (step S356).

상기한 바와 같은 모든 비-G 보간 목표 픽셀의 나머지 색 성분의 연산 후에, CPU는 도 18의 비-G 픽셀 보간 처리를 종료하고 도 3의 컬러 화상 데이터 생성 처리로 되돌아간다. 그 후에, 컬러 화상 데이터 생성 처리는 G 픽셀 보간 처리를 개시하여 G 픽셀의 누락 색 성분을 보간한다(단계 S110).After the calculation of the remaining color components of all the non-G interpolation target pixels as described above, the CPU terminates the non-G pixel interpolation process in FIG. 18 and returns to the color image data generation process in FIG. Thereafter, the color image data generation processing starts the G pixel interpolation processing to interpolate missing color components of the G pixels (step S110).

F. G 픽셀 보간 처리F. G pixel interpolation

도 19는 G 픽셀 보간 처리의 세부를 도시한 플로우차트이다. G 픽셀 보간 처리는 먼저 보간의 객체인 각 보간 목표 픽셀의 에지 방향 ‘d’를 지정한다(단계 S400). 에지 방향은 이미 검출되었고 도 7의 에지 방향 맵 생성 처리에 의해 에지 방향 맵에 설정되었다. 이전에 설명된 바와 같이, 에지 방향은 모든 픽셀에 대해서 또는 교번적으로 비-G 픽셀에 대해서만 검출될 수 있다. 에지 방향이 모든 픽셀에 대해 검출된 경우에는, 단계 S400의 처리가 에지 방향 맵을 참조하는 것에 의해 보간 목표 픽셀의 에지 방향을 즉시 지정한다. 한편, 에지 방향이 비-G 픽셀에 대해서만 검출된 경우에는, 단계 S400의 처리가 인근 픽셀의 검출된 에지 방향으로부터 보간 목표 픽셀의 에지 방향을 추정한다.19 is a flowchart showing details of a G pixel interpolation process. The G pixel interpolation process first specifies the edge direction 'd' of each interpolation target pixel, which is an object of interpolation (step S400). The edge direction has already been detected and set in the edge direction map by the edge direction map generation process of FIG. As previously described, the edge direction can be detected for all pixels or only for non-G pixels alternately. If the edge direction is detected for all the pixels, the process of step S400 immediately specifies the edge direction of the interpolation target pixel by referring to the edge direction map. On the other hand, if the edge direction is detected only for non-G pixels, the process of step S400 estimates the edge direction of the interpolation target pixel from the detected edge direction of the neighboring pixel.

도 20은 인근 픽셀의 에지 방향으로부터 보간 목표 픽셀의 에지 방향의 추정을 도시한다. G 픽셀 보간 처리는 G 픽셀의 누락(즉, R 및 B) 색 성분을 보간한다. 보간 목표 픽셀을 에워싼 원 데이터의 원래 픽셀은 도 20(a)의 배열 또는 도 20(b)의 배열을 충족시킨다. 도 20(a) 및 20(b)에 있어서, 해칭을 넣은 직사각형은 보간 목표 픽셀을 나타낸다. 이러한 추정은 에지 방향이 비-G 픽셀에 대해서만 검출되었다는 가정 아래 실행된다. 따라서, 에지 방향이 보간 목표 픽셀의 상부, 하부, 좌측, 우측의 4개의 인근 픽셀에 설정되었다.20 shows estimation of the edge direction of an interpolation target pixel from the edge direction of a neighboring pixel. The G pixel interpolation process interpolates the missing (ie R and B) color components of the G pixel. The original pixel of the original data surrounding the interpolation target pixel satisfies the arrangement of Fig. 20 (a) or the arrangement of Fig. 20 (b). In Figs. 20A and 20B, hatched rectangles represent interpolation target pixels. This estimation is performed under the assumption that the edge direction was detected only for non-G pixels. Thus, the edge direction was set to four neighboring pixels of the top, bottom, left and right of the interpolation target pixel.

도 20(c) 및 20(d)은 보간 목표 픽셀의 4개의 인근 픽셀의 에지 방향 ‘d’의 배열을 도시한다. 도 20(c)에 도시된 4개의 인근 픽셀의 에지 방향 ‘d’의 배열에 있어서, ‘1’로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀의 개수는 ‘3’으로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀의 개수보다 더 많다. 따라서, 보간 목표 픽셀의 에지 방향 ‘d’를 ‘1’로 추정하는 것이 적정하다. 한편, 도 20(d)에 도시된 4개의 인근 픽셀의 에지 방향 ‘d’의 배열에 있어서, ‘3’으로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀의 개수는 ‘1’로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀의 개수보다 더 많다. 따라서, 보간 목표 픽셀의 에지 방향 ‘d’를 ‘3’으로 추정하는 것이 적정하다.20 (c) and 20 (d) show the arrangement of the edge direction 'd' of four neighboring pixels of the interpolation target pixel. In the arrangement of the edge direction 'd' of four neighboring pixels shown in Fig. 20 (c), the number of neighboring pixels having the edge direction 'd' set to '1' is the edge direction 'd' set to '3'. More than the number of neighboring pixels. Therefore, it is appropriate to estimate the edge direction 'd' of the interpolation target pixel as '1'. Meanwhile, in the arrangement of the edge direction 'd' of four neighboring pixels shown in FIG. 20 (d), the number of neighboring pixels having the edge direction 'd' set to '3' is the edge direction 'set to' 1 '. more than the number of neighboring pixels with d '. Therefore, it is appropriate to estimate the edge direction 'd' of the interpolation target pixel as '3'.

이러한 방식으로, 추정 절차는 ‘1’로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀의 개수와 ‘3’으로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀의 개수를 카운트(count)하여 더 많은 카운트의 에지 방향 ‘d’를 보간 목표 픽셀의 에지 방향 ‘d’로 지정한다. 인근 픽셀의 개개의 개수를 카운트하는 대신에, 다른 추정 절차는 보간 목표 픽셀의 상부, 하부, 좌측, 우측의 4개의 인근 픽셀에 설정된 에지 방향 ‘d’의 합계를 산출할 수 있다. ‘1’로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀과 ‘3’으로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀이 동일 개수인 경우에는, 에지 방향 ‘d’의 합계가 ‘8’과 동등하다. 에지 방향 ‘d’의 합계가 ‘8’보다 더 적은 경우에는, 더 많은 개수의 인근 픽셀이 ‘1’로 설정된 에지 방향 ‘d’를 갖는 것으로 예기된다. 따라서, 보간 목표 픽셀의 에지 방향 ‘d’는 ‘1’로 지정된다. 한편, 에지 방향 ‘d’의 합계가 ‘8’보다 더 큰 경우에는, 더 많은 개수의 인근 픽셀이 ‘3’으로 설정된 에지 방향 ‘d’를 갖는 것으로 예기된다. 따라서, 보간 목표 픽셀의 에지 방향 ‘d’는 ‘3’으로 지정된다. 에지 방향 ‘d’의 합계가 ‘8’과 동등한 경우에는(‘1’로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀과 ‘3’으로 설정된 에지 방향 ‘d’를 갖는 인근 픽셀이 동일 개수인 경우에는), 보간 목표 픽셀의 에지 방향 ‘d’가 ‘1’ 또는 ‘3’으로 지정될 수 있다.In this way, the estimation procedure counts the number of neighboring pixels with edge direction 'd' set to '1' and the number of neighboring pixels with edge direction 'd' set to '3' to count more counts. The edge direction 'd' is designated as the edge direction 'd' of the interpolation target pixel. Instead of counting the individual number of neighboring pixels, another estimation procedure may calculate the sum of the edge directions 'd' set in four neighboring pixels of the top, bottom, left and right of the interpolation target pixel. If the neighboring pixels having the edge direction 'd' set to '1' and the neighboring pixels having the edge direction 'd' set to '3' are the same number, the sum of the edge directions 'd' is equal to '8'. . If the sum of the edge directions 'd' is less than '8', it is expected that more neighboring pixels have the edge direction 'd' set to '1'. Therefore, the edge direction 'd' of the interpolation target pixel is designated as '1'. On the other hand, when the sum of the edge directions 'd' is larger than '8', it is expected that a larger number of neighboring pixels have the edge direction 'd' set to '3'. Therefore, the edge direction 'd' of the interpolation target pixel is designated as '3'. If the sum of the edge directions 'd' is equal to '8' (when the neighboring pixels with edge direction 'd' set to '1' and the neighboring pixels with edge direction 'd' set to '3' are the same number For example, the edge direction 'd' of the interpolation target pixel may be designated as '1' or '3'.

상기한 바와 같이, 에지 방향 ‘d’가 모든 픽셀에 대해 설정되어 있는 경우에는, 단계 S400에서 도 19의 G 픽셀 보간 처리가 간단히 에지 방향 맵으로부터 보간 목표 픽셀의 에지 방향 ‘d’를 읽어 들인다. 한편, 에지 방향 ‘d’가 비-G 픽셀에 대해서만 설정되어 있는 경우에는, 단계 S400에서 G 픽셀 보간 처리가 에지 방향 맵으로부터 보간 목표 픽셀에 인접한 인근 픽셀의 에지 방향을 읽어 들이고, 보간 목표 픽셀의 에지 방향 ‘d’를 추정한다.As described above, when the edge direction 'd' is set for all the pixels, the G pixel interpolation process of FIG. 19 simply reads the edge direction 'd' of the interpolation target pixel from the edge direction map in step S400. On the other hand, if the edge direction 'd' is set only for non-G pixels, the G pixel interpolation process reads the edge direction of the adjacent pixel adjacent to the interpolation target pixel from the edge direction map in step S400, and the Estimate the edge direction 'd'.

보간 목표 픽셀의 에지 방향 ‘d’의 지정 후에, G 픽셀 보간 처리는 지정된 에지 방향 ‘d’가 ‘1’과 동등한지의 여부를 판정한다(단계 S402). 지정된 에지 방향 ‘d’가 ‘1’과 동등한 경우에는(단계 S402: 예), 에지가 보간 목표 픽셀을 통해 수직 방향으로 향하는 것으로 판정된다. 따라서, G 픽셀 보간 처리는 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 인근 픽셀의 R 성분, G 성분, 및 B 성분을 획득한다. 도 20(a) 및 20(b)의 배열에 도시된 바와 같이, 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 인근 픽셀은 항상 비-G 픽셀이다. 비-G 픽셀의 누락 색 성분은 도 16의 G 성분 보간 처리와 도 18의 비-G 픽셀 보간 처리에 의해 이미 연산되었다. 따라서, 이들 상부 및 하부 인근 픽셀의 R, G, 및 B 성분은 즉시 획득될 수 있다.After the specification of the edge direction 'd' of the interpolation target pixel, the G pixel interpolation process determines whether the specified edge direction 'd' is equal to '1' (step S402). If the specified edge direction 'd' is equivalent to '1' (step S402: YES), it is determined that the edge is directed in the vertical direction through the interpolation target pixel. Thus, the G pixel interpolation process obtains the R component, G component, and B component of the upper and lower neighboring pixels above and below the interpolation target pixel. As shown in the arrangement of Figs. 20 (a) and 20 (b), the upper and lower neighboring pixels above and below the interpolation target pixel are always non-G pixels. The missing color component of the non-G pixel has already been computed by the G component interpolation process of FIG. 16 and the non-G pixel interpolation process of FIG. Thus, the R, G, and B components of these upper and lower neighboring pixels can be obtained immediately.

한편, 지정된 에지 방향 ‘d’가 ‘1’과 동등하지 않은 경우에는(단계 S402: 아니오), 에지가 보간 목표 픽셀을 통해 수평 방향으로 향하는 것으로 판정된다. 따라서, G 픽셀 보간 처리는 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 인근 픽셀의 R 성분, G 성분, 및 B 성분을 획득한다(단계 S406). 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 인근 픽셀이 항상 비-G 픽셀이기 때문에, 이들 좌측 및 우측 인근 픽셀의 R, G, 및 B 성분은 즉시 획득될 수 있다.On the other hand, when the specified edge direction 'd' is not equal to '1' (step S402: NO), it is determined that the edge is directed in the horizontal direction through the interpolation target pixel. Thus, the G pixel interpolation process obtains the R component, G component, and B component of the left and right neighboring pixels on the left and right of the interpolation target pixel (step S406). Since the left and right neighboring pixels on the left and right of the interpolation target pixel are always non-G pixels, the R, G, and B components of these left and right neighboring pixels can be obtained immediately.

그 다음, G 픽셀 보간 처리는 R, G, 및 B 성분의 획득의 객체인 인근 픽셀의 색차 성분을 산출한다(단계 S408). 보간 목표 픽셀의 에지 방향 ‘d’가 ‘1’과 동등한 경우에는(단계 S402: 예), G 픽셀 보간 처리가 상부 및 하부 인근 픽셀의 색차 성분을 산출한다. 한편, 보간 목표 픽셀의 에지 방향 ‘d’가 ‘1’과 동등하지 않은 경우에는(단계 S402: 아니오), G 픽셀 보간 처리가 좌측 및 우측 인근 픽셀의 색차 성분을 산출한다. 도 18의 비-G 픽셀 보간 처리에 있어서, R 성분에서 G 성분을 감산하는 것에 의해 그리고 B 성분에서 G 성분을 감산하는 것에 의해 단계 S408에서 기호 변경된 색차 성분이 획득된다. 이것은 보간 목표 픽셀의 R 성분과 B 성분의 이후 연산에서 기호를 변경하는 수고를 던다.The G pixel interpolation process then calculates the color difference component of the neighboring pixel that is the object of acquisition of the R, G, and B components (step S408). When the edge direction 'd' of the interpolation target pixel is equal to '1' (step S402: YES), the G pixel interpolation process calculates the color difference components of the upper and lower neighboring pixels. On the other hand, when the edge direction 'd' of the interpolation target pixel is not equal to '1' (step S402: NO), the G pixel interpolation processing calculates the color difference components of the left and right neighboring pixels. In the non-G pixel interpolation process of Fig. 18, a symbol-changed color difference component is obtained in step S408 by subtracting the G component from the R component and subtracting the G component from the B component. This is an effort to change the symbol in the subsequent operation of the R and B components of the interpolation target pixel.

상부 및 하부 인근 픽셀 또는 좌측 및 우측 인근 픽셀의 색차 성분의 산출 후에(단계 S408), G 픽셀 보간 처리는 인근 픽셀의 산출된 색차 성분으로 보간을 실행하여 보간 목표 픽셀의 색차 성분을 연산한다(단계 S410). 앞서 언급된 바와 같이, 상부 및 하부 인근 픽셀 또는 좌측 및 우측 인근 픽셀의 산출된 색차 성분이 기호 변경된 색차 성분(즉, R 성분에서 G 성분을 감산한 것에 의한 색차 성분 및 B 성분에서 G 성분을 감산한 것에 의한 색차 성분)이다. 따라서, 보간된 색차 성분은 기호 변경된 색차 성분이다.After calculating the color difference components of the upper and lower neighboring pixels or the left and right neighboring pixels (step S408), the G pixel interpolation process calculates the color difference components of the interpolation target pixels by performing interpolation with the calculated color difference components of the neighboring pixels (step S408). S410). As mentioned above, the calculated chrominance components of the upper and lower neighboring pixels or the left and right neighboring pixels subtract the G component from the chrominance component and the B component by subtracting the G component from the R component. Color difference component by one). Thus, the interpolated chrominance component is a preference changed chrominance component.

그 다음, G 픽셀 보간 처리는 보간 목표 픽셀의 G 성분을 획득한다(단계 S412). 보간 목표 픽셀이 G 픽셀이기 때문에, 원 화상 데이터는 직접적으로 G 성분에 관한 것이다. 그 후에, G 픽셀 보간 처리는 보간 목표 픽셀의 보간된 색차 성분과 획득된 G 성분으로부터 보간 목표 픽셀의 R 성분과 B 성분을 연산한다(단계 S414). 보간된 색차 성분이 기호 변경된(즉, 적색 성분에서 감산된 녹색 성분, 및 청색 성분에서 감산된 녹색 성분) 색차 성분이기 때문에, 보간된 색차 성분에 G 성분의 간단한 추가는 보간 목표 픽셀의 R 성분과 B 성분을 판정한다.The G pixel interpolation process then obtains the G component of the interpolation target pixel (step S412). Since the interpolation target pixel is a G pixel, the original image data is directly related to the G component. Thereafter, the G pixel interpolation process calculates the R component and the B component of the interpolation target pixel from the interpolated color difference component of the interpolation target pixel and the obtained G component (step S414). Since the interpolated chrominance component is a symbol-changed (i.e., green component subtracted from the red component, and green component subtracted from the blue component) chrominance components, a simple addition of the G component to the interpolated chrominance component is equivalent to the R component of the interpolation target pixel. Determine the component B.

상기한 바와 같은 모든 G 픽셀의 누락 색 성분(R 성분과 B 성분)의 연산 후에, CPU는 도 19의 G 픽셀 보간 처리를 종료하고 도 3의 컬러 화상 데이터 생성 처리로 되돌아간다.After the calculation of the missing color components (R component and B component) of all the G pixels as described above, the CPU ends the G pixel interpolation processing in FIG. 19 and returns to the color image data generation processing in FIG.

G 픽셀 보간 처리의 완료 시에(단계 S110), 디모자이킹 처리, 즉, 누락 색 성분의 보간이 모든 픽셀에 대해 종결되었다. 그 다음, CPU는 각 픽셀의 R, G, 및 B 성분을 원 화상 데이터로부터 생성된 컬러 화상 데이터로서 출력하고(단계 S112), 도 3의 컬러 화상 데이터 생성 처리를 종료한다.Upon completion of the G pixel interpolation process (step S110), the demosaicing process, that is, interpolation of missing color components, is terminated for all pixels. The CPU then outputs the R, G, and B components of each pixel as color image data generated from the original image data (step S112), and ends the color image data generation process of FIG.

본 실시예의 디지털 카메라(100)는 원 화상 데이터의 디모자이킹을 실행하여 하기에서 상세히 설명되는 일련의 처리에 따라 컬러 화상 데이터를 생성한다. 컬러 화상 데이터 생성 처리는 디모자이킹 처리에 앞서, 에지 방향 맵을 생성한다. 수직 방향의 색차 성분(CDv)과 수평 방향의 색차 성분(CDh)의 변화량을 고려하는 것에 의해, 각 픽셀의 에지 방향이 2가지 상이한 타입의 색차 성분(즉, G 성분과 R 성분 간의 색차 성분 및 G 성분과 B 성분 간의 색차 성분)으로부터 검출될 수 있다. 이것은 작은 크기의 에지까지도 고도로 정밀한 검출을 보장하고 따라서 정밀한 에지 방향 맵의 생성을 가능하게 한다. 후속 디모자이킹 처리는 이러한 정밀한 에지 방향 맵을 참조하여 각 픽셀의 누락 색 성분을 적정하게 보간한다.The digital camera 100 of this embodiment executes demosaicing of the original image data to generate color image data in accordance with a series of processes described in detail below. The color image data generation process generates an edge direction map before the demosaicing process. By considering the amount of change in the color difference component CDv in the vertical direction and the color difference component CDh in the horizontal direction, two different types of color difference components (i.e., the color difference component between the G component and the R component) Color difference component between the G component and the B component). This ensures highly precise detection even of small sized edges and thus enables the generation of precise edge direction maps. Subsequent demosaicing processes refer to this precise edge direction map to properly interpolate the missing color component of each pixel.

에지 방향 맵 생성 처리와 누락 색 성분의 보간의 양쪽은 도리어 간소하며 고속으로 실행될 수 있다. 따라서, 본 실시예의 일련의 처리는 R, G, 및 B 색 성분의 모자이크 배열을 갖는 원 화상 데이터로부터 적정한 컬러 화상 데이터의 고속 생성을 가능하게 한다.Both the edge direction map generation process and the interpolation of missing color components are rather simple and can be executed at high speed. Therefore, the series of processes in this embodiment enables the high speed generation of appropriate color image data from the original image data having a mosaic arrangement of R, G, and B color components.

본 발명은 컴퓨터에 의해 실행될 시에 본 발명의 방법을 실행하는 컴퓨터 판독 가능 매체에 저장된 명령의 프로그램으로서의 실시예로 구현될 수 있다는 것이 이해될 것이다. 컴퓨터 판독 가능 매체의 예는, 하드 디스크, 플로피 디스크, 및 자기(magnetic) 테이프와 같은 자기 매체; CD-ROM과 홀로그래픽(holographic) 장치와 같은 광학 매체; 광자기 매체; 및 주문형 반도체(application specific integrated circuit; “ASIC”), 프로그램 가능 논리 소자(programmable logic device; “PLD”), 플래시 메모리 소자, ROM 및 RAM 소자와 같은 프로그램 코드(code)를 저장하거나 저장 및 실행하도록 특별히 구성된 하드웨어 장치를 포함하지만 이에 한정되지 않는다.It is to be understood that the present invention may be embodied as an embodiment of a program of instructions stored in a computer readable medium executing the method of the present invention when executed by a computer. Examples of computer readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; Optical media such as CD-ROMs and holographic devices; Magneto-optical media; And store, store, and execute code such as application specific integrated circuits (“ASICs”), programmable logic devices (“PLDs”), flash memory devices, ROMs, and RAM devices. Included but not limited to specially configured hardware devices.

본 실시예의 디지털 카메라(100)는 앞서 설명된 절차에 따라 원 화상 데이터로부터 컬러 화상 데이터를 생성한다. 본 발명은 상기한 본 실시예와 그 변형예의 어떤 것에도 한정되지 않으며, 본 발명의 주요 특징의 권리 범위 또는 사상으로부터 벗어남 없이 다양한 응용 및 양태로 달성될 수 있다.The digital camera 100 of this embodiment generates color image data from original image data according to the procedure described above. The present invention is not limited to any of the above-described embodiments and variations thereof, and can be achieved in various applications and aspects without departing from the scope or spirit of the main features of the present invention.

Claims (10)

각 픽셀의 빛의 3원색에 대응하는 3개의 색 성분 R, G, 및 B 중에 단일 색 성분의 설정을 갖는 모자이크 화상 데이터를 수신하고 수신된 모자이크 화상 데이터에 일련의 화상 처리를 하여 각 픽셀의 3개의 색 성분 R, G, 및 B 모두의 설정을 갖는 컬러 화상 데이터를 생성하는 화상 처리 장치로서,Receive mosaic image data having a setting of a single color component among the three color components R, G, and B corresponding to the three primary colors of light of each pixel, and perform a series of image processing on the received mosaic image data to display three of each pixel. An image processing apparatus for generating color image data having settings of all three color components R, G, and B, 상기 모자이크 화상 데이터는, G 성분의 픽셀과 수직 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수직 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수평 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 로우, 및 G 성분의 픽셀과 수평 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 로우의 조합에 의해 표현되고,The mosaic image data includes a pixel column having an alternating arrangement of the pixels of the G component and the pixels of the R component, which are different color components in the vertical direction, and an alternating arrangement of the pixels of the B component, which are the pixels of the G component and other color components in the vertical direction. A pixel column having an alternating arrangement of pixels of the G component and pixels of the R component, which are other color components in the horizontal direction, and alternating arrays of pixels of the B component, which are pixels of the G component and other color components in the horizontal direction Represented by a combination of pixel rows, 상기 화상 처리 장치는,The image processing apparatus, 상기 모자이크 화상의 각 픽셀 칼럼에 포함된 각 픽셀의 G 성분과 다른 색 성분 간의 수직 방향 색차(color difference) 성분을 연산하기 위해, 수직으로 이웃하는 가용한 성분들을 이용하여 다른 색 성분의 픽셀 위치에서 G 성분을 획득하거나 G 성분 픽셀 위치에서 다른 색 성분을 획득하는 수직 방향 색차 성분 연산 모듈;In order to calculate the vertical color difference component between the G component and each other color component of each pixel included in each pixel column of the mosaic image, at the pixel position of the other color component using the available vertically neighboring components. A vertical color difference component calculating module for obtaining a G component or obtaining another color component at a G component pixel position; 상기 모자이크 화상의 각 픽셀 로우에 포함된 각 픽셀의 G 성분과 다른 색 성분 간의 수평 방향 색차 성분을 연산하기 위해, 수평으로 이웃하는 색 성분들을 이용하여 다른 색 성분의 픽셀 위치에서 G 성분을 획득하거나 G 성분 픽셀 위치에서 다른 색 성분을 획득하는 수평 방향 색차 성분 연산 모듈;In order to calculate a horizontal color difference component between the G component of each pixel included in each pixel row of the mosaic image and another color component, horizontally neighboring color components are used to obtain a G component at a pixel position of another color component. A horizontal color difference component calculating module for obtaining another color component at the G component pixel position; 상기 모자이크 화상 데이터로부터 R 성분의 픽셀과 B 성분의 픽셀을 선택하고, 상기 픽셀 위치의 각각에서, 적어도 상기 선택된 픽셀의 각각에 관하여 수직 방향 색차 성분의 변화량(variation)을 수평 방향 색차 성분의 변화량과 비교하여 적어도 상기 선택된 픽셀의 에지 방향을 검출하는 에지 방향 검출 모듈; 및From the mosaic image data, a pixel of the R component and a pixel of the B component are selected, and at each of the pixel positions, the variation of the vertical color difference component with respect to each of the selected pixels is equal to the variation of the horizontal color difference component. An edge direction detection module for comparing at least an edge direction of the selected pixel; And 상기 검출된 에지 방향을 참조하여 상기 모자이크 화상 데이터의 각 픽셀의 누락 색 성분을 상기 모자이크 화상 데이터의 각 픽셀의 하나의 색 성분의 설정과 보간하는 누락 색 성분 보간(interpolation) 모듈을 포함하는 화상 처리 장치.An image processing process comprising a missing color component interpolation module for interpolating a missing color component of each pixel of the mosaic image data with reference to the detected edge direction with a setting of one color component of each pixel of the mosaic image data Device. 청구항 1에 있어서, 상기 에지 방향 검출 모듈은,The method according to claim 1, wherein the edge direction detection module, 목표 픽셀을 포함하는 목표 픽셀 칼럼의 수직 방향 색차 성분과 상기 목표 픽셀 칼럼에 인접한 인근 픽셀 칼럼의 수직 방향 색차 성분으로부터 상기 에지 방향의 검출 객체인 각 목표 픽셀의 수직 방향 색차 성분의 변화량을 산출하는 수직 방향 변화량 산출 모듈; 및A vertical value that calculates a change amount of the vertical color difference component of each target pixel, which is the detection object in the edge direction, from the vertical color difference component of the target pixel column including the target pixel and the vertical color difference component of the adjacent pixel column adjacent to the target pixel column. Direction change amount calculation module; And 상기 목표 픽셀을 포함하는 목표 픽셀 로우의 수평 방향 색차 성분과 상기 목표 픽셀 로우에 인접한 인근 픽셀 로우의 수평 방향 색차 성분으로부터 상기 에지 방향의 검출 객체인 각 목표 픽셀의 수평 방향 색차 성분의 변화량을 산출하는 수평 방향 변화량 산출 모듈을 갖는, 화상 처리 장치.Calculating a change amount of a horizontal chrominance component of each target pixel that is a detection object in the edge direction from a horizontal chrominance component of a target pixel row including the target pixel and a horizontal chrominance component of a neighboring pixel row adjacent to the target pixel row An image processing apparatus having a horizontal direction variation amount calculation module. 청구항 1에 있어서, 상기 에지 방향 검출 모듈은, 상기 모자이크 화상 데이터에 포함된 상기 R 성분의 픽셀과 상기 B 성분의 픽셀만의 에지 방향을 검출하는, 화상 처리 장치.The image processing apparatus according to claim 1, wherein the edge direction detection module detects edge directions of only pixels of the R component and pixels of the B component included in the mosaic image data. 청구항 1에 있어서, 상기 에지 방향 검출 모듈은, 픽셀의 수직 방향 색차 성분의 변화량이 상기 픽셀의 수평 방향 색차 성분의 변화량보다 더 큰 경우에 각 픽셀의 에지 방향을 수평 방향으로 검출하고,The method according to claim 1, wherein the edge direction detection module detects the edge direction of each pixel in the horizontal direction when the change amount of the vertical color difference component of the pixel is larger than the change amount of the horizontal color difference component of the pixel, 상기 에지 방향 검출 모듈은, 픽셀의 수직 방향 색차 성분의 변화량이 상기 픽셀의 수평 방향 색차 성분의 변화량보다 더 작은 경우에 각 픽셀의 에지 방향을 수직 방향으로 검출하며,The edge direction detection module detects the edge direction of each pixel in the vertical direction when the change amount of the vertical color difference component of the pixel is smaller than the change amount of the horizontal color difference component of the pixel, 상기 에지 방향 검출 모듈은, 픽셀의 수직 방향 색차 성분의 변화량이 상기 픽셀의 수평 방향 색차 성분의 변화량과 동등한 경우에 각 픽셀의 에지 방향을 수직 방향 또는 수평 방향으로 검출하는, 화상 처리 장치.And the edge direction detecting module detects the edge direction of each pixel in the vertical direction or the horizontal direction when the change amount of the vertical color difference component of the pixel is equal to the change amount of the horizontal color difference component of the pixel. 청구항 1에 있어서, 상기 누락 색 성분 보간 모듈은, 보간의 객체인 보간 목표 픽셀의 누락 색 성분인 G 성분을, 상기 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 인근 픽셀의 쌍과 상기 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 인근 픽셀의 쌍 사이에서 선택되는 한 쌍의 인근 픽셀의 색 성분과 보간하는, 화상 처리 장치.The interpolation target pixel of claim 1, wherein the missing color component interpolation module comprises a G component, which is a missing color component of an interpolation target pixel, which is an object of interpolation, and a pair of upper and lower neighboring pixels above and below the interpolation target pixel and the interpolation target pixel. And interpolating with a color component of a pair of neighboring pixels selected between a pair of left and right neighboring pixels on the left side and the right side of. 청구항 5에 있어서, 상기 누락 색 성분 보간 모듈은,The method of claim 5, wherein the missing color component interpolation module, 상기 보간 목표 픽셀의 수직 방향 색차 성분 또는 수평 방향 색차 성분을 상기 보간 목표 픽셀의 상부 및 하부의 상부 및 하부 인근 픽셀의 쌍의 수직 방향 색차 성분 또는 상기 보간 목표 픽셀의 좌측 및 우측의 좌측 및 우측 인근 픽셀의 쌍의 수평 방향 색차 성분과 보간하는 색차 성분 보간 모듈; 및The vertical color difference component of the interpolation target pixel or the horizontal color difference component of the pair of upper and lower neighboring pixels of the upper and lower portions of the interpolation target pixel or the left and right vicinity of the left and right of the interpolation target pixel. A color difference component interpolation module for interpolating with a horizontal color difference component of a pair of pixels; And 상기 보간 목표 픽셀의 보간된 상기 수직 방향 색차 성분 또는 상기 수평 방향 색차 성분, 및 상기 모자이크 화상 데이터의 상기 보간 목표 픽셀의 색 성분의 설정에 근거하여, 상기 보간 목표 픽셀의 G 성분을 연산하는 G 성분 연산 모듈을 갖는, 화상 처리 장치.A G component that calculates a G component of the interpolation target pixel based on a setting of the interpolated vertical color difference component or the horizontal color difference component of the interpolation target pixel and the color component of the interpolation target pixel of the mosaic image data An image processing apparatus having a calculation module. 청구항 5에 있어서, 상기 누락 색 성분 보간 모듈은, 상기 모자이크 데이터의 G 성분의 설정 없이 모든 픽셀의 G 성분을 보간하고, 그 후에 상기 픽셀의 R 성분과 B 성분을 상기 보간된 G 성분 및 상기 모자이크 화상 데이터의 상기 픽셀의 색 성분의 설정과 보간하는, 화상 처리 장치.The method according to claim 5, wherein the missing color component interpolation module interpolates the G component of all pixels without setting the G component of the mosaic data, and then interpolates the R and B components of the pixel with the interpolated G component and the mosaic. An image processing apparatus which interpolates with the setting of the color component of the pixel of the image data. 청구항 1에 있어서, 상기 에지 방향 검출 모듈은, 상기 모자이크 화상 데이터에 포함된 적어도 R 성분의 픽셀과 B 성분의 픽셀의 에지 방향을 검출하여 에지 방향 맵을 생성하고,The method of claim 1, wherein the edge direction detection module is configured to detect an edge direction of at least an R component pixel and a B component pixel included in the mosaic image data to generate an edge direction map, 상기 누락 색 성분 보간 모듈은, 상기 에지 방향 맵에 저장된 에지 방향을 참조하여 상기 모자이크 화상 데이터의 각 픽셀의 누락 색 성분을 보간하는, 화상 처리 장치.And the missing color component interpolation module interpolates missing color components of each pixel of the mosaic image data with reference to an edge direction stored in the edge direction map. 각 픽셀의 빛의 3원색에 대응하는 3개의 색 성분 R, G, 및 B 중에 단일 색 성분의 설정을 갖는 모자이크 화상 데이터를 수신하고 수신된 모자이크 화상 데이터에 일련의 화상 처리를 하여 각 픽셀의 3개의 색 성분 R, G, 및 B 모두의 설정을 갖는 컬러 화상 데이터를 생성하는 화상 처리 방법으로서,Receive mosaic image data having a setting of a single color component among the three color components R, G, and B corresponding to the three primary colors of light of each pixel, and perform a series of image processing on the received mosaic image data to display three of each pixel. An image processing method for generating color image data having settings of all three color components R, G, and B, G 성분의 픽셀과 수직 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수직 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수평 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 로우, 및 G 성분의 픽셀과 수평 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 로우의 조합에 의해 표현되는 화상 데이터를 상기 모자이크 화상 데이터로서 수신하는 단계;A pixel column having an alternating arrangement of pixels of the G component and an R component pixel which is another color component in the vertical direction, a pixel column having an alternating arrangement of pixels of the G component and a B component pixel which is another color component in the vertical direction, a G component A combination of pixels rows having an alternating arrangement of pixels of R and pixels of R components that are different color components in the horizontal direction, and pixels rows having an alternating arrangement of pixels of G components and pixels of B components, which are other color components in the horizontal direction. Receiving the image data to be expressed as the mosaic image data; 상기 모자이크 화상 데이터의 각 픽셀 칼럼에 포함된 각 픽셀의 G 성분과 다른 색 성분을 획득하여, 수직 방향의 상기 각 픽셀 칼럼에 포함된 각 픽셀의 상기 G 성분과 상기 다른 색 성분 간의 수직 방향 색차 성분을 연산하는 단계;Obtaining a color component different from the G component of each pixel included in each pixel column of the mosaic image data, and thereby generating a vertical color difference component between the G component and each other color component of each pixel included in the pixel column in the vertical direction. Calculating a; 상기 모자이크 화상 데이터의 각 픽셀 로우에 포함된 각 픽셀의 G 성분과 다른 색 성분을 획득하여, 수평 방향의 상기 각 픽셀 로우에 포함된 각 픽셀의 상기 G 성분과 상기 다른 색 성분 간의 수평 방향 색차 성분을 연산하는 단계;Obtaining a color component different from the G component of each pixel included in each pixel row of the mosaic image data, thereby generating a horizontal color difference component between the G component and each other color component of each pixel included in the pixel row in the horizontal direction; Calculating a; 상기 모자이크 화상 데이터로부터 R 성분의 픽셀과 B 성분의 픽셀을 선택하고, 상기 픽셀 위치 각각에서, 적어도 상기 선택된 픽셀의 각각에 관하여 수직 방향 색차 성분의 변화량을 수평 방향 색차 성분의 변화량과 비교하여 적어도 상기 선택된 픽셀의 에지 방향을 검출하는 단계; 및Selecting a pixel of the R component and a pixel of the B component from the mosaic image data, and comparing the amount of change in the vertical color difference component with respect to the amount of change in the horizontal color difference component at least for each of the selected pixels at each of the pixel positions, at least the Detecting an edge direction of the selected pixel; And 상기 검출된 에지 방향을 참조하여, 상기 모자이크 화상 데이터의 각 픽셀의 누락 색 성분을 상기 모자이크 화상 데이터의 각 픽셀의 하나의 색 성분의 설정과 보간하는 단계를 포함하는 화상 처리 방법.And interpolating a missing color component of each pixel of the mosaic image data with the setting of one color component of each pixel of the mosaic image data with reference to the detected edge direction. 각 픽셀의 빛의 3원색에 대응하는 3개의 색 성분 R, G, 및 B 중에 단일 색 성분의 설정을 갖는 모자이크 화상 데이터를 수신하고 수신된 모자이크 화상 데이터에 일련의 화상 처리를 하여 각 픽셀의 3개의 색 성분 R, G, 및 B 모두의 설정을 갖는 컬러 화상 데이터를 생성하는 방법을 컴퓨터로 하여금 실현하게 하는 프로그램을 갖는 컴퓨터 판독 가능 매체로서,Receive mosaic image data having a setting of a single color component among the three color components R, G, and B corresponding to the three primary colors of light of each pixel, and perform a series of image processing on the received mosaic image data to display three of each pixel. A computer readable medium having a program for causing a computer to realize a method of generating color image data having settings of all three color components R, G, and B, 상기 프로그램은,The program, G 성분의 픽셀과 수직 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수직 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 칼럼, G 성분의 픽셀과 수평 방향의 다른 색 성분인 R 성분의 픽셀의 교번 배열을 갖는 픽셀 로우, 및 G 성분의 픽셀과 수평 방향의 다른 색 성분인 B 성분의 픽셀의 교번 배열을 갖는 픽셀 로우의 조합에 의해 표현되는 화상 데이터를 상기 모자이크 화상 데이터로서 수신하는 기능;A pixel column having an alternating arrangement of pixels of the G component and an R component pixel which is another color component in the vertical direction, a pixel column having an alternating arrangement of pixels of the G component and a B component pixel which is another color component in the vertical direction, a G component A combination of pixels rows having an alternating arrangement of pixels of R and pixels of R components that are different color components in the horizontal direction, and pixels rows having an alternating arrangement of pixels of G components and pixels of B components, which are other color components in the horizontal direction. A function of receiving represented image data as the mosaic image data; 상기 모자이크 화상 데이터의 각 픽셀 칼럼에 포함된 각 픽셀의 G 성분과 다른 색 성분을 획득하여, 수직 방향의 상기 각 픽셀 칼럼에 포함된 각 픽셀의 상기 G 성분과 상기 다른 색 성분 간의 수직 방향 색차 성분을 연산하는 기능;Obtaining a color component different from the G component of each pixel included in each pixel column of the mosaic image data, and thereby generating a vertical color difference component between the G component and each other color component of each pixel included in the pixel column in the vertical direction. A function of calculating; 상기 모자이크 화상 데이터의 각 픽셀 로우에 포함된 각 픽셀의 G 성분과 다른 색 성분을 획득하여, 수평 방향의 상기 각 픽셀 로우에 포함된 각 픽셀의 상기 G 성분과 상기 다른 색 성분 간의 수평 방향 색차 성분을 연산하는 기능;Obtaining a color component different from the G component of each pixel included in each pixel row of the mosaic image data, thereby generating a horizontal color difference component between the G component and each other color component of each pixel included in the pixel row in the horizontal direction; A function of calculating; 상기 모자이크 화상 데이터로부터 R 성분의 픽셀과 B 성분의 픽셀을 선택하고, 상기 픽셀 위치 각각에서, 적어도 상기 선택된 픽셀의 각각에 관하여 수직 방향 색차 성분의 변화량을 수평 방향 색차 성분의 변화량과 비교하여 적어도 상기 선택된 픽셀의 에지 방향을 검출하는 기능; 및Selecting a pixel of the R component and a pixel of the B component from the mosaic image data, and comparing the amount of change in the vertical color difference component with respect to the amount of change in the horizontal color difference component at least for each of the selected pixels at each of the pixel positions, at least the Detecting an edge direction of a selected pixel; And 상기 검출된 에지 방향을 참조하여, 상기 모자이크 화상 데이터의 각 픽셀의 누락 색 성분을 상기 모자이크 화상 데이터의 각 픽셀의 하나의 색 성분의 설정과 보간하는 기능들을 상기 컴퓨터로 하여금 달성하게 하는, 컴퓨터 판독 가능 매체.Referencing the detected edge direction, causing the computer to achieve functions of interpolating a missing color component of each pixel of the mosaic image data with the setting of one color component of each pixel of the mosaic image data Media available.
KR1020080091581A 2008-03-28 2008-09-18 Image processing apparatus, image processing method, and program for attaining image processing KR100996797B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080091581A KR100996797B1 (en) 2008-03-28 2008-09-18 Image processing apparatus, image processing method, and program for attaining image processing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/058,253 2008-03-28
KR1020080091581A KR100996797B1 (en) 2008-03-28 2008-09-18 Image processing apparatus, image processing method, and program for attaining image processing

Publications (2)

Publication Number Publication Date
KR20090103669A true KR20090103669A (en) 2009-10-01
KR100996797B1 KR100996797B1 (en) 2010-11-25

Family

ID=41533181

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080091581A KR100996797B1 (en) 2008-03-28 2008-09-18 Image processing apparatus, image processing method, and program for attaining image processing

Country Status (1)

Country Link
KR (1) KR100996797B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150080865A (en) * 2014-01-02 2015-07-10 삼성테크윈 주식회사 Apparatus for interpolating color
KR20220075686A (en) * 2020-11-30 2022-06-08 주식회사 샵캐스트 Method for detecting mosaic image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3503372B2 (en) 1996-11-26 2004-03-02 ミノルタ株式会社 Pixel interpolation device and pixel interpolation method
JP3946866B2 (en) 1997-07-31 2007-07-18 富士フイルム株式会社 Image signal processing apparatus and medium storing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150080865A (en) * 2014-01-02 2015-07-10 삼성테크윈 주식회사 Apparatus for interpolating color
KR20220075686A (en) * 2020-11-30 2022-06-08 주식회사 샵캐스트 Method for detecting mosaic image

Also Published As

Publication number Publication date
KR100996797B1 (en) 2010-11-25

Similar Documents

Publication Publication Date Title
US7995840B2 (en) Image processing apparatus, image processing method, and program for attaining image processing
US8131067B2 (en) Image processing apparatus, image processing method, and computer-readable media for attaining image processing
US9225948B2 (en) Pixel interpolation apparatus, imaging apparatus, pixel interpolation processing method, integrated circuit, and non-transitory computer readable storage medium
US8004588B2 (en) Image processing procedure for receiving mosaic image data and calculating vertical and horizontal-direction color difference components for each pixel
US8111299B2 (en) Demosaicking single-sensor camera raw data
KR20100018042A (en) Solid-state image sensing device
US8131110B2 (en) Reducing signal overshoots and undershoots in demosaicking
US20070019087A1 (en) Pixel signal processor and pixel signal processing method
US8045826B2 (en) Detecting edges in a digital images
US8077234B2 (en) Image pickup device and method for processing an interpolated color signal
JP3905708B2 (en) Image interpolation device
KR100996797B1 (en) Image processing apparatus, image processing method, and program for attaining image processing
KR100894420B1 (en) Apparatus and method for generating image using multi-channel filter
US20090109296A1 (en) Pxiel signal processing apparatus and pixel signal processing method
KR101327790B1 (en) Image interpolation method and apparatus
JP5981824B2 (en) Pixel interpolation processing device, imaging device, program, and integrated circuit
JP4334150B2 (en) Image interpolation device
JP6552248B2 (en) IMAGE PROCESSING APPARATUS AND METHOD, IMAGING APPARATUS, AND PROGRAM
JP4334151B2 (en) Image interpolation device
JP5106221B2 (en) Imaging device
JP4334152B2 (en) Image interpolation device
JP4666786B2 (en) Image interpolation device
JP4495355B2 (en) Image interpolation device
JP2002232903A (en) Image interpolation device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131018

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141104

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151016

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20161020

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20181101

Year of fee payment: 9