[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20240114659A - Apparatus and method for obtaining image emplying color separation lens array - Google Patents

Apparatus and method for obtaining image emplying color separation lens array Download PDF

Info

Publication number
KR20240114659A
KR20240114659A KR1020230021591A KR20230021591A KR20240114659A KR 20240114659 A KR20240114659 A KR 20240114659A KR 1020230021591 A KR1020230021591 A KR 1020230021591A KR 20230021591 A KR20230021591 A KR 20230021591A KR 20240114659 A KR20240114659 A KR 20240114659A
Authority
KR
South Korea
Prior art keywords
image
input image
white
edge
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020230021591A
Other languages
Korean (ko)
Inventor
장순근
김우식
하임 아자리아
갈 비탄
이갈 아비샤이
레나 그레치킨
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US18/414,132 priority Critical patent/US20240244333A1/en
Priority to EP24152375.2A priority patent/EP4404581A1/en
Publication of KR20240114659A publication Critical patent/KR20240114659A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • H01L27/14627
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/708Pixels for edge detection
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/806Optical elements or arrangements associated with the image sensors
    • H10F39/8063Microlenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

일 실시예에 따른 영상 획득 장치는, 입사광을 컬러에 따라 분리 및 집광하는 색분리 렌즈 어레이를 포함하는 이미지 센서, 및 이미지 센서에서 획득된 입력 이미지를 처리하는 신호 처리부를 포함한다. 신호 처리부는, 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱부, 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터부, 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 기 설정된 방향 별로 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성부, 입력 이미지를 화이트 밸런스 처리하고, 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출부, 입력 이미지를 화이트 밸런스 처리하고, 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출부, 및 검출된 그레이 영역 및 에지 방향에 기초하여, 제1 이미지 및 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택부를 포함한다.An image acquisition device according to an embodiment includes an image sensor including a color separation lens array that separates and condenses incident light according to color, and a signal processing unit that processes an input image acquired from the image sensor. The signal processing unit includes a demosaicing unit that reconstructs the green signal to have full pixel resolution using the input image, a sharpening filter unit that sharpens the reconstructed green signal in each preset direction to generate a first image, and a white balance unit that converts the input image into a white balance unit. A direction image generator that generates a second image in which the base band of the white-balanced input image is removed for each preset direction and only the detail band is extracted using an unsharpening filtering algorithm, and white balances the input image. and a gray detection unit for detecting the gray area of the white-balanced input image, an edge detection unit for white-balancing the input image and detecting the edge direction of the white-balanced input image, and based on the detected gray area and edge direction. Thus, it includes a selection unit that generates a third image by blending the first image and the second image.

Description

색분리 렌즈 어레이를 적용한 영상 획득 장치 및 방법{Apparatus and method for obtaining image emplying color separation lens array}Apparatus and method for obtaining image emplicating color separation lens array}

색분리 렌즈 어레이를 적용한 영상 획득 장치 및 방법에 관한 것이다.It relates to an image acquisition device and method using a color separation lens array.

이미지 센서는 촬상을 위해서 광감지셀 위에 Red, Green, Blue의 컬러 필터가 일정한 패턴을 가지고 배열되는데, 예를 들어, Green 색상에 민감한 인간의 시각/시감 특성을 고려하여 Green 50%, Red와 Blue가 각각 25%가 되도록 교차 배열되는 Bayer Pattern 구조가 적용될 수 있다. 컬러 필터는 해당 색의 광을 제외한 나머지 색의 광들을 흡수하기 때문에 광 이용 효율이 저하될 수 있다.In an image sensor, red, green, and blue color filters are arranged in a certain pattern on a light sensing cell for imaging purposes. For example, considering the visual/perceptual characteristics of humans who are sensitive to green color, 50% green, red, and blue are used. A Bayer Pattern structure in which are arranged crosswise so that each is 25% can be applied. Since the color filter absorbs light of other colors except for the light of the corresponding color, the efficiency of light use may decrease.

색분리 렌즈 어레이는 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 갖도록 형성되므로 입사광을 컬러에 따라 분리 및 집광할 수 있다. 이로 인해, 색분리 렌즈 어레이를 포함하는 이미지 센서는 주변 화소의 광 경로를 통해 광을 추가로 제공받을 수 있으므로, 광 이용 효율이 증가될 수 있다.The color separation lens array is formed to have a phase distribution that focuses light of different wavelengths on adjacent photo-sensing cells, so that incident light can be separated and concentrated according to color. Because of this, the image sensor including the color separation lens array can receive additional light through the light path of the surrounding pixels, and thus light use efficiency can be increased.

다만, 색분리 렌즈 어레이를 포함하는 이미지 센서는 블러(blur) 현상, 그리드 아티팩트(grid artifact), 및 색상 혼합 현상이 발생되어 공간 해상도가 저하될 수 있다.However, an image sensor including a color separation lens array may experience blur, grid artifacts, and color mixing, thereby reducing spatial resolution.

색분리 렌즈 어레이를 사용하면서 공간 해상도를 향상시킬 수 있는 영상 획득 장치 및 방법을 제공한다.An image acquisition device and method that can improve spatial resolution while using a color separation lens array are provided.

일 실시예에 따른 영상 획득 장치는, 입사광을 컬러에 따라 분리 및 집광하는 색분리 렌즈 어레이를 포함하는 이미지 센서, 및 상기 이미지 센서에서 획득된 입력 이미지를 처리하는 신호 처리부를 포함한다.An image acquisition device according to an embodiment includes an image sensor including a color separation lens array that separates and focuses incident light according to color, and a signal processing unit that processes an input image acquired from the image sensor.

상기 신호 처리부는, 상기 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱부, 상기 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터부, 상기 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 상기 기 설정된 방향 별로 상기 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성부, 상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출부, 상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출부, 및 상기 검출된 그레이 영역 및 상기 에지 방향에 기초하여, 상기 제1 이미지 및 상기 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택부를 포함한다.The signal processing unit includes a demosaicing unit that reconstructs the green signal to have full pixel resolution using the input image, a sharpening filter unit that sharpens the reconstructed green signal in each preset direction to generate a first image, and the input A direction image generator that white balances an image and uses an unsharpening filtering algorithm to generate a second image in which the base band of the white balanced input image is removed for each preset direction and only the detail band is extracted; A gray detector that white balances the input image and detects a gray area of the white balanced input image, an edge detector that white balances the input image and detects an edge direction of the white balanced input image, and a selection unit that generates a third image by blending the first image and the second image based on the detected gray area and the edge direction.

일 실시예에 따른 영상 획득 방법은, 입사광을 컬러에 따라 분리 및 집광하는 색분리 렌즈 어레이를 포함하는 이미지 센서를 포함하는 영상 획득 장치에 있어서, 상기 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱을 수행하는 단계, 상기 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터링 단계, 상기 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 상기 기 설정된 방향 별로 상기 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성 단계, 상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출 단계, 상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출 단계, 및 상기 검출된 그레이 영역 및 상기 에지 방향에 기초하여, 상기 제1 이미지 및 상기 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택 단계를 포함한다.An image acquisition method according to an embodiment includes an image acquisition device including an image sensor including a color separation lens array that separates and focuses incident light according to color, using the input image to convert a green signal into a full pixel resolution. performing demosaicing to reconstruct the reconstructed green signal, sharpening the reconstructed green signal in each preset direction to generate a first image, white balancing the input image, and using an unsharpening filtering algorithm, A direction image generation step of generating a second image in which the base band of the white balance-processed input image is removed for each preset direction and only the detail band is extracted, white balance processing the input image, and the white balance-processed input A gray detection step of detecting a gray area of an image, an edge detection step of white balancing the input image and detecting an edge direction of the white balance processed input image, and based on the detected gray area and the edge direction , and a selection step of generating a third image by blending the first image and the second image.

일 실시예에 따른 영상 획득 장치 및 방법에 따르면, 갭쳐된 원시 이미지 신호를 복수의 필터링 처리함으로써, 광효율 향상 효과를 유지하면서 영상의 공간 해상도를 향상시킬 수 있다.According to an image acquisition device and method according to an embodiment, the spatial resolution of the image can be improved while maintaining the effect of improving light efficiency by performing a plurality of filtering processes on the captured raw image signal.

도 1은 실시예에 따른 영상 획득 장치의 구성을 개략적으로 보여준다.
도 2는 실시예에 따른 이미지 센서의 블록도이다.
도 3은 이미지 센서의 화소 어레이의 화소 배열로서, 베이어 패턴(Bayer pattern)을 설명하기 위한 도면이다.
도 4 및 도 5는 실시예에 따른 이미지 센서를 개략적으로 보여준다.
도 6은 이미지 센서의 화소 어레이에서 광감지셀의 배열을 개략적으로 보이는 평면도이다.
도 7은 이미지 센서의 센서 기판의 광감지셀 배열에 대응되게 색분리 렌즈 어레이의 복수의 영역에 복수의 나노포스트가 배열된 형태를 예시적으로 보이는 평면도이다.
도 8은 일 실시예에 따른 신호 처리부의 동작을 설명하기 위한 블록도이다.
도 9는 도 3의 베이어 패턴의 컬러 필터 어레이를 통해 컬러를 표현할 수 있는 주파수 영역을 나타내는 도면이다.
도 10a 및 도 10b는 도 8의 디렉션 이미지 생성부에서 수행되는 영상 처리 동작을 설명하기 위한 도면들이다
도 11 내지 도 13은 본 발명의 효과를 설명하기 위한 도면들이다.
도 14는 샤프닝 처리 시, 조건 체크부를 이용하는 실시예를 설명하기 위한 도면이다.
도 15는 다른 실시예에 따른 언샤프닝 필터링 알고리즘을 수행하기 위한 블록도이다.
도 16은 이미지 센서의 주광선 각도(Chief ray angle)를 설명하기 위한 도면이다.
도 17은 일 실시예에 따른 해상도 개선 방법을 설명하기 위한 흐름도이다.
도 18는 실시예들에 따른 이미지센서를 포함하는 전자 장치를 개략적으로 도시한 블록도이다.
도 19은 도 18의 전자 장치에 구비된 카메라 모듈을 예시하는 블록도다.
Figure 1 schematically shows the configuration of an image acquisition device according to an embodiment.
Figure 2 is a block diagram of an image sensor according to an embodiment.
Figure 3 is a diagram for explaining a Bayer pattern as a pixel arrangement of an image sensor's pixel array.
4 and 5 schematically show an image sensor according to an embodiment.
Figure 6 is a plan view schematically showing the arrangement of photo-sensing cells in the pixel array of an image sensor.
Figure 7 is a plan view exemplarily showing a plurality of nanoposts arranged in a plurality of regions of the color separation lens array corresponding to the arrangement of the photo-sensing cells of the sensor substrate of the image sensor.
Figure 8 is a block diagram for explaining the operation of a signal processor according to an embodiment.
FIG. 9 is a diagram showing a frequency region in which color can be expressed through the color filter array of the Bayer pattern of FIG. 3.
FIGS. 10A and 10B are diagrams for explaining the image processing operation performed in the direction image generator of FIG. 8
11 to 13 are drawings to explain the effect of the present invention.
Figure 14 is a diagram for explaining an embodiment of using a condition check unit during sharpening processing.
Figure 15 is a block diagram for performing an unsharpening filtering algorithm according to another embodiment.
Figure 16 is a diagram for explaining the chief ray angle of the image sensor.
Figure 17 is a flowchart explaining a resolution improvement method according to an embodiment.
Figure 18 is a block diagram schematically showing an electronic device including an image sensor according to embodiments.
FIG. 19 is a block diagram illustrating a camera module provided in the electronic device of FIG. 18.

이하, 첨부된 도면들을 참조하여 예시적인 실시예들에 대해 상세히 설명한다. 이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다. 이하에서 설명되는 실시예들은 단지 예시적인 것으로, 이러한 실시예들로부터 다양한 변형이 가능하다. Hereinafter, exemplary embodiments will be described in detail with reference to the attached drawings. In the following drawings, the same reference numerals refer to the same components, and the size of each component in the drawings may be exaggerated for clarity and convenience of explanation. The embodiments described below are merely illustrative, and various modifications are possible from these embodiments.

이하에서, "상부" 나 "상"이라고 기재된 것은 접촉하여 바로 위에 있는 것뿐만 아니라 비접촉으로 위에 있는 것도 포함할 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다.Hereinafter, the term “above” or “above” may include not only what is directly above in contact but also what is above without contact. Singular expressions include plural expressions unless the context clearly dictates otherwise. Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary. The use of the term “above” and similar referential terms may refer to both the singular and the plural.

도 1은 실시예에 따른 영상 획득 장치의 구성을 개략적으로 보여준다.Figure 1 schematically shows the configuration of an image acquisition device according to an embodiment.

도 1을 참조하면, 영상 획득 장치(100)는, 객체(OBJ)로부터 반사된 광을 집속하여 광학 상(optical image)을 형성하는 촬영 렌즈부(120)에서 형성한 광학 상을 전기적 신호로 변환하여 컬러별 영상 신호를 획득하는 이미지 센서(200)와, 이미지 센서(200)에서 획득된 컬러별 영상 신호를 처리하여 출력 신호를 생성하는 신호 처리부(250)를 포함할 수 있다. 컬러별 영상 신호 및 신호 처리부(250)에서 형성된 영상을 저장하는 메모리(180) 등을 더 포함할 수 있다. 이미지 센서(200)와 촬영 렌즈부(120) 사이에는 추가적인 광학 요소 예컨대, 적외선 차단 필터 등이 더 배치될 수 있다.Referring to FIG. 1, the image acquisition device 100 converts the optical image formed by the photographing lens unit 120, which forms an optical image by focusing the light reflected from the object OBJ, into an electrical signal. It may include an image sensor 200 that acquires image signals for each color, and a signal processing unit 250 that processes the image signals for each color acquired by the image sensor 200 to generate an output signal. It may further include a memory 180 that stores image signals for each color and images formed in the signal processor 250. Additional optical elements, such as an infrared cut-off filter, may be further disposed between the image sensor 200 and the photographing lens unit 120.

도 2는 실시예에 따른 이미지 센서의 개략적인 블록도이다.Figure 2 is a schematic block diagram of an image sensor according to an embodiment.

도 2를 참조하면, 이미지 센서(200)는 화소 어레이(210), 타이밍 컨트롤러(240), 로우 디코더(220), 및 출력 회로(230)를 포함할 수 있다. 이미지 센서(200)는 CCD(charge coupled device) 이미지 센서, 또는 CMOS(complementary metal oxide semiconductor) 이미지 센서일 수 있다.Referring to FIG. 2 , the image sensor 200 may include a pixel array 210, a timing controller 240, a row decoder 220, and an output circuit 230. The image sensor 200 may be a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor.

화소 어레이(210)는 복수의 로우와 컬럼을 따라 2차원 배열된 화소들을 포함한다. 로우 디코더(220)는 타이밍 컨트롤러(240)로부터 출력된 로우 어드레스 신호에 응답하여 화소 어레이(210)의 로우들 중에서 하나를 선택한다. 출력 회로(230)는 선택된 로우를 따라 배열된 복수의 화소로부터 컬럼 단위로 광감지 신호를 출력한다. 이를 위하여, 출력 회로(230)는 컬럼 디코더와 아날로그-디지털 변환기(ADC; analog to digital converter)를 포함할 수 있다. 예를 들어, 출력 회로(230)는 컬럼 디코더와 화소 어레이(210) 사이에서 컬럼 별로 각각 배치된 복수의 ADC 또는, 컬럼 디코더의 출력단에 배치된 하나의 ADC를 포함할 수 있다. 타이밍 컨트롤러(240), 로우 디코더(220), 및 출력 회로(230)는 하나의 칩, 또는 각각 별개의 칩으로 구현될 수 있다. 출력 회로(230)를 통해 출력된 영상 신호를 처리하기 위한 도 1의 신호 처리부(250)가 타이밍 컨트롤러(240), 로우 디코더(220), 및 출력 회로(230)와 함께 하나의 칩으로 구현될 수도 있다.The pixel array 210 includes pixels arranged two-dimensionally along a plurality of rows and columns. The row decoder 220 selects one of the rows of the pixel array 210 in response to the row address signal output from the timing controller 240. The output circuit 230 outputs a light-sensing signal in column units from a plurality of pixels arranged along the selected row. To this end, the output circuit 230 may include a column decoder and an analog to digital converter (ADC). For example, the output circuit 230 may include a plurality of ADCs arranged for each column between the column decoder and the pixel array 210, or one ADC arranged at the output terminal of the column decoder. The timing controller 240, row decoder 220, and output circuit 230 may be implemented as one chip or as separate chips. The signal processing unit 250 of FIG. 1 for processing the image signal output through the output circuit 230 is implemented as a single chip together with the timing controller 240, the row decoder 220, and the output circuit 230. It may be possible.

화소 어레이(210)는 서로 다른 파장의 광을 감지하는 복수의 화소를 포함할 수 있다. 화소의 배열은 다양한 방식으로 구현될 수 있다.The pixel array 210 may include a plurality of pixels that sense light of different wavelengths. Array of pixels can be implemented in various ways.

도 3은 이미지 센서의 화소 어레이의 화소 배열로서, 베이어 패턴(Bayer pattern)을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a Bayer pattern as a pixel arrangement of an image sensor.

도 3을 참조하면, 하나의 단위 화소는 네 개의 사분 영역(quadrant region)을 포함하며, 제1 내지 제4 사분면이 각각 청색 화소(B), 녹색 화소(G), 적색 화소(R), 녹색 화소(G)가 될 수 있다. 이러한 단위 화소가 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 이차원적으로 반복 배열된다. 다시 말해, 2×2 어레이 형태의 단위 화소 내에서 한 쪽 대각선 방향으로 2개의 녹색 화소(G)가 배치되고, 다른 쪽 대각선 방향으로 각각 1개의 청색 화소(B)와 1개의 적색 화소(R)가 배치된다. 전체적인 화소 배열을 보면, 복수의 녹색 화소(G)와 복수의 청색 화소(B)가 제1 방향을 따라 번갈아 배열되는 제1 행과 복수의 적색 화소(R)와 복수의 녹색 화소(G)가 제1 방향을 따라 번갈아 배열되는 제2행이 제2 방향을 따라 반복적으로 배열된다.Referring to FIG. 3, one unit pixel includes four quadrant regions, and the first to fourth quadrants are blue pixel (B), green pixel (G), red pixel (R), and green pixel, respectively. It can be a pixel (G). These unit pixels are repeatedly arranged two-dimensionally along the first direction (X direction) and the second direction (Y direction). In other words, within a unit pixel in a 2×2 array, two green pixels (G) are arranged diagonally on one side, and one blue pixel (B) and one red pixel (R) are placed diagonally on the other side. is placed. Looking at the overall pixel arrangement, a first row in which a plurality of green pixels (G) and a plurality of blue pixels (B) are alternately arranged along the first direction, and a plurality of red pixels (R) and a plurality of green pixels (G) are arranged alternately in the first direction. Second rows alternately arranged along the first direction are repeatedly arranged along the second direction.

도 4 및 도 5는 실시예에 따른 이미지 센서를 개략적으로 보여준다. 도 6은 이미지 센서의 화소 어레이에서 광감지셀의 배열을 개략적으로 보이는 평면도이다. 도 7은 이미지 센서의 센서 기판의 광감지셀 배열에 대응되게 색분리 렌즈 어레이의 복수의 영역에 복수의 나노포스트가 배열된 형태를 예시적으로 보이는 평면도이다.4 and 5 schematically show an image sensor according to an embodiment. Figure 6 is a plan view schematically showing the arrangement of photo-sensing cells in the pixel array of an image sensor. Figure 7 is a plan view exemplarily showing a plurality of nanoposts arranged in a plurality of regions of the color separation lens array corresponding to the arrangement of the photo-sensing cells of the sensor substrate of the image sensor.

도 3 내지 도 5를 참조하면, 이미지 센서(200)의 화소 어레이(210)는 광을 센싱하는 복수의 광감지셀의 어레이를 포함하는 센서 기판(500)과, 센서 기판(500) 전단에 배치되어 광을 컬러에 따라 분리 및 집광하여 복수의 광감지셀에 입사시키는 색분리 렌즈 어레이(300)를 포함한다.3 to 5, the pixel array 210 of the image sensor 200 is disposed on a sensor substrate 500 including an array of a plurality of photo-sensing cells for sensing light, and at the front of the sensor substrate 500. It includes a color separation lens array 300 that separates and focuses light according to color and makes it enter a plurality of photo-sensing cells.

이미지 센서(200)의 센서 기판(500)은 광을 전기적 신호로 변환하는 제1 광감지셀(511), 제2 광감지셀(512), 제3 광감지셀(513), 제4 광감지셀(514)을 포함할 수 있다. 제1 광감지셀(511), 제2 광감지셀(512), 제3 광감지셀(513), 제4 광감지셀(514)의 단위 화소가 2차원으로 반복 배열될 수 있다. 이미지 센서(200)의 화소 어레이(210)가 베이어 패턴을 갖는 경우, 예를 들어, 제1 광감지셀(511) 및 제4 광감지셀(514)은 녹색 화소(G)에 해당하며, 제2 광감지셀(512) 및 제3 광감지셀(513) 중 하나는 적색 화소(R)에 해당하고 나머지 하나는 청색 화소(B)에 해당할 수 있다.The sensor substrate 500 of the image sensor 200 includes a first photo-sensing cell 511, a second photo-sensing cell 512, a third photo-sensing cell 513, and a fourth photo-sensing cell that converts light into an electrical signal. It may include a cell 514. Unit pixels of the first photo-sensing cell 511, the second photo-sensing cell 512, the third photo-sensing cell 513, and the fourth photo-sensing cell 514 may be repeatedly arranged in two dimensions. When the pixel array 210 of the image sensor 200 has a Bayer pattern, for example, the first photo-sensing cell 511 and the fourth photo-sensing cell 514 correspond to the green pixel (G), and the One of the two photo-sensing cells 512 and the third photo-sensing cell 513 may correspond to the red pixel (R) and the other may correspond to the blue pixel (B).

색분리 렌즈 어레이(300)는 복수의 광감지셀(511, 512, 513, 514)과 각각 마주하는 복수의 영역(311,312,313,314) 각각에 미소 구조를 구비하여, 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 마련되어 입사광을 컬러에 따라 분리 및 집광할 수 있다. 색분리 렌즈 어레이(300)의 미소 구조는 도 5에 예시적으로 보인 바와 같이, 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 하나 이상의 나노포스트(NP)가 분포되도록 배치된 복수의 나노포스트를 포함할 수 있다. 다른 예로서, 색분리 렌즈 어레이(300)의 미소 구조는 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 패턴으로 이루질 수도 있다. 이하에서는 미소 구조가 나노포스트로 이루어진 경우를 예를 들어 설명한다. The color separation lens array 300 is provided with a microstructure in each of the plurality of regions (311, 312, 313, 314) facing each of the plurality of photo-sensing cells (511, 512, 513, and 514), so that different wavelengths are transmitted to the adjacent photo-sensing cells. It is provided to form a phase distribution that condenses light, so that incident light can be separated and concentrated according to color. As exemplarily shown in FIG. 5, the microstructure of the color separation lens array 300 has one or more nanoposts (NPs) distributed to form a phase distribution that focuses light of different wavelengths on adjacent photosensing cells. It may include a plurality of nanoposts arranged so as to be possible. As another example, the microstructure of the color separation lens array 300 may be patterned to form a phase distribution that focuses light of different wavelengths on adjacent photo-sensing cells. Hereinafter, a case where the microstructure is made of nanoposts will be described as an example.

색분리 렌즈 어레이(300)는, 센서 기판(500)의 복수의 광감지셀(511, 512, 513, 514)와 일대일로 대응하며 마주하는 복수의 영역(311,312,313,314)을 포함할 수 있다. 예를 들어, 색분리 렌즈 어레이(300)는 센서 기판(500)의 제1 내지 제4 광감지셀(511, 512, 513, 514)과 일대일로 대응하며 마주하는 제1 내지 제4 영역(311,312,313,314)을 포함할 수 있으며, 제1 내지 제4 영역(311,312,313,314)은 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 제1 내지 제4 미소 구조를 포함할 수 있다. The color separation lens array 300 may include a plurality of regions 311, 312, 313, and 314 that face and correspond to the plurality of photosensing cells 511, 512, 513, and 514 of the sensor substrate 500 in a one-to-one correspondence. For example, the color separation lens array 300 corresponds one-to-one with the first to fourth photo-sensing cells 511, 512, 513, and 514 of the sensor substrate 500, and has first to fourth regions (311, 312, 313, 314) facing each other. ), and the first to fourth regions 311, 312, 313, and 314 may include first to fourth microstructures to form a phase distribution that focuses light of different wavelengths on adjacent photosensing cells.

제1 내지 제4 미소 구조가 도 5에서와 같이 각각 하나 이상의 나노포스트를 구비하는 경우, 제1 영역(311)은 하나 이상의 제1 나노포스트를 포함하며, 제2 영역(312)은 하나 이상의 제2 나노포스트를 포함하며, 제3 영역(313)은 하나 이상의 제3 나노포스트를 포함하며, 제4 영역(314)은 하나 이상의 제4 나노포스트를 포함할 수 있다. 색분리 렌즈 어레이(300)를 통과한 소정 파장의 광이 제1 내지 제4 광감지셀(511, 512, 513, 514) 중 어느 하나에 대응하는 광감지셀로 집광되는 위상을 형성하고, 나머지 광감지셀로는 진행하지 않는 위상을 형성하도록 제1 내지 제4 나노포스트의 형상, 크기, 배열이 정해질 수 있다. 또한, 색분리 렌즈 어레이(300)에 구비되는 복수의 영역은 각각 복수의 서브 영역을 포함하며, 복수의 나노포스트는 복수의 서브 영역 내에 배치될 수 있다. 또한, 색분리 렌즈 어레이(300)에 구비되는 복수의 영역은 각각 복수의 서브 영역을 포함하며, 복수의 나노포스트는 복수의 서브 영역간의 교차점에 배치될 수 있다.When the first to fourth microstructures each include one or more nanoposts as shown in FIG. 5, the first region 311 includes one or more first nanoposts, and the second region 312 includes one or more nanoposts. It includes 2 nanoposts, the third region 313 may include one or more third nanoposts, and the fourth region 314 may include one or more fourth nanoposts. Light of a predetermined wavelength passing through the color separation lens array 300 forms a phase in which the light is focused on a photo-sensing cell corresponding to one of the first to fourth photo-sensing cells 511, 512, 513, and 514, and the remaining The shape, size, and arrangement of the first to fourth nanoposts may be determined to form a phase that does not proceed to the photosensitive cell. Additionally, the plurality of regions provided in the color separation lens array 300 each include a plurality of sub-regions, and a plurality of nanoposts may be arranged in the plurality of sub-regions. Additionally, the plurality of regions provided in the color separation lens array 300 each include a plurality of sub-regions, and a plurality of nanoposts may be arranged at intersections between the plurality of sub-regions.

이미지 센서(200)는, 단위 화소가 반복 배열된 화소 배열 구조를 가질 수 있다. 예를 들어, 이미지 센서(200)는, 네 개의 사분 영역(quadrant region)이 각각 청색 화소, 녹색 화소, 적색 화소, 녹색 화소로 구성되는 단위 화소가 제1 방향 및 제2 방향을 따라 이차원적으로 반복 배열된 베이어 패턴 구조를 가질 수 있다. 이때, 예를 들어, 색분리 렌즈 어레이(300)의 복수의 나노포스트 중, 복수의 영역 중 녹색 화소에 대응하는 영역의 중심부에 구비된 나노포스트가 다른 컬러의 화소에 대응하는 영역의 중심부에 구비된 나노포스트보다 큰 단면적을 가질 수 있다. 또한, 복수의 나노포스트 중, 복수의 영역 중 녹색 화소에 대응하는 영역에 구비된 나노포스트는 주변부에 배치된 나노포스트가 중심부에 배치된 나노포스트보다 단면적이 작을 수 있다. 또한, 복수의 영역 중 녹색 화소에 대응하는 영역에 구비된 나노포스트는 제1 방향 및 제2 방향을 따라 서로 다른 분포 규칙을 가지며, 복수의 영역 중 청색 화소 및 적색 화소에 대응하는 영역에 구비된 나노포스트는 제1 방향 및 제2 방향을 따라 대칭적인 분포 규칙을 가질 수 있다. 다른 예로, 청색 화소 또는 적색 화소에 대응하는 영역이 중심부에 구비된 나노포스트가 다른 컬러의 화소에 대응하는 영역의 중심부에 구비된 나노포스트보다 큰 단면적으로 가질 수도 있다. The image sensor 200 may have a pixel array structure in which unit pixels are repeatedly arranged. For example, the image sensor 200 has four quadrant regions in which unit pixels composed of a blue pixel, a green pixel, a red pixel, and a green pixel are arranged two-dimensionally along the first and second directions. It may have a repetitively arranged Bayer pattern structure. At this time, for example, among the plurality of nanoposts of the color separation lens array 300, the nanopost provided in the center of the area corresponding to the green pixel among the plurality of areas is provided in the center of the area corresponding to the pixel of another color. It can have a larger cross-sectional area than a nanopost. In addition, among the plurality of nanoposts, the nanoposts provided in the area corresponding to the green pixel among the plurality of regions may have a smaller cross-sectional area than the nanoposts arranged in the peripheral area than the nanoposts arranged in the center. In addition, the nanoposts provided in the areas corresponding to the green pixels among the plurality of areas have different distribution rules along the first and second directions, and the nanoposts provided in the areas corresponding to the blue pixels and the red pixels among the plurality of areas. Nanoposts may have a symmetrical distribution rule along the first and second directions. As another example, a nanopost provided at the center of an area corresponding to a blue or red pixel may have a larger cross-sectional area than a nanopost provided at the center of an area corresponding to a pixel of another color.

예를 들어, 제1 광감지셀(511)은 제1 화소에 해당하는 제1 파장의 광을 센싱하고, 제2 광감지셀(512)은 제2 화소에 해당하는 제2 파장의 광을 센싱하며, 제3 광감지셀(513)은 제3 화소에 해당하는 제3 파장의 광을 센싱하며, 제4 광감지셀(514)은 제4 화소에 해당하는 제4 파장의 광을 센싱할 수 있다. 다만, 실시예가 이에 한정되는 것은 아니다. 셀 간 경계에는 도시되지는 않았으나, 셀 분리를 위한 분리막이 더 형성될 수도 있다. For example, the first photo-sensing cell 511 senses light of the first wavelength corresponding to the first pixel, and the second photo-sensing cell 512 senses light of the second wavelength corresponding to the second pixel. In addition, the third photo-sensing cell 513 can sense light of the third wavelength corresponding to the third pixel, and the fourth photo-sensing cell 514 can sense light of the fourth wavelength corresponding to the fourth pixel. there is. However, the examples are not limited to this. Although not shown, a separator for cell separation may be further formed at the boundary between cells.

이미지 센서(200)에 있어서, 제1 화소, 제2 화소, 제3 화소, 제4 화소는 각각 녹색 화소(G), 청색 화소(B), 적색 화소(R), 녹색 화소(G)이고, 베이어 패턴 배열을 이루도록 된 경우, 센서 기판(500)의 제1 광감지셀(511), 제2 광감지셀(512), 제3 광감지셀(513), 제4 광감지셀(514)은 베이어 패턴 배열에 대응되게 배치될 수 있다. In the image sensor 200, the first pixel, the second pixel, the third pixel, and the fourth pixel are a green pixel (G), a blue pixel (B), a red pixel (R), and a green pixel (G), respectively; When arranged in a Bayer pattern, the first photo-sensing cell 511, the second photo-sensing cell 512, the third photo-sensing cell 513, and the fourth photo-sensing cell 514 of the sensor substrate 500 are It can be arranged corresponding to the Bayer pattern arrangement.

색분리 렌즈 어레이(300)는 입사광을 컬러에 따라 분리 및 집광하여 복수의 광감지셀 예컨대, 제1 내지 제4 광감지셀(511,512,513,514)에 입사시키기 위한 것으로, 도 5에서와 같이 복수의 나노포스트(NP) 어레이를 포함할 수 있다.The color separation lens array 300 is for separating and concentrating incident light according to color and making it incident on a plurality of photo-sensing cells, such as the first to fourth photo-sensing cells 511, 512, 513, and 514. As shown in FIG. 5, a plurality of nanoposts are used. (NP) may include an array.

예를 들어, 색분리 렌즈 어레이(300)는 제1 광감지셀(511)에 제1 파장의 광이 입사되어 녹색 화소(G)를 형성하고, 제2 광감지셀(512)에 제2 파장의 광이 입사되어 청색 화소(B)를 형성하고, 제3 광감지셀(513)에 제3 파장의 광이 입사되어 적색 화소(R)를 형성하고, 제4 광감지셀(514)에 제1 파장의 광이 입사되어 녹색 화소(G)를 형성하도록, 입사광을 컬러에 따라 분리 및 집광할 수 있다. For example, in the color separation lens array 300, light of a first wavelength is incident on the first photo-sensing cell 511 to form a green pixel (G), and light of the second wavelength is incident on the second photo-sensing cell 512. Light is incident to form a blue pixel (B), light of a third wavelength is incident to the third photo-sensing cell 513 to form a red pixel (R), and light of the third wavelength is incident to the fourth photo-sensing cell 514. Incident light can be separated and concentrated according to color so that light of one wavelength is incident to form a green pixel (G).

색분리 렌즈 어레이(300)는 복수의 나노포스트(NP)가 소정 규칙으로 배열된 나노포스트 어레이를 포함한다. 나노포스트 어레이는 스페이서층에 의해 지지될 수 있다. 스페이서층은 센서 기판(500)과 색분리 렌즈 어레이(300) 사이의 간격을 일정하게 유지시키는 역할을 한다. 스페이서층은 색분리 렌즈 어레이(300)를 통과한 광의 각 광감지셀로의 초점거리 확보에 필요한 만큼 간격이 설계될 수 있다. 기존의 마이크로렌즈 어레이와 컬러필터의 조합과 비교하여, 색분리 렌즈 어레이(300)를 사용하는 경우의 스페이서층은 색분리 및 집광을 구현하기 위해 센서 기판(500)과 색분리 렌즈 어레이(300) 사이에 더 두꺼운 간격이 요구된다. 또한, 스페이서층은 가시광에 대해 투명한 재료로 이루어질 수 있다. 예를 들어, 스페이서층은 SiO2, 실란올계 유리(SOG; siloxane-based spin on glass) 등과 같이 색분리 렌즈 어레이(300)의 나노포스트(NP)의 굴절률보다 낮은 굴절률을 가지면서 가시광 대역에서 흡수율이 낮은 유전체 재료로 이루어질 수 있다. 도 5에서는 색분리 렌즈 어레이(300)에서의 입사광의 컬러에 따른 분리 및 집광을 보다 명확히 표현하도록 스페이서층의 도시를 편의상 생략하였다. The color separation lens array 300 includes a nanopost array in which a plurality of nanoposts (NPs) are arranged in a predetermined rule. The nanopost array can be supported by a spacer layer. The spacer layer serves to maintain a constant gap between the sensor substrate 500 and the color separation lens array 300. The spacer layer may be designed to have an interval as necessary to secure the focal distance of the light passing through the color separation lens array 300 to each photo-sensing cell. Compared to the combination of a conventional microlens array and a color filter, when using the color separation lens array 300, the spacer layer is a sensor substrate 500 and a color separation lens array 300 to implement color separation and light collection. A thicker gap is required between them. Additionally, the spacer layer may be made of a material that is transparent to visible light. For example, the spacer layer has a lower refractive index than the refractive index of the nanoposts (NPs) of the color separation lens array 300, such as SiO2, silanol-based glass (SOG; siloxane-based spin on glass), and has an absorption rate in the visible light band. It may be made of low dielectric material. In FIG. 5 , the spacer layer is omitted for convenience in order to more clearly express the separation and concentration of light incident on the color of the color separation lens array 300.

한편, 색분리 렌즈 어레이(300)는 복수의 나노포스트(NP)를 보호하는 보호층이 더 구비될 수 있다. 보호층은 나노포스트(NP)를 이루는 재질의 굴절률보다 낮은 굴절률의 유전체 재질로 이루어질 수 있다. 또한, 색분리 렌즈 어레이(300)는 스페이서층과 센서 기판(500) 사이에 컬러 필터를 더 구비할 수 있다. 예를 들어, 제1 화소, 제2 화소, 제3 화소, 제4 화소는 각각 녹색 화소(G), 청색 화소(B), 적색 화소(R), 녹색 화소(G)인 경우, 센서 기판(500)의 제1 광감지셀(511) 및 제4 광감지셀(514) 상에 녹색 컬러 필터가 배치되고, 제2 광감지셀(512) 상에 청색 컬러 필터가 배치되고, 제3 광감지셀(513) 상에 적색 컬러 필터가 배치될 수 있다. 다양한 목적으로 컬러 필터를 사용할 수 있지만, 일 예로 컬러필터를 사용하면, 컬러필터를 통과한 각 파장대역의 신호에 대해 기존의 이미지 신호처리 기술로 영상을 생성하기 용이할 수 있다. Meanwhile, the color separation lens array 300 may be further provided with a protective layer that protects a plurality of nanoposts (NPs). The protective layer may be made of a dielectric material with a lower refractive index than the refractive index of the material forming the nanopost (NP). Additionally, the color separation lens array 300 may further include a color filter between the spacer layer and the sensor substrate 500. For example, if the first pixel, second pixel, third pixel, and fourth pixel are green pixel (G), blue pixel (B), red pixel (R), and green pixel (G), respectively, the sensor substrate ( 500), a green color filter is disposed on the first photo-sensing cell 511 and the fourth photo-sensing cell 514, a blue color filter is disposed on the second photo-sensing cell 512, and a third photo-sensing cell 514 is provided. A red color filter may be placed on the cell 513. Color filters can be used for various purposes, but for example, if a color filter is used, it can be easy to create an image using existing image signal processing technology for signals in each wavelength band that pass through the color filter.

이미지 센서(200)의 화소 어레이(210)는 2차원 배열을 가질 수 있다. 즉, 도 6에서와 같이 제1 광감지셀(511)과 제2 광감지셀(512)이 번갈아 배열되는 제1 행과 제3 광감지셀(513)과 제4 광감지셀(514)이 번갈아 배열되는 제2 행이 서로 교대로 반복되도록, 센서 기판(500)에서 복수의 제1 광감지셀(511), 제2 광감지셀(512), 제3 광감지셀(513), 및 제4 광감지셀(514)이 제1 방향(X방향)과 제2 방향(Y방향)을 따라 이차원 배열될 수 있다. 이때, 이미지 센서(200)의 화소 어레이(210) 배열이 도 3에서와 같이 베이어 패턴 배열인 경우, 제1 광감지셀(511)과 제4 광감지셀(514)이 녹색 화소(G)에 대응하고, 제2 광감지셀(512)이 청색 화소(B)에 대응하고, 제3 광감지셀(513)이 적색 화소(R)에 대응하게 된다. 센서 기판(500)의 제1 내지 제4 광감지셀(511,512,513,514)의 배열에 일대일로 대응되게 색분리 렌즈 어레이(300)의 나노포스트 어레이는 도 7에서와 같이 이에 대응되게 복수의 영역(311,312,313,314)으로 구획될 수 있다.The pixel array 210 of the image sensor 200 may have a two-dimensional array. That is, as shown in FIG. 6, the first row, the third photo-sensing cell 513, and the fourth photo-sensing cell 514 are arranged alternately with the first photo-sensing cell 511 and the second photo-sensing cell 512. A plurality of first photo-sensing cells 511, second photo-sensing cells 512, third photo-sensing cells 513, and 4 Photo-sensing cells 514 may be two-dimensionally arranged along the first direction (X direction) and the second direction (Y direction). At this time, when the pixel array 210 of the image sensor 200 is arranged in a Bayer pattern as shown in FIG. 3, the first photo-sensing cell 511 and the fourth photo-sensing cell 514 are connected to the green pixel (G). Correspondingly, the second photo-sensing cell 512 corresponds to the blue pixel (B), and the third photo-sensing cell 513 corresponds to the red pixel (R). In a one-to-one correspondence with the arrangement of the first to fourth photo-sensing cells 511, 512, 513, and 514 of the sensor substrate 500, the nanopost array of the color separation lens array 300 has a plurality of regions 311, 312, 313, and 314 corresponding thereto, as shown in FIG. 7. can be divided into

예를 들어, 이미지 센서(200)의 화소 배열이 베이어(Bayer) 패턴의 배열일 때, 하나의 단위 화소는 네 개의 사분 영역(quadrant region)을 포함하며, 제1 내지 제4 사분면이 각각 청색 화소(B), 녹색 화소(G), 적색 화소(R), 녹색 화소(G)가 될 수 있다. 이러한 단위 화소가 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 이차원적으로 반복 배열된다. For example, when the pixel arrangement of the image sensor 200 is a Bayer pattern arrangement, one unit pixel includes four quadrant regions, and the first to fourth quadrants are each a blue pixel. (B), green pixel (G), red pixel (R), or green pixel (G). These unit pixels are arranged two-dimensionally and repeatedly along the first direction (X direction) and the second direction (Y direction).

단위 화소에서, 녹색 화소(G)에는 제1 광감지셀(511)과 이에 대응하는 색분리 렌즈 어레이(300)의 제1 영역(311)이 대응하고, 청색 화소(B)에는 제2 광감지셀(512)과 이에 대응하는 색분리 렌즈 어레이(300)의 영역(312)이 대응하며, 적색 화소(R)에는 제3 광감지셀(513)과 이에 대응하는 색분리 렌즈 어레이(300)의 영역(313)이 대응하고, 녹색 화소(G)에는 제4 광감지셀(514)과 이에 대응하는 색분리 렌즈 어레이(300)의 제4 영역(314)이 대응한다. In a unit pixel, the green pixel (G) corresponds to the first photo-sensing cell 511 and the corresponding first area 311 of the color separation lens array 300, and the blue pixel (B) corresponds to the second photo-sensing cell 511. The cell 512 corresponds to the area 312 of the color separation lens array 300, and the red pixel (R) includes the third photosensing cell 513 and the corresponding color separation lens array 300. The area 313 corresponds to the green pixel (G), and the fourth photo-sensing cell 514 and the corresponding fourth area 314 of the color separation lens array 300 correspond to the green pixel (G).

도 7을 참조하면, 색분리 렌즈 어레이(300)의 나노포스트 어레이는 제1 내지 제4 광감지셀(511, 512, 513, 514)과 일대일로 대응하며 마주하는 제1 내지 제4 영역(311, 312, 313, 314)으로 구획된다. 제1 내지 제4 영역(311, 312, 313, 314) 각각에는 하나 이상의 나노포스트(NP)가 배치될 수 있고 나노포스트(NP)는 형상, 크기, 배열 중 적어도 어느 하나가 영역에 따라 다를 수 있다. Referring to FIG. 7, the nanopost array of the color separation lens array 300 corresponds one-to-one with the first to fourth photo-sensing cells 511, 512, 513, and 514 and faces the first to fourth regions 311. , 312, 313, 314). One or more nanoposts (NPs) may be disposed in each of the first to fourth regions (311, 312, 313, and 314), and at least one of the shape, size, and arrangement of the nanoposts (NPs) may vary depending on the region. there is.

색분리 렌즈 어레이(300)의 복수의 나노포스트(NP)는 센서 기판(500)의 서로 인접하는 제1 광감지셀(511)과 제2 광감지셀(512)에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 형상, 크기, 배열이 정해질 수 있다. 또한 색분리 렌즈 어레이(300)의 복수의 나노포스트(NP)는 센서 기판(500)의 서로 인접하는 제3 광감지셀(513)과 제4 광감지셀(514)에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 형상, 크기, 배열이 정해질 수 있다.A plurality of nanoposts (NPs) of the color separation lens array 300 focus light of different wavelengths on the first photo-sensing cell 511 and the second photo-sensing cell 512 adjacent to each other of the sensor substrate 500. The shape, size, and arrangement can be determined to form a desired phase distribution. In addition, the plurality of nanoposts (NPs) of the color separation lens array 300 transmit light of different wavelengths to the third photo-sensing cell 513 and the fourth photo-sensing cell 514 adjacent to each other of the sensor substrate 500. The shape, size, and arrangement can be determined to form a phase distribution that concentrates light.

예를 들어, 이미지 센서(200)의 화소 어레이(210) 배열이 베이어 패턴 배열일 때, 도 7에서와 같이, 녹색 화소(G)에 색분리 렌즈 어레이(300)의 영역(311)이 대응하고, 청색 화소(B)에 색분리 렌즈 어레이(300)의 영역(312)이 대응하며, 적색 화소(R)에 색분리 렌즈 어레이(300)의 영역(313)이 대응하며, 녹색 화소(G)에 색분리 렌즈 어레이(300)의 영역(314)이 대응하므로, 녹색 화소(G), 청색 화소(B), 적색 화소(R)에 대응하는 색분리 렌즈 어레이(300)의 영역의 중심부에 단면적이 서로 다른 나노포스트(NP)가 배치되며, 화소간 경계선 상의 중심 및 화소 경계선의 교차점에 나노포스트(NP)가 배치된다. 화소간 경계에 배치된 나노포스트(NP)의 단면적은 화소 중심부에 배치된 나노포스트(NP)보다 작은 단면적을 가질 수 있다.For example, when the pixel array 210 of the image sensor 200 is arranged in a Bayer pattern, as shown in FIG. 7, the area 311 of the color separation lens array 300 corresponds to the green pixel (G). , the area 312 of the color separation lens array 300 corresponds to the blue pixel (B), the area 313 of the color separation lens array 300 corresponds to the red pixel (R), and the green pixel (G) Since the area 314 of the color separation lens array 300 corresponds to the cross-sectional area at the center of the area of the color separation lens array 300 corresponding to the green pixel (G), blue pixel (B), and red pixel (R) These different nanoposts (NPs) are arranged, and the nanoposts (NPs) are placed at the intersection of the pixel borderline and the center on the borderline between pixels. The cross-sectional area of the nanopost (NP) disposed at the boundary between pixels may be smaller than that of the nanopost (NP) disposed at the center of the pixel.

예를 들어, 녹색 화소(G)에 대응하는 색분리 렌즈 어레이(300)의 영역(311,314)의 중심부에 배치된 나노포스트(NP)의 단면의 면적이 청색 화소(B)에 대응하는 색분리 렌즈 어레이(300)의 영역(312)이나 적색 화소(R)에 대응하는 색분리 렌즈 어레이(300)의 영역(313)의 중심부에 배치된 나노포스트(NP)의 단면적보다 크며, 청색 화소(B)에 대응하는 영역(312)의 중심부에 배치된 나노포스트(NP)의 단면적이 적색 화소(R)에 대응하는 영역(313)의 중심부에 배치된 나노포스트(NP)의 단면적보다 크다. 다만, 이에 한정되는 것은 아니다. 여기서, 단면적은 나노포스트(NP)의 높이 방향(Z방향)에 수직인 단면의 면적을 의미한다.For example, the cross-sectional area of the nanopost (NP) disposed in the center of the areas 311 and 314 of the color separation lens array 300 corresponding to the green pixel (G) is the color separation lens corresponding to the blue pixel (B). It is larger than the cross-sectional area of the nanopost (NP) disposed in the center of the area 312 of the array 300 or the area 313 of the color separation lens array 300 corresponding to the red pixel (R), and the blue pixel (B) The cross-sectional area of the nano-post (NP) disposed at the center of the region 312 corresponding to is larger than the cross-sectional area of the nano-post (NP) disposed at the center of the region 313 corresponding to the red pixel (R). However, it is not limited to this. Here, the cross-sectional area refers to the area of the cross-section perpendicular to the height direction (Z direction) of the nanopost (NP).

한편, 녹색 화소(G)에 대응하는 영역(311,314)에 구비된 나노포스트(NP)는 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 서로 다른 분포 규칙을 가질 수 있다. 즉, 녹색 화소(G)에 대응하는 영역(311,314)에 구비된 나노포스트(NP)는 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 비대칭적인 크기 배열을 가질 수 있다. 도 7에 도시된 바와 같이, 녹색 화소(G)에 대응하는 영역(311,314)과 제1 방향(X방향)으로 인접한 청색 화소(B)에 대응하는 영역(312)과의 경계에 위치하는 나노포스트(NP)의 단면적과 제2 방향(Y방향)으로 인접하는 적색 화소(R)에 대응하는 영역(313)과의 경계에 위치하는 나노포스트(NP)의 단면적은 서로 다르다.Meanwhile, nanoposts (NPs) provided in the areas 311 and 314 corresponding to the green pixel (G) may have different distribution rules along the first direction (X direction) and the second direction (Y direction). That is, the nanoposts (NP) provided in the areas 311 and 314 corresponding to the green pixel (G) may have an asymmetric size arrangement along the first direction (X direction) and the second direction (Y direction). As shown in FIG. 7, the nanopost is located at the boundary between the areas 311 and 314 corresponding to the green pixel (G) and the area 312 corresponding to the blue pixel (B) adjacent in the first direction (X direction). The cross-sectional area of the nanopost (NP) located at the border of the region 313 corresponding to the red pixel (R) adjacent in the second direction (Y direction) is different from each other.

반면, 청색 화소(B) 및 적색 화소(R)에 대응하는 영역(312,313))에 구비된 나노포스트는 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 대칭적인 분포 규칙을 가질 수 있다. 도 7에 도시된 바와 같이, 청색 화소(B)에 대응하는 영역(312)은 제1 방향(X방향)으로 및 제2 방향(Y방향)으로 인접한 화소 간의 경계에 놓이는 나노포스트(NP)의 단면적이 서로 같으며, 또한, 적색 화소(R)에 대응하는 영역(313)도 제1 방향(X방향)으로 및 제2 방향(Y방향)으로 인접한 화소 간의 경계에 놓이는 나노포스트(NP)의 단면적이 서로 같다.On the other hand, the nanoposts provided in the areas 312 and 313 corresponding to the blue pixel (B) and the red pixel (R) have a symmetrical distribution rule along the first direction (X direction) and the second direction (Y direction). You can. As shown in FIG. 7, the area 312 corresponding to the blue pixel (B) is a region of nanoposts (NPs) lying at the boundary between adjacent pixels in the first direction (X direction) and the second direction (Y direction). The cross-sectional areas are the same, and the area 313 corresponding to the red pixel (R) is also a nanopost (NP) located at the boundary between adjacent pixels in the first direction (X direction) and the second direction (Y direction). The cross-sectional areas are the same.

이러한 분포는 베이어 패턴의 화소 배열에서 청색 화소(B), 적색 화소(R)는 모두 제1 방향(X방향) 및 제2 방향(Y방향)으로 인접한 화소들이 녹색 화소(G)로 같은 반면, 녹색 화소(G)의 경우 제1 방향(X방향)으로 인접한 화소는 청색 화소(B)이고, 제2 방향(Y방향)으로 인접하는 화소는 적색 화소(R)로 서로 다름에 기인한다. 따라서, 청색 화소(B)와 적색 화소(R)에 각각 대응하는 제2 영역(312)과 제3 영역(313)에서는 4방 대칭(4-fold symmetry)의 형태로 나노포스트(NP)들이 배열되고, 녹색 화소(G)에 대응하는 제1 및 제4 영역(311, 314)에서는 2방 대칭(2-fold symmetry)의 형태로 나노포스트(NP)들이 배열될 수 있다. 특히, 제1 영역(311)과 제4 영역(314)은 서로에 대해 90도 회전된 배치를 가질 수 있다.This distribution is similar to that of the blue pixel (B) and red pixel (R) in the pixel arrangement of the Bayer pattern, while the pixels adjacent to each other in the first direction (X direction) and the second direction (Y direction) are the same as the green pixel (G). In the case of the green pixel (G), the pixel adjacent to it in the first direction (X direction) is the blue pixel (B), and the pixel adjacent to the second direction (Y direction) is the red pixel (R). Therefore, nanoposts (NPs) are arranged in the form of 4-fold symmetry in the second region 312 and the third region 313 corresponding to the blue pixel (B) and red pixel (R), respectively. In the first and fourth regions 311 and 314 corresponding to the green pixel (G), nanoposts (NPs) may be arranged in a two-fold symmetry. In particular, the first area 311 and the fourth area 314 may be rotated by 90 degrees with respect to each other.

도 5 및 도 7에서는 복수의 나노포스트(NP)가 모두 대칭적인 원형의 단면 형상을 갖는 것으로 도시되었으나 이에 한정되는 것은 아니다. 비대칭 형상의 단면 형상을 갖는 나노포스트가 일부 포함될 수도 있다. 예를 들어, 녹색 화소(G)에 대응하는 영역(311,314)에는 제1 방향(X방향)과 제2 방향(Y방향)의 폭이 서로 다른 비대칭 단면 형상을 갖는 나노포스트가 채용되고, 청색 화소(B), 적색 화소(R)에 각각 대응하는 제2 영역(312), 제3 영역(313)에는 제1 방향(X방향)과 제2 방향(Y방향)의 폭이 같은 대칭적인 단면 형상을 갖는 나노포스트가 채용될 수 있다.In Figures 5 and 7, a plurality of nanoposts (NPs) are all shown as having a symmetrical circular cross-sectional shape, but the present invention is not limited thereto. Some nanoposts with an asymmetric cross-sectional shape may be included. For example, nanoposts having an asymmetric cross-sectional shape with different widths in the first direction (X direction) and the second direction (Y direction) are employed in the regions 311 and 314 corresponding to the green pixel (G), and the blue pixel (B), the second area 312 and third area 313 respectively corresponding to the red pixel (R) have a symmetrical cross-sectional shape with the same width in the first direction (X direction) and the second direction (Y direction). Nanoposts having can be employed.

색분리 렌즈 어레이(300)는 서로 인접하는 광감지셀(511, 512, 513, 514)에 서로 다른 파장의 광을 집광시키는 위상 분포를 갖도록 형성되므로 입사광을 컬러에 따라 분리 및 집광할 수 있다. 이로 인해, 색분리 렌즈 어레이(300)를 포함하는 이미지 센서(200)는 주변 화소의 광 경로를 통해 광을 추가로 제공받을 수 있으므로, 광 이용 효율이 증가될 수 있다. The color separation lens array 300 is formed to have a phase distribution that focuses light of different wavelengths on adjacent photosensing cells 511, 512, 513, and 514, so that incident light can be separated and concentrated according to color. Because of this, the image sensor 200 including the color separation lens array 300 can receive additional light through the light path of the surrounding pixels, and thus light use efficiency can be increased.

다만, 색분리 렌즈 어레이(300)를 포함하는 이미지 센서(200)는 블러(blur) 현상, 그리드 아티팩트(grid artifact), 및 색상 혼합 현상이 발생되어 공간 해상도가 저하될 수 있다.However, the image sensor 200 including the color separation lens array 300 may experience blur, grid artifacts, and color mixing, thereby reducing spatial resolution.

이하, 도 8 내지 도 13을 이용하여, 신호 처리부(250)가 이미지 센서(200)에서 획득된 컬러별 영상 신호를 필터링 처리하여, 공간 해상도를 향상시키는 방법에 대해 자세히 설명한다.Hereinafter, using FIGS. 8 to 13 , a method in which the signal processor 250 improves spatial resolution by filtering the image signal for each color obtained from the image sensor 200 will be described in detail.

도 8은 일 실시예에 따른 신호 처리부의 동작을 설명하기 위한 블록도이다. 도 9는 도 3의 베이어 패턴의 컬러 필터 어레이를 통해 컬러를 표현할 수 있는 주파수 영역을 나타내는 도면이다. 도 10a 및 도 10b는 도 8의 디렉션 이미지 생성부에서 수행되는 영상 처리 동작을 설명하기 위한 도면들이다.Figure 8 is a block diagram for explaining the operation of a signal processor according to an embodiment. FIG. 9 is a diagram showing a frequency region in which color can be expressed through the color filter array of the Bayer pattern of FIG. 3. FIGS. 10A and 10B are diagrams for explaining an image processing operation performed in the direction image generator of FIG. 8 .

도 8을 참조하면, 일 실시예에 따른 신호 처리부(250)는, 디모자이싱부(251), 디렉션 이미지 생성부(252), 그레이 검출부(253), 에지 검출부(254), 페이서부(255), 샤프닝 필터부(256), 선택부(257), 조정부(258), 및 베이어 재결합부(259)를 포함할 수 있다. 이 때, 신호 처리부(25)는 소프트웨어 모듈 또는 하드웨어 모듈로 구현될 수 있다. 또한, 신호 처리부(250)는 이미지 센서(200)의 로직(Logic)에 구비되거나, 컴패니언 칩(companion chip)에 마련될 수 있다.Referring to FIG. 8, the signal processing unit 250 according to one embodiment includes a demosaicing unit 251, a direction image generation unit 252, a gray detection unit 253, an edge detection unit 254, and a pacer unit 255. ), a sharpening filter unit 256, a selection unit 257, an adjustment unit 258, and a Bayer recombination unit 259. At this time, the signal processing unit 25 may be implemented as a software module or hardware module. Additionally, the signal processing unit 250 may be provided in the logic of the image sensor 200 or may be provided in a companion chip.

디모자이싱부(251)는 메모리(180)로부터 입력 이미지(IMG_IN)를 수신할 수 있다. 디모자이싱부(251)는 연산에 사용되는 메모리(180) 용량을 줄이기 위하여, 입력 이미지(IMG_IN)의 녹색 신호에 대해서만 컬러 보간을 수행하여, 전체 화소 해상도를 갖도록 재구성된 녹색 신호(IMG_G)를 생성할 수 있다.The demosaicing unit 251 may receive the input image (IMG_IN) from the memory 180. In order to reduce the capacity of the memory 180 used for calculation, the demosaicing unit 251 performs color interpolation only on the green signal of the input image (IMG_IN) and produces a green signal (IMG_G) reconstructed to have full pixel resolution. can be created.

이 때, 디모자이싱 알고리즘은 다양한 방법을 적용할 수 있다. 예를 들어, Bilinear interpolation(바이리니어 보간) 방식, 채널간 상관 관계를 이용하는 접근 방식, 에지의 방향성을 이용하여 공간 해상도를 높이는 방식 등 다양한 방법이 존재한다.At this time, the demosaicing algorithm can apply various methods. For example, various methods exist, such as bilinear interpolation, an approach using correlation between channels, and a method of increasing spatial resolution using edge directionality.

이 후, 샤프닝 필터부(256)는 전체 화소 해상도를 갖도록 재구성된 녹색 신호(IMG_G)를 기 설정된 방향 별로 샤프닝하여 제1 이미지(IMG1)를 생성할 수 있다. Afterwards, the sharpening filter unit 256 may sharpen the green signal (IMG_G) reconstructed to have full pixel resolution in each preset direction to generate the first image (IMG1).

일 실시예에 따르면, 샤프닝 필터부(256)는 이미지를 날카로운 느낌이 나도록 변경하는 샤프닝 알고리즘을 수행하기 위한 필터가 구비될 수 있다. 예컨대 하나 이상의 고대역 통과 필터(high pass filter)가 샤프닝 필터부(256)에 구비될 수 있다. 또는, 언샤프닝(unsharpning) 마스킹 알고리즘이 적용되는 경우, 이미지 신호를 저대역 통과 필터(low pass filter)를 통과시키기 위한 저대역 통과 필터(low pass filter)가 샤프닝 필터부(256)에 구비될 수 있다.According to one embodiment, the sharpening filter unit 256 may be equipped with a filter to perform a sharpening algorithm that changes the image to give it a sharp feel. For example, one or more high pass filters may be provided in the sharpening filter unit 256. Alternatively, when an unsharpning masking algorithm is applied, a low pass filter for passing the image signal through the low pass filter may be provided in the sharpening filter unit 256. there is.

샤프닝 필터링 알고리즘(또는, 언샤프닝 필터링 알고리즘)을 통한 이미지 샤프닝 효과를 위하여,영상 신호가 고대역 통과 필터(high pass filter)를 통해 처리될 수 있으며, 고대역 통과 필터(high passfilter)의 마스크(Mask)는 모든 계수의 합이 양의 값을 가질 수 있다. 예컨대, 마스크(Mask)의 중심 계수는 양의 값을 가지며, 중심 계수 주변의 주변 계수는 음의 값을 가질 수 있다. 또한, 마스크(Mask)의 모든 계수의 합은 0 이상의 값을 가질 수 있으며, 일예로서 마스크(Mask)의 모든 계수의 합은 1의 값을 가질 수 있다.For image sharpening effect through sharpening filtering algorithm (or unsharpening filtering algorithm), the image signal can be processed through a high pass filter, and the mask of the high pass filter is used. ), the sum of all coefficients can have a positive value. For example, the center coefficient of the mask may have a positive value, and the peripheral coefficients around the center coefficient may have a negative value. Additionally, the sum of all coefficients of the mask may have a value of 0 or more, and as an example, the sum of all coefficients of the mask may have a value of 1.

또한, 이미지 샤프닝 효과를 위한 하나의 방법으로서 언샤프닝 방법이 적용될 수 있으며, 상기 언샤프닝 방법은 원래의 영상 신호와 저주파 필터링을 거친 영상 신호를 서로 감산하여 영상 내의 저주파 성분을 감소하는 방식에 따라 이미지 샤프닝 효과를 얻을 수 있다. 일 실시예에 따른 샤프닝 동작을 설명함에 있어서, 전술한 바와 같은 언샤프닝 필터 알고리즘에 기반하는 샤프닝 동작이나 샤프닝(sharpening) 필터(또는, 고대역 통과 필터(high pass filter))에 기반하는 샤프닝 동작 중 어느 것이 적용되어도 무방하다.In addition, the unsharpening method can be applied as a method for the image sharpening effect, and the unsharpening method reduces the low-frequency component in the image by subtracting the original image signal and the image signal that has undergone low-frequency filtering. A sharpening effect can be achieved. In describing the sharpening operation according to an embodiment, either a sharpening operation based on the unsharpening filter algorithm as described above or a sharpening operation based on a sharpening filter (or high pass filter). Any one may be applied.

전술한 실시예에서와 같이, 샤프닝 필터부(256)는 이미지 샤프닝 효과를 위한 하나 이상의 샤프닝 필터(및/또는 언샤프닝 필터, 이하 샤프닝 필터는 언샤프닝 필터를 포함하는 개념으로 지칭함)를 포함할 수 있다. 샤프닝 필터는 이미지 샤프닝 효과를 얻기 위한 마스크 값을 가질 수 있다. 일 예로서, 샤프닝 필터의 마스크는 N*N(N은 2 이상의 정수) 개의 계수들을 가질 수 있다. As in the above-described embodiment, the sharpening filter unit 256 may include one or more sharpening filters (and/or unsharpening filters; hereinafter, the sharpening filter is referred to as a concept including an unsharpening filter) for an image sharpening effect. there is. The sharpening filter may have a mask value to achieve an image sharpening effect. As an example, the mask of the sharpening filter may have N*N coefficients (N is an integer greater than or equal to 2).

또한, 일 실시예에 따르면, 하나의 샤프닝 필터부(256)는 복수 개의 방향성 필터들을 포함할 수 있다. 샤프닝 필터부(256)는 상기 방향성 필터들을 이용하여 에지 방향을 따라 적용될 수 있으며, 이미지의 노이즈 레벨, 평탄도, 휘도 레벨, 및 텍츠쳐 양에 기초하여 선명도 정도를 조절할 수 있다. Additionally, according to one embodiment, one sharpening filter unit 256 may include a plurality of directional filters. The sharpening filter unit 256 can be applied along the edge direction using the directional filters, and can adjust the degree of sharpness based on the noise level, flatness, luminance level, and texture amount of the image.

이 때, 방향성 필터를 적용하기 위한 기 설정된 방향은, 수평 방향, 수직 방향, 45 도 대각선 방향, 및 135 도 대각선 방향일 수 있다. 즉, 재구성된 녹색 신호(IMG_G)를 샤프닝한 제1 이미지(IMG1)는 수평 방향을 따라 필터링된 제1 이미지(IMG1), 수직 방향을 따라 필터링된 제1 이미지(IMG1), 45 도 대각선 방향을 따라 필터링된 제1 이미지(IMG1), 및 135 도 대각선 방향을 따라 필터링된 제1 이미지(IMG1)를 포함할 수 있다.At this time, the preset directions for applying the directional filter may be horizontal, vertical, 45 degrees diagonal, and 135 degrees diagonal. That is, the first image (IMG1) obtained by sharpening the reconstructed green signal (IMG_G) is the first image (IMG1) filtered along the horizontal direction, the first image (IMG1) filtered along the vertical direction, and the 45-degree diagonal direction. It may include a first image (IMG1) filtered along a 135-degree diagonal direction and a first image (IMG1) filtered along a 135-degree diagonal direction.

페이서부(255)는, 재구성된 녹색 신호(IMG_G)의 에지 방향을 검출할 수 있다. 예를 들어, 페이서부(255)는 극좌표계에서 화소를 따라 미분값을 산출함으로써 이미지의 에지 방향을 검출할 수 있다. 선택부(257)는, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 이상이면, 페이서부(255)에 의해 검출된 에지 방향에 해당하는 제1 이미지(IMG1)를 에지 개선할 수 있다. 다시 말해, 선택부(257)는 수평 에지 방향을 따라 필터링된 제1 이미지(IMG1), 수직 에지 방향을 따라 필터링된 제1 이미지(IMG1), 45 도 대각선 에지 방향을 따라 필터링된 제1 이미지(IMG1), 및 135 도 대각선 에지 방향을 따라 필터링된 제1 이미지(IMG1) 중 페이서부(255)에 의해 검출된 에지 방향에 해당하는 어느 하나의 제1 이미지(IMG1)에 대해 에지 개선할 수 있다. 페이서부(255)는 선택부(257)에 재구성된 녹색 신호(IMG_G)의 에지 방향 정보(D1)를 제공할 수 있다.The pacer unit 255 may detect the edge direction of the reconstructed green signal (IMG_G). For example, the phaser unit 255 can detect the edge direction of the image by calculating a differential value along the pixel in polar coordinates. If the edge strength of the reconstructed green signal (IMG_G) is greater than a preset value, the selection unit 257 may edge improve the first image (IMG1) corresponding to the edge direction detected by the pacer unit 255. . In other words, the selection unit 257 selects the first image (IMG1) filtered along the horizontal edge direction, the first image (IMG1) filtered along the vertical edge direction, and the first image (IMG1) filtered along the 45-degree diagonal edge direction. IMG1), and any first image (IMG1) corresponding to the edge direction detected by the pacer unit 255 among the first images (IMG1) filtered along a 135-degree diagonal edge direction. . The pacer unit 255 may provide edge direction information D1 of the reconstructed green signal IMG_G to the selection unit 257.

지금까지 설명한 과정만을 수행하여 선택부(257)가 신호를 출력하는 경우, 출력 신호는, 후술할 제3 이미지(IMG3)가 아닌 에지 개선된 제1 이미지(IMG1')일 수 있다. 이 후, 조정부(258)는 에지 개선된 제1 이미지(IMG1')의 녹색 신호의 변화량에 기초하여 적색 신호(IMG_R) 및 청색 신호(IMG_B)를 조정하고, 베이어 재결합부(259)는 에지 개선된 제1 이미지(IMG1')의 녹색 신호와 조정된 적색 신호(IMG_R') 및 조정된 청색 신호(IMG_B')를 결합하여 출력 신호를 출력하는 경우, 베이어 패턴 어레이를 갖는 제4-1 이미지(IMG4-1)를 생성할 수 있다. 단, 제4-1 이미지(IMG4-1)는 후술할 제4 이미지(IMG4)가 아니다. When the selection unit 257 outputs a signal by performing only the process described so far, the output signal may be the edge-enhanced first image (IMG1') rather than the third image (IMG3), which will be described later. Afterwards, the adjustment unit 258 adjusts the red signal (IMG_R) and the blue signal (IMG_B) based on the amount of change in the green signal of the edge-enhanced first image (IMG1'), and the Bayer recombiner 259 adjusts the edge-enhanced first image (IMG1'). When outputting an output signal by combining the green signal of the first image (IMG1'), the adjusted red signal (IMG_R'), and the adjusted blue signal (IMG_B'), the 4-1 image having a Bayer pattern array ( IMG4-1) can be generated. However, the 4-1 image (IMG4-1) is not the 4th image (IMG4), which will be described later.

본 발명과 달리 색분리 렌즈 어레이(도 5의 300)를 포함하지 않는 이미지 센서(200)인 경우, 신호 처리부(250)는 베이어 패턴 어레이를 갖는 제4-1 이미지(IMG4-1)를 출력 할 수 있고, 출력 신호로서 충분한 공간 해상도 개선을 기대할 수 있을 것이다. 하지만, 본 발명의 색분리 렌즈 어레이(도 5의 300)를 포함하는 이미지 센서(200)인 경우에는 상술한 색분리 렌즈 어레이(도 5의 300)의 특성 상 블러 현상 등으로 인해 공간 해상도 개선에 한계가 발생할 수 있다.Unlike the present invention, if the image sensor 200 does not include a color separation lens array (300 in FIG. 5), the signal processor 250 may output the 4-1 image (IMG4-1) having a Bayer pattern array. and sufficient spatial resolution improvement can be expected as an output signal. However, in the case of the image sensor 200 including the color separation lens array (300 in FIG. 5) of the present invention, there is a problem in improving spatial resolution due to blurring due to the characteristics of the color separation lens array (300 in FIG. 5) described above. Limitations may arise.

도 9를 참조하여 구체적으로 살펴 보면, 영역 910은 녹색이 표현될 수 있는 해상도를 나이퀴스트 주파수로 간략하게 나타낸 것이다. 영역 910은 녹색으로 이미지 센서(도 5의 200)의 전체 화소의 1/2 만큼의 해상도를 나타낼 수 있는 것을 보여준다.Looking in detail with reference to FIG. 9, area 910 briefly represents the resolution at which green can be expressed in Nyquist frequency. Area 910 is green and shows that it can display a resolution equal to 1/2 of the total pixels of the image sensor (200 in FIG. 5).

영역 920은 적색 또는 청색이 표현될 수 있는 해상도를 나이퀴스트 주파수로 간략하게 나타낸 것이다. 영역 920은 적색 또는 청색으로 이미지 센서(도 5의 200)의 전체 화소의 1/4 만큼의 해상도를 나타낼 수 있는 것을 보여준다. 영역 920을 통해, 적색 또는 청색이 표현될 수 있는 해상도의 범위는 녹색이 표현하는 해상도의 1/2인 것을 알 수 있다.Area 920 briefly represents the resolution at which red or blue can be expressed in Nyquist frequency. Area 920 is red or blue and shows a resolution equal to 1/4 of the total pixels of the image sensor (200 in FIG. 5). Through area 920, it can be seen that the range of resolution at which red or blue can be expressed is 1/2 of the resolution at which green can be expressed.

반면에, 영역 930은 모노크롬 신호가 표현될 수 있는 해상도를 나이퀴스트 주파수로 간략하게 나타낸 것이다. 영역 930은 모노크롬 신호로 이미지 센서(도 5의 200)의 전체 화소의 해상도를 나타낼 수 있는 것을 보여준다. 영역 930을 통해, 모노크롬 신호가 표현될 수 있는 해상도의 범위는 녹색이 표현하는 해상도의 2배인 것을 알 수 있다.On the other hand, area 930 simply represents the resolution at which a monochrome signal can be expressed in Nyquist frequency. Area 930 shows that the resolution of all pixels of the image sensor (200 in FIG. 5) can be expressed as a monochrome signal. Through area 930, it can be seen that the range of resolution in which a monochrome signal can be expressed is twice the resolution expressed in green.

영역 940은 낭비되는 화소의 주파수 영역을 나타낸다. 즉, 모노크롬 신호로 표현될 수 있는 영역 930에서 녹색이 표현될 수 있는 영역 910을 제외한 영역 940만큼 해상도 손실이 있을 수 있다. 따라서, 전체 화소 해상도를 갖도록 재구성된 녹색 신호(IMG_G)에 기초하여 공간 해상도를 개선하더라도, 영역 940만큼 해상도 손실이 발생할 수 있다.Area 940 represents the frequency range of wasted pixels. That is, there may be a loss of resolution as much as area 940, excluding area 910, where green can be expressed, in area 930, which can be expressed as a monochrome signal. Therefore, even if the spatial resolution is improved based on the green signal (IMG_G) reconstructed to have full pixel resolution, resolution loss as much as area 940 may occur.

한편, 베이어 패턴 컬러 필터 어레이를 갖는 이미지 센서(200)일지라도 이미지 내의 그레이 피사체에 대해서는, 모노크롬 센서와 같이 전체 화소의 해상도(또는, 전체 대역)를 획득할 수 있다. 이를 위해, 베이어 패턴 컬러 필터 어레이를 갖는 이미지 센서(200)에 의해 획득된 이미지에 화이트 밸런스 처리하면, 이미지 내의 그레이 피사체를 모노크롬 센서에 의해 획득된 그레이 피사체로 간주할 수 있다. 화이트 밸런스는 다양한 색온도 조명 하에서 그레이 영역의 RGB(Red, Green, Blue) 비율이 같아지도록(예: R=G=B), G를 중심으로 R 및 B의 게인을 조정하는 것이다.Meanwhile, even with the image sensor 200 having a Bayer pattern color filter array, for gray subjects in an image, resolution of all pixels (or entire band) can be obtained like a monochrome sensor. To this end, if the image acquired by the image sensor 200 having a Bayer pattern color filter array is subjected to white balance processing, the gray subject in the image can be regarded as a gray subject acquired by the monochrome sensor. White balance adjusts the gains of R and B with G as the center so that the RGB (Red, Green, Blue) ratio in the gray area is the same (e.g. R=G=B) under various color temperature lighting.

이하, 베이어 패턴 컬러 필터 어레이를 갖는 이미지 센서(200)에 의해 획득된 이미지로부터 회색 피사체에 대한 넓은 신호 대역을 추출하여, 공간 해상도를 향상하는 구체적인 방안에 대해 설명한다.Hereinafter, a specific method of improving spatial resolution by extracting a wide signal band for a gray subject from an image acquired by the image sensor 200 having a Bayer pattern color filter array will be described.

다시 도 8을 참조하면, 디렉션 이미지 생성부(252)는 입력 이미지(IMG_IN)를 화이트 밸런스 처리할 수 있다. 화이트 밸런스는 색 온도(color temperature)의 차이에서 발생하는 색상의 차이를 보정하는 것을 의미할 수 있다. 이미지 촬영 시 빛(또는 광원)에 따라 색의 표현에 차이가 존재할 수 있다. 예를 들면, 색온도가 낮으면 붉은 빛을 띠고, 색 온도가 높을 경우에는 파란 빛을 띄게 되므로, 화이트 밸런스를 수행하여 빛의 색 온도를 보정하여 이상적인 흰색이 표시되도록 할 수 있다. 화이트 밸런스는 다양한 색온도 조명 하에서 그레이 영역의 RGB(Red, Green, Blue) 비율이 같아지도록(예: R=G=B), G를 중심으로 R 및 B의 게인을 조정하는 것이다.Referring again to FIG. 8, the direction image generator 252 may perform white balance processing on the input image (IMG_IN). White balance may mean correcting color differences resulting from differences in color temperature. There may be differences in color expression depending on the light (or light source) when shooting an image. For example, if the color temperature is low, it appears reddish, and if the color temperature is high, it appears blue, so white balance can be performed to correct the color temperature of the light to display an ideal white color. White balance adjusts the gains of R and B with G as the center so that the RGB (Red, Green, Blue) ratio in the gray area is the same (e.g. R=G=B) under various color temperature lighting.

디렉션 이미지 생성부(252)는 언샤프닝 필터링 알고리즘을 이용하여, 기 설정된 방향 별로 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지(IMG2)를 생성할 수 있다. 이 때, 기 설정된 방향은, 수평 방향, 수직 방향, 45 도 대각선 방향, 및 135 도 대각선 방향일 수 있다. 즉, 제2 이미지(IMG2)는 수평 방향을 따라 필터링된 제2 이미지(IMG2), 수직 방향을 따라 필터링된 제2 이미지(IMG2), 45 도 대각선 방향을 따라 필터링된 제2 이미지(IMG2), 및 135 도 대각선 방향을 따라 필터링된 제2 이미지(IMG2)를 포함할 수 있다.The direction image generator 252 uses an unsharpening filtering algorithm to generate a second image (IMG2) from which the base band of the white-balanced input image (IMG_WB) is removed for each preset direction and only the detail band is extracted. You can. At this time, the preset direction may be a horizontal direction, a vertical direction, a 45 degree diagonal direction, and a 135 degree diagonal direction. That is, the second image (IMG2) is a second image (IMG2) filtered along the horizontal direction, a second image (IMG2) filtered along a vertical direction, a second image (IMG2) filtered along a 45-degree diagonal direction, and a second image (IMG2) filtered along a 135-degree diagonal direction.

도 10a 및 도 10b를 참조하여 구체적으로 살펴보면, 도 10a에서는 언샤프닝 필터링 알고리즘을 수행하기 위한 블록도가 도시되며, 도 10b에서는 도 10a의 언샤프닝 필터링 알고리즘을 수행하기 위한 구성의 일 실시예가 도시된다.Looking specifically with reference to FIGS. 10A and 10B, FIG. 10A shows a block diagram for performing the unsharpening filtering algorithm, and FIG. 10B shows an embodiment of a configuration for performing the unsharpening filtering algorithm of FIG. 10A. .

디렉션 이미지 생성부(252)는 언샤프닝 알고리즘 수행부(252a) 및 연산기(252b)를 포함할 수 있다. 언샤프닝 알고리즘 수행부(252a)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)를 수신하고 필터링한 결과를 출력한다. 이 때, 필터링은 이미지 신호를 저대역 통과 필터를 통과시키기 위한 제1 저대역 통과 필터(LPF1)를 이용할 수 있다.The direction image generator 252 may include an unsharpening algorithm performing unit 252a and an operator 252b. The unsharpening algorithm performing unit 252a receives the white balance-processed input image (IMG_WB) and outputs the filtered result. At this time, filtering may use a first low-pass filter (LPF1) to pass the image signal through the low-pass filter.

연산기(252b)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)와 언샤프닝 알고리즘 수행부(252a)의 출력을 연산함으로써 제2 이미지(IMG2)를 생성할 수 있다. 예컨대, 연산기(252b)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)에서 언샤프닝 알고리즘 수행부(252a)의 출력인 제5 이미지(IMG5)를 감산함에 의하여 제2 이미지(IMG2)를 생성할 수 있다.The operator 252b may generate the second image IMG2 by calculating the white balance-processed input image IMG_WB and the output of the unsharpening algorithm performing unit 252a. For example, the calculator 252b may generate the second image IMG2 by subtracting the fifth image IMG5, which is the output of the unsharpening algorithm performing unit 252a, from the white balance-processed input image IMG_WB.

한편, 도 10b에 도시된 바와 같이, 언샤프닝 알고리즘 수행부(252a)는 하나 이상의 방향성 필터들(DF1~DFm)과 하나 이상의 비교기들(CP1~CPm) 및 합산기(ADD)를 포함할 수 있다. 이 때, 하나 이상의 방향성 필터들(DF1~DFm)은 방향성 필터 세트로 정의될 수 있다. Meanwhile, as shown in FIG. 10B, the unsharpening algorithm performing unit 252a may include one or more directional filters (DF1 to DFm), one or more comparators (CP1 to CPm), and an adder (ADD). . At this time, one or more directional filters (DF1 to DFm) may be defined as a directional filter set.

언샤프닝 필터링 알고리즘을 수행하기 위하여, 언샤프닝 필터의 마스크 계수에 따라 하나 이상의 방향성 필터들(DF1~DFm)이 설정될 수 있다. 예컨대, 언샤프닝 필터는 소정의 사이즈를 가질 수 있으며, 예컨대 A*A(A는 2이상의 정수) 크기의 필터에 해당할 수 있다. 하나 이상의 방향성 필터들(DF1~DFm)의 계수들의 전체 합은 언샤프닝 필터의 마스크 계수와 서로 동일하도록 설정될 수 있다. 또한, 하나 이상의 방향성 필터들(DF1~DFm) 각각은 서로 다른 방향들의 에지를 검출하기 위한 계수 값을 가질 수 있다. 예컨대, 하나 이상의 방향성 필터들(DF1~DFm)은 수평 방향, 수직 방향, 45도 대각선 방향, 및 135도 대각선 방향 중 적어도 하나의 방향의 에지를 검출하기 위한 필터 타입을 가질 수 있다. To perform the unsharpening filtering algorithm, one or more directional filters (DF1 to DFm) may be set according to the mask coefficient of the unsharpening filter. For example, the unsharpening filter may have a predetermined size, for example, it may correspond to a filter of size A*A (A is an integer of 2 or more). The total sum of coefficients of one or more directional filters (DF1 to DFm) may be set to be equal to the mask coefficient of the unsharpening filter. Additionally, each of the one or more directional filters DF1 to DFm may have coefficient values for detecting edges in different directions. For example, one or more directional filters DF1 to DFm may have a filter type for detecting edges in at least one of the horizontal direction, vertical direction, 45 degree diagonal direction, and 135 degree diagonal direction.

언샤프닝 필터의 사이즈와 하나 이상의 방향성 필터들(DF1~DFm) 각각의 사이즈는 서로 동일하거나 또는 다를 수 있다. 예컨대, 방향성 필터들(DF1~DFm) 각각은 A*A(A는 2 이상의 정수) 크기의 필터에 해당할 수 있다. 또는, 방향성 필터들(DF1~DFm) 각각은 언샤프닝 필터의 사이즈보다 작을 수 있다. 방향성 필터들(DF1~DFm)의 계수들의 전체 합은 언샤프닝 필터의 마스크 계수와 서로 동일하도록 설정되기 위하여, 방향성필터들(DF1~DFm) 각각의 위치(position)가 설정될 수 있다. The size of the unsharpening filter and the size of each of the one or more directional filters (DF1 to DFm) may be the same or different from each other. For example, each of the directional filters DF1 to DFm may correspond to a filter of size A*A (A is an integer equal to or greater than 2). Alternatively, each of the directional filters DF1 to DFm may be smaller than the size of the unsharpening filter. The positions of each of the directional filters DF1 to DFm may be set so that the total sum of coefficients of the directional filters DF1 to DFm is equal to the mask coefficient of the unsharpening filter.

한편, 하나 이상의 비교기들(CP1~CPm)은 하나 이상의 방향성 필터들(DF1~DFm)의 출력 값과 기 설정되는 임계값들(Th1~Thm)을 비교하여 그 비교 결과를 발생할 수 있다. 예컨대, 제1 방향성 필터(DF1)의 출력과 제1 임계값(Th1)은 제1 비교기(CP1)로 제공되며, 제1 비교기(CP1)는 제1 방향성 필터(DF1)의 출력과 제1 임계값(Th1)을 비교한 결과에 따른 결과를 합산기(ADD)로 제공할 수 있다. 일예로서, 제1 임계값(Th1)은 방향성 필터의 출력이 샤프닝 노이즈로 간주될 수 있는 기준에 해당하는 값일 수 있으며, 제1 비교기(CP1)는 제1 방향성 필터(DF1)의 출력과 제1 임계값(Th1)을 비교한 결과에 따라 "0"에 해당하는 값을 출력하거나 또는 제1 방향성 필터(DF1)의 출력에 상응하는 값을 합산기(ADD)로 제공할 수 있다. 예를 들어, 제1 비교기(CP1)는 제1 방향성 필터(DF1)의 출력이 제1 임계값(Th1) 이상인 경우에, 제1 방향성 필터(DF1)의 출력에 상응하는 값을 합산기(ADD)로 제공할 수 있다.Meanwhile, one or more comparators (CP1 to CPm) may compare output values of one or more directional filters (DF1 to DFm) with preset thresholds (Th1 to Thm) and generate a comparison result. For example, the output of the first directional filter (DF1) and the first threshold (Th1) are provided to the first comparator (CP1), and the first comparator (CP1) provides the output of the first directional filter (DF1) and the first threshold. The result according to the result of comparing the value (Th1) can be provided by an adder (ADD). As an example, the first threshold Th1 may be a value that corresponds to the standard by which the output of the directional filter can be considered sharpening noise, and the first comparator CP1 may be set to the output of the first directional filter DF1 and the first Depending on the result of comparing the threshold value Th1, a value corresponding to “0” may be output, or a value corresponding to the output of the first directional filter DF1 may be provided to the adder ADD. For example, when the output of the first directional filter (DF1) is greater than or equal to the first threshold (Th1), the first comparator (CP1) sets a value corresponding to the output of the first directional filter (DF1) to the adder (ADD). ) can be provided.

하나 이상의 방향성 필터들(DF1~DFm)은 화이트 밸런스 처리된 입력 이미지(IMG_WB)를 각각 필터링한 결과를 제공한다. 하나 이상의 방향성 필터들(DF1~DFm)의 출력들 중 일부는 각각에 대응하는 임계값 이상일 수 있으며, 반면에 하나 이상의 방향성 필터들(DF1~410_N)의 출력들 중 다른 일부는 각각에 대응하는 임계값보다 작을 수 있다. 이에 따라, 합산기(ADD)는 하나 이상의 방향성 필터들(DF1~DFm) 중 일부의 필터들의 출력들만을 합산한 결과를 발생할 수 있다. 이 때, 임계값들(Th1~Thm)은 서로 그 값이 동일할 수도 또는 상이할 수도 있다.One or more directional filters (DF1 to DFm) provide results of filtering the white balanced input image (IMG_WB), respectively. Some of the outputs of the one or more directional filters (DF1 to DFm) may be above the respective thresholds, while other portions of the outputs of the one or more directional filters (DF1 to 410_N) may be above the respective thresholds. It may be smaller than the value. Accordingly, the adder ADD may generate a result of summing only the outputs of some of the one or more directional filters DF1 to DFm. At this time, the threshold values (Th1 to Thm) may be the same or different.

전술한 동작에 따라, 방향성 필터 세트에서, 기 설정되는 임계값들에 따라 일부의 방향성 필터들의 출력이 선택적으로 합산될 수 있다. 연산기(252b)의 출력(또는, 제2 이미지(IMG2))이 디테일 밴드로서 생성될 수 있다. 이 때, 디테일 밴드는 베이스 밴드가 제거되고, 샤프닝 처리할 수 있는 최소한의 신호만 남은 상태일 수 있다.According to the above-described operation, in the directional filter set, the outputs of some directional filters may be selectively summed according to preset thresholds. The output of the calculator 252b (or the second image IMG2) may be generated as a detail band. At this time, the base band may be removed from the detail band, and only the minimum signal that can be sharpened may remain.

일 실시예에 따른 디렉션 이미지 생성부(252)는, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 한계 해상도를 검출하기 위한 하이 패스 필터(252c)를 더 포함할 수 있다.The direction image generator 252 according to an embodiment may further include a high-pass filter 252c for detecting the limit resolution of the white balance-processed input image (IMG_WB).

그레이 검출부(253)는 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 그레이 영역을 검출할 수 있다. 그레이 검출부(253)는 선택부(257)에 그레이 영역 정보(D2)를 제공할 수 있다.The gray detector 253 may perform white balance processing on the input image (IMG_IN) and detect the gray area of the white balance processed input image (IMG_WB). The gray detection unit 253 may provide gray area information (D2) to the selection unit 257.

에지 검출부(254)는 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향을 검출할 수 있다. 일 실시예에 따른 에지 검출부(254)는 순차적으로 기 설정된 방향 별로 에지 최대값을 계산함으로써, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향을 검출할 수 있다. 예를 들어, 에지 검출부(254)는 수평 방향으로 에지 최대값이 검출되면 에지 방향이 수직인 것으로 결정하고, 수직 방향으로 에지 최대값이 검출되면 에지 방향이 수평인 것으로 결정하고, 45 도 방향으로 에지 최대값이 검출되면 에지 방향이 135 도인 것으로 결정하고, 135 도 방향으로 에지 최대값이 검출되면 에지 방향이 45 도인 것으로 결정할 수 있다. 에지 검출부(254)는 선택부(257)에 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향 정보(D3)를 제공할 수 있다.The edge detection unit 254 may white balance the input image (IMG_IN) and detect the edge direction of the white balance processed input image (IMG_WB). The edge detection unit 254 according to one embodiment may detect the edge direction of the white balanced input image (IMG_WB) by sequentially calculating the maximum edge value for each preset direction. For example, the edge detection unit 254 determines that the edge direction is vertical when the maximum edge value is detected in the horizontal direction, and determines that the edge direction is horizontal when the maximum edge value is detected in the vertical direction. If the maximum edge value is detected, the edge direction can be determined to be 135 degrees, and if the edge maximum value is detected in the 135 degree direction, the edge direction can be determined to be 45 degrees. The edge detection unit 254 may provide edge direction information D3 of the white balance-processed input image (IMG_WB) to the selection unit 257.

일 실시예에 따른 에지 검출부(254)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 노이즈를 제거하기 위한 제2 저역 통과 필터(LPF2)를 더 포함할 수 있다.The edge detector 254 according to an embodiment may further include a second low-pass filter (LPF2) to remove noise from the white-balanced input image (IMG_WB).

선택부(257)는 검출된 그레이 영역 정보(D2) 및 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향 정보(D3)에 기초하여, 제1 이미지(IMG1) 및 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성할 수 있다.The selection unit 257 blends the first image (IMG1) and the second image (IMG2) based on the detected gray area information (D2) and the edge direction information (D3) of the white balance-processed input image (IMG_WB). Thus, the third image (IMG3) can be generated.

선택부(257)는, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 이상이면, 그레이 검출부(253)에 의해 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역 유무를 결정할 수 있다. If the edge strength of the reconstructed green signal (IMG_G) is greater than or equal to a preset value, the selection unit 257 may determine the presence or absence of a gray area in the input image (IMG_WB) white balanced by the gray detection unit 253.

선택부(257)는, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역이 존재하는 경우, 에지 검출부(254)에 의해 결정된 에지 방향에 해당하는 제2 이미지(IMG2)를 이용하여 에지 개선하고, 제1 이미지(IMG1) 및 에지 개선된 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성할 수 있다.When a gray area exists in the white-balanced input image (IMG_WB), the selection unit 257 performs edge improvement using the second image (IMG2) corresponding to the edge direction determined by the edge detection unit 254, A third image (IMG3) may be generated by blending the first image (IMG1) and the edge-enhanced second image (IMG2).

한편, 선택부(257)는, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 미만인 경우에도, 그레이 검출부(253)에 의해 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역 유무를 결정할 수 있다.Meanwhile, the selection unit 257 can determine the presence or absence of a gray area in the input image (IMG_WB) white balanced by the gray detection unit 253 even when the edge strength of the reconstructed green signal (IMG_G) is less than a preset value. there is.

선택부(257)는, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역이 존재하는 경우, 에지 검출부(254)에 의해 결정된 에지 방향에 해당하는 제2 이미지(IMG2)를 이용하여 에지 개선하고, 재구성된 녹색 신호(IMG_G) 및 상기 에지 개선된 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성할 수 있다.When a gray area exists in the white-balanced input image (IMG_WB), the selection unit 257 performs edge improvement using the second image (IMG2) corresponding to the edge direction determined by the edge detection unit 254, A third image (IMG3) may be generated by blending the reconstructed green signal (IMG_G) and the edge-enhanced second image (IMG2).

조정부(258)는, 제3 이미지(IMG3)의 녹색 신호의 변화량에 기초하여 적색 신호(IMG_R) 및 청색 신호(IMG_B)를 조정할 수 있다.The adjuster 258 may adjust the red signal (IMG_R) and the blue signal (IMG_B) based on the amount of change in the green signal of the third image (IMG3).

베이어 재결합부(259)는 제3 이미지(IMG3)의 녹색 신호와 조정된 적색 신호(IMG_R') 및 조정된 청색 신호(IMG_B')를 결합하여 베이어 패턴 어레이를 갖는 제4 이미지(IMG4)를 생성할 수 있다.The Bayer recombiner 259 combines the green signal, the adjusted red signal (IMG_R'), and the adjusted blue signal (IMG_B') of the third image (IMG3) to generate a fourth image (IMG4) having a Bayer pattern array. can do.

일 실시예에 따르면, 디렉션 이미지 생성부(252), 그레이 검출부(253), 및 에지 검출부(254)는, 디모자이싱부(251)와 메모리를 공유하도록 병렬 배치된 하드웨어 모듈로 구현될 수 있다. 이로 인해, 영상 획득 장치(100)는 공간 해상도 개선을 위한 연산 속도의 저하를 방지할 수 있다.According to one embodiment, the direction image generator 252, the gray detector 253, and the edge detector 254 may be implemented as hardware modules arranged in parallel to share memory with the demosaicing unit 251. . Because of this, the image acquisition device 100 can prevent a decrease in calculation speed for improving spatial resolution.

도 11 내지 도 13은 본 발명의 효과를 설명하기 위한 도면들이다. 이 때, 도 11a, 도 12a, 및 도 13a는 도 8에서 상술한 디모자이싱 후 샤프닝 처리만 수행된 제4-1 이미지(IMG4-1)에 해당하고, 도 11b,도 12b, 및 도 13b는 도 8에서 상술한 화이트 밸런스 처리 후 모노크롬 신호를 이용한 필터링 과정까지 수행된 제4 이미지(IMG4)에 해당한다. 제4-1 이미지(IMG4-1) 및 제4 이미지(IMG4) 둘 다 본 발명의 색분리 렌즈 어레이(300)를 포함하는 이미지 센서(200)를 이용하여 성조도를 촬영하여 얻은 것이다.11 to 13 are drawings to explain the effect of the present invention. At this time, FIGS. 11A, 12A, and 13A correspond to the 4-1 image (IMG4-1) on which only the sharpening process was performed after the demosaicing described above in FIG. 8, and FIGS. 11B, 12B, and 13B corresponds to the fourth image (IMG4) that has been subjected to the white balance process described above in FIG. 8 followed by a filtering process using a monochrome signal. Both the 4-1st image (IMG4-1) and the 4th image (IMG4) were obtained by photographing the star illuminance using the image sensor 200 including the color separation lens array 300 of the present invention.

도 11a의 일부 영역을 확대 표시한 도 12a 및 도 13a를 참조하면, 제4-1 이미지(IMG4-1)는 원 둘레를 따라 좁은 간격으로 배치된 라인들이 명확하게 구분되지 않는 것을 알 수 있다. 즉, 제4-1 이미지(IMG4-1)는 최대 공간 해상도 영역이 억제되는 것을 알 수 있다. Referring to FIGS. 12A and 13A, which enlarge a partial area of FIG. 11A, it can be seen that in the 4-1 image (IMG4-1), lines arranged at narrow intervals along the circumference of the circle are not clearly distinguished. That is, it can be seen that the maximum spatial resolution area of the 4-1st image (IMG4-1) is suppressed.

반면에, 도 11b의 일부 영역을 확대 표시한 도 12b 및 도 13b 각각의 동그라미로 표시된 영역을 참조하면, 원 둘레를 따라 좁은 간격으로 배치된 라인들이 보다 명확하게 구분되는 것을 알 수 있다. 즉, 제4 이미지(IMG4)는 모노크롬 신호를 이용하여 최대 공간 해상도가 복원된 것을 확인할 수 있다.On the other hand, referring to the circled areas of FIGS. 12B and 13B, which are enlarged portions of a portion of FIG. 11B, it can be seen that the lines arranged at narrow intervals around the circle are more clearly distinguished. That is, it can be confirmed that the maximum spatial resolution of the fourth image (IMG4) is restored using a monochrome signal.

이하, 다른 실시예들에 대해 설명한다. 이하의 실시예에서, 이미 설명한 실시예와 동일한 구성에 대해서는 설명을 생략하거나 간략화하고, 차이점을 위주로 설명하기로 한다.Hereinafter, other embodiments will be described. In the following embodiments, the description of the same configuration as the already described embodiment will be omitted or simplified, and the differences will be mainly explained.

도 14는 샤프닝 처리 시, 조건 체크부를 이용하는 실시예를 설명하기 위한 도면이다.Figure 14 is a diagram for explaining an embodiment of using a condition check unit during sharpening processing.

도 8 및 도 14를 참조하면, 도 14에 도시된 실시예는, 도 8에 도시된 실시예의 페이서부(255) 대신 조건 체크부(255')를 포함한다는 점에서 차이점이 있을 뿐, 나머지 구성들은 실질적으로 동일하다.Referring to FIGS. 8 and 14, the only difference between the embodiment shown in FIG. 14 is that it includes a condition check unit 255' instead of the facer unit 255 of the embodiment shown in FIG. 8, and the remaining configuration is are substantially the same.

조건 체크부(255')는 재구성된 녹색 신호(IMG_G)에 대해 샤프닝 필터부(256)를 적용할지 여부를 결정하기 위한 조건 검사를 수행할 수 있다. 예를 들어, 조건 체크부(255')는 재구성된 녹색 신호(IMG_G)의 노이즈 레벨을 산출할 수 있다. 선택부(257)는 조건 체크부(255')에 의해 산출된 노이즈 레벨이 기 설정된 임계값 이하인 경우 재구성된 녹색 신호(IMG_G)에 대해 샤프닝 필터부(256)를 적용할 수 있다.The condition check unit 255' may perform a condition check to determine whether to apply the sharpening filter unit 256 to the reconstructed green signal (IMG_G). For example, the condition checker 255' may calculate the noise level of the reconstructed green signal (IMG_G). The selection unit 257 may apply the sharpening filter unit 256 to the reconstructed green signal (IMG_G) when the noise level calculated by the condition check unit 255' is below a preset threshold.

도 15는 다른 실시예에 따른 언샤프닝 필터링 알고리즘을 수행하기 위한 블록도이다.Figure 15 is a block diagram for performing an unsharpening filtering algorithm according to another embodiment.

도 10a 및 도 15를 참조하면, 도 15에 도시된 실시예는 언샤프닝 알고리즘 수행부(252a)와 연산기(252b) 사이에 곱셈기(252d)를 더 포함한다는 점에서 도 10a에 도시된 실시예와 차이점이 있을 뿐, 나머지 구성들은 실질적으로 동일하다.Referring to FIGS. 10A and 15 , the embodiment shown in FIG. 15 is different from the embodiment shown in FIG. 10A in that it further includes a multiplier 252d between the unsharpening algorithm performing unit 252a and the operator 252b. There are only differences, but the rest of the configuration is substantially the same.

디렉션 이미지 생성부(252)는 언샤프닝 알고리즘 수행부(252a), 곱셈기(252d), 연산기(252b)를 포함할 수 있다. 언샤프닝 알고리즘 수행부(252a)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)를 수신하고 필터링한 결과로서, 제5 이미지(IMG5)를 출력한다. 이 때, 필터링은 이미지 신호를 저대역 통과 필터를 통과시키기 위한 제1 저대역 통과 필터(LPF1)를 이용할 수 있다.The direction image generator 252 may include an unsharpening algorithm performing unit 252a, a multiplier 252d, and an operator 252b. The unsharpening algorithm performing unit 252a receives the white balance-processed input image (IMG_WB) and outputs the fifth image (IMG5) as a result of filtering. At this time, filtering may use a first low-pass filter (LPF1) to pass the image signal through the low-pass filter.

곱셈기(252d)는 제5 이미지(IMG5)에 게인을 곱할 수 있다. 이 때, 게인은 언샤프닝 마스크 필터의 세기를 결정하는 계수일 수 있다. 예를 들어, 게인이 2인 경우, 언샤프닝 마스크 필터의 효과를 2배로 적용하는 동작을 의미할 수 있다.The multiplier 252d may multiply the fifth image IMG5 by a gain. At this time, the gain may be a coefficient that determines the strength of the unsharpening mask filter. For example, if the gain is 2, this may mean an operation of doubling the effect of the unsharpening mask filter.

연산기(252b)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)와 게인이 곱해진 언샤프닝 알고리즘 수행부(252a)의 출력을 연산함으로써 제2' 이미지(IMG2')를 생성할 수 있다. 예컨대, 연산기(252b)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)에서 게인이 적용된 언샤프닝 알고리즘 수행부(252a)의 출력인 제5' 이미지(IMG5')를 감산함에 의하여 제2' 이미지(IMG2')를 생성할 수 있다.The operator 252b may generate the second' image (IMG2') by calculating the output of the unsharpening algorithm performing unit 252a, which is the white balance processed input image (IMG_WB) multiplied by the gain. For example, the operator 252b subtracts the fifth' image (IMG5'), which is the output of the gain-applied unsharpening algorithm performing unit 252a, from the white balance-processed input image (IMG_WB) to produce the second' image (IMG2'). ) can be created.

도 16은 이미지 센서의 주광선 각도(Chief ray angle)를 설명하기 위한 도면이다.Figure 16 is a diagram for explaining the chief ray angle of the image sensor.

도 5 및 도 16을 참조하면, 이미지 센서(200)에 입사하는 광의 입사각은 통상적으로 주광선 각도(CRA; chief ray angle)로 정의된다. 주광선(CR)은 피사체의 한 점으로부터 대물 렌즈(FL)(또는, 모듈 렌즈)의 중심을 지나 이미지 센서(200)에 입사하는 광선을 의미한다.Referring to FIGS. 5 and 16 , the incident angle of light incident on the image sensor 200 is typically defined as the chief ray angle (CRA). The chief ray (CR) refers to a ray of light that passes from one point of the subject through the center of the objective lens (FL) (or module lens) and enters the image sensor 200.

주광선 각도는 주광선(CR)이 대물 렌즈(FL)의 광축(OPA)과 이루는 각도를 의미하며, 일반적으로 이미지 센서(200)에 입사하는 주광선(CR)의 입사각과 동일하다. 예를 들어, 대물 렌즈(FL)의 광축 상에 있는 한 점에서 출발한 광의 주광선(CR)은 이미지 센서(200)의 중심부에 수직하게 입사하며, 이 경우 주광선 각도(CRA_1)는 0도이다. 출발점이 대물 렌즈(FL)의 광축(OPA)에서 멀어질수록 주광선 각도(CRA_2)는 증가하게 되며, 이미지 센서(200)의 가장자리에 입사하게 된다. 이미지 센서(200)의 관점에서 보면, 이미지 센서(200)의 중심부에 입사하는 광의 주광선 각도(CRA_1)는 0도이며, 이미지 센서(200)에서의 중심에서 멀어질수록 갈수록 입사광의 주광선 각도(CRA_2)가 커지게 된다.The chief ray angle refers to the angle that the chief ray (CR) forms with the optical axis (OPA) of the objective lens (FL), and is generally the same as the angle of incidence of the chief ray (CR) incident on the image sensor 200. For example, the chief ray (CR) of light originating from a point on the optical axis of the objective lens (FL) is incident perpendicularly to the center of the image sensor 200, and in this case, the chief ray angle (CRA_1) is 0 degrees. As the starting point moves away from the optical axis (OPA) of the objective lens (FL), the principal ray angle (CRA_2) increases and enters the edge of the image sensor 200. From the perspective of the image sensor 200, the chief ray angle (CRA_1) of the light incident on the center of the image sensor 200 is 0 degrees, and as the distance from the center of the image sensor 200 increases, the principal ray angle (CRA_2) of the incident light increases. ) becomes larger.

그런데, 상술한 색분리 렌즈 어레이(300)는 일반적으로 입사광에 대해 방향성을 가질 수 있다. 다시 말해, 특정한 각도 범위 이내로 입사하는 빛에 대해서는 색분리 렌즈 어레이(300)가 효율적으로 동작하지만, 입사각이 특정한 각도 범위로부터 멀어지게 되면 색분리 렌즈 어레이(300)의 색분리 성능이 저하될 수 있다.However, the color separation lens array 300 described above may generally have directionality with respect to incident light. In other words, the color separation lens array 300 operates efficiently for light incident within a specific angle range, but when the incident angle moves away from the specific angle range, the color separation performance of the color separation lens array 300 may deteriorate. .

이와 같이, 주광선 각도가 커지는 영역에서 색분리 렌즈 어레이(300)의 광효율이 감소하므로, 이미지 센서(200)는 이를 극복하기 위한 영상처리(또는, 신호 처리)가 요구된다. 일 실시예에 따른 선택부(도 8의 257)는, 이미지 센서(200)의 주광선 각도(Chief ray angle)의 필드 정보에 기초하여, 제3 이미지(IMG3)를 생성할 수 있다. 예를 들어, 주광선 각도가 클수록 색분리 렌즈 어레이(300)에 의한 블러 신호가 강해지므로, 선택부(257)는 주광선 각도가 클수록 공간 해상도의 개선 정도를 증가시킬 수 있다. 선택부(257)는 주광선 각도의 필드 정보를 외부 장치로부터 제공받을 수 있다.As such, since the luminous efficiency of the color separation lens array 300 decreases in the area where the chief ray angle increases, the image sensor 200 requires image processing (or signal processing) to overcome this. The selection unit (257 in FIG. 8) according to one embodiment may generate the third image IMG3 based on field information of the chief ray angle of the image sensor 200. For example, as the chief ray angle increases, the blur signal generated by the color separation lens array 300 becomes stronger, so the selection unit 257 can increase the degree of improvement in spatial resolution as the chief ray angle increases. The selection unit 257 may receive field information on the chief ray angle from an external device.

도 17은 일 실시예에 따른 해상도 개선 방법을 설명하기 위한 흐름도이다. 이 때, 도 17에 도시된 흐름도는 도 8에 도시된 신호 처리부 블록도의 동작에 대응되므로, 도 8 내지 도 16을 통해 설명된 실시예들이 적용될 수 있다.Figure 17 is a flowchart explaining a resolution improvement method according to an embodiment. At this time, since the flowchart shown in FIG. 17 corresponds to the operation of the signal processor block diagram shown in FIG. 8, the embodiments described through FIGS. 8 to 16 can be applied.

도 8 내지 도 10b 및 도 17을 참조하면, 일 실시예에 따른 영상 획득 방법은, 입력 이미지(IMG_IN)를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱을 수행하는 단계(S100), 재구성된 녹색 신호(IMG_G)를 기 설정된 방향 별로 샤프닝하여 제1 이미지(IMG1)를 생성하는 샤프닝 필터링 단계(S200), 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고(S300), 언샤프닝 필터링 알고리즘을 이용하여, 기 설정된 방향 별로 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지(IMG2)를 생성하는 디렉션 이미지 생성 단계(S400), 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고(S300), 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 그레이 영역을 검출하는 그레이 검출 단계(S500), 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고(S300), 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향을 검출하는 에지 검출 단계(S600) 및 검출된 그레이 영역 및 에지 방향에 기초하여, 제1 이미지(IMG1) 및 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성하는 선택 단계(S700)를 포함할 수 있다.8 to 10B and 17, the image acquisition method according to one embodiment includes performing demosaicing to reconstruct the green signal to have full pixel resolution using the input image (IMG_IN) (S100). , a sharpening filtering step (S200) of generating a first image (IMG1) by sharpening the reconstructed green signal (IMG_G) in each preset direction, white balancing the input image (IMG_IN) (S300), and performing an unsharpening filtering algorithm. Using the direction image generation step (S400), the base band of the white-balanced input image (IMG_WB) for each preset direction is removed and only the detail band is extracted to generate a second image (IMG2), the input image (IMG_IN) White balance processing (S300), a gray detection step of detecting the gray area of the white balanced input image (IMG_WB) (S500), white balance processing of the input image (IMG_IN) (S300), and white balance processing of the input. Based on the edge detection step (S600) of detecting the edge direction of the image (IMG_WB) and the detected gray area and edge direction, the first image (IMG1) and the second image (IMG2) are blended to create a third image (IMG3) It may include a selection step (S700) for generating.

일 실시예에 따른 영상 획득 방법은, 제3 이미지(IMG3)의 녹색 신호의 변화량에 기초하여 적색 신호(IMG_R) 및 청색 신호(IMG_B)를 조정하는 조정 단계(S800)를 포함할 수 있다. The image acquisition method according to one embodiment may include an adjustment step (S800) of adjusting the red signal (IMG_R) and the blue signal (IMG_B) based on the amount of change in the green signal of the third image (IMG3).

일 실시예에 따른 영상 획득 방법은, 제3 이미지(IMG)의 녹색 신호 및 조정된 적색 신호(IMG_R') 및 청색 신호(IMG_B')를 결합하여 베이어 패턴 어레이를 갖는 제4 이미지(IMG4)를 생성하는 베이어 재결합 단계(S900)를 포함할 수 있다.The image acquisition method according to one embodiment combines the green signal and the adjusted red signal (IMG_R') and blue signal (IMG_B') of the third image (IMG) to produce a fourth image (IMG4) having a Bayer pattern array. It may include a Bayer recombination step (S900).

디모자이싱을 수행하는 단계(S100)에서, 연산에 사용되는 메모리(180) 용량을 줄이기 위하여, 입력 이미지(IMG_IN)의 녹색 신호에 대해서만 컬러 보간을 수행하여, 전체 화소 해상도를 갖도록 재구성된 녹색 신호(IMG_G)를 생성할 수 있다.In the step of performing demosaicing (S100), in order to reduce the capacity of the memory 180 used for calculation, color interpolation is performed only on the green signal of the input image (IMG_IN), and the green signal is reconstructed to have full pixel resolution. (IMG_G) can be created.

샤프닝 필터링 단계(S200)에서, 재구성된 녹색 신호(IMG_G)의 에지 방향을 검출하는 단계를 포함하되, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 이상이면, 검출된 에지 방향에 해당하는 제1 이미지(IMG1)를 에지 개선하는 단계를 포함할 수 있다. 이 때, 제1 이미지(IMG1)는 수평 방향을 따라 필터링된 제1 이미지(IMG1), 수직 방향을 따라 필터링된 제1 이미지(IMG1), 45 도 대각선 방향을 따라 필터링된 제1 이미지(IMG1), 및 135 도 대각선 방향을 따라 필터링된 제1 이미지(IMG1)를 포함할 수 있다.In the sharpening filtering step (S200), it includes detecting the edge direction of the reconstructed green signal (IMG_G), and if the edge strength of the reconstructed green signal (IMG_G) is more than a preset value, the edge direction corresponding to the detected edge direction is It may include edge-enhancing the first image (IMG1). At this time, the first image (IMG1) is a first image (IMG1) filtered along the horizontal direction, a first image (IMG1) filtered along a vertical direction, and a first image (IMG1) filtered along a 45-degree diagonal direction. , and a first image (IMG1) filtered along a 135-degree diagonal direction.

화이트 밸런스 처리하는 단계(S300)에서, 다양한 색온도 조명 하에서 그레이 영역의 RGB(Red, Green, Blue) 비율이 같아지도록(예: R=G=B), G를 중심으로 R 및 B의 게인을 조정할 수 있다.In the white balance processing step (S300), the gains of R and B are adjusted centered on G so that the RGB (Red, Green, Blue) ratio of the gray area is the same under various color temperature lighting (e.g., R=G=B). You can.

디렉션 이미지 생성 단계(S400)에서, 언샤프닝 필터링 알고리즘을 이용하여, 기 설정된 방향 별로 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지(IMG2)를 생성할 수 있다. 이 때, 기 설정된 방향은, 수평 방향, 수직 방향, 45 도 대각선 방향, 및 135 도 대각선 방향일 수 있다. 즉, 제2 이미지(IMG2)는 수평 방향을 따라 필터링된 제2 이미지(IMG2_H), 수직 방향을 따라 필터링된 제2 이미지(IMG2_V), 45 도 대각선 방향을 따라 필터링된 제2 이미지(IMG2_45), 및 135 도 대각선 방향을 따라 필터링된 제2 이미지(IMG2_135)를 포함할 수 있다.In the direction image creation step (S400), using an unsharpening filtering algorithm, the base band of the white-balanced input image (IMG_WB) is removed for each preset direction, and a second image (IMG2) is generated from which only the detail band is extracted. can do. At this time, the preset direction may be a horizontal direction, a vertical direction, a 45 degree diagonal direction, and a 135 degree diagonal direction. That is, the second image (IMG2) includes a second image (IMG2_H) filtered along the horizontal direction, a second image (IMG2_V) filtered along a vertical direction, a second image (IMG2_45) filtered along a 45-degree diagonal direction, and a second image (IMG2_135) filtered along a 135-degree diagonal direction.

그레이 검출 단계(S500)에서, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 그레이 영역을 검출할 수 있다.In the gray detection step (S500), the gray area of the white balance-processed input image (IMG_WB) can be detected.

에지 검출 단계(S600)에서, 순차적으로 기 설정된 방향 별로 에지 최대값을 계산함으로써, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향을 검출할 수 있다. 예를 들어, 에지 검출부(254)는 수평 방향으로 에지 최대값이 검출되면 에지 방향이 수직인 것으로 결정하고, 수직 방향으로 에지 최대값이 검출되면 에지 방향이 수평인 것으로 결정하고, 45 도 방향으로 에지 최대값이 검출되면 에지 방향이 135 도인 것으로 결정하고, 135 도 방향으로 에지 최대값이 검출되면 에지 방향이 45 도인 것으로 결정할 수 있다. In the edge detection step (S600), the edge direction of the white balanced input image (IMG_WB) can be detected by sequentially calculating the maximum edge value for each preset direction. For example, the edge detection unit 254 determines that the edge direction is vertical when the maximum edge value is detected in the horizontal direction, and determines that the edge direction is horizontal when the maximum edge value is detected in the vertical direction. If the maximum edge value is detected, the edge direction can be determined to be 135 degrees, and if the edge maximum value is detected in the 135 degree direction, the edge direction can be determined to be 45 degrees.

선택 단계(S700)에서, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 이상이면, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역 유무를 결정하고, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역이 존재하는 경우, 결정된 에지 방향에 해당하는 제2 이미지(IMG2)를 이용하여 에지 개선하고, 제1 이미지 및 상기 에지 개선된 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성하는 단계(S710)를 포함할 수 있다.In the selection step (S700), if the edge strength of the reconstructed green signal (IMG_G) is greater than a preset value, the presence or absence of a gray area in the white-balanced input image (IMG_WB) is determined, and the white-balanced input image (IMG_WB) If a gray area exists within the edge, the edge is improved using the second image (IMG2) corresponding to the determined edge direction, and the first image and the edge-enhanced second image (IMG2) are blended to create a third image (IMG3). It may include a step of generating (S710).

선택 단계(S700)에서, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 미만이면, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역 유무를 결정하고, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역이 존재하는 경우, 결정된 에지 방향에 해당하는 제2 이미지(IMG2)를 이용하여 에지 개선하고, 재구성된 녹색 신호(IMG_G) 및 에지 개선된 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성하는 단계(S720)를 포함할 수 있다.In the selection step (S700), if the edge strength of the reconstructed green signal (IMG_G) is less than a preset value, the presence or absence of a gray area in the white balanced input image (IMG_WB) is determined, and the white balanced input image (IMG_WB) If a gray area exists within the edge, the edge is improved using the second image (IMG2) corresponding to the determined edge direction, and the reconstructed green signal (IMG_G) and the edge-enhanced second image (IMG2) are blended to create a third image. It may include a step (S720) of generating (IMG3).

도 18는 실시예들에 따른 이미지센서를 포함하는 전자 장치를 개략적으로 도시한 블록도이다. 도 18를 참조하면, 네트워크 환경(ED00)에서 전자 장치(ED01)는 제1 네트워크(ED98)(근거리 무선 통신 네트워크 등)를 통하여 다른 전자 장치(ED02)와 통신하거나, 또는 제2 네트워크(ED99)(원거리 무선 통신 네트워크 등)를 통하여 또 다른 전자 장치(ED04) 및/또는 서버(ED08)와 통신할 수 있다. 전자 장치(ED01)는 서버(ED08)를 통하여 전자 장치(ED04)와 통신할 수 있다. 전자 장치(ED01)는 프로세서(ED20), 메모리(ED30), 입력 장치(ED50), 음향 출력 장치(ED55), 표시 장치(ED60), 오디오 모듈(ED70), 센서 모듈(ED76), 인터페이스(ED77), 햅틱 모듈(ED79), 카메라 모듈(ED80), 전력 관리 모듈(ED88), 배터리(ED89), 통신 모듈(ED90), 가입자 식별 모듈(ED96), 및/또는 안테나 모듈(ED97)을 포함할 수 있다. 전자 장치(ED01)에는, 이 구성요소들 중 일부(표시 장치(ED60) 등)가 생략되거나, 다른 구성요소가 추가될 수 있다. 이 구성요소들 중 일부는 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(ED76)(지문 센서, 홍채 센서, 조도 센서 등)은 표시 장치(ED60)(디스플레이 등)에 임베디드되어 구현될 수 있다.Figure 18 is a block diagram schematically showing an electronic device including an image sensor according to embodiments. Referring to FIG. 18, in a network environment (ED00), an electronic device (ED01) communicates with another electronic device (ED02) through a first network (ED98) (a short-range wireless communication network, etc.) or a second network (ED99). It is possible to communicate with another electronic device (ED04) and/or a server (ED08) through (a long-distance wireless communication network, etc.). The electronic device ED01 can communicate with the electronic device ED04 through the server ED08. The electronic device (ED01) consists of a processor (ED20), memory (ED30), input device (ED50), audio output device (ED55), display device (ED60), audio module (ED70), sensor module (ED76), and interface (ED77). ), a haptic module (ED79), a camera module (ED80), a power management module (ED88), a battery (ED89), a communication module (ED90), a subscriber identity module (ED96), and/or an antenna module (ED97). You can. In the electronic device ED01, some of these components (such as the display device ED60) may be omitted or other components may be added. Some of these components can be implemented as one integrated circuit. For example, the sensor module ED76 (fingerprint sensor, iris sensor, illumination sensor, etc.) may be implemented by being embedded in the display device ED60 (display, etc.).

프로세서(ED20)는, 소프트웨어(프로그램(ED40) 등)를 실행하여 프로세서(ED20)에 연결된 전자 장치(ED01) 중 하나 또는 복수개의 다른 구성요소들(하드웨어, 소프트웨어 구성요소 등)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 데이터 처리 또는 연산의 일부로, 프로세서(ED20)는 다른 구성요소(센서 모듈(ED76), 통신 모듈(ED90) 등)로부터 수신된 명령 및/또는 데이터를 휘발성 메모리(ED32)에 로드하고, 휘발성 메모리(ED32)에 저장된 명령 및/또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(ED34)에 저장할 수 있다. 프로세서(ED20)는 메인 프로세서(ED21)(중앙 처리 장치, 어플리케이션 프로세서 등) 및 이와 독립적으로 또는 함께 운영 가능한 보조 프로세서(ED23)(그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 커뮤니케이션 프로세서 등)를 포함할 수 있다. 보조 프로세서(ED23)는 메인 프로세서(ED21)보다 전력을 작게 사용하고, 특화된 기능을 수행할 수 있다. The processor ED20 may execute software (program ED40, etc.) to control one or a plurality of other components (hardware, software components, etc.) of the electronic device ED01 connected to the processor ED20. , various data processing or calculations can be performed. As part of data processing or computation, the processor (ED20) loads commands and/or data received from other components (sensor module (ED76), communication module (ED90), etc.) into volatile memory (ED32) and volatile memory (ED32). Commands and/or data stored in ED32) can be processed, and the resulting data can be stored in non-volatile memory (ED34). The processor (ED20) includes the main processor (ED21) (central processing unit, application processor, etc.) and an auxiliary processor (ED23) that can operate independently or together (graphics processing unit, image signal processor, sensor hub processor, communication processor, etc.). It can be included. The auxiliary processor (ED23) uses less power than the main processor (ED21) and can perform specialized functions.

보조 프로세서(ED23)는, 메인 프로세서(ED21)가 인액티브 상태(슬립 상태)에 있는 동안 메인 프로세서(ED21)를 대신하여, 또는 메인 프로세서(ED21)가 액티브 상태(어플리케이션 실행 상태)에 있는 동안 메인 프로세서(ED21)와 함께, 전자 장치(ED01)의 구성요소들 중 일부 구성요소(표시 장치(ED60), 센서 모듈(ED76), 통신 모듈(ED90) 등)와 관련된 기능 및/또는 상태를 제어할 수 있다. 보조 프로세서(ED23)(이미지 시그널 프로세서, 커뮤니케이션 프로세서 등)는 기능적으로 관련 있는 다른 구성 요소(카메라 모듈(ED80), 통신 모듈(ED90) 등)의 일부로서 구현될 수도 있다. The auxiliary processor (ED23) acts on behalf of the main processor (ED21) while the main processor (ED21) is in an inactive state (sleep state), or as the main processor (ED21) while the main processor (ED21) is in an active state (application execution state). Together with the processor (ED21), it is possible to control functions and/or states related to some of the components of the electronic device (ED01) (display device (ED60), sensor module (ED76), communication module (ED90), etc.) You can. The auxiliary processor (ED23) (image signal processor, communication processor, etc.) may also be implemented as part of other functionally related components (camera module (ED80), communication module (ED90), etc.).

메모리(ED30)는, 전자 장치(ED01)의 구성요소(프로세서(ED20), 센서모듈(ED76) 등)가 필요로 하는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(프로그램(ED40) 등) 및, 이와 관련된 명령에 대한 입력 데이터 및/또는 출력 데이터를 포함할 수 있다. 메모리(ED30)는, 휘발성 메모리(ED32) 및/또는 비휘발성 메모리(ED34)를 포함할 수 있다.The memory ED30 can store various data required by components (processor ED20, sensor module ED76, etc.) of the electronic device ED01. Data may include, for example, input data and/or output data for software (such as program ED40) and instructions related thereto. The memory ED30 may include a volatile memory ED32 and/or a non-volatile memory ED34.

프로그램(ED40)은 메모리(ED30)에 소프트웨어로 저장될 수 있으며, 운영 체제(ED42), 미들 웨어(ED44) 및/또는 어플리케이션(ED46)을 포함할 수 있다. The program (ED40) may be stored as software in the memory (ED30) and may include an operating system (ED42), middleware (ED44), and/or applications (ED46).

입력 장치(ED50)는, 전자 장치(ED01)의 구성요소(프로세서(ED20) 등)에 사용될 명령 및/또는 데이터를 전자 장치(ED01)의 외부(사용자 등)로부터 수신할 수 있다. 입력 장치(ED50)는, 마이크, 마우스, 키보드, 및/또는 디지털 펜(스타일러스 펜 등)을 포함할 수 있다. The input device ED50 may receive commands and/or data to be used in components (processor ED20, etc.) of the electronic device ED01 from an external source (a user, etc.) of the electronic device ED01. The input device ED50 may include a microphone, mouse, keyboard, and/or digital pen (stylus pen, etc.).

음향 출력 장치(ED55)는 음향 신호를 전자 장치(ED01)의 외부로 출력할 수 있다. 음향 출력 장치(ED55)는, 스피커 및/또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 리시버는 스피커의 일부로 결합되어 있거나 또는 독립된 별도의 장치로 구현될 수 있다.The audio output device ED55 may output an audio signal to the outside of the electronic device ED01. The sound output device ED55 may include a speaker and/or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. The receiver can be integrated as part of the speaker or implemented as a separate, independent device.

표시 장치(ED60)는 전자 장치(ED01)의 외부로 정보를 시각적으로 제공할 수 있다. 표시 장치(ED60)는, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 표시 장치(ED60)는 터치를 감지하도록 설정된 터치 회로(Touch Circuitry), 및/또는 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(압력 센서 등)를 포함할 수 있다. The display device ED60 can visually provide information to the outside of the electronic device ED01. The display device ED60 may include a display, a hologram device, or a projector, and a control circuit for controlling the device. The display device ED60 may include a touch circuitry configured to detect a touch, and/or a sensor circuit configured to measure the intensity of force generated by the touch (such as a pressure sensor).

오디오 모듈(ED70)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 오디오 모듈(ED70)은, 입력 장치(ED50)를 통해 소리를 획득하거나, 음향 출력 장치(ED55), 및/또는 전자 장치(ED01)와 직접 또는 무선으로 연결된 다른 전자 장치(전자 장치(ED02) 등)의 스피커 및/또는 헤드폰을 통해 소리를 출력할 수 있다.The audio module (ED70) can convert sound into electrical signals or, conversely, convert electrical signals into sound. The audio module (ED70) acquires sound through the input device (ED50), the sound output device (ED55), and/or another electronic device (electronic device (ED02), etc.) directly or wirelessly connected to the electronic device (ED01). ) can output sound through speakers and/or headphones.

센서 모듈(ED76)은 전자 장치(ED01)의 작동 상태(전력, 온도 등), 또는 외부의 환경 상태(사용자 상태 등)를 감지하고, 감지된 상태에 대응하는 전기 신호 및/또는 데이터 값을 생성할 수 있다. 센서 모듈(ED76)은, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(Infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 및/또는 조도 센서를 포함할 수 있다. The sensor module (ED76) detects the operating status (power, temperature, etc.) of the electronic device (ED01) or external environmental status (user status, etc.) and generates electrical signals and/or data values corresponding to the detected status. can do. The sensor module (ED76) includes a gesture sensor, gyro sensor, barometric pressure sensor, magnetic sensor, acceleration sensor, grip sensor, proximity sensor, color sensor, IR (Infrared) sensor, biometric sensor, temperature sensor, humidity sensor, and/or illuminance sensor. May include sensors.

인터페이스(ED77)는 전자 장치(ED01)가 다른 전자 장치(전자 장치(ED02) 등)와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 또는 복수의 지정된 프로토콜들을 지원할 수 있다. 인터페이스(ED77)는, HDMI(High Definition Multimedia Interface), USB(Universal Serial Bus) 인터페이스, SD카드 인터페이스, 및/또는 오디오 인터페이스를 포함할 수 있다.The interface ED77 may support one or a plurality of designated protocols that can be used to directly or wirelessly connect the electronic device ED01 to another electronic device (such as the electronic device ED02). The interface ED77 may include a High Definition Multimedia Interface (HDMI), a Universal Serial Bus (USB) interface, an SD card interface, and/or an audio interface.

연결 단자(ED78)는, 전자 장치(ED01)가 다른 전자 장치(전자 장치(ED02) 등)와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 연결 단자(ED78)는, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 및/또는 오디오 커넥터(헤드폰 커넥터 등)를 포함할 수 있The connection terminal ED78 may include a connector through which the electronic device ED01 can be physically connected to another electronic device (such as the electronic device ED02). Connection terminals (ED78) may include an HDMI connector, USB connector, SD card connector, and/or audio connector (headphone connector, etc.)

햅틱 모듈(ED79)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(진동, 움직임 등) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(ED79)은, 모터, 압전 소자, 및/또는 전기 자극 장치를 포함할 수 있다.The haptic module (ED79) can convert electrical signals into mechanical stimulation (vibration, movement, etc.) or electrical stimulation that the user can perceive through tactile or kinesthetic senses. The haptic module (ED79) may include a motor, a piezoelectric element, and/or an electrical stimulation device.

카메라 모듈(ED80)은 정지 영상 및 동영상을 촬영할 수 있다. 카메라 모듈(ED80)은 하나 또는 복수의 렌즈들을 포함하는 렌즈 어셈블리, 전술한 이미지 센서(200), 이미지 시그널 프로세서들, 및/또는 플래시들을 포함할 수 있다. 카메라 모듈(ED80)에 포함된 렌즈 어셈블리는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다.The camera module (ED80) can shoot still images and videos. The camera module ED80 may include a lens assembly including one or a plurality of lenses, the above-described image sensor 200, image signal processors, and/or flashes. The lens assembly included in the camera module (ED80) can collect light emitted from the subject that is the target of image capture.

전력 관리 모듈(ED88)은 전자 장치(ED01)에 공급되는 전력을 관리할 수 있다. 전력 관리 모듈(ED88)은, PMIC(Power Management Integrated Circuit)의 일부로서 구현될 수 있다.The power management module ED88 can manage power supplied to the electronic device ED01. The power management module (ED88) may be implemented as part of a Power Management Integrated Circuit (PMIC).

배터리(ED89)는 전자 장치(ED01)의 구성 요소에 전력을 공급할 수 있다. 배터리(ED89)는, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 및/또는 연료 전지를 포함할 수 있다.Battery ED89 may supply power to components of electronic device ED01. The battery ED89 may include a non-rechargeable primary cell, a rechargeable secondary cell, and/or a fuel cell.

통신 모듈(ED90)은 전자 장치(ED01)와 다른 전자 장치(전자 장치(ED02), 전자 장치(ED04), 서버(ED08) 등)간의 직접(유선) 통신 채널 및/또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(ED90)은 프로세서(ED20)(어플리케이션 프로세서 등)와 독립적으로 운영되고, 직접 통신 및/또는 무선 통신을 지원하는 하나 또는 복수의 커뮤니케이션 프로세서들을 포함할 수 있다. 통신 모듈(ED90)은 무선 통신 모듈(ED92)(셀룰러 통신 모듈, 근거리 무선 통신 모듈, GNSS(Global Navigation Satellite System 등) 통신 모듈) 및/또는 유선 통신 모듈(ED94)(LAN(Local Area Network) 통신 모듈, 전력선 통신 모듈 등)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(ED98)(블루투스, WiFi Direct 또는 IrDA(Infrared Data Association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(ED99)(셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(LAN, WAN 등)와 같은 원거리 통신 네트워크)를 통하여 다른 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(단일 칩 등)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(복수 칩들)로 구현될 수 있다. 무선 통신 모듈(ED92)은 가입자 식별 모듈(ED96)에 저장된 가입자 정보(국제 모바일 가입자 식별자(IMSI) 등)를 이용하여 제1 네트워크(ED98) 및/또는 제2 네트워크(ED99)와 같은 통신 네트워크 내에서 전자 장치(ED01)를 확인 및 인증할 수 있다. The communication module (ED90) establishes a direct (wired) communication channel and/or a wireless communication channel between the electronic device (ED01) and other electronic devices (electronic device (ED02), electronic device (ED04), server (ED08), etc.) and can support communication through established communication channels. The communication module (ED90) operates independently of the processor (ED20) (application processor, etc.) and may include one or more communication processors that support direct communication and/or wireless communication. The communication module (ED90) is a wireless communication module (ED92) (cellular communication module, short-range wireless communication module, GNSS (Global Navigation Satellite System, etc.) communication module) and/or a wired communication module (ED94) (LAN (Local Area Network) communication module, power line communication module, etc.). Among these communication modules, the corresponding communication module is the first network (ED98) (a short-range communication network such as Bluetooth, WiFi Direct, or IrDA (Infrared Data Association)) or the second network (ED99) (a cellular network, the Internet, or a computer network (LAN) , WAN, etc.) can communicate with other electronic devices. These various types of communication modules may be integrated into one component (such as a single chip) or may be implemented as a plurality of separate components (multiple chips). The wireless communication module (ED92) uses subscriber information (international mobile subscriber identifier (IMSI), etc.) stored in the subscriber identification module (ED96) to communicate within a communication network such as the first network (ED98) and/or the second network (ED99). You can check and authenticate the electronic device (ED01).

안테나 모듈(ED97)은 신호 및/또는 전력을 외부(다른 전자 장치 등)로 송신하거나 외부로부터 수신할 수 있다. 안테나는 기판(PCB 등) 위에 형성된 도전성 패턴으로 이루어진 방사체를 포함할 수 있다. 안테나 모듈(ED97)은 하나 또는 복수의 안테나들을 포함할 수 있다. 복수의 안테나가 포함된 경우, 통신 모듈(ED90)에 의해 복수의 안테나들 중에서 제1 네트워크(ED98) 및/또는 제2 네트워크(ED99)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 안테나가 선택될 수 있다. 선택된 안테나를 통하여 통신 모듈(ED90)과 다른 전자 장치 간에 신호 및/또는 전력이 송신되거나 수신될 수 있다. 안테나 외에 다른 부품(RFIC 등)이 안테나 모듈(ED97)의 일부로 포함될 수 있다.The antenna module (ED97) can transmit signals and/or power to or receive signals and/or power from the outside (such as other electronic devices). The antenna may include a radiator consisting of a conductive pattern formed on a substrate (PCB, etc.). The antenna module ED97 may include one or multiple antennas. When a plurality of antennas are included, an antenna suitable for a communication method used in a communication network such as the first network (ED98) and/or the second network (ED99) may be selected from among the plurality of antennas by the communication module (ED90). You can. Signals and/or power may be transmitted or received between the communication module ED90 and other electronic devices through the selected antenna. In addition to the antenna, other components (RFIC, etc.) may be included as part of the antenna module (ED97).

구성요소들 중 일부는 주변 기기들간 통신 방식(버스, GPIO(General Purpose Input and Output), SPI(Serial Peripheral Interface), MIPI(Mobile Industry Processor Interface) 등)을 통해 서로 연결되고 신호(명령, 데이터 등)를 상호 교환할 수 있다.Some of the components are connected to each other through communication methods between peripheral devices (bus, GPIO (General Purpose Input and Output), SPI (Serial Peripheral Interface), MIPI (Mobile Industry Processor Interface), etc.) and signals (commands, data, etc.) ) can be interchanged.

명령 또는 데이터는 제2 네트워크(ED99)에 연결된 서버(ED08)를 통해서 전자 장치(ED01)와 외부의 전자 장치(ED04)간에 송신 또는 수신될 수 있다. 다른 전자 장치들(ED02, ED04)은 전자 장치(ED01)와 동일한 또는 다른 종류의 장치일 수 있다. 전자 장치(ED01)에서 실행되는 동작들의 전부 또는 일부는 다른 전자 장치들(ED02, ED04, ED08) 중 하나 또는 복수의 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(ED01)가 어떤 기능이나 서비스를 수행해야 할 때, 기능 또는 서비스를 자체적으로 실행시키는 대신에 하나 또는 복수의 다른 전자 장치들에게 그 기능 또는 그 서비스의 일부 또는 전체를 수행하라고 요청할 수 있다. 요청을 수신한 하나 또는 복수의 다른 전자 장치들은 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(ED01)로 전달할 수 있다. 이를 위하여, 클라우드 컴퓨팅, 분산 컴퓨팅, 및/또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.Commands or data may be transmitted or received between the electronic device ED01 and an external electronic device ED04 through the server ED08 connected to the second network ED99. The other electronic devices ED02 and ED04 may be the same or different types of devices from the electronic device ED01. All or part of the operations performed in the electronic device ED01 may be executed in one or more of the other electronic devices ED02, ED04, and ED08. For example, when the electronic device (ED01) needs to perform a certain function or service, instead of executing the function or service itself, it performs part or all of the function or service to one or more other electronic devices. You can ask them to do it. One or more other electronic devices that have received the request may execute additional functions or services related to the request and transmit the results of the execution to the electronic device ED01. For this purpose, cloud computing, distributed computing, and/or client-server computing technologies may be used.

도 19는 도 18의 전자 장치에 구비된 카메라 모듈(ED80)을 예시하는 블록도다. 도 19를 참조하면, 카메라 모듈(ED80)은 렌즈 어셈블리(1170), 플래쉬(1120), 이미지 센서(200), 이미지 스태빌라이저(1140), AF 제어부(1130), 메모리(1150)(버퍼 메모리 등), 액츄에이터(1180) 및/또는 이미지 시그널 프로세서(ISP)(1160)를 포함할 수 있다. FIG. 19 is a block diagram illustrating the camera module ED80 provided in the electronic device of FIG. 18. Referring to FIG. 19, the camera module (ED80) includes a lens assembly 1170, a flash 1120, an image sensor 200, an image stabilizer 1140, an AF control unit 1130, and a memory 1150 (buffer memory, etc.) , may include an actuator 1180 and/or an image signal processor (ISP) 1160.

렌즈 어셈블리(1170)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(1170)는 하나 이상의 광학 렌즈를 포함할 수 있다. 렌즈 어셈블리(1170)에는 광의 경로를 꺾어 이미지 센서(200)를 향하게 하는 경로 전환 부재가 포함될 수도 있다. 경로 전환 부재의 구비 여하 및 광학 렌즈와의 배치 형태에 따라, 카메라 모듈(ED80)은 버티컬(vertical) 형태, 또는 폴디드(folded) 형태를 가질 수 있다. 카메라 모듈(ED80)은 복수의 렌즈 어셈블리(1170)들을 포함할 수도 있으며, 이런 경우, 카메라 모듈(ED80)은, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(Spherical Camera)가 될 수 있다. 복수의 렌즈 어셈블리(1170)들 중 일부는 동일한 렌즈 속성(화각, 초점 거리, 자동 초점, F 넘버(F Number), 광학 줌 등)을 갖거나, 또는 다른 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(1170)는, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. The lens assembly 1170 may collect light emitted from a subject that is the target of image capture. Lens assembly 1170 may include one or more optical lenses. The lens assembly 1170 may include a path switching member that bends the path of light and directs it toward the image sensor 200. Depending on the presence of a path switching member and the arrangement of the optical lens, the camera module ED80 may have a vertical shape or a folded shape. The camera module ED80 may include a plurality of lens assemblies 1170. In this case, the camera module ED80 may be a dual camera, a 360-degree camera, or a spherical camera. Some of the plurality of lens assemblies 1170 may have the same lens properties (angle of view, focal length, autofocus, F number, optical zoom, etc.) or may have different lens properties. The lens assembly 1170 may include a wide-angle lens or a telephoto lens.

액츄에이터(1180)는 렌즈 어셈블리(1170)를 구동할 수 있다. 액츄에이터(1180)에 의해, 예를 들어, 렌즈 어셈블리(1170)를 구성하는 광학 렌즈, 경로 전환 부재 중 적어도 일부가 움직일 수 있다. 광학 렌즈는 광축을 따라 움직일 수 있고, 렌즈 어셈블리(1170)에 포함된 광학 렌즈의 적어도 일부를 이동시켜 인접한 렌즈간의 거리를 조절함으로써, 이에 따라 광학 줌 배율(optical zoom ratio)이 조절될 수 있다. The actuator 1180 may drive the lens assembly 1170. For example, at least some of the optical lenses and path switching members constituting the lens assembly 1170 can be moved by the actuator 1180. The optical lens may move along the optical axis, and the distance between adjacent lenses may be adjusted by moving at least a portion of the optical lens included in the lens assembly 1170, thereby adjusting the optical zoom ratio.

액츄에이터(1180)는 이미지 센서(200)가 렌즈 어셈블리(1170)의 초점 거리(focal length)에 위치하도록, 렌즈 어셈블리(1170)에 포함된 어느 하나의 광학 렌즈의 위치를 조정할 수 있다. 액츄에이터(1180)는 AF 제어부(1130)에서 전달된 AF 구동 신호에 따라 렌즈 어셈블리(1170)를 구동할 수 있다.The actuator 1180 may adjust the position of one optical lens included in the lens assembly 1170 so that the image sensor 200 is located at the focal length of the lens assembly 1170. The actuator 1180 may drive the lens assembly 1170 according to the AF driving signal transmitted from the AF control unit 1130.

플래쉬(1120)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 플래쉬(1120)는 가시광 또는 적외선 광을 방출할 수 있다. 플래쉬(1120)는 하나 또는 복수의 발광 다이오드들(RGB(Red-Green-Blue) LED, White LED, Infrared LED, Ultraviolet LED 등), 및/또는 Xenon Lamp를 포함할 수 있다. 이미지 센서(200)는 도 1에서 설명한 이미지 센서(200)일 수 있고, 또는 전술한 이미지 센서(1001-1012) 중 어느 하나, 또는 이들이 조합, 변형된 형태를 가질 수 있다. 이미지 센서(200) 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(1170)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 피사체에 대응하는 이미지를 획득할 수 있다. The flash 1120 may emit light used to enhance light emitted or reflected from a subject. Flash 1120 may emit visible light or infrared light. The flash 1120 may include one or a plurality of light emitting diodes (RGB (Red-Green-Blue) LED, White LED, Infrared LED, Ultraviolet LED, etc.), and/or a Xenon Lamp. The image sensor 200 may be the image sensor 200 described in FIG. 1, or one of the image sensors 1001-1012 described above, or a combination or modified form thereof. The image sensor 200 converts light emitted or reflected from a subject and transmitted through the lens assembly 1170 into an electrical signal, thereby obtaining an image corresponding to the subject.

이미지 센서(200)는 앞서 설명한 색분리 렌즈 어레이(300)를 구비하고 있으며, 각 화소는 복수개의 채널을 형성하는 복수의 광감지셀, 예를 들어 2X2로 배열된 복수의 광감지셀을 포함할 수 있다. 이러한 화소들 중 일부는 AF 화소로 사용될 수 있고, 이미지 센서(200)는 AF 화소 내의 복수 채널의 신호로부터 AF 구동 신호를 생성할 수 있다. The image sensor 200 is equipped with the color separation lens array 300 described above, and each pixel may include a plurality of photo-sensing cells forming a plurality of channels, for example, a plurality of photo-sensing cells arranged in 2X2. You can. Some of these pixels may be used as AF pixels, and the image sensor 200 may generate AF driving signals from signals of multiple channels within the AF pixels.

이미지 스태빌라이저(1140)는 카메라 모듈(ED80) 또는 이를 포함하는 전자 장치(ED01)의 움직임에 반응하여, 렌즈 어셈블리(1170)에 포함된 하나 또는 복수개의 렌즈 또는 이미지 센서(200)를 특정한 방향으로 움직이거나 이미지 센서(200)의 동작 특성을 제어(리드 아웃(Read-Out) 타이밍의 조정 등)하여 움직임에 의한 부정적인 영향이 보상되도록 할 수 있다. 이미지 스태빌라이저(1140)는 카메라 모듈(ED80)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(ED80) 또는 전자 장치(ED01)의 움직임을 감지할 수 있다. 이미지 스태빌라이저(1140)는, 광학식으로 구현될 수도 있다. The image stabilizer 1140 moves one or more lenses or image sensors 200 included in the lens assembly 1170 in a specific direction in response to the movement of the camera module (ED80) or the electronic device (ED01) including it. Alternatively, the operation characteristics of the image sensor 200 can be controlled (adjustment of read-out timing, etc.) to compensate for the negative effects of movement. The image stabilizer 1140 detects the movement of the camera module (ED80) or the electronic device (ED01) using a gyro sensor (not shown) or an acceleration sensor (not shown) placed inside or outside the camera module (ED80). You can. The image stabilizer 1140 may be implemented optically.

AF 제어부(1130)는 이미지 센서(200)의 AF 화소로부터 센싱된 신호값으로부터 AF 구동 신호를 생성할 수 있다. AF 제어부(1130)는 AF 구동 신호에 따라 액츄에이터(1180)를 제어할 수 있다. The AF control unit 1130 may generate an AF driving signal from a signal value sensed from the AF pixel of the image sensor 200. The AF control unit 1130 may control the actuator 1180 according to the AF driving signal.

메모리(1150)는 이미지 센서(200)를 통하여 획득된 이미지의 일부 또는 전체 데이터가 다음 이미지 처리 작업을 위하여 저장할 수 있다. 예를 들어, 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 데이터(Bayer-Patterned 데이터, 고해상도 데이터 등)는 메모리(1150)에 저장하고, 저해상도 이미지만을 디스플레이 해준 후, 선택된(사용자 선택 등) 이미지의 원본 데이터가 이미지 시그널 프로세서(1160)로 전달되도록 하는데 사용될 수 있다. 메모리(1150)는 전자 장치(ED01)의 메모리(ED30)로 통합되어 있거나, 또는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The memory 1150 may store part or all data of the image acquired through the image sensor 200 for the next image processing task. For example, when multiple images are acquired at high speed, the acquired original data (Bayer-Patterned data, high-resolution data, etc.) is stored in the memory 1150, only the low-resolution images are displayed, and then the selected (user selection, etc.) It can be used to ensure that the original data of the image is transmitted to the image signal processor 1160. The memory 1150 may be integrated into the memory ED30 of the electronic device ED01, or may be configured as a separate memory that operates independently.

이미지 시그널 프로세서(ISP)(1160)는 이미지 센서(200)를 통하여 획득된 이미지 또는 메모리(1150)에 저장된 이미지 데이터에 대하여 이미지 처리들을 수행할 수 있다. 이미지 처리들은, 깊이 지도(Depth Map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 및/또는 이미지 보상(노이즈 감소, 해상도 조정, 밝기 조정, 블러링(Blurring), 샤프닝(Sharpening), 소프트닝(Softening) 등)을 포함할 수 있다. 이미지 시그널 프로세서(1160)는 카메라 모듈(ED80)에 포함된 구성 요소들(이미지 센서(200) 등)에 대한 제어(노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(1160)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(1150)에 다시 저장 되거나 카메라 모듈(ED80)의 외부 구성 요소(메모리(ED30), 표시 장치(ED60), 전자 장치(ED02), 전자 장치(ED04), 서버(ED08) 등)로 제공될 수 있다. 이미지 시그널 프로세서(1160)는 프로세서(ED20)에 통합되거나, 프로세서(ED20)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(1160)가 프로세서(ED20)와 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(1160)에 의해 처리된 이미지는 프로세서(ED20)에 의하여 추가의 이미지 처리를 거친 후 표시 장치(ED60)를 통해 표시될 수 있다.The image signal processor (ISP) 1160 may perform image processing on images acquired through the image sensor 200 or image data stored in the memory 1150. Image processing includes depth map creation, 3D modeling, panorama creation, feature point extraction, image compositing, and/or image compensation (noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening) , softening, etc.). The image signal processor 1160 may perform control (exposure time control, lead-out timing control, etc.) on components (such as the image sensor 200) included in the camera module ED80. Images processed by the image signal processor 1160 are stored back in the memory 1150 for further processing or stored in external components of the camera module (ED80) (memory (ED30), display device (ED60), electronic device (ED02) , electronic device (ED04), server (ED08), etc.). The image signal processor 1160 may be integrated into the processor ED20 or may be configured as a separate processor that operates independently from the processor ED20. When the image signal processor 1160 is configured as a separate processor from the processor ED20, the image processed by the image signal processor 1160 undergoes additional image processing by the processor ED20 and then is displayed on the display device ED60. It can be displayed through

AF 제어부(1130)는 이미지 시그널 프로세서(1160)에 통합될 수도 있다. 이미지 시그널 프로세서(1160)가 이미지 센서(200)의 오토포커싱 화소들로부터의 신호를 처리하여 AF 신호를 생성하고, AF 제어부(1130)는 이를 액츄에이터(1180) 구동 신호로 바꾸어 액츄에이터(1180)에 전달할 수도 있다. The AF control unit 1130 may be integrated into the image signal processor 1160. The image signal processor 1160 processes signals from the autofocusing pixels of the image sensor 200 to generate an AF signal, and the AF control unit 1130 converts this into an actuator 1180 driving signal and transmits it to the actuator 1180. It may be possible.

실시예들에 따른 이미지 센서(200)는 다양한 전자 장치에 적용될 수 있다.The image sensor 200 according to embodiments may be applied to various electronic devices.

실시예들에 따른 이미지 센서(200)는 모바일폰 또는 스마트폰, 태블릿 또는 스마트 태블릿, 디지털 카메라 또는 캠코더, 노트북 컴퓨터 또는 텔레비전 또는 스마트 텔레비전 등에 적용될 수 있다. 예를 들어, 스마트폰 또는 스마트 태블릿은 고해상 이미지센서가 각각 탑재된 복수의 고해상 카메라를 포함할 수 있다. 고해상 카메라들을 이용하여 영상 내 피사체들의 깊이 정보를 추출하거나, 영상의 아웃포커싱을 조절하거나, 영상 내 피사체들을 자동으로 식별할 수 있다.The image sensor 200 according to embodiments may be applied to a mobile phone or smart phone, a tablet or smart tablet, a digital camera or camcorder, a laptop computer, a television, or a smart television. For example, a smartphone or smart tablet may include a plurality of high-resolution cameras, each equipped with a high-resolution image sensor. Using high-resolution cameras, you can extract depth information of subjects in an image, adjust the outfocusing of an image, or automatically identify subjects in an image.

또한, 이미지 센서(200)는 스마트 냉장고, 보안 카메라, 로봇, 의료용 카메라 등에 적용될 수 있다. 예를 들어, 스마트 냉장고는 이미지센서를 이용하여 냉장고 내에 있는 음식을 자동으로 인식하고, 특정 음식의 존재 여부, 입고 또는 출고된 음식의 종류 등을 스마트폰을 통해 사용자에게 알려줄 수 있다. 보안 카메라(는 초고해상도 영상을 제공할 수 있으며 높은 감도를 이용하여 어두운 환경에서도 영상 내의 사물 또는 사람을 인식 가능하게 할 수 있다. 로봇은 사람이 직접 접근할 수 없는 재해 또는 산업 현장에서 투입되어 고해상도 영상을 제공할 수 있다. 의료용 카메라는 진단 또는 수술을 위한 고해상도 영상을 제공할 수 있으며 시야를 동적으로 조절할 수 있다.Additionally, the image sensor 200 may be applied to smart refrigerators, security cameras, robots, medical cameras, etc. For example, a smart refrigerator can automatically recognize the food in the refrigerator using an image sensor and inform the user of the presence or absence of specific food and the type of food received or shipped through the smartphone. Security cameras can provide ultra-high resolution images and, using high sensitivity, can recognize objects or people in the images even in dark environments. Robots are deployed in disaster or industrial sites that cannot be accessed directly by humans, providing high resolution. Medical cameras can provide high-resolution images for diagnosis or surgery and can dynamically adjust their field of view.

또한, 이미지 센서(200)는 차량에 적용될 수 있다. 차량(은 다양한 위치에 배치된 복수의 차량용 카메라를 포함할 수 있으며. 각각의 차량용 카메라는 실시예에 따른 이미지센서를 포함할 수 있다. 차량은 복수의 차량용 카메라를 이용하여 차량 내부 또는 주변에 대한 다양한 정보를 운전자에게 제공할 수 있으며, 영상 내의 사물 또는 사람을 자동으로 인식하여 자율 주행에 필요한 정보를 제공할 수 있다.Additionally, the image sensor 200 may be applied to a vehicle. The vehicle may include a plurality of vehicle cameras arranged at various locations. Each vehicle camera may include an image sensor according to an embodiment. The vehicle uses a plurality of vehicle cameras to provide information about the interior or surroundings of the vehicle. Various information can be provided to the driver, and information necessary for autonomous driving can be provided by automatically recognizing objects or people in the video.

상술한 색분리 렌즈 어레이를 구비하는 이미지 센서 및 이를 포함하는 영상 획득 장치는 도면에 도시된 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 권리범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 권리범위에 포함된 것으로 해석되어야 할 것이다.The image sensor having the above-described color separation lens array and the image acquisition device including the same have been described with reference to the embodiment shown in the drawings, but this is merely an example, and those skilled in the art will understand various It will be understood that variations and equivalent other embodiments are possible. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of rights is indicated in the patent claims, not the foregoing description, and all differences within the equivalent scope should be interpreted as being included in the scope of rights.

100: 영상 획득 장치
120: 촬영 렌즈부
200: 이미지 센서
210: 화소 어레이
250: 신호 처리부
251: 디모자이싱부
252: 디렉션 이미지 생성부
253: 그레이 검출부
254: 에지 검출부
255: 페이서부
256: 샤프닝 필터부
257: 선택부
258: 조정부
259: 베이어 재결합부
300: 색분리 렌즈 어레이
500: 센서 기판
100: Image acquisition device
120: Shooting lens unit
200: image sensor
210: pixel array
250: signal processing unit
251: demosaicing unit
252: Direction image creation unit
253: Gray detection unit
254: Edge detection unit
255: Pacerbu
256: Sharpening filter unit
257: selection part
258: Control department
259: Bayer recombination unit
300: Color separation lens array
500: sensor substrate

Claims (20)

입사광을 컬러에 따라 분리 및 집광하는 색분리 렌즈 어레이를 포함하는 이미지 센서; 및
상기 이미지 센서에서 획득된 입력 이미지를 처리하는 신호 처리부;를 포함하되,
상기 신호 처리부는,
상기 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱부;
상기 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터부;
상기 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 상기 기 설정된 방향 별로 상기 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성부;
상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출부;
상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출부; 및
상기 검출된 그레이 영역 및 상기 에지 방향에 기초하여, 상기 제1 이미지 및 상기 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택부;를 포함하는 영상 획득 장치.
An image sensor including a color separation lens array that separates and focuses incident light according to color; and
Includes a signal processor that processes the input image obtained from the image sensor,
The signal processing unit,
a demosaicing unit that reconstructs the green signal to have full pixel resolution using the input image;
a sharpening filter unit that generates a first image by sharpening the reconstructed green signal in each preset direction;
Generating a direction image by white balancing the input image and using an unsharpening filtering algorithm to generate a second image in which the base band of the white balance processed input image is removed for each preset direction and only the detail band is extracted. wealth;
a gray detector that white balances the input image and detects a gray area of the white balanced input image;
an edge detection unit that white balances the input image and detects an edge direction of the white balanced input image; and
An image acquisition device comprising: a selection unit that generates a third image by blending the first image and the second image based on the detected gray area and the edge direction.
제1 항에 있어서,
상기 이미지 센서는,
광을 센싱하는 복수의 광감지셀을 포함하는 센서 기판; 및
상기 센서 기판 전단에 배치되고, 상기 복수의 광감지셀과 각각 마주하는 복수의 영역에 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하는 미소 구조를 포함하는 상기 색분리 렌즈 어레이;를 포함하는 영상 획득 장치.
According to claim 1,
The image sensor is,
A sensor substrate including a plurality of light-sensing cells that sense light; and
The color separation device is disposed at the front end of the sensor substrate and includes a microstructure that forms a phase distribution that focuses light of different wavelengths on adjacent photosensing cells in a plurality of areas facing each of the plurality of photosensing cells. An image acquisition device comprising a lens array.
제1 항에 있어서,
상기 이미지 센서는 베이어 패턴 어레이를 가지는 영상 획득 장치.
According to claim 1,
The image sensor is an image acquisition device having a Bayer pattern array.
제1 항에 있어서,
상기 신호 처리부는, 상기 제3 이미지의 녹색 신호의 변화량에 기초하여 적색 신호 및 청색 신호를 조정하는 조정부를 포함하는 영상 획득 장치.
According to claim 1,
The signal processing unit is an image acquisition device including an adjusting unit that adjusts the red signal and the blue signal based on the amount of change in the green signal of the third image.
제4 항에 있어서,
상기 제3 이미지의 녹색 신호 및 상기 조정된 적색 신호 및 청색 신호를 결합하여 베이어 패턴 어레이를 갖는 제4 이미지를 생성하는 베이어 재결합부를 포함하는 영상 획득 장치.
According to clause 4,
An image acquisition device comprising a Bayer recombination unit that combines the green signal of the third image and the adjusted red and blue signals to generate a fourth image having a Bayer pattern array.
제1 항에 있어서,
상기 신호 처리부는, 상기 재구성된 녹색 신호의 에지 방향을 검출하는 페이서부를 포함하는 영상 획득 장치.
According to claim 1,
The signal processing unit is an image acquisition device including a pacer unit that detects an edge direction of the reconstructed green signal.
제6 항에 있어서,
상기 선택부는, 상기 재구성된 녹색 신호의 에지 강도가 기 설정된 값 이상이면, 상기 페이서부에 의해 검출된 에지 방향에 해당하는 상기 제1 이미지를 에지 개선하는, 영상 획득 장치.
According to clause 6,
The selection unit, if the edge strength of the reconstructed green signal is greater than a preset value, edge improves the first image corresponding to the edge direction detected by the pacer unit.
제7 항에 있어서,
상기 선택부는, 상기 재구성된 녹색 신호의 에지 강도가 기 설정된 값 이상이면, 상기 그레이 검출부에 의해 상기 화이트 밸런스 처리된 입력 이미지 내에 그레이 영역 유무를 결정하는 영상 획득 장치.
According to clause 7,
The selection unit determines the presence or absence of a gray area in the input image white balanced by the gray detection unit if the edge strength of the reconstructed green signal is greater than a preset value.
제8 항에 있어서,
상기 선택부는, 상기 화이트 밸런스 처리된 입력 이미지 내에 그레이 영역이 존재하는 경우, 상기 에지 검출부에 의해 결정된 에지 방향에 해당하는 상기 제2 이미지를 이용하여 에지 개선하고, 상기 제1 이미지 및 상기 에지 개선된 제2 이미지를 블렌딩하여 상기 제3 이미지를 생성하는 영상 획득 장치.
According to clause 8,
If a gray area exists in the white balance-processed input image, the selection unit performs edge improvement using the second image corresponding to the edge direction determined by the edge detection unit, and selects the first image and the edge-enhanced image. An image acquisition device that generates the third image by blending the second image.
제7 항에 있어서,
상기 선택부는, 상기 재구성된 녹색 신호의 에지 강도가 기 설정된 값 미만이면, 상기 그레이 검출부에 의해 상기 화이트 밸런스 처리된 입력 이미지 내에 그레이 영역 유무를 결정하는 영상 획득 장치.
According to clause 7,
The selection unit determines the presence or absence of a gray area in the input image white balanced by the gray detection unit if the edge strength of the reconstructed green signal is less than a preset value.
제10 항에 있어서,
상기 선택부는, 상기 화이트 밸런스 처리된 입력 이미지 내에 그레이 영역이 존재하는 경우, 상기 에지 검출부에 의해 결정된 에지 방향에 해당하는 상기 제2 이미지를 이용하여 에지 개선하고, 상기 재구성된 녹색 신호 및 상기 에지 개선된 제2 이미지를 블렌딩하여 상기 제3 이미지를 생성하는 영상 획득 장치.
According to claim 10,
If a gray area exists in the white balanced input image, the selection unit performs edge improvement using the second image corresponding to the edge direction determined by the edge detection unit, and the reconstructed green signal and the edge improvement An image acquisition device that generates the third image by blending the second image.
제1 항에 있어서,
상기 기 설정된 방향은, 수평, 수직, 45도, 및 135도 방향을 포함하는 영상 획득 장치.
According to claim 1,
The preset direction includes horizontal, vertical, 45 degrees, and 135 degrees.
제1 항에 있어서,
상기 디렉션 이미지 생성부는,
상기 화이트 밸런스 처리된 입력 이미지를 저주파 필터링하여 제5 이미지를 생성하는 로우 패스 필터; 및
상기 화이트 밸런스 처리된 입력 이미지 및 상기 제5 이미지를 수신하여, 상기 화이트 밸런스 처리된 입력 이미지에서 상기 제5 이미지를 감산하는 연산기;를 포함하는 영상 획득 장치.
According to claim 1,
The direction image generator,
a low-pass filter that generates a fifth image by low-frequency filtering the white-balanced input image; and
An image acquisition device comprising: an operator that receives the white balance processed input image and the fifth image, and subtracts the fifth image from the white balance processed input image.
제13 항에 있어서,
상기 디렉션 이미지 생성부는, 상기 로우 패스 필터와 상기 연산기 사이에 배치되고, 상기 제5 이미지에 게인을 곱하는 곱셈기를 더 포함하는 영상 획득 장치.
According to claim 13,
The direction image generator is disposed between the low-pass filter and the operator and further includes a multiplier that multiplies the fifth image by a gain.
제13 항에 있어서,
상기 디렉션 이미지 생성부는, 상기 화이트 밸런스 처리된 입력 이미지의 한계 해상도를 검출하기 위한 하이 패스 필터를 더 포함하는 영상 획득 장치.
According to claim 13,
The direction image generator further includes a high-pass filter for detecting a limiting resolution of the white balance-processed input image.
제1 항에 있어서,
상기 에지 검출부는, 상기 화이트 밸런스 처리된 입력 이미지의 노이즈를 제거하기 위한 로우 패스 필터를 포함하는 영상 획득 장치.
According to claim 1,
The edge detection unit includes a low-pass filter to remove noise from the white-balanced input image.
제1 항에 있어서,
상기 선택부는, 상기 이미지 센서의 주광선 각도(Chief ray angle)의 필드 정보에 기초하여, 상기 제3 이미지를 생성하는 영상 획득 장치.
According to claim 1,
The selection unit is configured to generate the third image based on field information of the chief ray angle of the image sensor.
제1 항에 있어서,
상기 디렉션 이미지 생성부, 상기 그레이 검출부, 및 상기 에지 검출부는, 상기 디모자이싱부와 메모리를 공유하도록 병렬 배치되는 영상 획득 장치.
According to claim 1,
The direction image generation unit, the gray detection unit, and the edge detection unit are arranged in parallel to share memory with the demosaicing unit.
입사광을 컬러에 따라 분리 및 집광하는 색분리 렌즈 어레이를 포함하는 이미지 센서를 포함하는 영상 획득 장치에 있어서,
상기 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱을 수행하는 단계;
상기 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터링 단계;
상기 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 상기 기 설정된 방향 별로 상기 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성 단계;
상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출 단계;
상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출 단계; 및
상기 검출된 그레이 영역 및 상기 에지 방향에 기초하여, 상기 제1 이미지 및 상기 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택 단계;를 포함하는 영상 획득 방법.
An image acquisition device including an image sensor including a color separation lens array that separates and focuses incident light according to color,
performing demosaicing to reconstruct the green signal to have full pixel resolution using the input image;
A sharpening filtering step of generating a first image by sharpening the reconstructed green signal in each preset direction;
Generating a direction image by white balancing the input image and using an unsharpening filtering algorithm to generate a second image in which the base band of the white balance processed input image is removed for each preset direction and only the detail band is extracted. step;
A gray detection step of white balancing the input image and detecting a gray area of the white balance processed input image;
An edge detection step of white-balancing the input image and detecting an edge direction of the white-balanced input image; and
A selection step of generating a third image by blending the first image and the second image based on the detected gray area and the edge direction.
제19 항에 있어서,
상기 제3 이미지의 녹색 신호의 변화량에 기초하여 적색 신호 및 청색 신호를 조정하는 조정 단계를 포함하는 영상 획득 방법.
According to clause 19,
An image acquisition method comprising an adjustment step of adjusting a red signal and a blue signal based on the amount of change in the green signal of the third image.
KR1020230021591A 2023-01-17 2023-02-17 Apparatus and method for obtaining image emplying color separation lens array Pending KR20240114659A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/414,132 US20240244333A1 (en) 2023-01-17 2024-01-16 Apparatus and method for obtaining image employing color separation lens array
EP24152375.2A EP4404581A1 (en) 2023-01-17 2024-01-17 Apparatus and method for obtaining image employing color separation lens array

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020230006980 2023-01-17
KR20230006980 2023-01-17

Publications (1)

Publication Number Publication Date
KR20240114659A true KR20240114659A (en) 2024-07-24

Family

ID=92171325

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230021591A Pending KR20240114659A (en) 2023-01-17 2023-02-17 Apparatus and method for obtaining image emplying color separation lens array

Country Status (1)

Country Link
KR (1) KR20240114659A (en)

Similar Documents

Publication Publication Date Title
KR102624107B1 (en) Image Sensor for generating Depth Data by a path difference of light generated through Micro Lens covering a plurality of sub-pixels and Electronic Device including the image sensor
JP2022074093A (en) Image sensor with color separation lens array and electronic device including it
CN115734082B (en) Image acquisition device including multiple image sensors and electronic device including the image acquisition device
KR102739219B1 (en) Electronic device comprising image sensor and method of operation thereof
KR102725243B1 (en) Electronic device comprising image sensor and method of operation thereof
US12300710B2 (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
KR102407200B1 (en) Electronic device for providing function using RGB image and IR image acquired through one image sensor
US12169288B2 (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
CN115412708B (en) Image acquisition device and electronic device including the same
US12174339B2 (en) Meta-lens, imaging optics, and electronic device including the same
EP4171019A1 (en) Electronic device comprising image sensor, and method for controlling same
KR20210128803A (en) Electronic device for detecting defect of image based on differential between sub images acquired by multi photodiode sensor and operating method thereof
KR102698295B1 (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
US20200374493A1 (en) Camera module comprising complementary color filter array and electronic device comprising same
JP2022074089A (en) Image sensor with color separation lens array and electronic device including it
KR102752429B1 (en) Color filter array of an electronic deviceand the electronic
US20230139533A1 (en) Optical sensor including nanophotonic microlens array and electronic device including the same
KR20240114659A (en) Apparatus and method for obtaining image emplying color separation lens array
EP4404581A1 (en) Apparatus and method for obtaining image employing color separation lens array
KR102693429B1 (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
EP4498688A1 (en) Image acquisition apparatus and method employing lens array
KR20240114665A (en) Image sensor including color separating lens array and electronic apparatus
CN119450250A (en) Device and method for obtaining images using lens array
KR20250059148A (en) Image processing device and operating method thereof
KR20240114667A (en) Image sensor including color filter including nanostructure, and electronic apparatus including the image sensor

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20230217

PG1501 Laying open of application