KR20240114659A - Apparatus and method for obtaining image emplying color separation lens array - Google Patents
Apparatus and method for obtaining image emplying color separation lens array Download PDFInfo
- Publication number
- KR20240114659A KR20240114659A KR1020230021591A KR20230021591A KR20240114659A KR 20240114659 A KR20240114659 A KR 20240114659A KR 1020230021591 A KR1020230021591 A KR 1020230021591A KR 20230021591 A KR20230021591 A KR 20230021591A KR 20240114659 A KR20240114659 A KR 20240114659A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- input image
- white
- edge
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- H01L27/14627—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/40—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/708—Pixels for edge detection
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10F—INORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
- H10F39/00—Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
- H10F39/80—Constructional details of image sensors
- H10F39/806—Optical elements or arrangements associated with the image sensors
- H10F39/8063—Microlenses
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
일 실시예에 따른 영상 획득 장치는, 입사광을 컬러에 따라 분리 및 집광하는 색분리 렌즈 어레이를 포함하는 이미지 센서, 및 이미지 센서에서 획득된 입력 이미지를 처리하는 신호 처리부를 포함한다. 신호 처리부는, 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱부, 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터부, 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 기 설정된 방향 별로 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성부, 입력 이미지를 화이트 밸런스 처리하고, 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출부, 입력 이미지를 화이트 밸런스 처리하고, 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출부, 및 검출된 그레이 영역 및 에지 방향에 기초하여, 제1 이미지 및 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택부를 포함한다.An image acquisition device according to an embodiment includes an image sensor including a color separation lens array that separates and condenses incident light according to color, and a signal processing unit that processes an input image acquired from the image sensor. The signal processing unit includes a demosaicing unit that reconstructs the green signal to have full pixel resolution using the input image, a sharpening filter unit that sharpens the reconstructed green signal in each preset direction to generate a first image, and a white balance unit that converts the input image into a white balance unit. A direction image generator that generates a second image in which the base band of the white-balanced input image is removed for each preset direction and only the detail band is extracted using an unsharpening filtering algorithm, and white balances the input image. and a gray detection unit for detecting the gray area of the white-balanced input image, an edge detection unit for white-balancing the input image and detecting the edge direction of the white-balanced input image, and based on the detected gray area and edge direction. Thus, it includes a selection unit that generates a third image by blending the first image and the second image.
Description
색분리 렌즈 어레이를 적용한 영상 획득 장치 및 방법에 관한 것이다.It relates to an image acquisition device and method using a color separation lens array.
이미지 센서는 촬상을 위해서 광감지셀 위에 Red, Green, Blue의 컬러 필터가 일정한 패턴을 가지고 배열되는데, 예를 들어, Green 색상에 민감한 인간의 시각/시감 특성을 고려하여 Green 50%, Red와 Blue가 각각 25%가 되도록 교차 배열되는 Bayer Pattern 구조가 적용될 수 있다. 컬러 필터는 해당 색의 광을 제외한 나머지 색의 광들을 흡수하기 때문에 광 이용 효율이 저하될 수 있다.In an image sensor, red, green, and blue color filters are arranged in a certain pattern on a light sensing cell for imaging purposes. For example, considering the visual/perceptual characteristics of humans who are sensitive to green color, 50% green, red, and blue are used. A Bayer Pattern structure in which are arranged crosswise so that each is 25% can be applied. Since the color filter absorbs light of other colors except for the light of the corresponding color, the efficiency of light use may decrease.
색분리 렌즈 어레이는 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 갖도록 형성되므로 입사광을 컬러에 따라 분리 및 집광할 수 있다. 이로 인해, 색분리 렌즈 어레이를 포함하는 이미지 센서는 주변 화소의 광 경로를 통해 광을 추가로 제공받을 수 있으므로, 광 이용 효율이 증가될 수 있다.The color separation lens array is formed to have a phase distribution that focuses light of different wavelengths on adjacent photo-sensing cells, so that incident light can be separated and concentrated according to color. Because of this, the image sensor including the color separation lens array can receive additional light through the light path of the surrounding pixels, and thus light use efficiency can be increased.
다만, 색분리 렌즈 어레이를 포함하는 이미지 센서는 블러(blur) 현상, 그리드 아티팩트(grid artifact), 및 색상 혼합 현상이 발생되어 공간 해상도가 저하될 수 있다.However, an image sensor including a color separation lens array may experience blur, grid artifacts, and color mixing, thereby reducing spatial resolution.
색분리 렌즈 어레이를 사용하면서 공간 해상도를 향상시킬 수 있는 영상 획득 장치 및 방법을 제공한다.An image acquisition device and method that can improve spatial resolution while using a color separation lens array are provided.
일 실시예에 따른 영상 획득 장치는, 입사광을 컬러에 따라 분리 및 집광하는 색분리 렌즈 어레이를 포함하는 이미지 센서, 및 상기 이미지 센서에서 획득된 입력 이미지를 처리하는 신호 처리부를 포함한다.An image acquisition device according to an embodiment includes an image sensor including a color separation lens array that separates and focuses incident light according to color, and a signal processing unit that processes an input image acquired from the image sensor.
상기 신호 처리부는, 상기 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱부, 상기 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터부, 상기 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 상기 기 설정된 방향 별로 상기 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성부, 상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출부, 상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출부, 및 상기 검출된 그레이 영역 및 상기 에지 방향에 기초하여, 상기 제1 이미지 및 상기 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택부를 포함한다.The signal processing unit includes a demosaicing unit that reconstructs the green signal to have full pixel resolution using the input image, a sharpening filter unit that sharpens the reconstructed green signal in each preset direction to generate a first image, and the input A direction image generator that white balances an image and uses an unsharpening filtering algorithm to generate a second image in which the base band of the white balanced input image is removed for each preset direction and only the detail band is extracted; A gray detector that white balances the input image and detects a gray area of the white balanced input image, an edge detector that white balances the input image and detects an edge direction of the white balanced input image, and a selection unit that generates a third image by blending the first image and the second image based on the detected gray area and the edge direction.
일 실시예에 따른 영상 획득 방법은, 입사광을 컬러에 따라 분리 및 집광하는 색분리 렌즈 어레이를 포함하는 이미지 센서를 포함하는 영상 획득 장치에 있어서, 상기 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱을 수행하는 단계, 상기 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터링 단계, 상기 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 상기 기 설정된 방향 별로 상기 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성 단계, 상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출 단계, 상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출 단계, 및 상기 검출된 그레이 영역 및 상기 에지 방향에 기초하여, 상기 제1 이미지 및 상기 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택 단계를 포함한다.An image acquisition method according to an embodiment includes an image acquisition device including an image sensor including a color separation lens array that separates and focuses incident light according to color, using the input image to convert a green signal into a full pixel resolution. performing demosaicing to reconstruct the reconstructed green signal, sharpening the reconstructed green signal in each preset direction to generate a first image, white balancing the input image, and using an unsharpening filtering algorithm, A direction image generation step of generating a second image in which the base band of the white balance-processed input image is removed for each preset direction and only the detail band is extracted, white balance processing the input image, and the white balance-processed input A gray detection step of detecting a gray area of an image, an edge detection step of white balancing the input image and detecting an edge direction of the white balance processed input image, and based on the detected gray area and the edge direction , and a selection step of generating a third image by blending the first image and the second image.
일 실시예에 따른 영상 획득 장치 및 방법에 따르면, 갭쳐된 원시 이미지 신호를 복수의 필터링 처리함으로써, 광효율 향상 효과를 유지하면서 영상의 공간 해상도를 향상시킬 수 있다.According to an image acquisition device and method according to an embodiment, the spatial resolution of the image can be improved while maintaining the effect of improving light efficiency by performing a plurality of filtering processes on the captured raw image signal.
도 1은 실시예에 따른 영상 획득 장치의 구성을 개략적으로 보여준다.
도 2는 실시예에 따른 이미지 센서의 블록도이다.
도 3은 이미지 센서의 화소 어레이의 화소 배열로서, 베이어 패턴(Bayer pattern)을 설명하기 위한 도면이다.
도 4 및 도 5는 실시예에 따른 이미지 센서를 개략적으로 보여준다.
도 6은 이미지 센서의 화소 어레이에서 광감지셀의 배열을 개략적으로 보이는 평면도이다.
도 7은 이미지 센서의 센서 기판의 광감지셀 배열에 대응되게 색분리 렌즈 어레이의 복수의 영역에 복수의 나노포스트가 배열된 형태를 예시적으로 보이는 평면도이다.
도 8은 일 실시예에 따른 신호 처리부의 동작을 설명하기 위한 블록도이다.
도 9는 도 3의 베이어 패턴의 컬러 필터 어레이를 통해 컬러를 표현할 수 있는 주파수 영역을 나타내는 도면이다.
도 10a 및 도 10b는 도 8의 디렉션 이미지 생성부에서 수행되는 영상 처리 동작을 설명하기 위한 도면들이다
도 11 내지 도 13은 본 발명의 효과를 설명하기 위한 도면들이다.
도 14는 샤프닝 처리 시, 조건 체크부를 이용하는 실시예를 설명하기 위한 도면이다.
도 15는 다른 실시예에 따른 언샤프닝 필터링 알고리즘을 수행하기 위한 블록도이다.
도 16은 이미지 센서의 주광선 각도(Chief ray angle)를 설명하기 위한 도면이다.
도 17은 일 실시예에 따른 해상도 개선 방법을 설명하기 위한 흐름도이다.
도 18는 실시예들에 따른 이미지센서를 포함하는 전자 장치를 개략적으로 도시한 블록도이다.
도 19은 도 18의 전자 장치에 구비된 카메라 모듈을 예시하는 블록도다.Figure 1 schematically shows the configuration of an image acquisition device according to an embodiment.
Figure 2 is a block diagram of an image sensor according to an embodiment.
Figure 3 is a diagram for explaining a Bayer pattern as a pixel arrangement of an image sensor's pixel array.
4 and 5 schematically show an image sensor according to an embodiment.
Figure 6 is a plan view schematically showing the arrangement of photo-sensing cells in the pixel array of an image sensor.
Figure 7 is a plan view exemplarily showing a plurality of nanoposts arranged in a plurality of regions of the color separation lens array corresponding to the arrangement of the photo-sensing cells of the sensor substrate of the image sensor.
Figure 8 is a block diagram for explaining the operation of a signal processor according to an embodiment.
FIG. 9 is a diagram showing a frequency region in which color can be expressed through the color filter array of the Bayer pattern of FIG. 3.
FIGS. 10A and 10B are diagrams for explaining the image processing operation performed in the direction image generator of FIG. 8
11 to 13 are drawings to explain the effect of the present invention.
Figure 14 is a diagram for explaining an embodiment of using a condition check unit during sharpening processing.
Figure 15 is a block diagram for performing an unsharpening filtering algorithm according to another embodiment.
Figure 16 is a diagram for explaining the chief ray angle of the image sensor.
Figure 17 is a flowchart explaining a resolution improvement method according to an embodiment.
Figure 18 is a block diagram schematically showing an electronic device including an image sensor according to embodiments.
FIG. 19 is a block diagram illustrating a camera module provided in the electronic device of FIG. 18.
이하, 첨부된 도면들을 참조하여 예시적인 실시예들에 대해 상세히 설명한다. 이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다. 이하에서 설명되는 실시예들은 단지 예시적인 것으로, 이러한 실시예들로부터 다양한 변형이 가능하다. Hereinafter, exemplary embodiments will be described in detail with reference to the attached drawings. In the following drawings, the same reference numerals refer to the same components, and the size of each component in the drawings may be exaggerated for clarity and convenience of explanation. The embodiments described below are merely illustrative, and various modifications are possible from these embodiments.
이하에서, "상부" 나 "상"이라고 기재된 것은 접촉하여 바로 위에 있는 것뿐만 아니라 비접촉으로 위에 있는 것도 포함할 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다.Hereinafter, the term “above” or “above” may include not only what is directly above in contact but also what is above without contact. Singular expressions include plural expressions unless the context clearly dictates otherwise. Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary. The use of the term “above” and similar referential terms may refer to both the singular and the plural.
도 1은 실시예에 따른 영상 획득 장치의 구성을 개략적으로 보여준다.Figure 1 schematically shows the configuration of an image acquisition device according to an embodiment.
도 1을 참조하면, 영상 획득 장치(100)는, 객체(OBJ)로부터 반사된 광을 집속하여 광학 상(optical image)을 형성하는 촬영 렌즈부(120)에서 형성한 광학 상을 전기적 신호로 변환하여 컬러별 영상 신호를 획득하는 이미지 센서(200)와, 이미지 센서(200)에서 획득된 컬러별 영상 신호를 처리하여 출력 신호를 생성하는 신호 처리부(250)를 포함할 수 있다. 컬러별 영상 신호 및 신호 처리부(250)에서 형성된 영상을 저장하는 메모리(180) 등을 더 포함할 수 있다. 이미지 센서(200)와 촬영 렌즈부(120) 사이에는 추가적인 광학 요소 예컨대, 적외선 차단 필터 등이 더 배치될 수 있다.Referring to FIG. 1, the
도 2는 실시예에 따른 이미지 센서의 개략적인 블록도이다.Figure 2 is a schematic block diagram of an image sensor according to an embodiment.
도 2를 참조하면, 이미지 센서(200)는 화소 어레이(210), 타이밍 컨트롤러(240), 로우 디코더(220), 및 출력 회로(230)를 포함할 수 있다. 이미지 센서(200)는 CCD(charge coupled device) 이미지 센서, 또는 CMOS(complementary metal oxide semiconductor) 이미지 센서일 수 있다.Referring to FIG. 2 , the
화소 어레이(210)는 복수의 로우와 컬럼을 따라 2차원 배열된 화소들을 포함한다. 로우 디코더(220)는 타이밍 컨트롤러(240)로부터 출력된 로우 어드레스 신호에 응답하여 화소 어레이(210)의 로우들 중에서 하나를 선택한다. 출력 회로(230)는 선택된 로우를 따라 배열된 복수의 화소로부터 컬럼 단위로 광감지 신호를 출력한다. 이를 위하여, 출력 회로(230)는 컬럼 디코더와 아날로그-디지털 변환기(ADC; analog to digital converter)를 포함할 수 있다. 예를 들어, 출력 회로(230)는 컬럼 디코더와 화소 어레이(210) 사이에서 컬럼 별로 각각 배치된 복수의 ADC 또는, 컬럼 디코더의 출력단에 배치된 하나의 ADC를 포함할 수 있다. 타이밍 컨트롤러(240), 로우 디코더(220), 및 출력 회로(230)는 하나의 칩, 또는 각각 별개의 칩으로 구현될 수 있다. 출력 회로(230)를 통해 출력된 영상 신호를 처리하기 위한 도 1의 신호 처리부(250)가 타이밍 컨트롤러(240), 로우 디코더(220), 및 출력 회로(230)와 함께 하나의 칩으로 구현될 수도 있다.The
화소 어레이(210)는 서로 다른 파장의 광을 감지하는 복수의 화소를 포함할 수 있다. 화소의 배열은 다양한 방식으로 구현될 수 있다.The
도 3은 이미지 센서의 화소 어레이의 화소 배열로서, 베이어 패턴(Bayer pattern)을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a Bayer pattern as a pixel arrangement of an image sensor.
도 3을 참조하면, 하나의 단위 화소는 네 개의 사분 영역(quadrant region)을 포함하며, 제1 내지 제4 사분면이 각각 청색 화소(B), 녹색 화소(G), 적색 화소(R), 녹색 화소(G)가 될 수 있다. 이러한 단위 화소가 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 이차원적으로 반복 배열된다. 다시 말해, 2×2 어레이 형태의 단위 화소 내에서 한 쪽 대각선 방향으로 2개의 녹색 화소(G)가 배치되고, 다른 쪽 대각선 방향으로 각각 1개의 청색 화소(B)와 1개의 적색 화소(R)가 배치된다. 전체적인 화소 배열을 보면, 복수의 녹색 화소(G)와 복수의 청색 화소(B)가 제1 방향을 따라 번갈아 배열되는 제1 행과 복수의 적색 화소(R)와 복수의 녹색 화소(G)가 제1 방향을 따라 번갈아 배열되는 제2행이 제2 방향을 따라 반복적으로 배열된다.Referring to FIG. 3, one unit pixel includes four quadrant regions, and the first to fourth quadrants are blue pixel (B), green pixel (G), red pixel (R), and green pixel, respectively. It can be a pixel (G). These unit pixels are repeatedly arranged two-dimensionally along the first direction (X direction) and the second direction (Y direction). In other words, within a unit pixel in a 2×2 array, two green pixels (G) are arranged diagonally on one side, and one blue pixel (B) and one red pixel (R) are placed diagonally on the other side. is placed. Looking at the overall pixel arrangement, a first row in which a plurality of green pixels (G) and a plurality of blue pixels (B) are alternately arranged along the first direction, and a plurality of red pixels (R) and a plurality of green pixels (G) are arranged alternately in the first direction. Second rows alternately arranged along the first direction are repeatedly arranged along the second direction.
도 4 및 도 5는 실시예에 따른 이미지 센서를 개략적으로 보여준다. 도 6은 이미지 센서의 화소 어레이에서 광감지셀의 배열을 개략적으로 보이는 평면도이다. 도 7은 이미지 센서의 센서 기판의 광감지셀 배열에 대응되게 색분리 렌즈 어레이의 복수의 영역에 복수의 나노포스트가 배열된 형태를 예시적으로 보이는 평면도이다.4 and 5 schematically show an image sensor according to an embodiment. Figure 6 is a plan view schematically showing the arrangement of photo-sensing cells in the pixel array of an image sensor. Figure 7 is a plan view exemplarily showing a plurality of nanoposts arranged in a plurality of regions of the color separation lens array corresponding to the arrangement of the photo-sensing cells of the sensor substrate of the image sensor.
도 3 내지 도 5를 참조하면, 이미지 센서(200)의 화소 어레이(210)는 광을 센싱하는 복수의 광감지셀의 어레이를 포함하는 센서 기판(500)과, 센서 기판(500) 전단에 배치되어 광을 컬러에 따라 분리 및 집광하여 복수의 광감지셀에 입사시키는 색분리 렌즈 어레이(300)를 포함한다.3 to 5, the
이미지 센서(200)의 센서 기판(500)은 광을 전기적 신호로 변환하는 제1 광감지셀(511), 제2 광감지셀(512), 제3 광감지셀(513), 제4 광감지셀(514)을 포함할 수 있다. 제1 광감지셀(511), 제2 광감지셀(512), 제3 광감지셀(513), 제4 광감지셀(514)의 단위 화소가 2차원으로 반복 배열될 수 있다. 이미지 센서(200)의 화소 어레이(210)가 베이어 패턴을 갖는 경우, 예를 들어, 제1 광감지셀(511) 및 제4 광감지셀(514)은 녹색 화소(G)에 해당하며, 제2 광감지셀(512) 및 제3 광감지셀(513) 중 하나는 적색 화소(R)에 해당하고 나머지 하나는 청색 화소(B)에 해당할 수 있다.The
색분리 렌즈 어레이(300)는 복수의 광감지셀(511, 512, 513, 514)과 각각 마주하는 복수의 영역(311,312,313,314) 각각에 미소 구조를 구비하여, 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 마련되어 입사광을 컬러에 따라 분리 및 집광할 수 있다. 색분리 렌즈 어레이(300)의 미소 구조는 도 5에 예시적으로 보인 바와 같이, 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 하나 이상의 나노포스트(NP)가 분포되도록 배치된 복수의 나노포스트를 포함할 수 있다. 다른 예로서, 색분리 렌즈 어레이(300)의 미소 구조는 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 패턴으로 이루질 수도 있다. 이하에서는 미소 구조가 나노포스트로 이루어진 경우를 예를 들어 설명한다. The color
색분리 렌즈 어레이(300)는, 센서 기판(500)의 복수의 광감지셀(511, 512, 513, 514)와 일대일로 대응하며 마주하는 복수의 영역(311,312,313,314)을 포함할 수 있다. 예를 들어, 색분리 렌즈 어레이(300)는 센서 기판(500)의 제1 내지 제4 광감지셀(511, 512, 513, 514)과 일대일로 대응하며 마주하는 제1 내지 제4 영역(311,312,313,314)을 포함할 수 있으며, 제1 내지 제4 영역(311,312,313,314)은 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 제1 내지 제4 미소 구조를 포함할 수 있다. The color
제1 내지 제4 미소 구조가 도 5에서와 같이 각각 하나 이상의 나노포스트를 구비하는 경우, 제1 영역(311)은 하나 이상의 제1 나노포스트를 포함하며, 제2 영역(312)은 하나 이상의 제2 나노포스트를 포함하며, 제3 영역(313)은 하나 이상의 제3 나노포스트를 포함하며, 제4 영역(314)은 하나 이상의 제4 나노포스트를 포함할 수 있다. 색분리 렌즈 어레이(300)를 통과한 소정 파장의 광이 제1 내지 제4 광감지셀(511, 512, 513, 514) 중 어느 하나에 대응하는 광감지셀로 집광되는 위상을 형성하고, 나머지 광감지셀로는 진행하지 않는 위상을 형성하도록 제1 내지 제4 나노포스트의 형상, 크기, 배열이 정해질 수 있다. 또한, 색분리 렌즈 어레이(300)에 구비되는 복수의 영역은 각각 복수의 서브 영역을 포함하며, 복수의 나노포스트는 복수의 서브 영역 내에 배치될 수 있다. 또한, 색분리 렌즈 어레이(300)에 구비되는 복수의 영역은 각각 복수의 서브 영역을 포함하며, 복수의 나노포스트는 복수의 서브 영역간의 교차점에 배치될 수 있다.When the first to fourth microstructures each include one or more nanoposts as shown in FIG. 5, the
이미지 센서(200)는, 단위 화소가 반복 배열된 화소 배열 구조를 가질 수 있다. 예를 들어, 이미지 센서(200)는, 네 개의 사분 영역(quadrant region)이 각각 청색 화소, 녹색 화소, 적색 화소, 녹색 화소로 구성되는 단위 화소가 제1 방향 및 제2 방향을 따라 이차원적으로 반복 배열된 베이어 패턴 구조를 가질 수 있다. 이때, 예를 들어, 색분리 렌즈 어레이(300)의 복수의 나노포스트 중, 복수의 영역 중 녹색 화소에 대응하는 영역의 중심부에 구비된 나노포스트가 다른 컬러의 화소에 대응하는 영역의 중심부에 구비된 나노포스트보다 큰 단면적을 가질 수 있다. 또한, 복수의 나노포스트 중, 복수의 영역 중 녹색 화소에 대응하는 영역에 구비된 나노포스트는 주변부에 배치된 나노포스트가 중심부에 배치된 나노포스트보다 단면적이 작을 수 있다. 또한, 복수의 영역 중 녹색 화소에 대응하는 영역에 구비된 나노포스트는 제1 방향 및 제2 방향을 따라 서로 다른 분포 규칙을 가지며, 복수의 영역 중 청색 화소 및 적색 화소에 대응하는 영역에 구비된 나노포스트는 제1 방향 및 제2 방향을 따라 대칭적인 분포 규칙을 가질 수 있다. 다른 예로, 청색 화소 또는 적색 화소에 대응하는 영역이 중심부에 구비된 나노포스트가 다른 컬러의 화소에 대응하는 영역의 중심부에 구비된 나노포스트보다 큰 단면적으로 가질 수도 있다. The
예를 들어, 제1 광감지셀(511)은 제1 화소에 해당하는 제1 파장의 광을 센싱하고, 제2 광감지셀(512)은 제2 화소에 해당하는 제2 파장의 광을 센싱하며, 제3 광감지셀(513)은 제3 화소에 해당하는 제3 파장의 광을 센싱하며, 제4 광감지셀(514)은 제4 화소에 해당하는 제4 파장의 광을 센싱할 수 있다. 다만, 실시예가 이에 한정되는 것은 아니다. 셀 간 경계에는 도시되지는 않았으나, 셀 분리를 위한 분리막이 더 형성될 수도 있다. For example, the first photo-sensing
이미지 센서(200)에 있어서, 제1 화소, 제2 화소, 제3 화소, 제4 화소는 각각 녹색 화소(G), 청색 화소(B), 적색 화소(R), 녹색 화소(G)이고, 베이어 패턴 배열을 이루도록 된 경우, 센서 기판(500)의 제1 광감지셀(511), 제2 광감지셀(512), 제3 광감지셀(513), 제4 광감지셀(514)은 베이어 패턴 배열에 대응되게 배치될 수 있다. In the
색분리 렌즈 어레이(300)는 입사광을 컬러에 따라 분리 및 집광하여 복수의 광감지셀 예컨대, 제1 내지 제4 광감지셀(511,512,513,514)에 입사시키기 위한 것으로, 도 5에서와 같이 복수의 나노포스트(NP) 어레이를 포함할 수 있다.The color
예를 들어, 색분리 렌즈 어레이(300)는 제1 광감지셀(511)에 제1 파장의 광이 입사되어 녹색 화소(G)를 형성하고, 제2 광감지셀(512)에 제2 파장의 광이 입사되어 청색 화소(B)를 형성하고, 제3 광감지셀(513)에 제3 파장의 광이 입사되어 적색 화소(R)를 형성하고, 제4 광감지셀(514)에 제1 파장의 광이 입사되어 녹색 화소(G)를 형성하도록, 입사광을 컬러에 따라 분리 및 집광할 수 있다. For example, in the color
색분리 렌즈 어레이(300)는 복수의 나노포스트(NP)가 소정 규칙으로 배열된 나노포스트 어레이를 포함한다. 나노포스트 어레이는 스페이서층에 의해 지지될 수 있다. 스페이서층은 센서 기판(500)과 색분리 렌즈 어레이(300) 사이의 간격을 일정하게 유지시키는 역할을 한다. 스페이서층은 색분리 렌즈 어레이(300)를 통과한 광의 각 광감지셀로의 초점거리 확보에 필요한 만큼 간격이 설계될 수 있다. 기존의 마이크로렌즈 어레이와 컬러필터의 조합과 비교하여, 색분리 렌즈 어레이(300)를 사용하는 경우의 스페이서층은 색분리 및 집광을 구현하기 위해 센서 기판(500)과 색분리 렌즈 어레이(300) 사이에 더 두꺼운 간격이 요구된다. 또한, 스페이서층은 가시광에 대해 투명한 재료로 이루어질 수 있다. 예를 들어, 스페이서층은 SiO2, 실란올계 유리(SOG; siloxane-based spin on glass) 등과 같이 색분리 렌즈 어레이(300)의 나노포스트(NP)의 굴절률보다 낮은 굴절률을 가지면서 가시광 대역에서 흡수율이 낮은 유전체 재료로 이루어질 수 있다. 도 5에서는 색분리 렌즈 어레이(300)에서의 입사광의 컬러에 따른 분리 및 집광을 보다 명확히 표현하도록 스페이서층의 도시를 편의상 생략하였다. The color
한편, 색분리 렌즈 어레이(300)는 복수의 나노포스트(NP)를 보호하는 보호층이 더 구비될 수 있다. 보호층은 나노포스트(NP)를 이루는 재질의 굴절률보다 낮은 굴절률의 유전체 재질로 이루어질 수 있다. 또한, 색분리 렌즈 어레이(300)는 스페이서층과 센서 기판(500) 사이에 컬러 필터를 더 구비할 수 있다. 예를 들어, 제1 화소, 제2 화소, 제3 화소, 제4 화소는 각각 녹색 화소(G), 청색 화소(B), 적색 화소(R), 녹색 화소(G)인 경우, 센서 기판(500)의 제1 광감지셀(511) 및 제4 광감지셀(514) 상에 녹색 컬러 필터가 배치되고, 제2 광감지셀(512) 상에 청색 컬러 필터가 배치되고, 제3 광감지셀(513) 상에 적색 컬러 필터가 배치될 수 있다. 다양한 목적으로 컬러 필터를 사용할 수 있지만, 일 예로 컬러필터를 사용하면, 컬러필터를 통과한 각 파장대역의 신호에 대해 기존의 이미지 신호처리 기술로 영상을 생성하기 용이할 수 있다. Meanwhile, the color
이미지 센서(200)의 화소 어레이(210)는 2차원 배열을 가질 수 있다. 즉, 도 6에서와 같이 제1 광감지셀(511)과 제2 광감지셀(512)이 번갈아 배열되는 제1 행과 제3 광감지셀(513)과 제4 광감지셀(514)이 번갈아 배열되는 제2 행이 서로 교대로 반복되도록, 센서 기판(500)에서 복수의 제1 광감지셀(511), 제2 광감지셀(512), 제3 광감지셀(513), 및 제4 광감지셀(514)이 제1 방향(X방향)과 제2 방향(Y방향)을 따라 이차원 배열될 수 있다. 이때, 이미지 센서(200)의 화소 어레이(210) 배열이 도 3에서와 같이 베이어 패턴 배열인 경우, 제1 광감지셀(511)과 제4 광감지셀(514)이 녹색 화소(G)에 대응하고, 제2 광감지셀(512)이 청색 화소(B)에 대응하고, 제3 광감지셀(513)이 적색 화소(R)에 대응하게 된다. 센서 기판(500)의 제1 내지 제4 광감지셀(511,512,513,514)의 배열에 일대일로 대응되게 색분리 렌즈 어레이(300)의 나노포스트 어레이는 도 7에서와 같이 이에 대응되게 복수의 영역(311,312,313,314)으로 구획될 수 있다.The
예를 들어, 이미지 센서(200)의 화소 배열이 베이어(Bayer) 패턴의 배열일 때, 하나의 단위 화소는 네 개의 사분 영역(quadrant region)을 포함하며, 제1 내지 제4 사분면이 각각 청색 화소(B), 녹색 화소(G), 적색 화소(R), 녹색 화소(G)가 될 수 있다. 이러한 단위 화소가 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 이차원적으로 반복 배열된다. For example, when the pixel arrangement of the
단위 화소에서, 녹색 화소(G)에는 제1 광감지셀(511)과 이에 대응하는 색분리 렌즈 어레이(300)의 제1 영역(311)이 대응하고, 청색 화소(B)에는 제2 광감지셀(512)과 이에 대응하는 색분리 렌즈 어레이(300)의 영역(312)이 대응하며, 적색 화소(R)에는 제3 광감지셀(513)과 이에 대응하는 색분리 렌즈 어레이(300)의 영역(313)이 대응하고, 녹색 화소(G)에는 제4 광감지셀(514)과 이에 대응하는 색분리 렌즈 어레이(300)의 제4 영역(314)이 대응한다. In a unit pixel, the green pixel (G) corresponds to the first photo-sensing
도 7을 참조하면, 색분리 렌즈 어레이(300)의 나노포스트 어레이는 제1 내지 제4 광감지셀(511, 512, 513, 514)과 일대일로 대응하며 마주하는 제1 내지 제4 영역(311, 312, 313, 314)으로 구획된다. 제1 내지 제4 영역(311, 312, 313, 314) 각각에는 하나 이상의 나노포스트(NP)가 배치될 수 있고 나노포스트(NP)는 형상, 크기, 배열 중 적어도 어느 하나가 영역에 따라 다를 수 있다. Referring to FIG. 7, the nanopost array of the color
색분리 렌즈 어레이(300)의 복수의 나노포스트(NP)는 센서 기판(500)의 서로 인접하는 제1 광감지셀(511)과 제2 광감지셀(512)에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 형상, 크기, 배열이 정해질 수 있다. 또한 색분리 렌즈 어레이(300)의 복수의 나노포스트(NP)는 센서 기판(500)의 서로 인접하는 제3 광감지셀(513)과 제4 광감지셀(514)에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하도록 형상, 크기, 배열이 정해질 수 있다.A plurality of nanoposts (NPs) of the color
예를 들어, 이미지 센서(200)의 화소 어레이(210) 배열이 베이어 패턴 배열일 때, 도 7에서와 같이, 녹색 화소(G)에 색분리 렌즈 어레이(300)의 영역(311)이 대응하고, 청색 화소(B)에 색분리 렌즈 어레이(300)의 영역(312)이 대응하며, 적색 화소(R)에 색분리 렌즈 어레이(300)의 영역(313)이 대응하며, 녹색 화소(G)에 색분리 렌즈 어레이(300)의 영역(314)이 대응하므로, 녹색 화소(G), 청색 화소(B), 적색 화소(R)에 대응하는 색분리 렌즈 어레이(300)의 영역의 중심부에 단면적이 서로 다른 나노포스트(NP)가 배치되며, 화소간 경계선 상의 중심 및 화소 경계선의 교차점에 나노포스트(NP)가 배치된다. 화소간 경계에 배치된 나노포스트(NP)의 단면적은 화소 중심부에 배치된 나노포스트(NP)보다 작은 단면적을 가질 수 있다.For example, when the
예를 들어, 녹색 화소(G)에 대응하는 색분리 렌즈 어레이(300)의 영역(311,314)의 중심부에 배치된 나노포스트(NP)의 단면의 면적이 청색 화소(B)에 대응하는 색분리 렌즈 어레이(300)의 영역(312)이나 적색 화소(R)에 대응하는 색분리 렌즈 어레이(300)의 영역(313)의 중심부에 배치된 나노포스트(NP)의 단면적보다 크며, 청색 화소(B)에 대응하는 영역(312)의 중심부에 배치된 나노포스트(NP)의 단면적이 적색 화소(R)에 대응하는 영역(313)의 중심부에 배치된 나노포스트(NP)의 단면적보다 크다. 다만, 이에 한정되는 것은 아니다. 여기서, 단면적은 나노포스트(NP)의 높이 방향(Z방향)에 수직인 단면의 면적을 의미한다.For example, the cross-sectional area of the nanopost (NP) disposed in the center of the
한편, 녹색 화소(G)에 대응하는 영역(311,314)에 구비된 나노포스트(NP)는 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 서로 다른 분포 규칙을 가질 수 있다. 즉, 녹색 화소(G)에 대응하는 영역(311,314)에 구비된 나노포스트(NP)는 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 비대칭적인 크기 배열을 가질 수 있다. 도 7에 도시된 바와 같이, 녹색 화소(G)에 대응하는 영역(311,314)과 제1 방향(X방향)으로 인접한 청색 화소(B)에 대응하는 영역(312)과의 경계에 위치하는 나노포스트(NP)의 단면적과 제2 방향(Y방향)으로 인접하는 적색 화소(R)에 대응하는 영역(313)과의 경계에 위치하는 나노포스트(NP)의 단면적은 서로 다르다.Meanwhile, nanoposts (NPs) provided in the
반면, 청색 화소(B) 및 적색 화소(R)에 대응하는 영역(312,313))에 구비된 나노포스트는 제1 방향(X방향) 및 제2 방향(Y방향)을 따라 대칭적인 분포 규칙을 가질 수 있다. 도 7에 도시된 바와 같이, 청색 화소(B)에 대응하는 영역(312)은 제1 방향(X방향)으로 및 제2 방향(Y방향)으로 인접한 화소 간의 경계에 놓이는 나노포스트(NP)의 단면적이 서로 같으며, 또한, 적색 화소(R)에 대응하는 영역(313)도 제1 방향(X방향)으로 및 제2 방향(Y방향)으로 인접한 화소 간의 경계에 놓이는 나노포스트(NP)의 단면적이 서로 같다.On the other hand, the nanoposts provided in the
이러한 분포는 베이어 패턴의 화소 배열에서 청색 화소(B), 적색 화소(R)는 모두 제1 방향(X방향) 및 제2 방향(Y방향)으로 인접한 화소들이 녹색 화소(G)로 같은 반면, 녹색 화소(G)의 경우 제1 방향(X방향)으로 인접한 화소는 청색 화소(B)이고, 제2 방향(Y방향)으로 인접하는 화소는 적색 화소(R)로 서로 다름에 기인한다. 따라서, 청색 화소(B)와 적색 화소(R)에 각각 대응하는 제2 영역(312)과 제3 영역(313)에서는 4방 대칭(4-fold symmetry)의 형태로 나노포스트(NP)들이 배열되고, 녹색 화소(G)에 대응하는 제1 및 제4 영역(311, 314)에서는 2방 대칭(2-fold symmetry)의 형태로 나노포스트(NP)들이 배열될 수 있다. 특히, 제1 영역(311)과 제4 영역(314)은 서로에 대해 90도 회전된 배치를 가질 수 있다.This distribution is similar to that of the blue pixel (B) and red pixel (R) in the pixel arrangement of the Bayer pattern, while the pixels adjacent to each other in the first direction (X direction) and the second direction (Y direction) are the same as the green pixel (G). In the case of the green pixel (G), the pixel adjacent to it in the first direction (X direction) is the blue pixel (B), and the pixel adjacent to the second direction (Y direction) is the red pixel (R). Therefore, nanoposts (NPs) are arranged in the form of 4-fold symmetry in the
도 5 및 도 7에서는 복수의 나노포스트(NP)가 모두 대칭적인 원형의 단면 형상을 갖는 것으로 도시되었으나 이에 한정되는 것은 아니다. 비대칭 형상의 단면 형상을 갖는 나노포스트가 일부 포함될 수도 있다. 예를 들어, 녹색 화소(G)에 대응하는 영역(311,314)에는 제1 방향(X방향)과 제2 방향(Y방향)의 폭이 서로 다른 비대칭 단면 형상을 갖는 나노포스트가 채용되고, 청색 화소(B), 적색 화소(R)에 각각 대응하는 제2 영역(312), 제3 영역(313)에는 제1 방향(X방향)과 제2 방향(Y방향)의 폭이 같은 대칭적인 단면 형상을 갖는 나노포스트가 채용될 수 있다.In Figures 5 and 7, a plurality of nanoposts (NPs) are all shown as having a symmetrical circular cross-sectional shape, but the present invention is not limited thereto. Some nanoposts with an asymmetric cross-sectional shape may be included. For example, nanoposts having an asymmetric cross-sectional shape with different widths in the first direction (X direction) and the second direction (Y direction) are employed in the
색분리 렌즈 어레이(300)는 서로 인접하는 광감지셀(511, 512, 513, 514)에 서로 다른 파장의 광을 집광시키는 위상 분포를 갖도록 형성되므로 입사광을 컬러에 따라 분리 및 집광할 수 있다. 이로 인해, 색분리 렌즈 어레이(300)를 포함하는 이미지 센서(200)는 주변 화소의 광 경로를 통해 광을 추가로 제공받을 수 있으므로, 광 이용 효율이 증가될 수 있다. The color
다만, 색분리 렌즈 어레이(300)를 포함하는 이미지 센서(200)는 블러(blur) 현상, 그리드 아티팩트(grid artifact), 및 색상 혼합 현상이 발생되어 공간 해상도가 저하될 수 있다.However, the
이하, 도 8 내지 도 13을 이용하여, 신호 처리부(250)가 이미지 센서(200)에서 획득된 컬러별 영상 신호를 필터링 처리하여, 공간 해상도를 향상시키는 방법에 대해 자세히 설명한다.Hereinafter, using FIGS. 8 to 13 , a method in which the
도 8은 일 실시예에 따른 신호 처리부의 동작을 설명하기 위한 블록도이다. 도 9는 도 3의 베이어 패턴의 컬러 필터 어레이를 통해 컬러를 표현할 수 있는 주파수 영역을 나타내는 도면이다. 도 10a 및 도 10b는 도 8의 디렉션 이미지 생성부에서 수행되는 영상 처리 동작을 설명하기 위한 도면들이다.Figure 8 is a block diagram for explaining the operation of a signal processor according to an embodiment. FIG. 9 is a diagram showing a frequency region in which color can be expressed through the color filter array of the Bayer pattern of FIG. 3. FIGS. 10A and 10B are diagrams for explaining an image processing operation performed in the direction image generator of FIG. 8 .
도 8을 참조하면, 일 실시예에 따른 신호 처리부(250)는, 디모자이싱부(251), 디렉션 이미지 생성부(252), 그레이 검출부(253), 에지 검출부(254), 페이서부(255), 샤프닝 필터부(256), 선택부(257), 조정부(258), 및 베이어 재결합부(259)를 포함할 수 있다. 이 때, 신호 처리부(25)는 소프트웨어 모듈 또는 하드웨어 모듈로 구현될 수 있다. 또한, 신호 처리부(250)는 이미지 센서(200)의 로직(Logic)에 구비되거나, 컴패니언 칩(companion chip)에 마련될 수 있다.Referring to FIG. 8, the
디모자이싱부(251)는 메모리(180)로부터 입력 이미지(IMG_IN)를 수신할 수 있다. 디모자이싱부(251)는 연산에 사용되는 메모리(180) 용량을 줄이기 위하여, 입력 이미지(IMG_IN)의 녹색 신호에 대해서만 컬러 보간을 수행하여, 전체 화소 해상도를 갖도록 재구성된 녹색 신호(IMG_G)를 생성할 수 있다.The
이 때, 디모자이싱 알고리즘은 다양한 방법을 적용할 수 있다. 예를 들어, Bilinear interpolation(바이리니어 보간) 방식, 채널간 상관 관계를 이용하는 접근 방식, 에지의 방향성을 이용하여 공간 해상도를 높이는 방식 등 다양한 방법이 존재한다.At this time, the demosaicing algorithm can apply various methods. For example, various methods exist, such as bilinear interpolation, an approach using correlation between channels, and a method of increasing spatial resolution using edge directionality.
이 후, 샤프닝 필터부(256)는 전체 화소 해상도를 갖도록 재구성된 녹색 신호(IMG_G)를 기 설정된 방향 별로 샤프닝하여 제1 이미지(IMG1)를 생성할 수 있다. Afterwards, the sharpening
일 실시예에 따르면, 샤프닝 필터부(256)는 이미지를 날카로운 느낌이 나도록 변경하는 샤프닝 알고리즘을 수행하기 위한 필터가 구비될 수 있다. 예컨대 하나 이상의 고대역 통과 필터(high pass filter)가 샤프닝 필터부(256)에 구비될 수 있다. 또는, 언샤프닝(unsharpning) 마스킹 알고리즘이 적용되는 경우, 이미지 신호를 저대역 통과 필터(low pass filter)를 통과시키기 위한 저대역 통과 필터(low pass filter)가 샤프닝 필터부(256)에 구비될 수 있다.According to one embodiment, the sharpening
샤프닝 필터링 알고리즘(또는, 언샤프닝 필터링 알고리즘)을 통한 이미지 샤프닝 효과를 위하여,영상 신호가 고대역 통과 필터(high pass filter)를 통해 처리될 수 있으며, 고대역 통과 필터(high passfilter)의 마스크(Mask)는 모든 계수의 합이 양의 값을 가질 수 있다. 예컨대, 마스크(Mask)의 중심 계수는 양의 값을 가지며, 중심 계수 주변의 주변 계수는 음의 값을 가질 수 있다. 또한, 마스크(Mask)의 모든 계수의 합은 0 이상의 값을 가질 수 있으며, 일예로서 마스크(Mask)의 모든 계수의 합은 1의 값을 가질 수 있다.For image sharpening effect through sharpening filtering algorithm (or unsharpening filtering algorithm), the image signal can be processed through a high pass filter, and the mask of the high pass filter is used. ), the sum of all coefficients can have a positive value. For example, the center coefficient of the mask may have a positive value, and the peripheral coefficients around the center coefficient may have a negative value. Additionally, the sum of all coefficients of the mask may have a value of 0 or more, and as an example, the sum of all coefficients of the mask may have a value of 1.
또한, 이미지 샤프닝 효과를 위한 하나의 방법으로서 언샤프닝 방법이 적용될 수 있으며, 상기 언샤프닝 방법은 원래의 영상 신호와 저주파 필터링을 거친 영상 신호를 서로 감산하여 영상 내의 저주파 성분을 감소하는 방식에 따라 이미지 샤프닝 효과를 얻을 수 있다. 일 실시예에 따른 샤프닝 동작을 설명함에 있어서, 전술한 바와 같은 언샤프닝 필터 알고리즘에 기반하는 샤프닝 동작이나 샤프닝(sharpening) 필터(또는, 고대역 통과 필터(high pass filter))에 기반하는 샤프닝 동작 중 어느 것이 적용되어도 무방하다.In addition, the unsharpening method can be applied as a method for the image sharpening effect, and the unsharpening method reduces the low-frequency component in the image by subtracting the original image signal and the image signal that has undergone low-frequency filtering. A sharpening effect can be achieved. In describing the sharpening operation according to an embodiment, either a sharpening operation based on the unsharpening filter algorithm as described above or a sharpening operation based on a sharpening filter (or high pass filter). Any one may be applied.
전술한 실시예에서와 같이, 샤프닝 필터부(256)는 이미지 샤프닝 효과를 위한 하나 이상의 샤프닝 필터(및/또는 언샤프닝 필터, 이하 샤프닝 필터는 언샤프닝 필터를 포함하는 개념으로 지칭함)를 포함할 수 있다. 샤프닝 필터는 이미지 샤프닝 효과를 얻기 위한 마스크 값을 가질 수 있다. 일 예로서, 샤프닝 필터의 마스크는 N*N(N은 2 이상의 정수) 개의 계수들을 가질 수 있다. As in the above-described embodiment, the sharpening
또한, 일 실시예에 따르면, 하나의 샤프닝 필터부(256)는 복수 개의 방향성 필터들을 포함할 수 있다. 샤프닝 필터부(256)는 상기 방향성 필터들을 이용하여 에지 방향을 따라 적용될 수 있으며, 이미지의 노이즈 레벨, 평탄도, 휘도 레벨, 및 텍츠쳐 양에 기초하여 선명도 정도를 조절할 수 있다. Additionally, according to one embodiment, one sharpening
이 때, 방향성 필터를 적용하기 위한 기 설정된 방향은, 수평 방향, 수직 방향, 45 도 대각선 방향, 및 135 도 대각선 방향일 수 있다. 즉, 재구성된 녹색 신호(IMG_G)를 샤프닝한 제1 이미지(IMG1)는 수평 방향을 따라 필터링된 제1 이미지(IMG1), 수직 방향을 따라 필터링된 제1 이미지(IMG1), 45 도 대각선 방향을 따라 필터링된 제1 이미지(IMG1), 및 135 도 대각선 방향을 따라 필터링된 제1 이미지(IMG1)를 포함할 수 있다.At this time, the preset directions for applying the directional filter may be horizontal, vertical, 45 degrees diagonal, and 135 degrees diagonal. That is, the first image (IMG1) obtained by sharpening the reconstructed green signal (IMG_G) is the first image (IMG1) filtered along the horizontal direction, the first image (IMG1) filtered along the vertical direction, and the 45-degree diagonal direction. It may include a first image (IMG1) filtered along a 135-degree diagonal direction and a first image (IMG1) filtered along a 135-degree diagonal direction.
페이서부(255)는, 재구성된 녹색 신호(IMG_G)의 에지 방향을 검출할 수 있다. 예를 들어, 페이서부(255)는 극좌표계에서 화소를 따라 미분값을 산출함으로써 이미지의 에지 방향을 검출할 수 있다. 선택부(257)는, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 이상이면, 페이서부(255)에 의해 검출된 에지 방향에 해당하는 제1 이미지(IMG1)를 에지 개선할 수 있다. 다시 말해, 선택부(257)는 수평 에지 방향을 따라 필터링된 제1 이미지(IMG1), 수직 에지 방향을 따라 필터링된 제1 이미지(IMG1), 45 도 대각선 에지 방향을 따라 필터링된 제1 이미지(IMG1), 및 135 도 대각선 에지 방향을 따라 필터링된 제1 이미지(IMG1) 중 페이서부(255)에 의해 검출된 에지 방향에 해당하는 어느 하나의 제1 이미지(IMG1)에 대해 에지 개선할 수 있다. 페이서부(255)는 선택부(257)에 재구성된 녹색 신호(IMG_G)의 에지 방향 정보(D1)를 제공할 수 있다.The
지금까지 설명한 과정만을 수행하여 선택부(257)가 신호를 출력하는 경우, 출력 신호는, 후술할 제3 이미지(IMG3)가 아닌 에지 개선된 제1 이미지(IMG1')일 수 있다. 이 후, 조정부(258)는 에지 개선된 제1 이미지(IMG1')의 녹색 신호의 변화량에 기초하여 적색 신호(IMG_R) 및 청색 신호(IMG_B)를 조정하고, 베이어 재결합부(259)는 에지 개선된 제1 이미지(IMG1')의 녹색 신호와 조정된 적색 신호(IMG_R') 및 조정된 청색 신호(IMG_B')를 결합하여 출력 신호를 출력하는 경우, 베이어 패턴 어레이를 갖는 제4-1 이미지(IMG4-1)를 생성할 수 있다. 단, 제4-1 이미지(IMG4-1)는 후술할 제4 이미지(IMG4)가 아니다. When the
본 발명과 달리 색분리 렌즈 어레이(도 5의 300)를 포함하지 않는 이미지 센서(200)인 경우, 신호 처리부(250)는 베이어 패턴 어레이를 갖는 제4-1 이미지(IMG4-1)를 출력 할 수 있고, 출력 신호로서 충분한 공간 해상도 개선을 기대할 수 있을 것이다. 하지만, 본 발명의 색분리 렌즈 어레이(도 5의 300)를 포함하는 이미지 센서(200)인 경우에는 상술한 색분리 렌즈 어레이(도 5의 300)의 특성 상 블러 현상 등으로 인해 공간 해상도 개선에 한계가 발생할 수 있다.Unlike the present invention, if the
도 9를 참조하여 구체적으로 살펴 보면, 영역 910은 녹색이 표현될 수 있는 해상도를 나이퀴스트 주파수로 간략하게 나타낸 것이다. 영역 910은 녹색으로 이미지 센서(도 5의 200)의 전체 화소의 1/2 만큼의 해상도를 나타낼 수 있는 것을 보여준다.Looking in detail with reference to FIG. 9,
영역 920은 적색 또는 청색이 표현될 수 있는 해상도를 나이퀴스트 주파수로 간략하게 나타낸 것이다. 영역 920은 적색 또는 청색으로 이미지 센서(도 5의 200)의 전체 화소의 1/4 만큼의 해상도를 나타낼 수 있는 것을 보여준다. 영역 920을 통해, 적색 또는 청색이 표현될 수 있는 해상도의 범위는 녹색이 표현하는 해상도의 1/2인 것을 알 수 있다.
반면에, 영역 930은 모노크롬 신호가 표현될 수 있는 해상도를 나이퀴스트 주파수로 간략하게 나타낸 것이다. 영역 930은 모노크롬 신호로 이미지 센서(도 5의 200)의 전체 화소의 해상도를 나타낼 수 있는 것을 보여준다. 영역 930을 통해, 모노크롬 신호가 표현될 수 있는 해상도의 범위는 녹색이 표현하는 해상도의 2배인 것을 알 수 있다.On the other hand,
영역 940은 낭비되는 화소의 주파수 영역을 나타낸다. 즉, 모노크롬 신호로 표현될 수 있는 영역 930에서 녹색이 표현될 수 있는 영역 910을 제외한 영역 940만큼 해상도 손실이 있을 수 있다. 따라서, 전체 화소 해상도를 갖도록 재구성된 녹색 신호(IMG_G)에 기초하여 공간 해상도를 개선하더라도, 영역 940만큼 해상도 손실이 발생할 수 있다.
한편, 베이어 패턴 컬러 필터 어레이를 갖는 이미지 센서(200)일지라도 이미지 내의 그레이 피사체에 대해서는, 모노크롬 센서와 같이 전체 화소의 해상도(또는, 전체 대역)를 획득할 수 있다. 이를 위해, 베이어 패턴 컬러 필터 어레이를 갖는 이미지 센서(200)에 의해 획득된 이미지에 화이트 밸런스 처리하면, 이미지 내의 그레이 피사체를 모노크롬 센서에 의해 획득된 그레이 피사체로 간주할 수 있다. 화이트 밸런스는 다양한 색온도 조명 하에서 그레이 영역의 RGB(Red, Green, Blue) 비율이 같아지도록(예: R=G=B), G를 중심으로 R 및 B의 게인을 조정하는 것이다.Meanwhile, even with the
이하, 베이어 패턴 컬러 필터 어레이를 갖는 이미지 센서(200)에 의해 획득된 이미지로부터 회색 피사체에 대한 넓은 신호 대역을 추출하여, 공간 해상도를 향상하는 구체적인 방안에 대해 설명한다.Hereinafter, a specific method of improving spatial resolution by extracting a wide signal band for a gray subject from an image acquired by the
다시 도 8을 참조하면, 디렉션 이미지 생성부(252)는 입력 이미지(IMG_IN)를 화이트 밸런스 처리할 수 있다. 화이트 밸런스는 색 온도(color temperature)의 차이에서 발생하는 색상의 차이를 보정하는 것을 의미할 수 있다. 이미지 촬영 시 빛(또는 광원)에 따라 색의 표현에 차이가 존재할 수 있다. 예를 들면, 색온도가 낮으면 붉은 빛을 띠고, 색 온도가 높을 경우에는 파란 빛을 띄게 되므로, 화이트 밸런스를 수행하여 빛의 색 온도를 보정하여 이상적인 흰색이 표시되도록 할 수 있다. 화이트 밸런스는 다양한 색온도 조명 하에서 그레이 영역의 RGB(Red, Green, Blue) 비율이 같아지도록(예: R=G=B), G를 중심으로 R 및 B의 게인을 조정하는 것이다.Referring again to FIG. 8, the
디렉션 이미지 생성부(252)는 언샤프닝 필터링 알고리즘을 이용하여, 기 설정된 방향 별로 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지(IMG2)를 생성할 수 있다. 이 때, 기 설정된 방향은, 수평 방향, 수직 방향, 45 도 대각선 방향, 및 135 도 대각선 방향일 수 있다. 즉, 제2 이미지(IMG2)는 수평 방향을 따라 필터링된 제2 이미지(IMG2), 수직 방향을 따라 필터링된 제2 이미지(IMG2), 45 도 대각선 방향을 따라 필터링된 제2 이미지(IMG2), 및 135 도 대각선 방향을 따라 필터링된 제2 이미지(IMG2)를 포함할 수 있다.The
도 10a 및 도 10b를 참조하여 구체적으로 살펴보면, 도 10a에서는 언샤프닝 필터링 알고리즘을 수행하기 위한 블록도가 도시되며, 도 10b에서는 도 10a의 언샤프닝 필터링 알고리즘을 수행하기 위한 구성의 일 실시예가 도시된다.Looking specifically with reference to FIGS. 10A and 10B, FIG. 10A shows a block diagram for performing the unsharpening filtering algorithm, and FIG. 10B shows an embodiment of a configuration for performing the unsharpening filtering algorithm of FIG. 10A. .
디렉션 이미지 생성부(252)는 언샤프닝 알고리즘 수행부(252a) 및 연산기(252b)를 포함할 수 있다. 언샤프닝 알고리즘 수행부(252a)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)를 수신하고 필터링한 결과를 출력한다. 이 때, 필터링은 이미지 신호를 저대역 통과 필터를 통과시키기 위한 제1 저대역 통과 필터(LPF1)를 이용할 수 있다.The
연산기(252b)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)와 언샤프닝 알고리즘 수행부(252a)의 출력을 연산함으로써 제2 이미지(IMG2)를 생성할 수 있다. 예컨대, 연산기(252b)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)에서 언샤프닝 알고리즘 수행부(252a)의 출력인 제5 이미지(IMG5)를 감산함에 의하여 제2 이미지(IMG2)를 생성할 수 있다.The
한편, 도 10b에 도시된 바와 같이, 언샤프닝 알고리즘 수행부(252a)는 하나 이상의 방향성 필터들(DF1~DFm)과 하나 이상의 비교기들(CP1~CPm) 및 합산기(ADD)를 포함할 수 있다. 이 때, 하나 이상의 방향성 필터들(DF1~DFm)은 방향성 필터 세트로 정의될 수 있다. Meanwhile, as shown in FIG. 10B, the unsharpening
언샤프닝 필터링 알고리즘을 수행하기 위하여, 언샤프닝 필터의 마스크 계수에 따라 하나 이상의 방향성 필터들(DF1~DFm)이 설정될 수 있다. 예컨대, 언샤프닝 필터는 소정의 사이즈를 가질 수 있으며, 예컨대 A*A(A는 2이상의 정수) 크기의 필터에 해당할 수 있다. 하나 이상의 방향성 필터들(DF1~DFm)의 계수들의 전체 합은 언샤프닝 필터의 마스크 계수와 서로 동일하도록 설정될 수 있다. 또한, 하나 이상의 방향성 필터들(DF1~DFm) 각각은 서로 다른 방향들의 에지를 검출하기 위한 계수 값을 가질 수 있다. 예컨대, 하나 이상의 방향성 필터들(DF1~DFm)은 수평 방향, 수직 방향, 45도 대각선 방향, 및 135도 대각선 방향 중 적어도 하나의 방향의 에지를 검출하기 위한 필터 타입을 가질 수 있다. To perform the unsharpening filtering algorithm, one or more directional filters (DF1 to DFm) may be set according to the mask coefficient of the unsharpening filter. For example, the unsharpening filter may have a predetermined size, for example, it may correspond to a filter of size A*A (A is an integer of 2 or more). The total sum of coefficients of one or more directional filters (DF1 to DFm) may be set to be equal to the mask coefficient of the unsharpening filter. Additionally, each of the one or more directional filters DF1 to DFm may have coefficient values for detecting edges in different directions. For example, one or more directional filters DF1 to DFm may have a filter type for detecting edges in at least one of the horizontal direction, vertical direction, 45 degree diagonal direction, and 135 degree diagonal direction.
언샤프닝 필터의 사이즈와 하나 이상의 방향성 필터들(DF1~DFm) 각각의 사이즈는 서로 동일하거나 또는 다를 수 있다. 예컨대, 방향성 필터들(DF1~DFm) 각각은 A*A(A는 2 이상의 정수) 크기의 필터에 해당할 수 있다. 또는, 방향성 필터들(DF1~DFm) 각각은 언샤프닝 필터의 사이즈보다 작을 수 있다. 방향성 필터들(DF1~DFm)의 계수들의 전체 합은 언샤프닝 필터의 마스크 계수와 서로 동일하도록 설정되기 위하여, 방향성필터들(DF1~DFm) 각각의 위치(position)가 설정될 수 있다. The size of the unsharpening filter and the size of each of the one or more directional filters (DF1 to DFm) may be the same or different from each other. For example, each of the directional filters DF1 to DFm may correspond to a filter of size A*A (A is an integer equal to or greater than 2). Alternatively, each of the directional filters DF1 to DFm may be smaller than the size of the unsharpening filter. The positions of each of the directional filters DF1 to DFm may be set so that the total sum of coefficients of the directional filters DF1 to DFm is equal to the mask coefficient of the unsharpening filter.
한편, 하나 이상의 비교기들(CP1~CPm)은 하나 이상의 방향성 필터들(DF1~DFm)의 출력 값과 기 설정되는 임계값들(Th1~Thm)을 비교하여 그 비교 결과를 발생할 수 있다. 예컨대, 제1 방향성 필터(DF1)의 출력과 제1 임계값(Th1)은 제1 비교기(CP1)로 제공되며, 제1 비교기(CP1)는 제1 방향성 필터(DF1)의 출력과 제1 임계값(Th1)을 비교한 결과에 따른 결과를 합산기(ADD)로 제공할 수 있다. 일예로서, 제1 임계값(Th1)은 방향성 필터의 출력이 샤프닝 노이즈로 간주될 수 있는 기준에 해당하는 값일 수 있으며, 제1 비교기(CP1)는 제1 방향성 필터(DF1)의 출력과 제1 임계값(Th1)을 비교한 결과에 따라 "0"에 해당하는 값을 출력하거나 또는 제1 방향성 필터(DF1)의 출력에 상응하는 값을 합산기(ADD)로 제공할 수 있다. 예를 들어, 제1 비교기(CP1)는 제1 방향성 필터(DF1)의 출력이 제1 임계값(Th1) 이상인 경우에, 제1 방향성 필터(DF1)의 출력에 상응하는 값을 합산기(ADD)로 제공할 수 있다.Meanwhile, one or more comparators (CP1 to CPm) may compare output values of one or more directional filters (DF1 to DFm) with preset thresholds (Th1 to Thm) and generate a comparison result. For example, the output of the first directional filter (DF1) and the first threshold (Th1) are provided to the first comparator (CP1), and the first comparator (CP1) provides the output of the first directional filter (DF1) and the first threshold. The result according to the result of comparing the value (Th1) can be provided by an adder (ADD). As an example, the first threshold Th1 may be a value that corresponds to the standard by which the output of the directional filter can be considered sharpening noise, and the first comparator CP1 may be set to the output of the first directional filter DF1 and the first Depending on the result of comparing the threshold value Th1, a value corresponding to “0” may be output, or a value corresponding to the output of the first directional filter DF1 may be provided to the adder ADD. For example, when the output of the first directional filter (DF1) is greater than or equal to the first threshold (Th1), the first comparator (CP1) sets a value corresponding to the output of the first directional filter (DF1) to the adder (ADD). ) can be provided.
하나 이상의 방향성 필터들(DF1~DFm)은 화이트 밸런스 처리된 입력 이미지(IMG_WB)를 각각 필터링한 결과를 제공한다. 하나 이상의 방향성 필터들(DF1~DFm)의 출력들 중 일부는 각각에 대응하는 임계값 이상일 수 있으며, 반면에 하나 이상의 방향성 필터들(DF1~410_N)의 출력들 중 다른 일부는 각각에 대응하는 임계값보다 작을 수 있다. 이에 따라, 합산기(ADD)는 하나 이상의 방향성 필터들(DF1~DFm) 중 일부의 필터들의 출력들만을 합산한 결과를 발생할 수 있다. 이 때, 임계값들(Th1~Thm)은 서로 그 값이 동일할 수도 또는 상이할 수도 있다.One or more directional filters (DF1 to DFm) provide results of filtering the white balanced input image (IMG_WB), respectively. Some of the outputs of the one or more directional filters (DF1 to DFm) may be above the respective thresholds, while other portions of the outputs of the one or more directional filters (DF1 to 410_N) may be above the respective thresholds. It may be smaller than the value. Accordingly, the adder ADD may generate a result of summing only the outputs of some of the one or more directional filters DF1 to DFm. At this time, the threshold values (Th1 to Thm) may be the same or different.
전술한 동작에 따라, 방향성 필터 세트에서, 기 설정되는 임계값들에 따라 일부의 방향성 필터들의 출력이 선택적으로 합산될 수 있다. 연산기(252b)의 출력(또는, 제2 이미지(IMG2))이 디테일 밴드로서 생성될 수 있다. 이 때, 디테일 밴드는 베이스 밴드가 제거되고, 샤프닝 처리할 수 있는 최소한의 신호만 남은 상태일 수 있다.According to the above-described operation, in the directional filter set, the outputs of some directional filters may be selectively summed according to preset thresholds. The output of the
일 실시예에 따른 디렉션 이미지 생성부(252)는, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 한계 해상도를 검출하기 위한 하이 패스 필터(252c)를 더 포함할 수 있다.The
그레이 검출부(253)는 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 그레이 영역을 검출할 수 있다. 그레이 검출부(253)는 선택부(257)에 그레이 영역 정보(D2)를 제공할 수 있다.The
에지 검출부(254)는 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향을 검출할 수 있다. 일 실시예에 따른 에지 검출부(254)는 순차적으로 기 설정된 방향 별로 에지 최대값을 계산함으로써, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향을 검출할 수 있다. 예를 들어, 에지 검출부(254)는 수평 방향으로 에지 최대값이 검출되면 에지 방향이 수직인 것으로 결정하고, 수직 방향으로 에지 최대값이 검출되면 에지 방향이 수평인 것으로 결정하고, 45 도 방향으로 에지 최대값이 검출되면 에지 방향이 135 도인 것으로 결정하고, 135 도 방향으로 에지 최대값이 검출되면 에지 방향이 45 도인 것으로 결정할 수 있다. 에지 검출부(254)는 선택부(257)에 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향 정보(D3)를 제공할 수 있다.The
일 실시예에 따른 에지 검출부(254)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 노이즈를 제거하기 위한 제2 저역 통과 필터(LPF2)를 더 포함할 수 있다.The
선택부(257)는 검출된 그레이 영역 정보(D2) 및 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향 정보(D3)에 기초하여, 제1 이미지(IMG1) 및 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성할 수 있다.The
선택부(257)는, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 이상이면, 그레이 검출부(253)에 의해 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역 유무를 결정할 수 있다. If the edge strength of the reconstructed green signal (IMG_G) is greater than or equal to a preset value, the
선택부(257)는, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역이 존재하는 경우, 에지 검출부(254)에 의해 결정된 에지 방향에 해당하는 제2 이미지(IMG2)를 이용하여 에지 개선하고, 제1 이미지(IMG1) 및 에지 개선된 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성할 수 있다.When a gray area exists in the white-balanced input image (IMG_WB), the
한편, 선택부(257)는, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 미만인 경우에도, 그레이 검출부(253)에 의해 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역 유무를 결정할 수 있다.Meanwhile, the
선택부(257)는, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역이 존재하는 경우, 에지 검출부(254)에 의해 결정된 에지 방향에 해당하는 제2 이미지(IMG2)를 이용하여 에지 개선하고, 재구성된 녹색 신호(IMG_G) 및 상기 에지 개선된 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성할 수 있다.When a gray area exists in the white-balanced input image (IMG_WB), the
조정부(258)는, 제3 이미지(IMG3)의 녹색 신호의 변화량에 기초하여 적색 신호(IMG_R) 및 청색 신호(IMG_B)를 조정할 수 있다.The
베이어 재결합부(259)는 제3 이미지(IMG3)의 녹색 신호와 조정된 적색 신호(IMG_R') 및 조정된 청색 신호(IMG_B')를 결합하여 베이어 패턴 어레이를 갖는 제4 이미지(IMG4)를 생성할 수 있다.The Bayer recombiner 259 combines the green signal, the adjusted red signal (IMG_R'), and the adjusted blue signal (IMG_B') of the third image (IMG3) to generate a fourth image (IMG4) having a Bayer pattern array. can do.
일 실시예에 따르면, 디렉션 이미지 생성부(252), 그레이 검출부(253), 및 에지 검출부(254)는, 디모자이싱부(251)와 메모리를 공유하도록 병렬 배치된 하드웨어 모듈로 구현될 수 있다. 이로 인해, 영상 획득 장치(100)는 공간 해상도 개선을 위한 연산 속도의 저하를 방지할 수 있다.According to one embodiment, the
도 11 내지 도 13은 본 발명의 효과를 설명하기 위한 도면들이다. 이 때, 도 11a, 도 12a, 및 도 13a는 도 8에서 상술한 디모자이싱 후 샤프닝 처리만 수행된 제4-1 이미지(IMG4-1)에 해당하고, 도 11b,도 12b, 및 도 13b는 도 8에서 상술한 화이트 밸런스 처리 후 모노크롬 신호를 이용한 필터링 과정까지 수행된 제4 이미지(IMG4)에 해당한다. 제4-1 이미지(IMG4-1) 및 제4 이미지(IMG4) 둘 다 본 발명의 색분리 렌즈 어레이(300)를 포함하는 이미지 센서(200)를 이용하여 성조도를 촬영하여 얻은 것이다.11 to 13 are drawings to explain the effect of the present invention. At this time, FIGS. 11A, 12A, and 13A correspond to the 4-1 image (IMG4-1) on which only the sharpening process was performed after the demosaicing described above in FIG. 8, and FIGS. 11B, 12B, and 13B corresponds to the fourth image (IMG4) that has been subjected to the white balance process described above in FIG. 8 followed by a filtering process using a monochrome signal. Both the 4-1st image (IMG4-1) and the 4th image (IMG4) were obtained by photographing the star illuminance using the
도 11a의 일부 영역을 확대 표시한 도 12a 및 도 13a를 참조하면, 제4-1 이미지(IMG4-1)는 원 둘레를 따라 좁은 간격으로 배치된 라인들이 명확하게 구분되지 않는 것을 알 수 있다. 즉, 제4-1 이미지(IMG4-1)는 최대 공간 해상도 영역이 억제되는 것을 알 수 있다. Referring to FIGS. 12A and 13A, which enlarge a partial area of FIG. 11A, it can be seen that in the 4-1 image (IMG4-1), lines arranged at narrow intervals along the circumference of the circle are not clearly distinguished. That is, it can be seen that the maximum spatial resolution area of the 4-1st image (IMG4-1) is suppressed.
반면에, 도 11b의 일부 영역을 확대 표시한 도 12b 및 도 13b 각각의 동그라미로 표시된 영역을 참조하면, 원 둘레를 따라 좁은 간격으로 배치된 라인들이 보다 명확하게 구분되는 것을 알 수 있다. 즉, 제4 이미지(IMG4)는 모노크롬 신호를 이용하여 최대 공간 해상도가 복원된 것을 확인할 수 있다.On the other hand, referring to the circled areas of FIGS. 12B and 13B, which are enlarged portions of a portion of FIG. 11B, it can be seen that the lines arranged at narrow intervals around the circle are more clearly distinguished. That is, it can be confirmed that the maximum spatial resolution of the fourth image (IMG4) is restored using a monochrome signal.
이하, 다른 실시예들에 대해 설명한다. 이하의 실시예에서, 이미 설명한 실시예와 동일한 구성에 대해서는 설명을 생략하거나 간략화하고, 차이점을 위주로 설명하기로 한다.Hereinafter, other embodiments will be described. In the following embodiments, the description of the same configuration as the already described embodiment will be omitted or simplified, and the differences will be mainly explained.
도 14는 샤프닝 처리 시, 조건 체크부를 이용하는 실시예를 설명하기 위한 도면이다.Figure 14 is a diagram for explaining an embodiment of using a condition check unit during sharpening processing.
도 8 및 도 14를 참조하면, 도 14에 도시된 실시예는, 도 8에 도시된 실시예의 페이서부(255) 대신 조건 체크부(255')를 포함한다는 점에서 차이점이 있을 뿐, 나머지 구성들은 실질적으로 동일하다.Referring to FIGS. 8 and 14, the only difference between the embodiment shown in FIG. 14 is that it includes a condition check unit 255' instead of the
조건 체크부(255')는 재구성된 녹색 신호(IMG_G)에 대해 샤프닝 필터부(256)를 적용할지 여부를 결정하기 위한 조건 검사를 수행할 수 있다. 예를 들어, 조건 체크부(255')는 재구성된 녹색 신호(IMG_G)의 노이즈 레벨을 산출할 수 있다. 선택부(257)는 조건 체크부(255')에 의해 산출된 노이즈 레벨이 기 설정된 임계값 이하인 경우 재구성된 녹색 신호(IMG_G)에 대해 샤프닝 필터부(256)를 적용할 수 있다.The condition check unit 255' may perform a condition check to determine whether to apply the sharpening
도 15는 다른 실시예에 따른 언샤프닝 필터링 알고리즘을 수행하기 위한 블록도이다.Figure 15 is a block diagram for performing an unsharpening filtering algorithm according to another embodiment.
도 10a 및 도 15를 참조하면, 도 15에 도시된 실시예는 언샤프닝 알고리즘 수행부(252a)와 연산기(252b) 사이에 곱셈기(252d)를 더 포함한다는 점에서 도 10a에 도시된 실시예와 차이점이 있을 뿐, 나머지 구성들은 실질적으로 동일하다.Referring to FIGS. 10A and 15 , the embodiment shown in FIG. 15 is different from the embodiment shown in FIG. 10A in that it further includes a
디렉션 이미지 생성부(252)는 언샤프닝 알고리즘 수행부(252a), 곱셈기(252d), 연산기(252b)를 포함할 수 있다. 언샤프닝 알고리즘 수행부(252a)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)를 수신하고 필터링한 결과로서, 제5 이미지(IMG5)를 출력한다. 이 때, 필터링은 이미지 신호를 저대역 통과 필터를 통과시키기 위한 제1 저대역 통과 필터(LPF1)를 이용할 수 있다.The
곱셈기(252d)는 제5 이미지(IMG5)에 게인을 곱할 수 있다. 이 때, 게인은 언샤프닝 마스크 필터의 세기를 결정하는 계수일 수 있다. 예를 들어, 게인이 2인 경우, 언샤프닝 마스크 필터의 효과를 2배로 적용하는 동작을 의미할 수 있다.The
연산기(252b)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)와 게인이 곱해진 언샤프닝 알고리즘 수행부(252a)의 출력을 연산함으로써 제2' 이미지(IMG2')를 생성할 수 있다. 예컨대, 연산기(252b)는 화이트 밸런스 처리된 입력 이미지(IMG_WB)에서 게인이 적용된 언샤프닝 알고리즘 수행부(252a)의 출력인 제5' 이미지(IMG5')를 감산함에 의하여 제2' 이미지(IMG2')를 생성할 수 있다.The
도 16은 이미지 센서의 주광선 각도(Chief ray angle)를 설명하기 위한 도면이다.Figure 16 is a diagram for explaining the chief ray angle of the image sensor.
도 5 및 도 16을 참조하면, 이미지 센서(200)에 입사하는 광의 입사각은 통상적으로 주광선 각도(CRA; chief ray angle)로 정의된다. 주광선(CR)은 피사체의 한 점으로부터 대물 렌즈(FL)(또는, 모듈 렌즈)의 중심을 지나 이미지 센서(200)에 입사하는 광선을 의미한다.Referring to FIGS. 5 and 16 , the incident angle of light incident on the
주광선 각도는 주광선(CR)이 대물 렌즈(FL)의 광축(OPA)과 이루는 각도를 의미하며, 일반적으로 이미지 센서(200)에 입사하는 주광선(CR)의 입사각과 동일하다. 예를 들어, 대물 렌즈(FL)의 광축 상에 있는 한 점에서 출발한 광의 주광선(CR)은 이미지 센서(200)의 중심부에 수직하게 입사하며, 이 경우 주광선 각도(CRA_1)는 0도이다. 출발점이 대물 렌즈(FL)의 광축(OPA)에서 멀어질수록 주광선 각도(CRA_2)는 증가하게 되며, 이미지 센서(200)의 가장자리에 입사하게 된다. 이미지 센서(200)의 관점에서 보면, 이미지 센서(200)의 중심부에 입사하는 광의 주광선 각도(CRA_1)는 0도이며, 이미지 센서(200)에서의 중심에서 멀어질수록 갈수록 입사광의 주광선 각도(CRA_2)가 커지게 된다.The chief ray angle refers to the angle that the chief ray (CR) forms with the optical axis (OPA) of the objective lens (FL), and is generally the same as the angle of incidence of the chief ray (CR) incident on the
그런데, 상술한 색분리 렌즈 어레이(300)는 일반적으로 입사광에 대해 방향성을 가질 수 있다. 다시 말해, 특정한 각도 범위 이내로 입사하는 빛에 대해서는 색분리 렌즈 어레이(300)가 효율적으로 동작하지만, 입사각이 특정한 각도 범위로부터 멀어지게 되면 색분리 렌즈 어레이(300)의 색분리 성능이 저하될 수 있다.However, the color
이와 같이, 주광선 각도가 커지는 영역에서 색분리 렌즈 어레이(300)의 광효율이 감소하므로, 이미지 센서(200)는 이를 극복하기 위한 영상처리(또는, 신호 처리)가 요구된다. 일 실시예에 따른 선택부(도 8의 257)는, 이미지 센서(200)의 주광선 각도(Chief ray angle)의 필드 정보에 기초하여, 제3 이미지(IMG3)를 생성할 수 있다. 예를 들어, 주광선 각도가 클수록 색분리 렌즈 어레이(300)에 의한 블러 신호가 강해지므로, 선택부(257)는 주광선 각도가 클수록 공간 해상도의 개선 정도를 증가시킬 수 있다. 선택부(257)는 주광선 각도의 필드 정보를 외부 장치로부터 제공받을 수 있다.As such, since the luminous efficiency of the color
도 17은 일 실시예에 따른 해상도 개선 방법을 설명하기 위한 흐름도이다. 이 때, 도 17에 도시된 흐름도는 도 8에 도시된 신호 처리부 블록도의 동작에 대응되므로, 도 8 내지 도 16을 통해 설명된 실시예들이 적용될 수 있다.Figure 17 is a flowchart explaining a resolution improvement method according to an embodiment. At this time, since the flowchart shown in FIG. 17 corresponds to the operation of the signal processor block diagram shown in FIG. 8, the embodiments described through FIGS. 8 to 16 can be applied.
도 8 내지 도 10b 및 도 17을 참조하면, 일 실시예에 따른 영상 획득 방법은, 입력 이미지(IMG_IN)를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱을 수행하는 단계(S100), 재구성된 녹색 신호(IMG_G)를 기 설정된 방향 별로 샤프닝하여 제1 이미지(IMG1)를 생성하는 샤프닝 필터링 단계(S200), 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고(S300), 언샤프닝 필터링 알고리즘을 이용하여, 기 설정된 방향 별로 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지(IMG2)를 생성하는 디렉션 이미지 생성 단계(S400), 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고(S300), 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 그레이 영역을 검출하는 그레이 검출 단계(S500), 입력 이미지(IMG_IN)를 화이트 밸런스 처리하고(S300), 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향을 검출하는 에지 검출 단계(S600) 및 검출된 그레이 영역 및 에지 방향에 기초하여, 제1 이미지(IMG1) 및 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성하는 선택 단계(S700)를 포함할 수 있다.8 to 10B and 17, the image acquisition method according to one embodiment includes performing demosaicing to reconstruct the green signal to have full pixel resolution using the input image (IMG_IN) (S100). , a sharpening filtering step (S200) of generating a first image (IMG1) by sharpening the reconstructed green signal (IMG_G) in each preset direction, white balancing the input image (IMG_IN) (S300), and performing an unsharpening filtering algorithm. Using the direction image generation step (S400), the base band of the white-balanced input image (IMG_WB) for each preset direction is removed and only the detail band is extracted to generate a second image (IMG2), the input image (IMG_IN) White balance processing (S300), a gray detection step of detecting the gray area of the white balanced input image (IMG_WB) (S500), white balance processing of the input image (IMG_IN) (S300), and white balance processing of the input. Based on the edge detection step (S600) of detecting the edge direction of the image (IMG_WB) and the detected gray area and edge direction, the first image (IMG1) and the second image (IMG2) are blended to create a third image (IMG3) It may include a selection step (S700) for generating.
일 실시예에 따른 영상 획득 방법은, 제3 이미지(IMG3)의 녹색 신호의 변화량에 기초하여 적색 신호(IMG_R) 및 청색 신호(IMG_B)를 조정하는 조정 단계(S800)를 포함할 수 있다. The image acquisition method according to one embodiment may include an adjustment step (S800) of adjusting the red signal (IMG_R) and the blue signal (IMG_B) based on the amount of change in the green signal of the third image (IMG3).
일 실시예에 따른 영상 획득 방법은, 제3 이미지(IMG)의 녹색 신호 및 조정된 적색 신호(IMG_R') 및 청색 신호(IMG_B')를 결합하여 베이어 패턴 어레이를 갖는 제4 이미지(IMG4)를 생성하는 베이어 재결합 단계(S900)를 포함할 수 있다.The image acquisition method according to one embodiment combines the green signal and the adjusted red signal (IMG_R') and blue signal (IMG_B') of the third image (IMG) to produce a fourth image (IMG4) having a Bayer pattern array. It may include a Bayer recombination step (S900).
디모자이싱을 수행하는 단계(S100)에서, 연산에 사용되는 메모리(180) 용량을 줄이기 위하여, 입력 이미지(IMG_IN)의 녹색 신호에 대해서만 컬러 보간을 수행하여, 전체 화소 해상도를 갖도록 재구성된 녹색 신호(IMG_G)를 생성할 수 있다.In the step of performing demosaicing (S100), in order to reduce the capacity of the
샤프닝 필터링 단계(S200)에서, 재구성된 녹색 신호(IMG_G)의 에지 방향을 검출하는 단계를 포함하되, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 이상이면, 검출된 에지 방향에 해당하는 제1 이미지(IMG1)를 에지 개선하는 단계를 포함할 수 있다. 이 때, 제1 이미지(IMG1)는 수평 방향을 따라 필터링된 제1 이미지(IMG1), 수직 방향을 따라 필터링된 제1 이미지(IMG1), 45 도 대각선 방향을 따라 필터링된 제1 이미지(IMG1), 및 135 도 대각선 방향을 따라 필터링된 제1 이미지(IMG1)를 포함할 수 있다.In the sharpening filtering step (S200), it includes detecting the edge direction of the reconstructed green signal (IMG_G), and if the edge strength of the reconstructed green signal (IMG_G) is more than a preset value, the edge direction corresponding to the detected edge direction is It may include edge-enhancing the first image (IMG1). At this time, the first image (IMG1) is a first image (IMG1) filtered along the horizontal direction, a first image (IMG1) filtered along a vertical direction, and a first image (IMG1) filtered along a 45-degree diagonal direction. , and a first image (IMG1) filtered along a 135-degree diagonal direction.
화이트 밸런스 처리하는 단계(S300)에서, 다양한 색온도 조명 하에서 그레이 영역의 RGB(Red, Green, Blue) 비율이 같아지도록(예: R=G=B), G를 중심으로 R 및 B의 게인을 조정할 수 있다.In the white balance processing step (S300), the gains of R and B are adjusted centered on G so that the RGB (Red, Green, Blue) ratio of the gray area is the same under various color temperature lighting (e.g., R=G=B). You can.
디렉션 이미지 생성 단계(S400)에서, 언샤프닝 필터링 알고리즘을 이용하여, 기 설정된 방향 별로 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지(IMG2)를 생성할 수 있다. 이 때, 기 설정된 방향은, 수평 방향, 수직 방향, 45 도 대각선 방향, 및 135 도 대각선 방향일 수 있다. 즉, 제2 이미지(IMG2)는 수평 방향을 따라 필터링된 제2 이미지(IMG2_H), 수직 방향을 따라 필터링된 제2 이미지(IMG2_V), 45 도 대각선 방향을 따라 필터링된 제2 이미지(IMG2_45), 및 135 도 대각선 방향을 따라 필터링된 제2 이미지(IMG2_135)를 포함할 수 있다.In the direction image creation step (S400), using an unsharpening filtering algorithm, the base band of the white-balanced input image (IMG_WB) is removed for each preset direction, and a second image (IMG2) is generated from which only the detail band is extracted. can do. At this time, the preset direction may be a horizontal direction, a vertical direction, a 45 degree diagonal direction, and a 135 degree diagonal direction. That is, the second image (IMG2) includes a second image (IMG2_H) filtered along the horizontal direction, a second image (IMG2_V) filtered along a vertical direction, a second image (IMG2_45) filtered along a 45-degree diagonal direction, and a second image (IMG2_135) filtered along a 135-degree diagonal direction.
그레이 검출 단계(S500)에서, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 그레이 영역을 검출할 수 있다.In the gray detection step (S500), the gray area of the white balance-processed input image (IMG_WB) can be detected.
에지 검출 단계(S600)에서, 순차적으로 기 설정된 방향 별로 에지 최대값을 계산함으로써, 화이트 밸런스 처리된 입력 이미지(IMG_WB)의 에지 방향을 검출할 수 있다. 예를 들어, 에지 검출부(254)는 수평 방향으로 에지 최대값이 검출되면 에지 방향이 수직인 것으로 결정하고, 수직 방향으로 에지 최대값이 검출되면 에지 방향이 수평인 것으로 결정하고, 45 도 방향으로 에지 최대값이 검출되면 에지 방향이 135 도인 것으로 결정하고, 135 도 방향으로 에지 최대값이 검출되면 에지 방향이 45 도인 것으로 결정할 수 있다. In the edge detection step (S600), the edge direction of the white balanced input image (IMG_WB) can be detected by sequentially calculating the maximum edge value for each preset direction. For example, the
선택 단계(S700)에서, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 이상이면, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역 유무를 결정하고, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역이 존재하는 경우, 결정된 에지 방향에 해당하는 제2 이미지(IMG2)를 이용하여 에지 개선하고, 제1 이미지 및 상기 에지 개선된 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성하는 단계(S710)를 포함할 수 있다.In the selection step (S700), if the edge strength of the reconstructed green signal (IMG_G) is greater than a preset value, the presence or absence of a gray area in the white-balanced input image (IMG_WB) is determined, and the white-balanced input image (IMG_WB) If a gray area exists within the edge, the edge is improved using the second image (IMG2) corresponding to the determined edge direction, and the first image and the edge-enhanced second image (IMG2) are blended to create a third image (IMG3). It may include a step of generating (S710).
선택 단계(S700)에서, 재구성된 녹색 신호(IMG_G)의 에지 강도가 기 설정된 값 미만이면, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역 유무를 결정하고, 화이트 밸런스 처리된 입력 이미지(IMG_WB) 내에 그레이 영역이 존재하는 경우, 결정된 에지 방향에 해당하는 제2 이미지(IMG2)를 이용하여 에지 개선하고, 재구성된 녹색 신호(IMG_G) 및 에지 개선된 제2 이미지(IMG2)를 블렌딩하여 제3 이미지(IMG3)를 생성하는 단계(S720)를 포함할 수 있다.In the selection step (S700), if the edge strength of the reconstructed green signal (IMG_G) is less than a preset value, the presence or absence of a gray area in the white balanced input image (IMG_WB) is determined, and the white balanced input image (IMG_WB) If a gray area exists within the edge, the edge is improved using the second image (IMG2) corresponding to the determined edge direction, and the reconstructed green signal (IMG_G) and the edge-enhanced second image (IMG2) are blended to create a third image. It may include a step (S720) of generating (IMG3).
도 18는 실시예들에 따른 이미지센서를 포함하는 전자 장치를 개략적으로 도시한 블록도이다. 도 18를 참조하면, 네트워크 환경(ED00)에서 전자 장치(ED01)는 제1 네트워크(ED98)(근거리 무선 통신 네트워크 등)를 통하여 다른 전자 장치(ED02)와 통신하거나, 또는 제2 네트워크(ED99)(원거리 무선 통신 네트워크 등)를 통하여 또 다른 전자 장치(ED04) 및/또는 서버(ED08)와 통신할 수 있다. 전자 장치(ED01)는 서버(ED08)를 통하여 전자 장치(ED04)와 통신할 수 있다. 전자 장치(ED01)는 프로세서(ED20), 메모리(ED30), 입력 장치(ED50), 음향 출력 장치(ED55), 표시 장치(ED60), 오디오 모듈(ED70), 센서 모듈(ED76), 인터페이스(ED77), 햅틱 모듈(ED79), 카메라 모듈(ED80), 전력 관리 모듈(ED88), 배터리(ED89), 통신 모듈(ED90), 가입자 식별 모듈(ED96), 및/또는 안테나 모듈(ED97)을 포함할 수 있다. 전자 장치(ED01)에는, 이 구성요소들 중 일부(표시 장치(ED60) 등)가 생략되거나, 다른 구성요소가 추가될 수 있다. 이 구성요소들 중 일부는 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(ED76)(지문 센서, 홍채 센서, 조도 센서 등)은 표시 장치(ED60)(디스플레이 등)에 임베디드되어 구현될 수 있다.Figure 18 is a block diagram schematically showing an electronic device including an image sensor according to embodiments. Referring to FIG. 18, in a network environment (ED00), an electronic device (ED01) communicates with another electronic device (ED02) through a first network (ED98) (a short-range wireless communication network, etc.) or a second network (ED99). It is possible to communicate with another electronic device (ED04) and/or a server (ED08) through (a long-distance wireless communication network, etc.). The electronic device ED01 can communicate with the electronic device ED04 through the server ED08. The electronic device (ED01) consists of a processor (ED20), memory (ED30), input device (ED50), audio output device (ED55), display device (ED60), audio module (ED70), sensor module (ED76), and interface (ED77). ), a haptic module (ED79), a camera module (ED80), a power management module (ED88), a battery (ED89), a communication module (ED90), a subscriber identity module (ED96), and/or an antenna module (ED97). You can. In the electronic device ED01, some of these components (such as the display device ED60) may be omitted or other components may be added. Some of these components can be implemented as one integrated circuit. For example, the sensor module ED76 (fingerprint sensor, iris sensor, illumination sensor, etc.) may be implemented by being embedded in the display device ED60 (display, etc.).
프로세서(ED20)는, 소프트웨어(프로그램(ED40) 등)를 실행하여 프로세서(ED20)에 연결된 전자 장치(ED01) 중 하나 또는 복수개의 다른 구성요소들(하드웨어, 소프트웨어 구성요소 등)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 데이터 처리 또는 연산의 일부로, 프로세서(ED20)는 다른 구성요소(센서 모듈(ED76), 통신 모듈(ED90) 등)로부터 수신된 명령 및/또는 데이터를 휘발성 메모리(ED32)에 로드하고, 휘발성 메모리(ED32)에 저장된 명령 및/또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(ED34)에 저장할 수 있다. 프로세서(ED20)는 메인 프로세서(ED21)(중앙 처리 장치, 어플리케이션 프로세서 등) 및 이와 독립적으로 또는 함께 운영 가능한 보조 프로세서(ED23)(그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 커뮤니케이션 프로세서 등)를 포함할 수 있다. 보조 프로세서(ED23)는 메인 프로세서(ED21)보다 전력을 작게 사용하고, 특화된 기능을 수행할 수 있다. The processor ED20 may execute software (program ED40, etc.) to control one or a plurality of other components (hardware, software components, etc.) of the electronic device ED01 connected to the processor ED20. , various data processing or calculations can be performed. As part of data processing or computation, the processor (ED20) loads commands and/or data received from other components (sensor module (ED76), communication module (ED90), etc.) into volatile memory (ED32) and volatile memory (ED32). Commands and/or data stored in ED32) can be processed, and the resulting data can be stored in non-volatile memory (ED34). The processor (ED20) includes the main processor (ED21) (central processing unit, application processor, etc.) and an auxiliary processor (ED23) that can operate independently or together (graphics processing unit, image signal processor, sensor hub processor, communication processor, etc.). It can be included. The auxiliary processor (ED23) uses less power than the main processor (ED21) and can perform specialized functions.
보조 프로세서(ED23)는, 메인 프로세서(ED21)가 인액티브 상태(슬립 상태)에 있는 동안 메인 프로세서(ED21)를 대신하여, 또는 메인 프로세서(ED21)가 액티브 상태(어플리케이션 실행 상태)에 있는 동안 메인 프로세서(ED21)와 함께, 전자 장치(ED01)의 구성요소들 중 일부 구성요소(표시 장치(ED60), 센서 모듈(ED76), 통신 모듈(ED90) 등)와 관련된 기능 및/또는 상태를 제어할 수 있다. 보조 프로세서(ED23)(이미지 시그널 프로세서, 커뮤니케이션 프로세서 등)는 기능적으로 관련 있는 다른 구성 요소(카메라 모듈(ED80), 통신 모듈(ED90) 등)의 일부로서 구현될 수도 있다. The auxiliary processor (ED23) acts on behalf of the main processor (ED21) while the main processor (ED21) is in an inactive state (sleep state), or as the main processor (ED21) while the main processor (ED21) is in an active state (application execution state). Together with the processor (ED21), it is possible to control functions and/or states related to some of the components of the electronic device (ED01) (display device (ED60), sensor module (ED76), communication module (ED90), etc.) You can. The auxiliary processor (ED23) (image signal processor, communication processor, etc.) may also be implemented as part of other functionally related components (camera module (ED80), communication module (ED90), etc.).
메모리(ED30)는, 전자 장치(ED01)의 구성요소(프로세서(ED20), 센서모듈(ED76) 등)가 필요로 하는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(프로그램(ED40) 등) 및, 이와 관련된 명령에 대한 입력 데이터 및/또는 출력 데이터를 포함할 수 있다. 메모리(ED30)는, 휘발성 메모리(ED32) 및/또는 비휘발성 메모리(ED34)를 포함할 수 있다.The memory ED30 can store various data required by components (processor ED20, sensor module ED76, etc.) of the electronic device ED01. Data may include, for example, input data and/or output data for software (such as program ED40) and instructions related thereto. The memory ED30 may include a volatile memory ED32 and/or a non-volatile memory ED34.
프로그램(ED40)은 메모리(ED30)에 소프트웨어로 저장될 수 있으며, 운영 체제(ED42), 미들 웨어(ED44) 및/또는 어플리케이션(ED46)을 포함할 수 있다. The program (ED40) may be stored as software in the memory (ED30) and may include an operating system (ED42), middleware (ED44), and/or applications (ED46).
입력 장치(ED50)는, 전자 장치(ED01)의 구성요소(프로세서(ED20) 등)에 사용될 명령 및/또는 데이터를 전자 장치(ED01)의 외부(사용자 등)로부터 수신할 수 있다. 입력 장치(ED50)는, 마이크, 마우스, 키보드, 및/또는 디지털 펜(스타일러스 펜 등)을 포함할 수 있다. The input device ED50 may receive commands and/or data to be used in components (processor ED20, etc.) of the electronic device ED01 from an external source (a user, etc.) of the electronic device ED01. The input device ED50 may include a microphone, mouse, keyboard, and/or digital pen (stylus pen, etc.).
음향 출력 장치(ED55)는 음향 신호를 전자 장치(ED01)의 외부로 출력할 수 있다. 음향 출력 장치(ED55)는, 스피커 및/또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 리시버는 스피커의 일부로 결합되어 있거나 또는 독립된 별도의 장치로 구현될 수 있다.The audio output device ED55 may output an audio signal to the outside of the electronic device ED01. The sound output device ED55 may include a speaker and/or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. The receiver can be integrated as part of the speaker or implemented as a separate, independent device.
표시 장치(ED60)는 전자 장치(ED01)의 외부로 정보를 시각적으로 제공할 수 있다. 표시 장치(ED60)는, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 표시 장치(ED60)는 터치를 감지하도록 설정된 터치 회로(Touch Circuitry), 및/또는 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(압력 센서 등)를 포함할 수 있다. The display device ED60 can visually provide information to the outside of the electronic device ED01. The display device ED60 may include a display, a hologram device, or a projector, and a control circuit for controlling the device. The display device ED60 may include a touch circuitry configured to detect a touch, and/or a sensor circuit configured to measure the intensity of force generated by the touch (such as a pressure sensor).
오디오 모듈(ED70)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 오디오 모듈(ED70)은, 입력 장치(ED50)를 통해 소리를 획득하거나, 음향 출력 장치(ED55), 및/또는 전자 장치(ED01)와 직접 또는 무선으로 연결된 다른 전자 장치(전자 장치(ED02) 등)의 스피커 및/또는 헤드폰을 통해 소리를 출력할 수 있다.The audio module (ED70) can convert sound into electrical signals or, conversely, convert electrical signals into sound. The audio module (ED70) acquires sound through the input device (ED50), the sound output device (ED55), and/or another electronic device (electronic device (ED02), etc.) directly or wirelessly connected to the electronic device (ED01). ) can output sound through speakers and/or headphones.
센서 모듈(ED76)은 전자 장치(ED01)의 작동 상태(전력, 온도 등), 또는 외부의 환경 상태(사용자 상태 등)를 감지하고, 감지된 상태에 대응하는 전기 신호 및/또는 데이터 값을 생성할 수 있다. 센서 모듈(ED76)은, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(Infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 및/또는 조도 센서를 포함할 수 있다. The sensor module (ED76) detects the operating status (power, temperature, etc.) of the electronic device (ED01) or external environmental status (user status, etc.) and generates electrical signals and/or data values corresponding to the detected status. can do. The sensor module (ED76) includes a gesture sensor, gyro sensor, barometric pressure sensor, magnetic sensor, acceleration sensor, grip sensor, proximity sensor, color sensor, IR (Infrared) sensor, biometric sensor, temperature sensor, humidity sensor, and/or illuminance sensor. May include sensors.
인터페이스(ED77)는 전자 장치(ED01)가 다른 전자 장치(전자 장치(ED02) 등)와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 또는 복수의 지정된 프로토콜들을 지원할 수 있다. 인터페이스(ED77)는, HDMI(High Definition Multimedia Interface), USB(Universal Serial Bus) 인터페이스, SD카드 인터페이스, 및/또는 오디오 인터페이스를 포함할 수 있다.The interface ED77 may support one or a plurality of designated protocols that can be used to directly or wirelessly connect the electronic device ED01 to another electronic device (such as the electronic device ED02). The interface ED77 may include a High Definition Multimedia Interface (HDMI), a Universal Serial Bus (USB) interface, an SD card interface, and/or an audio interface.
연결 단자(ED78)는, 전자 장치(ED01)가 다른 전자 장치(전자 장치(ED02) 등)와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 연결 단자(ED78)는, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 및/또는 오디오 커넥터(헤드폰 커넥터 등)를 포함할 수 있The connection terminal ED78 may include a connector through which the electronic device ED01 can be physically connected to another electronic device (such as the electronic device ED02). Connection terminals (ED78) may include an HDMI connector, USB connector, SD card connector, and/or audio connector (headphone connector, etc.)
햅틱 모듈(ED79)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(진동, 움직임 등) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(ED79)은, 모터, 압전 소자, 및/또는 전기 자극 장치를 포함할 수 있다.The haptic module (ED79) can convert electrical signals into mechanical stimulation (vibration, movement, etc.) or electrical stimulation that the user can perceive through tactile or kinesthetic senses. The haptic module (ED79) may include a motor, a piezoelectric element, and/or an electrical stimulation device.
카메라 모듈(ED80)은 정지 영상 및 동영상을 촬영할 수 있다. 카메라 모듈(ED80)은 하나 또는 복수의 렌즈들을 포함하는 렌즈 어셈블리, 전술한 이미지 센서(200), 이미지 시그널 프로세서들, 및/또는 플래시들을 포함할 수 있다. 카메라 모듈(ED80)에 포함된 렌즈 어셈블리는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다.The camera module (ED80) can shoot still images and videos. The camera module ED80 may include a lens assembly including one or a plurality of lenses, the above-described
전력 관리 모듈(ED88)은 전자 장치(ED01)에 공급되는 전력을 관리할 수 있다. 전력 관리 모듈(ED88)은, PMIC(Power Management Integrated Circuit)의 일부로서 구현될 수 있다.The power management module ED88 can manage power supplied to the electronic device ED01. The power management module (ED88) may be implemented as part of a Power Management Integrated Circuit (PMIC).
배터리(ED89)는 전자 장치(ED01)의 구성 요소에 전력을 공급할 수 있다. 배터리(ED89)는, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 및/또는 연료 전지를 포함할 수 있다.Battery ED89 may supply power to components of electronic device ED01. The battery ED89 may include a non-rechargeable primary cell, a rechargeable secondary cell, and/or a fuel cell.
통신 모듈(ED90)은 전자 장치(ED01)와 다른 전자 장치(전자 장치(ED02), 전자 장치(ED04), 서버(ED08) 등)간의 직접(유선) 통신 채널 및/또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(ED90)은 프로세서(ED20)(어플리케이션 프로세서 등)와 독립적으로 운영되고, 직접 통신 및/또는 무선 통신을 지원하는 하나 또는 복수의 커뮤니케이션 프로세서들을 포함할 수 있다. 통신 모듈(ED90)은 무선 통신 모듈(ED92)(셀룰러 통신 모듈, 근거리 무선 통신 모듈, GNSS(Global Navigation Satellite System 등) 통신 모듈) 및/또는 유선 통신 모듈(ED94)(LAN(Local Area Network) 통신 모듈, 전력선 통신 모듈 등)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(ED98)(블루투스, WiFi Direct 또는 IrDA(Infrared Data Association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(ED99)(셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(LAN, WAN 등)와 같은 원거리 통신 네트워크)를 통하여 다른 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(단일 칩 등)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(복수 칩들)로 구현될 수 있다. 무선 통신 모듈(ED92)은 가입자 식별 모듈(ED96)에 저장된 가입자 정보(국제 모바일 가입자 식별자(IMSI) 등)를 이용하여 제1 네트워크(ED98) 및/또는 제2 네트워크(ED99)와 같은 통신 네트워크 내에서 전자 장치(ED01)를 확인 및 인증할 수 있다. The communication module (ED90) establishes a direct (wired) communication channel and/or a wireless communication channel between the electronic device (ED01) and other electronic devices (electronic device (ED02), electronic device (ED04), server (ED08), etc.) and can support communication through established communication channels. The communication module (ED90) operates independently of the processor (ED20) (application processor, etc.) and may include one or more communication processors that support direct communication and/or wireless communication. The communication module (ED90) is a wireless communication module (ED92) (cellular communication module, short-range wireless communication module, GNSS (Global Navigation Satellite System, etc.) communication module) and/or a wired communication module (ED94) (LAN (Local Area Network) communication module, power line communication module, etc.). Among these communication modules, the corresponding communication module is the first network (ED98) (a short-range communication network such as Bluetooth, WiFi Direct, or IrDA (Infrared Data Association)) or the second network (ED99) (a cellular network, the Internet, or a computer network (LAN) , WAN, etc.) can communicate with other electronic devices. These various types of communication modules may be integrated into one component (such as a single chip) or may be implemented as a plurality of separate components (multiple chips). The wireless communication module (ED92) uses subscriber information (international mobile subscriber identifier (IMSI), etc.) stored in the subscriber identification module (ED96) to communicate within a communication network such as the first network (ED98) and/or the second network (ED99). You can check and authenticate the electronic device (ED01).
안테나 모듈(ED97)은 신호 및/또는 전력을 외부(다른 전자 장치 등)로 송신하거나 외부로부터 수신할 수 있다. 안테나는 기판(PCB 등) 위에 형성된 도전성 패턴으로 이루어진 방사체를 포함할 수 있다. 안테나 모듈(ED97)은 하나 또는 복수의 안테나들을 포함할 수 있다. 복수의 안테나가 포함된 경우, 통신 모듈(ED90)에 의해 복수의 안테나들 중에서 제1 네트워크(ED98) 및/또는 제2 네트워크(ED99)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 안테나가 선택될 수 있다. 선택된 안테나를 통하여 통신 모듈(ED90)과 다른 전자 장치 간에 신호 및/또는 전력이 송신되거나 수신될 수 있다. 안테나 외에 다른 부품(RFIC 등)이 안테나 모듈(ED97)의 일부로 포함될 수 있다.The antenna module (ED97) can transmit signals and/or power to or receive signals and/or power from the outside (such as other electronic devices). The antenna may include a radiator consisting of a conductive pattern formed on a substrate (PCB, etc.). The antenna module ED97 may include one or multiple antennas. When a plurality of antennas are included, an antenna suitable for a communication method used in a communication network such as the first network (ED98) and/or the second network (ED99) may be selected from among the plurality of antennas by the communication module (ED90). You can. Signals and/or power may be transmitted or received between the communication module ED90 and other electronic devices through the selected antenna. In addition to the antenna, other components (RFIC, etc.) may be included as part of the antenna module (ED97).
구성요소들 중 일부는 주변 기기들간 통신 방식(버스, GPIO(General Purpose Input and Output), SPI(Serial Peripheral Interface), MIPI(Mobile Industry Processor Interface) 등)을 통해 서로 연결되고 신호(명령, 데이터 등)를 상호 교환할 수 있다.Some of the components are connected to each other through communication methods between peripheral devices (bus, GPIO (General Purpose Input and Output), SPI (Serial Peripheral Interface), MIPI (Mobile Industry Processor Interface), etc.) and signals (commands, data, etc.) ) can be interchanged.
명령 또는 데이터는 제2 네트워크(ED99)에 연결된 서버(ED08)를 통해서 전자 장치(ED01)와 외부의 전자 장치(ED04)간에 송신 또는 수신될 수 있다. 다른 전자 장치들(ED02, ED04)은 전자 장치(ED01)와 동일한 또는 다른 종류의 장치일 수 있다. 전자 장치(ED01)에서 실행되는 동작들의 전부 또는 일부는 다른 전자 장치들(ED02, ED04, ED08) 중 하나 또는 복수의 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(ED01)가 어떤 기능이나 서비스를 수행해야 할 때, 기능 또는 서비스를 자체적으로 실행시키는 대신에 하나 또는 복수의 다른 전자 장치들에게 그 기능 또는 그 서비스의 일부 또는 전체를 수행하라고 요청할 수 있다. 요청을 수신한 하나 또는 복수의 다른 전자 장치들은 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(ED01)로 전달할 수 있다. 이를 위하여, 클라우드 컴퓨팅, 분산 컴퓨팅, 및/또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.Commands or data may be transmitted or received between the electronic device ED01 and an external electronic device ED04 through the server ED08 connected to the second network ED99. The other electronic devices ED02 and ED04 may be the same or different types of devices from the electronic device ED01. All or part of the operations performed in the electronic device ED01 may be executed in one or more of the other electronic devices ED02, ED04, and ED08. For example, when the electronic device (ED01) needs to perform a certain function or service, instead of executing the function or service itself, it performs part or all of the function or service to one or more other electronic devices. You can ask them to do it. One or more other electronic devices that have received the request may execute additional functions or services related to the request and transmit the results of the execution to the electronic device ED01. For this purpose, cloud computing, distributed computing, and/or client-server computing technologies may be used.
도 19는 도 18의 전자 장치에 구비된 카메라 모듈(ED80)을 예시하는 블록도다. 도 19를 참조하면, 카메라 모듈(ED80)은 렌즈 어셈블리(1170), 플래쉬(1120), 이미지 센서(200), 이미지 스태빌라이저(1140), AF 제어부(1130), 메모리(1150)(버퍼 메모리 등), 액츄에이터(1180) 및/또는 이미지 시그널 프로세서(ISP)(1160)를 포함할 수 있다. FIG. 19 is a block diagram illustrating the camera module ED80 provided in the electronic device of FIG. 18. Referring to FIG. 19, the camera module (ED80) includes a
렌즈 어셈블리(1170)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(1170)는 하나 이상의 광학 렌즈를 포함할 수 있다. 렌즈 어셈블리(1170)에는 광의 경로를 꺾어 이미지 센서(200)를 향하게 하는 경로 전환 부재가 포함될 수도 있다. 경로 전환 부재의 구비 여하 및 광학 렌즈와의 배치 형태에 따라, 카메라 모듈(ED80)은 버티컬(vertical) 형태, 또는 폴디드(folded) 형태를 가질 수 있다. 카메라 모듈(ED80)은 복수의 렌즈 어셈블리(1170)들을 포함할 수도 있으며, 이런 경우, 카메라 모듈(ED80)은, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(Spherical Camera)가 될 수 있다. 복수의 렌즈 어셈블리(1170)들 중 일부는 동일한 렌즈 속성(화각, 초점 거리, 자동 초점, F 넘버(F Number), 광학 줌 등)을 갖거나, 또는 다른 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(1170)는, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. The
액츄에이터(1180)는 렌즈 어셈블리(1170)를 구동할 수 있다. 액츄에이터(1180)에 의해, 예를 들어, 렌즈 어셈블리(1170)를 구성하는 광학 렌즈, 경로 전환 부재 중 적어도 일부가 움직일 수 있다. 광학 렌즈는 광축을 따라 움직일 수 있고, 렌즈 어셈블리(1170)에 포함된 광학 렌즈의 적어도 일부를 이동시켜 인접한 렌즈간의 거리를 조절함으로써, 이에 따라 광학 줌 배율(optical zoom ratio)이 조절될 수 있다. The
액츄에이터(1180)는 이미지 센서(200)가 렌즈 어셈블리(1170)의 초점 거리(focal length)에 위치하도록, 렌즈 어셈블리(1170)에 포함된 어느 하나의 광학 렌즈의 위치를 조정할 수 있다. 액츄에이터(1180)는 AF 제어부(1130)에서 전달된 AF 구동 신호에 따라 렌즈 어셈블리(1170)를 구동할 수 있다.The
플래쉬(1120)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 플래쉬(1120)는 가시광 또는 적외선 광을 방출할 수 있다. 플래쉬(1120)는 하나 또는 복수의 발광 다이오드들(RGB(Red-Green-Blue) LED, White LED, Infrared LED, Ultraviolet LED 등), 및/또는 Xenon Lamp를 포함할 수 있다. 이미지 센서(200)는 도 1에서 설명한 이미지 센서(200)일 수 있고, 또는 전술한 이미지 센서(1001-1012) 중 어느 하나, 또는 이들이 조합, 변형된 형태를 가질 수 있다. 이미지 센서(200) 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(1170)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 피사체에 대응하는 이미지를 획득할 수 있다. The
이미지 센서(200)는 앞서 설명한 색분리 렌즈 어레이(300)를 구비하고 있으며, 각 화소는 복수개의 채널을 형성하는 복수의 광감지셀, 예를 들어 2X2로 배열된 복수의 광감지셀을 포함할 수 있다. 이러한 화소들 중 일부는 AF 화소로 사용될 수 있고, 이미지 센서(200)는 AF 화소 내의 복수 채널의 신호로부터 AF 구동 신호를 생성할 수 있다. The
이미지 스태빌라이저(1140)는 카메라 모듈(ED80) 또는 이를 포함하는 전자 장치(ED01)의 움직임에 반응하여, 렌즈 어셈블리(1170)에 포함된 하나 또는 복수개의 렌즈 또는 이미지 센서(200)를 특정한 방향으로 움직이거나 이미지 센서(200)의 동작 특성을 제어(리드 아웃(Read-Out) 타이밍의 조정 등)하여 움직임에 의한 부정적인 영향이 보상되도록 할 수 있다. 이미지 스태빌라이저(1140)는 카메라 모듈(ED80)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(ED80) 또는 전자 장치(ED01)의 움직임을 감지할 수 있다. 이미지 스태빌라이저(1140)는, 광학식으로 구현될 수도 있다. The
AF 제어부(1130)는 이미지 센서(200)의 AF 화소로부터 센싱된 신호값으로부터 AF 구동 신호를 생성할 수 있다. AF 제어부(1130)는 AF 구동 신호에 따라 액츄에이터(1180)를 제어할 수 있다. The
메모리(1150)는 이미지 센서(200)를 통하여 획득된 이미지의 일부 또는 전체 데이터가 다음 이미지 처리 작업을 위하여 저장할 수 있다. 예를 들어, 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 데이터(Bayer-Patterned 데이터, 고해상도 데이터 등)는 메모리(1150)에 저장하고, 저해상도 이미지만을 디스플레이 해준 후, 선택된(사용자 선택 등) 이미지의 원본 데이터가 이미지 시그널 프로세서(1160)로 전달되도록 하는데 사용될 수 있다. 메모리(1150)는 전자 장치(ED01)의 메모리(ED30)로 통합되어 있거나, 또는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The
이미지 시그널 프로세서(ISP)(1160)는 이미지 센서(200)를 통하여 획득된 이미지 또는 메모리(1150)에 저장된 이미지 데이터에 대하여 이미지 처리들을 수행할 수 있다. 이미지 처리들은, 깊이 지도(Depth Map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 및/또는 이미지 보상(노이즈 감소, 해상도 조정, 밝기 조정, 블러링(Blurring), 샤프닝(Sharpening), 소프트닝(Softening) 등)을 포함할 수 있다. 이미지 시그널 프로세서(1160)는 카메라 모듈(ED80)에 포함된 구성 요소들(이미지 센서(200) 등)에 대한 제어(노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(1160)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(1150)에 다시 저장 되거나 카메라 모듈(ED80)의 외부 구성 요소(메모리(ED30), 표시 장치(ED60), 전자 장치(ED02), 전자 장치(ED04), 서버(ED08) 등)로 제공될 수 있다. 이미지 시그널 프로세서(1160)는 프로세서(ED20)에 통합되거나, 프로세서(ED20)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(1160)가 프로세서(ED20)와 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(1160)에 의해 처리된 이미지는 프로세서(ED20)에 의하여 추가의 이미지 처리를 거친 후 표시 장치(ED60)를 통해 표시될 수 있다.The image signal processor (ISP) 1160 may perform image processing on images acquired through the
AF 제어부(1130)는 이미지 시그널 프로세서(1160)에 통합될 수도 있다. 이미지 시그널 프로세서(1160)가 이미지 센서(200)의 오토포커싱 화소들로부터의 신호를 처리하여 AF 신호를 생성하고, AF 제어부(1130)는 이를 액츄에이터(1180) 구동 신호로 바꾸어 액츄에이터(1180)에 전달할 수도 있다. The
실시예들에 따른 이미지 센서(200)는 다양한 전자 장치에 적용될 수 있다.The
실시예들에 따른 이미지 센서(200)는 모바일폰 또는 스마트폰, 태블릿 또는 스마트 태블릿, 디지털 카메라 또는 캠코더, 노트북 컴퓨터 또는 텔레비전 또는 스마트 텔레비전 등에 적용될 수 있다. 예를 들어, 스마트폰 또는 스마트 태블릿은 고해상 이미지센서가 각각 탑재된 복수의 고해상 카메라를 포함할 수 있다. 고해상 카메라들을 이용하여 영상 내 피사체들의 깊이 정보를 추출하거나, 영상의 아웃포커싱을 조절하거나, 영상 내 피사체들을 자동으로 식별할 수 있다.The
또한, 이미지 센서(200)는 스마트 냉장고, 보안 카메라, 로봇, 의료용 카메라 등에 적용될 수 있다. 예를 들어, 스마트 냉장고는 이미지센서를 이용하여 냉장고 내에 있는 음식을 자동으로 인식하고, 특정 음식의 존재 여부, 입고 또는 출고된 음식의 종류 등을 스마트폰을 통해 사용자에게 알려줄 수 있다. 보안 카메라(는 초고해상도 영상을 제공할 수 있으며 높은 감도를 이용하여 어두운 환경에서도 영상 내의 사물 또는 사람을 인식 가능하게 할 수 있다. 로봇은 사람이 직접 접근할 수 없는 재해 또는 산업 현장에서 투입되어 고해상도 영상을 제공할 수 있다. 의료용 카메라는 진단 또는 수술을 위한 고해상도 영상을 제공할 수 있으며 시야를 동적으로 조절할 수 있다.Additionally, the
또한, 이미지 센서(200)는 차량에 적용될 수 있다. 차량(은 다양한 위치에 배치된 복수의 차량용 카메라를 포함할 수 있으며. 각각의 차량용 카메라는 실시예에 따른 이미지센서를 포함할 수 있다. 차량은 복수의 차량용 카메라를 이용하여 차량 내부 또는 주변에 대한 다양한 정보를 운전자에게 제공할 수 있으며, 영상 내의 사물 또는 사람을 자동으로 인식하여 자율 주행에 필요한 정보를 제공할 수 있다.Additionally, the
상술한 색분리 렌즈 어레이를 구비하는 이미지 센서 및 이를 포함하는 영상 획득 장치는 도면에 도시된 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 권리범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 권리범위에 포함된 것으로 해석되어야 할 것이다.The image sensor having the above-described color separation lens array and the image acquisition device including the same have been described with reference to the embodiment shown in the drawings, but this is merely an example, and those skilled in the art will understand various It will be understood that variations and equivalent other embodiments are possible. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of rights is indicated in the patent claims, not the foregoing description, and all differences within the equivalent scope should be interpreted as being included in the scope of rights.
100: 영상 획득 장치
120: 촬영 렌즈부
200: 이미지 센서
210: 화소 어레이
250: 신호 처리부
251: 디모자이싱부
252: 디렉션 이미지 생성부
253: 그레이 검출부
254: 에지 검출부
255: 페이서부
256: 샤프닝 필터부
257: 선택부
258: 조정부
259: 베이어 재결합부
300: 색분리 렌즈 어레이
500: 센서 기판100: Image acquisition device
120: Shooting lens unit
200: image sensor
210: pixel array
250: signal processing unit
251: demosaicing unit
252: Direction image creation unit
253: Gray detection unit
254: Edge detection unit
255: Pacerbu
256: Sharpening filter unit
257: selection part
258: Control department
259: Bayer recombination unit
300: Color separation lens array
500: sensor substrate
Claims (20)
상기 이미지 센서에서 획득된 입력 이미지를 처리하는 신호 처리부;를 포함하되,
상기 신호 처리부는,
상기 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱부;
상기 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터부;
상기 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 상기 기 설정된 방향 별로 상기 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성부;
상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출부;
상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출부; 및
상기 검출된 그레이 영역 및 상기 에지 방향에 기초하여, 상기 제1 이미지 및 상기 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택부;를 포함하는 영상 획득 장치.An image sensor including a color separation lens array that separates and focuses incident light according to color; and
Includes a signal processor that processes the input image obtained from the image sensor,
The signal processing unit,
a demosaicing unit that reconstructs the green signal to have full pixel resolution using the input image;
a sharpening filter unit that generates a first image by sharpening the reconstructed green signal in each preset direction;
Generating a direction image by white balancing the input image and using an unsharpening filtering algorithm to generate a second image in which the base band of the white balance processed input image is removed for each preset direction and only the detail band is extracted. wealth;
a gray detector that white balances the input image and detects a gray area of the white balanced input image;
an edge detection unit that white balances the input image and detects an edge direction of the white balanced input image; and
An image acquisition device comprising: a selection unit that generates a third image by blending the first image and the second image based on the detected gray area and the edge direction.
상기 이미지 센서는,
광을 센싱하는 복수의 광감지셀을 포함하는 센서 기판; 및
상기 센서 기판 전단에 배치되고, 상기 복수의 광감지셀과 각각 마주하는 복수의 영역에 서로 인접하는 광감지셀에 서로 다른 파장의 광을 집광시키는 위상 분포를 형성하는 미소 구조를 포함하는 상기 색분리 렌즈 어레이;를 포함하는 영상 획득 장치.According to claim 1,
The image sensor is,
A sensor substrate including a plurality of light-sensing cells that sense light; and
The color separation device is disposed at the front end of the sensor substrate and includes a microstructure that forms a phase distribution that focuses light of different wavelengths on adjacent photosensing cells in a plurality of areas facing each of the plurality of photosensing cells. An image acquisition device comprising a lens array.
상기 이미지 센서는 베이어 패턴 어레이를 가지는 영상 획득 장치.According to claim 1,
The image sensor is an image acquisition device having a Bayer pattern array.
상기 신호 처리부는, 상기 제3 이미지의 녹색 신호의 변화량에 기초하여 적색 신호 및 청색 신호를 조정하는 조정부를 포함하는 영상 획득 장치.According to claim 1,
The signal processing unit is an image acquisition device including an adjusting unit that adjusts the red signal and the blue signal based on the amount of change in the green signal of the third image.
상기 제3 이미지의 녹색 신호 및 상기 조정된 적색 신호 및 청색 신호를 결합하여 베이어 패턴 어레이를 갖는 제4 이미지를 생성하는 베이어 재결합부를 포함하는 영상 획득 장치.According to clause 4,
An image acquisition device comprising a Bayer recombination unit that combines the green signal of the third image and the adjusted red and blue signals to generate a fourth image having a Bayer pattern array.
상기 신호 처리부는, 상기 재구성된 녹색 신호의 에지 방향을 검출하는 페이서부를 포함하는 영상 획득 장치.According to claim 1,
The signal processing unit is an image acquisition device including a pacer unit that detects an edge direction of the reconstructed green signal.
상기 선택부는, 상기 재구성된 녹색 신호의 에지 강도가 기 설정된 값 이상이면, 상기 페이서부에 의해 검출된 에지 방향에 해당하는 상기 제1 이미지를 에지 개선하는, 영상 획득 장치.According to clause 6,
The selection unit, if the edge strength of the reconstructed green signal is greater than a preset value, edge improves the first image corresponding to the edge direction detected by the pacer unit.
상기 선택부는, 상기 재구성된 녹색 신호의 에지 강도가 기 설정된 값 이상이면, 상기 그레이 검출부에 의해 상기 화이트 밸런스 처리된 입력 이미지 내에 그레이 영역 유무를 결정하는 영상 획득 장치.According to clause 7,
The selection unit determines the presence or absence of a gray area in the input image white balanced by the gray detection unit if the edge strength of the reconstructed green signal is greater than a preset value.
상기 선택부는, 상기 화이트 밸런스 처리된 입력 이미지 내에 그레이 영역이 존재하는 경우, 상기 에지 검출부에 의해 결정된 에지 방향에 해당하는 상기 제2 이미지를 이용하여 에지 개선하고, 상기 제1 이미지 및 상기 에지 개선된 제2 이미지를 블렌딩하여 상기 제3 이미지를 생성하는 영상 획득 장치.According to clause 8,
If a gray area exists in the white balance-processed input image, the selection unit performs edge improvement using the second image corresponding to the edge direction determined by the edge detection unit, and selects the first image and the edge-enhanced image. An image acquisition device that generates the third image by blending the second image.
상기 선택부는, 상기 재구성된 녹색 신호의 에지 강도가 기 설정된 값 미만이면, 상기 그레이 검출부에 의해 상기 화이트 밸런스 처리된 입력 이미지 내에 그레이 영역 유무를 결정하는 영상 획득 장치.According to clause 7,
The selection unit determines the presence or absence of a gray area in the input image white balanced by the gray detection unit if the edge strength of the reconstructed green signal is less than a preset value.
상기 선택부는, 상기 화이트 밸런스 처리된 입력 이미지 내에 그레이 영역이 존재하는 경우, 상기 에지 검출부에 의해 결정된 에지 방향에 해당하는 상기 제2 이미지를 이용하여 에지 개선하고, 상기 재구성된 녹색 신호 및 상기 에지 개선된 제2 이미지를 블렌딩하여 상기 제3 이미지를 생성하는 영상 획득 장치.According to claim 10,
If a gray area exists in the white balanced input image, the selection unit performs edge improvement using the second image corresponding to the edge direction determined by the edge detection unit, and the reconstructed green signal and the edge improvement An image acquisition device that generates the third image by blending the second image.
상기 기 설정된 방향은, 수평, 수직, 45도, 및 135도 방향을 포함하는 영상 획득 장치.According to claim 1,
The preset direction includes horizontal, vertical, 45 degrees, and 135 degrees.
상기 디렉션 이미지 생성부는,
상기 화이트 밸런스 처리된 입력 이미지를 저주파 필터링하여 제5 이미지를 생성하는 로우 패스 필터; 및
상기 화이트 밸런스 처리된 입력 이미지 및 상기 제5 이미지를 수신하여, 상기 화이트 밸런스 처리된 입력 이미지에서 상기 제5 이미지를 감산하는 연산기;를 포함하는 영상 획득 장치.According to claim 1,
The direction image generator,
a low-pass filter that generates a fifth image by low-frequency filtering the white-balanced input image; and
An image acquisition device comprising: an operator that receives the white balance processed input image and the fifth image, and subtracts the fifth image from the white balance processed input image.
상기 디렉션 이미지 생성부는, 상기 로우 패스 필터와 상기 연산기 사이에 배치되고, 상기 제5 이미지에 게인을 곱하는 곱셈기를 더 포함하는 영상 획득 장치.According to claim 13,
The direction image generator is disposed between the low-pass filter and the operator and further includes a multiplier that multiplies the fifth image by a gain.
상기 디렉션 이미지 생성부는, 상기 화이트 밸런스 처리된 입력 이미지의 한계 해상도를 검출하기 위한 하이 패스 필터를 더 포함하는 영상 획득 장치.According to claim 13,
The direction image generator further includes a high-pass filter for detecting a limiting resolution of the white balance-processed input image.
상기 에지 검출부는, 상기 화이트 밸런스 처리된 입력 이미지의 노이즈를 제거하기 위한 로우 패스 필터를 포함하는 영상 획득 장치.According to claim 1,
The edge detection unit includes a low-pass filter to remove noise from the white-balanced input image.
상기 선택부는, 상기 이미지 센서의 주광선 각도(Chief ray angle)의 필드 정보에 기초하여, 상기 제3 이미지를 생성하는 영상 획득 장치.According to claim 1,
The selection unit is configured to generate the third image based on field information of the chief ray angle of the image sensor.
상기 디렉션 이미지 생성부, 상기 그레이 검출부, 및 상기 에지 검출부는, 상기 디모자이싱부와 메모리를 공유하도록 병렬 배치되는 영상 획득 장치.According to claim 1,
The direction image generation unit, the gray detection unit, and the edge detection unit are arranged in parallel to share memory with the demosaicing unit.
상기 입력 이미지를 이용하여 녹색 신호를 전체 화소 해상도를 갖도록 재구성하는 디모자이싱을 수행하는 단계;
상기 재구성된 녹색 신호를 기 설정된 방향 별로 샤프닝하여 제1 이미지를 생성하는 샤프닝 필터링 단계;
상기 입력 이미지를 화이트 밸런스 처리하고, 언샤프닝 필터링 알고리즘을 이용하여, 상기 기 설정된 방향 별로 상기 화이트 밸런스 처리된 입력 이미지의 베이스 밴드가 제거되고, 디테일 밴드만 추출된 제2 이미지를 생성하는 디렉션 이미지 생성 단계;
상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 그레이 영역을 검출하는 그레이 검출 단계;
상기 입력 이미지를 화이트 밸런스 처리하고, 상기 화이트 밸런스 처리된 입력 이미지의 에지 방향을 검출하는 에지 검출 단계; 및
상기 검출된 그레이 영역 및 상기 에지 방향에 기초하여, 상기 제1 이미지 및 상기 제2 이미지를 블렌딩하여 제3 이미지를 생성하는 선택 단계;를 포함하는 영상 획득 방법.An image acquisition device including an image sensor including a color separation lens array that separates and focuses incident light according to color,
performing demosaicing to reconstruct the green signal to have full pixel resolution using the input image;
A sharpening filtering step of generating a first image by sharpening the reconstructed green signal in each preset direction;
Generating a direction image by white balancing the input image and using an unsharpening filtering algorithm to generate a second image in which the base band of the white balance processed input image is removed for each preset direction and only the detail band is extracted. step;
A gray detection step of white balancing the input image and detecting a gray area of the white balance processed input image;
An edge detection step of white-balancing the input image and detecting an edge direction of the white-balanced input image; and
A selection step of generating a third image by blending the first image and the second image based on the detected gray area and the edge direction.
상기 제3 이미지의 녹색 신호의 변화량에 기초하여 적색 신호 및 청색 신호를 조정하는 조정 단계를 포함하는 영상 획득 방법.According to clause 19,
An image acquisition method comprising an adjustment step of adjusting a red signal and a blue signal based on the amount of change in the green signal of the third image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/414,132 US20240244333A1 (en) | 2023-01-17 | 2024-01-16 | Apparatus and method for obtaining image employing color separation lens array |
EP24152375.2A EP4404581A1 (en) | 2023-01-17 | 2024-01-17 | Apparatus and method for obtaining image employing color separation lens array |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230006980 | 2023-01-17 | ||
KR20230006980 | 2023-01-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240114659A true KR20240114659A (en) | 2024-07-24 |
Family
ID=92171325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230021591A Pending KR20240114659A (en) | 2023-01-17 | 2023-02-17 | Apparatus and method for obtaining image emplying color separation lens array |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240114659A (en) |
-
2023
- 2023-02-17 KR KR1020230021591A patent/KR20240114659A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102624107B1 (en) | Image Sensor for generating Depth Data by a path difference of light generated through Micro Lens covering a plurality of sub-pixels and Electronic Device including the image sensor | |
JP2022074093A (en) | Image sensor with color separation lens array and electronic device including it | |
CN115734082B (en) | Image acquisition device including multiple image sensors and electronic device including the image acquisition device | |
KR102739219B1 (en) | Electronic device comprising image sensor and method of operation thereof | |
KR102725243B1 (en) | Electronic device comprising image sensor and method of operation thereof | |
US12300710B2 (en) | Image sensor including color separating lens array and electronic apparatus including the image sensor | |
KR102407200B1 (en) | Electronic device for providing function using RGB image and IR image acquired through one image sensor | |
US12169288B2 (en) | Image sensor including color separating lens array and electronic apparatus including the image sensor | |
CN115412708B (en) | Image acquisition device and electronic device including the same | |
US12174339B2 (en) | Meta-lens, imaging optics, and electronic device including the same | |
EP4171019A1 (en) | Electronic device comprising image sensor, and method for controlling same | |
KR20210128803A (en) | Electronic device for detecting defect of image based on differential between sub images acquired by multi photodiode sensor and operating method thereof | |
KR102698295B1 (en) | Image sensor including color separating lens array and electronic apparatus including the image sensor | |
US20200374493A1 (en) | Camera module comprising complementary color filter array and electronic device comprising same | |
JP2022074089A (en) | Image sensor with color separation lens array and electronic device including it | |
KR102752429B1 (en) | Color filter array of an electronic deviceand the electronic | |
US20230139533A1 (en) | Optical sensor including nanophotonic microlens array and electronic device including the same | |
KR20240114659A (en) | Apparatus and method for obtaining image emplying color separation lens array | |
EP4404581A1 (en) | Apparatus and method for obtaining image employing color separation lens array | |
KR102693429B1 (en) | Image sensor including color separating lens array and electronic apparatus including the image sensor | |
EP4498688A1 (en) | Image acquisition apparatus and method employing lens array | |
KR20240114665A (en) | Image sensor including color separating lens array and electronic apparatus | |
CN119450250A (en) | Device and method for obtaining images using lens array | |
KR20250059148A (en) | Image processing device and operating method thereof | |
KR20240114667A (en) | Image sensor including color filter including nanostructure, and electronic apparatus including the image sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20230217 |
|
PG1501 | Laying open of application |