KR102601288B1 - Camera module and image operating method performed therein - Google Patents
Camera module and image operating method performed therein Download PDFInfo
- Publication number
- KR102601288B1 KR102601288B1 KR1020190039694A KR20190039694A KR102601288B1 KR 102601288 B1 KR102601288 B1 KR 102601288B1 KR 1020190039694 A KR1020190039694 A KR 1020190039694A KR 20190039694 A KR20190039694 A KR 20190039694A KR 102601288 B1 KR102601288 B1 KR 102601288B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- image
- images
- camera
- internal parameters
- Prior art date
Links
- 238000011017 operating method Methods 0.000 title 1
- 230000003287 optical effect Effects 0.000 claims abstract description 28
- 238000001914 filtration Methods 0.000 claims description 28
- 238000007781 pre-processing Methods 0.000 claims description 27
- 230000005484 gravity Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 20
- 238000012805 post-processing Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 description 28
- 230000004075 alteration Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 239000002131 composite material Substances 0.000 description 13
- 239000000284 extract Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 239000000758 substrate Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006641 stabilisation Effects 0.000 description 3
- 238000011105 stabilization Methods 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- 239000004698 Polyethylene Substances 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 229910001632 barium fluoride Inorganic materials 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- WUKWITHWXAAZEY-UHFFFAOYSA-L calcium difluoride Chemical compound [F-].[F-].[Ca+2] WUKWITHWXAAZEY-UHFFFAOYSA-L 0.000 description 2
- 229910001634 calcium fluoride Inorganic materials 0.000 description 2
- 239000005387 chalcogenide glass Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000000465 moulding Methods 0.000 description 2
- -1 polyethylene Polymers 0.000 description 2
- 229920000573 polyethylene Polymers 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010010071 Coma Diseases 0.000 description 1
- 239000004593 Epoxy Substances 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 239000004840 adhesive resin Substances 0.000 description 1
- 229920006223 adhesive resin Polymers 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000011247 coating layer Substances 0.000 description 1
- 239000006059 cover glass Substances 0.000 description 1
- 229910052732 germanium Inorganic materials 0.000 description 1
- GNPVGFCGXDBREM-UHFFFAOYSA-N germanium atom Chemical compound [Ge] GNPVGFCGXDBREM-UHFFFAOYSA-N 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
- Non-Metallic Protective Coatings For Printed Circuits (AREA)
- Encapsulation Of And Coatings For Semiconductor Or Solid State Devices (AREA)
- Injection Moulding Of Plastics Or The Like (AREA)
Abstract
실시 예에 따른 카메라 장치는 복수의 카메라 모듈; 상기 복수의 카메라 모듈을 통해 획득된 복수의 제1 이미지를 수신하고, 상기 복수의 제1 이미지를 합성하여 제2 이미지를 생성하는 이미지 처리부; 상기 복수의 카메라 모듈의 초점 거리 및 주점 정보를 포함한 내부 파라미터를 산출하고, 상기 산출된 내부 파라미터를 기반하여 상기 제2 이미지가 생성되도록 하는 제어부;를 포함하며, 상기 복수의 카메라 모듈은, 외부로부터 입사되는 적외선 신호를 통과시키는 복수의 단위 렌즈부를 포함하는 어레이 렌즈부; 및 상기 복수의 단위 렌즈부와 광축상에서 정렬되는 복수의 단위 센서부를 포함하는 어레이 센서부를 포함하고, 상기 제어부는, 상기 복수의 카메라 모듈에 대해 각각 캘리브레이션을 진행하여 상기 내부 파라미터를 산출하고, 상기 복수의 카메라 모듈의 내부 파라미터를 이용하여 상기 복수의 카메라 모듈 사이의 상대 위치 정보를 획득하며, 상기 획득된 내부 파라미터 및 상기 상대 위치 정보를 이용하여 상기 제2 이미지가 생성되도록 한다.A camera device according to an embodiment includes a plurality of camera modules; an image processor that receives a plurality of first images acquired through the plurality of camera modules and generates a second image by combining the plurality of first images; A control unit that calculates internal parameters including focal length and main point information of the plurality of camera modules and generates the second image based on the calculated internal parameters, wherein the plurality of camera modules are configured to operate from the outside. An array lens unit including a plurality of unit lens units that allow incident infrared signals to pass through; and an array sensor unit including the plurality of unit lens units and a plurality of unit sensor units aligned on an optical axis, wherein the control unit performs calibration for each of the plurality of camera modules to calculate the internal parameters, and the plurality of camera modules are configured to calculate the internal parameters. Relative position information between the plurality of camera modules is obtained using internal parameters of the camera module, and the second image is generated using the acquired internal parameters and the relative position information.
Description
실시 예는 카메라 장치에 관한 것으로, 특히 초해상도(Super Resolution) 이미지를 제공할 수 있는 생성할 수 있는 카메라 장치 및 이의 동작 방법에 관한 것이다.The embodiment relates to a camera device, and in particular, to a camera device capable of providing a super resolution image and a method of operating the same.
휴대용 장치의 사용자는 초해상도를 가지며 크기가 작고 다양한 촬영 기능[광학 줌 기능(zoom-in/zoom-out), 오토포커싱(Auto-Focusing, AF) 기능, 손떨림 보정 내지 영상 흔들림 방지(Optical Image Stabilizer, OIS) 기능 등]을 가지는 광학 기기를 원하고 있다. 이러한 촬영 기능은 여러 개의 렌즈를 조합해서 직접 렌즈를 움직이는 방법을 통해 구현될 수 있으나, 렌즈의 수를 증가시킬 경우 광학 기기의 크기가 커질 수 있다.Users of portable devices benefit from super-resolution, small size, and various shooting functions [optical zoom function (zoom-in/zoom-out), auto-focusing (AF) function, image stabilization or optical image stabilization (Optical Image Stabilizer). , OIS) functions, etc.]. This shooting function can be implemented by combining multiple lenses and directly moving the lenses, but if the number of lenses is increased, the size of the optical device may increase.
오토 포커스와 손떨림 보정 기능은, 렌즈 홀더에 고정되어 광축이 정렬된 여러 개의 렌즈 모듈이, 광축 또는 광축의 수직 방향으로 이동하거나 틸팅(Tilting)하여 수행되고, 렌즈 모듈을 구동시키기 위해 별도의 렌즈 구동 장치가 사용된다. 그러나 렌즈 구동 장치는 전력 소모가 높으며, 이를 보호하기 위해서 카메라 모듈과 별도로 커버 글라스를 추가해야 함에 따른 두께 증가 문제를 가진다.The autofocus and image stabilization functions are performed by moving or tilting several lens modules with aligned optical axes fixed to a lens holder in the optical axis or the direction perpendicular to the optical axis, and a separate lens drive is used to drive the lens modules. The device is used. However, the lens driving device consumes high power and has the problem of increasing thickness due to the need to add a cover glass separate from the camera module to protect it.
또한, 고품질 이미지에 대한 수요자의 요구가 증대됨에 따라, 초해상도 이미지를 촬영할 수 있는 이미지 센서가 요구되고 있다. 그러나, 이를 위해 이미지 센서에 포함되는 픽셀의 수가 증가될 수 밖에 없는데, 이는 이미지 센서의 크기를 증가시키게 되고 소모 전력이 낭비되는 결과를 초래할 수 있다.In addition, as consumer demand for high-quality images increases, there is a demand for image sensors capable of shooting super-resolution images. However, for this purpose, the number of pixels included in the image sensor must increase, which increases the size of the image sensor and may result in wasted power consumption.
즉, 기존의 카메라 모듈은 복수의 어레이의 데이터를 그대로 사용하므로, 이미지 센서의 물리적 분해능만큼의 해상도를 갖는 한계가 있다. 또한, 초해상도의 이미지를 생성하기 위해서는 다수의 카메라를 사용해야 하는 제약이 따른다.In other words, existing camera modules use data from multiple arrays as is, so there is a limit to having a resolution equal to the physical resolution of the image sensor. Additionally, there is a limitation in that multiple cameras must be used to generate super-resolution images.
실시 예에서는 이미지 센서의 픽셀 수를 증가시키지 않고 초해상도 이미지를 생성할 수 있는 카메라 장치 및 이의 동작 방법을 제공할 수 있도록 한다.The embodiment provides a camera device that can generate a super-resolution image without increasing the number of pixels of the image sensor and a method of operating the same.
또한, 실시 예에서는 어레이 구조를 가진 어레이 렌즈부 및 어레이 센서부를 통해 획득된 복수의 이미지를 이용하여 초해상도의 이미지를 제공할 수 있는 카메라 장치 및 이의 동작 방법을 제공할 수 있도록 한다.In addition, the embodiment provides a camera device capable of providing super-resolution images using a plurality of images acquired through an array lens unit and an array sensor unit having an array structure, and a method of operating the same.
실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the embodiment are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
실시 예에 따른 카메라 장치는 복수의 카메라 모듈; 상기 복수의 카메라 모듈을 통해 획득된 복수의 제1 이미지를 수신하고, 상기 복수의 제1 이미지를 합성하여 제2 이미지를 생성하는 이미지 처리부; 상기 복수의 카메라 모듈의 초점 거리 및 주점 정보를 포함한 내부 파라미터를 산출하고, 상기 산출된 내부 파라미터를 기반하여 상기 제2 이미지가 생성되도록 하는 제어부;를 포함하며, 상기 복수의 카메라 모듈은, 외부로부터 입사되는 적외선 신호를 통과시키는 복수의 단위 렌즈부를 포함하는 어레이 렌즈부; 및 상기 복수의 단위 렌즈부와 광축상에서 정렬되는 복수의 단위 센서부를 포함하는 어레이 센서부를 포함하고, 상기 제어부는, 상기 복수의 카메라 모듈에 대해 각각 캘리브레이션을 진행하여 상기 내부 파라미터를 산출하고, 상기 복수의 카메라 모듈의 내부 파라미터를 이용하여 상기 복수의 카메라 모듈 사이의 상대 위치 정보를 획득하며, 상기 획득된 내부 파라미터 및 상기 상대 위치 정보를 이용하여 상기 제2 이미지가 생성되도록 한다.A camera device according to an embodiment includes a plurality of camera modules; an image processor that receives a plurality of first images acquired through the plurality of camera modules and generates a second image by combining the plurality of first images; A control unit that calculates internal parameters including focal length and main point information of the plurality of camera modules and generates the second image based on the calculated internal parameters, wherein the plurality of camera modules are configured to operate from the outside. An array lens unit including a plurality of unit lens units that allow incident infrared signals to pass through; and an array sensor unit including the plurality of unit lens units and a plurality of unit sensor units aligned on an optical axis, wherein the control unit performs calibration for each of the plurality of camera modules to calculate the internal parameters, and the plurality of camera modules are configured to calculate the internal parameters. Relative position information between the plurality of camera modules is obtained using internal parameters of the camera module, and the second image is generated using the acquired internal parameters and the relative position information.
또한, 상기 복수의 카메라 모듈을 통해 획득되는 제1 이미지는 제1 해상도를 가지고, 상기 제2 이미지는, 상기 제1 해상도보다 높은 제2 해상도를 가진다.Additionally, the first image acquired through the plurality of camera modules has a first resolution, and the second image has a second resolution that is higher than the first resolution.
또한, 상기 복수의 카메라 모듈은, 상기 상대 위치 정보에 대응하는 서로 다른 시차를 가지며, 상기 복수의 제1 이미지는, 상기 복수의 카메라 모듈을 통해 동일 시점에 획득된다.Additionally, the plurality of camera modules have different parallaxes corresponding to the relative position information, and the plurality of first images are acquired at the same time through the plurality of camera modules.
또한, 상기 제어부는, 상기 복수의 제1 이미지 내에서 피사체의 특징점들을 각각 검출하고, 상기 검출된 특징점들의 무게 중심을 산출하며, 상기 상대 위치 정보에 기반하여, 상기 복수의 제1 이미지 사이의 상기 무게 중심의 델타 값을 이용하여 상기 피사체와의 거리를 산출한다.In addition, the control unit detects each feature point of the subject within the plurality of first images, calculates the center of gravity of the detected feature points, and, based on the relative position information, determines the distance between the plurality of first images. The distance to the subject is calculated using the delta value of the center of gravity.
또한, 상기 제어부는, 상기 산출한 피사체와의 거리를 이용하여 상기 피사체의 방사율을 보정한다.Additionally, the control unit corrects the emissivity of the subject using the calculated distance to the subject.
또한, 상기 복수의 카메라 모듈의 내부 파라미터, 상기 상대 위치 정보 및 피사체와의 거리에 따른 방사율 보정 정보를 저장하는 저장부를 포함한다.Additionally, it includes a storage unit that stores internal parameters of the plurality of camera modules, the relative position information, and emissivity correction information according to the distance to the subject.
또한, 상기 제어부는, 상기 상대 위치 정보에 기반하여, 상기 제2 이미지 내에서의 상기 복수의 제1 이미지의 위치를 각각 결정한다.Additionally, the control unit determines the positions of the plurality of first images within the second image, respectively, based on the relative position information.
또한, 상기 이미지 처리부는, 상기 복수의 제1 이미지를 가우시안 필터링하는 전처리 필터부; 상기 상대 위치 정보 및 상기 보정된 방사율에 기반하여, 상기 전처리 필터부를 통해 필터링된 복수의 제1 이미지를 합성하여 제2 이미지를 생성하는 이미지 생성부; 및 상기 이미지 생성부를 통해 생성된 제2 이미지를 라플라시안 필터링하는 후처리 필터부를 포함한다.Additionally, the image processing unit may include a pre-processing filter unit that performs Gaussian filtering on the plurality of first images; an image generator that generates a second image by combining the plurality of first images filtered through the pre-processing filter unit, based on the relative position information and the corrected emissivity; and a post-processing filter unit that performs Laplacian filtering on the second image generated through the image generator.
또한, 상기 전처리 필터부는, 0.1보다 크고, 1보다 작은 범위 내에서의 시그마 값을 적용하여 상기 복수 개의 이미지 프레임을 가우시안 필터링한다.Additionally, the pre-processing filter unit performs Gaussian filtering on the plurality of image frames by applying a sigma value within a range greater than 0.1 and less than 1.
한편, 실시 예에 따른 카메라 장치의 동작 방법은 어레이 렌즈부 및 어레이 센서부로 구성된 복수의 카메라 모듈의 초점 거리 및 주점 정보를 포함한 내부 파라미터를 산출하는 단계; 상기 복수의 카메라를 통해 피사체에 대한 복수의 제1 이미지를 획득하는 단계; 및 상기 산출한 내부 파라미터에 기반하여, 상기 복수의 제1 이미지를 합성하여 제2 이미지를 생성하는 단계를 포함하고, 상기 산출하는 단계는, 상기 복수의 카메라 모듈에 대해 각각 캘리브레이션을 진행하여 상기 복수의 카메라 모듈에 대한 내부 파라미터를 각각 산출하는 단계; 및 상기 복수의 카메라 모듈의 내부 파라미터를 이용하여 상기 복수의 카메라 모듈 사이의 상대 위치 정보를 획득하는 단계;를 포함하고, 상기 제2 이미지는, 상기 획득된 내부 파라미터 및 상기 상대 위치 정보에 기반하여 생성되며, 상기 제1 이미지는 제1 해상도를 가지고, 상기 제2 이미지는, 상기 제1 해상도보다 높은 제2 해상도를 가진다.Meanwhile, a method of operating a camera device according to an embodiment includes calculating internal parameters including focal length and main point information of a plurality of camera modules composed of an array lens unit and an array sensor unit; acquiring a plurality of first images of a subject through the plurality of cameras; and generating a second image by compositing the plurality of first images based on the calculated internal parameters, wherein the calculating step involves calibrating each of the plurality of camera modules to obtain the plurality of first images. Calculating internal parameters for each camera module; and obtaining relative position information between the plurality of camera modules using internal parameters of the plurality of camera modules, wherein the second image is generated based on the acquired internal parameters and the relative position information. Generated, the first image has a first resolution, and the second image has a second resolution higher than the first resolution.
또한, 상기 복수의 제1 이미지는, 동일 시점에 획득된 서로 다른 시차를 가지는 이미지이다.Additionally, the plurality of first images are images with different parallaxes acquired at the same time.
또한, 상기 피사체와의 거리를 산출하는 단계; 및 상기 산출된 피사체와의 거리에 기반하여 상기 피사체의 방사율을 보정하는 단계를 포함한다.Additionally, calculating the distance to the subject; and correcting the emissivity of the subject based on the calculated distance to the subject.
또한, 상기 거리를 산출하는 단계는, 상기 복수의 제1 이미지 내에서 피사체의 특징점들을 각각 검출하는 단계; 상기 검출된 특징점들의 무게 중심을 산출하는 단계; 및, 상기 상대 위치 정보에 기반하여, 상기 복수의 제1 이미지 사이의 상기 무게 중심의 델타 값을 이용하여 상기 피사체와의 거리를 산출하는 단계를 포함한다.In addition, calculating the distance may include detecting each feature point of the subject within the plurality of first images; calculating the center of gravity of the detected feature points; And, based on the relative position information, calculating the distance to the subject using the delta value of the center of gravity between the plurality of first images.
또한, 상기 제2 이미지를 생성하는 단계는, 상기 상대 위치 정보에 기반하여, 상기 제2 이미지 내에서의 상기 복수의 제1 이미지의 위치를 각각 결정하는 단계를 포함한다.Additionally, generating the second image includes determining the positions of each of the plurality of first images within the second image based on the relative position information.
또한, 상기 제2 이미지를 생성하는 단계는, 상기 복수의 제1 이미지를 가우시안 필터링하는 단계; 상기 상대 위치 정보 및 상기 보정된 방사율에 기반하여, 상기 가우시안 필터링된 복수의 제1 이미지를 합성하여 제2 이미지를 생성하는 단계; 및 상기 제2 이미지를 라플라시안 필터링하는 단계를 포함한다.Additionally, generating the second image may include Gaussian filtering the plurality of first images; generating a second image by combining the plurality of Gaussian filtered first images based on the relative position information and the corrected emissivity; and Laplacian filtering the second image.
실시 예에서는 어레이 렌즈부 및 어레이 센서부를 포함하는 카메라 모듈에서, 각 카메라부별로 캘리브레이션을 진행하여 각 카메라부가 가지는 초점 거리 및 주점 정보를 포함한 위치 좌표 정보를 추출한다. 그리고, 실시 예에서는 상기 위치 좌표 정보를 이용하여 각 카메라부 사이의 시차(parallax) 정보를 획득한다. 상기와 같은 실시 예에 따르면 각각의 카메라부별로 캘리브레이션을 진행하기 때문에, 상기 카메라부에서 획득된 이미지를 이용하여 정확한 거리 정보를 추출할 수 있다. In an embodiment, in a camera module including an array lens unit and an array sensor unit, calibration is performed for each camera unit to extract position coordinate information including the focal length and main point information of each camera unit. And, in the embodiment, parallax information between each camera unit is obtained using the position coordinate information. According to the above embodiment, since calibration is performed for each camera unit, accurate distance information can be extracted using the image acquired from the camera unit.
또한, 실시 예에서는 상기 위치 좌표 정보에 기반하여 각각의 카메라부의 틀어짐 정도를 정확히 알 수 있으며, 이를 토대로 하나의 초해상도의 이미지 내에서 각각의 저해상도 이미지의 위치를 정확히 설정할 수 있어 초해상도 이미지 생성에 대한 정확도 및 신뢰성을 향상시킬 수 있다.In addition, in the embodiment, the degree of distortion of each camera unit can be accurately known based on the position coordinate information, and based on this, the position of each low-resolution image within one super-resolution image can be accurately set, allowing for super-resolution image generation. Accuracy and reliability can be improved.
또한, 실시 예에서는 어레이 센서부를 통해 획득된 이미지를 이용하여, 하나의 센서부가 가지는 물리적 분해능보다 높은 초해상도를 갖는 이미지를 얻을 수 있다.Additionally, in an embodiment, an image having a higher super-resolution than the physical resolution of one sensor unit can be obtained using an image acquired through an array sensor unit.
또한, 실시 예에 의하면, 시간적으로 다른 시점에 획득된 프레임이 아닌, 동일 시점에 획득된 프레임을 이용하여 초해상도의 합성 프레임을 생성함으로써, 프레임 레이트의 저하를 방지할 수 있다.Additionally, according to an embodiment, a decrease in frame rate can be prevented by generating a super-resolution composite frame using a frame acquired at the same time point rather than a frame acquired at a temporally different point in time.
실시 예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained in the embodiment are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 실시 예에 따른 카메라 장치의 구성을 나타낸 블록도이다.
도 2는 도1의 카메라부의 일 구성 예이다.
도 3은 도1의 이미지 처리부의 상세 구성을 나타낸 블록도이다.
도 4는 실시 예에 따른 카메라 장치의 구조를 나타낸 도면이다.
도 5는 실시 예에 따른 카메라 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이다.
도 6은 내부 파라미터 추출을 위해 제공되는 이미지를 나타낸 도면이다.
도 7 및 8은 서로 다른 거리에 위치한 피사체로부터 획득된 영상으로부터의 델타 값 변화를 나타낸다.
도 9는 일반적인 카메라 장치에서의 초해상도 이미지를 생성하기 위한 동작 방법을 나타낸 도면이다.
도 10은 실시 예에 따른 센서부를 통해 생성된 이미지 프레임을 나타낸 도면이다.
도 11은 실시 예에 따른 전처리 필터부에서 필터링된 이미지 프레임을 나타낸 도면이다.
도 12는 실시 예에 따른 이미지 생성부에서 생성된 초해상도 이미지 프레임을 나타낸 도면이다.
도 13은 실시 예에 따른 후처리 필터부에서 필터링된 이미지 프레임을 나타낸 도면이다. 1 is a block diagram showing the configuration of a camera device according to an embodiment.
Figure 2 is an example of a configuration of the camera unit of Figure 1.
FIG. 3 is a block diagram showing the detailed configuration of the image processing unit of FIG. 1.
Figure 4 is a diagram showing the structure of a camera device according to an embodiment.
Figure 5 is a flowchart for step-by-step explaining a method of operating a camera device according to an embodiment.
Figure 6 is a diagram showing an image provided for extracting internal parameters.
7 and 8 show changes in delta values from images acquired from subjects located at different distances.
Figure 9 is a diagram showing an operation method for generating a super-resolution image in a general camera device.
Figure 10 is a diagram showing an image frame generated through a sensor unit according to an embodiment.
Figure 11 is a diagram showing an image frame filtered in a pre-processing filter unit according to an embodiment.
Figure 12 is a diagram showing a super-resolution image frame generated by an image generator according to an embodiment.
Figure 13 is a diagram showing an image frame filtered in a post-processing filter unit according to an embodiment.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.
또한, 본 발명의 실시 예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다. 또한, 본 발명의 실시예에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless specifically defined and described, are generally understood by those skilled in the art to which the present invention pertains. It can be interpreted as meaning, and the meaning of commonly used terms, such as terms defined in a dictionary, can be interpreted by considering the contextual meaning of the related technology. Additionally, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함 할 수 있다. 또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.In this specification, the singular may also include the plural unless specifically stated in the phrase, and when described as "at least one (or more than one) of A and B and C", it is combined with A, B, and C. It can contain one or more of all possible combinations. Additionally, when describing the components of an embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다. 그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속되는 경우 뿐만아니라, 그 구성 요소와 그 다른 구성요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속'되는 경우도 포함할 수 있다.These terms are only used to distinguish the component from other components, and are not limited to the essence, sequence, or order of the component. And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, combined or connected to that other component, but also is connected to that component. It may also include cases where other components are 'connected', 'coupled', or 'connected' by another component between them.
또한, 각 구성 요소의 " 상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when described as being formed or disposed "on top or bottom" of each component, top or bottom refers not only to cases where two components are in direct contact with each other, but also to one component. This also includes cases where another component described above is formed or placed between two components. In addition, when expressed as "top (above) or bottom (bottom)", it may include not only the upward direction but also the downward direction based on one component.
도 1은 실시 예에 따른 카메라 장치의 구성을 나타낸 블록도이고, 도 2는 도1의 카메라부의 일 구성 예이며, 도 3은 도1의 이미지 처리부의 상세 구성을 나타낸 블록도이다.FIG. 1 is a block diagram showing the configuration of a camera device according to an embodiment, FIG. 2 is a configuration example of the camera unit of FIG. 1, and FIG. 3 is a block diagram showing the detailed configuration of the image processing unit of FIG. 1.
도 1 및 도 2를 참조하면, 카메라 장치는 카메라부(110), 이미지 처리부(120), 저장부(120) 및 제어부(140)를 포함한다.Referring to FIGS. 1 and 2 , the camera device includes a
카메라부(110)는 어레이 렌즈(111) 및 어레이 센서(112)를 포함한다.The
그리고, 어레이 렌즈(111)는 어레이로 구성된 복수의 단위 렌즈부를 포함한다. 예를 들어, 어레이 렌즈(111)는 제1 내지 제N 단위 렌즈를 포함할 수 있다. And, the
또한, 어레이 센서(112)는 어레이로 구성된 복수의 단위 센서를 포함할 수 있다. 예를 들어, 어레이 센서(112)는 어레이 렌즈(111)에 대응하게 배치되는 제1 내지 제N 단위 센서부를 포함할 수 있다. Additionally, the
이때, 어레이 렌즈(111)를 구성하는 각각의 단위 렌즈부는, 어레이 센서(112)는 구성하는 각각의 단위 센서부와 광축상에서 정렬되어 배치될 수 있다. 예를 들어, 제1 단위 센서부는 제1 단위 렌즈부와 광축상에서 정렬되어 배치될 수 있다. 그리고, 제2 단위 센서부는 제2 단위 렌즈부와 광축상에서 정렬되어 배치될 수 있다. 이와 마찬가지로, 제N 단위 렌즈부는 제N 단위 센서부와 광축 상에서 정렬되어 배치될 수 있다. 즉, 상기 어레이 렌즈(111)는 광축과는 다른 방향으로 배열되는 복수의 단위 렌즈부를 포함한다. 그리고, 어레이 센서(112)는 상기 복수의 단위 렌즈부와 광축상에서 각각 정렬되는 복수의 단위 센서부를 포함할 수 있다.At this time, each unit lens unit constituting the
어레이 렌즈(111)는 외부로부터 입사되는 광을 통과시켜 어레이 센서부(112)에 광 신호를 전달할 수 있다. 바람직하게, 어레이 렌즈(111)를 구성하는 각각의 단위 렌즈부는, 광축 상에서 정렬된 각각의 단위 센서부로 상기 광 신호를 전달할 수 있다. The
한편, 상기 어레이 렌즈(111)는 제1 어레이 렌즈부 및 제2 어레이 렌즈부를 포함할 수 있다. 즉, 어레이 렌즈(111)는 복수의 층으로 구성된 렌즈 영역을 포함할 수 있다. 이에 따라, 상기 복수의 단위 렌즈부 각각은, 상기 제1 및 제2 어레이 렌즈부에 대응하여, 광축 상에서 정렬된 복수의 렌즈를 포함할 수 있다. 이때, 각각의 단위 렌즈부에 포함되는 복수의 렌즈들은 하나의 광학계를 형성하고, 각각의 단위 센서부의 광축을 중심으로 정렬되어 배치될 수 있다. Meanwhile, the
이때, 상기 각각의 단위 렌즈부는 피사체에서 발생하는 적외선 파장 대역을 검출하기 위한 적외선 대역의 렌즈들을 포함할 수 있다. At this time, each unit lens unit may include lenses in the infrared band for detecting the infrared wavelength band generated from the subject.
즉, 실시 예에 따른 카메라 장치는 열화상 카메라 장치이다. 이에 따라, 단위 렌즈부를 구성하는 렌즈들은 피사체에서 발생하는 적외선 복사를 감지하기 위해, 일반적인 카메라 모듈에서 사용되는 가시광 대역의 렌즈가 아닌 적외선 복사 에너지 파장 대역을 통과하면서 가시광 대역은 통과되지 않는 게르마늄(Ge) 또는 실리콘(Si)으로 구성된 렌즈를 사용할 수 있다. 또한, 단위 렌즈부는 반사 코팅층이 형성될 수 있고, 이에 따라 적외선 복사 에너지의 반사를 방지하면서 상기 적외선 복사 에너지가 모두 통과되도록 할 수 있다.That is, the camera device according to the embodiment is a thermal imaging camera device. Accordingly, in order to detect infrared radiation generated from the subject, the lenses constituting the unit lens unit are made of germanium (Ge) that passes through the infrared radiation energy wavelength band but does not pass through the visible light band, rather than the visible light band lens used in general camera modules. ) or a lens made of silicon (Si) can be used. Additionally, a reflective coating layer may be formed on the unit lens unit, thereby preventing reflection of infrared radiant energy and allowing all infrared radiant energy to pass through.
즉, 단위 렌즈부는 피사체로부터 방출되는 적외선을 투과시키기 위해, 칼코게나이드 글라스(Chalcogenide glass) 소재의 PGM (Precision Glass Molding) 가공된 렌즈를 포함할 수 있다. That is, the unit lens unit may include a PGM (Precision Glass Molding) processed lens made of chalcogenide glass to transmit infrared rays emitted from the subject.
또한, 어레이 렌즈(111)는 전방에 렌즈를 보호하기 위한 적외선 투과 윈도우(도시하지 않음)를 더 포함할 수 있다. 적외선 투과 윈도우는 CaF2, BaF2 또는 폴리에틸렌(Polyethylene) 등의 재질로 제작될 수 있다.Additionally, the
어레이 센서(112)는 적외선 복사 에너지에 대하여 감응하는 소자를 포함할 수 있다. 즉, 어레이 센서(112)는 상기 소자를 이용하여 상기 적외선 복사 에너지에 대응하는 에너지를 검출할 수 있다. 바람직하게, 어레이 센서(112)는 단위 렌즈부를 통해 각각 입사되는 적외선 복사 에너지의 결과를 전기적 신호로 만들어주는 역할을 하는 복수의 단위 센서부를 포함할 수 있다.
바람직하게, 단위 센서부는 단위 렌즈부를 통해 투과된 적외선으로부터 피사체의 온도를 감지하여 대응하는 물리적 특성 변화(아날로그 신호)를 출력한다. 이와 같은 단위 센서부는 마이크로볼로미터 어레이(MBA: MicroBolometer Array)가 사용될 수 있다.Preferably, the unit sensor unit detects the temperature of the subject from infrared light transmitted through the unit lens unit and outputs a corresponding change in physical characteristics (analog signal). For this unit sensor unit, a microbolometer array (MBA: MicroBolometer Array) may be used.
이때, 상기 어레이 렌즈(111) 및 어레이 센서(112)는 각각 m*n 어레이일 수 있다. 예를 들어, 상기 어레이 센서(112) 및 어레이 센서(112)는 2*2 어레이를 구성할 수 있다. 이와 같은 경우, 단위 렌즈부도 2*2로 배치되어 시차를 가지는 4개의 광을 각각의 단위 센서부로 통과시킬 수 있다. 또한, 단위 센서부도 단위 렌즈부에 대응하여 2*2로 배치되고, 그에 따라 단위 렌즈부를 통과한 광에 기반하여 이미지를 생성할 수 있다. At this time, the
한편, 본 발명에서는 저해상도 이미지를 합성하여 하나의 초해상도 이미지를 생성하며, 이를 위해 상기 m과 n은 2 이상의 자연수로 구성되는 것이 바람직하다. 예를 들어, 상기 어레이 렌즈(111) 및 어레이 센서(112)가 2*2로 구성되는 경우, 상기 초해상도 이미지는 4장의 저해상도 이미지의 합성에 의해 형성될 수 있다. 또한, 더욱 높은 해상도를 가지는 이미지를 생성하기 위해, 상기 어레이 렌즈(111) 및 어레이 센서(112)의 어레이 수는 더 증가할 수 있다. Meanwhile, in the present invention, one super-resolution image is created by combining low-resolution images, and for this purpose, m and n are preferably composed of natural numbers of 2 or more. For example, when the
도 2에 도시된 바와 같이, 어레이 렌즈(111) 및 어레이 센서(112)는 4*4 어레이로 구성될 수 있다. 이에 따라, 어레이 렌즈(111)는 제1 내지 제16 단위 렌즈부(111a)를 포함할 수 있다. 또한, 이와 대응되게 어레이 센서(112)는 제1 내지 제16 단위 센서부(112b)를 포함할 수 있다.As shown in FIG. 2, the
이미지 처리부(120)는 어레이 센서(112)의 출력 신호를 수신하고, 이를 이미지 처리(예를 들어, 보간, 프레임 합성 등)를 수행하는 이미지 프로세서일 수 있다. 특히, 이미지 처리부(120)는 시차(관측 위치에 따른 피사체의 위치나 방향의 차이, parallax)를 가지는 복수의 프레임의 이미지 신호를 합성하여, 하나의 초해상도의 이미지 신호를 생성할 수 있다. 이때, 복수의 프레임의 이미지 신호는 각각의 단위 센서부의 출력신호일 수 있다. 그리고, 어레이 센서(112)가 2*2 어레이인 경우, 상기 복수의 이미지 프레임은 제1 내지 제4 이미지 프레임을 포함할 수 있다.The
카메라부((110)는 상기 어레이 렌즈(111) 및 어레이 센서(112)를 통해 각각의 단위 렌즈부 및 단위 센서부 사이의 간격(보다 명확하게는, 각각의 단위 렌즈부 및 단위 센서부 사이의 위치 좌표 정보)에 대응하는 시차를 가지는 복수의 이미지를 획득할 수 있다.The camera unit (110) detects the distance between each unit lens unit and the unit sensor unit (more specifically, the distance between each unit lens unit and the unit sensor unit) through the
저장부(130)는 제어부(140)의 처리 또는 제어를 위한 프로그램 등 카메라 장치의 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The
예를 들어, 저장부(130)는 카메라부를 구성하는 각 카메라 모듈의 위치 좌표 정보를 저장할 수 있다. 즉, 저장부(130)는 각 카메라 모듈의 초점 거리 및 주점 정보를 저장할 수 있다. For example, the
또한, 저장부(130)는 거리에 따라 변화하는 피사체의 방사율에 대한 보정 정보를 저장할 수 있다. 저장부(130)는 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다.Additionally, the
제어부(140)는 카메라 장치의 전반적인 동작을 제어할 수 있다. The
우선적으로, 제어부(140)는 카메라부의 캘리브레이션 동작을 제어할 수 있다. 이때, 제어부(140)는 카메라 모듈별로 각각 캘리브레이션 동작이 진행되도록 할 수 있다. 즉, 카메라부는 복수의 단위 렌즈부 및 복수의 단위 센서부를 포함한다. 그리고, 복수의 단위 렌즈부 중 제1 단위 렌즈부는 복수의 단위 센서부 중 제1 단위 센서부와 광축 상에서 정렬될 수 있다. 이때, 상기 제1 렌즈부와 상기 제1 단위 센서부는 제1 이미지를 생성하는 제1 카메라 모듈일 수 있다. 그리고, 상기 어레이 수에 따라 상기 카메라 모듈은 N개로 구성될 수 있다. 예를 들어, 도 2와 같이 어레이가 구성된 경우, 상기 카메라부는 제1 내지 제16 카메라 모듈을 포함할 수 있다.First, the
제어부(140)는 상기 각각의 카메라 모듈별로 캘리브레이션을 진행하여, 각 카메라 모듈이 가지는 초점 거리 및 주점 정보를 추출한다. 그리고, 상기 추출된 각 카메라 모듈의 초점 거리 및 주점 정보는 저장부(120)에 저장될 수 있다.The
이를 토대로, 제어부(140)는 카메라 모듈의 캘리브레이션을 통한 각 카메라 모듈 간의 시차 정보를 획득할 수 있다. 상기 시차 정보는 카메라 모듈에서 각각 획득한 이미지에서의 피사체의 특징점을 이용하여 상기 피사체의 거리를 추출하는 과정에서, 보다 정확한 거리 추출이 가능하도록 할 수 있다.Based on this, the
또한, 상기 시차 정보는 상기 카메라 모듈에서 각각 획득한 이미지를 합성하여 하나의 초해상도 이미지를 생성할 때, 상기 초해상도 이미지 내에서 상기 카메라 모듈에서 획득한 각각의 이미지가 배치될 정확한 위치 지정이 가능하게 된다.In addition, the parallax information allows the precise location of each image acquired from the camera module within the super-resolution image when generating one super-resolution image by combining the images obtained from the camera module. I do it.
이때, 상기 카메라 모듈에서 각각 획득한 이미지를 단위 이미지라고 하고, 상기 복수의 단위 이미지를 합성하여 생성된 초해상도 이미지를 합성 이미지라고 한다.At this time, each image acquired from the camera module is called a unit image, and a super-resolution image created by combining the plurality of unit images is called a composite image.
또한, 제어부(140)는 상기 각각의 단위 이미지에서의 피사체의 특징점을 추출하고, 상기 특징점의 무게 중심을 추출한다. 그리고, 제어부(140)는 상기 각각의 단위 이미지에서 추출한 무게 중심의 위치 값을 비교하여, 상기 피사체와의 거리를 추출할 수 있다.Additionally, the
또한, 제어부(140)는 상기 추출한 거리 정보를 반영하여, 상기 이미지 처리부(120)에서 합성 이미지가 생성되도록 할 수 있다. 즉, 피사체는 거리에 따라 방사율이 변화하게 된다. 이때, 상기 거리를 반영하여 상기 방사율을 보정하지 않는 경우, 상기 피사체의 정확한 온도 정보를 검출할 수 없다. 따라서, 실시 예에서는상기 카메라부를 통해 상기 피사체와의 거리정보까지 추출하고, 이를 토대로 상기 피사체의 방사율을 보정하며, 상기 보정된 방사율이 반영된 합성 이미지가 생성되도록 한다.Additionally, the
도 3을 참조하면, 이미지 처리부(120)는 전처리 필터부(121), 이미지 생성부(122) 및 후처리 필터부(123)를 포함할 수 있다.Referring to FIG. 3, the
전처리 필터부(121)는 단위 센서부를 통해 각각 획득되는 이미지 프레임을 수신할 수 있다. 즉, 전처리 필터부(121)는 제1 단위 센서부로부터 제1 이미지 프레임(F1)을 수신할 수 있다. 또한, 전처리 필터부(121)는 제2 단위 센서부로부터 제2 이미지 프레임(F2)을 수신할 수 있다. 또한, 전처리 필터부(121)는 제3 단위 센서부로부터 제3 이미지 프레임(F3)을 수신할 수 있다. 또한, 전처리 필터부(121)는 제4 단위 센서부로부터 제4 이미지 프레임(F4)을 수신할 수 있다. The
이때, 상기 제1 이미지 프레임(F1)은 제1 위치에 존재하는 제1 단위 센서부를 통해 획득된 이미지일 수 있다. At this time, the first image frame F1 may be an image acquired through the first unit sensor unit present at the first location.
또한, 상기 제2 이미지 프레임(F2)은 상기 제1 단위 센서부로부터 X축 방향으로 제1 픽셀 거리만큼 떨어진 제2 단위 센서부에서 획득된 이미지일 수 있다. Additionally, the second image frame F2 may be an image acquired from a second unit sensor unit spaced apart from the first unit sensor unit by a first pixel distance in the X-axis direction.
또한, 제3 이미지 프레임(F3)은 상기 제2 단위 센서부로부터 Y축 방향으로 제1 픽셀 거리만큼 떨어진 제3 단위 센서부에서 획득된 이미지일 수 있다.Additionally, the third image frame F3 may be an image acquired from a third unit sensor unit spaced apart from the second unit sensor unit by a first pixel distance in the Y-axis direction.
도한, 제4 이미지 프레임(F3)은 상기 제3 단위 센서부로부터 X축 방향으로 제1 픽셀 거리만큼 떨어진 제4 단위 센서부에서 획득된 이미지일 수 있다.Additionally, the fourth image frame F3 may be an image acquired by a fourth unit sensor unit that is separated from the third unit sensor unit by a first pixel distance in the X-axis direction.
그리고, 전처리 필터부(121)는 상기 단위 센서부를 통해 획득된 제1 내지 제4 이미지 프레임에 대해 가우시안 필터링을 진행할 수 있다. 여기에서, 가우시안 필터링(Gaussian Filtering)이란, 원본 영상을 흐리게 해주는 필터링 기법을 말하는 것으로서, 포토샵 같은 영상 애플리케이션 툴 등에서 사용되는 영상 흐림 기법(Blur Filtering)을 말한다. 가우시안 필터링을 거치게 되면, 영상의 주파수 중에서 저주파와 고주파를 통과되지 않게 되어 영상이 뿌옇게 보이게 된다. 즉, 전처리 필터부(121)는 상기 단위 센서부를 통해 각각 획득된 제1 내지 제4 이미지 프레임의 고주파 영역을 무너뜨려 블러링 효과를 적용함으로써, 상기 제1 내지 제4 이미지 프레임에 포함된 노이즈를 제거하도록 한다.Additionally, the
이때, 실시 예에서와 같은, 열화상 카메라를 통해 획득된 이미지 프레임에 대해 가우시안 필터링을 적용하는 경우, 이의 제어 팩터 설정이 중요한 요소로 작용하게 된다. 여기에서, 제어 팩터는 가우시안 필터에서 가우시안 블러를 이루는 가우시안 분포의 넓이 변수를 의미하는 σ(시그마) 값을 포함할 수 있다. 이때, 상기 시그마 값에 기반하여 이미지 처리부(120)에서 최종 출력되는 이미지의 화질이 크게 변화할 수 있다. At this time, when Gaussian filtering is applied to an image frame acquired through a thermal imaging camera, as in the embodiment, the control factor setting becomes an important factor. Here, the control factor may include a σ (sigma) value, which means the area variable of the Gaussian distribution that forms Gaussian blur in the Gaussian filter. At this time, the image quality of the image finally output from the
이에 따라, 실시 예에서는 상기 전처리 필터부(121)를 구성하는 가우시안 필터의 제어 팩터를 구성하는 시그마 값을 다음의 식1과 같이 설정하도록 한다.Accordingly, in the embodiment, the sigma value constituting the control factor of the Gaussian filter constituting the
0.1 < σ < 1 ----- 식10.1 < σ < 1 -----
이때, 상기 시그마 값에 따라 상기 제1 내지 제4 이미지 프레임의 블러링 정도가 변화한다. 여기에서, 상기 시그마 값이 1보다 크게 되면, 상기 블러링의 정도가 심하게 되어, 이에 따른 열화상 이미지에 해당하는 제1 내지 제4 이미지 프레임 내에서의 경계가 무너지게 된다. 또한, 상기 시그마 값이 0.1보다 작으면 상기 제1 내지 제4 이미지 프레임에서의 블러링 정도가 너무 작아짐에 따라 노이즈가 정상적으로 제거되지 않을 수 있다. 따라서, 열화상 이미지에 대응하는 제1 내지 제4 이미지 프레임의 전처리를 위한 가우시안 필터링에서는, 제어 팩터에 해당하는 시그마 값을 0.1보다는 크고, 1보다는 작게 설정하도록 한다.At this time, the degree of blurring of the first to fourth image frames changes depending on the sigma value. Here, when the sigma value is greater than 1, the degree of blurring becomes severe, and the boundaries within the first to fourth image frames corresponding to the thermal image accordingly collapse. Additionally, if the sigma value is less than 0.1, the degree of blurring in the first to fourth image frames becomes too small and noise may not be removed properly. Therefore, in Gaussian filtering for preprocessing of the first to fourth image frames corresponding to the thermal image, the sigma value corresponding to the control factor is set to be greater than 0.1 and less than 1.
이미지 생성부(122)는 상기 전처리 필터부(121)를 통해 가우시안 필터링된 제1 내지 제4 이미지 프레임을 합성하여 합성 프레임을 생성한다. The image generator 122 generates a composite frame by synthesizing the first to fourth image frames that have been Gaussian filtered through the
이미지 생성부(122)는 상기 가우시안 필터링된 제1 내지 제4 프레임을 합성함으로써 NxM의 픽셀 어레이가 아닌 2Nx2M의 픽셀 어레이가 획득한 이미지를 생성할 수 있다. 이미지 생성부(122)가 제1 내지 제4 프레임을 합성하는 방법은, 제1 내지 제4 프레임을 각 픽셀의 위치에 따라 단순 병합(예를 들어, 첫 번째 행의 경우 A1의 픽셀 신호, B1의 픽셀 신호, A2의 픽셀 신호, B2의 픽셀 신호로 배열하여 하나의 프레임으로 생성)하는 방법, 또는 인접하는 픽셀의 경우 픽셀 장면이 오버랩됨을 이용하여 어느 하나의 픽셀(예컨대, C1)의 픽셀 신호를 인접하는 픽셀(예컨대, A1, B1, A2, D1, D2, A3, B3, A4)의 픽셀 신호를 이용해 보정하는 방법 등이 이용될 수 있으나, 실시 예의 범위는 이에 한정되지 않고 다양한 초해상도 이미지 생성 방법이 이용될 수 있다. The image generator 122 may generate an image obtained by a 2Nx2M pixel array rather than an NxM pixel array by combining the Gaussian filtered first to fourth frames. The method for the image generator 122 to synthesize the first to fourth frames is to simply merge the first to fourth frames according to the position of each pixel (for example, in the case of the first row, the pixel signal of A1 and B1 a method of generating one frame by arranging the pixel signal of A2, the pixel signal of B2, or in the case of adjacent pixels, the pixel signal of one pixel (e.g., C1) by using the pixel scene overlap. A method of correcting using pixel signals of adjacent pixels (e.g., A1, B1, A2, D1, D2, A3, B3, A4) may be used, but the scope of the embodiment is not limited to this and various super-resolution images A creation method may be used.
이때, 이미지 생성부(122)는 제어부(140)의 제어신호에 따라 상기 저장부(130)에 저장된 위치 좌표 정보에 기반하여, 상기 합성 이미지 내에서 상기 제1 내지 제4 프레임이 배열될 위치를 정확히 지정할 수 있다.At this time, the image generator 122 determines the position where the first to fourth frames will be arranged in the composite image based on the position coordinate information stored in the
후처리 필터부(123)는 이미지 생성부(122)를 통해 생성된 초해상도 이미지 프레임에 대해 후처리를 진행한다. The post-processing filter unit 123 performs post-processing on the super-resolution image frame generated through the image generation unit 122.
바람직하게, 후처리 필터부(123)는 상기 이미지 생성부(122)를 통해 생성된 초해상도 이미지 프레임에 대해 라플라시안 필터링을 진행한다.Preferably, the post-processing filter unit 123 performs Laplacian filtering on the super-resolution image frame generated through the image generation unit 122.
즉, 이미지 생성부(122)를 통해 초해상도 이미지 프레임이 생성되면, 후처리 필터부(123)를 라플라시안 필터링을 진행하여, 상기 초해상도 이미지 프레임에 대해 에지를 선명화하는 이미지 후처리를 진행할 수 있다. That is, when a super-resolution image frame is generated through the image generator 122, Laplacian filtering is performed in the post-processing filter unit 123, and image post-processing to sharpen the edges of the super-resolution image frame can be performed. there is.
바람직하게, 상기 후처리 필터부(123)는 라플라시안 필터를 포함할 수 있다. 이때, 라플라시안 필터는 일정 마스크 사이즈 내에서 필터링을 진행할 수 있다. 여기에서, 라플라시안 필터의 마스크 사이즈는 3*3 또는 5*5일 수 있다.Preferably, the post-processing filter unit 123 may include a Laplacian filter. At this time, the Laplacian filter can perform filtering within a certain mask size. Here, the mask size of the Laplacian filter may be 3*3 or 5*5.
한편, 실시 예에서는 상기 획득된 제1 내지 제4 프레임에 대해, 점확산 함수(PSF, Point Spread Function)을 적용하여 이미지 처리를 진행할 수 있다. Meanwhile, in the embodiment, image processing may be performed by applying a point spread function (PSF) to the obtained first to fourth frames.
즉, 일반적으로, 카메라 모듈은 적어도 하나의 렌즈로 이루어진 광학계를 구비한다. 카메라 모듈에 의해 얻어진 이미지는 실제 이미지와는 차이가 있게 되는데, 이는 카메라 모듈의 해상력이 수차(Aberration, 收差)에 의한 영향을 받기 때문이다. 수차(Aberration, 收差)란 빛이 광학계를 통과한 다음, 한 점에 모이지 않아 이미지가 흐려 보이거나 빛깔이 있어 보이거나 일그러지는 현상이 나타나는 것을 말한다. 수차에는 일정한 파장의 단색광을 사용했을 때 나타나는 단색 수차와 광학계의 굴절률이 빛의 파장에 따라 다르기 때문에 나타나는 색수차가 있다.That is, generally, a camera module has an optical system consisting of at least one lens. The image obtained by the camera module may differ from the actual image because the resolution of the camera module is affected by aberration. Aberration refers to a phenomenon in which light does not converge at one point after passing through an optical system, causing the image to appear blurred, discolored, or distorted. Aberrations include monochromatic aberration, which appears when monochromatic light of a certain wavelength is used, and chromatic aberration, which appears because the refractive index of the optical system varies depending on the wavelength of light.
여기서, 단색 수차는 구면 수차, 코마 수차, 비점 수차, 만곡 수차 및 왜곡 수차뿐만 아니라, 틸트(Tilt) 수차, 초점 흐림(Defocus) 수차를 더 포함하는 의미로 이해될 수 있다. 본 명세서에서 수차는 단색 수차 및 색 수차 중 적어도 하나를 포함하는 의미로 이해될 수 있다. 한편, 일반적으로 휴대용 전자기기에 사용되는 카메라 모듈의 경우 슬림화의 요구로 인하여 수차가 증가하는 경향이 있으며, 이러한 수차의 증가로 인하여 블러(Blur) 현상이 발생함에 따라 카메라 모듈의 해상력이 감소되는 문제점이 발생할 수 있다.Here, monochromatic aberration may be understood to include not only spherical aberration, coma aberration, astigmatism, curvature aberration, and distortion aberration, but also tilt aberration and defocus aberration. In this specification, aberration may be understood to include at least one of monochromatic aberration and chromatic aberration. Meanwhile, in the case of camera modules generally used in portable electronic devices, aberrations tend to increase due to the demand for slimness, and the resolution of the camera module decreases as a blur phenomenon occurs due to this increase in aberrations. This can happen.
블러(Blur)는 수차로 인하여 원 이미지의 한 픽셀의 밝기가 주변 픽셀의 밝기를 왜곡시키는 현상으로, 블러(Blur)는 블러의 정도를 나타내는 PSF(Point Spread Function, 점확산 함수)로 표현될 수 있다. PSF가 상대적으로 좁은 분포를 가지면 해상력이 높게 표현되고, 반대로 PSF가 상대적으로 넓은 분포를 가지면 해상력은 낮게 표현될 수 있다. 카메라 모듈로 피사체를 촬영시, 획득되는 블러 이미지(Blur_Image)는 원본 이미지(Clear_Image)와 PSF(Point Spread Function)의 컨벌루션에 의해 하기의 식2와 같이 모델링 될 수 있다.Blur is a phenomenon in which the brightness of one pixel in the original image distorts the brightness of surrounding pixels due to aberration. Blur can be expressed as a PSF (Point Spread Function) that indicates the degree of blur. there is. If the PSF has a relatively narrow distribution, the resolution may be expressed as high, and conversely, if the PSF has a relatively wide distribution, the resolution may be expressed as low. When photographing a subject with a camera module, the obtained blur image (Blur_Image) can be modeled as shown in
Blur_Image = PSF * Clear_Image (*: Convolution) ---- 식2Blur_Image = PSF * Clear_Image (*: Convolution) ----
이 때, PSF가 산출되는 경우, 디컨벌루션(Deconvolution)을 통해 블러 이미지으로부터 원본 이미지를 복원할 수 있다. 또한, 블러 이미지에서 PSF를 정확하게 산출할 수 있도록 정밀한 PSF를 추정하고, 추정된 PSF를 저장부(130)에 저장할 수 있다.At this time, when the PSF is calculated, the original image can be restored from the blurred image through deconvolution. In addition, a precise PSF can be estimated so that the PSF can be accurately calculated from the blur image, and the estimated PSF can be stored in the
도 4는 실시 예에 따른 카메라 장치의 구조를 나타낸 도면이다.Figure 4 is a diagram showing the structure of a camera device according to an embodiment.
도 4를 참조하면, 카메라 모듈(200)은 홀더(210), 렌즈 배럴(220), 렌즈부(230), 필터부(240), 기판(250), 센서부(260) 및 데이터 처리 소자(270)를 포함할 수 있으며, 이들 중 적어도 어느 하나의 구성은 생략되거나 서로 상하 배치 관계가 변경될 수도 있다. Referring to FIG. 4, the
홀더(210)는 렌즈 배럴(220)과 결합되어 렌즈 배럴(220)을 지지하고, 센서부(260)가 부착된 기판(250)에 결합될 수 있다. 또한, 홀더(210)는 렌즈 배럴(220) 하부에 유동 플레이트부(240)가 부착될 수 있는 공간을 구비할 수 있다. 홀더(210)는 나선형 구조를 포함할 수 있다. 또한, 렌즈 배럴(220)도 상기 홀더(210)에 대응되는 나선형 구조를 포함할 수 있으며, 이에 따라 렌즈 배럴(220)과 홀더(210)는 상호 회전 결합할 수 있다. 그러나, 이는 예시적인 것이며, 홀더(210)와 렌즈 배럴(220)은 접착제(예를 들어, 에폭시 등의 접착용 수지)를 통해 결합되거나, 홀더(210)와 렌즈 배럴(220)이 일체형으로 형성될 수도 있다.The
이때, 렌즈부(230)는 도1에 도시된 어레이 형태의 복수의 단위 렌즈부를 포한하는 어레이 렌즈(111)일 수 있다. At this time, the lens unit 230 may be an
렌즈 배럴(220)은 홀더(210)와 결합되며, 내부에 렌즈부(230)를 수용할 수 있는 공간을 구비할 수 있다. 렌즈 배럴(220)은 렌즈부(230)와 회전 결합될 수 있으나, 이는 예시적인 것이며 접착제를 이용한 방식 등의 다른 방식으로도 결합될 수 있을 것이다.The lens barrel 220 is coupled to the
렌즈부(230)는 피사체로부터 방사되는 적외선을 통과시키는 적외선 렌즈일 수 있다. 즉, 렌즈부(230)는 피사체로부터 방출되는 적외선을 투과시키기 위해, 칼코게나이드 글라스(Chalcogenide glass) 소재의 PGM (Precision Glass Molding) 가공된 렌즈를 포함할 수 있다. The lens unit 230 may be an infrared lens that passes infrared rays emitted from a subject. That is, the lens unit 230 may include a lens processed by Precision Glass Molding (PGM) made of chalcogenide glass to transmit infrared rays emitted from the subject.
또한, 렌즈부(230)는 전방에 렌즈를 보호하기 위한 적외선 투과 윈도우(도시하지 않음)를 더 포함할 수 있다. 적외선 투과 윈도우는 CaF2, BaF2 또는 폴리에틸렌(Polyethylene) 등의 재질로 제작될 수 있다.Additionally, the lens unit 230 may further include an infrared transmission window (not shown) on the front side to protect the lens. Infrared transmission windows can be made of materials such as CaF2, BaF2, or polyethylene.
센서부(260)는 기판(250) 상에 장착될 수 있고, 렌즈부(230) 및 유동 플레이트부(240)를 통과한 적외선 신호(적외선 복사 에너지)를 이미지 신호로 변환하는 기능을 수행할 수 있다. 즉, 센서부(260)는 적외선 복사 에너지에 대하여 감응하는 소자를 포함할 수 있다. 즉, 센서부(260)는 상기 소자를 이용하여 상기 적외선 복사 에너지에 대응하는 에너지를 검출할 수 있다. 바람직하게, 센서부(260)는 렌즈부(230)를 통해 입사된 적외선 복사 에너지의 결과를 전기적 신호로 만들어주는 역할을 할 수 있다. 여기에서, 센서부(260)는 도1에 도시된 어레이 형태의 복수의 단위 센서부를 포한하는 어레이 센서(112)일 수 있다. The
바람직하게, 센서부(260)는 렌즈부(230)를 통해 투과된 적외선으로부터 피사체의 온도를 감지하여 대응하는 물리적 특성 변화(아날로그 신호)를 출력한다. 이와 같은 센서부(230)는 마이크로볼로미터 어레이(MBA: MicroBolometer Array)가 사용될 수 있다.Preferably, the
기판(250)은 홀더(210)의 하부에 배치될 수 있고, 이미지 합성부(120) 및 제어부(150)와 함께 각 구성간의 전기 신호의 전달을 위한 배선을 포함할 수 있다. 또한, 기판(250)에는 카메라 모듈(100)의 외부의 전원 또는 기타 다른 장치(예를 들어, 애플리케이션 프로세서)와 전기적으로 연결하기 위한 커넥터(미도시)가 연결될 수 있다. The
기판(250)은 RFPCB(Rigid Flexible Printed Circuit Board)로 구성되고 카메라 모듈(200)이 장착되는 공간이 요구하는 바에 따라 벤딩(bending)될 수 있으나, 실시 예는 이에 한정되지 않는다.The
센서부(260)와 렌즈부(230) 사이에는 필터(240)가 배치될 수 있다. 필터(240)는 상기 렌즈부(230)를 통과한 적외선 신호를 상기 센서부(260)로 제공할 수 있다.A
도 5는 실시 예에 따른 카메라 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이고, 도 6은 내부 파라미터 추출을 위해 제공되는 이미지를 나타낸 도면이며, 도 7 및 8은 서로 다른 거리에 위치한 피사체로부터 획득된 영상으로부터의 델타 값 변화를 나타낸다.Figure 5 is a flowchart for step-by-step explaining the operation method of the camera device according to the embodiment, Figure 6 is a diagram showing images provided for extracting internal parameters, and Figures 7 and 8 are obtained from subjects located at different distances. Indicates the change in delta value from the image.
도 5를 참조하면, 제어부(140)는 내부 파라미터를 추출한다(S110). 이때, 상기 내부 파라미터는 위치 좌표 정보일 수 있다.Referring to FIG. 5, the
실시 예에서는 각각의 카메라 모듈별로 캘리브레이션을 진행하고, 상기 캘리브레이션의 진행 결과에 기반하여 각각의 카메라 모듈의 초점 거리 및 주점 정보와 같은 내부 파라미터를 산출한다. In an embodiment, calibration is performed for each camera module, and internal parameters such as focal length and main point information of each camera module are calculated based on the calibration results.
그리고, 제어부(140)는 상기 각 카메라 모듈에 대한 내부 파라미터가 산출되면, 상기 각각의 카메라 모듈의 내부 파라미터를 이용하여 각 카메라 모듈 사이의 시차를 획득할 수 있다. Then, when the internal parameters for each camera module are calculated, the
이때, 내부 파라미터 추출 단계는, 각각의 카메라 모듈 사이의 기하하적 관계를 계산하는 단계라고도 할 수 있다. At this time, the internal parameter extraction step can also be said to be a step of calculating the geometric relationship between each camera module.
이를 위해, 도 6에 도시된 바와 같이, 실시 예에서는 각각의 카메라 모듈에 대해서, 다양한 시점에서 촬영한 체스판 영상을 획득하고, 이를 이용하여, 각각의 카메라 모듈에 대한 호로그래피를 구할 수 있다. To this end, as shown in FIG. 6, in the embodiment, chessboard images taken from various viewpoints are acquired for each camera module, and using these, horography for each camera module can be obtained.
이때, 실시 예에서는 소실점 좌표를 이용하여 내부 파라미터를 산출할 수 있다.At this time, in the embodiment, the internal parameters can be calculated using the vanishing point coordinates.
여기에서, 카메라 캘리브레이션은 크게 카메라 자체의 기구적 특성을 파악하는 내부 파라미터 캘리브레이션 과정과 카메라 의 설치 위치 및 자세정보(방향각) 등의 기구 외적인 특성을 파악하는 외부 파라미터 캘리브레이션 과정으로 구분된다. 카메라의 내부 파라미터에는 초점거리(focal length), 카메라 주점(principal point), 렌즈 왜곡계수 등이 있으며 카메라의 외부 파라미터에는 기준 좌표계(월드 좌표계)를 기준으로 한 카메라의 3차원 위치정보(x, y, z 등 카메라의 설치위치)와 자세정보(pan, tilt, roll 등의 방향각)가 있다.Here, camera calibration is largely divided into an internal parameter calibration process that identifies the mechanical characteristics of the camera itself, and an external parameter calibration process that identifies external characteristics of the mechanism, such as the camera's installation location and attitude information (orientation angle). The camera's internal parameters include focal length, camera principal point, and lens distortion coefficient, and the camera's external parameters include the camera's three-dimensional position information (x, y) based on the reference coordinate system (world coordinate system). , z, etc., camera installation location) and attitude information (direction angles such as pan, tilt, roll, etc.).
여기에서, 실시 예에 따른 내부 파라미터에는 크게 각 카메라 모듈의 초점거리 f와 주점 정보에 대한 영상좌표 (cx, cy)를 포함할 수 있다.Here, the internal parameters according to the embodiment may largely include the focal length f of each camera module and image coordinates (cx, cy) for main point information.
초점거리는 각 단위 렌즈부의 중심에서 각 단위 센서부까지의 거리를 픽셀단위로 표현한 것이며, 주점 정보는 각 단위 렌즈부의 광학축(optical axis)과 각 단위 센서부와의 교점에 대한 픽셀좌표를 의미할 수 있다.The focal length is expressed in pixels as the distance from the center of each unit lens unit to each unit sensor unit, and the principal point information refers to the pixel coordinates of the intersection between the optical axis of each unit lens unit and each unit sensor unit. You can.
이와 같은 내부 파라미터를 추정하기 위한 사전 단계로서 물리좌표를 영상좌As a preliminary step to estimate such internal parameters, physical coordinates are converted into image coordinates.
표로 변환하기 위한 호모그래피 행렬을 계산할 수 있다. 이 때, 호모그래피란, 한 평면을 다른 평면에 투영(projection)시켰을 때 원래 평면의 점과 투영된 대응점들 사이에 성립하는 변환관계를 지칭할 수 있다. 호모그래피는 3 x 3 행렬로 표현될 수 있으며, 대응점들의 동차좌표(homogeneous coordinate) 표현에 대해 성립하는 변환관계일 수 있다.You can calculate the homography matrix for conversion to a table. At this time, homography may refer to the transformation relationship established between the points on the original plane and the projected corresponding points when one plane is projected onto another plane. Homography can be expressed as a 3 x 3 matrix, and can be a transformation relationship established for the homogeneous coordinate expression of corresponding points.
한편, 실시 예에서는 소실점 좌표를 이용하여 내부 파라미터의 값을 산출할 수 있다.Meanwhile, in the embodiment, the value of the internal parameter can be calculated using the vanishing point coordinates.
또한, 카메라 좌표계에서 픽셀 이미지 좌표계로 변환하는 행력식은 다음의 식 3과 같이 정의되며, 내부 파라미터 모델을 형성할 수 있다. In addition, the linear equation for converting from the camera coordinate system to the pixel image coordinate system is defined as
------식 3 ------
여기서, f는 카메라의 초점거리, dx, dy는 각각의 단위 센서부가 가지는 폭과 높이, cx, cy는 이미지 좌표계에서 주점의 영상 좌표를 의미한다.Here, f is the focal length of the camera, dx, dy are the width and height of each unit sensor unit, and cx, cy are the image coordinates of the main point in the image coordinate system.
이때, 상기 카메라 장치의 캘리브레이션을 진행하는 과정은 이미 공지된 기술이므로 이에 대한 상세한 설명은 생략한다.At this time, since the process of calibrating the camera device is already a known technology, detailed description thereof will be omitted.
한편, 실시 예에서는 상기와 같이 각 카메라 모듈에 대한 내부 파라미터 값이 산출되면, 이를 이용하여 각 카메라 모듈 사이의 시차를 구할 수 있다.Meanwhile, in the embodiment, if the internal parameter values for each camera module are calculated as above, the time difference between each camera module can be obtained using this.
예를 들어, 어레이가 3*3으로 구성된 경우, 실시 예에서는 9개의 카메라 모듈 중 하나의 카메라 모듈을 기준 카메라 모듈로 결정할 수 있다. 그리고, 제어부(140)는 9개의 카메라 모듈에 대해 각각 초점 거리 및 주점 정보를 포함한 내부 파라미터를 추출할 수 있다. 그리고, 제어부(140)는 상기 9개의 카메라 모듈 중 기준 카메라 모듈로부터 나머지 다른 카메라 모듈 사이의 내부 파리미터 값의 차이에 기반하여, 상기 기준 카메라 모듈을 기준으로 나머지 다른 카메라 모듈의 상대 위치를 파악할 수 있다.For example, if the array is configured as 3*3, in the embodiment, one camera module among nine camera modules may be determined as the reference camera module. Additionally, the
그리고, 상기 상대 위치는, 추후 피사체와의 거리를 산출하는 과정이나, 합성 이미지를 생성하는 과정에서 활용할 수 있다.In addition, the relative position can be used later in the process of calculating the distance to the subject or in the process of generating a composite image.
상기와 같이, 내부 파라미터가 추출되면, 상기 제어부(140)는 상기 각각의 카메라 모듈에서 획득된 이미지 내에서 특징점을 추출하고, 상기 추출한 특징점에 대한 무게 중심을 추출할 수 있다(S120).As described above, when the internal parameters are extracted, the
이를 위해 제어부(140)는 각각의 카메라 모듈로부터 이미지가 획득되면, 상기 이미지 내에서의 특징점들을 검출할 수 있다. To this end, when an image is acquired from each camera module, the
이때, 상기 특징점은 영상의 코너 검출을 통해 이루어질 수 있으며, 이와 같은 경우, 몇개 지점의 픽셀 정보만으로 효율적인 영상 처리 수행이 가능하다.At this time, the feature point can be created through corner detection of the image, and in this case, efficient image processing can be performed with only pixel information of a few points.
또한, 상기 특징점은 헤리스 코너 검출기를 통해 이루어질 수 있다. 헤리스 코너 검출기는 1988년 헤리스에 의해 개발되었으며, 간단한 구조와 빠른 속도로 많이 사용되는 방법 중 하나이다. Additionally, the feature point may be obtained through a Harris corner detector. The Harris corner detector was developed by Harris in 1988 and is one of the most widely used methods due to its simple structure and high speed.
구체적으로, 상기 특징점은 코너 응답 함수에 기반하여 검출될 수 있으며, 이는 각 픽셀이 얼마나 꼭지점(코너)의 특징을 가지고 있는지 나타내는 함수이며, 미분값 행렬의 고유 백터의 수직 정도에 의해 판단할 수 있다. Specifically, the feature point can be detected based on the corner response function, which is a function that indicates how many vertex (corner) features each pixel has, and can be determined by the vertical degree of the unique vector of the differential value matrix. .
즉, 실시 예에서는 카메라 모듈에 의해 각각 획득된 이미지 내에서, 해리스 코너 검출기(Harris corner detector) 등과 같은 코너 검출 방법(corner detection), SIFT(Scale Invariant Feature Transform), SURF(Speed-up Robust Feature) 등과 같은 기존의 알고리즘을 이용하여 특징점을 찾게 된다.That is, in the embodiment, within the images each acquired by the camera module, a corner detection method such as Harris corner detector, Scale Invariant Feature Transform (SIFT), and Speed-up Robust Feature (SURF) are used. Feature points are found using existing algorithms such as.
그리고, 상기 특징점이 검출되면, 상기 특징점들의 무게 중심을 검출한다.Then, when the feature points are detected, the center of gravity of the feature points is detected.
이를 위해, 제어부(140)는 복수개의 특징점들을 복수개의 클러스터(cluster)들로 분류할 수 있다. 즉, 제어부(140)는 복수 개의 특징점들을 메이저 클러스터(major cluster) 및 마이너 클러스터(minor cluster)로 분류할 수 있다. 메이저 클러스터(major cluster)는 50%보다 많은 특징점들을 포함하고, 마이너 클러스터(minor cluster)는 50%보다 적은 특징점들을 포함한다. 이와 같이, 메이저 클러스터는 마이너 클러스터보다 많은 특징점들을 포함하기 때문에 마이너 클러스터보다 넓게 설정될 수 있다. 특징점들을 복수 개의 클러스터들로 분류하기 위하여 케이민 클러스터링(k-mean clustering) 방식과 SVM(Support Vector Machine) 방식을 이용할 수 있다.To this end, the
이후, 제어부(140)는 상기 특징점들의 무게중심을 검출한다. 이를 위해 제어부(140)는 상기 분류된 메이저 클러스터의 무게중심과 마이너 클러스터의 무게중심을 검출한다. 그리고, 제어부(140)는 메이저 클러스터의 무게중심과 마이너 클러스터의 무게중심의 평균값을 산출하여 각 카메라 모듈에서 획득한 이미지에 대한 무게중심을 검출한다. Afterwards, the
이와 같이 상기 무게 중심이 검출되면, 상기 제어부(140)는 각각의 카메라 모듈에서 촬영된 이미지의 무게 중심 사이의 위치 값을 기준으로 피사체와의 거리를 검출한다(S130).When the center of gravity is detected in this way, the
이때, 제어부(140)는 각 카메라 모듈에서 촬영된 이미지의 무게 중심 사이의 거리 차이를 가지고 상기 피사체와의 거리를 검출할 수 있다. 즉, 실시 예에서는 카메라 장치가 어레이 카메라로 구성되며, 이는 복수의 렌즈 및 복수의 센서가 패키지 형태로 정렬되어 있다. At this time, the
이를 토대로, 실시 예에서는 각각의 카메라 모듈은 일정 거리(h)만큼 이격된 피사체에 대한 이미지를 각각 획득할 수 있다. Based on this, in the embodiment, each camera module can acquire images of subjects spaced apart by a certain distance (h).
이때, 상기 획득된 이미지는, 상기 피사체와의 거리에 따라 서로 다른 영상이 촬영된다. 또한, 이는 각각의 단위 렌즈부 및 단위 센서부에서 촬영된 영상에 대해 무게 중심점을 중심으로 정렬시키고, 이에 따라 좌측 및 우측에 대한 영상의 시작 지점과, 종료 지점에 대한 거리를 나타내는 델타(Δ)로 정의될 수 있다.At this time, different images are captured in the acquired image depending on the distance from the subject. In addition, this aligns the images captured by each unit lens unit and unit sensor unit around the center of gravity, and accordingly creates a delta (Δ) that represents the distance to the start and end points of the image on the left and right sides. It can be defined as:
도 7 및 8은 이에 대한 서로 다른 거리에 위치한 피사체로부터 획득된 영상으로부터의 델타 값 변화를 나타낸다.Figures 7 and 8 show changes in delta values from images acquired from subjects located at different distances from each other.
도 7은 제 1 위치에 위치한 피사체에 대응하는 델타 값을 정의하고 있고, 도 5는 제 2 위치에 위치한 피사체에 대응하는 델타 값을 정의하고 있다.FIG. 7 defines a delta value corresponding to a subject located at a first position, and FIG. 5 defines a delta value corresponding to a subject located at a second position.
도 7 및 8을 참조하면, 피사체와의 거리(h)가 증가할수록 상기 델타 값이 감사하는 것을 알 수 있다. 이에 따라, 상기 각각의 카메라 모듈을 통해 획득되는 복수의 이미지를 이용하여, 상기 피사체와의 거리 정보를 획득할 수 있다. 이때, 실시 예에서는 상기와 같이 카메라 모듈에 대해 개별적으로 캘리브레이션을 진행하고, 이를 토대로 각각의 단위모듈 사이의 상대 위치 정보를 획득하여 저장부에 저장해놓는다.Referring to Figures 7 and 8, it can be seen that the delta value increases as the distance (h) to the subject increases. Accordingly, distance information to the subject can be obtained using a plurality of images acquired through each camera module. At this time, in the embodiment, the camera modules are individually calibrated as described above, and based on this, relative position information between each unit module is obtained and stored in the storage unit.
그리고, 상기 거리 정보를 획득할 때, 상기 델타 값 뿐 아니라, 상기 상대 위치 정보도 반영하며, 이를 토대로 보다 정확한 거리 정보가 획득될 수 있도록 한다.And, when acquiring the distance information, not only the delta value but also the relative position information is reflected, so that more accurate distance information can be obtained based on this.
이후, 제어부(140)는 상기 이미지 처리부를 통해 상기 상대 위치 정보 및 거리 정보에 기반한 합성 이미지가 생성될 수 있도록 한다(S140). 이를 위해, 제어부(140)는 상기 각각의 카메라 모듈에서 획득된 이미지에 대해 이미지 처리가 진행되도록 한다.Thereafter, the
이하에서는 상기 합성 이미지의 생성 동작에 대해 구체적으로 설명하기로 한다.Hereinafter, the creation operation of the composite image will be described in detail.
도 9는 일반적인 카메라 장치에서의 초해상도 이미지를 생성하기 위한 동작 방법을 나타낸 도면이다.Figure 9 is a diagram showing an operation method for generating a super-resolution image in a general camera device.
종래에는 별도의 틸팅 모듈을 구비하고, 이를 이용하여 적외선 신호를 틸팅시킴으로써 서로 다른 시차를 가지는 복수의 이미지를 생성하였다. 이때, 상기 시차를 가지는 복수의 이미지는 동일 시점이 아닌 일정 시간차를 가지고 순차적으로 생성될 수 있다. In the past, a separate tilting module was provided and a plurality of images with different parallaxes were generated by tilting the infrared signal using this. At this time, the plurality of images having the time difference may be generated sequentially with a certain time difference rather than at the same time point.
이때, 센서부의 픽셀 어레이는 NxM의 매트릭스 형태로 배치된 복수의 픽셀들을 포함할 수 있다. 이하의 설명에서는 설명의 편의상 도 9에서와 같이 픽셀 어레이가 2*2의 매트릭스 형태로 배치된 복수의 픽셀들(A1 내지 A4)을 포함한다고 가정하기로 한다.At this time, the pixel array of the sensor unit may include a plurality of pixels arranged in an NxM matrix. In the following description, for convenience of explanation, it will be assumed that the pixel array includes a plurality of pixels (A1 to A4) arranged in a 2*2 matrix as shown in FIG. 9.
각 픽셀(A1 내지 A4)은 렌즈부를 통해 전달되는 적외선 신호를 통해 각 픽셀 장면(PS1 내지 PS4)에 대한 이미지 정보(즉, 적외선 신호에 대응하는 아날로그 픽셀 신호)를 생성할 수 있다.Each pixel (A1 to A4) may generate image information (i.e., an analog pixel signal corresponding to the infrared signal) for each pixel scene (PS1 to PS4) through an infrared signal transmitted through the lens unit.
x축 방향(또는 y축 방향)으로 인접하는 픽셀 간의 거리(예를 들어 픽셀 중심 간의 거리)를 1 PD(픽셀 거리)라 할 때, 그 절반은 0.5 PD에 해당한다. 여기서, 제1 내지 제4 픽셀이동(A 내지 D)을 정의하기로 한다.When the distance between adjacent pixels in the x-axis direction (or y-axis direction) (for example, the distance between pixel centers) is 1 PD (pixel distance), half of it corresponds to 0.5 PD. Here, the first to fourth pixel movements (A to D) will be defined.
제1 픽셀이동(A)은 각 픽셀(A1 내지 A4)을 +x축 방향을 따라 우측으로 0.5 PD 만큼 이동시키는 것을 의미하며, 제1 픽셀이동(A)이 완료된 후의 픽셀은 B1 내지 B4이다. The first pixel movement (A) means moving each pixel (A1 to A4) to the right by 0.5 PD along the +x-axis direction, and the pixels after the first pixel movement (A) is completed are B1 to B4.
제2 픽셀이동(B)은 각 픽셀(B1 내지 B4)을 +y축 방향을 따라 아래로 0.5 PD 만큼 이동시키는 것을 의미하며, 제2 픽셀이동(B)이 완료된 후의 픽셀은 C1 내지 C4이다.The second pixel movement (B) means moving each pixel (B1 to B4) downward by 0.5 PD along the +y-axis direction, and the pixels after the second pixel movement (B) is completed are C1 to C4.
제3 픽셀이동(C)은 각 픽셀(C1 내지 C4)을 -x축 방향을 따라 좌측으로 0.5 PD 만큼 이동시키는 것을 의미하며, 제3 픽셀이동(C)이 완료된 후의 픽셀은 D1 내지 D4이다.The third pixel movement (C) means moving each pixel (C1 to C4) to the left along the -x axis direction by 0.5 PD, and the pixels after the third pixel movement (C) is completed are D1 to D4.
제4 픽셀이동(D)은 각 픽셀(D1 내지 D4)을 -y축 방향을 따라 위로 0.5 PD 만큼 이동시키는 것을 의미하며, 제4 픽셀이동(D)이 완료된 후의 픽셀은 A1 내지 A4이다.The fourth pixel movement (D) means moving each pixel (D1 to D4) upward by 0.5 PD along the -y-axis direction, and the pixels after the fourth pixel movement (D) is completed are A1 to A4.
여기서, 픽셀 이동은 픽셀 어레이의 픽셀의 물리적 위치를 이동시키는 것이 아니라, 두 픽셀(예를 들어, A1과 A2) 사이의 가상의 픽셀(예를 들어, B1)이 픽셀 장면을 획득할 수 있도록 유동 플레이트부(140)를 이용하여 적외선 신호의 입사 경로를 조정하는 동작을 의미한다.Here, pixel movement does not move the physical position of a pixel in the pixel array, but rather moves a virtual pixel (e.g., B1) between two pixels (e.g., A1 and A2) to obtain a pixel scene. This refers to an operation of adjusting the incident path of an infrared signal using the
결론적으로, 제4 픽셀 이동(D)에 대응하는 픽셀 A1 내지 A4은 상기 유동 플레이트부(140)가 픽셀 중심에 대응하는 제1 위치에 위치한 상태에서의 픽셀을 의미할 수 있다.In conclusion, pixels A1 to A4 corresponding to the fourth pixel movement D may mean pixels when the moving
상기와 같이, 종래에는 복수의 이미지를 획득하기 위해 별도의 틸팅 모듈을 구비하고 있으며, 이에 따라 서로 다른 시차를 가진 복수의 이미지를 획득하였다. 그러나, 상기 복수의 이미지는 모두 동일한 시점에서 촬영된 이미지가 아니라, 상기 틸팅 모듈의 틸팅 주기에 대응하는 시간차를 가지고 생성된 이미지이다. 따라서, 종래에는 초해상도 이미지에 대한 신뢰성이 낮았다.As described above, in the related art, a separate tilting module is provided to acquire a plurality of images, and thus a plurality of images with different parallaxes are acquired. However, the plurality of images are not images taken at the same point in time, but are images generated with a time difference corresponding to the tilting cycle of the tilting module. Therefore, conventionally, the reliability of super-resolution images was low.
이에 반하여, 실시 예에서는 상기와 같은 픽셀 이동이 아니라, 각각의 카메라 모듈 자체에서 상호 다른 시차를 가진 이미지를 동일 시점에 획득한다. 이에 따라, 실시 예에서는 종래 대비 초해상도 이미지에 대한 신뢰성을 향상시킬 수 있다. In contrast, in the embodiment, rather than moving pixels as described above, images with different parallaxes are acquired from each camera module itself at the same time. Accordingly, in the embodiment, reliability of super-resolution images can be improved compared to the prior art.
이하에서는 실시 예에 따라 생성되는 각각의 이미지 프레임에 대해 설명하기로 한다.Hereinafter, each image frame generated according to the embodiment will be described.
도 10은 실시 예에 따른 센서부를 통해 생성된 이미지 프레임을 나타낸 도면이다. 도 11은 실시 예에 따른 전처리 필터부에서 필터링된 이미지 프레임을 나타낸 도면이다. 도 12는 실시 예에 따른 이미지 생성부에서 생성된 초해상도 이미지 프레임을 나타낸 도면이다. 도 13은 실시 예에 따른 후처리 필터부에서 필터링된 이미지 프레임을 나타낸 도면이다. Figure 10 is a diagram showing an image frame generated through a sensor unit according to an embodiment. Figure 11 is a diagram showing an image frame filtered in a pre-processing filter unit according to an embodiment. Figure 12 is a diagram showing a super-resolution image frame generated by an image generator according to an embodiment. Figure 13 is a diagram showing an image frame filtered in a post-processing filter unit according to an embodiment.
도 10을 참조하면, 각각의 단위 센서부는 단위 렌즈부를 통해 입사되는 적외선 신호에 대한 이미지 프레임을 생성할 수 있다.Referring to FIG. 10, each unit sensor unit can generate an image frame for an infrared signal incident through the unit lens unit.
예를 들어, 제1 단위 센서부는 제1 위치에서, 제1 단위 렌즈부를 통해 입사되는 적외선 신호에 대한 제1 이미지 프레임(F1)을 생성할 수 있다. 제2 단위 센서부는 제2 위치에서, 제2 단위 렌즈부를 통해 입사되는 적외선 신호에 대한 제2 이미지 프레임(F2)을 생성할 수 있다. 제3 단위 센서부는 제3 위치에서, 제3 단위 렌즈부를 통해 입사되는 적외선 신호에 대한 제3 이미지 프레임(F3)을 생성할 수 있다. 제4 단위 센서부는 제4 위치에서, 제4 단위 렌즈부를 통해 입사되는 적외선 신호에 대한 제4 이미지 프레임(F4)을 생성할 수 있다. 이때, 상기 제1 내지 제4 이미지 프레임(F1~F4)은 시간차를 가지고 생성되는 이미지 프레임이 아닌, 동일 시점에 획득되는 이미지 프레임이다.For example, the first unit sensor unit may generate a first image frame F1 for an infrared signal incident through the first unit lens unit at a first position. The second unit sensor unit may generate a second image frame F2 for an infrared signal incident through the second unit lens unit at the second position. The third unit sensor unit may generate a third image frame F3 for the infrared signal incident through the third unit lens unit at the third position. The fourth unit sensor unit may generate a fourth image frame F4 for an infrared signal incident through the fourth unit lens unit at the fourth position. At this time, the first to fourth image frames (F1 to F4) are not image frames generated with a time difference, but are image frames acquired at the same time.
도 11을 참조하면, 전처리 필터부(121)는 각각의 카메라 모듈을 통해 획득된 제1 내지 제4 이미지 프레임에 대해 각각 전처리를 진행할 수 있다. 즉, 전처리 필터부(121)는 제1 내지 제4 이미지 프레임에 대해 가우시안 필터링을 진행할 수 있다. 이를 위해, 전처리 필터부(121)는 가우시안 필터를 포함할 수 있다. Referring to FIG. 11, the
여기에서, 가우시안 필터링(Gaussian Filtering)이란, 원본 영상을 흐리게 해주는 필터링 기법을 말하는 것으로서, 포토샵 같은 영상 애플리케이션 툴 등에서 사용되는 영상 흐림 기법(Blur Filtering)을 말한다. 가우시안 필터링을 거치게 되면, 영상의 주파수 중에서 저주파와 고주파를 통과되지 않게 되어 영상이 뿌옇게 보이게 된다. 즉, 전처리 필터부(121)는 상기 카메라 모듈을 통해 획득된 제1 내지 제4 이미지 프레임의 고주파 영역을 무너뜨려 블러링 효과를 적용함으로써, 상기 제1 내지 제4 이미지 프레임에 포함된 노이즈를 제거하도록 한다.Here, Gaussian Filtering refers to a filtering technique that blurs the original image, and refers to an image blurring technique (Blur Filtering) used in image application tools such as Photoshop. When Gaussian filtering is performed, low and high frequencies among the frequencies of the image are not passed through, making the image appear blurry. That is, the
이때, 실시 예에서와 같은, 열화상 카메라를 통해 획득된 이미지 프레임에 대해 가우시안 필터링을 적용하는 경우, 이의 제어 팩터 설정이 중요한 요소로 작용하게 된다. 여기에서, 제어 팩터는 가우시안 필터에서 가우시안 블러를 이루는 가우시안 분포의 넓이 변수를 의미하는 σ(시그마) 값을 포함할 수 있다. 이때, 상기 시그마 값에 기반하여 이미지 처리부(120)에서 최종 출력되는 이미지의 화질이 크게 변화할 수 있다. At this time, when Gaussian filtering is applied to an image frame acquired through a thermal imaging camera, as in the embodiment, the control factor setting becomes an important factor. Here, the control factor may include a σ (sigma) value, which means the area variable of the Gaussian distribution that forms Gaussian blur in the Gaussian filter. At this time, the image quality of the image finally output from the
이에 따라, 실시 예에서는 상기 전처리 필터부(121)를 구성하는 가우시안 필터의 제어 팩터를 구성하는 시그마 값이 0.1보다는 크면서 1보다는 작도록 한다.Accordingly, in the embodiment, the sigma value constituting the control factor of the Gaussian filter constituting the
이때, 상기 시그마 값에 따라 상기 제1 내지 제4 이미지 프레임의 블러링 정도가 변화한다. 여기에서, 상기 시그마 값이 1보다 크게 되면, 상기 블러링의 정도가 심하게 되어, 이에 따른 열화상 이미지에 해당하는 제1 내지 제4 이미지 프레임 내에서의 경계가 무너지게 된다. 또한, 상기 시그마 값이 0.1보다 작으면 상기 제1 내지 제4 이미지 프레임에서의 블러링 정도가 너무 작아짐에 따라 노이즈가 정상적으로 제거되지 않을 수 있다. 따라서, 열화상 이미지에 대응하는 제1 내지 제4 이미지 프레임의 전처리를 위한 가우시안 필터링에서는, 제어 팩터에 해당하는 시그마 값을 0.1보다는 크고, 1보다는 작게 설정하도록 한다.At this time, the degree of blurring of the first to fourth image frames changes depending on the sigma value. Here, when the sigma value is greater than 1, the degree of blurring becomes severe, and the boundaries within the first to fourth image frames corresponding to the thermal image accordingly collapse. Additionally, if the sigma value is less than 0.1, the degree of blurring in the first to fourth image frames becomes too small and noise may not be removed properly. Therefore, in Gaussian filtering for preprocessing of the first to fourth image frames corresponding to the thermal image, the sigma value corresponding to the control factor is set to be greater than 0.1 and less than 1.
이후, 도 12를 참조하면, 이미지 생성부(122)는 상기 전처리 필터부(121)를 통해 가우시안 필터링된 제1 내지 제4 이미지 프레임을 합성하여 합성 프레임을 생성한다. Next, referring to FIG. 12, the image generator 122 generates a composite frame by synthesizing the first to fourth image frames that have been Gaussian filtered through the
이미지 생성부(122)는 상기 가우시안 필터링된 제1 내지 제4 프레임을 합성함으로써 NxM의 픽셀 어레이가 아닌 2Nx2M의 픽셀 어레이가 획득한 이미지를 생성할 수 있다. 이미지 생성부(122)가 제1 내지 제4 프레임을 합성하는 방법은, 제1 내지 제4 프레임을 각 픽셀의 위치에 따라 단순 병합하는 방법, 또는 인접하는 픽셀의 경우 픽셀 장면이 오버랩됨을 이용하여 어느 하나의 픽셀의 픽셀 신호를 인접하는 픽셀의 픽셀 신호를 이용해 보정하는 방법 등이 이용될 수 있으나, 실시 예의 범위는 이에 한정되지 않고 다양한 초해상도 이미지 생성 방법이 이용될 수 있다. The image generator 122 may generate an image obtained by a 2Nx2M pixel array rather than an NxM pixel array by combining the Gaussian filtered first to fourth frames. The method for the image generator 122 to synthesize the first to fourth frames is by simply merging the first to fourth frames according to the position of each pixel, or by using the pixel scene overlap in the case of adjacent pixels. A method of correcting the pixel signal of one pixel using the pixel signal of an adjacent pixel may be used, but the scope of the embodiment is not limited to this and various super-resolution image generation methods may be used.
이때, 실시 예에서는 상기 각각의 카메라 모듈 사이의 상대 위치 정보를 저장하고 있기 때문에, 상기 합성 이미지 내에서 상기 제1 내지 제4 프레임의 배열 위치를 정확하게 지정할 수 있으며, 이를 토대로 합성 이미지의 신뢰성을 향상시킬 수 있다.At this time, in the embodiment, since the relative position information between each camera module is stored, the arrangement positions of the first to fourth frames within the composite image can be accurately specified, and based on this, the reliability of the composite image is improved. You can do it.
이후, 도 13을 참조하면, 후처리 필터부(123)는 이미지 생성부(122)를 통해 생성된 초해상도 이미지 프레임에 대해 후처리를 진행한다. Next, referring to FIG. 13, the post-processing filter unit 123 performs post-processing on the super-resolution image frame generated through the image generating unit 122.
바람직하게, 후처리 필터부(123)는 상기 이미지 생성부(122)를 통해 생성된 초해상도 이미지 프레임에 대해 라플라시안 필터링을 진행한다.Preferably, the post-processing filter unit 123 performs Laplacian filtering on the super-resolution image frame generated through the image generation unit 122.
즉, 이미지 생성부(122)를 통해 초해상도 이미지 프레임이 생성되면, 후처리 필터부(123)를 라플라시안 필터링을 진행하여, 상기 초해상도 이미지 프레임에 대해 에지를 선명화하는 이미지 후처리를 진행할 수 있다. That is, when a super-resolution image frame is generated through the image generator 122, Laplacian filtering is performed in the post-processing filter unit 123, and image post-processing to sharpen the edges of the super-resolution image frame can be performed. there is.
바람직하게, 상기 후처리 필터부(123)는 라플라시안 필터를 포함할 수 있다. 이때, 라플라시안 필터는 일정 마스크 사이즈 내에서 필터링을 진행할 수 있다. 여기에서, 라플라시안 필터의 마스크 사이즈는 3*3 또는 5*5일 수 있다.Preferably, the post-processing filter unit 123 may include a Laplacian filter. At this time, the Laplacian filter can perform filtering within a certain mask size. Here, the mask size of the Laplacian filter may be 3*3 or 5*5.
실시 예에서는 어레이 렌즈부 및 어레이 센서부를 포함하는 카메라 모듈에서, 각 카메라부별로 캘리브레이션을 진행하여 각 카메라부가 가지는 초점 거리 및 주점 정보를 포함한 위치 좌표 정보를 추출한다. 그리고, 실시 예에서는 상기 위치 좌표 정보를 이용하여 각 카메라부 사이의 시차(parallax) 정보를 획득한다. 상기와 같은 실시 예에 따르면 각각의 카메라부별로 캘리브레이션을 진행하기 때문에, 상기 카메라부에서 획득된 이미지를 이용하여 정확한 거리 정보를 추출할 수 있다. In an embodiment, in a camera module including an array lens unit and an array sensor unit, calibration is performed for each camera unit to extract position coordinate information including the focal length and main point information of each camera unit. And, in the embodiment, parallax information between each camera unit is obtained using the position coordinate information. According to the above embodiment, since calibration is performed for each camera unit, accurate distance information can be extracted using the image acquired from the camera unit.
또한, 실시 예에서는 상기 위치 좌표 정보에 기반하여 각각의 카메라부의 틀어짐 정도를 정확히 알 수 있으며, 이를 토대로 하나의 초해상도의 이미지 내에서 각각의 저해상도 이미지의 위치를 정확히 설정할 수 있어 초해상도 이미지 생성에 대한 정확도 및 신뢰성을 향상시킬 수 있다.In addition, in the embodiment, the degree of distortion of each camera unit can be accurately known based on the position coordinate information, and based on this, the position of each low-resolution image within one super-resolution image can be accurately set, allowing for super-resolution image generation. Accuracy and reliability can be improved.
또한, 실시 예에서는 어레이 센서부를 통해 획득된 이미지를 이용하여, 하나의 센서부가 가지는 물리적 분해능보다 높은 초해상도를 갖는 이미지를 얻을 수 있다.Additionally, in an embodiment, an image having a higher super-resolution than the physical resolution of one sensor unit can be obtained using an image acquired through an array sensor unit.
또한, 실시 예에 의하면, 시간적으로 다른 시점에 획득된 프레임이 아닌, 동일 시점에 획득된 프레임을 이용하여 초해상도의 합성 프레임을 생성함으로써, 프레임 레이트의 저하를 방지할 수 있다.Additionally, according to an embodiment, a decrease in frame rate can be prevented by generating a super-resolution composite frame using a frame acquired at the same time point rather than a frame acquired at a temporally different point in time.
실시 예와 관련하여 전술한 바와 같이 몇 가지만을 기술하였지만, 이외에도 다양한 형태의 실시가 가능하다. 앞서 설명한 실시 예들의 기술적 내용들은 서로 양립할 수 없는 기술이 아닌 이상은 다양한 형태로 조합될 수 있으며, 이를 통해 새로운 실시형태로 구현될 수도 있다.Although only a few examples have been described as described above, various other forms of implementation are possible. The technical contents of the above-described embodiments can be combined in various forms unless they are incompatible technologies, and through this, can be implemented as a new embodiment.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It is obvious to those skilled in the art that the present invention can be embodied in other specific forms without departing from the spirit and essential features of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
Claims (16)
상기 카메라부를 통해 획득된 복수의 제1 이미지를 수신하고, 상기 복수의 제1 이미지를 합성한 제2 이미지를 생성하는 이미지 처리부; 및
상기 카메라부의 캘리브레이션 결과에 기초하여 상기 카메라부의 초점거리(focal length) 및 카메라 주점(principal point)을 포함한 내부 파라미터를 산출하고, 상기 산출한 내부 파라미터에 기초하여 상기 제2 이미지가 생성되도록 상기 이미지 처리부를 제어하는 제어부;를 포함하며,
상기 카메라부는 상호 광축 방향으로 정렬된 단위 렌즈 및 단위 센서의 조합에 의해 복수의 카메라로 구분되고,
상기 복수의 제1 이미지는 상기 복수의 카메라 각각에서 획득된 이미지이며,
상기 제어부는,
상기 복수의 카메라의 각각에 대해 캘리브레이션을 진행하여 상기 내부 파라미터를 산출하고,
상기 내부 파라미터를 이용하여 상기 복수의 카메라 사이의 상대 위치 정보를 획득하며,
상기 획득된 내부 파라미터 및 상기 상대 위치 정보를 이용하여 상기 제2 이미지 내에서의 상기 복수의 제1 이미지의 위치를 각각 결정하는,
카메라 장치.A camera unit including an array lens including a plurality of unit lenses and an array sensor including a plurality of unit sensors respectively aligned with the plurality of unit lenses in an optical axis direction;
an image processing unit that receives a plurality of first images obtained through the camera unit and generates a second image by combining the plurality of first images; and
The image processing unit calculates internal parameters including the focal length and principal point of the camera unit based on the calibration result of the camera unit, and generates the second image based on the calculated internal parameters. It includes a control unit that controls,
The camera unit is divided into a plurality of cameras by a combination of unit lenses and unit sensors aligned in the mutual optical axis direction,
The plurality of first images are images acquired from each of the plurality of cameras,
The control unit,
Calculate each of the plurality of cameras to calculate the internal parameters,
Obtain relative position information between the plurality of cameras using the internal parameters,
Determining the positions of the plurality of first images within the second image using the obtained internal parameters and the relative position information, respectively,
Camera device.
상기 제1 이미지는
상기 상대 위치 정보에 대응하는 서로 다른 시차를 가지며, 상기 복수의 카메라를 통해 동일 시점에서 획득된 제1 해상도를 가지는 이미지이고,
상기 제2 이미지는,
상기 제1 해상도보다 높은 제2 해상도를 가지는 이미지인,
카메라 장치.According to paragraph 1,
The first image is
Images having different parallaxes corresponding to the relative position information and having a first resolution acquired at the same viewpoint through the plurality of cameras,
The second image is,
An image having a second resolution higher than the first resolution,
Camera device.
상기 제어부는,
상기 복수의 제1 이미지 내에서 피사체의 특징점들을 각각 검출하고,
상기 검출된 특징점들의 무게 중심을 산출하며,
상기 상대 위치 정보 및 상기 복수의 제1 이미지 사이의 상기 무게 중심의 델타 값을 이용하여 상기 피사체와의 거리를 산출하는
카메라 장치.According to claim 1 or 2,
The control unit,
Detecting each feature point of the subject within the plurality of first images,
Calculate the center of gravity of the detected feature points,
Calculating the distance to the subject using the relative position information and the delta value of the center of gravity between the plurality of first images.
Camera device.
상기 제어부는,
상기 산출한 피사체와의 거리를 이용하여 상기 피사체의 방사율을 보정하고,
상기 복수의 카메라의 내부 파라미터, 상기 상대 위치 정보 및 피사체와의 거리에 따른 방사율의 보정 정보를 저장부에 저장하는
카메라 장치.According to paragraph 3,
The control unit,
Correcting the emissivity of the subject using the calculated distance to the subject,
Storing the internal parameters of the plurality of cameras, the relative position information, and emissivity correction information according to the distance to the subject in a storage unit.
Camera device.
상기 이미지 처리부는,
상기 복수의 제1 이미지를 가우시안 필터링하는 전처리 필터부;
상기 상대 위치 정보 및 상기 보정된 방사율에 기반하여, 상기 전처리 필터부를 통해 필터링된 복수의 제1 이미지를 합성하여 제2 이미지를 생성하는 이미지 생성부; 및
상기 이미지 생성부를 통해 생성된 제2 이미지를 라플라시안 필터링하는 후처리 필터부를 포함하는
카메라 장치.According to paragraph 4,
The image processing unit,
a pre-processing filter unit that performs Gaussian filtering on the plurality of first images;
an image generator that generates a second image by combining the plurality of first images filtered through the pre-processing filter unit, based on the relative position information and the corrected emissivity; and
A post-processing filter unit that performs Laplacian filtering on the second image generated through the image generator.
Camera device.
상기 전처리 필터부는,
0.1보다 크고, 1보다 작은 범위 내에서의 시그마 값을 적용하여 상기 복수 개의 이미지 프레임을 가우시안 필터링하는
카메라 장치.According to clause 5,
The pre-processing filter unit,
Gaussian filtering of the plurality of image frames by applying a sigma value within a range greater than 0.1 and less than 1.
Camera device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190039694A KR102601288B1 (en) | 2019-04-04 | 2019-04-04 | Camera module and image operating method performed therein |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190039694A KR102601288B1 (en) | 2019-04-04 | 2019-04-04 | Camera module and image operating method performed therein |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200117507A KR20200117507A (en) | 2020-10-14 |
KR102601288B1 true KR102601288B1 (en) | 2023-11-13 |
Family
ID=72847208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190039694A KR102601288B1 (en) | 2019-04-04 | 2019-04-04 | Camera module and image operating method performed therein |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102601288B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210141070A (en) | 2020-05-15 | 2021-11-23 | 삼성전자주식회사 | Method for Taking image using a plurality of Cameras and Electronic Device thereof |
KR102428106B1 (en) * | 2022-06-29 | 2022-08-03 | 한국전자기술연구원 | Phase calibration system for multi-lens optics device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012253748A (en) | 2011-05-09 | 2012-12-20 | Canon Inc | Image processor and image processing method |
JP2017163550A (en) | 2008-05-20 | 2017-09-14 | ペリカン イメージング コーポレイション | Capturing and processing of image using monolithic camera array having different kinds of imaging apparatuses |
US20180139382A1 (en) | 2013-11-26 | 2018-05-17 | Fotonation Cayman Limited | Array Camera Configurations Incorporating Constituent Array Cameras and Constituent Cameras |
-
2019
- 2019-04-04 KR KR1020190039694A patent/KR102601288B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017163550A (en) | 2008-05-20 | 2017-09-14 | ペリカン イメージング コーポレイション | Capturing and processing of image using monolithic camera array having different kinds of imaging apparatuses |
JP2012253748A (en) | 2011-05-09 | 2012-12-20 | Canon Inc | Image processor and image processing method |
US20180139382A1 (en) | 2013-11-26 | 2018-05-17 | Fotonation Cayman Limited | Array Camera Configurations Incorporating Constituent Array Cameras and Constituent Cameras |
Also Published As
Publication number | Publication date |
---|---|
KR20200117507A (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6168794B2 (en) | Information processing method and apparatus, program. | |
US10200596B1 (en) | Dynamic optical shift/tilt lens | |
US8619144B1 (en) | Automatic camera calibration | |
CN101911671B (en) | Imaging device and optical axis control method | |
Dansereau et al. | A wide-field-of-view monocentric light field camera | |
CN108171758B (en) | Multi-camera calibration method based on minimum optical path principle and transparent glass calibration plate | |
US9868256B2 (en) | Three-dimensional printing system and method for three-dimensional printing | |
US20120069205A1 (en) | Image Based Systems For Detecting Information On Moving Objects | |
US8749652B2 (en) | Imaging module having plural optical units in which each of at least two optical units include a polarization filter and at least one optical unit includes no polarization filter and image processing method and apparatus thereof | |
US9473700B2 (en) | Camera systems and methods for gigapixel computational imaging | |
CN112866549B (en) | Image processing method and device, electronic equipment and computer readable storage medium | |
US20110017827A1 (en) | Optical System, Imaging Device, and Information Code Reader | |
JP2008245157A (en) | Imaging device and method therefor | |
KR102601288B1 (en) | Camera module and image operating method performed therein | |
CN111213364A (en) | Shooting equipment control method, shooting equipment control device and shooting equipment | |
CN102932583B (en) | Refraction-reflection whole-focusing imaging method | |
JP6544978B2 (en) | Image output apparatus, control method therefor, imaging apparatus, program | |
CN110213491A (en) | A kind of focalization method, device and storage medium | |
JP7378219B2 (en) | Imaging device, image processing device, control method, and program | |
JP5857712B2 (en) | Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation | |
CN106663312B (en) | System and method for improved computational imaging | |
KR100691268B1 (en) | Optical System For Processing Image By Using Point Spread Function And Image Processing Method Thereof | |
JP6628678B2 (en) | Distance measuring device, imaging device, and distance measuring method | |
KR102617241B1 (en) | Camera module and image generating method performed therein | |
Ueno et al. | Compound-Eye Camera Module as Small as 8.5$\times $8.5$\times $6.0 mm for 26 k-Resolution Depth Map and 2-Mpix 2D Imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |