KR102238789B1 - Calibration method for triple camera-module - Google Patents
Calibration method for triple camera-module Download PDFInfo
- Publication number
- KR102238789B1 KR102238789B1 KR1020190090678A KR20190090678A KR102238789B1 KR 102238789 B1 KR102238789 B1 KR 102238789B1 KR 1020190090678 A KR1020190090678 A KR 1020190090678A KR 20190090678 A KR20190090678 A KR 20190090678A KR 102238789 B1 KR102238789 B1 KR 102238789B1
- Authority
- KR
- South Korea
- Prior art keywords
- light source
- calculating
- reference pattern
- lenses
- separation distance
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 17
- 238000000691 measurement method Methods 0.000 claims abstract description 11
- 238000000926 separation method Methods 0.000 claims description 53
- 230000001678 irradiating effect Effects 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000008571 general function Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G06T5/006—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
본 발명은 3서로 다른 광각을 갖는 3개의 렌즈로 이루어진 트리플 카메라모듈의 오차정보를 측정하여 제공하는 트리플 카메라모듈의 캘리브레이션 측정방법에 관한 것으로, 설정된 기준 패턴을 갖는 복수의 광원을 상기 트리플 카메라모듈로 조사하는 단계; 상기 트리플 카메라모듈로 상기 복수의 광원을 촬영하여 상기 트리플 카메라모듈을 구성하는 상기 3개의 렌즈 각각에 대한 상기 기준 패턴 이미지를 각각 획득하는 단계; 상기 기준 패턴 이미지를 기반으로 상기 3개의 렌즈 각각에 대한 개별오차를 산출하는 단계; 및 상기 3개의 렌즈 각각에 대한 개별오차를 기반으로 상기 3개의 렌즈 중 서로 이웃하는 렌즈 사이의 각도차를 산출하는 단계를 포함한다.The present invention relates to a calibration measurement method of a triple camera module that measures and provides error information of a triple camera module consisting of three lenses having three different wide angles, and a plurality of light sources having a set reference pattern are used as the triple camera module. Investigating; Capturing the plurality of light sources with the triple camera module to obtain the reference pattern images for each of the three lenses constituting the triple camera module, respectively; Calculating individual errors for each of the three lenses based on the reference pattern image; And calculating an angle difference between neighboring lenses among the three lenses based on individual errors for each of the three lenses.
Description
본 발명은 트리플 카메라모듈의 캘리브레이션 측정방법에 관한 것으로, 더욱 상세하게는 3개의 렌즈로 이루어진 트리플 카메라모듈의 정렬을 위하여 렌즈들 간의 오차정보를 산출하여 제공하는 트리플 카메라모듈의 캘리브레이션 측정방법에 관한 것이다.The present invention relates to a calibration measurement method of a triple camera module, and more particularly, to a calibration measurement method of a triple camera module that calculates and provides error information between lenses for alignment of a triple camera module consisting of three lenses. .
일반적으로 카메라를 통해 취득되는 영상은 렌즈의 특성에 따라 형태가 결정되므로 렌즈의 특성을 파악하여 영상에 나타나는 실제 물체의 형상을 구성하는 것이 필요하다.In general, since the shape of an image acquired through a camera is determined according to the characteristics of the lens, it is necessary to determine the characteristics of the lens to configure the shape of an actual object appearing in the image.
렌즈의 특성을 파악하기 위해서는 사전에 정의된 패턴의 차트를 사용하고 그 특정 차트의 영상으로부터 카메라 렌즈의 특성 파라미터를 추정하는 캘리브레이션을 실시하게 된다.In order to grasp the characteristics of the lens, a chart of a predefined pattern is used, and calibration is performed to estimate the characteristic parameter of the camera lens from the image of the specific chart.
영상 분석에서 카메라 캘리브레이션이란, 영상에서 검출된 객체의 실제 크기와 위치 정보를 얻기 위한 변환 매트릭스를 연산하는 과정을 말한다. 실제의 객체는 3차원 공간상에 존재하나, 영상에서의 객체는 2차원 화면 속에 존재하기 때문에, 자연스레 왜곡이 발생하게 된다. 즉 화면상에서 가까운 객체는 크게 보이고, 먼 객체는 작게 보이는 왜곡이다.In image analysis, camera calibration refers to a process of calculating a transformation matrix to obtain information on the actual size and position of an object detected in an image. The actual object exists in the 3D space, but since the object in the image exists in the 2D screen, distortion occurs naturally. That is, close objects on the screen appear larger and distant objects appear smaller.
이러한 왜곡을 보정하여 화면상에서 작게 표시되었더라도, 작게 표시된 객체의 실제 크기 정보, 즉 3차원 공간 상의 가로와 세로 및 높이를 구할 수 있다면, 영상 분석을 통해서 많은 정보를 얻을 수 있다. 이를 위해서는 영상의 2D 좌표를 실제의 3D 좌표로 변환할 수 있는 변환 매트릭스가 필요하다. 즉 영상의 (x, y)의 좌표를 실제의 (X, Y, Z)로 변환할 수 있는 변환 매트릭스가 필요하다.Even if the distortion is corrected and displayed as small on the screen, if the actual size information of the small displayed object, that is, the width, height, and height in a three-dimensional space, can be obtained, much information can be obtained through image analysis. For this, a transformation matrix that can convert 2D coordinates of an image into actual 3D coordinates is required. That is, a transformation matrix that can convert the coordinates of (x, y) of the image into actual (X, Y, Z) is required.
종래에는 이러한 변환 매트릭스를 구하기 위해 가로 및 세로를 이미 알고 있는 기준 물체를 카메라로 촬영하고, 영상 속에서 기준 물체의 좌표를 분석하여 카메라 캘리브레이션을 수행하였다.Conventionally, in order to obtain such a transformation matrix, a reference object that already knows the width and length is photographed with a camera, and the coordinates of the reference object in the image are analyzed to perform camera calibration.
그 과정에서 캘리브레이션 프로그램의 도움이 있기는 하지만, 기준 물체를 촬영하고자 하는 곳에 위치시키고 기준 물체의 좌표를 설정하는 등의 번거로움이 있었다.In the process, although the calibration program helped, there was a hassle of positioning the reference object at the place to be photographed and setting the coordinates of the reference object.
예를 들면, 대한민국 등록특허공보 제10-1545633호의 "차량용 스테레오 카메라 캘리브레이션 방법 및 시스템" 발명을 살펴보면, 차량용 스테레오 카메라의 캘리브레이션을 수행하기 위해 차량의 보닛에 착탈 가능한 캘리브레이션 마커를 사용하는 것을 볼 수 있다. 이처럼 종래에는 캘리브레이션을 수행할 때마다 캘리브레이션 마커를 수작업으로 설치해야 하는 등, 시간과 비용이 소모되는 단계가 있었다.For example, looking at the invention of "Vehicle Stereo Camera Calibration Method and System" in Korean Patent Publication No. 10-1545633, it can be seen that a calibration marker detachable from the bonnet of the vehicle is used to calibrate the vehicle stereo camera. . As described above, in the prior art, there is a step that consumes time and cost, such as having to manually install a calibration marker each time calibration is performed.
한편, 근래에는 카메라모듈을 2개 이상의 렌즈로 구성하여 스마트폰 등에 설치하고 있으며, 최근에는 3개의 렌즈로 구성되는 트리플 카메라모듈이 개발되어 단말기에 설치되고 있다.Meanwhile, recently, a camera module is configured with two or more lenses and installed in a smartphone, and recently, a triple camera module composed of three lenses has been developed and installed in a terminal.
그런데, 선행기술과 같은 캘리브레이션 시스템으로는 트리플 렌즈에 대한 오차를 명확하게 산출할 수 없는 한계가 있다.However, there is a limitation in that an error for a triple lens cannot be clearly calculated with a calibration system such as the prior art.
따라서, 상기와 같은 선행기술의 문제점을 극복할 수 있는 새로운 기술이 요구되고 있다.Accordingly, there is a need for a new technology capable of overcoming the problems of the prior art as described above.
본 발명은 상기와 같은 종래기술의 문제점을 개선하기 위하여 창출된 것으로, 3개의 렌즈로 이루어진 트리플 카메라모듈의 정렬을 위하여 렌즈들 간의 오차정보를 산출하여 제공할 수 있는 트리플 카메라모듈의 캘리브레이션 측정방법을 제공하는 것이 그 목적이다.The present invention was created to improve the problems of the prior art as described above, and provides a calibration measurement method of a triple camera module capable of calculating and providing error information between lenses for alignment of a triple camera module consisting of three lenses. It is its purpose to provide.
구체적으로, 본 발명은 복수의 광원을 통해 획득되는 기준 패턴 이미지를 기반으로 렌즈 각각의 개별오차를 산출한 후, 이웃하는 렌즈 간의 각도 차를 산출할 수 있는 트리플 카메라모듈의 캘리브레이션 측정방법을 제공하는 것이 그 목적이다.Specifically, the present invention provides a method for measuring a calibration of a triple camera module capable of calculating an individual error of each lens based on a reference pattern image acquired through a plurality of light sources, and then calculating the angular difference between neighboring lenses. That is its purpose.
좀 더 구체적으로, 본 발명은 렌즈 각각의 좌우방향 틀어짐과 상하방향 틀어짐 및 회전방향 틀어짐을 산출하여 이웃하는 렌즈 간의 각도 차를 산출할 수 있는 트리플 카메라모듈의 캘리브레이션 측정방법을 제공하는 것이 그 목적이다.More specifically, it is an object of the present invention to provide a method for measuring a calibration of a triple camera module capable of calculating the angular difference between neighboring lenses by calculating the lateral distortion, the vertical distortion, and the rotational distortion of each lens. .
상기와 같은 목적을 달성하기 위한 본 발명에 하나의 실시예에 따른 트리플 카메라모듈의 캘리브레이션 측정방법은, 서로 다른 광각을 갖는 3개의 렌즈로 이루어진 트리플 카메라모듈의 오차정보를 측정하여 제공하는 트리플 카메라모듈의 캘리브레이션 측정방법으로서, 설정된 기준 패턴을 갖는 복수의 광원을 상기 트리플 카메라모듈로 조사하는 단계; 상기 트리플 카메라모듈로 상기 복수의 광원을 촬영하여 상기 트리플 카메라모듈을 구성하는 상기 3개의 렌즈 각각에 대한 상기 기준 패턴 이미지를 각각 획득하는 단계; 상기 기준 패턴 이미지를 기반으로 상기 3개의 렌즈 각각에 대한 개별오차를 산출하는 단계; 및 상기 3개의 렌즈 각각에 대한 개별오차를 기반으로 상기 3개의 렌즈 중 서로 이웃하는 렌즈 사이의 각도차를 산출하는 단계를 포함하여 수행될 수 있다.A method for measuring calibration of a triple camera module according to an embodiment of the present invention for achieving the above object is a triple camera module that measures and provides error information of a triple camera module composed of three lenses having different wide angles. A calibration measuring method of, comprising: irradiating a plurality of light sources having a set reference pattern with the triple camera module; Capturing the plurality of light sources with the triple camera module to obtain the reference pattern images for each of the three lenses constituting the triple camera module, respectively; Calculating individual errors for each of the three lenses based on the reference pattern image; And calculating an angle difference between neighboring lenses among the three lenses based on individual errors for each of the three lenses.
또한, 상기 복수의 광원은, 상기 기준 패턴 이미지에서 회전방향의 기준을 제공하는 센터광원; 상기 기준 패턴 이미지에서 좌우방향의 기준을 제공하는 라이트광원; 및 상기 기준 패턴 이미지에서 상하방향의 기준을 제공하는 레프트광원을 포함할 수 있다.In addition, the plurality of light sources may include a center light source providing a reference for a rotation direction in the reference pattern image; A light source providing a reference in the left and right directions in the reference pattern image; And a left light source providing a reference in the vertical direction in the reference pattern image.
또한, 상기 개별오차를 산출하는 단계는, 상기 3개의 렌즈 각각에 대한 상기 기준 패턴 이미지 중 상기 센터광원을 기반으로 상기 3개의 렌즈 각각에 대한 좌우방향 틀어짐 및 상하방향 틀어짐을 산출하는 단계; 및 상기 3개의 렌즈 각각에 대한 상기 기준 패턴 이미지 중 상기 라이트광원 및 상기 레프트광원을 기반으로 상기 3개의 렌즈 각각에 대한 회전방향 틀어짐을 산출하는 단계를 포함하여 수행될 수 있다.In addition, the calculating of the individual error may include calculating a horizontal distortion and a vertical distortion for each of the three lenses based on the center light source among the reference pattern images for each of the three lenses; And calculating a rotational direction shift for each of the three lenses based on the light source and the left light source among the reference pattern images for each of the three lenses.
또한, 상기 좌우방향 틀어짐 및 상기 상하방향 틀어짐을 산출하는 단계는, 상기 기준 패턴 이미지의 횡방향 길이 및 종방향 길이와, 상기 센터광원의 횡방향 좌표 및 종방향 좌표와, 상기 기준 패턴 이미지에 대한 픽셀사이즈를 기반으로 상기 기준 패턴 이미지의 중심으로부터 상기 센터광원의 종방향 이격거리 및 횡방향 이격거리를 각각 산출하는 단계; 및 상기 센터광원의 종방향 이격거리 및 상기 횡방향 이격거리와, 상기 렌즈에 대한 광축거리값과, 라디안값을 기반으로 상기 렌즈에 대한 상기 좌우방향 틀어짐값 및 상기 상하방향 틀어짐값을 각각 연산하는 단계를 포함하여 수행될 수 있다.In addition, the step of calculating the horizontal distortion and the vertical distortion may include: the horizontal and vertical lengths of the reference pattern image, the horizontal and vertical coordinates of the center light source, and the reference pattern image. Calculating a longitudinal separation distance and a lateral separation distance of the center light source from the center of the reference pattern image based on the pixel size; And calculating the horizontal and vertical distortion values for the lens based on the longitudinal separation distance and the lateral separation distance of the center light source, an optical axis distance value for the lens, and a radian value. It can be carried out including steps.
또한, 상기 회전방향 틀어짐을 산출하는 단계는, 상기 기준 패턴 이미지에서 상기 라이트광원의 종방향 좌표 및 횡방향 좌표와, 상기 레프트광원의 종방향 좌표 및 횡방향 좌표를 기반으로 상기 라이트광원과 상기 레프트광원 사이의 종방향 이격거리 및 횡방향 이격거리를 각각 산출하는 단계; 및 상기 종방향 이격거리 및 상기 횡방향 이격거리와, 라디안값을 기반으로 상기 렌즈에 대한 상기 회전방향 틀어짐값을 연산하는 단계를 포함하여 수행될 수 있다.In addition, the calculating of the rotation direction distortion may include the light source and the left based on the vertical coordinates and the horizontal coordinates of the light source in the reference pattern image, and the vertical coordinates and the horizontal coordinates of the left light source. Calculating a longitudinal separation distance and a lateral separation distance between the light sources, respectively; And calculating the rotational direction distortion value for the lens based on the longitudinal separation distance, the lateral separation distance, and a radian value.
또한, 상기 렌즈 사이의 각도차를 산출하는 단계는, 상기 3개의 렌즈 중 서로 이웃하는 한 쌍의 렌즈 간의 상기 좌우방향 틀어짐값의 차를 산출하는 단계; 상기 3개의 렌즈 중 서로 이웃하는 한 쌍의 렌즈 간의 상기 상하방향 틀어짐값의 차를 산출하는 단계; 및 상기 3개의 렌즈 중 서로 이웃하는 한 쌍의 렌즈 간의 대한 상기 회전방향 틀어짐값의 차를 산출하는 단계를 포함하여 수행될 수 있다.In addition, calculating the angular difference between the lenses may include calculating a difference in the horizontal distortion value between a pair of adjacent lenses among the three lenses; Calculating a difference in the vertical distortion value between a pair of adjacent lenses among the three lenses; And calculating a difference in the rotation direction distortion value between a pair of adjacent lenses among the three lenses.
본 발명의 일 실시예에 따른 트리플 카메라모듈의 캘리브레이션 측정방법에 의하면, 복수의 광원을 통해 획득되는 기준 패턴 이미지를 기반으로 렌즈 각각의 개별오차를 산출한 후, 이웃하는 렌즈 간의 각도 차를 산출함으로써 3개의 렌즈로 이루어진 트리플 카메라모듈의 정렬을 위한 오차정보를 정확하게 제공할 수 있다.According to the calibration measurement method of a triple camera module according to an embodiment of the present invention, after calculating individual errors of each lens based on a reference pattern image acquired through a plurality of light sources, the angle difference between neighboring lenses is calculated. It is possible to accurately provide error information for alignment of a triple camera module composed of three lenses.
구체적으로, 본 발명은 렌즈 각각의 좌우방향 틀어짐과 상하방향 틀어짐 및 회전방향 틀어짐을 산출하여 이웃하는 렌즈 간의 각도 차를 산출할 수 있는 트리플 카메라모듈의 캘리브레이션 측정방법을 제시할 수 있다.Specifically, the present invention can provide a calibration measurement method of a triple camera module capable of calculating the angular difference between neighboring lenses by calculating the lateral twist, the vertical twist, and the rotational twist of each lens.
개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained in the disclosed embodiments are not limited to the above-mentioned effects, and other effects not mentioned are obvious to those of ordinary skill in the art to which the embodiments disclosed from the following description belong. It will be understandable.
도 1은 본 발명의 일 실시예에 따른 트리플 카메라모듈의 캘리브레이션 측정방법을 나타내는 순서도이다.
도 2는 본 발명의 일 실시예에 따른 개별오차를 산출하는 단계를 구체적으로 나타내는 순서도이다.
도 3은 본 발명의 트리플 카메라모듈 및 복수의 광원을 나타내는 구성도이다.
도 4는 본 발명에 따른 좌우방향 틀어짐 및 상하방향 틀어짐을 산출하는 단계를 설명하기 위한 기준 패턴 이미지를 나타내는 구성도이다.
도 5는 본 발명에 따른 회전방향 틀어짐을 산출하는 단계를 설명하기 위한 기준 패턴 이미지를 나타내는 구성도이다.
도 6은 본 발명에 따른 렌즈 사이의 각도차를 산출하는 단계를 구체적으로 나타내는 순서도이다.1 is a flowchart illustrating a method of measuring calibration of a triple camera module according to an embodiment of the present invention.
2 is a flow chart specifically showing steps of calculating individual errors according to an embodiment of the present invention.
3 is a block diagram showing a triple camera module and a plurality of light sources according to the present invention.
4 is a block diagram showing a reference pattern image for explaining the steps of calculating the horizontal distortion and the vertical distortion according to the present invention.
5 is a block diagram showing a reference pattern image for explaining the step of calculating the rotational direction distortion according to the present invention.
6 is a flowchart specifically illustrating a step of calculating an angle difference between lenses according to the present invention.
이하에서 첨부 도면을 참고하여 본 발명의 실시예에 대해서 더욱 상세하게 설명한다. 본 발명을 설명함에 있어서 관련된 공지의 범용적인 기능 또는 구성에 대한 상세한 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, detailed descriptions of related known general functions or configurations will be omitted.
본 발명의 개념에 따른 실시 예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the embodiments according to the concept of the present invention can apply various changes and have various forms, specific embodiments will be illustrated in the drawings and described in detail in the present specification or application. However, this is not intended to limit the embodiments according to the concept of the present invention to a specific form of disclosure, it should be understood to include all changes, equivalents, or substitutes included in the spirit and scope of the present invention.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle. Other expressions describing the relationship between components, such as "between" and "directly between" or "adjacent to" and "directly adjacent to" should be interpreted as well.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of a set feature, number, step, action, component, part, or combination thereof, but one or more other features or numbers. It is to be understood that the possibility of addition or presence of, steps, actions, components, parts, or combinations thereof is not preliminarily excluded.
도 1은 본 발명의 일 실시예에 따른 트리플 카메라모듈의 캘리브레이션 측정방법을 나타내는 순서도이고, 도 2는 본 발명의 일 실시예에 따른 개별오차를 산출하는 단계를 구체적으로 나타내는 순서도이며, 도 3은 본 발명의 트리플 카메라모듈 및 복수의 광원을 나타내는 구성도이다. 또한, 도 4는 본 발명에 따른 좌우방향 틀어짐 및 상하방향 틀어짐을 산출하는 단계를 설명하기 위한 기준 패턴 이미지를 나타내는 구성도이고, 도 5는 본 발명에 따른 회전방향 틀어짐을 산출하는 단계를 설명하기 위한 기준 패턴 이미지를 나타내는 구성도이며, 도 6은 본 발명에 따른 렌즈 사이의 각도차를 산출하는 단계를 구체적으로 나타내는 순서도이다.1 is a flow chart showing a calibration measurement method of a triple camera module according to an embodiment of the present invention, FIG. 2 is a flow chart specifically showing a step of calculating an individual error according to an embodiment of the present invention, and FIG. 3 is It is a configuration diagram showing a triple camera module and a plurality of light sources of the present invention. In addition, FIG. 4 is a configuration diagram showing a reference pattern image for explaining the steps of calculating the horizontal distortion and the vertical distortion according to the present invention, and FIG. 5 is a diagram illustrating the step of calculating the rotation direction distortion according to the present invention. It is a configuration diagram showing a reference pattern image for, and FIG. 6 is a flow chart specifically showing a step of calculating an angle difference between lenses according to the present invention.
본 발명의 일 실시예에 따른 트리플 카메라모듈의 캘리브레이션 측정방법은 도 3에 도시된 바와 같이 서로 다른 광각을 갖는 3개의 렌즈(11)로 구성되는 트리플 카메라모듈(10)의 정렬을 위한 오차정보를 측정하여 제공하는 방법이다.In the method for measuring calibration of a triple camera module according to an embodiment of the present invention, as shown in FIG. 3, error information for alignment of the
구체적으로, 본 발명의 일 실시예에 따른 트리플 카메라모듈의 캘리브레이션 측정방법은 미도시된 얼라인 측정장치를 통해 수행될 수 있으며, 도 1에 도시된 바와 같이 광원을 조사하는 단계(S100), 기준 패턴 이미지를 획득하는 단계(S200), 개별오차를 산출하는 단계(S300) 및 렌즈 사이의 각도차를 산출하는 단계(S400)를 포함하여 수행될 수 있다.Specifically, the method of measuring the calibration of the triple camera module according to an embodiment of the present invention may be performed through an alignment measuring device not shown, and as shown in FIG. 1, the step of irradiating a light source (S100), a reference It may be performed including obtaining a pattern image (S200), calculating an individual error (S300), and calculating an angle difference between the lenses (S400).
상기 광원을 조사하는 단계(S100)는 도 3에 도시된 바와 같이 트리플 카메라모듈(10)에 복수의 광원(20)을 조사하는 단계이다.The step of irradiating the light source (S100) is a step of irradiating a plurality of
이러한 광원을 조사하는 단계(S100)는 미도시된 얼라인 측정장치에 트리플 카메라모듈(10)을 설치하고, 트리플 카메라모듈(10)을 향해 복수의 광원(20)을 조사함으로써 수행될 수 있다.The step of irradiating such a light source (S100) may be performed by installing the
여기서, 복수의 광원(20)은 3개로 구성될 수 있으며, 구체적으로는 후술되는 기준 패턴 이미지(30)에서 회전방향의 기준을 제공하는 센터광원(21), 좌우방향(횡방향)의 기준을 제공하는 라이트광원(22) 및 상하방향(종방향)의 기준을 제공하는 레프트광원(23)을 포함하여 구성될 수 있다.Here, the plurality of
이러한 복수의 광원(20)은 얼라인 측정장치의 제어에 의해 작동하면서 트리플 카메라모듈(10)을 향해 빛을 조사할 수 있다.The plurality of
상기 기준 패턴 이미지를 획득하는 단계(S200)는 트리플 카메라모듈(10)을 구성하는 3개의 렌즈(11) 각각에 대한 기준 패턴 이미지(30)를 각각 획득하는 단계이다.The step of obtaining the reference pattern image (S200) is a step of obtaining each of the
이러한 기준 패턴 이미지를 획득하는 단계(S200)는 복수의 광원(20)의 빛이 조사되는 상태에서 얼라인 측정장치의 제어을 통해 트리플 카메라모듈(10)로 복수의 광원(20)을 촬영함으로써 도 4에 도시된 바와 같은 기준 패턴 이미지(30)를 렌즈(11)별로 제각기 획득할 수 있다.In the step of acquiring such a reference pattern image (S200), the plurality of
이때에는, 트리플 카메라모듈(10)을 자동노출로 설정한 상태에서 복수의 광원(20)을 촬영하여 렌즈(11)들 각각에 대한 기준 패턴 이미지(30)를 획득할 수 있다.In this case, a plurality of
즉, 기준 패턴 이미지(30)는 설정된 횡방향 길이(width) 및 종방향 길이(height)를 가지면서 센터광원(21), 라이트광원(22) 및 레프트광원(23)이 각각 표시될 수 있다.That is, the
상기 개별오차를 산출하는 단계(S300)는 획득된 렌즈(11) 각각의 기준 패턴 이미지(30)를 기반으로 렌즈(11)들 각각의 개별오차를 산출하는 단계이다.The step of calculating the individual error (S300) is a step of calculating the individual error of each of the
구체적으로, 개별오차를 산출하는 단계(S300)는 도 2에 도시된 바와 같이 렌즈(11)들 각각에 대한 좌우방향 틀어짐 및 상하방향 틀어짐을 산출하는 단계(S310) 및 회전방향 틀어짐을 산출하는 단계(S320)를 포함하여 수행될 수 있다.Specifically, the step of calculating the individual error (S300) is a step of calculating the distortion in the left and right directions and the distortion in the vertical direction for each of the
상기 좌우방향 틀어짐 및 상하방향 틀어짐을 산출하는 단계(S310)는 3개의 렌즈(11) 각각에 대한 기준 패턴 이미지(30)에 표시된 센터광원(21)을 기반으로 렌즈(11) 각각에 대한 좌우방향(횡방향) 틀어짐과 상하방향(종방향 틀어짐)을 각각 산출할 수 있다.The step of calculating the horizontal distortion and the vertical distortion (S310) is performed in the horizontal direction for each of the
이러한 좌우방향 틀어짐 및 상하방향 틀어짐을 산출하는 단계(S310)는 센터광원의 종방향 이격거리(dx1) 및 횡방향 이격거리(dy1)를 각각 산출하는 단계(S311) 및 좌우방향 틀어짐값 및 상기 상하방향 틀어짐값을 각각 연산하는 단계(S312)를 포함하여 수행될 수 있다.The step (S310) of calculating such a left-right twist and a vertical twist is a step (S311) of calculating the vertical separation distance (dx1) and the horizontal separation distance (dy1) of the center light source (S311), and the horizontal distortion value and the vertical separation. It may be performed including the step (S312) of each calculating the direction distortion value.
궁극적으로, 센터광원의 종방향 이격거리(dx1) 및 횡방향 이격거리(dy1)를 각각 산출하는 단계(S311)는 기준 패턴 이미지(20)의 중심(Width/2,Height/2)에 대한 센터광원(21)의 종방향 이격거리(dx1) 및 횡방향 이격거리(dy1)를 산출할 수 있다.Ultimately, the step (S311) of calculating the longitudinal separation distance (dx1) and the lateral separation distance (dy1) of the center light source, respectively, is a center for the center of the reference pattern image 20 (Width/2, Height/2). The longitudinal separation distance dx1 and the lateral separation distance dy1 of the
구체적으로, 센터광원의 종방향 이격거리(dx1) 및 횡방향 이격거리(dy1)를 각각 산출하는 단계(S311)는 도 4에 도시된 바와 같이 획득된 기준 패턴 이미지(30)의 횡방향 길이(width) 및 종방향 길이(height)와, 기준 패턴 이미지(30)에 표시된 센터광원(21)의 횡방향좌표(cx) 및 종방향좌표(cy)와, 기준 패턴 이미지에 대한 픽셀사이즈와, 기준 패턴 이미지(20)의 중심(Width/2,Height/2)을 통해 수행될 수 있다.Specifically, the step (S311) of calculating the longitudinal separation distance dx1 and the lateral separation distance dy1 of the center light source, respectively, is the transverse length of the
여기서, 센터광원의 종방향 이격거리(dx1) 및 횡방향 이격거리(dy1)를 각각 산출하는 단계(S311)는 하기의 [식 1]을 통해 수행될 수 있다.Here, the step (S311) of calculating each of the longitudinal separation distance dx1 and the lateral separation distance dy1 of the center light source may be performed through the following [Equation 1].
[식 1][Equation 1]
dx1 = (Width/2 - cx) * PixelSizedx1 = (Width/2-cx) * PixelSize
dy1 = (Height/2 - cy) * PixelSizedy1 = (Height/2-cy) * PixelSize
(여기서, Width는 기준 패턴 이미지의 횡방향 길이, Height는 기준 패턴 이미지의 종방향 길이, cx는 센터광원의 횡방향 좌표, cy는 센터광원의 종방향 좌표, PixelSize는 기준 패턴 이미지의 픽셀사이즈임)(Where, Width is the horizontal length of the reference pattern image, Height is the vertical length of the reference pattern image, cx is the horizontal coordinate of the center light source, cy is the vertical coordinate of the center light source, and PixelSize is the pixel size of the reference pattern image. )
이에 따라, 기준 패턴 이미지(20)의 중심(Width/2,Height/2)에 대한 센터광원(21)의 종방향 이격거리(dx1) 및 횡방향 이격거리(dy1)는 상기 [식 1]을 통해 산출되어 저장될 수 있다.Accordingly, the longitudinal separation distance (dx1) and the lateral separation distance (dy1) of the center
상기 좌우방향 틀어짐값 및 상기 상하방향 틀어짐값을 각각 연산하는 단계(S312)는 각 렌즈(11)에 대한 좌우방향 틀어짐값(Theta_X) 및 상하방향 틀어짐값(Theta_Y)을 각각 연산하는 단계로서, 전술한 S311 단계에서 산출된 종방향 이격거리(dx1) 및 횡방향 이격거리(dy1)와, 렌즈에 대한 광축거리값(EFL)과, 라디안값을 기반으로 연산할 수 있다.The step of calculating the horizontal distortion value and the vertical distortion value (S312) is a step of calculating the horizontal distortion value (Theta_X) and the vertical direction distortion value (Theta_Y) for each
여기서, 상기 좌우방향 틀어짐값(Theta_X) 및 상기 상하방향 틀어짐값(Theta_Y)을 각각 연산하는 단계(S312)는 하기의 [식 2]를 통해 수행될 수 있다.Here, the step (S312) of respectively calculating the horizontal distortion value Theta_X and the vertical distortion value Theta_Y may be performed through [Equation 2] below.
[식 2][Equation 2]
Theta_X = arctan(dx1 / EFL) * (180/3.14)Theta_X = arctan(dx1 / EFL) * (180/3.14)
Theta_Y = arctan(dy1 / EFL) * (180/3.14)Theta_Y = arctan(dy1 / EFL) * (180/3.14)
(여기서, EFL은 렌즈에 대한 광축거리값임)(Here, EFL is the optical axis distance value for the lens)
즉, 렌즈(11)에 대한 좌우방향 틀어짐값(Theta_X) 및 상하방향 틀어짐값(Theta_Y)은 [식 1]에 의해 산출된 산출된 종방향 이격거리(dx1) 및 횡방향 이격거리(dy1)와, 상수인 렌즈(11)의 광축거리값(EFL) 및 라이안값(180/3.14)을 기반으로 한 역탄젠트함수로 제각기 산출될 수 있다.That is, the horizontal distortion value (Theta_X) and the vertical distortion value (Theta_Y) with respect to the
상기 회전방향 틀어짐을 산출하는 단계(S320)는 3개의 렌즈(11) 각각에 대한 기준 패턴 이미지(30) 중 라이트광원(22) 및 레프트광원(23)을 기반으로 렌즈(11) 각각에 대한 회전방향 틀어짐을 산출할 수 있다.In the step of calculating the rotational distortion (S320), rotation for each of the
이러한 회전방향 틀어짐을 산출하는 단계(S320)는 라이트광원(22)과 레프트광원(23) 사이의 종방향 이격거리(dx2) 및 횡방향 이격거리(dy2)를 각각 산출하는 단계(S321) 및 회전방향 틀어짐값을 연산하는 단계(S322)를 포함하여 수행될 수 있다.The step of calculating such rotational distortion (S320) is a step of calculating the longitudinal separation distance (dx2) and the lateral separation distance (dy2) between the right
구체적으로, 라이트광원(22)과 레프트광원(23) 사이의 종방향 이격거리(dx2) 및 횡방향 이격거리(dy2)를 각각 산출하는 단계(S321)는 도 5에 도시된 바와 같이 획득된 기준 패턴 이미지(30)에서 라이트광원(22)의 횡방향좌표(rx) 및 종방향좌표(ry)와, 레프트광원(23)의 횡방향좌표(lx) 및 종방향좌표(ly)를 통해 수행될 수 있다.Specifically, the step (S321) of calculating the longitudinal separation distance (dx2) and the lateral separation distance (dy2) between the right
여기서, 라이트광원(22)과 레프트광원(23) 사이의 종방향 이격거리(dx2) 및 횡방향 이격거리(dy2)를 각각 산출하는 단계(S321)는 하기의 [식 3]을 통해 수행될 수 있다.Here, the step (S321) of calculating each of the longitudinal separation distance (dx2) and the lateral separation distance (dy2) between the light
[식 3][Equation 3]
dx2 = (rx - lx) * PixelSizedx2 = (rx-lx) * PixelSize
dy2 = (ry - ly) * PixelSizedy2 = (ry-ly) * PixelSize
(여기서, rx는 라이트광원의 횡방향 좌표, ry는 라이트광원의 종방향 좌표, lx는 레프트광원의 횡방향 좌표, ly는 레프트광원의 종방향 좌표, PixelSize는 기준 패턴 이미지의 픽셀사이즈임)(Where rx is the horizontal coordinate of the light source, ry is the vertical coordinate of the light source, lx is the horizontal coordinate of the left light source, ly is the vertical coordinate of the left light source, and PixelSize is the pixel size of the reference pattern image)
이에 따라, 라이트광원(22)과 레프트광원(23) 사이의 종방향 이격거리(dx2) 및 횡방향 이격거리(dy2)는 상기 [식 3]을 통해 산출되어 저장될 수 있다.Accordingly, the longitudinal separation distance dx2 and the lateral separation distance dy2 between the right
상기 회전방향 틀어짐값을 연산하는 단계(S322)는 각 렌즈(11)에 대한 회전방향 틀어짐값(Theta_R)을 연산하는 단계로서, 전술한 S321 단계에서 산출된 라이트광원(22)과 레프트광원(23) 사이의 종방향 이격거리(dx2) 및 횡방향 이격거리(dy2)와, 라디안값을 기반으로 연산할 수 있다.The step of calculating the rotation direction distortion value (S322) is a step of calculating the rotation direction distortion value (Theta_R) for each
여기서, 상기 회전방향 틀어짐값(Theta_R)을 연산하는 단계(S322)는 하기의 [식 4]를 통해 수행될 수 있다.Here, the step (S322) of calculating the rotational direction distortion value Theta_R may be performed through the following [Equation 4].
[식 4][Equation 4]
Theta_R = arctan(dx2 / dy2) * (180/3.14)Theta_R = arctan(dx2 / dy2) * (180/3.14)
(여기서, EFL은 렌즈에 대한 광축거리값임)(Here, EFL is the optical axis distance value for the lens)
즉, 렌즈(11)에 대한 회전방향 틀어짐값(Theta_R)은 [식 3]에 의해 산출된 산출된 라이트광원(22)과 레프트광원(23) 사이의 종방향 이격거리(dx2) 및 횡방향 이격거리(dy2)와, 상수인 라이안값(180/3.14)을 기반으로 한 역탄젠트함수로 제각기 산출될 수 있다.That is, the rotational distortion value (Theta_R) for the
이에 따라, 3개의 렌즈(11) 각각에 대한 좌우방향 틀어짐값(Theta_X), 상하방향 틀어짐값(Theta_Y) 및 회전방향 틀어짐값(Theta_R)이 제각기 산출되어 저장됨으로써 렌즈(11) 각각에 대한 개별오차가 산출될 수 있다.Accordingly, the vertical distortion value (Theta_X), the vertical distortion value (Theta_Y), and the rotation direction distortion value (Theta_R) for each of the three
상기 렌즈 사이의 각도차를 산출하는 단계(S400)는 산출된 렌즈(11) 각각에 대한 개별오차(Theta_X, Theta_YnTheta_R)를 기반으로 3개의 렌즈(11) 중 서로 이웃하는 한 쌍의 렌즈(11) 사이의 각도차를 산출하는 단계이다.The step of calculating the angular difference between the lenses (S400) is a pair of
즉, 렌즈 사이의 각도차를 산출하는 단계(S400)는 3개의 렌즈(11) 중 서로 이웃하는 3쌍에 대한 각도차를 각각 산출할 수 있다.That is, in the step of calculating the angular difference between the lenses (S400), angular differences for three adjacent pairs of the three
구체적으로, 렌즈 사이의 각도차를 산출하는 단계(S400)는 도 6에 도시된 바와 같이 좌우방향 틀어짐값(Theta_X)의 차를 산출하는 단계(S410)와, 상하방향 틀어짐값(Theta_Y)의 차를 산출하는 단계(S420)와, 회전방향 틀어짐값(Theta_R)의 차를 산출하는 단계(S430)를 포함하여 수행될 수 있다.Specifically, the step of calculating the angular difference between the lenses (S400) is a difference between the step (S410) of calculating the difference between the left-right distortion value (Theta_X) and the vertical direction distortion value (Theta_Y) as shown in FIG. It may be performed including the step of calculating (S420) and the step (S430) of calculating the difference between the rotational direction twist value (Theta_R).
상기 좌우방향 틀어짐값(Theta_X)의 차를 산출하는 단계(S410)는 3개의 렌즈(11)들 중 서로 이웃하는 한 쌍의 렌즈(11) 사이의 좌우방향 틀어짐값(Theta_X)의 차를 산출하여 저장하면서 3개의 렌즈(11)들이 이루는 3쌍에 대한 좌우방향 틀어짐값(Theta_X)의 차를 각각 산출하여 저장할 수 있다.The step of calculating the difference between the left and right distortion values Theta_X (S410) is by calculating the difference between the horizontal distortion values Theta_X between the pair of
상기 상하방향 틀어짐값(Theta_Y)의 차를 산출하는 단계(S420)는 3개의 렌즈(11)들 중 서로 이웃하는 한 쌍의 렌즈(11) 사이의 상하방향 틀어짐값(Theta_Y)의 차를 산출하여 저장하면서 3개의 렌즈(11)들이 이루는 3쌍에 대한 상하방향 틀어짐값(Theta_Y)의 차를 각각 산출하여 저장할 수 있다.The step of calculating the difference between the vertical distortion value Theta_Y (S420) is by calculating the difference between the vertical distortion value Theta_Y between the pair of
상기 회전방향 틀어짐값(Theta_R)의 차를 산출하는 단계(S430)는 3개의 렌즈(11)들 중 서로 이웃하는 한 쌍의 렌즈(11) 사이의 회전방향 틀어짐값(Theta_R)의 차를 산출하여 저장하면서 3개의 렌즈(11)들이 이루는 3쌍에 대한 회전방향 틀어짐값(Theta_R)의 차를 각각 산출하여 저장할 수 있다.In the step (S430) of calculating the difference between the rotation direction distortion value Theta_R, the difference between the rotation direction distortion value Theta_R between a pair of
상기의 과정을 통해 산출된 각 렌즈(11)들 간의 좌우방향 틀어짐값(Theta_X)의 차, 상하방향 틀어짐값(Theta_Y)의 차 및 회전방향 틀어짐값(Theta_R)의 차는 미도시된 렌즈 얼라인 장치에 제공됨으로써 렌즈(11)들을 정렬시키는데 사용될 수 있다.The difference between the horizontal distortion value (Theta_X), the vertical distortion value (Theta_Y), and the rotation direction distortion value (Theta_R) between the
이상에서 살펴 본 바와 같이 본 발명의 일 실시예에 따른 트리플 카메라모듈의 캘리브레이션 측정방법은 복수의 광원을 통해 획득되는 기준 패턴 이미지를 기반으로 렌즈 각각의 개별오차를 산출한 후, 이웃하는 렌즈 간의 각도 차를 산출함으로써 3개의 렌즈로 이루어진 트리플 카메라모듈의 정렬을 위한 오차정보를 정확하게 제공할 수 있다.As described above, in the calibration measurement method of the triple camera module according to an embodiment of the present invention, after calculating individual errors of each lens based on a reference pattern image acquired through a plurality of light sources, the angle between neighboring lenses By calculating the difference, error information for alignment of the triple camera module composed of three lenses can be accurately provided.
상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustrative purposes only, and those of ordinary skill in the art to which the above-described embodiments belong can easily transform into other specific forms without changing the technical spirit or essential features of the above-described embodiments. You can understand. Therefore, it should be understood that the above-described embodiments are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through the present specification is indicated by the claims to be described later rather than the detailed description, and should be interpreted as including all changes or modified forms derived from the meaning and scope of the claims and the concept of equivalents thereof. .
10 : 트리플렌즈 모듈
11 : 렌즈
20 : 복수의 광원
21 : 센터광원
22 : 라이트광원
23 : 레프트광원
30 : 기준 패턴 이미지10: triple lens module
11: lens
20: multiple light sources
21: Center light source
22: light source
23: Left light source
30: reference pattern image
Claims (7)
설정된 기준 패턴을 갖는 복수의 광원을 상기 트리플 카메라모듈로 조사하는 단계;
상기 트리플 카메라모듈로 상기 복수의 광원을 촬영하여 상기 트리플 카메라모듈을 구성하는 상기 3개의 렌즈 각각에 대한 상기 기준 패턴 이미지를 각각 획득하는 단계;
상기 기준 패턴 이미지를 기반으로 상기 3개의 렌즈 각각에 대한 개별오차를 산출하는 단계; 및
상기 3개의 렌즈 각각에 대한 개별오차를 기반으로 상기 3개의 렌즈 중 서로 이웃하는 렌즈 사이의 각도차를 산출하는 단계를 포함하고,
상기 복수의 광원은,
상기 기준 패턴 이미지에서 회전방향의 기준을 제공하는 센터광원;
상기 기준 패턴 이미지에서 좌우방향의 기준을 제공하는 라이트광원; 및
상기 기준 패턴 이미지에서 상하방향의 기준을 제공하는 레프트광원을 포함하며,
상기 개별오차를 산출하는 단계는,
상기 3개의 렌즈 각각에 대한 상기 기준 패턴 이미지 중 상기 센터광원을 기반으로 상기 3개의 렌즈 각각에 대한 좌우방향 틀어짐 및 상하방향 틀어짐을 산출하는 단계; 및
상기 3개의 렌즈 각각에 대한 상기 기준 패턴 이미지 중 상기 라이트광원 및 상기 레프트광원을 기반으로 상기 3개의 렌즈 각각에 대한 회전방향 틀어짐을 산출하는 단계를 포함하는 트리플 카메라모듈의 캘리브레이션 측정방법.
As a calibration measurement method of a triple camera module that measures and provides error information of a triple camera module consisting of three lenses with different wide angles,
Irradiating a plurality of light sources having a set reference pattern with the triple camera module;
Capturing the plurality of light sources with the triple camera module to obtain the reference pattern images for each of the three lenses constituting the triple camera module, respectively;
Calculating individual errors for each of the three lenses based on the reference pattern image; And
Comprising the step of calculating an angle difference between neighboring lenses among the three lenses based on individual errors for each of the three lenses,
The plurality of light sources,
A center light source providing a reference for a rotation direction in the reference pattern image;
A light source providing a reference in the left and right directions in the reference pattern image; And
Including a left light source providing a reference in the vertical direction in the reference pattern image,
The step of calculating the individual error,
Calculating a horizontal distortion and a vertical distortion for each of the three lenses based on the center light source among the reference pattern images for each of the three lenses; And
And calculating a rotational direction shift for each of the three lenses based on the light source and the left light source among the reference pattern images for each of the three lenses.
상기 좌우방향 틀어짐 및 상기 상하방향 틀어짐을 산출하는 단계는,
상기 기준 패턴 이미지의 횡방향 길이 및 종방향 길이와, 상기 센터광원의 횡방향 좌표 및 종방향 좌표와, 상기 기준 패턴 이미지에 대한 픽셀사이즈를 기반으로 상기 기준 패턴 이미지의 중심으로부터 상기 센터광원의 종방향 이격거리 및 횡방향 이격거리를 각각 산출하는 단계; 및
상기 센터광원의 종방향 이격거리 및 상기 횡방향 이격거리와, 상기 렌즈에 대한 광축거리값과, 라디안값을 기반으로 상기 렌즈에 대한 상기 좌우방향 틀어짐값 및 상기 상하방향 틀어짐값을 각각 연산하는 단계를 포함하는 트리플 카메라모듈의 캘리브레이션 측정방법.
The method of claim 1,
The step of calculating the horizontal distortion and the vertical distortion,
The length of the center light source from the center of the reference pattern image based on the horizontal and vertical length of the reference pattern image, the horizontal and vertical coordinates of the center light source, and the pixel size of the reference pattern image. Calculating a directional separation distance and a lateral separation distance, respectively; And
Calculating the horizontal and vertical distortion values for the lens based on the longitudinal separation distance and the lateral separation distance of the center light source, an optical axis distance value for the lens, and a radian value. Calibration measurement method of the triple camera module comprising a.
상기 센터광원의 종방향 이격거리 및 횡방향 이격거리를 각각 산출하는 단계는, 하기 [식 1]에 의해 상기 기준 패턴 이미지의 중심으로부터의 상기 센터광원의 종방향 이격거리(dx1) 및 횡방향 이격거리(dy1)를 각각 연산하고,
상기 좌우방향 틀어짐값 및 상기 상하방향 틀어짐값을 각각 연산하는 단계는, 하기 [식 2]에 의해 상기 좌우방향 틀어짐값(Theta_X) 및 상기 상하방향 틀어짐값(Theta_Y)을 각각 연산하는 것을 특징으로 하는 트리플 카메라모듈의 캘리브레이션 측정방법.
[식 1]
dx1 = (Width/2 - cx) * PixelSize
dy1 = (Height/2 - cy) * PixelSize
(여기서, Width는 기준 패턴 이미지의 횡방향 길이, Height는 기준 패턴 이미지의 종방향 길이, cx는 센터광원의 횡방향 좌표, cy는 센터광원의 종방향 좌표, PixelSize는 기준 패턴 이미지의 픽셀사이즈임)
[식 2]
Theta_X = arctan(dx1 / EFL) * (180/3.14)
Theta_Y = arctan(dy1 / EFL) * (180/3.14)
(여기서, EFL은 렌즈에 대한 광축거리값임)The method of claim 4,
The step of calculating the longitudinal separation distance and the lateral separation distance of the center light source, respectively, may include a longitudinal separation distance (dx1) and a lateral separation distance of the center light source from the center of the reference pattern image by the following [Equation 1]. Calculate distance (dy1) respectively,
The step of calculating the horizontal distortion value and the vertical distortion value respectively comprises calculating the horizontal distortion value (Theta_X) and the vertical direction distortion value (Theta_Y) according to the following [Equation 2]. How to measure the calibration of the triple camera module.
[Equation 1]
dx1 = (Width/2-cx) * PixelSize
dy1 = (Height/2-cy) * PixelSize
(Where, Width is the horizontal length of the reference pattern image, Height is the vertical length of the reference pattern image, cx is the horizontal coordinate of the center light source, cy is the vertical coordinate of the center light source, and PixelSize is the pixel size of the reference pattern image. )
[Equation 2]
Theta_X = arctan(dx1 / EFL) * (180/3.14)
Theta_Y = arctan(dy1 / EFL) * (180/3.14)
(Here, EFL is the optical axis distance value for the lens)
상기 회전방향 틀어짐을 산출하는 단계는,
상기 기준 패턴 이미지에서 상기 라이트광원의 종방향 좌표 및 횡방향 좌표와, 상기 레프트광원의 종방향 좌표 및 횡방향 좌표를 기반으로 상기 라이트광원과 상기 레프트광원 사이의 종방향 이격거리 및 횡방향 이격거리를 각각 산출하는 단계; 및
상기 종방향 이격거리 및 상기 횡방향 이격거리와, 라디안값을 기반으로 상기 렌즈에 대한 상기 회전방향 틀어짐값을 연산하는 단계를 포함하는 트리플 카메라 모듈의 캘리브레이션 측정방법.
The method of claim 1,
The step of calculating the rotational direction distortion,
In the reference pattern image, based on the vertical coordinates and the horizontal coordinates of the light light source, and the vertical coordinates and the horizontal coordinates of the left light source, a vertical separation distance and a horizontal separation distance between the light light source and the left light source Calculating each; And
And calculating the rotation direction distortion value for the lens based on the longitudinal separation distance, the lateral separation distance, and a radian value.
상기 종방향 이격거리 및 횡방향 이격거리를 각각 산출하는 단계는, 하기 [식 3]에 의해 상기 라이트광원과 상기 레프트광원 사이의 종방향 이격거리(dx2) 및 횡방향 이격거리(dy2)를 각각 연산하고,
상기 회전방향 틀어짐값을 연산하는 단계는, 하기 [식 4]에 의해 상기 회전방향 틀어짐값(Theta_R)을 연산하는 것을 특징으로 하는 트리플 카메라모듈의 캘리브레이션 측정방법.
[식 3]
dx2 = (rx - lx) * PixelSize
dy2 = (ry - ly) * PixelSize
(여기서, rx는 라이트광원의 횡방향 좌표, ry는 라이트광원의 종방향 좌표, lx는 레프트광원의 횡방향 좌표, ly는 레프트광원의 종방향 좌표, PixelSize는 기준 패턴 이미지의 픽셀사이즈임)
[식 4]
Theta_R = arctan(dx2 / dy2) * (180/3.14)
The method of claim 6,
The step of calculating the longitudinal separation distance and the lateral separation distance, respectively, is a longitudinal separation distance (dx2) and a lateral separation distance (dy2) between the light source and the left light source by the following [Equation 3] Calculate,
In the calculating of the rotation direction distortion value, the calibration measurement method of a triple camera module, characterized in that the rotation direction distortion value (Theta_R) is calculated by the following [Equation 4].
[Equation 3]
dx2 = (rx-lx) * PixelSize
dy2 = (ry-ly) * PixelSize
(Where rx is the horizontal coordinate of the light source, ry is the vertical coordinate of the light source, lx is the horizontal coordinate of the left light source, ly is the vertical coordinate of the left light source, and PixelSize is the pixel size of the reference pattern image)
[Equation 4]
Theta_R = arctan(dx2 / dy2) * (180/3.14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190090678A KR102238789B1 (en) | 2019-07-26 | 2019-07-26 | Calibration method for triple camera-module |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190090678A KR102238789B1 (en) | 2019-07-26 | 2019-07-26 | Calibration method for triple camera-module |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210012623A KR20210012623A (en) | 2021-02-03 |
KR102238789B1 true KR102238789B1 (en) | 2021-04-09 |
Family
ID=74572132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190090678A KR102238789B1 (en) | 2019-07-26 | 2019-07-26 | Calibration method for triple camera-module |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102238789B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012190279A (en) * | 2011-03-10 | 2012-10-04 | Fuji Xerox Co Ltd | Information processing system, information processing device and program |
JP2012216981A (en) | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Calibration method for stereo camera and information processing device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101545633B1 (en) | 2013-12-27 | 2015-08-19 | 전자부품연구원 | Method and System for Vehicle Stereo Camera Calibration |
KR20150110069A (en) * | 2014-03-24 | 2015-10-02 | 삼성전기주식회사 | Stereoscopic camera apparatus and alignment control method thereof |
DE102014212104A1 (en) * | 2014-06-24 | 2015-12-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | DEVICE AND METHOD FOR THE RELATIVE POSITIONING OF A MULTI-PAPER UROPTIK WITH SEVERAL OPTICAL CHANNELS RELATIVE TO AN IMAGE SENSOR |
-
2019
- 2019-07-26 KR KR1020190090678A patent/KR102238789B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012190279A (en) * | 2011-03-10 | 2012-10-04 | Fuji Xerox Co Ltd | Information processing system, information processing device and program |
JP2012216981A (en) | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Calibration method for stereo camera and information processing device |
Also Published As
Publication number | Publication date |
---|---|
KR20210012623A (en) | 2021-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2831537B1 (en) | Apparatus, method and computer program for three-dimensional measurement | |
JP5055191B2 (en) | Three-dimensional shape measuring method and apparatus | |
US9816287B2 (en) | Updating calibration of a three-dimensional measurement system | |
US7893393B2 (en) | System and method for calibrating an image projection system | |
US8452568B2 (en) | Method for calibrating cameras installed on vehicle | |
CN112669394B (en) | Automatic calibration method for vision detection system | |
CN101576379B (en) | Fast Calibration Method for Active Projection 3D Measurement System Based on 2D Color Target | |
EP2751521B1 (en) | Method and system for alignment of a pattern on a spatial coded slide image | |
EP3041228A1 (en) | Camera calibration device, camera calibration system, and camera calibration method | |
US10687052B2 (en) | Camera parameter calculation method, recording medium, camera parameter calculation apparatus, and camera parameter calculation system | |
JP5432835B2 (en) | How to calibrate the camera | |
US10664995B2 (en) | Camera parameter calculation apparatus, method, and recording medium based on an absolute value of corresponding pixel values | |
JP6519265B2 (en) | Image processing method | |
US20150346471A1 (en) | Method for the image-based calibration of multi-camera systems with adjustable focus and/or zoom | |
KR20190047453A (en) | Method and apparatus for calibrating parameter of 3d display apparatus | |
JP5051493B2 (en) | 3D measurement marker and 3D measurement method using the same | |
JP6186431B2 (en) | Calibration apparatus, calibration system, and imaging apparatus | |
US11284052B2 (en) | Method for automatically restoring a calibrated state of a projection system | |
KR102238789B1 (en) | Calibration method for triple camera-module | |
WO2020012707A1 (en) | Three-dimensional measurement device and method | |
JP6890293B2 (en) | Camera calibration device, camera calibration system, camera calibration method and program | |
Long et al. | Portable visual metrology without traditional self-calibration measurement model | |
US10054421B2 (en) | Apparatus for measuring three-dimensional position of target object | |
WO2013154085A1 (en) | Calibration method and device | |
JP2018041169A (en) | Information processing device and control method and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190726 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210119 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210331 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210405 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20210406 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20240131 Start annual number: 4 End annual number: 4 |