KR20150069927A - Device, method for calibration of camera and laser range finder - Google Patents
Device, method for calibration of camera and laser range finder Download PDFInfo
- Publication number
- KR20150069927A KR20150069927A KR1020130156665A KR20130156665A KR20150069927A KR 20150069927 A KR20150069927 A KR 20150069927A KR 1020130156665 A KR1020130156665 A KR 1020130156665A KR 20130156665 A KR20130156665 A KR 20130156665A KR 20150069927 A KR20150069927 A KR 20150069927A
- Authority
- KR
- South Korea
- Prior art keywords
- flat plate
- distance information
- plate member
- camera
- image information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000006243 chemical reaction Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 26
- 230000009466 transformation Effects 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 12
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 3
- 230000001154 acute effect Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000005553 drilling Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
본 발명은 각각 촬영된 이미지 정보 및 거리 정보를 이용하여 좌표변환을 하는 캘리브레이션 장치 및 방법을 제공하며, 꼭지점을 포함하는 평판부재를 이용하고, 상기 거리 정보로부터 예측된 꼭지점과 상기 이미지 정보로부터 추출된 꼭지점으로 이루어지는 대응쌍을 이용하여 좌표변화를 구현한다. 이에 따라, 레이저 센서 및 카메라와 상기 평판부재가 배치되는 위치의 한계를 극복할 수 있다. According to the present invention, there is provided a calibration apparatus and method for performing coordinate conversion using image information and distance information, respectively, wherein a flat member including a vertex is used, and vertexes predicted from the distance information and vertexes extracted from the image information A coordinate change is implemented using a pair of vertices. Accordingly, it is possible to overcome the limitation of the position where the laser sensor, the camera and the flat plate member are disposed.
Description
본 발명은 지형 및 사물 인지를 위한 이종 센서 간 캘리브레이션에 관한 발명이다. The present invention relates to calibration between heterogeneous sensors for terrain and object recognition.
각도 및 거리 정보를 가지는 레이저 센서(또는 레이저 거리센서)의 사용 범위는 로봇 및 자율이동차량 등의 분야의 발전에 따라 점점 넓어지고 있다. 산업분야 또는 군수분야는 더 많은 정보를 활용하기 위하여 최근에 상기 레이저 센서와 함께 카메라 이미지를 많이 사용한다. 다만, 레이저 센서와 카메라를 함께 사용하기 위해서는 레이저 센서와 카메라 간의 대응 관계를 알아내는 캘리브레이션이 필수적으로 선행되어야 한다.The range of use of a laser sensor (or a laser distance sensor) having angle and distance information is getting wider as the field of robot and autonomous moving vehicle develops. Industrial or military applications often use camera images together with the laser sensors to utilize more information. However, in order to use the laser sensor and the camera together, it is essential to calibrate the calibration to find the correspondence between the laser sensor and the camera.
거리를 측정하는 레이저 센서와 컬러(밝기) 영상을 획득하는 2D CCD 카메라 간 캘리브레이션을 수행하기 위하여, 새로운 모양의 보드를 활용하는 방법이 개발되었다. 예를 들어, 사각형 평판에 일정 반경의 구멍을 뚫어 해당 구멍에서 거리 (깊이)의 차이에 의한 레이저 스캔 데이터와 칼라 영상의 밝기의 변화에 의한 구멍을 검출함으로써 자동적인 대응점 검출을 하는 방법이다. 다만, 판 위의 구멍을 비스듬히 지나 반사되어 되돌아오는 레이저가 종종 평판의 뒷면에 부딪치어 돌아오지 않는 경우가 발생하였다. In order to perform calibration between the distance measuring laser sensor and the 2D CCD camera acquiring the color (brightness) image, a method of utilizing a new shape board has been developed. For example, it is a method of automatically detecting a correspondence point by drilling a hole with a certain radius in a rectangular plate, detecting laser scan data due to a difference in distance (depth) in the hole, and hole caused by a change in brightness of the color image. However, there is a case where the laser beam that is reflected back through the hole on the plate obliquely hits the back surface of the flat plate and does not return.
이에 두 개의 사각형 평판을 예각(acute angle)의 V형으로 붙이고 두 평판의 가장자리에 투영된 거리 센서의 3D 포인트 클라우드의 거리를 최소화하는 방향으로 변환 매트릭스의 파라미터를 결정하는 방법이 제안되었으나, 레이저 거리 데이터와 밝기의 영상 데이터의 직접적인 대응점을 기반으로 하지 않아 과정이 복잡하거나 인간의 개입을 필요로 하는 단점이 있다. A method has been proposed in which two rectangular plates are attached to an acute angle V shape and the parameters of the conversion matrix are determined in a direction that minimizes the distance of the 3D point cloud of the distance sensor projected to the edge of the two plates. But it is not based on a direct correspondence point between the data and brightness image data, and thus has a disadvantage that the process is complicated or requires human intervention.
레이저 거리 데이터와 칼라 영상 데이터의 좀 더 정확한 대응점 검출을 위해 가시적인 IR (infra-red) 선을 사용하여 칼라 영상에서 직접 거리와 밝기의 대응점을 검출하는 방법이 발표 되었다. 다만, 방법은 IR 센서가 구비되어야 가능하다는 단점이 있다. In order to detect more accurate correspondence between laser distance data and color image data, a method of detecting the correspondence between direct distance and brightness in a color image using a visible IR (infra-red) line has been disclosed. However, there is a disadvantage that the method can be performed only when an IR sensor is provided.
보드의 기하학적인 특징을 이용하여 레이저 거리 데이터와 영상 데이터의 직접적인 대응점을 검출하는 방법이 제안되었다. 예를 들어 삼각형의 보드를 사용하여 취득한 거리 레이저 데이터와 이미 알고 있는 삼각형 밑면의 길이의 비율로부터 카메라 영상에서 취득한 삼각형 모양의 두 선분을 지나는 양쪽 두 점을 유추할 수 있으며 이들 대응점을 이용하여 좌표축 변환식의 값들 계산할 수 있다 A method of detecting a direct correspondence point between the laser distance data and the image data using the geometric characteristics of the board has been proposed. For example, from the ratio of the distance between the laser data obtained by using the triangular board and the length of the bottom of the triangle which is already known, it is possible to infer two points passing through two triangular segments obtained from the camera image. You can calculate the values of
다만, 상기 방법은 삼각형 평면 보드의 밑면이 레이저 거리 센서의 주사면과 평행을 이루어야 한다는 조건과 삼각형의 면에 대해 단일 레이저 스캔 데이터를 이용한다는 한계가 있다.However, this method has a limitation that the bottom surface of the triangular planar board must be parallel to the scanning surface of the laser distance sensor and that a single laser scan data is used for the triangular surface.
이에 본 발명의 삼각형 보드가 수평으로 배치되는 등의 제약이 없는 3D 레이저 스캐너와 2D 영상 카메라의 캘리브레이션 장치를 제공하는 것에 있다.Accordingly, it is an object of the present invention to provide a 3D laser scanner and an apparatus for calibrating a 2D image camera without the restriction that the triangular board of the present invention is disposed horizontally.
이와 같은 본 발명의 과제를 달성하기 위한 일 실시예에 따른 캘리브레이션 장치는 이미지 정보를 촬영하는 카메라, 거리 정보를 감지하는 레이저 센서, 상기 이미지 정보 및 거리 정보의 대응관계를 산출하여 상기 카메라 및 레이저 센서의 캘리브레이션을 수행하는 캘리브레이션 모듈을 포함하고, 상기 캘리브레이션 모듈은 복수의 꼭지점을 포함하는 다각형으로 이루어지는 평판부재 및 상기 거리 정보를 이용하여 상기 복수의 꼭지점들을 예측하고, 상기 예측된 꼭지점들을 상기 이미지 정보에 포함되는 평판부재의 꼭지점과 대응시켜 상기 이미지 정보와 상기 거리 정보 사이에서 좌표를 변환하는 제어부을 포함한다. According to an aspect of the present invention, there is provided a calibration apparatus including a camera that captures image information, a laser sensor that senses distance information, a correspondence relation between the image information and the distance information, Wherein the calibration module includes a flat plate member having a polygonal shape including a plurality of vertexes, and a controller for predicting the plurality of vertexes using the distance information, and calculating the predicted vertexes in the image information And a control unit for converting coordinates between the image information and the distance information in correspondence with the vertexes of the plate member included.
본 발명과 관련된 일 예로서, 상기 평판 부재는 삼각형 또는 마름모 형태로 이루어진다. As an example related to the present invention, the flat plate member is formed in a triangular or rhombic shape.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 꼭지점을 예측하기 위하여 상기 거리 정보에 포함되는 복수의 평면 중 하나의 평면을 선택하며, 상기 하나의 평면은, 상기 복수의 평면 중 기 설정된 거리 내에 위치하고 상기 평판부재에 해당되는 가장 많은 포인트를 포함한다. In one embodiment of the present invention, the controller selects one of a plurality of planes included in the distance information to predict the vertex, the one plane being located within a predetermined distance among the plurality of planes And includes the most points corresponding to the flat plate members.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 하나의 평면의 포인트들을 상기 평면에 수직하도록 정사영 시키고, 상기 정사영된 포인트들을 이용하여 상기 평판부재의 꼭지점을 예측한다. In one embodiment of the present invention, the control unit orthogonalizes the points of the one plane so as to be perpendicular to the plane, and predicts the vertices of the flat member using the orthogonal points.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 정사영된 포인트들을 이용하여 복수의 빗면에 대한 방정식을 검출하고, 상기 복수의 방정식의 연산을 통하여 상기 꼭지점을 산출한다. As an example related to the present invention, the controller detects the equations for a plurality of oblique planes using the orthographic points, and calculates the vertices through the calculation of the plurality of equations.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 꼭지점들 사이의 길이와 상기 평판부재의 모서리의 길이를 비교하여, 상기 길이들의 차이가 오차범위내에 해당되는지 판단한다. As an example related to the present invention, the controller compares the length between the vertexes and the edge of the flat plate member to determine whether the difference between the lengths is within an error range.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 이미지 정보에서 연산된 이미지 좌표축에 대한 제1 위치 데이터와 상기 예측된 꼭지점들에 의하여 연산된 좌표축에 대한 제2 위치데이터를 이용하여 복수의 대응점을 산출한다. As an example related to the present invention, the controller calculates a plurality of corresponding points using first position data of the image coordinate axis calculated in the image information and second position data of the coordinate axis calculated by the predicted vertices do.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 대응점이 기 설정된 기준개수 이상 산출되는지 여부를 판단하고, 상기 대응점이 상기 기준개수 미만인 경우, 상기 거리 정보 및 상기 이미지정보를 다시 수신한다. In one embodiment of the present invention, the control unit determines whether or not the corresponding point is calculated to be equal to or greater than a predetermined reference number, and receives the distance information and the image information again when the corresponding point is less than the reference number.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 제1 및 제2 위치데이터를 이용하여 상기 이미지 정보 및 상기 거리정보 사이에서의 변환행렬을 산출하고, 상기 변환행렬을 이용하여 좌표변환을 수행한다. As an example related to the present invention, the controller calculates a transformation matrix between the image information and the distance information using the first and second position data, and performs coordinate transformation using the transformation matrix.
이와 같은 본 발명의 과제를 달성하기 위한 일 실시예에 따른, 이미지 정보를 촬영하는 카메라 및 거리 정보를 감지하는 레이저 센서의 사이에서 좌표변환을 수행하는 캘리브레이션 방법은, 상기 카메라 및 상기 레이저 센서를 이용하여 평판부재를 촬영하는 단계, 상기 평판부재의 거리 정보로부터 복수의 꼭지점을 예측하는 단계, 상기 예측된 꼭지점과 상기 평판부재의 이미지 정보에 포함되는 꼭지점을 이용하여 적어도 하나의 대응쌍을 생성하는 단계, 상기 대응쌍을 이용하여 변환행렬을 생성하는 단계 및 상기 변환행렬을 이용하여 좌표변환을 수행하는 단계를 포함한다. According to another aspect of the present invention, there is provided a calibration method for performing coordinate conversion between a camera for photographing image information and a laser sensor for sensing distance information, A step of photographing a flat plate member, a step of predicting a plurality of vertices from the distance information of the flat plate member, a step of generating at least one corresponding pair using vertexes included in the image information of the predicted vertex and the flat plate member Generating a transform matrix using the corresponding pair, and performing coordinate transform using the transform matrix.
본 발명과 관련된 일 예로서, 상기 복수의 꼭지점을 예측하는 단계는 상기 거리 정보로부터 하나의 평면을 검출하는 단계. 상기 검출된 평면 상에 상기 거리 정보에 포함되는 포인트들을 정사영시키는 단계 및 상기 정사영된 포인트들을 이용하여 복수의 빗면을 산출하는 단계를 포함한다. As an example related to the present invention, the step of predicting the plurality of vertices may include detecting one plane from the distance information. The method comprising the steps of: orthogonalizing points included in the distance information on the detected plane; and calculating a plurality of oblique planes using the orthogonal points.
본 발명과 관련된 일 예로서, 상기 대응쌍이 기 설정된 기준개수 이상인지 판단하는 단계를 더 포함하고, 상기 대응쌍이 상기 기준개수 미만인 경우 상기 카메라 및 상기 레이저 센서로부터 각각 상기 이미지 정보 및 거리 정보를 다시 수신한다. In one embodiment of the present invention, the method further comprises determining whether the corresponding pair is greater than or equal to a preset reference number, and when the corresponding pair is less than the reference number, receiving the image information and distance information from the camera and the laser sensor again do.
상기와 같은 구성의 본 발명에 의하면, 평판부재 자체의 형상을 이용하여 평판부재와 상기 평판부재를 촬영하는 카메라 및 레이저 센서의 위치를 보다 간편하게 변환행렬을 위한 데이터를 구할 수 있다. According to the present invention having the above-described structure, it is possible to easily obtain the data for the conversion matrix of the position of the camera and the laser sensor for photographing the flat plate member and the flat plate member using the shape of the flat plate member itself.
이에 따라, 평판부재의 위치에 따른 오차를 최소화하고 보다 용이하게 레이저 스캐너와 카메라를 캘리브레이션 할 수 있다. Accordingly, it is possible to minimize the error according to the position of the flat plate member and calibrate the laser scanner and the camera more easily.
도 1a는 본 발명의 일 실시예에 따르는 캘리브레이션 시스템을 나타내는 개념도.
도 1b는 도 1a의 캘리브레이션 시스템의 구성도.
도 2는 본 발명의 일 실시 예에 따른 캘리브레이션 장치를 나타내는 개념도.
도 3은 본 발명에 따른 캘리브레이션 방법을 설명하기 위한 흐름도.
도 4는 3D 포인트 클라우드에서 대응쌍에 이용되는 삼각형의 세 꼭지점 예측 방법에 대한 흐름도.
도 5a 및 도 5b는 정렬된 포인트들을 연산하는 방법을 설명하기 위한 개념도.
도 6은 정렬된 3D 포인트 클라우드에서 삼각형의 모서리와 위쪽 꼭지점을 검출하는 방법에 대한 개념도.
도 7은 대응쌍에 이용되는 2D 이미지와 3D 포인트 클라우드에서 삼각형 보드의 세 꼭지점에 대한 개념도.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1A is a conceptual diagram showing a calibration system according to an embodiment of the present invention. FIG.
1B is a configuration diagram of the calibration system of FIG. 1A;
2 is a conceptual diagram showing a calibration apparatus according to an embodiment of the present invention;
3 is a flow chart for explaining a calibration method according to the present invention.
4 is a flow chart of a method for predicting a triangle vertex point for a corresponding pair in a 3D point cloud;
5A and 5B are conceptual diagrams for explaining a method of calculating aligned points.
Figure 6 is a conceptual diagram of a method for detecting edges and top vertices of a triangle in an aligned 3D point cloud.
Fig. 7 is a conceptual diagram of three vertices of a triangle board in a 2D point cloud and a 2D image used in a corresponding pair; Fig.
이하, 본 발명과 관련된 카메라 및 레이저 센서의 캘리브레이션 장치, 캘리브레이션 시스템 및 캘리브레이션 방법에 관하여 도면을 참조하여 보다 상세하게 설명한다. 본 명세서에서는 서로 다른 실시예라도 동일·유사한 구성에 대해서는 동일·유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Hereinafter, a calibration apparatus, a calibration system, and a calibration method of a camera and a laser sensor according to the present invention will be described in detail with reference to the drawings. In the present specification, the same or similar reference numerals are given to different embodiments in the same or similar configurations. As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise.
도 1a는 본 발명의 일 실시예에 따르는 캘리브레이션 시스템을 나타내는 개념도이고, 도 1b는 도 1a의 캘리브레이션 시스템의 구성도이다. 도 2는 본 발명의 일 실시 예에 따른 캘리브레이션 장치를 나타내는 개념도이다. FIG. 1A is a conceptual diagram showing a calibration system according to an embodiment of the present invention, and FIG. 1B is a structural diagram of the calibration system in FIG. 1A. 2 is a conceptual diagram illustrating a calibration apparatus according to an embodiment of the present invention.
본 발명에 따른 캘리브레이션 시스템은 레이저 스캐너(11), 카메라(12), 제어부 모듈(S) 및 평판부재(13)를 포함한다. 상기 레이저 스캐너(11)는 복수이 장치로 이루어지고, 상기 복수의 장치들은 하나의 축을 기준으로 배열된다. 배열된 상기 레이저 스캐너(11)와 상기 카메라(12)의 위치는 도면에 도시된 바와 같이 기 설정된 위치에 고정된다. 상기 레이저 스캐너(11)와 상기 카메라(12)는, 상기 레이저 스캐너(11)와 상기 카메라(12)에 의한 데이터가 상기 평판부재(13) 상에서 획득되도록 고정된다. 상기 레이저 스캐너(11)와 상기 케마라(12)는 상대적으로 고정된 거리를 유지하면서, 이동형 로봇본체(미도시)에 장착될 수 있다. The calibration system according to the present invention includes a
상기 레이저 스캐너(11)는 감지 대상체들의 거리 정보를 감지하며, 전방을 향하여 레이저 빔을 주사하여 대상 물체로부터 반사된 레이저를 수광하는 3D 레이저 스캐너의 형태로 구현될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니며, 레이저 센서(10)는 3D 포인트 클라우드를 생성할 수 있는 구동되는 2D 레이저 스캐너나 , 대상물의 거리 정보를 획득할 수 있는 FMCW(Frequency Modulated Continuous Wave) 레이더 또는 3D 레이저 스캐너 등이 될 수 있다.The
상기 카메라(12)는 이미지 정보를 촬영하며, CCD(Charge Coupled-Device) 카메라, 복수의 카메라가 하나의 마운트에 고정되는 스테레오 카메라 등의 형태를 가질 수 있다.The
상기 제어부 모듈(S)은 상기 레이저 스캐너(11)와 상기 카메라(12)로부터 데이터를 수신하여 캘리브레이션을 수행한다. 상기 제어부 모듈(S)은 상기 이동형 로봇본체(미도시)에 탑재 될 수 있다. The controller module S receives data from the
상기 배열레이저 스캐너(11)로부터 제어부(S)로 수신된 데이터는 3D포인트 클라우드(30)로 이루어지며, 3D포인트 클라우드(30)는 레이저 수광 센서로부터 반사된 물체의 표면까지의 거리를 레이저 센서의 원점 또는 공간상의 임의의 원점을 기준으로 3D 좌표계로 나타낸 포인트들의 집합을 의미한다. 다만, 본 발명의 거리 데이터는 3D 레이저 스캐너(11)의 데이터에 한정되는 것은 아니며 빛의 패턴의 크기를 이용하는 방식이나 빛의 속도를 재는 방식의 깊이 카메라(Depth camera)등 일반적인 3D 거리 센서의 데이터가 될 수도 있다.The data received from the
상기 카메라(12)로부터 제어부(S)로 수신되는 데이터(20)는 2D 이미지 정보이며, 이 때 사용되는 카메라는 도 1a에 도시된 것처럼 복수일 수도 있다. 또한 2D 이미지 정보(20)는 컬러이미지 정보가 아닌 흑백이미지 등 평판부재(13)의 기하학적인 정보를 표현 가능한 2D 이미지들이 될 수도 있다.
The data 20 received from the
상기 평판부재(13)는 상기 레이저 센서(11)의 감지범위(측정범위)와 상기 카메라(12)의 촬영범위 내에 배치된다. 상기 평판부재(13)는 배열레이저 스캐너(11)에서 생성된 3D 포인트 클라우드(30)와 카메라(12)에서 생성된 2D 이미지(20)에서 각각 포함될 수 있는 공간적 위치에 배치된다. 평판부재(13)는 모서리가 직선으로 이루어져있고, 맞닿은 빗변들이 예각을 이루는 형태로 이루어 질 수 있다. 예를 들어 삼각형이나 마름모형이 될 수 있다. The
다만, 상기 레이저 센서(11)의 데이터 스캔 방향이 서로 평행한 경우 상기 평판부재(13)는 상기 평판부재(13)을 이루는 두 개 이상의 모서리가 상기 스캔 방향과 평행하게 배치되는 것이 제한된다. However, when the data scanning directions of the
하나의 상기 평판부재의 배치에서 생성된 3D 포인트 클라우드(30)와 2D 이미지(20)는 한 쌍의 데이터로 정의된다. 상기 한 쌍의 데이터에는 촬영 당시 사용한 평판부재 형태와 개수에 따라서 검출되는 대응쌍의 개수가 다르다. 상기 대응쌍은 전체 검출된 평판부재의 꼭지점 수의 합과 같을 수 있다. The
예를 들어, 상기 평판부재(13)가 삼각형 모양인 경우, 상기 데이터 쌍에서는 3개의 대응쌍이 형성될 수 있다. 두 개의 마름모 모양의 평면부재를 사용한 상기 데이터 상에서는 8개의 대응쌍이 형성될 수 있다. 설명의 편의를 위하여 상기 평판부재가 삼각형 모양인 것으로 설명한다. For example, if the
도 3은 본 발명에 따른 캘리브레이션 방법을 설명하기 위한 흐름도이고, 도 4는 3D 포인트 클라우드에서 대응쌍에 이용되는 삼각형의 세 꼭지점 예측 방법에 대한 흐름도이다. 도 5a 및 도 5b는 정렬된 포인트들을 연산하는 방법을 설명하기 위한 개념도이다. FIG. 3 is a flow chart for explaining a calibration method according to the present invention, and FIG. 4 is a flowchart of a method of predicting a triangle vertex used in a corresponding pair in a 3D point cloud. 5A and 5B are conceptual diagrams for explaining a method of calculating aligned points.
먼저 상기 제어부 모듈(S)은 3D 포인트 클라우드를 수신한다(S10). 상기 제어부 모듈(S)는 수신한 3D 포인트 클라우드(30)에서 하나의 평판부재 (삼각형 보드)에 대한 복수의 포인트들을 검출한다. 예를 들어, 두 개의 평판부재에 대한 데이터가 포함된 3D 포인트 클라우드(30)에서 하나의 평판부재에 대한 포인트를 검출할 수 있다.First, the control module S receives the 3D point cloud (S10). The control module S detects a plurality of points for one flat plate (triangular board) in the received
또한, 상기 평판부재(삼각형 보드) 영역에 대한 데이터를 정렬한다(S30). 상기 평판부재 영역에 대한 데이터를 정렬하여 상기 레이저 센서(12)에서 생성한 노이즈를 줄일 수 있다.In addition, data for the flat plate (triangular board) area is arranged (S30). The noise generated by the
도 4 및 도 5a를 참조하면, 상기 평판부재(삼각형 보드)에 해당하는 평면을 검출한다(S21), 즉 상기 제어부 모듈(S)은 상기 수신된 평판부재에 해당하는 포인트들에서 상기 평판부재에 해당하는 평면(P)를 검출한다. 4 and 5A, a plane corresponding to the flat plate (triangular board) is detected (S21). That is, the control module S detects a plane corresponding to the received flat plate member The corresponding plane P is detected.
예를 들어, 상기 제어부 모듈(S)은 상기 평면(P)를 검출하기 위하여 상기 평판부재에 해당하는 포인트들 중 임의의 3개의 포인트를 선택한다. 상기 제어부 모듈(S)은 상기 3개의 포인트를 포함한 평면으로부터 일정거리 내의 상기 평판부재에 해당하는 포인트 수가 최대가 되는 평면을 검출하도록 반복하여 연산한다.For example, the control module S selects any three of the points corresponding to the plate member to detect the plane P. The controller module S repeatedly calculates to detect a plane having a maximum number of points corresponding to the flat plate members within a certain distance from the plane including the three points.
상기 제어부 모듈(S)은 상기 검출된 평판부재 평면(P) 위에 상기 평판부재에 해당하는 포인트들(30)을 평면에 수직하도록 정사영(orthogonal projection)시켜 정렬된 포인트들(40)을 얻을 수 있다(S22). 다만, 각 포인트들의 발광점의 위치가 추정 가능하다면, 레이저 발광부에 평행하도록 정사영을 나타낼 수 있다.The controller module S can obtain
도 5b를 참조하면, 상기 제어부 모듈(S)은 상기 평판부재(삼각형 보드)영역에 해당하는 3D 포인트들 중 일부(30a, 30b, 30c, 30d)에 의하여 검출된 평면(P)에 각각 정사영된 정렬된 포인트(40a, 40b, 40c, 40d)를 연산한다. 5B, the controller module S is mounted on a plane P detected by a
상기 제어부 모듈(S)은 평판부재(삼각형 보드)의 꼭지점을 예측한다(S30). 도 6은 정렬된 3D 포인트 클라우드에서 삼각형의 모서리와 위쪽 꼭지점을 검출하는 방법에 대한 개념도이고, 이를 참조하여 꼭지점을 예측하는 방법을 보다 구체적으로 설명한다. The control module S predicts the vertex of the flat member (triangular board) (S30). FIG. 6 is a conceptual diagram of a method for detecting a corner and an upper vertex of a triangle in an aligned 3D point cloud, and a method for predicting a vertex will be described in more detail with reference to FIG.
상기 제어부 모듈(S)은 상기 정렬된 포인트들(40a, 40b, 40c, 40d) 중 상기 평판부재의 좌측빗면에 해당하는 3D직선 방정식을 검출하고(S31), 상기 평판부재의 우측 빗면에 해당하는 3D 직선방정식을 검출한다(S32). The controller module S detects a 3D linear equation corresponding to the left oblique plane of the flat member among the aligned
상기 3D 직선 방정식을 검출하기 위하여 상기 좌측 빗면에 해당하는 포인트들(41)을 검출하고 상기 우측 빗면에 해당하는 포인트들(42)을 검촐한다. In order to detect the 3D linear equation, the
예를 들어, 상기 레이저 센서(11)가 서로 평행한 동일 방향을 스캔하는 레이저 센서장치들로 구성되어 있는 경우, 상기 정렬된 포인트들(40a, 40b, 40c, 40d) 중 상기 각 센서 스캔라인에서 가장 좌측에 해당하는 포인트들을 검출하여 상기 좌측 빗면에 해당하는 포인트들(41)을 검출할 수 있다. 또한, 상기 정렬된 포인트 중 각 센서 스캔라인에서 가장 우측에 해당하는 포인트들을 검출하여 상기 우측 빗면에 해당하는 포인트들(42)을 검출할 수 있다. For example, if the
상기 삼각형 보드의 좌측 빗면에 해당하는 3D 직선방정식(43)은, 상기 검출한 좌측 빗면에 해당하는 포인트들(41)로부터 임의의 2개를 선택하여, 상기 2개의 포인트를 포함한 3D 직선방정식으로부터 일정거리 내의 상기 좌측 빗면에 해당하는 포인트들(41)의 수가 최대가 되는 3D 직선방정식을 검출하도록 반복하여 연산이 가능하다(S31). 상기 삼각형 보드의 우측 빗면에 해당하는 3D 직선방정식(44)은, 상기 연산 방법(S31)으로 상기 검출한 우측 빗면에 해당하는 포인트들(42)로부터 연산이 가능하다(S32).The 3D
다음으로, 상기 제어부 모듈(S)은 상기 삼각형 보드의 위쪽 꼭지점을 산출한다(S33). 상기 꼭지점은 상기 삼각형 보드의 좌측 빗면에 해당하는 3D 직선방정식(43)과 상기 삼각형 보드의 우측 빗면에 해당하는 3D 직선방정식(44)의 교점을 연산하여 산출할 수 있다.Next, the controller module S calculates the upper vertex of the triangular board (S33). The vertex can be calculated by calculating the intersection point of the 3D
상기 좌측 3D 직선 방정식(43)과 우측 3D 직선 방정식(44)은 각각 동일한 평면(P)위에 존재하는 포인트들(40) 내의 하위 집합들(41, 42)로 구해진 직선들이므로 역시 동일한 평면(P)에 속한다. 따라서 두 직선 43과 44가 평행하지 않다면 교점(51)가 평면(P)위에 존재한다.Since the left 3D
또한 상기 좌측 3D 직선 방정식(43)은 삼각형 보드의 좌측 모서리의 위치 정보를 포함하고, 우측 3D 직선 방정식(44)은 삼각형 보드의 좌측 모서리의 위치정보를 포함하므로, 두 직선 방정식의 교점(51)은 삼각형 보드의 위쪽 꼭지점의 3D 위치정보에 해당한다.Since the left 3D
상기 제어부 모듈(S)은 삼각형 보드의 좌측 아랫쪽 꼭지점(52)의 위치정보와 우측 아랫쪽 꼭지점(53)의 위치정보를 연산한다(S34). 예를 들어, 상기 좌측 3D 직선 방정식(43)의 하위 집합이며, 한쪽 끝점을 상기 두 직선의 교점(51)으로 하는 3D 선분을 가정한다. 이 때 삼각형 보드의 위쪽 꼭지점과 좌측 아래쪽 꼭지점 사이의 거리는 좌측 모서리의 길이와 같다. 따라서 상기 선분의 길이가 삼각형 보드의 왼쪽 모서리의 길이와 같다고 가정하고, 좌측 아래쪽 꼭지점에 해당하는 선분의 끝점(52)의 위치정보를 연산한다. 상기 우측 아래쪽 꼭지점(53)의 위치정보도 같은 연산 방법으로, 상기 두 직선의 교점(51)과 삼각형 보드의 우측 모서리의 길이를 이용하여 연산한다.The controller module S calculates the position information of the left
상기 제어부 모듈(S)은 기 연산한 꼭지점들(51, 52, 53)의 위치 정보의 적합성을 판별한다(S35). 예를 들어, 상기 검출한 삼각형 보드의 좌측 아래쪽 꼭지점(52)과 우측 아래쪽 꼭지점(53) 사이의 거리는 연산된 삼각형 보드의 아래쪽 모서리의 길이이다. 실제 삼각형 보드의 아래쪽 모서리의 길이와의 크기차를 산출하여, 임계값 이상의 오차가 생기는 경우, 상기 연산단계(S20, S30)에서 평면(P)과 직선 방정식들(43, 44)을 검출하는 조건들을 변경하여 오차가 임계값 이하가 될 때까지 반복 수행할 수 있다. The controller module S determines suitability of the position information of the
한편, 상기 제어부 모듈(S)은 2D 이미지(20)를 수신한다(S20). 상기 재어부 모듈(S)은 상기 수신된 2D 이미지(20)에서 상기 평판부재의 꼭지점의 위치 데이터를 검출한다(S50). 예를 들어, 상기 삼각형 보드를 사용한 경우, 3개의 꼭지점의 2D 위치 데이터를 검출할 수 있다.Meanwhile, the control module S receives the 2D image 20 (S20). The reckoning module S detects position data of a vertex of the flat plate member in the received 2D image (S50). For example, when the triangular board is used, 2D position data of three vertexes can be detected.
상기 제어부 모듈(S)은 두 꼭지점의 대응쌍을 형성한다(S60). 도 7은 대응쌍에 이용되는 2D 이미지와 3D 포인트 클라우드에서 삼각형 보드의 세 꼭지점에 대한 개념도이다. 도 3 및 도 7을 참조하여, 대응쌍을 형성하는 방법을 설명한다. The control module S forms a corresponding pair of two vertexes (S60). Fig. 7 is a conceptual diagram of three vertices of a triangle board in a 2D image cloud and a 2D image used in a corresponding pair. Referring to Figs. 3 and 7, a method of forming a corresponding pair will be described.
상기 평판부재(13)가 삼각형 보드인 경우 상기 삼각형 보드의 세 꼭지점들은 2D이미지에서 연산된 2D 이미지 좌표축 2개에 대한 제1 위치 데이터(21, 22, 23)와 상기 3D 포인트 클라우드에서 연산된 3D 이미지 좌표축 3개에 대한 제2 위치데이터(51, 52, 53)로 나타낼 수 있다.When the
삼각형 보드의 위쪽 꼭지점은 2D 위치데이터의 2개 좌표축의 위치 정보(21)와 3D 포인트 클라우드의 3개 좌표축의 위치정보(51)를 가진다.The upper vertex of the triangle board has the
상기 제어부 모듈(S)은 상기 형성된 대응쌍의 개수가 변환행렬을 산출할 수 있는 기준값에 충분한지 판단한다(S70). The controller module S determines whether the number of the corresponding pairs formed is sufficient for a reference value capable of calculating the transformation matrix (S70).
상기 변환 행렬은 3D 포인트 클라우드의 좌표값을 2D 이미지 좌표값으로 변환하는 행렬을 의미한다. 만약, 변환 행렬이 3X4의 크기의 행렬이면, 대응쌍의 수는 12개 이상일 때 변환 행렬을 산출 가능할 것이다.The transformation matrix means a matrix for transforming the coordinate values of the 3D point cloud into the 2D image coordinate values. If the transformation matrix is a matrix of size 3X4, the transformation matrix can be computed when the number of corresponding pairs is 12 or more.
상기 대응쌍이 충분하지 아니한 경우, 상기 제어부 모듈(S)은 상기 3D 병렬레이저 스캐너를 통해 생성된 포인트 클라우드를 다시 수신하고(S10), 상기 2D 카메라 영상을 다시 수신한다(S40). 즉, 상위 단계들(S10 내지 S50)을 다시 수행한다.If the corresponding pair is not sufficient, the control module S receives the point cloud generated through the 3D parallel laser scanner again (S10) and receives the 2D camera image again (S40). That is, the upper steps S10 to S50 are performed again.
상기 제어부 모듈(S)은 상기 대응쌍들로부터 변환행렬을 생성한다(S60). 상기 제어부 모듈(S)은 3D 포인트 클라우드의 좌표값은 2D 이미지 좌표값으로 변환하는 행렬과 상기 변환행렬의 역행렬에 해당하는 2D 이미지 좌표값을 3D 포인트 클라우드의 좌표값으로 변환하느 역변환행렬을 구할 수 있다. 상기 변환행렬은 카메라의 내부변수, 외부변수 및 카메라와 레이저 센서간의 좌표변환 행렬을The control module S generates a transformation matrix from the corresponding pairs (S60). The controller module S may obtain an inverse transformation matrix for transforming a coordinate value of the 3D point cloud into a 2D image coordinate value and a 2D image coordinate value corresponding to an inverse matrix of the transformation matrix into a coordinate value of the 3D point cloud have. The transformation matrix includes a coordinate transformation matrix between the internal variables of the camera, external variables, and the camera and the laser sensor
포함하며, 이를 통하여 이미지 정보 및 거리 정보의 사이에서 직접적인 좌표 변환이 가능하게 된다.Thereby enabling direct coordinate conversion between image information and distance information.
상기 제어부 모듈(S)은 상기 변환행렬 및 상기 역변환행렬을 이용하여 2D 이미지 데이터와 3D 포인트 클라우드 데이터의 캘리브레이션을 수행한다(S90). The controller module S performs calibration of 2D image data and 3D point cloud data using the transformation matrix and the inverse transformation matrix (S90).
기 생성된 변환 행렬을 이용하여 상기 3D 포인트 클라우드(30)의 좌표축에서 상기 2D 이미지(20)의 좌표축으로 변환할 수 있다. 또한 상기 단계에서(S80) 연산된 역 변환 행렬을 이용하여 2D 이미지(20)의 좌표축에서 상기 3D 포인트 클라우드(30)의 좌표축으로 변환 가능하다.And convert the coordinate axis of the
상기와 같은 카메라 및 레이저 센서의 캘리브레이션 장치, 캘리브레이션 방법은 위에서 설명된 실시예들의 구성과 방법에 한정되는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성 될 수 있다.The calibration device and the calibration method of the camera and the laser sensor are not limited to the configuration and the method of the embodiments described above, but the embodiments may be modified such that all or some of the embodiments are selectively combined .
Claims (12)
거리 정보를 감지하는 레이저 센서;
상기 이미지 정보 및 거리 정보의 대응관계를 산출하여 상기 카메라 및 레이저 센서의 캘리브레이션을 수행하는 캘리브레이션 모듈을 포함하고,
상기 캘리브레이션 모듈은,
복수의 꼭지점을 포함하는 다각형으로 이루어지는 평판부재; 및
상기 거리 정보를 이용하여 상기 복수의 꼭지점들을 예측하고, 상기 예측된 꼭지점들을 상기 이미지 정보에 포함되는 평판부재의 꼭지점과 대응시켜 상기 이미지 정보와 상기 거리 정보 사이에서 좌표를 변환하는 제어부을 포함하는 캘리브레이션 장치. A camera for photographing image information;
A laser sensor for sensing distance information;
And a calibration module for calculating the correspondence between the image information and the distance information and performing calibration of the camera and the laser sensor,
Wherein the calibration module comprises:
A flat plate member made of a polygon including a plurality of vertexes; And
And a control unit for predicting the plurality of vertexes using the distance information and converting the coordinates between the image information and the distance information by associating the predicted vertices with the vertices of the flat plate member included in the image information, .
상기 평판 부재는 삼각형 또는 마름모 형태로 이루어지는 것을 특징으로 하는 캘리브레이션 장치.The method of claim 1,
Wherein the flat plate member is in the form of a triangle or a rhomboid.
상기 하나의 평면은, 상기 복수의 평면 중 기 설정된 거리 내에 위치하고 상기 평판부재에 해당되는 가장 많은 포인트를 포함하는 것을 특징으로 하는 캘리브레이션 장치. 2. The apparatus of claim 1, wherein the controller selects one of a plurality of planes included in the fraud distance information to predict the vertex,
Wherein the one plane is located within a predetermined distance of the plurality of planes and includes the most points corresponding to the flat plate members.
상기 제어부는 상기 하나의 평면의 포인트들은 상기 평면에 수직하도록 정사영 시키고, 상기 정사영된 포인트들을 이용하여 상기 평판부재의 꼭지점을 예측하는 것을 특징으로 하는 캘리브레이션 장치.The method of claim 3,
Wherein the control unit corrects the points of the one plane to be perpendicular to the plane and predicts the vertex of the flat member using the orthogonal points.
상기 제어부는 상기 정사영된 포인트들을 이용하여 복수의 빗면에 대한 방정식을 검출하고, 상기 복수의 방정식의 연산을 통하여 상기 꼭지점을 산출하는 것을 특징으로 하는 캘리브레이션 장치. 5. The method of claim 4,
Wherein the control unit detects the equations for a plurality of oblique planes using the orthogonal projection points and calculates the vertexes through calculation of the plurality of equations.
상기 제어부는 상기 꼭지점들 사이의 길이와 상기 평판부재의 모서리의 길이를 비교하여, 상기 꼭지점들 사이의 길이와 상기 모서리의 길이 차이가 오차범위내에 해당되는지 판단하는 것을 특징으로 하는 캘리브레이션 장치.The method of claim 3,
Wherein the controller compares the length between the vertexes with the length of the edge of the flat plate member to determine whether the difference between the length of the vertexes and the length of the edge falls within an error range.
상기 제어부는 상기 이미지 정보에서 연산된 이미지 좌표축에 대한 제1 위치 데이터와 상기 예측된 꼭지점들에 의하여 연산된 좌표축에 대한 제2 위치데이터를 이용하여 복수의 대응점을 산출하는 것을 특징으로 하는 캘리브레이션 장치. The method according to claim 1,
Wherein the controller calculates the plurality of corresponding points using the first position data of the image coordinate axis calculated in the image information and the second position data of the coordinate axis calculated by the predicted vertices.
상기 대응점이 상기 기준개수 미만인 경우, 상기 거리 정보 및 상기 이미지 정보를 다시 수신하는 것을 특징으로 하는 캘리브레이션 장치. 8. The apparatus of claim 7, wherein the controller determines whether the corresponding point is calculated to be equal to or greater than a predetermined reference number,
And the distance information and the image information are received again when the corresponding point is less than the reference number.
상기 카메라 및 상기 레이저 센서를 이용하여 평판부재를 촬영하는 단계;
상기 평판부재의 거리 정보로부터 복수의 꼭지점을 예측하는 단계;
상기 예측된 꼭지점과 상기 평판부재의 이미지 정보에 포함되는 꼭지점을 이용하여 적어도 하나의 대응쌍을 생성하는 단계;
상기 대응쌍을 이용하여 변환행렬을 생성하는단계; 및
상기 변환행렬을 이용하여 좌표변환을 수행하는 단계를 포함하는 캘리브레이션 방법. A calibration method for performing coordinate conversion between a camera for capturing image information and a laser sensor for sensing distance information,
Photographing a flat plate member using the camera and the laser sensor;
Estimating a plurality of vertexes from the distance information of the flat plate member;
Generating at least one corresponding pair using the vertex included in the image information of the predicted vertex and the flat plate member;
Generating a transform matrix using the corresponding pair; And
And performing a coordinate transformation using the transformation matrix.
상기 거리 정보로부터 하나의 평면을 검출하는 단계;
상기 검출된 평면 상에 상기 거리 정보에 포함되는 포인트들을 정사영시키는 단계; 및
상기 정사영된 포인트들을 이용하여 복수의 빗면을 산출하는 단계를 포함하는 것을 특징으로 하는 캘리브레이션 방법.11. The method of claim 10, wherein the step of predicting the plurality of vertexes comprises:
Detecting one plane from the distance information;
Orthogonalizing points included in the distance information on the detected plane; And
And calculating a plurality of oblique planes using the orthogonal projection points.
상기 대응쌍이 기 설정된 기준개수 이상인지 판단하는 단계를 더 포함하고,
상기 대응쌍이 상기 기준개수 미만인 경우 상기 카메라 및 상기 레이저 센서로부터 각각 상기 이미지 정보 및 거리 정보를 다시 수신하는 것을 특징으로 하는 캘리브레이션 방법. 11. The method of claim 10,
Further comprising determining whether the corresponding pair is greater than or equal to a predetermined reference number,
And when the corresponding pair is less than the reference number, receiving the image information and the distance information from the camera and the laser sensor, respectively.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130156665A KR101565900B1 (en) | 2013-12-16 | 2013-12-16 | Device, method for calibration of camera and laser range finder |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130156665A KR101565900B1 (en) | 2013-12-16 | 2013-12-16 | Device, method for calibration of camera and laser range finder |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150069927A true KR20150069927A (en) | 2015-06-24 |
KR101565900B1 KR101565900B1 (en) | 2015-11-05 |
Family
ID=53516918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130156665A KR101565900B1 (en) | 2013-12-16 | 2013-12-16 | Device, method for calibration of camera and laser range finder |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101565900B1 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109029284A (en) * | 2018-06-14 | 2018-12-18 | 大连理工大学 | A kind of three-dimensional laser scanner based on geometrical constraint and camera calibration method |
KR102014097B1 (en) * | 2019-01-16 | 2019-08-26 | 주식회사 나노시스템즈 | calibration system of scanner and camera |
KR102054455B1 (en) * | 2018-09-28 | 2019-12-10 | 재단법인대구경북과학기술원 | Apparatus and method for calibrating between heterogeneous sensors |
WO2020067751A1 (en) * | 2018-09-28 | 2020-04-02 | 재단법인대구경북과학기술원 | Device and method for data fusion between heterogeneous sensors |
CN111521132A (en) * | 2020-04-14 | 2020-08-11 | 长春理工大学 | Novel self-calibration laser scanning projection method |
KR102145557B1 (en) * | 2019-02-21 | 2020-08-18 | 재단법인대구경북과학기술원 | Apparatus and method for data fusion between heterogeneous sensors |
CN114022636A (en) * | 2021-09-18 | 2022-02-08 | 杭州汇萃智能科技有限公司 | Point cloud distortion correction method based on 3D line scanning camera and related equipment |
WO2023027268A1 (en) * | 2021-08-26 | 2023-03-02 | 한국로봇융합연구원 | Camera-lidar calibration device and method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101033167B1 (en) * | 2011-01-31 | 2011-05-11 | 국방과학연구소 | Calibration device, calibration system and calibration method for cameras and laser sensors |
-
2013
- 2013-12-16 KR KR1020130156665A patent/KR101565900B1/en active IP Right Grant
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109029284A (en) * | 2018-06-14 | 2018-12-18 | 大连理工大学 | A kind of three-dimensional laser scanner based on geometrical constraint and camera calibration method |
KR102054455B1 (en) * | 2018-09-28 | 2019-12-10 | 재단법인대구경북과학기술원 | Apparatus and method for calibrating between heterogeneous sensors |
WO2020067751A1 (en) * | 2018-09-28 | 2020-04-02 | 재단법인대구경북과학기술원 | Device and method for data fusion between heterogeneous sensors |
US11971961B2 (en) | 2018-09-28 | 2024-04-30 | Daegu Gyeongbuk Institute Of Science And Technology | Device and method for data fusion between heterogeneous sensors |
KR102014097B1 (en) * | 2019-01-16 | 2019-08-26 | 주식회사 나노시스템즈 | calibration system of scanner and camera |
KR102145557B1 (en) * | 2019-02-21 | 2020-08-18 | 재단법인대구경북과학기술원 | Apparatus and method for data fusion between heterogeneous sensors |
CN111521132A (en) * | 2020-04-14 | 2020-08-11 | 长春理工大学 | Novel self-calibration laser scanning projection method |
WO2023027268A1 (en) * | 2021-08-26 | 2023-03-02 | 한국로봇융합연구원 | Camera-lidar calibration device and method |
KR20230030955A (en) * | 2021-08-26 | 2023-03-07 | 한국로봇융합연구원 | Apparatus for Camera-Lidar Calibration and method thereof |
CN114022636A (en) * | 2021-09-18 | 2022-02-08 | 杭州汇萃智能科技有限公司 | Point cloud distortion correction method based on 3D line scanning camera and related equipment |
Also Published As
Publication number | Publication date |
---|---|
KR101565900B1 (en) | 2015-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101565900B1 (en) | Device, method for calibration of camera and laser range finder | |
US11002537B2 (en) | Distance sensor including adjustable focus imaging sensor | |
CN109961468B (en) | Volume measurement method and device based on binocular vision and storage medium | |
US9826217B2 (en) | System and method for adjusting a baseline of an imaging system with microlens array | |
US9322646B2 (en) | Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning | |
US11302022B2 (en) | Three-dimensional measurement system and three-dimensional measurement method | |
US11039121B2 (en) | Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method | |
KR101954855B1 (en) | Use of intensity variations of light patterns for depth mapping of objects in a volume | |
KR101033167B1 (en) | Calibration device, calibration system and calibration method for cameras and laser sensors | |
CN104142157B (en) | A kind of scaling method, device and equipment | |
EP2195608B1 (en) | System and method for multiframe surface measurement of the shape of objects | |
KR20160003776A (en) | Posture estimation method and robot | |
JP6333396B2 (en) | Method and apparatus for measuring displacement of mobile platform | |
JP7298687B2 (en) | Object recognition device and object recognition method | |
KR101203816B1 (en) | Robot fish localization system using artificial markers and method of the same | |
Dodge et al. | Convex vision-based negative obstacle detection framework for autonomous vehicles | |
TWI571099B (en) | Device and method for depth estimation | |
Portugal-Zambrano et al. | Robust range finder through a laser pointer and a webcam | |
CN102401901B (en) | Ranging system and ranging method | |
JP6867766B2 (en) | Information processing device and its control method, program | |
JP2011227073A (en) | Three-dimensional position measuring device | |
KR101436097B1 (en) | Non-Contacting Method for Measuring 6-DOF Motion Based on Laser Sensor | |
WO2024034469A1 (en) | Information processing device, information processing method, and program | |
US20220415031A1 (en) | Information processing device and information processing method | |
JP6604934B2 (en) | Point cloud pixel position determination device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20131216 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20150326 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20151026 |
|
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20151029 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20151030 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20181001 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20191002 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20191002 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20201006 Start annual number: 6 End annual number: 6 |
|
PC1903 | Unpaid annual fee |