[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20200084552A - Apparatus and method for calibrating camera and lidar sensor of vehicle - Google Patents

Apparatus and method for calibrating camera and lidar sensor of vehicle Download PDF

Info

Publication number
KR20200084552A
KR20200084552A KR1020190000597A KR20190000597A KR20200084552A KR 20200084552 A KR20200084552 A KR 20200084552A KR 1020190000597 A KR1020190000597 A KR 1020190000597A KR 20190000597 A KR20190000597 A KR 20190000597A KR 20200084552 A KR20200084552 A KR 20200084552A
Authority
KR
South Korea
Prior art keywords
feature point
sensor
calibration
camera
point information
Prior art date
Application number
KR1020190000597A
Other languages
Korean (ko)
Other versions
KR102647929B1 (en
Inventor
소아람
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190000597A priority Critical patent/KR102647929B1/en
Publication of KR20200084552A publication Critical patent/KR20200084552A/en
Application granted granted Critical
Publication of KR102647929B1 publication Critical patent/KR102647929B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

The present invention relates to an apparatus for calibrating a camera and a LIDAR sensor for a vehicle, comprising: a camera unit which is an image sensor for photographing an image in front of the vehicle; a LIDAR sensor unit which measures a distance using light and detects an object; a feature point detection unit which detects at least one feature point designated in a rigid body image of the vehicle visible in the field of view (FOV) of the camera unit and the LIDAR sensor unit, and provides location information thereof; a feature point information storage unit for storing feature point information set as a reference during final calibration for each sensor; and a control unit which detects a sensor in which the detected feature point information of each sensor has been changed compared to the feature points respectively stored in the feature point information storage unit, and performs recalibration on the corresponding sensor of which the feature point information has been changed compared to the previous information.

Description

차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법{APPARATUS AND METHOD FOR CALIBRATING CAMERA AND LIDAR SENSOR OF VEHICLE}A device and method for calibrating a vehicle camera and a lidar sensor{APPARATUS AND METHOD FOR CALIBRATING CAMERA AND LIDAR SENSOR OF VEHICLE}

본 발명은 차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법에 관한 것으로, 보다 상세하게는 차량용 카메라와 라이다 센서의 캘리브레이션을 위하여 특별한 마커나 지그를 사용하지 않고, 차량의 강체(rigid body)를 이용하여 자동으로 캘리브레이션을 수행할 수 있도록 하는, 차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법에 관한 것이다.The present invention relates to a device and method for calibrating a vehicle camera and a lidar sensor, and more specifically, without using a special marker or jig for calibrating the vehicle camera and a lidar sensor, using a rigid body of the vehicle It relates to a calibration device and method for a vehicle camera and a lidar sensor, so that it can automatically perform the calibration.

일반적으로 차량에는 운전자를 지원하기 위한 다양한 센서가 설치되며 대표적으로 카메라 센서(예 : 단일 카메라 센서, 스테레오 카메라 센서)가 있다. In general, various sensors for supporting a driver are installed in a vehicle, and there are typically camera sensors (eg, single camera sensors, stereo camera sensors).

특히 스테레오 카메라 센서는 사람이 사물을 바라볼 때 입체감 및 거리감을 느끼는 원리와 동일하게 작동하는 특징이 있다. 즉, 스테레오 카메라의 좌/우 카메라는 사람의 양안과 같이 특정 물체를 주시할 때 공간적인 차이에 의해 시차가 발생하며, 그 시차에 의해 물체까지의 거리감이나 물체의 입체감을 느낄 수 있게 된다. In particular, a stereo camera sensor has a feature that works in the same way as a person feels a sense of stereoscopic and distance when looking at an object. That is, when the left/right camera of the stereo camera looks at a specific object, such as the binocular vision of a person, a parallax occurs due to a spatial difference, and the parallax makes it possible to feel a distance to the object or a three-dimensional effect of the object.

이와 같이 차량에 장착된 카메라 센서(또는 차량에 추가로 장착된 다른 센서)는 캘리브레이션(Calibration)과 렉티피케이션(Rectification)을 수행해야 된다. 예컨대 상기 스테레오 카메라에서 캘리브레이션은 스테레오 카메라의 카메라 파라미터를 추출하는 과정이며, 렉티피케이션은 이러한 추출된 카메라 파라미터를 이용하여 좌우 카메라 영상을 정확하게 정렬시켜, 이후 스테레오 시차를 계산할 때 그 연산량을 줄이고 정확도를 높이는 과정이다.In this way, the camera sensor mounted on the vehicle (or another sensor additionally mounted on the vehicle) needs to perform calibration and rectification. For example, calibration in the stereo camera is a process of extracting the camera parameters of the stereo camera, and rectification accurately aligns the left and right camera images using these extracted camera parameters, thereby reducing the computation amount and accuracy when calculating the stereo parallax. It is a process of heightening.

상기와 같은 카메라 캘리브레이션은 카메라의 왜곡 보정과 스테레오 영상의 렉티피케이션을 위해 반드시 선행되어야 하는 과정이며, 종래에는 사람이 체크보드(또는 마커)를 이용하여 캘리브레이션을 수행하고 있다.The camera calibration as described above is a process that must be performed for distortion correction of a camera and rectification of a stereo image, and conventionally, a person performs calibration using a check board (or marker).

하지만, 종래의 체크보드를 이용한 캘리브레이션 방식은 체크보드의 크기가 너무 크고 캘리브레이션을 위한 공간도 요구되며, 사용자 혼자서는 캘리브레이션을 수행할 수 없을 뿐만 아니라, 수시로 원하는 시점에 자동으로 캘리브레이션을 수행할 수 없다는 문제점이 있다. 즉, 종래의 차량에 장착된 카메라의 캘리브레이션 방식은 차량이 출고될 당시에 최초로 수행될 수 있으며, 만약 차량의 진동 충격 등으로 카메라 센서가 틀어질 경우 A/S 센터나 공장에 입고되어 캘리브레이션을 수행해야 되기 때문에 그 전까지는 상기 카메라 센서의 정상적인 기능을 이용할 수 없는 문제점이 있다. However, in the conventional calibration method using a check board, the size of the check board is too large and space for calibration is required, and the user cannot perform the calibration alone, and the calibration cannot be automatically performed at a desired point in time. There is a problem. In other words, the calibration method of the camera mounted on the conventional vehicle can be performed for the first time when the vehicle is shipped, and if the camera sensor is distorted due to vibration shock of the vehicle, it must be received at the A/S center or factory to perform the calibration. There is a problem that the normal function of the camera sensor cannot be used until then.

더구나 최근의 차량에는 상기 카메라 센서뿐만 아니라 상기 카메라 센서를 보완하기 위한 다른 센서(예 : Lidar 센서)가 추가로 설치(부착)되고 있는 상황에 있으며, 이에 따라 상기 카메라 센서와 상기 카메라 센서를 보완하기 위한 다른 센서(예 : Lidar 센서)의 동기를 맞추어 캘리브레이션을 수행해야 한다(즉, 동일한 기준을 이용해 캘리블레이션을 수행해야 한다).Moreover, in recent vehicles, not only the camera sensor, but also other sensors (eg, Lidar sensors) for supplementing the camera sensor are being installed (attached), thereby complementing the camera sensor and the camera sensor. Calibration must be performed in synchronization with other sensors (eg, Lidar sensors) (ie, calibration should be performed using the same criteria).

상기와 같이 복수의 센서(예 : 카메라, 라이다)에 대해서 종래의 방식으로 동기를 맞추어 캘리브레이션을 수행하기 위해서는, 더욱 A/S 센터나 공장에 입고되어 캘리브레이션을 수행해야 되기 때문에 상기 복수의 센서(예 : 카메라, 라이다)의 기능을 정상적으로 이용할 수 없는 문제점이 있다. As described above, in order to perform calibration in synchronization with a conventional method for a plurality of sensors (for example, a camera or a lidar), the plurality of sensors (because the calibration must be performed after being received at an A/S center or a factory). Example: There is a problem that the functions of the camera, lidar) cannot be used normally.

따라서 복수의 센서(예 : 카메라, 라이다)에 대해서 동기를 맞추어 수시로 원하는 시점에 자동으로 캘리브레이션을 수행(즉, 복수의 센서가 동일한 기준을 이용해 캘리블레이션을 수행)할 수 있도록 하기 위한 방법이 필요한 상황이다.Therefore, there is a method to enable multiple sensors (e.g., cameras, lidars) to synchronize and automatically perform calibration at a desired point in time (i.e., multiple sensors perform calibration using the same criteria). This is a necessary situation.

본 발명의 배경기술은 대한민국 등록특허 10-1748398호(2017.06.12. 등록, 차량에 장착된 카메라의 캘리브레이션 장치 및 방법)에 개시되어 있다. Background art of the present invention is disclosed in Republic of Korea Patent Registration No. 10-1748398 (2017.06.12. registration, a calibration device and method for a camera mounted on a vehicle).

본 발명의 일 측면에 따르면, 본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 차량용 카메라와 라이다 센서의 캘리브레이션을 위하여 특별한 마커나 지그를 사용하지 않고, 차량의 강체(rigid body)를 이용하여 자동으로 캘리브레이션을 수행할 수 있도록 하는, 차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법을 제공하는 데 그 목적이 있다. According to one aspect of the present invention, the present invention was created to solve the above problems, without using a special marker or jig for the calibration of the vehicle camera and the lidar sensor, the rigid body of the vehicle (rigid body) An object of the present invention is to provide an apparatus and method for calibrating a vehicle camera and a lidar sensor, which enable automatic calibration.

본 발명의 일 측면에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치는, 차량 전방의 영상을 촬영하는 영상 센서인 카메라부; 빛을 활용해 거리 측정하고 물체를 감지하는 센서인 라이다 센서부; 상기 카메라부와 라이다 센서부의 FOV(Field of View)에 따라 보이는 차량의 강체 영상에서 지정된 적어도 하나 이상의 특징점 및 그 위치 정보를 검출하는 특징점 검출부; 상기 각 센서에 대하여 최후의 캘리브레이션 시 기준으로 설정한 특징점 정보를 저장하는 특징점 정보 저장부; 및 상기 검출한 각 센서의 특징점 정보가 상기 특징점 정보 저장부에 각기 저장된 특징점 대비 변경된 센서를 검출하고, 이전 대비 특징점 정보가 변경된 것으로 검출된 해당 센서에 대한 캘리브레이션을 재 수행하는 제어부;를 포함하는 것을 특징으로 한다.A calibration device for a vehicle camera and a lidar sensor according to an aspect of the present invention includes a camera unit that is an image sensor for capturing an image in front of a vehicle; A lidar sensor unit, which is a sensor for measuring distance and sensing an object using light; A feature point detector configured to detect at least one feature point designated by a rigid body image of a vehicle viewed according to a field of view (FOV) of the camera unit and the lidar sensor unit and position information thereof; A feature point information storage unit for storing feature point information set as a reference for the last calibration for each sensor; And a control unit that detects a sensor whose feature point information of each of the detected sensors is changed compared to a feature point stored in the feature point information storage unit, and re-calibrates the corresponding sensor where the previous feature point information is detected as changed. It is characterized by.

본 발명에 있어서, 상기 특징점 정보는, 특징점의 종류 및 위치 정보를 포함하는 것을 특징으로 한다.In the present invention, the feature point information is characterized by including the type and location information of the feature point.

본 발명에 있어서, 상기 특징점 정보는, 최후의 캘리브레이션시 기준으로 설정한 특징점의 정보인 것을 특징으로 한다.In the present invention, the feature point information is characterized in that it is the information of the feature point set as a reference at the time of the last calibration.

본 발명에 있어서, 상기 특징점 정보 저장부에 이전에 저장되어 있던 캘리브레이션 특징점 정보가 변경되었을 경우, 상기 특징점 검출부에서 검출된 새로운 특징점 정보로 수정하는 특징점 정보 수정부;를 더 포함하는 것을 특징으로 한다.In the present invention, when the calibration feature point information previously stored in the feature point information storage unit is changed, the feature point information correction unit to correct the new feature point information detected by the feature point detection unit.

본 발명에 있어서, 상기 특징점 정보가 이전 대비 변경되었을 경우, 이전에 저장되어 있던 특징점 정보에서 새로 변경된 특징점 정보의 차이에 대응하여 보정 파라미터를 산출하는 파라미터 수정부;를 더 포함하는 것을 특징으로 한다.In the present invention, when the feature point information is changed compared to the previous, it further comprises a parameter correction for calculating a correction parameter in response to the difference of the newly changed feature point information from the previously stored feature point information.

본 발명에 있어서, 상기 보정 파라미터는, 이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 재 수행할 캘리브레이션을 위한 파라미터인 것을 특징으로 한다.In the present invention, the correction parameter is characterized in that it is a parameter for calibration to be performed again according to the change of the feature point information in the previous calibration state.

본 발명의 다른 측면에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 방법은, 제어부가 카메라 영상 및 라이다 영상을 입력받는 단계; 상기 제어부가 상기 카메라 영상 및 라이다 영상에서 특징점을 검출하는 단계; 상기 제어부가 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크하는 단계; 상기 특징점의 위치가 이전에 저장된 특징점의 위치와 동일하지 않은 경우, 상기 제어부가 상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크하는 단계; 상기 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 오차 범위 이상 차이가 발생하면, 상기 제어부가 이전에 저장되어 있던 특징점 정보를 상기 검출된 새로운 특징점 정보로 수정하는 단계; 상기 제어부가 상기 이전에 저장되어 있던 특징점 정보와 상기 검출된 새로운 특징점 정보의 차이에 대응하는 보정 파라미터를 산출하는 단계; 및 상기 제어부가 상기 산출한 보정 파라미터를 이용하여 특징점 정보가 변경된 해당 센서의 캘리브레이션을 재 수행하는 단계;를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, a method of calibrating a vehicle camera and a lidar sensor includes: a control unit receiving a camera image and a lidar image; The controller detecting feature points in the camera image and the lidar image; Checking, by each sensor, whether the position of the detected feature point is the same as the position of the previously stored feature point; If the location of the feature point is not the same as the location of the previously stored feature point, the control unit compares the detected feature point with pre-stored feature point information to check whether a difference occurs over a specified error range; If the position of the detected feature point differs from the position of the previously stored feature point and an error range, the control unit corrects previously stored feature point information with the detected new feature point information; Calculating, by the control unit, a correction parameter corresponding to the difference between the previously stored feature point information and the detected new feature point information; And re-calibrating the corresponding sensor whose feature point information is changed by using the calculated correction parameter by the control unit.

본 발명에 있어서, 상기 카메라 영상은, 카메라부에서 촬영된 영상을 의미하며, 상기 라이다 영상은, 라이다 센서부에서 센싱된 영상을 의미하는 것을 특징으로 한다.In the present invention, the camera image, it means that the image taken by the camera unit, the lidar image is characterized in that it means the image sensed by the lidar sensor unit.

본 발명에 있어서, 상기 특징점은, 차량의 강체(rigid body)에서 지정된 것임을 특징으로 한다.In the present invention, the feature point is characterized in that it is specified in the rigid body (rigid body) of the vehicle.

본 발명에 있어서, 상기 특징점의 종류와 위치 정보는 최초의 캘리브레이션 시 지정될 수 있음을 특징으로 한다.In the present invention, it is characterized in that the type and location information of the feature point can be designated at the first calibration.

본 발명에 있어서, 상기 특징점의 위치 정보는, 각 센서 영상에서의 좌표 정보인 것을 특징으로 한다.In the present invention, the location information of the feature point is characterized in that the coordinate information in each sensor image.

본 발명에 있어서, 상기 특징점의 위치 정보는, 상기 각 센서가 동일하게 캘리브레이션을 위한 기준으로 사용하되, 상기 각 센서가 설치되는 위치에 대응하여 각 센서에서 캘리브레이션을 위해 저장되는 특징점의 위치 정보가 설정되는 것을 특징으로 한다.In the present invention, the location information of the feature points, each sensor is used as a reference for the same calibration, the location information of the feature points stored for calibration in each sensor corresponding to the position where each sensor is installed is set It is characterized by being.

본 발명에 있어서, 상기 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크한 결과, 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한 경우 상기 제어부는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지하는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, when each sensor checks whether the detected location of the feature point is the same as the previously stored feature point location, when the feature point location is the same as the previously stored feature point location, the control unit performs And maintaining the calibration state for each sensor.

본 발명에 있어서, 상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크한 결과, 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 다르더라도 오차 범위 이상 차이가 발생하지 않으면, 상기 제어부는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지하는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, as a result of comparing the detected feature points with pre-stored feature point information and checking whether a difference over a specified error range occurs, an error range error difference occurs even if the detected feature point location is different from the previously stored feature point location. If not, the control unit is characterized in that it further comprises the step of maintaining each of the previously performed calibration state for each sensor.

본 발명에 있어서, 상기 보정 파라미터는, 이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 재 수행할 캘리브레이션을 위한 파라미터를 의미하는 것을 특징으로 한다.In the present invention, the correction parameter is characterized in that it means a parameter for calibration to be performed again according to the change of the feature point information in the previous calibration state.

본 발명의 일 측면에 따르면, 본 발명은 차량용 카메라와 라이다 센서의 캘리브레이션을 위하여 특별한 마커나 지그를 사용하지 않고, 차량의 강체(rigid body)를 이용하여 자동으로 캘리브레이션을 수행할 수 있도록 한다.According to an aspect of the present invention, the present invention enables calibration to be performed automatically using a rigid body of a vehicle without using a special marker or jig for calibration of a vehicle camera and a lidar sensor.

본 발명의 다른 측면에 따르면, 본 발명은 차량용 카메라와 라이다 센서에 대해서 동일한 기준을 이용해 수시로 원하는 시점에 자동으로 캘리블레이션을 수행할 수 있도록 한다.According to another aspect of the present invention, the present invention makes it possible to automatically perform calibration at a desired point in time using the same criteria for a vehicle camera and a lidar sensor.

도 1은 본 발명의 일 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치의 개략적인 구성을 보인 예시도.
도 2는 본 발명의 일 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 방법을 설명하기 위한 흐름도.
도 3은 상기 도 1에 있어서, 차량용 카메라에서 촬영된 영상 및 라이다 센서를 이용해 센싱된 영상을 보인 예시도.
도 4는 상기 도 1에 있어서, 본 실시예에서 특징점으로 사용할 수 있는 엠블럼을 보인 예시도.
도 5는 종래에 카메라와 라이다 센서에 대한 캘리브레이션을 수행할 수 있는 방법과 이때 발생할 수 있는 문제점을 개략적으로 설명하기 위하여 보인 예시도.
1 is an exemplary view showing a schematic configuration of a calibration device for a vehicle camera and a lidar sensor according to an embodiment of the present invention.
2 is a flowchart illustrating a method of calibrating a vehicle camera and a lidar sensor according to an embodiment of the present invention.
FIG. 3 is an exemplary view showing an image captured by a vehicle camera and an image sensed using a lidar sensor in FIG. 1.
4 is an exemplary view showing an emblem that can be used as a feature point in the present embodiment in FIG. 1.
5 is an exemplary view shown to schematically explain a method capable of performing calibration on a camera and a lidar sensor and problems that may occur at this time.

이하, 첨부된 도면을 참조하여 본 발명에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법의 일 실시예를 설명한다. Hereinafter, an embodiment of a calibration apparatus and method for a vehicle camera and a lidar sensor according to the present invention will be described with reference to the accompanying drawings.

이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to a user's or operator's intention or practice. Therefore, definitions of these terms should be made based on the contents throughout this specification.

도 1은 본 발명의 일 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치의 개략적인 구성을 보인 예시도이다.1 is an exemplary view showing a schematic configuration of a calibration device for a vehicle camera and a lidar sensor according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치는, 카메라부(110), 라이다 센서부(120), 특징점 검출부(130), 제어부(140), 특징점 정보 저장부(150), 특징점 정보 수정부(160), 및 파라미터 수정부(170)를 포함한다.As illustrated in FIG. 1, a calibration device for a vehicle camera and a lidar sensor according to the present embodiment includes a camera unit 110, a lidar sensor unit 120, a feature point detection unit 130, a control unit 140, and a feature point It includes an information storage unit 150, a feature point information correction unit 160, and a parameter correction unit 170.

상기 카메라부(110)는 차량 전방의 영상을 촬영하여 출력한다. The camera unit 110 photographs and outputs an image in front of the vehicle.

상기 카메라부(100)는 단안 카메라 또는 스테레오 카메라를 포함할 수 있다.The camera unit 100 may include a monocular camera or a stereo camera.

상기 카메라부(100)는 기준 파라미터가 각기 설정될 수 있다. 예컨대 상기 카메라부(100)가 스테레오 카메라인 경우 좌측 카메라 및 우측 카메라 각각에 파라미터가 설정될 수 있다.In the camera unit 100, reference parameters may be respectively set. For example, when the camera unit 100 is a stereo camera, parameters may be set for each of the left camera and the right camera.

상기 라이다(LIDAR, Light Detection and Ranging) 센서부(120)는 빛을 활용해 거리 측정하고 물체를 감지하는 센서로서, 라이다는 레이더와 비슷한 원리를 가지고 있다. The LIDAR (LIDAR, Light Detection and Ranging) sensor unit 120 is a sensor that measures distance and detects an object by using light, and has a similar principle to that of a radar.

다만 레이더는 전자기파를 외부로 발사해 재수신되는 전자기파로 거리, 및 방향 등을 확인하지만, 라이다는 펄스 레이저를 발사한다는 차이점이 있다. 즉, 파장이 짧은 레이저를 사용하므로 정밀도 및 해상도가 높고 사물에 따라 입체적 파악까지 가능한 장점이 있다.However, the radar launches an electromagnetic wave to the outside to check the distance and direction with the electromagnetic wave that is re-received, but the difference is that the rider fires a pulsed laser. That is, since a laser having a short wavelength is used, precision and resolution are high and three-dimensional grasping is possible according to an object.

예컨대 상기 라이다 센서는 차량의 범퍼나 차량 상부에 장착되어 차량의 전/후방을 센싱하여 사물이나 구조물 등을 감지한다. 참고로 도 3의 (b)에서 상부는 차량용 카메라에서 촬영된 영상을 보인 예시도이고, 도 3의 (b)에서 하부는 차량의 상부에 장착된 라이다 센서의 FOV(Field of View)를 보인 예시도이다.For example, the lidar sensor is mounted on a vehicle bumper or an upper part of the vehicle to sense an object or structure by sensing the front and rear of the vehicle. For reference, in FIG. 3(b), the upper part is an exemplary view showing an image photographed by a vehicle camera, and in FIG. 3(b), a lower part is a field of view (FOV) of a lidar sensor mounted on the upper part of the vehicle. It is an example.

또한 도 3의 (a)는 차량에 장착되는 카메라와 라이다 센서의 위치를 예시적으로 설명하기 위하여 보인 예시도이다.In addition, FIG. 3(a) is an exemplary view shown to exemplarily explain the positions of the camera and the lidar sensor mounted on the vehicle.

상기 특징점 검출부(130)는 상기 카메라부(110)와 라이다 센서부(120)의 FOV에 따라 보이는 차량의 강체(rigid body) 영상(예 : 카메라 영상, 라이다 센서 영상)에서 지정된 적어도 하나 이상의 특징점(예 : 도 4의 엠블럼 등) 및 그 위치 정보(즉, 영상에서의 좌표 정보)를 검출한다.The feature point detecting unit 130 is at least one or more designated in a rigid body image (eg, a camera image, a lidar sensor image) of a vehicle viewed according to the FOV of the camera unit 110 and the lidar sensor unit 120. Feature points (for example, the emblem of FIG. 4) and their location information (ie, coordinate information in the image) are detected.

상기 특징점 정보는 최후의 캘리브레이션(예 : 공장 출고시의 캘리브레이션)시 기준(즉, 캘리브레이션을 위한 기준)으로 설정한 특징점이 저장된다.The feature point information stores a feature point set as a reference (i.e., a reference for calibration) at the time of the last calibration (e.g., factory calibration).

상기 특징점 정보 저장부(150)는 상기 최후의 캘리브레이션 시 기준으로 설정한 특징점 정보(예 : 특징점의 종류 및 위치 정보)를 저장한다.The feature point information storage unit 150 stores feature point information (eg, type and location information of the feature point) set as a reference when the last calibration is performed.

상기 특징점 정보 수정부(160)는 상기 이전에 저장되어 있던 캘리브레이션 특징점 정보(예 : 특징점의 종류 및 위치 정보)가 변경되었을 경우, 상기 특징점 검출부(130)에서 검출된 새로운 특징점 정보(예 : 특징점의 종류 및 위치 정보)로 수정한다.The feature point information corrector 160, when the previously stored calibration feature point information (eg, type and location information of the feature point) is changed, new feature point information detected by the feature point detecting unit 130 (eg, of the feature point) Type and location information).

상기 파라미터 수정부(170)는 상기 특징점 정보가 이전 대비 변경되었을 경우, 이전에 저장되어 있던 특징점 정보에서 새로 변경된 특징점 정보의 차이에 대응하여 보정된 파라미터를 산출한다. 예컨대 상기 파라미터는 이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 수행할 새로운 캘리브레이션을 위한 파라미터이다. When the feature point information is changed compared to the previous, the parameter correction unit 170 calculates a corrected parameter in response to a difference between the newly changed feature point information from the previously stored feature point information. For example, the parameter is a parameter for a new calibration to be performed according to the change of the feature point information in the previous calibration state.

여기서 상기 특징점은 강체(rigid body)로 설정되어 있기 때문에 상기 특징점 정보가 변경되었다는 것은, 사실상 강체 자체가 변형되기는 어렵기 때문에 실질적으로는 차량의 진동이나 충격 등으로 카메라 혹은 라이다 센서가 틀어진 상황을 의미한다. Here, since the feature point is set as a rigid body, the fact that the feature point information is changed is because the body itself is hardly deformed, so the camera or lidar sensor is actually distorted due to vibration or shock of the vehicle. it means.

따라서 상기 특징점 정보가 기존 대비 변경된 센서(즉, 카메라 혹은 라이다 센서)가 검출될 경우, 해당 센서(즉, 카메라 혹은 라이다 센서)의 자세가 변경된 것을 의미하므로, 상기 제어부(140)는 특징점 정보가 변경된 것으로 검출된 해당 센서(즉, 카메라 혹은 라이다 센서)에 대한 캘리브레이션만 재 수행하면 된다. Therefore, when a sensor (ie, a camera or a lidar sensor) whose feature point information has been changed compared to the existing one is detected, it means that the posture of the corresponding sensor (ie, a camera or a lidar sensor) is changed, so the control unit 140 displays the feature point information. It is only necessary to re-calibrate the corresponding sensor (ie, camera or lidar sensor) detected as having been changed.

상기와 같이 상기 제어부(140)가 특징점 정보가 변경된 센서를 검출하여 해당 센서(예 : 카메라)에 대한 캘리브레이션만 재 수행함으로써, 상기 동일한 기준을 이용해 캘리브레이션 된 복수의 센서(예 : 카메라, 라이다 센서) 중 상기 캘리브레이션을 수행하는 해당 센서(예 : 카메라)를 제외한 다른 센서(예 : 라이다 센서)에서 캘리브레이션은 수행하지 않아도 된다.As described above, the control unit 140 detects a sensor whose feature point information has been changed, and re-calibrates only the corresponding sensor (eg, camera), so that a plurality of sensors calibrated using the same reference (eg, camera, lidar sensor) ), it is not necessary to perform calibration on other sensors (eg, lidar sensors) except for the corresponding sensor (eg, camera) that performs the calibration.

참고로 기존에 라이다와 카메라 간의 외적 파라미터(extrinsic parameter)를 계산하기 위해서는, 도 5에 도시된 바와 같이, 임의의 평면을 맞추는(fitting) 방법을 사용한다. 즉, 카메라와 라이다 두 센서에 같은 데이터가 있으면 이것을 기준으로 캘리브레이션을 수행할 수 있다. For reference, in order to calculate an extrinsic parameter between a lidar and a camera, as shown in FIG. 5, an arbitrary fitting method is used. That is, if the same data is present in both the camera and the lidar sensor, calibration can be performed based on this.

여기서 같은 데이터라는 것은 대부분은 평면(plane)을 사용하며, 도 5에 도시된 바와 같이, 이미 알고 있는 어떤 마커(=체스보드, 체크보드)를 사용하여 카메라와 라이다의 R/T(Rotation, translation) 매트릭스(Matrix)를 계산하는 방식이다. 하지만 상기 기존의 방법으로 R/T 매트릭스를 계산하더라도 기준 자체가 변할 수 있기 때문에 추후 일부 값들이 틀어지는 문제점이 발생할 수 있다. Here, the same data mostly uses a plane, and as shown in FIG. 5, R/T (Rotation, R/T) of the camera and the lidar using a certain known marker (= chessboard, checkboard). This is the way to calculate the matrix. However, even if the R/T matrix is calculated by the above-described method, since the standard itself may change, some problems may occur in the future.

하지만 본 실시예는 카메라와 라이다의 FOV(Field of View)에 포함된 차량의 강체(rigid body)를 특징점(Feature Point)으로 이용함으로써 기준 자체가 변경되는 것을 방지하고, 이에 따라 캘리브레이션을 재 수행할 센서를 정확히 검출하여, 해당 센서만 캘리블레이션을 수행하되, 상기 특징점이 변경된 차이에 대응하는 보정 파라미터를 산출하고, 이 보정 파라미터를 이용해 캘리브레이션을 재수행 할 수 있도록 함으로써, 원하는 시점에 자동으로 캘리브레이션을 수행할 수 있도록 한다.However, this embodiment prevents the reference itself from being changed by using the rigid body of the vehicle included in the field of view (FOV) of the camera and the lidar as a feature point, and re-calibration is performed accordingly. By accurately detecting the sensor to be calibrated, only the relevant sensor is calibrated, but by calculating a correction parameter corresponding to the difference in the feature point, and recalibrating using the correction parameter, it is automatically performed at a desired time point. Allow calibration to be performed.

도 2는 본 발명의 일 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method of calibrating a vehicle camera and a lidar sensor according to an embodiment of the present invention.

도 2를 참조하면, 제어부(140)는 카메라 영상 및 라이다 영상을 입력받는다(S101). 여기서 상기 카메라 영상이란, 카메라부(110)에서 촬영된 영상을 의미하며(도 3의 (b)의 상부 영상 참조), 상기 라이다 영상이란, 라이다 센서부(120)에서 센싱된 영상을 의미한다(도 3의 (b)의 하부 영상 참조).Referring to FIG. 2, the controller 140 receives camera images and lidar images (S101). Here, the camera image refers to an image captured by the camera unit 110 (refer to the upper image in FIG. 3B ), and the lidar image refers to an image sensed by the lidar sensor unit 120. (See the lower image in Fig. 3 (b)).

또한 상기 제어부(140)는 상기 카메라 영상 및 라이다 영상에서의 특징점을 검출한다(S102).In addition, the control unit 140 detects feature points in the camera image and the lidar image (S102).

여기서 상기 특징점은 차량의 강체(rigid body)에서 지정된 것으로서, 특징점의 종류와 위치 정보(즉, 영상에서의 좌표 정보)는 최초의 캘리브레이션 시 미리 지정될 수 있다. 또한 상기 특징점 자체는 상기 복수의 센서(예 : 카메라 및 라이다 센서)가 동일하게 기준으로 사용하되, 상기 각 센서(예 : 카메라 및 라이다 센서)가 설치되는 위치가 다르기 때문에 각 센서에서 캘리브레이션을 위해 저장되는 특징점의 위치 정보는 각기 다를 수 있다.Here, the feature point is specified in the rigid body of the vehicle, and the type and location information (ie, coordinate information in the image) of the feature point may be previously specified during the initial calibration. In addition, the feature point itself uses the same plurality of sensors (e.g., camera and lidar sensor) as standard, but calibration is performed at each sensor because the locations where the respective sensors (e.g., camera and lidar sensor) are installed are different. Location information of the feature points stored in order may be different.

이에 따라 상기 제어부(140)는 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크한다(S103).Accordingly, the control unit 140 checks each sensor whether the location of the detected feature point is the same as the location of the previously stored feature point (S103).

상기 체크(S103) 결과, 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한 경우(S103의 예), 상기 제어부(140)는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지한다(S108).As a result of the check (S103), when the location of the feature point is the same as the location of the previously stored feature point (YES in S103), the control unit 140 maintains the previously performed calibration state for each sensor (S108).

하지만 상기 체크(S103) 결과, 특징점의 위치가 이전에 저장된 특징점의 위치와 동일하지 않은 경우(S103의 아니오), 상기 제어부(140)는 상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크한다(S104).However, as a result of the check (S103), if the location of the feature point is not the same as the location of the previously stored feature point (No in S103), the control unit 140 compares the detected feature point with pre-stored feature point information and a specified error range It is checked whether an abnormality difference occurs (S104).

상기 체크(S104) 결과, 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 다르더라도 오차 범위 이상 차이가 발생하지 않으면(S104의 아니오), 상기 제어부(140)는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지한다(S108).As a result of the check (S104), if the difference of the error range or more does not occur even if the detected feature point is different from the previously stored feature point (No in S104), the controller 140 detects the previously performed calibration state. Each star is maintained (S108).

하지만 상기 체크(S104) 결과, 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 오차 범위 이상 차이가 발생하면(S104의 예), 상기 제어부(140)는 이전에 특징점 정보 저장부(150)에 저장되어 있던 특징점 정보를 상기 검출된 새로운 특징점 정보로 수정(또는 업데이트)한다(S105).However, as a result of the check (S104), when a difference between the position of the detected feature point and an error range is greater than the previously stored feature point (YES in S104), the control unit 140 previously displays the feature point information storage unit 150. The stored feature point information is corrected (or updated) with the detected new feature point information (S105).

또한 상기 제어부(140)는 상기 특징점 정보 저장부(150)에 저장되어 있던 특징점 정보와 상기 검출된 새로운 특징점 정보의 차이에 대응하는 보정 파라미터를 산출한다(S106).In addition, the control unit 140 calculates a correction parameter corresponding to the difference between the feature point information stored in the feature point information storage unit 150 and the detected new feature point information (S106).

예컨대 상기 보정 파라미터는 이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 수행할 새로운 캘리브레이션(즉, 캘리브레이션 재 수행)을 위한 파라미터를 의미한다.For example, the correction parameter means a parameter for a new calibration (that is, re-calibration) to be performed according to the change of the feature point information in the previous calibration state.

그리고 상기 제어부(140)는 상기 산출한 보정 파라미터를 이용하여 해당 센서(즉, 특징점 정보가 변경된 센서로서, 카메라 혹은 라이다 센서)의 캘리브레이션을 수행한다(S107).In addition, the control unit 140 performs calibration of the corresponding sensor (ie, a sensor having changed feature point information, a camera or a lidar sensor) using the calculated correction parameter (S107).

상기와 같이 본 실시예는 차량용 카메라와 라이다 센서의 캘리브레이션을 위하여 특별한 마커나 지그를 사용하지 않고, 차량이 파손되지 않는 한 변하지 않는 차량의 강체(rigid body)를 이용하여 자동으로 캘리브레이션을 수행할 수 있도록 함으로써, 캘리브레이션이 필요한 센서를 판단하여 변경된 특징점 정보에 대응하는 보정 파라미터를 이용하여 원하는 시점에 자동으로 캘리블레이션을 수행할 수 있도록 하는 효과가 있다.As described above, this embodiment does not use a special marker or jig for calibration of a vehicle camera and a lidar sensor, and automatically performs calibration using a rigid body of a vehicle that does not change unless the vehicle is damaged. By doing so, there is an effect of determining a sensor that requires calibration and automatically performing calibration at a desired time point using a correction parameter corresponding to the changed feature point information.

이상으로 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다. 또한 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.The present invention has been described above with reference to the embodiment shown in the drawings, but this is only exemplary, and those skilled in the art to which the art pertains may have various modifications and other equivalent embodiments. You will understand the point. Therefore, the technical protection scope of the present invention should be defined by the claims below. Also, the implementations described herein can be implemented, for example, as methods or processes, devices, software programs, data streams, or signals. Although discussed only in the context of a single form of implementation (eg, discussed only as a method), implementation of the features discussed may also be implemented in other forms (eg, devices or programs). The device can be implemented with suitable hardware, software and firmware. The method can be implemented in an apparatus, such as a processor, generally referring to a processing device, including, for example, a computer, microprocessor, integrated circuit, or programmable logic device. The processor also includes communication devices such as computers, cell phones, portable/personal digital assistants ("PDAs") and other devices that facilitate communication of information between end-users.

110 : 카메라부 120 : 라이다 센서부
130 : 특징점 검출부 140 : 제어부
150 : 특징점 정보 저장부 160 : 특징점 정보 수정부
170 : 파라미터 수정부
110: camera unit 120: lidar sensor unit
130: feature point detection unit 140: control unit
150: feature point information storage unit 160: feature point information correction
170: parameter correction

Claims (15)

차량 전방의 영상을 촬영하는 영상 센서인 카메라부;
빛을 활용해 거리 측정하고 물체를 감지하는 센서인 라이다 센서부;
상기 카메라부와 라이다 센서부의 FOV(Field of View)에 따라 보이는 차량의 강체 영상에서 지정된 적어도 하나 이상의 특징점 및 그 위치 정보를 검출하는 특징점 검출부;
상기 각 센서에 대하여 최후의 캘리브레이션 시 기준으로 설정한 특징점 정보를 저장하는 특징점 정보 저장부; 및
상기 검출한 각 센서의 특징점 정보가 상기 특징점 정보 저장부에 각기 저장된 특징점 대비 변경된 센서를 검출하고, 이전 대비 특징점 정보가 변경된 것으로 검출된 해당 센서에 대한 캘리브레이션을 재 수행하는 제어부;를 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
A camera unit that is an image sensor for photographing an image in front of a vehicle;
A lidar sensor unit, which is a sensor for measuring distance and sensing an object using light;
A feature point detector configured to detect at least one feature point designated by a rigid body image of a vehicle viewed according to a field of view (FOV) of the camera unit and the lidar sensor unit and position information thereof;
A feature point information storage unit for storing feature point information set as a reference for the last calibration for each sensor; And
It includes a control unit for detecting the sensor has changed the feature point information of each of the detected sensors compared to the feature points stored in each of the feature point information storage unit, and re-calibrates the corresponding sensor detected that the previous feature point information has been changed; A vehicle camera and a lidar sensor calibration device.
제 1항에 있어서, 상기 특징점 정보는,
특징점의 종류 및 위치 정보를 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
The method of claim 1, wherein the feature point information,
A calibration device for a vehicle camera and a lidar sensor, comprising type and location information of a feature point.
제 1항에 있어서, 상기 특징점 정보는,
최후의 캘리브레이션시 기준으로 설정한 특징점의 정보인 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
The method of claim 1, wherein the feature point information,
A calibration device for a vehicle camera and a lidar sensor, characterized in that it is information on a feature point set as a reference for the last calibration.
제 1항에 있어서,
상기 특징점 정보 저장부에 이전에 저장되어 있던 캘리브레이션 특징점 정보가 변경되었을 경우, 상기 특징점 검출부에서 검출된 새로운 특징점 정보로 수정하는 특징점 정보 수정부;를 더 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
According to claim 1,
If the calibration feature point information previously stored in the feature point information storage unit is changed, a vehicle camera and a lidar sensor further comprising a feature point information correction unit that corrects the new feature point information detected by the feature point detection unit. Calibration device.
제 1항에 있어서,
상기 특징점 정보가 이전 대비 변경되었을 경우, 이전에 저장되어 있던 특징점 정보에서 새로 변경된 특징점 정보의 차이에 대응하여 보정 파라미터를 산출하는 파라미터 수정부;를 더 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
According to claim 1,
If the feature point information has been changed compared to the previous, the vehicle camera and the lidar sensor further comprises a parameter correction for calculating a correction parameter in response to the difference of the newly changed feature point information from the previously stored feature point information Calibration device.
제 5항에 있어서, 상기 보정 파라미터는,
이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 재 수행할 캘리브레이션을 위한 파라미터인 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
The method of claim 5, wherein the correction parameter,
A calibration device for a vehicle camera and a lidar sensor, which is a parameter for calibration to be performed again according to the change of the feature point information in a previous calibration state.
제어부가 카메라 영상 및 라이다 영상을 입력받는 단계;
상기 제어부가 상기 카메라 영상 및 라이다 영상에서 특징점을 검출하는 단계;
상기 제어부가 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크하는 단계;
상기 특징점의 위치가 이전에 저장된 특징점의 위치와 동일하지 않은 경우, 상기 제어부가 상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크하는 단계;
상기 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 오차 범위 이상 차이가 발생하면, 상기 제어부가 이전에 저장되어 있던 특징점 정보를 상기 검출된 새로운 특징점 정보로 수정하는 단계;
상기 제어부가 상기 이전에 저장되어 있던 특징점 정보와 상기 검출된 새로운 특징점 정보의 차이에 대응하는 보정 파라미터를 산출하는 단계; 및
상기 제어부가 상기 산출한 보정 파라미터를 이용하여 특징점 정보가 변경된 해당 센서의 캘리브레이션을 재 수행하는 단계;를 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The control unit receives a camera image and a lidar image;
The controller detecting feature points in the camera image and the lidar image;
Checking, by each sensor, whether the position of the detected feature point is the same as the position of the previously stored feature point;
If the location of the feature point is not the same as the location of the previously stored feature point, the control unit compares the detected feature point with pre-stored feature point information to check whether a difference occurs over a specified error range;
If the position of the detected feature point differs from the position of the previously stored feature point and an error range, the control unit corrects previously stored feature point information with the detected new feature point information;
Calculating, by the control unit, a correction parameter corresponding to the difference between the previously stored feature point information and the detected new feature point information; And
And re-calibrating the corresponding sensor whose feature point information is changed by using the calculated correction parameter by the control unit.
제 7항에 있어서,
상기 카메라 영상은, 카메라부에서 촬영된 영상을 의미하며,
상기 라이다 영상은, 라이다 센서부에서 센싱된 영상을 의미하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The method of claim 7,
The camera image means an image captured by the camera unit,
The lidar image is a vehicle camera and a method for calibrating a lidar sensor, characterized in that means the image sensed by the lidar sensor unit.
제 7항에 있어서, 상기 특징점은,
차량의 강체(rigid body)에서 지정된 것임을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The method of claim 7, wherein the feature point,
A method for calibrating a vehicle camera and a lidar sensor, characterized in that it is specified in a rigid body of the vehicle.
제 7항에 있어서,
상기 특징점의 종류와 위치 정보는 최초의 캘리브레이션 시 지정될 수 있음을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The method of claim 7,
A method of calibrating a vehicle camera and a lidar sensor, characterized in that the type and location information of the feature point can be designated at the time of initial calibration.
제 10항에 있어서, 상기 특징점의 위치 정보는,
각 센서 영상에서의 좌표 정보인 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The location information of the feature point,
A method for calibrating a vehicle camera and a lidar sensor, which is coordinate information in each sensor image.
제 10항에 있어서, 상기 특징점의 위치 정보는,
상기 각 센서가 동일하게 캘리브레이션을 위한 기준으로 사용하되,
상기 각 센서가 설치되는 위치에 대응하여 각 센서에서 캘리브레이션을 위해 저장되는 특징점의 위치 정보가 설정되는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The location information of the feature point,
Each sensor is equally used as a reference for calibration,
A method for calibrating a vehicle camera and a lidar sensor, characterized in that location information of a feature point stored for calibration in each sensor is set in correspondence to a location where each sensor is installed.
제 7항에 있어서,
상기 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크한 결과,
특징점의 위치가 이전에 저장된 특징점의 위치와 동일한 경우 상기 제어부는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지하는 단계;를 더 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The method of claim 7,
As a result of checking for each sensor whether the location of the detected feature point is the same as the location of the previously stored feature point,
If the position of the feature point is the same as the location of the previously stored feature point, the control unit maintains the previously performed calibration state for each sensor; vehicle camera and lidar sensor calibration method further comprising a.
제 7항에 있어서,
상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크한 결과,
검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 다르더라도 오차 범위 이상 차이가 발생하지 않으면, 상기 제어부는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지하는 단계;를 더 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The method of claim 7,
As a result of comparing the detected feature points with pre-stored feature point information and checking whether a difference occurs over a specified error range,
If the position of the detected feature point differs from the position of the previously stored feature point, and no difference occurs above the error range, the control unit maintains the previously performed calibration state for each sensor. How to calibrate the camera and lidar sensor.
제 7항에 있어서, 상기 보정 파라미터는,
이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 재 수행할 캘리브레이션을 위한 파라미터를 의미하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The method of claim 7, wherein the correction parameter,
A calibration method of a vehicle camera and a lidar sensor, characterized in that means a parameter for calibration to be performed again according to the change of the feature point information in the previous calibration state.
KR1020190000597A 2019-01-03 2019-01-03 Apparatus and method for calibrating camera and lidar sensor of vehicle KR102647929B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190000597A KR102647929B1 (en) 2019-01-03 2019-01-03 Apparatus and method for calibrating camera and lidar sensor of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190000597A KR102647929B1 (en) 2019-01-03 2019-01-03 Apparatus and method for calibrating camera and lidar sensor of vehicle

Publications (2)

Publication Number Publication Date
KR20200084552A true KR20200084552A (en) 2020-07-13
KR102647929B1 KR102647929B1 (en) 2024-03-15

Family

ID=71570902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190000597A KR102647929B1 (en) 2019-01-03 2019-01-03 Apparatus and method for calibrating camera and lidar sensor of vehicle

Country Status (1)

Country Link
KR (1) KR102647929B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102364007B1 (en) * 2020-12-30 2022-02-16 충북대학교 산학협력단 Online self-calibration system of mutiple 2D LiDARs using ling features with robust adaptive covariance
KR102382219B1 (en) * 2021-05-10 2022-04-05 넥스터 주식회사 The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object
KR20220059166A (en) 2020-11-02 2022-05-10 주식회사 인포웍스 Multi-camera-based camera composite image automatic calibration method
KR20220109537A (en) * 2021-01-28 2022-08-05 경북대학교 산학협력단 Apparatus and method for calibration of sensor system of autonomous vehicle
KR20220110987A (en) * 2021-02-01 2022-08-09 연세대학교 산학협력단 System of Spatial Information Construction Using Mobile Robots
KR20220144917A (en) * 2021-04-20 2022-10-28 주식회사 에이치엘클레무브 Apparatus for assisting driving vehicle and method thereof
KR20230030955A (en) 2021-08-26 2023-03-07 한국로봇융합연구원 Apparatus for Camera-Lidar Calibration and method thereof
US20230150525A1 (en) * 2021-11-17 2023-05-18 Ford Global Technologies, Llc Dynamic sensor model to adapt vehicle modifications and transformation
WO2023121053A1 (en) * 2021-12-20 2023-06-29 삼성전자주식회사 Electronic device and control method therefor
KR102633224B1 (en) 2022-11-30 2024-02-06 (주)에스유엠 Object recognition apparatus and method for autonomous vehicles

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090248304A1 (en) * 2008-03-28 2009-10-01 Regents Of The University Of Minnesota Vision-aided inertial navigation
WO2018138584A1 (en) * 2017-01-26 2018-08-02 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and lidar information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090248304A1 (en) * 2008-03-28 2009-10-01 Regents Of The University Of Minnesota Vision-aided inertial navigation
US20180023953A1 (en) * 2008-03-28 2018-01-25 Regents Of The University Of Minnesota Extended kalman filter for 3d localization and vision-aided inertial navigation
WO2018138584A1 (en) * 2017-01-26 2018-08-02 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and lidar information

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220059166A (en) 2020-11-02 2022-05-10 주식회사 인포웍스 Multi-camera-based camera composite image automatic calibration method
KR102364007B1 (en) * 2020-12-30 2022-02-16 충북대학교 산학협력단 Online self-calibration system of mutiple 2D LiDARs using ling features with robust adaptive covariance
KR20220109537A (en) * 2021-01-28 2022-08-05 경북대학교 산학협력단 Apparatus and method for calibration of sensor system of autonomous vehicle
KR20220110987A (en) * 2021-02-01 2022-08-09 연세대학교 산학협력단 System of Spatial Information Construction Using Mobile Robots
KR20220144917A (en) * 2021-04-20 2022-10-28 주식회사 에이치엘클레무브 Apparatus for assisting driving vehicle and method thereof
KR102382219B1 (en) * 2021-05-10 2022-04-05 넥스터 주식회사 The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object
KR20230030955A (en) 2021-08-26 2023-03-07 한국로봇융합연구원 Apparatus for Camera-Lidar Calibration and method thereof
US20230150525A1 (en) * 2021-11-17 2023-05-18 Ford Global Technologies, Llc Dynamic sensor model to adapt vehicle modifications and transformation
WO2023121053A1 (en) * 2021-12-20 2023-06-29 삼성전자주식회사 Electronic device and control method therefor
KR102633224B1 (en) 2022-11-30 2024-02-06 (주)에스유엠 Object recognition apparatus and method for autonomous vehicles

Also Published As

Publication number Publication date
KR102647929B1 (en) 2024-03-15

Similar Documents

Publication Publication Date Title
KR20200084552A (en) Apparatus and method for calibrating camera and lidar sensor of vehicle
US10701341B2 (en) Calibration method, calibration device, and computer program product
KR101265012B1 (en) Calibration device, method, and program for onboard camera
US9858684B2 (en) Image processing method and apparatus for calibrating depth of depth sensor
CN108111828B (en) Projection equipment correction method and device and projection equipment
EP2530647A1 (en) Method of calibrating a vehicle vision system and vehicle vision system
CN109855568B (en) Method and device for detecting automatic driving sensor, electronic equipment and storage medium
JP2008131250A (en) Correcting device for on-board camera and production method for vehicle using same correcting device
JP2010251938A (en) Vehicle circumference photographing display system
US10220783B2 (en) Vehicle-mounted stereo camera device and method for correcting the same
KR102611759B1 (en) Apparatus for calibrating of around view image for vehicle and control method thereof
KR102121287B1 (en) Camera system and controlling method of Camera system
US10384608B2 (en) Vehicle-mounted stereo camera device and method for correcting the same
KR20170066749A (en) Apparatus and method for compensating image distortion in head up display for vehicle
JP6996582B2 (en) Calibration method, calibration equipment and program
WO2017042995A1 (en) In-vehicle stereo camera device and method for correcting same
CN116030139A (en) Camera detection method and device, electronic equipment and vehicle
JP2017062150A (en) Device for calibrating stereo camera and method for calibrating stereo camera
JP2019053073A (en) Calibration method, calibration device and program
KR102626079B1 (en) Apparatus for calibrating multi lidar and method thereof
JP3833042B2 (en) Distance recognition device
JP2017175206A (en) Imaging apparatus, on-vehicle camera, and image processing method
JP2013229692A (en) Detection device of on-vehicle camera attachment angle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant