[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101697229B1 - Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof - Google Patents

Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof Download PDF

Info

Publication number
KR101697229B1
KR101697229B1 KR1020150120909A KR20150120909A KR101697229B1 KR 101697229 B1 KR101697229 B1 KR 101697229B1 KR 1020150120909 A KR1020150120909 A KR 1020150120909A KR 20150120909 A KR20150120909 A KR 20150120909A KR 101697229 B1 KR101697229 B1 KR 101697229B1
Authority
KR
South Korea
Prior art keywords
image
lane
vehicle
camera
information
Prior art date
Application number
KR1020150120909A
Other languages
Korean (ko)
Inventor
이준석
전병찬
박규로
장민섭
박지환
Original Assignee
㈜베이다스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ㈜베이다스 filed Critical ㈜베이다스
Priority to KR1020150120909A priority Critical patent/KR101697229B1/en
Application granted granted Critical
Publication of KR101697229B1 publication Critical patent/KR101697229B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to an automatic calibration device based on lane information for vehicle image registration for multi-channel synthesis around a vehicle. The automatic calibration device of the present invention includes: a photographing unit which receives and outputs photographed images of a vehicle surrounding area including lanes or guard rails on the road from a plurality of cameras installed on the vehicle; and an image processing unit which registers the images by extracting lane information from the photographed images, correcting image distortion, and estimating installation location and angles of the cameras using the lane information and then outputs the registered image.

Description

차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치 및 그 방법{Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic correction apparatus based on lane information for vehicle image registration,

본 발명은 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치 및 그 방법에 관한 것으로, 더욱 상세하게는 실제 도로상의 차선 또는 가드레일 등을 촬영한 영상을 이용하여 카메라의 장착 오차를 보정하여 차량 주변의 다채널 영상을 정합할 수 있는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치 및 그 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic correction device based on lane information for vehicle image matching and, more particularly, to a method and apparatus for correcting a mounting error of a camera using an image of a lane on a road or a guard rail, The present invention relates to a lane-information-based automatic correction device for vehicle image matching capable of matching a multi-channel image of a vehicle, and a method thereof.

근래에 들어서 차량에는 주차 지원을 위한 후방 카메라와 같이 다양한 용도의 카메라가 사용되고 있다. 그 중에서도 차량의 전, 후, 좌, 우의 사각을 완전히 제거할 수 있는 탑뷰(top view) 시스템이 최근에 개발 되었는데, 이는 차량의 전, 후, 좌, 우, 네 위치에 장착된 광각 카메라를 이용하여 영상을 획득한 후 합성하여 일반 뷰(Normal view)를 버드뷰(Bird view)로 전환해 주는 시스템이다. 이러한 탑뷰 시스템은 마치 새가 하늘에서 내려다보는 것과 같이 차량 주변을 세세하게 보여줄 수 있어 운전자가 차량과 주변 물체와의 거리 및 상황을 정확히 인지할 수 있도록 해준다. Recently, various kinds of cameras such as a rear camera for parking support have been used in vehicles. Among them, a top view system has been recently developed which can completely remove the front, rear, left, and right rectangles of a vehicle. This system has been developed using a wide angle camera mounted at front, rear, left, And then converts the normal view into a bird view. This top-view system allows the driver to see exactly the distance and situation between the vehicle and surrounding objects, as if the birds were looking down from the sky.

그런데 이러한 탑뷰 시스템을 구현하기 위해서는 각 위치의 카메라로부터 획득된 영상에서 입력 순서에 의해 발생하는 영상 시차, 광각 카메라에 사용되는 렌즈에 의한 영상 왜곡, 원근 투영 왜곡 등을 보정해 주어야 하는 문제점이 있다. However, in order to implement such a top view system, there is a problem that image parallax caused by an input sequence in an image acquired from a camera at each position, image distortion caused by a lens used in a wide angle camera, and perspective projection distortion must be corrected.

특히, 여러 위치에 장착된 복수의 카메라로부터 획득한 영상을 합성할 때, 각각의 카메라는 장착 오차를 갖게 되고, 또한, 각각의 영상은 서로 다른 좌표계에서 얻어지기 때문에 최종적으로 합성된 영상 속의 각 카메라의 영상들은 서로 일치되지 않는 현상이 발생하게 된다. In particular, when synthesizing images acquired from a plurality of cameras mounted at various positions, each camera has a mounting error, and since each image is obtained in a different coordinate system, each camera in the final synthesized image The images of the images are not coincident with each other.

때문에 영상 정합을 위한 선결문제로 카메라의 장착 오차를 보정하여야 하고, 이를 위해서는 설치된 각각의 카메라에 대한 설치 높이와 설치 각에 대한 정보가 요구된다. Therefore, it is necessary to correct the mounting error of the camera due to the prerequisite for the image registration. For this, information about the installation height and the installation angle for each installed camera is required.

이러한 정보를 구하는 일반적인 방법은 지면에 체커보드(cherkerboard) 와 같은 특정 기준 패턴을 설치하여 촬영한 후에 촬영된 패턴 영상을 이용하는 방법이다. 이 방법은 패턴 상의 특정 마커의 상대적인 위치를 미리 정확하게 알 수 있어 정밀한 결과를 얻을 수 있는 장점이 있다. 하지만 이러한 패턴을 차량 주위에 설치하기 위해서는 일정 이상의 넓이가 확보된 특정의 공간이 있어야 하고, 패턴이 갖는 면적과 무게로 인해 설치하는데 따른 어려움이 있기 때문에 실제 작업을 수행함에 있어서는 상당한 번거로움이 따르는 문제점이 있다.A common method for obtaining such information is to use a pattern image captured after a predetermined reference pattern such as a cherkerboard is installed on the ground. This method has an advantage that precise results can be obtained because the relative positions of specific markers on the pattern can be precisely known in advance. However, in order to install such a pattern around the vehicle, it is necessary to have a specific space having a predetermined width or more. Due to the difficulty in installing the pattern due to the area and weight of the pattern, it is troublesome .

관련 선행기술로는 한국공개특허 2015-0028532호(공개일: 2015. 03. 16)가 있다.A related prior art is Korean Patent Laid-Open Publication No. 2015-0028532 (published on May 3, 2015).

본 발명은 차량 주변을 시각화하기 위하여 차량 주변에 복수의 카메라를 장착한 후 카메라로부터 획득한 영상을 통해 차량에 장착된 카메라의 장착 오차를 보정하고, 이 정보를 이용하여 복수의 카메라 영상을 정합하는 차량용 영상 정합을 위한 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치 및 그 방법을 제공하기 위한 것이다.In order to visualize the surroundings of a vehicle, a plurality of cameras are mounted around the vehicle, and a mounting error of a camera mounted on the vehicle is corrected through an image acquired from the camera, and a plurality of camera images are registered And an automatic correction device based on lane information for vehicle image registration for vehicle image registration and a method therefor.

또한, 영상을 보정할 때 체커보드와 같은 특정한 기준 패턴 또는 구조물 없이 실제 도로상의 차선 또는 가드레일에 대한 정보를 이용하여 차량에 장착된 카메라의 장착 오차 보정 및 영상 보정 작업을 수행할 수 있도록 하는 차량용 영상 정합을 위한 차선 기반의 자동보정장치 및 그 방법을 제공하기 위한 것이다.In addition, when correcting an image, it is possible to perform mounting error correction and image correction of a camera mounted on a vehicle using information on lanes or guard rails on an actual road without a specific reference pattern or structure such as a checkerboard A lane-based automatic correction device for image matching, and a method therefor.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않는다.The technical objects to be achieved by the present invention are not limited to the above-mentioned technical problems.

상기 과제를 달성하기 위한 본 발명의 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치는, 차량에 장착된 복수의 카메라로부터 도로 상의 차선 또는 가드레일을 포함하여 차량 주변 영역이 촬영된 영상을 입력받아 출력하는 촬영부 및 상기 촬영 영상에서 선 정보를 추출하고 영상 왜곡 보정을 한 후, 상기 선 정보를 이용하여 카메라의 설치 위치와 설치각을 추정함으로써 영상을 정합하고 정합된 영상을 출력하는 영상처리부를 포함할 수 있다.According to an aspect of the present invention, there is provided an apparatus for automatically correcting a lane information based on a lane information of a vehicle, comprising: a plurality of cameras mounted on a vehicle, An image processing unit for extracting the line information from the photographed image to output and correcting the image distortion, estimating the installation position and the installation angle of the camera using the line information, and outputting the matched image by matching the images .

구체적으로, 상기 영상 처리부는 상기 촬영 영상에서 선 정보를 추출할 때 원본 이미지, 퍼스펙티브 뷰 이미지(Perspective image), 탑 뷰 이미지(Topview image), 실린더 뷰 이미지(Cylindrical image) 중 어느 하나 이상을 사용하는 것을 특징으로 할 수 있다. Specifically, the image processor may use at least one of a source image, a perspective image, a topview image, and a cylinder view image in extracting line information from the photographed image . ≪ / RTI >

구체적으로, 상기 영상 처리부는 기지의 카메라 내부 파라미터를 이용하여 상기 촬영 영상의 영상 왜곡 보정을 수행하는데, 여기서 내부 파라미터는 광중심, 종횡비, 투영 유형 및 초점거리 중 어느 하나 이상을 포함하는 것을 특징으로 할 수 있다. Specifically, the image processing unit performs image distortion correction of the photographed image using a known camera internal parameter, wherein the internal parameter includes at least one of an optical center, an aspect ratio, a projection type, and a focal length can do.

구체적으로, 상기 영상 처리부는 상기 차선 정보를 이용하여 차선이 주행방향과 평행하도록 영상을 회전시키고, 영상 내의 차선의 폭이 일치되도록 영상을 이동시키고, 인접한 카메라끼리 공통으로 나타나는 영역을 이용하여 영상이 정합되도록 영상을 이동시켜 카메라의 설치 위치와 설치각을 추정하는 것을 특징으로 할 수 있다. Specifically, the image processing unit rotates the image so that the lane is parallel to the driving direction using the lane information, moves the image so that the width of the lane in the image coincides with the image, And the image is moved so as to match the position of the camera and the installation angle of the camera.

구체적으로, 상기 영상처리부는 상기 영상을 회전 및 이동을 시킬 때 최적화 알고리즘을 사용하되, 상기 최적화 알고리즘은 PSO(Particle Swarm Optimization), GD(Gradient Descent), LMSE(Least Mean Square Error) 중 어느 하나인 것을 특징으로 할 수 있다. Specifically, the image processing unit uses an optimization algorithm for rotating and moving the image, and the optimization algorithm is one of PSO (Particle Swarm Optimization), GD (Gradient Descent), and LMSE (Least Mean Square Error) . ≪ / RTI >

구체적으로, 상기 영상처리부는 상기 영상을 이동 및 회전 시키고 난 후의 결과를 저장하는 저장부를 더 포함하는 것을 특징으로 할 수 있다. Specifically, the image processing unit may further include a storage unit for storing results after moving and rotating the image.

구체적으로, 상기 영상처리부는 이후의 과정에서 계속하여 영상정합을 수행할 때는 상기 저장부에 저장된 카메라의 이동 및 회전 정보를 이용하여 영상의 정합을 수행할 수 있는 것을 특징으로 할 수 있다. Specifically, the image processor may perform image matching using the movement and rotation information of the camera stored in the storage unit when the image matching is continuously performed in a subsequent process.

구체적으로, 차량 주변의 다채널 영상 합성에서의 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법은, 차량이 차선과 평행하게 주행하면서 주변의 영상을 취득하는 단계와, 차량 주변 영상에서 차선 또는 가드레일 등의 선 정보를 추출하는 단계와, 차량 주변 영상의 영상 왜곡을 보정하는 단계와, 카메라의 이동 및 회전 정보 계산, 저장 및 영상 정합 단계와, 저장된 카메라의 이동 및 회전 정보를 이용하여 영상 정합을 수행하는 단계를 포함할 수 있다. More specifically, a lane-based information-based automatic correction method for vehicle image matching in a multi-channel image synthesis around a vehicle includes steps of: acquiring a surrounding image while the vehicle is traveling in parallel with a lane; A step of correcting the image distortion of the peripheral image of the vehicle, a step of calculating and storing the moving and rotating information of the camera, a step of matching and storing the moving image of the camera, And performing the steps of:

구체적으로, 상기 차량이 차선과 평행하게 주행하면서 주변 영상을 취득하는 단계는, 취득된 상기 주변 영상 내에 도로 상의 차선 또는 가드레일과 같은 영상을 포함함으로써 이들로부터 선 정보를 추출할 수 있도록 하는 것을 특징으로 할 수 있다. Specifically, the step of acquiring the surrounding image while the vehicle travels in parallel with the lane includes the step of extracting the line information by including an image such as a lane or a guardrail on the road in the acquired peripheral image .

구체적으로, 상기 차량 주변 영상에서 차선 또는 가드레일 등의 선 정보를 추출하는 단계는, 원본 이미지, 퍼스펙티브 뷰 이미지(Perspective image), 탑 뷰 이미지(Topview image), 실린더 뷰 이미지(Cylindrical image)와 같은 화면 모드 중 어느 하나 이상을 사용하는 것을 특징으로 할 수 있다. Specifically, the step of extracting line information such as a lane or a guardrail from the vehicle surroundings image may include extracting a line image such as a source image, a perspective image, a topview image, a cylinder view image, Screen mode may be used.

구체적으로, 상기 차량 주변 영상의 왜곡을 보정하는 단계는, 기지의 카메라 내부 파라미터를 이용하여 상기 촬영 영상의 영상 왜곡 보정을 수행하는데, 여기서 내부 파라미터는 광중심, 종횡비, 투영 유형 및 초점거리 중 어느 하나 이상을 포함하는 것을 특징으로 할 수 있다. Specifically, the step of correcting the distortion of the peripheral image of the vehicle performs image distortion correction of the photographed image using a known camera internal parameter, wherein the internal parameter includes at least one of an optical center, an aspect ratio, a projection type, And at least one of them may be included.

구체적으로, 상기 카메라의 이동 및 회전 정보 계산, 저장 및 영상 정합 단계는, 차선을 주행방향에 맞추기 위해 영상을 회전시키는 단계와, 차선의 폭을 맞추기 위해 영상을 이동시키는 단계와, 영상 정합을 위해 영상을 이동시키는 단계 및 카메라 영상의 이동 및 회전 정보를 저장하고 정합 영상을 출력하는 단계를 포함하는 것을 특징으로 할 수 있다. Specifically, the moving and rotating information calculation, storage, and image matching steps of the camera may include rotating the image to align the lane with the driving direction, moving the image to match the width of the lane, A step of moving an image, and a step of storing movement and rotation information of a camera image and outputting a matching image.

구체적으로, 상기 영상을 이동 및 회전시킬 때에는 카메라의 영상을 가상의 3차원 구에 매핑한 후 원하는 차선의 모양이 될 때까지 각도와 거리를 변경하여 반복 수행한 후 3차원 가상공간에 배열하는 것을 특징으로 할 수 있다. Specifically, when the image is moved and rotated, the image of the camera is mapped to a virtual three-dimensional sphere, and the angle and distance are changed until the shape of the desired lane is repeated, .

구체적으로, 상기 영상을 이동 및 회전시킬 때에는 최적화 알고리즘을 사용하되, 상기 최적화 알고리즘은 PSO(Particle Swarm Optimization), GD(Gradient Descent), LMSE(Least Mean Square Error) 중 어느 하나인 것을 특징으로 할 수 있다. Specifically, an optimization algorithm is used to move and rotate the image, wherein the optimization algorithm is any one of PSO (Particle Swarm Optimization), GD (Gradient Descent), and LMSE (Least Mean Square Error) have.

구체적으로, 상기 저장된 카메라의 이동 및 회전 정보를 이용하여 영상 정합을 수행하는 단계는, 이후 획득되는 카메라 영상에 대한 영상 정합을 수행할 때는 상기 저장된 카메라의 이동 및 회전 정보에 해당하는 변경 파라미터를 이용하여 영상 정합을 곧바로 수행하는 것을 특징으로 할 수 있다. More specifically, the step of performing image matching using the stored movement and rotation information of the camera may include using a change parameter corresponding to the stored movement and rotation information of the camera, So that the image matching is performed immediately.

이상에서 설명한 바와 같이 본 발명은 체커보드와 같은 특정한 기준 패턴 또는 기구물 없이도 실제 도로상의 차선이나 가드레일에 대한 정보를 이용하여 차량에 장착된 카메라의 장착 오차 보정 및 영상 보정 작업을 수행할 수 있도록 하기 때문에, 광범위한 영역에 패턴을 설치해야 하고 무게도 무거운 체커보드와 같은 특정 패턴 도구를 사용하지 않고도 카메라 외부 파라미터를 간단하고 용이하게 얻을 수 있고, 그에 따라 복수의 카메라로부터 획득된 영상의 정합을 보다 용이하게 할 수 있는 효과가 있다. As described above, according to the present invention, it is possible to perform a mounting error correction and an image correction operation of a camera mounted on a vehicle using information about a lane or a guardrail on an actual road without using a specific reference pattern or structure such as a checkerboard Therefore, it is possible to easily and easily obtain the camera external parameters without using a specific pattern tool such as a heavy checker board, and to install the pattern in a wide area, thereby facilitating the matching of images obtained from a plurality of cameras There is an effect that can be made.

도 1은 본 발명의 실시예에 따른 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치를 나타낸 블록도이다.
도 2는 도 1에 도시된 복수의 카메라를 통해 입력된 영상을 나타낸 도면이다.
도 3 내지 도 6은 촬영 영상에서 선 정보를 추출하는 과정을 그림으로 나타낸 것이다.
도 7는 촬영 영상에서 선 정보를 추출하기 위하여 적용되는 다양한 화면 모드를 사진으로 나타낸 것이다.
도 8은 본 발명의 실시예에 따른 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법을 나타낸 순서도이다.
도 9는 도 8에 도시된 영상 정합 과정을 그림으로 나타낸 것이다.
도 10은 도 8에 도시된 카메라의 이동 및 회전 정보 계산, 저장 및 영상 정합 단계를 더욱 상세히 나타낸 것이다.
도 11은 본 발명에 따른 차량용 영상 정합을 위한 자동보정 전후를 사진으로 나타낸 것이다.
1 is a block diagram illustrating an automatic lane information-based automatic correction apparatus for vehicle image matching according to an embodiment of the present invention.
2 is a view illustrating an image input through a plurality of cameras shown in FIG.
3 to 6 are diagrams illustrating a process of extracting line information from the photographed image.
FIG. 7 is a photograph showing various screen modes applied for extracting line information from a photographed image.
8 is a flowchart illustrating an automatic correction method based on lane information for vehicle image matching according to an exemplary embodiment of the present invention.
FIG. 9 is a diagram illustrating the image matching process shown in FIG.
FIG. 10 shows the camera movement and rotation information calculation, storage, and image registration steps shown in FIG. 8 in more detail.
11 is a photograph showing before and after automatic correction for vehicle image matching according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다. 도면들 중 동일한 구성요소들은 가능한 어느 곳에서든지 동일한 부호로 표시한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same components are denoted by the same reference symbols whenever possible. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1은 본 발명의 실시예에 따른 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치를 나타낸 블록도로서, 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치(100)는 촬영부(110) 및 영상 처리부(120)를 포함한다.FIG. 1 is a block diagram illustrating an automatic lane information-based automatic correction apparatus for vehicle image matching according to an embodiment of the present invention. The lane information-based automatic correction apparatus 100 for vehicle image matching includes a photographing unit 110, And an image processing unit 120.

먼저, 촬영 영상이 실제 도로 상의 차선 또는 가드레일과 같은 영상을 포함함으로써 이들로부터 선 정보를 추출할 수 있도록 하여야 한다. 이를 위해서 차량은 차선 또는 가드레일과 평행하게 주행하면서 영상을 취득하는데, 바람직하게는 차량의 속도가 30km/h 이하가 되도록 하고 동시에 도로의 상태에 의해 차량에 장착된 카메라의 높이 및 회전 정보의 변화가 최소화 될 수 있도록 한다. First, the photographed image should include an image such as a lane or guardrail on an actual road so that the line information can be extracted from the image. For this purpose, the vehicle obtains the image while traveling in parallel with the lane or the guard rail. Preferably, the vehicle speed is 30 km / h or less, and at the same time, the height of the camera and the change To be minimized.

촬영부(110)는 차량의 주변 영역을 촬영한 촬영 영상을 출력하기 위한 것으로 적어도 하나 이상의 카메라를 포함할 수 있다. 바람직하게는 전면부, 후면부, 좌우 측면부에 장착되어 자동차의 주변을 모두 시각화 할 수 있도록 제1 내지 제4 카메라(111, 113, 115, 117)를 포함할 수 있으며, 그 이상 개수의 카메라를 포함할 수도 있다. The photographing unit 110 may include at least one camera for outputting a photographed image of a surrounding area of the vehicle. Preferably, the camera may include first to fourth cameras 111, 113, 115, and 117 for visualizing the surroundings of the vehicle mounted on the front, rear, left and right sides, You may.

또한, 촬영부(110)에 사용되는 카메라에는 보통의 렌즈보다 시야각이 큰 광각 렌즈를 사용하거나 또는 사각이 180ㅀ를 넘는 초광각 렌즈인 어안렌즈를 사용할 수 있다. The camera used in the photographing unit 110 may be a wide-angle lens having a larger viewing angle than that of a normal lens, or a fisheye lens having an extra-wide angle of 180 degrees or more.

도 2을 참고하면, 촬영부(110)가 차량 주변을 촬영한 것이 하나의 영상에 도시되고 있는데, 전면부 및 후면부를 촬영한 영상과 좌우 측면부를 촬영한 영상이 합성되었고 아직 영상은 정합되기 이전이기 때문에 영상들의 결합 부위는 어긋나 있음을 알 수 있다.Referring to FIG. 2, the image of the surroundings of the vehicle taken by the photographing unit 110 is shown in one image. The images of the front and rear portions and the images of the left and right side portions are synthesized, It can be seen that the joints of the images are shifted.

영상 처리부(120)는 촬영 영상에 나타난 차선 또는 가드레일 등과 같은 선 정보를 추출하는 기능과, 광중심과 같은 카메라 내부 파라미터를 이용하여 카메라 영상의 왜곡 보정을 하는 기능과, 추출된 선 정보를 이용하여 카메라의 설치 위치와 설치각을 추정하여 영상을 정합하고 출력함과 동시에 이에 대한 정보를 저장하는 기능을 함으로써, 다채널 영상에 대한 정합을 수행하는 기능을 수행한다. The image processing unit 120 has a function of extracting line information such as a lane or a guardrail appearing in a photographed image, a function of correcting distortion of a camera image using a camera internal parameter such as a light center, And performs a function of matching a multi-channel image by performing a function of estimating an installation position and an installation angle of the camera, matching and outputting images, and storing information on the images.

영상 처리부(120)가 촬영 영상에 나타난 차선 또는 가드레일 등과 같은 선 정보를 추출할 때는 다양한 차선 탐지 알고리즘을 사용한다. The image processing unit 120 uses various lane detection algorithms to extract line information such as a lane or a guard rail displayed on the photographed image.

구체적으로 도 3 내지 도 6을 참고하면, 도 3은 B-스플라인 정합 기반 고속 차선 검출 방법을 도시하고 있고, 도 4는 탑 뷰(top view) 영상을 이용한 곡선 템플릿 정합 기반 차선 및 곡률 검출 알고리즘을 도시하고 있고, 도 5는 차선 검출 및 추적을 위한 로우 레벨 영상처리 방법을 도시하고 있고, 도 6은 도심에서의 실시간 차선 표시 검출 방법을 도시하고 있는데, 영상 처리부(120)는 차선 탐지 방법으로 이러한 방법을 포함한 차선 탐지 알고리즘 중 어느 하나 이상을 사용할 수 있다.3 to 6, FIG. 3 illustrates a B-spline matching based high-speed lane detection method, FIG. 4 illustrates a curve template matching based lane and curvature detection algorithm using a top view image FIG. 5 shows a low-level image processing method for lane detection and tracking, and FIG. 6 shows a real-time lane mark detection method in a city center. The image processing section 120 uses a lane- One or more of the following lane detection algorithms may be used.

아래의 표1에서는 상술한 차선 또는 가드레일과 같은 패턴들을 검출하는 알고리즘의 일례를 나타내었다.Table 1 below shows an example of an algorithm for detecting patterns such as the above-described lane or guard rail.

// DETECTION (PATTERN EXTRACTION)
// 1. CAPTURE IMAGES
1. camera installation
2. for i ← 1 to n do // i: camera index, n: the number of cameras
3. Ci ← CaptureCamera(i) // Ci: the captured image of i-th camera
4. end for
// 2. LANE DETECTION
5. for i ← 1 to n do
6. Li ← DetectLane(Ci) // detecting lane marking or guardrail information
7. if Li is invalid do
8. go to 2
9. end if
10. <ci p,ci q> ← DetectCorrespondPoint(Ci) //<ci p,ci q>: the list of correspond point pairs
11. end for
// DETECTION (PATTERN EXTRACTION)
// 1. CAPTURE IMAGES
1. camera installation
2. for i ← 1 to n do // i: camera index, n: the number of cameras
3. C i ← CaptureCamera (i) // C i : captured image of i-th camera
4. end for
// 2. LANE DETECTION
5. for i ← 1 to n do
6. L i ← DetectLane (C i ) // detecting lane marking or guardrail information
7. if L i is invalid do
8. go to 2
9. end if
10. <c i p , c i q > ← DetectCorrespondPoint (C i ) // <c i p , c i q >
11. end for

도 7을 참조하면, 영상 처리부(120)가 차선 또는 가드레일이 포함된 영상에서 선 정보를 검출할 때 사용되는 다양한 화면 모드가 도시되는데, 좌측 상단으로부터 시계방향으로 원본 이미지(Original image), 원근 이미지(Perspective image), 탑 뷰 이미지(Topview image), 실린더 이미지(Cylindrical image)를 보여준다.7, there are shown various screen modes used when the image processing unit 120 detects line information in an image including a lane or a guardrail. In this case, the original image, Perspective image, Topview image, and Cylindrical image.

구체적으로, 원본 이미지(Original image)는 방사형 왜곡(Radial distortion)의 형태가 그대로 남아 있고, 영역에 분포된 이미지가 영역에 따라 편차가 커서 검색 영역을 줄이지 못하므로 차선을 검출하는 데에 적합하지 않다. 또한 영상의 깊이 정보가 렌즈 왜곡의 영향을 심하게 받아 실제의 원근 정보를 해석하기가 매우 어렵다. 즉, 차선 검출 시 원본 이미지를 사용하면 실제 차선 검출이 어렵게 된다.Specifically, the original image is not suitable for detecting a lane because the shape of the radial distortion remains intact and the image distributed in the area has a large deviation according to the area, . In addition, the depth information of the image is strongly affected by the lens distortion, and it is very difficult to interpret the actual perspective information. That is, when the original image is used in lane detection, the actual lane detection becomes difficult.

다음으로, 원근 이미지(Perspective image)는 어안 렌즈의 방사형 왜곡을 상쇄시킨 이미지로서 영상 내 차선의 모양이 선형으로 보존된다는 점에서 장점을 갖는다고 할 수 있으나, 영상의 깊이 정보의 왜곡이 심하고 근거리가 크게 확대됨에 따라 차선 검출에 효과적이지 않다. 또한 원근 왜곡이 남아있는 상태에서 모서리 부분(dege)이 늘어나는 문제가 발생한다. Next, the perspective image is an image that cancels the radial distortion of the fisheye lens, which is advantageous in that the shape of the lane in the image is linearly preserved. However, the distortion of the depth information of the image is significant, It is not effective for lane detection. Further, there arises a problem that the edge portion is elongated in a state where the perspective distortion remains.

그럼에도 원근 이미지(Perspective image)는 차선을 검출할 때 일반적으로 사용되는 이미지로서 차선의 표현 범위가 캘리브레이션 정보에 의해 제한되어 차선 검출을 위한 가장 이상적인 형태가 된다. Nevertheless, the perspective image is an image generally used when detecting a lane, and the range of expression of the lane is limited by the calibration information, which is the most ideal form for lane detection.

다음으로, 탑 뷰 이미지(Topview image)는 원근 영상에서 호모그래피 변환을 시킨 영상으로서, 유클리드 공간에서 차선을 표현하기 때문에 직관적으로 영상을 인식할 수 있으며 검색 영역을 줄일 수 있는 장점이 있으나, 영상을 변환할 때의 단계별 영상 변환물(step artifact) 등으로 인해 차선의 검출이 다소 어려워질 수 있는 가능성도 있다. Next, the topview image is a homography-converted image from the perspective image. Since the lecture is expressed in the Euclidean space, the image can be intuitively recognized and the search area can be reduced. However, There is a possibility that the detection of the lane may become somewhat difficult due to the step artifact in the conversion.

즉, 탑 뷰 이미지는 차선 검출 시 구현 가능성이 가장 높은 현실적인 화면 모드로서, 차선의 표현 범위가 크게 제한되어 차선의 검출은 쉬우나 차선이 보정된 형태이기 때문에 검출 데이터의 훼손 우려의 문제점이 있다.That is, the top view image is a realistic screen mode most likely to be implemented in lane detection, and the lane display range is largely limited, so that it is easy to detect lanes but the lane is corrected.

실린더 이미지(Cylindrical image)는 영상의 눈 높이를 수평선에 맞춘 이미지로서 영상 내의 이미지의 모서리 부분이(edge)이 늘어나지 않는 등의 부가적인 문제가 발생하지 않는 장점이 있고 LDW 알고리즘에서 기본적으로 사용하는 보편적인고 안정적인 영상이지만, 검출된 차선이 원근 왜곡을 포함하고 있기 때문에 탑 뷰 이미지로 전환하여 재해석해야 할 필요성이 발생한다.Cylindrical image is an image that aligns the eye height of the image with the horizon. It has an advantage that there is no additional problem such that the edge part of the image in the image does not increase. In addition, However, since the detected lane includes the perspective distortion, it is necessary to switch to the top view image and re-interpret it.

그렇기 때문에 실린더 이미지만을 사용하게 되면 차선 검출보다는 차량의 검출에 좀더 효율적이다. Therefore, using only the cylinder image is more efficient for vehicle detection than lane detection.

상술한 영상에서 선 정보를 검출할 때 사용되는 다양한 화면 모드에 대하여 평가표를 작성하여 아래의 표 2에 나타내었다.An evaluation table is prepared for various screen modes used in detecting the line information in the above-described image, and is shown in Table 2 below.

PlanePlane 영상왜곡Image distortion 차선편차Lane deviation 거리왜곡Distortion Distortion 픽셀ArtifactPixel Artifact 난이도difficulty 종합Synthesis OriginalOriginal High(1)High (1) High(1)High (1) High(1)High (1) Low(3)Low (3) High(1)High (1) 77 PerspectivePerspective Middle(2)Middle (2) High(1)High (1) Highest(0)Highest (0) Middle(2)Middle (2) Middle(2)Middle (2) 77 CylindricalCylindrical Middle(2)Middle (2) Middle(2)Middle (2) Middle(2)Middle (2) Low(3)Low (3) Middle(2)Middle (2) 1111 TopviewTopview Low(3)Low (3) Low(3)Low (3) Low(3)Low (3) High(1)High (1) Low(3)Low (3) 1313

결론적으로, 차선 또는 가드레일이 포함된 영상에서 선 정보를 검출할 때 가장 적합한 화면 모드(Plane)는 탑 뷰(Top View) 모드가 된다. 이는 탑 뷰(Top View) 이미지가 영상 왜곡, 차선 편차 및 거리 왜곡에 대하여 평가 값이 가장 낮고, 실제 구현 시 난이도도 가장 무난하기 때문이다. 다만 픽셀 Artifact가 심해서 안정적인 선 검출을 위한 필터를 고안할 필요가 있다.As a result, the most suitable screen mode (Plane) for detecting the line information in the image including the lane or the guard rail becomes the top view mode. This is because the top view image has the lowest evaluation value for image distortion, lane deviation, and distance distortion, and the difficulty in actual implementation is also the most satisfactory. However, the pixel artifact is so severe that it is necessary to devise a filter for stable line detection.

탑 뷰(Top View) 모드 다음으로 적합한 영상은 실린더(Cylindrical) 모드로서, LDW 알고리즘에서 사용하는 대표적인 화면 모드(Plane)이며, 탑 뷰(Top View) 모드 필터가 안정적이지 못 할 경우 차선책으로서 고려할만 하다.Top View Mode The next best image is the cylinder mode, which is a typical screen mode used in the LDW algorithm. If the top view mode filter is not stable, it can be considered as a next best solution Do.

이어서, 영상 처리부(120)는 촬영부(110)의 카메라에 의해 촬영된 영상에서 기지의 카메라 내부 파라미터를 이용하여 영상 왜곡 보정을 수행하는데, 여기서 내부 파라미터는 광중심, 종횡비, 투영 유형 및 초점거리 중 어느 하나 이상을 포함한다. Next, the image processing unit 120 performs image distortion correction using a known camera internal parameter in an image photographed by a camera of the photographing unit 110, wherein the internal parameters include an optical center, an aspect ratio, a projection type, Or more.

다음으로, 영상 처리부(120)는 카메라가 촬영한 영상에서 추출된 선 정보를 이용하여 카메라의 설치위치와 설치각을 추정하여 영상을 정합하고 정합된 영상을 출력함과 동시에 이에 대한 정보를 저장한다.Next, the image processing unit 120 estimates the installation position and the installation angle of the camera using the line information extracted from the image taken by the camera, registers the images, outputs the matched images, and stores information about the matched images .

즉, 상술한 바와 같이 촬영부(110)에 의해 촬영된 촬영 영상에 나타난 도로의 차선이나 가드레일과 같은 선 정보가 추출되고 나면 영상 처리부(120)는 카메라의 이동 및 회전 정보를 계산하고 그 결과를 저장하며 영상을 정합한다.That is, as described above, when the line information such as the lane of the road or the guard rail displayed on the photographed image photographed by the photographing unit 110 is extracted, the image processing unit 120 calculates the movement and rotation information of the camera, And the images are registered.

구체적으로, 먼저, 영상의 차선의 방향 정보를 이용하여 차선이 주행방향과 평행하도록 영상을 회전시키고(Orientation Estimation), 다음으로, 사전에 정의된 차선의 폭과 영상 내의 차선의 폭이 일치되도록 영상을 이동시키고(Alignment Estimation), 이어서, 인접한 카메라끼리 공통으로 나타나는 영역을 이용하여 영상이 정합되도록 영상을 이동시킨다(Correspondence Estimation). Specifically, first, the image is rotated (Orientation Estimation) so that the lane is parallel to the driving direction by using the direction information of the lane of the image, and then the image is rotated so that the width of the lane defined in the pre- (Alignment Estimation). Then, the image is moved so that the images are aligned using the region common to the adjacent cameras (Correspondence Estimation).

그리고, 이와같이 카메라의 영상을 이동 및 회전 시킬 때 변경 파라미터 추정을 위한 최적화 알고리즘을 사용할 수 있는데, PSO(Particle Swarm Optimization), GD(Gradient Descent), LMSE(Least Mean Square Error) 등과 같은 최적화 알고리즘 중 어느 하나일 수 있다. 이와 같은 알고리즘의 일례를 아래의 표 3에 나타내었다.In this way, an optimization algorithm for estimating change parameters when moving and rotating the camera image can be used. Any of optimization algorithms such as PSO (Particle Swarm Optimization), GD (Gradient Descent), and LMSE It can be one. An example of such an algorithm is shown in Table 3 below.

// ESTIMATION (OPTIMIZE GEOMETRY TRANSFORM)
// 1. ESTIMATE ORIENTATION AND ALIGNMENT
12. for i ← 1 to n do
13. (ri x,ri y,ri z),(ti x,ti y,ti z) ← 0 // initializing rotation parameters (ri x,ri y,ri z) and translation parameters (ti x,ti y,ti z) of i-th camera
14. (ri x,ri y,ri z) ← EstimateOrientation(Ci,Li,(ri x,ri y,ri z),(ti x,ti y,ti z)) // Optimization for Orientation Estimation to get rotation parameters which fit to lane Li orientation
15. (ti x,ti y,ti z) ← EstimateAlignment(Ci,Li,(ri x,ri y,ri z),(ti x,ti y,ti z)) // Optimization for Alignment Estimation to get translation parameters which fit to lane Li width
16. end for
// 2. ESTIMATE CORRESPONDENCE
17. for i ← 1 to n do
18. (ti x,ti y,ti z) ← EstimateCorrespondence(Ci,Li,(ri x,ri y,ri z),(ti x,ti y,ti z),<ci p,c(i+1)% n q>) // Optimization for correspondence estimation to get translation parameters which fit to correspond point pairs <ci p,c(i+1)%n q> of i-th camera and (i+1)%n-th adjacent (clock-wise) camera
19. ci p ← UpdateGeometry((ri x,ri y,ri z),(ti x,ti y,ti z),ci p) // Transform correspond point ci p to world coordinate
20.

Figure 112015083295715-pat00001
// ei: correspondence error
21. end for
// 3. SELECT OPTIMAL PARAMETERS
22.
Figure 112015083295715-pat00002
← merge error calculation
23. if e > T do // T: threshold for correspondence error
24. check camera location and re-install
25. go to 2
26. end if
27. return (ri x,ri y,ri z), (ti x,ti y,ti z), i={1,…,n} // return and update rotation and translation parameters for each camera // ESTIMATION (OPTIMIZE GEOMETRY TRANSFORM)
// 1. ESTIMATE ORIENTATION AND ALIGNMENT
12. for i ← 1 to n do
13. (r i x, i y r, z r i), (x i t, i t y, t z i) ← 0 // initializing rotation parameters (r i x, i y r, z r i) and translation parameters (t i x , t i y , t i z ) of i-th camera
14. (r i x, i y r, z r i) ← EstimateOrientation (C i, L i, (r i x, i y r, z r i), (i t x, t y i, t i z )) // Optimization for Orientation Estimation to get rotation parameters which fit to lane L i orientation
15. (i t x, t y i, t i z) EstimateAlignment ← (C i, L i, (r i x, i y r, z r i), (i t x, t y i, t i z )) // Optimization for Alignment Estimation to get translation parameters which fit to lane L i width
16. end for
// 2. ESTIMATE CORRESPONDENCE
17. for i ← 1 to n do
18. (i t x, t y i, t i z) ← EstimateCorrespondence (C i, L i, (r i x, i y r, z r i), (i t x, t y i, t i z ), <c i p, c (i + 1)% n q>) // Optimization for correspondence estimation to get translation parameters which fit to correspond point pairs <c i p, c (i + 1)% n q> of i-th camera and (i + 1)% n-th adjacent (clock-wise) camera
19. c i p ← UpdateGeometry ((r i x , r i y , r i z ), (t i x , t i y , t i z ), c i p ) // Transform correspondence point c i p to world coordinate
20.
Figure 112015083295715-pat00001
// e i : correspondence error
21. end for
// 3. SELECT OPTIMAL PARAMETERS
22.
Figure 112015083295715-pat00002
← merge error calculation
23. if e> T do // T: threshold for correspondence error
24. check camera location and re-install
25. go to 2
26. end if
27. return (r i x , r i y , r i z ), (t i x , t i y , t i z ), i = {1, ... , n} // return and update rotation parameters for each camera

영상 처리부(120)는 이와 같은 과정을 통해 카메라의 이동 및 회전 정보가 계산되면 정합된 영상들을 출력하고, 복수의 이미지들을 정합할 수 있도록 한다. 그리고, 영상처리부(120)는 이러한 카메라의 이동 및 회전에 대한 정보를 저장부에 저장한다.When the movement and rotation information of the camera is calculated through the above process, the image processing unit 120 outputs the matched images and can match the plurality of images. Then, the image processing unit 120 stores information about the movement and rotation of the camera in the storage unit.

이후 영상 처리부(120)가 계속해서 영상정합을 수행할 때는 저장부에 저장된 카메라의 이동 및 회전 정보를 이용하여 쉽고 빠르게 영상의 정합을 수행할 수 있다.When the image processing unit 120 subsequently performs the image matching, the image matching can be performed easily and quickly using the movement and rotation information of the camera stored in the storage unit.

그리고 영상 처리부(120)는 위와 같은 알고리즘을 수행하는 소프트웨어가 저장된 메모리와 함께 해당 기능을 실행하는 마이크로 컨트롤러 유닛(MCU) 또는 영상 처리 프로세서 등을 포함할 수 있으며, 이러한 장치들은 칩 온 보드로 구현되어 자동차의 전자 제어 유닛(ECU) 또는 별도의 차량 제어 유닛에 탑재될 수도 있다. The image processing unit 120 may include a microcontroller unit (MCU) or an image processing processor that executes a corresponding function together with a memory in which software for performing the above-described algorithm is stored. These devices may be implemented as a chip-on- Or may be mounted on an electronic control unit (ECU) of a vehicle or a separate vehicle control unit.

이하에서는 본 발명의 실시예에 의한 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법을 첨부된 도면을 참조하여 구체적으로 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a method for automatically correcting lane information for vehicle image matching according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 8은 본 발명의 실시예의 의한 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법을 나타낸 순서도이고, 도 9는 이러한 과정을 그림으로 도시화 한 것으로서, 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법은, 차량이 차선과 평행하게 주행하면서 주변의 영상을 취득하는 단계(S210), 차량 주변 영상에서 차선 또는 가드레일 등의 선 정보를 추출하는 단계(S220), 차량 주변 영상의 왜곡을 보정하는 단계(S230), 카메라의 이동 및 회전 정보 계산, 저장 및 영상 정합 단계(S240) 및 저장된 카메라의 이동 및 회전 정보를 이용하여 영상 정합을 수행하는 단계(S250)를 포함한다. FIG. 8 is a flowchart illustrating an automatic correction method based on lane information for vehicle image matching according to an embodiment of the present invention. FIG. 9 is a drawing showing such a process as an illustration. The automatic correction method based on lane information for vehicle image matching A step S210 of obtaining a surrounding image while the vehicle is traveling in parallel with the lane, a step S220 of extracting line information such as a lane or a guardrail from the vehicle periphery image, a step of correcting distortion of the vehicle periphery image (S230), calculating and storing the camera movement and rotation information (S240), and performing the image matching using the movement and rotation information of the stored camera (S250).

먼저, 카메라 내부 파라미터는 알고 있어야 하며, 초기의 카메라 외부 파라미터 또한 미리 알고 있어야 한다. 그리고 차량이 도로를 주행함에 있어 도로의 높낮이와 같은 사정으로 인하여 카메라 장착 정보가 변할 수 있다는 것이 고려되어야 한다. First, you need to know the parameters inside the camera, and you should also know the initial camera parameters in advance. It should be considered that the camera mounting information may change due to circumstances such as the height of the road when the vehicle travels on the road.

차량이 차선과 평행하게 주행하면서 주변의 영상을 취득하는 단계(S210)는 취득되는 영상 내에 도로 상의 차선 또는 가드레일과 같은 영상을 포함함으로써 이들로부터 선 정보를 추출할 수 있도록 차량이 차선 또는 가드레일과 평행하게 주행하면서 영상을 취득하는 단계이다. The step S210 of acquiring the surrounding image while the vehicle travels in parallel with the lane includes acquiring the lane information on the road or the image such as the guard rail so that the vehicle can be extracted from the lane or the guard rail And acquiring an image while traveling in parallel with the vehicle.

이때, 바람직하게는 차량의 속도가 30km/h 이하가 되도록 하고 도로의 상태에 의해 차량에 장착된 카메라의 높이 및 회전 정보의 변화도 함께 고려한다. 또한, 차량 주변의 영상은 주행 중 전방, 후방, 좌측, 우측의 영상을 모두 시각화 할 수 있도록 한다(도 2 참조).At this time, preferably, the speed of the vehicle is set to 30 km / h or less, and the change of the height and the rotation information of the camera mounted on the vehicle by the road condition is also considered. In addition, the image around the vehicle allows visualization of all the images of the front, rear, left, and right sides during traveling (see Fig. 2).

차량 주변 영상에서 차선 또는 가드레일 등의 선 정보를 추출하는 단계(S220)는, 단계 S210에서 취득된 차량 주변의 영상으로부터 차선 또는 가드레일과 같은 선 정보를 추출하는 단계로서, 먼저 카메라 영상에서 차선 또는 가드레일을 검출해 내고 검출된 차선 또는 가드레일 영상으로부터 선 정보를 추출해 낸다(도 9의 세 번째 열 참조). A step S220 of extracting line information such as a lane or a guard rail from the vehicle surroundings image is a step of extracting line information such as a lane or a guard rail from the image around the vehicle acquired in step S210, Or the guard rail, and extracts the line information from the detected lane or guardrail image (see the third column of FIG. 9).

그리고 상술한 바와 같이 차량 주변 영상에서 선 정보를 추출할 때에는 다양한 차선 탐지 알고리즘을 사용할 수 있으며, 동시에 이러한 일련의 과정을 다양한 화면 모드에서 수행할 수 있도록 한다. 여기서 사용되는 화면 모드는 원본 이미지, 퍼스펙티브 뷰 이미지(Perspective image), 탑 뷰 이미지(Topview image), 실린더 뷰 이미지(Cylindrical image) 중 어느 하나 이상을 사용할 수 있다.As described above, various lane detection algorithms can be used in extracting line information from the surroundings of the vehicle, and at the same time, such a series of processes can be performed in various screen modes. The screen mode used herein may be at least one of an original image, a perspective image, a topview image, and a cylindrical view image.

차량 주변 영상의 영상 왜곡을 보정하는 단계(S230)는, 상술한 바와 같이 기지의 카메라 내부 파라미터를 이용하여 카메라의 렌즈 왜곡 등과 같은 영상 왜곡을 보정하는 단계로서, 여기서 내부 파라미터는 광중심, 종횡비, 투영 유형 및 초점거리 중 어느 하나 이상을 포함한다.The step of correcting the image distortion of the peripheral image of the vehicle (S230) is a step of correcting the image distortion such as the lens distortion of the camera using the known camera internal parameters as described above, wherein the internal parameters include the optical center, A projection type, and a focal length.

카메라의 이동 및 회전 정보 계산, 저장 및 영상 정합 단계(S240)는, 단계 S230까지 수행된 영상과 추출된 선 정보를 이용하여 카메라의 설치 위치와 설치각을 추정한 후 영상을 정합하는 단계로서, 다음과 같은 단계를 포함한다.The movement and rotation information calculation, storage, and image matching step (S240) of the camera are steps of matching the images after estimating the installation position and the installation angle of the camera using the images performed up to step S230 and the extracted line information, And includes the following steps.

도 10을 참조하면, 카메라의 이동 및 회전 정보 계산, 저장 및 영상 정합 단계(S240)는, 차선을 주행방향에 맞추기 위해 영상을 회전시키는 단계(S310), 차선의 폭을 맞추기 위해 영상을 이동시키는 단계(S320), 영상 정합을 위해 영상을 이동시키는 단계(S330) 및 카메라 영상의 이동 및 회전 정보를 저장하고 정합 영상을 출력하는 단계(S340)를 포함한다.Referring to FIG. 10, in step S310, the moving and rotating information calculation, storage, and image matching operations of the camera S240 may include rotating an image in order to align the lane with the driving direction S310, moving the image to match the width of the lane A step S330 of moving an image for image matching, and a step S340 of storing movement and rotation information of a camera image and outputting a matching image.

차선을 주행방향에 맞추는 단계(S310)는, 단계 S220에서 추출된 선 정보를 이용하여 영상의 차선의 방향을 차량의 주행 방향에 맞게 회전시키는 단계로서, 도 9의 세 번째 열에서 도시된 바와 같이 불규칙하게 도시되고 있는 차선은 도9의 네 번째 열에서는 차량의 주행 방향과 평행하게 도시되고 있음을 알 수 있다. The step of adjusting the lane to the driving direction (S310) is a step of rotating the direction of the lane of the image according to the running direction of the vehicle using the line information extracted in the step S220. As shown in the third column of Fig. 9 It can be seen that the lane shown irregularly is shown in parallel with the running direction of the vehicle in the fourth column of Fig.

차선의 폭을 맞추는 단계(S320)는, 차선의 폭에 맞게 영상 내의 차선이 표현되도록 카메라 영상을 이동시키는 단계로서, 도 9의 네 번째 열에서 도시된 바와 같이 너비가 불규칙적인 영상 내의 차선을 이동시켜 도 9의 다섯 번째 열에서처럼 영상 내의 차선의 너비를 모두 일치 시키게 된다.The step of adjusting the width of the lane (S320) is a step of moving the camera image so that the lane in the image is expressed in accordance with the width of the lane. As shown in the fourth column of Fig. 9, Thereby matching the widths of the lanes in the image as shown in the fifth column of FIG.

또한, 도 9의 여섯 번째 열에는 이러한 과정이 끝난 영상을 하나의 화면에 정렬한 것을 도시한 것이다.In the sixth column of FIG. 9, the image is displayed on one screen.

영상 정합을 위해 영상을 이동시키는 단계(S330)는, 카메라영상에서 인접한 카메라와 공통으로 나타나는 영상내의 영역을 이용하여 어긋난 부분이 일치될 수 있도록 카메라 영상을 이동시키는 단계로서, 도 9의 일곱 번째 열에는 이러한 과정이 끝난 후에 차선에 대한 영상이 어긋남이 없이 한 화면 내에 정렬된 그림을 도시하였다.The step of moving the image for image matching (S330) is a step of moving the camera image so that the shifted parts can be matched by using the area in the image common to the adjacent camera in the camera image, Shows a picture arranged in one screen without deviating the image of the lane after this process is finished.

특히, 단계 S310 내지 S330에서 카메라 영상을 이동 및 회전시키기 위해서 카메라 영상을 가상의 3차원 구에 매핑한 후 원하는 차선의 모양이 될 때까지 각도와 거리를 변경하여 3차원 가상공간에 배열하는 방법을 사용할 수 있다. Particularly, in steps S310 to S330, a method of mapping a camera image to a virtual three-dimensional sphere in order to move and rotate the camera image, and then arranging the camera image in the three-dimensional virtual space by changing the angle and distance until the desired lane shape is obtained Can be used.

또한 이렇게 카메라 영상을 이동 및 회전시킬 때 변경 파라미터의 추정을 위한 최적화 알고리즘을 사용할 수 있는데, 이러한 최적화 알고리즘으로는 이동 및 회전을 시킬 때 최적화 알고리즘을 사용하는데, PSO(Particle Swarm Optimization), GD(Gradient Descent), LMSE(Least Mean Square Error) 등과 같은 최적화 알고리즘 중 어느 하나일 수 있다.In addition, we can use an optimization algorithm for estimating the change parameters when moving and rotating the camera image. The optimization algorithm uses the optimization algorithm for movement and rotation, such as PSO (Particle Swarm Optimization), GD Descent), Least Mean Square Error (LMSE), and the like.

카메라 영상의 이동 및 회전 정보를 저장하고 정합 영상을 출력하는 단계(S340)는, 이전의 단계에서 영상의 이동 및 회전에 대한 최적화가 끝난 후에 변경된 카메라의 이동 및 회전 정보를 변경 파라미터로서 저장부에 저장하고, 카메라의 이동 및 회전 정보에 의하여 카메라 영상을 정합한 후 정합 영상을 출력하는 단계이다.The step S340 of storing the movement and rotation information of the camera image and outputting the matching image may include moving and rotating the changed camera after the optimization of the movement and rotation of the image is completed in the previous step, And matching the camera image by the movement and rotation information of the camera and outputting the matching image.

도 9의 일곱 번째 열의 상단에는 카메라의 이동 및 회전 정보가 변경 파라미터로서 출력되는 것을 도시하였고, 하단에는 정합 영상이 출력되는 것을 도시하였다.In the upper part of the seventh column of FIG. 9, the movement and rotation information of the camera is outputted as a change parameter and the matching image is outputted at the lower end.

저장된 카메라의 이동 및 회전 정보를 이용하여 영상 정합을 수행하는 단계(S250)는, 단계 S240에서 저장부에 저장된 카메라의 이동 및 회전 정보에 해당하는 변경 파라미터를 이용하여, 이후 획득되는 카메라 영상의 영상 정합을 곧바로 수행하는 단계이다. In operation S250, image matching using the movement and rotation information of the stored camera is performed using the change parameters corresponding to the camera movement and rotation information stored in the storage unit in step S240, And matching is performed immediately.

도 11은 영상 정합 수행 전과 수행 후의 결과를 수평 및 수직의 솔기선(Seam-Line)을 기준으로 하여 도시한 것이다. 즉, 좌측의 사진은 차량의 전후면을 기준으로 탑 뷰 모드 이미지를 나타낸 것으로 영상 정합 수행 전과 후의 사진을 나타내고 있고, 우측의 사진은 차량의 좌우측면을 기준으로 탑 뷰 모드 이미지를 나타낸 것으로 영상 정합 수행 전과 후의 사진을 나타내고 있다. 여기서 영상이 정합되지 않아서 어긋나 있던 영상 내의 차선이 영상 정합 후에는 단일한 직선의 모습으로 나타나고 있음을 알 수 있다.FIG. 11 shows the results before and after image matching with reference to horizontal and vertical seam-lines. That is, the photograph on the left side shows the top view mode image based on the front and rear sides of the vehicle, and shows the photographs before and after the image registration, and the photograph on the right side shows the top view mode image based on the left and right sides of the vehicle. And a photograph before and after the execution. It can be seen that the lanes in the image where the images are misaligned and displaced appear as a single straight line after the image matching.

상기와 같은 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방치 및 그 방법은 위에서 설명된 실시예들의 구성과 작동 방식에 한정되는 것이 아니다. 상기 실시예들은 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 다양한 변형이 이루어질 수 있도록 구성될 수도 있다. The automatic correction based on the lane information for the vehicle image matching and the method thereof are not limited to the configuration and the operation manner of the embodiments described above. The embodiments may be configured so that all or some of the embodiments may be selectively combined so that various modifications may be made.

100: 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치
110: 촬영부 111,113,115,117: 제1 내지 4 카메라
120: 영상처리부
100: Automatic correction device based on lane information for vehicle image registration
110: photographing units 111, 113, 115, and 117: first to fourth cameras
120:

Claims (15)

차량 주변의 다채널 영상 합성에서의 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치에 있어서,
차량에 장착된 복수의 카메라로부터 도로 상의 차선 또는 가드레일을 포함하여 차량 주변 영역이 촬영된 촬영 영상을 입력받아 출력하는 촬영부; 및
상기 촬영 영상에서 선 정보를 추출하고 영상 왜곡 보정을 한 후, 상기 선 정보를 이용하여 카메라의 설치 위치와 설치각을 추정하여 영상을 정합하고 정합된 영상을 출력하는 영상처리부;를 포함하되,
상기 영상 처리부는 상기 선 정보를 이용하여 차선이 주행방향과 평행하도록 영상을 회전시키고, 영상 내의 차선의 폭이 일치되도록 영상을 이동시키고, 인접한 카메라끼리 공통으로 나타나는 영역을 이용하여 영상이 정합되도록 영상을 이동시켜 카메라의 설치 위치와 설치각을 추정하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치.
An automatic correction device based on lane information for vehicle image matching in multi-channel image synthesis around a vehicle,
A photographing unit for receiving and outputting a photographed image including a lane or a guardrail on a road from a plurality of cameras mounted on the vehicle and photographing the area around the vehicle; And
And an image processor for extracting line information from the photographed image, correcting image distortion, estimating an installation position and an installation angle of the camera using the line information, and matching the images and outputting the matched image,
The image processing unit may rotate the image so that the lane is parallel to the driving direction using the line information, move the image so that the width of the lane in the image coincides with each other, And estimating an installation position and an installation angle of the camera based on the lane information.
청구항 1에 있어서,
상기 영상 처리부는 상기 촬영 영상에서 선 정보를 추출할 때 원본 이미지, 퍼스펙티브 뷰 이미지(Perspective image), 탑 뷰 이미지(Topview image), 실린더 뷰 이미지(Cylindrical image) 중 어느 하나 이상을 사용하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치.
The method according to claim 1,
The image processing unit may use at least one of an original image, a perspective image, a topview image, and a cylindrical image when extracting line information from the captured image. Lane information based automatic correction device for vehicle image matching.
청구항 1에 있어서,
상기 영상 처리부는 광중심, 종횡비, 투영 유형 및 초점거리 중 어느 하나 이상을 포함하는 기지의 카메라 내부 파라미터를 이용하여 상기 촬영 영상의 영상 왜곡 보정을 수행하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치.
The method according to claim 1,
Wherein the image processing unit performs image distortion correction of the photographed image using a known camera internal parameter including at least one of a light center, an aspect ratio, a projection type, and a focal length, Based automatic compensation device.
삭제delete 청구항 1에 있어서,
상기 영상처리부는 상기 영상을 회전 및 이동을 시킬 때 알고리즘을 사용하되, 상기 알고리즘은 PSO(Particle Swarm Optimization), GD(Gradient Descent), LMSE(Least Mean Square Error) 중 어느 하나인 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치.
The method according to claim 1,
Wherein the image processing unit uses an algorithm for rotating and moving the image, wherein the algorithm is one of PSO (Particle Swarm Optimization), GD (Gradient Descent) and LMSE (Least Mean Square Error) Lane - based Automatic Compensation System for Image Matching.
청구항 1에 있어서,
상기 영상처리부는 상기 영상을 이동 및 회전 시키고 난 후의 결과를 저장하는 저장부를 더 포함하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치.
The method according to claim 1,
Wherein the image processing unit further comprises a storage unit for storing a result after moving and rotating the image.
청구항 1에 있어서,
상기 영상처리부는 저장부에 저장된 카메라의 이동 및 회전 정보를 이용하여 영상의 정합을 수행할 수 있는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치.
The method according to claim 1,
Wherein the image processing unit is capable of performing image matching using movement and rotation information of a camera stored in a storage unit.
차량 주변의 다채널 영상 합성에서의 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법에 있어서,
차량이 차선과 평행하게 주행하면서 주변의 영상을 취득하는 단계;
차량 주변 영상에서 차선 또는 가드레일의 선 정보를 추출하는 단계;
차량 주변 영상의 영상 왜곡을 보정하는 단계;
카메라의 이동 및 회전 정보를 계산한 후 저장하고 영상을 정합하는 단계;
저장된 카메라의 이동 및 회전 정보를 이용하여 이후 획득되는 카메라 영상의 영상 정합을 곧바로 수행하는 단계;를 포함하되,
상기 카메라의 이동 및 회전 정보를 계산한 후 저장하고 영상을 정합하는 단계는,
상기 선 정보를 이용하여 차선이 주행방향과 평행하도록 영상을 회전시키고, 영상 내의 차선의 폭이 일치되도록 영상을 이동시키고, 인접한 카메라끼리 공통으로 나타나는 영역을 이용하여 영상이 정합되도록 영상을 이동시켜 카메라의 설치 위치와 설치각을 추정한 후 영상을 정합하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법
An automatic correction method based on lane information for vehicle image matching in a multi-channel image synthesis around a vehicle,
Acquiring a surrounding image while the vehicle travels in parallel with the lane;
Extracting line information of a lane or a guard rail from a vehicle surroundings image;
Correcting an image distortion of a peripheral image of the vehicle;
Calculating movement and rotation information of the camera, and storing and matching the images;
And immediately performing image matching of a camera image to be obtained subsequently using movement and rotation information of the stored camera,
Wherein the step of calculating and storing movement and rotation information of the camera and matching the images comprises:
Using the line information, the image is rotated so that the lane is parallel to the running direction, the image is moved so that the width of the lane in the image is coincident, the image is moved so that the images are aligned using the area common to the adjacent cameras, And the image is matched after estimating the installation position and the installation angle of the lane information.
청구항 8에 있어서,
상기 차량이 차선과 평행하게 주행하면서 주변 영상을 취득하는 단계는,
취득된 상기 주변 영상 내에 도로 상의 영상으로부터 선 정보를 추출할 수 있도록 하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법.
The method of claim 8,
Wherein the step of acquiring a peripheral image while the vehicle travels in parallel with the lane,
And the line information is extracted from the image on the road in the acquired peripheral image.
청구항 8에 있어서,
상기 차량 주변 영상에서 차선 또는 가드레일의 선 정보를 추출하는 단계는,
원본 이미지, 퍼스펙티브 뷰 이미지(Perspective image), 탑 뷰 이미지(Topview image), 실린더 뷰 이미지(Cylindrical image)와 같은 화면 모드 중 어느 하나 이상을 사용하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법.
The method of claim 8,
The step of extracting line information of a lane or a guard rail from the vehicle periphery image includes:
Wherein at least one of a screen mode such as an original image, a perspective image, a topview image, and a cylinder view image is used. Automatic calibration method.
청구항 8에 있어서,
상기 차량 주변 영상의 영상 왜곡을 보정하는 단계는,
광중심, 종횡비, 투영 유형 및 초점거리 중 어느 하나 이상을 포함하는 기지의 카메라 내부 파라미터를 이용하여 촬영 영상의 영상 왜곡 보정을 수행하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법.
The method of claim 8,
Wherein the step of correcting the image distortion of the vehicle peripheral image comprises:
An automatic correction method based on a lane information for a vehicle image registration, characterized in that image distortion correction of a photographed image is performed using a known camera internal parameter including at least one of an optical center, an aspect ratio, a projection type, and a focal length .
삭제delete 청구항 8에 있어서,
상기 영상을 이동 및 회전시킬 때에는 카메라의 영상을 가상의 3차원 구에 매핑한 후 각도와 거리를 변경하여 반복 수행한 후 3차원 가상공간에 배열하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법.
The method of claim 8,
Wherein when the image is moved and rotated, the image of the camera is mapped to a virtual three-dimensional sphere, and the angle and the distance are changed, and then the image is arranged in a three-dimensional virtual space. .
청구항 8에 있어서,
상기 영상을 이동 및 회전시킬 때에는 알고리즘을 사용하되, 상기 알고리즘은 PSO(Particle Swarm Optimization), GD(Gradient Descent), LMSE(Least Mean Square Error) 중 어느 하나인 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법.
The method of claim 8,
Wherein an algorithm is used to move and rotate the image, wherein the algorithm is one of PSO (Particle Swarm Optimization), GD (Gradient Descent), and LMSE (Least Mean Square Error) Information based automatic correction method.
청구항 8에 있어서,
상기 저장된 카메라의 이동 및 회전 정보를 이용하여 이후 획득되는 카메라 영상의 영상 정합을 곧바로 수행하는 단계는,
상기 저장된 카메라의 이동 및 회전 정보에 해당하는 변경 파라미터를 이용하여 영상 정합을 수행하는 것을 특징으로 하는 차량용 영상 정합을 위한 차선 정보 기반의 자동보정방법.
The method of claim 8,
The step of directly performing image matching of a camera image to be obtained subsequently using the stored movement and rotation information of the camera,
And the image matching is performed using the change parameters corresponding to the stored moving and rotating information of the camera.
KR1020150120909A 2015-08-27 2015-08-27 Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof KR101697229B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150120909A KR101697229B1 (en) 2015-08-27 2015-08-27 Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150120909A KR101697229B1 (en) 2015-08-27 2015-08-27 Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof

Publications (1)

Publication Number Publication Date
KR101697229B1 true KR101697229B1 (en) 2017-01-18

Family

ID=57992107

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150120909A KR101697229B1 (en) 2015-08-27 2015-08-27 Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof

Country Status (1)

Country Link
KR (1) KR101697229B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190075034A (en) * 2019-06-20 2019-06-28 주식회사 아이닉스 Imaging Apparatus and method for Automobile
WO2020013353A1 (en) * 2018-07-10 2020-01-16 엘지전자 주식회사 Around-view monitoring device for vehicle, and vehicle
KR20200064222A (en) 2018-11-28 2020-06-08 주식회사 큐램 Method and system for image registering using regional warping
KR102448944B1 (en) * 2022-07-29 2022-09-30 시티아이랩 주식회사 Method and Device for Measuring the Velocity of Vehicle by Using Perspective Transformation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032005A (en) * 2008-09-17 2010-03-25 현대자동차주식회사 A system for offering a front/side image with a lane expression
KR20120140515A (en) * 2011-06-21 2012-12-31 ㈜베이다스 Device for 3d image composition for visualizing image of vehicle around and method therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032005A (en) * 2008-09-17 2010-03-25 현대자동차주식회사 A system for offering a front/side image with a lane expression
KR20120140515A (en) * 2011-06-21 2012-12-31 ㈜베이다스 Device for 3d image composition for visualizing image of vehicle around and method therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
차량의 사각 지대 제거를 위한 측/후방 카메라 영상 정합 시스템 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020013353A1 (en) * 2018-07-10 2020-01-16 엘지전자 주식회사 Around-view monitoring device for vehicle, and vehicle
KR20200064222A (en) 2018-11-28 2020-06-08 주식회사 큐램 Method and system for image registering using regional warping
KR20190075034A (en) * 2019-06-20 2019-06-28 주식회사 아이닉스 Imaging Apparatus and method for Automobile
KR102235951B1 (en) 2019-06-20 2021-04-05 주식회사 아이닉스 Imaging Apparatus and method for Automobile
KR102448944B1 (en) * 2022-07-29 2022-09-30 시티아이랩 주식회사 Method and Device for Measuring the Velocity of Vehicle by Using Perspective Transformation

Similar Documents

Publication Publication Date Title
US11170466B2 (en) Dense structure from motion
CN107133988B (en) Calibration method and calibration system for camera in vehicle-mounted panoramic looking-around system
US10079975B2 (en) Image distortion correction of a camera with a rolling shutter
JP3868876B2 (en) Obstacle detection apparatus and method
JP5091902B2 (en) Calibration index used for calibration of in-vehicle camera, in-vehicle camera calibration method and system using the calibration index, and program for the system
JP5011049B2 (en) Image processing system
US10482626B2 (en) Around view monitoring systems for vehicle and calibration methods for calibrating image capture devices of an around view monitoring system using the same
CN110660105B (en) Calibration parameter optimization method and device for panoramic looking-around system
KR101770668B1 (en) Automatic calibration method based on the simplified pattern for the vehicle image registration and the method thereof
CN112907675B (en) Calibration method, device, system, equipment and storage medium of image acquisition equipment
CN102368137B (en) Embedded calibrating stereoscopic vision system
CN109741241B (en) Fisheye image processing method, device, equipment and storage medium
CN112489136B (en) Calibration method, position determination device, electronic equipment and storage medium
CN110264395B (en) Lens calibration method and related device of vehicle-mounted monocular panoramic system
KR101583663B1 (en) Method for generating calibration indicator of camera for vehicle
KR101697229B1 (en) Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof
TW201403553A (en) Method of automatically correcting bird&#39;s eye images
CN107146255A (en) Panoramic picture error calibration method and device
KR20150041334A (en) Image processing method of around view monitoring system
JP5539250B2 (en) Approaching object detection device and approaching object detection method
CN107145828B (en) Vehicle panoramic image processing method and device
KR101926258B1 (en) Method of automatic calibration of AVM system
JP4696925B2 (en) Image processing device
WO2015182771A1 (en) Image capturing device, image processing device, image processing method, and computer program
US20180060671A1 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200108

Year of fee payment: 4