[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20230086921A - Method and device for mapping lidar data and color data - Google Patents

Method and device for mapping lidar data and color data Download PDF

Info

Publication number
KR20230086921A
KR20230086921A KR1020210175358A KR20210175358A KR20230086921A KR 20230086921 A KR20230086921 A KR 20230086921A KR 1020210175358 A KR1020210175358 A KR 1020210175358A KR 20210175358 A KR20210175358 A KR 20210175358A KR 20230086921 A KR20230086921 A KR 20230086921A
Authority
KR
South Korea
Prior art keywords
image
lidar
color
mapping
data
Prior art date
Application number
KR1020210175358A
Other languages
Korean (ko)
Inventor
기철민
Original Assignee
현대오토에버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대오토에버 주식회사 filed Critical 현대오토에버 주식회사
Priority to KR1020210175358A priority Critical patent/KR20230086921A/en
Publication of KR20230086921A publication Critical patent/KR20230086921A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a LiDAR data and color information mapping method and device. The present invention relates to a mapping device which maps color information of a color image to LiDAR data. The mapping device includes: a LiDAR image generation unit which generates a LiDAR image as a perspective image corresponding to the viewpoint of the color image using the LiDAR data; a color transfer unit which color-transfers the color information to the LiDAR image; and a color information mapping unit which maps the color information color-transferred to the pixels of the LiDAR image to the LiDAR data corresponding to the LiDAR image.

Description

라이다 데이터 및 컬러 정보 매핑 방법 및 장치 {METHOD AND DEVICE FOR MAPPING LIDAR DATA AND COLOR DATA}Method and device for mapping lidar data and color information {METHOD AND DEVICE FOR MAPPING LIDAR DATA AND COLOR DATA}

본 발명은 라이다 데이터 및 컬러 정보 매핑 방법 및 장치에 대한 것이다. 더욱 상세하게는, 본 발명은 라이다 영상을 생성하기 위한 포인트 클라우드에 카메라로부터 획득된 컬러 정보를 매핑함으로써 카메라 영상 및 라이다 영상을 매핑하는 라이다 데이터 및 컬러 정보 매핑 방법 및 장치에 대한 것이다. The present invention relates to a lidar data and color information mapping method and apparatus. More specifically, the present invention relates to a lidar data and color information mapping method and apparatus for mapping a camera image and a lidar image by mapping color information obtained from a camera to a point cloud for generating a lidar image.

편의성 및 안전성에 대한 요구로 인해 자율주행차의 개발 및 상용화가 매우 빠르게 진행되고 있다. 자율주행차는 차량에 탑재된 센서들(GPS, 레이더(Radar), 라이다(LiDAR), 카메라 등)의 복합적인 작동으로 차량의 위치를 계산하고, 주변 상황을 인지하여 차량을 제어한다. 그러나, 센서들의 작동만으로는 정확한 주변 인식이 어려울 수 있고, 보다 정확한 차량 제어를 위하여 각종 도로 정보 및 시설물 속성과 절대 좌표 정보가 포함된 고정밀지도의 중요성이 커지고 있다. Due to the demand for convenience and safety, the development and commercialization of self-driving cars are progressing very rapidly. Self-driving cars calculate the location of the vehicle through complex operations of sensors (GPS, radar, LiDAR, camera, etc.) mounted on the vehicle, and control the vehicle by recognizing the surrounding situation. However, it may be difficult to accurately recognize surroundings only by the operation of sensors, and the importance of high-precision maps including various road information, facility properties, and absolute coordinate information is increasing for more accurate vehicle control.

고정밀지도를 제작하기 위해서는 공간상의 위치 정보를 갖는 포인트 클라우드(Point Cloud)가 필요하다. 포인트 클라우드는 MMS(Mobile Mapping System)를 이용하여 도로와 도로 주변 시설물을 스캔하여 얻을 수 있다. 포인트 클라우드 정보는 후처리를 통해 LAS 데이터로 변환되고, LAS 데이터를 기반으로 고정밀지도가 구축된다. In order to produce a high-precision map, a point cloud having spatial location information is required. A point cloud can be obtained by scanning roads and road-side facilities using MMS (Mobile Mapping System). Point cloud information is converted into LAS data through post-processing, and a high-precision map is built based on the LAS data.

MMS는 GPS(Global Positioning System), IMU(Inertial Measurement Unit), 카메라, 라이다, 주행거리 센서 등으로 구성된다. 카메라와 라이다에서 수집된 영상과 포인트 클라우드(점군 데이터)는 고정밀지도 구축에 필요한 객체의 위치 값과 면형 및 속성 정보를 구축하기 위해 활용된다. MMS consists of a Global Positioning System (GPS), an Inertial Measurement Unit (IMU), a camera, LIDAR, and a mileage sensor. Images and point clouds (point cloud data) collected from cameras and LIDAR are used to construct object location values, surface shape, and attribute information required for high-precision map construction.

라이다 데이터와 카메라의 영상 데이터는, 각 센서의 모듈간 캘리브레이션을 통해 정합될 수 있지만, MMS 시스템을 탑재한 차량의 주행시 진동, 관성에 의한 영향이나 프로세싱 지연 등의 문제로 정합 오차가 발생한다. 즉, 카메라와 라이다 간의 캘리브레이션 정보만으로 두 센서의 데이터를 정합하기 어렵다는 문제가 존재한다. LiDAR data and camera image data can be matched through calibration between each sensor module, but matching errors occur due to problems such as vibration, inertia, or processing delay when driving a vehicle equipped with an MMS system. That is, there is a problem that it is difficult to match the data of the two sensors only with the calibration information between the camera and lidar.

등록특허 제10-1105361호Registered Patent No. 10-1105361

상술한 바와 같은 문제점을 해결하기 위하여, 본 발명은 라이다 영상을 생성하기 위한 포인트 클라우드에 카메라로부터 획득된 컬러 정보를 매핑함으로써 라이다 데이터에 컬러 영상 정보를 부가하는 라이다 데이터 및 컬러 정보 매핑 방법 및 장치를 제공하는 것을 목적으로 한다. In order to solve the above problems, the present invention is a lidar data and color information mapping method for adding color image information to lidar data by mapping color information obtained from a camera to a point cloud for generating lidar images. and to provide an apparatus.

본 발명은, 라이다 데이터에 컬러 영상의 컬러 정보를 매핑하는 매핑 장치에 있어서, 상기 라이다 데이터를 이용하여 상기 컬러 영상의 시점에 대응되는 투시 영상으로서의 라이다 영상을 생성하는 라이다 영상 생성부; 상기 라이다 영상에 상기 컬러 정보를 컬러 트랜스퍼하는 컬러 트랜스퍼부; 및 상기 라이다 영상의 픽셀에 컬러 트랜스퍼된 상기 컬러 정보를, 상기 라이다 영상에 대응되는 상기 라이다 데이터에 매핑하는 컬러 정보 매핑부;를 포함하는 매핑 장치를 제공한다. In the present invention, in a mapping device for mapping color information of a color image to lidar data, a lidar image generator for generating a lidar image as a perspective image corresponding to a viewpoint of the color image using the lidar data ; a color transfer unit for color transferring the color information to the lidar image; and a color information mapping unit that maps the color information transferred to pixels of the lidar image to the lidar data corresponding to the lidar image.

일 실시예에 있어서, 상기 컬러 트랜스퍼부는, 상기 라이다 영상을 컨텐트 이미지(content image)로 하고, 상기 컬러 영상을 컬러 이미지(color image)로 하여 상기 컬러 트랜스퍼를 수행할 수 있다. In one embodiment, the color transfer unit may perform the color transfer by using the LIDAR image as a content image and the color image as a color image.

또한, 상기 라이다 데이터는 포인트 클라우드(point cloud)이고, 상기 라이다 영상 생성부는 상기 포인트 클라드를 이용하여 라이다 데이터를 복셀화하고, 복셀화된 복셀 큐브를 상기 컬러 영상의 촬영 시점에 맞게 투영함으로써 상기 라이다 영상을 생성할 수 있다. In addition, the lidar data is a point cloud, and the lidar image generating unit converts lidar data into voxels using the point clad, and converts the voxelized voxel cube to match the color image capture time point. By projecting, the LIDAR image may be generated.

일 실시예에 있어서, 상기 컬러 정보 매핑부는, 상기 라이다 데이터를 이루는 포인트 클라우드에 상기 컬러 정보를 매핑할 수 있다. In one embodiment, the color information mapping unit may map the color information to a point cloud constituting the lidar data.

또한, 상기 매핑 장치는, 상기 라이다 데이터에서 도로 정보와 시설물 정보를 제외한 이동 객체를 노이즈로서 제거하고 제거된 부분을 복원하는 라이다 데이터 전처리부, 및 상기 컬러 영상에서 상기 이동 객체를 노이즈로서 제거하고 제거된 부분을 복원하는 컬러 영상 전처리부를 더 포함할 수 있다. In addition, the mapping device includes a lidar data pre-processing unit that removes a moving object excluding road information and facility information from the lidar data as noise and restores the removed part, and removes the moving object as noise from the color image. and a color image pre-processing unit for restoring the removed portion.

또한, 상기 매핑 장치는, 상기 라이다 영상 생성부에서 생성된 상기 라이다 영상의 특징(feature)을 강화하도록 전처리하는 라이다 영상 전처리부를 더 포함할 수 있다. In addition, the mapping device may further include a lidar image pre-processor for pre-processing to enhance features of the lidar image generated by the lidar image generator.

일 실시예에 있어서, 상기 라이다 영상 전처리부는, 상기 라이다 영상을 소실점으로부터의 거리에 따라 복수로 분할된 분할 영상에 대해 제1 필터를 적용한 후 병합할 수 있다. In one embodiment, the lidar image pre-processing unit may merge the lidar image after applying a first filter to a plurality of divided images according to a distance from a vanishing point.

또한, 상기 제1 필터는 양방향 필터이고, 상기 각각의 분할 영상에 대해 상기 소실점과의 거리를 기준으로 필터 사이즈가 다르게 적용될 수 있다. Also, the first filter is a bi-directional filter, and a different filter size may be applied to each of the divided images based on a distance from the vanishing point.

일 실시예에 있어서, 상기 필터 사이즈는, 상기 소실점과의 거리가 멀수록 작게 설정된다.In one embodiment, the filter size is set smaller as the distance from the vanishing point increases.

또한, 상기 라이다 영상 전처리부는, 병합된 상기 라이다 영상에에 대해 제2 필터를 적용하여 상기 특징을 강화한 후, 상기 라이다 영상 내의 에지를 검출할 수 있다.In addition, the lidar image pre-processing unit may apply a second filter to the merged lidar image to enhance the feature, and then detect an edge in the lidar image.

본 발명은, 라이다 데이터에 컬러 영상의 컬러 정보를 매핑하는 매핑 장치의 매핑 방법에 있어서, 상기 라이다 데이터를 이용하여 상기 컬러 영상의 시점에 대응되는 투시 영상으로서의 라이다 영상을 생성하는 라이다 영상 생성 단계; 상기 라이다 영상에 상기 컬러 정보를 컬러 트랜스퍼하는 컬러 트랜스퍼 단계; 및 상기 라이다 영상의 픽셀에 컬러 트랜스퍼된 상기 컬러 정보를, 상기 라이다 영상에 대응되는 상기 라이다 데이터에 매핑하는 컬러 정보 매핑 단계;를 포함하는 매핑 방법을 제공한다. In the present invention, in a mapping method of a mapping device for mapping color information of a color image to lidar data, a lidar image as a perspective image corresponding to a viewpoint of the color image is generated using the lidar data. image generating step; A color transfer step of color transferring the color information to the lidar image; and a color information mapping step of mapping the color information transferred to pixels of the lidar image to the lidar data corresponding to the lidar image.

상기 매핑 방법은, 상기 라이다 영상 생성 단계 이전에, 상기 라이다 데이터에서 도로 정보와 시설물 정보를 제외한 이동 객체를 노이즈로서 제거하고 제거된 부분을 복원하는 라이다 데이터 전처리 단계; 및 상기 컬러 영상에서 상기 이동 객체를 노이즈로서 제거하고 제거된 부분을 복원하는 컬러 영상 전처리 단계;를 더 포함할 수 있다. The mapping method may include, before the lidar image generation step, a lidar data preprocessing step of removing a moving object excluding road information and facility information from the lidar data as noise and restoring the removed part; and a color image pre-processing step of removing the moving object as noise from the color image and restoring the removed part.

또한, 상기 매핑 방법은, 상기 라이다 영상 생성 단계에서 생성된 상기 라이다 영상의 특징(feature)을 강화하도록 전처리하는 라이다 영상 전처리 단계;를 더 포함할 수 있다. In addition, the mapping method may further include a lidar image preprocessing step of preprocessing to enhance features of the lidar image generated in the lidar image generating step.

일 실시예에 있어서, 상기 라이다 영상 전처리 단계는, 상기 라이다 영상을 분할하여 분할 영상을 생성하는 단계, 상기 분할 영상에 제1 필터를 적용한 후 병합하는 단계, 및 상기 병합된 라이다 영상에서 에지를 검출하는 단계를 포함할 수 있다. In one embodiment, the lidar image preprocessing step includes generating split images by dividing the lidar images, applying a first filter to the split images and then merging them, and in the merged lidar images. Edge detection may be included.

또한, 상기 분할 영상을 생성하는 단계는, 상기 라이다 영상을 소실점으로부터의 거리에 따라 복수로 분할할 수 있다. In the generating of the divided images, the LIDAR image may be divided into a plurality of parts according to a distance from a vanishing point.

또한, 상기 제1 필터는 양방향 필터이고, 상기 각각의 분할 영상에 대해 상기 소실점과의 거리를 기준으로 필터 사이즈가 다르게 적용될 수 있다.Also, the first filter is a bi-directional filter, and a different filter size may be applied to each of the divided images based on a distance from the vanishing point.

또한, 상기 에지를 검출하는 단계는, 상기 라이다 영상에 상기 특징을 강화하기 위한 제2 필터를 적용하고, 상기 라이다 영상을 반전시킨 후 상기 에지를 검출할 수 있다. In the detecting of the edge, a second filter for enhancing the feature may be applied to the lidar image, and the edge may be detected after inverting the lidar image.

본 발명에 따르면, 카메라와 라이다 간의 캘리브레이션 정보만으로 두 센서의 데이터를 정합하기 어려운 종래 문제를 해결할 수 있다. According to the present invention, it is possible to solve the conventional problem that it is difficult to match data of two sensors only with calibration information between a camera and a lidar.

본 발명에 따르면, 컬러 트랜스퍼(Color transfer) 기법을 적용하여 라이다 데이터에 카메라 영상의 컬러를 매핑함으로써 정합 오차를 줄일 수 있는 효과가 있다. According to the present invention, there is an effect of reducing the matching error by mapping the color of the camera image to lidar data by applying a color transfer technique.

더 나아가, 본 발명에 따른 매핑 장치에 의해 컬러 정보가 매핑된 라이다 데이터는 디지털 트윈과 같은 가상 현실에서 시뮬레이션을 위한 용도로 용이하게 활용될 수 있다.Furthermore, LiDAR data to which color information is mapped by the mapping device according to the present invention can be easily utilized for simulation in virtual reality such as a digital twin.

도 1은 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 장치를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 방법을 도시한 순서도이다.
도 3은 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 장치의 라이다 영상 전처리부에 의한 라이다 영상 전처리 과정을 나타낸 순서도이다.
도 4는 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 장치의 라이다 영상 전처리부에 의해 처리되는 라이다 영상의 처리 과정을 예시적으로 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 장치의 컬러 트랜스퍼부를 예시적으로 설명하는 도면이다
1 is a diagram illustrating an apparatus for mapping lidar data and color information according to an embodiment of the present invention.
2 is a flowchart illustrating a method for mapping lidar data and color information according to an embodiment of the present invention.
3 is a flowchart illustrating a lidar image pre-processing process by a lidar image pre-processing unit of the lidar data and color information mapping apparatus according to an embodiment of the present invention.
4 is a diagram exemplarily illustrating a process of processing a lidar image processed by a lidar image pre-processing unit of an apparatus for mapping lidar data and color information according to an embodiment of the present invention.
5 is a diagram exemplarily illustrating a color transfer unit of an apparatus for mapping lidar data and color information according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to components of each drawing, it should be noted that the same components have the same numerals as much as possible even if they are displayed on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted. In addition, although preferred embodiments of the present invention will be described below, the technical idea of the present invention is not limited or limited thereto and can be modified and implemented in various ways by those skilled in the art.

도 1은 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 장치를 도시한 도면이다. 1 is a diagram illustrating an apparatus for mapping lidar data and color information according to an embodiment of the present invention.

본 발명에 있어서, 라이다 데이터 및 컬러 정보 매핑 장치(20)(이하에서는 '매핑 장치'라고 칭하기도 함)는 모바일 매핑 시스템(MMS)(10)에서 획득된 라이다 데이터와 컬러 영상을 이용하여 라이다 데이터에 컬러 정보를 매핑한다. MMS(10)는 라이다, 카메라, GPS, 및 IMU를 포함할 수 있다. 도 1에서는 MMS(10)로부터 매핑 장치(20)가 라이다 데이터와 카메라 영상을 전달받는 것으로 도시되어 있으나, 본 발명의 실시에 있어서, MMS(10)와 매핑 장치(20)는 공간적으로 이격되어 구비될 수 있다. 또한, MMS(10)에서 획득된 정보는 별도의 저장장치에 저장된 이후, 매핑 장치(20)로 저장된 데이터가 전달되는 경우도 있다. In the present invention, the lidar data and color information mapping device 20 (hereinafter also referred to as a 'mapping device') uses lidar data and color images obtained from the mobile mapping system (MMS) 10 to Map color information to lidar data. MMS 10 may include lidar, cameras, GPS, and IMUs. In FIG. 1, the mapping device 20 is shown as receiving LIDAR data and camera images from the MMS 10, but in the practice of the present invention, the MMS 10 and the mapping device 20 are spatially separated may be provided. In addition, after the information acquired in the MMS 10 is stored in a separate storage device, the stored data may be transferred to the mapping device 20 .

본 발명에 있어서, 라이다 데이터는 라이다(LiDAR)에 의해 스캔된 라이다 스캔 데이터일 수 있다. 라이다 스캔 데이터는 점군 데이터, 즉, 포인트 클라우드(Point Cloud)로 칭할 수 있다. 또한, 컬러 영상는 카메라를 이용하여 획득될 수 있다. 라이다 데이터와 컬러 영상은 라이다와 카메라를 포함하는 모바일 매핑 시스템(MMS)을 통해 획득된 것일 수 있다. In the present invention, lidar data may be lidar scan data scanned by lidar (LiDAR). LiDAR scan data may be referred to as point cloud data, that is, a point cloud. Also, a color image may be acquired using a camera. LiDAR data and color images may be obtained through a mobile mapping system (MMS) including a lidar and a camera.

도 1을 참조하면, 본 발명의 일 실시예에 따른 매핑 장치(20)는, 라이다 영상 생성부(40), 컬러 트랜스퍼부(70) 및 컬러 정보 매핑부(80)를 포함한다. 매핑 장치(20)는 라이다 데이터(예를 들면, 포인트 클라우드)를 전처리하기 위한 라이다 데이터 전처리부(30)를 더 포함할 수 있다. 또한, 매핑 장치(20)는 라이다 영상 생성부(40)에서 생성된 라이다 영상을 전처리하는 라이다 영상 전처리부(50)와, MMS의 카메라에 의해 취득된 컬러 영상을 전처리하는 컬러 영상 전처리부(60)를 더 포함할 수 있다. 또한, 매핑 장치(20)는 컬러 정보 매핑부(80)에서 생성된 컬러 정보가 포함된 라이다 데이터를 별도의 저장장치(미도시)에 저장하도록 구성될 수 있다. Referring to FIG. 1 , a mapping device 20 according to an embodiment of the present invention includes a lidar image generating unit 40, a color transfer unit 70, and a color information mapping unit 80. The mapping device 20 may further include a lidar data preprocessing unit 30 for preprocessing lidar data (eg, point cloud). In addition, the mapping device 20 includes a lidar image pre-processing unit 50 for pre-processing the lidar image generated by the lidar image generator 40 and a color image pre-processing unit for pre-processing the color image acquired by the camera of the MMS. A portion 60 may be further included. In addition, the mapping device 20 may be configured to store lidar data including color information generated by the color information mapping unit 80 in a separate storage device (not shown).

매핑 장치(20)로 전달되는 라이다 데이터와 컬러 영상은 FOV(Field of View)가 최대한 유사하게 설정되는 것이 바람직할 수 있다. 일 실시예에 있어서, 특정 시간 또는 특정 시점(Point of View)에서 촬영된 컬러 영상과, 카메라가 촬영한 상기 컬러 영상의 위치 주변의 포인트 클라우드가 라이더 데이터로서 선택될 수 있다. 일 실시예에 있어서, 카메라와 라이다의 캘리브레이션 정보를 이용하여 캘리브레이션된 컬러 영상과 라이다 데이터가 매핑 장치(20)로 전달되는 것도 가능할 수 있다. 라이다 데이터와 컬러 영상의 FOV가 다르더라도 후술할 컬러 트랜스퍼부(70)에서 컬러 정보를 라이다 데이터에 따른 영상에 매칭하는 것이 가능할 수 있으나, 라이다 데이터와 컬러 영상의 FOV의 일치도가 높을수록 처리시간이 단축될 수 있다. It may be desirable to set the field of view (FOV) of lidar data and color images transmitted to the mapping device 20 to be as similar as possible. In an embodiment, a color image captured at a specific time or point of view and a point cloud around a location of the color image captured by a camera may be selected as lidar data. In one embodiment, it may be possible to transfer the color image and lidar data calibrated using the calibration information of the camera and lidar to the mapping device 20 . Even if the FOV of the lidar data and the color image are different, it may be possible to match the color information to the image according to the lidar data in the color transfer unit 70 to be described later. Processing time can be shortened.

라이다 데이터 전처리부(30)는 라이다 데이터에서 노이즈를 제거할 수 있다. 상기 노이즈는 포인트 클라우드 정보에 포함될 수 있는 도로 또는 시설물 이외의 정보일 수 있다. 예를 들면, 보행자 또는 차량과 같은 이동 객체는 노이즈로서 제거될 수 있다. 일 실시예에 있어서, 라이다 데이터 전처리부(30)는 딥러닝 기반의 객체 검출 알고리즘을 적용하여 차량과 같은 이동 객체를 인식하고, 이동 객체를 포인트 클라우드에서 제거함으로써 라이다 데이터에 대한 전처리를 수행할 수 있다. 일 실시예에 있어서, 라이다 데이터 전처리부(30)는, 포인트 클라우드에서 이동 객체를 제거함으로써 발생된 빈 정보를, multi-path 기반 또는 space-time 기반 temporal inpainting과 같은 복구 방법을 이용하여 복원할 수 있다. The lidar data pre-processing unit 30 may remove noise from lidar data. The noise may be information other than roads or facilities that may be included in point cloud information. For example, moving objects such as pedestrians or vehicles may be removed as noise. In one embodiment, the lidar data preprocessing unit 30 performs preprocessing on lidar data by recognizing a moving object such as a vehicle by applying a deep learning-based object detection algorithm and removing the moving object from the point cloud. can do. In one embodiment, the lidar data pre-processing unit 30 restores bin information generated by removing a moving object from a point cloud using a recovery method such as multi-path based or space-time based temporal inpainting. can

라이다 영상 생성부(40)는 컬러 영상에 대응되는 라이다 영상을 생성한다. 일 실시예에 있어서, 라이다 영상 생성부(40)는, 컬러 영상의 카메라 촬영 시점(視點)을 고려하여 라이다 영상을 생성할 수 있다. 구체적으로, 라이다 영상 생성부(40)는 카메라 촬영 시점의 포인트 클라우드와 GPS 및 IMU 정보를 이용하여 라이다 영상을 생성할 수 있다. The lidar image generator 40 generates a lidar image corresponding to a color image. In an embodiment, the lidar image generating unit 40 may generate a lidar image in consideration of a camera photographing viewpoint of a color image. Specifically, the lidar image generating unit 40 may generate a lidar image by using a point cloud at a time when the camera is photographed and GPS and IMU information.

일 실시예에 있어서, 라이다 영상 생성부(40)는 포인트 클라우드를 이용하여 라이다 데이터를 복셀(Voxel)화하고, 복셀 큐브를 카메라 촬영 시점에 맞게 투영하여 라이다 영상을 생성할 수 있다. 라이다 영상은 카메라 촬영 시점에 따른 투시 영상(perspective view)일 수 있다. 투시 영상을 생성하는 방법의 일례로서, 먼저, GPS, IMU 및 카메라의 캘리브레이션 파라미터(Calibration parameter: Intrinsic/Extrinsic Matrix)를 이용하며 카메라의 영상 시퀀스에서의 배치 정보를 획득하고, 그에 따라 복셀 큐브를 카메라 촬영 시점에 대응하여 투영함으로써 복셀 큐브를 2D 매핑한다. In an embodiment, the lidar image generation unit 40 may convert lidar data into voxels using a point cloud, and project the voxel cube to match the camera's shooting point of view to generate lidar images. The LIDAR image may be a perspective view according to a camera shooting point of view. As an example of a method for generating a perspective image, first, GPS, IMU, and camera calibration parameters (Calibration parameters: Intrinsic/Extrinsic Matrix) are used to obtain placement information in an image sequence of the camera, and thus a voxel cube is converted into a camera The voxel cube is 2D mapped by projecting in correspondence with the shooting point.

라이다 영상 전처리부(50)는 라이다 영상 생성부(40)에서 생성된 라이다 영상을 전처리하여 특징(Feature)을 강화할 수 있다. 라이다 영상 전처리부(50)는 이후의 컬러 트랜스퍼(Color transfer)를 효과적으로 수행하기 위하여 상기 라이다 영상에 이미지 프로세싱을 적용하여 인텐시티를 강화할 수 있도록 전처리를 수행할 수 있다.The lidar image pre-processing unit 50 may enhance features by pre-processing the lidar image generated by the lidar image generating unit 40 . The lidar image pre-processing unit 50 may perform pre-processing to enhance intensity by applying image processing to the lidar image in order to effectively perform subsequent color transfer.

컬러 영상 전처리부(60)는, 전달된 컬러 영상에 대한 전처리를 수행할 수 있다. 컬러 영상에 대한 전처리는 컬러 영상에서 노이즈를 제거함으로써 수행될 수 있다. 일 실시예에 있어서, 컬러 영상 전처리부(60)는, 영상에 포함된 도로 또는 시설물 이외의 정보, 예를 들면, 보행자 또는 차량과 같은 이동 객체를 노이즈로서 제거할 수 있다. 일 실시예에 있어서, 컬러 영상 전처리부(60)는 딥러닝 기반의 객체 검출 알고리즘을 적용하여 차량과 같은 이동 객체를 인식하고, 이동 객체를 컬러 영상에서 제거함으로써 컬러 영상에 대한 전처리를 수행할 수 있다. 일 실시예에 있어서, 컬러 영상 전처리부(60)는 이동 객체를 제거함으로써 발생된 컬러 영상에서의 빈 픽셀을, multi-path 기반 또는 space-time 기반 temporal inpainting과 같은 복구 방법을 이용하여 복원할 수 있다. The color image pre-processing unit 60 may perform pre-processing on the transferred color image. Pre-processing of the color image may be performed by removing noise from the color image. In an embodiment, the color image pre-processing unit 60 may remove information other than roads or facilities included in the image, for example, moving objects such as pedestrians or vehicles as noise. In an embodiment, the color image preprocessing unit 60 may perform preprocessing of the color image by recognizing a moving object such as a vehicle by applying a deep learning-based object detection algorithm and removing the moving object from the color image. there is. In an embodiment, the color image pre-processing unit 60 may restore empty pixels in a color image generated by removing a moving object using a multi-path based or space-time based temporal inpainting restoration method. there is.

컬러 트랜스퍼부(70)는 컬러 영상으로 기반으로 라이다 영상에 컬러 트랜스퍼를 적용한다. 컬러 트랜스퍼(Color Transfer)는 컨텐트 이미지(content image)와 컬러 이미지(color image)가 주어졌을 때, 그 이미지의 주된 형태는 컨텐트 이미지와 유사하게 유지하면서, 컬러 정보는 컬러 이미지와 유사하게 변경하는 것을 말한다. 본 발명에 있어서, 라이다 영상을 컨텐트 이미지로 하고, 컬러 영상을 컬러 트랜스퍼를 위한 컬러 이미지로 하여 컬러 트랜스퍼를 함으로써 라이다 영상에 컬러 영상의 컬러 정보를 할당할 수 있다. 컬러 트랜스퍼를 위한 일 실시예로서, Examplar-based Colorization 방식의 딥러닝 네트워크를 사용할 수 있다. The color transfer unit 70 applies color transfer to the LIDAR image based on the color image. When a content image and a color image are given, color transfer maintains the main form of the image similar to the content image, while changing the color information to resemble the color image. say In the present invention, color information of a color image may be allocated to a lidar image by performing color transfer using a lidar image as a content image and a color image as a color image for color transfer. As an embodiment for color transfer, a deep learning network of an examiner-based colorization scheme may be used.

컬러 정보 매핑부(80)는 라이다 영상을 생성할 때 이용했던 포인트 클라우드에 컬러 트랜스퍼에서 할당된 컬러 정보를 매핑한다. 라이다 영상 생성부(40)에서 투시 영상을 생성할 때, 투시 영상의 픽셀은 포인트 클라우드와 매핑되어 있다. 투시 영상의 하나의 픽셀에는 적어도 하나의 포인트 클라우드가 매핑된다. 투시 영상을 생성할 때 사용된 정보를 이용하여, 투시 영상에서 포인트 클라우드로 역투영하면, 포인트 클라우드의 각 포인트에 컬러 정보를 매핑할 수 있다. The color information mapping unit 80 maps the color information allocated in the color transfer to the point cloud used to generate the lidar image. When generating a perspective image in the LiDAR image generating unit 40, pixels of the perspective image are mapped to a point cloud. At least one point cloud is mapped to one pixel of the perspective image. If the perspective image is back-projected onto the point cloud using information used to generate the perspective image, color information may be mapped to each point of the point cloud.

도 2는 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 방법을 도시한 순서도이다. 2 is a flowchart illustrating a method for mapping lidar data and color information according to an embodiment of the present invention.

MMS에서 획득된 라이다 데이터와 컬러 영상이 준비된다(S10, S20). 라이다 데이터는 포인트 클라우드로서 제공될 수 있다. LiDAR data and color images obtained from MMS are prepared (S10, S20). LiDAR data can be presented as a point cloud.

라이다 데이터 전처리부(30)에 의해 라이다 데이터에서 노이즈를 제거하는 등의 전처리가 수행된다(S12). 라이다 데이터에 대한 전처리는, 포인트 클라우드 정보에 포함될 수 있는 도로 또는 시설물 이외의 정보를 제거하는 한편, 포인트 클라우드에서 제거된 정보를 복원하는 것을 포함하여 수행될 수 있다. Pre-processing, such as removing noise from lidar data, is performed by the lidar data pre-processing unit 30 (S12). Pre-processing of lidar data may include removing information other than roads or facilities that may be included in point cloud information and restoring information removed from the point cloud.

라이다 데이터를 이용하여 카메라의 시점과 같은 시점의 라이다 영상을 생성하기 위해, 라이다 데이터는 복셀화될 수 있다(S14). In order to generate a lidar image of the same viewpoint as the camera's viewpoint using lidar data, lidar data may be voxelized (S14).

라이다 영상 생성부(40)는 복셀 큐브를 카메라 촬영 시점에 맞게 투영하여 라이다 영상을 생성한다(S16). 라이다 영상은 카메라 촬영 시점에 따른 투시 영상(perspective view)일 수 있다. The lidar image generation unit 40 generates a lidar image by projecting the voxel cube according to the camera's shooting point (S16). The LIDAR image may be a perspective view according to a camera shooting point of view.

라이다 영상이 생성된 후, 라이다 영상의 특징(feature)을 강화하기 위하여 라이다 영상에 대한 전처리 과정이 수행될 수 있다(S18). After the lidar image is generated, a pre-processing process may be performed on the lidar image to enhance features of the lidar image (S18).

한편, S20 단계에서 준비된, 컬러 영상에 대한 전처리 과정이 수행될 수 있다(S22). 일 실시예에 있어서, 컬러 영상 전처리부(60)는, 영상에 포함된 도로 또는 시설물 이외의 정보, 예를 들면, 보행자 또는 차량과 같은 이동 객체를 노이즈로서 제거하고, 제거된 픽셀을 multi-path 기반 또는 space-time 기반 temporal inpainting과 같은 복구 방법을 이용하여 복원할 수 있다. Meanwhile, a preprocessing process for the color image prepared in step S20 may be performed (S22). In one embodiment, the color image pre-processing unit 60 removes information other than roads or facilities included in the image, for example, moving objects such as pedestrians or vehicles, as noise, and removes the removed pixels as multi-path. It can be restored using a recovery method such as based or space-time based temporal inpainting.

컬러 트랜스퍼부(70)에 의해, 라이다 영상을 컨텐트 이미지로 하고, 카메라에 의해 획득되어 처리된 컬러 영상을 컬러 이미지로 하여 컬러 트랜스퍼가 수행된다(S30). S30 단계에 따라, 라이다 데이터(즉, 포인트 클라우드)로부터 특정 시점을 투영되어 생성된 투시 영상인 라이다 영상의 픽셀에는, 컬러 영상에서 추출된 컬러 정보가 매핑된다. The color transfer is performed by the color transfer unit 70 by using the lidar image as the content image and the color image obtained and processed by the camera as the color image (S30). In step S30, color information extracted from a color image is mapped to pixels of a lidar image, which is a perspective image generated by projecting a specific viewpoint from lidar data (ie, a point cloud).

라이다 영상을 3차원 공간으로 역변환함으로서, 라이다 영상의 픽셀에 포함된 컬러 정보는 라이다 데이터에 매핑된다(S40). 이에 따라 컬러 정보가 포함된 라이다 데이터가 제공될 수 있다. By inversely transforming the lidar image into a 3-dimensional space, color information included in pixels of the lidar image is mapped to lidar data (S40). Accordingly, lidar data including color information may be provided.

앞선 설명에서, 라이다 영상 전처리부(50)는 라이다 영상 생성부(40)에서 생성된 라이다 영상을 전처리하여 특징(Feature)을 강화하는 것으로 설명되었다. 라이다 영상 전처리부(50)에 대하여 보다 상세하게 설명한다. In the foregoing description, it has been described that the lidar image pre-processing unit 50 enhances features by pre-processing the lidar image generated by the lidar image generating unit 40. The LiDAR image pre-processing unit 50 will be described in more detail.

도 3은 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 장치에 있어서 라이다 영상 전처리부(50)에 의한 라이다 영상 전처리 과정을 나타낸 순서도이다. 또한, 도 4는 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 장치의 라이다 영상 전처리부(50)에 의해 처리되는 라이다 영상의 처리 과정을 예시적으로 나타낸 도면이다. 3 is a flow chart illustrating a lidar image preprocessing process by the lidar image preprocessor 50 in the lidar data and color information mapping apparatus according to an embodiment of the present invention. 4 is a diagram exemplarily illustrating a process of processing a lidar image processed by the lidar image pre-processing unit 50 of the lidar data and color information mapping apparatus according to an embodiment of the present invention.

라이다 영상 전처리부(50)에 의한 라이다 영상 전처리 과정의 일례를 설명한다. An example of a lidar image preprocessing process by the lidar image preprocessor 50 will be described.

라이다 영상은 라이다 영상 생성부(40)에 의해 컬러 영상의 시점에 맞추어 생성된다(도 4의 (a) 참조).The lidar image is generated according to the viewpoint of the color image by the lidar image generator 40 (see FIG. 4(a)).

라이다 영상을 소실점(消失點)과의 거리에 따라 소정 개수로 분할한다(S100). 이는 라이다 영상에서의 거리에 따라 필터를 다르게 적용하여 노이즈 제거 효과를 극대화하기 위함이다. 도 4의 (b)에서는 라이다 영상을 3개로 분할한 것이 예시된다. 도로를 포함한 영상의 경우 라이다 영상의 하단에서 대략 2/3 위치까지 도로가 포함되고, 그 이상은 하늘과 같은 배경인 경우가 많을 수 있다. 도 4의 (b)는 이러한 상황을 고려하여 제시된 것이다. 그러나, 본 발명의 실시에 있어서 라이다 영상의 분할 개수는 라이다로 스캔 또는 카메라로 촬영되는 주변 환경에 따라 다르게 설정되는 것도 가능하다. The lidar image is divided into a predetermined number according to the distance from the vanishing point (S100). This is to maximize the noise removal effect by applying different filters according to the distance in the LIDAR image. In (b) of FIG. 4, it is exemplified that the LIDAR image is divided into three. In the case of an image including a road, the road is included up to about 2/3 from the bottom of the lidar image, and more than that may be a background such as the sky. Figure 4 (b) is presented in consideration of this situation. However, in the practice of the present invention, the number of divisions of the LIDAR image may be set differently according to the surrounding environment scanned by the LIDAR or photographed by the camera.

분할된 라이다 영상에 대하여 제1 필터가 적용되어 노이즈를 제거한다(S110). 일 실시예에 있어서, 제1 필터는 에지(edge)를 보존하면서 노이즈를 제거하는 비선형 필터인 양방향 필터(bilateral filter)일 수 있다. 또한, 분할된 각각의 라이다 영상에 대하여 필터 사이즈는 다르게 적용될 수 있다. 원근을 갖는 라이다 영상에 있어서, 소실점에 가까울수록 라이다 투시 영상에 표현되는 객체들의 정보는 노이즈의 제거와 함께 수반되는 스무딩(Smoothing) 효과로 인해 노면과의 구분이 모호해 질 수 있다. 이에 따라 먼 곳일수록 필터 사이즈는 작게 설정되는 것이 바람직할 수 있다. 또한, 근접한 위치에 있는 객체의 경우에는 객체를 표현하는 픽셀 영역이 넓어지기 때문에 필터 사이즈를 크게 하여 노이즈 제거 효과를 극대화할 수 있다. A first filter is applied to the segmented LiDAR image to remove noise (S110). In one embodiment, the first filter may be a bilateral filter that is a nonlinear filter that removes noise while preserving edges. In addition, a different filter size may be applied to each divided lidar image. In a lidar image having perspective, the closer the vanishing point is, the more ambiguous the information of the objects represented in the lidar perspective image can be distinguished from the road surface due to the smoothing effect accompanying noise removal. Accordingly, it may be desirable to set the filter size smaller as the distance increases. In addition, in the case of objects located close to each other, since the pixel area representing the object is widened, the noise removal effect can be maximized by increasing the filter size.

도 4의 (b)의 예에서, 상단의 분할 영상에 대해서는 필터 사이즈가 작은 양방향 필터를 적용하고, 중간의 분할 영상에 대해서는 좀 더 큰 필터 사이즈의 양방향 필터를 적용하며, 하단의 분할 영상에 대해서는 제일 큰 필터 사이즈의 양방향 필터가 적용되었다. In the example of FIG. 4(b), a bidirectional filter with a small filter size is applied to the upper segmented image, a bidirectional filter with a larger filter size is applied to the middle segmented image, and a bidirectional filter with a smaller filter size is applied to the lower segmented image. A bidirectional filter with the largest filter size was applied.

분할된 라이더 영상에 대해 제1 필터를 필터 사이즈를 다르게 하여 적용한 후 분할 영상은 병합된다(S120). 도 4의 (c)는 제1 필터의 적용 후 병합된 라이다 영상이 예시된다. After applying a first filter with different filter sizes to the divided lidar images, the divided images are merged (S120). (c) of FIG. 4 illustrates a merged LIDAR image after application of the first filter.

병합된 라이다 영상에 대하여 제2 필터가 적용된다(S130). 제2 필터는 라이다 영상에 포함된 특징(feature)을 강화하기 위해 적용될 수 있다. 일례로서, 제2 필터는 가우시안 필터(Gaussian filter)일 수 있고, 더 구체적으로는 Extend Difference of Gaussian Filter가 적용될 수 있다. 도 4의 (d)는 Extend Difference of Gaussian Filter가 적용되어 feature가 강화된 라이다 영상을 예시한다. A second filter is applied to the merged LIDAR image (S130). A second filter may be applied to enhance features included in the lidar image. As an example, the second filter may be a Gaussian filter, and more specifically, an Extend Difference of Gaussian Filter may be applied. (d) of FIG. 4 illustrates a lidar image in which a feature is enhanced by applying an Extend Difference of Gaussian Filter.

다음으로, 에지 검출을 위하여 라이다 영상은 반전된다(S140). 반전된 영상은 도 4의 (e)에 예시된다. Next, the LIDAR image is inverted for edge detection (S140). An inverted image is illustrated in FIG. 4(e).

마지막으로 에지 검출 기법이 적용된다(S150). 일례로서, 에지 검출 기법으로는 structured edge detection 기법이 적용될 수 있다. Finally, an edge detection technique is applied (S150). As an example, a structured edge detection technique may be applied as an edge detection technique.

도 5는 본 발명의 일 실시예에 따른 라이다 데이터 및 컬러 정보 매핑 장치의 컬러 트랜스퍼부(70)를 예시적으로 설명하는 도면이고, 도 6은 라이다 영상과 컬러 영상을 합성한 영상을 예시적으로 나타낸 도면이다.5 is a diagram exemplarily illustrating a color transfer unit 70 of an apparatus for mapping lidar data and color information according to an embodiment of the present invention, and FIG. 6 illustrates an image obtained by synthesizing a lidar image and a color image. It is an enemy drawing.

라이다 영상(A1)과 컬러 영상(A2)은 컬러 트랜스퍼부(70)로 전달되고, 컬러 트랜스퍼부(70)는 라이다 영상에 컬러 정보를 트랜스퍼하여 컬러 정보가 포함된 라이다 영상(A3)을 생성한다. 일 실시예에 있어서, 컬러 트랜스퍼부(70)는 Examplar-based Colorization 방식의 딥러닝 네트워크가 사용될 수 있다. The lidar image (A1) and the color image (A2) are transferred to the color transfer unit 70, and the color transfer unit 70 transfers color information to the lidar image to obtain a lidar image (A3) including color information. generate In one embodiment, the color transfer unit 70 may use a deep learning network of an Emplar-based colorization scheme.

도 6을 참조하면, 라이다 영상(A1)과 컬러 영상(A2)이 컬러 트랜스퍼부(70)에 의해 합성되어, 컬러 정보가 포함된 라이다 영상(A3)을 생성된 것을 예시적으로 확인할 수 있다. Referring to FIG. 6 , it can be exemplarily confirmed that a lidar image A1 and a color image A2 are synthesized by the color transfer unit 70 to generate a lidar image A3 including color information. there is.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and those skilled in the art can make various modifications, changes, and substitutions without departing from the essential characteristics of the present invention. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings. . The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

10 : 모바일 매핑 시스템(MMS)
20 : 매핑 장치
30 : 라이다 데이터 전처리부
40 : 라이다 영상 생성부
50 : 라이다 영상 전처리부
60 : 컬러 영상 전처리부
70 : 컬러 트랜스퍼부
80 : 컬러 정보 매핑부
10: Mobile Mapping System (MMS)
20: mapping device
30: lidar data pre-processing unit
40: lidar image generating unit
50: lidar image pre-processing unit
60: color image pre-processing unit
70: color transfer unit
80: color information mapping unit

Claims (17)

라이다 데이터에 컬러 영상의 컬러 정보를 매핑하는 매핑 장치에 있어서,
상기 라이다 데이터를 이용하여 상기 컬러 영상의 시점에 대응되는 투시 영상으로서의 라이다 영상을 생성하는 라이다 영상 생성부;
상기 라이다 영상에 상기 컬러 정보를 컬러 트랜스퍼하는 컬러 트랜스퍼부; 및
상기 라이다 영상의 픽셀에 컬러 트랜스퍼된 상기 컬러 정보를, 상기 라이다 영상에 대응되는 상기 라이다 데이터에 매핑하는 컬러 정보 매핑부;
를 포함하는 매핑 장치.
A mapping device for mapping color information of a color image to lidar data,
a LiDAR image generating unit generating a lidar image as a perspective image corresponding to the viewpoint of the color image by using the lidar data;
a color transfer unit for color transferring the color information to the lidar image; and
a color information mapping unit for mapping the color information transferred to pixels of the lidar image to the lidar data corresponding to the lidar image;
Mapping device comprising a.
제 1 항에 있어서,
상기 컬러 트랜스퍼부는, 상기 라이다 영상을 컨텐트 이미지(content image)로 하여 상기 컬러 영상에 대해 상기 컬러 트랜스퍼를 수행하는 것을 특징으로 하는 매핑 장치.
According to claim 1,
The color transfer unit performs the color transfer on the color image by using the LIDAR image as a content image.
제 1 항에 있어서,
상기 라이다 데이터는 포인트 클라우드(point cloud)이고, 상기 라이다 영상 생성부는 상기 포인트 클라우드를 이용하여 상기 라이다 데이터를 복셀화하고, 복셀화된 복셀 큐브를 상기 컬러 영상의 촬영 시점에 맞게 투영함으로써 상기 라이다 영상을 생성하는 것을 특징으로 하는 매핑 장치.
According to claim 1,
The lidar data is a point cloud, and the lidar image generating unit converts the lidar data into voxels using the point cloud and projects the voxelized voxel cube to match the color image capturing time point. Mapping device, characterized in that for generating the lidar image.
제 1 항에 있어서,
상기 컬러 정보 매핑부는, 상기 라이다 데이터를 이루는 포인트 클라우드에 상기 컬러 정보를 매핑하는 것을 특징으로 하는 매핑 장치.
According to claim 1,
The color information mapping unit maps the color information to a point cloud constituting the lidar data.
제 1 항에 있어서,
상기 라이다 데이터에서 도로 정보와 시설물 정보를 제외한 이동 객체를 노이즈로서 제거하고 제거된 부분을 복원하는 라이다 데이터 전처리부, 및
상기 컬러 영상에서 상기 이동 객체를 노이즈로서 제거하고 제거된 부분을 복원하는 컬러 영상 전처리부를 더 포함하는 것을 특징으로 하는 매핑 장치.
According to claim 1,
A lidar data preprocessing unit that removes moving objects excluding road information and facility information from the lidar data as noise and restores the removed parts, and
and a color image pre-processor configured to remove the moving object as noise from the color image and restore the removed part.
제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
상기 라이다 영상 생성부에서 생성된 상기 라이다 영상의 특징(feature)을 강화하도록 전처리하는 라이다 영상 전처리부를 더 포함하는 것을 특징으로 하는 매핑 장치.
According to any one of claims 1 to 5,
The mapping device further comprises a lidar image pre-processor for pre-processing to enhance features of the lidar image generated by the lidar image generator.
제 6 항에 있어서,
상기 라이다 영상 전처리부는, 상기 라이다 영상을 소실점으로부터의 거리에 따라 복수로 분할된 분할 영상에 대해 제1 필터를 적용한 후 병합하는 것을 특징으로 하는 매핑 장치.
According to claim 6,
The lidar image pre-processing unit applies a first filter to the divided images divided into a plurality according to the distance from the vanishing point and then merges the lidar image.
제 7 항에 있어서,
상기 제1 필터는 양방향 필터이고, 상기 각각의 분할 영상에 대해 상기 소실점과의 거리를 기준으로 필터 사이즈가 다르게 적용되는 것을 특징으로 하는 매핑 장치.
According to claim 7,
The first filter is a bi-directional filter, and a different filter size is applied to each of the divided images based on a distance from the vanishing point.
제 8 항에 있어서,
상기 필터 사이즈는, 상기 소실점과의 거리가 멀수록 작게 설정된 것을 특징으로 하는 매핑 장치.
According to claim 8,
The filter size is set smaller as the distance from the vanishing point increases.
제 7 항에 있어서,
상기 라이다 영상 전처리부는, 병합된 상기 라이다 영상에에 대해 제2 필터를 적용하여 상기 특징을 강화한 후, 상기 라이다 영상 내의 에지를 검출하는 것을 특징으로 하는 매핑 장치.
According to claim 7,
The lidar image pre-processing unit applies a second filter to the merged lidar image to enhance the feature, and then detects an edge in the lidar image.
라이다 데이터에 컬러 영상의 컬러 정보를 매핑하는 매핑 장치의 매핑 방법에 있어서,
상기 라이다 데이터를 이용하여 상기 컬러 영상의 시점에 대응되는 투시 영상으로서의 라이다 영상을 생성하는 라이다 영상 생성 단계;
상기 라이다 영상에 상기 컬러 정보를 컬러 트랜스퍼하는 컬러 트랜스퍼 단계; 및
상기 라이다 영상의 픽셀에 컬러 트랜스퍼된 상기 컬러 정보를, 상기 라이다 영상에 대응되는 상기 라이다 데이터에 매핑하는 컬러 정보 매핑 단계;
를 포함하는 매핑 방법.
In the mapping method of a mapping device for mapping color information of a color image to lidar data,
a lidar image generation step of generating a lidar image as a perspective image corresponding to a viewpoint of the color image by using the lidar data;
A color transfer step of color transferring the color information to the lidar image; and
A color information mapping step of mapping the color information transferred to pixels of the lidar image to the lidar data corresponding to the lidar image;
Mapping method including.
제 11 항에 있어서,
상기 라이다 영상 생성 단계 이전에,
상기 라이다 데이터에서 도로 정보와 시설물 정보를 제외한 이동 객체를 노이즈로서 제거하고 제거된 부분을 복원하는 라이다 데이터 전처리 단계; 및
상기 컬러 영상에서 상기 이동 객체를 노이즈로서 제거하고 제거된 부분을 복원하는 컬러 영상 전처리 단계;
를 더 포함하는 매핑 방법.
According to claim 11,
Prior to the LiDAR image generation step,
A lidar data preprocessing step of removing moving objects excluding road information and facility information from the lidar data as noise and restoring the removed parts; and
a color image pre-processing step of removing the moving object as noise from the color image and restoring the removed part;
A mapping method further comprising a.
제 11 항 또는 제 12 항에 있어서,
상기 라이다 영상 생성 단계에서 생성된 상기 라이다 영상의 특징(feature)을 강화하도록 전처리하는 라이다 영상 전처리 단계;
를 더 포함하는 것을 특징으로 하는 매핑 방법.
According to claim 11 or 12,
A lidar image preprocessing step of preprocessing to enhance features of the lidar image generated in the lidar image generating step;
A mapping method further comprising a.
제 13 항에 있어서,
상기 라이다 영상 전처리 단계는,
상기 라이다 영상을 분할하여 분할 영상을 생성하는 단계,
상기 분할 영상에 제1 필터를 적용한 후 병합하는 단계, 및
상기 병합된 라이다 영상에서 에지를 검출하는 단계
를 포함하는 것을 특징으로 하는 매핑 방법.
According to claim 13,
The lidar image preprocessing step,
Generating a segmented image by segmenting the LIDAR image;
merging after applying a first filter to the divided images; and
Detecting an edge in the merged lidar image
A mapping method comprising a.
제 14 항에 있어서,
상기 분할 영상을 생성하는 단계는, 상기 라이다 영상을 소실점으로부터의 거리에 따라 복수로 분할하는 것을 특징으로 하는 매핑 방법.
15. The method of claim 14,
The generating of the divided images may include dividing the LIDAR image into a plurality of parts according to a distance from a vanishing point.
제 14 항에 있어서,
상기 제1 필터는 양방향 필터이고, 상기 각각의 분할 영상에 대해 상기 소실점과의 거리를 기준으로 필터 사이즈가 다르게 적용되는 것을 특징으로 하는 매핑 방법.
15. The method of claim 14,
The first filter is a bi-directional filter, and a different filter size is applied to each of the divided images based on a distance from the vanishing point.
제 14 항에 있어서,
상기 에지를 검출하는 단계는, 상기 라이다 영상에 상기 특징을 강화하기 위한 제2 필터를 적용하고, 상기 라이다 영상을 반전시킨 후 상기 에지를 검출하는 것을 특징으로 하는 매핑 방법.
15. The method of claim 14,
The detecting of the edge may include applying a second filter for enhancing the feature to the lidar image, inverting the lidar image, and then detecting the edge.
KR1020210175358A 2021-12-09 2021-12-09 Method and device for mapping lidar data and color data KR20230086921A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210175358A KR20230086921A (en) 2021-12-09 2021-12-09 Method and device for mapping lidar data and color data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210175358A KR20230086921A (en) 2021-12-09 2021-12-09 Method and device for mapping lidar data and color data

Publications (1)

Publication Number Publication Date
KR20230086921A true KR20230086921A (en) 2023-06-16

Family

ID=86948549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210175358A KR20230086921A (en) 2021-12-09 2021-12-09 Method and device for mapping lidar data and color data

Country Status (1)

Country Link
KR (1) KR20230086921A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101105361B1 (en) 2009-09-10 2012-01-16 서울시립대학교 산학협력단 The method for geometric registration for images data and lidar data and the apparatus thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101105361B1 (en) 2009-09-10 2012-01-16 서울시립대학교 산학협력단 The method for geometric registration for images data and lidar data and the apparatus thereof

Similar Documents

Publication Publication Date Title
CN112912920B (en) Point cloud data conversion method and system for 2D convolutional neural network
US11474247B2 (en) Methods and systems for color point cloud generation
CN102737236B (en) Method for automatically acquiring vehicle training sample based on multi-modal sensor data
CN110826499A (en) Object space parameter detection method and device, electronic equipment and storage medium
JP2007527569A (en) Imminent collision detection based on stereoscopic vision
EP2874097A2 (en) Automatic scene parsing
US10872246B2 (en) Vehicle lane detection system
EP2261604A1 (en) Computer arrangement for and method of mapping range sensor data on image sensor data
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
US11887336B2 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
CN109741241B (en) Fisheye image processing method, device, equipment and storage medium
CN113240813B (en) Three-dimensional point cloud information determining method and device
CN114692720B (en) Image classification method, device, equipment and storage medium based on aerial view
CN112907746B (en) Electronic map generation method and device, electronic equipment and storage medium
CN114761997A (en) Target detection method, terminal device and medium
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
CN107145828B (en) Vehicle panoramic image processing method and device
CN106803262A (en) The method that car speed is independently resolved using binocular vision
CN111738033A (en) Vehicle driving information determination method and device based on plane segmentation and vehicle-mounted terminal
CN116597168B (en) Matching method, device, equipment and medium of vehicle-mounted laser point cloud and panoramic image
CN110197104B (en) Distance measurement method and device based on vehicle
CN110827340B (en) Map updating method, device and storage medium
CN111833443A (en) Landmark position reconstruction in autonomous machine applications
CN112837404B (en) Method and device for constructing three-dimensional information of planar object
WO2021114775A1 (en) Object detection method, object detection device, terminal device, and medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal