[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20180061803A - Apparatus and method for inpainting occlusion of road surface - Google Patents

Apparatus and method for inpainting occlusion of road surface Download PDF

Info

Publication number
KR20180061803A
KR20180061803A KR1020160161367A KR20160161367A KR20180061803A KR 20180061803 A KR20180061803 A KR 20180061803A KR 1020160161367 A KR1020160161367 A KR 1020160161367A KR 20160161367 A KR20160161367 A KR 20160161367A KR 20180061803 A KR20180061803 A KR 20180061803A
Authority
KR
South Korea
Prior art keywords
point
color
unit
virtual
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020160161367A
Other languages
Korean (ko)
Other versions
KR102790812B1 (en
Inventor
전영재
Original Assignee
현대엠엔소프트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대엠엔소프트 주식회사 filed Critical 현대엠엔소프트 주식회사
Priority to KR1020160161367A priority Critical patent/KR102790812B1/en
Priority to PCT/KR2017/013839 priority patent/WO2018101746A2/en
Publication of KR20180061803A publication Critical patent/KR20180061803A/en
Application granted granted Critical
Publication of KR102790812B1 publication Critical patent/KR102790812B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

The present invention discloses a device and a method for a road surface occlusion region, which restore an occlusion region of a road surface three-dimensional point group by using multi-viewpoint images, thereby being utilized for lane extraction and map construction. The device for restoring a road surface occlusion region comprises: an abnormal point group removing part removing an abnormal point group from a three-dimensional point group obtained by a mobile mapping system (MMS); an occlusion region detecting part detecting the occlusion region from an image in which the abnormal point group is removed by the abnormal point group removing part; a point group generating part generating a virtual point group on the occlusion region detected by the occlusion region detecting part; and an occlusion region restoring part projecting each virtual point generated by the point group generating part to the multi-viewpoint image, and changing each color of the virtual point in the multi-viewpoint image into grayscale to restore the occlusion region.

Description

도로면 폐색 영역 복원 장치 및 방법{APPARATUS AND METHOD FOR INPAINTING OCCLUSION OF ROAD SURFACE}[0001] APPARATUS AND METHOD FOR INPAINTING OCCLUSION OF ROAD SURFACE [0002]

본 발명은 도로면 폐색 영역 복원 장치 및 방법에 관한 것으로서, 보다 상세하게는 다시점 이미지들을 이용하여 도로면 3차원 점군의 폐색 영역을 복원하는 도로면 폐색 영역 복원 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for restoring a road surface occluded region, and more particularly, to an apparatus and method for restoring a road surface occluded region that restores an occluded region of a three-dimensional point cloud on a road surface using multi-view images.

최근 들어, 3차원 공간정보는 도시경관계획, 재해관리 시스템, 네비게이션 및 인터넷 지도 서비스 등과 같이 다양한 응용분야에 적용되고 있다.Recently, 3D spatial information has been applied to various application fields such as city landscape planning, disaster management system, navigation and internet map service.

이러한 3차원 공간정보에서 가장 핵심적인 3차원 건물 모델을 구축하는 방법으로는 수치지도와 건물 대장의 층수 정보를 이용하는 방법, 센서모델링을 수반하는 스테레오 입체 영상을 이용하는 방법, 건물의 그림자 또는 기복변위 관측방법을 이용하여 한 장의 영상만으로 건물모델을 취득하는 방법 및 항공기에 탑재된 레이저 거리측정 장비로 지표면을 이루는 점들의 높이값을 직접 취득한 라이다(Light Detection And Ranging, LiDAR) 데이터를 이용하는 방법 등이 있다.As a method for constructing the most important three-dimensional building model in the three-dimensional spatial information, there are a method of using the numerical map and the layer number information of the building complex, a method of using stereo stereoscopic images accompanied by sensor modeling, (LIDAR) data obtained by directly acquiring the elevation values of the points constituting the ground surface using the laser distance measuring equipment mounted on the aircraft, etc. have.

특히, 거리측정 장비로 지표면을 이루는 점들의 높이값을 직접 취득한 라이다 데이터를 이용하는 방법은, 색상 복원을 위해 투영 스티칭(Stitching)이나 와핑(Warping)을 사용하였으나 상대적으로 명확한 색상 추정이 어려웠고, 투영 가능한 이미지 혹은 유효 색상 정보 부족으로 복원이 어려운 부분이 발생하는 등의 문제점이 있었다. Particularly, in the method using the LIDAR data directly acquiring the height values of the points constituting the surface of the ground with the distance measurement equipment, projection stitching or warping was used for color restoration but relatively clear color estimation was difficult, There is a problem that a part which is difficult to restore due to a lack of available image or effective color information occurs.

본 발명의 배경기술은 대한민국 등록특허공보 10-1289885호(2013.07.19)의 '건물의 모델링을 위한 장치 및 방법'에 개시되어 있다.The background art of the present invention is disclosed in Korean Patent Registration No. 10-1289885 (July 31, 2013) entitled " Apparatus and Method for Building Modeling. &Quot;

본 발명은 전술한 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 일 측면에 따른 목적은 다시점 이미지들을 이용하여 도로면 3차원 점군의 폐색 영역을 복원하도록 함으로써, 차선 추출 및 지도 구축에 활용할 수 있도록 한 도로면 폐색 영역 복원 장치 및 방법에 관한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of one aspect of the present invention to restructure an obstruction area of a road surface three-dimensional point cloud using multi-viewpoint images, And more particularly, to an apparatus and method for restoring a road surface obstruction area.

본 발명의 일 측면에 따른 도로면 폐색 영역 복원 장치는 MMS(Mobile Mapping System)에 의해 획득된 3차원 점군에서 이상 점군을 제거하는 이상 점군 제거부; 상기 이상 점군 제거부에 의해 제거된 이상 점군이 영상에서 폐색 영역을 검출하는 폐색 영역 검출부; 상기 폐색 영역 검출부에 의해 검출된 폐색 영역에 가상의 점군을 생성하는 점군 생성부; 및 상기 점군 생성부에 의해 생성된 가상의 점 각각을 다시점 이미지로 투영하고, 다시점 이미지 내 가상의 점 각각의 색상을 그레이 스케일로 변경하여 폐색 영역을 복원하는 폐색 영역 복원부를 포함하는 것을 특징으로 한다. According to an aspect of the present invention, there is provided an apparatus for restoring a road surface occluded region, comprising: an abnormal point group removing unit that removes an abnormal point group from a three-dimensional point cloud acquired by an MMS (Mobile Mapping System); An occluded region detecting unit for detecting an occluded region in the image by the abnormal point group removed by the abnormal point group removing unit; A point cloud generation unit for generating a virtual cloud point in the occluded region detected by the closed region detection unit; And a blocking region restoring unit for restoring each of the virtual points generated by the point group generating unit to a multi-point image and changing the hue of each virtual point in the multi-point image to gray scale, .

본 발명에서, 상기 폐색 영역 검출부는 어느 한 점을 기준으로 주변 점군의 순번을 시계방향 또는 반시계방향으로 정렬하는 점 정렬부; 상기 점 정렬부에 의해 정렬된 점들 중에서 어느 한 점을 중심으로 하는 연속된 두 점의 사이각을 이용하여 폐색 영역의 외곽 점을 검출하는 외곽 점 검출부; 및 상기 외곽 점 검출부에 의해 검출된 외곽 점을 연결하는 외곽선을 생성하여 폐색 영역을 구분하는 폐색 영역 구분부를 포함하는 것을 특징으로 한다. In the present invention, the closed region detecting unit may include a point aligning unit for aligning the order of the peripheral point groups in a clockwise or counterclockwise direction on the basis of a certain point; An outer point detector for detecting an outer point of the obstruction area using an angle between two consecutive points centered on any one of the points arranged by the point aligner; And a closed region dividing unit for dividing the closed region by generating an outline connecting the outer points detected by the outer point detecting unit.

본 발명에서, 상기 외곽 점 검출부는 어느 한 점을 중심으로 연속된 두 점의 사이각이 주변의 다른 사이각보다 설정값 이상이면 현재 점을 외곽 점으로 검출하는 것을 특징으로 한다. In the present invention, the outer point detection unit detects the current point as an outer point when the angle between two consecutive points around a certain point is greater than or equal to a preset angle between the surrounding points.

본 발명에서, 상기 점군 생성부는 가상의 점군을 균일한 밀도로 생성하는 것을 특징으로 한다. In the present invention, the point-group generating unit generates a virtual point cloud with a uniform density.

본 발명에서, 상기 폐색 영역 복원부는 폐색 영역 내 가상의 점의 좌표를 2차원의 이미지들로 투영하는 투영부; 상기 투영부에 의해 투영된 가상의 점에 대응되는 각 이미지 내 지점별 색상을 기반으로 유효 색상인지 여부를 판단하는 유효 색상 판단부; 및 상기 유효 색상 판단부의 판단 결과에 따라 각 이미지 내 지점의 색상을 그레이 스케일로 변경하고, 변경된 색상을 가상의 점의 색상으로 설정하는 평균 색상 적용부를 포함하는 것을 특징으로 한다. In the present invention, the occlusion region restoration unit may include a projection unit for projecting coordinates of virtual points in the occlusion region into two-dimensional images; An effective color determination unit for determining whether an effective color is based on a point-by-point color in each image corresponding to a virtual point projected by the projection unit; And an average color application unit for changing the hue of each point in the image to gray scale according to the determination result of the valid color determination unit and setting the changed hue to a virtual point color.

본 발명에서, 상기 유효 색상 판단부는 각 이미지 내 지점별 색상의 분산이 설정 분산값 이내이면 유효 색상으로 판단하는 것을 특징으로 한다. In the present invention, the valid color determination unit determines that the effective color is within a range where the variance of each point in each image is within a predetermined variance value.

본 발명에서, 상기 유효 색상 판단부는 각 이미지 내 지점의 색상을 평균하고, 평균 색상을 그레이스케일로 변경한 후, 변경된 그레이 스케일의 색상을 가상의 점의 색상으로 설정하는 것을 특징으로 한다. In the present invention, the valid color determination unit may average the colors of the points in each image, change the average color to gray scale, and then set the color of the changed gray scale as the color of the virtual point.

본 발명은 상기 폐색 영역 복원부는 상기 유효 색상 판단부의 판단 결과 유효 색상이 아니면, 가상의 점을 중심으로 한 주변의 점군 정보를 이용하여 가상의 점의 색상을 설정하는 예제 기반 복원부를 더 포함하는 것을 특징으로 한다. The present invention further includes an example-based restoration unit for setting a color of a virtual point by using surrounding point group information around a virtual point, if the valid color determination unit determines that the closed area restoration unit is not an effective color .

본 발명에서, 상기 예제 기반 복원부는 가상의 점을 중심으로 한 설정 영역 이내의 다른 점을 검출하고, 검출된 다른 점과 가상의 점 간의 반사강도 및 색상의 유사도에 따라 가상의 점의 색상을 설정하는 것을 특징으로 한다. In the present invention, the example-based restoration unit detects different points within a setting region centered on a virtual point, sets a color of a virtual point according to the reflection intensity between the detected other point and the virtual point and the similarity of colors .

본 발명의 일 측면에 따른 도로면 폐색 영역 복원 방법은 이상 점군 제거부가 MMS(Mobile Mapping System)에 의해 획득된 3차원 점군에서 이상 점군을 제거하는 단계; 폐색 영역 검출부가 상기 이상 점군 제거부에 의해 이상 점군이 제거된 영상에서 폐색 영역을 검출하는 단계; 점군 생성부가 상기 폐색 영역 검출부에 의해 검출된 폐색 영역에 가상의 점군을 생성하는 단계; 및 폐색 영역 복원부가 상기 점군 생성부에 의해 생성된 가상의 점 각각을 다시점 이미지로 투영하고, 다시점 이미지 내 가상의 점 각각의 색상을 그레이 스케일로 변경하여 폐색 영역을 복원하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a road surface clogging area restoration method comprising: removing an abnormal point group in a three-dimensional point cloud group obtained by an abnormal point cloud removal unit (MMS); Detecting an occlusion region in an image in which the abnormal point group is removed by the abnormal point group removing unit; Generating a point cloud group in the occluded region detected by the occluded region detecting unit; And restoring the occluded region by projecting each of the virtual points generated by the point cloud generating unit into a multi-point image by changing the color of each virtual point in the multi-point image to gray scale, .

본 발명에서, 상기 폐색 영역 검출부는 어느 한 점을 기준으로 주변 점군의 순번을 시계방향 또는 반시계방향으로 정렬하고, 정렬된 점들 중에서 어느 한 점을 중심으로 하는 연속된 두 점의 사이각이 설정각 이상인지 여부에 따라 폐색 영역의 외곽 점을 검출한 후, 검출된 외곽 점을 연결하는 외곽선을 생성하여 폐색 영역을 구분하는 것을 특징으로 한다. In the present invention, the closed area detecting unit may arrange the order of the peripheral point groups in a clockwise or counterclockwise direction on the basis of a certain point, and determine an angle between two consecutive points centered on any one of the aligned points An outline point of the occlusion region is detected according to whether or not an abnormality is detected, and then an outline connecting the detected outline points is generated to distinguish the occlusion region.

본 발명에서, 상기 점군 생성부는 가상의 점군을 균일한 밀도로 생성하는 것을 특징으로 한다. In the present invention, the point-group generating unit generates a virtual point cloud with a uniform density.

본 발명에서, 상기 폐색 영역 복원부는 폐색 영역 내 가상의 점의 좌표를 2차원의 이미지들로 투영하고, 투영된 가상의 점에 대응되는 각 이미지 내 지점별 색상의 분산을 기반으로 유효 색상인지 여부를 판단하여 판단 결과에 따라 각 이미지 내 지점의 색상을 그레이 스케일로 변경한 후, 변경된 색상을 가상의 점의 색상으로 설정하는 것을 특징으로 한다. In the present invention, the occluded region restoration unit may be configured to project the coordinates of virtual points in the occlusion region into two-dimensional images, and determine whether the target color is an effective color based on the distribution of colors in each of the images corresponding to the projected virtual points And changes the hue of each point in each image to gray scale according to the determination result, and sets the changed hue to the color of the virtual point.

본 발명에서, 상기 유효 색상 판단부는 각 이미지 내 지점의 색상을 평균하고, 평균 색상을 그레이 스케일로 변경한 후, 변경된 그레이 스케일의 색상을 가상의 점의 색상으로 설정하는 것을 특징으로 한다. In the present invention, the valid color determination unit may average the colors of the points in each image, change the average color to gray scale, and then set the color of the changed gray scale as the color of the virtual point.

본 발명은 예제 기반 복원부가 가상의 점을 중심으로 한 설정 영역 이내의 다른 점을 검출하고, 검출된 다른 점과 가상의 점 간의 반사강도 및 색상의 유사도에 따라 가상의 점의 색상을 설정하는 단계를 더 포함하는 것을 특징으로 한다.The present invention is characterized in that the example-based restoration unit detects a different point within a setting area centered on a virtual point and sets a color of a virtual point according to the reflection intensity between the detected other point and the virtual point and the similarity of colors And further comprising:

본 발명의 일 측면에 따른 도로면 폐색 영역 복원 장치 및 방법은 폐색으로 인해 획득 불가능한 3차원 정보를 복원함으로써 도로면 위의 차선 정보를 온전하게 획득할 수 있고, 이를 토대로 차선 레벨의 고정밀 지도 구축에 상기 차선 정보를 활용할 수 있으며, 차선 정보를 자동 차선 추출 모듈 등의 고품질 입력 데이터로 활용할 수 있도록 한다. The road surface clogging area restoration apparatus and method according to an aspect of the present invention can fully acquire lane information on the road surface by restoring the three-dimensional information that is not obtainable due to clogging, The lane information can be utilized and lane information can be utilized as high quality input data such as an automatic lane extraction module.

본 발명의 다른 측면에 따른 도로면 폐색 영역 복원 장치 및 방법은 정확한 투영 및 다수 색상 이미지 정보를 사용함으로써, 종래의 스티칭(Stitching)이나 와핑(Warping)을 사용한 방식보다 명확한 색상 추정이 가능하게 한다.The road surface occluded region restoration apparatus and method according to another aspect of the present invention enable more accurate color estimation than the conventional method using stitching or warping by using accurate projection and multi-color image information.

본 발명의 또 다른 측면에 따른 도로면 폐색 영역 복원 장치 및 방법은 도로면 위의 차선 정보를 획득하는 비용을 크게 절감할 수 있다. The road surface occluded region restoration apparatus and method according to another aspect of the present invention can significantly reduce the cost of obtaining lane information on the road surface.

도 1 은 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 장치의 블럭 구성도이다.
도 2 는 본 발명의 일 실시예에 따른 모바일 맵핑 시스템의 평면도이다.
도 3 은 본 발명의 일 실시예에 따른 모바일 맵핑 시스템의 측면도이다.
도 4 는 본 발명의 일 실시예에 따른 3차원 점군으로부터 도로면 규정 및 이상 점군 제거 방법을 나타낸 도면이다.
도 5 는 본 발명의 일 실시예에 따른 도로면 점군의 폐색 영역 검출 방법을 나타낸 도면이다.
도 6 은 본 발명의 일 실시예에 따른 균일 밀도의 3차원 점군 생성 및 투영을 통한 색상 보정 방법을 나타낸 도면이다.
도 7 은 본 발명의 일 실시예에 따른 예제 기반의 색상 복원 방법을 나타낸 도면이다.
도 8 은 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 방법을 도시한 도면이다.
1 is a block diagram of a road surface occluded region restoration apparatus according to an embodiment of the present invention.
2 is a top view of a mobile mapping system in accordance with an embodiment of the present invention.
3 is a side view of a mobile mapping system according to an embodiment of the present invention.
FIG. 4 is a view illustrating a road surface definition and an abnormal point group removal method from a three-dimensional point cloud according to an embodiment of the present invention.
5 is a diagram illustrating a method of detecting an obstruction area of a road surface point cloud according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a method of correcting color through three-dimensional point cloud generation and projection according to an exemplary embodiment of the present invention.
FIG. 7 is a diagram illustrating an example-based color restoration method according to an embodiment of the present invention.
FIG. 8 is a diagram illustrating a road surface occluded region restoration method according to an embodiment of the present invention.

이하에서는 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 장치 및 방법을 첨부된 도면들을 참조하여 상세하게 설명한다. 이러한 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 이용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야할 것이다. Hereinafter, an apparatus and method for restoring a road surface occluded region according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In this process, the thicknesses of the lines and the sizes of the components shown in the drawings may be exaggerated for clarity and convenience of explanation. Further, the terms described below are defined in consideration of the functions of the present invention, which may vary depending on the user, the intention or custom of the operator. Therefore, definitions of these terms should be made based on the contents throughout this specification.

도 1 은 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 장치의 블럭 구성도이고, 도 2 는 본 발명의 일 실시예에 따른 모바일 맵핑 시스템의 평면도이며, 도 3 은 본 발명의 일 실시예에 따른 모바일 맵핑 시스템의 측면도이며, 도 4 는 본 발명의 일 실시예에 따른 3차원 점군으로부터 도로면 규정 및 이상 점군 제거 방법을 나타낸 도면이며, 도 5 는 본 발명의 일 실시예에 따른 도로면 점군의 폐색 영역 검출 방법을 나타낸 도면이며, 도 6 은 본 발명의 일 실시예에 따른 균일 밀도의 3차원 점군 생성 및 투영을 통한 색상 보정 방법을 나타낸 도면이며, 도 7 은 본 발명의 일 실시예에 따른 예제 기반의 색상 복원 방법을 나타낸 도면이다. FIG. 2 is a plan view of a mobile mapping system according to an embodiment of the present invention. FIG. 3 is a block diagram of an embodiment of the present invention FIG. 4 is a view illustrating a road surface definition and an abnormal point group removal method from a three-dimensional point cloud according to an embodiment of the present invention. FIG. 5 is a side view of a road mapping method according to an embodiment of the present invention. FIG. 6 is a diagram illustrating a method of correcting color through three-dimensional point cloud generation and projection according to an embodiment of the present invention. FIG. FIG. 4 is a diagram illustrating an example-based color restoration method according to an exemplary embodiment of the present invention.

도 1 을 참조하면, 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 장치는 MMS(Mobile Mapping System;)(10)로부터 각종 측정 정보를 전달받고, 이 측정 정보를 이용하여 도로면의 폐색 영역을 복원한다. Referring to FIG. 1, the road surface occluded region restoration apparatus according to an embodiment of the present invention receives various measurement information from an MMS (Mobile Mapping System) 10, .

도 2 와 도 3 를 참조하면, MMS(10)는 차량에 탑재되어 주변 도로의 영상을 촬영하거나 스캔하여 주변 영역에 대한 측정 정보를 획득한다. Referring to FIGS. 2 and 3, the MMS 10 is mounted on a vehicle and photographs or scans an image of a peripheral road to acquire measurement information on a surrounding area.

MMS(10)는 주변 영상을 촬영하여 영상 정보를 획득하는 복수 개의 카메라(11), 차량의 위치를 검출하는 복수 개의 GPS(Global Positioning System)(13), 펄스 레이저를 발생시켜 지표면을 이루는 점들의 높이값을 직접 취득하는 복수 개의 라이더(Light Detection and Ranging;LiDAR)(12) 및 차량의 속도와 방향, 중력 및 가속도를 측정하는 IMU(Inertial Measurement Unit)(14)를 포함한다.The MMS 10 includes a plurality of cameras 11 for photographing a surrounding image to acquire image information, a plurality of GPS (Global Positioning System) 13 for detecting the position of the vehicle, A Light Detection and Ranging (LiDAR) 12 for directly acquiring a height value, and an IMU (Inertial Measurement Unit) 14 for measuring the speed, direction, gravity and acceleration of the vehicle.

특히, 카메라(11)는 복수 개가 마련되어 각각이 주변을 촬영하는 바, 동일한 지점에 대해서도 다시점 이미지를 획득할 수 있게 한다. Particularly, a plurality of cameras 11 are provided, each of which photographs the periphery thereof, so that a multi-point image can be obtained even at the same point.

도 1 을 참조하면, 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 장치(20)는 MMS(10)로부터 전달된 측정 정보를 이용하여 도로면의 폐색 영역을 복원하는 것으로써, 이상 점군 제거부(21), 폐색 영역 검출부(22), 점군 생성부(23) 및 폐색 영역 복원부(24)를 포함한다. Referring to FIG. 1, a road surface occluded region restoration apparatus 20 according to an exemplary embodiment of the present invention restores a closed area of a road surface using measurement information transmitted from the MMS 10, A rejection region 21, a closed region detection unit 22, a point cloud generation unit 23, and a blocked region restoration unit 24.

이상 점군 제거부(21)는 MMS(10)의 라이더(12)에 의해 획득된 영상의 3차원 점군에서 이상 점군을 제거한다. The abnormal point group removing unit 21 removes the abnormal point group from the three-dimensional point cloud of the image acquired by the rider 12 of the MMS 10.

즉, 이상 점군 제거부(21)는 도 4 의 (a)에 도시된 바와 같이 라이더(12)를 통해 획득된 3차원 점군 중에서, 도로면에 해당하는 점군만을 추출한다. 이 경우 이상 점군 제거부(21)는 GPS(13) 및 IMU(14)의 측정 정보를 이용하여 차량의 높이값과 지표면 해발고도를 추정하고, 차량 위치 주변의 점군을 도로면의 점군으로 인식한다. That is, the abnormal point group removing unit 21 extracts only the point group corresponding to the road surface from the three-dimensional point group obtained through the rider 12 as shown in FIG. 4 (a). In this case, the abnormal point group removing unit 21 estimates the height value of the vehicle and the elevation of the surface of the ground using the measurement information of the GPS 13 and the IMU 14, and recognizes the point group around the vehicle position as the point group of the road surface .

또한, 이상 점군 제거부(21)는 도 4 의 (b)에 도시된 바와 같이 해당 차량 위치를 기준으로 여러 방향에 대해 점군을 조사하는데, 이전 조사 점군과의 거리가 일정 거리 이상 멀어지거나, 이전 조사 점군과의 방향 각도가 설정각도 이상이면 3차원 점군 조사를 중단하고 그 시점까지 조사된 점군을 도로면으로 병합한다. As shown in FIG. 4 (b), the abnormal point group eliminating unit 21 examines a point group in various directions based on the vehicle position. If the distance between the point group and the previous point group is longer than a predetermined distance, If the direction angle with respect to the survey point group is equal to or greater than the set angle, the three-dimensional point group survey is stopped and the point groups irradiated up to that point are merged into the road surface.

이를 토대로, 이상 점군 제거부(21)는 도 4 의 (c)에 도시된 바와 같이 도로면의 점군을 규정짓고 폐색 영역을 유발한 객체의 이상 점군을 제거할 수 있게 된다. Based on this, the abnormal point group removing unit 21 defines the point group on the road surface as shown in FIG. 4 (c), and can remove the abnormal point group of the object that caused the obstruction area.

폐색 영역 검출부(22)는 이상 점군 제거부(21)에 의해 제거된 영상에서 폐색 영역을 검출한다. 폐색 영역 검출부(22)는 점 정렬부(221), 외곽 점 검출부(222) 및 폐색 영역 구분부(223)를 포함한다. The occluded region detecting section 22 detects the occluded region in the image removed by the abnormal point group removing section 21. The closed area detecting unit 22 includes a point aligning unit 221, an outer edge detecting unit 222, and a closed region dividing unit 223.

점 정렬부(221)는 도 5 의 (a)에 도시된 바와 같이 3차원 점군 중 어느 하나의 점을 검출하고, 검출된 현재 점을 기준으로 주변 점군의 순번을 시계방향 또는 반시계방향으로 정렬한다. 여기서, 현재 점은 복수 개의 점들 중에서 현재 검출되어 그 처리 대상이 되는 점이다. As shown in FIG. 5A, the point alignment unit 221 detects any one point among the three-dimensional point cloud and arranges the order of the peripheral point cloud group clockwise or counterclockwise on the basis of the detected current point do. Here, the current point is a point that is currently detected among the plurality of points and is the object to be processed.

외곽 점 검출부(222)는 점 정렬부(221)에 의해 정렬된 점들 중에서 현재 점을 중심으로 하는 연속된 두 점의 사이각을 검출하고, 검출된 사이각이 주변의 다른 사이각 보다 설정값 이상이면 현재 점을 외곽 점으로 인식한다. The outline point detecting unit 222 detects an angle between two consecutive points centered on the current point among the points arranged by the point aligning unit 221. When the detected angle is greater than a set angle The current point is recognized as an outer point.

도 5 의 (b)에는 현재 점의 사이각이 다른 사이각보다 현저하게 큰 경우에 해당 현재 점을 외곽 점으로 인식되는 것이 도시되었다. In FIG. 5 (b), when the angle between the current points is significantly larger than the angle between the current points, the current point is recognized as an outer point.

폐색 영역 구분부(223)는 외곽 점 검출부(222)에 의해 검출된 외곽 점을 연결하는 외곽선을 생성하여 폐색 영역을 구분한다. 도 5 의 (c)에는 외곽의 점을 연결하여 생성된 외곽 선을 토대로 Convex hull이 생성되어 폐색 영역이 구분되는 예가 도시되었다. The closed region classifying unit 223 generates an outline connecting the outer points detected by the outer point detecting unit 222 to classify the closed region. FIG. 5 (c) shows an example in which a convex hull is generated based on an outline generated by connecting outer points and the occlusion region is divided.

점군 생성부(23)는 폐색 영역 검출부(22)에 의해 검출된 폐색 영역에 도 6 의 (a)에 도시된 바와 같이 가상의 점군을 생성한다. 이 경우 점군 생성부(23)는 가상의 점군을 폐색 영역에 균일한 밀도로 생성한다. 점군 생성부(23)는 각 가상의 점에 대해 3차원 좌표를 정의하고, 반사강도 및 색상은 정의하지 않는다. The point cloud generation unit 23 generates a virtual point cloud as shown in Fig. 6 (a) in the occlusion area detected by the occluded region detection unit 22. [ In this case, the point cloud generation unit 23 generates a virtual point cloud at a uniform density in the occlusion region. The point cloud generation unit 23 defines three-dimensional coordinates for each virtual point, and does not define reflection intensity and color.

폐색 영역 복원부(24)는 점군 생성부(23)에 의해 생성된 가상의 점 각각을 2차원의 다시점 이미지로 투영하고, 다시점 이미지 내 가상의 점 각각의 색상을 그레이 스케일로 변경하여 폐색 영역을 복원한다. 이 경우 폐색 영역 복원부(24)는 폐색 영역 내 가상의 점 모두에 대해 상기한 과정을 수행한다. The clogging area restoration unit 24 projects each virtual point generated by the point cloud generation unit 23 as a two-dimensional multi-point image, changes the color of each virtual point in the multi-point image to gray scale, Restore the area. In this case, the occluded region restoration unit 24 performs the above-described process for all virtual points in the occluded region.

폐색 영역 복원부(24)는 투영부(241), 유효 색상 판단부(242), 평균 색상 적용부(243) 및 예제 기반 복원부(244)를 포함한다.The closed region restoration unit 24 includes a projection unit 241, an effective color determination unit 242, an average color application unit 243, and an example-based restoration unit 244.

투영부(241)는 가상의 점 각각의 3차원 좌표를 카메라(11)를 통해 다른 시점에서 획득한 이미지들에 투영한다. 이 경우 도 6 에 도시된 바와 같이 복수 개의 다시점 이미지 각각에는 해당 가상의 점이 위치하게 된다. 즉, 점군 생성부(23)에 의해 생성된 가상의 점 각각에는 3차원 좌표가 정의되는 바, 3차원 좌표를 2차원 다시점 이미지로 투영시킬 경우, 각 이미지에서 해당 좌표에 대응되는 지점을 인식할 수 있게 되는 바, 하나의 가상의 점에 대해서 다시점으로 인식할 수 있게 된다. The projection unit 241 projects the three-dimensional coordinates of each virtual point on the images acquired at the other viewpoint via the camera 11. [ In this case, as shown in FIG. 6, corresponding virtual points are located in each of the plurality of multi-viewpoint images. That is, since three-dimensional coordinates are defined in each virtual point generated by the point-group generating unit 23, when a three-dimensional coordinate is projected onto a two-dimensional multi-point image, a point corresponding to the corresponding coordinate is recognized As a result, one virtual point can be recognized as a point again.

유효 색상 판단부(242)는 가상의 점에 대응되는 각 이미지 내 지점별 색상을 기반으로 유효 색상인지 여부를 판단한다. 이 경우 유효 색상 판단부(242)는 각 이미지 내 지점별 색상의 분산이 설정 분산값 이내이면 유효 색상으로 판단한다. 예를 들어, 각 카메라(11)에 의해 해당 지점이 정상적으로 촬영된 경우에는 각 이미지 내 해당 지점의 색상이 서로 유사하게 나타나나, 반면에 비정상적으로 촬영된 경우에는 각 이미지 내 해당 지점의 색상이 이미지마다 서로 상이하게 나타난다. 예를 들어 분산이 상대적으로 클 경우에는, 다양한 시점에서 서로 다른 물체가 촬영된 것이므로 도로면의 색상이 정확하게 취득된 것이 아닐 가능성이 높다. The effective color determination unit 242 determines whether the color is an effective color based on a point-by-point color in each image corresponding to a virtual point. In this case, the valid color determination unit 242 determines that the effective color is within the range of the variance of each color in each image within the set variance value. For example, when the corresponding point is normally photographed by each camera 11, the color of the corresponding point in each image appears to be similar to each other. On the other hand, when the point is abnormally photographed, . For example, when the variance is relatively large, it is highly likely that the color of the road surface is not obtained correctly because different objects are photographed at various points in time.

따라서, 유효 색상 판단부(242)는 이미지 내 지점별 색상의 분산이 설정 분산값 이내이면 해당 지점의 색상을 유효 색상으로 판단하고, 반면에 이미지 내 지점별 색상의 분산이 설정 분산값 이내가 아니면 해당 지점의 색상이 유효 색상이 아닌 것으로 판단한다. Therefore, when the variance of the color per point in the image is within the set variance value, the valid color determiner 242 determines the color of the corresponding point as the valid color, whereas if the variance of the color per point in the image is not within the set variance value It is determined that the color of the corresponding point is not an effective color.

평균 색상 적용부(243)는 유효 색상 판단부(242)의 판단 결과에 따라 각 이미지 내 지점의 색상을 이용하여 가상의 점의 색상을 설정한다. The average color application unit 243 sets the colors of the virtual points using the colors of the points in each image according to the determination result of the valid color determination unit 242. [

즉, 유효 색상 판단부(242)의 판단 결과 해당 지점의 색상이 유효 색상이면 평균 색상 적용부(243)는 이들 색상의 색상값을 평균하고, 그 평균 색상을 그레일 스케일로 변경한다. 도로면에서 도료가 도포된 지점은 반사강도가 상대적으로 크므로 해당 색상을 그레이 스케일로 변환할 경우 밝게 나타나고, 도료가 도포되지 않은 지점은 반사강도가 상대적으로 낮아 어둡게 나타난다. 이에, 평균 색상 적용부(243)가 색상을 그레이 스케일로 변환할 경우, 해당 지점에 도료가 도포되어 있는지에 따라 밝거나 또는 어둡게 나타나게 된다. That is, if the color of the corresponding point is an effective color as a result of the determination of the valid color determination unit 242, the average color application unit 243 averages the color values of the colors and changes the average color to the rail scale. Since the intensity of the reflection is relatively high at the point where the paint is applied on the road surface, the corresponding color appears bright when converted to gray scale, and the point where the paint is not applied appears dark because the reflection intensity is relatively low. Accordingly, when the average color application unit 243 converts the hue to gray scale, the average color application unit 243 appears bright or dark depending on whether the paint is applied to the corresponding point.

따라서, 평균 색상 적용부(243)는 이미지 내 해당 지점의 색상을 평균한 평균 색상을 그레이 스케일로 변경하고 그 변경된 색상을 해당 가상의 지점의 색상으로 설정한다. 이에, 해당 가상의 지점이 도료가 도포된 지점이면 해당 가상의 점은 밝은 색상으로 표시되고, 도료가 도포되지 않은 지점이면 해당 가상의 점은 어두운 색상으로 표시된다. 이러한 과정은 모든 가상의 점에 대해서 수행되며, 그 결과에 따라 폐색 영역이 복원될 수 있게 된다. Accordingly, the average color application unit 243 changes the average color obtained by averaging the color of the corresponding point in the image to gray scale, and sets the changed color as the color of the corresponding virtual point. Accordingly, if the virtual point is the point where the paint is applied, the virtual point is displayed in bright color, and if the point is not coated, the virtual point is displayed in dark color. This process is performed for all virtual points, and the occlusion region can be restored according to the result.

한편, 상기한 과정에서 유효 색상 판단부(242)의 판단 결과 해당 지점의 색상이 유효 색상이 아니면, 예제 기반 복원부(244)는 가상의 점을 중심으로 한 주변의 점군 정보를 이용하여 가상의 점의 색상을 설정한다. If the color of the corresponding point is not an effective color as a result of the determination of the valid color determination unit 242 in the above process, the example-based restoration unit 244 restores the virtual color using the point group information around the virtual point, Set the color of the point.

즉, 예제 기반 복원부(244)는 가상의 점을 중심으로 임의의 영역을 설정하고, 이 설정 영역 이내의 다른 점을 검출한다. 이어 예제 기반 복원부(244)는 검출된 다른 점과 가상의 점 간의 반사강도 및 색상의 유사도에 따라 가상의 점의 색상을 설정한다. 이 경우, 검출된 다른 점은 이미 복원된 가상의 점이거나 폐색 영역 이외에 존재하는 기 검출된 점이며, 폐색 영역 내 복원되지 않은 가상의 점이 아니다. In other words, the example-based restoration unit 244 sets an arbitrary area around a virtual point, and detects another point within the setting area. The example-based restoring unit 244 then sets the color of the virtual point according to the intensity of reflection and the similarity of color between the detected other point and the virtual point. In this case, the detected other point is a restored virtual point or a detected point existing outside the obstruction area, and is not a virtual point not restored in the obstruction area.

도 7 의 (a) 및 (b)에는 폐색 영역 내 가상의 점군이 균일한 밀도로 설정되고, 특히 설정영역(목표 복원 영역) 내 다른 점과 가상의 점 간의 반사강도 및 색상의 유사도에 따라 가상의 점의 색상을 설정함으로써, 도 7 의 (c)와 같이 설정영역을 복원한다. 7A and 7B, a virtual point cloud in the occlusion region is set to a uniform density, and in particular, a virtual point cloud is set in accordance with the reflection intensity and color similarity between different points in the setting region (target restoration region) The setting area is restored as shown in Fig. 7 (c).

이하 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 방법을 도 8 을 참조하여 상세하게 설명한다. Hereinafter, a method for restoring a road surface occluded region according to an embodiment of the present invention will be described in detail with reference to FIG.

도 8 은 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 방법을 도시한 도면이다. FIG. 8 is a diagram illustrating a road surface occluded region restoration method according to an embodiment of the present invention.

도 8 을 참조하면, 먼저 MMS(10) 내부의 라이더(12)가 3차원 점군을 검출한다. 이 경우, 이상 점군 제거부(21)는 라이더(12)를 통해 획득된 3차원 점군 중에서, 도로면에 해당하는 점군을 추출한다(S10). Referring to FIG. 8, first, the rider 12 inside the MMS 10 detects a three-dimensional point cloud. In this case, the abnormal point group removing unit 21 extracts a point group corresponding to the road surface from the three-dimensional point group obtained through the rider 12 (S10).

이어 이상 점군 제거부(21)는 도로면의 점군을 규정짓고 폐색 영역을 유발한 객체의 이상 점군을 제거한다(S20).Next, the abnormal point group removing unit 21 defines the point group on the road surface and removes the abnormal point group of the object that caused the obstruction area (S20).

이어, 폐색 영역 검출부(22)는 이상 점군 제거부(21)에 의해 제거된 영상에서 폐색 영역을 검출한다(S30).Next, the occluded region detecting section 22 detects the occluded region in the image removed by the abnormal point group removing section 21 (S30).

즉, 폐색 영역 검출부(22)는 3차원 점군 중 어느 하나의 점을 검출하고, 검출된 현재 점을 기준으로 주변 점군의 순번을 시계방향 또는 반시계방향으로 정렬한다. 이후, 폐색 영역 검출부(22)는 현재 점을 중심으로 하는 연속된 두 점의 사이각을 검출하고, 검출된 사이각이 주변 다른 사이각 보다 설정값 이상이면 현재 점을 외곽 점으로 인식한다. 이와 같이 외곽 점이 인식됨에 따라, 폐색 영역 검출부(22)는 외곽 점을 연결하는 외곽선을 생성하여 폐색 영역을 구분한다. 이 경우, 외곽의 점들로 구성되는 Convex hull이 생성되어 폐색 영역이 구분될 수 있다. That is, the closed-area detecting unit 22 detects any one point among the three-dimensional point cloud and aligns the order of the neighboring point cloud group clockwise or counterclockwise on the basis of the detected current point. Then, the closed-area detecting unit 22 detects an angle between two consecutive points around the current point, and recognizes the current point as an outlier point if the detected inter-angle is greater than or equal to a predetermined value among the surrounding inter-angle differences. As the outline points are recognized as described above, the occlusion area detecting unit 22 generates an outline connecting the outline points to separate the occlusion area. In this case, a convex hull composed of outer points is generated, and the occlusion region can be distinguished.

폐색 영역 검출부(22)에 의해 폐색 검출 영역이 검출됨에 따라, 점군 생성부(23)는 폐색 영역 검출부(22)에 의해 검출된 폐색 영역에 균일한 밀도의 가상의 점군을 생성한다(S40). 이 경우 가상의 점 각각에는 3차원 좌표가 정의되며, 반면에 반사강도 및 색상은 정의되지 않는다. As the occlusion detection region is detected by the occlusion region detection unit 22, the point cloud generation unit 23 generates a virtual point cloud having a uniform density in the occlusion region detected by the occlusion region detection unit 22 (S40). In this case, three-dimensional coordinates are defined in each virtual point, while reflection intensity and color are not defined.

점군 생성부(23)에 의해 폐색 영역 내 가상의 점군이 생성되면, 폐색 영역 복원부(24)는 점군 생성부(23)에 의해 생성된 가상의 점 각각의 3차원 좌표를 카메라(11)를 통해 다른 시점에서 획득한 이미지들에 투영함으로써, 투영된 가상의 점에 대응되는 각 이미지 내 지점별 색상을 검출한다(S50).When a virtual point cloud in the obstruction area is generated by the point cloud generator 23, the obstruction area restoration unit 24 restores the three-dimensional coordinates of each virtual point generated by the point cloud generator 23 to the camera 11 (Step S50). The color of each point in each image corresponding to the projected virtual point is detected.

이어 폐색 영역 복원부(24)는 투영부(241)에 의해 투영된 가상의 점에 대응되는 각 이미지 내 지점별 색상을 기반으로 유효 색상인지 여부를 판단한다(S60). 이 경우 유효 색상 판단부(242)는 이미지 내 지점별 색상의 분산이 설정 분산값 이내이면 해당 지점의 색상을 유효 색상으로 판단하고, 반면에 이미지 내 지점별 색상의 분산이 설정 분산값 이내가 아니면 해당 지점의 색상이 유효 색상이 아닌 것으로 판단한다. In operation S60, the clogging area restoration unit 24 determines whether the color is an effective color based on a point-by-point color in each image corresponding to a virtual point projected by the projection unit 241. In this case, the valid color determination unit 242 determines that the color of the corresponding point is an effective color when the variance of the point-by-point color in the image is within the set variance value, It is determined that the color of the corresponding point is not an effective color.

단계(S60)에서의 판단 결과 해당 지점의 색상이 유효 색상이면 평균 색상 적용부(243)는 이들 색상의 색상값을 평균하고, 그 평균 색상을 그레일 스케일로 변경하며, 변경된 색상을 해당 가상의 점에 설정한다(S70). 이 경우, 해당 가상의 지점이 도료가 도포된 지점이면 밝은 색상으로 표시되고 도료가 도포되지 않은 지점이면 어두운 색상으로 표시된다. As a result of the determination in step S60, if the color of the corresponding point is an effective color, the average color application unit 243 averages color values of the colors, changes the average color to the rail scale, (S70). In this case, the virtual point is displayed in bright color when the paint is applied, and dark color when the paint is not applied.

반면에, 단계(S60)에서의 판단 결과 해당 지점의 색상이 유효 색상이 아니면 평균 색상 적용부(243)는 가상의 점을 중심으로 임의의 영역을 설정하고, 이 설정 영역 이내의 다른 점을 검출한 후, 검출된 다른 점과 가상의 점 간의 반사강도의 유사도 및 색상의 유사도에 따라 가상의 점의 색상을 설정함으로써, 폐색 영역을 복원한다(S80). On the other hand, if it is determined in step S60 that the color of the corresponding point is not an effective color, the average color application unit 243 sets an arbitrary area around a virtual point and detects another point within the set point After that, the color of the virtual point is set according to the similarity degree of the reflection intensity between the detected other point and the virtual point and the similarity degree of the color, thereby restoring the occluded region (S80).

이와 같이, 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 장치 및 방법은 폐색으로 인해 획득 불가능한 3차원 정보를 복원함으로써 도로면 위의 차선 정보를 온전하게 획득할 수 있고, 이를 토대로 차선 정보를 차선 레벨의 고정밀 지도 구축에 활용할 수 있도록 하고, 차선 정보를 자동 차선 추출 모듈 등의 고품질 입력 데이터로 활용될 수 있다.As described above, the road surface clogging area restoration apparatus and method according to the embodiment of the present invention can completely acquire lane information on the road surface by restoring the three-dimensional information that is not obtainable due to occlusion, It is possible to utilize the lane information as high-quality input data such as an automatic lane extraction module.

또한, 본 발명의 일 실시예에 따른 도로면 폐색 영역 복원 장치 및 방법은 정확한 투영 및 다수 색상 이미지 정보를 사용함으로써, 종래의 스티칭(Stitching)이나 와핑(Warping)을 사용한 방식보다 명확한 색상 추정이 가능하고, 도로면 위의 차선 정보를 획득하는 비용을 크게 절감할 수 있다. In addition, the apparatus and method for restoring a road surface occluded region according to an exemplary embodiment of the present invention can perform more accurate color estimation than a conventional method using stitching or warping by using accurate projection and multi-color image information. And the cost of acquiring the lane information on the road surface can be greatly reduced.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation, I will understand. Accordingly, the true scope of the present invention should be determined by the following claims.

10: MMS 11: 카메라
12: 라이더 13: GPS
14: IMU
20: 도로면 폐색 영역 복원 장치
21: 이상 점군 제거부 22: 폐색 영역 검출부
221: 점 정렬부 222: 외곽 점 검출부
223: 폐색 영역 구분부 23: 점군 생성부
24: 폐색 영역 복원부 241: 투영부
242: 유효 색상 판단부 243: 평균 색상 적용부
244: 예제 기반 복원부
10: MMS 11: Camera
12: Rider 13: GPS
14: IMU
20: road surface obstruction area restoration device
21: abnormal point removing unit 22: closed area detecting unit
221: point alignment unit 222: outer edge point detection unit
223: Closed area dividing section 23: Point group generating section
24: closed region restoring unit 241:
242: valid color determination unit 243: average color application unit
244: Example-Based Restoration

Claims (15)

MMS(Mobile Mapping System)에 의해 획득된 3차원 점군에서 이상 점군을 제거하는 이상 점군 제거부;
상기 이상 점군 제거부에 의해 제거된 이상 점군이 영상에서 폐색 영역을 검출하는 폐색 영역 검출부;
상기 폐색 영역 검출부에 의해 검출된 폐색 영역에 가상의 점군을 생성하는 점군 생성부; 및
상기 점군 생성부에 의해 생성된 가상의 점 각각을 다시점 이미지로 투영하고, 다시점 이미지 내 가상의 점 각각의 색상을 그레이 스케일로 변경하여 폐색 영역을 복원하는 폐색 영역 복원부를 포함하는 도로면 폐색 영역 복원 장치.
Anomaly group elimination which removes abnormal point group from 3 - D point group obtained by MMS (Mobile Mapping System);
An occluded region detecting unit for detecting an occluded region in the image by the abnormal point group removed by the abnormal point group removing unit;
A point cloud generation unit for generating a virtual cloud point in the occluded region detected by the closed region detection unit; And
A blockage area restoration unit for restoring a blockage area by projecting each virtual point generated by the point group generation unit onto a multi-point image and changing the hue of each virtual point in the multi-point image to gray scale, Area restoration device.
제 1 항에 있어서, 상기 폐색 영역 검출부는 어느 한 점을 기준으로 주변 점군의 순번을 시계방향 또는 반시계방향으로 정렬하는 점 정렬부;
상기 점 정렬부에 의해 정렬된 점들 중에서 어느 한 점을 중심으로 하는 연속된 두 점의 사이각을 이용하여 폐색 영역의 외곽 점을 검출하는 외곽 점 검출부; 및
상기 외곽 점 검출부에 의해 검출된 외곽 점을 연결하는 외곽선을 생성하여 폐색 영역을 구분하는 폐색 영역 구분부를 포함하는 것을 특징으로 하는 도로면 폐색 영역 복원 장치.
The apparatus according to claim 1, wherein the closed region detecting unit comprises: a point aligning unit for aligning the order of peripheral point groups in a clockwise direction or a counterclockwise direction on the basis of a point;
An outer point detector for detecting an outer point of the obstruction area using an angle between two consecutive points centered on any one of the points arranged by the point aligner; And
And an obstruction area dividing unit for dividing the obstruction area by generating an outline connecting outer edge points detected by the outer edge point detecting unit.
제 2 항에 있어서, 상기 외곽 점 검출부는 어느 한 점을 중심으로 연속된 두 점의 사이각이 주변의 다른 사이각보다 설정값 이상이면 현재 점을 외곽 점으로 검출하는 것을 특징으로 하는 도로면 폐색 영역 복원 장치.
3. The road surface obstruction detecting apparatus according to claim 2, wherein the outer point detecting section detects the current point as an outer point when the angle between two consecutive points around a certain point is greater than or equal to a predetermined value, Area restoration device.
제 1 항에 있어서, 상기 점군 생성부는 가상의 점군을 균일한 밀도로 생성하는 것을 특징으로 하는 도로면 폐색 영역 복원 장치.
The apparatus of claim 1, wherein the point cloud generator generates a virtual point cloud at a uniform density.
제 1 항에 있어서, 상기 폐색 영역 복원부는
폐색 영역 내 가상의 점의 좌표를 2차원의 이미지들로 투영하는 투영부;
상기 투영부에 의해 투영된 가상의 점에 대응되는 각 이미지 내 지점별 색상을 기반으로 유효 색상인지 여부를 판단하는 유효 색상 판단부; 및
상기 유효 색상 판단부의 판단 결과에 따라 각 이미지 내 지점의 색상을 그레이 스케일로 변경하고, 변경된 색상을 가상의 점의 색상으로 설정하는 평균 색상 적용부를 포함하는 것을 특징으로 하는 도로면 폐색 영역 복원 장치.
The apparatus of claim 1, wherein the occlusion region restoration unit
A projection unit for projecting coordinates of virtual points in the occlusion region into two-dimensional images;
An effective color determination unit for determining whether an effective color is based on a point-by-point color in each image corresponding to a virtual point projected by the projection unit; And
And an average color application unit for changing the color of a point in each image to gray scale according to the determination result of the valid color determination unit and setting the changed color as a color of a virtual point.
제 5 항에 있어서, 상기 유효 색상 판단부는 각 이미지 내 지점별 색상의 분산이 설정 분산값 이내이면 유효 색상으로 판단하는 것을 특징으로 하는 도로면 폐색 영역 복원 장치.
6. The apparatus of claim 5, wherein the valid color determination unit determines that the effective color is a color if the variance of each point in each image is within a predetermined variance value.
제 5 항에 있어서, 상기 유효 색상 판단부는 각 이미지 내 지점의 색상을 평균하고, 평균 색상을 그레이스케일로 변경한 후, 변경된 그레이 스케일의 색상을 가상의 점의 색상으로 설정하는 것을 특징으로 하는 도로면 폐색 영역 복원 장치.
The method according to claim 5, wherein the valid color determination unit averages the colors of the points in each image, changes the average color to gray scale, and then sets the color of the changed gray scale to a virtual color of the point A facet clogging area restoration device.
제 5 항에 있어서, 상기 폐색 영역 복원부는 상기 유효 색상 판단부의 판단 결과 유효 색상이 아니면, 가상의 점을 중심으로 한 주변의 점군 정보를 이용하여 가상의 점의 색상을 설정하는 예제 기반 복원부를 더 포함하는 것을 특징으로 하는 도로면 폐색 영역 복원 장치.
6. The apparatus of claim 5, wherein the closed region restoration unit further includes an example-based restoration unit that sets a color of a virtual point using the nearby point group information about the virtual point as a result of the determination by the valid color determination unit And the road surface clogging area restoration device.
제 8 항에 있어서, 상기 예제 기반 복원부는 가상의 점을 중심으로 한 설정 영역 이내의 다른 점을 검출하고, 검출된 다른 점과 가상의 점 간의 반사강도 및 색상의 유사도에 따라 가상의 점의 색상을 설정하는 것을 특징으로 하는 도로면 폐색 영역 복원 장치.
9. The image processing apparatus according to claim 8, wherein the example-based restoration unit detects another point within a setting area centered on a virtual point, detects a color of a virtual point according to the reflection intensity between the detected other point and the virtual point, Is set to the road surface clogging area.
이상 점군 제거부가 MMS(Mobile Mapping System)에 의해 획득된 3차원 점군에서 이상 점군을 제거하는 단계;
폐색 영역 검출부가 상기 이상 점군 제거부에 의해 이상 점군이 제거된 영상에서 폐색 영역을 검출하는 단계;
점군 생성부가 상기 폐색 영역 검출부에 의해 검출된 폐색 영역에 가상의 점군을 생성하는 단계; 및
폐색 영역 복원부가 상기 점군 생성부에 의해 생성된 가상의 점 각각을 다시점 이미지로 투영하고, 다시점 이미지 내 가상의 점 각각의 색상을 그레이 스케일로 변경하여 폐색 영역을 복원하는 단계를 포함하는 도로면 폐색 영역 복원 방법.
Removing the abnormal point group from the three-dimensional point cloud obtained by the abnormal point cloud removal unit by the MMS (Mobile Mapping System);
Detecting an occlusion region in an image in which the abnormal point group is removed by the abnormal point group removing unit;
Generating a point cloud group in the occluded region detected by the occluded region detecting unit; And
A step of reconstructing a closed area by projecting each virtual point generated by the point group generating unit into a multi-point image by changing the color of each virtual point in the multi-point image into gray scale, A method for restoring a surface occluded region.
제 10 항에 있어서, 상기 폐색 영역 검출부는 어느 한 점을 기준으로 주변 점군의 순번을 시계방향 또는 반시계방향으로 정렬하고, 정렬된 점들 중에서 어느 한 점을 중심으로 하는 연속된 두 점의 사이각이 설정각 이상인지 여부에 따라 폐색 영역의 외곽 점을 검출한 후, 검출된 외곽 점을 연결하는 외곽선을 생성하여 폐색 영역을 구분하는 것을 특징으로 하는 도로면 폐색 영역 복원 방법.
The apparatus according to claim 10, wherein the occlusion area detecting unit aligns the order of the peripheral point groups in a clockwise or counterclockwise direction on the basis of any one point, and calculates a distance between two consecutive points centered on any one of the aligned points Wherein the method comprises the steps of: detecting an outline point of the occlusion region according to whether the set angle is greater than or equal to the set angle, and generating an outline connecting the detected outline points to distinguish the occlusion region.
제 10 항에 있어서, 상기 점군 생성부는 가상의 점군을 균일한 밀도로 생성하는 것을 특징으로 하는 도로면 폐색 영역 복원 방법.
11. The method of claim 10, wherein the point cloud generator generates a virtual point cloud at a uniform density.
제 10 항에 있어서, 상기 폐색 영역 복원부는 폐색 영역 내 가상의 점의 좌표를 2차원의 이미지들로 투영하고, 투영된 가상의 점에 대응되는 각 이미지 내 지점별 색상의 분산을 기반으로 유효 색상인지 여부를 판단하여 판단 결과에 따라 각 이미지 내 지점의 색상을 그레이 스케일로 변경한 후, 변경된 색상을 가상의 점의 색상으로 설정하는 것을 특징으로 하는 도로면 폐색 영역 복원 방법.
11. The image processing apparatus according to claim 10, wherein the occluded region restoration unit projects the coordinates of virtual points in the occlusion region into two-dimensional images, and based on the distribution of the per-point color in each image corresponding to the projected virtual point, And changing the color of a point in each image to gray scale and then setting the changed color as a color of a virtual point.
제 10 항에 있어서, 상기 유효 색상 판단부는 각 이미지 내 지점의 색상을 평균하고, 평균 색상을 그레이 스케일로 변경한 후, 변경된 그레이 스케일의 색상을 가상의 점의 색상으로 설정하는 것을 특징으로 하는 도로면 폐색 영역 복원 방법.
11. The method according to claim 10, wherein the valid color determination unit averages the colors of the points in each image, changes the average color to gray scale, and then sets the color of the changed gray scale to the virtual color of the point A method for restoring a surface occluded region.
제 10 항에 있어서, 예제 기반 복원부가 가상의 점을 중심으로 한 설정 영역 이내의 다른 점을 검출하고, 검출된 다른 점과 가상의 점 간의 반사강도 및 색상의 유사도에 따라 가상의 점의 색상을 설정하는 단계를 더 포함하는 것을 특징으로 하는 도로면 폐색 영역 복원 방법. 11. The method of claim 10, wherein the example-based restoration unit detects another point within a setting area centered on a virtual point, and calculates a color of a virtual point according to the reflection intensity and color similarity between the detected other point and the virtual point Further comprising the step of setting the road surface clogging area.
KR1020160161367A 2016-11-30 2016-11-30 Apparatus and method for inpainting occlusion of road surface Active KR102790812B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160161367A KR102790812B1 (en) 2016-11-30 2016-11-30 Apparatus and method for inpainting occlusion of road surface
PCT/KR2017/013839 WO2018101746A2 (en) 2016-11-30 2017-11-29 Apparatus and method for reconstructing road surface blocked area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160161367A KR102790812B1 (en) 2016-11-30 2016-11-30 Apparatus and method for inpainting occlusion of road surface

Publications (2)

Publication Number Publication Date
KR20180061803A true KR20180061803A (en) 2018-06-08
KR102790812B1 KR102790812B1 (en) 2025-04-04

Family

ID=62241576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160161367A Active KR102790812B1 (en) 2016-11-30 2016-11-30 Apparatus and method for inpainting occlusion of road surface

Country Status (2)

Country Link
KR (1) KR102790812B1 (en)
WO (1) WO2018101746A2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102150954B1 (en) * 2020-04-06 2020-09-02 주식회사 맥스트 Apparatus and method for processing point cloud
KR20220023853A (en) 2020-08-20 2022-03-03 (주)신한항업 Data set producing system and method used by deeplearning for search dead zone in image
KR20240081658A (en) 2022-11-30 2024-06-10 (주)신한항업 Mms linkage method and image processing system for automatic occlusion area restoration

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114594486B (en) * 2020-12-04 2025-05-30 上海禾赛科技有限公司 Method, processor and laser radar system for filtering out drag points in radar point cloud
JP2022123238A (en) * 2021-02-12 2022-08-24 本田技研工業株式会社 Division line recognition device
US20230401728A1 (en) * 2022-06-08 2023-12-14 GM Global Technology Operations LLC System and method for occlusion reconstruction in surround views using temporal information

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090082782A (en) * 2008-01-28 2009-07-31 삼성전자주식회사 Method and apparatus of inpainting image according to change of viewpoint
KR20110044092A (en) * 2009-10-22 2011-04-28 한국전자통신연구원 Apparatus and method for modeling buildings
KR20120026662A (en) * 2010-09-10 2012-03-20 삼성전자주식회사 Apparatus and method for inpainting in occlusion
KR20130004746A (en) * 2011-07-04 2013-01-14 (주)아세아항측 Method for field survey of digital mapping road layers using vehicle mobile mapping system
KR20140037301A (en) * 2012-09-11 2014-03-27 (주)리얼디스퀘어 An apparatus for converting scales in three-dimensional images and the method thereof
KR101677972B1 (en) * 2016-07-26 2016-11-21 주식회사 싸인텔레콤 The apparatus and method of multi-lane car plate detection and recognition

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100995400B1 (en) * 2010-06-29 2010-11-19 한진정보통신(주) System for extracting building outline using terrestrial lidar
US8429195B2 (en) * 2011-05-13 2013-04-23 Hntb Holdings Ltd Managing large datasets obtained through a survey-data-acquisition process

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090082782A (en) * 2008-01-28 2009-07-31 삼성전자주식회사 Method and apparatus of inpainting image according to change of viewpoint
KR20110044092A (en) * 2009-10-22 2011-04-28 한국전자통신연구원 Apparatus and method for modeling buildings
KR20120026662A (en) * 2010-09-10 2012-03-20 삼성전자주식회사 Apparatus and method for inpainting in occlusion
KR20130004746A (en) * 2011-07-04 2013-01-14 (주)아세아항측 Method for field survey of digital mapping road layers using vehicle mobile mapping system
KR20140037301A (en) * 2012-09-11 2014-03-27 (주)리얼디스퀘어 An apparatus for converting scales in three-dimensional images and the method thereof
KR101677972B1 (en) * 2016-07-26 2016-11-21 주식회사 싸인텔레콤 The apparatus and method of multi-lane car plate detection and recognition

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102150954B1 (en) * 2020-04-06 2020-09-02 주식회사 맥스트 Apparatus and method for processing point cloud
WO2021206200A1 (en) * 2020-04-06 2021-10-14 주식회사 맥스트 Device and method for processing point cloud information
KR20220023853A (en) 2020-08-20 2022-03-03 (주)신한항업 Data set producing system and method used by deeplearning for search dead zone in image
KR20240081658A (en) 2022-11-30 2024-06-10 (주)신한항업 Mms linkage method and image processing system for automatic occlusion area restoration

Also Published As

Publication number Publication date
WO2018101746A3 (en) 2018-08-16
KR102790812B1 (en) 2025-04-04
WO2018101746A2 (en) 2018-06-07

Similar Documents

Publication Publication Date Title
KR20180061803A (en) Apparatus and method for inpainting occlusion of road surface
EP3373251B1 (en) Scan colorization with an uncalibrated camera
EP3754295B1 (en) Three-dimensional measuring system and three-dimensional measuring method
US10260862B2 (en) Pose estimation using sensors
JP6295645B2 (en) Object detection method and object detection apparatus
US10452949B2 (en) System and method for scoring clutter for use in 3D point cloud matching in a vision system
JP6363863B2 (en) Information processing apparatus and information processing method
CN105551020B (en) A kind of method and device detecting object size
García-Moreno et al. LIDAR and panoramic camera extrinsic calibration approach using a pattern plane
JP6544257B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
KR20170139548A (en) Camera extrinsic parameters estimation from image lines
KR101709317B1 (en) Method for calculating an object's coordinates in an image using single camera and gps
WO2018222122A1 (en) Methods for perspective correction, computer program products and systems
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP6396499B2 (en) Scale measurement of 3D information
US8218824B2 (en) Spatial information database generating device and spatial information database generating program
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
CN106034213B (en) Generate the method, apparatus and system of light carving project content
Siswantoro et al. Real world coordinate from image coordinate using single calibrated camera based on analytic geometry
CA3122865A1 (en) Method for detecting and modeling of object on surface of road
JPH09231370A (en) Picture information input device
Mazzei et al. A lasers and cameras calibration procedure for VIAC multi-sensorized vehicles
JP2015033047A (en) Depth estimation device using multiple cameras
KR20220078447A (en) Operation method of image restoration apparatus for restoring low-density area
KR20120056668A (en) Apparatus and method for recovering 3 dimensional information

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20161130

PG1501 Laying open of application
PN2301 Change of applicant

Patent event date: 20211015

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20211103

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20161130

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240725

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20250305

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20250331

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20250401

End annual number: 3

Start annual number: 1

PG1601 Publication of registration