[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102705853B1 - 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 - Google Patents

항공 뷰 영상 기반 지도의 3차원 객체 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 Download PDF

Info

Publication number
KR102705853B1
KR102705853B1 KR1020240029621A KR20240029621A KR102705853B1 KR 102705853 B1 KR102705853 B1 KR 102705853B1 KR 1020240029621 A KR1020240029621 A KR 1020240029621A KR 20240029621 A KR20240029621 A KR 20240029621A KR 102705853 B1 KR102705853 B1 KR 102705853B1
Authority
KR
South Korea
Prior art keywords
processing area
map
road
objects
generating
Prior art date
Application number
KR1020240029621A
Other languages
English (en)
Inventor
김재승
조하연
Original Assignee
주식회사 모빌테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모빌테크 filed Critical 주식회사 모빌테크
Priority to KR1020240029621A priority Critical patent/KR102705853B1/ko
Application granted granted Critical
Publication of KR102705853B1 publication Critical patent/KR102705853B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Architecture (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 항공 뷰 영상을 이용하여 제작된 3차원 지도 상에 3차원 객체를 생성하기 위한, 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법을 제안한다. 상기 방법은 지도 생성 장치가, 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 객체 모델을 생성하기 위한 가공 영역을 지정하는 단계, 상기 지도 생성 장치가, 상기 지정된 가공 영역에 생성할 객체 모델의 종류를 선택하는 단계 및 상기 지도 생성 장치가, 상기 선택된 종류에 대응하여 사전 저장된 객체 모델을 상기 지정된 가공 영역 내에 생성하는 단계를 포함할 수 있다.

Description

항공 뷰 영상 기반 지도의 3차원 객체 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램{Method for creating 3D objects for aerial view video based map, and computer program recorded on record-medium for executing method therefor}
본 발명은 지도 생성 방법에 관한 것이다. 보다 상세하게는, 항공 뷰 영상을 이용하여 제작된 3차원 지도 상에 3차원 객체를 생성하기 위한, 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램에 관한 것이다.
무인항공기(unmanned aerial vehicle)는 조종사가 비행체에 직접 탑승하지 않고, 지상에서 원격조종(remote piloted), 사전 프로그램 된 경로에 따라 자동(auto-piloted) 또는 반자동(semi-auto-piloted) 형식으로 자율비행 하거나 인공지능을 탑재하여 자체 환경판단에 따라 임무를 수행하는 비행체, 탑재임무장비(payload), 지상통제장비(GCS: ground control system or station), 통신장비(데이터 링크: data link), 지원장비(support equipment) 및 운용인력(operators)의 전체 시스템을 통칭한다.
무인항공기는 크게 사용 용도에 따라 군사용과 민간용으로 분류된다. 무인항공기 사용의 초창기에는 군사 분야에서 감시 및 정찰 용도로 활용되었으나, 최근에는 다양한 민간 분야에서 활용되고 있다. 민간용 무인항공기는 통상적으로 각 산업계에서 배송, 방제, 방송/영화 촬영, 인프라 관리 등에 사용되는 사업용 무인항공기와, 오락 및 스포츠 분야에서 개인용 촬영, 레이싱 무인항공기 등으로 사용되는 개인용 무인항공기로 분류된다.
한편, 무인항공기 시뮬레이터는 무인항공기를 비행하는 경험을 가상 환경에서 재현하는 플랫폼이다. 이를 통해, 사용자는 실제 무인항공기를 충돌하거나 손상시킬 위험 없이 비행 연습을 수행할 수 있다. 일반적으로, 초보자는 시뮬레이터를 이용하여 비행의 기초를 습득하고, 숙련된 조종사는 비행 기술을 향상시키거나 새로운 조종을 테스트할 수 있다.
무인항공기 시뮬레이터는 건설, 농업, 물류, 보험, 화학, 광업 등 다양한 산업 분야에서 무인항공기 기술의 채택이 증가함에 따라 효과적인 훈련 및 시뮬레이션에 대한 수요가 증가하면서 크게 성장하고 있다. 또한, 군사 및 국방 부분에서 구조 임무, 정보, 정찰, 감시, 물류, 재난 구호 등의 임무를 위해 무인항공기 사용이 증가함에 따라 무인항공기에 대한 수요도 증가하고 있다.
이러한, 무인항공기 시뮬레이터를 효과적으로 구현하기 위해서는 실제 비행 환경과 흡사한 지도 구현이 필요하다. 일반적으로, 무인항공기 시뮬레이터에 사용되는 지도는 무인항공기, 열기구, 비행기 등과 같은 비행체를 통해 공중에서 촬영되는 항공 뷰 영상을 이용하여 제작된다. 그러나, 항공 뷰 영상을 이용하여 제작되는 지도는 지면에 존재하는 다양한 객체들의 3차원 정보를 반영하지 못하는 문제점이 있었다.
대한민국 공개특허공보 제10-2022-0163227호, ‘드론을 이용한 3차원 지도 제작 방법’, (2022.12.09. 공개)
본 발명의 일 목적은 항공 뷰 영상을 이용하여 제작된 3차원 지도 상에 3차원 객체를 생성하기 위한, 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법을 제공하는 것이다.
본 발명의 다른 목적은 항공 뷰 영상을 이용하여 제작된 3차원 지도 상에 3차원 객체를 생성하기 위한, 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법을 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램을 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 항공 뷰 영상을 이용하여 제작된 3차원 지도 상에 3차원 객체를 생성하기 위한, 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법을 제안한다. 상기 방법은 지도 생성 장치가, 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 객체 모델을 생성하기 위한 가공 영역을 지정하는 단계, 상기 지도 생성 장치가, 상기 지정된 가공 영역에 생성할 객체 모델의 종류를 선택하는 단계 및 상기 지도 생성 장치가, 상기 선택된 종류에 대응하여 사전 저장된 객체 모델을 상기 지정된 가공 영역 내에 생성하는 단계를 포함할 수 있다.
구체적으로, 상기 지정하는 단계는 상기 지도 상에서 복수개의 포인트들을 선택받고, 상기 선택받은 순서를 기초로 상기 복수개의 포인트들을 연결하여 생성된 다각형을 상기 가공 영역으로 지정하는 것을 특징으로 한다.
상기 지정하는 단계는 상기 지도 상에서 적어도 하나의 객체를 선택받고, 상기 선택받은 객체를 기준으로 상기 객체와 유사도가 사전 설정된 값보다 높은 유사 객체들의 집합을 식별하고, 상기 식별된 유사 객체들을 모두 포함하는 영역을 상기 가공 영역으로 지정하는 것을 특징으로 한다.
상기 지정하는 단계는 상기 선택받은 객체의 RGB(Red, Green, Blue) 값을 기초로 상기 유사도를 판단하여 유사 객체들의 집합을 식별하는 것을 특징으로 한다.
상기 지정하는 단계는 상기 항공 뷰 영상과 함께 라이다(lidar)에 의해 획득된 점군(point cloud) 데이터에 포함된 깊이 정보에 기초하여 상기 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 상기 식별된 복수개의 객체들의 평균 높이를 추정하고, 상기 추정된 평균 높이를 기준으로 상기 가공 영역의 높이를 지정하는 것을 특징으로 한다.
상기 지정하는 단계는 상기 지정된 가공 영역의 지도 상의 실제 위치를 식별하고, 상기 식별된 실제 위치와 대응되는 토지의 건물에 대한 고도 제한 정보를 추출하고, 상기 추출된 고도 제한 정보를 기초로 상기 가공 영역의 높이를 지정하는 것을 특징으로 한다.
상기 지정하는 단계는 상기 지정된 가공 영역의 실제 위치를 식별하고, 상기 가공 영역 내에 존재하는 건물들의 높이 정보를 추출하고, 상기 추출된 건물들의 높이에 대한 평균 값으로 상기 가공 영역의 높이를 지정하는 것을 특징으로 한다.
상기 선택하는 단계는 상기 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 상기 식별된 객체들의 형상을 기초로 상기 식별된 객체들의 종류를 분류하고, 상기 가공 영역 내에 가장 많이 존재하는 객체의 종류를 상기 객체 모델의 종류로 선택하는 것을 특징으로 한다.
상기 선택하는 단계는 상기 가공 영역 내에 존재하는 엣지(edge)를 추출하고, 상기 추출된 엣지에 의한 폐쇄 영역(enclosure)을 하나 이상 추출하고, 상기 추출된 폐쇄 영역을 통해 상기 가공 영역 내에 존재하는 복수개의 객체들을 식별하는 것을 특징으로 한다.
상기 선택하는 단계는 상기 선택된 객체의 종류와 대응되는 사전 저장된 객체 모델 리스트를 디스플레이 하고, 상기 디스플레이 된 객체 모델 리스트 중 하나를 선택받는 것을 특징으로 한다.
상기 선택하는 단계는 상기 가공 영역 내에서 적어도 하나의 포인트를 선택받고, 상기 선택된 포인트에 해당되는 픽셀의 RGB 값을 기준으로, 상기 선택된 객체 모델의 색상을 설정하는 것을 특징으로 한다.
상기 생성하는 단계는 상기 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 상기 식별된 복수개의 객체들 각각의 위치에 상기 선택된 객체 모델을 생성하되, 상기 식별된 복수개의 객체들 각각의 넓이를 산출하고, 상기 산출된 넓이를 기초로 상기 객체 모델의 넓이를 달리하여 생성하는 것을 특징으로 한다.
상기 컴퓨터 프로그램은 송수신기(transceiver), 메모리(memory) 및 상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합될 수 있다. 그리고, 상기 컴퓨터 프로그램은 상기 프로세서가, 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 객체 모델을 생성하기 위한 가공 영역을 지정하는 단계, 상기 프로세서가, 상기 지정된 가공 영역에 생성할 객체 모델의 종류를 선택하는 단계 및 상기 프로세서가, 상기 선택된 종류에 대응되는 적어도 하나의 객체 모델을 상기 지정된 가공 영역 내에 생성하는 단계; 를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.
기타 실시 예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시 예들에 따르면, 간단한 과정을 통해 항공 뷰 영상을 기초로 생성된 지도 상에 3차원 정보를 반영한 객체 모델을 효과적으로 생성할 수 있다. 이를 통해, 현실과 흡사한 환경에서 비행체의 시뮬레이션을 수행할 수 있도록 지원할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과로 제한되지 아니하며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 본 발명이 속한 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 지도 생성 시스템을 설명하기 위한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 지도 생성 시스템의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 지도 생성 장치의 논리적 구성도이다,
도 4 내지 도 11은 본 발명의 일 실시예에 따른 지도 생성 장치의 기능을 설명하기 위한 예시도이다.
도 12는 본 발명의 일 실시예에 따른 지도 생성 장치의 하드웨어 구성도이다.
도 13은 본 발명의 일 실시예에 따른 3차원 객체 생성 방법을 설명하기 위한 순서도이다.
도 14는 본 발명의 일 실시예에 따른 도로 생성 방법을 설명하기 위한 순서도이다.
도 15는 본 발명의 일 실시예에 따른 교통 정보 생성 방법을 설명하기 위한 순서도이다.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다. 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다.
한편, 무인항공기 시뮬레이터를 효과적으로 구현하기 위해서는 실제 비행 환경과 흡사한 지도 구현이 필요하다. 일반적으로, 무인항공기 시뮬레이터에 사용되는 지도는 무인항공기, 에드벌룬, 항공기 등과 같은 비행체를 통해 공중에서 촬영되는 항공 뷰 영상을 이용하여 제작된다. 그러나, 항공 뷰 영상을 이용하여 제작되는 지도는 지면에 존재하는 다양한 객체들의 3차원 정보를 반영하지 못하는 문제점이 있었다.
이러한 한계를 극복하고자, 본 발명은 항공 뷰 영상을 이용하여 제작된 3차원 지도 상에 객체들의 3차원 정보를 반영할 수 있는 다양한 수단들을 제안하고자 한다.
도 1은 본 발명의 일 실시예에 따른 지도 생성 시스템을 설명하기 위한 예시도이고, 도 2는 본 발명의 일 실시예에 따른 지도 생성 시스템의 구성도이다.
구체적으로, 도 1은 항공 뷰 영상을 이용하여 생성된 3차원 지도 상에 가상의 무인항공기(A)를 배치하여 비행 시뮬레이션을 수행하고 있는 상태를 나타낸 도면이다.
본 발명의 일 실시예에 따른 지도 생성 시스템(300)은 이와 같은 무인항공기(A)의 비행 시뮬레이션을 위한 3차원 지도 제작에 사용될 수 있다. 하지만, 이에 한정된 것은 아니고, 지도 생성 시스템(300)은 항공 뷰 영상을 이용하여 생성된 3차원 지도를 활용하는 다양한 분야에서 적용될 수 있다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 지도 생성 시스템(300)은 데이터 수집 장치(100) 및 지도 생성 장치(200)를 포함하여 구성될 수 있다.
이와 같은, 본 발명의 일 실시예에 따른 지도 생성 시스템(300)의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.
각각의 구성 요소에 대하여 설명하면, 데이터 수집 장치(100)는 비행체에 탑재되어 지도 생성에 필요한 데이터를 수집할 수 있다. 여기서, 비행체는 무인항공기(UAV, Unmanned Aerial Vehicle)로 도시되어 있지만, 이에 한정된 것은 아니고, 열기구(hot air balloon), 비행기(airplane) 등과 같은 다양한 종류의 비행체가 적용될 수 있다.
구체적으로, 데이터 수집 장치(100)는 카메라(camera) 및 라이다(lidar)를 포함하여 구성될 수 있다. 하지만, 이에 한정된 것은 아니고, 데이터 수집 장치(100)는 지도를 생성하기 위하여 다양한 정보를 센싱 할 수 있는 센서들이 적용될 수 있다.
특히, 데이터 수집 장치(100)는 카메라로부터 촬영된 항공 뷰(aerial view) 영상을 획득할 수 있으며, 라이다로부터 점군(point cloud) 데이터를 획득할 수 있다.
여기서, 카메라는 비행체에 탑재되어 비행 중 지면을 촬영한 이미지를 획득할 수 있다. 이러한, 카메라는 컬러(Color) 카메라, 근적외선(NIR, Near InfraRed) 카메라, 단적외선(SWIR, Short Wavelength InfraRed) 카메라 및 장적외선(LWIR, Long WaveLength InfraRed) 카메라 중에서 어느 하나를 포함할 수 있다.
라이다는 비행체에 탑재되어 지면을 향해 레이저 펄스를 발사하고 지면에 존재하는 객체들에 의해 반사되어 돌아온 빛을 감지하여, 지면에 대한 3차원 영상에 해당하는 점군 데이터를 생성할 수 있다.
다음 구성으로, 지도 생성 장치(200)는 데이터 수집 장치(100)로부터 획득된 항공 뷰 영상 또는 점군 데이터를 수신하고, 수신된 항공 뷰 영상 또는 점군 데이터를 기초로 3차원 지도를 생성할 수 있다.
일 실시예로, 지도 생성 장치(200)는 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 객체 모델을 생성하기 위한 가공 영역을 지정하고, 지정된 가공 영역에 생성할 객체 모델의 종류를 선택하고, 선택된 종류에 대응하여 사전 저장된 객체 모델을 지정된 가공 영역 내에 생성할 수 있다.
다른 실시예로, 지도 생성 장치(200)는 항공 뷰 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 도로 모델을 생성하기 위한 단위 도로 모델을 지도 상에 생성하고, 생성된 단위 도로 모델을 지도 상의 대응되는 도로에 배치하고, 배치된 단위 도로 모델을 연장하여 도로 모델을 생성할 수 있다.
또 다른 실시예로, 지도 생성 장치(200)는 지도 생성 장치가, 항공 뷰 영상을 기초로 생성된 지도 상에 3차원 도로 모델을 생성하고, 생성된 3차원 도로 모델에 교통 정보를 생성할 수 있다.
한편, 지도 생성 장치(200)에 관한 구체적인 설명에 대해서는 이하 도 3 내지 도 12를 참조하여 설명하도록 한다.
이와 같은 특징을 가지는, 지도 생성 장치(200)는 데이터 수집 장치(100) 및 정보 제공 장치(300)와 데이터를 송수신하고, 송수신된 데이터를 기초로 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 캘리브레이션 장치(200)는 데스크탑(desktop), 워크스테이션(workstation) 또는 서버(server)와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으나, 이에 한정되는 것은 아니다.
상술한 바와 같은, 데이터 수집 장치(100) 및 지도 생성 장치(200)는 장치들 사이에 직접 연결된 보안회선, 공용 유선 통신망 또는 이동 통신망 중 하나 이상이 조합된 네트워크를 이용하여 데이터를 송수신할 수 있다.
예를 들어, 공용 유선 통신망에는 이더넷(ethernet), 디지털가입자선(x Digital Subscriber Line, xDSL), 광동축 혼합망(Hybrid Fiber Coax, HFC), 광가입자망(Fiber To The Home, FTTH)가 포함될 수 있으나, 이에 한정되는 것도 아니다. 그리고, 이동 통신망에는 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 와이드 밴드 코드 분할 다중 접속(Wideband CDMA, WCDMA), 고속 패킷 접속(High Speed Packet Access, HSPA), 롱텀 에볼루션(Long Term Evolution, LTE), 5세대 이동통신(5th generation mobile telecommunication)가 포함될 수 있으나, 이에 한정되는 것은 아니다.
이하, 본 발명의 일 실시예에 따른 지도 생성 장치의 논리적 구성에 대하여 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른 지도 생성 장치의 논리적 구성도이고, 도 4 내지 도 11은 본 발명의 일 실시예에 따른 지도 생성 장치의 기능을 설명하기 위한 예시도이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 지도 생성 장치(200)는 통신부(205), 입출력부(210), 지도 생성부(215), 객체 생성부(220), 도로 생성부(225) 및 교통 정보 생성부(230)를 포함하여 구성될 수 있다.
이와 같은, 지도 생성 장치(200)의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.
각각의 구성 요소에 대하여 설명하면, 통신부(205)는 데이터 수집 장치(100)와 데이터를 송수신할 수 있다. 구체적으로, 통신부(205)는 데이터 수집 장치(100)로부터 카메라를 통해 촬영된 항공 뷰 영상과, 라이다에 의해 획득된 점군 데이터를 수신할 수 있다.
다음 구성으로, 입출력부(210)는 사용자 인터페이스(UI)를 통해 사용자로부터 신호를 입력 받거나, 연산 결과를 외부로 출력할 수 있다. 구체적으로, 입출력부(210)는 지도 생성을 위한 설정 정보들을 입력 받을 수 있다. 또한, 입출력부(210)는 지도 생성 과정에서 사용자로부터 다양한 선택 신호를 입력 받을 수 있다. 그리고, 입출력부(210)는 지도 생성 과정에서 다양한 결과물을 출력할 수 있다.
다음 구성으로, 지도 생성부(215)는 데이터 수집 장치(100)로부터 수신된 항공 뷰 영상을 이용하여 3차원 지도를 생성할 수 있다.
구체적으로, 지도 생성부(215)는 항공 뷰 영상 및 촬영 기준점 측량 데이터를 데이터 수집 장치(100)로부터 수신할 수 있으며, 수신된 데이터를 기반으로 편위 보정된 정사 영상을 생성할 수 있다. 지도 생성부(215)는 생성된 정사 영상을 3차원 공간 상에 배치하여 3차원 지도를 생성할 수 있다.
다음 구성으로, 객체 생성부(220)는 항공 뷰 영상을 이용하여 제작된 3차원 지도 상에 3차원 객체를 생성할 수 있다. 예를 들어, 3차원 객체는 건물 또는 나무가 될 수 있다.
3차원 객체를 생성하기 위하여, 객체 생성부(220)는 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 객체 모델을 생성하기 위한 가공 영역을 지정할 수 있다.
가공 영역을 지정하기 위하여 객체 생성부(220)는 지도 상에서 객체를 생성하기 위한 넓이를 지정할 수 있다.
일 실시예로, 객체 생성부(220)는 지도 상에서 복수개의 포인트들을 선택받고, 선택받은 순서를 기초로 복수개의 포인트들을 연결하여 생성된 다각형을 가공 영역으로 지정할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 객체 생성부(220)는 사용자로부터 지도 상에 객체를 생성하기 위한 영역의 테두리를 따라 순차적으로 복수개의 포인트들(A)을 선택받고, 선택된 복수개의 포인트들(A)을 연결하여 가공 영역(B)을 생성할 수 있다.
다른 실시예로, 객체 생성부(220)는 지도 상에서 적어도 하나의 객체를 선택받고, 선택받은 객체를 기준으로 객체와 유사도가 사전 설정된 값보다 높은 유사 객체들의 집합을 식별하고, 식별된 유사 객체들을 모두 포함하는 영역을 가공 영역으로 지정할 수 있다. 이때, 객체 생성부(220)는 선택받은 객체의 RGB(Red, Green, Blue) 값을 기초로 유사도를 판단하여 유사 객체들의 집합을 식별할 수 있다. 예를 들어, 객체 생성부(220)는 사용자로부터 특정 건물이 선택된 경우, 선택된 건물의 RGB 값을 이용하여 사전 설정된 거리만큼 인접한 유사 객체들을 추적하여 유사 객체들의 집합을 식별할 수 있다.
이때, 객체 생성부(220)는 객체를 선택한 지점에 대한 픽셀(pixel)의 RGB 값을 기초로 유사 객체를 식별할 수 있다. 하지만, 이에 한정된 것은 아니고, 객체 생성부(220)는 선택된 객체의 픽셀에 대한 RGB 히스토그램을 생성하고, 생성된 RGB 히스토그램을 비교하여 유사도를 산출할 수 있다. 여기서 RGB 히스토그램은 이미지에서 각 원색(RGB)의 밝기 분포를 나타내는 그래프이다. 예를 들어, RGB 히스토그램은 가로축이 컬러의 밝기 레벨을 표시하며, 세로축이 컬러의 밝기 레벨에 할당된 픽셀 수로 표시되고, 좌측으로 치우친 픽셀 수가 많을수록 색상이 어둡고 덜 선명하게 표현되며, 우측으로 치운 친 픽셀 수가 많을수록 색상이 더 밝고 진하게 표현될 수 있다. 이와 같이, 객체 생성부(220)는 RGB 히스토그램을 통해 샘플 이미지에 포함된 객체 및 기존 이미지에 포함된 객체의 색상의 채도와 계조 상태, 화이트 밸런스의 성향 등을 비교하여 유사도를 산출할 수 있다. 하지만, 이에 한정된 것은 아니고, 객체 생성부(220)는 추출된 객체의 엣지에 대한 모멘트(moment)를 비교하여 유사도를 산출할 수 있다.
또한, 객체 생성부(220)는 앞서 지정된 영역에 대한 높이를 설정할 수 있다.
일 실시예로, 객체 생성부(220)는 사용자로부터 가공 영역에 대한 높이를 입력받을 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 객체 생성부(220)는 가공 영역의 넓이에 해당되는 영역(A)을 1차로 선택하고, 선택된 영역으로부터 드래그(drag) 동작을 통해 가공 영역의 높이(B)를 설정하여 3차원 형상의 가공 영역(C)을 생성할 수 있다.
다른 실시예로, 객체 생성부(220)는 항공 뷰 영상과 함께 라이다(lidar)에 의해 획득된 점군(point cloud) 데이터에 포함된 깊이 정보에 기초하여 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 식별된 복수개의 객체들의 평균 높이를 추정하고, 추정된 평균 높이를 기준으로 가공 영역의 높이를 지정할 수 있다. 이때, 객체 생성부(220)는 깊이 차이가 사전 설정된 값 미만인 점들의 집합을 객체로 추정할 수 있다.
다른 실시예로, 객체 생성부(220)는 지정된 가공 영역의 지도 상의 실제 위치를 식별하고, 식별된 실제 위치와 대응되는 토지의 건물에 대한 고도 제한 정보를 추출하고, 추출된 고도 제한 정보를 기초로 가공 영역의 높이를 지정할 수 있다. 예를 들어, 객체 생성부(220)는 위치에 대응하여 고도 제한 정보를 저장하는 데이터베이스에 접속하여, 가공 영역과 대응되는 실제 위치를 검색함으로써 가공 영역의 고도 제한 정보를 추출할 수 있다.
또 다른 실시예로, 객체 생성부(220)는 지정된 가공 영역의 실제 위치를 식별하고, 가공 영역 내에 존재하는 건물들의 높이 정보를 추출하고, 추출된 건물들의 높이에 대한 평균 값으로 가공 영역의 높이를 지정할 수 있다. 예를 들어, 객체 생성부(220)는 위치에 대응하여 건물의 높이 정보를 저장하는 데이터베이스에 접속하여, 가공 영역과 대응되는 건물을 검색함으로써 가공 영역의 높이 정보를 추출할 수 있다.
다음으로, 객체 생성부(220)는 지정된 가공 영역에 생성할 객체 모델의 종류를 선택할 수 있다. 즉, 객체 생성부(220)는 건물, 나무 등의 생성할 객체의 종류를 선택할 수 있다.
일 실시예로, 객체 생성부(220)는 사용자로부터 생성할 객체의 종류를 입력받을 수 있다. 예를 들어, 객체 생성부(220)는 사전 저장된 객체 리스트를 출력하여 출력된 객체 리스트 중 적어도 하나를 사용자로부터 선택받을 수 있다.
다른 실시예로, 객체 생성부(220)는 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 식별된 객체들의 형상을 기초로 식별된 객체들의 종류를 분류하고, 가공 영역 내에 가장 많이 존재하는 객체의 종류를 객체 모델의 종류로 선택할 수 있다. 이때, 객체 생성부(220)는 가공 영역 내에 존재하는 엣지(edge)를 추출하고, 추출된 엣지에 의한 폐쇄 영역(enclosure)을 하나 이상 추출하고, 추출된 폐쇄 영역을 통해 가공 영역 내에 존재하는 복수개의 객체들을 식별할 수 있다. 이때, 객체 생성부(220)는 사전 기계 학습(machine learning)된 인공지능(AI, Artificial Intelligence)에 가공 영역의 이미지를 입력하여 이미지 내에서 객체를 식별하고, 각 객체에 클래스 라벨(class label)을 부여하여 각 객체의 종류를 추정할 수 있다.
이후, 객체 생성부(220)는 선택된 객체의 종류와 대응되는 사전 저장된 객체 모델 리스트를 디스플레이 하고, 디스플레이 된 객체 모델 리스트 중 하나를 선택받을 수 있다. 이때, 객체 생성부(220)는 가공 영역 내에서 적어도 하나의 포인트를 선택받고, 선택된 포인트에 해당되는 픽셀의 RGB 값을 기준으로, 선택된 객체 모델의 색상을 설정할 수 있다.
그리고, 객체 생성부(220)는 선택된 종류에 대응하여 사전 저장된 객체 모델을 지정된 가공 영역 내에 생성할 수 있다. 즉, 객체 생성부(220)는 가공 영역 내에 사전 설정된 크기를 갖는 객체 모델을 사전 설정된 간격으로 배치할 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 객체 생성부(220)는 가공 영역(A) 내에 사전 설정된 나무 모델(B)을 배치할 수 있다. 도 7에 도시된 바와 같이, 객체 생성부(220)는 가공 영역(A) 내에 사전 설정된 건물 모델(B)을 배치할 수 있다.
이때, 객체 생성부(220)는 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 식별된 복수개의 객체들 각각의 위치에 선택된 객체 모델을 생성할 수 있다. 여기서, 객체 생성부(220)는 식별된 복수개의 객체들 각각의 넓이를 산출하고, 각 객체의 위치에 배치될 객체 모델의 넓이를 해당 객체의 넓이와 대응되게 변경하여 객체 모델을 배치할 수 있다. 또한, 객체 생성부(220)는 객체 모델의 높이를 가공 영역의 높이로 설정할 수 있다.
다음 구성으로, 도로 생성부(225)는 항공 뷰 영상을 이용하여 제작된 3차원 지도 상에 도로를 생성할 수 있다.
도로를 생성하기 위하여, 도로 생성부(220)는 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 도로 모델을 생성하기 위한 단위 도로 모델을 생성할 수 있다. 여기서, 단위 도로 모델은 도로의 최소 구성 요소를 모두 포함하고 있는 사전 설정된 크기의 도로 모델이 될 수 있다. 예를 들어, 최소 구성 요소는 차도, 차선, 갓길, 중앙분리대, 보도, 측구 등이 될 수 있다.
일 실시예로, 도로 생성부(225)는 도로를 구성하는 최소 구성 요소에 대하여 사전 저장된 복수개의 구성 요소 모델들 중 적어도 하나를 선택받고, 선택받은 적어도 하나의 구성 요소 모델을 조합하여 단위 도로 모델을 생성할 수 있다. 즉, 도로 생성부(225)는 사용자로부터 구성 요소 모델을 선택받으면, 선택된 구성 요소 모델을 지도 상에 디스플레이 하고, 디스플레이 된 구성 요소 모델을 사용자가 특정 위치에 배치하도록 하고, 배치된 구성 요소 모델들을 조합하여 단위 도로 모델을 생성할 수 있는 사용자 인터페이스(UI, User interface)를 제공할 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 도로 생성부(225)는 사용자로부터 도로의 베이스가 되는 차도 모델(A)을 선택받아 지도 상에 배치하고, 중앙선(B), 차선(C), 측구(D) 등을 순차적으로 선택받아 차도 모델(A) 상에 배치하여 단위 도로 모델을 생성할 수 있다.
다른 실시예로, 도로 생성부(225)는 지도 상에서 적어도 하나의 포인트를 선택받고, 선택받은 포인트를 기준으로 도로를 식별하고, 식별된 도로의 RGB(Red, Green, Blue) 값을 기초로 도로의 형상을 추정할 수 있다. 도로 생성부(225)는 추정된 도로의 형상과 유사도가 사전 설정된 값보다 높은 사전 저장된 단위 도로 모델을 지도 상에 생성할 수 있다. 예를 들어, 도로 생성부(225)는 사용자로부터 지도 상에 도로에 해당되는 영역의 테두리를 따라 순차적으로 복수개의 포인트들을 선택받고, 선택된 복수개의 포인트들을 연결하여 도로를 식별할 수 있다. 여기서, 도로 생성부(225)는 사전 기계 학습된 인공지능을 통해 식별된 도로와 유사도가 사전 설정된 값보다 높은 사전 저장된 단위 도로 모델을 추정하고, 추정된 단위 도로 모델을 지도 상에 생성할 수 있다.
다음으로, 도로 생성부(225)는 생성된 단위 도로 모델을 지도 상에 배치할 수 있다. 이때, 도로 생성부(225)는 지도 상에서 적어도 하나의 포인트를 선택받고, 선택받은 포인트를 기준으로 도로를 식별하고, 식별된 도로의 RGB 값을 기초로 도로의 형상을 추정할 수 있다. 여기서, 도로 생성부(225)는 추정된 도로의 형상을 기초로 도로의 방향을 식별하고, 식별된 도로의 방향을 기초로 단위 도로 모델을 배치할 수 있다. 한편, 도로 생성부(225)는 지도 상의 특정 공간에 단위 도로 모델을 생성한 후 생성된 단위 도로 모델을 대응되는 도로에 배치하는 것으로 설명하고 있으나, 이에 한정된 것은 아니고, 단위 도로 모델을 직접 해당 도로위에 생성할 수도 있다.
그리고, 도로 생성부(225)는 배치된 단위 도로 모델을 연장하여 도로 모델을 생성할 수 있다.
구체적으로, 도로 생성부(225)는 지도 상에 배치된 단위 도로 모델을 기준으로 연장 범위를 선택받고, 선택받은 연장 범위 내에서 단위 도로 모델을 연장할 수 있다. 예를 들어, 도 9에 도시된 바와 같이, 도로 생성부(225)는 사용자가 단위 도로 모델(A)을 선택한 상태에서 특정 방향으로 드래그(drag)하게 되면, 드래그 한 방향으로 단위 도로 모델을 연장하여 도로 모델(B)을 생성할 수 있다.
일 실시예로, 도로 생성부(225)는 선택받은 연장 범위 내에서 단위 도로 모델을 연장하되, 연장 범위 내에 존재하는 도로의 형상을 기초로 생성된 도로 모델에 곡률을 적용할 수 있다. 즉, 도로 생성부(225)는 도로의 형상을 기초로 지도 상에서 도로를 식별할 수 있으며, 선택받은 연장 범위 내에서 단위 도로 모델을 연장하여 도로 모델을 생성하면, 생성된 도로 모델과 중첩된 지도 상의 도로의 형상에 따라 생성된 도로 모델에 곡률을 적용할 수 있다.
다른 실시예로, 도로 생성부(225)는 식별된 도로 내에서 적어도 하나의 포인트를 선택받고, 단위 도로 모델을 기준으로 식별된 도로를 따라 적어도 하나의 포인트까지 단위 도로 모델을 연장할 수 있다. 즉, 도로 생성부(225)는 단위 도로 모델이 지도 상의 대응되는 도로 상에 배치된 상태에서 도로의 특정 지점을 선택받으면, 단위 도로 모델을 기준으로 선택된 지점까지 도로의 형상을 따라 곡률을 적용하여 단위 도로 모델을 연장할 수 있다.
한편, 단위 도로 모델을 연장하는 과정에서 사전 생성된 도로 모델과 마주하는 경우, 지면의 고저차, 고가도로 등에 의해 동일한 도로임에도 높이가 일치하지 않고 단차가 발생되는 경우가 발생될 수 있다. 이에 따라, 도로 생성부(225)는 단위 도로 모델을 연장하는 과정에서 사전 생성된 도로 모델과 마주하는 경우, 단위 도로 모델을 연장하여 생성된 제1 도로 모델 및 사전 생성된 제2 도로 모델 사이의 유형을 식별하고, 식별된 유형에 따라 제1 도로 모델 및 제2 도로 모델을 교차시킬 수 있다.
일 실시예로, 도로 생성부(225)는 항공 뷰 영상과 함께 라이다(lidar)에 의해 획득된 점군(point cloud) 데이터에 포함된 깊이 정보를 기초로 제1 도로 모델 및 제2 도로 모델과 각각 대응되는 지도 상의 도로가 맞닿는 지점의 높이 값을 추정할 수 있다. 도로 생성부(225)는 추정된 각 도로의 높이 값의 차이가 사전 설정된 값 미만인 경우 연속된 도로로 인식할 수 있다. 여기서, 도로 생성부(225)는 도 10에 도시된 바와 같이, 추정된 각 도로의 높이 값의 평균 값을 적용하여 제1 도로 모델(A) 및 제2 도로 모델(B)을 연결할 수 있다.
다른 실시예로, 도로 생성부(225)는 항공 뷰 영상과 함께 라이다에 의해 획득된 점군 데이터에 포함된 깊이 정보를 기초로 제1 도로 모델 및 제2 도로 모델과 각각 대응되는 지도 상의 도로가 맞닿는 지점의 높이 값을 추정할 수 있다. 도로 생성부(225)는 추정된 각 도로의 높이 값의 차이가 사전 설정된 값을 초과하는 경우 별도의 도로로 인식하고, 제1 도로 모델 및 제2 도로 모델에 서로 다른 높이를 적용하여 교차시킬 수 있다. 예를 들어, 도로 생성부(225)는 추정된 각 도로의 높이 값을 제1 도로 모델 및 제2 도로 모델에 각각 적용하여 서로 교차시킬 수 있다.
다른 실시예로, 도로 생성부(225)는 지도의 RGB 값을 기초로 제1 도로 모델 및 제2 도로 모델이 교차하여 배치될 도로의 형상을 추정하고, 추정된 도로의 형상을 기초로 도로 유형을 식별할 수 있다. 도로 생성부(225)는 식별된 도로 유형에 따라 제1 도로 모델 및 제2 도로 모델을 교차시킬 수 있다. 예를 들어, 도로 생성부(225)는 도로의 형상을 기초로 교차로, 고가도로 등의 도로 유형을 식별하고, 식별된 도로 유형에 따라 제1 도로 모델 및 제2 도로 모델을 서로 연결시키거나, 서로 다른 높이 갚을 적용하여 교차시킬 수 있다.
또 다른 실시예로, 도로 생성부(225)는 지도의 RGB 값을 기초로 제1 도로 모델 및 제2 도로 모델이 교차하여 배치될 도로에서 그림자를 식별하고, 식별된 그림자를 기초로 제1 도로 모델 및 제2 도로 모델의 상대적 위치를 추정할 수 있다. 도로 생성부(225)는 추정된 상대적 위치에 따라 제1 도로 모델 및 제2 도로 모델을 교차시킬 수 있다. 예를 들어, 도로 생성부(225)는 그림자에 해당되는 색상 정보를 기초로 도로 상에서 그림자를 식별하고, 그림자가 생성된 도로를 교차하는 다른 도로보다 하부에 위치한 도로로 추정하고, 추정된 상대적 위치에 따라 제1 도로 모델 및 제2 도로 모델을 교차시킬 수 있다. 이때, 도로 생성부(225)는 식별된 그림자의 폭에 따라 사전 설정된 높이 차이를 적용하여 제1 도로 모델 및 제2 도로 모델을 교차시킬 수 있다.
다음 구성으로, 교통 정보 생성부(230)는 생성된 도로 모델에 교통 정보를 생성할 수 있다. 구체적으로, 교통 정보 생성부(230)는 도로 모델의 각 차로를 따라 사전 설정된 속도로 이동하는 적어도 하나의 차량 모델을 생성할 수 있다.
일 실시예로, 교통 정보 생성부(230)는 도로 모델과 대응되는 도로의 차량 혼잡도 정보를 실시간 수신하고, 실시간 수신된 차량 혼잡도 정보에 따라 도로 모델의 영역별 차량 모델의 개수 및 속도 중 적어도 하나를 결정할 수 있다. 예를 들어, 교통 정보 생성부(230)는 특정 기관에서 제공하는 교통정보 어플리케이션 프로그램 인터페이스(API, Application Programming Interface)를 활용하여 실시간 도로의 차량 혼잡도 정보를 수신하고, 실제 차량 혼잡도 정보를 반영하여 도로 모델을 이동하는 차량 모델을 생성할 수 있다.
다른 실시예로, 교통 정보 생성부(230)는 도로 모델의 위치와 대응되는 지역의 날씨 정보를 실시간 수신하고, 실시간 수신된 날씨 정보에 따라 3차원 도로 모델의 영역별 차량 모델의 개수 및 속도 중 적어도 하나를 결정할 수 있다. 예를 들어, 교통 정보 생성부(230)는 기상청에서 제공하는 어플리케이션 프로그램 인터페이스를 활용하여 해당 도로의가 존재하는 위치의 날씨 정보를 반영하여 도로 모델을 이동하는 차량 모델을 생성할 수 있다. 이때, 교통 정보 생성부(230)는 날씨별 차량 모델의 개수 및 속도를 사전 저장할 수 있다. 예를 들어, 교통 정보 생성부(230)는 눈이 비가 오는 경우 차량 혼잡도가 높은 것으로 판단할 수 있으며, 화창한 날씨인 경우 차량 혼잡도가 낮은 것으로 판단할 수 있다.
다른 실시예로, 교통 정보 생성부(230)는 도로 모델의 위치와 대응되는 도로를 촬영한 영상을 수신하고, 수신된 영상을 기초로 교통량을 분석하고, 분석된 교통량에 대응하여 도로 모델 상에 차량 모델을 생성할 수 있다. 이때, 교통 정보 생성부(230)는 각 도로에 설치된 폐쇄회로 텔레비전(CCTV, closed circuit television)으로부터 도로를 촬영한 영상을 수신할 수 있다. 구체적으로, 도 11에 도시된 바와 같이, 교통 정보 생성부(230)는 수신된 영상(A) 내에서 차량에 해당되는 객체(B)를 검출하고, 검출된 객체(B)를 중심으로 차선을 검출하고, 검출된 차선을 기준으로 검출된 객체(B)를 카운팅하여 차선 별 교통량을 측정할 수 있다. 이때, 교통 정보 생성부(230)는 사전 기계 학습된 인공지능을 통해 영상 내에서 차량에 해당되는 객체(B)를 검출할 수 있다.
교통 정보 생성부(230)는 측정된 차선 별 교통량을 기초로 도로 모델의 각 차로 별 차량 모델의 개수 및 속도 중 적어도 하나를 달리하여 차량 모델을 생성할 수 있다. 여기서, 교통 정보 생성부(230)는 수신된 영상 내에서 검출된 객체들의 속도를 추정하고, 추정된 객체들의 속도 평균 값을 적용하여 생성된 각 차로 별 차량 모델의 속도를 결정할 수 있다. 나아가, 교통 정보 생성부(230)는 검출된 객체의 크기를 기초로 검출된 차량의 유형을 추정하고, 추정된 차량의 유형에 따라 사전 저장된 차량 모델을 교통량에 대응하여 도로 모델에 생성할 수 있다.
다른 실시예로, 교통 정보 생성부(230)는 도로 모델과 대응되는 도로의 제한 속도 정보를 수신하고, 수신된 도로의 제한 속도 정보에 따라 도로 모델의 영역별 차량 모델의 속도를 결정할 수 있다. 예를 들어, 교통 정보 생성부(230)는 특정 기관에서 제공하는 교통정보 어플리케이션 프로그램 인터페이스를 활용하여 제한 속도 정보를 수신할 수 있다.
다른 실시예로, 교통 정보 생성부(230)는 도로 모델과 대응되는 도로의 교통 시설물 정보를 수신하고, 수신된 교통 시설물 정보를 기초로 도로 모델의 대응되는 위치에 교통 시설물 모델을 생성할 수 있다. 이때, 교통 정보 생성부(230)는 생성된 교통 시설물 모델과 대응되는 교통 신호를 실시간 수신하고, 실시간 수신된 교통 신호에 따라 생성된 차량 모델의 이동을 실시간 제어할 수 있다. 예를 들어, 교통 정보 생성부(230)는 특정 기관에서 제공하는 교통정보 어플리케이션 프로그램 인터페이스를 활용하여 교통 신호 정보를 실시간 수신할 수 있다.
이하, 상술한 바와 같은 지도 생성 장치의 논리적 구성요소를 구현하기 위한 하드웨어에 대하여 보다 구체적으로 설명한다.
도 12는 본 발명의 일 실시예에 따른 지도 생성 장치의 하드웨어 구성도이다.
도 12에 도시된 바와 같이, 지도 생성 장치(200)는 프로세서(processor, 250), 메모리(memory, 255), 송수신기(transceiver, 260), 입출력장치(input/output device, 265), 데이터 버스(bus, 270) 및 스토리지(storage, 275)를 포함하여 구성될 수 있다.
구체적으로, 프로세서(250)는 메모리(255)에 상주된 지도 생성 방법이 구현된 소프트웨어(280a)에 따른 명령어를 기초로, 지도 생성 장치(200)의 동작 및 기능을 구현할 수 있다.
메모리(255)에는 스토리지(275)에 저장된 지도 생성 방법이 구현된 소프트웨어(280b)가 상주(loading)될 수 있다.
입출력장치(265)는 프로세서(250)의 명령에 따라, 지도 생성 장치(200)의 동작에 필요한 신호를 입력 받거나 연산 결과를 외부로 출력할 수 있다.
데이터 버스(270)는 프로세서(250), 메모리(255), 송수신기(260), 입출력장치(265), 및 스토리지(275)와 각각 연결되어, 각각의 구성 요소 사이에서 신호를 전달하기 위한 이동 통로의 역할을 수행할 수 있다.
스토리지(275)에는 본 발명의 실시예들에 따른 지도 생성 방법이 구현된 소프트웨어(280a)의 실행을 위해 필요한 애플리케이션 프로그래밍 인터페이스(Application Programming Interface, API), 라이브러리(library) 파일, 리소스(resource) 파일 등이 저장될 수 있다. 스토리지(275)에는 본 발명의 실시예들에 따른 지도 생성 방법이 구현된 소프트웨어(280b)가 저장될 수 있다.
본 발명의 일 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된 항공 영상 기반 지도의 3차원 객체 생성 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 객체 모델을 생성하기 위한 가공 영역을 지정하는 단계, 프로세서(250)가, 지정된 가공 영역에 생성할 객체 모델의 종류를 선택하는 단계 및 프로세서(250)가, 선택된 종류에 대응되는 적어도 하나의 객체 모델을 지정된 가공 영역 내에 생성하는 단계를 실행시키기 위하여, 록매체에 기록된 컴퓨터 프로그램이 될 수 있다.
본 발명의 다른 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된 항공 영상 기반 지도의 도로 생성 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가, 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 도로 모델을 생성하기 위한 단위 도로 모델을 상기 지도 상에 생성하는 단계, 프로세서(250)가, 생성된 단위 도로 모델을 지도 상의 대응되는 도로에 배치하는 단계 및 프로세서(250)가, 배치된 단위 도로 모델을 연장하여 도로 모델을 생성하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.
본 발명의 또 다른 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된 항공 영상 기반 지도의 교통 정보 생성 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가, 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 도로 모델을 생성하는 단계 및 프로세서(250)가, 생성된 도로 모델에 교통 정보를 생성하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.
보다 상세하게, 프로세서(250)는 중앙 처리 장치(Central Processing Unit, CPU), ASIC(Application-Specific Integrated Circuit), 칩셋(chipset), 논리 회로 중 하나 이상을 포함하여 구성될 수 있으며, 이에 한정되지 않는다.
메모리(255)는 ROM(Read-Only Memory), RAM(Random Access Memory), 플래쉬 메모리(flash memory), 메모리 카드(memory card) 중 하나 이상을 포함하여 구성될 수 있으며, 이에 한정되지 않는다.
입출력장치(260)는 버튼, 스위치, 키보드, 마우스, 및 조이스틱(joystick) 등과 같은 입력 장치와, LCD(Liquid Crystal Display), LED(Light Emitting Diode), 유기 발광 다이오드(Organic LED, OLED), 능동형 유기 발광 다이오드(Active Matrix OLED, AMOLED), 프린터(printer), 플로터(plotter) 등과 같은 출력 장치 중 하나 이상을 포함하여 구성될 수 있으며, 이에 한정되지 않는다.
본 명세서에 포함된 실시 예가 소프트웨어로 구현될 경우, 상술한 방법은 상술한 기능을 제각각 수행하는 모듈(과정, 기능 등)들로 구현될 수 있다. 각각의 모듈은 메모리(255)에 상주되고 프로세서(250)에 의해 실행될 수 있다. 메모리(255)는 프로세서(250)의 내부 또는 외부에 존재할 수 있고, 잘 알려진 다양한 수단으로 프로세서(250)와 연결될 수 있다.
도 12에 도시된 각 구성 요소는 다양한 수단(예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등)에 의해 구현될 수 있다. 하드웨어에 의해 구현될 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
또한, 펌웨어나 소프트웨어에 의해 구현될 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 업계의 통상의 지식을 가진 자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한, 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
도 13은 본 발명의 일 실시예에 따른 3차원 객체 생성 방법을 설명하기 위한 순서도이다.
도 13을 참조하면, S110 단계에서 지도 생성 장치는 항공 뷰 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 객체 모델을 생성하기 위한 가공 영역을 지정할 수 있다.
이때, 가공 영역을 지정하기 위하여 지도 생성 장치는 지도 상에서 객체를 생성하기 위한 넓이를 지정할 수 있다.
일 실시예로, 지도 생성 장치는 지도 상에서 복수개의 포인트들을 선택받고, 선택받은 순서를 기초로 복수개의 포인트들을 연결하여 생성된 다각형을 가공 영역으로 지정할 수 있다.
다른 실시예로, 지도 생성 장치는 지도 상에서 적어도 하나의 객체를 선택받고, 선택받은 객체를 기준으로 객체와 유사도가 사전 설정된 값보다 높은 유사 객체들의 집합을 식별하고, 식별된 유사 객체들을 모두 포함하는 영역을 가공 영역으로 지정할 수 있다.
또한, 지도 생성 장치는 앞서 지정된 영역에 대한 높이를 설정할 수 있다.
일 실시예로, 지도 생성 장치는 사용자로부터 가공 영역에 대한 높이를 입력받을 수 있다.
다른 실시예로, 지도 생성 장치는 항공 뷰 영상과 함께 라이다(lidar)에 의해 획득된 점군(point cloud) 데이터에 포함된 깊이 정보에 기초하여 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 식별된 복수개의 객체들의 평균 높이를 추정하고, 추정된 평균 높이를 기준으로 가공 영역의 높이를 지정할 수 있다.
다른 실시예로, 지도 생성 장치는 지정된 가공 영역의 지도 상의 실제 위치를 식별하고, 식별된 실제 위치와 대응되는 토지의 건물에 대한 고도 제한 정보를 추출하고, 추출된 고도 제한 정보를 기초로 가공 영역의 높이를 지정할 수 있다.
또 다른 실시예로, 지도 생성 장치는 지정된 가공 영역의 실제 위치를 식별하고, 가공 영역 내에 존재하는 건물들의 높이 정보를 추출하고, 추출된 건물들의 높이에 대한 평균 값으로 가공 영역의 높이를 지정할 수 있다.
다음으로, S120 단계에서 지도 생성 장치는 지정된 가공 영역에 생성할 객체 모델의 종류를 선택할 수 있다. 즉, 지도 생성 장치는 건물, 나무 등의 생성할 객체의 종류를 선택할 수 있다.
일 실시예로, 지도 생성 장치는 사용자로부터 생성할 객체의 종류를 입력받을 수 있다.
다른 실시예로, 지도 생성 장치는 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 식별된 객체들의 형상을 기초로 식별된 객체들의 종류를 분류하고, 가공 영역 내에 가장 많이 존재하는 객체의 종류를 객체 모델의 종류로 선택할 수 있다. 이때, 지도 생성 장치는 가공 영역 내에 존재하는 엣지(edge)를 추출하고, 추출된 엣지에 의한 폐쇄 영역(enclosure)을 하나 이상 추출하고, 추출된 폐쇄 영역을 통해 가공 영역 내에 존재하는 복수개의 객체들을 식별할 수 있다.
지도 생성 장치는 선택된 객체의 종류와 대응되는 사전 저장된 객체 모델 리스트를 디스플레이 하고, 디스플레이 된 객체 모델 리스트 중 하나를 선택받을 수 있다. 이때, 지도 생성 장치는 가공 영역 내에서 적어도 하나의 포인트를 선택받고, 선택된 포인트에 해당되는 픽셀의 RGB 값을 기준으로, 선택된 객체 모델의 색상을 설정할 수 있다.
그리고, S130 단계에서 지도 생성 장치는 선택된 종류에 대응하여 사전 저장된 객체 모델을 지정된 가공 영역 내에 생성할 수 있다. 즉, 지도 생성 장치는 가공 영역 내에 사전 설정된 크기를 갖는 객체 모델을 사전 설정된 간격으로 배치할 수 있다.
이때, 지도 생성 장치는 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 식별된 복수개의 객체들 각각의 위치에 선택된 객체 모델을 생성할 수 있다. 여기서, 지도 생성 장치는 식별된 복수개의 객체들 각각의 넓이를 산출하고, 각 객체의 위치에 배치될 객체 모델의 넓이를 해당 객체의 넓이와 대응되게 변경하여 객체 모델을 배치할 수 있다. 또한, 지도 생성 장치는 객체 모델의 높이를 가공 영역의 높이로 설정할 수 있다.
도 14는 본 발명의 일 실시예에 따른 도로 생성 방법을 설명하기 위한 순서도이다.
도 14를 참조하면, S210 단계에서 지도 생성 장치는 항공 뷰 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 도로 모델을 생성하기 위한 단위 도로 모델을 생성할 수 있다. 여기서, 단위 도로 모델은 생성할 도로의 최소 구성 요소를 모두 포함하고 있는 사전 설정된 크기의 도로 모델이 될 수 있다.
일 실시예로, 지도 생성 장치는 도로를 구성하는 최소 구성 요소에 대하여 사전 저장된 복수개의 구성 요소 모델들 중 적어도 하나를 선택받고, 선택받은 적어도 하나의 구성 요소 모델을 조합하여 단위 도로 모델을 생성할 수 있다.
다른 실시예로, 지도 생성 장치는 지도 상에서 적어도 하나의 포인트를 선택받고, 선택받은 포인트를 기준으로 도로를 식별하고, 식별된 도로의 RGB(Red, Green, Blue) 값을 기초로 도로의 형상을 추정할 수 있다. 지도 생성 장치는 추정된 도로의 형상과 유사도가 사전 설정된 값보다 높은 사전 저장된 단위 도로 모델을 지도 상에 생성할 수 있다.
다음으로, S220 단계에서 지도 생성 장치는 생성된 단위 도로 모델을 지도 상에 배치할 수 있다. 이때, 지도 생성 장치는 지도 상에서 적어도 하나의 포인트를 선택받고, 선택받은 포인트를 기준으로 도로를 식별하고, 식별된 도로의 RGB 값을 기초로 도로의 형상을 추정할 수 있다. 여기서, 지도 생성 장치는 추정된 도로의 형상을 기초로 도로의 방향을 식별하고, 식별된 도로의 방향을 기초로 단위 도로 모델을 배치할 수 있다.
그리고, S230 단계에서 지도 생성 장치는 배치된 단위 도로 모델을 연장하여 도로 모델을 생성할 수 있다.
구체적으로, 지도 생성 장치는 지도 상에 배치된 단위 도로 모델을 기준으로 연장 범위를 선택받고, 선택받은 연장 범위 내에서 단위 도로 모델을 연장할 수 있다.
일 실시예로, 지도 생성 장치는 선택받은 연장 범위 내에서 단위 도로 모델을 연장하되, 연장 범위 내에 존재하는 도로의 형상을 기초로 생성된 도로 모델에 곡률을 적용할 수 있다.
다른 실시예로, 지도 생성 장치는 식별된 도로 내에서 적어도 하나의 포인트를 선택받고, 단위 도로 모델을 기준으로 식별된 도로를 따라 적어도 하나의 포인트까지 단위 도로 모델을 연장할 수 있다.
한편, 단위 도로 모델을 연장하는 과정에서 사전 생성된 도로 모델과 마주하는 경우, 지면의 고저차, 고가도로 등에 의해 동일한 도로임에도 높이가 일치하지 않고 단차가 발생되는 경우가 발생될 수 있다. 이에 따라, 지도 생성 장치는 단위 도로 모델을 연장하는 과정에서 사전 생성된 도로 모델과 마주하는 경우, 단위 도로 모델을 연장하여 생성된 제1 도로 모델 및 사전 생성된 제2 도로 모델 사이의 유형을 식별하고, 식별된 유형에 따라 제1 도로 모델 및 제2 도로 모델을 교차시킬 수 있다.
일 실시예로, 지도 생성 장치는 항공 뷰 영상과 함께 라이다(lidar)에 의해 획득된 점군(point cloud) 데이터에 포함된 깊이 정보를 기초로 제1 도로 모델 및 제2 도로 모델과 각각 대응되는 지도 상의 도로가 맞닿는 지점의 높이 값을 추정할 수 있다. 지도 생성 장치는 추정된 각 도로의 높이 값의 차이가 사전 설정된 값 미만인 경우 연속된 도로로 인식할 수 있다. 여기서, 지도 생성 장치는 추정된 각 도로의 높이 값의 평균 값을 적용하여 제1 도로 모델 및 제2 도로 모델을 연결할 수 있다.
다른 실시예로, 지도 생성 장치는 항공 뷰 영상과 함께 라이다에 의해 획득된 점군 데이터에 포함된 깊이 정보를 기초로 제1 도로 모델 및 제2 도로 모델과 각각 대응되는 지도 상의 도로가 맞닿는 지점의 높이 값을 추정할 수 있다. 지도 생성 장치는 추정된 각 도로의 높이 값의 차이가 사전 설정된 값을 초과하는 경우 별도의 도로로 인식하고, 제1 도로 모델 및 제2 도로 모델에 서로 다른 높이를 적용하여 교차시킬 수 있다.
다른 실시예로, 지도 생성 장치는 지도의 RGB 값을 기초로 제1 도로 모델 및 제2 도로 모델이 교차하여 배치될 도로의 형상을 추정하고, 추정된 도로의 형상을 기초로 도로 유형을 식별할 수 있다. 지도 생성 장치는 식별된 도로 유형에 따라 제1 도로 모델 및 제2 도로 모델을 교차시킬 수 있다.
또 다른 실시예로, 지도 생성 장치는 지도의 RGB 값을 기초로 제1 도로 모델 및 제2 도로 모델이 교차하여 배치될 도로에서 그림자를 식별하고, 식별된 그림자를 기초로 제1 도로 모델 및 제2 도로 모델의 상대적 위치를 추정할 수 있다. 지도 생성 장치는 추정된 상대적 위치에 따라 제1 도로 모델 및 제2 도로 모델을 교차시킬 수 있다. 이때, 지도 생성 장치는 식별된 그림자의 폭에 따라 사전 설정된 높이 차이를 적용하여 제1 도로 모델 및 제2 도로 모델을 교차시킬 수 있다.
도 15는 본 발명의 일 실시예에 따른 교통 정보 생성 방법을 설명하기 위한 순서도이다.
도 15를 참조하면, S310 단계에서 지도 생성 장치는 항공 뷰 영상을 이용하여 생성된 지도 상에 도로 모델을 생성할 수 있다. 한편, 도로 모델을 생성하는 과정은 상술한 도로 모델 생성 방법을 통해 수행될 수 있다.
다음으로, S320 단계에서 지도 생성 장치는 생성된 도로 모델에 교통 정보를 생성할 수 있다. 구체적으로, 지도 생성 장치는 도로 모델의 각 차로를 따라 사전 설정된 속도로 이동하는 적어도 하나의 차량 모델을 생성할 수 있다.
일 실시예로, 지도 생성 장치는 도로 모델과 대응되는 도로의 차량 혼잡도 정보를 실시간 수신하고, 실시간 수신된 차량 혼잡도 정보에 따라 도로 모델의 영역별 차량 모델의 개수 및 속도 중 적어도 하나를 결정할 수 있다.
다른 실시예로, 지도 생성 장치는 도로 모델의 위치와 대응되는 지역의 날씨 정보를 실시간 수신하고, 실시간 수신된 날씨 정보에 따라 3차원 도로 모델의 영역별 차량 모델의 개수 및 속도 중 적어도 하나를 결정할 수 있다. 이때, 지도 생성 장치는 날씨별 차량 모델의 개수 및 속도를 사전 저장할 수 있다.
다른 실시예로, 지도 생성 장치는 도로 모델의 위치와 대응되는 도로를 촬영한 영상을 수신하고, 수신된 영상을 기초로 교통량을 분석하고, 분석된 교통량에 대응하여 도로 모델 상에 차량 모델을 생성할 수 있다. 이때, 지도 생성 장치는 각 도로에 설치된 폐쇄회로 텔레비전(CCTV, closed circuit television)으로부터 도로를 촬영한 영상을 수신할 수 있다.
지도 생성 장치는 측정된 차선 별 교통량을 기초로 도로 모델의 각 차로 별 차량 모델의 개수 및 속도 중 적어도 하나를 달리하여 차량 모델을 생성할 수 있다. 여기서, 지도 생성 장치는 수신된 영상 내에서 검출된 객체들의 속도를 추정하고, 추정된 객체들의 속도 평균 값을 적용하여 생성된 각 차로 별 차량 모델의 속도를 결정할 수 있다. 나아가, 지도 생성 장치는 검출된 객체의 크기를 기초로 검출된 차량의 유형을 추정하고, 추정된 차량의 유형에 따라 사전 저장된 차량 모델을 교통량에 대응하여 도로 모델에 생성할 수 있다.
다른 실시예로, 지도 생성 장치는 도로 모델과 대응되는 도로의 제한 속도 정보를 수신하고, 수신된 도로의 제한 속도 정보에 따라 도로 모델의 영역별 차량 모델의 속도를 결정할 수 있다.
다른 실시예로, 지도 생성 장치는 도로 모델과 대응되는 도로의 교통 시설물 정보를 수신하고, 수신된 교통 시설물 정보를 기초로 도로 모델의 대응되는 위치에 교통 시설물 모델을 생성할 수 있다. 이때, 지도 생성 장치는 생성된 교통 시설물 모델과 대응되는 교통 신호를 실시간 수신하고, 실시간 수신된 교통 신호에 따라 생성된 차량 모델의 이동을 실시간 제어할 수 있다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으나, 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적해석에 의해 선정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
100 : 데이터 수집 장치 200 : 지도 생성 장치
205 : 통신부 210 : 입출력부
215 : 지도 생성부 220 : 객체 생성부
225 : 도로 생성부 230 : 교통 정보 생성부

Claims (10)

  1. 지도 생성 장치가, 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 객체 모델을 생성하기 위한 가공 영역을 지정하는 단계;
    상기 지도 생성 장치가, 상기 지정된 가공 영역에 생성할 객체 모델의 종류를 선택하는 단계; 및
    상기 지도 생성 장치가, 상기 선택된 종류에 대응하여 사전 저장된 객체 모델을 상기 지정된 가공 영역 내에 생성하는 단계; 를 포함하는 것을 특징으로 하고,
    상기 지정하는 단계는
    상기 지도 상에서 복수개의 포인트들을 선택받고, 상기 선택받은 순서를 기초로 상기 복수개의 포인트들을 연결하여 생성된 다각형을 상기 가공 영역으로 지정하는 것을 특징으로 하며,
    상기 지정하는 단계는
    상기 지도 상에서 적어도 하나의 객체를 선택받고, 상기 선택받은 객체를 기준으로 상기 객체와 유사도가 사전 설정된 값보다 높은 유사 객체들의 집합을 식별하고, 상기 식별된 유사 객체들을 모두 포함하는 영역을 상기 가공 영역으로 지정하는 것을 특징으로 하고,
    상기 지정하는 단계는
    상기 선택받은 객체의 RGB(Red, Green, Blue) 값을 기초로 상기 유사도를 판단하여 사전 설정된 거리만큼 인접한 유사 객체들의 집합을 식별하는 것을 특징으로 하며,
    상기 선택하는 단계는
    상기 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 상기 식별된 객체들의 형상을 기초로 상기 식별된 객체들의 종류를 분류하고, 상기 가공 영역 내에 가장 많이 존재하는 객체의 종류를 상기 객체 모델의 종류로 선택하는 것을 특징으로 하고,
    상기 선택하는 단계는
    상기 가공 영역 내에 존재하는 엣지(edge)를 추출하고, 상기 추출된 엣지에 의한 폐쇄 영역(enclosure)을 하나 이상 추출하고, 상기 추출된 폐쇄 영역을 통해 상기 가공 영역 내에 존재하는 복수개의 객체들을 식별하는 것을 특징으로 하며,
    상기 선택하는 단계는
    상기 선택된 객체의 종류와 대응되는 사전 저장된 객체 모델 리스트를 디스플레이하고, 상기 디스플레이 된 객체 모델 리스트 중 하나를 선택받는 것을 특징으로 하고,
    상기 선택하는 단계는
    상기 선택된 객체의 종류에 대응하여 사전 저장된 객체 모델을 지정된 가공 영역 내에 생성하되, 상기 가공 영역 내에 사전 설정된 크기를 갖는 객체 모델을 사전 설정된 간격으로 배치하는 것을 특징으로 하며,
    상기 선택하는 단계는
    상기 가공 영역 내에서 적어도 하나의 포인트를 선택받고, 상기 선택된 포인트에 해당되는 픽셀의 RGB 값을 기준으로, 상기 선택된 객체 모델의 색상을 설정하는 것을 특징으로 하고,
    상기 생성하는 단계는
    상기 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 상기 식별된 복수개의 객체들 각각의 위치에 상기 선택된 객체 모델을 생성하되, 상기 식별된 복수개의 객체들 각각의 넓이를 산출하고, 상기 산출된 넓이를 기초로 상기 객체 모델의 넓이를 달리하여 생성하는 것을 특징으로 하는, 항공 영상 기반 지도의 3차원 객체 생성 방법.
  2. 제1 항에 있어서, 상기 지정하는 단계는
    상기 항공 뷰 영상과 함께 라이다(lidar)에 의해 획득된 점군(point cloud) 데이터에 포함된 깊이 정보에 기초하여 상기 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 상기 식별된 복수개의 객체들의 평균 높이를 추정하고, 상기 추정된 평균 높이를 기준으로 상기 가공 영역의 높이를 지정하는 것을 특징으로 하는, 항공 영상 기반 지도의 3차원 객체 생성 방법.
  3. 제1 항에 있어서, 상기 지정하는 단계는
    상기 지정된 가공 영역의 지도 상의 실제 위치를 식별하고, 상기 식별된 실제 위치와 대응되는 토지의 건물에 대한 고도 제한 정보를 추출하고, 상기 추출된 고도 제한 정보를 기초로 상기 가공 영역의 높이를 지정하는 것을 특징으로 하는, 항공 영상 기반 지도의 3차원 객체 생성 방법.
  4. 제1 항에 있어서, 상기 지정하는 단계는
    상기 지정된 가공 영역의 실제 위치를 식별하고, 상기 가공 영역 내에 존재하는 건물들의 높이 정보를 추출하고, 상기 추출된 건물들의 높이에 대한 평균 값으로 상기 가공 영역의 높이를 지정하는 것을 특징으로 하는, 항공 영상 기반 지도의 3차원 객체 생성 방법.
  5. 메모리(memory);
    송수신기(transceiver); 및
    상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합되어,
    상기 프로세서가, 항공 뷰(aerial view) 영상을 기초로 생성된 지도 상에 적어도 하나의 3차원 객체 모델을 생성하기 위한 가공 영역을 지정하는 단계;
    상기 프로세서가, 상기 지정된 가공 영역에 생성할 객체 모델의 종류를 선택하는 단계; 및
    상기 프로세서가, 상기 선택된 종류에 대응되는 적어도 하나의 객체 모델을 상기 지정된 가공 영역 내에 생성하는 단계; 를 포함하여 실행시키되,
    상기 지정하는 단계는
    상기 지도 상에서 복수개의 포인트들을 선택받고, 상기 선택받은 순서를 기초로 상기 복수개의 포인트들을 연결하여 생성된 다각형을 상기 가공 영역으로 지정하는 것을 특징으로 하며,
    상기 지정하는 단계는
    상기 지도 상에서 적어도 하나의 객체를 선택받고, 상기 선택받은 객체를 기준으로 상기 객체와 유사도가 사전 설정된 값보다 높은 유사 객체들의 집합을 식별하고, 상기 식별된 유사 객체들을 모두 포함하는 영역을 상기 가공 영역으로 지정하는 것을 특징으로 하고,
    상기 지정하는 단계는
    상기 선택받은 객체의 RGB(Red, Green, Blue) 값을 기초로 상기 유사도를 판단하여 사전 설정된 거리만큼 인접한 유사 객체들의 집합을 식별하는 것을 특징으로 하며,
    상기 선택하는 단계는
    상기 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 상기 식별된 객체들의 형상을 기초로 상기 식별된 객체들의 종류를 분류하고, 상기 가공 영역 내에 가장 많이 존재하는 객체의 종류를 상기 객체 모델의 종류로 선택하는 것을 특징으로 하고,
    상기 선택하는 단계는
    상기 가공 영역 내에 존재하는 엣지(edge)를 추출하고, 상기 추출된 엣지에 의한 폐쇄 영역(enclosure)을 하나 이상 추출하고, 상기 추출된 폐쇄 영역을 통해 상기 가공 영역 내에 존재하는 복수개의 객체들을 식별하는 것을 특징으로 하며,
    상기 선택하는 단계는
    상기 선택된 객체의 종류와 대응되는 사전 저장된 객체 모델 리스트를 디스플레이하고, 상기 디스플레이 된 객체 모델 리스트 중 하나를 선택받는 것을 특징으로 하고,
    상기 선택하는 단계는
    상기 선택된 객체의 종류에 대응하여 사전 저장된 객체 모델을 지정된 가공 영역 내에 생성하되, 상기 가공 영역 내에 사전 설정된 크기를 갖는 객체 모델을 사전 설정된 간격으로 배치하는 것을 특징으로 하며,
    상기 선택하는 단계는
    상기 가공 영역 내에서 적어도 하나의 포인트를 선택받고, 상기 선택된 포인트에 해당되는 픽셀의 RGB 값을 기준으로, 상기 선택된 객체 모델의 색상을 설정하는 것을 특징으로 하고,
    상기 생성하는 단계는
    상기 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 상기 식별된 복수개의 객체들 각각의 위치에 상기 선택된 객체 모델을 생성하되, 상기 식별된 복수개의 객체들 각각의 넓이를 산출하고, 상기 산출된 넓이를 기초로 상기 객체 모델의 넓이를 달리하여 생성하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
  6. 제5 항에 있어서, 상기 지정하는 단계는
    상기 항공 뷰 영상과 함께 라이다(lidar)에 의해 획득된 점군(point cloud) 데이터에 포함된 깊이 정보에 기초하여 상기 가공 영역 내에 포함된 복수개의 객체들을 식별하고, 상기 식별된 복수개의 객체들의 평균 높이를 추정하고, 상기 추정된 평균 높이를 기준으로 상기 가공 영역의 높이를 지정하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
  7. 제5 항에 있어서, 상기 지정하는 단계는
    상기 지정된 가공 영역의 지도 상의 실제 위치를 식별하고, 상기 식별된 실제 위치와 대응되는 토지의 건물에 대한 고도 제한 정보를 추출하고, 상기 추출된 고도 제한 정보를 기초로 상기 가공 영역의 높이를 지정하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
  8. 제5 항에 있어서, 상기 지정하는 단계는
    상기 지정된 가공 영역의 실제 위치를 식별하고, 상기 가공 영역 내에 존재하는 건물들의 높이 정보를 추출하고, 상기 추출된 건물들의 높이에 대한 평균 값으로 상기 가공 영역의 높이를 지정하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
  9. 삭제
  10. 삭제
KR1020240029621A 2024-02-29 2024-02-29 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 KR102705853B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020240029621A KR102705853B1 (ko) 2024-02-29 2024-02-29 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020240029621A KR102705853B1 (ko) 2024-02-29 2024-02-29 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
KR102705853B1 true KR102705853B1 (ko) 2024-09-12

Family

ID=92758305

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020240029621A KR102705853B1 (ko) 2024-02-29 2024-02-29 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램

Country Status (1)

Country Link
KR (1) KR102705853B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130086509A (ko) * 2012-06-26 2013-08-02 (주)올포랜드 수치지도의 실시간 편집 방법 및 시스템, 이를 위한 서버 및 기록매체
KR101659779B1 (ko) * 2016-02-23 2016-09-27 (주)이지스 3차원 지리 공간 시스템에서의 3차원 도면 구축 방법
KR101691620B1 (ko) * 2016-04-06 2017-01-02 에스제이데이타 주식회사 드론에서 항공 수집한 원시영상의 분석과 mms 연동을 통한 도로기반시설물의 변화지역 갱신시스템
KR102242834B1 (ko) * 2020-12-28 2021-04-21 하늘지도 주식회사 오브젝트 정보를 제공하는 3차원 메쉬 지도 제작 장치 및 방법
KR20220163227A (ko) 2021-06-02 2022-12-09 이재영 드론을 이용한 3차원 지도 제작 방법
JP2023091828A (ja) * 2021-12-21 2023-07-03 幸一 横田 画像生成装置、画像生成方法、及びコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130086509A (ko) * 2012-06-26 2013-08-02 (주)올포랜드 수치지도의 실시간 편집 방법 및 시스템, 이를 위한 서버 및 기록매체
KR101659779B1 (ko) * 2016-02-23 2016-09-27 (주)이지스 3차원 지리 공간 시스템에서의 3차원 도면 구축 방법
KR101691620B1 (ko) * 2016-04-06 2017-01-02 에스제이데이타 주식회사 드론에서 항공 수집한 원시영상의 분석과 mms 연동을 통한 도로기반시설물의 변화지역 갱신시스템
KR102242834B1 (ko) * 2020-12-28 2021-04-21 하늘지도 주식회사 오브젝트 정보를 제공하는 3차원 메쉬 지도 제작 장치 및 방법
KR20220163227A (ko) 2021-06-02 2022-12-09 이재영 드론을 이용한 3차원 지도 제작 방법
JP2023091828A (ja) * 2021-12-21 2023-07-03 幸一 横田 画像生成装置、画像生成方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
US11605175B2 (en) Systems and methods for maneuvering a vehicle responsive to detecting a condition based on dynamic object trajectories
US12112432B2 (en) Realistic 3D virtual world creation and simulation for training automated driving systems
US20240288862A1 (en) Applications And Skills For An Autonomous Unmanned Aerial Vehicle
EP3410404B1 (en) Method and system for creating and simulating a realistic 3d virtual world
KR102560798B1 (ko) 무인 차량 시뮬레이터
US12039706B2 (en) Methods and systems for using trained generative adversarial networks to impute 3D data for facilities management and operations
US20200115050A1 (en) Control device, control method, and program
Coombes et al. Machine vision for UAS ground operations: using semantic segmentation with a bayesian network classifier
KR102705853B1 (ko) 항공 뷰 영상 기반 지도의 3차원 객체 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102705889B1 (ko) 항공 뷰 영상 기반 지도의 교통 정보 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102694566B1 (ko) 항공 뷰 영상 기반 지도의 도로 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
EP3855399A1 (en) Photo-realistic image generation using geo-specific data
JP2020091640A (ja) 物体分類システム、学習システム、学習データ生成方法、学習済モデル生成方法、学習済モデル、判別装置、判別方法、およびコンピュータプログラム
US20240144594A1 (en) Method for create map using aviation lidar and computer program recorded on record-medium for executing method therefor
CN115610694A (zh) 一种基于目标检测的无人机精准降落方法及系统
KR102705867B1 (ko) 분할 모듈을 이용한 건축물 모델링 방법 및 이를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102713302B1 (ko) 이미지를 이용한 건축물 모델링 방법 및 이를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102705849B1 (ko) 인공지능 모델의 경량화 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102694568B1 (ko) 노이즈 제거 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102675140B1 (ko) 텍스트 인식을 통한 시설물 관리 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
US20240144435A1 (en) Method for generate training data for transportation facility and computer program recorded on record-medium for executing method therefor
KR102540634B1 (ko) 프로젝션 기반 컬러맵 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102540636B1 (ko) 방향 정보를 포함한 지도 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102540632B1 (ko) 색상 보정을 적용한 컬러맵 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
Davis Expeditionary logistics: a low-cost, deployable, unmanned aerial system for airfield damage assessment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant