KR20190134303A - Apparatus and method for image recognition - Google Patents
Apparatus and method for image recognition Download PDFInfo
- Publication number
- KR20190134303A KR20190134303A KR1020180059767A KR20180059767A KR20190134303A KR 20190134303 A KR20190134303 A KR 20190134303A KR 1020180059767 A KR1020180059767 A KR 1020180059767A KR 20180059767 A KR20180059767 A KR 20180059767A KR 20190134303 A KR20190134303 A KR 20190134303A
- Authority
- KR
- South Korea
- Prior art keywords
- road
- image
- road image
- vehicle
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 230000008569 process Effects 0.000 claims description 36
- 239000013598 vector Substances 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G06K9/00798—
-
- G06K9/00711—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G06T5/001—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 영상 인식 장치 그 방법에 관한 것으로, 상세하게는 주행중인 차량에서 획득한 영상 내의 객체를 인식하는 영상 인식 장치 및 그 방법에 관한 것이다.The present invention relates to an image recognition apparatus and method, and more particularly, to an image recognition apparatus and method for recognizing an object in an image obtained from a driving vehicle.
최근 IT 기술이 급속도로 발전하면서 비전 시스템과 융합한 지능형 차량에 대한 관심이 높아지고 있다.Recently, with the rapid development of IT technology, there is a growing interest in intelligent vehicles integrated with vision systems.
이미지 센서에 의한 비전 기반 시스템은 저렴한 비용으로 많은 정보의 추출이 가능하고, 종래의 다양한 영상 처리 알고리즘을 활용할 수 있다는 강력한 장점으로 인해 오늘날까지 보편적으로 이용되어 왔다.Vision-based systems by image sensors have been widely used to this day because of the strong advantage of being able to extract a large amount of information at a low cost and utilizing various conventional image processing algorithms.
특히, 교통 사고의 위험을 줄이는 차선이탈 정보, 차선유지, 충돌 경보 시스템과 같은 첨단 안전 자동차(ASV: Advanced Safety Vehicle) 기술은 지능형 자동차 기술의 기반 기술로서 다양한 연구 및 기술개발에 많은 인력과 재원이 투입되고 있다.In particular, Advanced Safety Vehicle (ASV) technologies, such as lane departure information, lane keeping, and crash warning systems, which reduce the risk of traffic accidents, are the foundation technology for intelligent vehicle technology. It is being committed.
그러나, 잘 알려진 바와 같이 영상 처리 알고리즘의 실행은 하드웨어의 매 큰 부하로 작용하고, 원활한 영상 처리를 위해, 높은 성능을 제공하는 고가의 하드웨어가 필요한 문제점이 있다.However, as is well known, the execution of an image processing algorithm acts as a heavy load of hardware, and there is a problem in that expensive hardware that provides high performance is required for smooth image processing.
따라서, 본 발명의 목적은 차량에서 획득한 영상 내의 객체를 인식하는 과정에서 영상 처리에 따른 연산 부하를 크게 줄일 수 있는 영상 인식 장치 및 그 방법을 제공하는 데 있다.Accordingly, an object of the present invention is to provide an image recognition apparatus and method for greatly reducing the computational load caused by image processing in a process of recognizing an object in an image acquired by a vehicle.
상술한 목적을 달성하기 위한 본 발명의 일면에 따른 영상 인식 장법은, 정보 수집 모듈에 의해 수집된 차량 위치 정보, 지도 정보 및 상기 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 단계; 이미지 획득 모듈에 의해 실제 도로 이미지를 실시간으로 획득하는 단계; 및 상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 단계를 포함한다.In accordance with an aspect of the present invention, an image recognition method for achieving the above object includes a vehicle surrounding situation using vehicle location information, map information, and distance information from an object located near a road to the vehicle. Generating a virtual 3D road image corresponding to the in real time; Acquiring a real road image in real time by an image acquisition module; And matching the real road image with the 3D road image in units of frames in order to recognize an object appearing in the real road image using information included in the 3D road image.
본 발명의 다른 일면에 따른 영상 인식 장치는, 차량 위치 정보, 지도 정보 및 상기 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 수집하는 정보 수집 모듈; 상기 수집된 차량 위치 정보, 지도 정보 및 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 3D 도로 이미지 생성 모듈; 실제 도로 이미지를 실시간으로 획득하는 이미지 획득 모듈; 및 상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 매칭 모듈을 포함한다.According to another aspect of the present invention, an image recognition device includes: an information collection module configured to collect vehicle location information, map information, and distance information from the vehicle to an object located around a road; A 3D road image generation module that generates a virtual 3D road image corresponding to a situation around the vehicle in real time using the collected vehicle location information, map information, and distance information; An image acquisition module for obtaining an actual road image in real time; And a matching module for matching the real road image with the 3D road image in units of frames in order to recognize an object appearing in the real road image using information included in the 3D road image.
본 발명에 따르면, 실제 도로 이미지에 나타나는 객체들을 인식하기 위해, 이미지 기반의 객체 인식 알고리즘과 같이 연산 부하가 높은 영상 처리 과정 없이 도로 주변의 객체에 대한 정보를 포함하는 3D 도로 이미지를 실제 도로 이미지에 매칭하는 것만으로 실제 도로 이미지에 나타나는 객체들을 쉽게 인식할 수 있다.According to the present invention, in order to recognize the objects appearing on the actual road image, 3D road image including information about the objects around the road without the computational load processing process, such as image-based object recognition algorithm to the actual road image Simply matching makes it easy to recognize the objects that appear in the actual road image.
도 1은 본 발명에 일 실시 예에 따른 영상 인식 장치의 블록 구성도이다.
도 2 내지 5는 본 발명의 실시 예에 따른 3D 도로 이미지의 생성 방법을 설명하기 위한 도면들이다.
도 6은 도 1에 도시한 매칭 모듈의 블록 구성도이다.
도 7은 본 발명의 실시 예에 따른 매칭 과정을 개념적으로 설명하기 위한 도면이다.
도 8 내지 11은 본 발명의 일 실시 예에 따른 영상 인식 방법을 나타내는 흐름도들이다.1 is a block diagram of an image recognition device according to an exemplary embodiment.
2 to 5 are views for explaining a method of generating a 3D road image according to an embodiment of the present invention.
FIG. 6 is a block diagram illustrating the matching module shown in FIG. 1.
7 is a diagram conceptually illustrating a matching process according to an exemplary embodiment of the present invention.
8 to 11 are flowcharts illustrating an image recognition method according to an exemplary embodiment.
본 발명의 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.Embodiments of the present invention may be variously modified and have various embodiments, and specific embodiments are illustrated in the drawings and related detailed descriptions are described. However, this is not intended to limit the various embodiments of the present invention to specific embodiments, it should be understood to include all modifications and / or equivalents and substitutes included in the spirit and scope of the various embodiments of the present invention. In the description of the drawings, similar reference numerals are used for similar elements.
본 발명의 실시예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Expressions such as "including" or "can include" as used in embodiments of the present invention indicate the existence of the corresponding function, operation or component disclosed, and additional one or more functions, operations or configurations. Do not restrict elements. In addition, in various embodiments of the invention, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, one Or other features or numbers, steps, operations, components, parts or combinations thereof in any way should not be excluded in advance.
본 발명의 실시예에서 "또는" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한 다. 예를 들어, "A 또는 B"는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.In an embodiment of the invention, the expression "or" includes any and all combinations of words listed together. For example, "A or B" may include A, may include B, or may include both A and B.
본 발명의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in the embodiments of the present invention are merely used to describe specific embodiments, and are not intended to limit the embodiments of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.
이하, 첨부된 도면을 참조하여 실시예에 따른 영상 인식 장치에 대해서 살펴본다.Hereinafter, an image recognition apparatus according to an embodiment will be described with reference to the accompanying drawings.
도 1은 본 발명에 실시예에 따른 영상 인식 장치의 블록 구성도이다.1 is a block diagram of an image recognition device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 영상 인식 장치(100)의 적용 대상은 차량일 수 있다. 그러나 이에 한정하지 않고, 본 발명의 실시예에 따른 영상 인식 장치는 영상 내에서 객체 인식을 필요로 하는 모든 대상, 예를 들면, 비행기, 열차, 이동 로봇, 선박 등에 적용될 수 있다. Referring to FIG. 1, a target of an
본 발명의 실시예에 따른 영상 인식 장치(100)는 통신 기능을 갖는 컴퓨팅 장치로 불릴 수 있다. 컴퓨팅 장치는 메인 보드 상에 실장되는 프로세서(예를 들면, CPU, 그래픽 프로세서 등), 메모리(예를 들면, 휘발성 및 비휘발성 메모리 등), 저장소(예를 들면, 하드 디스크 등), 네트워크 인터페이스, 칩셋 및 이들을 연결하는 시스템 버스 등을 포함할 수 있다.
도 1에서는 다수의 블록들이 도시되어 있으나, 이는 컴퓨팅 장치를 단지 기능별로 구분한 것일 뿐, 이를 한정하고자 하는 의도는 아니다. 단지, 도 1에 도시한 블록들 중에서 참조 번호 110, 120, 130, 140 및 150이 지시하는 모듈들은 컴퓨팅 장치 내에서 '프로세서'로 불리는 장치 내에 탑재될 수도 있다.Although a plurality of blocks are shown in FIG. 1, this is merely a functional division of the computing device and is not intended to be limiting. However, among the blocks shown in FIG. 1, modules indicated by
구체적으로, 영상 인식 장치(100)는 통신 인터페이스(110), 정보 수집 모듈(120), 3D 도로 이미지 생성 모듈(130), 이미지 획득 모듈(140), 매칭 모듈(150) 및 표시 모듈(160) 및 저장 모듈(170)을 포함하도록 구성될 수 있다.In detail, the
통신 인터페이스(110)는 차량 네트워크 통신을 통해 차량 내의 전자 장치(10)와 통신한다. 여기서, 차량 네트워크 통신은, 예를 들면, 캔(CAN: Controller Area Network) 통신 또는 린(LIN: Local Interconnect Network) 통신을 포함할 수 있다.The communication interface 110 communicates with the
차량 내의 전자 장치(10)는 주행중인 차량의 현재 차량 위치 정보를 실시간으로 제공하는 GPS 수신부(10), 차량 주변의 객체까지의 거리 정보를 제공하는 거리 센서(13), 지도 정보를 제공하는 네비게이션 유닛(15), 차량 속도 정보(17)를 제공하는 엔진 제어 유닛 등을 포함할 수 있다.The
GPS 수신부(10)는 차량 위치 정보를 위도 및 경도로 이루어진 좌표값 형태로 제공할 수 있다.The
거리 센서(13)는 차량 주변의 객체까지의 거리 정보를 제공하기 위해, 초음파 센서, 레이더, 라이다 또는 이들의 조합으로 이루어질 수 있다. 여기서, 차량 주변의 객체는 정적 객체와 동적 객체를 포함하며, 정적 객체는, 예를 들면, 건물, 가로수, 교통 신호등과 같은 교통 구조물 등을 포함할 수 있으며, 동적 객체는, 주변 차량, 보행자 등을 예로 들 수 있다.The
지도 정보는 주행 중인 차량의 도로 구간에 대한 정보(이하, 도로 구간 정보), 상기 도로 구간에 위치하는 주변 건물에 대한 정보, 교통 신호등에 대한 정보 등을 포함할 수 있다. The map information may include information (hereinafter, road section information) on a road section of a driving vehicle, information on surrounding buildings located in the road section, information on a traffic signal, and the like.
도로 구간 정보는, 차량이 현재 주행중인 도로 구간이 일반도로인지 고속도로인지를 알려주는 정보(도로 구간 정보), 상기 도로 구간에 포함된 차선의 개수 정보를 포함할 수 있다.The road section information may include information indicating whether the road section in which the vehicle is currently driving is a general road or a highway (road section information), and information on the number of lanes included in the road section.
정보 수집 모듈(120)은 통신 인터페이스(110)를 통해 수신된 정보들, 예를 들면, 차량 위치 정보, 거리 정보, 지도 정보 및 차량 속도 정보 등을 수집하는 모듈로서, 일종의 버퍼 메모리로 구현될 수 있다.The
3D 이미지 생성 모듈(130)은 차량 위치 정보, 거리 정보, 지도 정보 및 차량 속도 정보 등을 이용하여 차량 주변 상황에 대응하는 가상의 3D(3차원) 도로 이미지를 실시간으로 생성한다.The 3D
이미지 획득 모듈(140)은 현재 주행 중인 차량의 차량 주변 상황에 대응하는 실제 도로 이미지를 실시간으로 생성한다. 이를 위해, 이미지 획득 모듈(140)은, 예를 들면, 컬러 카메라, 적외선 카메라, 스테레오 카메라 또는 이들이 조합된 카메라 중 어느 하나를 포함하도록 구성될 수 있다.The
매칭 모듈(150)은 3D 이미지 생성 모듈(130)에서 생성한 가상의 3D 도로 이미지와 이미지 획득 모듈(140)에서 생성한 실제 도로 이미지를 매칭한다. The
이러한 매칭 모듈(150)의 매칭에 의해, 3D 도로 이미지에 포함된 정보들을 기반으로 실제 도로 이미지에 나타나는 객체들을 인식할 수 있게 된다. 즉, 종래와 같이, 실제 도로 이미지에 나타나는 객체들을 인식하기 위해, 이미지 기반의 객체 인식 알고리즘과 같이 연산 부하가 높은 영상 처리 과정 없이 도로 주변의 객체에 대한 정보를 포함하는 3D 도로 이미지를 실제 도로 이미지에 매칭하는 것만으로 실제 도로 이미지에 나타나는 객체들을 쉽게 인식할 수 있다.By the matching of the matching
매칭 모듈(150)에 대한 상세 설명은 도 6을 참조하여 아래에서 상세히 기술한다.Detailed description of the matching
이하, 도 2 내지 5를 참조하여 3D 이미지 생성 모듈(130)에서 3D 도로 이미지를 생성하는 방법에 대해 상세히 설명하기로 한다. Hereinafter, a method of generating a 3D road image in the 3D
도 2 내지 도 5을 참조하면, 3D 이미지 생성 모듈(130)이 정보 수집 모듈에 의해 수집된 차량 위치 정보 및 지도 정보를 이용하여 차량이 현재 주행 중인 도로 구간이 몇 개의 차선을 포함하는 지를 확인한다. 2 to 5, the 3D
예를 들면, 3D 이미지 생성 모듈(130)이 차량 위치 정보를 지도 정보에 포함된 지도에 매칭하여 차량이 현재 주행 중인 도로 구간을 확인하고, 확인된 도로 구간의 차선 정보, 즉, 차선의 개수 정보를 획득한다. For example, the 3D
차선의 개수 정보가 획득되면, 획득된 차선의 개수 정보에 대응하는 기준 3D 도로 이미지를 저장 모듈(170)로부터 읽어온다. 기준 3D 도로 이미지의 일 예가 도 2에 도시된다. When the number information of the lanes is obtained, the reference 3D road image corresponding to the obtained number of lane information is read from the
기준 3D 도로 이미지는 사전에 모델링된 3D 형태의 도로 이미지로서, 차선 개수에 따라 구분되는 다수의 도로 이미지를 포함할 수 있다.The reference 3D road image may be a road image of a 3D type previously modeled and may include a plurality of road images classified according to the number of lanes.
일 예로, 획득된 차선의 개수 정보에 따라 현재 주행 중인 도로 구간이 1개의 차선으로 확인되면, 3D 이미지 생성 모듈(130)은 1개의 차선으로 이루어진 기준 3D 도로 이미지를 저장 모듈(170)에서 불러온다. For example, when the road section currently being driven is identified as one lane according to the obtained number of lane information, the 3D
다른 예로, 획득된 차선의 개수 정보에 따라, 현재 주행 중인 도로 구간이 3개의 차선으로 확인되면, 3D 이미지 생성 모듈(130)은 3개의 차선으로 이루어진 기준 3D 도로 이미지를 저장 모듈(170)에서 불러온다.As another example, when the road section currently being driven is identified as three lanes according to the obtained number of lane information, the 3D
차선의 개수 정보에 따른 기준 3D 도로 이미지가 준비되면, 지도 정보에 포함된 상기 도로 구간에 위치하는 주변 건물에 대한 정보, 교통 신호등과 같은 구조물 정보를 이용하여, 상기 준비된 기준 3D 도로 이미지 내의 도로 주변에 구조물(42, 44)을 배치한다. 기준 3D 도로 이미지에 구조물이 배치된 예가 도 3에 도시된다. When the reference 3D road image is prepared according to the number of lane information, surroundings of the road in the prepared reference 3D road image by using structure information such as traffic information and information about nearby buildings located in the road section included in the map information. Place the
구조물이 배치된 기준 3D 도로 이미지의 생성이 완료되면, 현재 차량의 주행 차선을 판단하고, 판단된 주행 차선을 기준으로 상기 구조물이 배치된 기준 3D 도로 이미지의 시점을 이미지 획득 모듈(140)의 카메라 시점으로 변환한다. When the generation of the reference 3D road image on which the structure is disposed is completed, the driving lane of the current vehicle is determined, and the viewpoint of the reference 3D road image on which the structure is disposed is determined based on the determined driving lane. Convert to a viewpoint.
먼저, 현재 차량이 몇 차선을 주행 중인지를 판단하는 방법은, 예를 들면, 현재 주행 중인 도로 구간의 차선 개수와 도로 주변 위치한 객체들까지의 거리 정보를 기반으로 판단할 수 있다. First, a method of determining how many lanes a vehicle is currently driving may be determined based on, for example, the number of lanes of a currently driving road section and distance information to objects located near a road.
도 5를 참조하여 현재 차량이 몇 차선을 주행 중인지를 판단하는 방법을 설명하면, 현재 주행 중인 도로 구간의 전체 도로 폭(W1)은 차선 개수로부터 통계학적 방법으로 충분히 예측할 수 있다. Referring to FIG. 5, a method of determining how many lanes a vehicle is currently driving can be sufficiently predicted by a statistical method from the number of lanes.
차선의 폭은 차량의 크기에 따라 설계되는 값으로 미리 알 수 있는 값이다. 따라서, 전체 도로 폭(W1)은 각 차선의 도로 폭을 합한 값으로 비교적 정확히 예측할 수 있다. 도 5에서는 3개 차선들이 예시되어 있고, 3개의 차선들 중 2차선으로 주행중인 차량이 예시되어 있다.Lane width is a value that is designed according to the size of the vehicle and can be known in advance. Therefore, the total road width W1 can be predicted relatively accurately as the sum of the road widths of each lane. In FIG. 5, three lanes are illustrated, and a vehicle driving in two lanes of the three lanes is illustrated.
차량의 현 위치로부터 객체(62)까지의 거리(d1)는 거리 센서(13)로부터 수집된 거리 정보로부터 알 수 있다. The distance d1 from the current position of the vehicle to the
또한, 거리 센서(13)가 좌에서 우 또는 우에서 좌로 전방 스캔이 가능하고 스캔 각도를 알 수 있도록 설계된 센서를 사용하면, 차량으로부터 차량의 진행 방향(차량 전방)으로 출사되는 출사광과 객체(62) 방향으로 출사되는 출사광 사이의 각도(θ)를 알 수 있다.In addition, when the
거리(d1)와 각도(θ)를 삼각함수 공식에 적용하면, 차량이 도로 폭 방향(D2)으로 객체(62)로부터 떨어진 거리(d2)를 계산할 수 있다. When the distance d1 and the angle θ are applied to the trigonometric formula, the distance d2 of the vehicle away from the
상기 전체 도로 폭(W1)과 상기 계산된 거리(d2)를 분석하면, 차량이 현재 2차선을 주행 중임을 예측할 수 있다.By analyzing the total road width W1 and the calculated distance d2 , it is possible to predict that the vehicle is currently driving two lanes.
이와 같이, 현재 차량의 주행 차선에 대한 예측이 완료되면, 예측된 주행 차선을 기준으로 도 3의 상기 구조물(42, 44)이 포함된 기준 3D 도로 이미지의 시점을 전술한 이미지 획득 모듈(140)의 카메라 시점으로 변환한다.As such, when the prediction of the driving lane of the current vehicle is completed, the
이러한 시점 변환이 필요한 이유는, 이미지 획득 모듈(140)에 의해 획득된 실제 도로 이미지와 상기 구조물이 포함된 기준 3D 도로 이미지를 매칭시키기 위함이다.This viewpoint conversion is necessary to match the actual road image acquired by the
즉, 이미지 획득 모듈(140)에서는 현재 주행 차선이 화면 중앙에 배치된 시점의 실제 도로 이미지를 제공하는 반면, 3D 도로 이미지 생성 모듈(130)에서는 가상의 기준 3D 도로 이미지, 즉, 현재 주행 차선을 고려하지 않은 시점의 이미지를 제공한다. 따라서, 현재 주행 차선이 화면 중앙에 배치된 시점의 실제 도로 이미지와 현재 주행 차선을 고려하지 않은 시점의 기준 3D 도로 이미지 간에 원활한 매칭이 어렵다.That is, the
따라서, 실제 도로 이미지와 기준 3D 도로 이미지를 매칭하기 위해, 기준 3D 도로 이미지의 시점을 앞서 예측한 현재 주행 차선을 고려한 시점으로 변환할 필요가 있다. 즉, 도 4에 도시된 바와 같이, 기준 3D 도로 이미지를 보여주는 화면 내에서 현재 주행 차선이 화면 중앙에 배치되도록 기준 3D 도로 이미지의 시점 변환이 필요하다.Therefore, in order to match the actual road image and the reference 3D road image, it is necessary to convert the viewpoint of the reference 3D road image to a viewpoint in consideration of the previously predicted current driving lane. That is, as shown in FIG. 4, the viewpoint transformation of the reference 3D road image is required so that the current driving lane is disposed in the center of the screen in the screen showing the reference 3D road image.
이러한 시점 변환을 위해, 3D 도로 이미지 생성 모듈(130)은, 차량이 특정 차선을 주행 중일 때 이미지 획득 모듈(140)에서 획득한 실제 이미지의 시점 정보를 기반으로 기준 3D 도로 이미지의 시점을 변환할 수 있다.For this viewpoint conversion, the 3D road
주행 차선과 관련된 실제 이미지의 시점 정보는 저장 모듈(170)에 미리 저장된 정보로서, 카메라의 자세를 롤(Roll), 피치(Pitch) 및 요(Yaw)로 나타내는 각도와 연관된 정보일 수 있다.The viewpoint information of the actual image related to the driving lane may be information stored in advance in the
롤(Roll), 피치(Pitch) 및 요(Yaw)로 나타내는 각도는 차량이 1차선을 주행일 때, 1차선을 구분하는 라인과 1차선의 주변 차선을 구분하는 라인 간의 상관 관계로부터 계산될 수 있다.The angles represented by Roll, Pitch, and Yaw can be calculated from the correlation between the lines separating one lane and the lines separating the peripheral lanes of the first lane when the vehicle is driving one lane. have.
도 4에 도시된 바와 같이, 기준 3D 도로 이미지를 보여주는 화면 내에서 현재 주행 차선이 화면 중앙에 배치되도록 기준 3D 도로 이미지의 시점 변환이 완료되면, 최종 3D 도로 이미지의 생성이 완료된다.As shown in FIG. 4, when the viewpoint transformation of the reference 3D road image is completed such that the current driving lane is disposed at the center of the screen in the screen showing the reference 3D road image, generation of the final 3D road image is completed.
최종 3D 도로 이미지의 생성은 정보 수집 모듈(120)에서 정보를 수집할 때마다 실시간으로 이루어진다.Generation of the final 3D road image is performed in real time whenever the
도 6은 도 1에 도시한 매칭 모듈의 블록 구성도이다.FIG. 6 is a block diagram illustrating the matching module shown in FIG. 1.
도 6을 참조하면, 매칭 모듈(150)은 3D 도로 이미지 생성 모듈(130)에서 생성한 3D 도로 이미지와 이미지 획득 모듈(140)에서 획득한 실제 도로 이미지를 프레임 단위로 매칭한다.Referring to FIG. 6, the
비록 3D 도로 이미지와 실제 도로 이미지의 매칭 성공률을 위해, 전술한 3D 도로 이미지 생성 모듈(130)에서 현재 주행 차선에 맞게 3D 도로 이미지의 시점 변환을 수행하였지만, 더욱 정밀한 매칭을 위해, 매칭 모듈(150)에서는 이미지 획득 모듈에서 획득한 실제 도로 이미지에 포함된 객체(차선, 교통 구조물, 도로 주변 건물)를 수행하고, 추출된 객체와 3D 도로 이미지에 포함된 객체(가상의 객체) 간의 오차를 보상한다. Although the 3D road
중요한 점은 종래와 같이 실제 도로 이미지에서 매 프레임 단위로 객체를 추출하면, 하드웨어 가중되는 부하가 커지므로, 이를 줄이기 위해, 일정 프레임 단위로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에서만 객체를 추출하고, 첫 번째 프레임의 실제 도로 이미지에서 추출된 객체와 첫 번째 프레임의 실제 도로 이미지에 대응하는 3D 도로 이미지의 객체 간의 오차를 계산하고, 계산된 오차를 이용하여 다음 프레임의 실제 도로 이미지와 3D 도로 이미지 간의 오차를 보상하는 방식으로 매칭 과정을 수행한다. The important point is that when the object is extracted every frame unit from the actual road image as in the related art, the hardware weighted load increases, so to reduce this, only the actual road image of the first frame among the actual road images configured in a certain frame unit is used. , Calculate the error between the object extracted from the real road image of the first frame and the object of the 3D road image corresponding to the real road image of the first frame, and use the calculated error The matching process is performed in a manner that compensates for errors between 3D road images.
이와 같이, 첫 번째 프레임에서 계산된 오차만을 이용하여 다음 프레임의 실제 도로 이미지와 3D 도로 이미지 간의 오차를 보상하는 방식으로 매칭을 수행하기 때문에, 매 프레임마다 실제 도로 이미지에서 객체를 추출할 필요가 없기 때문에, 객체 추출에 따른 연산 부하를 크게 줄이면서 동시에 실제 도로 이미지와 3D 도로 이미지 간의 정밀한 매칭을 달성할 수 있다.As such, the matching is performed by using only the error calculated in the first frame in a manner that compensates for the error between the actual road image and the 3D road image of the next frame, so that there is no need to extract an object from the actual road image every frame. Therefore, it is possible to significantly reduce the computational load due to object extraction and at the same time achieve precise matching between the actual road image and the 3D road image.
구체적으로, 매칭 모듈(150)은, 프레임 추출부(150-1), 객체 추출부(150-3), 3D 도로 이미지 추출부(150-5), 비교부(150-7), 3D 도로 이미지 보정부(150-9) 및 매칭부(150-11)를 포함할 수 있다.In detail, the
프레임 추출부(150-1)는 이미지 획득 모듈(140)에서 획득한 실제 도로 이미지들을 일정한 프레임 단위(Fn~Fn +k)로 구성하고, 일정한 프레임 단위(Fn~Fn +k)로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임(Fn)의 실제 도로 이미지를 추출한다. The frame extractor 150-1 configures the actual road images acquired by the
객체 추출부(150-3)는 프레임 추출부(150-1)에 의해 추출된 첫 번째 프레임(Fn)의 실제 도로 이미지에서 객체를 추출한다. 여기서, 객체는, 차선, 교통 신호등, 건물, 도로 주변의 구조물 등을 포함할 수 있다.The object extractor 150-3 extracts an object from an actual road image of the first frame F n extracted by the frame extractor 150-1. Here, the object may include a lane, a traffic light, a building, a structure around a road, and the like.
객체를 추출하는 방법으로, 다양한 영상 처리 알고리즘이 이용될 수 있으며, 본 발명에서 이러한 영상 처리 알고리즘을 한정하는데 특징이 있는 것이 아니므로, 이에 대한 설명은 공지된 기술로 대신한다. 다만, 영상 처리 알고리즘의 일례로, 이미지 기반의 차선 검출 알고리즘, 객체 추출 알고리즘 등을 예로 들 수 있다.As a method of extracting an object, various image processing algorithms may be used, and since the present invention is not characterized in defining the image processing algorithm, the description thereof is replaced by a known technique. However, as an example of an image processing algorithm, an image-based lane detection algorithm, an object extraction algorithm, and the like may be exemplified.
3D 도로 이미지 추출부(150-5)는 전술한 프레임 추출부(150-1)에서 구성한 일정한 프레임 단위(Fn~Fn +k)와 동일한 프레임 단위(Mn~Mn+k)로 3D 도로 이미지들을 구성하고, 동일한 프레임 단위(Mn~Mn+k)로 3D 도로 이미지들 중에서 첫 번째 프레임(Mn)의 3D 도로 이미지를 추출한다. The 3D road image extracting unit 150-5 is 3D in the same frame unit (M n to M n + k ) as a predetermined frame unit (F n to F n + k ) configured in the above-described frame extracting unit 150-1. The road images are constructed, and the 3D road image of the first frame M n is extracted from the 3D road images in the same frame unit (M n to M n + k ).
한편, 이러한 3D 도로 이미지의 추출 과정에 앞서, 실제 도로 이미지와 3D 도로 이미지 간의 동기화 과정이 선행될 수 있다. 동기화 방법은, 이미지 획득 모듈(140)의 동작 시간과 정보 수집 모듈(120)의 정보 수집 시간을 동기시키는 방식으로 이루어질 수 있으며, 도 1 및 2에서는 도시하지 않았으나, 이미지 획득 모듈(140)의 동작 시간과 정보 수집 모듈(120)의 정보 수집 시간을 동기시키기 위한 동기화 모듈이 도 1 또는 2의 적절한 위치에 도시될 수 있다.Meanwhile, prior to the process of extracting the 3D road image, the synchronization process between the actual road image and the 3D road image may be preceded. The synchronization method may be performed by synchronizing the operation time of the
비교부(150-7)는 객체 추출부(150-3)에 의해 첫 번째 프레임(Fn)의 실제 도로 이미지에서 추출된 객체와 3D 도로 이미지 추출부(150-5)에 의해 첫 번째 프레임(Mn)의 3D 도로 이미지에 포함된 객체를 비교하여 그 차이에 대응하는 오차를 계산한다. 여기서, 비교 대상에 해당하는 객체들은 특징 벡터로 표현될 수 있으며, 상기 오차는 특징벡터들 간의 차이값일 수 있다. The comparator 150-7 is an object extracted from the actual road image of the first frame F n by the object extractor 150-3 and the first frame by the 3D road image extractor 150-5. M n ) compares the objects included in the 3D road image to calculate the error corresponding to the difference. Here, the objects corresponding to the comparison object may be represented by feature vectors, and the error may be a difference value between feature vectors.
한편, 3D 도로 이미지 추출부(150-5)에서 추출된 3D 도로 이미지는 가상 객체에 대한 정보를 포함하고 있기 때문에, 위의 객체 추출부(150-3)와 같이, 실제 도로 이미지에서 객체를 추출하는 과정이 수행될 필요는 없다.Meanwhile, since the 3D road image extracted by the 3D road image extractor 150-5 includes information about a virtual object, the object is extracted from the actual road image, as in the object extractor 150-3. The process does not have to be performed.
3D 도로 이미지 보정부(150-9)는 전술한 비교부(150-7)에서 계산한 오차를 이용하여 프레임 단위(Mn~Mn+k)로 구성된 3D 도로 이미지들을 보정한다.The 3D road image correction unit 150-9 corrects 3D road images configured in frame units M n to M n + k using the error calculated by the comparison unit 150-7.
매칭부(150-11)은 프레임 추출부(150-1)로 입력되는 일정 프레임 단위(Fn~Fn+k)의 실제 도로 이미지들과 3D 도로 이미지 보정부(150-9)에 의해 보정된 일정 프레임 단위(Mn~Mn+k)의 3D 도로 이미지들을 매 프레임마다 매칭한다. The matching unit 150-11 is corrected by the 3D road image correcting unit 150-9 and the actual road images in a predetermined frame unit F n to F n + k input to the frame extracting unit 150-1. Matched 3D road images in a predetermined frame unit (M n to M n + k ) every frame.
도 7에는 매칭부(150-11)에 의해 수행되는 매칭 과정을 개념적으로 도시한 것이다. 7 conceptually illustrates a matching process performed by the matching unit 150-11.
이러한 매칭부(150-11)의 매칭 과정에 따르면, 일정 프레임 단위의 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에 대해서만 객체 인식을 위한 영상 처리를 수행함으로써, 종래와 같이 매 프레임마다 수행되어야 하는 객체 인식 과정에서 가중되는 연산 부하를 크게 줄이는 동시에 실제 도로 이미지와 3D 도로 이미지 간의 정밀한 매칭이 가능해 질 수 있다.According to the matching process of the matching unit 150-11, image processing for object recognition is performed only on the actual road image of the first frame among the actual road images in a predetermined frame unit, and thus, the matching unit 150-11 should be performed every frame as in the prior art. This greatly reduces the computational load on the object recognition process, and enables accurate matching between actual road images and 3D road images.
이와 같이 정밀한 매칭과정에 의해, 3D 도로 이미지에 포함된 정보들을 기반으로 실제 도로 이미지에 나타나는 객체들을 복잡한 영상 처리 과정 없이 쉽게 인식할 수 있게 된다.By such a precise matching process, it is possible to easily recognize the objects appearing on the actual road image based on the information included in the 3D road image without complicated image processing.
도 8 내지 11은 본 발명의 일 실시 예에 따른 영상 인식 방법을 나타내는 흐름도들이다.8 to 11 are flowcharts illustrating an image recognition method according to an exemplary embodiment.
먼저, 도 8을 참조하면, 단계 S811에서, 차량 위치 정보, 지도 정보 및 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 수집하는 과정이 수행된다.First, referring to FIG. 8, in step S811, a process of collecting vehicle location information, map information, and distance information from a vehicle to an object located around a road is performed.
이어, 단계 S813에서, 수집된 차량 위치 정보, 지도 정보 및 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 과정이 수행된다.Subsequently, in step S813, a process of generating a virtual 3D road image corresponding to a situation around a vehicle in real time using the collected vehicle location information, map information, and distance information is performed.
일 실시 예에서, 단계 S813는, 도 9에 도시된 바와 같이, 상기 차량 위치 정보, 상기 지도 정보 및 상기 거리 정보를 이용하여 상기 차량이 주행 중인 주행 차선을 판단하는 과정(S813-1) 및 상기 판단된 주행 차선을 기반으로 상기 3D 도로 이미지를 생성하는 과정(S813-3)을 포함할 수 있다.In an embodiment, as shown in FIG. 9, in step S813, a process of determining a driving lane in which the vehicle is driven using the vehicle location information, the map information, and the distance information (S813-1) and the The step S813-3 may generate the 3D road image based on the determined driving lane.
여기서, 상기 판단된 주행 차선을 기반으로 상기 3D 도로 이미지를 생성하는 과정(S813-3)은 상기 이미지 획득 모듈에 의해 획득된 실제 도로 이미지에서 상기 차량의 주행 차선이 표시 화면에 표시되는 시점과 동일한 시점을 갖도록 상기 판단된 주행 차선이 표시 화면의 중앙에 배치되는 상기 3D 도로 이미지를 생성하는 것일 수 있다.Here, the step (S813-3) of generating the 3D road image based on the determined driving lane is the same as the point in time at which the driving lane of the vehicle is displayed on the display screen in the actual road image acquired by the image acquisition module. The determined driving lane may have the 3D road image arranged at the center of the display screen to have a viewpoint.
다른 실시 예에서, 단계 S813는, 도 10에 도시된 바와 같이, 상기 차량 위치 정보를 지도 정보에 매칭하여 상기 차량이 현재 주행 중인 도로 구간에 포함된 차선의 개수 정보를 획득하는 과정(S813-5), 상기 획득된 차선의 개수 정보에 대응하는 기준 3D 도로 이미지를 저장 모듈로부터 읽어오는(호출하는) 과정(S813-7), 상기 지도 정보에 포함된 구조물 정보를 이용하여 상기 기준 3D 도로 이미지에 구조물을 배치하는 과정(S813-9) 및 상기 구조물이 배치된 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하여, 상기 3D 도로 이미지를 생성하는 과정(S813-11)을 포함한다.In another embodiment, as illustrated in FIG. 10, in operation S813-5, acquiring the number of lanes included in the road section in which the vehicle is currently driving by matching the vehicle location information with map information (S813-5). (S813-7) reading a reference 3D road image corresponding to the obtained lane number information from a storage module (step S813-7), and using the structure information included in the map information, to the reference 3D road image. Disposing a structure (S813-9) and converting the viewpoint of the reference 3D road image on which the structure is disposed to a camera viewpoint of the image acquisition module to generate the 3D road image (S813-11). .
상기 과정(S813-11)은 상기 차량의 주행 차선을 판단하는 과정과 상기 판단된 주행 차선이 상기 기준 3D 도로 이미지를 표시하는 표시 화면의 중앙에 배치되도록 상기 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하는 과정을 포함할 수 있다.The process (S813-11) may include determining the driving lane of the vehicle and acquiring the image of the viewpoint of the reference 3D road image so that the determined driving lane is disposed at the center of a display screen displaying the reference 3D road image. The method may include converting to a camera viewpoint of the module.
여기서, 상기 차량의 주행 차선을 판단하는 과정은 스캔 각도를 알 수 있는 거리 센서로부터 수집된 상기 거리 정보를 이용하여, 상기 차량이 도로 폭 방향으로 객체로부터 떨어진 거리를 계산하고, 상기 차량이 주행 중인 도로 구간의 전체 도로 폭과 상기 계산된 거리를 분석하여 상기 차량의 주행 차선을 판단할 수 있다.The determining of the driving lane of the vehicle may include calculating the distance that the vehicle is away from an object in a road width direction by using the distance information collected from a distance sensor capable of knowing a scan angle, and driving the vehicle. The driving lane of the vehicle may be determined by analyzing the total road width of the road section and the calculated distance.
이어, 단계 S815에서, 이미지 획득 모듈로부터 실제 도로 이미지를 실시간으로 획득하는 과정이 수행된다.Subsequently, in step S815, a process of obtaining an actual road image from the image acquisition module in real time is performed.
이어, 단계 S817에서, 상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 과정이 수행된다.Subsequently, in step S817, a process of matching the real road image with the 3D road image in units of frames is performed to recognize an object appearing in the real road image using the information included in the 3D road image.
구체적으로, 상기 단계 S817는, 도 11에 도시된 바와 같이, N개의 프레임들로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에서 객체를 추출하는 과정(S817-1), 상기 N개의 프레임들로 구성된 3D 도로 이미지들 중에서 첫 번째 프레임의 3D 도로 이미지에서 객체를 추출하는 과정(S817-3), 상기 첫 번째 프레임의 실제 도로 이미지에서 추출된 객체의 특징 벡터값과 상기 첫 번째 프레임의 3D 도로 이미지에서 추출된 객체의 특징 벡터값 간의 오차를 계산하는 과정(S817-5), 상기 계산된 오차를 이용하여 상기 첫 번째 프레임부터 N번째 프레임까지의 3D 도로 이미지들을 보정하는 과정(S817-7) 및 상기 보정된 3D 도로 이미지들과 상기 실제 도로 이미지들을 매 프레임마다 매칭하는 과정(S817-9)을 포함한다.In detail, in operation S817, an object is extracted from the actual road image of the first frame among the actual road images including N frames (S817-1), and the N frames. Extracting an object from the 3D road image of the first frame among the 3D road images consisting of (S817-3), the feature vector value of the object extracted from the actual road image of the first frame and the 3D of the first frame A process of calculating an error between feature vector values of an object extracted from a road image (S817-5), and a process of correcting 3D road images from the first frame to the Nth frame using the calculated error (S817-7) And matching the corrected 3D road images with the real road images every frame (S817-9).
이상에서 본 발명에 대하여 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 본 발명의 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Although the present invention has been described above with reference to the embodiments, these are only examples and are not intended to limit the present invention, and those skilled in the art to which the present invention pertains may have an abnormality within the scope not departing from the essential characteristics of the present invention. It will be appreciated that various modifications and applications are not illustrated. For example, each component specifically shown in the embodiment of the present invention can be modified. And differences relating to such modifications and applications will have to be construed as being included in the scope of the invention defined in the appended claims.
Claims (14)
정보 수집 모듈에 의해 수집된 차량 위치 정보, 지도 정보 및 상기 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 단계;
이미지 획득 모듈에 의해 실제 도로 이미지를 실시간으로 획득하는 단계; 및
상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 단계
를 포함하는 영상 인식 방법.
In the image recognition method for recognizing the object in the image acquired by the driving vehicle,
Generating, in real time, a virtual 3D road image corresponding to a situation around the vehicle by using the vehicle location information, the map information collected by the information collection module, and the distance information from the vehicle to an object located around the road;
Acquiring a real road image in real time by an image acquisition module; And
Matching the real road image with the 3D road image in units of frames in order to recognize an object appearing in the real road image using information included in the 3D road image.
Image recognition method comprising a.
상기 차량 위치 정보, 상기 지도 정보 및 상기 거리 정보를 이용하여 상기 차량이 주행 중인 주행 차선을 판단하는 단계; 및
상기 판단된 주행 차선을 기반으로 상기 3D 도로 이미지를 생성하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 1, wherein the generating of
Determining a driving lane on which the vehicle is driven by using the vehicle location information, the map information, and the distance information; And
Generating the 3D road image based on the determined driving lane
Image recognition method comprising a.
상기 이미지 획득 모듈에 의해 획득된 실제 도로 이미지에서 상기 차량의 주행 차선이 표시 화면에 표시되는 시점과 동일한 시점을 갖도록 상기 판단된 주행 차선이 표시 화면의 중앙에 배치되는 상기 3D 도로 이미지를 생성하는 단계인 것인 영상 인식 방법.
The method of claim 2, wherein the generating of the
Generating the 3D road image in which the determined driving lane is disposed at the center of the display screen such that the determined driving lane has the same view point as the time at which the driving lane of the vehicle is displayed on the display screen in the actual road image acquired by the image acquisition module; Image recognition method.
상기 차량 위치 정보를 지도 정보에 매칭하여 상기 차량이 현재 주행 중인 도로 구간에 포함된 차선의 개수 정보를 획득하는 단계;
상기 획득된 차선의 개수 정보에 대응하는 기준 3D 도로 이미지를 저장 모듈로부터 읽어오는 단계;
상기 지도 정보에 포함된 구조물 정보를 이용하여 상기 기준 3D 도로 이미지에 구조물을 배치하는 단계; 및
상기 구조물이 배치된 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하여, 상기 3D 도로 이미지를 생성하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 1, wherein the generating of
Acquiring the number of lanes included in a road section in which the vehicle is currently driving by matching the vehicle location information with map information;
Reading a reference 3D road image corresponding to the obtained number of lane information from a storage module;
Arranging a structure in the reference 3D road image by using the structure information included in the map information; And
Generating the 3D road image by converting the viewpoint of the reference 3D road image on which the structure is disposed to the camera view of the image acquisition module
Image recognition method comprising a.
상기 차량의 주행 차선을 판단하는 단계; 및
상기 판단된 주행 차선이 상기 기준 3D 도로 이미지를 표시하는 표시 화면의 중앙에 배치되도록 상기 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 4, wherein the converting step,
Determining a driving lane of the vehicle; And
Converting the viewpoint of the reference 3D road image to the camera viewpoint of the image acquisition module so that the determined driving lane is disposed at the center of a display screen displaying the reference 3D road image.
Image recognition method comprising a.
스캔 각도를 알 수 있는 거리 센서로부터 수집된 상기 거리 정보를 이용하여, 상기 차량이 도로 폭 방향으로 객체로부터 떨어진 거리를 계산하는 단계; 및
상기 차량이 주행 중인 도로 구간의 전체 도로 폭과 상기 계산된 거리를 분석하여 상기 차량의 주행 차선을 판단하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 5, wherein the determining comprises:
Calculating a distance that the vehicle is away from an object in a road width direction using the distance information collected from a distance sensor capable of knowing a scan angle; And
Determining a driving lane of the vehicle by analyzing a total road width and the calculated distance of a road section in which the vehicle is driving;
Image recognition method comprising a.
상기 실제 도로 이미지와 상기 3D 도로 이미지를 시간에 따라 연속되는 N개의 프레임들로 구성하는 단계;
상기 N개의 프레임들로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에서 객체를 추출하는 단계;
상기 N개의 프레임들로 구성된 3D 도로 이미지들 중에서 첫 번째 프레임의 3D 도로 이미지에서 객체를 추출하는 단계;
상기 첫 번째 프레임의 실제 도로 이미지에서 추출된 객체의 특징 벡터값과 상기 첫 번째 프레임의 3D 도로 이미지에서 추출된 객체의 특징 벡터값 간의 오차를 계산하는 단계;
상기 계산된 오차를 이용하여 상기 첫 번째 프레임부터 N번째 프레임까지의 3D 도로 이미지들을 보정하는 단계; 및
상기 보정된 3D 도로 이미지들과 상기 실제 도로 이미지들을 매 프레임마다 매칭하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 1, wherein the matching comprises:
Constructing the actual road image and the 3D road image into N frames consecutive over time;
Extracting an object from the actual road image of the first frame among the actual road images composed of the N frames;
Extracting an object from the 3D road image of the first frame among the 3D road images composed of the N frames;
Calculating an error between the feature vector value of the object extracted from the actual road image of the first frame and the feature vector value of the object extracted from the 3D road image of the first frame;
Correcting 3D road images from the first frame to the Nth frame using the calculated error; And
Matching the corrected 3D road images and the actual road images every frame
Image recognition method comprising a.
차량 위치 정보, 지도 정보 및 상기 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 수집하는 정보 수집 모듈;
상기 수집된 차량 위치 정보, 지도 정보 및 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 3D 도로 이미지 생성 모듈;
실제 도로 이미지를 실시간으로 획득하는 이미지 획득 모듈; 및
상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 매칭 모듈
을 포함하는 영상 인식 장치.
In the image recognition device for recognizing the object in the image acquired by the driving vehicle,
An information collection module for collecting vehicle location information, map information, and distance information from the vehicle to an object located around a road;
A 3D road image generation module that generates a virtual 3D road image corresponding to a situation around the vehicle in real time using the collected vehicle location information, map information, and distance information;
An image acquisition module for obtaining an actual road image in real time; And
Matching module for matching the real road image and the 3D road image in units of frames in order to recognize an object appearing in the real road image using information included in the 3D road image.
Image recognition device comprising a.
상기 차량 위치 정보, 상기 지도 정보 및 상기 거리 정보를 이용하여 상기 차량이 주행 중인 주행 차선을 판단하고, 상기 판단된 주행 차선을 기반으로 상기 3D 도로 이미지를 생성하는 것인 영상 인식 장치.
The method of claim 8, wherein the 3D road image generation module,
And determining the driving lane in which the vehicle is driven by using the vehicle location information, the map information, and the distance information, and generating the 3D road image based on the determined driving lane.
상기 이미지 획득 모듈에 의해 획득된 실제 도로 이미지에서 상기 차량의 주행 차선이 표시 화면에 표시되는 시점과 동일한 시점을 갖도록 상기 판단된 주행 차선이 표시 화면의 중앙에 배치되는 상기 3D 도로 이미지를 생성하는 것인 영상 인식 장치.
The method of claim 8, wherein the 3D road image generation module,
Generating the 3D road image in which the determined driving lane is disposed at the center of the display screen such that the determined driving lane has the same view point as the time when the driving lane of the vehicle is displayed on the display screen in the actual road image acquired by the image acquisition module; Image recognition device.
상기 차량 위치 정보를 지도 정보에 매칭하여 상기 차량이 현재 주행 중인 도로 구간에 포함된 차선의 개수 정보를 획득하는 프로세스,
상기 획득된 차선의 개수 정보에 대응하는 기준 3D 도로 이미지를 저장 모듈로부터 읽어오는 프로세스,
상기 지도 정보에 포함된 구조물 정보를 이용하여 상기 기준 3D 도로 이미지에 구조물을 배치하는 프로세스 및
상기 구조물이 배치된 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하는 프로세스
를 처리하는 것인 영상 인식 장치.
The method of claim 8, wherein the 3D road image generation module,
Obtaining information on the number of lanes included in a road section in which the vehicle is currently driving by matching the vehicle location information with map information;
Reading a reference 3D road image corresponding to the obtained lane number information from a storage module;
A process of arranging the structure in the reference 3D road image by using the structure information included in the map information;
The process of converting the viewpoint of the reference 3D road image in which the structure is disposed into the camera viewpoint of the image acquisition module.
The image recognition device to process.
상기 차량의 주행 차선을 판단하는 프로세스, 및
상기 판단된 주행 차선이 상기 기준 3D 도로 이미지를 표시하는 표시 화면의 중앙에 배치되도록 상기 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하는 프로세스
를 포함하는 것인 영상 인식 장치.
The converting process of claim 11, wherein the converting process is performed by the 3D road image generating module.
A process of determining a driving lane of the vehicle, and
A process of converting the viewpoint of the reference 3D road image into the camera viewpoint of the image acquisition module such that the determined driving lane is disposed at the center of a display screen displaying the reference 3D road image
Image recognition apparatus comprising a.
스캔 각도를 알 수 있는 거리 센서로부터 수집된 상기 거리 정보를 이용하여, 상기 차량이 도로 폭 방향으로 객체로부터 떨어진 거리를 계산하는 프로세스 및
상기 차량이 주행 중인 도로 구간의 전체 도로 폭과 상기 계산된 거리를 분석하여 상기 차량의 주행 차선을 판단하는 프로세스
를 포함하는 것인 영상 인식 장치.
The determining process of claim 12, wherein the determining process performed in the 3D road image generation module comprises:
A process of calculating the distance the vehicle is away from an object in the road width direction using the distance information collected from a distance sensor capable of knowing a scan angle;
A process of determining a driving lane of the vehicle by analyzing a total road width and the calculated distance of a road section in which the vehicle is driving;
Image recognition apparatus comprising a.
상기 실제 도로 이미지와 상기 3D 도로 이미지를 시간에 따라 연속되는 N개의 프레임들로 구성하는 프로세스,
상기 N개의 프레임들로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에서 객체를 추출하는 프로세스,
상기 N개의 프레임들로 구성된 3D 도로 이미지들 중에서 첫 번째 프레임의 3D 도로 이미지에서 객체를 추출하는 프로세스,
상기 첫 번째 프레임의 실제 도로 이미지에서 추출된 객체의 특징 벡터값과 상기 첫 번째 프레임의 3D 도로 이미지에서 추출된 객체의 특징 벡터값 간의 오차를 계산하는 프로세스,
상기 계산된 오차를 이용하여 상기 첫 번째 프레임부터 N번째 프레임까지의 3D 도로 이미지들을 보정하는 프로세스, 및
상기 보정된 3D 도로 이미지들과 상기 실제 도로 이미지들을 매 프레임마다 매칭하는 프로세스
를 수행하는 것인 영상 인식 장치.The method of claim 8, wherein the matching module,
A process of constructing the actual road image and the 3D road image with N frames contiguous with time;
A process of extracting an object from the actual road image of the first frame among the actual road images composed of the N frames,
A process of extracting an object from the 3D road image of the first frame among the 3D road images composed of the N frames,
A process of calculating an error between the feature vector value of the object extracted from the actual road image of the first frame and the feature vector value of the object extracted from the 3D road image of the first frame;
Correcting 3D road images from the first frame to the Nth frame using the calculated error, and
A process of matching the corrected 3D road images and the actual road images every frame
The image recognition device to perform.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180059767A KR102163774B1 (en) | 2018-05-25 | 2018-05-25 | Apparatus and method for image recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180059767A KR102163774B1 (en) | 2018-05-25 | 2018-05-25 | Apparatus and method for image recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190134303A true KR20190134303A (en) | 2019-12-04 |
KR102163774B1 KR102163774B1 (en) | 2020-10-08 |
Family
ID=69004823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180059767A KR102163774B1 (en) | 2018-05-25 | 2018-05-25 | Apparatus and method for image recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102163774B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021126749A1 (en) * | 2019-12-19 | 2021-06-24 | Argo AI, LLC | Ground surface imaging combining lidar and camera data |
WO2022039476A1 (en) * | 2020-08-18 | 2022-02-24 | 삼성전자 주식회사 | Method for obtaining positional information using image, and electronic device for supporting same |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220049304A (en) * | 2020-10-14 | 2022-04-21 | 삼성전자주식회사 | Method for updating a 3D map using an image and an electronic device supporting the same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4788426B2 (en) * | 2006-03-23 | 2011-10-05 | 株式会社デンソー | Vehicle display system |
KR101217594B1 (en) * | 2012-08-16 | 2013-01-03 | 주식회사 피엘케이 테크놀로지 | Route change judgement system using image recognition information and its method |
JP2013186551A (en) * | 2012-03-06 | 2013-09-19 | Nissan Motor Co Ltd | Traveling object position/attitude estimation device and method |
-
2018
- 2018-05-25 KR KR1020180059767A patent/KR102163774B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4788426B2 (en) * | 2006-03-23 | 2011-10-05 | 株式会社デンソー | Vehicle display system |
JP2013186551A (en) * | 2012-03-06 | 2013-09-19 | Nissan Motor Co Ltd | Traveling object position/attitude estimation device and method |
KR101217594B1 (en) * | 2012-08-16 | 2013-01-03 | 주식회사 피엘케이 테크놀로지 | Route change judgement system using image recognition information and its method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021126749A1 (en) * | 2019-12-19 | 2021-06-24 | Argo AI, LLC | Ground surface imaging combining lidar and camera data |
US11681047B2 (en) | 2019-12-19 | 2023-06-20 | Argo AI, LLC | Ground surface imaging combining LiDAR and camera data |
WO2022039476A1 (en) * | 2020-08-18 | 2022-02-24 | 삼성전자 주식회사 | Method for obtaining positional information using image, and electronic device for supporting same |
US20220092872A1 (en) * | 2020-08-18 | 2022-03-24 | Samsung Electronics Co., Ltd. | Method for obtaining position information using image and electronic device supporting the same |
Also Published As
Publication number | Publication date |
---|---|
KR102163774B1 (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230014874A1 (en) | Obstacle detection method and apparatus, computer device, and storage medium | |
US20220092816A1 (en) | Vehicle Localization Using Cameras | |
EP3581890B1 (en) | Method and device for positioning | |
CA3028653C (en) | Methods and systems for color point cloud generation | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
KR101647370B1 (en) | road traffic information management system for g using camera and radar | |
EP3967972A1 (en) | Positioning method, apparatus, and device, and computer-readable storage medium | |
JP5663352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20160232410A1 (en) | Vehicle speed detection | |
EP2770728A2 (en) | Image distortion correction of a camera with a rolling shutter | |
US11430199B2 (en) | Feature recognition assisted super-resolution method | |
KR20200030305A (en) | Learning data generation method for image processing, image processing method, and apparatus thereof | |
US20230222671A1 (en) | System for predicting near future location of object | |
EP3324359B1 (en) | Image processing device and image processing method | |
KR102428765B1 (en) | Autonomous driving vehicle navigation system using the tunnel lighting | |
KR102117313B1 (en) | Gradient estimation device, gradient estimation method, computer program, and controlling system | |
US10984263B2 (en) | Detection and validation of objects from sequential images of a camera by using homographies | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
EP3432265A1 (en) | Image processing device, apparatus control system, image pickup device, image processing method, and program | |
KR102388806B1 (en) | System for deciding driving situation of vehicle | |
US10984264B2 (en) | Detection and validation of objects from sequential images of a camera | |
KR102163774B1 (en) | Apparatus and method for image recognition | |
KR20130120041A (en) | Apparatus and method for detecting traffic lane | |
Nambi et al. | FarSight: a smartphone-based vehicle ranging system | |
CN116892949A (en) | Ground object detection device, ground object detection method, and computer program for ground object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) |