[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20190134303A - Apparatus and method for image recognition - Google Patents

Apparatus and method for image recognition Download PDF

Info

Publication number
KR20190134303A
KR20190134303A KR1020180059767A KR20180059767A KR20190134303A KR 20190134303 A KR20190134303 A KR 20190134303A KR 1020180059767 A KR1020180059767 A KR 1020180059767A KR 20180059767 A KR20180059767 A KR 20180059767A KR 20190134303 A KR20190134303 A KR 20190134303A
Authority
KR
South Korea
Prior art keywords
road
image
road image
vehicle
information
Prior art date
Application number
KR1020180059767A
Other languages
Korean (ko)
Other versions
KR102163774B1 (en
Inventor
김태근
Original Assignee
(주)에이다스원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에이다스원 filed Critical (주)에이다스원
Priority to KR1020180059767A priority Critical patent/KR102163774B1/en
Publication of KR20190134303A publication Critical patent/KR20190134303A/en
Application granted granted Critical
Publication of KR102163774B1 publication Critical patent/KR102163774B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • G06K9/00798
    • G06K9/00711
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed is an image recognition method. The image recognition method comprises the steps of: generating a virtual 3D road image corresponding to a situation around a vehicle in real time by using vehicle location information, map information, and distance information from the vehicle to an object located around a road, which are collected by an information collection module; acquiring an actual road image by an image acquisition module in real time; and matching the actual road image with the 3D road image on a frame-by-frame basis to recognize an object which appears on the real road image using information included in the 3D road image.

Description

영상 인식 장치 및 그 방법{APPARATUS AND METHOD FOR IMAGE RECOGNITION}Image recognition device and method thereof {APPARATUS AND METHOD FOR IMAGE RECOGNITION}

본 발명은 영상 인식 장치 그 방법에 관한 것으로, 상세하게는 주행중인 차량에서 획득한 영상 내의 객체를 인식하는 영상 인식 장치 및 그 방법에 관한 것이다.The present invention relates to an image recognition apparatus and method, and more particularly, to an image recognition apparatus and method for recognizing an object in an image obtained from a driving vehicle.

최근 IT 기술이 급속도로 발전하면서 비전 시스템과 융합한 지능형 차량에 대한 관심이 높아지고 있다.Recently, with the rapid development of IT technology, there is a growing interest in intelligent vehicles integrated with vision systems.

이미지 센서에 의한 비전 기반 시스템은 저렴한 비용으로 많은 정보의 추출이 가능하고, 종래의 다양한 영상 처리 알고리즘을 활용할 수 있다는 강력한 장점으로 인해 오늘날까지 보편적으로 이용되어 왔다.Vision-based systems by image sensors have been widely used to this day because of the strong advantage of being able to extract a large amount of information at a low cost and utilizing various conventional image processing algorithms.

특히, 교통 사고의 위험을 줄이는 차선이탈 정보, 차선유지, 충돌 경보 시스템과 같은 첨단 안전 자동차(ASV: Advanced Safety Vehicle) 기술은 지능형 자동차 기술의 기반 기술로서 다양한 연구 및 기술개발에 많은 인력과 재원이 투입되고 있다.In particular, Advanced Safety Vehicle (ASV) technologies, such as lane departure information, lane keeping, and crash warning systems, which reduce the risk of traffic accidents, are the foundation technology for intelligent vehicle technology. It is being committed.

그러나, 잘 알려진 바와 같이 영상 처리 알고리즘의 실행은 하드웨어의 매 큰 부하로 작용하고, 원활한 영상 처리를 위해, 높은 성능을 제공하는 고가의 하드웨어가 필요한 문제점이 있다.However, as is well known, the execution of an image processing algorithm acts as a heavy load of hardware, and there is a problem in that expensive hardware that provides high performance is required for smooth image processing.

따라서, 본 발명의 목적은 차량에서 획득한 영상 내의 객체를 인식하는 과정에서 영상 처리에 따른 연산 부하를 크게 줄일 수 있는 영상 인식 장치 및 그 방법을 제공하는 데 있다.Accordingly, an object of the present invention is to provide an image recognition apparatus and method for greatly reducing the computational load caused by image processing in a process of recognizing an object in an image acquired by a vehicle.

상술한 목적을 달성하기 위한 본 발명의 일면에 따른 영상 인식 장법은, 정보 수집 모듈에 의해 수집된 차량 위치 정보, 지도 정보 및 상기 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 단계; 이미지 획득 모듈에 의해 실제 도로 이미지를 실시간으로 획득하는 단계; 및 상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 단계를 포함한다.In accordance with an aspect of the present invention, an image recognition method for achieving the above object includes a vehicle surrounding situation using vehicle location information, map information, and distance information from an object located near a road to the vehicle. Generating a virtual 3D road image corresponding to the in real time; Acquiring a real road image in real time by an image acquisition module; And matching the real road image with the 3D road image in units of frames in order to recognize an object appearing in the real road image using information included in the 3D road image.

본 발명의 다른 일면에 따른 영상 인식 장치는, 차량 위치 정보, 지도 정보 및 상기 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 수집하는 정보 수집 모듈; 상기 수집된 차량 위치 정보, 지도 정보 및 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 3D 도로 이미지 생성 모듈; 실제 도로 이미지를 실시간으로 획득하는 이미지 획득 모듈; 및 상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 매칭 모듈을 포함한다.According to another aspect of the present invention, an image recognition device includes: an information collection module configured to collect vehicle location information, map information, and distance information from the vehicle to an object located around a road; A 3D road image generation module that generates a virtual 3D road image corresponding to a situation around the vehicle in real time using the collected vehicle location information, map information, and distance information; An image acquisition module for obtaining an actual road image in real time; And a matching module for matching the real road image with the 3D road image in units of frames in order to recognize an object appearing in the real road image using information included in the 3D road image.

본 발명에 따르면, 실제 도로 이미지에 나타나는 객체들을 인식하기 위해, 이미지 기반의 객체 인식 알고리즘과 같이 연산 부하가 높은 영상 처리 과정 없이 도로 주변의 객체에 대한 정보를 포함하는 3D 도로 이미지를 실제 도로 이미지에 매칭하는 것만으로 실제 도로 이미지에 나타나는 객체들을 쉽게 인식할 수 있다.According to the present invention, in order to recognize the objects appearing on the actual road image, 3D road image including information about the objects around the road without the computational load processing process, such as image-based object recognition algorithm to the actual road image Simply matching makes it easy to recognize the objects that appear in the actual road image.

도 1은 본 발명에 일 실시 예에 따른 영상 인식 장치의 블록 구성도이다.
도 2 내지 5는 본 발명의 실시 예에 따른 3D 도로 이미지의 생성 방법을 설명하기 위한 도면들이다.
도 6은 도 1에 도시한 매칭 모듈의 블록 구성도이다.
도 7은 본 발명의 실시 예에 따른 매칭 과정을 개념적으로 설명하기 위한 도면이다.
도 8 내지 11은 본 발명의 일 실시 예에 따른 영상 인식 방법을 나타내는 흐름도들이다.
1 is a block diagram of an image recognition device according to an exemplary embodiment.
2 to 5 are views for explaining a method of generating a 3D road image according to an embodiment of the present invention.
FIG. 6 is a block diagram illustrating the matching module shown in FIG. 1.
7 is a diagram conceptually illustrating a matching process according to an exemplary embodiment of the present invention.
8 to 11 are flowcharts illustrating an image recognition method according to an exemplary embodiment.

본 발명의 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.Embodiments of the present invention may be variously modified and have various embodiments, and specific embodiments are illustrated in the drawings and related detailed descriptions are described. However, this is not intended to limit the various embodiments of the present invention to specific embodiments, it should be understood to include all modifications and / or equivalents and substitutes included in the spirit and scope of the various embodiments of the present invention. In the description of the drawings, similar reference numerals are used for similar elements.

본 발명의 실시예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Expressions such as "including" or "can include" as used in embodiments of the present invention indicate the existence of the corresponding function, operation or component disclosed, and additional one or more functions, operations or configurations. Do not restrict elements. In addition, in various embodiments of the invention, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, one Or other features or numbers, steps, operations, components, parts or combinations thereof in any way should not be excluded in advance.

본 발명의 실시예에서 "또는" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한 다. 예를 들어, "A 또는 B"는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.In an embodiment of the invention, the expression "or" includes any and all combinations of words listed together. For example, "A or B" may include A, may include B, or may include both A and B.

본 발명의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in the embodiments of the present invention are merely used to describe specific embodiments, and are not intended to limit the embodiments of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

이하, 첨부된 도면을 참조하여 실시예에 따른 영상 인식 장치에 대해서 살펴본다.Hereinafter, an image recognition apparatus according to an embodiment will be described with reference to the accompanying drawings.

도 1은 본 발명에 실시예에 따른 영상 인식 장치의 블록 구성도이다.1 is a block diagram of an image recognition device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 영상 인식 장치(100)의 적용 대상은 차량일 수 있다. 그러나 이에 한정하지 않고, 본 발명의 실시예에 따른 영상 인식 장치는 영상 내에서 객체 인식을 필요로 하는 모든 대상, 예를 들면, 비행기, 열차, 이동 로봇, 선박 등에 적용될 수 있다. Referring to FIG. 1, a target of an image recognition apparatus 100 according to an exemplary embodiment may be a vehicle. However, the present invention is not limited thereto, and the image recognition apparatus according to an exemplary embodiment of the present invention may be applied to all objects requiring object recognition in an image, for example, an airplane, a train, a mobile robot, a ship, and the like.

본 발명의 실시예에 따른 영상 인식 장치(100)는 통신 기능을 갖는 컴퓨팅 장치로 불릴 수 있다. 컴퓨팅 장치는 메인 보드 상에 실장되는 프로세서(예를 들면, CPU, 그래픽 프로세서 등), 메모리(예를 들면, 휘발성 및 비휘발성 메모리 등), 저장소(예를 들면, 하드 디스크 등), 네트워크 인터페이스, 칩셋 및 이들을 연결하는 시스템 버스 등을 포함할 수 있다.Image recognition apparatus 100 according to an embodiment of the present invention may be referred to as a computing device having a communication function. The computing device may comprise a processor (e.g., a CPU, a graphics processor, etc.) mounted on a main board, memory (e.g., volatile and nonvolatile memory, etc.), storage (e.g., a hard disk, etc.), a network interface, Chipset and system bus connecting them.

도 1에서는 다수의 블록들이 도시되어 있으나, 이는 컴퓨팅 장치를 단지 기능별로 구분한 것일 뿐, 이를 한정하고자 하는 의도는 아니다. 단지, 도 1에 도시한 블록들 중에서 참조 번호 110, 120, 130, 140 및 150이 지시하는 모듈들은 컴퓨팅 장치 내에서 '프로세서'로 불리는 장치 내에 탑재될 수도 있다.Although a plurality of blocks are shown in FIG. 1, this is merely a functional division of the computing device and is not intended to be limiting. However, among the blocks shown in FIG. 1, modules indicated by reference numerals 110, 120, 130, 140, and 150 may be mounted in a device called a “processor” in the computing device.

구체적으로, 영상 인식 장치(100)는 통신 인터페이스(110), 정보 수집 모듈(120), 3D 도로 이미지 생성 모듈(130), 이미지 획득 모듈(140), 매칭 모듈(150) 및 표시 모듈(160) 및 저장 모듈(170)을 포함하도록 구성될 수 있다.In detail, the image recognition apparatus 100 may include the communication interface 110, the information collection module 120, the 3D road image generation module 130, the image acquisition module 140, the matching module 150, and the display module 160. And a storage module 170.

통신 인터페이스(110)는 차량 네트워크 통신을 통해 차량 내의 전자 장치(10)와 통신한다. 여기서, 차량 네트워크 통신은, 예를 들면, 캔(CAN: Controller Area Network) 통신 또는 린(LIN: Local Interconnect Network) 통신을 포함할 수 있다.The communication interface 110 communicates with the electronic device 10 in a vehicle through vehicle network communication. Here, the vehicle network communication may include, for example, controller area network (CAN) communication or local interconnect network (LIN) communication.

차량 내의 전자 장치(10)는 주행중인 차량의 현재 차량 위치 정보를 실시간으로 제공하는 GPS 수신부(10), 차량 주변의 객체까지의 거리 정보를 제공하는 거리 센서(13), 지도 정보를 제공하는 네비게이션 유닛(15), 차량 속도 정보(17)를 제공하는 엔진 제어 유닛 등을 포함할 수 있다.The electronic device 10 in a vehicle may include a GPS receiver 10 providing real-time vehicle position information of a driving vehicle, a distance sensor 13 providing distance information to objects around a vehicle, and a navigation providing map information. Unit 15, an engine control unit that provides vehicle speed information 17, and the like.

GPS 수신부(10)는 차량 위치 정보를 위도 및 경도로 이루어진 좌표값 형태로 제공할 수 있다.The GPS receiver 10 may provide vehicle location information in the form of a coordinate value consisting of latitude and longitude.

거리 센서(13)는 차량 주변의 객체까지의 거리 정보를 제공하기 위해, 초음파 센서, 레이더, 라이다 또는 이들의 조합으로 이루어질 수 있다. 여기서, 차량 주변의 객체는 정적 객체와 동적 객체를 포함하며, 정적 객체는, 예를 들면, 건물, 가로수, 교통 신호등과 같은 교통 구조물 등을 포함할 수 있으며, 동적 객체는, 주변 차량, 보행자 등을 예로 들 수 있다.The distance sensor 13 may be formed of an ultrasonic sensor, a radar, a lidar, or a combination thereof to provide distance information to an object around the vehicle. Here, the object around the vehicle includes a static object and a dynamic object, and the static object may include, for example, a traffic structure such as a building, a roadside tree, a traffic light, and the like. For example.

지도 정보는 주행 중인 차량의 도로 구간에 대한 정보(이하, 도로 구간 정보), 상기 도로 구간에 위치하는 주변 건물에 대한 정보, 교통 신호등에 대한 정보 등을 포함할 수 있다. The map information may include information (hereinafter, road section information) on a road section of a driving vehicle, information on surrounding buildings located in the road section, information on a traffic signal, and the like.

도로 구간 정보는, 차량이 현재 주행중인 도로 구간이 일반도로인지 고속도로인지를 알려주는 정보(도로 구간 정보), 상기 도로 구간에 포함된 차선의 개수 정보를 포함할 수 있다.The road section information may include information indicating whether the road section in which the vehicle is currently driving is a general road or a highway (road section information), and information on the number of lanes included in the road section.

정보 수집 모듈(120)은 통신 인터페이스(110)를 통해 수신된 정보들, 예를 들면, 차량 위치 정보, 거리 정보, 지도 정보 및 차량 속도 정보 등을 수집하는 모듈로서, 일종의 버퍼 메모리로 구현될 수 있다.The information collection module 120 collects information received through the communication interface 110, for example, vehicle location information, distance information, map information, vehicle speed information, and the like, and may be implemented as a kind of buffer memory. have.

3D 이미지 생성 모듈(130)은 차량 위치 정보, 거리 정보, 지도 정보 및 차량 속도 정보 등을 이용하여 차량 주변 상황에 대응하는 가상의 3D(3차원) 도로 이미지를 실시간으로 생성한다.The 3D image generation module 130 generates a virtual 3D (3D) road image corresponding to a situation around the vehicle in real time using the vehicle location information, the distance information, the map information, the vehicle speed information, and the like.

이미지 획득 모듈(140)은 현재 주행 중인 차량의 차량 주변 상황에 대응하는 실제 도로 이미지를 실시간으로 생성한다. 이를 위해, 이미지 획득 모듈(140)은, 예를 들면, 컬러 카메라, 적외선 카메라, 스테레오 카메라 또는 이들이 조합된 카메라 중 어느 하나를 포함하도록 구성될 수 있다.The image acquisition module 140 generates a real road image corresponding to the situation around the vehicle of the currently driving vehicle in real time. To this end, the image acquisition module 140 may be configured to include any one of a color camera, an infrared camera, a stereo camera, or a combination thereof, for example.

매칭 모듈(150)은 3D 이미지 생성 모듈(130)에서 생성한 가상의 3D 도로 이미지와 이미지 획득 모듈(140)에서 생성한 실제 도로 이미지를 매칭한다. The matching module 150 matches the virtual 3D road image generated by the 3D image generation module 130 with the actual road image generated by the image acquisition module 140.

이러한 매칭 모듈(150)의 매칭에 의해, 3D 도로 이미지에 포함된 정보들을 기반으로 실제 도로 이미지에 나타나는 객체들을 인식할 수 있게 된다. 즉, 종래와 같이, 실제 도로 이미지에 나타나는 객체들을 인식하기 위해, 이미지 기반의 객체 인식 알고리즘과 같이 연산 부하가 높은 영상 처리 과정 없이 도로 주변의 객체에 대한 정보를 포함하는 3D 도로 이미지를 실제 도로 이미지에 매칭하는 것만으로 실제 도로 이미지에 나타나는 객체들을 쉽게 인식할 수 있다.By the matching of the matching module 150, it is possible to recognize the objects appearing in the actual road image based on the information included in the 3D road image. That is, as in the related art, in order to recognize objects appearing in a real road image, a 3D road image including information about objects around a road without a high computational load processing process, such as an image-based object recognition algorithm, is a real road image. Just by matching to, you can easily recognize the objects appearing on the actual road image.

매칭 모듈(150)에 대한 상세 설명은 도 6을 참조하여 아래에서 상세히 기술한다.Detailed description of the matching module 150 will be described in detail below with reference to FIG.

이하, 도 2 내지 5를 참조하여 3D 이미지 생성 모듈(130)에서 3D 도로 이미지를 생성하는 방법에 대해 상세히 설명하기로 한다. Hereinafter, a method of generating a 3D road image in the 3D image generating module 130 will be described in detail with reference to FIGS. 2 to 5.

도 2 내지 도 5을 참조하면, 3D 이미지 생성 모듈(130)이 정보 수집 모듈에 의해 수집된 차량 위치 정보 및 지도 정보를 이용하여 차량이 현재 주행 중인 도로 구간이 몇 개의 차선을 포함하는 지를 확인한다. 2 to 5, the 3D image generating module 130 uses the vehicle location information and the map information collected by the information collecting module to determine how many lanes the road section on which the vehicle is currently driving includes. .

예를 들면, 3D 이미지 생성 모듈(130)이 차량 위치 정보를 지도 정보에 포함된 지도에 매칭하여 차량이 현재 주행 중인 도로 구간을 확인하고, 확인된 도로 구간의 차선 정보, 즉, 차선의 개수 정보를 획득한다. For example, the 3D image generation module 130 matches the vehicle location information to a map included in the map information to identify a road section in which the vehicle is currently driving, and identifies lane information of the identified road section, that is, information on the number of lanes. Acquire.

차선의 개수 정보가 획득되면, 획득된 차선의 개수 정보에 대응하는 기준 3D 도로 이미지를 저장 모듈(170)로부터 읽어온다. 기준 3D 도로 이미지의 일 예가 도 2에 도시된다. When the number information of the lanes is obtained, the reference 3D road image corresponding to the obtained number of lane information is read from the storage module 170. An example of a reference 3D road image is shown in FIG. 2.

기준 3D 도로 이미지는 사전에 모델링된 3D 형태의 도로 이미지로서, 차선 개수에 따라 구분되는 다수의 도로 이미지를 포함할 수 있다.The reference 3D road image may be a road image of a 3D type previously modeled and may include a plurality of road images classified according to the number of lanes.

일 예로, 획득된 차선의 개수 정보에 따라 현재 주행 중인 도로 구간이 1개의 차선으로 확인되면, 3D 이미지 생성 모듈(130)은 1개의 차선으로 이루어진 기준 3D 도로 이미지를 저장 모듈(170)에서 불러온다. For example, when the road section currently being driven is identified as one lane according to the obtained number of lane information, the 3D image generating module 130 reads the reference 3D road image composed of one lane from the storage module 170. .

다른 예로, 획득된 차선의 개수 정보에 따라, 현재 주행 중인 도로 구간이 3개의 차선으로 확인되면, 3D 이미지 생성 모듈(130)은 3개의 차선으로 이루어진 기준 3D 도로 이미지를 저장 모듈(170)에서 불러온다.As another example, when the road section currently being driven is identified as three lanes according to the obtained number of lane information, the 3D image generating module 130 calls the reference 3D road image composed of three lanes from the storage module 170. come.

차선의 개수 정보에 따른 기준 3D 도로 이미지가 준비되면, 지도 정보에 포함된 상기 도로 구간에 위치하는 주변 건물에 대한 정보, 교통 신호등과 같은 구조물 정보를 이용하여, 상기 준비된 기준 3D 도로 이미지 내의 도로 주변에 구조물(42, 44)을 배치한다. 기준 3D 도로 이미지에 구조물이 배치된 예가 도 3에 도시된다. When the reference 3D road image is prepared according to the number of lane information, surroundings of the road in the prepared reference 3D road image by using structure information such as traffic information and information about nearby buildings located in the road section included in the map information. Place the structures 42, 44 in. An example in which a structure is placed in a reference 3D road image is shown in FIG. 3.

구조물이 배치된 기준 3D 도로 이미지의 생성이 완료되면, 현재 차량의 주행 차선을 판단하고, 판단된 주행 차선을 기준으로 상기 구조물이 배치된 기준 3D 도로 이미지의 시점을 이미지 획득 모듈(140)의 카메라 시점으로 변환한다. When the generation of the reference 3D road image on which the structure is disposed is completed, the driving lane of the current vehicle is determined, and the viewpoint of the reference 3D road image on which the structure is disposed is determined based on the determined driving lane. Convert to a viewpoint.

먼저, 현재 차량이 몇 차선을 주행 중인지를 판단하는 방법은, 예를 들면, 현재 주행 중인 도로 구간의 차선 개수와 도로 주변 위치한 객체들까지의 거리 정보를 기반으로 판단할 수 있다. First, a method of determining how many lanes a vehicle is currently driving may be determined based on, for example, the number of lanes of a currently driving road section and distance information to objects located near a road.

도 5를 참조하여 현재 차량이 몇 차선을 주행 중인지를 판단하는 방법을 설명하면, 현재 주행 중인 도로 구간의 전체 도로 폭(W1)은 차선 개수로부터 통계학적 방법으로 충분히 예측할 수 있다. Referring to FIG. 5, a method of determining how many lanes a vehicle is currently driving can be sufficiently predicted by a statistical method from the number of lanes.

차선의 폭은 차량의 크기에 따라 설계되는 값으로 미리 알 수 있는 값이다. 따라서, 전체 도로 폭(W1)은 각 차선의 도로 폭을 합한 값으로 비교적 정확히 예측할 수 있다. 도 5에서는 3개 차선들이 예시되어 있고, 3개의 차선들 중 2차선으로 주행중인 차량이 예시되어 있다.Lane width is a value that is designed according to the size of the vehicle and can be known in advance. Therefore, the total road width W1 can be predicted relatively accurately as the sum of the road widths of each lane. In FIG. 5, three lanes are illustrated, and a vehicle driving in two lanes of the three lanes is illustrated.

차량의 현 위치로부터 객체(62)까지의 거리(d1)는 거리 센서(13)로부터 수집된 거리 정보로부터 알 수 있다. The distance d1 from the current position of the vehicle to the object 62 can be known from the distance information collected from the distance sensor 13.

또한, 거리 센서(13)가 좌에서 우 또는 우에서 좌로 전방 스캔이 가능하고 스캔 각도를 알 수 있도록 설계된 센서를 사용하면, 차량으로부터 차량의 진행 방향(차량 전방)으로 출사되는 출사광과 객체(62) 방향으로 출사되는 출사광 사이의 각도(θ)를 알 수 있다.In addition, when the distance sensor 13 is capable of forward scanning from left to right or right to left and uses a sensor designed to know the scan angle, the emission light and the object emitted from the vehicle in the traveling direction of the vehicle (the vehicle front) ( The angle θ between the exiting lights emitted in the direction 62) can be known.

거리(d1)와 각도(θ)를 삼각함수 공식에 적용하면, 차량이 도로 폭 방향(D2)으로 객체(62)로부터 떨어진 거리(d2)를 계산할 수 있다. When the distance d1 and the angle θ are applied to the trigonometric formula, the distance d2 of the vehicle away from the object 62 in the road width direction D2 may be calculated.

상기 전체 도로 폭(W1)과 상기 계산된 거리(d2)를 분석하면, 차량이 현재 2차선을 주행 중임을 예측할 수 있다.By analyzing the total road width W1 and the calculated distance d2 , it is possible to predict that the vehicle is currently driving two lanes.

이와 같이, 현재 차량의 주행 차선에 대한 예측이 완료되면, 예측된 주행 차선을 기준으로 도 3의 상기 구조물(42, 44)이 포함된 기준 3D 도로 이미지의 시점을 전술한 이미지 획득 모듈(140)의 카메라 시점으로 변환한다.As such, when the prediction of the driving lane of the current vehicle is completed, the image acquisition module 140 may describe the viewpoint of the reference 3D road image including the structures 42 and 44 of FIG. 3 based on the predicted driving lane. To camera's viewpoint.

이러한 시점 변환이 필요한 이유는, 이미지 획득 모듈(140)에 의해 획득된 실제 도로 이미지와 상기 구조물이 포함된 기준 3D 도로 이미지를 매칭시키기 위함이다.This viewpoint conversion is necessary to match the actual road image acquired by the image acquisition module 140 with the reference 3D road image including the structure.

즉, 이미지 획득 모듈(140)에서는 현재 주행 차선이 화면 중앙에 배치된 시점의 실제 도로 이미지를 제공하는 반면, 3D 도로 이미지 생성 모듈(130)에서는 가상의 기준 3D 도로 이미지, 즉, 현재 주행 차선을 고려하지 않은 시점의 이미지를 제공한다. 따라서, 현재 주행 차선이 화면 중앙에 배치된 시점의 실제 도로 이미지와 현재 주행 차선을 고려하지 않은 시점의 기준 3D 도로 이미지 간에 원활한 매칭이 어렵다.That is, the image acquisition module 140 provides the actual road image of the point in time at which the current driving lane is disposed at the center of the screen, whereas the 3D road image generation module 130 displays the virtual reference 3D road image, that is, the current driving lane. Provide an image of a time point not considered. Therefore, it is difficult to smoothly match between the actual road image at the time when the current driving lane is disposed at the center of the screen and the reference 3D road image at the time when the current driving lane is not considered.

따라서, 실제 도로 이미지와 기준 3D 도로 이미지를 매칭하기 위해, 기준 3D 도로 이미지의 시점을 앞서 예측한 현재 주행 차선을 고려한 시점으로 변환할 필요가 있다. 즉, 도 4에 도시된 바와 같이, 기준 3D 도로 이미지를 보여주는 화면 내에서 현재 주행 차선이 화면 중앙에 배치되도록 기준 3D 도로 이미지의 시점 변환이 필요하다.Therefore, in order to match the actual road image and the reference 3D road image, it is necessary to convert the viewpoint of the reference 3D road image to a viewpoint in consideration of the previously predicted current driving lane. That is, as shown in FIG. 4, the viewpoint transformation of the reference 3D road image is required so that the current driving lane is disposed in the center of the screen in the screen showing the reference 3D road image.

이러한 시점 변환을 위해, 3D 도로 이미지 생성 모듈(130)은, 차량이 특정 차선을 주행 중일 때 이미지 획득 모듈(140)에서 획득한 실제 이미지의 시점 정보를 기반으로 기준 3D 도로 이미지의 시점을 변환할 수 있다.For this viewpoint conversion, the 3D road image generation module 130 may convert the viewpoint of the reference 3D road image based on the viewpoint information of the actual image acquired by the image acquisition module 140 when the vehicle is driving a specific lane. Can be.

주행 차선과 관련된 실제 이미지의 시점 정보는 저장 모듈(170)에 미리 저장된 정보로서, 카메라의 자세를 롤(Roll), 피치(Pitch) 및 요(Yaw)로 나타내는 각도와 연관된 정보일 수 있다.The viewpoint information of the actual image related to the driving lane may be information stored in advance in the storage module 170 and may be information related to an angle representing the pose of the camera as a roll, a pitch, and a yaw.

롤(Roll), 피치(Pitch) 및 요(Yaw)로 나타내는 각도는 차량이 1차선을 주행일 때, 1차선을 구분하는 라인과 1차선의 주변 차선을 구분하는 라인 간의 상관 관계로부터 계산될 수 있다.The angles represented by Roll, Pitch, and Yaw can be calculated from the correlation between the lines separating one lane and the lines separating the peripheral lanes of the first lane when the vehicle is driving one lane. have.

도 4에 도시된 바와 같이, 기준 3D 도로 이미지를 보여주는 화면 내에서 현재 주행 차선이 화면 중앙에 배치되도록 기준 3D 도로 이미지의 시점 변환이 완료되면, 최종 3D 도로 이미지의 생성이 완료된다.As shown in FIG. 4, when the viewpoint transformation of the reference 3D road image is completed such that the current driving lane is disposed at the center of the screen in the screen showing the reference 3D road image, generation of the final 3D road image is completed.

최종 3D 도로 이미지의 생성은 정보 수집 모듈(120)에서 정보를 수집할 때마다 실시간으로 이루어진다.Generation of the final 3D road image is performed in real time whenever the information collection module 120 collects information.

도 6은 도 1에 도시한 매칭 모듈의 블록 구성도이다.FIG. 6 is a block diagram illustrating the matching module shown in FIG. 1.

도 6을 참조하면, 매칭 모듈(150)은 3D 도로 이미지 생성 모듈(130)에서 생성한 3D 도로 이미지와 이미지 획득 모듈(140)에서 획득한 실제 도로 이미지를 프레임 단위로 매칭한다.Referring to FIG. 6, the matching module 150 matches the 3D road image generated by the 3D road image generation module 130 with the actual road image acquired by the image acquisition module 140 in units of frames.

비록 3D 도로 이미지와 실제 도로 이미지의 매칭 성공률을 위해, 전술한 3D 도로 이미지 생성 모듈(130)에서 현재 주행 차선에 맞게 3D 도로 이미지의 시점 변환을 수행하였지만, 더욱 정밀한 매칭을 위해, 매칭 모듈(150)에서는 이미지 획득 모듈에서 획득한 실제 도로 이미지에 포함된 객체(차선, 교통 구조물, 도로 주변 건물)를 수행하고, 추출된 객체와 3D 도로 이미지에 포함된 객체(가상의 객체) 간의 오차를 보상한다. Although the 3D road image generation module 130 performs the viewpoint conversion of the 3D road image according to the current driving lane for the matching success rate of the 3D road image and the actual road image, the matching module 150 ) Performs the objects (lanes, traffic structures, buildings around roads) included in the actual road image acquired by the image acquisition module, and compensates for errors between the extracted objects and the objects (virtual objects) included in the 3D road image. .

중요한 점은 종래와 같이 실제 도로 이미지에서 매 프레임 단위로 객체를 추출하면, 하드웨어 가중되는 부하가 커지므로, 이를 줄이기 위해, 일정 프레임 단위로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에서만 객체를 추출하고, 첫 번째 프레임의 실제 도로 이미지에서 추출된 객체와 첫 번째 프레임의 실제 도로 이미지에 대응하는 3D 도로 이미지의 객체 간의 오차를 계산하고, 계산된 오차를 이용하여 다음 프레임의 실제 도로 이미지와 3D 도로 이미지 간의 오차를 보상하는 방식으로 매칭 과정을 수행한다. The important point is that when the object is extracted every frame unit from the actual road image as in the related art, the hardware weighted load increases, so to reduce this, only the actual road image of the first frame among the actual road images configured in a certain frame unit is used. , Calculate the error between the object extracted from the real road image of the first frame and the object of the 3D road image corresponding to the real road image of the first frame, and use the calculated error The matching process is performed in a manner that compensates for errors between 3D road images.

이와 같이, 첫 번째 프레임에서 계산된 오차만을 이용하여 다음 프레임의 실제 도로 이미지와 3D 도로 이미지 간의 오차를 보상하는 방식으로 매칭을 수행하기 때문에, 매 프레임마다 실제 도로 이미지에서 객체를 추출할 필요가 없기 때문에, 객체 추출에 따른 연산 부하를 크게 줄이면서 동시에 실제 도로 이미지와 3D 도로 이미지 간의 정밀한 매칭을 달성할 수 있다.As such, the matching is performed by using only the error calculated in the first frame in a manner that compensates for the error between the actual road image and the 3D road image of the next frame, so that there is no need to extract an object from the actual road image every frame. Therefore, it is possible to significantly reduce the computational load due to object extraction and at the same time achieve precise matching between the actual road image and the 3D road image.

구체적으로, 매칭 모듈(150)은, 프레임 추출부(150-1), 객체 추출부(150-3), 3D 도로 이미지 추출부(150-5), 비교부(150-7), 3D 도로 이미지 보정부(150-9) 및 매칭부(150-11)를 포함할 수 있다.In detail, the matching module 150 may include the frame extractor 150-1, the object extractor 150-3, the 3D road image extractor 150-5, the comparator 150-7, and the 3D road image. The correction unit 150-9 and the matching unit 150-11 may be included.

프레임 추출부(150-1)는 이미지 획득 모듈(140)에서 획득한 실제 도로 이미지들을 일정한 프레임 단위(Fn~Fn +k)로 구성하고, 일정한 프레임 단위(Fn~Fn +k)로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임(Fn)의 실제 도로 이미지를 추출한다. The frame extractor 150-1 configures the actual road images acquired by the image acquisition module 140 in a predetermined frame unit (F n to F n + k ), and in a predetermined frame unit (F n to F n + k ). Extract the actual road image of the first frame (F n ) from the actual road images consisting of.

객체 추출부(150-3)는 프레임 추출부(150-1)에 의해 추출된 첫 번째 프레임(Fn)의 실제 도로 이미지에서 객체를 추출한다. 여기서, 객체는, 차선, 교통 신호등, 건물, 도로 주변의 구조물 등을 포함할 수 있다.The object extractor 150-3 extracts an object from an actual road image of the first frame F n extracted by the frame extractor 150-1. Here, the object may include a lane, a traffic light, a building, a structure around a road, and the like.

객체를 추출하는 방법으로, 다양한 영상 처리 알고리즘이 이용될 수 있으며, 본 발명에서 이러한 영상 처리 알고리즘을 한정하는데 특징이 있는 것이 아니므로, 이에 대한 설명은 공지된 기술로 대신한다. 다만, 영상 처리 알고리즘의 일례로, 이미지 기반의 차선 검출 알고리즘, 객체 추출 알고리즘 등을 예로 들 수 있다.As a method of extracting an object, various image processing algorithms may be used, and since the present invention is not characterized in defining the image processing algorithm, the description thereof is replaced by a known technique. However, as an example of an image processing algorithm, an image-based lane detection algorithm, an object extraction algorithm, and the like may be exemplified.

3D 도로 이미지 추출부(150-5)는 전술한 프레임 추출부(150-1)에서 구성한 일정한 프레임 단위(Fn~Fn +k)와 동일한 프레임 단위(Mn~Mn+k)로 3D 도로 이미지들을 구성하고, 동일한 프레임 단위(Mn~Mn+k)로 3D 도로 이미지들 중에서 첫 번째 프레임(Mn)의 3D 도로 이미지를 추출한다. The 3D road image extracting unit 150-5 is 3D in the same frame unit (M n to M n + k ) as a predetermined frame unit (F n to F n + k ) configured in the above-described frame extracting unit 150-1. The road images are constructed, and the 3D road image of the first frame M n is extracted from the 3D road images in the same frame unit (M n to M n + k ).

한편, 이러한 3D 도로 이미지의 추출 과정에 앞서, 실제 도로 이미지와 3D 도로 이미지 간의 동기화 과정이 선행될 수 있다. 동기화 방법은, 이미지 획득 모듈(140)의 동작 시간과 정보 수집 모듈(120)의 정보 수집 시간을 동기시키는 방식으로 이루어질 수 있으며, 도 1 및 2에서는 도시하지 않았으나, 이미지 획득 모듈(140)의 동작 시간과 정보 수집 모듈(120)의 정보 수집 시간을 동기시키기 위한 동기화 모듈이 도 1 또는 2의 적절한 위치에 도시될 수 있다.Meanwhile, prior to the process of extracting the 3D road image, the synchronization process between the actual road image and the 3D road image may be preceded. The synchronization method may be performed by synchronizing the operation time of the image acquisition module 140 and the information collection time of the information acquisition module 120. Although not illustrated in FIGS. 1 and 2, the operation of the image acquisition module 140 is performed. A synchronization module for synchronizing the time and information collection time of the information collection module 120 may be shown at a suitable location in FIG. 1 or 2.

비교부(150-7)는 객체 추출부(150-3)에 의해 첫 번째 프레임(Fn)의 실제 도로 이미지에서 추출된 객체와 3D 도로 이미지 추출부(150-5)에 의해 첫 번째 프레임(Mn)의 3D 도로 이미지에 포함된 객체를 비교하여 그 차이에 대응하는 오차를 계산한다. 여기서, 비교 대상에 해당하는 객체들은 특징 벡터로 표현될 수 있으며, 상기 오차는 특징벡터들 간의 차이값일 수 있다. The comparator 150-7 is an object extracted from the actual road image of the first frame F n by the object extractor 150-3 and the first frame by the 3D road image extractor 150-5. M n ) compares the objects included in the 3D road image to calculate the error corresponding to the difference. Here, the objects corresponding to the comparison object may be represented by feature vectors, and the error may be a difference value between feature vectors.

한편, 3D 도로 이미지 추출부(150-5)에서 추출된 3D 도로 이미지는 가상 객체에 대한 정보를 포함하고 있기 때문에, 위의 객체 추출부(150-3)와 같이, 실제 도로 이미지에서 객체를 추출하는 과정이 수행될 필요는 없다.Meanwhile, since the 3D road image extracted by the 3D road image extractor 150-5 includes information about a virtual object, the object is extracted from the actual road image, as in the object extractor 150-3. The process does not have to be performed.

3D 도로 이미지 보정부(150-9)는 전술한 비교부(150-7)에서 계산한 오차를 이용하여 프레임 단위(Mn~Mn+k)로 구성된 3D 도로 이미지들을 보정한다.The 3D road image correction unit 150-9 corrects 3D road images configured in frame units M n to M n + k using the error calculated by the comparison unit 150-7.

매칭부(150-11)은 프레임 추출부(150-1)로 입력되는 일정 프레임 단위(Fn~Fn+k)의 실제 도로 이미지들과 3D 도로 이미지 보정부(150-9)에 의해 보정된 일정 프레임 단위(Mn~Mn+k)의 3D 도로 이미지들을 매 프레임마다 매칭한다. The matching unit 150-11 is corrected by the 3D road image correcting unit 150-9 and the actual road images in a predetermined frame unit F n to F n + k input to the frame extracting unit 150-1. Matched 3D road images in a predetermined frame unit (M n to M n + k ) every frame.

도 7에는 매칭부(150-11)에 의해 수행되는 매칭 과정을 개념적으로 도시한 것이다. 7 conceptually illustrates a matching process performed by the matching unit 150-11.

이러한 매칭부(150-11)의 매칭 과정에 따르면, 일정 프레임 단위의 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에 대해서만 객체 인식을 위한 영상 처리를 수행함으로써, 종래와 같이 매 프레임마다 수행되어야 하는 객체 인식 과정에서 가중되는 연산 부하를 크게 줄이는 동시에 실제 도로 이미지와 3D 도로 이미지 간의 정밀한 매칭이 가능해 질 수 있다.According to the matching process of the matching unit 150-11, image processing for object recognition is performed only on the actual road image of the first frame among the actual road images in a predetermined frame unit, and thus, the matching unit 150-11 should be performed every frame as in the prior art. This greatly reduces the computational load on the object recognition process, and enables accurate matching between actual road images and 3D road images.

이와 같이 정밀한 매칭과정에 의해, 3D 도로 이미지에 포함된 정보들을 기반으로 실제 도로 이미지에 나타나는 객체들을 복잡한 영상 처리 과정 없이 쉽게 인식할 수 있게 된다.By such a precise matching process, it is possible to easily recognize the objects appearing on the actual road image based on the information included in the 3D road image without complicated image processing.

도 8 내지 11은 본 발명의 일 실시 예에 따른 영상 인식 방법을 나타내는 흐름도들이다.8 to 11 are flowcharts illustrating an image recognition method according to an exemplary embodiment.

먼저, 도 8을 참조하면, 단계 S811에서, 차량 위치 정보, 지도 정보 및 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 수집하는 과정이 수행된다.First, referring to FIG. 8, in step S811, a process of collecting vehicle location information, map information, and distance information from a vehicle to an object located around a road is performed.

이어, 단계 S813에서, 수집된 차량 위치 정보, 지도 정보 및 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 과정이 수행된다.Subsequently, in step S813, a process of generating a virtual 3D road image corresponding to a situation around a vehicle in real time using the collected vehicle location information, map information, and distance information is performed.

일 실시 예에서, 단계 S813는, 도 9에 도시된 바와 같이, 상기 차량 위치 정보, 상기 지도 정보 및 상기 거리 정보를 이용하여 상기 차량이 주행 중인 주행 차선을 판단하는 과정(S813-1) 및 상기 판단된 주행 차선을 기반으로 상기 3D 도로 이미지를 생성하는 과정(S813-3)을 포함할 수 있다.In an embodiment, as shown in FIG. 9, in step S813, a process of determining a driving lane in which the vehicle is driven using the vehicle location information, the map information, and the distance information (S813-1) and the The step S813-3 may generate the 3D road image based on the determined driving lane.

여기서, 상기 판단된 주행 차선을 기반으로 상기 3D 도로 이미지를 생성하는 과정(S813-3)은 상기 이미지 획득 모듈에 의해 획득된 실제 도로 이미지에서 상기 차량의 주행 차선이 표시 화면에 표시되는 시점과 동일한 시점을 갖도록 상기 판단된 주행 차선이 표시 화면의 중앙에 배치되는 상기 3D 도로 이미지를 생성하는 것일 수 있다.Here, the step (S813-3) of generating the 3D road image based on the determined driving lane is the same as the point in time at which the driving lane of the vehicle is displayed on the display screen in the actual road image acquired by the image acquisition module. The determined driving lane may have the 3D road image arranged at the center of the display screen to have a viewpoint.

다른 실시 예에서, 단계 S813는, 도 10에 도시된 바와 같이, 상기 차량 위치 정보를 지도 정보에 매칭하여 상기 차량이 현재 주행 중인 도로 구간에 포함된 차선의 개수 정보를 획득하는 과정(S813-5), 상기 획득된 차선의 개수 정보에 대응하는 기준 3D 도로 이미지를 저장 모듈로부터 읽어오는(호출하는) 과정(S813-7), 상기 지도 정보에 포함된 구조물 정보를 이용하여 상기 기준 3D 도로 이미지에 구조물을 배치하는 과정(S813-9) 및 상기 구조물이 배치된 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하여, 상기 3D 도로 이미지를 생성하는 과정(S813-11)을 포함한다.In another embodiment, as illustrated in FIG. 10, in operation S813-5, acquiring the number of lanes included in the road section in which the vehicle is currently driving by matching the vehicle location information with map information (S813-5). (S813-7) reading a reference 3D road image corresponding to the obtained lane number information from a storage module (step S813-7), and using the structure information included in the map information, to the reference 3D road image. Disposing a structure (S813-9) and converting the viewpoint of the reference 3D road image on which the structure is disposed to a camera viewpoint of the image acquisition module to generate the 3D road image (S813-11). .

상기 과정(S813-11)은 상기 차량의 주행 차선을 판단하는 과정과 상기 판단된 주행 차선이 상기 기준 3D 도로 이미지를 표시하는 표시 화면의 중앙에 배치되도록 상기 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하는 과정을 포함할 수 있다.The process (S813-11) may include determining the driving lane of the vehicle and acquiring the image of the viewpoint of the reference 3D road image so that the determined driving lane is disposed at the center of a display screen displaying the reference 3D road image. The method may include converting to a camera viewpoint of the module.

여기서, 상기 차량의 주행 차선을 판단하는 과정은 스캔 각도를 알 수 있는 거리 센서로부터 수집된 상기 거리 정보를 이용하여, 상기 차량이 도로 폭 방향으로 객체로부터 떨어진 거리를 계산하고, 상기 차량이 주행 중인 도로 구간의 전체 도로 폭과 상기 계산된 거리를 분석하여 상기 차량의 주행 차선을 판단할 수 있다.The determining of the driving lane of the vehicle may include calculating the distance that the vehicle is away from an object in a road width direction by using the distance information collected from a distance sensor capable of knowing a scan angle, and driving the vehicle. The driving lane of the vehicle may be determined by analyzing the total road width of the road section and the calculated distance.

이어, 단계 S815에서, 이미지 획득 모듈로부터 실제 도로 이미지를 실시간으로 획득하는 과정이 수행된다.Subsequently, in step S815, a process of obtaining an actual road image from the image acquisition module in real time is performed.

이어, 단계 S817에서, 상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 과정이 수행된다.Subsequently, in step S817, a process of matching the real road image with the 3D road image in units of frames is performed to recognize an object appearing in the real road image using the information included in the 3D road image.

구체적으로, 상기 단계 S817는, 도 11에 도시된 바와 같이, N개의 프레임들로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에서 객체를 추출하는 과정(S817-1), 상기 N개의 프레임들로 구성된 3D 도로 이미지들 중에서 첫 번째 프레임의 3D 도로 이미지에서 객체를 추출하는 과정(S817-3), 상기 첫 번째 프레임의 실제 도로 이미지에서 추출된 객체의 특징 벡터값과 상기 첫 번째 프레임의 3D 도로 이미지에서 추출된 객체의 특징 벡터값 간의 오차를 계산하는 과정(S817-5), 상기 계산된 오차를 이용하여 상기 첫 번째 프레임부터 N번째 프레임까지의 3D 도로 이미지들을 보정하는 과정(S817-7) 및 상기 보정된 3D 도로 이미지들과 상기 실제 도로 이미지들을 매 프레임마다 매칭하는 과정(S817-9)을 포함한다.In detail, in operation S817, an object is extracted from the actual road image of the first frame among the actual road images including N frames (S817-1), and the N frames. Extracting an object from the 3D road image of the first frame among the 3D road images consisting of (S817-3), the feature vector value of the object extracted from the actual road image of the first frame and the 3D of the first frame A process of calculating an error between feature vector values of an object extracted from a road image (S817-5), and a process of correcting 3D road images from the first frame to the Nth frame using the calculated error (S817-7) And matching the corrected 3D road images with the real road images every frame (S817-9).

이상에서 본 발명에 대하여 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 본 발명의 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Although the present invention has been described above with reference to the embodiments, these are only examples and are not intended to limit the present invention, and those skilled in the art to which the present invention pertains may have an abnormality within the scope not departing from the essential characteristics of the present invention. It will be appreciated that various modifications and applications are not illustrated. For example, each component specifically shown in the embodiment of the present invention can be modified. And differences relating to such modifications and applications will have to be construed as being included in the scope of the invention defined in the appended claims.

Claims (14)

주행중인 차량에서 획득한 영상 내의 객체를 인식하는 영상 인식 방법에서,
정보 수집 모듈에 의해 수집된 차량 위치 정보, 지도 정보 및 상기 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 단계;
이미지 획득 모듈에 의해 실제 도로 이미지를 실시간으로 획득하는 단계; 및
상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 단계
를 포함하는 영상 인식 방법.
In the image recognition method for recognizing the object in the image acquired by the driving vehicle,
Generating, in real time, a virtual 3D road image corresponding to a situation around the vehicle by using the vehicle location information, the map information collected by the information collection module, and the distance information from the vehicle to an object located around the road;
Acquiring a real road image in real time by an image acquisition module; And
Matching the real road image with the 3D road image in units of frames in order to recognize an object appearing in the real road image using information included in the 3D road image.
Image recognition method comprising a.
제1항에서, 상기 생성하는 단계는,
상기 차량 위치 정보, 상기 지도 정보 및 상기 거리 정보를 이용하여 상기 차량이 주행 중인 주행 차선을 판단하는 단계; 및
상기 판단된 주행 차선을 기반으로 상기 3D 도로 이미지를 생성하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 1, wherein the generating of
Determining a driving lane on which the vehicle is driven by using the vehicle location information, the map information, and the distance information; And
Generating the 3D road image based on the determined driving lane
Image recognition method comprising a.
제2항에서, 상기 생성하는 단계는,
상기 이미지 획득 모듈에 의해 획득된 실제 도로 이미지에서 상기 차량의 주행 차선이 표시 화면에 표시되는 시점과 동일한 시점을 갖도록 상기 판단된 주행 차선이 표시 화면의 중앙에 배치되는 상기 3D 도로 이미지를 생성하는 단계인 것인 영상 인식 방법.
The method of claim 2, wherein the generating of the
Generating the 3D road image in which the determined driving lane is disposed at the center of the display screen such that the determined driving lane has the same view point as the time at which the driving lane of the vehicle is displayed on the display screen in the actual road image acquired by the image acquisition module; Image recognition method.
제1항에서, 상기 생성하는 단계는,
상기 차량 위치 정보를 지도 정보에 매칭하여 상기 차량이 현재 주행 중인 도로 구간에 포함된 차선의 개수 정보를 획득하는 단계;
상기 획득된 차선의 개수 정보에 대응하는 기준 3D 도로 이미지를 저장 모듈로부터 읽어오는 단계;
상기 지도 정보에 포함된 구조물 정보를 이용하여 상기 기준 3D 도로 이미지에 구조물을 배치하는 단계; 및
상기 구조물이 배치된 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하여, 상기 3D 도로 이미지를 생성하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 1, wherein the generating of
Acquiring the number of lanes included in a road section in which the vehicle is currently driving by matching the vehicle location information with map information;
Reading a reference 3D road image corresponding to the obtained number of lane information from a storage module;
Arranging a structure in the reference 3D road image by using the structure information included in the map information; And
Generating the 3D road image by converting the viewpoint of the reference 3D road image on which the structure is disposed to the camera view of the image acquisition module
Image recognition method comprising a.
제4항에서, 상기 변환하는 단계는,
상기 차량의 주행 차선을 판단하는 단계; 및
상기 판단된 주행 차선이 상기 기준 3D 도로 이미지를 표시하는 표시 화면의 중앙에 배치되도록 상기 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 4, wherein the converting step,
Determining a driving lane of the vehicle; And
Converting the viewpoint of the reference 3D road image to the camera viewpoint of the image acquisition module so that the determined driving lane is disposed at the center of a display screen displaying the reference 3D road image.
Image recognition method comprising a.
제5항에서, 상기 판단하는 단계는,
스캔 각도를 알 수 있는 거리 센서로부터 수집된 상기 거리 정보를 이용하여, 상기 차량이 도로 폭 방향으로 객체로부터 떨어진 거리를 계산하는 단계; 및
상기 차량이 주행 중인 도로 구간의 전체 도로 폭과 상기 계산된 거리를 분석하여 상기 차량의 주행 차선을 판단하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 5, wherein the determining comprises:
Calculating a distance that the vehicle is away from an object in a road width direction using the distance information collected from a distance sensor capable of knowing a scan angle; And
Determining a driving lane of the vehicle by analyzing a total road width and the calculated distance of a road section in which the vehicle is driving;
Image recognition method comprising a.
제1항에서, 상기 매칭하는 단계는,
상기 실제 도로 이미지와 상기 3D 도로 이미지를 시간에 따라 연속되는 N개의 프레임들로 구성하는 단계;
상기 N개의 프레임들로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에서 객체를 추출하는 단계;
상기 N개의 프레임들로 구성된 3D 도로 이미지들 중에서 첫 번째 프레임의 3D 도로 이미지에서 객체를 추출하는 단계;
상기 첫 번째 프레임의 실제 도로 이미지에서 추출된 객체의 특징 벡터값과 상기 첫 번째 프레임의 3D 도로 이미지에서 추출된 객체의 특징 벡터값 간의 오차를 계산하는 단계;
상기 계산된 오차를 이용하여 상기 첫 번째 프레임부터 N번째 프레임까지의 3D 도로 이미지들을 보정하는 단계; 및
상기 보정된 3D 도로 이미지들과 상기 실제 도로 이미지들을 매 프레임마다 매칭하는 단계
를 포함하는 것인 영상 인식 방법.
The method of claim 1, wherein the matching comprises:
Constructing the actual road image and the 3D road image into N frames consecutive over time;
Extracting an object from the actual road image of the first frame among the actual road images composed of the N frames;
Extracting an object from the 3D road image of the first frame among the 3D road images composed of the N frames;
Calculating an error between the feature vector value of the object extracted from the actual road image of the first frame and the feature vector value of the object extracted from the 3D road image of the first frame;
Correcting 3D road images from the first frame to the Nth frame using the calculated error; And
Matching the corrected 3D road images and the actual road images every frame
Image recognition method comprising a.
주행중인 차량에서 획득한 영상 내의 객체를 인식하는 영상 인식 장치에서,
차량 위치 정보, 지도 정보 및 상기 차량으로부터 도로 주변에 위치한 객체까지의 거리 정보를 수집하는 정보 수집 모듈;
상기 수집된 차량 위치 정보, 지도 정보 및 거리 정보를 이용하여 차량 주변 상황에 대응하는 가상의 3D 도로 이미지를 실시간으로 생성하는 3D 도로 이미지 생성 모듈;
실제 도로 이미지를 실시간으로 획득하는 이미지 획득 모듈; 및
상기 3D 도로 이미지에 포함된 정보를 이용하여 상기 실제 도로 이미지에 나타나는 객체를 인식하기 위해, 상기 실제 도로 이미지와 상기 3D 도로 이미지를 프레임 단위로 매칭하는 매칭 모듈
을 포함하는 영상 인식 장치.
In the image recognition device for recognizing the object in the image acquired by the driving vehicle,
An information collection module for collecting vehicle location information, map information, and distance information from the vehicle to an object located around a road;
A 3D road image generation module that generates a virtual 3D road image corresponding to a situation around the vehicle in real time using the collected vehicle location information, map information, and distance information;
An image acquisition module for obtaining an actual road image in real time; And
Matching module for matching the real road image and the 3D road image in units of frames in order to recognize an object appearing in the real road image using information included in the 3D road image.
Image recognition device comprising a.
제8항에서, 상기 3D 도로 이미지 생성 모듈은,
상기 차량 위치 정보, 상기 지도 정보 및 상기 거리 정보를 이용하여 상기 차량이 주행 중인 주행 차선을 판단하고, 상기 판단된 주행 차선을 기반으로 상기 3D 도로 이미지를 생성하는 것인 영상 인식 장치.
The method of claim 8, wherein the 3D road image generation module,
And determining the driving lane in which the vehicle is driven by using the vehicle location information, the map information, and the distance information, and generating the 3D road image based on the determined driving lane.
제8항에서, 상기 3D 도로 이미지 생성 모듈은,
상기 이미지 획득 모듈에 의해 획득된 실제 도로 이미지에서 상기 차량의 주행 차선이 표시 화면에 표시되는 시점과 동일한 시점을 갖도록 상기 판단된 주행 차선이 표시 화면의 중앙에 배치되는 상기 3D 도로 이미지를 생성하는 것인 영상 인식 장치.
The method of claim 8, wherein the 3D road image generation module,
Generating the 3D road image in which the determined driving lane is disposed at the center of the display screen such that the determined driving lane has the same view point as the time when the driving lane of the vehicle is displayed on the display screen in the actual road image acquired by the image acquisition module; Image recognition device.
제8항에서, 상기 3D 도로 이미지 생성 모듈은,
상기 차량 위치 정보를 지도 정보에 매칭하여 상기 차량이 현재 주행 중인 도로 구간에 포함된 차선의 개수 정보를 획득하는 프로세스,
상기 획득된 차선의 개수 정보에 대응하는 기준 3D 도로 이미지를 저장 모듈로부터 읽어오는 프로세스,
상기 지도 정보에 포함된 구조물 정보를 이용하여 상기 기준 3D 도로 이미지에 구조물을 배치하는 프로세스 및
상기 구조물이 배치된 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하는 프로세스
를 처리하는 것인 영상 인식 장치.
The method of claim 8, wherein the 3D road image generation module,
Obtaining information on the number of lanes included in a road section in which the vehicle is currently driving by matching the vehicle location information with map information;
Reading a reference 3D road image corresponding to the obtained lane number information from a storage module;
A process of arranging the structure in the reference 3D road image by using the structure information included in the map information;
The process of converting the viewpoint of the reference 3D road image in which the structure is disposed into the camera viewpoint of the image acquisition module.
The image recognition device to process.
제11항에서, 상기 3D 도로 이미지 생성 모듈에서 수행되는 상기 변환하는 프로세스,
상기 차량의 주행 차선을 판단하는 프로세스, 및
상기 판단된 주행 차선이 상기 기준 3D 도로 이미지를 표시하는 표시 화면의 중앙에 배치되도록 상기 기준 3D 도로 이미지의 시점을 상기 이미지 획득 모듈의 카메라 시점으로 변환하는 프로세스
를 포함하는 것인 영상 인식 장치.
The converting process of claim 11, wherein the converting process is performed by the 3D road image generating module.
A process of determining a driving lane of the vehicle, and
A process of converting the viewpoint of the reference 3D road image into the camera viewpoint of the image acquisition module such that the determined driving lane is disposed at the center of a display screen displaying the reference 3D road image
Image recognition apparatus comprising a.
제12항에서, 상기 3D 도로 이미지 생성 모듈에서 수행되는 상기 판단하는 프로세스는,
스캔 각도를 알 수 있는 거리 센서로부터 수집된 상기 거리 정보를 이용하여, 상기 차량이 도로 폭 방향으로 객체로부터 떨어진 거리를 계산하는 프로세스 및
상기 차량이 주행 중인 도로 구간의 전체 도로 폭과 상기 계산된 거리를 분석하여 상기 차량의 주행 차선을 판단하는 프로세스
를 포함하는 것인 영상 인식 장치.
The determining process of claim 12, wherein the determining process performed in the 3D road image generation module comprises:
A process of calculating the distance the vehicle is away from an object in the road width direction using the distance information collected from a distance sensor capable of knowing a scan angle;
A process of determining a driving lane of the vehicle by analyzing a total road width and the calculated distance of a road section in which the vehicle is driving;
Image recognition apparatus comprising a.
제8항에서, 상기 매칭 모듈은,
상기 실제 도로 이미지와 상기 3D 도로 이미지를 시간에 따라 연속되는 N개의 프레임들로 구성하는 프로세스,
상기 N개의 프레임들로 구성된 실제 도로 이미지들 중에서 첫 번째 프레임의 실제 도로 이미지에서 객체를 추출하는 프로세스,
상기 N개의 프레임들로 구성된 3D 도로 이미지들 중에서 첫 번째 프레임의 3D 도로 이미지에서 객체를 추출하는 프로세스,
상기 첫 번째 프레임의 실제 도로 이미지에서 추출된 객체의 특징 벡터값과 상기 첫 번째 프레임의 3D 도로 이미지에서 추출된 객체의 특징 벡터값 간의 오차를 계산하는 프로세스,
상기 계산된 오차를 이용하여 상기 첫 번째 프레임부터 N번째 프레임까지의 3D 도로 이미지들을 보정하는 프로세스, 및
상기 보정된 3D 도로 이미지들과 상기 실제 도로 이미지들을 매 프레임마다 매칭하는 프로세스
를 수행하는 것인 영상 인식 장치.
The method of claim 8, wherein the matching module,
A process of constructing the actual road image and the 3D road image with N frames contiguous with time;
A process of extracting an object from the actual road image of the first frame among the actual road images composed of the N frames,
A process of extracting an object from the 3D road image of the first frame among the 3D road images composed of the N frames,
A process of calculating an error between the feature vector value of the object extracted from the actual road image of the first frame and the feature vector value of the object extracted from the 3D road image of the first frame;
Correcting 3D road images from the first frame to the Nth frame using the calculated error, and
A process of matching the corrected 3D road images and the actual road images every frame
The image recognition device to perform.
KR1020180059767A 2018-05-25 2018-05-25 Apparatus and method for image recognition KR102163774B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180059767A KR102163774B1 (en) 2018-05-25 2018-05-25 Apparatus and method for image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180059767A KR102163774B1 (en) 2018-05-25 2018-05-25 Apparatus and method for image recognition

Publications (2)

Publication Number Publication Date
KR20190134303A true KR20190134303A (en) 2019-12-04
KR102163774B1 KR102163774B1 (en) 2020-10-08

Family

ID=69004823

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180059767A KR102163774B1 (en) 2018-05-25 2018-05-25 Apparatus and method for image recognition

Country Status (1)

Country Link
KR (1) KR102163774B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021126749A1 (en) * 2019-12-19 2021-06-24 Argo AI, LLC Ground surface imaging combining lidar and camera data
WO2022039476A1 (en) * 2020-08-18 2022-02-24 삼성전자 주식회사 Method for obtaining positional information using image, and electronic device for supporting same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049304A (en) * 2020-10-14 2022-04-21 삼성전자주식회사 Method for updating a 3D map using an image and an electronic device supporting the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4788426B2 (en) * 2006-03-23 2011-10-05 株式会社デンソー Vehicle display system
KR101217594B1 (en) * 2012-08-16 2013-01-03 주식회사 피엘케이 테크놀로지 Route change judgement system using image recognition information and its method
JP2013186551A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Traveling object position/attitude estimation device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4788426B2 (en) * 2006-03-23 2011-10-05 株式会社デンソー Vehicle display system
JP2013186551A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Traveling object position/attitude estimation device and method
KR101217594B1 (en) * 2012-08-16 2013-01-03 주식회사 피엘케이 테크놀로지 Route change judgement system using image recognition information and its method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021126749A1 (en) * 2019-12-19 2021-06-24 Argo AI, LLC Ground surface imaging combining lidar and camera data
US11681047B2 (en) 2019-12-19 2023-06-20 Argo AI, LLC Ground surface imaging combining LiDAR and camera data
WO2022039476A1 (en) * 2020-08-18 2022-02-24 삼성전자 주식회사 Method for obtaining positional information using image, and electronic device for supporting same
US20220092872A1 (en) * 2020-08-18 2022-03-24 Samsung Electronics Co., Ltd. Method for obtaining position information using image and electronic device supporting the same

Also Published As

Publication number Publication date
KR102163774B1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
US20230014874A1 (en) Obstacle detection method and apparatus, computer device, and storage medium
US20220092816A1 (en) Vehicle Localization Using Cameras
EP3581890B1 (en) Method and device for positioning
CA3028653C (en) Methods and systems for color point cloud generation
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
KR101647370B1 (en) road traffic information management system for g using camera and radar
EP3967972A1 (en) Positioning method, apparatus, and device, and computer-readable storage medium
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
US20160232410A1 (en) Vehicle speed detection
EP2770728A2 (en) Image distortion correction of a camera with a rolling shutter
US11430199B2 (en) Feature recognition assisted super-resolution method
KR20200030305A (en) Learning data generation method for image processing, image processing method, and apparatus thereof
US20230222671A1 (en) System for predicting near future location of object
EP3324359B1 (en) Image processing device and image processing method
KR102428765B1 (en) Autonomous driving vehicle navigation system using the tunnel lighting
KR102117313B1 (en) Gradient estimation device, gradient estimation method, computer program, and controlling system
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
EP3432265A1 (en) Image processing device, apparatus control system, image pickup device, image processing method, and program
KR102388806B1 (en) System for deciding driving situation of vehicle
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
KR102163774B1 (en) Apparatus and method for image recognition
KR20130120041A (en) Apparatus and method for detecting traffic lane
Nambi et al. FarSight: a smartphone-based vehicle ranging system
CN116892949A (en) Ground object detection device, ground object detection method, and computer program for ground object detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)