KR101964100B1 - Object detection apparatus based on neural network learning and method of the same - Google Patents
Object detection apparatus based on neural network learning and method of the same Download PDFInfo
- Publication number
- KR101964100B1 KR101964100B1 KR1020170137359A KR20170137359A KR101964100B1 KR 101964100 B1 KR101964100 B1 KR 101964100B1 KR 1020170137359 A KR1020170137359 A KR 1020170137359A KR 20170137359 A KR20170137359 A KR 20170137359A KR 101964100 B1 KR101964100 B1 KR 101964100B1
- Authority
- KR
- South Korea
- Prior art keywords
- neural network
- network learning
- learning
- plane data
- data
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G06K9/46—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 객체 검출 기술에 관한 것으로, 보다 상세하게는 딥 러닝을 위한 학습 데이터를 효과적으로 습득할 수 있는 신경망 학습 기반의 객체 검출 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object detection technique, and more particularly, to a neural network learning based object detection apparatus and method capable of effectively acquiring learning data for deep learning.
일반적으로 공간 상에 분포하는 사물의 형상과 위치를 검출하기 위해 카메라를 통해 사물의 2차원 이미지를 측정하거나 라이다(Lidar)를 통해 사물의 위치나 이동 속도를 측정하여 대상에 관한 정보를 생성할 수 있다. 이렇게 생성된 정보들은 학습 모델에 적용되어 이를 기반으로 한 객체 검출 과정에 사용될 수 있다.Generally, in order to detect the shape and position of an object distributed in space, a two-dimensional image of the object is measured through a camera, or information about the object is generated by measuring the position or movement speed of the object through Lidar . The generated information is applied to the learning model and can be used in the object detection process based on the information.
종래의 학습 모델링 기술은 카메라를 통한 2차원의 영상으로부터 픽셀의 명암 변화나 외곽선의 교차 포인트 등을 기초로 특징 포인트를 추출하여 학습을 위해 사용하거나, 3차원의 라이다 센서로부터 획득된 3차원 정보로부터 데이터를 추출하여 학습을 위해 사용할 수 있다. 이러한 종래 기술은 학습을 수행하는 과정에서 불필요한 데이터까지 가져와 학습을 위한 데이터 처리 속도가 느린 단점이 있고, 결과적으로 학습 효율성이 저하될 수 있다.Conventional learning modeling technology extracts feature points from two-dimensional images from a camera and uses them for learning based on changes in brightness or crossing points of outlines, or uses three-dimensional information And can be used for learning. This conventional technique has a disadvantage in that data processing speed for learning is slow due to bringing up unnecessary data in the process of performing learning, and as a result, learning efficiency may be deteriorated.
한국등록특허 제10-1737803(2017.05.15)호는 객체 정보 수집 장치에 관한 것으로, 횡단 보도 일 측에 설치되며, 스캔(Scan) 영역 내 기 설정된 복수의 관심 영역에 대해 라이다(Lidar) 방식으로 스캔(Scan)하여 스캔 정보를 생성하는 센싱부, 상기 스캔 정보를 기초로 소정 객체를 검출하고, 상기 검출한 객체의 특징 정보를 추출하는 객체 검출부 및 상기 특징 정보와 기 저장된 학습 정보를 기초로 소정 위치에서 반복 검출되는 고정물, 소정 크기 범위를 갖는 사람과 차량 중 적어도 하나를 각각 분류하는 객체 분류부를 포함하며, 상기 객체 분류부는, 상기 특징 정보를 기초로 상기 고정물의 위치 또는 종류를 포함한 고정물 정보를 학습하고 갱신하며, 상기 고정물이 검출되면, 상기 고정물을 마킹하여 제공한다.Korean Patent No. 10-1737803 (Jul. 15, 2015) relates to an object information collecting apparatus, which is installed at a side of a crosswalk, and has a Lidar method for a plurality of pre- An object detection unit that detects a predetermined object based on the scan information and extracts feature information of the detected object, and an object detection unit that detects feature information of the object based on the feature information and pre- A fixture that is repeatedly detected at a predetermined position, and an object classifier that classifies at least one of a person and a vehicle having a predetermined size range, wherein the object classifier classifies the fixture information including the position or type of the fixture based on the feature information, And, when the fixture is detected, marking and providing the fixture.
한국공개특허공보 제10-2015-0045735(2015.04.29)호는 다-파장 이미지 라이다 센서장치에 관한 것으로, 다-파장 광 펄스 신호를 출력하는 송신부, 상기 다-파장 광 펄스 신호를 송신 광 신호로 변환하여 공간 상으로 출력하고, 상기 송신 광 신호가 공간 상의 물체에 반사되어 되돌아 오는 신호들을 집광한 수신 광 신호를 수신부에 전달하는 송수신 광학부, 상기 수신 광 신호에 대해 각 파장 별 반사신호의 세기를 측정하는 수신부 및 상기 각 파장 별 반사신호 세기에 따라 달라지는 상기 수신 광 신호에 대한 색 좌표 정보(Chromatic coordinate information)를 연산하는 프로세서를 포함한다.Korean Patent Laid-Open Publication No. 10-2015-0045735 (Apr. 29, 2015) discloses a multi-wavelength image sensor device. The sensor device includes a transmitter for outputting a multi-wavelength optical pulse signal, a transmitter for outputting the multi- A transmission / reception optical section for converting the received optical signal into a signal and outputting it as a space, a transmission / reception optical section for transmitting a reception optical signal on which the transmission optical signal is reflected by an object in space, And a processor for calculating chromatic coordinate information of the received optical signal depending on the intensity of the reflected signal of each wavelength.
본 발명의 일 실시예는 딥 러닝을 위한 학습 데이터를 효과적으로 습득할 수 있는 신경망 학습 기반의 객체 검출 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is to provide an apparatus and method for detecting an object based on a neural network that can effectively learn learning data for deep learning.
본 발명의 일 실시예는 2차원 라이다 센서를 이용하여 3차원 포인트 클라우드를 획득함으로써 비용 절감의 효과가 있는 신경망 학습 기반의 객체 검출 장치 및 방법을 제공하고자 한다.An object of the present invention is to provide an apparatus and method for detecting an object based on a neural network learning which has a cost reduction effect by acquiring a three-dimensional point cloud using a two-dimensional ray sensor.
본 발명의 일 실시예는 장착 각도에 따라 2차원 라이다 센서의 다양한 배치가 가능하여 불필요한 데이터의 제거를 통해 3차원 라이다 센서보다 다양한 데이터의 취득이 가능한 신경망 학습 기반의 객체 검출 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is an apparatus and method for detecting an object based on a neural network that can acquire various data from a three dimensional Lidar sensor by removing unnecessary data by allowing various arrangements of a two dimensional Lidar sensor according to a mounting angle. .
실시예들 중에서, 신경망 학습 기반의 객체 검출 장치는 전방 객체에 관해 일부는 제1 방향으로 스캐닝을 수행하여 제1 평면 데이터를 수집하고 다른 일부는 제2 방향으로 스캐닝을 수행하여 제2 평면 데이터를 수집하는 복수의 라이다부들 및 상기 제1 및 제2 평면 데이터들을 기초로 상기 전방 객체에 관한 신경망 학습을 수행하는 신경망 학습부를 포함한다.Among the embodiments, the neural network learning-based object detecting apparatus performs scanning in a first direction with respect to a front object to collect first plane data, and another part performs scanning in a second direction to obtain second plane data And a neural network learning unit for performing neural network learning on the forward object based on the first and second plane data.
상기 복수의 라이다부들은 차량에 탑재되고, 상기 일부는 상기 차량의 진행방향과 수직인 방향으로 스캐닝을 수행하고, 상기 다른 일부는 상기 차량의 진행방향과 평형인 방향으로 스캐닝을 수행할 수 있다.The plurality of ladders are mounted on the vehicle and the part performs scanning in a direction perpendicular to the traveling direction of the vehicle and the other part performs scanning in a direction parallel to the traveling direction of the vehicle .
상기 복수의 라이다부들은 상기 일부를 복수로 구성하고 상기 다른 일부를 단수로 구성할 수 있다.The plurality of ladder units may comprise a plurality of the portions and the other portions may be configured in a single number.
상기 복수의 라이다부들 각각은 동일 3D 좌표계를 공유하기 위해 사전에 캘리브레이션된 2D 라이다로 구성될 수 있다.And each of the plurality of ladder units may be 2D calibrated in advance to share the same 3D coordinate system.
상기 신경망 학습부는 상기 신경망 학습 이전에 상기 제1 및 제2 평면 데이터들을 3D 좌표계에 배치하여 3D 포인트 클라우드를 형성할 수 있다.The neural network learning unit may form the 3D point cloud by arranging the first and second plane data in the 3D coordinate system before learning the neural network.
상기 신경망 학습부는 상기 3D 포인트 클라우드를 xy 평면, yz 평면 및 xz 평면을 통해 분해하여 복수의 2D 투영 데이터들을 생성할 수 있다.The neural network learning unit may decompose the 3D point cloud through the xy plane, the yz plane, and the xz plane to generate a plurality of 2D projection data.
상기 신경망 학습부는 상기 복수의 2D 투영 데이터들 각각을 기초로 상기 전방 객체에 관한 신경망 학습을 수행할 수 있다.The neural network learning unit may perform neural network learning on the forward object based on each of the plurality of 2D projection data.
상기 신경망 학습부는 상기 전방 객체에 관한 DNN(Deep Neural Network) 학습을 수행할 수 있다.The neural network learning unit may perform DNN (Deep Neural Network) learning on the forward object.
상기 신경망 학습 기반의 객체 검출 장치는 특정 라이다를 통해 취득되고 3D 포인트 집합으로 구성된 미지의 객체를 기 신경망 학습된 전방 객체 중 하나로 분류하는 객체 분류부를 더 포함할 수 있다.The neural network learning-based object detecting apparatus may further include an object classifying unit that classifies an unknown object, which is acquired through a specific classifier and composed of a set of 3D points, as one of the forward objects learned as a neural network.
실시예들 중에서, 신경망 학습 기반의 객체 검출 방법은 신경망 학습 기반의 객체 검출 장치에 의해 수행된다. 상기 신경망 학습 기반의 객체 검출 방법은 (a) 전방 객체에 관해 일부는 제1 방향으로 스캐닝을 수행하여 제1 평면 데이터를 수집하고 다른 일부는 제2 방향으로 스캐닝을 수행하여 제2 평면 데이터를 수집하는 단계 및 (b) 상기 제1 및 제2 평면 데이터들을 기초로 상기 전방 객체에 관한 신경망 학습을 수행하는 단계를 포함한다.Among the embodiments, the object detection method based on the neural network learning is performed by the object detection apparatus based on the neural network learning. The neural network learning based object detection method includes the steps of (a) collecting first plane data by performing scanning in a first direction with respect to a front object, and scanning another object in a second direction to collect second plane data And (b) performing neural network learning on the forward object based on the first and second plane data.
실시예들 중에서, 컴퓨터에 의해 수행 가능한 기록매체는 제10항의 방법을 기록한다.Among the embodiments, a computer-executable recording medium records the method of
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technique may have the following effects. It is to be understood, however, that the scope of the disclosed technology is not to be construed as limited thereby, as it is not meant to imply that a particular embodiment should include all of the following effects or only the following effects.
본 발명의 일 실시예에 따른 신경망 학습 기반의 객체 검출 장치 및 방법은 딥 러닝을 위한 학습 데이터를 효과적으로 습득할 수 있다.The neural network learning based object detecting apparatus and method according to an embodiment of the present invention can effectively learn learning data for deep learning.
본 발명의 일 실시예에 따른 신경망 학습 기반의 객체 검출 장치 및 방법은 2차원 라이다 센서를 이용하여 3차원 포인트 클라우드를 획득함으로써 비용 절감의 효과가 있다.The apparatus and method for detecting an object based on neural network learning according to an embodiment of the present invention have a cost reduction effect by acquiring a three-dimensional point cloud using a two-dimensional ray sensor.
본 발명의 일 실시예에 따른 신경망 학습 기반의 객체 검출 장치 및 방법은 장착 각도에 따라 2차원 라이다 센서의 다양한 배치가 가능하여 불필요한 데이터의 제거를 통해 3차원 라이다 센서보다 다양한 데이터의 취득이 가능하다.The apparatus and method for detecting objects based on neural network learning according to an embodiment of the present invention can arrange various sensors in a variety of ways depending on the mounting angle, It is possible.
도 1은 본 발명의 일 실시예에 따른 신경망 학습 기반의 객체 검출 장치를 설명하는 도면이다.
도 2는 도 1에 있는 신경망 학습부가 3D 포인트 클라우드를 형성하는 과정의 일 실시예를 나타내는 도면이다.
도 3은 도 1에 있는 신경망 학습부가 3D 포인트 클라우드를 분석하여 신경망 학습을 수행하는 과정의 일 실시예를 나타내는 도면이다.
도 4는 도 1에 있는 객체 분류부가 객체 분류를 수행하는 과정의 일 실시예를 나타내는 도면이다.
도 5는 도 1에 있는 신경망 학습 기반의 객체 검출 장치가 신경망 학습을 수행하는 과정을 설명하는 흐름도이다.1 is a view for explaining an object detection apparatus based on a neural network learning according to an embodiment of the present invention.
FIG. 2 is a view showing an embodiment of a process of forming a 3D point cloud by the neural network learning unit shown in FIG. 1;
FIG. 3 is a diagram illustrating an exemplary process of the neural network learning unit of FIG. 1 performing neural network learning by analyzing a 3D point cloud.
FIG. 4 is a view showing an embodiment of a process of object classification by the object classification part in FIG. 1.
FIG. 5 is a flowchart illustrating a process of the neural network learning based object detection apparatus of FIG. 1 performing neural network learning.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The description of the present invention is merely an example for structural or functional explanation, and the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, the embodiments are to be construed as being variously embodied and having various forms, so that the scope of the present invention should be understood to include equivalents capable of realizing technical ideas. Also, the purpose or effect of the present invention should not be construed as limiting the scope of the present invention, since it does not mean that a specific embodiment should include all or only such effect.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in the present application should be understood as follows.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms "first "," second ", and the like are intended to distinguish one element from another, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected to the other element, but there may be other elements in between. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that there are no other elements in between. On the other hand, other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It is to be understood that the singular " include " or "have" are to be construed as including the stated feature, number, step, operation, It is to be understood that the combination is intended to specify that it does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (e.g., a, b, c, etc.) is used for convenience of explanation, the identification code does not describe the order of each step, Unless otherwise stated, it may occur differently from the stated order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be embodied as computer-readable code on a computer-readable recording medium, and the computer-readable recording medium includes all kinds of recording devices for storing data that can be read by a computer system . Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used predefined terms should be interpreted to be consistent with the meanings in the context of the related art and can not be interpreted as having ideal or overly formal meaning unless explicitly defined in the present application.
도 1은 본 발명의 일 실시예에 따른 신경망 학습 기반의 객체 검출 장치를 설명하는 도면이다.1 is a view for explaining an object detection apparatus based on a neural network learning according to an embodiment of the present invention.
도 1을 참조하면, 신경망 학습 기반의 객체 검출 장치(100)는 복수의 라이다부들(110), 신경망 학습부(120), 제어부(130) 및 객체 분류부(140)를 포함할 수 있고, 이들은 상호 연결될 수 있다.1, the neural network learning based
복수의 라이다부들(110)은 전방 객체(10)에 관해 일부는 제1 방향으로 스캐닝을 수행하여 제1 평면 데이터를 수집하고 다른 일부는 제2 방향으로 스캐닝을 수행하여 제2 평면 데이터를 수집한다. 보다 구체적으로, 복수의 라이다부들(110) 중 일부 각각은 해당 라이다가 배치된 수평면을 기준으로 x 축, y 축 및 z 축 방향 중 하나인 제1 방향으로 스캐닝하여 전방 객체(10)에 관한 제1 평면 데이터를 수집하고, 복수의 라이다부들(110) 중 다른 일부 또는 나머지 각각은 해당 라이다가 배치된 수평면을 기준으로 x 축, y 축 및 z 축 방향 중 다른 하나인 제2 방향으로 스캐닝하여 전방 객체(10)에 관한 제2 평면 데이터를 수집할 수 있다. 여기에서, 전방 객체(10)는 복수의 라이다부들(110) 각각의 전방에 있는 적어도 하나의 대상물(예를 들어, 보행자, 전봇대 또는 다른 차량)에 해당하거나 이들을 포함할 수 있다.The plurality of
일 실시예에서, 복수의 라이다부들(110) 각각은 레이저를 이용하여 대상물 간의 거리를 측정하는 2차원의 라이다(LiDAR, Laser Radar)로 구현될 수 있고, 예를 들어, 차량용의 2D(two-dimensional space) 라이다로 구현되어 차량 전방에 있는 적어도 하나의 대상물 각각의 거리에 관한 2차원 데이터를 생성할 수 있다.In one embodiment, each of the plurality of
복수의 라이다부들(110)은 제1 방향으로 스캐닝을 수행하는 적어도 하나의 제1 라이다(112)와 제2 방향으로 스캐닝을 수행하는 적어도 하나의 제2 라이다(114)를 포함할 수 있고, 일 실시예에서, 제1 및 제2 방향과 상이한 방향으로 스캐닝을 수행하는 라이다를 더 포함할 수도 있다. 제1 및 제2 라이다들(112, 114)은 서로 다른 위치에 배치되어 전방 객체(10)에 관해 서로 상이한 방향으로 스캐닝된 평면 데이터들을 수집할 수 있다.The plurality of
일 실시예에서, 복수의 라이다부들(110)은 차량(20)에 탑재되고, 일부는 차량의 진행방향과 수직인 방향으로 스캐닝을 수행하며, 다른 일부는 차량의 진행방향과 평형인 방향으로 스캐닝을 수행할 수 있다. 예를 들어, 제1 라이다(112)는 차량(20)의 인클로저 상부에 전면 방향을 향해 배치되어 차량(20)의 진행방향과 수직인 상하 방향으로 스캐닝을 수행할 수 있고, 제2 라이다(112)는 차량(20)의 인클로저 전면에 전면 방향을 향해 배치되어 차량(20)의 진행방향과 수평인 좌우 방향으로 스캐닝을 수행할 수 있다.In one embodiment, the plurality of
위의 실시예에서, 복수의 라이다부들(110)은 상기 일부를 복수로 구성하고 상기 다른 일부를 단수로 구성할 수 있다. 예를 들어, 복수의 라이다부들(110)은 차량(20) 상부의 루프판넬과 결합되고 차량(20)의 진행방향과 평형으로 특정 거리(예를 들어, 10초) 이내의 간격으로 나란히 배치되는 3개의 제1 라이다(112) 및 차량(20) 전면의 프론트판넬 중앙에 결합되는 1개의 제2 라이다(114)로 구성될 수 있다.In the above embodiment, the plurality of
복수의 라이다부들(110) 각각은 동일 3D(three-dimensional space) 좌표계를 공유하기 위해 사전에 캘리브레이션된 2D 라이다로 구성될 수 있다. 보다 구체적으로, 복수의 라이다부들(110) 각각은 추후 해당 라이다에 의해 측정된 2D 평면 데이터를 기초로 결합된 3D 좌표계를 생성하기 위해 사전에 특정 거리 값만큼 캘리브레이션될 수 있다. 일 실시예에서, 캘리브레이션을 위한 값은 복수의 라이다부들(110)의 2D 평면 데이터를 결합할 수 있는 중심점, 각각의 배치 위치, 중심점과 해당 위치 간의 거리 및 복수 개로 구성된 경우 상호 간의 거리 차이를 기초로 산출될 수 있고, 설계자 또는 사용자에 의해 설정될 수 있다.Each of the plurality of
신경망 학습부(120)는 제1 및 제2 평면 데이터들을 기초로 전방 객체(10)에 관한 신경망 학습을 수행한다. 일 실시예에서, 신경망 학습부(120)는 복수의 라이다부들(110)로부터 수신되는 제1 및 제2 평면 데이터들을 기초로 통합된 3D 좌표 정보를 획득할 수 있고, 획득된 통합 3D 좌표 정보를 분석하여 신경망 네트워크(Neural Network) 기반의 객체 분류 알고리즘을 생성 또는 갱신하기 위한 특징 데이터들을 추출하는 신경망 학습을 수행할 수 있다.The neural
신경망 학습부(120)는 신경망 학습 이전에 제1 및 제2 평면 데이터들을 3D 좌표계에 배치하여 3D 포인트 클라우드를 형성할 수 있다. 이러한 내용은 도 2를 참조하여 설명하도록 한다. 도 2는 도 1에 있는 신경망 학습부가 3D 포인트 클라우드를 형성하는 과정의 일 실시예를 나타내는 도면이다.The neural
도 2에서, 신경망 학습부(120)는 복수의 라이다부들(110)에 의해 측정된 제1 및 제2 평면 데이터들을 마운팅 포인트(mounting point)에 맞추어 3D 좌표계로 통합할 수 있고(도 2(a) 참조), 통합된 3D 좌표계를 토대로 3D 포인트 클라우드를 생성할 수 있다(도 2(b) 참조). 일 실시예에서, 신경망 학습부(120)는 동일 3D 좌표계를 공유하기 위해 사전에 마운팅 포인트를 기준으로 xy, yz 및 xz 평면 중 적어도 일부에 관해 특정 좌표 값이 캘리브레이션된 제1 및 제2 평면 데이터들을 통합하여 통합 3D 좌표계를 형성할 수 있다. 일 실시예에서, 신경망 학습부(120)는 도 2(b)에서와 같이, 기 저장된 포인트 클라우드 알고리즘을 기초로 제1 및 제2 평면 데이터들 간의 대응점들을 통합 3D 좌표계에 매칭하여 3차원을 기준으로 밀집된 3D 포인트 클라우드를 생성할 수 있다.2, the neural
신경망 학습부(120)는 생성된 3D 포인트 클라우드를 기초로 전방 객체(10)에 관한 신경망 학습을 수행할 수 있다. 이에 관해서는 도 3을 참조하여 설명하도록 한다. 도 3은 도 1에 있는 신경망 학습부가 3D 포인트 클라우드를 분석하여 신경망 학습을 수행하는 과정의 일 실시예를 나타내는 도면이다.The neural
도 3a에서, 신경망 학습부(120)는 3D 포인트 클라우드를 xy 평면, yz 평면 및 xz 평면을 통해 분해하여 복수의 2D 투영 데이터들을 생성할 수 있다. 보다 구체적으로, 신경망 학습부(120) 생성된 3D 포인트 클라우드를 2차원 좌표계에 투영하여 3D 포인트 클라우드에 매핑된 대응점들을 xy 평면 데이터, yz 평면 데이터 및 xz 평면 데이터 각각의 2D 투영 데이터를 생성할 수 있다.In FIG. 3A, the neural
도 3b에서, 신경망 학습부(120)는 복수의 2D 투영 데이터들 각각을 기초로 전방 객체(10)에 관한 신경망 학습을 수행할 수 있다. 보다 구체적으로, 신경망 학습부(120)는 생성된 복수의 2D 투영 데이터들 각각을 분석하여 해당 2D 투영 데이터로부터 특징 데이터를 추출할 수 있고, 추출된 특징 데이터를 기초로 객체 검출을 위한 신경망 네트워크(Neural Network) 기반의 신경망 학습 알고리즘을 생성하거나 갱신할 수 있다. 일 실시예에서, 신경망 학습부(120)는 복수의 2D 투영 데이터들 각각의 좌표 값을 바탕으로 해당 평면의 형상에 관한 정보를 포함하는 특징 데이터를 추출할 수 있다.3B, the neural
도 3c는 신경망 학습부(120)에 의해 생성되거나 갱신되는 신경망 네트워크 기반의 신경망 학습 알고리즘의 구조도의 일 실시예를 나타낸다. 도 3c에 있는 신경망 학습 알고리즘은 입력 레이어(input layer), 적어도 하나의 은닉 레이어(hidden layer) 및 출력 레이어(output layer)로 구성될 수 있고, 일 실시예에서, 은닉 레이어가 1개로 구성된 NN(Neural Network) 기반의 구조나 은닉 레이어가 2개 이상으로 구성된 DNN(Deep Neural Network) 기반의 구조를 가질 수 있다.3C shows an embodiment of a structural diagram of a neural network learning algorithm based on a neural network that is generated or updated by the neural
도 3d에서, 신경망 학습부(120)는 복수의 2D 투영 데이터들 각각으로부터 추출된 특징 데이터를 기 저장된 역전파 알고리즘(BackPropagation Algorithm)에 적용하여 신경망 학습을 수행할 수 있다. 여기에서, 역전파 알고리즘은 도 3b 또는 도 3c에 있는 신경망 네트워크 기반의 신경망 학습 알고리즘에 관한 학습 알고리즘으로서, 학습을 위한 입력 데이터 x, 해당 입력 데이터에 따른 출력 데이터 y 및 해당 입력 데이터에 대한 원하는 출력 z로 구성될 수 있다.In FIG. 3D, the neural
보다 구체적으로, 신경망 학습부(120)는 역전파 알고리즘을 기초로 참 값과 추정 값의 오차를 통해 가중치를 계산하여 학습을 수행할 수 있고, 학습을 위한 입력 데이터 x가 입력되면 해당 역전파 알고리즘에 있는 신경망의 가중치와 곱하고 더하는 연산의 반복을 통해 출력 데이터 y를 출력할 수 있으며, 출력 데이터 y와 원하는 출력 z 간의 오차(δ=z-y)를 산출하여 이에 비례하는 출력 레이어의 가중치와 은닉 레이어의 가중치를 순차적으로, 신경망의 처리 방향과는 반대로, 해당 가중치들을 갱신하여 할 수 있다. 신경망 학습부(120)는 이러한 방식으로 복수의 2D 투영 데이터들로부터 추출된 특징 데이터들을 역전파 알고리즘에 입력으로 반영하여 신경망 네트워크 기반의 신경망 학습 알고리즘의 신경망 가중치를 갱신하는 방식으로 전방 객체(10)에 관한 신경망 학습을 수행할 수 있다.More specifically, the neural
일 실시예에서, 신경망 학습부(120)는 학습률(η)을 기초로 역전파 알고리즘의 학습 정도를 조절할 수 있고, 조절된 학습 정도에 따라 갱신되는 신경망 네트워크 기반의 신경망 학습 알고리즘의 객체 검출 성능에 차이가 발생할 수 있다. 일 실시예에서, 학습률은 설계자 또는 사용자에 의해 설정 및 조정될 수 있다.In one embodiment, the neural
일 실시예에서, 신경망 학습부(120)는 대상 객체와 동적 객체와의 연관성을 판단하여 해당 역전파 알고리즘의 학습률(η)을 하향 조정할 수 있다. 여기에서, 동적 객체는 차량, 보행자 및 자전거 탑승자를 포함하여 사물의 위치가 주로 이동될 수 있는 객체에 해당한다. 예를 들어, 신경망 학습부(120)는 입력 데이터 x와 원하는 출력 z을 기초로 전방 객체(10)가 동적 객체에 해당하는지 여부를 결정할 수 있고, 그렇다면, 하기의 수학식 1을 기초로 초기 설정된 학습률(η0)에 조정 비율(r)을 반영하여 학습률(η)을 갱신할 수 있다. 여기에서, 초기 설정된 학습률(η0)과 조정 비율(r)은 설계자 또는 사용자자에 의해 설정될 수 있고, 조정 비율(r)은 0.5 이상 1.0 미만의 값으로 설정될 수 있다. In one embodiment, the neural
[수학식 1][Equation 1]
η = r* η0 η = r * η 0
일 실시예에서, 신경망 학습부(120)는 복수의 2D 투영 데이터들을 기초로 신경망 학습을 수행하는 과정에서 차량(20)의 진행 방향을 기준으로 특정 평면에 관한 2D 투영 데이터를 학습에 더 높은 비중으로 반영할 수 있다. 예를 들어, 신경망 학습부(120)는 복수의 2D 투영 데이터들 중 차량의 진행방향과 수직인 특정 평면의 2D 투영 데이터의 학습 과정에서 학습을 통한 신경망 가중치의 반영 비율을 다른 2D 투영 데이터들보다 더 높게 설정할 수 있다.In one embodiment, the neural
일 실시예에서, 신경망 학습부(120)는 전방 객체(10)에 관한 DNN(Deep Neural Network) 학습을 수행할 수 있다. 상기 서술한 것처럼, 신경망 학습부(120)는 2개 이상의 은닉 레이어를 포함하는 DNN 구조 기반의 신경망 네트워크 기반의 신경망 학습 알고리즘 및 이에 관한 역전파 알고리즘을 통해 DNN 학습을 수행할 수 있다.In one embodiment, the neural
객체 분류부(140)는 특정 라이다를 통해 취득되고 3D 포인트 집합으로 구성된 미지의 객체를 기 신경망 학습된 전방 객체 중 하나로 분류할 수 있다. 일 실시예에서, 객체 분류부(140)는 신경망 학습이 수행되면 복수의 2D 투영 데이터들에 관한 중첩 적분(convolution)을 통해 병합된 3D 포인트 집합을 생성하거나, 기 생성된 3D 포인트 클라우드를 통해 3D 포인트 집합을 구성할 수 있고, 해당 3D 포인트 집합을 학습을 통해 갱신된 신경망 네트워크 기반의 신경망 학습 알고리즘에 적용하거나 확률 연산을 통해 분석하여 최종적으로 객체 분류를 수행할 수 있다. 예를 들어, 객체 분류부(140)는 분석 결과가 기 신경망 학습을 통해 저장된 복수의 객체 종류들 중 하나와 매칭되는지 여부를 판단하여 해당 3D 포인트 집합에 있는 미지의 객체를 특정 객체로 분류할 수 있다.The
일 실시예에서, 객체 분류부(140)는 DNN 학습을 통해 학습된 DNN 구조 기반의 신경망 네트워크 기반의 신경망 학습 알고리즘을 기초로 객체의 분류를 수행할 수 있고, 예를 들어, 도 4에서와 같이, 전방 객체(10)에 관해 복수의 라이다부들(110) 중 적어도 일부를 통해 획득되고 3D 포인트 집합으로 구성된 미지의 객체의 객체 종류를 차량, 보행자 및 자전거 탑승자를 포함하는 객체 종류 후보군들 중 하나로 결정할 수 있다.In one embodiment, the
일 실시예에서, 신경망 학습부(120)는 객체 분류 과정에서 해당 미지의 객체를 동적 객체와 정적 객체 중 하나로 구분할 수 있다. 여기에서, 동적 객체는 차량, 보행자 및 자전거 탑승자를 포함하여 사물의 위치가 주로 이동될 수 있는 객체에 해당하고, 정적 객체는 도로나 도형지형지물(예를 들어, 방지턱)과 같은 사물의 위치가 주로 이동되지 않는 객체에 해당한다.In one embodiment, the neural
일 실시예에서, 신경망 학습부(120)는 이러한 신경망 학습을 통해 학습된 신경망 네트워크 기반의 신경망 학습 알고리즘을 사용하여 수학적 모델링을 통해 검출하기 어려운 객체를 용이하게 검출할 수 있다.In one embodiment, the neural
제어부(130)는 신경망 학습 기반의 객체 검출 장치(100)의 동작 전반을 제어할 수 있고, 복수의 라이다부들(110), 신경망 학습부(120) 및 객체 분류부(140) 간의 데이터 흐름을 제어할 수 있다. 제어부(130)는 복수의 라이다부들(110), 신경망 학습부(120) 및 객체 분류부(140)와 전기적으로 연결되거나 네트워크를 통해 연결될 수 있다. The
일 실시예에서, 신경망 학습부(120), 제어부(130) 및 객체 분류부(140)는 프로세서, 메모리, 사용자 입출력 및 네트워크 입출력 수단이 구비된 컴퓨팅 장치로 통합적으로 구현되어 차량(20) 내에 탑재될 수 있고, 이러한 경우, 제어부(130)는 이들을 제어하는 CPU(Central Processing Unit)로 구현될 수 있으며, 차량(20)의 특정 위치에 탑재된 복수의 라이다부들(110)과 전기적으로 또는 근거리 통신망을 통해 연결될 수 있다. 예를 들어, 신경망 학습 기반의 객체 검출 장치(100)는 차량(20)에 장착된 리눅스 PC(Personal Computer)를 통해 구현될 수 있고, 리눅스 PC에 설치된 ROS(Robot Operation System) 기반의 플랫폼을 통해 복수의 라이다부들(110)로부터 측정된 평면 데이터들을 수신하여 신경망 학습을 수행할 수 있다.In one embodiment, the neural
다른 일 실시예에서, 복수의 라이다부들(110), 신경망 학습부(120), 제어부(130) 및 객체 분류부(140)는 CAN(Controller Area Network) 통신을 통해 상호 간에 통신할 수도 있다.In another embodiment, the plurality of
도 5는 도 1에 있는 신경망 학습 기반의 객체 검출 장치가 신경망 학습을 수행하는 과정을 설명하는 흐름도이다.FIG. 5 is a flowchart illustrating a process of the neural network learning based object detection apparatus of FIG. 1 performing neural network learning.
도 5에서, 복수의 라이다부들(110)은 전방 객체(10)에 관해 일부는 제1 방향으로 스캐닝을 수행하여 제1 평면 데이터를 수집하고 다른 일부는 제2 방향으로 스캐닝을 수행하여 제2 평면 데이터를 수집한다(단계 S510). 신경망 학습부(120)는 제1 및 제2 평면 데이터들을 기초로 전방 객체(10)에 관한 신경망 학습을 수행한다(단계 S520).In FIG. 5, a plurality of
상기에서는 본 출원의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 통상의 기술자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as set forth in the following claims And changes may be made without departing from the spirit and scope of the invention.
100: 신경망 학습 기반의 객체 검출 장치
10: 전방 객체 20: 차량
110: 복수의 라이다부들 120: 신경망 학습부
130: 제어부 140: 객체 분류부100: object detection device based on neural network learning
10: front object 20: vehicle
110: plural ladder parts 120: neural network learning part
130: control unit 140: object classification unit
Claims (11)
상기 제1 및 제2 평면 데이터들을 기초로 상기 전방 객체에 관한 신경망 학습을 수행하는 신경망 학습부를 포함하고,
상기 복수의 라이다부들 각각은 동일 3D 좌표계를 공유하기 위해 사전에 캘리브레이션된 2D 라이다로 구성되는 것을 특징으로 하는 신경망 학습 기반의 객체 검출 장치.
A plurality of ladders for performing a scanning in a first direction with respect to a forward object to collect first plane data and a second to scan in a second direction to collect second plane data; And
And a neural network learning unit for performing neural network learning on the forward object based on the first and second plane data,
Wherein each of the plurality of ladder units is 2D which is previously calibrated to share the same 3D coordinate system.
차량에 탑재되고
상기 일부는 상기 차량의 진행방향과 수직인 방향으로 스캐닝을 수행하고,
상기 다른 일부는 상기 차량의 진행방향과 평형인 방향으로 스캐닝을 수행하는 것을 특징으로 하는 신경망 학습 기반의 객체 검출 장치.
2. The apparatus of claim 1, wherein the plurality of rows
Mounted on a vehicle
The part performs scanning in a direction perpendicular to the traveling direction of the vehicle,
And the other part performs scanning in a direction parallel to the traveling direction of the vehicle.
상기 일부를 복수로 구성하고 상기 다른 일부를 단수로 구성하는 것을 특징으로 하는 신경망 학습 기반의 객체 검출 장치.
3. The apparatus of claim 2, wherein the plurality of rows
Wherein a plurality of said parts are constituted, and said other part is constituted by a singular number.
상기 신경망 학습 이전에 상기 제1 및 제2 평면 데이터들을 3D 좌표계에 배치하여 3D 포인트 클라우드를 형성하는 것을 특징으로 하는 신경망 학습 기반의 객체 검출 장치.
2. The apparatus of claim 1, wherein the neural network learning unit
Wherein the 3D point cloud is formed by arranging the first and second plane data in a 3D coordinate system before learning the neural network.
상기 3D 포인트 클라우드를 xy 평면, yz 평면 및 xz 평면을 통해 분해하여 복수의 2D 투영 데이터들을 생성하는 것을 특징으로 하는 신경망 학습 기반의 객체 검출 장치.
6. The apparatus of claim 5, wherein the neural network learning unit
Wherein the 3D point cloud is decomposed through the xy plane, the yz plane, and the xz plane to generate a plurality of 2D projection data.
상기 복수의 2D 투영 데이터들 각각을 기초로 상기 전방 객체에 관한 신경망 학습을 수행하는 것을 특징으로 하는 신경망 학습 기반의 객체 검출 장치.
7. The apparatus of claim 6, wherein the neural network learning unit
And performs neural network learning on the forward object based on each of the plurality of 2D projection data.
상기 전방 객체에 관한 DNN(Deep Neural Network) 학습을 수행하는 것을 특징으로 하는 신경망 학습 기반의 객체 검출 장치.
8. The apparatus of claim 7, wherein the neural network learning unit
And performing DNN (Deep Neural Network) learning on the forward object.
특정 라이다를 통해 취득되고 3D 포인트 집합으로 구성된 미지의 객체를 기 신경망 학습된 전방 객체 중 하나로 분류하는 객체 분류부를 더 포함하는 것을 특징으로 하는 신경망 학습 기반의 객체 검출 장치.
The method according to claim 1,
Further comprising an object classifier for classifying an unknown object, which is acquired through a specific classifier and composed of a set of 3D points, as one of the forward objects learned through the neural network.
(a) 각각은 동일 3D 좌표계를 공유하기 위해 사전에 캘리브레이션된 2D 라이다로 구성되는 복수의 라이다부들이 전방 객체에 관해 일부는 제1 방향으로 스캐닝을 수행하여 제1 평면 데이터를 수집하고 다른 일부는 제2 방향으로 스캐닝을 수행하여 제2 평면 데이터를 수집하는 단계; 및
(b) 신경망 학습부가 상기 제1 및 제2 평면 데이터들을 기초로 상기 전방 객체에 관한 신경망 학습을 수행하는 단계를 포함하는 신경망 학습 기반의 객체 검출 방법.
A method of detecting an object based on a neural network learning performed by an object detecting apparatus based on a neural network learning,
(a) a plurality of ladders, each consisting of 2D linearly calibrated to share the same 3D coordinate system, partly scanning in the first direction to collect the first plane data and Collecting second plane data by performing scanning in a second direction; And
(b) the neural network learning unit performs neural network learning on the forward object based on the first and second plane data.
A recording medium which can be executed by a computer recording the method of claim 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170137359A KR101964100B1 (en) | 2017-10-23 | 2017-10-23 | Object detection apparatus based on neural network learning and method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170137359A KR101964100B1 (en) | 2017-10-23 | 2017-10-23 | Object detection apparatus based on neural network learning and method of the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101964100B1 true KR101964100B1 (en) | 2019-04-01 |
Family
ID=66104642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170137359A KR101964100B1 (en) | 2017-10-23 | 2017-10-23 | Object detection apparatus based on neural network learning and method of the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101964100B1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210011585A (en) * | 2019-07-23 | 2021-02-02 | 충북대학교 산학협력단 | Method and Apparatus for Tracking Vehicle Location Using Extended Kalman Filter |
KR20210062379A (en) * | 2019-11-21 | 2021-05-31 | 한국전자기술연구원 | Method and System for Processing FMCW Radar Signal using Lightweight Deep Learning Network |
KR102310601B1 (en) * | 2021-07-08 | 2021-10-13 | 주식회사 인피닉 | Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof |
KR102310608B1 (en) * | 2021-07-08 | 2021-10-13 | 주식회사 인피닉 | Method for processing data of machine learning for automatic driving based on radar and lidar, and computer program recorded on record-medium for executing method therefor |
KR102310602B1 (en) | 2021-06-17 | 2021-10-14 | 주식회사 인피닉 | Method for correcting difference of multiple sensors, and computer program recorded on record-medium for executing method therefor |
KR102310604B1 (en) | 2021-06-17 | 2021-10-14 | 주식회사 인피닉 | Method for processing data collected by multiple sensors, and computer program recorded on record-medium for executing method therefor |
KR102310606B1 (en) | 2021-07-08 | 2021-10-14 | 주식회사 인피닉 | Method for correcting difference of multiple sensors, and computer program recorded on record-medium for executing method therefor |
KR102310605B1 (en) | 2021-06-17 | 2021-10-14 | 주식회사 인피닉 | Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof |
KR20220009247A (en) * | 2020-07-15 | 2022-01-24 | 한국로봇융합연구원 | Method for constructing input data for deep neural network (DNN) based on Light Detection and Ranging (LiDAR) and Radio Azimuth Direction and Ranging (RADAR) signal |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003532959A (en) * | 2000-05-08 | 2003-11-05 | オートモーティブ・テクノロジーズ・インターナショナル,インク. | Vehicle blind spot identification and monitoring system |
KR20150045735A (en) | 2013-10-21 | 2015-04-29 | 한국전자통신연구원 | Multi-wave image lidar sensor apparatus and signal processing method thereof |
JP2016006616A (en) * | 2014-06-20 | 2016-01-14 | ヤフー株式会社 | Learning device, learning method and learning program |
KR101737803B1 (en) | 2016-11-23 | 2017-05-19 | 렉스젠(주) | Apparatus for collecting object information and method thereof |
-
2017
- 2017-10-23 KR KR1020170137359A patent/KR101964100B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003532959A (en) * | 2000-05-08 | 2003-11-05 | オートモーティブ・テクノロジーズ・インターナショナル,インク. | Vehicle blind spot identification and monitoring system |
KR20150045735A (en) | 2013-10-21 | 2015-04-29 | 한국전자통신연구원 | Multi-wave image lidar sensor apparatus and signal processing method thereof |
JP2016006616A (en) * | 2014-06-20 | 2016-01-14 | ヤフー株式会社 | Learning device, learning method and learning program |
KR101737803B1 (en) | 2016-11-23 | 2017-05-19 | 렉스젠(주) | Apparatus for collecting object information and method thereof |
Non-Patent Citations (2)
Title |
---|
Bo Li, et al, "Vehicle Detection from 3D Lidar Using Fully Convolutional Network", Robotics Science and Systems, 2016.08.29.* * |
권순섭 외 1명, "다중 3D 라이다의 객체 분류를 위한 콘볼루션 신경망", 제어로봇시스템학회, pp. 467-468, 2017.05.* * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210011585A (en) * | 2019-07-23 | 2021-02-02 | 충북대학교 산학협력단 | Method and Apparatus for Tracking Vehicle Location Using Extended Kalman Filter |
KR102311227B1 (en) * | 2019-07-23 | 2021-10-13 | 충북대학교 산학협력단 | Method and Apparatus for Tracking Vehicle Location Using Extended Kalman Filter |
KR20210062379A (en) * | 2019-11-21 | 2021-05-31 | 한국전자기술연구원 | Method and System for Processing FMCW Radar Signal using Lightweight Deep Learning Network |
KR102357469B1 (en) * | 2019-11-21 | 2022-02-04 | 한국전자기술연구원 | Method and System for Processing FMCW Radar Signal using Lightweight Deep Learning Network |
KR20220009247A (en) * | 2020-07-15 | 2022-01-24 | 한국로봇융합연구원 | Method for constructing input data for deep neural network (DNN) based on Light Detection and Ranging (LiDAR) and Radio Azimuth Direction and Ranging (RADAR) signal |
KR102504719B1 (en) * | 2020-07-15 | 2023-02-27 | 한국로봇융합연구원 | Method for constructing input data for deep neural network (DNN) based on Light Detection and Ranging (LiDAR) and Radio Azimuth Direction and Ranging (RADAR) signal |
KR102310602B1 (en) | 2021-06-17 | 2021-10-14 | 주식회사 인피닉 | Method for correcting difference of multiple sensors, and computer program recorded on record-medium for executing method therefor |
KR102310604B1 (en) | 2021-06-17 | 2021-10-14 | 주식회사 인피닉 | Method for processing data collected by multiple sensors, and computer program recorded on record-medium for executing method therefor |
KR102310605B1 (en) | 2021-06-17 | 2021-10-14 | 주식회사 인피닉 | Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof |
KR102310601B1 (en) * | 2021-07-08 | 2021-10-13 | 주식회사 인피닉 | Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof |
KR102310608B1 (en) * | 2021-07-08 | 2021-10-13 | 주식회사 인피닉 | Method for processing data of machine learning for automatic driving based on radar and lidar, and computer program recorded on record-medium for executing method therefor |
KR102310606B1 (en) | 2021-07-08 | 2021-10-14 | 주식회사 인피닉 | Method for correcting difference of multiple sensors, and computer program recorded on record-medium for executing method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101964100B1 (en) | Object detection apparatus based on neural network learning and method of the same | |
EP3283843B1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
CN107272021B (en) | Object detection using radar and visually defined image detection areas | |
Chen et al. | Gaussian-process-based real-time ground segmentation for autonomous land vehicles | |
JP7196412B2 (en) | Object recognition device and object recognition method | |
US11275673B1 (en) | Simulated LiDAR data | |
CN111492265A (en) | Multi-resolution, simultaneous localization and mapping based on 3D lidar measurements | |
CN107966155B (en) | Object positioning method, object positioning system and electronic equipment | |
CN110663060B (en) | Method, device, system and vehicle/robot for representing environmental elements | |
KR102374211B1 (en) | Object recognition method and object recognition device performing the same | |
CN113111513B (en) | Sensor configuration scheme determining method and device, computer equipment and storage medium | |
KR20220110034A (en) | A method of generating an intensity information with extended expression range by reflecting a geometric characteristic of object and a LiDAR device that performs the method | |
KR20210135753A (en) | Method and apparatus for location estimation of lidar-based vehicles | |
EP3764124A1 (en) | Distance measuring apparatus, method for measuring distance, on-vehicle apparatus, and mobile object | |
CN112699748B (en) | Human-vehicle distance estimation method based on YOLO and RGB image | |
Haider et al. | Modeling of Motion Distortion Effect of Scanning LiDAR Sensors for Simulation-based Testing | |
CN114384486A (en) | Data processing method and device | |
KR102488494B1 (en) | A method of processing lidar data | |
US20240151855A1 (en) | Lidar-based object tracking | |
Degen et al. | Virtual urban traffic infrastructure for testing highly auto-mated mobility systems | |
Loktev et al. | Image Blur Simulation for the Estimation of the Behavior of Real Objects by Monitoring Systems. | |
KR20220125662A (en) | System and method for predicting collision of moving objects based on coordinate system | |
KR102050756B1 (en) | Micro target detection device | |
WO2022214821A2 (en) | Monocular depth estimation | |
KR20230132325A (en) | Method And Apparatus for Detecting Lane Using LiDAR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |