KR102189502B1 - Object tracking apparatus and object tracking method - Google Patents
Object tracking apparatus and object tracking method Download PDFInfo
- Publication number
- KR102189502B1 KR102189502B1 KR1020190127751A KR20190127751A KR102189502B1 KR 102189502 B1 KR102189502 B1 KR 102189502B1 KR 1020190127751 A KR1020190127751 A KR 1020190127751A KR 20190127751 A KR20190127751 A KR 20190127751A KR 102189502 B1 KR102189502 B1 KR 102189502B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- unit
- road
- front image
- depth map
- Prior art date
Links
Images
Classifications
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G06K9/00208—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
- H04N5/145—Movement estimation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
전방 영상, 깊이 맵, 및 도로 프로파일을 이용하여 객체를 추적하는 객체 추적 장치 및 객체 추적 방법을 제공한다.
개시된 발명의 일 실시예에 따른 객체 추적 장치는, 미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로 프로파일을 획득하는 도로 프로파일 획득부; 상기 깊이 맵을 이용하여 상기 전방 영상 중 관심 영역 내에 존재하는 객체와 도로의 경계를 검출하고, 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 상기 객체의 3차원 정보를 측정하는 영상 처리부; 및 미리 정해진 속도 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 3차원 정보에 따라 보상하여 상기 객체를 추적하는 객체 추적부; 를 포함할 수 있다.An object tracking device and an object tracking method for tracking an object using a forward image, a depth map, and a road profile are provided.
An object tracking apparatus according to an embodiment of the disclosed invention includes: a road profile acquisition unit that acquires a road profile from at least one of a front image and a depth map according to a predetermined frame rate; An image processing unit configured to detect a boundary between an object and a road existing in the region of interest of the front image using the depth map, map the road profile to the detected boundary, and measure 3D information of the object every frame; And an object tracking unit that predicts 3D information of the object in a next frame using a predetermined velocity model, compensates the predicted 3D information according to the 3D information measured in the next frame, and tracks the object. ; It may include.
Description
전방의 객체를 검출하고, 검출된 객체를 추적하는 객체 추적 장치 및 객체 추적 방법에 관한 것이다.The present invention relates to an object tracking device and an object tracking method that detects an object in front and tracks the detected object.
운전자 보조 시스템(Advanced Driver Assistance System; ADAS) 또는 자율주행 시스템(Autonomous Driving System; ADS)은 주행 중인 차량의 주변 환경에 따라 차량 제어를 수행하므로, 차량의 주변 환경 정보를 감지하는 것이 중요하다.Since the Advanced Driver Assistance System (ADAS) or Autonomous Driving System (ADS) controls the vehicle according to the surrounding environment of the vehicle being driven, it is important to detect the surrounding environment information of the vehicle.
차량의 주변 환경 정보는 전방, 후방, 및/또는 측방 차량의 존재 정보, 속도 정보, 거리 정보와, 보행자, 교통신호, 주행 도로 등과 같은 인접 차량 이외의 정보 등을 포함할 수 있다. The surrounding environment information of the vehicle may include presence information, speed information, distance information, and information other than adjacent vehicles such as pedestrians, traffic signals, driving roads, and the like of front, rear, and/or side vehicles.
다수의 운전자 보조 시스템이나 자율 주행 시스템은 실시간으로 주변 환경을 반영하여 동작하므로, 연속적으로 주변 환경을 인식하기 위해서는 차량 전방에 존재하는 차량이나 사람 등과 같은 객체를 추적하는 객체 추적 장치가 필수적으로 활용될 수 있다.Since many driver assistance systems or autonomous driving systems operate by reflecting the surrounding environment in real time, an object tracking device that tracks an object such as a vehicle or a person existing in front of the vehicle is essential to continuously recognize the surrounding environment. I can.
일반적으로 3차원 객체 추적 장치는 스테레오 카메라 또는 카메라-깊이 측정 센서(레이더, 라이다)의 조합 구성을 이용하여 영상 정보와 깊이 정보를 동시에 획득함으로써 객체의 3차원 정보를 연속적으로 추정할 수 있다. 이러한 객체 추적 장치는 영상 기반 객체 검출기(Object Detector)로부터 획득한 측정치(2차원 박스)를 기반으로 깊이 정보를 가공하여 객체의 상태를 추정하는 장치가 대부분이다. In general, a 3D object tracking apparatus may continuously estimate 3D information of an object by simultaneously acquiring image information and depth information using a combination configuration of a stereo camera or a camera-depth measurement sensor (radar, lidar). Most of these object tracking devices estimate the state of an object by processing depth information based on a measurement value (2D box) acquired from an image-based object detector.
그러나, 상술한 방법은 2차원 영상에서 객체의 상태를 추정하기에는 효과적이지만, 3차원 객체 추적에 적용할 때에는 객체 추적의 정확도가 저하될 수 있다. 구체적으로, 깊이 맵 에러, 및 센서의 3차원 정보 획득의 한계로 객체의 3차원 위치 측정의 정확도가 저하될 수 있고, 스테레오 카메라의 구조적 문제, 및 라이다의 거리에 따른 측정의 한계로 원거리 객체 측정의 어려움이 발생할 수 있다.However, the above-described method is effective for estimating the state of an object in a 2D image, but when applied to a 3D object tracking, the accuracy of object tracking may be degraded. Specifically, the accuracy of the 3D position measurement of the object may be degraded due to the depth map error and the limitation of acquiring 3D information from the sensor. Difficulty in measurement may occur.
개시된 발명의 일 측면은 전방 영상, 깊이 맵, 및 도로 프로파일을 이용하여 객체를 추적하는 객체 추적 장치 및 객체 추적 방법을 제공한다.An aspect of the disclosed invention provides an object tracking device and an object tracking method for tracking an object using a forward image, a depth map, and a road profile.
개시된 발명의 일 실시예에 따른 객체 추적 장치는, 미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로 프로파일을 획득하는 도로 프로파일 획득부; 상기 깊이 맵을 이용하여 상기 전방 영상 중 관심 영역 내에 존재하는 객체와 도로의 경계를 검출하고, 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 상기 객체의 3차원 정보를 측정하는 영상 처리부; 및 미리 정해진 속도 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 3차원 정보에 따라 보상하여 상기 객체를 추적하는 객체 추적부; 를 포함할 수 있다.An object tracking apparatus according to an embodiment of the disclosed invention includes: a road profile acquisition unit that acquires a road profile from at least one of a front image and a depth map according to a predetermined frame rate; An image processing unit configured to detect a boundary between an object and a road existing in the region of interest of the front image using the depth map, map the road profile to the detected boundary, and measure 3D information of the object every frame; And an object tracking unit that predicts 3D information of the object in a next frame using a predetermined velocity model, compensates the predicted 3D information according to the 3D information measured in the next frame, and tracks the object. ; It may include.
또한, 상기 영상 처리부는, 상기 전방 영상 상에서 상기 객체의 위치를 검출함으로써 상기 관심 영역을 설정하는 관심 영역 설정부; 상기 설정된 관심 영역 내에서 상기 깊이 맵 및 상기 전방 영상의 변화도(Gradient) 정보를 이용하여 상기 객체와 상기 도로의 경계를 검출하는 경계선 검출부; 및 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 상기 객체의 상기 3차원 정보를 측정할 수 있다.In addition, the image processing unit may include a region of interest setting unit configured to set the region of interest by detecting a position of the object on the front image; A boundary line detector configured to detect a boundary between the object and the road using the depth map and gradient information of the front image within the set region of interest; And mapping the road profile to the detected boundary to measure the 3D information of the object.
또한, 상기 3차원 정보 측정부는, 상기 전방 영상으로부터 확인된 상기 객체 정보를 이용하여, 상기 검출된 경계로부터 상기 객체의 높이를 결정할 수 있다.In addition, the 3D information measuring unit may determine the height of the object from the detected boundary using the object information identified from the front image.
또한, 상기 영상 처리부는, 상기 도로 프로파일이 매핑된 경계의 깊이 정보를 이용하여 상기 객체의 3차원 위치 및 상기 객체의 크기를 포함하는 상기 3차원 정보를 측정할 수 있다.In addition, the image processing unit may measure the 3D information including the 3D location of the object and the size of the object using depth information of the boundary to which the road profile is mapped.
또한, 상기 객체 추적부는, 상기 측정된 객체의 3차원 정보에 상기 미리 정해진 속도 모델을 적용하여 상기 다음 프레임에서의 상기 객체의 3차원 정보를 예측하는 3차원 정보 예측부; 상기 예측된 3차원 정보와 상기 다음 프레임에서 측정된 복수의 3차원 정보의 연관도를 확인하고, 상기 연관도가 가장 높은 상기 측정된 3차원 정보를 상기 객체에 할당하는 연관도 확인부; 및 상기 객체에 할당된 상기 3차원 정보에 따라 상기 예측된 3차원 정보를 보상하는 3차원 정보 갱신부; 를 포함할 수 있다.In addition, the object tracking unit may include a 3D information prediction unit for predicting 3D information of the object in the next frame by applying the predetermined velocity model to the measured 3D information of the object; A correlation checking unit that checks a degree of association between the predicted 3D information and a plurality of 3D information measured in the next frame, and allocates the measured 3D information with the highest correlation to the object; And a 3D information update unit for compensating the predicted 3D information according to the 3D information allocated to the object. It may include.
또한, 상기 객체 추적부는, 상기 객체에 할당되지 않은 3차원 정보에 신규 생성 객체를 할당하거나, 미리 정해진 프레임 이상 상기 측정된 3차원 정보가 할당되지 않은 객체를 삭제하는 초기화부; 를 더 포함할 수 있다.In addition, the object tracking unit may include: an initialization unit that allocates a newly created object to 3D information not allocated to the object, or deletes an object to which the measured 3D information is not allocated for a predetermined frame or more; It may further include.
개시된 발명의 일 실시 예에 따른 객체 추적 방법은, 미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로 프로파일을 획득하는 단계; 상기 깊이 맵을 이용하여 상기 전방 영상 중 관심 영역 내에 존재하는 객체와 도로의 경계를 검출하는 단계; 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 상기 객체의 3차원 정보를 측정하는 단계; 및 미리 정해진 속도 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 3차원 정보에 따라 보상하여 상기 객체를 추적하는 단계; 를 포함할 수 있다.An object tracking method according to an embodiment of the disclosed invention includes: acquiring a road profile from at least one of a front image and a depth map according to a predetermined frame rate; Detecting a boundary between an object existing in the ROI and a road in the front image using the depth map; Measuring 3D information of the object every frame by mapping the road profile to the detected boundary; And tracking the object by predicting 3D information of the object in a next frame using a predetermined velocity model, and compensating the predicted 3D information according to the 3D information measured in the next frame. It may include.
또한, 상기 객체와 도로의 경계를 검출하는 단계는, 상기 전방 영상 상에서 상기 객체의 위치를 검출함으로써 상기 관심 영역을 설정하는 단계; 및 상기 설정된 관심 영역 내에서 상기 깊이 맵 및 상기 전방 영상의 변화도(Gradient) 정보를 이용하여 상기 객체와 상기 도로의 경계를 검출하는 단계; 를 포함할 수 있다.In addition, detecting the boundary between the object and the road may include setting the region of interest by detecting the position of the object on the front image; And detecting a boundary between the object and the road using the depth map and gradient information of the front image within the set region of interest. It may include.
또한, 상기 객체의 3차원 정보를 측정하는 단계는, 상기 전방 영상으로부터 확인된 상기 객체 정보를 이용하여, 상기 검출된 경계로부터 상기 객체의 높이를 결정할 수 있다.In addition, in the measuring of the 3D information of the object, the height of the object may be determined from the detected boundary using the object information identified from the front image.
또한, 상기 객체의 3차원 정보를 측정하는 단계는, 상기 도로 프로파일이 매핑된 경계의 깊이 정보를 이용하여 상기 객체의 3차원 위치 및 상기 객체의 크기를 포함하는 상기 3차원 정보를 측정할 수 있다.In addition, in the measuring of the 3D information of the object, the 3D information including the 3D location of the object and the size of the object may be measured using depth information of a boundary to which the road profile is mapped. .
또한, 상기 객체를 추적하는 단계는, 상기 측정된 객체의 3차원 정보에 상기 미리 정해진 속도 모델을 적용하여 상기 다음 프레임에서의 상기 객체의 3차원 정보를 예측하는 단계; 상기 예측된 3차원 정보와 상기 다음 프레임에서 측정된 복수의 3차원 정보의 연관도를 확인하고, 상기 연관도가 가장 높은 상기 측정된 3차원 정보를 상기 객체에 할당하는 단계; 및 상기 객체에 할당된 상기 3차원 정보에 따라 상기 예측된 3차원 정보를 보상하는 단계; 를 포함할 수 있다.Further, the step of tracking the object may include predicting 3D information of the object in the next frame by applying the predetermined velocity model to the measured 3D information of the object; Checking a degree of association between the predicted 3D information and a plurality of 3D information measured in the next frame, and allocating the measured 3D information with the highest association degree to the object; And compensating the predicted 3D information according to the 3D information allocated to the object. It may include.
또한, 상기 객체에 할당되지 않은 3차원 정보에 신규 생성 객체를 할당하는 단계; 및 미리 정해진 프레임 이상 상기 측정된 3차원 정보가 할당되지 않은 객체를 삭제하는 단계; 를 더 포함할 수 있다.In addition, allocating a newly created object to 3D information not allocated to the object; And deleting an object to which the measured 3D information is not allocated more than a predetermined frame. It may further include.
개시된 발명의 일 측면에 따른 객체 추적 장치, 및 객체 추적 방법에 따르면, 도로 프로파일을 이용하여 객체를 추적하므로, 객체의 3차원 정보 획득이 용이할 수 있다. 또한, 원거리 객체 추적의 정확도를 개선할 수 있어, 고속도로와 같은 고속의 주행환경에도 적용이 가능하다. 나아가, 도로 프로파일을 제약 정보로 활용함으로써 객체의 3차원 정보를 강건하게 추정할 수 있고, 그 결과 충돌 회피, 충돌 경고와 같은 운전자 보조 시스템에서의 활용성이 높아질 수 있다.According to the object tracking device and the object tracking method according to an aspect of the disclosed invention, since an object is tracked using a road profile, it is possible to easily obtain 3D information of an object. In addition, since it is possible to improve the accuracy of tracking a distant object, it can be applied to a high speed driving environment such as a highway. Furthermore, by using the road profile as constraint information, it is possible to robustly estimate the 3D information of the object, and as a result, the utility in driver assistance systems such as collision avoidance and collision warning can be improved.
도 1은 개시된 발명의 일 실시 예에 따른 객체 추적 장치의 제어 블록도이다.
도 2는 개시된 발명의 일 실시 예에 따른 전방 영상 획득부에 의해 획득된 전방 영상을 나타내는 도면이다.
도 3은 개시된 발명의 일 실시 예에 따른 깊이 맵 획득부에 의해 획득된 깊이 맵을 나타내는 도면이다.
도 4는 개시된 발명의 일 실시 예에 따른 도로 프로파일 획득부에 의해 획득된 도로 프로파일을 나타내는 도면이다.
도 5는 개시된 발명의 일 실시 예에 따른 영상 처리부의 상세 제어 블록도이다.
도 6은 개시된 발명의 일 실시 예에 따른 영상 처리부에 의한 객체 검출 단계를 설명하기 위한 도면이다.
도 7은 개시된 발명의 일 실시 예에 따른 객체 추적부의 상세 제어 블록도이다.
도 8은 개시된 발명의 일 실시 예에 따른 객체 추적 방법의 흐름도이다.1 is a control block diagram of an object tracking apparatus according to an embodiment of the disclosed invention.
2 is a diagram illustrating a front image acquired by a front image acquisition unit according to an embodiment of the disclosed invention.
3 is a diagram illustrating a depth map acquired by a depth map acquisition unit according to an embodiment of the disclosed invention.
4 is a diagram illustrating a road profile acquired by a road profile obtaining unit according to an embodiment of the disclosed invention.
5 is a detailed control block diagram of an image processing unit according to an embodiment of the disclosed invention.
6 is a diagram for describing an object detection step by an image processing unit according to an embodiment of the disclosed invention.
7 is a detailed control block diagram of an object tracking unit according to an embodiment of the disclosed invention.
8 is a flowchart of an object tracking method according to an embodiment of the disclosed invention.
본 명세서에 기재된 실시 예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예에 불과할 뿐이며, 본 출원의 출원시점에 있어서 본 명세서의 실시 예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다.The embodiments described in the present specification and the configurations shown in the drawings are only preferred examples of the disclosed invention, and there may be various modified examples that may replace the embodiments and drawings of the present specification at the time of filing of the present application.
본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. The terms used herein are used to describe embodiments and are not intended to limit and/or limit the disclosed invention.
예를 들어, 본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.For example, in the present specification, a singular expression may include a plurality of expressions unless the context clearly indicates otherwise.
*또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합이 존재함을 표현하고자 하는 것이며, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합의 추가적인 존재 또는 부가 가능성을 배제하지 않는다.*In addition, terms such as "include" or "have" are intended to express the existence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, and one or more other features It does not exclude the possibility of additional presence or addition of, numbers, steps, actions, components, parts, or combinations thereof.
또한, "제1", "제2" 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위하여 사용되며, 상기 하나의 구성요소들을 한정하지 않는다.In addition, terms including ordinal numbers such as "first" and "second" are used to distinguish one component from other components, and do not limit the one component.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA (field-programmable gate array)/ ASIC (application specific integrated circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.In addition, terms such as "~ unit", "~ group", "~ block", "~ member", and "~ module" may mean a unit that processes at least one function or operation. For example, the terms may refer to at least one hardware such as field-programmable gate array (FPGA)/application specific integrated circuit (ASIC), at least one software stored in a memory, or at least one process processed by a processor. have.
이하에서는 첨부한 도면을 참조하여 개시된 발명의 일 실시 예를 상세하게 설명한다. 첨부된 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낼 수 있다.Hereinafter, exemplary embodiments of the disclosed invention will be described in detail with reference to the accompanying drawings. The same reference numbers or reference numerals shown in the accompanying drawings may indicate parts or components that substantially perform the same function.
도 1은 개시된 발명의 일 실시 예에 따른 객체 추적 장치의 제어 블록도이고, 도 2는 개시된 발명의 일 실시 예에 따른 전방 영상 획득부에 의해 획득된 전방 영상을 나타내고, 도 3은 개시된 발명의 일 실시 예에 따른 깊이 맵 획득부에 의해 획득된 깊이 맵을 나타내고, 도 4는 개시된 발명의 일 실시 예에 따른 도로 프로파일 획득부에 의해 획득된 도로 프로파일을 나타내는 도면이다.1 is a control block diagram of an object tracking apparatus according to an embodiment of the disclosed invention, FIG. 2 shows a front image acquired by a front image acquisition unit according to an embodiment of the disclosed invention, and FIG. 3 is A depth map obtained by a depth map acquisition unit according to an embodiment is shown, and FIG. 4 is a diagram showing a road profile acquired by a road profile acquisition unit according to an embodiment of the disclosed invention.
도 1을 참조하면, 개시된 발명의 일 실시예에 따른 객체 추적 장치(1)는, 전방 영상, 깊이 맵, 및 도로 프로파일을 획득하는 획득부(100); 획득부(100)에 의해 획득된 전방 영상, 깊이 맵, 및 도로 프로파일을 이용하여 객체를 검출하는 영상 처리부(200); 및 검출된 객체를 추적하는 객체 추적부(300); 를 포함할 수 있다.Referring to FIG. 1, an
획득부(100)는 객체를 검출하는데 이용되는 전방 영상, 깊이 맵, 및 도로 프로파일을 획득할 수 있다. 이를 위해, 일 실시 예에 따른 획득부(100)는, 전방 영상을 획득하는 전방 영상 획득부(110); 전방에 대한 깊이 맵을 획득하는 깊이 맵 획득부(120); 및 도로 프로파일을 획득하는 도로 프로파일 획득부(130); 를 포함할 수 있다.The
전방 영상 획득부(110)는 전방 영상을 획득할 수 있다. 여기서, 전방 영상이란 차량의 진행 방향 상에 존재하는 복수의 객체를 포함하는 영상을 의미할 수 있다. 도 2를 참조하면, 전방 영상은 주행 도로를 주행하는 복수의 선행 차량과 같은 복수의 객체를 포함할 수 있다. The front
전방 영상을 획득하기 위해, 전방 영상 획득부(110)는 CMOS(Complementary Metal-Oxide Semiconductor) 또는 CCD(Charge Coupled Device) 등의 이미지 센서를 포함하는 카메라로 구현될 수 있다. 카메라의 이미지 센서는 전방으로부터 감지되는 가시광선을 전기적 신호로 변환함으로써 전방 영상을 획득할 수 있다. 카메라로 구현되는 전방 영상 획득부(110)는 차량의 전방을 향하도록 차량의 내부 또는 외부에 설치될 수 있다.In order to acquire the front image, the front
또한, 전방 영상 획득부(110)는 미리 정해진 프레임 레이트에 따라 연속적으로 전방 영상을 획득할 수 있다. 즉, 전방 영상 획득부(110)는 매 프레임마다 전방 영상을 주기적으로 획득할 수 있다.Also, the front
또한, 카메라로 구현되는 전방 영상 획득부(110)는 단안 카메라 일 수 있으며, 이와는 달리 스테레오 카메라일 수도 있다. 만약, 전방 영상 획득부(110)가 스테레오 카메라로 구현되는 경우, 전방 영상 획득부(110)가 획득한 스테레오 영상은 후술할 깊이 맵 획득부(120)가 깊이 맵을 획득하는데 이용될 수 있다.In addition, the front
깊이 맵 획득부(120)는 전방에 대한 깊이 맵을 획득하는 기술적 사상 안에서 다양하게 구현될 수 있다. 예를 들어, 깊이 맵 획득부(120)는 스테레오 카메라로 구현되는 전방 영상 획득부(110)가 획득한 스테레오 영상을 정합함으로써 깊이 맵을 획득할 수 있다. 이와는 달리, 깊이 맵 획득부(120)는 레이더 또는 라이다 와 같은 깊이 측정 센서를 포함하고, 전방 영상 획득부(110)가 획득한 전방 영상과 깊이 측정 센서가 획득한 센싱값을 이용하여 깊이 맵을 획득할 수도 있다. 도 3은 도 2의 전방 영상을 이용하여 획득한 깊이 맵을 예시한다.The depth
깊이 맵 획득부(120)는 전방 영상 획득부(110)에 동기화하여 미리 정해진 프레임 레이트에 따라 깊이 맵을 획득할 수 있다. 즉, 깊이 맵 획득부(120)는 매 프레임마다 깊이 맵을 주기적으로 획득할 수 있다.The depth
도로 프로파일 획득부(130)는 전방의 주행 도로에 대한 도로 프로파일을 획득할 수 있다. 여기서, 도로 프로파일이란 도로 노면의 구조 정보로서, 도로의 3차원 정보를 포함할 수 있고, 함수로서 표현 가능할 수 있다. The road
도로 프로파일 획득부(130)는 도로 프로파일을 획득하는 기술적 사상 안에서 다양하게 구현될 수 있다. 예를 들어, 도로 프로파일 획득부(130)는 깊이 맵 획득부(120)가 획득한 깊이 맵을 이용하여 전방의 주행 도로에 대한 도로 프로파일을 획득할 수 있다.The road
도로 프로파일 획득부(130)는 전방 영상 획득부(110) 및 깊이 맵 획득부(120)에 동기화하여 미리 정해진 프레임 레이트에 따라 도로 프로파일을 획득할 수 있다. 즉, 도로 프로파일 획득부(130)는 매 프레임마다 도로 프로파일을 주기적으로 획득할 수 있다.The road
다시 도 1을 참조하면, 영상 처리부(200)는 획득부(100)에 의해 획득된 전방 영상, 깊이 맵 및 도로 프로파일을 이용하여 객체를 검출할 수 있다. 이하에서는 도 5 및 6을 참조하여 영상 처리부(200)의 동작을 상세히 설명한다.Referring back to FIG. 1, the
도 5는 개시된 발명의 일 실시 예에 따른 영상 처리부의 상세 제어 블록도이고, 도 6은 개시된 발명의 일 실시 예에 따른 영상 처리부에 의한 객체 검출 단계를 설명하기 위한 도면이다.5 is a detailed control block diagram of an image processing unit according to an embodiment of the disclosed invention, and FIG. 6 is a diagram illustrating an object detection step by the image processing unit according to an embodiment of the disclosed invention.
도 5를 참조하면, 개시된 발명의 일 실시 예에 따른 영상 처리부(200)는, 전방 영상 상에서 관심 영역을 설정하는 관심 영역 설정부(210); 관심 영역 내에서 객체와 도로의 경계를 검출하는 경계선 검출부(220); 및 검출된 경계로부터 객체의 3차원 정보를 측정하는 3차원 정보 측정부(230); 를 포함할 수 있다.Referring to FIG. 5, the
관심 영역 설정부(210)는 전방 영상 상에서 객체의 위치를 검출할 수 있다. 즉, 관심 영역 설정부(210)는 영상 기반 객체검출기(Object Detector)로서 동작할 수 있다. 예를 들어, 관심 영역 설정부(210)는 배경 추정 알고리즘을 이용하여 객체의 위치를 검출할 수 있고, 이와는 달리 특징점(Feature)을 활용해 학습 알고리즘을 이용하여 객체의 위치를 검출할 수도 있다. The
이와 같은 영상 기반 객체 검출의 결과, 관심 영역 설정부(210)는 객체의 위치로서 2차원 박스 형태의 사각형 영역을 검출할 수 있다. 관심 영역 설정부(210)는 검출된 사각형 영역을 관심 영역으로 설정할 수 있다.As a result of such image-based object detection, the
도 6의 을 참조하면, 관심 영역 설정부(210)는 선행 차량을 객체로서 검출하여두 개의 노란색의 사각형 영역을 검출하였으며, 이를 관심 영역으로 설정하였음을 확인할 수 있다. Referring to FIG. 6, it can be seen that the region of
경계선 검출부(220)는 설정된 관심 영역 내에서 객체와 도로의 경계를 검출할 수 있다. 이를 위해, 경계선 검출부(220)는 깊이 맵과 전방 영상의 변화도(Gradient) 정보를 이용할 수 있다.The
도 6의 를 참조하면, 경계선 검출부(220)는 깊이 맵 상에서 각각의 관심 영역 내의 선행 차량의 외곽 경계를 붉은 실선으로서 검출할 수 있다. 이 때, 경계선 검출부(220)는 전방 영상의 변화도를 함께 이용할 수 있다.Referring to FIG. 6, the
3차원 정보 측정부(230)는 검출된 경계에 도로 프로파일을 매핑하여 객체의 3차원 정보를 측정할 수 있다. 구체적으로, 3차원 정보 측정부(230)는 도 6의 에서 검출된 선행 차량의 경계에 과 같은 도로 프로파일을 매핑함으로써 와 같은 결과를 획득할 수 있다.The 3D
특히, 3차원 정보 측정부(230)는 도로와 객체 사이의 경계상에 도로 프로파일을 매핑하여, 객체의 3차원 정보를 측정할 수 있다. 구체적으로, 3차원 정보 측정부(230)는 매핑된 경계의 깊이 정보를 이용하여 객체의 3차원 위치 및 객체의 크기를 포함하는 3차원 정보를 측정할 수 있다.In particular, the 3D
이 때, 3차원 정보 측정부(230)는 전방 영상으로부터 확인된 객체의 정보를 이용하여, 객체와 도로의 경계로부터 객체의 높이를 결정할 수 있다. 도 6의 를 참조하면, 전방 영상으로부터 확인된 높이 만큼 하단의 선행 차량과 도로의 경계로부터 연장된 선행 차량의 3차원 정보가 확인된다.In this case, the 3D
다시 도 1을 참조하면, 객체 추적부(300)는 검출된 객체를 다음 프레임에서 추적할 수 있다. 이하에서는, 도 7을 참조하여, 객체 추적부(300)의 동작을 상세히 설명한다.Referring back to FIG. 1, the
도 7은 개시된 발명의 일 실시 예에 따른 객체 추적부의 상세 제어 블록도이다.7 is a detailed control block diagram of an object tracking unit according to an embodiment of the disclosed invention.
도 7을 참조하면, 개시된 발명의 일 실시 예에 따른 객체 추적부(300)는 다음 프레임에서의 객체의 3차원 정보를 예측하는 3차원 정보 예측부(310); 다음 프레임에서 측정된 3차원 정보 중 예측된 3차원 정보와 가장 연관도가 높은 어느 하나를 해당 객체에 할당하는 연관도 확인부(320); 할당된 3차원 정보에 따라 예측된 3차원 정보를 보상하는 3차원 정보 갱신부(330); 및 할당되지 않은 3차원 정보에 신규 객체를 할당하거나, 미리 정해진 프레임 이상 측정된 3차원 정보가 할당되지 않은 객체를 삭제하는 초기화부(340); 를 포함할 수 있다.Referring to FIG. 7, the
3차원 정보 예측부(310)는 측정된 3차원 정보를 이용하여 다음 프레임에서의 객체의 3차원 정보를 예측할 수 있다. 구체적으로, 3차원 정보 예측부(310)는 측정된 3차원 정보에 미리 정해진 동역학 모델을 이용하여 다음 프레임에서의 3차원 정보를 예측할 수 있다. 여기서, 동역학 모델은 객체의 움직임을 나타내는 모델로서, 등속 모델(Constant Velocity Model) 및 등가속 모델(Constant Accelerator Model) 을 포함할 수 있다.The
연관도 확인부(320)는 다음 프레임에서 측정된 복수의 3차원 정보와 특정 객체의 예측된 3차원 정보의 연관도를 확인할 수 있다. 또한, 연관도 확인부(320)는 가장 연관도가 높은 측정된 3차원 정보를 특정 객체에 할당할 수 있다.The association
3차원 정보 갱신부(330)는 할당된 3차원 정보와 예측된 3차원 정보를 비교하여, 할당된 3차원 정보를 이용하여 특정 객체의 3차원 정보를 보상할 수 있다. 즉, 3차원 정보 갱신부(330)는 지난 프레임에서 예측했던 현재 프레임에서 특정 객체의 위치 및 속도를 현재 프레임에서 측정한 값으로 갱신할 수 있다.The 3D
이 과정에서, 3차원 정보 갱신부(330)는 칼만필터, Alpha-Beta-Gamma 필터 등 다양한 확률 기반 필터링 방법을 채택할 수 있다.In this process, the 3D
마지막으로, 초기화부(340)는 객체를 할당 받지 못한 측정된 3차원 정보에 신규 객체를 할당할 수 있다. 그 결과, 신규 객체에 대하여는 다음 프레임부터 상술한 3차원 정보 예측, 연관도 확인, 및 3차원 정보 갱신의 단계가 적용될 수 있다.Finally, the
또한, 초기화부(340)는 미리 정해진 프레임 이상 측정된 3차원 정보가 할당되지 않은 객체를 삭제할 수 있다. 이를 통해, 객체 추적부(300)는 해당 객체에 대한 추적을 중단할 수 있다.Also, the
다시 도 1을 참조하면, 이렇게 검출되어 추적되는 객체는 디스플레이부(D)에 의해 사용자에게 제공될 수 있다. 도 1에서는 객체 추적 장치가 디스플레이부(D)와 독립적으로 마련되는 경우를 예시하나, 디스플레이부(D)가 객체 추적 장치의 일 구성으로서 마련될 수도 있다.Referring back to FIG. 1, the object detected and tracked in this way may be provided to the user by the display unit D. 1 illustrates a case where the object tracking device is provided independently from the display unit D, but the display unit D may be provided as a component of the object tracking device.
도 8은 개시된 발명의 일 실시 예에 따른 객체 추적 방법의 흐름도이다.8 is a flowchart of an object tracking method according to an embodiment of the disclosed invention.
먼저, 획득부(100)에 의해, 미리 정해진 프레임 레이트에 따라 전방 영상 및 깊이 영상 중 적어도 하나로부터 도로 프로파일을 획득할 수 있다.(S100) 여기서, 도로 프로파일이란 도로 노면의 구조 정보로서, 도로의 3차원 정보를 포함할 수 있고, 함수로서 표현 가능할 수 있다. 예를 들어, 도로 프로파일은 도로의 3차원 정보로서 차량, 예를 들어 전방 영상 획득부(110)로부터 노면까지의 거리 정보를 포함할 수 있다.First, by the
도로 프로파일을 획득하는 방법은 다양하게 구현될 수 있다. 예를 들어, 획득부(100)에 의해, 깊이 맵을 이용하여 전방의 주행 도로에 대한 도로 프로파일을 획득할 수 있다.A method of obtaining a road profile may be implemented in various ways. For example, the
도로 프로파일이 획득되면, 영상 처리부(200)에 의해, 깊이 맵을 이용하여 전방 영상 중 관심 영역 내에 존재하는 객체와 도로의 경계를 검출할 수 있다.(S110) 이 때, 관심 영역은 영상 기반 객체 검출 방법에 의해 설정될 수 있고, 객체와 도로의 경계를 검출하는데 깊이 맵과 전방 영상의 변화도(Gradient) 정보가 이용될 수 있다.When the road profile is acquired, the
그 다음, 영상 처리부(200)에 의해, 검출된 경계에 도로 프로파일을 매핑하여 매 프레임마다 객체의 3차원 정보를 측정할 수 있다.(S120) 특히, 3차원 정보 측정부(230)는 도로와 객체 사이의 경계상에 도로 프로파일을 매핑하여, 객체의 3차원 정보를 측정할 수 있다. 구체적으로, 3차원 정보 측정부(230)는 매핑된 경계의 깊이 정보를 이용하여 객체의 3차원 위치, 속도 및 크기를 포함하는 3차원 정보를 측정할 수 있다.Then, the
3차원 정보가 측정되면, 객체 추적부(300)에 의해, 미리 정해진 동역학 모델을 이용하여 다음 프레임에서의 객체의 3차원 정보를 예측할 수 있다.(S130) 여기서, 동역학 모델은 객체의 움직임을 나타내는 모델을 의미할 수 있다. 구체적으로, 객체 추적부(300)에 의해, 등속 모델 또는 등가속 모델에 따라 다음 프레임에서의 객체의 3차원 정보를 예측할 수 있다.When the 3D information is measured, the
마지막으로, 객체 추적부(300)에 의해, 예측된 3차원 정보를 다음 프레임에서 측정된 3차원 정보에 따라 보상하여 객체를 추적할 수 있다.(S140) Finally, the
상술한 바와 같이, 개시된 발명의 일 측면에 따른 객체 추적 장치(1), 및 객체 추적 방법에 따르면, 도로 프로파일을 이용하여 객체를 추적하므로, 객체의 3차원 정보 획득이 용이할 수 있다. 또한, 원거리 객체 추적의 정확도를 개선할 수 있어, 고속도로와 같은 고속의 주행환경에도 적용이 가능하다. 나아가, 도로 프로파일을 제약 정보로 활용함으로써 객체의 3차원 정보를 강건하게 추정할 수 있고, 그 결과 충돌 회피, 충돌 경고와 같은 운전자 보조 시스템에서의 활용성이 높아질 수 있다.As described above, according to the
이상의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 개시된 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 개시된 발명의 등가적 범위 내에서의 모든 변경은 개시된 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the disclosed invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the disclosed invention are included in the scope of the disclosed invention.
1: 객체 추적 장치
100: 획득부
110: 전방 영상 획득부
120: 깊이 맵 획득부
130: 도로 프로파일 획득부
200: 영상 처리부
210: 관심 영역 설정부
220: 경계선 검출부
230: 3차원 정보 측정부
300: 객체 추적부
310: 3차원 정보 예측부
320: 연관도 확인부
330: 3차원 정보 갱신부
340: 초기화부
400: 제어부
500: 구동부
510: 게이트 구동부
520: 데이터 구동부
530: 백라이트 구동부1: object tracking device
100: acquisition unit
110: front image acquisition unit
120: depth map acquisition unit
130: road profile acquisition unit
200: image processing unit
210: region of interest setting unit
220: boundary line detection unit
230: 3D information measuring unit
300: object tracking unit
310: 3D information prediction unit
320: correlation check unit
330: 3D information update unit
340: initial unit
400: control unit
500: drive unit
510: gate driver
520: data driver
530: backlight driver
Claims (8)
상기 획득부에 의해 획득된 영상을 이용하여 객체를 검출하는 영상 처리부; 및
객체의 움직임을 나타내는 동역학 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 객체의 3차원 정보에 따라 보상하여 상기 객체를 추적하는 객체 추적부를 포함하여 구성되며,
상기 획득부는,
전방 영상을 획득하는 전방 영상 획득부;
전방에 대한 깊이 맵을 획득하는 깊이 맵 획득부;
미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로의 3차원 정보를 포함하는 도로 노면의 구조에 관한 도로 프로파일을 획득하는 도로 프로파일 획득부를 포함하고,
상기 영상 처리부는,
전방 영상에서 객체의 위치를 검출하는 관심 영역 설정부;
상기 관심 영역 설정부에 의해 설정된 관심 영역 내에서 깊이 맵과 전방 영상의 변화도를 이용하여 객체와 도로 사이의 경계를 검출하는 경계선 검출부;
상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 매핑된 도로의 3차원 정보를 기초로 상기 객체의 3차원 정보를 측정하는 3차원 정보 측정부를 포함하며,
상기 3차원 정보 측정부는 전방 영상으로부터 확인된 객체의 정보를 이용하여, 객체와 도로의 경계로부터 객체의 높이를 결정하는 객체 추적 장치. An acquisition unit that acquires an image used to detect an object;
An image processing unit that detects an object using the image acquired by the acquisition unit; And
The object is tracked by predicting 3D information of the object in the next frame using a dynamics model representing the motion of the object, and compensating the predicted 3D information according to the 3D information of the object measured in the next frame It is configured to include an object tracking unit,
The acquisition unit,
A front image acquisition unit for obtaining a front image;
A depth map acquisition unit that acquires a depth map for the front side;
A road profile acquisition unit that acquires a road profile about a structure of a road surface including three-dimensional information of the road from at least one of a front image and a depth map according to a predetermined frame rate,
The image processing unit,
A region of interest setting unit that detects a position of an object in the front image;
A boundary line detector configured to detect a boundary between an object and a road using a depth map and a gradient of a front image within the region of interest set by the region of interest setting unit;
And a 3D information measuring unit configured to measure 3D information of the object based on 3D information of the mapped road every frame by mapping the road profile to the detected boundary,
The 3D information measuring unit determines the height of the object from the boundary between the object and the road by using information on the object identified from the front image.
상기 영상 처리부는,
상기 도로 프로파일이 매핑된 경계의 깊이 정보를 이용하여 상기 객체의 3차원 위치 및 상기 객체의 크기를 포함하는 상기 3차원 정보를 측정하는 객체 추적 장치.The method of claim 1,
The image processing unit,
An object tracking device that measures the 3D information including the 3D position of the object and the size of the object using depth information of the boundary to which the road profile is mapped.
상기 객체 추적부는,
상기 측정된 객체의 3차원 정보에 상기 미리 정해진 속도 모델을 적용하여 상기 다음 프레임에서의 상기 객체의 3차원 정보를 예측하는 3차원 정보 예측부;
상기 예측된 3차원 정보와 상기 다음 프레임에서 측정된 복수의 3차원 정보의 연관도를 확인하고, 상기 연관도가 가장 높은 상기 측정된 3차원 정보를 상기 객체에 할당하는 연관도 확인부; 및
상기 객체에 할당된 상기 3차원 정보에 따라 상기 예측된 3차원 정보를 보상하는 3차원 정보 갱신부; 를 포함하는 객체 추적 장치.The method of claim 1,
The object tracking unit,
A 3D information predictor configured to predict 3D information of the object in the next frame by applying the predetermined velocity model to the measured 3D information of the object;
A correlation checking unit that checks a degree of association between the predicted 3D information and a plurality of 3D information measured in the next frame, and allocates the measured 3D information with the highest correlation to the object; And
A 3D information update unit for compensating the predicted 3D information according to the 3D information allocated to the object; Object tracking device comprising a.
깊이 맵 획득부에 의해 전방에 대한 깊이 맵을 획득하는 단계;
도로 프로파일 획득부에 의해 미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로의 3차원 정보를 포함하는 도로 노면의 구조에 관한 도로 프로파일을 획득하는 단계;
관심 영역 설정부에 의해 전방 영상에서 객체의 위치를 검출하는 단계;
경계선 검출부에 의해 상기 관심 영역 설정부에 의해 설정된 관심 영역 내에서 깊이 맵과 전방 영상의 변화도를 이용하여 객체와 도로 사이의 경계를 검출하는 단계;
3차원 정보 측정부에 의해 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 매핑된 도로의 3차원 정보를 기초로 상기 객체의 3차원 정보를 측정하는 단계;
객체 추적부에 의해 객체의 움직임을 나타내는 동역학 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 객체의 3차원 정보에 따라 보상하여 상기 객체를 추적하는 단계를 수행하며,
상기 3차원 정보 측정부는 전방 영상으로부터 확인된 객체의 정보를 이용하여, 객체와 도로의 경계로부터 객체의 높이를 결정하는 단계를 포함하는 객체 추적 방법. Obtaining a front image by a front image acquisition unit;
Obtaining a depth map for the front side by the depth map acquisition unit;
Acquiring a road profile about a structure of a road surface including 3D information of the road from at least one of a front image and a depth map according to a frame rate predetermined by the road profile obtaining unit;
Detecting the position of the object in the front image by the region of interest setting unit;
Detecting a boundary between an object and a road by using a depth map and a gradient of a front image within the region of interest set by the region of interest setting unit by a boundary line detection unit;
Mapping the road profile to the detected boundary by a 3D information measuring unit and measuring 3D information of the object based on 3D information of the mapped road every frame;
The object tracking unit predicts the 3D information of the object in the next frame using a dynamic model representing the movement of the object, and compensates the predicted 3D information according to the 3D information of the object measured in the next frame. To perform the step of tracking the object,
And determining the height of the object from the boundary between the object and the road by using the information on the object identified from the front image by the 3D information measuring unit.
상기 객체의 3차원 정보를 측정하는 단계는,
상기 도로 프로파일이 매핑된 경계의 깊이 정보를 이용하여 상기 객체의 3차원 위치 및 상기 객체의 크기를 포함하는 상기 3차원 정보를 측정하는 객체 추적 방법.The method of claim 5,
Measuring the three-dimensional information of the object,
An object tracking method for measuring the 3D information including the 3D position of the object and the size of the object by using depth information of a boundary to which the road profile is mapped.
상기 객체를 추적하는 단계는,
상기 측정된 객체의 3차원 정보에 상기 미리 정해진 속도 모델을 적용하여 상기 다음 프레임에서의 상기 객체의 3차원 정보를 예측하는 단계;
상기 예측된 3차원 정보와 상기 다음 프레임에서 측정된 복수의 3차원 정보의 연관도를 확인하고, 상기 연관도가 가장 높은 상기 측정된 3차원 정보를 상기 객체에 할당하는 단계; 및
상기 객체에 할당된 상기 3차원 정보에 따라 상기 예측된 3차원 정보를 보상하는 단계; 를 포함하는 객체 추적 방법.The method of claim 5,
The step of tracking the object,
Predicting 3D information of the object in the next frame by applying the predetermined velocity model to the measured 3D information of the object;
Checking a degree of association between the predicted 3D information and a plurality of 3D information measured in the next frame, and allocating the measured 3D information with the highest association degree to the object; And
Compensating the predicted 3D information according to the 3D information allocated to the object; Object tracking method comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190127751A KR102189502B1 (en) | 2019-10-15 | 2019-10-15 | Object tracking apparatus and object tracking method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190127751A KR102189502B1 (en) | 2019-10-15 | 2019-10-15 | Object tracking apparatus and object tracking method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170152561A Division KR20190062635A (en) | 2017-11-15 | 2017-11-15 | Object tracking apparatus and object tracking method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190122610A KR20190122610A (en) | 2019-10-30 |
KR102189502B1 true KR102189502B1 (en) | 2020-12-11 |
Family
ID=68463120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190127751A KR102189502B1 (en) | 2019-10-15 | 2019-10-15 | Object tracking apparatus and object tracking method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102189502B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240097299A (en) | 2022-12-20 | 2024-06-27 | 주식회사 리얼타임테크 | System for tracking movements of an object based on AI |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101551026B1 (en) * | 2013-12-24 | 2015-09-07 | 현대자동차주식회사 | Method of tracking vehicle |
-
2019
- 2019-10-15 KR KR1020190127751A patent/KR102189502B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240097299A (en) | 2022-12-20 | 2024-06-27 | 주식회사 리얼타임테크 | System for tracking movements of an object based on AI |
Also Published As
Publication number | Publication date |
---|---|
KR20190122610A (en) | 2019-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107272021B (en) | Object detection using radar and visually defined image detection areas | |
US10657670B2 (en) | Information processing apparatus | |
CN107798699B (en) | Depth map estimation with stereo images | |
CN112665556B (en) | Generating a three-dimensional map of a scene using passive and active measurements | |
CN102317954B (en) | Method for detecting objects | |
US9074906B2 (en) | Road shape recognition device | |
JP6440411B2 (en) | Object detection device | |
JP6450294B2 (en) | Object detection apparatus, object detection method, and program | |
JP5353455B2 (en) | Perimeter monitoring device | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
EP3282389B1 (en) | Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program | |
KR20190059894A (en) | Detecting objects from camera images | |
JP6263453B2 (en) | Momentum estimation device and program | |
CN112937582A (en) | System, non-transitory computer readable medium, and method for improving lane change detection | |
KR101491305B1 (en) | Apparatus and method for detecting obstacle | |
KR100962329B1 (en) | Road area detection method and system from a stereo camera image and the recording media storing the program performing the said method | |
KR102189502B1 (en) | Object tracking apparatus and object tracking method | |
US11790555B2 (en) | System and method for fusion recognition using active stick filter | |
KR20160125803A (en) | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest | |
KR20190062635A (en) | Object tracking apparatus and object tracking method | |
CN116524454A (en) | Object tracking device, object tracking method, and storage medium | |
JP2017016172A (en) | Travel lane boundary estimation apparatus and travel lane boundary estimation method | |
JP7485580B2 (en) | Distance calculation device and distance calculation method | |
JPWO2018212286A1 (en) | Measuring device, measuring method and program | |
EP4379659A1 (en) | Enhanced tracking and speed detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |