[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102189502B1 - Object tracking apparatus and object tracking method - Google Patents

Object tracking apparatus and object tracking method Download PDF

Info

Publication number
KR102189502B1
KR102189502B1 KR1020190127751A KR20190127751A KR102189502B1 KR 102189502 B1 KR102189502 B1 KR 102189502B1 KR 1020190127751 A KR1020190127751 A KR 1020190127751A KR 20190127751 A KR20190127751 A KR 20190127751A KR 102189502 B1 KR102189502 B1 KR 102189502B1
Authority
KR
South Korea
Prior art keywords
information
unit
road
front image
depth map
Prior art date
Application number
KR1020190127751A
Other languages
Korean (ko)
Other versions
KR20190122610A (en
Inventor
황영배
윤주홍
박민규
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020190127751A priority Critical patent/KR102189502B1/en
Publication of KR20190122610A publication Critical patent/KR20190122610A/en
Application granted granted Critical
Publication of KR102189502B1 publication Critical patent/KR102189502B1/en

Links

Images

Classifications

    • G06K9/00791
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06K9/00208
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

전방 영상, 깊이 맵, 및 도로 프로파일을 이용하여 객체를 추적하는 객체 추적 장치 및 객체 추적 방법을 제공한다.
개시된 발명의 일 실시예에 따른 객체 추적 장치는, 미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로 프로파일을 획득하는 도로 프로파일 획득부; 상기 깊이 맵을 이용하여 상기 전방 영상 중 관심 영역 내에 존재하는 객체와 도로의 경계를 검출하고, 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 상기 객체의 3차원 정보를 측정하는 영상 처리부; 및 미리 정해진 속도 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 3차원 정보에 따라 보상하여 상기 객체를 추적하는 객체 추적부; 를 포함할 수 있다.
An object tracking device and an object tracking method for tracking an object using a forward image, a depth map, and a road profile are provided.
An object tracking apparatus according to an embodiment of the disclosed invention includes: a road profile acquisition unit that acquires a road profile from at least one of a front image and a depth map according to a predetermined frame rate; An image processing unit configured to detect a boundary between an object and a road existing in the region of interest of the front image using the depth map, map the road profile to the detected boundary, and measure 3D information of the object every frame; And an object tracking unit that predicts 3D information of the object in a next frame using a predetermined velocity model, compensates the predicted 3D information according to the 3D information measured in the next frame, and tracks the object. ; It may include.

Figure 112019104988217-pat00006
Figure 112019104988217-pat00006

Description

객체 추적 장치 및 객체 추적 방법{OBJECT TRACKING APPARATUS AND OBJECT TRACKING METHOD}Object tracking device and object tracking method {OBJECT TRACKING APPARATUS AND OBJECT TRACKING METHOD}

전방의 객체를 검출하고, 검출된 객체를 추적하는 객체 추적 장치 및 객체 추적 방법에 관한 것이다.The present invention relates to an object tracking device and an object tracking method that detects an object in front and tracks the detected object.

운전자 보조 시스템(Advanced Driver Assistance System; ADAS) 또는 자율주행 시스템(Autonomous Driving System; ADS)은 주행 중인 차량의 주변 환경에 따라 차량 제어를 수행하므로, 차량의 주변 환경 정보를 감지하는 것이 중요하다.Since the Advanced Driver Assistance System (ADAS) or Autonomous Driving System (ADS) controls the vehicle according to the surrounding environment of the vehicle being driven, it is important to detect the surrounding environment information of the vehicle.

차량의 주변 환경 정보는 전방, 후방, 및/또는 측방 차량의 존재 정보, 속도 정보, 거리 정보와, 보행자, 교통신호, 주행 도로 등과 같은 인접 차량 이외의 정보 등을 포함할 수 있다. The surrounding environment information of the vehicle may include presence information, speed information, distance information, and information other than adjacent vehicles such as pedestrians, traffic signals, driving roads, and the like of front, rear, and/or side vehicles.

다수의 운전자 보조 시스템이나 자율 주행 시스템은 실시간으로 주변 환경을 반영하여 동작하므로, 연속적으로 주변 환경을 인식하기 위해서는 차량 전방에 존재하는 차량이나 사람 등과 같은 객체를 추적하는 객체 추적 장치가 필수적으로 활용될 수 있다.Since many driver assistance systems or autonomous driving systems operate by reflecting the surrounding environment in real time, an object tracking device that tracks an object such as a vehicle or a person existing in front of the vehicle is essential to continuously recognize the surrounding environment. I can.

일반적으로 3차원 객체 추적 장치는 스테레오 카메라 또는 카메라-깊이 측정 센서(레이더, 라이다)의 조합 구성을 이용하여 영상 정보와 깊이 정보를 동시에 획득함으로써 객체의 3차원 정보를 연속적으로 추정할 수 있다. 이러한 객체 추적 장치는 영상 기반 객체 검출기(Object Detector)로부터 획득한 측정치(2차원 박스)를 기반으로 깊이 정보를 가공하여 객체의 상태를 추정하는 장치가 대부분이다. In general, a 3D object tracking apparatus may continuously estimate 3D information of an object by simultaneously acquiring image information and depth information using a combination configuration of a stereo camera or a camera-depth measurement sensor (radar, lidar). Most of these object tracking devices estimate the state of an object by processing depth information based on a measurement value (2D box) acquired from an image-based object detector.

그러나, 상술한 방법은 2차원 영상에서 객체의 상태를 추정하기에는 효과적이지만, 3차원 객체 추적에 적용할 때에는 객체 추적의 정확도가 저하될 수 있다. 구체적으로, 깊이 맵 에러, 및 센서의 3차원 정보 획득의 한계로 객체의 3차원 위치 측정의 정확도가 저하될 수 있고, 스테레오 카메라의 구조적 문제, 및 라이다의 거리에 따른 측정의 한계로 원거리 객체 측정의 어려움이 발생할 수 있다.However, the above-described method is effective for estimating the state of an object in a 2D image, but when applied to a 3D object tracking, the accuracy of object tracking may be degraded. Specifically, the accuracy of the 3D position measurement of the object may be degraded due to the depth map error and the limitation of acquiring 3D information from the sensor. Difficulty in measurement may occur.

개시된 발명의 일 측면은 전방 영상, 깊이 맵, 및 도로 프로파일을 이용하여 객체를 추적하는 객체 추적 장치 및 객체 추적 방법을 제공한다.An aspect of the disclosed invention provides an object tracking device and an object tracking method for tracking an object using a forward image, a depth map, and a road profile.

개시된 발명의 일 실시예에 따른 객체 추적 장치는, 미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로 프로파일을 획득하는 도로 프로파일 획득부; 상기 깊이 맵을 이용하여 상기 전방 영상 중 관심 영역 내에 존재하는 객체와 도로의 경계를 검출하고, 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 상기 객체의 3차원 정보를 측정하는 영상 처리부; 및 미리 정해진 속도 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 3차원 정보에 따라 보상하여 상기 객체를 추적하는 객체 추적부; 를 포함할 수 있다.An object tracking apparatus according to an embodiment of the disclosed invention includes: a road profile acquisition unit that acquires a road profile from at least one of a front image and a depth map according to a predetermined frame rate; An image processing unit configured to detect a boundary between an object and a road existing in the region of interest of the front image using the depth map, map the road profile to the detected boundary, and measure 3D information of the object every frame; And an object tracking unit that predicts 3D information of the object in a next frame using a predetermined velocity model, compensates the predicted 3D information according to the 3D information measured in the next frame, and tracks the object. ; It may include.

또한, 상기 영상 처리부는, 상기 전방 영상 상에서 상기 객체의 위치를 검출함으로써 상기 관심 영역을 설정하는 관심 영역 설정부; 상기 설정된 관심 영역 내에서 상기 깊이 맵 및 상기 전방 영상의 변화도(Gradient) 정보를 이용하여 상기 객체와 상기 도로의 경계를 검출하는 경계선 검출부; 및 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 상기 객체의 상기 3차원 정보를 측정할 수 있다.In addition, the image processing unit may include a region of interest setting unit configured to set the region of interest by detecting a position of the object on the front image; A boundary line detector configured to detect a boundary between the object and the road using the depth map and gradient information of the front image within the set region of interest; And mapping the road profile to the detected boundary to measure the 3D information of the object.

또한, 상기 3차원 정보 측정부는, 상기 전방 영상으로부터 확인된 상기 객체 정보를 이용하여, 상기 검출된 경계로부터 상기 객체의 높이를 결정할 수 있다.In addition, the 3D information measuring unit may determine the height of the object from the detected boundary using the object information identified from the front image.

또한, 상기 영상 처리부는, 상기 도로 프로파일이 매핑된 경계의 깊이 정보를 이용하여 상기 객체의 3차원 위치 및 상기 객체의 크기를 포함하는 상기 3차원 정보를 측정할 수 있다.In addition, the image processing unit may measure the 3D information including the 3D location of the object and the size of the object using depth information of the boundary to which the road profile is mapped.

또한, 상기 객체 추적부는, 상기 측정된 객체의 3차원 정보에 상기 미리 정해진 속도 모델을 적용하여 상기 다음 프레임에서의 상기 객체의 3차원 정보를 예측하는 3차원 정보 예측부; 상기 예측된 3차원 정보와 상기 다음 프레임에서 측정된 복수의 3차원 정보의 연관도를 확인하고, 상기 연관도가 가장 높은 상기 측정된 3차원 정보를 상기 객체에 할당하는 연관도 확인부; 및 상기 객체에 할당된 상기 3차원 정보에 따라 상기 예측된 3차원 정보를 보상하는 3차원 정보 갱신부; 를 포함할 수 있다.In addition, the object tracking unit may include a 3D information prediction unit for predicting 3D information of the object in the next frame by applying the predetermined velocity model to the measured 3D information of the object; A correlation checking unit that checks a degree of association between the predicted 3D information and a plurality of 3D information measured in the next frame, and allocates the measured 3D information with the highest correlation to the object; And a 3D information update unit for compensating the predicted 3D information according to the 3D information allocated to the object. It may include.

또한, 상기 객체 추적부는, 상기 객체에 할당되지 않은 3차원 정보에 신규 생성 객체를 할당하거나, 미리 정해진 프레임 이상 상기 측정된 3차원 정보가 할당되지 않은 객체를 삭제하는 초기화부; 를 더 포함할 수 있다.In addition, the object tracking unit may include: an initialization unit that allocates a newly created object to 3D information not allocated to the object, or deletes an object to which the measured 3D information is not allocated for a predetermined frame or more; It may further include.

개시된 발명의 일 실시 예에 따른 객체 추적 방법은, 미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로 프로파일을 획득하는 단계; 상기 깊이 맵을 이용하여 상기 전방 영상 중 관심 영역 내에 존재하는 객체와 도로의 경계를 검출하는 단계; 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 상기 객체의 3차원 정보를 측정하는 단계; 및 미리 정해진 속도 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 3차원 정보에 따라 보상하여 상기 객체를 추적하는 단계; 를 포함할 수 있다.An object tracking method according to an embodiment of the disclosed invention includes: acquiring a road profile from at least one of a front image and a depth map according to a predetermined frame rate; Detecting a boundary between an object existing in the ROI and a road in the front image using the depth map; Measuring 3D information of the object every frame by mapping the road profile to the detected boundary; And tracking the object by predicting 3D information of the object in a next frame using a predetermined velocity model, and compensating the predicted 3D information according to the 3D information measured in the next frame. It may include.

또한, 상기 객체와 도로의 경계를 검출하는 단계는, 상기 전방 영상 상에서 상기 객체의 위치를 검출함으로써 상기 관심 영역을 설정하는 단계; 및 상기 설정된 관심 영역 내에서 상기 깊이 맵 및 상기 전방 영상의 변화도(Gradient) 정보를 이용하여 상기 객체와 상기 도로의 경계를 검출하는 단계; 를 포함할 수 있다.In addition, detecting the boundary between the object and the road may include setting the region of interest by detecting the position of the object on the front image; And detecting a boundary between the object and the road using the depth map and gradient information of the front image within the set region of interest. It may include.

또한, 상기 객체의 3차원 정보를 측정하는 단계는, 상기 전방 영상으로부터 확인된 상기 객체 정보를 이용하여, 상기 검출된 경계로부터 상기 객체의 높이를 결정할 수 있다.In addition, in the measuring of the 3D information of the object, the height of the object may be determined from the detected boundary using the object information identified from the front image.

또한, 상기 객체의 3차원 정보를 측정하는 단계는, 상기 도로 프로파일이 매핑된 경계의 깊이 정보를 이용하여 상기 객체의 3차원 위치 및 상기 객체의 크기를 포함하는 상기 3차원 정보를 측정할 수 있다.In addition, in the measuring of the 3D information of the object, the 3D information including the 3D location of the object and the size of the object may be measured using depth information of a boundary to which the road profile is mapped. .

또한, 상기 객체를 추적하는 단계는, 상기 측정된 객체의 3차원 정보에 상기 미리 정해진 속도 모델을 적용하여 상기 다음 프레임에서의 상기 객체의 3차원 정보를 예측하는 단계; 상기 예측된 3차원 정보와 상기 다음 프레임에서 측정된 복수의 3차원 정보의 연관도를 확인하고, 상기 연관도가 가장 높은 상기 측정된 3차원 정보를 상기 객체에 할당하는 단계; 및 상기 객체에 할당된 상기 3차원 정보에 따라 상기 예측된 3차원 정보를 보상하는 단계; 를 포함할 수 있다.Further, the step of tracking the object may include predicting 3D information of the object in the next frame by applying the predetermined velocity model to the measured 3D information of the object; Checking a degree of association between the predicted 3D information and a plurality of 3D information measured in the next frame, and allocating the measured 3D information with the highest association degree to the object; And compensating the predicted 3D information according to the 3D information allocated to the object. It may include.

또한, 상기 객체에 할당되지 않은 3차원 정보에 신규 생성 객체를 할당하는 단계; 및 미리 정해진 프레임 이상 상기 측정된 3차원 정보가 할당되지 않은 객체를 삭제하는 단계; 를 더 포함할 수 있다.In addition, allocating a newly created object to 3D information not allocated to the object; And deleting an object to which the measured 3D information is not allocated more than a predetermined frame. It may further include.

개시된 발명의 일 측면에 따른 객체 추적 장치, 및 객체 추적 방법에 따르면, 도로 프로파일을 이용하여 객체를 추적하므로, 객체의 3차원 정보 획득이 용이할 수 있다. 또한, 원거리 객체 추적의 정확도를 개선할 수 있어, 고속도로와 같은 고속의 주행환경에도 적용이 가능하다. 나아가, 도로 프로파일을 제약 정보로 활용함으로써 객체의 3차원 정보를 강건하게 추정할 수 있고, 그 결과 충돌 회피, 충돌 경고와 같은 운전자 보조 시스템에서의 활용성이 높아질 수 있다.According to the object tracking device and the object tracking method according to an aspect of the disclosed invention, since an object is tracked using a road profile, it is possible to easily obtain 3D information of an object. In addition, since it is possible to improve the accuracy of tracking a distant object, it can be applied to a high speed driving environment such as a highway. Furthermore, by using the road profile as constraint information, it is possible to robustly estimate the 3D information of the object, and as a result, the utility in driver assistance systems such as collision avoidance and collision warning can be improved.

도 1은 개시된 발명의 일 실시 예에 따른 객체 추적 장치의 제어 블록도이다.
도 2는 개시된 발명의 일 실시 예에 따른 전방 영상 획득부에 의해 획득된 전방 영상을 나타내는 도면이다.
도 3은 개시된 발명의 일 실시 예에 따른 깊이 맵 획득부에 의해 획득된 깊이 맵을 나타내는 도면이다.
도 4는 개시된 발명의 일 실시 예에 따른 도로 프로파일 획득부에 의해 획득된 도로 프로파일을 나타내는 도면이다.
도 5는 개시된 발명의 일 실시 예에 따른 영상 처리부의 상세 제어 블록도이다.
도 6은 개시된 발명의 일 실시 예에 따른 영상 처리부에 의한 객체 검출 단계를 설명하기 위한 도면이다.
도 7은 개시된 발명의 일 실시 예에 따른 객체 추적부의 상세 제어 블록도이다.
도 8은 개시된 발명의 일 실시 예에 따른 객체 추적 방법의 흐름도이다.
1 is a control block diagram of an object tracking apparatus according to an embodiment of the disclosed invention.
2 is a diagram illustrating a front image acquired by a front image acquisition unit according to an embodiment of the disclosed invention.
3 is a diagram illustrating a depth map acquired by a depth map acquisition unit according to an embodiment of the disclosed invention.
4 is a diagram illustrating a road profile acquired by a road profile obtaining unit according to an embodiment of the disclosed invention.
5 is a detailed control block diagram of an image processing unit according to an embodiment of the disclosed invention.
6 is a diagram for describing an object detection step by an image processing unit according to an embodiment of the disclosed invention.
7 is a detailed control block diagram of an object tracking unit according to an embodiment of the disclosed invention.
8 is a flowchart of an object tracking method according to an embodiment of the disclosed invention.

본 명세서에 기재된 실시 예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예에 불과할 뿐이며, 본 출원의 출원시점에 있어서 본 명세서의 실시 예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다.The embodiments described in the present specification and the configurations shown in the drawings are only preferred examples of the disclosed invention, and there may be various modified examples that may replace the embodiments and drawings of the present specification at the time of filing of the present application.

본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. The terms used herein are used to describe embodiments and are not intended to limit and/or limit the disclosed invention.

예를 들어, 본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.For example, in the present specification, a singular expression may include a plurality of expressions unless the context clearly indicates otherwise.

*또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합이 존재함을 표현하고자 하는 것이며, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합의 추가적인 존재 또는 부가 가능성을 배제하지 않는다.*In addition, terms such as "include" or "have" are intended to express the existence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, and one or more other features It does not exclude the possibility of additional presence or addition of, numbers, steps, actions, components, parts, or combinations thereof.

또한, "제1", "제2" 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위하여 사용되며, 상기 하나의 구성요소들을 한정하지 않는다.In addition, terms including ordinal numbers such as "first" and "second" are used to distinguish one component from other components, and do not limit the one component.

또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA (field-programmable gate array)/ ASIC (application specific integrated circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.In addition, terms such as "~ unit", "~ group", "~ block", "~ member", and "~ module" may mean a unit that processes at least one function or operation. For example, the terms may refer to at least one hardware such as field-programmable gate array (FPGA)/application specific integrated circuit (ASIC), at least one software stored in a memory, or at least one process processed by a processor. have.

이하에서는 첨부한 도면을 참조하여 개시된 발명의 일 실시 예를 상세하게 설명한다. 첨부된 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낼 수 있다.Hereinafter, exemplary embodiments of the disclosed invention will be described in detail with reference to the accompanying drawings. The same reference numbers or reference numerals shown in the accompanying drawings may indicate parts or components that substantially perform the same function.

도 1은 개시된 발명의 일 실시 예에 따른 객체 추적 장치의 제어 블록도이고, 도 2는 개시된 발명의 일 실시 예에 따른 전방 영상 획득부에 의해 획득된 전방 영상을 나타내고, 도 3은 개시된 발명의 일 실시 예에 따른 깊이 맵 획득부에 의해 획득된 깊이 맵을 나타내고, 도 4는 개시된 발명의 일 실시 예에 따른 도로 프로파일 획득부에 의해 획득된 도로 프로파일을 나타내는 도면이다.1 is a control block diagram of an object tracking apparatus according to an embodiment of the disclosed invention, FIG. 2 shows a front image acquired by a front image acquisition unit according to an embodiment of the disclosed invention, and FIG. 3 is A depth map obtained by a depth map acquisition unit according to an embodiment is shown, and FIG. 4 is a diagram showing a road profile acquired by a road profile acquisition unit according to an embodiment of the disclosed invention.

도 1을 참조하면, 개시된 발명의 일 실시예에 따른 객체 추적 장치(1)는, 전방 영상, 깊이 맵, 및 도로 프로파일을 획득하는 획득부(100); 획득부(100)에 의해 획득된 전방 영상, 깊이 맵, 및 도로 프로파일을 이용하여 객체를 검출하는 영상 처리부(200); 및 검출된 객체를 추적하는 객체 추적부(300); 를 포함할 수 있다.Referring to FIG. 1, an object tracking apparatus 1 according to an embodiment of the disclosed invention includes: an acquisition unit 100 for acquiring a front image, a depth map, and a road profile; An image processing unit 200 that detects an object using a front image, a depth map, and a road profile acquired by the acquisition unit 100; And an object tracking unit 300 for tracking the detected object. It may include.

획득부(100)는 객체를 검출하는데 이용되는 전방 영상, 깊이 맵, 및 도로 프로파일을 획득할 수 있다. 이를 위해, 일 실시 예에 따른 획득부(100)는, 전방 영상을 획득하는 전방 영상 획득부(110); 전방에 대한 깊이 맵을 획득하는 깊이 맵 획득부(120); 및 도로 프로파일을 획득하는 도로 프로파일 획득부(130); 를 포함할 수 있다.The acquisition unit 100 may acquire a front image, a depth map, and a road profile used to detect an object. To this end, the acquisition unit 100 according to an embodiment includes a front image acquisition unit 110 for acquiring a front image; A depth map acquisition unit 120 for acquiring a depth map for the front side; And a road profile obtaining unit 130 for obtaining a road profile. It may include.

전방 영상 획득부(110)는 전방 영상을 획득할 수 있다. 여기서, 전방 영상이란 차량의 진행 방향 상에 존재하는 복수의 객체를 포함하는 영상을 의미할 수 있다. 도 2를 참조하면, 전방 영상은 주행 도로를 주행하는 복수의 선행 차량과 같은 복수의 객체를 포함할 수 있다. The front image acquisition unit 110 may acquire a front image. Here, the front image may mean an image including a plurality of objects existing in the traveling direction of the vehicle. Referring to FIG. 2, the front image may include a plurality of objects, such as a plurality of preceding vehicles traveling on a driving road.

전방 영상을 획득하기 위해, 전방 영상 획득부(110)는 CMOS(Complementary Metal-Oxide Semiconductor) 또는 CCD(Charge Coupled Device) 등의 이미지 센서를 포함하는 카메라로 구현될 수 있다. 카메라의 이미지 센서는 전방으로부터 감지되는 가시광선을 전기적 신호로 변환함으로써 전방 영상을 획득할 수 있다. 카메라로 구현되는 전방 영상 획득부(110)는 차량의 전방을 향하도록 차량의 내부 또는 외부에 설치될 수 있다.In order to acquire the front image, the front image acquisition unit 110 may be implemented as a camera including an image sensor such as a Complementary Metal-Oxide Semiconductor (CMOS) or a Charge Coupled Device (CCD). The image sensor of the camera may acquire a front image by converting visible light detected from the front into an electrical signal. The front image acquisition unit 110 implemented as a camera may be installed inside or outside the vehicle to face the front of the vehicle.

또한, 전방 영상 획득부(110)는 미리 정해진 프레임 레이트에 따라 연속적으로 전방 영상을 획득할 수 있다. 즉, 전방 영상 획득부(110)는 매 프레임마다 전방 영상을 주기적으로 획득할 수 있다.Also, the front image acquisition unit 110 may continuously acquire a front image according to a predetermined frame rate. That is, the front image acquisition unit 110 may periodically acquire the front image every frame.

또한, 카메라로 구현되는 전방 영상 획득부(110)는 단안 카메라 일 수 있으며, 이와는 달리 스테레오 카메라일 수도 있다. 만약, 전방 영상 획득부(110)가 스테레오 카메라로 구현되는 경우, 전방 영상 획득부(110)가 획득한 스테레오 영상은 후술할 깊이 맵 획득부(120)가 깊이 맵을 획득하는데 이용될 수 있다.In addition, the front image acquisition unit 110 implemented as a camera may be a monocular camera, or alternatively, may be a stereo camera. If the front image acquisition unit 110 is implemented as a stereo camera, the stereo image acquired by the front image acquisition unit 110 may be used by the depth map acquisition unit 120 to be described later to acquire a depth map.

깊이 맵 획득부(120)는 전방에 대한 깊이 맵을 획득하는 기술적 사상 안에서 다양하게 구현될 수 있다. 예를 들어, 깊이 맵 획득부(120)는 스테레오 카메라로 구현되는 전방 영상 획득부(110)가 획득한 스테레오 영상을 정합함으로써 깊이 맵을 획득할 수 있다. 이와는 달리, 깊이 맵 획득부(120)는 레이더 또는 라이다 와 같은 깊이 측정 센서를 포함하고, 전방 영상 획득부(110)가 획득한 전방 영상과 깊이 측정 센서가 획득한 센싱값을 이용하여 깊이 맵을 획득할 수도 있다. 도 3은 도 2의 전방 영상을 이용하여 획득한 깊이 맵을 예시한다.The depth map acquisition unit 120 may be implemented in various ways within the technical idea of acquiring a depth map for the front side. For example, the depth map acquisition unit 120 may acquire a depth map by matching the stereo image acquired by the front image acquisition unit 110 implemented as a stereo camera. In contrast, the depth map acquisition unit 120 includes a depth measurement sensor such as a radar or a lidar, and a depth map using the front image acquired by the front image acquisition unit 110 and a sensing value acquired by the depth measurement sensor. You can also get 3 illustrates a depth map acquired by using the front image of FIG. 2.

깊이 맵 획득부(120)는 전방 영상 획득부(110)에 동기화하여 미리 정해진 프레임 레이트에 따라 깊이 맵을 획득할 수 있다. 즉, 깊이 맵 획득부(120)는 매 프레임마다 깊이 맵을 주기적으로 획득할 수 있다.The depth map acquisition unit 120 may acquire a depth map according to a predetermined frame rate by synchronizing with the front image acquisition unit 110. That is, the depth map acquisition unit 120 may periodically acquire the depth map every frame.

도로 프로파일 획득부(130)는 전방의 주행 도로에 대한 도로 프로파일을 획득할 수 있다. 여기서, 도로 프로파일이란 도로 노면의 구조 정보로서, 도로의 3차원 정보를 포함할 수 있고, 함수로서 표현 가능할 수 있다. The road profile acquisition unit 130 may acquire a road profile for a driving road ahead. Here, the road profile is structure information of a road surface, and may include 3D information of a road, and may be expressed as a function.

도로 프로파일 획득부(130)는 도로 프로파일을 획득하는 기술적 사상 안에서 다양하게 구현될 수 있다. 예를 들어, 도로 프로파일 획득부(130)는 깊이 맵 획득부(120)가 획득한 깊이 맵을 이용하여 전방의 주행 도로에 대한 도로 프로파일을 획득할 수 있다.The road profile acquisition unit 130 may be variously implemented within the technical idea of acquiring a road profile. For example, the road profile acquisition unit 130 may acquire a road profile for a driving road ahead by using the depth map acquired by the depth map acquisition unit 120.

도로 프로파일 획득부(130)는 전방 영상 획득부(110) 및 깊이 맵 획득부(120)에 동기화하여 미리 정해진 프레임 레이트에 따라 도로 프로파일을 획득할 수 있다. 즉, 도로 프로파일 획득부(130)는 매 프레임마다 도로 프로파일을 주기적으로 획득할 수 있다.The road profile acquisition unit 130 may acquire a road profile according to a predetermined frame rate by synchronizing with the front image acquisition unit 110 and the depth map acquisition unit 120. That is, the road profile acquisition unit 130 may periodically acquire a road profile every frame.

다시 도 1을 참조하면, 영상 처리부(200)는 획득부(100)에 의해 획득된 전방 영상, 깊이 맵 및 도로 프로파일을 이용하여 객체를 검출할 수 있다. 이하에서는 도 5 및 6을 참조하여 영상 처리부(200)의 동작을 상세히 설명한다.Referring back to FIG. 1, the image processing unit 200 may detect an object using a front image, a depth map, and a road profile acquired by the acquisition unit 100. Hereinafter, the operation of the image processing unit 200 will be described in detail with reference to FIGS. 5 and 6.

도 5는 개시된 발명의 일 실시 예에 따른 영상 처리부의 상세 제어 블록도이고, 도 6은 개시된 발명의 일 실시 예에 따른 영상 처리부에 의한 객체 검출 단계를 설명하기 위한 도면이다.5 is a detailed control block diagram of an image processing unit according to an embodiment of the disclosed invention, and FIG. 6 is a diagram illustrating an object detection step by the image processing unit according to an embodiment of the disclosed invention.

도 5를 참조하면, 개시된 발명의 일 실시 예에 따른 영상 처리부(200)는, 전방 영상 상에서 관심 영역을 설정하는 관심 영역 설정부(210); 관심 영역 내에서 객체와 도로의 경계를 검출하는 경계선 검출부(220); 및 검출된 경계로부터 객체의 3차원 정보를 측정하는 3차원 정보 측정부(230); 를 포함할 수 있다.Referring to FIG. 5, the image processing unit 200 according to an embodiment of the disclosed invention includes: an ROI setting unit 210 for setting an ROI on a front image; A boundary line detector 220 that detects a boundary between an object and a road within the region of interest; And a 3D information measuring unit 230 for measuring 3D information of the object from the detected boundary. It may include.

관심 영역 설정부(210)는 전방 영상 상에서 객체의 위치를 검출할 수 있다. 즉, 관심 영역 설정부(210)는 영상 기반 객체검출기(Object Detector)로서 동작할 수 있다. 예를 들어, 관심 영역 설정부(210)는 배경 추정 알고리즘을 이용하여 객체의 위치를 검출할 수 있고, 이와는 달리 특징점(Feature)을 활용해 학습 알고리즘을 이용하여 객체의 위치를 검출할 수도 있다. The ROI setting unit 210 may detect the position of the object on the front image. That is, the ROI setting unit 210 may operate as an image-based object detector. For example, the region of interest setting unit 210 may detect the position of the object using a background estimation algorithm, and, unlike this, may detect the position of the object using a learning algorithm using a feature point.

이와 같은 영상 기반 객체 검출의 결과, 관심 영역 설정부(210)는 객체의 위치로서 2차원 박스 형태의 사각형 영역을 검출할 수 있다. 관심 영역 설정부(210)는 검출된 사각형 영역을 관심 영역으로 설정할 수 있다.As a result of such image-based object detection, the ROI setting unit 210 may detect a 2D box-shaped rectangular area as the location of the object. The region of interest setting unit 210 may set the detected rectangular region as the region of interest.

도 6의 을 참조하면, 관심 영역 설정부(210)는 선행 차량을 객체로서 검출하여두 개의 노란색의 사각형 영역을 검출하였으며, 이를 관심 영역으로 설정하였음을 확인할 수 있다. Referring to FIG. 6, it can be seen that the region of interest setting unit 210 detects a preceding vehicle as an object, detects two yellow square regions, and sets these as regions of interest.

경계선 검출부(220)는 설정된 관심 영역 내에서 객체와 도로의 경계를 검출할 수 있다. 이를 위해, 경계선 검출부(220)는 깊이 맵과 전방 영상의 변화도(Gradient) 정보를 이용할 수 있다.The boundary line detector 220 may detect the boundary between the object and the road within the set region of interest. To this end, the boundary line detector 220 may use the depth map and gradient information of the front image.

도 6의 를 참조하면, 경계선 검출부(220)는 깊이 맵 상에서 각각의 관심 영역 내의 선행 차량의 외곽 경계를 붉은 실선으로서 검출할 수 있다. 이 때, 경계선 검출부(220)는 전방 영상의 변화도를 함께 이용할 수 있다.Referring to FIG. 6, the boundary line detector 220 may detect an outer boundary of a preceding vehicle within each ROI on a depth map as a red solid line. In this case, the boundary line detection unit 220 may use the gradient of the front image together.

3차원 정보 측정부(230)는 검출된 경계에 도로 프로파일을 매핑하여 객체의 3차원 정보를 측정할 수 있다. 구체적으로, 3차원 정보 측정부(230)는 도 6의 에서 검출된 선행 차량의 경계에 과 같은 도로 프로파일을 매핑함으로써 와 같은 결과를 획득할 수 있다.The 3D information measuring unit 230 may measure 3D information of an object by mapping a road profile to the detected boundary. Specifically, the 3D information measuring unit 230 may obtain the same result by mapping a road profile of, to the boundary of the preceding vehicle detected in FIG. 6.

특히, 3차원 정보 측정부(230)는 도로와 객체 사이의 경계상에 도로 프로파일을 매핑하여, 객체의 3차원 정보를 측정할 수 있다. 구체적으로, 3차원 정보 측정부(230)는 매핑된 경계의 깊이 정보를 이용하여 객체의 3차원 위치 및 객체의 크기를 포함하는 3차원 정보를 측정할 수 있다.In particular, the 3D information measuring unit 230 may measure 3D information of the object by mapping a road profile on the boundary between the road and the object. Specifically, the 3D information measuring unit 230 may measure 3D information including a 3D location of an object and a size of the object using depth information of the mapped boundary.

이 때, 3차원 정보 측정부(230)는 전방 영상으로부터 확인된 객체의 정보를 이용하여, 객체와 도로의 경계로부터 객체의 높이를 결정할 수 있다. 도 6의 를 참조하면, 전방 영상으로부터 확인된 높이 만큼 하단의 선행 차량과 도로의 경계로부터 연장된 선행 차량의 3차원 정보가 확인된다.In this case, the 3D information measuring unit 230 may determine the height of the object from the boundary between the object and the road, using information on the object identified from the front image. Referring to FIG. 6, 3D information of the preceding vehicle extending from the boundary between the preceding vehicle and the road at the bottom by the height determined from the front image is confirmed.

다시 도 1을 참조하면, 객체 추적부(300)는 검출된 객체를 다음 프레임에서 추적할 수 있다. 이하에서는, 도 7을 참조하여, 객체 추적부(300)의 동작을 상세히 설명한다.Referring back to FIG. 1, the object tracking unit 300 may track the detected object in the next frame. Hereinafter, the operation of the object tracking unit 300 will be described in detail with reference to FIG. 7.

도 7은 개시된 발명의 일 실시 예에 따른 객체 추적부의 상세 제어 블록도이다.7 is a detailed control block diagram of an object tracking unit according to an embodiment of the disclosed invention.

도 7을 참조하면, 개시된 발명의 일 실시 예에 따른 객체 추적부(300)는 다음 프레임에서의 객체의 3차원 정보를 예측하는 3차원 정보 예측부(310); 다음 프레임에서 측정된 3차원 정보 중 예측된 3차원 정보와 가장 연관도가 높은 어느 하나를 해당 객체에 할당하는 연관도 확인부(320); 할당된 3차원 정보에 따라 예측된 3차원 정보를 보상하는 3차원 정보 갱신부(330); 및 할당되지 않은 3차원 정보에 신규 객체를 할당하거나, 미리 정해진 프레임 이상 측정된 3차원 정보가 할당되지 않은 객체를 삭제하는 초기화부(340); 를 포함할 수 있다.Referring to FIG. 7, the object tracking unit 300 according to an embodiment of the disclosed invention includes a 3D information prediction unit 310 for predicting 3D information of an object in a next frame; A correlation checking unit 320 for allocating one of the 3D information measured in the next frame with the highest correlation with the predicted 3D information to a corresponding object; A 3D information update unit 330 for compensating the predicted 3D information according to the allocated 3D information; And an initialization unit 340 that allocates a new object to unallocated 3D information, or deletes an object to which 3D information measured more than a predetermined frame is not allocated. It may include.

3차원 정보 예측부(310)는 측정된 3차원 정보를 이용하여 다음 프레임에서의 객체의 3차원 정보를 예측할 수 있다. 구체적으로, 3차원 정보 예측부(310)는 측정된 3차원 정보에 미리 정해진 동역학 모델을 이용하여 다음 프레임에서의 3차원 정보를 예측할 수 있다. 여기서, 동역학 모델은 객체의 움직임을 나타내는 모델로서, 등속 모델(Constant Velocity Model) 및 등가속 모델(Constant Accelerator Model) 을 포함할 수 있다.The 3D information predictor 310 may predict 3D information of an object in a next frame using the measured 3D information. Specifically, the 3D information prediction unit 310 may predict 3D information in a next frame by using a predetermined dynamic model on the measured 3D information. Here, the dynamics model is a model representing the motion of an object and may include a constant velocity model and a constant accelerator model.

연관도 확인부(320)는 다음 프레임에서 측정된 복수의 3차원 정보와 특정 객체의 예측된 3차원 정보의 연관도를 확인할 수 있다. 또한, 연관도 확인부(320)는 가장 연관도가 높은 측정된 3차원 정보를 특정 객체에 할당할 수 있다.The association degree check unit 320 may check a degree of association between a plurality of 3D information measured in a next frame and predicted 3D information of a specific object. Also, the correlation check unit 320 may allocate the measured 3D information having the highest correlation to a specific object.

3차원 정보 갱신부(330)는 할당된 3차원 정보와 예측된 3차원 정보를 비교하여, 할당된 3차원 정보를 이용하여 특정 객체의 3차원 정보를 보상할 수 있다. 즉, 3차원 정보 갱신부(330)는 지난 프레임에서 예측했던 현재 프레임에서 특정 객체의 위치 및 속도를 현재 프레임에서 측정한 값으로 갱신할 수 있다.The 3D information update unit 330 may compare the allocated 3D information with the predicted 3D information and compensate 3D information of a specific object by using the allocated 3D information. That is, the 3D information updater 330 may update the position and speed of a specific object in the current frame predicted in the last frame to a value measured in the current frame.

이 과정에서, 3차원 정보 갱신부(330)는 칼만필터, Alpha-Beta-Gamma 필터 등 다양한 확률 기반 필터링 방법을 채택할 수 있다.In this process, the 3D information update unit 330 may adopt various probability-based filtering methods such as a Kalman filter and an Alpha-Beta-Gamma filter.

마지막으로, 초기화부(340)는 객체를 할당 받지 못한 측정된 3차원 정보에 신규 객체를 할당할 수 있다. 그 결과, 신규 객체에 대하여는 다음 프레임부터 상술한 3차원 정보 예측, 연관도 확인, 및 3차원 정보 갱신의 단계가 적용될 수 있다.Finally, the initialization unit 340 may allocate a new object to the measured 3D information to which the object has not been allocated. As a result, the steps of predicting 3D information, checking association, and updating 3D information can be applied from the next frame to the new object.

또한, 초기화부(340)는 미리 정해진 프레임 이상 측정된 3차원 정보가 할당되지 않은 객체를 삭제할 수 있다. 이를 통해, 객체 추적부(300)는 해당 객체에 대한 추적을 중단할 수 있다.Also, the initialization unit 340 may delete an object to which 3D information measured more than a predetermined frame is not allocated. Through this, the object tracking unit 300 may stop tracking the corresponding object.

다시 도 1을 참조하면, 이렇게 검출되어 추적되는 객체는 디스플레이부(D)에 의해 사용자에게 제공될 수 있다. 도 1에서는 객체 추적 장치가 디스플레이부(D)와 독립적으로 마련되는 경우를 예시하나, 디스플레이부(D)가 객체 추적 장치의 일 구성으로서 마련될 수도 있다.Referring back to FIG. 1, the object detected and tracked in this way may be provided to the user by the display unit D. 1 illustrates a case where the object tracking device is provided independently from the display unit D, but the display unit D may be provided as a component of the object tracking device.

도 8은 개시된 발명의 일 실시 예에 따른 객체 추적 방법의 흐름도이다.8 is a flowchart of an object tracking method according to an embodiment of the disclosed invention.

먼저, 획득부(100)에 의해, 미리 정해진 프레임 레이트에 따라 전방 영상 및 깊이 영상 중 적어도 하나로부터 도로 프로파일을 획득할 수 있다.(S100) 여기서, 도로 프로파일이란 도로 노면의 구조 정보로서, 도로의 3차원 정보를 포함할 수 있고, 함수로서 표현 가능할 수 있다. 예를 들어, 도로 프로파일은 도로의 3차원 정보로서 차량, 예를 들어 전방 영상 획득부(110)로부터 노면까지의 거리 정보를 포함할 수 있다.First, by the acquisition unit 100, a road profile may be obtained from at least one of a front image and a depth image according to a predetermined frame rate. (S100) Here, the road profile is structure information of a road surface, and the road profile is It may contain three-dimensional information and may be expressed as a function. For example, the road profile may include distance information from the vehicle, for example, the front image acquisition unit 110 to the road surface as 3D information of the road.

도로 프로파일을 획득하는 방법은 다양하게 구현될 수 있다. 예를 들어, 획득부(100)에 의해, 깊이 맵을 이용하여 전방의 주행 도로에 대한 도로 프로파일을 획득할 수 있다.A method of obtaining a road profile may be implemented in various ways. For example, the acquisition unit 100 may acquire a road profile for a driving road ahead using the depth map.

도로 프로파일이 획득되면, 영상 처리부(200)에 의해, 깊이 맵을 이용하여 전방 영상 중 관심 영역 내에 존재하는 객체와 도로의 경계를 검출할 수 있다.(S110) 이 때, 관심 영역은 영상 기반 객체 검출 방법에 의해 설정될 수 있고, 객체와 도로의 경계를 검출하는데 깊이 맵과 전방 영상의 변화도(Gradient) 정보가 이용될 수 있다.When the road profile is acquired, the image processing unit 200 may detect the boundary between an object existing in the ROI and the road among the front images using the depth map (S110). In this case, the ROI is an image-based object. It may be set by a detection method, and the depth map and gradient information of the front image may be used to detect the boundary between the object and the road.

그 다음, 영상 처리부(200)에 의해, 검출된 경계에 도로 프로파일을 매핑하여 매 프레임마다 객체의 3차원 정보를 측정할 수 있다.(S120) 특히, 3차원 정보 측정부(230)는 도로와 객체 사이의 경계상에 도로 프로파일을 매핑하여, 객체의 3차원 정보를 측정할 수 있다. 구체적으로, 3차원 정보 측정부(230)는 매핑된 경계의 깊이 정보를 이용하여 객체의 3차원 위치, 속도 및 크기를 포함하는 3차원 정보를 측정할 수 있다.Then, the image processing unit 200 maps the road profile to the detected boundary to measure 3D information of the object every frame (S120). In particular, the 3D information measurement unit 230 includes a road and a road profile. By mapping road profiles on the boundary between objects, it is possible to measure 3D information of objects. Specifically, the 3D information measuring unit 230 may measure 3D information including the 3D position, speed, and size of the object using depth information of the mapped boundary.

3차원 정보가 측정되면, 객체 추적부(300)에 의해, 미리 정해진 동역학 모델을 이용하여 다음 프레임에서의 객체의 3차원 정보를 예측할 수 있다.(S130) 여기서, 동역학 모델은 객체의 움직임을 나타내는 모델을 의미할 수 있다. 구체적으로, 객체 추적부(300)에 의해, 등속 모델 또는 등가속 모델에 따라 다음 프레임에서의 객체의 3차원 정보를 예측할 수 있다.When the 3D information is measured, the object tracking unit 300 may predict the 3D information of the object in the next frame using a predetermined dynamics model. (S130) Here, the dynamics model represents the movement of the object. Can mean model. Specifically, the object tracking unit 300 may predict 3D information of the object in the next frame according to the constant velocity model or the constant acceleration model.

마지막으로, 객체 추적부(300)에 의해, 예측된 3차원 정보를 다음 프레임에서 측정된 3차원 정보에 따라 보상하여 객체를 추적할 수 있다.(S140) Finally, the object tracking unit 300 compensates for the predicted 3D information according to the 3D information measured in the next frame to track the object (S140).

상술한 바와 같이, 개시된 발명의 일 측면에 따른 객체 추적 장치(1), 및 객체 추적 방법에 따르면, 도로 프로파일을 이용하여 객체를 추적하므로, 객체의 3차원 정보 획득이 용이할 수 있다. 또한, 원거리 객체 추적의 정확도를 개선할 수 있어, 고속도로와 같은 고속의 주행환경에도 적용이 가능하다. 나아가, 도로 프로파일을 제약 정보로 활용함으로써 객체의 3차원 정보를 강건하게 추정할 수 있고, 그 결과 충돌 회피, 충돌 경고와 같은 운전자 보조 시스템에서의 활용성이 높아질 수 있다.As described above, according to the object tracking apparatus 1 and the object tracking method according to an aspect of the disclosed invention, since the object is tracked using a road profile, it is possible to easily obtain 3D information of the object. In addition, since it is possible to improve the accuracy of tracking a distant object, it can be applied to a high speed driving environment such as a highway. Furthermore, by using the road profile as constraint information, it is possible to robustly estimate the 3D information of the object, and as a result, the utility in driver assistance systems such as collision avoidance and collision warning can be improved.

이상의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 개시된 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 개시된 발명의 등가적 범위 내에서의 모든 변경은 개시된 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the disclosed invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the disclosed invention are included in the scope of the disclosed invention.

1: 객체 추적 장치
100: 획득부
110: 전방 영상 획득부
120: 깊이 맵 획득부
130: 도로 프로파일 획득부
200: 영상 처리부
210: 관심 영역 설정부
220: 경계선 검출부
230: 3차원 정보 측정부
300: 객체 추적부
310: 3차원 정보 예측부
320: 연관도 확인부
330: 3차원 정보 갱신부
340: 초기화부
400: 제어부
500: 구동부
510: 게이트 구동부
520: 데이터 구동부
530: 백라이트 구동부
1: object tracking device
100: acquisition unit
110: front image acquisition unit
120: depth map acquisition unit
130: road profile acquisition unit
200: image processing unit
210: region of interest setting unit
220: boundary line detection unit
230: 3D information measuring unit
300: object tracking unit
310: 3D information prediction unit
320: correlation check unit
330: 3D information update unit
340: initial unit
400: control unit
500: drive unit
510: gate driver
520: data driver
530: backlight driver

Claims (8)

객체를 검출하는데 이용되는 영상을 획득하는 획득부;
상기 획득부에 의해 획득된 영상을 이용하여 객체를 검출하는 영상 처리부; 및
객체의 움직임을 나타내는 동역학 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 객체의 3차원 정보에 따라 보상하여 상기 객체를 추적하는 객체 추적부를 포함하여 구성되며,
상기 획득부는,
전방 영상을 획득하는 전방 영상 획득부;
전방에 대한 깊이 맵을 획득하는 깊이 맵 획득부;
미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로의 3차원 정보를 포함하는 도로 노면의 구조에 관한 도로 프로파일을 획득하는 도로 프로파일 획득부를 포함하고,
상기 영상 처리부는,
전방 영상에서 객체의 위치를 검출하는 관심 영역 설정부;
상기 관심 영역 설정부에 의해 설정된 관심 영역 내에서 깊이 맵과 전방 영상의 변화도를 이용하여 객체와 도로 사이의 경계를 검출하는 경계선 검출부;
상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 매핑된 도로의 3차원 정보를 기초로 상기 객체의 3차원 정보를 측정하는 3차원 정보 측정부를 포함하며,
상기 3차원 정보 측정부는 전방 영상으로부터 확인된 객체의 정보를 이용하여, 객체와 도로의 경계로부터 객체의 높이를 결정하는 객체 추적 장치.
An acquisition unit that acquires an image used to detect an object;
An image processing unit that detects an object using the image acquired by the acquisition unit; And
The object is tracked by predicting 3D information of the object in the next frame using a dynamics model representing the motion of the object, and compensating the predicted 3D information according to the 3D information of the object measured in the next frame It is configured to include an object tracking unit,
The acquisition unit,
A front image acquisition unit for obtaining a front image;
A depth map acquisition unit that acquires a depth map for the front side;
A road profile acquisition unit that acquires a road profile about a structure of a road surface including three-dimensional information of the road from at least one of a front image and a depth map according to a predetermined frame rate,
The image processing unit,
A region of interest setting unit that detects a position of an object in the front image;
A boundary line detector configured to detect a boundary between an object and a road using a depth map and a gradient of a front image within the region of interest set by the region of interest setting unit;
And a 3D information measuring unit configured to measure 3D information of the object based on 3D information of the mapped road every frame by mapping the road profile to the detected boundary,
The 3D information measuring unit determines the height of the object from the boundary between the object and the road by using information on the object identified from the front image.
삭제delete 제 1 항에 있어서,
상기 영상 처리부는,
상기 도로 프로파일이 매핑된 경계의 깊이 정보를 이용하여 상기 객체의 3차원 위치 및 상기 객체의 크기를 포함하는 상기 3차원 정보를 측정하는 객체 추적 장치.
The method of claim 1,
The image processing unit,
An object tracking device that measures the 3D information including the 3D position of the object and the size of the object using depth information of the boundary to which the road profile is mapped.
제 1 항에 있어서,
상기 객체 추적부는,
상기 측정된 객체의 3차원 정보에 상기 미리 정해진 속도 모델을 적용하여 상기 다음 프레임에서의 상기 객체의 3차원 정보를 예측하는 3차원 정보 예측부;
상기 예측된 3차원 정보와 상기 다음 프레임에서 측정된 복수의 3차원 정보의 연관도를 확인하고, 상기 연관도가 가장 높은 상기 측정된 3차원 정보를 상기 객체에 할당하는 연관도 확인부; 및
상기 객체에 할당된 상기 3차원 정보에 따라 상기 예측된 3차원 정보를 보상하는 3차원 정보 갱신부; 를 포함하는 객체 추적 장치.
The method of claim 1,
The object tracking unit,
A 3D information predictor configured to predict 3D information of the object in the next frame by applying the predetermined velocity model to the measured 3D information of the object;
A correlation checking unit that checks a degree of association between the predicted 3D information and a plurality of 3D information measured in the next frame, and allocates the measured 3D information with the highest correlation to the object; And
A 3D information update unit for compensating the predicted 3D information according to the 3D information allocated to the object; Object tracking device comprising a.
전방 영상 획득부에 의해 전방 영상을 획득하는 단계;
깊이 맵 획득부에 의해 전방에 대한 깊이 맵을 획득하는 단계;
도로 프로파일 획득부에 의해 미리 정해진 프레임 레이트에 따라 전방 영상, 및 깊이 맵 중 적어도 하나로부터 도로의 3차원 정보를 포함하는 도로 노면의 구조에 관한 도로 프로파일을 획득하는 단계;
관심 영역 설정부에 의해 전방 영상에서 객체의 위치를 검출하는 단계;
경계선 검출부에 의해 상기 관심 영역 설정부에 의해 설정된 관심 영역 내에서 깊이 맵과 전방 영상의 변화도를 이용하여 객체와 도로 사이의 경계를 검출하는 단계;
3차원 정보 측정부에 의해 상기 검출된 경계에 상기 도로 프로파일을 매핑하여 매 프레임마다 매핑된 도로의 3차원 정보를 기초로 상기 객체의 3차원 정보를 측정하는 단계;
객체 추적부에 의해 객체의 움직임을 나타내는 동역학 모델을 이용하여 다음 프레임에서의 상기 객체의 3차원 정보를 예측하고, 상기 예측된 3차원 정보를 상기 다음 프레임에서 측정된 객체의 3차원 정보에 따라 보상하여 상기 객체를 추적하는 단계를 수행하며,
상기 3차원 정보 측정부는 전방 영상으로부터 확인된 객체의 정보를 이용하여, 객체와 도로의 경계로부터 객체의 높이를 결정하는 단계를 포함하는 객체 추적 방법.
Obtaining a front image by a front image acquisition unit;
Obtaining a depth map for the front side by the depth map acquisition unit;
Acquiring a road profile about a structure of a road surface including 3D information of the road from at least one of a front image and a depth map according to a frame rate predetermined by the road profile obtaining unit;
Detecting the position of the object in the front image by the region of interest setting unit;
Detecting a boundary between an object and a road by using a depth map and a gradient of a front image within the region of interest set by the region of interest setting unit by a boundary line detection unit;
Mapping the road profile to the detected boundary by a 3D information measuring unit and measuring 3D information of the object based on 3D information of the mapped road every frame;
The object tracking unit predicts the 3D information of the object in the next frame using a dynamic model representing the movement of the object, and compensates the predicted 3D information according to the 3D information of the object measured in the next frame. To perform the step of tracking the object,
And determining the height of the object from the boundary between the object and the road by using the information on the object identified from the front image by the 3D information measuring unit.
삭제delete 제 5 항에 있어서,
상기 객체의 3차원 정보를 측정하는 단계는,
상기 도로 프로파일이 매핑된 경계의 깊이 정보를 이용하여 상기 객체의 3차원 위치 및 상기 객체의 크기를 포함하는 상기 3차원 정보를 측정하는 객체 추적 방법.
The method of claim 5,
Measuring the three-dimensional information of the object,
An object tracking method for measuring the 3D information including the 3D position of the object and the size of the object by using depth information of a boundary to which the road profile is mapped.
제 5 항에 있어서,
상기 객체를 추적하는 단계는,
상기 측정된 객체의 3차원 정보에 상기 미리 정해진 속도 모델을 적용하여 상기 다음 프레임에서의 상기 객체의 3차원 정보를 예측하는 단계;
상기 예측된 3차원 정보와 상기 다음 프레임에서 측정된 복수의 3차원 정보의 연관도를 확인하고, 상기 연관도가 가장 높은 상기 측정된 3차원 정보를 상기 객체에 할당하는 단계; 및
상기 객체에 할당된 상기 3차원 정보에 따라 상기 예측된 3차원 정보를 보상하는 단계; 를 포함하는 객체 추적 방법.
The method of claim 5,
The step of tracking the object,
Predicting 3D information of the object in the next frame by applying the predetermined velocity model to the measured 3D information of the object;
Checking a degree of association between the predicted 3D information and a plurality of 3D information measured in the next frame, and allocating the measured 3D information with the highest association degree to the object; And
Compensating the predicted 3D information according to the 3D information allocated to the object; Object tracking method comprising a.
KR1020190127751A 2019-10-15 2019-10-15 Object tracking apparatus and object tracking method KR102189502B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190127751A KR102189502B1 (en) 2019-10-15 2019-10-15 Object tracking apparatus and object tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190127751A KR102189502B1 (en) 2019-10-15 2019-10-15 Object tracking apparatus and object tracking method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170152561A Division KR20190062635A (en) 2017-11-15 2017-11-15 Object tracking apparatus and object tracking method

Publications (2)

Publication Number Publication Date
KR20190122610A KR20190122610A (en) 2019-10-30
KR102189502B1 true KR102189502B1 (en) 2020-12-11

Family

ID=68463120

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190127751A KR102189502B1 (en) 2019-10-15 2019-10-15 Object tracking apparatus and object tracking method

Country Status (1)

Country Link
KR (1) KR102189502B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240097299A (en) 2022-12-20 2024-06-27 주식회사 리얼타임테크 System for tracking movements of an object based on AI

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101551026B1 (en) * 2013-12-24 2015-09-07 현대자동차주식회사 Method of tracking vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240097299A (en) 2022-12-20 2024-06-27 주식회사 리얼타임테크 System for tracking movements of an object based on AI

Also Published As

Publication number Publication date
KR20190122610A (en) 2019-10-30

Similar Documents

Publication Publication Date Title
CN107272021B (en) Object detection using radar and visually defined image detection areas
US10657670B2 (en) Information processing apparatus
CN107798699B (en) Depth map estimation with stereo images
CN112665556B (en) Generating a three-dimensional map of a scene using passive and active measurements
CN102317954B (en) Method for detecting objects
US9074906B2 (en) Road shape recognition device
JP6440411B2 (en) Object detection device
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP5353455B2 (en) Perimeter monitoring device
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
EP3282389B1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
KR20190059894A (en) Detecting objects from camera images
JP6263453B2 (en) Momentum estimation device and program
CN112937582A (en) System, non-transitory computer readable medium, and method for improving lane change detection
KR101491305B1 (en) Apparatus and method for detecting obstacle
KR100962329B1 (en) Road area detection method and system from a stereo camera image and the recording media storing the program performing the said method
KR102189502B1 (en) Object tracking apparatus and object tracking method
US11790555B2 (en) System and method for fusion recognition using active stick filter
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
KR20190062635A (en) Object tracking apparatus and object tracking method
CN116524454A (en) Object tracking device, object tracking method, and storage medium
JP2017016172A (en) Travel lane boundary estimation apparatus and travel lane boundary estimation method
JP7485580B2 (en) Distance calculation device and distance calculation method
JPWO2018212286A1 (en) Measuring device, measuring method and program
EP4379659A1 (en) Enhanced tracking and speed detection

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant