[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20180093418A - Apparatus and method for detecting pedestrian - Google Patents

Apparatus and method for detecting pedestrian Download PDF

Info

Publication number
KR20180093418A
KR20180093418A KR1020170019454A KR20170019454A KR20180093418A KR 20180093418 A KR20180093418 A KR 20180093418A KR 1020170019454 A KR1020170019454 A KR 1020170019454A KR 20170019454 A KR20170019454 A KR 20170019454A KR 20180093418 A KR20180093418 A KR 20180093418A
Authority
KR
South Korea
Prior art keywords
camera
pedestrian
image
time zone
night
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020170019454A
Other languages
Korean (ko)
Inventor
김성호
손민석
Original Assignee
영남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020170019454A priority Critical patent/KR20180093418A/en
Publication of KR20180093418A publication Critical patent/KR20180093418A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • H04N5/335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

보행자 검출 장치 및 방법이 제공된다. 본 발명의 일 실시예에 따른 보행자 검출 장치는, 제1 카메라를 통해 대상 영역을 촬영함으로써 획득되는 제1 영상 및 제2 카메라를 통해 상기 대상 영역을 촬영함으로써 획득되는 제2 영상을 정합하는 정합부; 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는 분류부; 및 분류된 상기 시간대에 따라 상기 제1 카메라 및 상기 제2 카메라에 서로 다른 가중치를 각각 부여하고, 상기 가중치를 이용하여 상기 제1 영상 및 제2 영상에서 보행자를 검출하는 검출부를 포함한다.An apparatus and a method for detecting a pedestrian are provided. A pedestrian detecting apparatus according to an embodiment of the present invention includes a first image obtained by photographing an object area through a first camera and a second image obtained by photographing the object area through a second camera, ; A classifying unit for classifying a time zone in which the target area is photographed as a day or a night; And a detector for assigning different weights to the first camera and the second camera according to the classified time zone, and detecting the pedestrian from the first image and the second image using the weight.

Description

보행자 검출 장치 및 방법{APPARATUS AND METHOD FOR DETECTING PEDESTRIAN}TECHNICAL FIELD [0001] The present invention relates to a pedestrian detection apparatus,

본 발명의 실시예들은 영상에서 보행자를 검출하는 기술과 관련된다.Embodiments of the present invention relate to techniques for detecting pedestrians in an image.

최근, 자율 주행이 가능한 지능형 자동차에 대한 기술개발 및 연구가 증가하고 있으며, 특히 자율 주행의 핵심 기술인 첨단 운전자 지원 시스템(ADAS : Advanced Driving Assistance System) 중 하나인 자동 긴급 제동 시스템(AEBS : Automatic Emergency Braking System)에 대한 관심이 증가하고 있다. Recently, the development and research of intelligent automobiles capable of autonomous driving have been increasing. Especially, automatic emergency braking (AEBS), which is one of Advanced Driving Assistance System (ADAS) System) has been growing.

AEBS는 자동차 전방의 충돌 사고를 예방하기 위한 기술로서, 다양한 환경에서 차량 전방의 보행자를 정확하고 빠르게 검출하는 것이 그 목적이다. 보행자를 정확하게 검출하기 위해서는 영상에서 보행자와 환경 간 대조적인 특징들을 추출하여 수집하여야 한다. 일반적으로, 밝은 주간에는 가시광선을 볼 수 있는 CCD(Charge-Coupled Device) 카메라를 사용하고 어두운 야간에는 보행자로부터 방사하는 적외선을 볼 수 있는 적외선(IR : Infrared Ray) 카메라를 사용하여 보행자를 검출하게 된다. 그러나, 주/야간 환경이 변화하므로 단일 카메라만을 사용하여 보행자를 정확히 검출하기에는 그 한계가 있다. 즉, 주간 환경에서는 햇빛에 의해 주변 환경과 보행자의 온도 분포가 명확히 구별되지 않으므로 열 영상으로 보행자를 검출하기 어려우며, 야간 환경에서는 보행자와 주변 배경이 명확히 구별되지 않으므로 가시 영상으로 보행자를 검출하기 어려운 점이 있다.AEBS is a technology to prevent collision in the front of the car. It aims at detecting pedestrians in front of the vehicle accurately and quickly in various environments. In order to accurately detect the pedestrian, it is necessary to extract and collect characteristics of the contrast between the pedestrian and the environment in the image. Generally, a CCD (Charge-Coupled Device) camera capable of viewing visible light in a bright day and an infrared (IR) camera capable of viewing infrared rays emitted from a pedestrian in a dark nighttime are used to detect a pedestrian do. However, there is a limitation in accurately detecting the pedestrian using only a single camera because the day / night environment changes. In other words, in the daytime environment, it is difficult to detect the pedestrian by thermal image because the temperature distribution of the surrounding environment and the pedestrian is not clearly discriminated by the sunlight, and it is difficult to detect the pedestrian by the visible image because the background is not clearly distinguished from the pedestrian in the nighttime environment have.

한국등록특허공보 제10-1455748호(2014.10.22)Korean Patent Registration No. 10-1455748 (Apr. 22, 2014)

본 발명의 실시예들은 서로 다른 종류의 카메라로부터 촬영된 영상을 융합하여 외부 환경 요소를 고려한 보행자 검출 기법을 제공하기 위한 것이다.Embodiments of the present invention are to provide a pedestrian detection technique considering external environmental factors by fusing images photographed from different types of cameras.

본 발명의 예시적인 실시예에 따르면, 제1 카메라를 통해 대상 영역을 촬영함으로써 획득되는 제1 영상 및 제2 카메라를 통해 상기 대상 영역을 촬영함으로써 획득되는 제2 영상을 정합하는 정합부; 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는 분류부; 및 분류된 상기 시간대에 따라 상기 제1 카메라 및 상기 제2 카메라에 서로 다른 가중치를 각각 부여하고, 상기 가중치를 이용하여 상기 제1 영상 및 제2 영상에서 보행자를 검출하는 검출부를 포함하는, 보행자 검출 장치가 제공된다.According to an exemplary embodiment of the present invention, there is provided an image processing apparatus comprising: a matching unit for matching a first image obtained by photographing an object area through a first camera and a second image obtained by photographing the object area through a second camera; A classifying unit for classifying a time zone in which the target area is photographed as a day or a night; And a detection unit that gives different weights to the first camera and the second camera, respectively, according to the classified time zone, and detects a pedestrian from the first image and the second image using the weight, Device is provided.

상기 제1 카메라는, CCD(Charge-Coupled Device) 카메라이며, 상기 제2 카메라는, 적외선(IR : Infrared Ray) 카메라일 수 있다.The first camera may be a CCD (Charge-Coupled Device) camera, and the second camera may be an infrared (IR) camera.

상기 분류부는, 상기 제1 영상에 포함된 픽셀의 밝기값을 이용하여 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류할 수 있다.The classifying unit may classify the time zone in which the target region was photographed as day or night using the brightness value of the pixels included in the first image.

상기 분류부는, 상기 제1 영상의 최상단으로부터 설정된 거리 이내에 위치하는 픽셀들의 평균 밝기값이 임계치를 초과하는 경우 상기 시간대를 주간으로 분류하고, 상기 평균 밝기값이 상기 임계치 미만인 경우 상기 시간대를 야간으로 분류할 수 있다.Wherein the classifying unit classifies the time zone as a day when the average brightness value of pixels positioned within a predetermined distance from the uppermost end of the first image exceeds a threshold value and classifies the time zone as night when the average brightness value is less than the threshold value can do.

상기 검출부는, 분류된 상기 시간대가 주간인 경우 상기 제2 카메라보다 상기 제1 카메라에 더 높은 가중치를 부여하고, 분류된 상기 시간대가 야간인 경우 상기 제1 카메라보다 상기 제2 카메라에 더 높은 가중치를 부여할 수 있다.Wherein the detection unit assigns a higher weight value to the first camera than the second camera when the classified time period is a week, and when the classified time zone is at night, assigns a higher weight value to the second camera Can be given.

상기 검출부는, 상기 제1 영상 및 제2 영상으로부터 보행자 후보를 각각 검출하고, 검출된 상기 보행자 후보에 대한 보행자 검출 점수를 추출하며, 상기 보행자 검출 점수와 상기 가중치를 기반으로 댐스터-쉐퍼 이론(DST : Dempster-Shafer Theory)을 적용하여 상기 보행자를 검출할 수 있다.Wherein the detection unit detects pedestrian candidates from the first image and the second image, extracts a pedestrian detection score for the detected pedestrian candidate, and calculates a damper-Schaefer theory based on the pedestrian detection score and the weight DST: Dempster-Shafer Theory) can be applied to detect the pedestrian.

상기 검출부는, 상기 DST의 적용시 상기 보행자 검출 점수에 분류된 상기 시간대에 따른 상기 가중치를 부여하여 최종 보행자 검출 점수를 획득하고, 상기 최종 보행자 검출 점수와 설정값을 비교하여 상기 보행자를 검출할 수 있다.Wherein the detection unit obtains a final pedestrian detection score by applying the weight according to the time zone classified into the pedestrian detection score when the DST is applied and detects the pedestrian by comparing the final pedestrian detection score and the set value have.

본 발명의 다른 예시적인 실시예에 따르면, 상술한 보행자 검출 장치가 구비되는, 차량이 제공된다.According to another exemplary embodiment of the present invention, a vehicle is provided, which is provided with the above-described pedestrian detecting device.

본 발명의 다른 예시적인 실시예에 따르면, 정합부에서, 제1 카메라를 통해 대상 영역을 촬영함으로써 획득되는 제1 영상 및 제2 카메라를 통해 상기 대상 영역을 촬영함으로써 획득되는 제2 영상을 정합하는 단계; 분류부에서, 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는 단계; 검출부에서, 분류된 상기 시간대에 따라 상기 제1 카메라 및 상기 제2 카메라에 서로 다른 가중치를 각각 부여하는 단계; 및 상기 검출부에서, 상기 가중치를 이용하여 상기 제1 영상 및 제2 영상에서 보행자를 검출하는 단계를 포함하는, 보행자 검출 방법이 제공된다.According to another exemplary embodiment of the present invention, in the matching unit, a first image obtained by photographing an object area through a first camera and a second image obtained by photographing the object area through a second camera are registered step; Classifying the time zone in which the object area is photographed into day or night, in the classifying unit; Assigning different weights to the first camera and the second camera, respectively, according to the classified time zone; And detecting the pedestrian in the first image and the second image using the weight, in the detecting unit.

상기 제1 카메라는, CCD 카메라이며, 상기 제2 카메라는, 적외선 카메라일 수 있다.The first camera may be a CCD camera, and the second camera may be an infrared camera.

상기 시간대를 주간 또는 야간으로 분류하는 단계는, 상기 제1 영상에 포함된 픽셀의 밝기값을 이용하여 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류할 수 있다.The step of classifying the time period into day or night may classify the time zone in which the object area was photographed by day or night using the brightness value of the pixels included in the first image.

상기 시간대를 주간 또는 야간으로 분류하는 단계는, 상기 제1 영상의 최상단으로부터 설정된 거리 이내에 위치하는 픽셀들의 평균 밝기값이 임계치를 초과하는 경우 상기 시간대를 주간으로 분류하고, 상기 평균 밝기값이 상기 임계치 미만인 경우 상기 시간대를 야간으로 분류할 수 있다.Classifying the time zone into day or night may include classifying the time zone as a day when the average brightness value of pixels located within a predetermined distance from the uppermost end of the first image exceeds a threshold value, , The time zone can be classified as night.

상기 가중치를 부여하는 단계는, 분류된 상기 시간대가 주간인 경우 상기 제2 카메라보다 상기 제1 카메라에 더 높은 가중치를 부여하고, 분류된 상기 시간대가 야간인 경우 상기 제1 카메라보다 상기 제2 카메라에 더 높은 가중치를 부여할 수 있다.Wherein the weighting step assigns a higher weight value to the first camera than the second camera when the classified time period is a week, and when the classified time period is at night, Can be given a higher weight.

상기 보행자를 검출하는 단계는, 상기 제1 영상 및 제2 영상으로부터 보행자 후보를 각각 검출하고, 검출된 상기 보행자 후보에 대한 보행자 검출 점수를 추출하는 단계; 및 상기 보행자 검출 점수와 상기 가중치를 기반으로 댐스터-쉐퍼 이론을 적용하여 상기 보행자를 검출하는 단계를 포함할 수 있다.The step of detecting the pedestrian may include detecting pedestrian candidates from the first image and the second image, respectively, and extracting a pedestrian detection score for the detected pedestrian candidate; And detecting the pedestrian by applying the damper-Schaefer theory based on the pedestrian detection score and the weight value.

상기 DST를 적용하여 상기 보행자를 검출하는 단계는, 상기 DST의 적용시 상기 보행자 검출 점수에 분류된 상기 시간대에 따른 상기 가중치를 부여하여 최종 보행자 검출 점수를 획득하고, 상기 최종 보행자 검출 점수와 설정값을 비교하여 상기 보행자를 검출할 수 있다.Wherein the step of detecting the pedestrian by applying the DST includes: obtaining a final pedestrian detection score by applying the weight according to the time zone classified into the pedestrian detection score when applying the DST, So that the pedestrian can be detected.

본 발명의 다른 예시적인 실시예에 따르면, 하드웨어와 결합되어 정합부에서, 제1 카메라를 통해 대상 영역을 촬영함으로써 획득되는 제1 영상 및 제2 카메라를 통해 상기 대상 영역을 촬영함으로써 획득되는 제2 영상을 정합하는 단계; 분류부에서, 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는 단계; 검출부에서, 분류된 상기 시간대에 따라 상기 제1 카메라 및 상기 제2 카메라에 서로 다른 가중치를 각각 부여하는 단계; 및 상기 검출부에서, 상기 가중치를 이용하여 상기 제1 영상 및 제2 영상에서 보행자를 검출하는 단계를 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램이 제공된다.According to another exemplary embodiment of the present invention, there is provided an image processing apparatus, which is combined with hardware to generate a first image obtained by photographing an object area through a first camera and a second image obtained by photographing the object area through a second camera, Matching the images; Classifying the time zone in which the object area is photographed into day or night, in the classifying unit; Assigning different weights to the first camera and the second camera, respectively, according to the classified time zone; And a computer program stored in a computer-readable recording medium for causing the detecting unit to detect a pedestrian in the first image and the second image using the weight.

본 발명의 실시예들에 따르면, 서로 다른 종류의 카메라로부터 촬영된 영상에서 DST를 적용하여 보행자를 정확하게 검출할 수 있다. 특히, 본 발명의 실시예들에 따르면, 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하고 DST의 적용시 분류된 시간대에 따라 각 카메라에 서로 다른 가중치를 각각 부여함으로써, 외부 환경 요소를 고려하여 보행자를 보다 정확하게 검출할 수 있다.According to embodiments of the present invention, a pedestrian can be accurately detected by applying DST to an image photographed from cameras of different kinds. Particularly, according to the embodiments of the present invention, when the time zone in which the target area is photographed is classified into day or night, and different weights are assigned to each camera according to the time zone classified when the DST is applied, The pedestrian can be detected more accurately.

도 1은 본 발명의 일 실시예에 따른 보행자 검출 장치의 상세 구성을 나타낸 블록도
도 2는 본 발명의 일 실시예에 따른 정합부에서 제1 영상 및 제2 영상을 정합하는 과정을 설명하기 위한 도면
도 3은 본 발명의 일 실시예에 따른 분류부에서 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는 과정을 설명하기 위한 도면
도 4는 본 발명의 일 실시예에 따른 DST를 설명하기 위한 도면
도 5는 본 발명의 일 실시예에 따른 검출부에서 DST를 적용하여 보행자를 검출하는 과정을 나타낸 예시
도 6은 본 발명의 일 실시예에 따른 검출부에서 DST를 적용하여 보행자를 검출하는 과정을 나타낸 예시
도 7은 본 발명의 일 실시예에 따른 검출부에서 DST를 적용하여 보행자를 검출하는 과정을 나타낸 예시
도 8은 본 발명의 일 실시예에 따른 보행자 검출 결과를 나타낸 그래프
도 9는 본 발명의 일 실시예에 따른 보행자 검출 장치가 구비된 차량의 예시
도 10은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
도 11은 본 발명의 일 실시예에 따른 보행자 검출 방법을 설명하기 위한 흐름도
1 is a block diagram showing a detailed configuration of a pedestrian detecting apparatus according to an embodiment of the present invention;
2 is a view for explaining a process of matching a first image and a second image in a matching unit according to an embodiment of the present invention;
FIG. 3 is a view for explaining a process of classifying a time zone in which a target region is photographed by a classifying unit according to an embodiment of the present invention into a day or a night
4 is a view for explaining a DST according to an embodiment of the present invention;
5 is a diagram illustrating a process of detecting a pedestrian by applying DST in a detection unit according to an embodiment of the present invention.
6 is a diagram illustrating a process of detecting a pedestrian by applying DST in a detection unit according to an embodiment of the present invention.
7 is a diagram illustrating a process of detecting a pedestrian by applying DST in a detection unit according to an embodiment of the present invention.
8 is a graph showing the results of pedestrian detection according to an embodiment of the present invention.
9 is a view showing an example of a vehicle equipped with a pedestrian detecting device according to an embodiment of the present invention
10 is a block diagram illustrating and illustrating a computing environment including a computing device suitable for use in the exemplary embodiments.
11 is a flowchart for explaining a pedestrian detection method according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The following detailed description is provided to provide a comprehensive understanding of the methods, apparatus, and / or systems described herein. However, this is merely an example and the present invention is not limited thereto.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. The following terms are defined in consideration of the functions of the present invention, and may be changed according to the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification. The terms used in the detailed description are intended only to describe embodiments of the invention and should in no way be limiting. Unless specifically stated otherwise, the singular form of a term includes plural forms of meaning. In this description, the expressions "comprising" or "comprising" are intended to indicate certain features, numbers, steps, operations, elements, parts or combinations thereof, Should not be construed to preclude the presence or possibility of other features, numbers, steps, operations, elements, portions or combinations thereof.

도 1은 본 발명의 일 실시예에 따른 보행자 검출 장치(100)의 상세 구성을 나타낸 블록도이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 보행자 검출 장치(100)는 영상 획득부(102), 정합부(104), 분류부(106) 및 검출부(108)를 포함한다.1 is a block diagram showing a detailed configuration of a pedestrian detecting apparatus 100 according to an embodiment of the present invention. 1, a pedestrian detecting apparatus 100 according to an embodiment of the present invention includes an image obtaining unit 102, a matching unit 104, a classifying unit 106, and a detecting unit 108. As shown in FIG.

영상 획득부(102)는 대상 영역에 대한 제1 영상 및 제2 영상을 획득한다. 여기서, 대상 영역은 촬영 대상이 되는 영역으로서, 예를 들어 차량의 전방 영역, 도로 상의 감시하고자 하는 영역 등이 될 수 있다. 영상 획득부(102)는 제1 카메라(미도시)를 통해 대상 영역을 촬영함으로써 제1 영상을 획득하고, 제2 카메라(미도시)를 통해 상기 대상 영역을 촬영함으로써 제2 영상을 획득할 수 있다. 이때, 제1 카메라는 주간 환경(또는 낮 시간대)에 적합한 카메라로서, 예를 들어 CCD(Charge-Coupled Device) 카메라일 수 있다. 또한, 제2 카메라는 야간 환경(또는 밤 시간대)에 적합한 카메라로서, 예를 들어 적외선(IR : Infrared Ray) 카메라일 수 있다. CCD 카메라의 경우 가시광선을 볼 수 있어 주간 환경에서 보행자를 검출하는 데 효과적이며, 적외선 카메라의 경우 적외선을 볼 수 있어 야간 환경에서 보행자를 검출하는 데 효과적이다. 다만, 제1 카메라 및 제2 카메라는 주간 및 야간 환경에서 각각 적합한 카메라이기만 하면 족하며, 제1 카메라 및 제2 카메라의 종류가 이에 한정되는 것은 아니다. 한편, 상기 제1 카메라 및 제2 카메라는 예를 들어, 슬라이드 바 형식의 틀(미도시)에 상호 밀착되어 고정될 수 있다. 이 경우, 제1 카메라 및 제2 카메라의 렌즈 간 간격이 최소화되어 제1 카메라 및 제2 카메라에서 거의 동일한 영상이 획득될 수 있다. The image obtaining unit 102 obtains the first image and the second image with respect to the target area. Here, the target area may be an area to be photographed, for example, a front area of the vehicle, an area to be monitored on the road, or the like. The image acquiring unit 102 acquires a first image by photographing an object area through a first camera (not shown), and acquires a second image by photographing the object area through a second camera (not shown) have. In this case, the first camera may be a CCD (Charge-Coupled Device) camera, for example, as a camera suitable for daytime environment (or daylight time). In addition, the second camera may be an infrared (IR) camera, for example, as a camera suitable for a night environment (or night time zone). In case of CCD camera, it is effective to detect the pedestrian in the daytime environment because it can see the visible light. Infrared camera is effective to detect the pedestrian in the nighttime environment because infrared can be seen. However, the first camera and the second camera are suited only to cameras in daytime and nighttime environments, respectively, and the types of the first camera and the second camera are not limited thereto. Meanwhile, the first camera and the second camera may be fixed in close contact with each other, for example, in a slide bar type frame (not shown). In this case, the interval between the first camera and the second camera is minimized, so that substantially the same image can be obtained from the first camera and the second camera.

정합부(104)는 제1 카메라에서 획득된 제1 영상 및 제2 카메라에서 획득된 제2 영상을 정합한다. 제1 카메라 및 제2 카메라가 동일 시간대에 동일 영역을 촬영하더라도 카메라 렌즈의 특성 차이(또는 해상도 차이)로 인해 두 영상의 동일 타겟 간 좌표 오차가 발생될 수 있다. 이에 따라, 정합부(104)는 2차원의 제1 영상 및 제2 영상의 좌표를 조정하여 제1 영상 내 피사체와 제2 영상 내 상기 피사체를 상호 매칭시키는 영상 매칭 작업을 수행할 수 있다. The matching unit 104 matches the first image acquired by the first camera and the second image acquired by the second camera. Even if the first camera and the second camera photograph the same area at the same time, a coordinate error between the same target of two images may be generated due to the difference in characteristics (or difference in resolution) of the camera lens. Accordingly, the matching unit 104 may perform an image matching operation for matching the subject in the first image and the subject in the second image by adjusting the coordinates of the two-dimensional first image and the second image.

도 2는 본 발명의 일 실시예에 따른 정합부(104)에서 제1 영상 및 제2 영상을 정합하는 과정을 설명하기 위한 도면이다. 도 2의 (a)는 제1 카메라와 제2 카메라간 렌즈의 특성 차이로 인한 영상 내 타겟 간 좌표 오차가 발생된 현상을 나타낸 도면이며, 도 2의 (b)는 호모그래피(homography)를 통해 영상 내 좌표를 조정한 결과를 나타낸 도면이다.2 is a diagram illustrating a process of matching a first image and a second image in the matching unit 104 according to an embodiment of the present invention. FIG. 2 (a) is a view showing a phenomenon in which an intra-target coordinate error occurs due to a difference in characteristics between the first camera and the second camera, and FIG. 2 (b) And the coordinates in the image are adjusted.

일 예시로서, 정합부(104)는 제1 영상 및 제2 영상 간의 관계를 호모그래피로 모델링하여 투영 변환(projective transformation)을 통해 제1 영상 또는 제2 영상 내 좌표를 조정할 수 있다. 다만, 정합부(104)가 제1 영상 및 제2 영상을 정합하는 방법이 이에 한정되는 것은 아니며, 정합부(104)는 상호정보량(mutual information), 상호 상관관계(cross-correlation) 등에 기반한 다양한 영상 정합 기법을 이용하여 제1 영상 및 제2 영상을 정합할 수 있다.As an example, the matching unit 104 may model the relationship between the first image and the second image by homography, and adjust the coordinates in the first image or the second image through projective transformation. However, the method of matching the first image and the second image by the matching unit 104 is not limited thereto, and the matching unit 104 may be configured to perform various methods based on mutual information, cross-correlation, The first image and the second image can be matched using the image matching technique.

다시 도 1로 돌아오면, 분류부(106)는 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류한다. 여기서, 주간은 낮 시간대로서, 예를 들어 해가 뜬 후 해가 지기 전까지의 시간대(예를 들어 오전 6시 ~ 오후 7시)일 수 있다. 또한, 야간은 밤 시간대로서, 예를 들어 해가 진 후 해가 뜨기 전까지의 시간대(예를 들어 오후 7시~ 오전 6시)일 수 있다. Returning back to Fig. 1, the classifying unit 106 classifies the time zone in which the target area was photographed as day or night. Here, the day may be a day time zone, for example, a time zone (for example, from 6:00 am to 7:00 pm) before sunrise and sunset. In addition, the nighttime may be a night time zone, for example, a time zone from sunrise until the sunrise (for example, from 7:00 pm to 6:00 am).

도 3은 본 발명의 일 실시예에 따른 분류부(106)에서 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는 과정을 설명하기 위한 도면이다. 도 3의 (a) 및 (b) 모두 제1 영상을 나타낸다.FIG. 3 is a view for explaining a process of classifying a time zone in which a target region is photographed by the classifying unit 106 according to an embodiment of the present invention, as a day or a night. 3 (a) and 3 (b) show a first image.

일 예시로서, 분류부(106)는 제1 영상을 이용하여 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류할 수 있다. 이때, 분류부(106)는 상기 대상 영역이 촬영된 시간대를 분류하는 과정에서 제1 영상에 포함된 픽셀의 밝기값을 이용할 수 있다. 구체적으로, 분류부(106)는 제1 영상의 최상단으로부터 설정된 거리 이내에 위치하는 픽셀들(예를 들어, 도 3에 표시된 50개의 픽셀들)의 평균 밝기값을 계산하고, 상기 평균 밝기값이 설정된 임계치를 초과하는 경우 상기 대상 영역이 촬영된 시간대를 주간으로 분류하고 상기 평균 밝기값이 상기 임계치 미만인 경우 상기 대상 영역이 촬영된 시간대를 야간으로 분류할 수 있다. 일반적으로, 영상의 최상단에는 주/야간 환경에 따라 픽셀의 밝기값 차이가 뚜렷하게 나타나는 하늘이 포함될 가능성이 높으므로, 분류부(106)는 제1 영상의 최상단으로부터 설정된 거리 이내에 위치하는 픽셀들의 평균 밝기값을 이용하여 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류할 수 있다. 다만, 분류부(106)가 상기 시간대를 분류하는 방법이 이에 한정되는 것은 아니다. 예를 들어, 분류부(106)는 제1 영상에 포함된 전체 픽셀들의 평균 밝기값을 이용하여 상기 시간대를 주간 또는 야간으로 분류할 수도 있다.As an example, the classifying unit 106 may classify the time zone in which the target area was photographed as a day or a night using the first image. At this time, the classifying unit 106 may use the brightness value of the pixels included in the first image in the process of classifying the time zone in which the target area is photographed. More specifically, the classifying unit 106 calculates an average brightness value of pixels (for example, 50 pixels shown in FIG. 3) positioned within a predetermined distance from the uppermost end of the first image, When the threshold value is exceeded, the time zone in which the target area is photographed is classified into day, and when the average brightness value is less than the threshold value, the time zone in which the target area is photographed can be classified as night. In general, the top of the image is highly likely to include the sky in which the difference in the brightness value of the pixel appears clearly according to the day / night environment. Therefore, the classifying unit 106 classifies the average brightness of the pixels positioned within the predetermined distance from the top of the first image Value can be used to classify the time zone in which the target area was photographed as day or night. However, the method for classifying the time zone by the classifying unit 106 is not limited thereto. For example, the classifying unit 106 may classify the time zone into day or night using an average brightness value of all the pixels included in the first image.

다시 도 1로 돌아오면, 검출부(108)는 분류된 시간대에 따라 제1 카메라 및 제2 카메라(또는 제1 영상 및 제2 영상)에 서로 다른 가중치를 부여하고, 상기 가중치를 이용하여 제1 영상 및 제2 영상에서 보행자를 검출한다. 1, the detection unit 108 assigns different weights to the first camera and the second camera (or the first image and the second image) according to the classified time zone, and uses the weight to generate the first image And a pedestrian is detected in the second image.

먼저, 검출부(108)는 분류된 시간대가 주간인 경우 제2 카메라보다 제1 카메라에 더 높은 가중치를 부여하고, 분류된 시간대가 야간인 경우 제1 카메라보다 제2 카메라에 더 높은 가중치를 부여할 수 있다. 일 예시로서, 검출부(108)는 분류된 시간대가 주간인 경우 제1 카메라 및 제2 카메라에 가중치 0.8과 0.2를 각각 부여하고, 분류된 시간대가 야간인 경우 제1 카메라 및 제2 카메라에 가중치 0.2와 0.8을 각각 부여할 수 있다.First, the detection unit 108 assigns a higher weight to the first camera than the second camera when the classified time period is a week, and gives a higher weight to the second camera than the first camera when the classified time period is at night . As an example, the detection unit 108 may assign weights 0.8 and 0.2 to the first camera and the second camera, respectively, if the classified time period is the week, and assign a weight value of 0.2 and 0.2 to the first camera and the second camera, And 0.8, respectively.

다음으로, 검출부(108)는 정합된 제1 영상 및 제2 영상으로부터 보행자 후보를 검출하고, 검출된 보행자 후보에 대한 보행자 검출 점수를 추출하며, 보행자 검출 점수와 상기 가중치를 기반으로 댐스터-쉐퍼 이론(DST : Dempster-Shafer Theory)을 적용하여 보행자를 검출할 수 있다. Next, the detection unit 108 detects a pedestrian candidate from the matched first and second images, extracts a pedestrian detection score for the detected pedestrian candidate, and calculates a pedestrian detection score based on the pedestrian detection score and the weight, (DST: Dempster-Shafer Theory) can be applied to detect pedestrians.

일 예시로서, 검출부(108)는 정합된 제1 영상 및 제2 영상에 포함된 피사체와 미리 저장된 패턴을 비교하는 방법으로 제1 영상 및 제2 영상에서 보행자 후보를 검출하고, 패턴의 일치 정도에 따라 검출된 보행자 후보에 대한 보행자 검출 점수를 추출할 수 있다. 상기 보행자 검출 점수는 검출된 보행자 후보가 실제 보행자에 해당할 확률을 수치화한 값으로서, 예를 들어 0 ~ 1 의 값을 가질 수 있다. 위 예시에서, 상기 보행자 검출 점수는 검출된 보행자 후보와 미리 저장된 패턴(즉, 보행자 패턴)과의 유사도가 높을수록 높아질 수 있다. 다만, 검출부(108)가 보행자 후보를 검출하고 보행자 검출 점수를 추출하는 방법이 이에 한정되는 것은 아니며, 검출부(108)는 다양한 영상 분석 기법을 이용하여 제1 영상 및 제2 영상에서 보행자 후보 및 상기 보행자 후보에 대한 보행자 검출 점수를 추출할 수 있다. In one example, the detecting unit 108 detects a pedestrian candidate in the first image and the second image by comparing the subject included in the matched first image and the second image with a pre-stored pattern, The pedestrian detection score for the detected pedestrian candidate can be extracted. The pedestrian detection score is a value obtained by digitizing the probability that the detected pedestrian candidate corresponds to an actual pedestrian, and may have a value of 0 to 1, for example. In the above example, the pedestrian detection score may be increased as the degree of similarity between the detected pedestrian candidate and a previously stored pattern (i.e., a pedestrian pattern) is higher. However, the method for detecting the pedestrian candidate and extracting the pedestrian detection score is not limited to this, and the detecting unit 108 may be configured to detect the pedestrian candidate and the pedestrian candidate from the first image and the second image using various image analysis techniques, The pedestrian detection score for the pedestrian candidate can be extracted.

이후, 검출부(108)는 보행자 검출 점수와 상기 가중치를 기반으로 DST를 적용하여 보행자를 검출할 수 있다. DST는 댐스터(Dempster)가 주장하여 쉐퍼(Shafer)가 발전시킨 이론으로서, 확신의 정도가 구간으로 표현되며 애매모호한 측정치에 대해서도 수치로 표현이 가능하다. 먼저, 도 4를 참조하여 일반적인 DST에 대해 상세히 살펴보기로 한다.Thereafter, the detection unit 108 can detect the pedestrian by applying DST based on the pedestrian detection score and the weight. DST is a theory developed by Shafer by Dempster, where the degree of certainty is expressed in terms of intervals and can also be expressed numerically in terms of ambiguous measurements. First, a general DST will be described in detail with reference to FIG.

도 4는 본 발명의 일 실시예에 따른 DST를 설명하기 위한 도면이다. DST에 따르면, 먼저 확률 이론과 같이 관심 대상에 대한 상호 배타적인 가설 집합이 설정된다. 상기 집합의 모든 부분 집합으로 이루어진 집합

Figure pat00001
을 멱집합(Power Set)이라 하고 Θ로 기재한다(수학식 1). 상기 멱집합의 각 원소는 하나의 명제에 대한 대답으로 해석되며 이를 분별 프레임(FOD : Frame of Discernment)라 칭한다.4 is a diagram for explaining a DST according to an embodiment of the present invention. According to DST, a set of mutually exclusive hypotheses about the object of interest is established, such as probability theory first. A set of all subsets of the set
Figure pat00001
Is called a power set and is described as? (Equation 1). Each element of the power set is interpreted as an answer to a single proposition, which is referred to as a frame of discernment (FOD).

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

여기서, 하나의 증거(evidence)는 상기 멱집합의 특정 원소에 대한 믿음의 정도에 영향을 미칠 수 있으며, 상기 믿음의 정도는 0에서 1 사이의 값으로 나타낼 수 있다. DST에서는 이와 같이 [0, 1]로 사상시키는 함수를 기본 확률 배정 함수(BPA : Basic Probability Assignment)라 하고 이를 m이라 표현한다. 상기 BPA는 아래 수학식 2와 같이 정의될 수 있다. 여기서, m 값이 0보다 큰 멱집합의 부분 집합을 관심 원소(Focal Element)라 한다.Here, one evidence may affect the degree of belief in a particular element of the power set, and the degree of belief may be expressed as a value between 0 and 1. In DST, a function mapped to [0, 1] is called a Basic Probability Assignment (BPA) and expressed as m. The BPA can be defined as: < EMI ID = 2.0 > Here, a subset of a power set with m greater than 0 is called a focal element.

[수학식 2]&Quot; (2) "

Figure pat00003
Figure pat00003

도 4를 참조하면, DST에서는 관심 원소에 대한 신뢰의 척도를 두 가지 변수를 이용하여 구간으로 표현하며, 이를 증거 구간(Evidential Interval)이라 한다. 첫 번째 변수 Bel(Belief)는 주어진 증거에 의해 가설에 대한 믿음 정도를 수치로 표현한 것이며, 두 번째 변수 PI(Plausibility)는 가설이 부정되지 않는 타당성의 정도를 나타낸다. DST에서는 위 두 가지 변수를 이용하여 가설의 '확신', '불신', 불확실' 정도를 수치로 표현할 수 있다. 상기 증거 구간의 범위에 따른 의미는 아래 표 1과 같다.Referring to FIG. 4, in the DST, the reliability measure for the element of interest is expressed as a section using two variables, which is called an evidential interval. The first variable Bel (Belief) is a numerical representation of the degree of belief in a hypothesis by the given evidence, and the second variable PI (Plausibility) is the degree of plausibility that the hypothesis is not negated. In DST, the above two variables can be used to express the degree of 'assurance', 'distrust', and 'uncertainty' of the hypothesis. Table 1 below shows the meanings according to the range of the above-mentioned evidence section.

증거 구간Evidence section 의미meaning [1, 1][1, 1] 확실한 참A sure truth [0, 0][0, 0] 확실한 거짓A definite lie [0, 1][0, 1] 알 수 없음(Unknown)Unknown 0 < PI < Bel < 10 < PI < Bel < 1 긍정하는 경향A positive trend 0 < Bel < PI < 10 <Bel <PI <1 부정하는 경향A tendency to deny 0 < Bel ≤ PI < 10 < Bel < PI &lt; 1 긍정과 부정이 동시 존재Positive and negative exist simultaneously

관심 원소에 BPA가 할당되면 DST에 따른 조합 규칙을 이용하여 두 변수의 값을 구할 수 있다. 상기 DST에 따른 조합 규칙은 아래 수학식 3과 같이 정의된다.When the BPA is assigned to the element of interest, the values of the two variables can be obtained using the combination rule according to DST. The combination rule according to the DST is defined as Equation (3) below.

[수학식 3]&Quot; (3) &quot;

Figure pat00004
Figure pat00004

이하에서는, 검출부(108)가 상기 DST를 이용하여 보행자는 검출하는 과정에 대해 살펴보기로 한다.Hereinafter, a process of detecting the pedestrian using the DST by the detection unit 108 will be described.

본 실시예들에 있어서, 멱집합 원소In the present embodiments, the power set element

θ = {ped}, {background}, {ped, background}, unknown? = {ped}, {background}, {ped, background}, unknown

일 수 있다. 여기서, ped는 보행자를 나타내며, background(또는 bg)는 주변 배경을 나타내며, unknown은 알 수 없음을 나타낸다. 즉, θ는 '보행자 영역', '주변 배경 영역', '보행자와 주변 배경이 함께 존재하는 영역' 및 '알 수 없는 영역'중 어느 하나일 수 있으며, 본 실시예들에 있어서 관심 타겟은 보행자(또는 보행자 영역)가 된다.Lt; / RTI &gt; Here, ped represents a pedestrian, background (or bg) represents a background, and unknown represents an unknown. That is, θ may be any one of a 'pedestrian area', a 'surrounding background area', a 'area where the pedestrian and surrounding background coexist' and an 'unknown area'. In this embodiment, (Or pedestrian zone).

상술한 바와 같이, 검출부(108)는 제1 카메라에서 획득된 제1 영상 및 제2 카메라에서 획득된 제2 영상으로부터 보행자 후보를 각각 검출하고, 검출된 보행자 후보에 대한 보행자 검출 점수를 추출할 수 있다. 또한, 검출부(108)는 보행자 검출 점수에 대한 정규화 작업을 수행하고, 이에 따라 보행자 검출 점수에 대한 신뢰도를 [0, 1] 범위에서 할당할 수 있다. 또한, 검출부(108)는 배경 검출 점수, 알 수 없는 영역에 대한 점수 각각에 대해서도 신뢰도를 할당할 수 있다. 이와 같이 할당된 신뢰도는 아래 표 2와 같이 나타낼 수 있다.As described above, the detection unit 108 detects pedestrian candidates from the first image obtained from the first camera and the second image obtained from the second camera, respectively, and extracts pedestrian detection scores for the detected pedestrian candidates have. Further, the detection unit 108 performs a normalization operation on the pedestrian detection score, and accordingly, the reliability of the pedestrian detection score can be assigned in the range of [0, 1]. Also, the detection unit 108 can assign reliability to each of the background detection score and the score for the unknown area. The reliability assigned in this way can be shown in Table 2 below.

Figure pat00005
Figure pat00005

여기서, mccd는 제1 카메라를 나타내며, mir은 제2 카메라를 나타낸다. 또한, ped_score는 보행자 검출 점수에 대한 신뢰도를 나타내며, bg_score는 배경 검출 점수에 대한 신뢰도를 나타낸다. 일 예시로서, 검출된 보행자 후보와 미리 저장된 패턴(즉, 보행자 패턴)과의 유사도가 높을수록 상기 보행자 검출 점수가 높아질 수 있으며, 검출된 배경 후보와 미리 저장된 패턴(즉, 배경 패턴)과의 유사도가 높을수록 상기 배경 검출 점수가 높아질 수 있다. 상기 배경 후보는 보행자 후보를 검출하는 방법과 동일한 방법 또는 이와 다른 다양한 영상 분석 기법을 통해 검출될 수 있다. 또한, 상기 보행자 검출 점수에 대한 신뢰도 및 배경 검출 점수에 대한 신뢰도는 보행자 검출 점수 및 배경 검출 점수와 각각 비례할 수 있다. 예를 들어, mccd에 대응되는 ped_score는 제1 영상에서 추출된 보행자 검출 점수에 대한 신뢰도를 의미하며, mccd에 대응되는 bg_score는 제1 영상에서 추출된 배경 검출 점수에 대한 신뢰도를 의미한다. 또한, ped, bg는 보행자 후보와 배경 후보가 동시에 존재하는 영역에서의 보행자 후보 점수 또는 배경 후보 점수에 대한 신뢰도를 의미하며, unknown은 알 수 없는 영역(불확실한 영역)에 대한 신뢰도를 의미한다. 사용자는 보행자 검출 점수, 배경 검출 점수 등을 고려하여 상기 신뢰도들을 임의로 설정할 수 있다. 위 표 2의 내부 값들은 가로 및 세로 영역에 대응되는 각 신뢰도를 상호 곱함으로써 계산될 수 있다.Here, mccd represents the first camera and m ir represents the second camera. Also, ped_score represents the reliability of the pedestrian detection score, and bg_score represents the reliability of the background detection score. As an example, the pedestrian detection score may be higher as the degree of similarity between the detected candidate pedestrian and a previously stored pattern (i.e., pedestrian pattern) is higher, and the similarity between the detected background candidate and a previously stored pattern (i.e., background pattern) The background detection score can be increased. The background candidate may be detected through the same method as the method of detecting the pedestrian candidate or various image analysis techniques. In addition, the reliability of the pedestrian detection score and the reliability of the background detection score may be proportional to the pedestrian detection score and the background detection score, respectively. For example, ped_score corresponding to m ccd indicates the reliability of the pedestrian detection points extracted from the first image, and to bg_score corresponding to m ccd means confidence in the background detection points extracted from the first image. Also, ped and bg mean the reliability of the pedestrian candidate score or the background candidate score in the area where the pedestrian candidate and the background candidate exist at the same time, and unknown means the reliability of the unknown area (uncertain area). The user can arbitrarily set the reliability in consideration of the pedestrian detection score, the background detection score, and the like. The internal values in Table 2 above can be calculated by multiplying the respective reliabilities corresponding to the horizontal and vertical regions.

이후, 검출부(108)는 DST에 따른 조합 규칙을 적용하여 최종 보행자 검출 점수를 획득할 수 있다. 위 표 2에서, 상술한 수학식 3을 적용하면,Thereafter, the detection unit 108 can obtain the final pedestrian detection score by applying the combination rule according to the DST. In the above Table 2, when the above-mentioned Equation 3 is applied,

최종 보행자 검출 점수 = {ped(1) + ped(2) + ped(3)}/{1-(unknown(1) + … unknown(9))Pedestrian detection score = {ped (1) + ped (2) + ped (3)} / {1- (unknown (1)

일 수 있다.Lt; / RTI &gt;

이를 수학식으로 표현하면 아래 수학식 4와 같다.This can be expressed by the following equation (4).

[수학식 4]&Quot; (4) &quot;

Figure pat00006
Figure pat00006

즉, 보행자 후보 A에 대한 최종 보행자 검출 점수는 상기 보행자 후보 A에 대한 제1 카메라에서 추출된 보행자 검출 점수의 신뢰도와 제2 카메라에서 추출된 보행자 검출 점수의 신뢰도에 DST 조합 규칙을 적용함으로써 계산될 수 있다. That is, the final pedestrian detection score for the pedestrian candidate A is calculated by applying the DST combination rule to the reliability of the pedestrian detection score extracted from the first camera and the reliability of the pedestrian detection score extracted from the second camera with respect to the pedestrian candidate A .

이때, 검출부(108)는 DST에 따른 조합 규칙의 적용시 보행자 검출 점수(또는 보행자 검출 점수에 따른 신뢰도)에 상기 시간대에 따른 가중치를 부여할 수 있다. 예를 들어, 분류된 시간대가 주간인 경우, 검출부(108)는 mccd에 대응되는 ped_score에 가중치 0.8을 부여하고 mir에 대응되는 ped_score에 가중치 0.2를 부여하여 상기 최종 보행자 검출 점수를 획득할 수 있다. 이 경우, 제1 영상에서 검출된 보행자 후보가 보행자로 최종 결정될 확률이 높아지게 되며, 제2 영상에서만 검출된 보행자 후보는 보행자가 아닌 배경으로 최종 결정될 확률이 높아지게 된다. 상기 가중치는 카메라 신뢰도로서, 예를 들어 0에서 1 사이의 값을 가질 수 있다. 또한, 상기 가중치는 분류된 주간 또는 야간에 따라 그 값이 달라질 수 있다.At this time, the detection unit 108 may assign a weight according to the time zone to the pedestrian detection score (or the reliability according to the pedestrian detection score) when the combination rule according to the DST is applied. For example, if the classification zone is daytime, the detector 108 may be given a weight of 0.8 to obtain the final pedestrian detection score to assign a weight from 0.2 to ped_score corresponding to m ir the ped_score corresponding to m ccd have. In this case, the probability that the candidate of the pedestrian detected in the first image is finally determined as a pedestrian increases, and the probability that the pedestrian candidate detected only in the second image is finally determined as a background rather than a pedestrian increases. The weight may be a camera confidence, for example, a value between 0 and 1. In addition, the weight may vary depending on the classified day or night.

또한, 보행자 후보가 하나의 카메라에서만 검출되는 경우, 검출부(108)는 상기 보행자 후보에 대한 보행자 검출 점수의 신뢰도에 상기 보행자 후보가 검출된 카메라의 가중치(또는 카메라 신뢰도)를 곱하여 상기 최종 보행자 검출 점수를 획득할 수 있다.If the pedestrian candidate is detected from only one camera, the detection unit 108 multiplies the reliability of the pedestrian detection score for the pedestrian candidate by the weight (or camera reliability) of the camera detected by the pedestrian candidate, Can be obtained.

이를 수학식으로 표현하면 아래 수학식 4와 같다.This can be expressed by the following equation (4).

[수학식 5]&Quot; (5) &quot;

Figure pat00007
Figure pat00007

여기서, Ped.는 최종 보행자 검출 점수, mscore는 보행자 검출 점수의 신뢰도, mcamera는 카메라의 가중치(또는 카메라 신뢰도)를 각각 나타낸다. Here, Ped represents the final pedestrian detection score, m score represents the reliability of the pedestrian detection score, and m camera represents the camera weight (or camera confidence), respectively.

또한, 마찬가지 방법으로 상술한 수학식 3을 적용하면,Further, when the above-mentioned Equation 3 is applied in the same manner,

최종 배경 검출 점수 = {bg(1) + bg(2) + bg(3)}/{1-(unknown(1) + … unknown(9))The final background detection score = {bg (1) + bg (2) + bg (3)} / {1- (unknown (1)

일 수 있다. Lt; / RTI &gt;

마지막으로, 검출부(108)는 최종 보행자 검출 점수와 설정값을 비교하여 보행자를 검출할 수 있다. 여기서, 설정값은 최종 배경 검출 점수일 수 있으나 이에 한정되는 것은 아니다. 예를 들어, 상기 설정값은 미리 정해진 수치값일 수도 있다. 설정값이 최종 배경 검출 점수인 경우, 검출부(108)는 최종 보행자 검출 점수가 상기 설정값보다 큰 경우 해당 보행자 후보를 보행자로 최종 판단하고, 최종 보행자 검출 점수가 상기 설정값보다 작은 경우 해당 보행자 후보를 배경으로 최종 판단할 수 있다. Finally, the detection unit 108 can detect the pedestrian by comparing the final pedestrian detection score with the set value. Here, the set value may be the final background detection score, but is not limited thereto. For example, the set value may be a predetermined numerical value. If the set value is the final background detection score, the detection unit 108 finally determines the pedestrian candidate as a pedestrian when the final pedestrian detection score is larger than the set value, and if the final pedestrian detection score is smaller than the set value, As a background.

도 5 내지 도 7은 본 발명의 일 실시예에 따른 검출부(108)에서 DST를 적용하여 보행자를 검출하는 과정을 나타낸 예시이다. 여기서, 도 5 내지 도 7의 (a)는 제1 영상을 나타내며, 도 5 내지 도 7의 (b)는 제2 영상을 나타내며, 도 5 내지 도 7의 (c)는 제1 영상과 제2 영상의 융합 영상(즉, 정합된 영상)을 나타낸다. 또한, 도 5 내지 도 7의 (a) 및 (b)에 표시된 수치는 보행자 후보 각각에 대한 보행자 검출 점수를 나타내며, 도 5 내지 도 7의 (c)에 표시된 수치는 보행자로 최종 검출(또는 결정)된 보행자 후보의 최종 보행자 검출 점수를 나타낸다.5 to 7 illustrate a process of detecting a pedestrian by applying DST in the detecting unit 108 according to an embodiment of the present invention. 5 to 7 (b) show the second image, and Figs. 5 to 7 (c) show the first image and the second image, respectively. Represents a fused image (i.e., matched image) of the image. 5 to 7 (a) and 7 (b) represent pedestrian detection scores for each of the pedestrian candidates, and the numerical values shown in Figs. 5 to 7 (c) ) Pedestrian candidate's final pedestrian detection score.

먼저, 도 5를 참조하면, 분류부(106)는 제1 영상에 포함된 픽셀의 밝기값으로부터 대상 영역이 촬영된 시간대를 주간으로 분류하였으며, 검출부(108)는 제2 카메라보다 제1 카메라에 더 높은 가중치를 부여하였다. 이에 따라, 제1 영상에서 검출된 보행자 후보가 융합 영상에서 보행자로 최종 검출된 것을 확인할 수 있다. 5, the classifying unit 106 classifies the time zone in which the target region was photographed based on the brightness values of the pixels included in the first image as a day, and the detecting unit 108 classifies the time And assigned a higher weight. Accordingly, it can be confirmed that the pedestrian candidate detected in the first image is finally detected as a pedestrian in the fused image.

또한, 도 6을 참조하면, 분류부(106)는 제1 영상에 포함된 픽셀의 밝기값으로부터 대상 영역이 촬영된 시간대를 주간으로 분류하였으며, 검출부(108)는 제2 카메라보다 제1 카메라에 더 높은 가중치를 부여하였다. 이에 따라, 제1 영상에서 검출된 보행자 후보가 융합 영상에서 보행자로 최종 검출되었으며 제2 영상에서만 검출된 보행자 후보는 융합 영상에서 배경으로 최종 검출된 것(즉, 보행자로 최종 검출되지 않은 것)을 확인할 수 있다.6, the classifying unit 106 classifies the time zone in which the target region was photographed from the brightness values of the pixels included in the first image as a day, and the detecting unit 108 classifies the time And assigned a higher weight. Accordingly, the pedestrian candidate detected in the first image is finally detected as a pedestrian in the fusion image, and the pedestrian candidate detected in the second image is detected as the background (i.e., not detected as a pedestrian) in the fused image Can be confirmed.

또한, 도 7을 참조하면, 분류부(106)는 제1 영상에 포함된 픽셀의 밝기값으로부터 대상 영역이 촬영된 시간대를 야간으로 분류하였으며, 검출부(108)는 제1 카메라보다 제2 카메라에 더 높은 가중치를 부여하였다. 이에 따라, 제2 영상에서 검출된 보행자 후보가 융합 영상에서 보행자로 최종 검출되었으며 제1 영상에서만 검출된 보행자 후보는 융합 영상에서 배경으로 최종 검출된 것(즉, 보행자로 최종 검출되지 않은 것)을 확인할 수 있다.7, the classifying unit 106 classifies the time zone in which the object region was photographed from the brightness values of the pixels included in the first image into the night, and the detecting unit 108 classifies the time And assigned a higher weight. Accordingly, the pedestrian candidate detected in the second image is finally detected as a pedestrian in the fused image, and the pedestrian candidate detected in the first image is detected as the background in the fused image (i.e., not detected as a pedestrian) Can be confirmed.

도 8은 본 발명의 일 실시예에 따른 보행자 검출 결과를 나타낸 그래프이다. 도 8의 녹색 점선은 CCD 카메라만을 사용하는 경우에서의 보행자 오검출률을 나타내며, 도 8의 빨간색 점선은 적외선 카메라만을 사용하는 경우에서의 보행자 오검출률을 나타내며, 도 8의 보라색 점선은 본 발명의 일 실시예에 따른 융합 영상에 DST의 적용하는 경우에서의 보행자 오검출률을 나타낸다.8 is a graph showing a result of detecting a pedestrian according to an embodiment of the present invention. 8 shows the pedestrian erroneous detection rate in the case of using only the CCD camera, the red dotted line in FIG. 8 shows the pedestrian erroneous detection rate in the case of using only the infrared camera, and the purple dotted line in FIG. And shows the pedestrian erroneous detection rate in the case of applying the DST to the fusion image according to the embodiment.

도 8에 도시된 바와 같이, 단일 카메라만을 사용하는 경우 보행자 오검출률이 상대적으로 높은 반면, 본 발명의 일 실시예에 따른 융합 영상에 DST를 적용하는 경우 보행자 오검출률이 상대적으로 낮은 것을 확인할 수 있다. 즉, 본 발명의 실시예들에 따르면, 서로 다른 종류의 카메라로부터 촬영된 영상에서 DST를 적용하여 보행자를 정확하게 검출할 수 있다. 특히, 본 발명의 실시예들에 따르면, 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하고 DST의 적용시 분류된 시간대에 따라 각 카메라에 서로 다른 가중치를 각각 부여함으로써, 외부 환경 요소를 고려하여 보행자를 보다 정확하게 검출할 수 있다.As shown in FIG. 8, when the single camera alone is used, the detection rate of the pedestrian is relatively high, whereas when the DST is applied to the convergence image according to the embodiment of the present invention, it is confirmed that the pedestrian misdetection rate is relatively low . In other words, according to the embodiments of the present invention, it is possible to accurately detect the pedestrian by applying the DST to an image photographed from cameras of different kinds. Particularly, according to the embodiments of the present invention, when the time zone in which the target area is photographed is classified into day or night, and different weights are assigned to each camera according to the time zone classified when the DST is applied, The pedestrian can be detected more accurately.

도 9는 본 발명의 일 실시예에 따른 보행자 검출 장치(100)가 구비된 차량(200)의 예시이다. 9 is an illustration of a vehicle 200 equipped with a pedestrian detection device 100 according to an embodiment of the present invention.

도 9를 참조하면, 보행자 검출 장치(100)는 예를 들어, 차량(200)의 루프 상에 설치될 수 있다. 이 경우, 보행자 검출 장치(100)는 차량(200) 전방의 보행자를 신속하고 정확하게 검출하여 차량 전방의 충돌 사고를 예방하는 용도로 활용될 수 있다. 이때, 제1 카메라 및 제2 카메라는 보행자 검출 장치(100)에 구비될 수 있으며, 예를 들어, 슬라이드 바 형식의 틀(미도시)에 상호 밀착되어 고정될 수 있다. 이 경우, 제1 카메라 및 제2 카메라의 렌즈 간 간격이 최소화되어 제1 카메라 및 제2 카메라에서 거의 동일한 영상이 획득될 수 있다. 한편, 보행자 검출 장치(100)는 차량(200)뿐 아니라 가로등(미도시), 건물(미도시), 건물 근처 또는 건물 내부 구조물(미도시) 등에 구비되어 보행자를 감시하는 용도로 활용될 수도 있다. 나아가, 보행자 검출 장치(100)는 군 시설물, 보안 시설물 주변에 배치되어 보안, 방범 등의 용도로 활용될 수도 있다.Referring to Fig. 9, the pedestrian detection device 100 may be installed on the roof of the vehicle 200, for example. In this case, the pedestrian detection device 100 can be used as an application for quickly and accurately detecting a pedestrian in front of the vehicle 200 and preventing a collision accident in front of the vehicle. At this time, the first camera and the second camera may be provided in the pedestrian detection apparatus 100, and may be fixed in close contact with each other, for example, in a slide bar type frame (not shown). In this case, the interval between the first camera and the second camera is minimized, so that substantially the same image can be obtained from the first camera and the second camera. The pedestrian detection device 100 may be used not only for the vehicle 200 but also for monitoring a pedestrian by providing a street light (not shown), a building (not shown), a building nearby, or a building internal structure . Furthermore, the pedestrian detecting device 100 may be disposed around military facilities and security facilities, and may be used for security, security, and the like.

도 10은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 않은 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.10 is a block diagram illustrating and illustrating a computing environment 10 including a computing device suitable for use in the exemplary embodiments. In the illustrated embodiment, each of the components may have different functions and capabilities than those described below, and may include additional components in addition to those not described below.

도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 보행자 검출 장치(100), 또는 보행자 검출 장치(100)에 포함되는 하나 이상의 컴포넌트일 수 있다.The illustrated computing environment 10 includes a computing device 12. In one embodiment, computing device 12 may be one or more components included in pedestrian detection device 100, or pedestrian detection device 100.

컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.The computing device 12 includes at least one processor 14, a computer readable storage medium 16, The processor 14 may cause the computing device 12 to operate in accordance with the exemplary embodiment discussed above. For example, processor 14 may execute one or more programs stored on computer readable storage medium 16. The one or more programs may include one or more computer-executable instructions, which when executed by the processor 14 cause the computing device 12 to perform operations in accordance with the illustrative embodiment .

컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.The computer-readable storage medium 16 is configured to store computer-executable instructions or program code, program data, and / or other suitable forms of information. The program 20 stored in the computer-readable storage medium 16 includes a set of instructions executable by the processor 14. In one embodiment, the computer-readable storage medium 16 may be any type of storage medium such as a memory (volatile memory such as random access memory, non-volatile memory, or any suitable combination thereof), one or more magnetic disk storage devices, Memory devices, or any other form of storage medium that can be accessed by the computing device 12 and store the desired information, or any suitable combination thereof.

통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.Communication bus 18 interconnects various other components of computing device 12, including processor 14, computer readable storage medium 16.

컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(102)와 연결될 수도 있다.The computing device 12 may also include one or more input / output interfaces 22 and one or more network communication interfaces 26 that provide an interface for one or more input / output devices 24. The input / output interface 22 and the network communication interface 26 are connected to the communication bus 18. The input / output device 24 may be connected to other components of the computing device 12 via the input / output interface 22. The exemplary input and output device 24 may be any type of device, such as a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touch pad or touch screen), a voice or sound input device, An input device, and / or an output device such as a display device, a printer, a speaker, and / or a network card. The exemplary input and output device 24 may be included within the computing device 12 as a component of the computing device 12 and may be coupled to the computing device 102 as a separate device distinct from the computing device 12 It is possible.

도 11은 본 발명의 일 실시예에 따른 보행자 검출 방법을 설명하기 위한 흐름도이다. 도 11에 도시된 방법은 예를 들어, 전술한 보행자 검출 장치(100)에 의해 수행될 수 있다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.11 is a flowchart illustrating a pedestrian detection method according to an embodiment of the present invention. The method shown in Fig. 11 can be performed, for example, by the pedestrian detecting apparatus 100 described above. In the illustrated flow chart, the method is described as being divided into a plurality of steps, but at least some of the steps may be performed in reverse order, combined with other steps, performed together, omitted, divided into detailed steps, One or more steps may be added and performed.

먼저, 영상 획득부(102)는 제1 영상 및 제2 영상을 획득한다(S102). 영상 획득부(102)는 제1 카메라를 통해 대상 영역을 촬영함으로써 제1 영상을 획득하고, 제2 카메라를 통해 상기 대상 영역을 촬영함으로써 제2 영상을 획득할 수 있다.First, the image acquiring unit 102 acquires the first image and the second image (S102). The image acquiring unit 102 acquires the first image by photographing the target area through the first camera, and acquires the second image by photographing the target area through the second camera.

다음으로, 정합부(104)는 제1 영상 및 제2 영상을 정합한다(S104). 정합부(104)는 2차원의 제1 영상 및 제2 영상의 좌표를 조정하여 제1 영상 내 피사체와 제2 영상 내 상기 피사체를 상호 매칭시키는 영상 매칭 작업을 수행할 수 있다.Next, the matching unit 104 matches the first image and the second image (S104). The matching unit 104 may perform an image matching operation of matching the subject in the first image and the subject in the second image by adjusting the coordinates of the two-dimensional first and second images.

다음으로, 분류부(106)는 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류한다(S106). 일 예시로서, 분류부(106)는 제1 영상에 포함된 픽셀의 밝기값을 이용하여 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류할 수 있다.Next, the classifying unit 106 classifies the time zone in which the target area is photographed as day or night (S106). As an example, the classifying unit 106 may classify the time zone in which the target region was photographed as day or night using the brightness value of pixels included in the first image.

다음으로, 검출부(108)는 분류된 시간대에 따라 제1 카메라 및 제2 카메라(또는 제1 영상 및 제2 영상)에 서로 다른 가중치를 부여한다(S108). 일 예시로서, 검출부(108)는 분류된 시간대가 주간인 경우 제1 카메라 및 제2 카메라에 가중치 0.8과 0.2를 각각 부여하고, 분류된 시간대가 야간인 경우 제1 카메라 및 제2 카메라에 가중치 0.2와 0.8을 각각 부여할 수 있다.Next, the detection unit 108 assigns different weights to the first camera and the second camera (or the first image and the second image) according to the classified time zone (S108). As an example, the detection unit 108 may assign weights 0.8 and 0.2 to the first camera and the second camera, respectively, if the classified time period is the week, and assign a weight value of 0.2 and 0.2 to the first camera and the second camera, And 0.8, respectively.

마지막으로, 검출부(108)는 상기 가중치를 이용하여 제1 영상 및 제2 영상에서 보행자를 검출한다(S110). 상술한 바와 같이, 검출부(108)는 제1 영상 및 제2 영상으로부터 보행자 후보를 각각 검출하고, 검출된 보행자 후보에 대한 보행자 검출 점수를 추출하며, 상기 보행자 검출 점수와 상기 가중치를 기반으로 댐스터-쉐퍼 이론(DST)을 적용하여 보행자를 검출할 수 있다.Finally, the detection unit 108 detects the pedestrian from the first image and the second image using the weight (S110). As described above, the detection unit 108 detects pedestrian candidates from the first image and the second image, extracts a pedestrian detection score for the detected pedestrian candidates, and calculates, based on the pedestrian detection score and the weight, - The pedestrian can be detected by applying the Schaefer theory (DST).

이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 전술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, I will understand. Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be determined by equivalents to the appended claims, as well as the appended claims.

10 : 컴퓨팅 환경
12 : 컴퓨팅 장치
14 : 프로세서
16 : 컴퓨터 판독 가능 저장 매체
18 : 통신 버스
20 : 프로그램
22 : 입출력 인터페이스
24 : 입출력 장치
26 : 네트워크 통신 인터페이스
100 : 보행자 검출 장치
102 : 영상 획득부
104 : 정합부
106 : 분류부
108 : 검출부
200 : 차량
10: Computing environment
12: computing device
14: Processor
16: Computer readable storage medium
18: Communication bus
20: Program
22: I / O interface
24: input / output device
26: Network communication interface
100: Pedestrian detection device
102:
104:
106:
108:
200: vehicle

Claims (16)

제1 카메라를 통해 대상 영역을 촬영함으로써 획득되는 제1 영상 및 제2 카메라를 통해 상기 대상 영역을 촬영함으로써 획득되는 제2 영상을 정합하는 정합부;
상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는 분류부; 및
분류된 상기 시간대에 따라 상기 제1 카메라 및 상기 제2 카메라에 서로 다른 가중치를 각각 부여하고, 상기 가중치를 이용하여 상기 제1 영상 및 제2 영상에서 보행자를 검출하는 검출부를 포함하는, 보행자 검출 장치.
A matching unit for matching a first image obtained by photographing a target area through a first camera and a second image obtained by photographing the target area through a second camera;
A classifying unit for classifying a time zone in which the target area is photographed as a day or a night; And
And a detection unit that gives different weights to the first camera and the second camera, respectively, in accordance with the classified time zone, and detects a pedestrian from the first image and the second image using the weight, .
청구항 1에 있어서,
상기 제1 카메라는, CCD(Charge-Coupled Device) 카메라이며,
상기 제2 카메라는, 적외선(IR : Infrared Ray) 카메라인, 보행자 검출 장치.
The method according to claim 1,
The first camera is a CCD (Charge-Coupled Device) camera,
Wherein the second camera is an Infrared Ray (IR) camera.
청구항 1에 있어서,
상기 분류부는, 상기 제1 영상에 포함된 픽셀의 밝기값을 이용하여 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는, 보행자 검출 장치.
The method according to claim 1,
Wherein the classifying unit classifies the time zone in which the target area was photographed by day or night using the brightness value of pixels included in the first image.
청구항 3에 있어서,
상기 분류부는, 상기 제1 영상의 최상단으로부터 설정된 거리 이내에 위치하는 픽셀들의 평균 밝기값이 임계치를 초과하는 경우 상기 시간대를 주간으로 분류하고, 상기 평균 밝기값이 상기 임계치 미만인 경우 상기 시간대를 야간으로 분류하는, 보행자 검출 장치.
The method of claim 3,
Wherein the classifying unit classifies the time zone as a day when the average brightness value of pixels positioned within a predetermined distance from the uppermost end of the first image exceeds a threshold value and classifies the time zone as night when the average brightness value is less than the threshold value The pedestrian detection device.
청구항 1에 있어서,
상기 검출부는, 분류된 상기 시간대가 주간인 경우 상기 제2 카메라보다 상기 제1 카메라에 더 높은 가중치를 부여하고, 분류된 상기 시간대가 야간인 경우 상기 제1 카메라보다 상기 제2 카메라에 더 높은 가중치를 부여하는, 보행자 검출 장치.
The method according to claim 1,
Wherein the detection unit assigns a higher weight value to the first camera than the second camera when the classified time period is a week, and when the classified time zone is at night, assigns a higher weight value to the second camera To the pedestrian detection device.
청구항 5에 있어서,
상기 검출부는, 상기 제1 영상 및 제2 영상으로부터 보행자 후보를 각각 검출하고, 검출된 상기 보행자 후보에 대한 보행자 검출 점수를 추출하며, 상기 보행자 검출 점수와 상기 가중치를 기반으로 댐스터-쉐퍼 이론(DST : Dempster-Shafer Theory)을 적용하여 상기 보행자를 검출하는, 보행자 검출 장치.
The method of claim 5,
Wherein the detection unit detects pedestrian candidates from the first image and the second image, extracts a pedestrian detection score for the detected pedestrian candidate, and calculates a damper-Schaefer theory based on the pedestrian detection score and the weight DST: Dempster-Shafer Theory) to detect the pedestrian.
청구항 6에 있어서,
상기 검출부는, 상기 DST의 적용시 상기 보행자 검출 점수에 분류된 상기 시간대에 따른 상기 가중치를 부여하여 최종 보행자 검출 점수를 획득하고, 상기 최종 보행자 검출 점수와 설정값을 비교하여 상기 보행자를 검출하는, 보행자 검출 장치.
The method of claim 6,
Wherein the detection unit obtains a final pedestrian detection score by applying the weight according to the time zone classified into the pedestrian detection score when the DST is applied and detects the pedestrian by comparing the final pedestrian detection score and a set value, Pedestrian detection device.
청구항 1 내지 7 중 어느 한 항에 기재된 보행자 검출 장치가 구비되는, 차량.
A vehicle comprising a pedestrian detection device according to any one of claims 1 to 7.
정합부에서, 제1 카메라를 통해 대상 영역을 촬영함으로써 획득되는 제1 영상 및 제2 카메라를 통해 상기 대상 영역을 촬영함으로써 획득되는 제2 영상을 정합하는 단계;
분류부에서, 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는 단계;
검출부에서, 분류된 상기 시간대에 따라 상기 제1 카메라 및 상기 제2 카메라에 서로 다른 가중치를 각각 부여하는 단계; 및
상기 검출부에서, 상기 가중치를 이용하여 상기 제1 영상 및 제2 영상에서 보행자를 검출하는 단계를 포함하는, 보행자 검출 방법.
Matching the first image obtained by photographing the object area through the first camera and the second image obtained by photographing the object area through the second camera in the registration unit;
Classifying the time zone in which the object area is photographed into day or night, in the classifying unit;
Assigning different weights to the first camera and the second camera, respectively, according to the classified time zone; And
And detecting the pedestrian in the first image and the second image using the weight in the detection unit.
청구항 9에 있어서,
상기 제1 카메라는, CCD 카메라이며,
상기 제2 카메라는, 적외선 카메라인, 보행자 검출 방법.
The method of claim 9,
The first camera is a CCD camera,
Wherein the second camera is an infrared camera.
청구항 9에 있어서,
상기 시간대를 주간 또는 야간으로 분류하는 단계는, 상기 제1 영상에 포함된 픽셀의 밝기값을 이용하여 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는, 보행자 검출 방법.
The method of claim 9,
Wherein classifying the time zone into day or night classifies the time zone in which the object zone was photographed by day or night using brightness values of pixels included in the first image.
청구항 11에 있어서,
상기 시간대를 주간 또는 야간으로 분류하는 단계는, 상기 제1 영상의 최상단으로부터 설정된 거리 이내에 위치하는 픽셀들의 평균 밝기값이 임계치를 초과하는 경우 상기 시간대를 주간으로 분류하고, 상기 평균 밝기값이 상기 임계치 미만인 경우 상기 시간대를 야간으로 분류하는, 보행자 검출 방법.
The method of claim 11,
Classifying the time zone into day or night may include classifying the time zone as a day when the average brightness value of pixels located within a predetermined distance from the uppermost end of the first image exceeds a threshold value, , The time zone is classified as night.
청구항 9에 있어서,
상기 가중치를 부여하는 단계는, 분류된 상기 시간대가 주간인 경우 상기 제2 카메라보다 상기 제1 카메라에 더 높은 가중치를 부여하고, 분류된 상기 시간대가 야간인 경우 상기 제1 카메라보다 상기 제2 카메라에 더 높은 가중치를 부여하는, 보행자 검출 방법.
The method of claim 9,
Wherein the weighting step assigns a higher weight value to the first camera than the second camera when the classified time period is a week, and when the classified time period is at night, To a higher weight.
청구항 13에 있어서,
상기 보행자를 검출하는 단계는,
상기 제1 영상 및 제2 영상으로부터 보행자 후보를 각각 검출하고, 검출된 상기 보행자 후보에 대한 보행자 검출 점수를 추출하는 단계; 및
상기 보행자 검출 점수와 상기 가중치를 기반으로 댐스터-쉐퍼 이론을 적용하여 상기 보행자를 검출하는 단계를 포함하는, 보행자 검출 방법.
14. The method of claim 13,
The step of detecting the pedestrian may include:
Detecting respective pedestrian candidates from the first image and the second image, and extracting a pedestrian detection score for the detected pedestrian candidate; And
And detecting the pedestrian by applying a damper-Schaefer theory based on the pedestrian detection score and the weight.
청구항 14에 있어서,
상기 DST를 적용하여 상기 보행자를 검출하는 단계는, 상기 DST의 적용시 상기 보행자 검출 점수에 분류된 상기 시간대에 따른 상기 가중치를 부여하여 최종 보행자 검출 점수를 획득하고, 상기 최종 보행자 검출 점수와 설정값을 비교하여 상기 보행자를 검출하는, 보행자 검출 방법.
15. The method of claim 14,
Wherein the step of detecting the pedestrian by applying the DST includes: obtaining a final pedestrian detection score by applying the weight according to the time zone classified into the pedestrian detection score when applying the DST, To detect the pedestrian.
하드웨어와 결합되어
정합부에서, 제1 카메라를 통해 대상 영역을 촬영함으로써 획득되는 제1 영상 및 제2 카메라를 통해 상기 대상 영역을 촬영함으로써 획득되는 제2 영상을 정합하는 단계;
분류부에서, 상기 대상 영역이 촬영된 시간대를 주간 또는 야간으로 분류하는 단계;
검출부에서, 분류된 상기 시간대에 따라 상기 제1 카메라 및 상기 제2 카메라에 서로 다른 가중치를 각각 부여하는 단계; 및
상기 검출부에서, 상기 가중치를 이용하여 상기 제1 영상 및 제2 영상에서 보행자를 검출하는 단계
를 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
Combined with hardware
Matching the first image obtained by photographing the object area through the first camera and the second image obtained by photographing the object area through the second camera in the registration unit;
Classifying the time zone in which the object area is photographed into day or night, in the classifying unit;
Assigning different weights to the first camera and the second camera, respectively, according to the classified time zone; And
Detecting, at the detecting unit, the pedestrian in the first image and the second image using the weight value
The computer program being stored on a computer readable recording medium.
KR1020170019454A 2017-02-13 2017-02-13 Apparatus and method for detecting pedestrian Ceased KR20180093418A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170019454A KR20180093418A (en) 2017-02-13 2017-02-13 Apparatus and method for detecting pedestrian

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170019454A KR20180093418A (en) 2017-02-13 2017-02-13 Apparatus and method for detecting pedestrian

Publications (1)

Publication Number Publication Date
KR20180093418A true KR20180093418A (en) 2018-08-22

Family

ID=63453229

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170019454A Ceased KR20180093418A (en) 2017-02-13 2017-02-13 Apparatus and method for detecting pedestrian

Country Status (1)

Country Link
KR (1) KR20180093418A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020171281A1 (en) * 2019-02-22 2020-08-27 써모아이 주식회사 Visible light and infrared fusion image-based object detection method and apparatus
KR102299250B1 (en) * 2021-01-13 2021-09-08 한전케이디엔주식회사 Counting device and method using composite image data
KR20210111590A (en) * 2020-03-03 2021-09-13 연세대학교 산학협력단 Apparatus and method for detecting unpaired cross-spectral pedestrian via adversarial feature learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101455748B1 (en) 2014-08-12 2014-11-04 유파인테크놀러지스 주식회사 Installation for recognition pedestrian using an infrared rays sensor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101455748B1 (en) 2014-08-12 2014-11-04 유파인테크놀러지스 주식회사 Installation for recognition pedestrian using an infrared rays sensor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020171281A1 (en) * 2019-02-22 2020-08-27 써모아이 주식회사 Visible light and infrared fusion image-based object detection method and apparatus
KR20210111590A (en) * 2020-03-03 2021-09-13 연세대학교 산학협력단 Apparatus and method for detecting unpaired cross-spectral pedestrian via adversarial feature learning
KR102299250B1 (en) * 2021-01-13 2021-09-08 한전케이디엔주식회사 Counting device and method using composite image data

Similar Documents

Publication Publication Date Title
CN112233097B (en) System and method for other vehicle detection in road scene based on multi-dimensional fusion of space-time domain
Walia et al. Recent advances on multicue object tracking: a survey
US10540777B2 (en) Object recognition device and object recognition system
US8761498B1 (en) Face and license plate detection in street level images with 3-D road width features estimated from laser data
CN111507210A (en) Traffic signal identification method, system, computing device and smart vehicle
US20140334672A1 (en) Method for detecting pedestrians based on far infrared ray camera at night
US20150178557A1 (en) Pedestrian detection system and method
US20150156471A1 (en) Method and device for processing stereoscopic data
US10762372B2 (en) Image processing apparatus and control method therefor
CN110363731B (en) Image fusion method and device and electronic equipment
CN113128347A (en) RGB-D fusion information based obstacle target classification method and system and intelligent terminal
KR102333107B1 (en) Deep Learning Processing Apparatus and Method for Multi-Sensor on Vehicle
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
KR102505317B1 (en) Electric vehicle recognition method using rgb color judgement and electric vehicle parking management system using the same
KR20180093418A (en) Apparatus and method for detecting pedestrian
CN112541403A (en) Indoor personnel falling detection method utilizing infrared camera
US12254659B2 (en) Hybrid video analytics for small and specialized object detection
Sutopo et al. Appearance-based passenger counting in cluttered scenes with lateral movement compensation
Kumar et al. Addressing uncertainty in multi-modal fusion for improved object detection in dynamic environment
Mammeri et al. Extending the detection range of vision-based driver assistance systems application to pedestrian protection system
KR102141781B1 (en) Object Re-IdentificatioApparatus Using Locally Matching Method and Its Method
Choi et al. State Machine and Downhill Simplex Approach for Vision‐Based Nighttime Vehicle Detection
CN118258399A (en) A method for indoor human detection based on multi-sensor fusion
Chen et al. Real-time vehicle color identification using symmetrical SURFs and chromatic strength
KR20180125278A (en) Apparatus and method for detecting pedestrian

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20170213

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20180405

Patent event code: PE09021S01D

PG1501 Laying open of application
E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20181024

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20180405

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I