[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101180621B1 - Apparatus and method for detecting a vehicle - Google Patents

Apparatus and method for detecting a vehicle Download PDF

Info

Publication number
KR101180621B1
KR101180621B1 KR1020060063646A KR20060063646A KR101180621B1 KR 101180621 B1 KR101180621 B1 KR 101180621B1 KR 1020060063646 A KR1020060063646 A KR 1020060063646A KR 20060063646 A KR20060063646 A KR 20060063646A KR 101180621 B1 KR101180621 B1 KR 101180621B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
vehicle candidate
candidate region
region
Prior art date
Application number
KR1020060063646A
Other languages
Korean (ko)
Other versions
KR20080004832A (en
Inventor
김광수
오세영
김삼용
김진원
박상철
Original Assignee
포항공과대학교 산학협력단
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단, 삼성전자주식회사 filed Critical 포항공과대학교 산학협력단
Priority to KR1020060063646A priority Critical patent/KR101180621B1/en
Publication of KR20080004832A publication Critical patent/KR20080004832A/en
Application granted granted Critical
Publication of KR101180621B1 publication Critical patent/KR101180621B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0132Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0132Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value
    • B60R2021/01322Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value comprising variable thresholds, e.g. depending from other collision parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 근거리에서 전후방의 차량을 효율적으로 검출할 수 있는 기능을 구현한다. 이를 위해 본 발명은 본 발명은 차량 주위를 촬영하는 카메라 및 전후방의 장애물 또는 차량을 검출하는 초음파 센서를 구비하고, 일단 카메라를 통해 획득되는 영상을 이용하여 차량 후보를 검출한 후 초음파 센서를 통해 획득된 거리 정보를 상기 차량 후보가 검출된 영상에 융합한다. 그리고나서 상기 검출된 차량 후보에서 거리 정보에 부합되지 않은 차량 후보를 제외시킴으로써 유효한 차량 위치만을 검출할 수 있게 된다. 이렇게 함으로써 보다 차량 검출 성능의 정확도를 높일 수 있게 된다. The present invention implements a function that can efficiently detect the front and rear vehicles at close range. To this end, the present invention includes a camera for photographing the surroundings of the vehicle, and an ultrasonic sensor for detecting obstacles or vehicles in front and rear, and after detecting a vehicle candidate using an image acquired through the camera, is obtained through the ultrasonic sensor. The obtained distance information is fused to the image of which the vehicle candidate is detected. Then, by excluding vehicle candidates not matching the distance information from the detected vehicle candidates, only valid vehicle positions can be detected. This makes it possible to increase the accuracy of the vehicle detection performance more.

차량, 카메라, 초음파 Vehicle, camera, ultrasound

Description

차량 검출 방법 및 장치{APPARATUS AND METHOD FOR DETECTING A VEHICLE}Vehicle detection method and apparatus {APPARATUS AND METHOD FOR DETECTING A VEHICLE}

도 1은 본 발명의 실시 예에 따른 차량 검출 시스템의 내부 블록구성도,1 is an internal block diagram of a vehicle detection system according to an embodiment of the present invention;

도 2에서는 본 발명의 실시 예에 따라 전면에 초음파 센서와 카메라가 장착된 차량에 대한 예시도,2 is an exemplary view of a vehicle equipped with an ultrasonic sensor and a camera in the front according to an embodiment of the present invention,

도 3은 본 발명의 실시 예에 따라 근거리에서 효율적인 차량 검출을 위한 차량 검출 시스템의 제어흐름도,3 is a control flowchart of a vehicle detection system for efficient vehicle detection at a short distance according to an embodiment of the present disclosure;

도 4는 본 발명의 실시 예에 따라 1차 차량 후보 영역을 설정하는 과정을 보여주는 화면예시도, 4 is an exemplary screen illustrating a process of setting a primary vehicle candidate region according to an embodiment of the present invention;

도 5는 본 발명의 실시 예에 따라 2차 차량 후보 영역을 설정하는 과정을 보여주는 화면예시도,5 is an exemplary screen illustrating a process of setting a secondary vehicle candidate region according to an embodiment of the present invention;

도 6은 본 발명의 실시 예에 따라 차량 후보마다 대칭축과 차폭을 보여주는 예시도,6 is an exemplary view illustrating a symmetry axis and a vehicle width for each vehicle candidate according to an exemplary embodiment of the present invention.

도 7은 본 발명의 실시 예에 따라 차량 검출의 결과를 보여주는 예시도.7 is an exemplary view showing a result of vehicle detection according to an embodiment of the present invention.

본 발명은 차량 검출 방법 및 장치에 관한 것으로, 특히 전후방의 차량 검출 성능을 증대시키기 위한 방법 및 장치에 관한 것이다. The present invention relates to a vehicle detection method and apparatus, and more particularly, to a method and apparatus for increasing the vehicle detection performance of the front and rear.

차량 운행 시 운전자의 부주의나 시계의 불량 등으로 앞에서 주행하는 차량을 추돌하는 경우가 빈번하게 발생하고 있다. 즉, 장거리 운전 시, 우천 시, 야간 운전 시 시계 불량 및 운전자의 집중력 부족 등으로 인한 차선 이탈과 주행 차량과의 추돌에 의한 교통사고가 끊임없이 발생하고 있다. 상기와 같은 추돌을 방지하기 위하여 차량 검출을 통해 차량간 위치와 속도를 파악하여 차량간 충돌경보, 충돌회피, 순항제어와 같은 정보를 제공할 수 있는 운전자 보조시스템이 제공되고 있다. Frequently, a vehicle collides with a vehicle driving in front of a driver due to carelessness of a driver or a poor watch. That is, traffic accidents due to lane departure and collision with driving vehicles due to poor visibility and lack of driver's concentration in long distance driving, rainy weather, and night driving are constantly occurring. In order to prevent such a collision, a driver assistance system that can provide information such as collision warning, collision avoidance, and cruise control between vehicles by grasping the position and speed between vehicles through vehicle detection is provided.

통상적으로 전방의 차량을 검출하는 방법에는 레이더, 카메라 등을 사용한 방법이 있으며, 사각지대 또는 후방주차 시 장애물 또는 차량을 검출하는 방법에는 초음파 센서를 이용한 방법이 있다. In general, there is a method of detecting a vehicle in front of the vehicle using a radar, a camera, and the like, and a method of detecting an obstacle or a vehicle in a blind spot or rear parking is a method using an ultrasonic sensor.

그 중에서도 레이더를 이용한 방법은 다수의 레이더를 차량 전방에 부착하여 여러 방향의 차량 거리 정보를 검출하는 방법으로, 차량에 대한 정확한 위치를 알 수 있으므로 적극적인 제어를 요구하는 시스템에 응용되고 있다. 하지만, 레이더를 이용한 방법은 거리에 상관없이 사용이 가능하지만 일반적인 차량에 부착하여 상용화하기엔 비용 부담이 매우 크며 주파수 간섭 문제가 있다. Among them, the radar method is a method of detecting vehicle distance information in various directions by attaching a plurality of radars in front of a vehicle, and has been applied to a system requiring active control because the exact position of the vehicle can be known. However, the radar method can be used regardless of distance, but it is very expensive to attach to a commercial vehicle and commercialize, and there is a frequency interference problem.

그리고 초음파 센서를 이용한 방법은 차량에 부착된 초음파 센서에서 초음파를 후방으로 발사하고 후방 장애물 또는 차량으로부터 반사된 반사파를 검출함으로써 차량 거리 정보를 검출하는 방법인데, 이 방법은 근거리 영역에서만 유용하다는 한계를 가진다. 따라서, 이 방법을 이용할 경우에는 초음파 센서의 성능에 따라 10 m 이내의 근거리 영역에서만 차량 검출이 효율적으로 이루어지게 된다. In addition, the method using the ultrasonic sensor detects vehicle distance information by emitting ultrasonic waves rearward from the ultrasonic sensor attached to the vehicle and detecting rear obstacles or reflected waves reflected from the vehicle. Have Therefore, when using this method, vehicle detection can be efficiently performed only in a short range of 10 m or less depending on the performance of the ultrasonic sensor.

한편, 최근에는 카메라 모듈의 가격 하락과 영상 처리 성능의 향상으로 인해 카메라를 이용한 차량 검출 방법이 운전자 보조 시스템에 확대 응용되고 있는 실정이다. 그런데 카메라를 이용한 차량 검출 방법은 일정 거리 이상 떨어진 차량을 검출하는데 있어 효율적이지만, 자기 차량과 상대 차량 간의 거리가 가까워지게 되면 영상에서 차량 검출을 위한 특징적이 사라지거나 영상 처리량이 많아지게 되어 검출 성능이 떨어지는 문제점이 발생할 수도 있다. On the other hand, in recent years, the vehicle detection method using a camera has been widely applied to the driver assistance system due to the falling price of the camera module and the improvement of image processing performance. However, the vehicle detection method using a camera is effective in detecting a vehicle that is separated by a certain distance, but when the distance between the own vehicle and the relative vehicle gets closer, the characteristic for detecting the vehicle in the image disappears or the image throughput increases, so that the detection performance is improved. Falling problems may occur.

상기한 바와 같이 종래의 차량 검출 방법들은 차량 간의 거리에 따라 차량 검출 성능이 영향을 받아 그 검출 성능이 저하되는 문제점이 있다. 따라서, 보다 효율적이고 차량 검출 성능의 정확도가 높은 체계적인 차량 검출 기술이 요구된다. As described above, the conventional vehicle detection methods have a problem in that the vehicle detection performance is affected by the distance between the vehicles and the detection performance is lowered. Therefore, a systematic vehicle detection technique that is more efficient and has high accuracy of vehicle detection performance is required.

따라서, 본 발명은 근거리에서 전후방 차량의 검출 성능을 효율적으로 증대시킬 수 있도록 하는 차량 검출 방법 및 장치를 제공한다. Accordingly, the present invention provides a vehicle detection method and apparatus for efficiently increasing the detection performance of front and rear vehicles at a short distance.

상술한 바를 달성하기 위한 본 발명은 차량 검출 방법에 있어서, 차량에 장착된 카메라를 이용하여 대상 영역을 촬영하는 과정과, 상기 차량에 장착된 초음파 센서를 이용하여 차량 간 거리 정보를 산출하는 과정과, 상기 촬영된 영상에서 차량 후보 영역을 추출하여 검증하는 과정과, 상기 산출된 거리 정보를 상기 영상에서의 위치로 변환하는 과정과, 상기 검증된 차량 후보 영역과 상기 변환된 위치와의 차이가 일정치 이하가 되는지를 판단하는 과정과, 상기 일정치 이하가 되는 차량 후보 영역을 최종 차량 후보로 검출하는 과정을 포함함을 특징으로 한다.According to an aspect of the present invention, there is provided a method of detecting a vehicle, including: photographing a target area using a camera mounted on a vehicle; calculating distance information between vehicles using an ultrasonic sensor mounted on the vehicle; Extracting and verifying a vehicle candidate region from the captured image, converting the calculated distance information into a position in the image, and a difference between the verified vehicle candidate region and the converted position And determining whether the vehicle is less than or equal to the fixed value, and detecting the vehicle candidate area that is less than or equal to the predetermined value as the final vehicle candidate.

또한 본 발명은 차량 검출 장치에 있어서, 자기 차량에 전후방을 촬영할 수 있도록 적어도 하나 이상 전/후면에 설치되며, 대상 영역 촬영에 따른 영상을 제공하는 영상수신부와, 상기 자기 차량에 전/후면에 적어도 하나 이상 설치되며, 초음파 신호를 방사하여 다른 차량에 반사되어 되돌아오는 시간을 근거로 거리 정보를 산출하는 초음파신호 수신부와, 상기 영상수신부로부터 제공되는 영상에서 차량 후보 영역을 검출하여 검증하는 영상처리부와, 상기 초음파신호 수신부로부터의 거리 정보를 상기 영상에서의 위치로 변환하고, 상기 변환된 위치와 상기 영상에서 추출된 차량 후보 간의 위치 차이가 일정치 이하일 경우 상기 초음파신호 수신부의 거리정보를 상기 영상처리부에서의 차량 후보 영역에 융합하는 센서융합부와, 상기 센서융합부로부터 제공되는 정보를 이용하여 상기 일정치 이하가 되는 차량 후보 영역을 최종 차량 후보로 검출하는 차량 위치 검출부를 포함함을 특징으로 한다.In another aspect, the present invention provides a vehicle detection device, at least one of the front and rear to be photographed in front and rear of the vehicle, the image receiving unit for providing an image according to the target region shooting, and at least on the front and rear of the vehicle At least one ultrasonic signal receiver for emitting distance information and calculating distance information based on a time reflected by another vehicle, and an image processor for detecting and verifying a vehicle candidate region from an image provided from the image receiver; And converting the distance information from the ultrasonic signal receiver into a position in the image, and when the position difference between the converted position and the vehicle candidate extracted from the image is less than or equal to a predetermined value, the distance information of the ultrasonic signal receiver from the image processor. A sensor fusion unit for fusion to a vehicle candidate region in Using the information provided is characterized in that it comprises a vehicle position detection unit that detects a vehicle candidate region in which the predetermined value or less as a final candidate vehicle.

이하 본 발명에 따른 바람직한 실시예를 첨부한 도면의 참조와 함께 상세히 설명한다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호 들로 나타내고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the same elements in the figures are represented by the same reference numerals wherever possible. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명은 근거리에서 전후방의 차량을 효율적으로 검출할 수 있는 기능을 구현한다. 이를 위해 본 발명은 본 발명은 차량 주위를 촬영하는 카메라 및 전후방의 장애물 또는 차량을 검출하는 초음파 센서를 구비하고, 일단 카메라를 통해 획득되는 영상을 이용하여 차량 후보를 검출한 후 초음파 센서를 통해 획득된 거리 정보를 상기 차량 후보가 검출된 영상에 융합한다. 그리고나서 상기 검출된 차량 후보에서 거리 정보에 부합되지 않은 차량 후보를 제외시킴으로써 유효한 차량 위치만을 검출할 수 있게 된다. 이렇게 함으로써 보다 차량 검출 성능의 정확도를 높일 수 있게 된다. The present invention implements a function that can efficiently detect the front and rear vehicles at close range. To this end, the present invention includes a camera for photographing the surroundings of the vehicle, and an ultrasonic sensor for detecting obstacles or vehicles in front and rear, and after detecting a vehicle candidate using an image acquired through the camera, is obtained through the ultrasonic sensor. The obtained distance information is fused to the image of which the vehicle candidate is detected. Then, by excluding vehicle candidates not matching the distance information from the detected vehicle candidates, only valid vehicle positions can be detected. This makes it possible to increase the accuracy of the vehicle detection performance more.

상기한 바와 같은 기능이 구현된 차량 검출 시스템을 설명하기 위해 도 1을 참조한다. 도 1은 본 발명의 실시 예에 따른 차량 검출 시스템의 내부 블록구성도이다. Referring to FIG. 1 to describe a vehicle detection system in which the above function is implemented. 1 is an internal block diagram of a vehicle detection system according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 차량 검출 시스템은 센서수신부(101), 영상처리부(104), 센서융합부(105) 및 차량위치 검출부(106)를 포함하여 구성된다.Referring to FIG. 1, a vehicle detection system according to the present invention includes a sensor receiver 101, an image processor 104, a sensor fusion unit 105, and a vehicle position detector 106.

먼저, 센서수신부(101)는 자기 차량 주위의 차량 존재 여부를 확인하기 위한 수단으로, 본 발명에 따라 크게 영상 수신부(102) 및 초음파신호 수신부(103)로 구성된다. First, the sensor receiver 101 is a means for checking the existence of a vehicle around the own vehicle. The sensor receiver 101 includes an image receiver 102 and an ultrasonic signal receiver 103 according to the present invention.

먼저, 영상 수신부(102)는 카메라를 뜻하며, 그 영상 수신부(102)는 도로의 차량에 대한 영상을 촬영하며 그 촬영된 영상을 영상 처리를 위해 영상처리부(104)에 제공한다. 영상수신부(102)는 자기 차량의 전후방에 각각 설치된 45°이내의 주변을 촬영하는 카메라로부터 320 ×240 크기의 영상을 획득하게 된다.First, the image receiver 102 refers to a camera, and the image receiver 102 photographs an image of a vehicle on the road and provides the captured image to the image processor 104 for image processing. The image receiver 102 acquires an image having a size of 320 × 240 from a camera photographing the surroundings within 45 ° installed in front and rear of the vehicle.

초음파신호 수신부(103)는 초음파 센서인 소나 센서를 뜻하며, 초음파 범위(10m) 내에서 초음파를 방사하여 그 초음파가 초음파 센서로 되돌아오는데 걸리는 시간을 측정하도록 구성된다. 구체적으로 초음파신호 수신부(103)는 차량 주위에 다른 차량이 존재하는 경우 방사된 초음파가 다른 차량에 반사되어 그 초음파 센서에서 다시 캡처하는데 걸리는 시간을 근거로 그 다른 차량이 위치한 거리를 산출할 수 있게 된다. The ultrasonic signal receiver 103 refers to a sonar sensor, which is an ultrasonic sensor, and is configured to radiate ultrasonic waves within the ultrasonic range 10m to measure the time taken for the ultrasonic waves to return to the ultrasonic sensor. In detail, when another vehicle exists around the vehicle, the ultrasonic signal receiver 103 may calculate a distance at which the other vehicle is located based on the time taken for the emitted ultrasonic wave to be reflected by the other vehicle and captured again by the ultrasonic sensor. do.

이와 같이 센서 수신부(101)를 구성하는 영상수신부(102) 및 초음파신호 수신부(103)는 도 2에 도시된 바와 같이 자기 차량에 장착될 수 있다. 도 2에서는 자기 차량의 전방 차량을 검출하기 위해 전면에 초음파 센서와 카메라가 장착되어 있는 경우를 도시하고 있다. 이때, 전방 이외의 후방 차량을 감지하기 위해서는 상기한 바와 마찬가지로 자기 차량의 후면에도 초음파 센서 및 카메라를 장착하면 된다. As such, the image receiver 102 and the ultrasonic signal receiver 103 constituting the sensor receiver 101 may be mounted in the vehicle. 2 illustrates a case where an ultrasonic sensor and a camera are mounted on a front surface of the vehicle to detect a vehicle ahead of the vehicle. In this case, in order to detect a rear vehicle other than the front, an ultrasonic sensor and a camera may be mounted on the rear of the vehicle as described above.

영상처리부(104)는 차량을 촬영한 영상을 통해 차량 아래 부분의 그림자를 이용하여 차량을 검출한다. 구체적으로, 영상처리부(104)는 차량 아래 부분의 그림자를 이용하는 방법은 차량이 도로와 만나는 지점에서 발생하는 그림자를 이용하여 차량 후보 영역을 설정하고, 설정된 차량 후보 영역에 대한 좌우 에지성분, 차량에 폭에 대한 템플릿(templet)을 이용하여 차량을 검출하는 것이다. 검출된 차량에 대 해서는 계속적으로 안정적인 검출이 수행될 수 있도록 관심영역으로 설정되어 추적되게 된다. The image processor 104 detects the vehicle by using the shadow of the lower part of the vehicle through the captured image of the vehicle. In detail, the image processing unit 104 uses the shadow of the lower part of the vehicle to set the vehicle candidate region by using the shadow generated at the point where the vehicle meets the road, and the left and right edge components of the set vehicle candidate region to the vehicle. Detecting a vehicle using a template for the width. The detected vehicle is set to the ROI and tracked so that stable detection can be continuously performed.

특히 본 발명의 실시 예에서는 근거리에서의 차량 검출 성능을 높이기 위해 초음파 신호의 거리가 3 ~ 10m 이내에서 차량 등의 목적물이 검출되면, 센서 융합부(105)에서는 초음파신호 수신부(103)로부터 제공되는 그 목적물까지의 실제 거리를 원근변환에 의해 영상수신부(102)에 의해 촬영된 영상에서의 위치로 변환한다. 이와 같이 자기 차량과 다른 차량 간의 거리에 따라 근거리에서는 촬영한 영상에서 초음파 센서를 통해 얻은 거리 정보를 융합하여 보다 높은 차량 검출 성능을 얻을 수 있도록 한다. 이에 따라 센서 융합부(105)에서는 초음파 센서를 통해 얻은 거리 정보를 영상의 위치로 변환시켰을 때 변환된 위치와 영상에서 추출된 차량 후보 간의 위치 차이가 일정치 이상의 오차를 가지는지를 판단한다. 만일 일정치 이상의 오차를 가질 경우에는 센서 융합부(105)에서는 초음파신호 수신부(103) 또는 영상수신부(102)의 정보 중 하나를 그 영상에서 최종 차량 위치를 검출할 때 크게 고려하지 않는다. 이와 달리 오차 범위 이내일 경우에는 센서 융합부(105)에서는 초음파신호 수신부(103)로부터 얻은 거리 정보를 영상처리부(104)에 의해 추출된 차량 후보 영역에 융합하여 차량 위치 검출부(106)에 전달하게 된다. In particular, according to an embodiment of the present invention, if an object such as a vehicle is detected within a distance of 3 to 10 m of the ultrasonic signal to increase the vehicle detection performance at a short distance, the sensor fusion unit 105 is provided from the ultrasonic signal receiver 103. The actual distance to the target object is converted into a position in the image captured by the image receiving unit 102 by perspective transformation. As described above, according to the distance between the vehicle and the other vehicle, the vehicle can obtain higher vehicle detection performance by fusing the distance information obtained by the ultrasonic sensor from the captured image at a short distance. Accordingly, the sensor fusion unit 105 determines whether the position difference between the converted position and the vehicle candidate extracted from the image has an error of a predetermined value or more when the distance information obtained by the ultrasonic sensor is converted into the position of the image. If the error is greater than a certain value, the sensor fusion unit 105 does not consider much of one of the information of the ultrasonic signal receiver 103 or the image receiver 102 when detecting the final vehicle position in the image. On the other hand, in the case of an error range, the sensor fusion unit 105 fuses the distance information obtained from the ultrasonic signal receiver 103 to the vehicle candidate region extracted by the image processor 104 and transmits the distance information obtained to the vehicle position detection unit 106. do.

예를 들어, 초음파신호 수신부(103)로부터 얻은 거리 정보에 대응하는 위치에 영상에서 추출된 차량 후보 영역이 존재하지 않을 경우에는 초음파 센서가 지면에 반사되거나 외부 영향에 의해 오작동하는 것으로 간주되어 그 거리 정보에 따른 차량 검출은 무시된다. 이에 따라 차량 위치 검출부(106)에서는 센서 융합부(105) 에서 제공되는 영상을 통해서만 최종 차량 위치를 검출하게 된다. 이와 달리 영상에서는 추출된 차량 후보 영역이 존재하지만 초음파신호 수신부(103)에서 수신된 거리 정보가 없을 경우에는 영상처리 시 오류가 발생했다고 간주하여 차량 위치 검출부(106)에서는 초음파신호 수신부(103)를 통해 얻은 거리 정보로만 최종 차량 위치를 검출하게 된다.For example, when the vehicle candidate region extracted from the image does not exist at a position corresponding to the distance information obtained from the ultrasonic signal receiver 103, the ultrasonic sensor is considered to be reflected by the ground or malfunctions due to external influences, and thus the distance. Vehicle detection according to the information is ignored. Accordingly, the vehicle position detector 106 detects the final vehicle position only through the image provided by the sensor fusion unit 105. On the other hand, if there is an extracted vehicle candidate region in the image, but there is no distance information received from the ultrasonic signal receiving unit 103, the vehicle position detecting unit 106 considers that an error has occurred in the image processing, and the ultrasonic signal receiving unit 103 Only the distance information obtained will detect the final vehicle position.

상기한 바와 같이 본 발명에서는 초음파신호 수신부(103)가 3 ~ 10 m 이내에서 목적물을 탐지한 경우 실제거리를 영상에서의 위치로 변환하여 차량 후보를 도출하고, 영상에서의 차량의 특징점을 이용해서 검증함으로써 최종 차량 위치를 검출하는 것이다. 이에 따라 3m 이내에서는 영상을 이용한 차량 검출 성능이 저하되고 영상 처리에 따른 시간이 많이 소요되기 때문에 그 영상을 통한 차량 검출 방법은 고려하지 않고 초음파신호 수신부(103)를 통해 얻은 정보만을 이용하여 최종 차량 위치를 검출한다. As described above, in the present invention, when the ultrasonic signal receiver 103 detects an object within 3 to 10 m, a vehicle candidate is derived by converting the actual distance to a position in the image, and using the feature points of the vehicle in the image. By verifying, the final vehicle position is detected. As a result, the vehicle detection performance using the image is degraded within 3m and the time required for the image processing is deteriorated. Therefore, the final vehicle is obtained using only the information obtained through the ultrasonic signal receiver 103 without considering the vehicle detection method through the image. Detect location.

이하, 본 발명의 실시 예에 따라 근거리에서 차량 검출 성능을 증대시키기 위한 차량 검출 시스템의 동작을 도 3을 참조하여 살펴보기로 한다. 도 3은 본 발명의 실시 예에 따라 근거리에서 효율적인 차량 검출을 위한 차량 검출 시스템의 제어흐름도이다. 도 3에서 초음파 센서를 통해 얻어지는 거리 정보를 대상 차량과의 거리 정보가 아닌 장애물일 수도 있지만, 이하의 설명에서는 자기 차량과 대상 차량 간의 거리라고 가정하여 설명한다. Hereinafter, an operation of a vehicle detection system for increasing vehicle detection performance in a short range according to an embodiment of the present invention will be described with reference to FIG. 3. 3 is a control flowchart of a vehicle detection system for efficient vehicle detection at a short distance according to an exemplary embodiment of the present invention. Although the distance information obtained through the ultrasonic sensor in FIG. 3 may be an obstacle instead of the distance information with respect to the target vehicle, the following description assumes that the distance between the own vehicle and the target vehicle is assumed.

도 3을 참조하면, 차량 검출 시스템은 사용자에 의해 차량 검출 모드로 진입하면 200단계에서 도로 상의 차량 즉, 대상 영역을 카메라를 통해 촬영하기 시작하 며, 초음파 센서를 통해서는 차량 간 거리 정보를 산출한다. 이어, 차량 검출 시스템은 205단계에서 산출된 차량 간 거리가 초음파 센서의 감지 가능 거리 이내인지를 판단한다. 여기서, 초음파 센서의 감지 가능 거리는 초음파 센서의 유효 감지 거리를 말하며, 통상적으로 10 m 이내의 거리를 의미한다. Referring to FIG. 3, when the user enters the vehicle detection mode by the user, the vehicle detection system starts capturing a vehicle on the road, that is, a target region through a camera, in step 200 and calculates distance information between vehicles through an ultrasonic sensor. . Next, the vehicle detection system determines whether the distance between the vehicles calculated in step 205 is within a detectable distance of the ultrasonic sensor. Here, the detectable distance of the ultrasonic sensor refers to the effective sensing distance of the ultrasonic sensor, and typically means a distance within 10 m.

만일 초음파 센서의 유효 감지 거리 이내가 아닐 경우 차량 검출 시스템은 207단계로 진행하여 카메라를 이용한 차량 검출을 수행한다. 일반적으로 카메라를 이용한 차량 검출 방식은 근거리인 10m 이내에서는 사각 지역이 발생할 수도 있기 때문에 이를 개선하기 위해 초음파 센서 방식을 융합시켜 사각 지역을 제거하는 것이다. 하지만 근거리를 벗어난 거리 예컨대, 10m ~ 50m 이내에서는 카메라만으로도 충분한 차량 검출 성능을 기대할 수 있으므로, 통상의 카메라를 이용한 차량 검출 방식이 사용된다. If it is not within the effective detection distance of the ultrasonic sensor, the vehicle detection system proceeds to step 207 to perform vehicle detection using a camera. In general, a vehicle detection method using a camera may eliminate blind spots by fusing an ultrasonic sensor method to improve the blind spots within a short range of 10m. However, within a distance outside the short distance, for example, within 10m to 50m, a sufficient vehicle detection performance can be expected with a camera alone, and thus a vehicle detection method using a conventional camera is used.

한편, 205단계에서 초음파 센서의 유효 감지 거리 이내일 경우 차량 검출 시스템은 210단계에서 산출된 거리가 촬영 불가능 거리 이내인지를 판단한다. 즉, 카메라를 통해 얻어지는 영상으로부터 차량을 검출하기 어려운 거리인지를 판단하는 것이며, 이는 대략 3m 이내가 해당한다. 만일 촬영 불가능 거리 이내일 경우에는 촬영된 영상에서 차량 검출이 어렵고 처리 시간이 많이 소요된다. 따라서, 촬영 불가능 거리 이내일 경우에는 차량 검출 시스템은 215단계에서 초음파 센서를 이용한 차량 검출을 수행한다. 즉, 초음파 센서를 통해 얻은 거리 정보만으로 차량 위치를 검출한다. 촬영 불가능 거리인 3m 이내에서는 영상에서 차량의 특징점을 찾기 힘들기 때문에 초음파 센서의 거리 정보만을 이용해서 차량의 종방향 거리를 추정하고, 영상에서의 좌우 에지 성분을 이용해서 정확한 횡방향 위치를 추정하게 된다. In operation 205, when the vehicle is within the effective sensing distance of the ultrasonic sensor, the vehicle detection system determines whether the distance calculated in operation 210 is within the impossible photographing distance. That is, it is determined whether the vehicle is difficult to detect from the image obtained through the camera, which corresponds to approximately 3m or less. If it is within the impossible shooting distance, it is difficult to detect the vehicle from the captured image and it takes a lot of processing time. Therefore, when the vehicle is within the impossible photographing distance, the vehicle detection system performs vehicle detection using an ultrasonic sensor in step 215. That is, the vehicle position is detected only by the distance information obtained through the ultrasonic sensor. It is difficult to find the feature point of the vehicle in the image within 3m of the impossible shooting distance. do.

이와 달리 촬영 불가능 거리 이내가 아닐 경우 예컨대, 3 ~ 10m 이내의 거리일 경우 차량 검출 시스템은 220단계에서 촬영된 영상에서 차량 후보 영역을 추출한다. 여기서, 차량 후보 영역을 추출하는 과정은 하기에서 도 4 및 도 5를 참조하여 구체적으로 설명한다. 그리고나서 차량 검출 시스템은 225단계에서 예컨대, 차량의 템플릿 등 차량에 대한 사전 정보와 차량 후보 영역에 대한 좌우 에지성분을 이용하여 추출된 차량 후보 영역을 검증한다. 이어, 차량 검출 시스템은 230단계에서 검증된 차량 후보 영역과 초음파 센서로부터 얻은 정보와 융합하기 위해 초음파 센서로부터의 거리 정보를 원근변환에 의해 상기 영상에서의 위치로 변환하고, 한다. 그리고나서 차량 검출 시스템은 235단계에서 그 차량 후보 영역과 변환된 위치를 비교하여 일정치 이하인지를 판단한다. On the contrary, when the distance is not within the impossible photographing distance, for example, when the distance is within 3 to 10 m, the vehicle detection system extracts the vehicle candidate region from the image photographed in step 220. Here, the process of extracting the vehicle candidate region will be described in detail with reference to FIGS. 4 and 5. In operation 225, the vehicle detection system verifies the extracted vehicle candidate region using left and right edge components of the vehicle candidate region and the prior information about the vehicle such as a template of the vehicle. Subsequently, the vehicle detection system converts distance information from the ultrasonic sensor into a position in the image by perspective transformation in order to fuse the vehicle candidate region verified in step 230 with the information obtained from the ultrasonic sensor. In step 235, the vehicle detection system compares the vehicle candidate area with the converted position and determines whether the vehicle detection system is below a predetermined value.

만일 일정치 이하인 경우 차량 검출 시스템은 초음파 센서를 통해 얻은 거리 정보에 대응하는 위치에 영상에서의 차량 후보 영역이 존재한다고 판단하여 245단계에서 최종 차량 위치를 검출하게 된다. 이와 달리 일정치 이상이 되면 즉, 차량 후보 영역과 변환된 위치가 일정치 이상의 오차를 갖는 경우 차량 검출 시스템은 240단계에서 일정치 이상인 차량 후보 영역에 대해서는 그 영역을 무시하고, 초음파 센서를 통해 얻은 거리 정보만을 고려하여 최종 차량 위치를 검출하게 된다. 이때, 초음파 센서 응답이 없는 영상의 위치에서 영상에서 차량 후보 영역이 검출되는 경우에는 영상처리 오류로 간주되어 240단계에서와 같이 차량 후보 영역이 무시된다. 이와 달리 초음파 센서 응답이 존재하나 즉, 영상에서 거리 정보에 대응하는 위치에 검출된 차량 후보 영역이 없을 경우 차량 검출 시스템은 초음파 센서가 지면에 반사되거나 외부 영향에 의해 오작동하는 것으로 간주하여 그 초음파 센서에 의한 거리 정보를 무시한다. If it is less than a predetermined value, the vehicle detection system determines that the vehicle candidate region in the image exists at a position corresponding to the distance information obtained through the ultrasonic sensor, and detects the final vehicle position in step 245. On the other hand, if the predetermined value is greater than or equal to, that is, the vehicle candidate region and the converted position has an error greater than or equal to the predetermined value, the vehicle detection system ignores the region for the vehicle candidate region that is greater than or equal to the predetermined value in step 240, and obtained through the ultrasonic sensor. The final vehicle position is detected by considering only the distance information. In this case, when the vehicle candidate region is detected in the image at the position of the image without the ultrasonic sensor response, it is regarded as an image processing error and the vehicle candidate region is ignored as in step 240. In contrast, if there is an ultrasonic sensor response, that is, if there is no vehicle candidate region detected at a position corresponding to the distance information in the image, the vehicle detection system considers the ultrasonic sensor to be reflected by the ground or malfunction by external influence. Ignore distance information by

상기한 바와 같이 근거리에서 차량 위치를 검출하는 방법은 예를 들어, 초음파를 통해 얻은 차량 거리가 6m라고 볼 경우 카메라를 통해 얻은 영상에서는 원근감을 제거해야만 6m라고 동일하게 볼 수 있는 것이다. 따라서 본 발명은 원근감을 제거해서 초음파를 이용하여 얻은 차량 후보 영역들과 카메라를 이용하여 얻은 차량 후보 영역들 중 겹쳐지는 영역에 대해서는 최종 차량 위치로 추출하게 된다. 이때, 차량 검출 시스템은 그 영역들이 어느 정도 겹쳐지는지에 대해서는 초음파를 이용하여 얻은 차량 후보 영역들과 카메라를 이용하여 얻은 차량 후보 영역들 간의 위치 비교를 수행하고, 그 비교 결과가 일정치 이하가 되면 동일하게 겹쳐진다고 판단하게 된다. As described above, a method of detecting a vehicle position at a short distance may be, for example, that if the vehicle distance obtained through ultrasound is 6m, the image obtained through the camera may be viewed as 6m only by removing perspective. Therefore, in the present invention, the overlapping regions of the vehicle candidate regions obtained by using ultrasound and the vehicle candidate regions obtained by using the camera are extracted as the final vehicle position by removing perspective. At this time, the vehicle detection system performs a position comparison between the vehicle candidate regions obtained by using ultrasound and the vehicle candidate regions obtained by using a camera, and how much the regions overlap with each other. It is determined that the same overlap.

상기한 바와 같이 본 발명에서는 초음파 센서와 카메라를 이용한 차량 검출 방법에 대한 개선 방법을 제시함으로써 근거리 지역에서는 보다 월등한 차량 검출 성능을 기대할 수 있게 된다. As described above, in the present invention, by providing an improvement method for a vehicle detection method using an ultrasonic sensor and a camera, it is possible to expect superior vehicle detection performance in a near area.

이하의 설명에서는 차량 검출 과정에 대해 도 4 및 도 5를 참조하여 상세히 설명한다. 도 4는 본 발명의 실시 예에 따라 1차 차량 후보 영역을 설정하는 과정을 보여주는 화면예시도이며, 도 5는 본 발명의 실시 예에 따라 2차 차량 후보 영역을 설정하는 과정을 보여주는 화면예시도이다. In the following description, a vehicle detection process will be described in detail with reference to FIGS. 4 and 5. 4 is a screen diagram illustrating a process of setting a primary vehicle candidate region according to an embodiment of the present invention, and FIG. 5 is a screen diagram illustrating a process of setting a secondary vehicle candidate region according to an embodiment of the present invention. to be.

일단 차량 검출 시스템은 차량 후보 영역을 설정하기 위해 도 4(a)에 도시된 바와 같은 전체 영상(302)에서 움직이는 차량에 대한 영역(301)과 움직임이 없는 주변 배경 영역을 분리해야 한다. 이를 위해 차량 검출 시스템은 일단 그림자 영역을 이용하여 전체 영상에서 주변 배경 영역을 제거한다. 여기서, 그림자 영역은 영상에서 도로와 차량 사이의 경계에 나타나는 영역으로, 도로상황, 차량의 형태, 우천 시 등의 기상변화 등에 크게 상관없이 나타나며 단일 영상으로부터 차량 사이의 거리를 추정하는데 필요한 차량 인식의 주요한 특징점이다. 이러한 그림자 영역은 도로 영역보다 일정 이상 어두운 명암을 가진다는 특징을 이용해서 검출될 수 있다. First, the vehicle detection system must separate the region 301 for the moving vehicle from the surrounding background region without motion in the entire image 302 as shown in FIG. 4 (a) to set the vehicle candidate region. To this end, the vehicle detection system once removes the surrounding background region from the entire image using the shadow region. Here, the shadow area is an area that appears at the boundary between the road and the vehicle in the image, regardless of the road situation, the shape of the vehicle, or the weather change such as rainy weather. It is a major feature. Such shadow areas may be detected using the feature that the shadow area has a certain intensity darker than the road area.

효과적인 그림자 영역 검출을 위해 차량 검출 시스템은 전체 영상(302)에서 배경 부분을 제거하고 움직임이 있는 영역 즉, 관심영역(301)안에서 배경 부분을 제거하고 관심영역(301)안에서 히스토그램 평준화를 통해 비교적 어두운 명암을 갖고 있는 포장도로와 그림자영역의 명암차를 크게 하여 도 4(a)와 같은 정규화된 영상(302)과 도 4(b)와 같은 이진화 영상(303)을 생성한다. For effective shadow area detection, the vehicle detection system removes the background part from the entire image 302, removes the background part from the moving area, that is, the region of interest 301, and relatively dark through histogram equalization within the region of interest 301. The normalized image 302 as shown in FIG. 4 (a) and the binarized image 303 as shown in FIG. 4 (b) are generated by increasing the contrast between the pavement and the shadow area having the contrast.

그리고나서 차량 검출 시스템은 도 4(c)의 도면부호 305에 의해 지시되는 화살표 방향으로 즉, 영상의 하단에서 상단방향으로 일정한 두께를 갖는 윈도우(window)(304)로 스캐닝(Scaning)하여 그림자 영역을 검색한다. 이때, 차량 검출 시스템은 관심영역(301) 전체에 대한 스캐닝을 하기 위해 윈도우를 하단에서 상단방향으로 이동시키면서 도면부호 306에 의해 지시되는 화살표 방향으로도 이동시킨다. 이와 같이 아래에서 위로 이동시키면서 동시에 좌에서 우로 윈도우를 이동시켜 관심영역(301)에 대해 모두 스캐닝함으로써 차량 검출 시스템은 명암이 크게 감소 하면서도 일정 이하의 어두운 명암을 갖는 영역을 도 4(c)에서와 같이 그림자영역(307)으로 검출하여 그 그림자 영역(307)을 차량 후보 영역으로 설정한다. 이와 같이 그림자 영역을 이용해서는 1차적인 차량 후보 영역이 설정된다. The vehicle detection system then scans with a window 304 having a constant thickness in the direction of the arrow indicated by reference numeral 305 in FIG. 4 (c), i.e., from the bottom to the top of the image. Search for. At this time, the vehicle detection system also moves the window from the lower side to the upper direction in order to scan the entire region of interest 301 and also in the direction of the arrow indicated by the reference numeral 306. By moving the window from left to right while moving from bottom to top as described above, the vehicle detection system scans all areas of the region of interest 301. Similarly, the shadow area 307 is detected and the shadow area 307 is set as a vehicle candidate area. In this way, the primary vehicle candidate region is set using the shadow region.

그리고나서 보다 정밀한 차량 후보 영역을 설정하기 위해 2차적으로 차량 후보 영역을 설정하는 동작을 수행한다. 이를 도 5를 참조하여 설명하면, 도 5에서는 1차로 설정된 차량 후보 영역들을 평면상의 실제 좌표로 변환한 후, 그 평면상에서 가상 차선 밖의 무리지어진 차량 후보 영역들은 제거하여 2차 차량 후보 영역을 설정하는 과정을 보여준다.Then, in order to set a more precise vehicle candidate region, an operation of setting a vehicle candidate region secondary is performed. Referring to FIG. 5, in FIG. 5, after converting the vehicle candidate regions set as primary to actual coordinates on a plane, the vehicle candidate regions outside the virtual lane on the plane are removed to set a secondary vehicle candidate region. Show the process.

도 5에 도시된 바와 같이 차량 후보 영역들은 적어도 하나 이상의 점들로 무리지어 보여지는데, 차량 후보 영역들은 가상 차선(403)에 의해 여러 무리(401, 402)로 구분된다. 이 무리들(401, 402) 중 가상 차선(403)의 관심영역 밖에 위치한 무리(402)는 제거되며, 나머지 무리(401)가 2차 차량 후보 영역으로 설정된다. 이와 같이 도 5에서는 영상에서 추출된 차량 후보 영역들을 평면상의 실제 좌표로 변환하여 처리한 결과를 예시하고 있다. 여기서, 상기 좌표 변환은 하기 수학식 1을 통해 이루어진다. As shown in FIG. 5, the vehicle candidate regions are grouped into at least one or more points, and the vehicle candidate regions are divided into groups 401 and 402 by the virtual lane 403. Among the groups 401 and 402, the group 402 located outside the region of interest of the virtual lane 403 is removed, and the remaining group 401 is set as the secondary vehicle candidate region. As described above, FIG. 5 illustrates a result of processing the vehicle candidate regions extracted from the image by converting them into actual coordinates on a plane. In this case, the coordinate transformation is performed through Equation 1 below.

Figure 112006048636669-pat00001
Figure 112006048636669-pat00001

상기 수학식 1은 영상좌표와 실제 좌표 사이의 변환을 나타내는 3×3행렬로서, 영상에서 나타나는 원근효과를 없애서 영상좌표(r i ,c i )를 평면상의 3차원 실제좌표(x i , y i )로 변환한다.Equation 1 is a 3x3 matrix representing a transformation between image coordinates and actual coordinates, and the image coordinates ( r i , c i ) are reduced to three-dimensional actual coordinates ( x i , y i ) on a plane by removing the perspective effect of the image. To).

상기한 바와 같은 과정을 통해 1차로 추출된 차량 후보 영역에서 다시 수학식 1을 통해 1차 추출된 차량 후보 영역들 중에서 다시 유효하지 않은 차량 후보 영역들은 제거하여 2차로 차량 후보 영역을 생성하게 된다. In the vehicle candidate region extracted first through the above process, invalid vehicle candidate regions are again removed from the vehicle candidate regions extracted first through Equation 1 to generate the vehicle candidate region secondarily.

이하, 2차 차량 후보 영역에 대한 검증 과정을 설명하기로 한다. 차량 후보 영역에 대한 검증은 차량이 있다고 간주한 영역에 실제로 차량이 위치하는지를 판단하기 위함이다. 예를 들어, 2차 차량 후보 영역을 얻었더라도 차량이 아닌 장애물 등이 검출되는 경우도 있을 수 있기 때문에 그 차량 후보 영역에 대한 검증을 수행해야 하는 것이다. Hereinafter, a verification process for the secondary vehicle candidate region will be described. The verification of the vehicle candidate area is to determine whether the vehicle is actually located in the area where the vehicle is considered to be. For example, even if a secondary vehicle candidate region is obtained, an obstacle, etc., which is not a vehicle may be detected. Therefore, verification of the vehicle candidate region should be performed.

2차 차량 후보 영역은 차량의 사전지식으로 적용되는 대칭성과 좌우 수직에지 성분, 차량의 폭에 의해 검증된다. 2차 차량후보의 종방향 위치는 그림자 영역에 의해 설정되므로 비교적 정확하나 횡방향 위치는 부정확하기 때문에 하기 수학 식 2와 같은 에지의 대칭성을 통해서 대칭성이 우수한 영역으로 재설정된다. The secondary vehicle candidate region is verified by the symmetry, left and right vertical edge components, and the width of the vehicle, which are applied prior to the vehicle. Since the longitudinal position of the secondary vehicle candidate is set by the shadow region, it is relatively accurate, but since the lateral position is inaccurate, it is reset to the region having excellent symmetry through the symmetry of the edge as shown in Equation 2 below.

Figure 112006048636669-pat00002
Figure 112006048636669-pat00002

상기 수학식 2에서, s는 에지의 각도가 같거나 부호가 반대인 에지의 개수이며 n은 에지의 전체 개수이다. In Equation 2, s is the number of edges having the same angle or opposite sign, and n is the total number of edges.

상기 수학식 2를 통해 차량 후보의 대칭성을 확인하는 과정을 도 6을 참조하여 설명한다. 도 6은 본 발명의 실시 예에 따라 차량 후보마다 대칭축과 차폭을 보여주는 예시도이다. A process of confirming symmetry of the vehicle candidates through Equation 2 will be described with reference to FIG. 6. 6 is an exemplary diagram illustrating a symmetry axis and a vehicle width for each vehicle candidate according to an exemplary embodiment of the present invention.

도 6에서는 영상에서 차량마다 각각의 차폭(502)과 그 차량의 좌우에지의 히스토그램을 보여주고 있다. 각각의 히스토그램마다 도면부호 501에 의해 지시되는 부분에서 피크가 나타나고 있는데, 피크가 중앙에 나타나는 것은 차량이 정면방향에 위치하고 있음을 의미하는 것이며, 피크가 오른쪽에 치우쳐져 나타날 경우에는 차량이 오른쪽에 위치하고 있음을 알 수 있다. 이와 같이 좌우에지의 히스토그램과 실제 차폭(1.5 ~ 4.5m)을 통해서 차량 후보 영역들은 다시 한번 검증됨으로써 영상에서의 최종 차량 후보가 출력될 수 있게 된다. FIG. 6 shows a histogram of each vehicle width 502 and the left and right edges of each vehicle in the image. Each histogram shows a peak at the point indicated by reference numeral 501. If the peak appears in the center, it means that the vehicle is located in the front direction. If the peak is biased to the right, the vehicle is located on the right side. It can be seen that. In this way, the vehicle candidate regions are once again verified through the histogram of the left and right edges and the actual vehicle width (1.5 to 4.5m), so that the final vehicle candidate in the image can be output.

상기한 바와 같은 과정을 거쳐 최종적으로 검출된 차량 후보는 차량 추적 과정을 통해 연속된 영상에서 안정적으로 검출된다. 차량 검출 시스템은 전술한 과정을 거쳐 검출된 차량 후보를 실시간 차량 모형으로 설정하여 신뢰도를 통해서 매 프레임마다 갱신한다. 그리고나서 차량 검출 시스템은 매 프레임마다 갱신된 차량 모형을 이용해서 영상에서의 추적방법으로 잘 알려진 루카스-카나데 방법을 이용해서 추적한다. 만일 높은 신뢰도를 갖는 차량의 추적에 실패하는 경우 신뢰도에 의해 설정된 한계값을 낮춤으로써 차량을 복원한다.The vehicle candidate finally detected through the above process is stably detected in the continuous image through the vehicle tracking process. The vehicle detection system sets a vehicle candidate detected through the above-described process as a real-time vehicle model and updates it every frame through reliability. The vehicle detection system then tracks using the Lucas-Kanade method, which is well known as the tracking method in images, using updated vehicle models every frame. If tracking of a vehicle having high reliability fails, the vehicle is restored by lowering the threshold set by the reliability.

전술한 바와 같이 일반적으로 카메라를 통해 얻은 영상을 이용해서만 차량 후보를 결정하게 되면, 3~10m 거리에서는 그림자가 두껍게 형성되어 역원근변환을 이용해서 실제 차량간 거리를 추정하는데 오류를 포함하고 있을 수 있기 때문에 이를 개선하여 이 거리내에서는 초음파 방식과 카메라 방식을 융합하여 사용한다. 차량 간 거리가 3m 이내일 경우에는 초음파 방식만을 사용하여 전방의 자차선의 차량이 사각형의 최종 차량 영역 내에 유사하게 겹쳐지는 도 7(a)에 도시된 바와 같은 결과를 얻을 수 있다. 게다가 차량 간 거리가 3~10m 이내일 경우에는 센서 융합 방식을 사용함으로써 최종 차량 영역 내에 추적 차량이 정확하게 겹쳐지는 도 7(b)에 도시된 바와 같은 결과를 얻을 수 있게 된다.As described above, when a vehicle candidate is determined only by using an image obtained through a camera, a shadow is thickly formed at a distance of 3 to 10 m, and it may include an error in estimating the actual distance between vehicles using an inverse perspective transformation. Therefore, it improves this and uses ultrasonic method and camera method in this distance. When the distance between the vehicles is within 3m, a result as shown in FIG. 7 (a) may be obtained by using only the ultrasonic method, in which the vehicle in the front lane is similarly overlapped in the rectangular final vehicle area. In addition, when the distance between the vehicles is within 3 ~ 10m by using the sensor fusion method can be obtained as shown in Figure 7 (b) that the tracking vehicle is accurately overlapped in the final vehicle area.

상기한 바와 같이 본 발명은 초음파센서와 카메라의 정보를 융합하여 차량을 검출함으로써 차량 간 거리에 상관없이 전후방의 차량을 검출할 수 있게 된다. 또한 본 발명에서는 카메라가 갖는 10m이내 영역에서는 초음파 방식을 융합하여 사용함으로써 차량 검출 성능을 증대시킬 수 있게 된다. 또한 본 발명은 초음파 방식 또는 카메라 방식만을 사용했을 경우의 차량검출의 한계를 극복하고 거리 측정의 신뢰성을 높임으로써 충돌경보, 충돌회피 제어 등의 운전자 보조시스템에 응용할 수 있게 된다.As described above, the present invention is capable of detecting vehicles in front and rear regardless of the distance between vehicles by detecting the vehicle by fusion of the information of the ultrasonic sensor and the camera. In addition, in the present invention, the vehicle detection performance can be increased by fusion using an ultrasonic method within an area of 10m included in the camera. In addition, the present invention can be applied to a driver assistance system such as collision alarm, collision avoidance control by overcoming the limitation of vehicle detection when only the ultrasonic method or the camera method is used and increasing the reliability of the distance measurement.

Claims (12)

차량 검출 방법에 있어서,In the vehicle detection method, 차량에 장착된 카메라를 이용하여 대상 영역을 촬영하는 과정과,Photographing a target area using a camera mounted on a vehicle, 상기 차량에 장착된 초음파 센서를 이용하여 차량 간 거리 정보를 산출하는 과정과,Calculating distance information between vehicles using an ultrasonic sensor mounted on the vehicle; 상기 촬영된 영상에서 차량 후보 영역을 추출하여 검증하는 과정과,Extracting and verifying a vehicle candidate region from the captured image; 상기 산출된 거리 정보를 상기 영상에서의 위치로 변환하는 과정과,Converting the calculated distance information into a position in the image; 상기 검증된 차량 후보 영역과 상기 변환된 위치와의 차이가 일정치 이하가 되는지를 판단하는 과정과,Determining whether a difference between the verified vehicle candidate region and the converted position is equal to or less than a predetermined value; 상기 일정치 이하가 되는 차량 후보 영역을 최종 차량 후보로 검출하는 과정을 포함함을 특징으로 하는 차량 검출 방법.And detecting a vehicle candidate region that is less than or equal to the predetermined value as a final vehicle candidate. 제 1항에 있어서, 상기 최종 차량 후보로 검출하는 과정은,The method of claim 1, wherein the detecting of the final vehicle candidate is performed. 상기 검증된 차량 후보 영역이 하나 이상일 경우 상기 하나 이상의 차량 후보 영역들 중에서 상기 일정치 이상이 되는 차량 후보 영역을 제거하는 과정임을 특징으로 하는 차량 검출 방법.And removing the vehicle candidate region that is greater than or equal to the predetermined value from the one or more vehicle candidate regions when the verified vehicle candidate region is one or more. 제 1항에 있어서,The method of claim 1, 상기 초음파 센서의 감지 가능 거리는 10m 이내이며, 상기 카메라의 촬영 불가능 거리는 3m 이내인 것을 특징으로 하는 차량 검출 방법.The sensing distance of the ultrasonic sensor is within 10m, and the non-capable distance of the camera is within 3m. 제 1항에 있어서, 상기 차량 후보 영역을 추출하여 검증하는 과정은,The process of claim 1, wherein the extracting and verifying the vehicle candidate region comprises: 상기 영상에서 차량과 도로 사이에 생기는 그림자 영역을 이용해서 차량 후보 영역을 검출하는 과정과,Detecting a vehicle candidate region by using a shadow region generated between the vehicle and the road in the image; 상기 검출된 차량 후보 영역을 차량에 대한 좌우 에지성분 및 차량폭에 대한 사전 지식을 적용해서 상기 차량 후보 영역을 검증하는 과정임을 특징으로 하는 차량 검출 방법.And verifying the vehicle candidate region by applying prior knowledge of the left and right edge components and the vehicle width to the detected vehicle candidate region. 제 4항에 있어서, 상기 차량 후보 영역을 검출하는 과정은,The method of claim 4, wherein the detecting of the vehicle candidate area comprises: 차량과 도로 사이에 생기는 그림자 패턴을 이용하여 상기 영상에서 배경 부분을 제거한 관심영역을 설정하는 과정과,Setting a region of interest from which the background part is removed from the image by using a shadow pattern generated between the vehicle and the road; 상기 관심영역에서 그림자 영역을 검출하여 검출된 영역을 1차로 차량 후보 영역으로 설정하는 과정과,Detecting a shadow area in the ROI and setting the detected area as a vehicle candidate area primarily; 상기 1차 차량 후보 영역에 대한 영상 좌표를 평면상의 3차원 좌표로 변환하 는 과정과,Converting image coordinates of the primary vehicle candidate region into three-dimensional coordinates on a plane; 상기 평면상에 가상 차선에 의해 무리지어진 차량 후보 영역들 중 상기 관심영역 밖의 무리를 제거하여 2차로 차량 후보 영역을 검출하는 과정임을 특징으로 하는 차량 검출 방법.And detecting a vehicle candidate region secondarily by removing a group outside the region of interest from among the vehicle candidate regions crowded by the virtual lane on the plane. 차량 검출 장치에 있어서,In the vehicle detection device, 자기 차량에 전후방을 촬영할 수 있도록 적어도 하나 이상 전/후면에 설치되며, 대상 영역 촬영에 따른 영상을 제공하는 영상수신부와,An image receiving unit installed on at least one of the front and rear sides of the vehicle so as to photograph front and rear, and providing an image according to the target region shooting; 상기 자기 차량에 전/후면에 적어도 하나 이상 설치되며, 초음파 신호를 방사하여 다른 차량에 반사되어 되돌아오는 시간을 근거로 거리 정보를 산출하는 초음파신호 수신부와,An ultrasonic signal receiver installed in at least one of the front and rear surfaces of the vehicle and calculating distance information based on a time when the ultrasonic signal is reflected and returned to another vehicle; 상기 영상수신부로부터 제공되는 영상에서 차량 후보 영역을 검출하여 검증하는 영상처리부와,An image processor for detecting and verifying a vehicle candidate region from an image provided from the image receiver; 상기 초음파신호 수신부로부터의 거리 정보를 상기 영상에서의 위치로 변환하고, 상기 변환된 위치와 상기 영상에서 추출된 차량 후보 간의 위치 차이가 일정치 이하일 경우 상기 초음파신호 수신부의 거리 정보를 상기 영상처리부에서의 차량 후보 영역에 융합하는 센서융합부와,The distance information from the ultrasonic signal receiver is converted into a position in the image, and when the position difference between the converted position and the vehicle candidate extracted from the image is equal to or less than a predetermined value, the distance information of the ultrasonic signal receiver is converted by the image processor. A sensor fusion unit fused to a vehicle candidate region of 상기 센서융합부로부터의 융합 결과를 이용하여 상기 일정치 이하가 되는 차량 후보 영역을 최종 차량 후보로 검출하는 차량 위치 검출부를 포함함을 특징으로 하는 차량 검출 장치.And a vehicle position detector that detects a vehicle candidate region that is less than or equal to the predetermined value as a final vehicle candidate by using a result of the fusion from the sensor fusion unit. 제 6항에 있어서, 상기 센서 융합부는 The method of claim 6, wherein the sensor fusion unit 상기 초음파신호 수신부로부터의 거리 정보를 원근변환에 의해 상기 영상에서의 위치로 변환하고, 상기 변환된 위치와 상기 영상에서 추출된 차량 후보 간의 위치 차이가 일정치 이상일 경우 상기 초음파신호 수신부로부터의 거리 정보 또는 상기 영상처리부에 의해 추출된 차량 후보 영역 중 어느 하나를 고려하지 않는 것을 특징으로 하는 차량 검출 장치.Distance information from the ultrasonic signal receiver is converted to a position in the image by perspective transformation, and when the position difference between the converted position and the vehicle candidate extracted from the image is a predetermined value or more, distance information from the ultrasonic signal receiver. Or does not consider any one of the vehicle candidate regions extracted by the image processing unit. 제 6항에 있어서, The method according to claim 6, 상기 초음파 센서의 감지 가능 거리는 10m 이내이며, 상기 영상수신부의 촬영 불가능 거리는 3m 이내인 것을 특징으로 하는 차량 검출 장치.The sensing distance of the ultrasonic sensor is within 10m, and the non-capable distance of the image receiving unit is within 3m. 제 6항에 있어서, 상기 영상처리부는 The method of claim 6, wherein the image processing unit 상기 영상에서 차량과 도로 사이에 생기는 그림자 영역을 이용해서 차량 후보 영역을 검출하고, 상기 검출된 차량 후보 영역을 차량에 대한 좌우 에지성분 및 차량폭에 대한 사전 지식을 적용해서 상기 차량 후보 영역을 검증하는 것을 특징으 로 하는 차량 검출 장치.In the image, the vehicle candidate region is detected using a shadow region generated between the vehicle and the road, and the vehicle candidate region is verified by applying prior knowledge of left and right edge components and the vehicle width to the detected vehicle candidate region. Vehicle detection apparatus, characterized in that. 제 9항에 있어서, 상기 영상처리부는The method of claim 9, wherein the image processing unit 차량과 도로 사이에 생기는 그림자 패턴을 이용하여 상기 영상에서 배경 부분을 제거한 관심영역을 설정하고, 상기 관심영역에서 그림자 영역을 검출하여 검출된 영역을 1차로 차량 후보 영역으로 설정하고, 상기 1차 차량 후보 영역에 대한 영상 좌표를 평면상의 3차원 좌표로 변환하고, 상기 평면상에 가상 차선에 의해 무리지어진 차량 후보 영역들 중 상기 관심영역 밖의 무리를 제거하여 2차로 차량 후보 영역을 검출하는 것을 특징으로 하는 차량 검출 장치.The ROI is set by removing a background part from the image by using a shadow pattern generated between the vehicle and the road. The ROI is detected from the ROI, and the detected area is primarily set as a vehicle candidate area. And converting the image coordinates of the candidate area into three-dimensional coordinates on the plane, and removing the group outside the ROI among the vehicle candidate areas crowded by the virtual lane on the plane to detect the vehicle candidate area secondarily. Vehicle detection device. 제 1항에 있어서, 상기 촬영된 영상에서 차량 후보 영역을 추출하여 검증하는 과정은,The process of claim 1, wherein the extracting and verifying a vehicle candidate region from the captured image comprises: 상기 산출된 거리 정보가 상기 초음파 센서의 감지 가능 거리 이내이면서 상기 카메라의 촬영 불가능 거리 이내가 아닌 경우 상기 촬영된 영상에서 차량 후보 영역을 추출하는 과정임을 특징으로 하는 차량 검출 방법.And extracting a vehicle candidate region from the photographed image when the calculated distance information is within a detectable distance of the ultrasonic sensor and not within a non-capable distance of the camera. 제 6항에 있어서, 상기 센서융합부는,The method of claim 6, wherein the sensor fusion unit, 상기 산출된 거리 정보가 상기 초음파 센서의 감지 가능 거리 이내이면서 상기 카메라의 촬영 불가능 거리 이내가 아닌 경우 상기 산출된 거리 정보를 상기 영상에서의 위치로 변환함을 특징으로 하는 차량 검출 장치.And converting the calculated distance information into a position in the image when the calculated distance information is within a detectable distance of the ultrasonic sensor and not within a non-capable distance of the camera.
KR1020060063646A 2006-07-06 2006-07-06 Apparatus and method for detecting a vehicle KR101180621B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060063646A KR101180621B1 (en) 2006-07-06 2006-07-06 Apparatus and method for detecting a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060063646A KR101180621B1 (en) 2006-07-06 2006-07-06 Apparatus and method for detecting a vehicle

Publications (2)

Publication Number Publication Date
KR20080004832A KR20080004832A (en) 2008-01-10
KR101180621B1 true KR101180621B1 (en) 2012-09-06

Family

ID=39215421

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060063646A KR101180621B1 (en) 2006-07-06 2006-07-06 Apparatus and method for detecting a vehicle

Country Status (1)

Country Link
KR (1) KR101180621B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101930884B1 (en) * 2017-09-29 2019-03-11 충북대학교 산학협력단 Forward vehicle detection apparatus and operation method thereof

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101478072B1 (en) * 2010-06-23 2015-01-02 주식회사 만도 Method for Detecting Vehicle
KR101860966B1 (en) * 2010-06-23 2018-07-05 콘티넨탈 테베스 아게 운트 코. 오하게 Method and system for accelerated object recognition and/or accelerated object attribute recognition and use of said method
KR101178508B1 (en) * 2010-07-19 2012-09-07 포항공과대학교 산학협력단 Vehicle Collision Alarm System and Method
KR101407901B1 (en) * 2010-12-06 2014-06-16 주식회사 만도 Vehicle Recognition System
KR101371875B1 (en) * 2011-11-28 2014-03-07 현대자동차주식회사 A vehicle detection and distance measurement system and method between the vehicles using stereo vision
KR101360984B1 (en) * 2012-08-27 2014-02-12 한국건설기술연구원 System and method for detecting obstacle on road by using radar
KR101417399B1 (en) 2012-11-09 2014-07-08 현대자동차주식회사 Apparatus and method for parking position display of vehicle
KR101491849B1 (en) * 2013-07-23 2015-02-06 현대오트론 주식회사 fail-safe system and method for inter-vehicle distance
KR101684020B1 (en) * 2014-12-15 2016-12-07 현대자동차주식회사 Apparatus and Method for detecting a vehicle in the blind spot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195700A (en) * 2000-01-14 2001-07-19 Matsushita Electric Ind Co Ltd Device for detecting vehicle information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195700A (en) * 2000-01-14 2001-07-19 Matsushita Electric Ind Co Ltd Device for detecting vehicle information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문 : 대한전자공학회

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101930884B1 (en) * 2017-09-29 2019-03-11 충북대학교 산학협력단 Forward vehicle detection apparatus and operation method thereof

Also Published As

Publication number Publication date
KR20080004832A (en) 2008-01-10

Similar Documents

Publication Publication Date Title
KR101180621B1 (en) Apparatus and method for detecting a vehicle
US11348266B2 (en) Estimating distance to an object using a sequence of images recorded by a monocular camera
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
JP3822515B2 (en) Obstacle detection device and method
US20040178945A1 (en) Object location system for a road vehicle
US8320628B2 (en) Method and system for assisting driver
US7027615B2 (en) Vision-based highway overhead structure detection system
EP2993654B1 (en) Method and system for forward collision warning
CN101500874B (en) Sight-line end estimation device and driving assist device
JP4246766B2 (en) Method and apparatus for locating and tracking an object from a vehicle
EP1964719A2 (en) Apparatus and method for monitoring a vehicle's surroundings
US20060111841A1 (en) Method and apparatus for obstacle avoidance with camera vision
CN107229906A (en) A kind of automobile overtaking's method for early warning based on units of variance model algorithm
CN112784679A (en) Vehicle obstacle avoidance method and device
JP2001195698A (en) Device for detecting pedestrian
JP2008056163A (en) Obstacle detecting device for vehicle
JP3954053B2 (en) Vehicle periphery monitoring device
JP2007199932A (en) Image processor and its method
JPH08329398A (en) Running path detecting device
JP4381394B2 (en) Obstacle detection device and method
JP7519928B2 (en) Vehicle tracking system and vehicle tracking method
CN118131208A (en) Automobile safety lane changing method based on millimeter wave radar and vision fusion
Hsu et al. Object detection and tracking using an optical time-of-flight range camera module for vehicle safety and driver assist applications
JPH1114376A (en) Vehicular traveling road detecting device

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20060706

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20090911

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20060706

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20110408

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20110922

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20110408

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

J201 Request for trial against refusal decision
PJ0201 Trial against decision of rejection

Patent event date: 20111020

Comment text: Request for Trial against Decision on Refusal

Patent event code: PJ02012R01D

Patent event date: 20110922

Comment text: Decision to Refuse Application

Patent event code: PJ02011S01I

Appeal kind category: Appeal against decision to decline refusal

Decision date: 20120725

Appeal identifier: 2011101007708

Request date: 20111020

J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20111020

Effective date: 20120725

PJ1301 Trial decision

Patent event code: PJ13011S01D

Patent event date: 20120725

Comment text: Trial Decision on Objection to Decision on Refusal

Appeal kind category: Appeal against decision to decline refusal

Request date: 20111020

Decision date: 20120725

Appeal identifier: 2011101007708

PS0901 Examination by remand of revocation
S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
PS0701 Decision of registration after remand of revocation

Patent event date: 20120809

Patent event code: PS07012S01D

Comment text: Decision to Grant Registration

Patent event date: 20120726

Patent event code: PS07011S01I

Comment text: Notice of Trial Decision (Remand of Revocation)

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20120831

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20120831

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20150730

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20150730

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20160728

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20160728

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20170728

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20170728

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20180727

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20180727

Start annual number: 7

End annual number: 7

FPAY Annual fee payment

Payment date: 20190730

Year of fee payment: 8

PR1001 Payment of annual fee

Payment date: 20190730

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20200730

Start annual number: 9

End annual number: 9

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20220611