[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016038757A - Traffic light recognition apparatus and traffic light recognition method - Google Patents

Traffic light recognition apparatus and traffic light recognition method Download PDF

Info

Publication number
JP2016038757A
JP2016038757A JP2014162068A JP2014162068A JP2016038757A JP 2016038757 A JP2016038757 A JP 2016038757A JP 2014162068 A JP2014162068 A JP 2014162068A JP 2014162068 A JP2014162068 A JP 2014162068A JP 2016038757 A JP2016038757 A JP 2016038757A
Authority
JP
Japan
Prior art keywords
detection
traffic
traffic light
signal
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014162068A
Other languages
Japanese (ja)
Other versions
JP6299517B2 (en
Inventor
大貴 山ノ井
Daiki Yamanoi
大貴 山ノ井
松尾 治夫
Haruo Matsuo
治夫 松尾
安藤 敏之
Toshiyuki Ando
敏之 安藤
沖 孝彦
Takahiko Oki
孝彦 沖
鈴木 章
Akira Suzuki
章 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2014162068A priority Critical patent/JP6299517B2/en
Publication of JP2016038757A publication Critical patent/JP2016038757A/en
Application granted granted Critical
Publication of JP6299517B2 publication Critical patent/JP6299517B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the accuracy of detecting traffic lights when two or more traffic lights are to be included in an image.SOLUTION: A traffic light recognition apparatus (100) includes an imaging section 11 which images the surroundings of a vehicle to obtain an image, detects a position of the vehicle (12), and estimates a relative position of a traffic light which the vehicle is to follow, with respect to the vehicle, from the position of the vehicle and position information of the traffic light located around the vehicle (13). A detection area is set in the position of the traffic light on the image estimated from the relative position of the traffic light (14). The traffic light is detected from the detection area set on the image (15). For each of the detection areas, probability of falsely detecting the traffic light is evaluated (16). When two or more detection areas are set, the traffic light is detected from a detection area having the lowest probability of falsely detecting the traffic light.SELECTED DRAWING: Figure 2

Description

本発明は、信号機認識装置及び信号機認識方法に関する。   The present invention relates to a traffic signal recognition apparatus and a traffic signal recognition method.

従来から、車両の進行方向を撮像した画像から信号機または一時停止標識を認識する車外認識装置が知られている(特許文献1)。画像中に複数の信号機または一時停止標識が存在する場合、特許文献1では、車両の進行方向に沿った配置順序を判定し、車両に最も近接する位置に存在する信号機または一時停止標識に応じて車両の走行状態を制御する。   2. Description of the Related Art Conventionally, a vehicle outside recognition device that recognizes a traffic light or a stop sign from an image obtained by capturing the traveling direction of a vehicle is known (Patent Document 1). When there are a plurality of traffic lights or stop signs in the image, in Patent Document 1, the arrangement order along the traveling direction of the vehicle is determined, and according to the traffic lights or stop signs present at the closest position to the vehicle Control the running state of the vehicle.

特開2007−257299号公報JP 2007-257299 A

しかし、特許文献1では、走行制御の基準となる信号機を複数の信号機の中から選択する際に、車両から信号機までの距離を考慮しているが、各信号機の誤検出されやすさを考慮していない。色、輝度、又は形状が信号機と類似する物体は、信号機として誤って検出されてしまう場合がある。   However, in Patent Document 1, when selecting a traffic signal serving as a reference for running control from among a plurality of traffic signals, the distance from the vehicle to the traffic signal is taken into consideration, but in consideration of the possibility of erroneous detection of each traffic signal. Not. An object that is similar in color, brightness, or shape to a traffic light may be erroneously detected as a traffic light.

本発明は、上記課題に鑑みてなされたものであり、2以上の信号機が画像に写ることが予測される場合における信号機の検出精度を高めることができる信号機認識装置及び信号機認識方法を提供することを目的としている。   The present invention has been made in view of the above problems, and provides a traffic signal recognition apparatus and a traffic signal recognition method capable of increasing the detection accuracy of traffic signals when two or more traffic signals are predicted to appear in an image. It is an object.

本発明の一態様に係わる信号機認識装置は、車両の周囲を撮像して画像を取得する撮像部を備え、車両の自己位置を検出し、車両の周囲にある信号機の位置情報と自己位置とから、車両が従うべき信号機の車両に対する相対位置を推定する。信号機の相対位置から予想される画像上の信号機の位置に検出領域を設定し、画像上に設定された検出領域から信号機を検出する。そして、検出領域の各々について信号機の誤検出しやすさを評価し、検出領域が2以上設定された場合、信号機の誤検出しやすさが最も低い検出領域から信号機を検出する。   A traffic light recognition apparatus according to an aspect of the present invention includes an imaging unit that captures an image of a vehicle to acquire an image, detects a self-position of the vehicle, and uses position information and a self-position of a traffic light around the vehicle. The relative position of the traffic light to be followed by the vehicle is estimated. A detection area is set at the position of the traffic light on the image expected from the relative position of the traffic light, and the traffic light is detected from the detection area set on the image. Then, the ease of erroneous detection of the traffic signal is evaluated for each of the detection areas. When two or more detection areas are set, the traffic signal is detected from the detection area where the erroneous detection of the traffic signal is the lowest.

信号機認識装置及び信号機認識方法によれば、2以上の検出領域のうち、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出することにより、信号機の誤検出を抑制することができる。よって、信号機の検出精度を高めることができる。   According to the traffic signal recognition device and the traffic signal recognition method, by detecting the traffic signal from the detection areas that are least susceptible to erroneous detection of the traffic signal among two or more detection areas, it is possible to suppress erroneous detection of the traffic signal. it can. Therefore, the detection accuracy of the traffic light can be increased.

図1は、実施形態に係わる信号機認識装置100へ入出力される情報を示すブロック図である。FIG. 1 is a block diagram illustrating information input to and output from the traffic signal recognition apparatus 100 according to the embodiment. 図2は、実施形態に係わる信号機認識装置100の構成及びデータフローを示すブロック図である。FIG. 2 is a block diagram showing the configuration and data flow of the traffic signal recognition apparatus 100 according to the embodiment. 図3は、図2に示した信号機認識装置100を用いた信号認識方法の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of a signal recognition method using the traffic signal recognition apparatus 100 shown in FIG. 図4は、図3のステップS13の詳細な手順を示すフローチャートである。FIG. 4 is a flowchart showing a detailed procedure of step S13 of FIG. 図5は、誤検出度評価部16による誤検出度の評価方法の例を説明するための走行路例を示す図である。FIG. 5 is a diagram illustrating an example of a travel route for explaining an example of a false detection degree evaluation method by the false detection degree evaluation unit 16. 図6は、図5の走行路例において、車両VCに搭載された撮像部11が撮像した画像IMGの例を示す図である。FIG. 6 is a diagram illustrating an example of an image IMG captured by the imaging unit 11 mounted on the vehicle VC in the travel route example of FIG. 図7は、図6の画像IMG内に設定された、信号機TS1、TS2が写ることが予測される検出領域RG1、RG2を示す図である。FIG. 7 is a diagram showing detection regions RG1 and RG2 that are set in the image IMG of FIG. 6 and in which the traffic lights TS1 and TS2 are predicted to be captured. 図8(a)は、図7の画像IMGから切り出された検出領域RG1を示す図であり、図8(b)は、図7の画像IMGから切り出された検出領域RG2を示す図である。FIG. 8A is a diagram showing a detection region RG1 cut out from the image IMG in FIG. 7, and FIG. 8B is a diagram showing a detection region RG2 cut out from the image IMG in FIG. 図9(a)及び図9(b)は、各検出領域(RG1、RG2)の色情報から算出される誤検出度の例を示す表である。FIG. 9A and FIG. 9B are tables showing examples of the degree of false detection calculated from the color information of each detection region (RG1, RG2). 図10(a)及び図10(b)は、検出領域(RG1、RG2)の信号形状から算出される誤検出度の例を示す表である。FIG. 10A and FIG. 10B are tables showing examples of the degree of false detection calculated from the signal shape of the detection region (RG1, RG2). 図11(a)及び図11(b)は、検出領域(RG1、RG2)の輝度分布から算出される誤検出度の例を示す表である。FIGS. 11A and 11B are tables showing examples of the degree of false detection calculated from the luminance distribution of the detection regions (RG1, RG2). 図12(a)及び図12(b)は、検出領域(RG1、RG2)の色情報、信号形状及び輝度分布の組み合わせから算出される誤検出度の例を示す表である。FIG. 12A and FIG. 12B are tables showing examples of false detection degrees calculated from combinations of color information, signal shape, and luminance distribution of the detection regions (RG1, RG2).

以下、本発明の実施形態を図面に基づいて説明する。同一部材には同一符号を付して再度の説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same members are denoted by the same reference numerals and the description thereof is omitted.

図1を参照して、実施形態に係わる信号機認識装置100のへ入出力される情報を説明する。信号機認識装置100は、車両に搭載された撮像部(カメラ)により撮像された画像から、車両が走行する道路周辺に設置された信号機を検出する。   With reference to FIG. 1, the information input / output to / from the traffic signal recognition apparatus 100 according to the embodiment will be described. The traffic signal recognition apparatus 100 detects a traffic signal installed around a road on which the vehicle travels from an image captured by an imaging unit (camera) mounted on the vehicle.

信号機認識装置100には、地図情報D02と、ランドマーク情報D01と、カメラ情報D03とが入力される。地図情報D02には、予め実環境と地図の間で対応付けされた信号機の位置情報が含まれる。ランドマーク情報D01は、実環境上の車両の自己位置を算出するために用いられる。ランドマークには、地上に設けられた特徴物(地上ランドマーク)、及び車両が受信可能なGPS信号を発信するGPS衛星が含まれる。実施形態では、地上ランドマークを例に取り説明する。ランドマーク情報D01には、例えば、地上ランドマークの位置情報が含まれる。カメラ情報D03は、撮像部から車両の周囲(例えば前方)の映像を抽出するために用いられる。信号機認識装置100は、これらの情報D01〜D03に基づいて、信号機の検出結果を信号機情報D04として出力する。   Map information D02, landmark information D01, and camera information D03 are input to the traffic signal recognition apparatus 100. The map information D02 includes traffic signal position information associated in advance between the real environment and the map. The landmark information D01 is used to calculate the vehicle's own position in the real environment. The landmark includes a feature (ground landmark) provided on the ground and a GPS satellite that transmits a GPS signal that can be received by the vehicle. In the embodiment, a ground landmark will be described as an example. The landmark information D01 includes, for example, ground landmark position information. The camera information D03 is used to extract a video around the vehicle (for example, forward) from the imaging unit. The traffic signal recognition apparatus 100 outputs a traffic signal detection result as traffic signal information D04 based on the information D01 to D03.

図2を参照して、実施形態に係わる信号機認識装置100の構成及びデータフローを説明する。信号機認識装置100は、撮像部11と、自己位置検出部12と、信号機位置推定部13と、検出領域設定部14と、信号機検出部15と、誤検出度評価部16とを備える。   With reference to FIG. 2, the configuration and data flow of the traffic signal recognition apparatus 100 according to the embodiment will be described. The traffic signal recognition apparatus 100 includes an imaging unit 11, a self-position detection unit 12, a traffic signal position estimation unit 13, a detection area setting unit 14, a traffic signal detection unit 15, and an erroneous detection degree evaluation unit 16.

撮像部11は、車両に搭載され、車両の周囲を撮像して画像を取得する。撮像部11は、固体撮像素子、例えばCCD及びCMOSを備えるカメラであって、画像処理が可能な画像を取得する。撮像部11は、カメラ情報D03に基づいて、レンズの画角、カメラの垂直方向及び水平方向の角度を設定し、取得した画像を画像データD08として出力する。   The imaging unit 11 is mounted on a vehicle and captures an image of the surroundings of the vehicle. The imaging unit 11 is a camera including a solid-state imaging device, for example, a CCD and a CMOS, and acquires an image that can be processed. The imaging unit 11 sets the angle of view of the lens and the vertical and horizontal angles of the camera based on the camera information D03, and outputs the acquired image as image data D08.

自己位置検出部12は、ランドマーク情報D01に基づいて車両の自己位置を検出する。ランドマーク情報D01は、例えば、車載のカメラ或いはレーザレーダ等のセンシング手段により検出された地上ランドマーク(店舗、名所、観光スポット)の車両に対する相対位置の情報である。地図情報D02の中には、地上ランドマークの位置情報が予め登録されている。ランドマーク情報D01と地上ランドマークの相対位置の情報とを照合することにより、車両の自己位置を検出することができる。ここで、「位置」には、座標及び姿勢が含まれる。具体的には、地上ランドマークの位置には、地上ランドマークの座標及び姿勢が含まれ、車両の位置には、車両の座標及び姿勢が含まれる。自己位置検出部12は、基準となる座標系における座標(x, y, z)及び、各座標軸の回転方向である姿勢(ピッチ、ヨー、ロール)を自己位置情報D05として出力する。   The self position detector 12 detects the self position of the vehicle based on the landmark information D01. The landmark information D01 is, for example, information on the relative position of the ground landmark (store, famous place, sightseeing spot) with respect to the vehicle detected by a vehicle-mounted camera or a sensing means such as a laser radar. In the map information D02, position information of ground landmarks is registered in advance. The self-position of the vehicle can be detected by comparing the landmark information D01 with the information on the relative position of the ground landmark. Here, the “position” includes coordinates and orientation. Specifically, the position of the ground landmark includes the coordinates and orientation of the ground landmark, and the position of the vehicle includes the coordinates and orientation of the vehicle. The self-position detector 12 outputs the coordinates (x, y, z) in the reference coordinate system and the posture (pitch, yaw, roll) that is the rotation direction of each coordinate axis as the self-position information D05.

例えば、自己位置検出部12は、ランドマーク情報D01を用いて車両の初期位置を検出する。初期位置とは、ランドマーク情報D01から直接求めることができる車両の位置、すなわち座標及び姿勢である。そして、初期位置に、車両の移動量を累積加算することで車両の自己位置を算出する。自己位置検出部12は、オドメトリ、レーダ装置、ジャイロセンサ、ヨーレイトセンサ、舵角センサを用いて、単位時間当たりの車両の移動量、つまり、座標及び姿勢の変化量を推定することができる。   For example, the self-position detecting unit 12 detects the initial position of the vehicle using the landmark information D01. The initial position is a position of the vehicle that can be directly obtained from the landmark information D01, that is, a coordinate and a posture. Then, the vehicle's own position is calculated by cumulatively adding the movement amount of the vehicle to the initial position. The self-position detection unit 12 can estimate the amount of movement of the vehicle per unit time, that is, the amount of change in coordinates and posture, using odometry, a radar device, a gyro sensor, a yaw rate sensor, and a rudder angle sensor.

信号機位置推定部13は、地図情報D02と自己位置情報D05とから、車両に対する信号機の相対位置を推定する。地図情報D02の中には、信号機の位置情報(座標情報)が予め登録されている。信号機の座標と車両の座標及び姿勢とから、車両に対する信号機の相対座標を求めることができる。信号機位置推定部13は、推定した信号機の相対座標を相対位置情報D06として出力する。なお、信号機位置推定部13により相対位置が推定される信号機は、車両に対して信号を提示する信号機、換言すれば、車両が従うべき信号機である。たとえば、信号機位置推定部13は、車両がこれから進入する最も手前の交差点であって、信号機が設置された交差点を「最寄交差点」として抽出する。「最寄交差点」に存在し、かつ自己位置情報の車両が従うべき少なくても一つ以上の信号機を「最寄信号機」として特定する。そして、車両に対する「最寄信号機」の相対位置を相対位置情報D06として出力とする。   The traffic signal position estimation unit 13 estimates the relative position of the traffic signal with respect to the vehicle from the map information D02 and the self-position information D05. In the map information D02, traffic signal position information (coordinate information) is registered in advance. The relative coordinates of the traffic signal with respect to the vehicle can be obtained from the coordinates of the traffic signal and the coordinates and posture of the vehicle. The traffic signal position estimation unit 13 outputs the estimated relative coordinates of the traffic signal as relative position information D06. The traffic signal whose relative position is estimated by the traffic signal position estimation unit 13 is a traffic signal that presents a signal to the vehicle, in other words, a traffic signal that the vehicle should follow. For example, the traffic signal position estimating unit 13 extracts the intersection where the traffic signal is installed that is the nearest intersection where the vehicle will enter from now on as the “nearest intersection”. At least one traffic signal that is present at the “closest intersection” and that the vehicle of the self-location information should follow is identified as the “closest traffic signal”. Then, the relative position of the “nearest signal” with respect to the vehicle is output as relative position information D06.

検出領域設定部14は、信号機の相対位置から、画像における信号機の検出領域を設定する。撮像部11は車両に固定されているため、撮像部11が撮像する画角及び方向が定まれば、画像の中で、信号機が写ることが予測される画像上の位置を特定することができる。検出領域設定部14は、この信号機が写ることが予測される画像上の位置に基づいて、検出領域を設定する。検出領域設定部14は、信号機が写ることが予測される検出領域を検出領域情報D09として出力する。   The detection area setting unit 14 sets the detection area of the traffic light in the image from the relative position of the traffic light. Since the imaging unit 11 is fixed to the vehicle, the position on the image where the traffic light is expected to be captured can be specified in the image if the angle of view and direction taken by the imaging unit 11 are determined. . The detection area setting unit 14 sets a detection area based on the position on the image where the traffic light is predicted to be captured. The detection area setting unit 14 outputs a detection area in which the traffic light is predicted to appear as detection area information D09.

誤検出度評価部16は、検出領域の各々について、信号機の誤検出しやすさ、すなわち信号機以外のものを信号機として誤検出する可能性(誤認識度)を評価する。たとえば、誤検出度評価部16は、画像データD08及び検出領域情報D09から、色、形状及び輝度の少なくともいずれか1つの情報を抽出し、抽出した情報を用いて誤検出度を評価する。検出領域毎の評価結果は、誤検出情報D10として出力される。   The error detection degree evaluation unit 16 evaluates the likelihood of erroneous detection of a traffic light, that is, the possibility of erroneous detection of a signal other than a traffic light as a traffic light (error recognition degree) for each detection region. For example, the erroneous detection degree evaluation unit 16 extracts at least one of color, shape, and luminance from the image data D08 and the detection area information D09, and evaluates the erroneous detection degree using the extracted information. The evaluation result for each detection area is output as erroneous detection information D10.

具体的に、誤検出度評価部16は、検出領域において、信号機が有する信号灯の色に類似する色の領域が占める割合に応じて、信号機の誤検出しやすさを評価することができる。検出領域に信号灯の色に類似する色の領域が多く分布しているほど、誤検出度を高く評価する。誤検出度評価部16は、検出領域に含まれる、信号機に類似する形状の数に応じて、信号機の誤検出しやすさを評価することができる。検出領域に、信号灯の形状(円形)、或いは信号機の枠の形状に類似する形状が多く含まれているほど、誤検出度を高く評価する。そして、誤検出度評価部16は、検出領域において、信号機が有する信号灯に類似する輝度の領域が占める割合に応じて、信号機の誤検出しやすさを評価することができる。検出領域に、信号機が有する信号灯に類似する輝度の領域が占める割合が高いほど、誤検出度を高く評価する。   Specifically, the false detection degree evaluation unit 16 can evaluate the ease of false detection of a traffic light according to the ratio of the color area similar to the color of the signal lamp included in the traffic light in the detection area. The more the color areas similar to the color of the signal lamp are distributed in the detection area, the higher the false detection degree is evaluated. The false detection degree evaluation unit 16 can evaluate the ease of false detection of a traffic light according to the number of shapes similar to the traffic light included in the detection region. The more the shape of the signal lamp (circular) or the shape similar to the shape of the frame of the traffic light is included in the detection area, the higher the false detection degree is evaluated. And the misdetection degree evaluation part 16 can evaluate the ease of misdetection of a signal apparatus according to the ratio for which the area | region of the brightness | luminance similar to the signal lamp which a signal apparatus has occupies in a detection area. The higher the ratio of the luminance area similar to the signal lamp included in the traffic light to the detection area, the higher the false detection degree is evaluated.

信号機検出部15は、検出領域設定部14により設定された検出領域の中から信号機を検出する。1つの画像内に2以上の検出領域が設定された場合、信号機検出部15は、信号機の誤検出しやすさ(誤検出度)が最も低い検出領域の中から信号機を検出する。これにより、信号機の誤検出を抑制することができる。   The traffic light detection unit 15 detects a traffic signal from the detection area set by the detection area setting unit 14. When two or more detection areas are set in one image, the traffic light detection unit 15 detects a traffic light from the detection areas with the lowest possibility of erroneous detection of the traffic light (degree of erroneous detection). Thereby, the false detection of a traffic signal can be suppressed.

信号機検出部15は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出できた場合、当該信号機を継続して検出することができる。これにより、信号機を安定して検出し続けることができる。   The traffic signal detector 15 can continuously detect the traffic signal when it can detect the traffic signal from the detection region where the erroneous detection of the traffic signal is the lowest. Thereby, it is possible to stably detect the traffic light.

信号機検出部15は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出できなかった場合、信号機の誤検出しやすさが次に低い検出領域の中から信号機を検出してもよい。これにより、早期に信号機を検出することができる。   When the traffic signal detection unit 15 cannot detect a traffic signal from the detection area where the signal error is least likely to be detected, the traffic signal detection unit 15 detects the traffic signal from the detection area where the traffic signal detection error is the next lowest. Also good. Thereby, a traffic signal can be detected at an early stage.

なお、信号機検出部15は、検出領域設定部14により設定した検出領域を画像の中から切り出し、切り出された検出領域から信号機を検出することができる。或いは、検出領域設定部14は、設定した検出領域を拡大した拡大画像を取得できるように、撮像部11の車両に対する姿勢及び撮像部11の画角を制御してもよい。この場合、制御された撮像部11により取得された拡大画像、即ち検出領域から信号機を検出することができる。これにより、検出領域の解像度が高まるため、信号機の認識精度が向上する。パンチルトズーム機構を備えた撮像部11を用いて、全体の画像空間から検出領域へ絞り込んで拡大画像を撮像すればよい。   The traffic light detection unit 15 can cut out the detection area set by the detection area setting unit 14 from the image and detect the traffic signal from the cut out detection area. Alternatively, the detection area setting unit 14 may control the attitude of the imaging unit 11 with respect to the vehicle and the angle of view of the imaging unit 11 so that an enlarged image obtained by enlarging the set detection area can be acquired. In this case, the traffic light can be detected from the enlarged image acquired by the controlled imaging unit 11, that is, the detection area. Thereby, since the resolution of a detection area increases, the recognition accuracy of a traffic light improves. Using the imaging unit 11 having a pan / tilt zoom mechanism, an enlarged image may be captured by narrowing down the entire image space to the detection area.

次に、図3を参照して、図2に示した信号機認識装置100を用いた信号認識方法の一例を説明する。図3に示すフローは、予め定めた周期の基で繰り返し実施される。   Next, an example of a signal recognition method using the traffic signal recognition device 100 shown in FIG. 2 will be described with reference to FIG. The flow shown in FIG. 3 is repeatedly performed based on a predetermined cycle.

先ず、ステップS01において、撮像部11は、カメラ情報D03に基づいて車両の周囲を撮像して画像を取得する。ステップS03に進み、自己位置検出部12は、ランドマーク情報D01を用いて車両の自己位置を検出し、検出された自己位置を自己位置情報D05として出力する。   First, in step S01, the imaging unit 11 captures an image around the vehicle based on the camera information D03 and acquires an image. In step S03, the self-position detecting unit 12 detects the self-position of the vehicle using the landmark information D01, and outputs the detected self-position as self-position information D05.

ステップS05に進み、信号機位置推定部13は、地図情報D02と自己位置情報D05とから、車両に対する信号機の相対位置を推定し、推定した信号機の相対位置を相対位置情報D06として出力する。   Proceeding to step S05, the traffic signal position estimation unit 13 estimates the relative position of the traffic signal with respect to the vehicle from the map information D02 and the self-position information D05, and outputs the estimated relative position of the traffic signal as relative position information D06.

ステップS07に進み、検出領域設定部14は、信号機の相対位置から、画像の中で、信号機が写ることが予測される画像上の位置を推定し、検出領域を設定する。設定された検出領域は検出領域情報D09として出力される。   Proceeding to step S07, the detection area setting unit 14 estimates a position on the image where the traffic light is predicted to be captured in the image from the relative position of the traffic light, and sets the detection area. The set detection area is output as detection area information D09.

ステップS09に進み、検出領域設定部14は、検出領域が2以上設定されたか否かを判断する。2以上の検出領域が設定された場合(S09でYES)、ステップS11に進み、1つの検出領域が設定された場合(S09でNO)、ステップS13に進む。   In step S09, the detection area setting unit 14 determines whether two or more detection areas are set. If two or more detection areas are set (YES in S09), the process proceeds to step S11. If one detection area is set (NO in S09), the process proceeds to step S13.

ステップS11において、誤検出度評価部16は、検出領域における色、形状及び輝度の少なくともいずれか1つの情報を用いて、誤検出度を評価する。その後、ステップS13へ進む。検出領域毎の評価結果は、誤検出情報D10として出力される。   In step S <b> 11, the erroneous detection degree evaluation unit 16 evaluates the erroneous detection degree using at least one information of color, shape, and luminance in the detection region. Thereafter, the process proceeds to step S13. The evaluation result for each detection area is output as erroneous detection information D10.

ステップS13において、信号機検出部15は、検出領域設定部14により設定された検出領域の中から信号機を検出する。1つの画像内に2以上の検出領域が設定された場合、信号機検出部15は、信号機の誤検出度が最も低い検出領域の中から信号機を検出する。   In step S <b> 13, the traffic signal detection unit 15 detects a traffic signal from the detection area set by the detection area setting unit 14. When two or more detection areas are set in one image, the traffic signal detection unit 15 detects a traffic signal from the detection areas with the lowest false detection level of the traffic signal.

図4を参照して、図3のステップS13の詳細な手順を説明する。ここでは、図3のステップS07でN個(Nは2以上の自然数)の検出領域が設定された場合を説明する。先ず、ステップS21にて、N個の検出領域の各々の画像データを取得する。検出領域の画像データは、画像を切り出して取得してもよいし、或いは撮像部11の姿勢及び画角を制御して拡大画像を取得してもよい。ステップS23に進み、検出領域毎の誤検出情報D10を取得する。ステップS25に進み、N個の検出領域の中で最も誤検出度が低い検出領域から、信号機の検出を試みる。   A detailed procedure of step S13 in FIG. 3 will be described with reference to FIG. Here, a case where N detection areas (N is a natural number of 2 or more) are set in step S07 in FIG. 3 will be described. First, in step S21, image data of each of the N detection areas is acquired. The image data of the detection area may be acquired by cutting out an image, or an enlarged image may be acquired by controlling the attitude and angle of view of the imaging unit 11. Proceeding to step S23, false detection information D10 for each detection region is acquired. Proceeding to step S25, an attempt is made to detect a traffic light from a detection area having the lowest error detection degree among the N detection areas.

信号機を検出できた場合(S25でYES)、ステップS27へ進み、信号機情報D04を出力する。その後、誤検出度の順位(i)を変更せずに(ステップS29)、ステップS25に戻る。これにより、信号機の検出に成功している場合(S25でYES)、同じ検出領域から信号機を継続して検出することができる。「順位(i)」とは、1以上N以下の自然数であって、誤検出度が低いほど、小さな値となる。つまり、誤検出度が最も低い検出領域の順位(i)は1であり、誤検出度が最も高い検出領域の順位(i)はNである。初期設定はi=1である。   If the traffic signal can be detected (YES in S25), the process proceeds to step S27, and the traffic signal information D04 is output. Thereafter, without changing the rank (i) of the false detection degree (step S29), the process returns to step S25. Thereby, when the detection of the traffic signal is successful (YES in S25), the traffic signal can be continuously detected from the same detection area. “Order (i)” is a natural number of 1 or more and N or less, and the lower the false detection degree, the smaller the value. That is, the rank (i) of the detection area with the lowest false detection degree is 1, and the rank (i) of the detection area with the highest false detection degree is N. The initial setting is i = 1.

一方、信号機を検出できなかった場合(S25でNO)、ステップS31へ進み、現在の順位(i)がNであるか、つまり誤検出度が最も高い値であるか否かを判断する。現在の順位(i)がNでなければ(S31でNO)、未だ検出を試みていない検出領域が残されている。そこで、現在の順位(i)を1だけインクリメント(増加)させ(ステップS35)、つまり現在の順位を1つ下げて、ステップS25へ戻る。一方、現在の順位(i)がNであれば(S31でYES)、全ての検出領域について検出を試みたことになる。そこで、再び、現在の順位(i)を最も高い順位に設定し(ステップS33)、ステップS25へ戻る。   On the other hand, if the traffic signal cannot be detected (NO in S25), the process proceeds to step S31, and it is determined whether or not the current rank (i) is N, that is, whether the false detection degree is the highest value. If the current rank (i) is not N (NO in S31), a detection area that has not yet been attempted to be detected remains. Therefore, the current rank (i) is incremented (increased) by 1 (step S35), that is, the current rank is lowered by 1, and the process returns to step S25. On the other hand, if the current rank (i) is N (YES in S31), detection is attempted for all detection areas. Therefore, the current rank (i) is set to the highest rank again (step S33), and the process returns to step S25.

このように、信号機検出部15は、信号機の誤検出しやすさが低い検出領域の中から順に信号機の検出を試み、検出できた場合、当該検出領域から信号機を継続して検出する。信号機が検出できなくなった場合、信号機の誤検出しやすさが次に低い検出領域の中から信号機の検出を試みる。   As described above, the traffic signal detection unit 15 tries to detect traffic signals in order from the detection region where the erroneous detection of the traffic signal is low, and if it can be detected, the traffic signal detection unit 15 continuously detects the traffic signal from the detection region. When the traffic signal cannot be detected, it tries to detect the traffic signal from the detection area where the signal error is less likely to be detected.

つぎに、誤検出度評価部16による誤検出度の評価方法の例を説明する。図5に示すように、撮像部11を搭載する車両VCが、対面走行の道路RDの自車線WLを走行し、対向車線PLには対向車OPが走行している。車両VC及び対向車OPとも、道路CDと交差する交差点Crsに向かって走行している。   Next, an example of the evaluation method of the erroneous detection degree by the erroneous detection degree evaluation unit 16 will be described. As shown in FIG. 5, the vehicle VC on which the imaging unit 11 is mounted travels in the own lane WL of the road RD that faces the vehicle, and the oncoming vehicle OP travels in the oncoming lane PL. Both the vehicle VC and the oncoming vehicle OP are traveling toward the intersection Crs that intersects the road CD.

交差点Crsには、信号機TS1、TS2が設けられている。信号機TS1は自車線WL側に位置し、信号機TS2は対向車線PL側に位置している。また、自車線WL側の路肩には、円形の標識MA1が設けられ、対向車線PL側の路肩には、円形の標識MA2、MA3、及び四角形の看板BD1、BD2が設けられている。標識MA1、MA2、MA3の色は、赤色の信号灯に類似する赤色である。看板BD1は赤色の信号灯に類似する赤色で点灯している。看板BD2は青色の信号灯に類似する青色で点灯している。対向車OPの車体の色は、赤色の信号灯に類似する赤色である。交差点Crsが「最寄交差点」に相当し、信号機TS1、TS2が「最寄信号機」に相当する。   Traffic lights TS1 and TS2 are provided at the intersection Crs. The traffic light TS1 is located on the own lane WL side, and the traffic light TS2 is located on the opposite lane PL side. Further, a circular sign MA1 is provided on the road shoulder on the own lane WL side, and circular signs MA2 and MA3 and square signs BD1 and BD2 are provided on the road shoulder on the opposite lane PL side. The colors of the signs MA1, MA2, MA3 are red, which is similar to a red signal light. The sign BD1 is lit in red similar to a red signal light. The sign BD2 is lit in blue similar to a blue signal light. The color of the vehicle body of the oncoming vehicle OP is red, similar to a red signal light. The intersection Crs corresponds to the “nearest intersection”, and the traffic lights TS1 and TS2 correspond to the “nearest traffic signal”.

図6は、図5の走行路例において、車両VCに搭載された撮像部11が撮像した画像IMGの例を示す。信号機TS1及び信号機TS2の備える信号灯のうち、赤色の信号灯RP1、RP2が点灯し、青色及び黄色の信号灯は消灯している。検出領域設定部14は、図7に示すように、画像IMG内に、信号機TS1、TS2が写ることが予測される検出領域RG1、RG2を設定する。検出領域RG1は、自車線及び自車線側の路肩を含む領域であり、検出領域RG2は、対向車線及び対向車線側の路肩を含む領域である。   FIG. 6 shows an example of an image IMG captured by the imaging unit 11 mounted on the vehicle VC in the example of the traveling path of FIG. Of the signal lights included in the traffic lights TS1 and TS2, the red signal lights RP1 and RP2 are turned on, and the blue and yellow signal lights are turned off. As shown in FIG. 7, the detection area setting unit 14 sets detection areas RG1 and RG2 in which the traffic lights TS1 and TS2 are predicted to appear in the image IMG. The detection region RG1 is a region including the own lane and the road shoulder on the own lane side, and the detection region RG2 is a region including the opposite lane and the road shoulder on the opposite lane side.

図8(a)に示すように、検出領域RG1には、信号機TS1及び標識MA1が写っている。図8(b)に示すように、検出領域RG2には、信号機TS2、標識MA2、MA3、看板BD1、BD2が写っている。   As shown in FIG. 8A, the traffic signal TS1 and the sign MA1 are shown in the detection region RG1. As shown in FIG. 8B, the traffic signal TS2, signs MA2, MA3, signboards BD1, BD2 are shown in the detection region RG2.

(色情報による誤検出評価方法)
誤検出度評価部16は、信号機が有する信号灯の色に類似する色の分布に応じて、信号機以外のものを信号機として誤検出する可能性がどの程度あるかを評価する。たとえば、誤検出度評価部16は、「青信号に含まれている色分布」、「赤信号に含まれている色分布」、及び「黄色信号に含まれている色分布」が検出領域RG1、RG2内にどれくらい含まれているのかを計算する。計算結果の一例を図9(a)及び図9(b)に示す。
(Error detection evaluation method based on color information)
The false detection degree evaluation unit 16 evaluates the degree of possibility that a signal other than the traffic light is erroneously detected as a traffic light according to the color distribution similar to the color of the traffic light included in the traffic light. For example, the false detection degree evaluation unit 16 may detect that the “color distribution included in the blue signal”, the “color distribution included in the red signal”, and the “color distribution included in the yellow signal” are the detection regions RG1, Calculate how much is contained in RG2. An example of the calculation result is shown in FIGS. 9A and 9B.

検出領域RG1には、赤く点灯する信号灯RP1以外に赤い標識MA1が存在する。このため、誤検出度評価部16は、「赤信号に含まれている色分布」を2と算出し、「青信号に含まれている色分布」を0と算出し、「黄色信号に含まれている色分布」を0と算出する。検出領域RG1の誤検出度は、これらの数値を加算して2と算出される。   In the detection region RG1, a red sign MA1 is present in addition to the signal lamp RP1 that is lit red. For this reason, the false detection degree evaluation unit 16 calculates “the color distribution included in the red signal” as 2, calculates “the color distribution included in the blue signal” as 0, and “includes in the yellow signal”. The color distribution is calculated as 0. The false detection degree of the detection region RG1 is calculated as 2 by adding these numerical values.

検出領域RG2には、赤く点灯する信号灯RP2以外に赤い標識MA2、MA3、赤く点灯する看板BD1、及び車体が赤い対向車OPが存在する。更に、青く点灯する看板BD2が存在する。このため、誤検出度評価部16は、「赤信号に含まれている色分布」を11と算出し、「青信号に含まれている色分布」を2と算出し、「黄色信号に含まれている色分布」を0と算出する。検出領域RG2の誤検出度は、これらの数値を加算して13と算出される。よって、色情報による誤検出度は、検出領域RG1よりも検出領域RG2の方が高いと判断できる。   In the detection region RG2, there are red signs MA2 and MA3, a signboard BD1 that lights red, and an oncoming vehicle OP that has a red vehicle body, in addition to the signal lamp RP2 that lights red. Further, there is a signboard BD2 that lights up in blue. For this reason, the false detection degree evaluation unit 16 calculates “the color distribution included in the red signal” as 11, calculates “the color distribution included in the blue signal” as 2, and “included in the yellow signal”. The color distribution is calculated as 0. The false detection degree of the detection region RG2 is calculated as 13 by adding these numerical values. Therefore, it can be determined that the degree of erroneous detection based on color information is higher in the detection region RG2 than in the detection region RG1.

(信号形状による誤検出評価方法)
誤検出度評価部16は、検出領域に含まれる、信号機に類似する形状の数に応じて、信号機以外のものを信号機として誤検出する可能性がどの程度あるかを評価する。「信号機に類似する形状」は、丸い信号灯の形状、四角い信号機の枠の形状と丸い信号灯の形状とを組み合わせた形状、或いは、信号機に特有な形状のいずれであってもよい。「信号機に特有な形状」の一例として、垂直方向あるいは水平方向に一列で並ぶ、3つの丸い形状の組み合わせが挙げられる。
(Error detection evaluation method based on signal shape)
The false detection degree evaluation unit 16 evaluates how much there is a possibility that a signal other than the traffic light is erroneously detected as a traffic light depending on the number of shapes similar to the traffic light included in the detection region. The “shape similar to a traffic light” may be any of a round signal light shape, a combination of a square traffic light frame shape and a round signal light shape, or a shape specific to a traffic light. As an example of “a shape peculiar to a traffic light”, there is a combination of three round shapes arranged in a line in the vertical direction or the horizontal direction.

検出領域RG1には、信号機TS1に含まれる3つの信号灯以外に丸い標識MA1が存在する。このため、誤検出度評価部16は、「信号形状」による誤検出度を4と算出する。一方、検出領域RG2には、信号機TS2に含まれる3つの信号灯以外に丸い標識MA2、MA3が存在する。このため、誤検出度評価部16は、「信号形状」による誤検出度を10と算出する。よって、信号形状による誤検出度は、検出領域RG1よりも検出領域RG2の方が高いと判断できる。   In the detection region RG1, there is a round sign MA1 other than the three signal lights included in the traffic light TS1. Therefore, the false detection degree evaluation unit 16 calculates the false detection degree based on the “signal shape” as 4. On the other hand, in the detection region RG2, round signs MA2 and MA3 exist in addition to the three signal lights included in the traffic light TS2. For this reason, the false detection degree evaluation unit 16 calculates the false detection degree based on the “signal shape” as 10. Therefore, it can be determined that the detection error level due to the signal shape is higher in the detection region RG2 than in the detection region RG1.

なお、検出領域に含まれるすべての丸い形状の中から選択される3つの組み合わせの数を、「信号形状」による誤検出度として算出することもできる。さらには、検出領域に4つ以上の丸い形状が垂直方向或いは水平方向に配列されている場合に、4つ以上の丸い形状の中から選択される3つの丸形状の配列の組み合わせの数を、「信号形状」による誤検出度として算出することもできる。   Note that the number of three combinations selected from all the round shapes included in the detection region can also be calculated as the false detection degree based on the “signal shape”. Furthermore, when four or more round shapes are arranged in the vertical direction or the horizontal direction in the detection region, the number of combinations of three round shapes selected from the four or more round shapes is set as follows: It can also be calculated as a false detection degree based on the “signal shape”.

(輝度分布による誤検出評価方法)
誤検出度評価部16は、検出領域において、信号機が有する信号灯に類似する輝度の分布に応じて、信号機以外のものを信号機として誤検出する可能性がどの程度あるかを評価する。なお、この評価方法において色相は考慮しなくてもよい。検出領域RG1には、赤く点灯する信号灯RP1以外に類似する輝度の領域は存在していない。このため、誤検出度評価部16は、「輝度分布」による誤検出部を1と算出する。一方、検出領域RG2には、赤く点灯する信号灯RP1以外に類似する輝度で点灯する看板BD1、BD2、及び対向車OPの前照灯が存在する。このため、誤検出度評価部16は、「輝度分布」による誤検出部を3と算出する。よって、輝度分布による誤検出度は、検出領域RG1よりも検出領域RG2の方が高いと判断できる。
(Error detection evaluation method using luminance distribution)
The false detection degree evaluation unit 16 evaluates the degree of possibility that a signal other than the traffic light is erroneously detected as a traffic light according to the distribution of luminance similar to the traffic light included in the traffic light in the detection region. Note that the hue need not be taken into account in this evaluation method. In the detection region RG1, there is no similar luminance region other than the signal lamp RP1 that lights red. For this reason, the erroneous detection degree evaluation unit 16 calculates 1 as the erroneous detection unit based on the “luminance distribution”. On the other hand, in the detection region RG2, there are signboards BD1 and BD2 that are lit with similar luminance other than the signal lamp RP1 that is lit red, and the headlamps of the oncoming vehicle OP. For this reason, the erroneous detection degree evaluation unit 16 calculates 3 as the erroneous detection unit based on the “luminance distribution”. Therefore, it can be determined that the detection error level due to the luminance distribution is higher in the detection region RG2 than in the detection region RG1.

(色、形状、及び輝度の組み合わせによる誤検出評価方法)
色、形状及び輝度の少なくともいずれか2つの情報を組み合わせて、信号機以外のものを信号機として誤検出する可能性がどの程度あるかを評価してもよい。図12は、色、形状及び輝度の3つの情報を組み合わせた誤検出評価方法の例を示す。ここでは、(1)式に示すように、上記した「色情報による誤検出度」、「信号形状による誤検出度」及び「輝度分布による誤検出度」を検出領域毎に加算した数値を、誤検出度として算出する。(1)式において、FCN、FFN、FINは、「色情報による誤検出度」、「信号形状による誤検出度」及び「輝度分布による誤検出度」を示し、Gは、算出された誤検出度を示す。
(Error detection evaluation method based on combination of color, shape, and brightness)
You may evaluate how much there is a possibility of misdetecting things other than a traffic light as a traffic light by combining at least any two information of a color, a shape, and a brightness | luminance. FIG. 12 shows an example of a false detection evaluation method combining three pieces of information of color, shape, and luminance. Here, as shown in the equation (1), a numerical value obtained by adding the above-described “false detection degree by color information”, “false detection degree by signal shape”, and “false detection degree by luminance distribution” for each detection region, Calculated as the degree of false detection. In the equation (1), F CN , F FN , and F IN indicate “a false detection degree by color information”, “a false detection degree by signal shape”, and “a false detection degree by luminance distribution”, and GN is calculated. The detected false positive degree is shown.

=FCN+FFN+FIN (1) G N = F CN + F FN + F IN (1)

したがって、図12(a)に示すように、検出領域RG1の誤検出度Gは4と算出される。図12(b)に示すように、検出領域RG1の誤検出度Gは26と算出される。よって、この場合も、輝度分布による誤検出度は、検出領域RG1よりも検出領域RG2の方が高いと判断できる。 Accordingly, as shown in FIG. 12 (a), false detection of G A detection region RG1 is calculated to be 4. As shown in FIG. 12 (b), false detection of G B of the detection region RG1 is calculated to be 26. Therefore, also in this case, it can be determined that the detection error level due to the luminance distribution is higher in the detection region RG2 than in the detection region RG1.

或いは、(2)式に示すように、上記した「色情報による誤検出度」、「信号形状による誤検出度」及び「輝度分布による誤検出度」の各々に、重み付け(W、W、W)を付してから加算しても構わない。 Alternatively, (2) as shown in the expression "degree of detection error due color information 'described above, each of the" degree of detection error due signal shape "and" detection of erroneous luminance distribution ", weighted (W C, W F , W I ) may be added.

=W×FCN+W×FFN+W×FIN (2) G N = W C × F CN + W F × F FN + W I × F IN (2)

車両の走行状況に応じて、重み付け(W、W、W)を変更することにより、走行状況に応じて適切な信号認識処理を行うことができる。たとえば、夜間走行中、又はトンネルを走行中は、環境光が弱いため、灯火中の信号灯のみならず、これに隣接する消灯中の信号灯や信号機の枠までも同時に撮像することは難しい場合がある。このような場合、複数の丸い形状の並びや信号機の枠の形状などを認識し難い。そこで、「信号形状による誤検出度」の重み(W)よりも、「色情報による誤検出度」及び「輝度分布による誤検出度」の重み(W、W)を大きくする。これにより、夜間走行中又はトンネルを走行中に適切な信号認識処理を行うことができる。これとは逆に、昼間や環境光が強い走行状況では、信号灯に類似する色の分布や輝度の分布が多くなる場合がある。このような場合は、色や輝度の重みを(W、W)小さくし、形状の重み(W)を大きくすればよい。 By changing the weights (W C , W F , W I ) in accordance with the traveling state of the vehicle, appropriate signal recognition processing can be performed in accordance with the traveling state. For example, when driving at night or in a tunnel, the ambient light is weak, so it may be difficult to capture not only a signal light during lighting but also a lighted signal light and a frame of a traffic light adjacent to this. . In such a case, it is difficult to recognize the arrangement of a plurality of round shapes, the shape of the frame of the traffic light, and the like. Therefore, than the weight of the "degree of detection error due signal shape" (W F), increasing the weight (W C, W I) of the "degree of detection error due color information" and the "degree of detection error due luminance distribution". Accordingly, it is possible to perform appropriate signal recognition processing while traveling at night or traveling through a tunnel. On the other hand, in daytime and driving situations with strong ambient light, the color distribution and luminance distribution similar to signal lights may increase. In such a case, the color and luminance weights may be reduced (W C , W I ) and the shape weights (W F ) may be increased.

以上説明したように、本発明によれば、以下の作用効果が得られる。   As described above, according to the present invention, the following effects can be obtained.

検出領域設定部14が1つの画像内に2以上の検出領域(RG1、RG2)を設定した場合、誤検出度評価部16は、検出領域の各々について信号機の誤検出しやすさ(誤検出度)を評価し、信号機検出部は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出する。これにより、信号機の誤検出を抑制することができる。よって、画像から信号機を精度良く検出することができる。また、画像のうち検出領域の中から信号機の検出を試みるので、演算負荷が軽減される。   When the detection region setting unit 14 sets two or more detection regions (RG1, RG2) in one image, the false detection degree evaluation unit 16 makes it easy to falsely detect a traffic light for each of the detection regions (false detection degree). ) And the traffic signal detection unit detects the traffic signal from the detection area where the false detection of the traffic signal is the lowest. Thereby, the false detection of a traffic signal can be suppressed. Therefore, it is possible to detect the traffic signal from the image with high accuracy. In addition, since an attempt is made to detect a traffic light from the detection area of the image, the calculation load is reduced.

誤検出度評価部16は、検出領域において、信号機が有する信号灯の色に類似する色の領域が占める割合に応じて、信号機の誤検出しやすさを評価することができる。信号灯と類似する色の領域を、信号機として誤って認識することを抑制できる。   The false detection degree evaluation unit 16 can evaluate the ease of false detection of the traffic light according to the ratio of the color area similar to the color of the signal lamp included in the traffic light in the detection area. It is possible to suppress erroneous recognition of a color area similar to a signal light as a traffic light.

誤検出度評価部16は、検出領域に含まれる、信号機に類似する形状の数に応じて、信号機の誤検出しやすさを評価することができる。信号機と類似する形状の領域を、信号機として誤って認識することを抑制できる。   The false detection degree evaluation unit 16 can evaluate the ease of false detection of a traffic light according to the number of shapes similar to the traffic light included in the detection region. It is possible to suppress erroneous recognition of a region having a shape similar to that of a traffic light as a traffic light.

誤検出度評価部16は、検出領域において、信号機が有する信号灯に類似する輝度の領域が占める割合に応じて、信号機の誤検出しやすさを評価することができる。信号灯と輝度が類似する領域を、信号機として誤って認識することを抑制できる。   The false detection degree evaluation unit 16 can evaluate the ease of false detection of a traffic light in accordance with the ratio of the brightness area similar to the signal lamp included in the traffic light in the detection area. It is possible to suppress erroneous recognition of a region having a luminance similar to that of a signal lamp as a traffic light.

図4に示したように、信号機検出部15は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出できた場合(S25でYES)、当該信号機を継続して検出する。これにより、信号機を安定して検出し続けることができる。   As shown in FIG. 4, when the traffic signal detector 15 can detect the traffic signal from the detection area where the erroneous detection of the traffic signal is the lowest (YES in S25), the traffic signal detector 15 continuously detects the traffic signal. Thereby, it is possible to stably detect the traffic light.

信号機の誤検出しやすさが最も低い検出領域の中から信号機が検出されることを待つよりも、誤検出しやすさが次に低い検出領域の中から信号機を先に検出できる場合がある。そこで、図4に示したように、信号機検出部15は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出できなかった場合(S25NO)、誤検出しやすさが次に低い検出領域の中から信号機を検出する。これにより、早期に信号機を検出することができる。また、演算負荷も軽減される。   In some cases, it is possible to detect a traffic light first from a detection area having the next lowest likelihood of erroneous detection, rather than waiting for a traffic light to be detected from a detection area having the lowest traffic light misdetectability. Therefore, as shown in FIG. 4, when the traffic light detection unit 15 cannot detect the traffic signal from the detection area where the erroneous detection of the traffic light is the lowest (NO in S25), The traffic light is detected from the low detection area. Thereby, a traffic signal can be detected at an early stage. Also, the calculation load is reduced.

検出領域設定部14は、検出領域(RG1、RG2)を拡大した拡大画像を取得できるように、撮像部11の車両に対する姿勢及び撮像部11の画角を制御してもよい。画像から検出領域を切り出す場合に比べて、検出領域の解像度が高まるため、信号機の認識精度が向上する。   The detection area setting unit 14 may control the posture of the imaging unit 11 relative to the vehicle and the angle of view of the imaging unit 11 so that an enlarged image obtained by enlarging the detection areas (RG1, RG2) can be acquired. Since the resolution of the detection area is higher than when the detection area is cut out from the image, the recognition accuracy of the traffic light is improved.

以上、実施例に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。   Although the contents of the present invention have been described with reference to the embodiments, the present invention is not limited to these descriptions, and it is obvious to those skilled in the art that various modifications and improvements can be made.

11 撮像部
12 自己位置検出部
13 信号機位置推定部
14 検出領域設定部
15 信号機検出部
16 誤検出度評価部
100 信号機認識装置
D02 地図情報
RG1、RG2 検出領域
DESCRIPTION OF SYMBOLS 11 Image pick-up part 12 Self-position detection part 13 Traffic signal position estimation part 14 Detection area setting part 15 Traffic signal detection part 16 False detection degree evaluation part 100 Traffic signal recognition apparatus D02 Map information RG1, RG2 Detection area

Claims (8)

車両に搭載され、前記車両の周囲を撮像して画像を取得する撮像部と、
前記車両の自己位置を検出する自己位置検出部と、
前記車両の周囲にある信号機の位置情報を含む地図情報と前記自己位置とから、前記車両が従うべき前記信号機の前記車両に対する相対位置を推定する信号機位置推定部と、
前記信号機の相対位置から予想される前記画像上の信号機の位置に検出領域を設定する検出領域設定部と、
前記画像上に設定された検出領域から前記信号機を検出する信号機検出部と、
前記検出領域の各々について前記信号機の誤検出しやすさを評価する誤検出度評価部と、を備え、
前記信号機検出部は、前記検出領域が2以上設定された場合、前記信号機の誤検出しやすさが最も低い前記検出領域から前記信号機を検出する、
ことを特徴とする信号機認識装置。
An imaging unit mounted on a vehicle and capturing an image of the surroundings of the vehicle;
A self-position detector for detecting the self-position of the vehicle;
A traffic signal position estimation unit that estimates a relative position of the traffic signal to be followed by the vehicle from map information including positional information of traffic signals around the vehicle and the self-position;
A detection area setting unit for setting a detection area at the position of the traffic light on the image expected from the relative position of the traffic light;
A traffic light detector for detecting the traffic light from a detection area set on the image;
An error detection degree evaluation unit that evaluates the ease of erroneous detection of the traffic light for each of the detection areas, and
The traffic signal detection unit detects the traffic signal from the detection area where the detection error is least likely when the detection area is set to 2 or more,
A traffic light recognition apparatus characterized by the above.
前記誤検出度評価部は、前記検出領域において、前記信号機が有する信号灯の色に類似する色の領域が占める割合に応じて、前記信号機の誤検出しやすさを評価することを特徴とする請求項1に記載の信号機認識装置。   The false detection degree evaluation unit evaluates the ease of false detection of the traffic light according to a ratio of a color region similar to the color of a signal light included in the traffic light in the detection region. Item 2. A traffic signal recognizing device according to item 1. 前記誤検出度評価部は、前記検出領域に含まれる、前記信号機に類似する形状の数に応じて、前記信号機の誤検出しやすさを評価することを特徴とする請求項1又は2に記載の信号機認識装置。   The said misdetection degree evaluation part evaluates the ease of misdetection of the said signal apparatus according to the number of the shapes similar to the said signal apparatus contained in the said detection area, The Claim 1 or 2 characterized by the above-mentioned. Traffic light recognition device. 前記誤検出度評価部は、前記検出領域において、前記信号機が有する信号灯に類似する輝度の領域が占める割合に応じて、前記信号機の誤検出しやすさを評価することを特徴とする請求項1〜3のいずれか一項に記載の信号機認識装置。   The error detection degree evaluation unit evaluates the ease of erroneous detection of the traffic light according to a ratio of a brightness area similar to a signal lamp included in the traffic light in the detection area. The traffic signal recognition apparatus as described in any one of -3. 前記信号機検出部は、前記信号機の誤検出しやすさが最も低い前記検出領域の中から前記信号機を検出できた場合、当該信号機を継続して検出することを特徴とする請求項1〜4のいずれか一項に記載の信号機認識装置。   The said traffic signal detection part detects the said traffic signal continuously, when the said traffic signal can be detected from within the said detection area where the misdetection of the said traffic signal is the lowest, The said traffic signal is detected. The traffic signal recognition apparatus as described in any one of Claims. 前記信号機検出部は、前記信号機の誤検出しやすさが最も低い前記検出領域の中から前記信号機を検出できなかった場合、前記信号機の誤検出しやすさが次に低い前記検出領域の中から信号機を検出することを特徴とする請求項1〜5のいずれか一項に記載の信号機認識装置。   When the traffic light detection unit fails to detect the traffic signal from the detection area where the traffic signal is least likely to be erroneously detected, the traffic light detection unit detects from the detection area where the traffic signal is less likely to be erroneously detected. The traffic light recognition apparatus according to claim 1, wherein the traffic light is detected. 前記検出領域設定部は、前記検出領域を拡大した拡大画像を取得できるように、前記撮像部の前記車両に対する姿勢及び前記撮像部の画角を制御することを特徴とする請求項1〜6のいずれか一項に記載の信号機認識装置。   The said detection area setting part controls the attitude | position with respect to the said vehicle of the said imaging part, and the angle of view of the said imaging part so that the enlarged image which expanded the said detection area can be acquired. The traffic signal recognition apparatus as described in any one of Claims. 車両に搭載された撮像部を用いて、前記車両の周囲を撮像して画像を取得し、
前記車両の自己位置を検出し、
前記車両の周囲にある信号機の位置情報を含む地図情報と前記自己位置とから、前記車両が従うべき前記信号機の前記車両に対する相対位置を推定し、
前記信号機の相対位置から予想される画像上の信号機の位置に検出領域を設定し、
前記画像上に設定された検出領域から前記信号機を検出し、
前記検出領域の各々について前記信号機の誤検出しやすさを評価する信号機認識方法であって、
前記検出領域が2以上設定された場合、前記信号機の誤検出しやすさが最も低い前記検出領域から前記信号機を検出する、
ことを特徴とする信号機認識方法。
Using an imaging unit mounted on the vehicle, image the surroundings of the vehicle to obtain an image,
Detecting the position of the vehicle,
From the map information including the position information of traffic lights around the vehicle and the self-position, the relative position of the traffic lights to the vehicle to be followed by the vehicle is estimated,
Set the detection area to the position of the traffic light on the image expected from the relative position of the traffic light,
Detecting the traffic light from a detection area set on the image;
A traffic light recognition method for evaluating ease of erroneous detection of the traffic light for each of the detection areas,
When the detection area is set to 2 or more, the traffic signal is detected from the detection area with the lowest possibility of erroneous detection of the traffic light.
A traffic light recognition method characterized by the above.
JP2014162068A 2014-08-08 2014-08-08 Signal recognition device and signal recognition method Active JP6299517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014162068A JP6299517B2 (en) 2014-08-08 2014-08-08 Signal recognition device and signal recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014162068A JP6299517B2 (en) 2014-08-08 2014-08-08 Signal recognition device and signal recognition method

Publications (2)

Publication Number Publication Date
JP2016038757A true JP2016038757A (en) 2016-03-22
JP6299517B2 JP6299517B2 (en) 2018-03-28

Family

ID=55529772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014162068A Active JP6299517B2 (en) 2014-08-08 2014-08-08 Signal recognition device and signal recognition method

Country Status (1)

Country Link
JP (1) JP6299517B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9977975B2 (en) 2016-08-18 2018-05-22 Toyota Motor Engineering & Manufacturing North America, Inc. Traffic light detection using multiple regions of interest and confidence scores
CN108154711A (en) * 2016-12-02 2018-06-12 铃木株式会社 Drive assistance device
WO2018180245A1 (en) * 2017-03-28 2018-10-04 パイオニア株式会社 Output device, control method, program, and storage medium
JP2020021400A (en) * 2018-08-03 2020-02-06 パイオニア株式会社 Information processing device
US10846546B2 (en) 2018-02-02 2020-11-24 Toyota Jidosha Kabushiki Kaisha Traffic signal recognition device
CN112298196A (en) * 2019-07-26 2021-02-02 丰田自动车株式会社 Annunciator information management system
US11017247B2 (en) 2019-06-24 2021-05-25 Toyota Jidosha Kabushiki Kaisha Traffic signal recognition system
US11367291B2 (en) 2019-07-23 2022-06-21 Toyota Jidosha Kabushiki Kaisha Traffic signal display estimation system
JP2022137375A (en) * 2021-03-09 2022-09-22 本田技研工業株式会社 Object recognition device, object recognition method and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241469A (en) * 2006-03-06 2007-09-20 Toyota Motor Corp Image processing system
JP2007288444A (en) * 2006-04-14 2007-11-01 Toyota Motor Corp On-vehicle camera controller and control method
JP2009129290A (en) * 2007-11-27 2009-06-11 Aisin Aw Co Ltd Traffic signal detection apparatus, traffic signal detection method and program
JP2012173879A (en) * 2011-02-18 2012-09-10 Toyota Central R&D Labs Inc Traffic signal detection apparatus and program therefor
JP2012215442A (en) * 2011-03-31 2012-11-08 Aisin Aw Co Ltd Own position determination system, own position determination program, own position determination method
JP2013164853A (en) * 2012-02-13 2013-08-22 Toyota Motor Engineering & Manufacturing North America Inc System and method for traffic signal recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241469A (en) * 2006-03-06 2007-09-20 Toyota Motor Corp Image processing system
JP2007288444A (en) * 2006-04-14 2007-11-01 Toyota Motor Corp On-vehicle camera controller and control method
JP2009129290A (en) * 2007-11-27 2009-06-11 Aisin Aw Co Ltd Traffic signal detection apparatus, traffic signal detection method and program
JP2012173879A (en) * 2011-02-18 2012-09-10 Toyota Central R&D Labs Inc Traffic signal detection apparatus and program therefor
JP2012215442A (en) * 2011-03-31 2012-11-08 Aisin Aw Co Ltd Own position determination system, own position determination program, own position determination method
JP2013164853A (en) * 2012-02-13 2013-08-22 Toyota Motor Engineering & Manufacturing North America Inc System and method for traffic signal recognition

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9977975B2 (en) 2016-08-18 2018-05-22 Toyota Motor Engineering & Manufacturing North America, Inc. Traffic light detection using multiple regions of interest and confidence scores
CN108154711A (en) * 2016-12-02 2018-06-12 铃木株式会社 Drive assistance device
CN108154711B (en) * 2016-12-02 2021-09-03 铃木株式会社 Driving support device
JP2021113816A (en) * 2017-03-28 2021-08-05 パイオニア株式会社 Output device, control method, program, and storage medium
US11420632B2 (en) 2017-03-28 2022-08-23 Pioneer Corporation Output device, control method, program and storage medium
JP2023075184A (en) * 2017-03-28 2023-05-30 パイオニア株式会社 Output device, control method, program, and storage medium
WO2018180245A1 (en) * 2017-03-28 2018-10-04 パイオニア株式会社 Output device, control method, program, and storage medium
JPWO2018180245A1 (en) * 2017-03-28 2020-05-14 パイオニア株式会社 Output device, control method, program and storage medium
US10846546B2 (en) 2018-02-02 2020-11-24 Toyota Jidosha Kabushiki Kaisha Traffic signal recognition device
JP2020021400A (en) * 2018-08-03 2020-02-06 パイオニア株式会社 Information processing device
US11017247B2 (en) 2019-06-24 2021-05-25 Toyota Jidosha Kabushiki Kaisha Traffic signal recognition system
US11367291B2 (en) 2019-07-23 2022-06-21 Toyota Jidosha Kabushiki Kaisha Traffic signal display estimation system
US11462024B2 (en) 2019-07-26 2022-10-04 Toyota Jidosha Kabushiki Kaisha Traffic signal information management system
CN112298196A (en) * 2019-07-26 2021-02-02 丰田自动车株式会社 Annunciator information management system
CN112298196B (en) * 2019-07-26 2024-05-28 丰田自动车株式会社 Annunciator information management system
JP2022137375A (en) * 2021-03-09 2022-09-22 本田技研工業株式会社 Object recognition device, object recognition method and program
JP7250833B2 (en) 2021-03-09 2023-04-03 本田技研工業株式会社 OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND PROGRAM
US12106584B2 (en) 2021-03-09 2024-10-01 Honda Motor Co., Ltd. Object recognition device, object recognition method, and storage medium

Also Published As

Publication number Publication date
JP6299517B2 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
JP6299517B2 (en) Signal recognition device and signal recognition method
JP4970516B2 (en) Surrounding confirmation support device
JP6337961B2 (en) Signal recognition device and signal recognition method
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP4895313B2 (en) Navigation apparatus and method
KR101988811B1 (en) Signaling device and signaling device recognition method
JP4321821B2 (en) Image recognition apparatus and image recognition method
US10318782B2 (en) Image processing device, image processing system, and image processing method
US9659497B2 (en) Lane departure warning system and lane departure warning method
US20170024622A1 (en) Surrounding environment recognition device
US20150073705A1 (en) Vehicle environment recognition apparatus
US11450040B2 (en) Display control device and display system
WO2014084251A1 (en) Onboard image processing system
WO2017162812A1 (en) Adaptive display for low visibility
JP6365103B2 (en) Signal detection device and signal detection method
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
WO2016199225A1 (en) Signaler detection device and signaler detection method
JP5910180B2 (en) Moving object position and orientation estimation apparatus and method
JP2020187474A (en) Traveling lane recognition device, traveling lane recognition method and program
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JP2020077293A (en) Lane line detection device and lane line detection method
JP2017117105A (en) Visibility determination device
WO2018225480A1 (en) Position estimating device
US20200118280A1 (en) Image Processing Device
JP7063571B2 (en) Display control device, display system and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180212

R151 Written notification of patent or utility model registration

Ref document number: 6299517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151