[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019101470A - Vehicle outside environment recognition device - Google Patents

Vehicle outside environment recognition device Download PDF

Info

Publication number
JP2019101470A
JP2019101470A JP2017228038A JP2017228038A JP2019101470A JP 2019101470 A JP2019101470 A JP 2019101470A JP 2017228038 A JP2017228038 A JP 2017228038A JP 2017228038 A JP2017228038 A JP 2017228038A JP 2019101470 A JP2019101470 A JP 2019101470A
Authority
JP
Japan
Prior art keywords
wheeled vehicle
image
unit
distance
environment recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017228038A
Other languages
Japanese (ja)
Other versions
JP7071102B2 (en
Inventor
野村 直樹
Naoki Nomura
直樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2017228038A priority Critical patent/JP7071102B2/en
Publication of JP2019101470A publication Critical patent/JP2019101470A/en
Application granted granted Critical
Publication of JP7071102B2 publication Critical patent/JP7071102B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To improve discrimination accuracy between a two-wheeler and a pedestrian.SOLUTION: In a vehicle outside environment recognition device, a computer functions as a candidate identifying part identifying a partial image 300, 302 that is a pedestrian or a two-wheeler, in an image, a representative identifying part identifying a representative value of a distance for each of a plurality of vertical regions S arranged in a lateral direction of the image for the partial image 300, 302, and a determination part determining whether the partial image 300, 302 is a pedestrian or a two-wheeler based on variations in representative values in the plurality of vertical regions S.SELECTED DRAWING: Figure 5

Description

本発明は、自車両前方の立体物を特定する車外環境認識装置に関する。   The present invention relates to an external environment recognition device for identifying a three-dimensional object ahead of a host vehicle.

従来、撮像装置によって撮像された画像に基づいて、自車両前方に位置する車両、二輪車、歩行者などの立体物を特定する技術が知られている(例えば、特許文献1、2)。   Conventionally, there is known a technique for specifying a three-dimensional object such as a vehicle, a two-wheeled vehicle, or a pedestrian located in front of the host vehicle based on an image captured by an imaging device (for example, Patent Documents 1 and 2).

特開2015−195018号公報JP, 2015-195018, A 特開2010−097541号公報Unexamined-Japanese-Patent No. 2010-097541

上記の撮像装置が二輪車を前方や後方から捉えると、二輪車の車輪などの特徴部分が判別し難い。そのため、特許文献1、2の技術を以てしても、二輪車と歩行者を識別することが困難な場合があった。そのため、二輪車と歩行者の識別の精度を向上する技術の開発が望まれている。   When the above-described imaging device captures a motorcycle from the front or the rear, it is difficult to distinguish characteristic parts such as the wheels of the motorcycle. Therefore, even with the techniques of Patent Documents 1 and 2, it may be difficult to distinguish a two-wheeled vehicle from a pedestrian. Therefore, development of a technique for improving the accuracy of identification of a two-wheeled vehicle and a pedestrian is desired.

本発明は、このような課題に鑑み、二輪車と歩行者の識別精度を向上することが可能な車外環境認識装置を提供することを目的としている。   An object of the present invention is to provide an external environment recognition device capable of improving the identification accuracy of a two-wheeled vehicle and a pedestrian in view of such problems.

上記課題を解決するために、本発明の車外環境認識装置は、コンピュータが、画像における、歩行者または二輪車である部分画像を特定する候補特定部と、部分画像について、画像の横方向に並んだ複数の縦領域ごとに、距離の代表値を特定する代表特定部と、複数の縦領域における代表値のバラつきに基づいて、部分画像が歩行者か二輪車かを判定する判定部として機能する。   In order to solve the above problems, in the external environment recognition device of the present invention, a computer is arranged in a lateral direction of an image, with respect to a candidate specifying unit for specifying a partial image that is a pedestrian or a motorcycle. It functions as a determination unit that determines whether the partial image is a pedestrian or a two-wheeler based on a representative specifying unit that specifies a representative value of the distance for each of the plurality of vertical regions and a variation in the representative values in the plurality of vertical regions.

判定部は、代表値のバラつきの指標値が所定の閾値を超えていると、部分画像が二輪車であると判定してもよい。   The determination unit may determine that the partial image is a two-wheeled vehicle when the index value of the variation of the representative values exceeds a predetermined threshold.

コンピュータが、二輪車までの推定距離を、二輪車と判定される前よりも減少させる補正部としてさらに機能してもよい。   The computer may further function as a correction unit that reduces the estimated distance to the two-wheeler than before it was determined to be a two-wheeler.

上記課題を解決するために、本発明の他の車外環境認識装置は、コンピュータが、画像における部分画像が二輪車であるか否かを判定する判定部と、部分画像が二輪車であると判定されると、二輪車までの推定距離を、二輪車と判定される前よりも減少させる補正部として機能する。   In order to solve the above-described problems, in another external environment recognition apparatus according to the present invention, the computer determines that the partial image in the image is a two-wheeled vehicle and the partial image is a two-wheeled vehicle Also, it functions as a correction unit that reduces the estimated distance to the two-wheeler than before it was determined to be a two-wheeler.

本発明によれば、二輪車と歩行者の識別精度を向上することが可能となる。   According to the present invention, it is possible to improve the identification accuracy of a two-wheeled vehicle and a pedestrian.

車外環境認識システムの接続関係を示したブロック図である。It is a block diagram showing the connection relation of the environment recognition system outside a car. 輝度画像と距離画像を説明するための説明図である。It is an explanatory view for explaining a luminosity picture and a distance picture. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is a functional block diagram showing a schematic function of an outside environment recognition device. 車外環境認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an environment recognition process outside a vehicle. 歩行者および二輪車の違いを説明するための図である。It is a figure for demonstrating the difference between a pedestrian and a two-wheeled vehicle.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values and the like shown in the embodiment are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the specification and the drawings, elements having substantially the same functions and configurations will be denoted by the same reference numerals to omit repeated description, and elements not directly related to the present invention will not be illustrated. Do.

(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Outside environment recognition system 100)
FIG. 1 is a block diagram showing the connection relationship of the outside environment recognition system 100. As shown in FIG. The external environment recognition system 100 includes an imaging device 110, an external environment recognition device 120, and a vehicle control unit (ECU: Engine Control Unit) 130.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像(カラー画像やモノクロ画像)を生成することができる。また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、撮像装置110によって認識する立体物は、二輪車(自転車など)、歩行者(人)、車両、信号機、道路(進行路)、道路標識、ガードレール、建物といった独立して存在する物のみならず、歩行者の頭部や肩部等、その一部として特定できる物も含む。   The imaging device 110 is configured to include an imaging element such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), captures an environment outside the vehicle 1 and includes at least information on luminance. A luminance image (color image or monochrome image) can be generated. Moreover, the imaging devices 110 are spaced apart in the substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the host vehicle 1. The imaging device 110 continuously generates a luminance image obtained by imaging a three-dimensional object present in a detection area in front of the host vehicle 1 every frame (60 fps) of, for example, 1/60 seconds. Here, three-dimensional objects recognized by the imaging device 110 are only two-dimensional objects such as two-wheelers (bicycles, etc.), pedestrians (people), vehicles, traffic lights, roads (traveling roads), road signs, guard rails, buildings Also, it includes things such as the head and shoulders of pedestrians that can be identified as a part thereof.

また、車外環境認識装置120は、2つの撮像装置110それぞれから輝度画像を取得し、一方の輝度画像から任意に抽出したブロック(例えば、水平4画素×垂直4画素の配列)に対応するブロックを他方の輝度画像から検索する、所謂パターンマッチングを用いて、視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出する。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位の視差導出処理を、検出領域(例えば、600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。   In addition, the environment recognition device outside the vehicle 120 acquires a luminance image from each of the two imaging devices 110, and corresponds to a block (for example, an array of 4 horizontal pixels × 4 vertical pixels) arbitrarily extracted from one luminance image. The so-called pattern matching, which is searched from the other luminance image, is used to derive disparity information including disparity and a screen position indicating a position in the screen of an arbitrary block. Here, horizontal indicates the screen horizontal direction of the captured image, and vertical indicates the screen vertical direction of the captured image. As this pattern matching, it is conceivable to compare the luminance (Y) in arbitrary block units between a pair of images. For example, SAD (Sum of Absolute Difference) which takes a difference of luminance, SSD (Sum of Squared intensity Difference) which uses the difference as a square, NCC which takes similarity of the dispersion value which subtracted the average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The environment outside environment recognition device 120 performs such block-based parallax derivation processing for all blocks displayed in the detection area (for example, 600 pixels × 200 pixels). Here, the block is 4 pixels × 4 pixels, but the number of pixels in the block can be set arbitrarily.

ただし、車外環境認識装置120では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような立体物の一部であるかを認識できない。したがって、視差情報は、立体物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報を対応付けた画像を、上述した輝度画像と区別して距離画像という。   However, in the external environment recognition apparatus 120, although parallax can be derived for each block which is a detection resolution unit, it is not possible to recognize what part of a three-dimensional object the block is. Therefore, disparity information is not independently derived from a three-dimensional object unit, but independently at a detection resolution unit (for example, a block unit) in a detection area. Here, an image associated with the parallax information derived in this manner is referred to as a distance image to distinguish it from the above-described luminance image.

図2は、輝度画像126と距離画像128を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域124について図2(a)のような輝度画像126が生成されたとする。ただし、ここでは、理解を容易にするため、2つの輝度画像126の一方のみを模式的に示している。車外環境認識装置120は、このような輝度画像126からブロック毎の視差を求め、図2(b)のような距離画像(画像)128を形成する。距離画像128における各ブロックには、そのブロックの視差が関連付けられている。図2では、説明の便宜上、視差が導出されたブロックを黒のドットで表している。   FIG. 2 is an explanatory diagram for explaining the luminance image 126 and the distance image 128. As shown in FIG. For example, it is assumed that a luminance image 126 as illustrated in FIG. 2A is generated for the detection area 124 through the two imaging devices 110. However, here, only one of the two luminance images 126 is schematically shown in order to facilitate understanding. The external environment recognition device 120 obtains the parallax for each block from such a luminance image 126, and forms a distance image (image) 128 as shown in FIG. 2 (b). Each block in the distance image 128 is associated with the parallax of that block. In FIG. 2, for convenience of explanation, the blocks from which the parallax is derived are represented by black dots.

また、車外環境認識装置120は、輝度画像126に基づく輝度値(カラー値)、および、距離画像128に基づいて算出された、自車両1との相対距離(距離)を含む実空間における三次元の位置情報を用い、カラー値が等しく三次元の位置情報が近いブロック同士を立体物としてグループ化して、自車両1前方の検出領域における立体物が何であるか(例えば、歩行者など)を特定する。また、車外環境認識装置120は、このように立体物を特定すると、立体物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように自車両1を制御する(クルーズコントロール)。なお、上記相対距離は、距離画像128におけるブロック毎の視差情報を、所謂ステレオ法を用いて三次元の位置情報に変換することで求められる。ここで、ステレオ法は、三角測量法を用いることで、立体物の視差からその立体物の撮像装置110に対する相対距離を導出する方法である。   In addition, the environment recognition device outside the vehicle three-dimensional in real space including the luminance value (color value) based on the luminance image 126 and the relative distance (distance) to the vehicle 1 calculated based on the distance image 128 Blocks with equal color values and similar three-dimensional position information are grouped as three-dimensional objects to identify what three-dimensional object in the detection area in front of the host vehicle 1 (for example, pedestrian etc.) Do. Further, when the three-dimensional object is specified in this way, the outside environment recognition device 120 avoids the collision with the three-dimensional object (collision avoidance control), or keeps the inter-vehicle distance with the preceding vehicle at a safe distance. Control (cruise control). The relative distance can be obtained by converting disparity information of each block in the distance image 128 into three-dimensional position information using a so-called stereo method. Here, the stereo method is a method of deriving the relative distance of the three-dimensional object to the imaging device 110 from the parallax of the three-dimensional object by using the triangulation method.

図1に戻り説明すると、車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。   Referring back to FIG. 1, the vehicle control device 130 receives the operation input of the driver through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and transmits it to the steering mechanism 142, the drive mechanism 144, and the braking mechanism 146. Control the vehicle 1 Further, the vehicle control device 130 controls the steering mechanism 142, the drive mechanism 144, and the braking mechanism 146 in accordance with an instruction of the external environment recognition device 120.

以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態において特徴的な自車両1前方の検出領域における立体物(例えば、歩行者および二輪車)の特定処理について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the external environment recognition device 120 will be described in detail. Here, the process of identifying three-dimensional objects (for example, pedestrians and two-wheelers) in the detection area ahead of the host vehicle 1 which is characteristic in the present embodiment will be described in detail, and the configuration irrelevant to the features of the present embodiment will be described. I omit it.

(車外環境認識装置120)
図3は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図3に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Exterior environment recognition device 120)
FIG. 3 is a functional block diagram showing a schematic function of the external environment recognition device 120. As shown in FIG. As shown in FIG. 3, the external environment recognition apparatus 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。   The I / F unit 150 is an interface for performing two-way information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 152 is configured by a RAM, a flash memory, an HDD, and the like, and holds various information necessary for the processing of each functional unit described below.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、立体物領域特定部160、候補特定部162、代表特定部164、候補判定部166、距離補正部168としても機能する。以下、本実施形態に特徴的な歩行者および二輪車を認識する車外環境認識処理について、当該中央制御部154の各機能部の動作も踏まえて詳述する。   The central control unit 154 is constituted by a semiconductor integrated circuit including a central processing unit (CPU), a ROM in which programs and the like are stored, and a RAM as a work area, and the I / F unit 150 and the data holding unit Control 152 and the like. Further, in the present embodiment, the central control unit 154 also functions as a solid object region specifying unit 160, a candidate specifying unit 162, a representative specifying unit 164, a candidate determining unit 166, and a distance correcting unit 168. Hereinafter, the external environment recognition processing for recognizing a pedestrian and a two-wheeled vehicle, which is characteristic of the present embodiment, will be described in detail based on the operation of each functional unit of the central control unit 154.

(車外環境認識処理)
図4は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、まず、立体物領域特定部160が、輝度画像126や距離画像128において立体物が含まれる(写った)立体物領域を特定する立体物領域特定処理(S200)が実行される。そして、候補特定部162が、歩行者または二輪車の立体物が含まれる立体物領域(部分画像)を特定する候補特定処理(S202)が実行される。歩行者または二輪車の立体物が含まれる立体物領域が特定されると、代表特定部164が後述の代表値を特定する代表値特定処理(S204)が行われた後、候補判定部(判定部)166が、立体物が二輪車であるか否かを判定する候補判定処理(S206)が実行され、最後に、距離補正部(補正部)168が、相対距離を補正する補正処理(S208)が実行される。なお、車外環境認識処理は、輝度画像126や距離画像128が取得されたフレーム毎に繰り返し実行される。
(Outside environment recognition processing)
FIG. 4 is a flow chart showing the flow of the outside environment recognition process. In the environment recognition process outside the vehicle, first, a three-dimensional object area specifying process (S200) is performed in which the three-dimensional object area specifying unit 160 specifies a three-dimensional object area including (photographed) a three-dimensional object Ru. Then, a candidate identification process (S202) is performed in which the candidate identification unit 162 identifies a three-dimensional object region (partial image) in which a three-dimensional object of a pedestrian or a two-wheeled vehicle is included. When a three-dimensional object region including a three-dimensional object of a pedestrian or a two-wheeled vehicle is identified, a representative identifying unit 164 performs a representative value identifying process (S204) for identifying a representative value described later. Candidate determination process (S206) to determine whether the three-dimensional object is a two-wheeled vehicle is executed, and finally the correction process (S208) in which the distance correction unit (correction unit) 168 corrects the relative distance To be executed. The process of recognizing the environment outside the vehicle is repeatedly performed for each frame in which the luminance image 126 and the distance image 128 are acquired.

(立体物領域特定処理S200)
立体物領域特定部160は、上述のように、輝度画像126および距離画像128の検出領域において、グループ化により立体物を特定する。立体物領域特定部160は、輝度画像126および距離画像128のうち、特定された立体物が含まれる(写った)立体物領域(部分画像)を抽出する。
(Three-dimensional object region identification processing S200)
As described above, the three-dimensional object area specifying unit 160 specifies three-dimensional objects by grouping in the detection areas of the luminance image 126 and the distance image 128. The three-dimensional object region specifying unit 160 extracts, from the luminance image 126 and the distance image 128, a three-dimensional object region (partial image) in which the specified three-dimensional object is included (captured).

(候補特定処理S202)
続いて、候補特定部162は、抽出された立体物領域に基づいて、特定された立体物が何であるかを特定する。例えば、立体物としては、上記のように、二輪車、歩行者(人)、車両、信号機、道路(進行路)、道路標識、ガードレール、建物、歩行者の頭部や肩部等の種別が含まれる。各種別には予め設定条件が設けられており、特定された立体物は、立体物領域が設定条件に合致すると、対応する種別と判定される。
(Candidate identification processing S202)
Subsequently, the candidate identifying unit 162 identifies what the identified three-dimensional object is based on the extracted three-dimensional object region. For example, as the three-dimensional object, as described above, types such as motorcycles, pedestrians (people), vehicles, traffic lights, roads (traveling roads), road signs, guard rails, buildings, head and shoulders of pedestrians, etc. are included. Be A setting condition is provided in advance for each type, and the specified three-dimensional object is determined as the corresponding type when the three-dimensional object region matches the setting condition.

ここで、歩行者と二輪車については、識別が難しい場合がある。例えば、撮像装置110に対して、人が乗った二輪車が正面または背面を向けていると、識別が難しい。二輪車の特徴である車輪が、例えば、黒い棒状の物体となって輪郭が識別され難い。その上、二輪車上方に位置する人の上半身は、歩行者のものと区別がつかない。ここでは、二輪車は、例えば、前輪、後輪がそれぞれ一輪(一対)のものをいう。   Here, it may be difficult to distinguish between pedestrians and motorcycles. For example, when the two-wheeled vehicle on which a person gets on is facing the front or the back with respect to the imaging device 110, the identification is difficult. The wheel, which is a feature of a two-wheeled vehicle, becomes a black rod-like object, for example, and the contour is difficult to identify. Moreover, the upper body of the person located above the two-wheeled vehicle is indistinguishable from that of the pedestrian. Here, for example, the two-wheeled vehicle refers to one in which the front wheel and the rear wheel are single wheels (one pair).

そのため、候補特定部162は、立体物を、歩行者であるか二輪車であるかについては識別せず、「歩行者または二輪車」という種別として特定する。候補特定部162は、「歩行者または二輪車」を、例えば、立体物の輪郭形状、大きさ、移動速度などによって特定する。   Therefore, the candidate identifying unit 162 identifies the three-dimensional object as a type “pedestrian or two-wheeled vehicle” without identifying whether it is a pedestrian or a two-wheeled vehicle. The candidate identifying unit 162 identifies “pedestrian or two-wheeled vehicle” by, for example, the outline shape, size, moving speed, etc. of the three-dimensional object.

(代表値特定処理S204)
図5は、歩行者および二輪車の違いを説明するための図である。図5には、距離画像128のうち、2つの領域A、Bが抽出して示される。領域A内には、歩行者が含まれる部分画像300が位置し、領域B内には、二輪車が含まれる部分画像302が位置する。また、領域A、Bそれぞれの下に相対距離の代表値のイメージ図304、306が示される。
(Representative value identification process S204)
FIG. 5 is a diagram for explaining the difference between a pedestrian and a two-wheeled vehicle. In FIG. 5, two areas A and B of the distance image 128 are extracted and shown. In the region A, a partial image 300 including a pedestrian is positioned, and in the region B, a partial image 302 including a two-wheeled vehicle is positioned. Further, below the regions A and B, respectively, image diagrams 304 and 306 of representative values of relative distances are shown.

図5に示すように、部分画像302では、二輪車が背面を向いており、上記のように、後輪308が識別され難い。そのため、候補特定部162は、部分画像300、302双方について、立体物が「歩行者または二輪車」であると判定する。   As shown in FIG. 5, in the partial image 302, the two-wheeled vehicle is facing the back, and as described above, the rear wheel 308 is difficult to identify. Therefore, the candidate identifying unit 162 determines that the three-dimensional object is “a pedestrian or a two-wheeled vehicle” for both of the partial images 300 and 302.

ただし、立体物は、歩行者か二輪車かを特定可能な場合がある。例えば、移動速度が閾値以上であって、歩行者ではあり得ない場合は、二輪車と特定される。このような場合、候補特定部162は、以下の代表特定部164、候補判定部166の処理を行わずに、歩行者か二輪車かを特定する。   However, there are cases where a three-dimensional object can identify a pedestrian or a motorcycle. For example, if the moving speed is equal to or higher than the threshold and it can not be a pedestrian, it is identified as a two-wheeled vehicle. In such a case, the candidate identifying unit 162 identifies a pedestrian or a motorcycle without performing the following process of the representative identifying unit 164 and the candidate determining unit 166.

続いて代表特定部164は、部分画像300、302について、距離画像128の横方向に並んだ、画像(画面)の上下端に亘る縦長な複数の縦領域Sごとに、相対距離の代表値を特定する。具体的に、距離画像128は、距離画像128の横方向(水平方向)に分割された複数の縦領域Sに区分けされる。   Subsequently, for each of the partial images 300 and 302, the representative specifying unit 164 sets the representative value of the relative distance for each of a plurality of vertically elongated vertical regions S across the upper and lower ends of the image (screen) arranged in the horizontal direction of the distance image 128. Identify. Specifically, the distance image 128 is divided into a plurality of vertical regions S divided in the horizontal direction (horizontal direction) of the distance image 128.

任意の縦領域Sについて、縦領域S内に含まれるすべてのブロックの相対距離の度数分布が生成される。度数分布では、例えば、所定距離ごとに区分けされた距離区分それぞれに属する相対距離を持ったブロックの数が度数として示される。ここで、同じ立体物を比較したとき、相対距離が近いほど、その立体物が距離画像128に占める面積が大きくなる。そこで、例えば、度数が最も高い距離区分の中心値が、その縦領域Sの相対距離の代表値とされる。これにより、自車両1に近い立体物の相対距離が代表値とされ易い。また、相対距離が近いブロックのノイズがあっても、その度数が高くなければ代表値への影響が回避される。   For any vertical region S, a frequency distribution of relative distances of all blocks contained in the vertical region S is generated. In the frequency distribution, for example, the number of blocks having relative distances belonging to each of the distance sections divided into predetermined distances is indicated as a frequency. Here, when the same three-dimensional object is compared, the area occupied by the three-dimensional object in the distance image 128 increases as the relative distance decreases. Therefore, for example, the central value of the distance section having the highest frequency is taken as the representative value of the relative distance of the vertical region S. As a result, the relative distance of a three-dimensional object close to the host vehicle 1 is likely to be the representative value. In addition, even if there is noise in a block whose relative distance is close, the influence on the representative value is avoided unless the frequency is high.

ここでは、度数が最も高い距離区分の中心値が代表値である場合について説明した。しかし、例えば、度数が所定値以上となった距離区分のうち、自車両1に最も近い距離区分の中心値が、代表値であってもよい。また、代表値は、縦領域Sのブロックの相対距離を代表すればよく、例えば、縦領域Sにおける相対距離の平均値であってもよい。   Here, the case where the central value of the distance division with the highest frequency is the representative value has been described. However, for example, among the distance divisions in which the frequency is equal to or more than the predetermined value, the central value of the distance division closest to the host vehicle 1 may be a representative value. Further, the representative value may represent the relative distance of the blocks in the vertical region S, and may be, for example, an average value of the relative distances in the vertical region S.

すべての縦領域Sについて、同様に代表値が特定される。イメージ図304、306に、縦領域Sの相対距離の代表値を、黒塗りの四角で示す。イメージ図304、306では、図中、上側ほど相対距離が遠いことを示す。   For all vertical regions S, representative values are similarly identified. In the image diagrams 304 and 306, representative values of the relative distance of the vertical regions S are indicated by black squares. In the image diagrams 304 and 306, the upper side in the figure indicates that the relative distance is longer.

相対距離の代表値は、上記のグループ化に用いられる。例えば、隣接する縦領域S同士を比較し、代表値が近接する縦領域Sがまとめられた縦領域群が生成される。この縦領域群の内部で、代表値に近い相対距離のブロックを基点として、近傍に位置するブロックについて、相対距離、水平距離、高さなどが所定範囲にあるブロックが、1つの立体物としてグループ化される。   The representative value of the relative distance is used for the above grouping. For example, vertical regions S adjacent to each other are compared, and a vertical region group is generated in which vertical regions S having representative values in close proximity are grouped. Within the vertical area group, with blocks at relative distances close to the representative value as a base point, blocks whose relative distance, horizontal distance, height, etc. are within predetermined ranges are grouped as one solid object Be

そのため、代表特定部164は、立体物領域特定部160のグループ化処理の前に、縦領域Sの代表値を特定する。立体物領域特定部160は、代表特定部164が特定した代表値を利用して、上記のようにグループ化処理を行う。   Therefore, the representative specifying unit 164 specifies a representative value of the vertical region S before the grouping process of the three-dimensional object region specifying unit 160. The three-dimensional object region identification unit 160 performs grouping processing as described above using the representative value identified by the representative identification unit 164.

ただし、代表値は、立体物領域特定部160によるグループ化処理に用いられなくともよい。この場合、代表特定部164は、例えば、部分画像300、302のみを対象として、縦領域Sに区分けし、縦領域Sの代表値を特定してもよい。このとき、代表値は、例えば、部分画像300、302のうち、下方の所定範囲のブロックにおける相対距離の平均値であってもよい。   However, the representative value may not be used for the grouping process by the three-dimensional object region identification unit 160. In this case, the representative specifying unit 164 may, for example, classify the partial images 300 and 302 only into the vertical region S and specify the representative value of the vertical region S. At this time, the representative value may be, for example, an average value of relative distances of blocks in a predetermined range below the partial images 300 and 302.

(候補判定処理S206)
候補判定部166は、複数の縦領域における代表値のバラつきに基づいて、部分画像300、302が歩行者か二輪車かを判定する。イメージ図304に示すように、歩行者の部分画像300が含まれる縦領域Sの相対距離の代表値は、バラつきが小さい。一方、イメージ図306に示すように、二輪車の部分画像302が含まれる縦領域Sの相対距離の代表値は、バラつきが大きい。これは、二輪車に乗っている人と比べて、二輪車の後輪308の相対距離が小さいためである。
(Candidate determination processing S206)
The candidate determination unit 166 determines whether the partial images 300 and 302 are a pedestrian or a two-wheeled vehicle based on variations in representative values in a plurality of vertical regions. As shown in the image diagram 304, the representative value of the relative distance of the vertical region S including the partial image 300 of the pedestrian has a small variation. On the other hand, as shown in the image diagram 306, the representative value of the relative distance of the longitudinal region S including the partial image 302 of the two-wheeled vehicle has a large variation. This is because the relative distance of the rear wheel 308 of the two-wheeled vehicle is smaller than that of the person riding the two-wheeled vehicle.

候補判定部166は、この特性を利用して歩行者と二輪車を識別する。候補判定部166は、代表値のバラつきの指標値が所定の閾値を超えていると、部分画像302が二輪車であると判定する。ここで、バラつきの指標値は、例えば、分散、標準偏差などの統計指標であってもいいし、単純に、代表値の最大値と最小値の差分であってもよい。いずれにしても、代表値のバラつきの程度が示されればよい。   The candidate determination unit 166 uses this characteristic to identify a pedestrian and a two-wheeled vehicle. The candidate determination unit 166 determines that the partial image 302 is a two-wheeled vehicle when the index value of variation of the representative values exceeds a predetermined threshold. Here, the index value of variation may be, for example, a statistical index such as variance, standard deviation, or simply the difference between the maximum value and the minimum value of the representative values. In any case, the degree of variation of the representative value may be indicated.

(補正処理S208)
上記のように、相対距離の代表値などにより、歩行者や二輪車などの立体物までの相対距離は推定されている。しかし、二輪車の車輪(背面の場合には後輪308、正面の場合には前輪)は、輪郭が識別され難い。また、一般的に、二輪車の車輪は、幅が狭いため、正確な視差情報が得られにくい。その結果、部分画像302における二輪車までの相対距離は、本来、後輪308の端部(自車両1側の端部)までの相対距離となるところ、例えば、二輪車に乗っている人の背中までの相対距離となってしまう。こうして、相対距離が実際よりも大きく導出されてしまう。
(Correction process S208)
As described above, the relative distance to a three-dimensional object such as a pedestrian or a two-wheeled vehicle is estimated by the representative value of the relative distance or the like. However, the contours of the wheels of the two-wheeled vehicle (the rear wheel 308 in the rear and the front wheels in the front) are difficult to identify. Also, in general, the wheels of a two-wheeled vehicle have a narrow width, so it is difficult to obtain accurate parallax information. As a result, the relative distance to the two-wheeled vehicle in the partial image 302 is originally the relative distance to the end of the rear wheel 308 (the end at the vehicle 1 side), for example, to the back of the person riding the two-wheeled vehicle It becomes relative distance of. Thus, the relative distance is derived larger than in reality.

すなわち、イメージ図306において、後輪308が含まれる縦領域Sの代表値は、実際の後輪308の端部よりも、自車両1から離れた値となっている。これでは、自車両1が二輪車との適切な距離を維持する制御の妨げとなってしまう。   That is, in the image diagram 306, the representative value of the vertical region S including the rear wheel 308 is a value farther from the host vehicle 1 than the actual end portion of the rear wheel 308. In this case, the control of maintaining the proper distance between the host vehicle 1 and the two-wheeled vehicle may be hindered.

そこで、距離補正部168は、部分画像302が二輪車と判定されると、部分画像302に対応する二輪車までの相対距離の推定値(推定距離)を、減少させる補正を行う。すなわち、距離補正部168は、二輪車までの推定距離を、候補判定部166によって二輪車と判定される前の値(例えば、代表特定部164によって導出された値)よりも減少させる。具体的には、距離補正部168は、二輪車までの推定距離から、例えば、所定値(一例としては70cmなど)を減算する補正を行う。二輪車の車輪の大きさは大凡限られており、所定値は、そのうち、大きめの車輪に対応するように安全側に設定される。   Therefore, when the partial image 302 is determined to be a two-wheeled vehicle, the distance correction unit 168 performs correction to reduce the estimated value of the relative distance to the two-wheeled vehicle corresponding to the partial image 302 (estimated distance). That is, the distance correction unit 168 reduces the estimated distance to the two-wheeler than a value before the candidate determination unit 166 determines that the two-wheeler is a motorcycle (for example, a value derived by the representative identification unit 164). Specifically, the distance correction unit 168 performs, for example, a correction of subtracting a predetermined value (for example, 70 cm or the like) from the estimated distance to the two-wheeled vehicle. The size of the wheel of the two-wheeled vehicle is generally limited, and the predetermined value is set on the safe side to correspond to the larger wheel.

上述したように、本実施形態では、候補判定部166によって歩行者と二輪車が適切に識別可能となる。また、二輪車については、推定距離を減少させることで、自車両1と二輪車との適切な距離が維持可能となる。   As described above, in the present embodiment, the candidate determination unit 166 can appropriately distinguish between a pedestrian and a two-wheeled vehicle. Further, as for the two-wheeled vehicle, by reducing the estimated distance, an appropriate distance between the vehicle 1 and the two-wheeled vehicle can be maintained.

また、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   In addition, a program that causes a computer to function as the external environment recognition device 120, and a computer readable storage medium such as a flexible disk, a magneto-optical disk, a ROM, a CD, a DVD, a BD, etc., storing the program are also provided. Here, the program refers to data processing means described in any language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   Although the preferred embodiments of the present invention have been described above with reference to the accompanying drawings, it goes without saying that the present invention is not limited to such embodiments. It is obvious that those skilled in the art can conceive of various changes or modifications within the scope of the claims, and it is naturally understood that they are also within the technical scope of the present invention. Be done.

例えば、上述した実施形態では、候補判定部166は、代表値のバラつきの指標値が所定の閾値を超えていると、部分画像302が二輪車であると判定する場合について説明した。ただし、代表値のバラつきに基づいて判定されていれば、指標値と閾値との比較処理は必須ではない。   For example, in the embodiment described above, a case has been described in which the candidate determination unit 166 determines that the partial image 302 is a two-wheeled vehicle when the index value of variation of representative values exceeds a predetermined threshold. However, if the determination is made based on the variation of the representative value, the comparison process of the index value and the threshold is not essential.

また、上述した実施形態では、車外環境認識装置120が距離補正部168としても機能する場合について説明した。ただし、距離補正部168は、必須の構成ではない。   Further, in the embodiment described above, the case where the outside environment recognition device 120 also functions as the distance correction unit 168 has been described. However, the distance correction unit 168 is not an essential component.

また、上述した実施形態では、車外環境認識装置120が候補特定部162、代表特定部164としても機能する場合について説明した。ただし、車外環境認識装置120が候補判定部166、距離補正部168として機能すれば、候補特定部162、代表特定部164として機能せずともよい。この場合、候補判定部166は、少なくとも部分画像300、302が二輪車であるか否かを判定すればよい。二輪車の判定ロジックは、上記のものに限らず、任意のロジックが用いられればよい。   Further, in the above-described embodiment, the case where the external environment recognition device 120 also functions as the candidate specifying unit 162 and the representative specifying unit 164 has been described. However, if the outside environment recognition device 120 functions as the candidate determination unit 166 and the distance correction unit 168, it may not function as the candidate specification unit 162 and the representative specification unit 164. In this case, the candidate determination unit 166 may determine whether at least the partial images 300 and 302 are two-wheeled vehicles. The determination logic of the two-wheeled vehicle is not limited to the above, and any logic may be used.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each process of the outside environment recognition process of the present specification does not necessarily have to be processed in chronological order according to the order described as the flowchart, and may include processes in parallel or by a subroutine.

本発明は、自車両前方の立体物を特定する車外環境認識装置に利用することができる。   The present invention can be used for an outside environment recognition device for identifying a three-dimensional object ahead of the host vehicle.

120 車外環境認識装置
128 距離画像(画像)
160 立体物領域特定部
162 候補特定部
164 代表特定部
166 候補判定部(判定部)
168 距離補正部(補正部)
300、302 部分画像
120 Vehicle outside environment recognition device 128 Distance image (image)
160 three-dimensional object area specifying unit 162 candidate specifying unit 164 representative specifying unit 166 candidate determining unit (determining unit)
168 Distance correction unit (correction unit)
300, 302 partial images

Claims (4)

コンピュータが、
画像における、歩行者または二輪車である部分画像を特定する候補特定部と、
前記部分画像について、前記画像の横方向に並んだ複数の縦領域ごとに、距離の代表値を特定する代表特定部と、
複数の前記縦領域における前記代表値のバラつきに基づいて、前記部分画像が前記歩行者か前記二輪車かを判定する判定部
として機能する車外環境認識装置。
The computer is
A candidate identification unit that identifies a partial image that is a pedestrian or a motorcycle in the image;
A representative specifying unit that specifies a representative value of the distance for each of the plurality of vertical regions arranged in the horizontal direction of the partial image;
An external environment recognition device that functions as a determination unit that determines whether the partial image is the pedestrian or the two-wheeled vehicle based on variations in the representative values in a plurality of the vertical regions.
前記判定部は、前記代表値のバラつきの指標値が所定の閾値を超えていると、前記部分画像が前記二輪車であると判定する請求項1に記載の車外環境認識装置。   The apparatus according to claim 1, wherein the determination unit determines that the partial image is the two-wheeled vehicle when the index value of variation of the representative values exceeds a predetermined threshold. 前記コンピュータが、
前記二輪車までの推定距離を、前記二輪車と判定される前よりも減少させる補正部としてさらに機能する請求項1または2に記載の車外環境認識装置。
The computer
The vehicle external environment recognition device according to claim 1, further functioning as a correction unit that reduces the estimated distance to the two-wheeled vehicle than before the two-wheeled vehicle is determined.
コンピュータが、
画像における部分画像が二輪車であるか否かを判定する判定部と、
前記部分画像が二輪車であると判定されると、前記二輪車までの推定距離を、前記二輪車と判定される前よりも減少させる補正部
として機能する車外環境認識装置。
The computer is
A determination unit that determines whether a partial image in the image is a two-wheeled vehicle;
An external environment recognition device that functions as a correction unit that reduces the estimated distance to the two-wheeled vehicle compared to before the two-wheeled vehicle is determined if the partial image is determined to be a two-wheeled vehicle.
JP2017228038A 2017-11-28 2017-11-28 External environment recognition device Active JP7071102B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017228038A JP7071102B2 (en) 2017-11-28 2017-11-28 External environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017228038A JP7071102B2 (en) 2017-11-28 2017-11-28 External environment recognition device

Publications (2)

Publication Number Publication Date
JP2019101470A true JP2019101470A (en) 2019-06-24
JP7071102B2 JP7071102B2 (en) 2022-05-18

Family

ID=66973579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017228038A Active JP7071102B2 (en) 2017-11-28 2017-11-28 External environment recognition device

Country Status (1)

Country Link
JP (1) JP7071102B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021095455A1 (en) * 2019-11-14 2021-05-20 日立Astemo株式会社 Object identification device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device
JP2007288460A (en) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
JP2010097541A (en) * 2008-10-20 2010-04-30 Honda Motor Co Ltd Vehicular periphery monitoring apparatus
JP2017027279A (en) * 2015-07-21 2017-02-02 株式会社日本自動車部品総合研究所 Article detection apparatus and article detection method
JP2017054311A (en) * 2015-09-09 2017-03-16 株式会社デンソー Object detection apparatus
JP2018048921A (en) * 2016-09-22 2018-03-29 株式会社デンソー Object detection apparatus and object detection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device
JP2007288460A (en) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
JP2010097541A (en) * 2008-10-20 2010-04-30 Honda Motor Co Ltd Vehicular periphery monitoring apparatus
JP2017027279A (en) * 2015-07-21 2017-02-02 株式会社日本自動車部品総合研究所 Article detection apparatus and article detection method
JP2017054311A (en) * 2015-09-09 2017-03-16 株式会社デンソー Object detection apparatus
JP2018048921A (en) * 2016-09-22 2018-03-29 株式会社デンソー Object detection apparatus and object detection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021095455A1 (en) * 2019-11-14 2021-05-20 日立Astemo株式会社 Object identification device
JP2021081789A (en) * 2019-11-14 2021-05-27 日立Astemo株式会社 Object identification device
JP7373972B2 (en) 2019-11-14 2023-11-06 日立Astemo株式会社 object identification device

Also Published As

Publication number Publication date
JP7071102B2 (en) 2022-05-18

Similar Documents

Publication Publication Date Title
JP6197291B2 (en) Compound eye camera device and vehicle equipped with the same
JP5886809B2 (en) Outside environment recognition device
US20150049195A1 (en) Image processing unit, object detection method, object detection program, and vehicle control system
JP5999127B2 (en) Image processing device
US10803605B2 (en) Vehicle exterior environment recognition apparatus
JP2012243051A (en) Environment recognition device and environment recognition method
US10102437B2 (en) Vehicle driving hazard recognition and avoidance apparatus and vehicle control device
JP6514736B2 (en) Outside environment recognition device
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP6591188B2 (en) Outside environment recognition device
JP7356319B2 (en) Vehicle exterior environment recognition device
JP7229032B2 (en) External object detection device
JP6240475B2 (en) Outside environment recognition device
JP6764378B2 (en) External environment recognition device
JP7071102B2 (en) External environment recognition device
JP7261006B2 (en) External environment recognition device
US10810757B2 (en) Vehicle exterior environment recognition apparatus
JP6273156B2 (en) Pedestrian recognition device
JP2022040651A (en) Vehicle outside environment recognition device
JP7336367B2 (en) External environment recognition device
JP2018088237A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program
JP2014123301A (en) White line detection device
JP5890816B2 (en) Filtering device and environment recognition system
US20240346752A1 (en) Machine learning device and vehicle
JP2016143264A (en) Outside of car environment recognizing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220311

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220329

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220506

R150 Certificate of patent or registration of utility model

Ref document number: 7071102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150