[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7071102B2 - External environment recognition device - Google Patents

External environment recognition device Download PDF

Info

Publication number
JP7071102B2
JP7071102B2 JP2017228038A JP2017228038A JP7071102B2 JP 7071102 B2 JP7071102 B2 JP 7071102B2 JP 2017228038 A JP2017228038 A JP 2017228038A JP 2017228038 A JP2017228038 A JP 2017228038A JP 7071102 B2 JP7071102 B2 JP 7071102B2
Authority
JP
Japan
Prior art keywords
image
vehicle
distance
environment recognition
wheeled vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017228038A
Other languages
Japanese (ja)
Other versions
JP2019101470A (en
Inventor
直樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2017228038A priority Critical patent/JP7071102B2/en
Publication of JP2019101470A publication Critical patent/JP2019101470A/en
Application granted granted Critical
Publication of JP7071102B2 publication Critical patent/JP7071102B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両前方の立体物を特定する車外環境認識装置に関する。 The present invention relates to an external environment recognition device that identifies a three-dimensional object in front of the own vehicle.

従来、撮像装置によって撮像された画像に基づいて、自車両前方に位置する車両、二輪車、歩行者などの立体物を特定する技術が知られている(例えば、特許文献1、2)。 Conventionally, there is known a technique for identifying a three-dimensional object such as a vehicle, a two-wheeled vehicle, or a pedestrian located in front of the own vehicle based on an image captured by an image pickup device (for example, Patent Documents 1 and 2).

特開2015-195018号公報JP-A-2015-195018 特開2010-097541号公報Japanese Unexamined Patent Publication No. 2010-097541

上記の撮像装置が二輪車を前方や後方から捉えると、二輪車の車輪などの特徴部分が判別し難い。そのため、特許文献1、2の技術を以てしても、二輪車と歩行者を識別することが困難な場合があった。そのため、二輪車と歩行者の識別の精度を向上する技術の開発が望まれている。 When the above image pickup device captures the motorcycle from the front or the rear, it is difficult to distinguish the characteristic parts such as the wheels of the motorcycle. Therefore, even with the techniques of Patent Documents 1 and 2, it may be difficult to distinguish between a two-wheeled vehicle and a pedestrian. Therefore, it is desired to develop a technique for improving the accuracy of distinguishing between a two-wheeled vehicle and a pedestrian.

本発明は、このような課題に鑑み、二輪車と歩行者の識別精度を向上することが可能な車外環境認識装置を提供することを目的としている。 In view of such problems, it is an object of the present invention to provide an external environment recognition device capable of improving the discrimination accuracy between a two-wheeled vehicle and a pedestrian.

上記課題を解決するために、本発明の車外環境認識装置は、コンピュータが、画像における、歩行者または二輪車である部分画像を特定する候補特定部と、部分画像について、画像の横方向に並んだ複数の縦領域ごとに、距離の代表値を特定する代表特定部と、複数の縦領域における代表値のバラつきに基づいて、部分画像が歩行者か二輪車かを判定する判定部として機能する。 In order to solve the above problems, in the vehicle exterior environment recognition device of the present invention, a computer arranges a candidate identification unit for specifying a partial image of a pedestrian or a two-wheeled vehicle in an image and the partial image in the horizontal direction of the image. It functions as a representative specifying unit that specifies the representative value of the distance for each of the plurality of vertical regions, and a determination unit that determines whether the partial image is a pedestrian or a two-wheeled vehicle based on the variation of the representative values in the plurality of vertical regions.

判定部は、代表値のバラつきの指標値が所定の閾値を超えていると、部分画像が二輪車であると判定してもよい。 When the index value of the variation of the representative value exceeds a predetermined threshold value, the determination unit may determine that the partial image is a two-wheeled vehicle.

コンピュータが、二輪車までの推定距離を、二輪車と判定される前よりも減少させる補正部としてさらに機能してもよい。 The computer may further function as a compensator to reduce the estimated distance to the motorcycle than it was before it was determined to be a motorcycle.

本発明によれば、二輪車と歩行者の識別精度を向上することが可能となる。 According to the present invention, it is possible to improve the discrimination accuracy between a two-wheeled vehicle and a pedestrian.

車外環境認識システムの接続関係を示したブロック図である。It is a block diagram which showed the connection relation of the outside environment recognition system. 輝度画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a luminance image and a distance image. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is a functional block diagram which showed the schematic function of the vehicle exterior environment recognition device. 車外環境認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the vehicle outside environment recognition processing. 歩行者および二輪車の違いを説明するための図である。It is a figure for demonstrating the difference between a pedestrian and a two-wheeled vehicle.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and the drawings, elements having substantially the same function and configuration are designated by the same reference numerals to omit duplicate explanations, and elements not directly related to the present invention are not shown. do.

(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(External environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the vehicle exterior environment recognition system 100. The vehicle exterior environment recognition system 100 includes an image pickup device 110, a vehicle exterior environment recognition device 120, and a vehicle control unit (ECU) 130.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像(カラー画像やモノクロ画像)を生成することができる。また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、撮像装置110によって認識する立体物は、二輪車(自転車など)、歩行者(人)、車両、信号機、道路(進行路)、道路標識、ガードレール、建物といった独立して存在する物のみならず、歩行者の頭部や肩部等、その一部として特定できる物も含む。 The image pickup device 110 is configured to include an image pickup element such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), captures an image of the outside environment in front of the own vehicle 1, and includes at least luminance information. It is possible to generate a luminance image (color image or monochrome image). Further, the image pickup device 110 is arranged so as to be separated from each other in the substantially horizontal direction so that the optical axes of the two image pickup devices 110 are substantially parallel to each other on the traveling direction side of the own vehicle 1. The image pickup apparatus 110 continuously generates a luminance image of a three-dimensional object existing in the detection region in front of the own vehicle 1 every frame (60 fps) of, for example, 1/60 second. Here, if the three-dimensional object recognized by the image pickup device 110 is only an independently existing object such as a two-wheeled vehicle (bicycle or the like), a pedestrian (person), a vehicle, a traffic light, a road (travel path), a road sign, a guardrail, or a building. It also includes objects that can be identified as part of it, such as the head and shoulders of pedestrians.

また、車外環境認識装置120は、2つの撮像装置110それぞれから輝度画像を取得し、一方の輝度画像から任意に抽出したブロック(例えば、水平4画素×垂直4画素の配列)に対応するブロックを他方の輝度画像から検索する、所謂パターンマッチングを用いて、視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出する。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位の視差導出処理を、検出領域(例えば、600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。 Further, the outside environment recognition device 120 acquires a luminance image from each of the two image pickup devices 110, and blocks corresponding to a block (for example, an arrangement of 4 horizontal pixels × 4 vertical pixels) arbitrarily extracted from one of the luminance images. Using so-called pattern matching, which is searched from the other luminance image, disparity information including disparity and a screen position indicating the position of an arbitrary block in the screen is derived. Here, horizontal indicates the horizontal direction of the screen of the captured image, and vertical indicates the vertical direction of the screen of the captured image. As this pattern matching, it is conceivable to compare the luminance (Y) between a pair of images in an arbitrary block unit. For example, SAD (Sum of Absolute Difference) that takes the difference in brightness, SSD (Sum of Squared intensity Difference) that uses the difference squared, and NCC that takes the similarity of the dispersion value obtained by subtracting the average value from the brightness of each pixel. There are methods such as (Normalized Cross Correlation). The vehicle exterior environment recognition device 120 performs such parallax derivation processing in block units for all blocks projected in the detection area (for example, 600 pixels × 200 pixels). Here, the block is 4 pixels × 4 pixels, but the number of pixels in the block can be set arbitrarily.

ただし、車外環境認識装置120では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような立体物の一部であるかを認識できない。したがって、視差情報は、立体物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報を対応付けた画像を、上述した輝度画像と区別して距離画像という。 However, in the vehicle exterior environment recognition device 120, although the parallax can be derived for each block, which is a detection resolution unit, it is not possible to recognize what kind of three-dimensional object the block is a part of. Therefore, the parallax information is independently derived not in units of three-dimensional objects but in units of detection resolution (for example, in units of blocks) in the detection region. Here, the image associated with the parallax information derived in this way is referred to as a distance image to distinguish it from the above-mentioned luminance image.

図2は、輝度画像126と距離画像128を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域124について図2(a)のような輝度画像126が生成されたとする。ただし、ここでは、理解を容易にするため、2つの輝度画像126の一方のみを模式的に示している。車外環境認識装置120は、このような輝度画像126からブロック毎の視差を求め、図2(b)のような距離画像(画像)128を形成する。距離画像128における各ブロックには、そのブロックの視差が関連付けられている。図2では、説明の便宜上、視差が導出されたブロックを黒のドットで表している。 FIG. 2 is an explanatory diagram for explaining the luminance image 126 and the distance image 128. For example, it is assumed that the luminance image 126 as shown in FIG. 2A is generated for the detection region 124 through the two image pickup devices 110. However, here, for ease of understanding, only one of the two luminance images 126 is schematically shown. The vehicle exterior environment recognition device 120 obtains the parallax for each block from such a luminance image 126, and forms a distance image (image) 128 as shown in FIG. 2 (b). Each block in the distance image 128 is associated with the parallax of that block. In FIG. 2, for convenience of explanation, the block from which the parallax is derived is represented by black dots.

また、車外環境認識装置120は、輝度画像126に基づく輝度値(カラー値)、および、距離画像128に基づいて算出された、自車両1との相対距離(距離)を含む実空間における三次元の位置情報を用い、カラー値が等しく三次元の位置情報が近いブロック同士を立体物としてグループ化して、自車両1前方の検出領域における立体物が何であるか(例えば、歩行者など)を特定する。また、車外環境認識装置120は、このように立体物を特定すると、立体物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように自車両1を制御する(クルーズコントロール)。なお、上記相対距離は、距離画像128におけるブロック毎の視差情報を、所謂ステレオ法を用いて三次元の位置情報に変換することで求められる。ここで、ステレオ法は、三角測量法を用いることで、立体物の視差からその立体物の撮像装置110に対する相対距離を導出する方法である。 Further, the vehicle exterior environment recognition device 120 is three-dimensional in a real space including a luminance value (color value) based on the luminance image 126 and a relative distance (distance) to the own vehicle 1 calculated based on the distance image 128. Using the position information of, groups blocks with the same color value and similar three-dimensional position information as a three-dimensional object, and specify what the three-dimensional object is in the detection area in front of the own vehicle 1 (for example, a pedestrian). do. Further, when the vehicle exterior environment recognition device 120 identifies a three-dimensional object in this way, the own vehicle 1 can avoid a collision with the three-dimensional object (collision avoidance control) and keep the distance between the vehicle and the preceding vehicle at a safe distance. Control (cruise control). The relative distance is obtained by converting the parallax information for each block in the distance image 128 into three-dimensional position information using the so-called stereo method. Here, the stereo method is a method of deriving the relative distance of the stereoscopic object to the image pickup device 110 from the parallax of the stereoscopic object by using the triangulation method.

図1に戻り説明すると、車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。 Returning to FIG. 1, the vehicle control device 130 receives the driver's operation input through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and transmits the operation input to the steering mechanism 142, the drive mechanism 144, and the braking mechanism 146. Control the vehicle 1. Further, the vehicle control device 130 controls the steering mechanism 142, the drive mechanism 144, and the braking mechanism 146 in accordance with the instructions of the vehicle exterior environment recognition device 120.

以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態において特徴的な自車両1前方の検出領域における立体物(例えば、歩行者および二輪車)の特定処理について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。 Hereinafter, the configuration of the vehicle exterior environment recognition device 120 will be described in detail. Here, the specific processing of a three-dimensional object (for example, a pedestrian and a two-wheeled vehicle) in the detection region in front of the own vehicle 1, which is characteristic of the present embodiment, will be described in detail, and a configuration unrelated to the characteristics of the present embodiment will be described. Omit.

(車外環境認識装置120)
図3は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図3に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(External environment recognition device 120)
FIG. 3 is a functional block diagram showing a schematic function of the vehicle exterior environment recognition device 120. As shown in FIG. 3, the vehicle exterior environment recognition device 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。 The I / F unit 150 is an interface for bidirectional information exchange with the image pickup device 110 and the vehicle control device 130. The data holding unit 152 is composed of a RAM, a flash memory, an HDD, and the like, and holds various information necessary for processing of each of the following functional units.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、立体物領域特定部160、候補特定部162、代表特定部164、候補判定部166、距離補正部168としても機能する。以下、本実施形態に特徴的な歩行者および二輪車を認識する車外環境認識処理について、当該中央制御部154の各機能部の動作も踏まえて詳述する。 The central control unit 154 is composed of a semiconductor integrated circuit including a central processing unit (CPU), a ROM in which a program or the like is stored, a RAM as a work area, and the like, and is an I / F unit 150 and a data holding unit through a system bus 156. It controls 152 and so on. Further, in the present embodiment, the central control unit 154 also functions as a three-dimensional object region identification unit 160, a candidate identification unit 162, a representative identification unit 164, a candidate determination unit 166, and a distance correction unit 168. Hereinafter, the vehicle exterior environment recognition process for recognizing pedestrians and motorcycles, which is characteristic of the present embodiment, will be described in detail with reference to the operation of each functional unit of the central control unit 154.

(車外環境認識処理)
図4は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、まず、立体物領域特定部160が、輝度画像126や距離画像128において立体物が含まれる(写った)立体物領域を特定する立体物領域特定処理(S200)が実行される。そして、候補特定部162が、歩行者または二輪車の立体物が含まれる立体物領域(部分画像)を特定する候補特定処理(S202)が実行される。歩行者または二輪車の立体物が含まれる立体物領域が特定されると、代表特定部164が後述の代表値を特定する代表値特定処理(S204)が行われた後、候補判定部(判定部)166が、立体物が二輪車であるか否かを判定する候補判定処理(S206)が実行され、最後に、距離補正部(補正部)168が、相対距離を補正する補正処理(S208)が実行される。なお、車外環境認識処理は、輝度画像126や距離画像128が取得されたフレーム毎に繰り返し実行される。
(Outside environment recognition processing)
FIG. 4 is a flowchart showing the flow of the vehicle exterior environment recognition process. In the vehicle exterior environment recognition process, first, the three-dimensional object area specifying unit 160 executes the three-dimensional object area specifying process (S200) for specifying the three-dimensional object area including (photographed) the three-dimensional object in the luminance image 126 and the distance image 128. To. Then, the candidate identification unit 162 executes a candidate identification process (S202) for specifying a three-dimensional object region (partial image) including a three-dimensional object of a pedestrian or a two-wheeled vehicle. When a three-dimensional object region including a three-dimensional object of a pedestrian or a two-wheeled vehicle is specified, the representative identification unit 164 performs a representative value identification process (S204) for specifying a representative value described later, and then a candidate determination unit (determination unit). 166, a candidate determination process (S206) for determining whether or not the three-dimensional object is a two-wheeled vehicle is executed, and finally, a correction process (S208) in which the distance correction unit (correction unit) 168 corrects the relative distance is performed. Will be executed. The vehicle exterior environment recognition process is repeatedly executed for each frame in which the luminance image 126 and the distance image 128 are acquired.

(立体物領域特定処理S200)
立体物領域特定部160は、上述のように、輝度画像126および距離画像128の検出領域において、グループ化により立体物を特定する。立体物領域特定部160は、輝度画像126および距離画像128のうち、特定された立体物が含まれる(写った)立体物領域(部分画像)を抽出する。
(Three-dimensional object area identification process S200)
As described above, the three-dimensional object region specifying unit 160 identifies a three-dimensional object by grouping in the detection regions of the luminance image 126 and the distance image 128. The three-dimensional object region specifying unit 160 extracts a three-dimensional object region (partial image) including (photographed) the specified three-dimensional object from the luminance image 126 and the distance image 128.

(候補特定処理S202)
続いて、候補特定部162は、抽出された立体物領域に基づいて、特定された立体物が何であるかを特定する。例えば、立体物としては、上記のように、二輪車、歩行者(人)、車両、信号機、道路(進行路)、道路標識、ガードレール、建物、歩行者の頭部や肩部等の種別が含まれる。各種別には予め設定条件が設けられており、特定された立体物は、立体物領域が設定条件に合致すると、対応する種別と判定される。
(Candidate identification process S202)
Subsequently, the candidate specifying unit 162 identifies what the specified three-dimensional object is based on the extracted three-dimensional object region. For example, as described above, the three-dimensional object includes types such as two-wheeled vehicles, pedestrians (people), vehicles, traffic lights, roads (travel paths), road signs, guardrails, buildings, and pedestrian heads and shoulders. Will be. Setting conditions are set in advance for each type, and the specified three-dimensional object is determined to be the corresponding type when the three-dimensional object region meets the setting conditions.

ここで、歩行者と二輪車については、識別が難しい場合がある。例えば、撮像装置110に対して、人が乗った二輪車が正面または背面を向けていると、識別が難しい。二輪車の特徴である車輪が、例えば、黒い棒状の物体となって輪郭が識別され難い。その上、二輪車上方に位置する人の上半身は、歩行者のものと区別がつかない。ここでは、二輪車は、例えば、前輪、後輪がそれぞれ一輪(一対)のものをいう。 Here, it may be difficult to distinguish between pedestrians and motorcycles. For example, it is difficult to identify a two-wheeled vehicle on which a person is riding facing the front or the back of the image pickup device 110. The wheels, which are characteristic of motorcycles, become, for example, black rod-shaped objects, and it is difficult to identify the contour. Moreover, the upper body of a person located above the two-wheeled vehicle is indistinguishable from that of a pedestrian. Here, the two-wheeled vehicle means, for example, a motorcycle having one front wheel and one rear wheel (pair).

そのため、候補特定部162は、立体物を、歩行者であるか二輪車であるかについては識別せず、「歩行者または二輪車」という種別として特定する。候補特定部162は、「歩行者または二輪車」を、例えば、立体物の輪郭形状、大きさ、移動速度などによって特定する。 Therefore, the candidate identification unit 162 does not identify whether the three-dimensional object is a pedestrian or a two-wheeled vehicle, but specifies it as a type of "pedestrian or two-wheeled vehicle". The candidate specifying unit 162 identifies the "pedestrian or two-wheeled vehicle" by, for example, the contour shape, size, moving speed, or the like of a three-dimensional object.

(代表値特定処理S204)
図5は、歩行者および二輪車の違いを説明するための図である。図5には、距離画像128のうち、2つの領域A、Bが抽出して示される。領域A内には、歩行者が含まれる部分画像300が位置し、領域B内には、二輪車が含まれる部分画像302が位置する。また、領域A、Bそれぞれの下に相対距離の代表値のイメージ図304、306が示される。
(Representative value specifying process S204)
FIG. 5 is a diagram for explaining the difference between a pedestrian and a two-wheeled vehicle. In FIG. 5, two regions A and B of the distance image 128 are extracted and shown. A partial image 300 including a pedestrian is located in the area A, and a partial image 302 including a two-wheeled vehicle is located in the area B. Further, images 304 and 306 of representative values of relative distances are shown below the regions A and B, respectively.

図5に示すように、部分画像302では、二輪車が背面を向いており、上記のように、後輪308が識別され難い。そのため、候補特定部162は、部分画像300、302双方について、立体物が「歩行者または二輪車」であると判定する。 As shown in FIG. 5, in the partial image 302, the two-wheeled vehicle faces the rear surface, and as described above, the rear wheel 308 is difficult to identify. Therefore, the candidate identification unit 162 determines that the three-dimensional object is a "pedestrian or a two-wheeled vehicle" for both the partial images 300 and 302.

ただし、立体物は、歩行者か二輪車かを特定可能な場合がある。例えば、移動速度が閾値以上であって、歩行者ではあり得ない場合は、二輪車と特定される。このような場合、候補特定部162は、以下の代表特定部164、候補判定部166の処理を行わずに、歩行者か二輪車かを特定する。 However, it may be possible to identify whether the three-dimensional object is a pedestrian or a two-wheeled vehicle. For example, if the moving speed is equal to or higher than the threshold value and cannot be a pedestrian, it is specified as a two-wheeled vehicle. In such a case, the candidate identification unit 162 identifies whether it is a pedestrian or a two-wheeled vehicle without performing the following processing of the representative identification unit 164 and the candidate determination unit 166.

続いて代表特定部164は、部分画像300、302について、距離画像128の横方向に並んだ、画像(画面)の上下端に亘る縦長な複数の縦領域Sごとに、相対距離の代表値を特定する。具体的に、距離画像128は、距離画像128の横方向(水平方向)に分割された複数の縦領域Sに区分けされる。 Subsequently, the representative identification unit 164 sets a representative value of the relative distance for each of the plurality of vertically long vertical regions S extending in the upper and lower ends of the image (screen) arranged in the horizontal direction of the partial images 300 and 302. Identify. Specifically, the distance image 128 is divided into a plurality of vertical regions S divided in the horizontal direction (horizontal direction) of the distance image 128.

任意の縦領域Sについて、縦領域S内に含まれるすべてのブロックの相対距離の度数分布が生成される。度数分布では、例えば、所定距離ごとに区分けされた距離区分それぞれに属する相対距離を持ったブロックの数が度数として示される。ここで、同じ立体物を比較したとき、相対距離が近いほど、その立体物が距離画像128に占める面積が大きくなる。そこで、例えば、度数が最も高い距離区分の中心値が、その縦領域Sの相対距離の代表値とされる。これにより、自車両1に近い立体物の相対距離が代表値とされ易い。また、相対距離が近いブロックのノイズがあっても、その度数が高くなければ代表値への影響が回避される。 For any vertical region S, a frequency distribution of relative distances of all blocks contained within the vertical region S is generated. In the frequency distribution, for example, the number of blocks having relative distances belonging to each of the distance divisions divided by predetermined distances is shown as the frequency. Here, when comparing the same three-dimensional objects, the closer the relative distance is, the larger the area occupied by the three-dimensional objects in the distance image 128. Therefore, for example, the center value of the distance division having the highest frequency is taken as the representative value of the relative distance of the vertical region S. As a result, the relative distance of the three-dimensional object close to the own vehicle 1 is likely to be used as the representative value. Further, even if there is noise in a block having a short relative distance, the influence on the representative value is avoided if the frequency is not high.

ここでは、度数が最も高い距離区分の中心値が代表値である場合について説明した。しかし、例えば、度数が所定値以上となった距離区分のうち、自車両1に最も近い距離区分の中心値が、代表値であってもよい。また、代表値は、縦領域Sのブロックの相対距離を代表すればよく、例えば、縦領域Sにおける相対距離の平均値であってもよい。 Here, the case where the center value of the distance division having the highest frequency is the representative value has been described. However, for example, among the distance categories in which the frequency is equal to or higher than a predetermined value, the center value of the distance category closest to the own vehicle 1 may be the representative value. Further, the representative value may represent the relative distance of the blocks in the vertical region S, and may be, for example, the average value of the relative distances in the vertical region S.

すべての縦領域Sについて、同様に代表値が特定される。イメージ図304、306に、縦領域Sの相対距離の代表値を、黒塗りの四角で示す。イメージ図304、306では、図中、上側ほど相対距離が遠いことを示す。 Representative values are similarly specified for all vertical regions S. In the image diagrams 304 and 306, the representative values of the relative distances of the vertical regions S are shown by black squares. In the images 304 and 306, it is shown that the relative distance is longer toward the upper side in the figure.

相対距離の代表値は、上記のグループ化に用いられる。例えば、隣接する縦領域S同士を比較し、代表値が近接する縦領域Sがまとめられた縦領域群が生成される。この縦領域群の内部で、代表値に近い相対距離のブロックを基点として、近傍に位置するブロックについて、相対距離、水平距離、高さなどが所定範囲にあるブロックが、1つの立体物としてグループ化される。 The representative value of the relative distance is used for the above grouping. For example, the adjacent vertical regions S are compared with each other, and a vertical region group in which the vertical regions S having close representative values are grouped is generated. Within this vertical region group, blocks with a relative distance close to the representative value as a base point, and blocks located in the vicinity within a predetermined range such as relative distance, horizontal distance, height, etc. are grouped as one solid object. Be made.

そのため、代表特定部164は、立体物領域特定部160のグループ化処理の前に、縦領域Sの代表値を特定する。立体物領域特定部160は、代表特定部164が特定した代表値を利用して、上記のようにグループ化処理を行う。 Therefore, the representative specifying unit 164 specifies the representative value of the vertical region S before the grouping process of the three-dimensional object region specifying unit 160. The three-dimensional object region specifying unit 160 performs the grouping process as described above by using the representative value specified by the representative specifying unit 164.

ただし、代表値は、立体物領域特定部160によるグループ化処理に用いられなくともよい。この場合、代表特定部164は、例えば、部分画像300、302のみを対象として、縦領域Sに区分けし、縦領域Sの代表値を特定してもよい。このとき、代表値は、例えば、部分画像300、302のうち、下方の所定範囲のブロックにおける相対距離の平均値であってもよい。 However, the representative value does not have to be used for the grouping process by the three-dimensional object region specifying unit 160. In this case, the representative specifying unit 164 may, for example, divide only the partial images 300 and 302 into the vertical region S and specify the representative value of the vertical region S. At this time, the representative value may be, for example, the average value of the relative distances in the blocks in the lower predetermined range among the partial images 300 and 302.

(候補判定処理S206)
候補判定部166は、複数の縦領域における代表値のバラつきに基づいて、部分画像300、302が歩行者か二輪車かを判定する。イメージ図304に示すように、歩行者の部分画像300が含まれる縦領域Sの相対距離の代表値は、バラつきが小さい。一方、イメージ図306に示すように、二輪車の部分画像302が含まれる縦領域Sの相対距離の代表値は、バラつきが大きい。これは、二輪車に乗っている人と比べて、二輪車の後輪308の相対距離が小さいためである。
(Candidate determination process S206)
The candidate determination unit 166 determines whether the partial images 300 and 302 are pedestrians or motorcycles based on the variation of the representative values in the plurality of vertical regions. As shown in image FIG. 304, the representative value of the relative distance of the vertical region S including the partial image 300 of the pedestrian has a small variation. On the other hand, as shown in image FIG. 306, the representative value of the relative distance of the vertical region S including the partial image 302 of the motorcycle has a large variation. This is because the relative distance of the rear wheels 308 of the two-wheeled vehicle is smaller than that of the person riding the two-wheeled vehicle.

候補判定部166は、この特性を利用して歩行者と二輪車を識別する。候補判定部166は、代表値のバラつきの指標値が所定の閾値を超えていると、部分画像302が二輪車であると判定する。ここで、バラつきの指標値は、例えば、分散、標準偏差などの統計指標であってもいいし、単純に、代表値の最大値と最小値の差分であってもよい。いずれにしても、代表値のバラつきの程度が示されればよい。 The candidate determination unit 166 uses this characteristic to discriminate between a pedestrian and a two-wheeled vehicle. When the index value of the variation of the representative value exceeds a predetermined threshold value, the candidate determination unit 166 determines that the partial image 302 is a two-wheeled vehicle. Here, the index value of variation may be, for example, a statistical index such as variance or standard deviation, or may simply be the difference between the maximum value and the minimum value of the representative value. In any case, it suffices to show the degree of variation in the representative value.

(補正処理S208)
上記のように、相対距離の代表値などにより、歩行者や二輪車などの立体物までの相対距離は推定されている。しかし、二輪車の車輪(背面の場合には後輪308、正面の場合には前輪)は、輪郭が識別され難い。また、一般的に、二輪車の車輪は、幅が狭いため、正確な視差情報が得られにくい。その結果、部分画像302における二輪車までの相対距離は、本来、後輪308の端部(自車両1側の端部)までの相対距離となるところ、例えば、二輪車に乗っている人の背中までの相対距離となってしまう。こうして、相対距離が実際よりも大きく導出されてしまう。
(Correction processing S208)
As described above, the relative distance to a three-dimensional object such as a pedestrian or a two-wheeled vehicle is estimated from the representative value of the relative distance. However, it is difficult to identify the contours of the wheels of a two-wheeled vehicle (rear wheels 308 in the case of the rear surface and front wheels in the case of the front surface). Further, in general, the wheels of a two-wheeled vehicle have a narrow width, so that it is difficult to obtain accurate parallax information. As a result, the relative distance to the two-wheeled vehicle in the partial image 302 is originally the relative distance to the end of the rear wheel 308 (the end on the one side of the own vehicle), for example, to the back of the person riding the two-wheeled vehicle. Will be the relative distance of. In this way, the relative distance is derived larger than it actually is.

すなわち、イメージ図306において、後輪308が含まれる縦領域Sの代表値は、実際の後輪308の端部よりも、自車両1から離れた値となっている。これでは、自車両1が二輪車との適切な距離を維持する制御の妨げとなってしまう。 That is, in the image FIG. 306, the representative value of the vertical region S including the rear wheel 308 is a value farther from the own vehicle 1 than the actual end portion of the rear wheel 308. This hinders the control of the own vehicle 1 to maintain an appropriate distance from the two-wheeled vehicle.

そこで、距離補正部168は、部分画像302が二輪車と判定されると、部分画像302に対応する二輪車までの相対距離の推定値(推定距離)を、減少させる補正を行う。すなわち、距離補正部168は、二輪車までの推定距離を、候補判定部166によって二輪車と判定される前の値(例えば、代表特定部164によって導出された値)よりも減少させる。具体的には、距離補正部168は、二輪車までの推定距離から、例えば、所定値(一例としては70cmなど)を減算する補正を行う。二輪車の車輪の大きさは大凡限られており、所定値は、そのうち、大きめの車輪に対応するように安全側に設定される。 Therefore, when the partial image 302 is determined to be a motorcycle, the distance correction unit 168 corrects the estimated value (estimated distance) of the relative distance to the motorcycle corresponding to the partial image 302. That is, the distance correction unit 168 reduces the estimated distance to the motorcycle from the value before the candidate determination unit 166 determines that the motorcycle is a motorcycle (for example, the value derived by the representative identification unit 164). Specifically, the distance correction unit 168 makes a correction by subtracting a predetermined value (for example, 70 cm or the like) from the estimated distance to the motorcycle. The size of the wheels of a two-wheeled vehicle is generally limited, and the predetermined value is set on the safe side so as to correspond to the larger wheel.

上述したように、本実施形態では、候補判定部166によって歩行者と二輪車が適切に識別可能となる。また、二輪車については、推定距離を減少させることで、自車両1と二輪車との適切な距離が維持可能となる。 As described above, in the present embodiment, the candidate determination unit 166 makes it possible to appropriately distinguish between a pedestrian and a two-wheeled vehicle. Further, for a two-wheeled vehicle, by reducing the estimated distance, an appropriate distance between the own vehicle 1 and the two-wheeled vehicle can be maintained.

また、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。 In addition, a program that causes the computer to function as the vehicle exterior environment recognition device 120, and a storage medium such as a computer-readable flexible disk, magneto-optical disk, ROM, CD, DVD, or BD that records the program are also provided. Here, the program refers to a data processing means described in any language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiment of the present invention has been described above with reference to the accompanying drawings, it goes without saying that the present invention is not limited to such an embodiment. It is clear that a person skilled in the art can come up with various modifications or modifications within the scope of the claims, and it is understood that these also naturally belong to the technical scope of the present invention. Will be done.

例えば、上述した実施形態では、候補判定部166は、代表値のバラつきの指標値が所定の閾値を超えていると、部分画像302が二輪車であると判定する場合について説明した。ただし、代表値のバラつきに基づいて判定されていれば、指標値と閾値との比較処理は必須ではない。 For example, in the above-described embodiment, the candidate determination unit 166 has described a case where the partial image 302 determines that the partial image 302 is a motorcycle when the index value of the variation of the representative value exceeds a predetermined threshold value. However, if the determination is made based on the variation in the representative value, the comparison process between the index value and the threshold value is not essential.

また、上述した実施形態では、車外環境認識装置120が距離補正部168としても機能する場合について説明した。ただし、距離補正部168は、必須の構成ではない。 Further, in the above-described embodiment, the case where the vehicle exterior environment recognition device 120 also functions as the distance correction unit 168 has been described. However, the distance correction unit 168 is not an essential configuration.

また、上述した実施形態では、車外環境認識装置120が候補特定部162、代表特定部164としても機能する場合について説明した。ただし、車外環境認識装置120が候補判定部166、距離補正部168として機能すれば、候補特定部162、代表特定部164として機能せずともよい。この場合、候補判定部166は、少なくとも部分画像300、302が二輪車であるか否かを判定すればよい。二輪車の判定ロジックは、上記のものに限らず、任意のロジックが用いられればよい。 Further, in the above-described embodiment, the case where the vehicle exterior environment recognition device 120 also functions as the candidate identification unit 162 and the representative identification unit 164 has been described. However, if the vehicle exterior environment recognition device 120 functions as the candidate determination unit 166 and the distance correction unit 168, it does not have to function as the candidate identification unit 162 and the representative identification unit 164. In this case, the candidate determination unit 166 may determine at least whether or not the partial images 300 and 302 are motorcycles. The determination logic of the two-wheeled vehicle is not limited to the above-mentioned one, and any logic may be used.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。 It should be noted that each step of the vehicle exterior environment recognition process of the present specification does not necessarily have to be processed in chronological order according to the order described as a flowchart, and may include parallel or subroutine processing.

本発明は、自車両前方の立体物を特定する車外環境認識装置に利用することができる。 The present invention can be used as an outside environment recognition device for identifying a three-dimensional object in front of the own vehicle.

120 車外環境認識装置
128 距離画像(画像)
160 立体物領域特定部
162 候補特定部
164 代表特定部
166 候補判定部(判定部)
168 距離補正部(補正部)
300、302 部分画像
120 External environment recognition device 128 Distance image (image)
160 Three-dimensional object area identification part 162 Candidate identification part 164 Representative identification part 166 Candidate judgment part (judgment part)
168 Distance correction unit (correction unit)
300, 302 partial image

Claims (3)

コンピュータが、
画像における、歩行者または二輪車である部分画像を特定する候補特定部と、
前記部分画像について、前記画像の横方向に並んだ複数の縦領域ごとに、距離の代表値を特定する代表特定部と、
複数の前記縦領域における前記代表値のバラつきに基づいて、前記部分画像が前記歩行者か前記二輪車かを判定する判定部
として機能する車外環境認識装置。
The computer
A candidate identification part that identifies a partial image that is a pedestrian or a motorcycle in the image,
With respect to the partial image, a representative specifying portion for specifying a representative value of a distance for each of a plurality of vertical regions arranged in the horizontal direction of the image,
An external environment recognition device that functions as a determination unit for determining whether a partial image is a pedestrian or a two-wheeled vehicle based on variations in representative values in a plurality of vertical regions.
前記判定部は、前記代表値のバラつきの指標値が所定の閾値を超えていると、前記部分画像が前記二輪車であると判定する請求項1に記載の車外環境認識装置。 The vehicle exterior environment recognition device according to claim 1, wherein the determination unit determines that the partial image is the motorcycle when the index value of the variation of the representative value exceeds a predetermined threshold value. 前記コンピュータが、
前記二輪車までの推定距離を、前記二輪車と判定される前よりも減少させる補正部としてさらに機能する請求項1または2に記載の車外環境認識装置。
The computer
The vehicle exterior environment recognition device according to claim 1 or 2, which further functions as a correction unit that further reduces the estimated distance to the two-wheeled vehicle from before it is determined to be the two-wheeled vehicle.
JP2017228038A 2017-11-28 2017-11-28 External environment recognition device Active JP7071102B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017228038A JP7071102B2 (en) 2017-11-28 2017-11-28 External environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017228038A JP7071102B2 (en) 2017-11-28 2017-11-28 External environment recognition device

Publications (2)

Publication Number Publication Date
JP2019101470A JP2019101470A (en) 2019-06-24
JP7071102B2 true JP7071102B2 (en) 2022-05-18

Family

ID=66973579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017228038A Active JP7071102B2 (en) 2017-11-28 2017-11-28 External environment recognition device

Country Status (1)

Country Link
JP (1) JP7071102B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7373972B2 (en) * 2019-11-14 2023-11-06 日立Astemo株式会社 object identification device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288460A (en) 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
JP2010097541A (en) 2008-10-20 2010-04-30 Honda Motor Co Ltd Vehicular periphery monitoring apparatus
JP2017027279A (en) 2015-07-21 2017-02-02 株式会社日本自動車部品総合研究所 Article detection apparatus and article detection method
JP2017054311A (en) 2015-09-09 2017-03-16 株式会社デンソー Object detection apparatus
JP2018048921A (en) 2016-09-22 2018-03-29 株式会社デンソー Object detection apparatus and object detection method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288460A (en) 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
JP2010097541A (en) 2008-10-20 2010-04-30 Honda Motor Co Ltd Vehicular periphery monitoring apparatus
JP2017027279A (en) 2015-07-21 2017-02-02 株式会社日本自動車部品総合研究所 Article detection apparatus and article detection method
JP2017054311A (en) 2015-09-09 2017-03-16 株式会社デンソー Object detection apparatus
JP2018048921A (en) 2016-09-22 2018-03-29 株式会社デンソー Object detection apparatus and object detection method

Also Published As

Publication number Publication date
JP2019101470A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
JP5886809B2 (en) Outside environment recognition device
US9349070B2 (en) Vehicle external environment recognition device
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
US10803605B2 (en) Vehicle exterior environment recognition apparatus
JP2012243051A (en) Environment recognition device and environment recognition method
US20170076161A1 (en) Vehicle exterior environment recognition apparatus
CN108944926B (en) Vehicle exterior environment recognition device
JP6591188B2 (en) Outside environment recognition device
JP7356319B2 (en) Vehicle exterior environment recognition device
JP6564218B2 (en) Outside environment recognition device
JP7071102B2 (en) External environment recognition device
JP6240475B2 (en) Outside environment recognition device
JP7229032B2 (en) External object detection device
JP6764378B2 (en) External environment recognition device
JP7261006B2 (en) External environment recognition device
US10810757B2 (en) Vehicle exterior environment recognition apparatus
JP7522616B2 (en) Outside environment recognition device
JP6378594B2 (en) Outside environment recognition device
JP6273156B2 (en) Pedestrian recognition device
JP7336367B2 (en) External environment recognition device
JP6523694B2 (en) Outside environment recognition device
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP5890816B2 (en) Filtering device and environment recognition system
JP2018088237A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program
JP2022061539A (en) Vehicle exterior environment recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220311

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220329

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220506

R150 Certificate of patent or registration of utility model

Ref document number: 7071102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150