JP5760696B2 - Image recognition device - Google Patents
Image recognition device Download PDFInfo
- Publication number
- JP5760696B2 JP5760696B2 JP2011119440A JP2011119440A JP5760696B2 JP 5760696 B2 JP5760696 B2 JP 5760696B2 JP 2011119440 A JP2011119440 A JP 2011119440A JP 2011119440 A JP2011119440 A JP 2011119440A JP 5760696 B2 JP5760696 B2 JP 5760696B2
- Authority
- JP
- Japan
- Prior art keywords
- curve
- image
- search area
- traveling road
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、撮像手段により取得した自車両の前方画像から歩行者を表す画像を検知する画像認識装置に関する。 The present invention relates to an image recognition device that detects an image representing a pedestrian from a front image of a host vehicle acquired by an imaging unit.
従来、カメラ等の撮像手段により取得した自車両の前方画像から、人間等の検知対象物を表す画像を検知する画像認識の技術が知られている。それとは別に、カメラ等の撮像手段により取得した自車両の前方画像から、前方画像に写った他車両を探索して特定し、当該他車両の前方画像における位置を検出し、その検出位置を基に当該他車両までの実空間における距離を算出する技術が知られている(例えば、特許文献1)。 2. Description of the Related Art Conventionally, an image recognition technique for detecting an image representing a detection target such as a person from a front image of the host vehicle acquired by an imaging unit such as a camera is known. Separately, from the front image of the host vehicle acquired by an imaging means such as a camera, the other vehicle shown in the front image is searched and specified, the position of the other vehicle in the front image is detected, and the detected position is based on the detected position. In addition, a technique for calculating a distance in real space to the other vehicle is known (for example, Patent Document 1).
この特許文献1に記載の技術では、自車両の前方画像に写った白線や路肩を検出することにより道路端を特定し、特定した道路端に応じて他車両の探索領域を絞り込む。そして、その絞り込んだ探索領域内において他車両を探索し、他車両の位置を求める。このようにして他車両を探索する領域を絞り込んでいるので、他車両の位置検知のための画像処理の負担が軽減され、その画像処理時間を短縮することができる。 In the technique described in Patent Document 1, a road edge is specified by detecting a white line or a road shoulder in a front image of the host vehicle, and a search area for other vehicles is narrowed down according to the specified road edge. Then, another vehicle is searched in the narrowed search area, and the position of the other vehicle is obtained. Since the area for searching for another vehicle is narrowed down in this way, the burden of image processing for detecting the position of the other vehicle is reduced, and the image processing time can be shortened.
特許文献1の検知技術では、前方画像上に写った走行道路の白線や路肩に基づいて、走行道路の道路端を特定し、特定した道路端に応じて他車両の探索領域を絞り込んでいる。このため、白線や路肩を検出することができないと、道路端を特定することができず、適切な探索領域の設定が困難となる。 In the detection technique disclosed in Patent Document 1, the road edge of the traveling road is specified based on the white line and the shoulder of the traveling road shown on the front image, and the search area for other vehicles is narrowed down according to the specified road edge. For this reason, if a white line or a road shoulder cannot be detected, a road edge cannot be specified, and it becomes difficult to set an appropriate search area.
ここで、カメラ等の撮像手段からの前方画像に写る走行道路の形状は、自車両が走行する走行道路が直線路であるのか、カーブであるかに応じて変化する。ゆえに、走行道路上及び走行道路脇の路肩や歩道に存在する歩行者の前方画像における領域は、走行道路が直線路であるのか、カーブであるのかに応じて変化することとなる。 Here, the shape of the traveling road shown in the front image from the imaging means such as a camera changes depending on whether the traveling road on which the host vehicle is traveling is a straight road or a curve. Therefore, the area in the front image of the pedestrian existing on the road and on the shoulder or sidewalk on the side of the road changes depending on whether the road is a straight road or a curve.
特許文献1の検知技術を走行道路上及び走行道路脇の路肩や歩道に存在する歩行者を検知する装置に適用するようにしても、白線や路肩が検出できないような走行道路において、走行道路が直線路かカーブなのかを判定することができず、適切な探索領域の設定が行えない。したがって、歩行者の検知漏れや、無駄な検知がおこなわれ、検知性能が低下するおそれがある。 Even if the detection technique of Patent Document 1 is applied to a device that detects a pedestrian on a road and a roadside or a sidewalk on the roadside, the roadway in which a white line or a roadside cannot be detected is detected. Whether it is a straight road or a curve cannot be determined, and an appropriate search area cannot be set. Therefore, detection failure of pedestrians and useless detection are performed, and there is a possibility that the detection performance is deteriorated.
本発明は、上述の問題点に鑑みてなされたものであって、その目的は、自車両の走行道路の状態に拘らず、歩行者の検知漏れや無駄な検知動作を減少させることができる探索領域を設定でき、歩行者の検知性能を向上させることができる画像認識装置を提供する。 The present invention has been made in view of the above-described problems, and the purpose thereof is a search that can reduce pedestrian detection omissions and useless detection operations regardless of the state of the traveling road of the host vehicle. Provided is an image recognition device capable of setting a region and improving pedestrian detection performance.
上記目的を達成するために、請求項1の発明は、自車両の前方の領域を撮像する撮像手段より取得した前方画像から、前方の領域に存在する歩行者を表す画像を検知する画像認識装置において、
自車両の旋回に関する情報を含んだ情報を取得し、その取得した情報に基づき、前方の領域における走行道路のカーブの方向に関する情報を算出する算出手段と、
歩行者を表す画像を探索するための探索領域を前方画像の一部に設定する探索領域設定手段であって、走行道路のカーブの方向に関する情報に基づいて、走行道路のカーブの方向を判定し、探索領域を、探索領域の前方画像における大きさはそのままに、判定した走行道路のカーブの方向に向けて移動させた位置に設定する探索領域設定手段と、
探索領域内の歩行者を表す画像を検知する検知手段と、を備え、
算出手段は、撮像手段の前方画像を自車両の旋回に関する情報を含んだ情報として取得し、前方画像における所定領域のオプティカルフローを計算することにより所定領域の方向ベクトルを算出し、算出された所定領域の方向ベクトルの水平方向成分を走行道路のカーブの方向に関する情報として算出し、
探索領域設定手段は、方向ベクトルにおける水平方向成分の値に基づいて、走行道路のカーブの方向を判定することを特徴としている。
また一方、上記目的を達成するために、請求項2の発明は、自車両の前方の領域を撮像する撮像手段より取得した前方画像から、前方の領域に存在する歩行者を表す画像を検知する画像認識装置において、
自車両の旋回に関する情報を含んだ情報を取得し、その取得した情報に基づき、前方の領域における走行道路のカーブの方向に関する情報を算出する算出手段と、
歩行者を表す画像を探索するための探索領域を前方画像の一部に設定する探索領域設定手段であって、走行道路のカーブの方向に関する情報に基づいて、走行道路のカーブの方向を判定し、探索領域を、探索領域の前方画像における大きさはそのままに、判定した走行道路のカーブの方向に向けて移動させた位置に設定する探索領域設定手段と、
探索領域内の歩行者を表す画像を検知する検知手段と、を備え、
走行道路のカーブの方向に関する情報に加え、走行道路のカーブの曲り度合いに関する情報を算出する算出手段は、撮像手段の前方画像を自車両の旋回に関する情報を含んだ情報として取得し、前方画像における所定領域のオプティカルフローを計算することにより所定領域の方向ベクトルを算出し、算出された所定領域の方向ベクトルの水平方向成分を走行道路のカーブの曲り度合いに関する情報として算出し、
走行道路のカーブの曲り度合いに関する情報に基づいて、走行道路のカーブの曲り度合いを判定し、判定した走行道路のカーブの曲り度合いが大きいほど、走行道路のカーブの方向に向かう探索領域の移動量が大きくなるように探索領域を設定する探索領域設定手段は、方向ベクトルにおける水平方向成分の値に基づいて、走行道路のカーブの曲り度合いを判定することを特徴としている。
In order to achieve the above object, the invention according to claim 1 is an image recognition device that detects an image representing a pedestrian existing in a front area from a front image acquired by an imaging unit that images a front area of the host vehicle. In
Calculating means for acquiring information including information relating to the turning of the host vehicle, and calculating information relating to the direction of the curve of the traveling road in the front area based on the acquired information;
Search area setting means for setting a search area for searching for an image representing a pedestrian as a part of the front image, and determining the direction of the curve of the traveling road based on information on the direction of the curve of the traveling road. A search area setting means for setting the search area at a position moved in the direction of the curve of the determined traveling road without changing the size in the front image of the search area;
Detecting means for detecting an image representing a pedestrian in the search area,
The calculation means acquires the front image of the imaging means as information including information related to the turning of the host vehicle, calculates the optical vector of the predetermined area in the front image, calculates the direction vector of the predetermined area, and calculates the predetermined predetermined Calculate the horizontal direction component of the area direction vector as information about the direction of the curve of the road,
The search area setting means is characterized in that the direction of the curve of the traveling road is determined based on the value of the horizontal direction component in the direction vector .
On the other hand, in order to achieve the above object, the invention of claim 2 detects an image representing a pedestrian existing in the front area from the front image acquired by the imaging means for imaging the front area of the host vehicle. In an image recognition device,
Calculating means for acquiring information including information relating to the turning of the host vehicle, and calculating information relating to the direction of the curve of the traveling road in the front area based on the acquired information;
Search area setting means for setting a search area for searching for an image representing a pedestrian as a part of the front image, and determining the direction of the curve of the traveling road based on information on the direction of the curve of the traveling road. A search area setting means for setting the search area at a position moved in the direction of the curve of the determined traveling road without changing the size in the front image of the search area;
Detecting means for detecting an image representing a pedestrian in the search area,
In addition to the information about the direction of the curve of the traveling road, the calculation means for calculating the information about the curve degree of the curve of the traveling road acquires the front image of the imaging means as information including information about the turning of the host vehicle, Calculate the direction vector of the predetermined area by calculating the optical flow of the predetermined area, calculate the horizontal direction component of the calculated direction vector of the predetermined area as information on the degree of curve of the running road,
The degree of curve of the road on the road is determined based on the information on the curve of the curve on the road. The greater the degree of curve of the curve on the road that has been determined, the greater the amount of movement of the search area toward the curve of the road The search area setting means for setting the search area so as to increase is characterized by determining the curve curve degree of the traveling road based on the value of the horizontal direction component in the direction vector.
請求項1の発明によると、取得した自車両の旋回に関する情報を含んだ情報に基づいて、自車両の前方における走行道路のカーブの方向に関する情報を算出するようにしているため、白線や路肩の有無といった走行道路の状態に拘らず、自車両の前方における走行道路のカーブの方向に関する情報を的確に算出することができる。ここで、画像認識装置が検知しようとする歩行者は、通常、走行道路上及び走行道路脇の路肩や歩道に多く存在する。このため、前方画面における歩行者が存在する可能性の高い領域は、走行道路のカーブの方向によって変化する。例えば、自車両がカーブにさしかかると、歩行者が存在する可能性の高い領域は、そのカーブの方向にずれる。歩行者を表す画像を探索するための探索領域が前方画面上で固定されていると、自車両がカーブを走行し、歩行者が存在する可能性が高い領域がずれることに対応することができず、歩行者を表す画像の検知漏れ等が発生するおそれがある。 According to the first aspect of the present invention, the information about the direction of the curve of the traveling road ahead of the host vehicle is calculated based on the acquired information including the information about the turning of the host vehicle. Regardless of the state of the traveling road such as the presence or absence, it is possible to accurately calculate information regarding the direction of the curve of the traveling road in front of the host vehicle. Here, there are usually many pedestrians to be detected by the image recognition device on the road and on the shoulders and sidewalks beside the road. For this reason, the region where there is a high possibility that a pedestrian is present on the front screen changes depending on the curve direction of the traveling road. For example, when the host vehicle approaches a curve, an area where a pedestrian is likely to exist is shifted in the direction of the curve. If the search area for searching for an image representing a pedestrian is fixed on the front screen, it can cope with the vehicle moving along a curve and shifting the area where there is a high possibility that a pedestrian exists. Therefore, there is a risk of detection omission of an image representing a pedestrian or the like.
そこで、探索領域設定手段は、走行道路のカーブの方向に関する情報に基づいて、走行道路のカーブの方向を判定する。そして、探索領域設定手段は、歩行者を表す画像を探索するための探索領域の前方画像における大きさはそのままに、判定した走行道路のカーブの方向に向けて移動させた位置に探索領域を設定する。ゆえに、探索領域は、走行道路のカーブの方向によって変化する歩行者が存在する可能性の高い領域に近づくこととなる。このようにして探索領域が設定された後に、検知手段は、設定後の探索領域内において歩行者を表す画像の検知を行うので、歩行者の検知漏れや無駄な検知動作が減少する。よって、この発明によれば、自車両の走行道路の状態に拘らず、歩行者の検知漏れや無駄な検知動作を減少させることができる探索領域を設定でき、歩行者の検知性能を向上することができる。なお、この発明において検知対象となる歩行者は、自転車等に乗った歩行者も含んでいる。 Therefore, the search area setting means determines the direction of the curve of the traveling road based on the information regarding the direction of the curve of the traveling road. Then, the search area setting means sets the search area at a position moved in the direction of the determined traveling road curve without changing the size of the search area for searching for an image representing the pedestrian. To do. Therefore, the search area comes close to an area where there is a high possibility of a pedestrian changing depending on the curve direction of the traveling road. After the search area is set in this way, the detection means detects an image representing a pedestrian in the set search area, so that detection failure of pedestrians and useless detection operations are reduced. Therefore, according to the present invention, it is possible to set a search area that can reduce detection failure of pedestrians and useless detection operations regardless of the state of the traveling road of the own vehicle, and improve detection performance of pedestrians. Can do. In addition, the pedestrian who becomes a detection object in this invention also includes the pedestrian who got on the bicycle etc.
さらに、請求項1の発明によると、算出手段により算出される走行道路のカーブの方向に関する情報は、前方画像における所定領域のオプティカルフローを計算することにより算出された方向ベクトルの水平方向成分となっている。この方向ベクトルは、前方画像におけるオプティカルフローを計算することにより得られるものであるため、白線や路肩の有無に拘らず得ることができる。したがって、この発明の算出手段によればは、白線や路肩が判別できないような走行道路であっても、カーブの方向に関する情報を算出することができる。また、この方向ベクトルは、自車両の旋回に応じて変化するものであり、方向ベクトルの水平方向成分の値は、自車両の走行道路のカーブの方向に応じて変化する。この発明では、この水平方向成分の値に基づいて、走行道路のカーブの方向を判定するようにしているので、白線や路肩が判別できないような走行道路であっても走行道路のカーブの方向を判定することができる。 Further, according to the first aspect of the present invention, the information on the direction of the curve of the traveling road calculated by the calculating means is a horizontal component of the direction vector calculated by calculating the optical flow of the predetermined area in the forward image. ing. Since this direction vector is obtained by calculating the optical flow in the front image, it can be obtained regardless of the presence or absence of a white line or a road shoulder. Therefore, according to the calculation means of the present invention, it is possible to calculate information relating to the direction of the curve even on a traveling road where white lines and shoulders cannot be identified. The direction vector changes according to the turn of the host vehicle, and the value of the horizontal direction component of the direction vector changes according to the curve direction of the traveling road of the host vehicle. In the present invention, since the direction of the curve of the traveling road is determined based on the value of the horizontal direction component, the direction of the curve of the traveling road is determined even on a traveling road where a white line or a shoulder cannot be identified. Can be determined.
さて、走行道路のカーブの曲り度合いが大きいほど、歩行者が存在する可能性が高い領域もカーブの方向に向かってさらに移動する。このことに対し、請求項2の発明によると、探索領域設定手段によって判定された走行道路のカーブの曲り度合いが大きいほど、走行道路のカーブの方向に向かう探索領域の移動量が大きくなるように探索領域が設定される。ゆえに、探索領域は、走行道路のカーブの曲り度合いに対応したものとなり、歩行者が存在する可能性の高い領域に近づくこととなる。したがって、歩行者の検知漏れや無駄な検知がさらに少なくなる。 Now, the greater the degree of curve of the running road curve, the more the region where the pedestrian is likely to exist moves further in the direction of the curve. On the other hand, according to the invention of claim 2, the greater the degree of curve of the road on the road determined by the search area setting means, the greater the amount of movement of the search area toward the curve of the road. A search area is set. Therefore, the search area corresponds to the curve degree of the running road, and approaches the area where there is a high possibility that a pedestrian exists. Therefore, detection failure and useless detection of pedestrians are further reduced.
さらに、請求項2によると、算出手段により算出される走行道路のカーブの曲り度合いに関する情報は、前方画像における所定のオプティカルフローを計算することにより算出された方向ベクトルの水平方向成分となっている。この方向ベクトルは、前方画像におけるオプティカルフローを計算することにより得られるものであるため、白線や路肩の有無に拘らず得ることができる。したがって、この発明の算出手段によれば、白線や路肩が判別できないような走行道路であっても、カーブの曲り度合いに関する情報を算出することができる。また、この方向ベクトルは、自車両の旋回に応じて変化するものであり、方向ベクトルの水平方向成分の値は、自車両の走行道路のカーブの曲り度合いに応じて変化する。この発明では、この水平方向成分の値に基づいて、走行道路のカーブの曲り度合いを判定するようにしているので、白線や路肩が判別できないような走行道路であっても走行道路のカーブの曲り度合いを判定することができる。 Further, according to the second aspect , the information about the curve degree of the curve of the traveling road calculated by the calculating means is a horizontal component of the direction vector calculated by calculating a predetermined optical flow in the front image. . Since this direction vector is obtained by calculating the optical flow in the front image, it can be obtained regardless of the presence or absence of a white line or a road shoulder. Therefore, according to the calculation means of the present invention, it is possible to calculate information relating to the degree of curve bending even on a traveling road where white lines and shoulders cannot be identified. The direction vector changes according to the turning of the host vehicle, and the value of the horizontal direction component of the direction vector changes according to the curve degree of the traveling road curve of the host vehicle. In the present invention, since the degree of curve of the road on the road is determined based on the value of the horizontal component, the curve of the road on the road is curved even on a road where a white line or a shoulder cannot be identified. The degree can be determined.
請求項3の発明によると、オプティカルフローを計算する所定領域が前方画像に複数ヶ所設定されているので、算出手段による走行道路のカーブの方向又はカーブの曲り度合いに関する情報の算出精度が向上する。 According to the invention of claim 3, since a plurality of predetermined areas for calculating the optical flow are set in the forward image, the calculation accuracy of information relating to the direction of the curve of the traveling road or the degree of curve bending by the calculating means is improved.
以下、本発明の複数の実施形態を図面に基づいて説明する。なお、各実施形態において対応する構成要素には同一の符号を付与することにより、重複する説明を省略する。 Hereinafter, a plurality of embodiments of the present invention will be described with reference to the drawings. In addition, the overlapping description is abbreviate | omitted by providing the same code | symbol to the component corresponding in each embodiment.
(第1実施形態)
図1は、第1実施形態による画像認識装置10の概略構成を示す。画像認識装置10は、図2に示されるような自車両の前方の領域を撮像した前方画像50から、前方の領域に存在する歩行者を表す画像58を検知する。
(First embodiment)
FIG. 1 shows a schematic configuration of an
図1に示されるように、画像認識装置10は、画像認識回路20を有する。画像認識回路20は、赤外線カメラ30、及び表示装置40と接続されている。
As shown in FIG. 1, the
撮像手段としての赤外線カメラ30は、近赤外線を検出することにより、可視光の少ない環境下においても撮像が可能である。赤外線カメラ30は、自車両の車体の前後方向の軸に沿って前方に向けられ、地上からの高さが所定の高さとなるように車体に取り付けられている。赤外線カメラ30は、自車両の前方の領域を撮影し、前方画像50を生成する。そして、赤外線カメラ30は、生成した前方画像50を画像認識回路20及び表示装置40に逐次出力する。なお、前方画像50には、直線路において自車両から約40m〜100m先の走行道路、走行道路上に存在する歩行者、及び走行道路脇の路肩や歩道に存在する歩行者の画像が含まれる。
The
画像認識回路20は、各種の演算処理を行うプロセッサ、当該演算処理に用いられるプログラム等が格納されたフラッシュメモリ、及び演算の作業領域として機能するRAM等によって構成されている。
The
画像認識回路20は、算出部22、探索領域設定部24、データベース26及び認識部28から構成されている。これらの要素22、24、26、28は、画像認識回路20の機能ブロックである。これら要素22、24、26、28の機能は、画像認識回路20のプロセッサにおいて所定のプログラムが実行されることにより、当該画像認識回路20によって果たされる。
The
算出部22は、自車両の旋回に関する情報を含む情報を取得し、その取得した情報に基づき、自車両の前方の領域における走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。具体的に、算出部22は、赤外線カメラ30から画像認識回路20に出力されている前方画像50を自車両の旋回に関する情報を含む情報として取得する。そして、算出部22は、取得した前方画像50中の複数の所定領域のオプティカルフローを計算することにより算出される方向ベクトルの水平方向成分を合算し、水平方向成分の合算値を得る。水平方向成分の合算値は、探索領域設定部24に出力される。なお、この水平方向成分の合算値が走行道路のカーブの方向及びカーブの曲り度合いに関する情報となる。
The
探索領域設定部24は、図3に示されるような歩行者を表す画像を探索するための探索領域52を、前方画像50の一部に設定する。探索領域設定部24は、図3〜図5に示されるように取得した走行道路のカーブの方向及びカーブの曲り度合いに関する情報に応じて、探索領域52の前方画像50における位置を設定する。探索領域設定部24は、探索領域設定部24によって設定された探索領域52の前方画像50での位置情報を認識部28に出力する。探索領域設定部24による探索領域52の前方画像50における位置の設定については、後ほど詳細に説明する。
The search
データベース26は、事前学習モデル26aを記憶している。事前学習モデル26aは、図示しない学習モデル作成装置が歩行者の写る画像及び歩行者以外のものが写る画像を含む複数のサンプル画像に基づいて、歩行者を表す画像58の特徴量データを学習することにより構築される。以下、事前学習モデル26aの作成について説明する。学習モデル作成装置は、複数のサンプル画像を読み込み、図2に示されるように、各サンプル画像を探索ウインドウ54によって走査する。これにより、学習モデル作成装置は、各サンプル画像からウインドウ画像56を切り出す。そして、切り出されたウインドウ画像56の特徴量データを学習する。なお、学習モデル作成装置による特徴量データの学習は、例えばAdaboostアルゴリズムにより行われる。そして、学習モデル作成装置は、歩行者の写る画像から抽出される特徴量データの重み付けを増やし、歩行者以外のものが写る画像から抽出される特徴量データの重み付けを減らす。また、事前学習モデル26aを作成する際、目標とする認識率及び誤認識率が予め設定される。認識率とは、事前学習モデル26aが歩行者が写る画像を正しく歩行者が写る画像として認識できる確率である。誤認識率とは、歩行者以外のものが写る画像を誤って歩行者が写る画像として認識してしまう確率である。目標として設定された認識率を上回り、かつ目標として設定された誤認識率を下回るようになるまで学習モデル作成装置に複数のサンプル画像を読み込ませることにより、歩行者を表す画像58の特徴を学習した事前学習モデル26aが作成される。データベース26は、記憶している事前学習モデル26aを認識部28に出力する。
The
認識部28は、赤外線カメラ30によって撮像された前方画像50を取得する。認識部28は、探索領域設定部24によって設定された探索領域52の前方画像50における位置情報を取得する。認識部28は、データベース26から事前学習モデル26aを取得する。認識部28は、歩行者等の検知対象物の検知結果を、表示装置40に出力する。
The
認識部28は、特徴量抽出部28a及び照合部28bを有している。
The
特徴量抽出部28aは、前方画像50の探索領域52内の画像を走査し、当該探索領域52に写る物体の特徴量データを抽出する。具体的には、図2に示されるように、特徴量抽出部28aは、予め大きさの設定された探索ウインドウ54によって、赤外線カメラ30から取得する前方画像50の探索領域52内の画像を走査する。なお、図2は、図3に示される探索領域52内の画像のみを示している。
The feature
特徴量抽出部28aは、探索領域52内の画像の水平方向及び鉛直方向に、探索ウインドウ54を移動させつつ(図2に示される破線の矢印を参照)、当該探索ウインドウ54によって囲まれた範囲の画像56(以下、ウインドウ画像56)を順に切り出す。さらに特徴量抽出部28aは、切り出されたウインドウ画像56を照合処理に適した特徴量データに変換する。特徴量抽出部28aは、変換された特徴量データを照合部28bに逐次出力する。
The feature
照合部28bは、事前学習モデル26aに基づいて、探索領域52内の画像から歩行者を表す画像58を検知する。具体的に、照合部28bは、特徴量抽出部28aによって抽出された特徴量データを、事前学習モデル26aと照合し、当該特徴量データが事前学習モデル26aに学習されている歩行者を表す画像58の特徴量データに適合するか否かを判定する。事前学習モデル26aに学習されている特徴量データに適合する物体が検知された場合、照合部28bは、前方画像50における当該物体の位置情報を検知結果として、図1に示される表示装置40に出力する。
The
本実施形態では、照合部28において、探索領域52から切り出したウインドウ画像56の特徴量データと、事前学習モデル26aに学習されている歩行者を表す画像58の特徴量データとを照合させることにより、探索領域52内の画像から歩行者を表す画像58を検知している。探索領域52内の画像から歩行者を表す画像58の検知はこの方法に限らなくともよい。例えば、歩行者を表すあらゆるパターンの画像(テンプレート画像)をデータベース26に保有させる。そして、探索領域52から切り出されたウインドウ画像56と複数のテンプレート画像とを重ね合わせ、二つの画像の相関を調べることにより、ウインドウ画像56から歩行者を表す画像58を検知する。このような周知のパターンマッチング技術を採用して歩行者を表す画像58を検知しても良い。
In the present embodiment, the
表示装置40は、車両室内のインストルメントパネルの中央部等に配置される液晶ディスプレイの表示画面に種々の画像を表示することにより、運転者に種々の情報を提供する。本実施形態の表示装置40は、赤外線カメラ30と接続されており、当該赤外線カメラ30から前方画像50を取得することができる。表示装置40は、運転者等のユーザーの操作に基づいて、表示画面に前方画像50を表示する。加えて、表示装置40は、認識部28から取得する検知結果としての位置情報に基づいて、前方画像50における歩行者を表す画像58を囲むように、枠状の画像60を前方画像50に重畳して表示する(図3を参照)。
The
次に、探索領域52の前方画像50における位置を設定するために使用する走行道路の形状の判定について、図3〜図5を用いて、さらに詳しく説明する。
Next, the determination of the shape of the traveling road used for setting the position of the
自車両の前方に延びる走行道路には、直線路やカーブ等が存在する。例えば、自車両がカーブに沿って走行する際、自車両は旋回する。即ち、自車両が旋回していることが分かれば、自車両の前方に延びる走行道路がカーブであることが判定できる。 There are straight roads, curves and the like on the traveling road extending in front of the host vehicle. For example, when the host vehicle travels along a curve, the host vehicle turns. That is, if it is known that the host vehicle is turning, it can be determined that the traveling road extending ahead of the host vehicle is a curve.
本実施形態の算出部22は、自車両の旋回に関する情報を含んだ情報を取得し、その習得した情報に基づいて、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。具体的に、算出部22は、自車両の旋回に関する情報を含む情報として、赤外線カメラ30から画像認識回路20に出力されている前方画像50を取得する。算出部22は、その取得した前方画像50を画像処理することにより、走行道路のカーブの方向及びその曲り度合いに関する情報を算出する。
The
以下、前方画像50から走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する際の具体的な方法について詳細に説明する。
Hereinafter, a specific method for calculating information on the curve direction of the traveling road and the curve curve degree from the
前方画像50のオプティカルフローは、走行道路の形状(直線路、カーブ)によって異なる。具体的に、図3中の矢印によって示されるように、自車両が直線路を走行しているとき、前方画像50のオプティカルフローは、前方画像50の中央部に存在する消失点62から放射状に拡がる。また、自車両が右カーブを走行しているとき、図4中の矢印によって示されるように、前方画像50における消失点62の上側のオプティカルフローは斜め左上方向を向き、消失点62の下側のオプティカルフローは斜め左下方向を向き、消失点62の右側及び左側のオプティカルフローは左方向を向く。一方、自車両が左カーブを走行しているとき、図5中の矢印によって示されるように、前方画像50における消失点62の上側のオプティカルフローは斜め右上方向を向き、消失点62の下側のオプティカルフローは斜め右下方向を向き、消失点62の右側及び左側のオプティカルフローは右方向を向く。また、赤外線カメラ30が自車両の車体の前後方向の軸に沿って前方に向けられて取り付けられているので、走行道路のカーブの曲り度合いが大きいほど、図4及び図5中に示される矢印の大きさは大きくなる。以上により、前方画像50のオプティカルフローを計算することによれば、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
The optical flow of the
本実施形態の算出部22は、図3に示されるように、取得した前方画像50のオプティカルフローを計算することにより消失点62の前方画像50上の位置を求め、求めた位置に消失点62を設定する。消失点62は、直線路を走行中の自車両から進行方向に延びる複数の平行線が交差する無限遠点となっている。この実施形態では、消失点62は、図3に示されるように前方画像50の中央部に設けられる。ただし、消失点62の設定は、前方画像50のオプティカルフローを計算することにより設定しなくともよい。例えば、近似的に、前方画像50の中央部分に設定するようにしてもよい。
As shown in FIG. 3, the
そして、算出部22は、前方画像50の四つ角のそれぞれと、消失点62とを直線で結ぶことにより、消失点62の周りに四つの分割領域64を形成する。さらに、算出部22は、図3の一点鎖線によって示されるように、それら四つの分割領域64ごとに少なくとも一箇所ずつ、オプティカルフローを計算するための計算領域66を設定する。なお、計算領域66は、向かい合う分割領域64内に設定される計算領域66同士が消失点62に対して点対称となる位置に設定される。さらに、各計算領域66は、互いに向かい合う計算領域66同士を結んだ線が、直交するように設定される。本実施形態では四つの分割領域64に少なくとも一箇所ずつ計算領域66を設定するようにしているが、互いに向かい合う左右の分割領域64だけに計算領域66を設けるようにしても良いし、上下の分割領域64だけに計算領域66を設けるようにしても良い。
Then, the
各計算領域66のオプティカルフローが計算されると、計算領域66ごとに方向ベクトルが得られる。そして、算出部22は、得られた方向ベクトルの水平方向成分を合算する。なお、オプティカルフローの計算は、赤外線カメラ30から取得した時間的に異なる複数の前方画像50に基づいて行われる。水平方向成分の合算値は、探索領域設定部24に出力される。なお、水平方向成分の合算値は、走行道路のカーブの方向及びカーブの曲り度合いに関する情報となる。本実施形態では、水平方向成分の合算値がゼロを含む所定の範囲内となっている場合、走行道路は直線路であることを示す。水平方向成分の合算値が、正の値であって所定の範囲を外れた値である場合、走行道路は右カーブであることを示す。また、水平方向成分の合算値が、負の値であって所定の範囲を外れた値である場合、走行道路は左カーブであることを示す。
When the optical flow of each
このように算出部22によって算出される水平方向成分の合算値(走行道路のカーブの方向及びカーブの曲り度合いに関する情報)は、前方画像50中に写った走行道路の白線や路肩に基づいたものではく、前方画像50のオプティカルフローを計算することにより得られる方向ベクトルの水平方向成分に基づいている。したがって、この算出部22によれば、走行道路の白線や路肩の有無といった走行道路の状態に拘らず、的確に走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
Thus, the total value of the horizontal direction component calculated by the calculation unit 22 (information on the direction of the curve of the traveling road and the degree of curve of the traveling road) is based on the white line and the shoulder of the traveling road shown in the
次に、探索領域設定部24が設定する探索領域52について、図3〜図5を用いて、さらに詳しく説明する。
Next, the
前方画像50の一部に設定される探索領域52は、歩行者を表す画像を探索するためのものである。したがって、探索領域52は、前方画像50に写った走行道路及び走行道路脇の路肩や歩道がその領域に入るように設定される。具体的に、直線路の場合、探索領域52は、図3に示されるように走行道路及び走行道路脇の路肩や歩道がその領域に入るように前方画像50の中央部に設定される。このような探索領域52の設定によれば、走行道路上を横断する歩行者や、走行道路脇の路肩や歩道を歩く歩行者を探索することができる。このように探索領域52を走行道路及び走行道路脇の路肩や歩道が入るだけのものにしているのは、誤検知の発生や、無駄な検知を行うことによる検知時間の長期化を招いてしまうのを抑制するためである。
A
また、探索領域52は、自車両前方の約40m〜100mに存在する歩行者を探索することができるように、前方画像50上での上下・左右方向の大きさ、及び探索領域52内の画像を走査する探索ウインドウ54の上下・左右方向の大きさが設定される。探索領域52が自車両前方の約40m〜100mに存在する歩行者を探索するように設定されているのは、この画像認識装置10が、夜間に使用されることを前提としているからである。夜間において自車両から約40mまでの範囲は、ヘッドライトの光により歩行者は比較的視認されやすいため、画像認識装置10による歩行者の検知の必要性は少ない。これに対し、自車両から約40mを超える範囲は、ヘッドライトの光が弱くなるため、歩行者の視認が困難となる。画像認識装置10は、このような歩行者の視認が困難となる範囲の歩行者を検知するように、探索領域52の前方画像50上での上下・左右方向の大きさ、及び探索ウインドウ54の上下・左右方向の大きさが設定される。
In addition, the
また、この実施形態において、探索領域52は、走行道路のカーブの方向に応じて前方画像50における位置が異なるように設定される。具体的に、図4に示されるように走行道路が右方向にカーブしている場合、直線路の場合に比べ、探索領域52は、探索領域52の前方画像50における上下・左右方向の大きさはそのままに、前方画像50上を右方向に向けて移動させた位置に設定されている。また、図5に示されるように走行道路が左方向にカーブしている場合、直線路の場合に比べ、探索領域52は、探索領域52の前方画像50における上下・左右方向の大きさはそのままに、前方画像50上を左方向に向けて移動させた位置に設定されている。このように探索領域52の設定位置を走行道路の形状に応じて異ならせるのは、走行道路のカーブの方向に応じて歩行者が存在する可能性の高い領域が変化するからである。赤外線カメラ30は、車体の前後方向の軸に沿って前方に向けられている。このため、自車両がカーブにさしかかると、図4や図5に示されるように、前方画像50における走行道路及び走行道路脇の路肩及び歩道は、直線路の場合に比べ、カーブの方向に向かってずれる。したがって、前方画像50における歩行者が存在する可能性の高い領域もカーブの方向に向かってずれる。
In this embodiment, the
そうであるにも拘わらず、図4及び図5に二点鎖線で示されるように探索領域52が直線路に応じたもののまま固定されていると、自車両がカーブにさしかかったときに、探索領域52が歩行者が存在する可能性の高い領域(図4及び図5の破線を参照)からはずれる。これでは、歩行者が存在する可能性極めて低い領域を探索するといった無駄な検知を行い、誤検知を引き起こしたり、歩行者が存在する可能性の高い領域を探索することができず、検知漏れが発生することが懸念される。これに対し、この実施形態では、算出部22によって算出された走行道路のカーブの方向に関する情報に応じて、走行道路のカーブの方向を探索領域設定部24が判定するとともに、その走行道路のカーブの方向に応じて、探索領域52の前方画像50における位置を探索領域設定部24によって設定するようにしている。そうすれば、歩行者の検知漏れや無駄な検知動作を減少させることができる。
In spite of this, if the
具体的に、探索領域設定部24は、算出部22が算出した水平方向成分の合算値によってカーブの方向を判定する。例えば、探索領域設定部24は、水平方向成分の合算値が正の値であって所定の範囲を外れた値である場合、カーブは右方向であると判定する。また、探索領域設定部24は、水平方向成分の合算値が負の値であって所定の範囲を外れた値である場合、カーブは左方向であると判定する。そして、探索領域設定部24は、探索領域52を、探索領域52の前方画像50における上下・左右方向の大きさはそのままに、判定した走行道路のカーブの方向に向けて移動させた位置に設定する。これにより、自車両がカーブを走行することによって変化する歩行者が存在する可能性が高い領域に探索領域52を近づけることができる。
Specifically, the search
また、探索領域設定部24は、算出部22が算出した水平方向成分の合算値によってカーブの曲り度合いを判定する。例えば、探索領域設定部24は、水平方向成分の合算値の大きさが大きいほど、カーブの曲り度合いが大きいものであると判定できる。探索領域設定部24は、カーブの曲り度合いが大きいほど、走行道路のカーブの方向に向かう探索領域52の移動量が大きくなるように探索領域52を設定する。これにより、探索領域52を、カーブの曲り度合いに対応したものとすることができ、カーブの曲り度合いによって変化する歩行者が存在する可能性が高い領域に探索領域52をより近づけることができる。
Further, the search
次に、画像認識回路20が、前方画像50から歩行者を表す画像58を検知する処理について、図6のフローチャートを用いて、詳しく説明する。例えば、表示装置40に前方画像50を表示させるための操作をユーザが行うことにより、画像認識回路20によって実施される。画像認識回路20による処理は、表示装置40への前方画像50の表示を停止する操作をユーザが行うまで繰り返される。
Next, the process in which the
まず、ステップS10では、算出部22によって、赤外線カメラ30から前方画像50を取得し、ステップS20に進む。ステップS20では、算出部22によって、ステップS10において取得した赤外線カメラ30からの前方画像50を画像処理し、前方画像50に消失点62を設定し、ステップS30に進む。
First, in step S10, the
ステップS30では、算出部22によって、前方画像50の四つ角のそれぞれと、ステップS20において算出された消失点62とを直線で結ぶことにより、消失点62の周りに四つの分割領域64を形成し、ステップS40に進む。
In step S30, the
ステップS40では、算出部22によって、四つの分割領域64ごとに少なくとも一箇所ずつオプティカルフローを計算する計算領域66(図3〜図5の一点鎖線を参照)を設定し、ステップS50に進む。
In step S40, the
ステップS50では、算出部22によって、各計算領域66のオプティカルフローを計算し、オプティカルフローを計算することによりた方向ベクトルを算出し、それらの方向ベクトルの水平方向成分を合算し、ステップS60に進む。ステップS50において算出された水平方向成分の合算値は、探索領域設定部24に出力される。
In step S50, the
ステップS60では、ステップS50において算出された水平方向成分の合算値に基づき、自車両前方の走行道路が直線路であるのか、あるいはカーブであるのかを探索領域設定部24により判定する。具体的に、ステップS50において算出された水平方向成分の合算値が所定の範囲内となっていれば、走行道路は直線路であるとして、ステップS70に進む。一方、ステップS50において算出された水平方向成分の合算値が所定の範囲を外れていれば、走行道路はカーブしているとして、ステップS80に進む。
In step S60, the search
ステップS80では、ステップS50において算出された水平方向成分の合算値が正の値であれば、走行道路は右方向にカーブしているとして、ステップS90に進む。一方、ステップS50において算出された水平方向成分の合算値が負の値であれば、走行道路は左方向にカーブしているとして、ステップS100に進む。 In step S80, if the total value of the horizontal components calculated in step S50 is a positive value, the traveling road is curved in the right direction and the process proceeds to step S90. On the other hand, if the total value of the horizontal components calculated in step S50 is a negative value, the traveling road is curved leftward, and the process proceeds to step S100.
走行道路が直線路であると判定された場合に実行されるステップS70では、認識部28によって走行道路及び走行道路脇の路肩や歩道に存在する歩行者を表す画像58が検知できるように、探索領域設定部24によって探索領域52が前方画像50の中央部に設定される(図3を参照)。前方画像50の中央部に探索領域52が設定されることにより、直線路上及び直線路脇の路肩や歩道に存在する歩行者を探索領域52内に含めることができる。探索領域設定部24によって設定された探索領域52の前方画像50における位置情報は、認識部28に出力される。
In step S70 executed when it is determined that the traveling road is a straight road, a search is performed so that the
走行道路が右方向にカーブしていると判定された場合に実行されるステップS90では、認識部28によって右カーブの走行道路及び走行道路脇の路肩や歩道に存在する歩行者を表す画像58が検知できるように、探索領域設定部24によって探索領域52が右方向に向けて移動された位置に設定される(図4を参照)。また、探索領域設定部24によって設定される探索領域52は、ステップS50において算出された水平方向成分の合算値の大きさが大きいほど、右方向に向かう探索領域52の移動量が大きくなるように探索領域52が設定される。このようにして設定された探索領域52の前方画像50における位置情報は、認識部28に出力される。
In step S <b> 90 executed when it is determined that the traveling road is curved rightward, the
走行道路が左方向にカーブしていると判定された場合に実行されるステップS100では、認識部28によって左カーブの走行道路及び走行道路脇の路肩や歩道に存在する歩行者を表す画像58が検知できるように、探索領域設定部24によって探索領域52が左方向に向けて移動された位置に設定される(図5を参照)。また、探索領域設定部24によって設定される探索領域52は、ステップS50において算出された水平方向成分の合算値の大きさが大きいほど、左方向に向かう探索領域52の移動量が大きくなるように探索領域52が設定される。このようにして設定された探索領域52の前方画像50における位置情報は、認識部28に出力される。
In step S100, which is executed when it is determined that the traveling road is curved leftward, the
ステップS110では、前方画像50における探索領域52からウインドウ画像56を探索ウインドウ54によって順に切り出す。そして、切り出された各ウインドウ画像56から、特徴量抽出部28aによって、特徴量データを抽出し、S120に進む。抽出された特徴量データは、特徴量抽出部28aから照合部28bに出力される。
In step S <b> 110, the
ステップS120では、ステップS110において抽出された特徴量データを、事前学習モデル26aに学習されている歩行者を表す画像58の特徴量データと照合し、ステップS130に進む。ステップS120では、歩行者を表す画像58の特徴量データに適合するウインドウ画像56が検知された場合、前方画像50における当該ウインドウ画像56の位置情報を記憶する。
In step S120, the feature amount data extracted in step S110 is collated with the feature amount data of the
ステップS130では、ステップS120における照合の結果に基づき、前方画像50から検知対象物である歩行者を表す画像58を検知したか否かを判定する。ステップS130において、歩行者を表す画像58を検知していないと判定した場合、ステップS10に戻る。一方、ステップS130において、前方画像50から歩行者を表す画像58を検知していると判定した場合、ステップS140に進む。
In step S130, it is determined whether or not the
ステップS140では、ステップS120において記憶した、ウインドウ画像56の位置情報を検知結果として表示装置40に出力し、ステップS10に戻る。表示装置40は、照合部28bから取得した位置情報に基づいて、歩行者を表す画像58を枠状の画像60で囲んだ表示を表示画面に映し出す。
In step S140, the position information of the
ここまで説明した本実施形態では、自車両の旋回に関する情報を含む情報として、赤外線カメラ30から前方画像50を取得し、その前方画像50に基づいて、自車両の前方における走行道路のカーブの方向に関する情報を算出するようにしている。このため、白線や路肩の有無といった走行道路の状態に拘らず、自車両の前方における走行道路のカーブの方向に関する情報を的確に算出することができる。ここで、画像認識回路20が検知しようとする歩行者が存在する可能性の高い領域は、通常、走行道路のカーブの方向によって変化する。探索領域設定部24は、算出部22によって算出された走行道路のカーブの方向に関する情報に基づいて、走行道路のカーブの方向を判定する。そして、探索領域設定部24は、歩行者を表す画像58を探索するための探索領域52の前方画像50における上下・左右方向の大きさはそのままに、判定した走行道路のカーブの方向に向けて移動させた位置に探索領域52を設定する。このため、走行道路のカーブの方向によって変化する歩行者が存在する可能性の高い領域に探索領域52が近づくこととなる。このようにして探索領域52が設定された後に、認識部28は、設定後の探索領域52内の歩行者の検知を行うので、歩行者の検知漏れや無駄な検知動作が減少する。よって、本実施形態の画像認識装置10は、自車両の走行道路の状態に拘らず、歩行者の検知漏れや無駄な検知動作を減少させることができる探索領域52を設定でき、歩行者の検知性能を向上することができる。
In the present embodiment described so far, the
また、本実施形態では、探索領域設定部24によって判定された走行道路のカーブの曲り度合いが大きいほど、走行道路のカーブの方向に向かう探索領域52の移動量が大きくなるように探索領域52が設定される。ゆえに、探索領域52は、走行道路のカーブの曲り度合いに対応したものとなり、走行道路のカーブの曲がり度合いによって変化する歩行者が存在する可能性の高い領域に近づく。したがって、自車両がカーブを走行しているときの歩行者の検知漏れや無駄な検知がさらに少なくなる。
Further, in the present embodiment, the
さらに、算出部22により算出される走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、前方画像50における所定領域のオプティカルフローを計算することにより算出された方向ベクトルの水平方向成分の合算値となっている。算出部22により算出される方向ベクトルは、前方画像50におけるオプティカルフローを計算することにより得られるものであるため、白線や路肩の有無に拘らず得ることができる。したがって、本実施形態の算出部22によれば、白線や路肩が判別できないような走行道路であっても、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
Further, the information about the curve direction and the curve curve degree of the traveling road calculated by the
また、この方向ベクトルは、自車両の旋回に応じて変化するものであり、方向ベクトルの水平方向成分の合算値は、自車両の走行道路のカーブの方向及びカーブの曲り度合いに応じて変化する。本実施形態では、この水平方向成分の合算値に基づいて、走行道路のカーブの方向及びカーブの曲り度合いを判定するようにしているので、白線や路肩が判別できないような走行道路であっても走行道路のカーブの方向及びカーブの曲り度合いを判定することができる。 Further, this direction vector changes according to the turn of the host vehicle, and the total value of the horizontal direction components of the direction vector changes according to the curve direction of the traveling road of the host vehicle and the degree of curve bending. . In the present embodiment, the direction of the curve of the traveling road and the degree of curve bending are determined based on the sum value of the horizontal direction components. Therefore, even on a traveling road where the white line and the shoulder cannot be identified. The direction of the curve of the traveling road and the degree of curve bending can be determined.
さらに、本実施形態では、オプティカルフローを計算する所定領域が前方画像50中に複数ヶ所設定されているため、算出部22による走行道路のカーブの方向又はカーブの曲り度合いに関する情報の算出精度が向上する。
Further, in the present embodiment, since a plurality of predetermined regions for calculating the optical flow are set in the
なお、本実施形態において、算出部22は特許請求の範囲に記載の「算出手段」に相当し、探索領域設定部24は特許請求の範囲に記載の「探索領域設定手段」に相当し、認識部28は特許請求の範囲に記載の「検知手段」に相当する。
In this embodiment, the
(第2実施形態)
図7は、第2実施形態による画像認識装置10を示す概略構成図である。本実施形態では、経路案内装置としてのナビゲーション装置70の自車両の現在位置の情報及び地図情報を自車両の旋回に関する情報を含む情報として取得し、その現在位置情報及び地図情報に基づいて、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する点が、第1実施形態と異なる。ここでは、本実施形態の特徴部分のみを説明する。
(Second Embodiment)
FIG. 7 is a schematic configuration diagram showing an
ナビゲーション装置70は、自車両の現在位置を検出する位置検出手段としての位置検出部70aと、自車両の現在位置周辺の地図情報を記憶する地図記憶手段としての地図記憶部70bとを有する。位置検出部70aは、例えば、車外からの無線信号に基づいて自車両の現在位置を検出する。無線信号は、GPS(Global Positioning System)信号やビーコンなどからの信号である。自車両の現在位置の情報は、表示装置40等の表示画面を有する装置に出力されるとともに、画像認識回路20の算出部22にも出力される。
The
地図記憶部70bは、位置検出部70aによって検出された自車両の現在位置の情報に基づき、記憶されている自車両の現在位置の周辺の地図情報を表示装置40等の表示画面を有する装置に出力するとともに、画像認識回路20にも出力する。
Based on the information on the current position of the host vehicle detected by the
表示装置40等の表示画面を有する装置は、入力された自車両の現在位置の情報及び地図情報に基づき、地図を表示するとともに、その地図に自車両の現在位置に関する意匠を重ねあわせて表示する。さらに、例えば目的地設定操作がなされた場合には、表示されている地図上に目的地までの経路を表示して経路案内する。
A device having a display screen such as the
自車両の現在位置情報及び地図情報が入力される算出部22は、これらの情報に基づき、自車両の前方に延びる走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、第1実施形態と同様、探索領域設定部24に出力される。探索領域設定部24及び認識部28における処理は、第1実施形態ど同様であるため、ここでは説明を省略する。
Based on these pieces of information, the
本実施形態では、算出部22により算出される走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、ナビゲーション装置70からの自車両の現在位置の情報及び地図情報に基づいている。これらの情報は、白線や路肩等の有無に拘らず取得が可能な情報である。したがって、この実施形態の算出部22によれば、白線や路肩が判別できないような走行道路であっても、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
In the present embodiment, the information regarding the curve direction of the traveling road and the curve curve degree calculated by the
(第3実施形態)
図8は、第3実施形態による画像認識装置10を示す概略構成図である。本実施形態では、舵角検出手段としての舵角センサ80の舵角情報を自車両の旋回に関する情報を含む情報として取得し、その舵角情報に基づいて、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する点が、第1実施形態と異なる。ここでは、本実施形態の特徴部分のみを説明する。
(Third embodiment)
FIG. 8 is a schematic configuration diagram showing an
舵角センサ80は、自車両のステアリングに設けられており、運転者が操作するステアリングの操舵角を検出するものである。舵角センサ80は、ステアリングの操舵角に応じた信号を舵角情報として出力する。このため、この舵角情報には、ステアリングの操舵の方向と、操舵量の情報が含まれることとなる。ステアリングの操作は、走行道路のカーブの方向及びカーブの曲り度合いに応じたものとなるので、この舵角情報によれば、走行道路のカーブの方向及びカーブの曲り度合いを把握することができる。舵角センサ80から出力される舵角情報は、算出部22に入力される。
The
舵角情報が入力される算出部22は、この舵角情報に基づき、自車両の前方に延びる走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、第1実施形態と同様、探索領域設定部24に出力される。探索領域設定部24及び認識部28における処理は、第1実施形態と同様であるため、ここでは説明を省略する。
The
本実施形態では、算出部22により算出される走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、走行道路のカーブの方向及びカーブの曲り度合いに応じて変化する舵角情報に基づいている。この情報は、白線や路肩等の有無に拘らず取得が可能な情報である。したがって、この実施形態の算出部22によれば、白線や路肩が判別できないような走行道路であっても、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
In the present embodiment, the information regarding the curve direction of the traveling road and the curve bending degree calculated by the
(第4実施形態)
図9は、第4実施形態による画像認識装置10を示す概略構成図である。本実施形態では、ヨーレート検出手段としてのヨーレートセンサ90のヨーレート情報を自車両の旋回に関する情報を含む情報として取得し、そのヨーレート情報に基づいて、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する点が、第1実施形態と異なる。ここでは、本実施形態の特徴部分のみを説明する。
(Fourth embodiment)
FIG. 9 is a schematic configuration diagram showing an
ヨーレートセンサ90は、自車両の鉛直軸方向の回転角速度を検出するものである。ヨーレートセンサ90は、上記回転角速度に応じた信号をヨーレート情報として出力する。ヨーレートは、走行道路のカーブの方向及びカーブの曲り度合いに応じて変化するものであるため、このヨーレート情報によれば、走行道路のカーブの方向及びカーブの曲り度合いを把握することができる。ヨーレートセンサ90から出力されるヨーレート情報は、算出部22に出力される。
The
ヨーレート情報が入力される算出部22は、このヨーレート情報に基づき、自車両の前方に延びる走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、第1実施形態と同様、探索領域設定部24に出力される。探索領域設定部24及び認識部28における処理は、第1実施形態と同様であるため、ここでは説明を省略する。
Based on the yaw rate information, the
本実施形態では、算出部22により算出される走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、走行道路のカーブの方向及びカーブの曲り度合いに応じて変化するヨーレート情報に基づいている。この情報は、白線や路肩等の有無に拘らず取得が可能な情報である。したがって、この実施形態の算出部22によれば、白線や路肩が判別できないような走行道路であっても、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
In the present embodiment, the information regarding the curve direction of the traveling road and the curve bending degree calculated by the
10 画像認識装置、20 画像認識回路、22 算出部(算出手段)、24 探索領域設定部(探索領域設定手段)、26 データベース、26a 事前学習モデル、28 認識部(検知手段)、28a 特徴量抽出部、28b 照合部、30 赤外線カメラ、40 表示装置、50 前方画像、52 探索領域、54 探索ウインドウ、56 ウインドウ画像、58 画像、60 画像、62 消失点、64 分割領域、66 計算領域、70 ナビゲーション装置、80 舵角センサ、90 ヨーレートセンサ
DESCRIPTION OF
Claims (3)
前記自車両の旋回に関する情報を含んだ情報を取得し、その取得した情報に基づき、前記前方の領域における走行道路のカーブの方向に関する情報を算出する算出手段と、
前記歩行者を表す画像を探索するための探索領域を前記前方画像の一部に設定する探索領域設定手段であって、前記走行道路のカーブの方向に関する情報に基づいて、前記走行道路のカーブの方向を判定し、前記探索領域を、前記探索領域の前記前方画像における大きさはそのままに、判定した前記走行道路のカーブの方向に向けて移動させた位置に設定する探索領域設定手段と、
前記探索領域内の前記歩行者を表す画像を検知する検知手段と、を備え、
前記算出手段は、前記撮像手段の前記前方画像を前記自車両の旋回に関する情報を含んだ情報として取得し、前記前方画像における所定領域のオプティカルフローを計算することにより前記所定領域の方向ベクトルを算出し、算出された前記所定領域の方向ベクトルの水平方向成分を前記走行道路のカーブの方向に関する情報として算出し、
前記探索領域設定手段は、前記方向ベクトルにおける水平方向成分の値に基づいて、前記走行道路のカーブの方向を判定することを特徴とする画像認識装置。 In an image recognition device that detects an image representing a pedestrian existing in the front area from a front image acquired by an imaging unit that images a front area of the host vehicle.
Calculating means for acquiring information including information relating to the turning of the host vehicle, and calculating information relating to the direction of the curve of the traveling road in the front area based on the acquired information;
Search area setting means for setting a search area for searching for an image representing the pedestrian in a part of the front image, based on information on the curve direction of the road, A search area setting means for determining a direction, and setting the search area at a position moved in the determined direction of the curve of the traveling road without changing the size of the search area in the front image;
Detecting means for detecting an image representing the pedestrian in the search area ,
The calculating means acquires the front image of the imaging means as information including information related to turning of the host vehicle, and calculates a direction vector of the predetermined area by calculating an optical flow of the predetermined area in the front image. And calculating the horizontal direction component of the calculated direction vector of the predetermined area as information relating to the direction of the curve of the traveling road,
The image recognizing apparatus, wherein the search area setting means determines a direction of a curve of the traveling road based on a value of a horizontal direction component in the direction vector .
前記自車両の旋回に関する情報を含んだ情報を取得し、その取得した情報に基づき、前記前方の領域における走行道路のカーブの方向に関する情報を算出する算出手段と、
前記歩行者を表す画像を探索するための探索領域を前記前方画像の一部に設定する探索領域設定手段であって、前記走行道路のカーブの方向に関する情報に基づいて、前記走行道路のカーブの方向を判定し、前記探索領域を、前記探索領域の前記前方画像における大きさはそのままに、判定した前記走行道路のカーブの方向に向けて移動させた位置に設定する探索領域設定手段と、
前記探索領域内の前記歩行者を表す画像を検知する検知手段と、を備え、
前記走行道路のカーブの方向に関する情報に加え、前記走行道路のカーブの曲り度合いに関する情報を算出する前記算出手段は、前記撮像手段の前記前方画像を前記自車両の旋回に関する情報を含んだ情報として取得し、前記前方画像における所定領域のオプティカルフローを計算することにより前記所定領域の方向ベクトルを算出し、算出された前記所定領域の方向ベクトルの水平方向成分を前記走行道路のカーブの曲り度合いに関する情報として算出し、
前記走行道路のカーブの曲り度合いに関する情報に基づいて、前記走行道路のカーブの曲り度合いを判定し、判定した前記走行道路のカーブの曲り度合いが大きいほど、前記走行道路のカーブの方向に向かう前記探索領域の移動量が大きくなるように前記探索領域を設定する前記探索領域設定手段は、前記方向ベクトルにおける水平方向成分の値に基づいて、前記走行道路のカーブの曲り度合いを判定することを特徴とする画像認識装置。 In an image recognition device that detects an image representing a pedestrian existing in the front area from a front image acquired by an imaging unit that images a front area of the host vehicle.
Calculating means for acquiring information including information relating to the turning of the host vehicle, and calculating information relating to the direction of the curve of the traveling road in the front area based on the acquired information;
Search area setting means for setting a search area for searching for an image representing the pedestrian in a part of the front image, based on information on the curve direction of the road, A search area setting means for determining a direction, and setting the search area at a position moved in the determined direction of the curve of the traveling road without changing the size of the search area in the front image;
Detecting means for detecting an image representing the pedestrian in the search area,
In addition to information about the direction of the curve before Symbol traveling road, the calculation means for calculating information related to bending degree of a curve of the traveling road, that contain information about the turning of the vehicle the front image of the imaging unit information And calculating a direction vector of the predetermined area by calculating an optical flow of the predetermined area in the front image, and calculating a horizontal direction component of the calculated direction vector of the predetermined area as a curve curve degree of the traveling road As information about
Based on the information about the bending degree of the curve of the prior SL travel road, it determines the bending degree of a curve of the traveling road, as the degree of bend of the curve of the traveling road is determined is greater toward the direction of the curve of the traveling road The search area setting means for setting the search area so as to increase the amount of movement of the search area determines a curve curve degree of the traveling road based on a value of a horizontal direction component in the direction vector. A featured image recognition apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011119440A JP5760696B2 (en) | 2011-05-27 | 2011-05-27 | Image recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011119440A JP5760696B2 (en) | 2011-05-27 | 2011-05-27 | Image recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012248011A JP2012248011A (en) | 2012-12-13 |
JP5760696B2 true JP5760696B2 (en) | 2015-08-12 |
Family
ID=47468395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011119440A Active JP5760696B2 (en) | 2011-05-27 | 2011-05-27 | Image recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5760696B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015157202A1 (en) | 2014-04-09 | 2015-10-15 | Corning Incorporated | Device modified substrate article and methods for making |
KR101839978B1 (en) * | 2013-03-18 | 2018-04-26 | 주식회사 만도 | Apparatus and method for determining traveling status of vehicle |
JP6364189B2 (en) * | 2013-12-20 | 2018-07-25 | 株式会社今仙電機製作所 | Pedestrian detection method |
EP3099483B1 (en) | 2014-01-27 | 2022-06-01 | Corning Incorporated | Articles and methods for controlled bonding of thin sheets with carriers |
WO2016170722A1 (en) * | 2015-04-23 | 2016-10-27 | 株式会社Jvcケンウッド | Display device and display control method |
EP3297824A1 (en) | 2015-05-19 | 2018-03-28 | Corning Incorporated | Articles and methods for bonding sheets with carriers |
CN107810168A (en) | 2015-06-26 | 2018-03-16 | 康宁股份有限公司 | Method and product comprising sheet material and carrier |
TW202444953A (en) | 2016-08-30 | 2024-11-16 | 美商康寧公司 | Siloxane plasma polymers for sheet bonding |
TWI821867B (en) | 2016-08-31 | 2023-11-11 | 美商康寧公司 | Articles of controllably bonded sheets and methods for making same |
CN106959101B (en) * | 2017-03-17 | 2019-04-09 | 哈尔滨工业大学 | An indoor positioning method based on optical flow method |
WO2019036710A1 (en) | 2017-08-18 | 2019-02-21 | Corning Incorporated | Temporary bonding using polycationic polymers |
US11331692B2 (en) | 2017-12-15 | 2022-05-17 | Corning Incorporated | Methods for treating a substrate and method for making articles comprising bonded sheets |
CN108540720B (en) * | 2018-04-14 | 2020-07-03 | 长沙全度影像科技有限公司 | System and method for automatically selecting optimal image for bullet time |
JP7376992B2 (en) * | 2018-06-25 | 2023-11-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information processing device, information processing method, and program |
CN113688259B (en) * | 2020-05-19 | 2024-06-07 | 阿波罗智联(北京)科技有限公司 | Labeling method and device for navigation target, electronic equipment and computer readable medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4840472B2 (en) * | 2009-04-15 | 2011-12-21 | トヨタ自動車株式会社 | Object detection device |
-
2011
- 2011-05-27 JP JP2011119440A patent/JP5760696B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012248011A (en) | 2012-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5760696B2 (en) | Image recognition device | |
CN110866433B (en) | Method and device for determining road markings | |
JP4985142B2 (en) | Image recognition apparatus and image recognition processing method of image recognition apparatus | |
JP4973736B2 (en) | Road marking recognition device, road marking recognition method, and road marking recognition program | |
US8428362B2 (en) | Scene matching reference data generation system and position measurement system | |
US8452103B2 (en) | Scene matching reference data generation system and position measurement system | |
US20180373943A1 (en) | Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium | |
US8699754B2 (en) | Clear path detection through road modeling | |
CN111091037B (en) | Method and device for determining driving information | |
US20190251374A1 (en) | Travel assistance device and computer program | |
EP1780675A1 (en) | Object detector | |
US20050002558A1 (en) | Camera based position recognition for a road vehicle | |
JP5904925B2 (en) | Vehicle periphery monitoring device | |
KR101665599B1 (en) | Augmented reality navigation apparatus for providing route guide service and method thereof | |
US11656090B2 (en) | Method and system for generating navigation data for a geographical location | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
JP6129268B2 (en) | Vehicle driving support system and driving support method | |
JP4296287B2 (en) | Vehicle recognition device | |
JP4953015B2 (en) | Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same | |
JP2010176592A (en) | Driving support device for vehicle | |
JP3304905B2 (en) | Object tracking recognition device | |
JP4957021B2 (en) | VEHICLE MAP DATA CREATION DEVICE AND VEHICLE MAP DATA UPDATE DEVICE | |
JP2008084138A (en) | Vehicle surrounding monitoring device and surrounding monitoring program | |
KR20150124355A (en) | Precise positioning of the vehicle for detecting a road surface display method and system | |
Grewe et al. | Road following for blindBike: an assistive bike navigation system for low vision persons |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150525 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5760696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |