JP5903003B2 - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP5903003B2 JP5903003B2 JP2012143541A JP2012143541A JP5903003B2 JP 5903003 B2 JP5903003 B2 JP 5903003B2 JP 2012143541 A JP2012143541 A JP 2012143541A JP 2012143541 A JP2012143541 A JP 2012143541A JP 5903003 B2 JP5903003 B2 JP 5903003B2
- Authority
- JP
- Japan
- Prior art keywords
- animal
- vehicle
- image
- driver
- alerting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 26
- 241001465754 Metazoa Species 0.000 claims description 90
- 238000000034 method Methods 0.000 claims description 45
- 238000012544 monitoring process Methods 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 22
- 238000013459 approach Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000037007 arousal Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、車両に搭載された撮像手段による撮像画像に基づいて、運転者に対する注意喚起を行う車両周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring device that alerts a driver based on an image captured by an imaging unit mounted on a vehicle.
車両走行上の危険となる前方障害物をレーダ等により察知して、察知した障害物についての危険情報を表示器等に表示する車両周辺監視装置が知られている(例:特許文献1)。 2. Description of the Related Art A vehicle periphery monitoring device is known that detects a front obstacle that is a danger in traveling of a vehicle with a radar or the like, and displays danger information about the detected obstacle on a display or the like (eg, Patent Document 1).
また、車両前方に存在する生体(歩行者や動物)を赤外線カメラを使って検出し、生体が検出されたときに、表示器への表示や警告音に表示したり、警告音による報知を行って、運転者に対する注意喚起を行う車両周辺監視装置も知られている。 In addition, a living body (pedestrian or animal) existing in front of the vehicle is detected using an infrared camera, and when a living body is detected, it is displayed on a display or a warning sound, or is notified by a warning sound. A vehicle periphery monitoring device that alerts the driver is also known.
動物の行動パターンは不規則であるため、動物を検知したときは、車両からの距離にかかわらず警報を行うので、他の警報対象物(例:人)に比べて、警報開始時から車両が動物へ到達する時刻までの時間が長くなっている。このことは、動物に対する警報について運転者に違和感を抱かせることとなり、その改善が望まれている。 Because the behavior pattern of animals is irregular, when an animal is detected, an alarm is issued regardless of the distance from the vehicle. Therefore, compared to other alarm objects (eg people), the vehicle The time to reach the animal is getting longer. This makes the driver feel uncomfortable with regard to warnings for animals, and improvements are desired.
本発明の目的は、車両前方の動物に対する注意喚起を改善することができる車両周辺監視装置を提供することである。 The objective of this invention is providing the vehicle periphery monitoring apparatus which can improve the alerting with respect to the animal ahead of a vehicle.
第1発明の車両周辺監視装置は、車両に搭載された撮像手段による撮像画像に基づいて、運転者に対する注意喚起を実施する車両周辺監視装置であって、撮像画像に動物画像部分及び人画像部分が含まれているか否かを判断する画像判断手段と、前記画像判断手段の判断に基づいて動物を検知しだい運転者への注意喚起を実施し、前記画像判断手段の判断に基づいて人が検知されたときは、該人の位置を算出し、算出した人の位置が、車両から所定距離前方に設定された遠方側境界線から手前の車両前方領域として設定される人警告領域にあるか否かに基づいて運転者への注意喚起を実施する注意喚起手段と、前記注意喚起手段による動物についての運転者への1回目の注意喚起開始後、所定時間以内又は所定走行距離以内に運転者が動物の存在に気付いたことを所定条件として該所定条件の充足を判断する充足判断手段と、前記充足判断手段が前記所定条件を充足していないと判断したときには、前記注意喚起手段に2回目の注意喚起を実施させる制御手段とを備え、前記2回目の注意喚起は、前記1回目の注意喚起の対象になった動物の位置が前記遠方側境界線に達する前に、実施されるように、前記所定時間又は前記所定走行距離が設定されていることを特徴とする。 The vehicle periphery monitoring device of the first invention, based on the image captured by the imaging means mounted on a vehicle, a vehicle periphery monitoring apparatus for performing the alert to the driver, Animal image portion and human image portion in the captured image Image judging means for judging whether or not the image is included, and alerting the driver as soon as an animal is detected based on the judgment of the image judging means, and human detection based on the judgment of the image judging means Is calculated, the person's position is calculated, and whether or not the calculated person's position is in a person warning area set as a vehicle front area in front of the far side boundary line set a predetermined distance ahead from the vehicle. The alerting means for alerting the driver based on the above, and after the first alerting to the driver about the animal by the alerting means, the driver is within a predetermined time or within a predetermined travel distance. animal And sufficiency determining means for determining satisfaction of the predetermined condition as a predetermined condition that noticed standing, the when the satisfaction determining means is determined not to satisfy the predetermined condition, alert the second time the reminder means And the second alerting is performed before the position of the animal targeted for the first alerting reaches the far boundary line. The time or the predetermined travel distance is set .
第1発明によれば、車両周辺監視装置は、注意喚起手段による動物についての運転者への1回目の注意喚起開始後、所定時間以内又は所定走行距離以内に運転者が動物の存在に気付いたことを所定条件として該所定条件が充足されないときは、注意喚起手段に再度(2回目)の注意喚起を実施するので、動物に対する注意喚起を早い段階から開始しつつ、運転者の不的確な対応を防止し、また、無用の再注意喚起を行わないようにすることができる。 According to the first invention, the vehicle periphery monitoring device recognizes the presence of the animal within a predetermined time or within a predetermined mileage after the first alerting to the driver about the animal by the alerting means. If the predetermined condition is not satisfied, the warning means will be alerted again (second time) , so the driver's inaccurate response while starting alerting the animal at an early stage Can be prevented, and unnecessary re-reminding can be prevented.
第2発明の車両周辺監視装置は、第1発明において、前記注意喚起手段は、前記2回目の注意喚起を、前記1回目の注意喚起とは同一の喚起方式でかつ強めたものとするか、又は異なる喚起方式で行うことを特徴とする。 The vehicle periphery monitoring device of the second invention is the first invention, wherein the alerting means is a reminder of the second, or above the first reminder shall intensified and the same draw method, Or it is performed by a different awakening method.
第2発明によれば、再度の注意喚起の効果を高めることができる。 According to the second invention, it is possible to enhance the effect of calling attention again.
第3発明の車両周辺監視装置は、第1発明又は第2発明において、前記充足判断手段は、前記注意喚起手段による動物についての運転者への前記1回目の注意喚起開始後、前記所定時間以内又は前記所定走行距離以内に運転者が接触回避の運転操作を行ったときは、前記所定条件が充足したと判断することを特徴とする。 The vehicle periphery monitoring device of the third invention, in the first or second aspect of the invention, the sufficiency determining means after the first alert initiation to the driver of the animals with the alerting means, within said predetermined time or when the predetermined travel distance within the driver has performed a driving operation of the contact avoidance is characterized in that it is determined that the predetermined condition is satisfied.
第3発明によれば、注意喚起対象となった動物に対する運転者による接触回避操作が実施されたことを検知することによって、運転者が動物の存在に気付いたことを容易に判断することができる。 According to the third invention, it is possible to easily determine that the driver has noticed the existence of the animal by detecting that the contact avoidance operation by the driver with respect to the animal that has been the object of alerting is performed. .
図1を参照して、車両周辺監視装置1は、車両10に搭載され遠赤外線を検出可能な1台の赤外線カメラ2(本発明の「撮像手段」に相当する)を備え、赤外線カメラ2による撮像画像に基づいて、運転者に対する注意喚起を行う。 Referring to FIG. 1, a vehicle periphery monitoring device 1 includes a single infrared camera 2 (corresponding to “imaging means” of the present invention) mounted on a vehicle 10 and capable of detecting far-infrared rays. The driver is alerted based on the captured image.
車両周辺監視装置1は、赤外線カメラ2以外に、さらに、車両のヨーレートを検出するヨーレートセンサ3と、車両の走行速度を検出する車速センサ4と、運転者によるブレーキの操作量を検出するブレーキセンサ5と、赤外線カメラ2により得られる画像から車両前方の監視対象物(歩行者等)を検出し、該監視対象物と車両が接触する可能性が高い場合に警報を出力する画像処理ユニット8と、音声により警報を行うためのスピーカ6と、赤外線カメラ2により得られた画像を表示すると共に、接触の可能性が高い監視対象物を運転者に視認させる表示を行うためのヘッドアップディスプレイ(以下、HUDという)7とを備えている。 In addition to the infrared camera 2, the vehicle periphery monitoring apparatus 1 further includes a yaw rate sensor 3 that detects the yaw rate of the vehicle, a vehicle speed sensor 4 that detects the traveling speed of the vehicle, and a brake sensor that detects the amount of brake operation by the driver. 5 and an image processing unit 8 that detects a monitoring object (a pedestrian or the like) ahead of the vehicle from an image obtained by the infrared camera 2 and outputs an alarm when there is a high possibility that the monitoring object is in contact with the vehicle. A head-up display (hereinafter referred to as a speaker 6 for performing an alarm by voice and an image obtained by the infrared camera 2 and a display for allowing a driver to visually recognize a monitoring object having a high possibility of contact) , Referred to as HUD) 7.
図2を参照して、赤外線カメラ2は、車両10の前部の左右方向中心に配置され、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)撮像画像を出力する。HUD7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。 Referring to FIG. 2, infrared camera 2 is arranged at the center in the left-right direction of the front portion of vehicle 10, and outputs a captured image in which the output level increases (the luminance increases) as the temperature of the imaged object increases. The HUD 7 is provided so that the screen 7 a is displayed at a front position on the driver side of the front window of the vehicle 10.
車両10の前方の実空間について、X,Y,Zの座標軸を定義する。原点Oは赤外線カメラ2の中心位置とし、Z軸は、前側を正にして車両10の前後方向へ水平に延びる軸とされ、X軸は右側を正にして車両10の左右水平方向へ延びる軸とされ、Y軸は下側を正にして鉛直方向へ延びる軸とされる。 The X, Y, and Z coordinate axes are defined for the real space in front of the vehicle 10. The origin O is the center position of the infrared camera 2, the Z-axis is an axis extending horizontally in the front-rear direction of the vehicle 10 with the front side being positive, and the X-axis is an axis extending in the left-right horizontal direction of the vehicle 10 with the right side being positive. The Y axis is an axis extending in the vertical direction with the lower side being positive.
なお、実空間座標系X−Y−Zの原点Oは車両10の左右方向中心に設定しつつ、赤外線カメラ2は車両10の左右方向中心から左右や上下へずらした位置に設定することもできる。その場合は、対象物についての実空間座標(X,Y,Z)は、撮像画像から求めた位置を原点Oと赤外線カメラ2のレンズ中心との距離に応じて補正して求めることになる。 The origin O of the real space coordinate system XYZ can be set at the center of the vehicle 10 in the left-right direction, and the infrared camera 2 can be set at a position shifted from the center of the vehicle 10 in the left-right direction or up and down. . In that case, the real space coordinates (X, Y, Z) for the object are obtained by correcting the position obtained from the captured image according to the distance between the origin O and the lens center of the infrared camera 2.
図1を参照して、画像処理ユニット8は、赤外線カメラ2から出力されるアナログの映像信号をデジタルデータに変換して画像メモリ(図示せず)に取り込み、該画像メモリに取り込んだ車両前方の画像に対して各種演算処理を行う機能を有している。画像処理ユニット8は、CPUやメモリ等により構成された電子ユニットであり、該CPUに車両10周辺監視用プログラムを実行させることによって、画像判断手段21、注意喚起手段22、充足判断手段23及び制御手段24の機能を実現する。 Referring to FIG. 1, the image processing unit 8 converts an analog video signal output from the infrared camera 2 into digital data, takes it in an image memory (not shown), and captures the vehicle in front of the image memory. It has a function of performing various arithmetic processes on images. The image processing unit 8 is an electronic unit composed of a CPU, a memory, and the like. By causing the CPU to execute a program for monitoring the periphery of the vehicle 10, the image determination unit 21, the alerting unit 22, the satisfaction determination unit 23, and the control are performed. The function of the means 24 is realized.
画像判断手段21、注意喚起手段22、充足判断手段23及び制御手段24は、詳細については、後述の図3及び図4のフローチャートに関連して説明するので、図1では簡単に説明する。 The details of the image determination unit 21, the alerting unit 22, the satisfaction determination unit 23, and the control unit 24 will be described in detail with reference to the flowcharts of FIGS.
画像判断手段21は、撮像画像に人画像部分又は動物画像部分が含まれているか否かを判断する。注意喚起手段22は、画像判断手段21の判断に基づいて動物(本発明の「第1対象物」に相当する。)については動物の存在を検知しだい運転者への注意喚起を実施し、画像判断手段21の判断に基づいて人(本発明の「第2対象物」に相当する。)については人の存在を検知後、第2対象物に対する接触予想時間が所定値以下になった時に運転者への注意喚起を実施する。この結果、注意喚起手段22による動物に対する警報開始時の車両10から動物までの距離は、注意喚起手段22による人に対する警報開始時の車両10から人までの距離より大となる。 The image determination unit 21 determines whether or not the captured image includes a human image part or an animal image part. The alerting means 22 alerts the driver as soon as the presence of the animal is detected for the animal (corresponding to the “first object” of the present invention) based on the determination of the image determining means 21, For a person (corresponding to the “second object” of the present invention) based on the determination by the determination means 21, after the person's presence is detected, driving is performed when the estimated contact time for the second object becomes a predetermined value or less. To alert people. As a result, the distance from the vehicle 10 to the animal when the alerting means 22 starts the alarm for the animal becomes larger than the distance from the vehicle 10 to the person when the alerting means 22 starts the alarm for the person.
充足判断手段23は、注意喚起手段22による動物についての運転者へ注意喚起開始後、所定時間以内又は所定走行距離以内に運転者が動物の存在に気付いたことを所定条件の充足に基づいて判断する。制御手段24は、充足判断手段23が所定条件を充足していないと判断したときには、注意喚起手段22に再度の注意喚起を実施させる。 Satisfaction determining means 23 determines that the driver has noticed the presence of the animal within a predetermined time or within a predetermined distance after starting to alert the driver about the animal by the alerting means 22 based on the satisfaction of the predetermined condition. To do. The control unit 24 causes the alerting unit 22 to perform alerting again when the satisfaction determining unit 23 determines that the predetermined condition is not satisfied.
所定条件は、注意喚起対象となった動物に対する運転者による接触回避操作が実施されたこととする条件を含む。 The predetermined condition includes a condition that a driver's contact avoidance operation is performed on the animal that has been a subject of alert.
注意喚起手段22は、再度の注意喚起を、最初の注意喚起とは同一の喚起方式でかつ強めたものとするか、又は異なる喚起方式で行う。 The alerting means 22 performs alerting for the second time in the same alerting method as the initial alerting and intensified, or in a different alerting method.
次に図3に示したフローチャートに従って、画像処理ユニット8による監視対象物の検出処理及び警報判定処理の実行手順について説明する。 Next, according to the flowchart shown in FIG. 3, the execution procedure of the monitoring target object detection process and the alarm determination process by the image processing unit 8 will be described.
STEP1では、画像処理ユニット8は、赤外線カメラ2からの撮像画像信号を入力する。赤外線カメラ2は、一定時間ごとに、車両10の前方の光景を所定の画角で撮影し、その撮像画像信号を出力する。 In STEP 1, the image processing unit 8 inputs a captured image signal from the infrared camera 2. The infrared camera 2 captures a scene in front of the vehicle 10 at a predetermined angle of view and outputs a captured image signal at regular time intervals.
STEP2では、画像処理ユニット8は、撮像画像信号(アナログ信号)をデジタルの諧調(輝度)データに変換したグレースケール画像を画像メモリに取り込む。 In STEP 2, the image processing unit 8 takes in a gray scale image obtained by converting a captured image signal (analog signal) into digital gradation (luminance) data into an image memory.
赤外線カメラ2が一定時間間隔で撮像した直近の所定数(複数)の赤外線画像は時系列のグレースケール画像として画像メモリに記憶される。そして、画像メモリに記憶された時系列の所定数のグレースケール画像は、一定時間間隔が経過して、赤外線カメラ2が最新の撮像画像を生成するごとに、直近の所定数のグレースケール画像に更新される。 The latest predetermined number (plural) of infrared images captured by the infrared camera 2 at regular time intervals are stored in the image memory as time-series gray scale images. The predetermined number of grayscale images in time series stored in the image memory is converted into the nearest predetermined number of grayscale images each time a certain time interval elapses and the infrared camera 2 generates the latest captured image. Updated.
STEP3では、画像処理ユニット8は、グレースケール画像の各画素について、輝度が所定の閾値以上である画素を高輝度画素として「1」(白)とし、輝度が該閾値よりも小さい画素を低輝度画素として「0」(黒)とする2値化処理を行って2値化画像を取得する。 In STEP 3, the image processing unit 8 sets, for each pixel of the grayscale image, a pixel whose luminance is equal to or higher than a predetermined threshold as “1” (white) as a high luminance pixel, and a pixel whose luminance is lower than the threshold as a low luminance. A binarized image is obtained by performing binarization processing for setting “0” (black) as a pixel.
STEP4では、画像処理ユニット8は、2値化画像中の各白画像部分の各縦方向(2値化画像の上下方向)位置に対し、横方向(2値化画像の左右方向)に白の画素の連続する画素列の開始画素位置及び長さを示すランレングスデータを算出する。 In STEP4, the image processing unit 8 has white in the horizontal direction (left and right direction of the binarized image) with respect to each vertical direction (vertical direction of the binarized image) position of each white image portion in the binarized image. Run-length data indicating the start pixel position and length of a continuous pixel row of pixels is calculated.
STEP5では、画像処理ユニット8は、2値化画像のランレングスデータに基づいて対象物の2値化画像としての白画像部分を抽出し、抽出した白画像部分に対してラべリング(番号付け)を行う。 In STEP 5, the image processing unit 8 extracts a white image portion as a binarized image of the object based on the run length data of the binarized image, and performs labeling (numbering) on the extracted white image portion. )I do.
STEP6では、画像処理ユニット8は、ラベリングした白画像部分の重心、面積、及び白画像部分の外接四角形のアスペクト(縦横)比を算出する。 In STEP 6, the image processing unit 8 calculates the center of gravity and area of the labeled white image portion and the aspect (vertical / horizontal) ratio of the circumscribed rectangle of the white image portion.
STEP7では、画像処理ユニット8は、対象物の時刻間追跡を実施する。具体的には、赤外線カメラ2が一定時間間隔で出力する前回と今回の赤外線画像の2値化画像に含まれるラベル付き白画像部分について、相関性に基づいて同一対象物について白画像部分同士を対応付ける。その際、画像判断手段21は、白画像部分の重心、面積、及び白画像部分の外接四角形のアスペクト(縦横)比が対応の所定の閾値内に収まる、前回と今回の白画像部分は、所定の相関性があるとして、同一対象物についての白画像部分であると判断する。 In STEP 7, the image processing unit 8 performs tracking of the object for the time. Specifically, with respect to the labeled white image portions included in the binarized images of the previous and current infrared images output by the infrared camera 2 at regular time intervals, the white image portions of the same object are determined based on the correlation. Associate. At that time, the image determination means 21 determines that the previous and current white image portions are within the predetermined threshold values within which the center of gravity, the area of the white image portion, and the aspect ratio of the circumscribed rectangle of the white image portion fall within the predetermined threshold values. Are determined to be white image portions of the same object.
STEP7において、画像処理ユニット8は、同一対象物についての白画像部分であると判断された白画像部分は、前回の2値化画像において付けられたラベルが継承されるように、再ラベリングする。 In STEP 7, the image processing unit 8 re-labels the white image portion determined to be the white image portion of the same object so that the label attached in the previous binarized image is inherited.
STEP8では、画像処理ユニット8は、前回の2値化画像と今回の2値化画像において同一ラベルを付けられた白画像部分同士について大きさの変化率から対象物までの距離を測定する。 In STEP 8, the image processing unit 8 measures the distance from the change rate of the size to the target object for the white image portions that are labeled the same in the previous binarized image and the current binarized image.
歩行者の実空間位置の算出では、算出式として例えば次の式(1)が使用される。なお、詳細は例えば特開2008−113296号公報等に記載されているとおりである。 In calculating the real space position of the pedestrian, for example, the following formula (1) is used as a calculation formula. The details are as described in, for example, Japanese Patent Application Laid-Open No. 2008-113296.
Z=Rate・V・Δt/(1−Rate)・・・(1)
上記の式(1)において各符号の定義は次のとおりである。
Z:対象物について図2のZ軸方向の位置、すなわち車両10から対象物までの距離。
Rate:今回及び前回の2値化画像において、STEP7における時刻間追跡により同一の対象物についての白画像部分であると判断された該白画像部分の外接四角形の幅又は高さの寸法比。今回の2値化画像における外接四角形の幅及び高さをw0,h0、前回の2値化画像における外接四角形の幅及び高さをw1,h1とすると、Rate=w1/w0又はh1/h0となる。なお、寸法h0,h1,w0,w1は2値化画像における画素ピッチ数で表現したものである。
Δt:今回及び前回の2値化画像の基になっている2値化画像の撮像時刻の時間差。
V:車両10の車速。
Z = Rate · V · Δt / (1-Rate) (1)
In the above formula (1), the definition of each symbol is as follows.
Z: The position of the object in the Z-axis direction in FIG. 2, that is, the distance from the vehicle 10 to the object.
Rate: Dimension ratio of the width or height of the circumscribed rectangle of the white image portion determined to be the white image portion of the same object by tracking between the times in STEP 7 in the current and previous binarized images. If the width and height of the circumscribed rectangle in the current binarized image are w0 and h0, and the width and height of the circumscribed rectangle in the previous binarized image are w1 and h1, Rate = w1 / w0 or h1 / h0. Become. The dimensions h0, h1, w0, and w1 are expressed by the number of pixel pitches in the binarized image.
Δt: time difference between the imaging times of the binarized images that are the basis of the current and previous binarized images.
V: The vehicle speed of the vehicle 10.
式(1)で求めたZはさらに車両10の回頭角により補正される。車両10の回頭角はヨーレートセンサ3の出力をΔtにより積分した積分値に基づいて算出される。この算出には、前述の特開2008−113296号公報等において説明されている手法を用いることができる。 Z obtained by the equation (1) is further corrected by the turning angle of the vehicle 10. The turning angle of the vehicle 10 is calculated based on an integrated value obtained by integrating the output of the yaw rate sensor 3 by Δt. For this calculation, the method described in Japanese Patent Application Laid-Open No. 2008-113296 can be used.
画像処理ユニット8は、STEP8の実行後、ROUTINE9(警報処理ルーチン)を実行する。ROUTINE9の実行には画像処理ユニット8の画像判断手段21、注意喚起手段22、充足判断手段23及び制御手段24が関与する。ROUTINE9について、図4のフローチャートを参照して、説明する。 The image processing unit 8 executes ROUTINE9 (alarm processing routine) after executing STEP8. The execution of ROUTINE 9 involves the image determination means 21, the alerting means 22, the satisfaction determination means 23 and the control means 24 of the image processing unit 8. The ROUTINE 9 will be described with reference to the flowchart of FIG.
STEP21では、画像判断手段21は、STEP7での再ラベリングされたラベル付きの各白画像部分のうち、該白画像部分が表す対象物が生体であると判断されたものに対し、該対象物の種別が動物であるか人であるかを判断する。そして、画像判断手段21は、動物であると判断したときには、処理をSTEP22へ進め、人であると判断したときには、処理をSTEP36へ進める。 In STEP 21, the image determination unit 21 determines that the object represented by the white image portion of the relabeled white image portions in STEP 7 is determined to be a living body. Determine whether the type is animal or person. When the image determining means 21 determines that the animal is an animal, the process proceeds to STEP 22. When the image determining means 21 determines that the animal is a human, the process proceeds to STEP 36.
生体は、周囲より高温であるのに対し、一般的な構造物は生体より低温である。したがって、一般的な構造物は、2値化画像において白画像部分にはならない。しかし、一部の構造物は所定の温度以上であることがあり、これらは2値化画像において白画像部分として抽出される。白画像部分のうち、生体と構造物とは、例えば形状、アスペクト比、輝度分散(生体は輝度分散が少ない。)等に基づいて識別することができる。 The living body is hotter than the surroundings, while the general structure is colder than the living body. Therefore, a general structure does not become a white image portion in the binarized image. However, some structures may have a predetermined temperature or higher, and these are extracted as white image portions in the binarized image. Of the white image portion, the living body and the structure can be identified based on, for example, the shape, aspect ratio, luminance dispersion (the living body has less luminance dispersion), and the like.
生体を表す白画像部分が、人の画像部分であるか動物の画像部分であるかも、形状やアスペクト比等により識別することができる。人の画像部分は縦長であり、動物の画像部分は横長となる。 Whether the white image portion representing the living body is a human image portion or an animal image portion can be identified by the shape, the aspect ratio, or the like. The human image portion is vertically long, and the animal image portion is horizontally long.
前述したように、動物に対する注意喚起としての警報は、赤外線カメラ2の赤外線画像から動物の画像部分が抽出されしだい、実施される。図5は車両10の前方に存在する人41及び動物42に対する警報の実施についての説明図である。図5に図示のX,Zは図2で定義した実空間座標系のX,Zの座標軸に相当する。図5では、赤外線カメラ2(図2)の画角は例えば12°になっている。赤外線カメラ2が出力する赤外線画像は、赤外線カメラ2の画角によってZ軸に対して左右対称の左境界線53及び右境界線54の内側範囲のものになる。 As described above, the alarm as an alert to the animal is performed as soon as the animal image portion is extracted from the infrared image of the infrared camera 2. FIG. 5 is an explanatory diagram regarding the execution of an alarm for the person 41 and the animal 42 present in front of the vehicle 10. X and Z shown in FIG. 5 correspond to the X and Z coordinate axes of the real space coordinate system defined in FIG. In FIG. 5, the angle of view of the infrared camera 2 (FIG. 2) is, for example, 12 °. The infrared image output from the infrared camera 2 is in the inner range of the left boundary line 53 and the right boundary line 54 that are symmetrical with respect to the Z axis depending on the angle of view of the infrared camera 2.
人41についての警報領域には、接近判定領域61と、左侵入判定領域62と、右侵入判定領域63とがある。接近判定領域61は、Z軸に対してX軸方向へ±(車体幅+3m)/2の幅とされ、Z軸方向に30m〜80mの範囲の長さに設定される。左侵入判定領域62及び右侵入判定領域63は、X軸方向へ接近判定領域61に対してそれぞれ左右にかつ左境界線53及び右境界線54の内側に設定され、Z軸方向へ接近判定領域61と等しい長さに設定されている。図5では、接近判定領域61に対しては、右肩下がりの斜線のハッチングが施され、左侵入判定領域62及び右侵入判定領域63は右肩上がりの斜線のハッチングが施されている。 The warning area for the person 41 includes an approach determination area 61, a left intrusion determination area 62, and a right intrusion determination area 63. The approach determination area 61 has a width of ± (vehicle width + 3 m) / 2 in the X-axis direction with respect to the Z-axis, and is set to a length in the range of 30 m to 80 m in the Z-axis direction. The left intrusion determination area 62 and the right intrusion determination area 63 are set to the left and right of the approach determination area 61 in the X-axis direction and inside the left boundary line 53 and the right boundary line 54, respectively. The length is set equal to 61. In FIG. 5, the approach determination area 61 is hatched with a slanting line that descends to the right, and the left intrusion determination area 62 and the right intrusion determination area 63 are hatched with a slanting line that rises to the right.
人41は、接近判定領域61、左侵入判定領域62又は右侵入判定領域63に存在するもののみが車両10の運転者に対する警報対象になる。この画像処理ユニット8は、Z軸方向へ車両10からおおよそ150〜300m遠方にいる生体を識別できるように、設計されている。この150〜300mという識別限界設計値は、ヘッドライトのハイビームが届く範囲として設定されている。動物42は、車両10から画角内の該識別限界設計値よりも近くに存在することが画像処理ユニット8により検出されしだい、車両10の運転者への警報の対象になり、画角の外へ移動すると、警報対象から外れる。 Only the person 41 existing in the approach determination area 61, the left intrusion determination area 62, or the right intrusion determination area 63 is an alarm target for the driver of the vehicle 10. The image processing unit 8 is designed so that a living body located approximately 150 to 300 m away from the vehicle 10 in the Z-axis direction can be identified. The identification limit design value of 150 to 300 m is set as a range in which the high beam of the headlight can reach. As soon as the image processing unit 8 detects that the animal 42 is present closer to the discriminating limit design value within the angle of view from the vehicle 10, the animal 42 becomes a target of an alarm to the driver of the vehicle 10, and is outside the angle of view. If you move to, you will be removed from the alarm target.
人41が接近判定領域61、左侵入判定領域62又は右侵入判定領域63に存在するか否かは、人41の実空間座標(X,Y,Z)に基づいて判断される。監視対象物についての距離(Z座標)の算出方式として、2つのカメラの視差に基づいて行う複眼方式と、1つのカメラから出力される時系列の撮像画像における対象物画像部分の寸法変化率を利用する単眼方式とがある。 Whether or not the person 41 exists in the approach determination area 61, the left intrusion determination area 62, or the right intrusion determination area 63 is determined based on the real space coordinates (X, Y, Z) of the person 41. As a calculation method of the distance (Z coordinate) about the monitoring object, a compound eye method performed based on the parallax of two cameras and a dimensional change rate of the object image portion in a time-series captured image output from one camera are used. There are monocular methods to use.
この車両周辺監視装置1は単眼方式を用いている。単眼方式により対象物の実空間位置を具体的に算出する仕方は、例えば特開2008−113296号公報に記載されたものを用いることができる。概略を述べると、赤外線カメラ2による撮像画像の時系列における対象物画像部分の外接四角形の幅又は高さが変化する比率を算出し、該比率と車速とに基づいて人41のZ座標を算出し、さらに、Z座標と撮像画像における対象物画像部分のピクセル位置とに基づいて人41のX座標及びY座標が算出される。ヨーレートセンサ3の出力は実空間座標(X,Y,Z)を車両10の回頭角に基づいて補正する際に利用される。 This vehicle periphery monitoring apparatus 1 uses a monocular system. For example, the method described in Japanese Patent Application Laid-Open No. 2008-113296 can be used as a method for specifically calculating the real space position of the object by the monocular method. Briefly, the ratio of the width or height of the circumscribed rectangle of the object image portion in the time series of the image captured by the infrared camera 2 is calculated, and the Z coordinate of the person 41 is calculated based on the ratio and the vehicle speed. Further, the X coordinate and the Y coordinate of the person 41 are calculated based on the Z coordinate and the pixel position of the object image portion in the captured image. The output of the yaw rate sensor 3 is used when the real space coordinates (X, Y, Z) are corrected based on the turning angle of the vehicle 10.
動物42については、その実空間位置としての実空間座標(X,Y,Z)を算出することは省略される。前述したように、動物42については、その存在が赤外線カメラ2の撮像画像内に検出されしだい、その実空間座標(X,Y,Z)を算出することなく、直ちに、警告音出力及び警告表示が開始される。 For the animal 42, calculating the real space coordinates (X, Y, Z) as the real space position is omitted. As described above, as soon as the presence of the animal 42 is detected in the captured image of the infrared camera 2, the warning sound output and the warning display are immediately performed without calculating the real space coordinates (X, Y, Z). Be started.
車両周辺監視装置1による警報は警告音出力と警告表示との2種類で実施される。車両周辺監視装置1は、警告表示では、HUD7の画面7a(グレースケール画像)の動物画像部分71又は人画像部分74に包囲枠72又は75を付けて表示し、動物42については画角の外側へ移動するまで、人41については警報領域から退出するまで、継続する。車両周辺監視装置1は、警告音出力では、人41についての警報及び動物42についての警報共に、開始時にスピーカ6から警告音を所定回数、出力して、終了する。 Alarms by the vehicle periphery monitoring device 1 are implemented in two types: warning sound output and warning display. In the warning display, the vehicle periphery monitoring device 1 displays the animal image portion 71 or the human image portion 74 of the screen 7a (grayscale image) of the HUD 7 with a surrounding frame 72 or 75 and displays the animal 42 outside the angle of view. The person 41 is continued until it moves out of the warning area until it moves to. In the warning sound output, the vehicle periphery monitoring device 1 outputs a warning sound from the speaker 6 a predetermined number of times at the start of both the warning for the person 41 and the warning for the animal 42 and ends.
図5において、矢印48,49は、その向きへそれらに対応付けられている人41及び動物42が移動している状態を示している。矢印48の移動状態に対しては警告音及び警告表示の両方が実施され、矢印49の移動状況に対しては警告表示のみが実施される。 In FIG. 5, arrows 48 and 49 indicate a state in which the person 41 and the animal 42 associated therewith are moving in the direction. Both the warning sound and the warning display are performed for the movement state of the arrow 48, and only the warning display is performed for the movement state of the arrow 49.
矢印48は、接近判定領域61に存在する人41が車両10の方(Z軸の負方向)へ移動している状態、左侵入判定領域62又は右侵入判定領域63に存在する人41がX軸方向へ接近判定領域61の方へ移動している状態、又は左境界線53及び右境界線54の内側領域に存在する動物42が任意の方向へ移動している状態を示している。 The arrow 48 indicates that the person 41 existing in the approach determination area 61 is moving toward the vehicle 10 (the negative direction of the Z axis), and the person 41 existing in the left intrusion determination area 62 or the right intrusion determination area 63 is X The state which is moving toward the approach determination region 61 in the axial direction, or the state where the animal 42 existing in the inner region of the left boundary line 53 and the right boundary line 54 is moving in an arbitrary direction is shown.
矢印49は、人41が左侵入判定領域62又は右侵入判定領域63から接近判定領域61へ向かうことなく左侵入判定領域62又は右侵入判定領域63内で移動している状態、又は左侵入判定領域62から接近判定領域61へ移動した人41がさらに接近判定領域61から右侵入判定領域63へ侵入する状態を示している。 The arrow 49 indicates that the person 41 is moving in the left intrusion determination area 62 or the right intrusion determination area 63 without going from the left intrusion determination area 62 or the right intrusion determination area 63 to the approach determination area 61, or the left intrusion determination A state in which the person 41 who has moved from the area 62 to the approach determination area 61 further enters the right intrusion determination area 63 from the approach determination area 61 is shown.
図4に戻って、STEP22では、注意喚起手段22は、最初の警報を実施済みか否かを判断し、実施済みであれば、処理をSTEP23へ進め、未実施であれば、処理をSTEP30へ進める。 Returning to FIG. 4, in STEP 22, the alerting means 22 determines whether or not the first alarm has been performed. If it has been performed, the process proceeds to STEP 23, and if not, the process proceeds to STEP 30. Proceed.
STEP22における最初の警報及び次のSTEP23における再警報について、図6及び図7を参照して、説明する。なお、図6は再警報が実施されない場合の問題点を指摘する説明図であり、車両周辺監視装置1は図7で示す内容で警報を実施する。 The first alarm in STEP 22 and the re-alarm in the next STEP 23 will be described with reference to FIGS. Note that FIG. 6 is an explanatory diagram that points out a problem when the re-alarm is not performed, and the vehicle periphery monitoring device 1 performs the alarm with the contents shown in FIG.
図6及び図7において横軸は、車両10の前方に存在する人又は動物の存在位置をそれらが車両10に接触するまでの経過時間(TTC:Time-To-Collision)に換算した値で示している。なお、TTCは本発明の「接触予想時間」に相当する。各地点のTTCは、各車両10が該地点を通過してから現在までの経過時間を正として表すので、車両10の前方の地点のTTCは負となる。TTCが、絶対値の大きい負の数であるほど、車両10より前方の遠方地点となる。 6 and FIG. 7, the horizontal axis indicates the position of a person or animal existing in front of the vehicle 10 as a value converted to an elapsed time (TTC: Time-To-Collision) until they contact the vehicle 10. ing. TTC corresponds to the “estimated contact time” of the present invention. Since the TTC at each point represents the elapsed time from when each vehicle 10 passes the point to the present as positive, the TTC at the point ahead of the vehicle 10 is negative. The more the TTC is a negative number having a larger absolute value, the farther away the vehicle 10 is.
図6の警報処理は動物に対する再警報を実施しないのに対し、図7の警報処理は動物に対する再警報を実施する。図6及び図7の警報処理は、人に対しては同一の内容になっている。また、図6における動物に対する警報処理は、図7における動物に対する警報処理のうち、最初の警報処理に相当するものとなっている。図6及び図7の共通の警報処理について先に説明してから、図7の再警報について説明する。 The alarm process of FIG. 6 does not perform a re-alarm for the animal, whereas the alarm process of FIG. 7 performs a re-alarm for the animal. The alarm processing in FIGS. 6 and 7 has the same content for a person. Further, the alarm process for the animal in FIG. 6 corresponds to the first alarm process in the alarm process for the animal in FIG. The common alarm process in FIGS. 6 and 7 will be described first, and then the re-alarm in FIG. 7 will be described.
車両周辺監視装置1は、動物42については、図5で説明したように、赤外線カメラ2による赤外線画像により認識されしだい、警告音及び警告表示の両方の警報を実施する。動物42が、車両10の走行に伴い、左境界線53と右境界線54との間の範囲へZ軸方向へ侵入してくるときの警告音出力及び警告表示の実施開始はTTC=−T1の時点となる。TTC=−T1(T1は正の数)は、動物42が車両10よりまだ十分に遠方に存在するときの値となっている。T1は例えば10〜20秒の範囲であり、TTC=−T1に相当するZ軸方向位置はZ軸方向へ車両10より識別限界設計値(おおよそ150〜300m)だけ前方に相当する。 As described with reference to FIG. 5, the vehicle periphery monitoring device 1 performs both warning sound and warning display alarms as soon as the animal 42 is recognized by the infrared image from the infrared camera 2. When the animal 42 enters the range between the left boundary line 53 and the right boundary line 54 in the Z-axis direction as the vehicle 10 travels, the warning sound output and the warning display start are performed as TTC = −T1. It will be the point of time. TTC = −T1 (T1 is a positive number) is a value when the animal 42 is still sufficiently far away from the vehicle 10. T1 is, for example, in the range of 10 to 20 seconds, and the Z-axis direction position corresponding to TTC = −T1 corresponds to the front of the vehicle 10 by an identification limit design value (approximately 150 to 300 m) in the Z-axis direction.
車両周辺監視装置1は、動物42についての警告表示として、TTC=−T1の時点で、画面7aとして表示するグレースケール画像70内の動物画像部分71に黄色の包囲枠72を付ける。 The vehicle periphery monitoring device 1 attaches a yellow surrounding frame 72 to the animal image portion 71 in the grayscale image 70 displayed as the screen 7a at the time of TTC = −T1 as a warning display for the animal 42.
車両周辺監視装置1は、動物42についての警告表示を、動物42が左境界線53及び右境界線54の内側の範囲に留まる限り、TTC=−T1の時点以降も継続する。 The vehicle periphery monitoring device 1 continues the warning display for the animal 42 as long as the animal 42 remains in the range inside the left boundary line 53 and the right boundary line 54 after the time point TTC = −T1.
車両周辺監視装置1は、動物42についての警告音による警報では、TTC=−T1の時点で、スピーカ6から例えば2回、警告音を出力して、終了する The vehicle periphery monitoring device 1 outputs a warning sound from the speaker 6 twice, for example, at the time of TTC = −T1 in the warning by the warning sound for the animal 42 and ends.
車両周辺監視装置1による人41についての警告表示は、TTC=−T2(=−5秒)の時点で、接近判定領域61、左侵入判定領域62及び右侵入判定領域63に存在している人41、又は左境界線53及び右境界線54の内側の領域に侵入した人41について行われる。TTC=−T2は、車両10の通常の走行速度で人41が車両10のZ軸方向へ80m前方の地点に存在するときに相当する。人41についての警告表示の具体的な内容は、動物42についての警告表示と同一であり、グレースケール画像70において人画像部分74を黄色の包囲枠75で囲うものである。人41についての警告表示は、TTC=−T2の時点以降も継続する。 The warning display about the person 41 by the vehicle periphery monitoring device 1 is a person who exists in the approach determination area 61, the left intrusion determination area 62, and the right intrusion determination area 63 at the time of TTC = −T2 (= −5 seconds). 41 or a person 41 who has entered a region inside the left boundary line 53 and the right boundary line 54. TTC = −T2 corresponds to the case where the person 41 is present at a point 80 m ahead in the Z-axis direction of the vehicle 10 at the normal traveling speed of the vehicle 10. The specific content of the warning display for the person 41 is the same as the warning display for the animal 42, and the person image portion 74 is surrounded by a yellow surrounding frame 75 in the grayscale image 70. The warning display for the person 41 continues after TTC = −T2.
車両周辺監視装置1による人41についての警告音出力は、TTC=−T2の時点に人41が接近判定領域61に存在するとき、又はTTC=−T2の時点以降に人41が侵入した時に実施される。車両周辺監視装置1は、人41についての警告音出力として、動物42についての警告音出力のときと同様に、警告音をスピーカ6から2回、出力して、終了する。 The warning sound output for the person 41 by the vehicle periphery monitoring device 1 is performed when the person 41 exists in the approach determination area 61 at the time of TTC = −T2 or when the person 41 enters after the time of TTC = −T2. Is done. The vehicle periphery monitoring apparatus 1 outputs the warning sound twice from the speaker 6 as the warning sound output for the animal 42 as the warning sound output for the person 41, and ends.
もし、図6のように、動物42についての警告音出力を動物42の検出開始時に限定して行うと、その後も、警告表示は継続されるものの、運転者は、動物42に対する接触回避操作を後回しにすることがあり得る。 If the warning sound output for the animal 42 is limited to the time when the detection of the animal 42 is started as shown in FIG. 6, the driver continues the touch avoidance operation for the animal 42, although the warning display continues thereafter. It can be postponed.
なお、車両周辺監視装置1は、人41についての警告音も、人41が接近判定領域61に侵入した時に出力して、終了するが、人41についての警告音出力は車両10が人41に比較的接近してからであるので、運転者は直ちに警報対象の人41を肉眼で認知する。したがって、運転者は人41に対する注意は警告音開始から継続する。 The vehicle periphery monitoring device 1 outputs a warning sound for the person 41 when the person 41 enters the approach determination area 61 and ends, but the warning sound output for the person 41 is output from the vehicle 10 to the person 41. Since it is relatively close, the driver immediately recognizes the person 41 to be alarmed with the naked eye. Therefore, the driver continues to pay attention to the person 41 from the start of the warning sound.
車両周辺監視装置1は、図6の警報処理におけるこのような問題点に対処して、動物42についての警報を再実施する。その再警報の内容は図7に示すとおりである。 The vehicle periphery monitoring apparatus 1 copes with such a problem in the alarm processing of FIG. 6 and re-executes the alarm for the animal 42. The contents of the re-alarm are as shown in FIG.
すなわち、図7の警報処理では、車両周辺監視装置1は、TTC=−T1の時点から所定時間が経過した時点、又はTTC=−T1の時点から車両10が所定距離を走行した時点としてのTTC=−T3(T1>T3>T2)の時点で、充足判断手段23が、車両10の運転者が人41に対する接触回避操作を実施済みか否かの判定Aを行う。なお、該判定Aの条件は本発明の「所定条件」に相当する。 That is, in the alarm processing of FIG. 7, the vehicle periphery monitoring device 1 determines the TTC as a time when a predetermined time has elapsed from the time TTC = −T1 or a time when the vehicle 10 has traveled a predetermined distance from the time TTT = −T1. At the time of == T3 (T1> T3> T2), the sufficiency determination unit 23 determines whether the driver of the vehicle 10 has already performed the contact avoidance operation on the person 41. The condition of the determination A corresponds to the “predetermined condition” of the present invention.
運転者による人41に対する接触回避操作は、主なものとして例えばブレーキペダルの踏み込み、アクセルペダルの踏み込み力の緩め、又はステアリングホィールの回転操作等であり、動物42との接触を回避させようとする運転者による一切の運転操作を含む。画像処理ユニット8は、運転者によるブレーキペダルの踏み込みの有無はブレーキセンサ5の出力に基づいて検出することができ、運転者によるステアリングホィールの回転操作の有無はヨーレートセンサ3の出力に基づいて検出するができ、また、接触回避操作に伴う車両10の減速及び再加速は車速センサ4の出力に基づいて検出することができる。 The contact avoidance operation for the person 41 by the driver is, for example, depression of the brake pedal, relaxation of the depression force of the accelerator pedal, or rotation operation of the steering wheel, etc., and attempts to avoid contact with the animal 42. Includes all driving operations by the driver. The image processing unit 8 can detect whether the driver depresses the brake pedal based on the output of the brake sensor 5, and detects whether the driver rotates the steering wheel based on the output of the yaw rate sensor 3. In addition, the deceleration and reacceleration of the vehicle 10 accompanying the contact avoiding operation can be detected based on the output of the vehicle speed sensor 4.
制御手段24は、充足判断手段23による判定Aの結果が正(充足)であれば、TTC=−T3の時点以降も、グレースケール画像70において動物画像部分71の包囲枠72を点灯する。 If the result of determination A by the satisfaction determination unit 23 is positive (satisfaction), the control unit 24 turns on the surrounding frame 72 of the animal image portion 71 in the grayscale image 70 even after the time TTC = −T3.
制御手段24は、充足判断手段23による判定Aの結果が否(非充足)であれば、TTC=−T3の時点で、再警報として、警告音出力を再実施したり、グレースケール画像70における動物画像部分71の包囲枠72を点灯から点滅表示へ切り替える。 If the result of determination A by the satisfaction determination unit 23 is negative (unsatisfied), the control unit 24 re-executes a warning sound output as a re-alarm at the time of TTC = −T3, or in the grayscale image 70. The surrounding frame 72 of the animal image portion 71 is switched from lighting to blinking display.
再警報は、TTC=−T1の時点での最初の警報よりも強めて、運転者に有効に認識されるようにする。警告音の再出力を強める仕方としては、(a)警告音の出力回数の増大(図7では4回になっている。)、(b)音量の増大、又は(c)最初の警告音は単なるブザー音とするのに対し、再警告音は着メロ(登録商標)等の特殊音にすることが挙げられる。 The re-alarm is stronger than the first alarm at the time of TTC = −T1 so that the driver can effectively recognize the alarm. As a method for strengthening the re-output of the warning sound, (a) the number of times of output of the warning sound is increased (four times in FIG. 7), (b) the volume is increased, or (c) the first warning sound is In contrast to a simple buzzer sound, the re-warning sound may be a special sound such as ringtone (registered trademark).
警告表示を強める仕方としては、動物画像部分71を囲っている包囲枠72を点灯から点滅78に切り替えることの他に、グレースケール画像70の全体を表示と非表示とに交互に切替えるのも効果的である。 As a way to strengthen the warning display, in addition to switching the surrounding frame 72 surrounding the animal image portion 71 from lighting to flashing 78, it is also effective to switch the entire gray scale image 70 alternately between display and non-display. Is.
注意喚起手段22は、再警報を、最初の警報とは異なる喚起方式で実施してもよい。異なる喚起方式としては、例えば、運転座席を適当に振動させることや、運転者の顔や胸元に向けて、一瞬、光を照射することが挙げられる。 The alerting means 22 may perform the re-alarm by a different alerting method from the initial alarm. As different arousal methods, for example, the driver's seat can be vibrated appropriately, or light can be emitted for a moment toward the driver's face and chest.
なお、充足判断手段23が判定Aについて正の結論を出したことは、制御手段24が警告音の再警報の実施の中止を決定したことを意味する(後述のSTEP26に相当)。また、図7では、判定Aが否であるときの再警報として、警告音出力の再実施及び点滅78の両方が行われているが、警告音出力の再実施のみとして、点滅78は省略して、包囲枠72は点灯のまま、すなわち再警告表示は不実施とすることもできる。 Note that the satisfaction determination means 23 having made a positive conclusion with respect to the determination A means that the control means 24 has decided to stop the re-warning of the warning sound (corresponding to STEP 26 described later). In FIG. 7, both the re-execution of warning sound output and the flashing 78 are performed as re-alarm when the determination A is negative, but the flashing 78 is omitted only for re-execution of warning sound output. Thus, the surrounding frame 72 may remain lit, that is, the re-warning display may not be performed.
図4に戻って、STEP23〜STEP25,STEP31の処理は図7の判定Aの処理に相当する。STEP26の「再警報の中止決定」は、図7では、判定Aが正であるときの流れに相当する。STEP32の「再警報実施」は、図7では、判定Aが否であるときの流れに相当する。 Returning to FIG. 4, the processing of STEP23 to STEP25 and STEP31 corresponds to the processing of determination A in FIG. STEP 26 “re-alarm cancellation decision” corresponds to the flow when the determination A is positive in FIG. 7. “Re-alarm implementation” in STEP 32 corresponds to the flow when the determination A is negative in FIG.
STEP23では、充足判断手段23は、動物42についての再警報を実施済み又は再警報中止を決定済みであるかを判定し、判定が正であれば、処理を図3の処理手順へ戻す。充足判断手段23は、否の判定をすると、処理をSTEP24へ進める。なお、動物42についての再警報を実施済みとは、ROUTINE9の今回の実行開始前までに、後述のSTEP32を実施済みであること意味する。動物42についての再警報中止を決定済みとは、ROUTINE9の今回の実行開始前までに、後述のSTEP26を実施済みであることを意味する。 In STEP 23, the sufficiency determination means 23 determines whether the re-alarm for the animal 42 has been performed or the re-alarm stop has been determined. If the determination is positive, the process returns to the processing procedure of FIG. If the sufficiency determining means 23 determines NO, the sufficiency determining means 23 advances the process to STEP 24. The completion of the re-alarm for the animal 42 means that STEP 32 described later has been performed before the start of the current execution of ROUTINE9. The decision to stop the re-alarm for the animal 42 means that STEP 26 described later has been executed before the start of the current execution of ROUTINE9.
STEP24では、充足判断手段23は、運転者による動物42に対する接触回避操作の有無について判断し、接触回避操作有りと判断すれば、処理をSTEP25へ進め、無しと判断すれば、処理をSTEP31へ進める。 In STEP 24, the sufficiency determination means 23 determines whether or not the driver has made a contact avoidance operation on the animal 42. If it is determined that there is a contact avoidance operation, the process proceeds to STEP 25. If it is determined that there is no contact avoidance operation, the process proceeds to STEP 31. .
STEP25では、充足判断手段23は、現在時刻又は現在地が最初の警報(最初の警報についてはSTEP30で後述)から所定時間内又は所定走行距離内であるか否かを判定し、判定が正であれば、処理をSTEP26へ進め、否であれば、処理をとSTEP32へ進める。 In STEP 25, the sufficiency determination means 23 determines whether the current time or the current location is within a predetermined time or a predetermined distance from the first alarm (the first alarm will be described later in STEP 30), and the determination is positive. If the answer is NO, the process proceeds to STEP 32.
STEP26では、制御手段24は、再警報の中止を決定する。その後、制御手段24は処理を図3の処理手順に戻す。 In STEP 26, the control means 24 determines to cancel the re-alarm. Thereafter, the control means 24 returns the processing to the processing procedure of FIG.
STEP30では、注意喚起手段22は最初の警報を実施する。該最初の警報は、図7では、TTC=−T1の時点での警報に相当する。その後、注意喚起手段22は処理を図3の処理手順に戻す。 In STEP 30, the alerting means 22 performs the first alarm. The first alarm corresponds to the alarm at the time of TTC = −T1 in FIG. Thereafter, the alerting means 22 returns the processing to the processing procedure of FIG.
STEP31では、STEP25と同様に、充足判断手段23は、現在時刻又は現在地が最初の警報(警告音出力)から所定時間内又は所定走行距離内であるか否かを判定する。そして、充足判断手段23は、判定が否であれば、処理手順をSTEP32へ進め、判定が正であれば、処理を図3の処理手順に戻す。 In STEP 31, as in STEP 25, the sufficiency determination means 23 determines whether the current time or current location is within a predetermined time or within a predetermined travel distance from the first alarm (warning sound output). If the determination is negative, the sufficiency determination means 23 advances the processing procedure to STEP 32, and if the determination is positive, returns the processing to the processing procedure of FIG.
STEP32では、制御手段24は、警告音及び警告表示の再警報を実施する。該再警報の具体例は、図7においてTTC=−T3の時点で実施される警告音の再出力や包囲枠72の点滅78である。 In STEP 32, the control means 24 performs a re-alarm of a warning sound and a warning display. Specific examples of the re-alarm are the re-output of the warning sound and the blinking 78 of the surrounding frame 72 performed at the time of TTC = −T3 in FIG.
STEP36では、注意喚起手段22は、人41が接近判定領域61、左侵入判定領域62又は右侵入判定領域63に存在するか否かを判定し、判定が正であれば、処理をSTEP37に進め、判定が否であれば、処理を図3の処理手順に戻す。 In STEP 36, the alerting means 22 determines whether or not the person 41 exists in the approach determination area 61, the left intrusion determination area 62, or the right intrusion determination area 63. If the determination is positive, the process proceeds to STEP 37. If the determination is negative, the processing returns to the processing procedure of FIG.
STEP37では、注意喚起手段22は、人41の存在位置に応じた警報を開始又は継続する。具体的には、図6及び図7で説明したように、人41が接近判定領域61にいるときは、警告音及び警告表示の両方を実施し、人41が左侵入判定領域62及び右侵入判定領域63にいるときは、警告表示のみを実施する。 In STEP 37, the alerting means 22 starts or continues an alarm according to the location of the person 41. Specifically, as described with reference to FIGS. 6 and 7, when the person 41 is in the approach determination area 61, both the warning sound and the warning display are performed, and the person 41 enters the left intrusion determination area 62 and the right intrusion. When in the determination area 63, only warning display is performed.
以上、本発明を実施形態について説明したが、本発明は、その要旨の範囲内で種々に変形して実施することができる。例えば、実施形態では、本発明の「第1対象物」及び「第2対象物」はそれぞれ動物42及び人41となっているが、動物又は人を2種類に分けて(例:大きさ未確認動物と大きさ確認動物、又は大人と幼児等)、「第1対象物」を第1種類の動物又は人とし、「第2対象物」を第2種類の動物又は人とすることもできる。 As mentioned above, although this invention was demonstrated about embodiment, this invention can be variously deformed and implemented within the scope of the gist. For example, in the embodiment, the “first object” and the “second object” of the present invention are the animal 42 and the person 41, respectively, but the animal or person is divided into two types (eg, unconfirmed size). An animal and a size-checking animal, or an adult and an infant), the “first object” may be a first type of animal or person, and the “second object” may be a second type of animal or person.
実施形態では、撮像手段として赤外線カメラ2の撮像画像から対象物画像部分を抽出しているが、赤外線カメラ2の撮像画像に代えて、可視光カメラの撮像画像から対象物画像部分の抽出処理を行うこともできる。 In the embodiment, the object image portion is extracted from the captured image of the infrared camera 2 as the imaging means. However, instead of the captured image of the infrared camera 2, the extraction process of the object image portion is performed from the captured image of the visible light camera. It can also be done.
例えば、実施形態では、運転者が動物42の存在に気付いたことを、運転者が車両10の減速等の運転操作を行ったか否かに基づいて判断しているが、これに代えて、運転者の視線を検知するカメラを配備し、最初の警報に対して、運転者が視線を動物42の方へ向けたならば、運転者が動物42の存在に気付いたと判断することもできる。 For example, in the embodiment, the driver recognizes that the animal 42 is present based on whether the driver has performed a driving operation such as deceleration of the vehicle 10. It is also possible to determine that the driver has noticed the presence of the animal 42 if a camera that detects the driver's line of sight is deployed and the driver directs the line of sight toward the animal 42 in response to the first alarm.
実施形態では、警告表示を画面7aのグレースケール画像70において行っているが、計器盤の速度計近辺に簡易表示器を設け、動物42が検知されしだい、該簡易表示器に動物42のアイコンを表示する警告表示方式とすることもできる。 In the embodiment, the warning is displayed in the grayscale image 70 on the screen 7a. However, a simple display is provided near the speedometer on the instrument panel, and the animal 42 is displayed on the simple display as soon as the animal 42 is detected. A warning display method can also be used.
1・・・車両周辺監視装置、2・・・赤外線カメラ(撮像手段)、10・・・車両、21・・・画像判断手段、22・・・注意喚起手段、23・・・充足判断手段、24・・・制御手段、41・・・人(第2対象物)、42・・・動物(第1対象物)、70・・・グレースケール画像(撮像画像)、71・・・動物画像部分、72・・・包囲枠、74・・・人画像部分、78・・・点滅。 DESCRIPTION OF SYMBOLS 1 ... Vehicle periphery monitoring apparatus, 2 ... Infrared camera (imaging means), 10 ... Vehicle, 21 ... Image judgment means, 22 ... Attention alert means, 23 ... Satisfaction judgment means, 24 ... control means, 41 ... person (second object), 42 ... animal (first object), 70 ... grayscale image (captured image), 71 ... animal image part 72... Surrounding frame, 74... Human image portion, 78.
Claims (3)
撮像画像に動物画像部分及び人画像部分が含まれているか否かを判断する画像判断手段と、
前記画像判断手段の判断に基づいて動物を検知しだい運転者への注意喚起を実施し、前記画像判断手段の判断に基づいて人が検知されたときは、該人の位置を算出し、算出した人の位置が、車両から所定距離前方に設定された遠方側境界線から手前の車両前方領域として設定される人警告領域にあるか否かに基づいて運転者への注意喚起を実施する注意喚起手段と、
前記注意喚起手段による動物についての運転者への1回目の注意喚起開始後、所定時間以内又は所定走行距離以内に運転者が動物の存在に気付いたことを所定条件として該所定条件の充足を判断する充足判断手段と、
前記充足判断手段が前記所定条件を充足していないと判断したときには、前記注意喚起手段に2回目の注意喚起を実施させる制御手段とを備え、
前記2回目の注意喚起は、前記1回目の注意喚起の対象になった動物の位置が前記遠方側境界線に達する前に、実施されるように、前記所定時間又は前記所定走行距離が設定されていることを特徴とする車両周辺監視装置。 A vehicle periphery monitoring device that carries out alerts to a driver based on an image captured by an imaging means mounted on a vehicle,
Image determination means for determining whether the captured image includes an animal image portion and a human image portion;
The driver is alerted as soon as an animal is detected based on the determination of the image determination means, and when a person is detected based on the determination of the image determination means , the position of the person is calculated and calculated. A reminder that alerts the driver based on whether or not the person's position is in a person warning area set as a vehicle front area in front of the far side boundary line set a predetermined distance ahead of the vehicle Means,
Satisfaction of the predetermined condition is determined based on a predetermined condition that the driver notices the presence of the animal within a predetermined time or within a predetermined mileage after the first warning to the driver about the animal by the warning means. A satisfaction determination means to
When it is determined that the satisfaction determination means does not satisfy the predetermined condition, the satisfaction determination means comprises a control means for causing the attention calling means to perform a second warning ,
The predetermined time or the predetermined travel distance is set so that the second alerting is performed before the position of the animal targeted for the first alerting reaches the far boundary line. The vehicle periphery monitoring apparatus characterized by the above-mentioned.
前記注意喚起手段は、前記2回目の注意喚起を、前記1回目の注意喚起とは同一の喚起方式でかつ強めたものとするか、又は異なる喚起方式で行うことを特徴とする車両周辺監視装置。 The vehicle periphery monitoring device according to claim 1,
The vehicle perimeter monitoring device characterized in that the alerting means performs the second alerting in the same alerting method as the first alerting and is strengthened or in a different alerting method. .
前記充足判断手段は、前記注意喚起手段による動物についての運転者への前記1回目の注意喚起開始後、前記所定時間以内又は前記所定走行距離以内に運転者が接触回避の運転操作を行ったときは、前記所定条件が充足したと判断することを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 1 or 2,
The sufficiency determining means, wherein after the first alert initiation to the driver for animals by alerting means, when the driver within or within the predetermined travel distance the predetermined time has performed a driving operation of the contact avoidance Determines that the predetermined condition is satisfied, the vehicle periphery monitoring device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012143541A JP5903003B2 (en) | 2012-06-26 | 2012-06-26 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012143541A JP5903003B2 (en) | 2012-06-26 | 2012-06-26 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014006821A JP2014006821A (en) | 2014-01-16 |
JP5903003B2 true JP5903003B2 (en) | 2016-04-13 |
Family
ID=50104455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012143541A Active JP5903003B2 (en) | 2012-06-26 | 2012-06-26 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5903003B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6664622B2 (en) * | 2018-08-31 | 2020-03-13 | 日本道路株式会社 | Anti-collision system for industrial vehicles |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08313632A (en) * | 1995-05-19 | 1996-11-29 | Omron Corp | Alarm generator, alarm generating method and vehicle mounting alarm generator |
JP4918389B2 (en) * | 2007-03-30 | 2012-04-18 | 本田技研工業株式会社 | Vehicle travel safety device |
US9321399B2 (en) * | 2010-03-01 | 2016-04-26 | Honda Motor Co., Ltd. | Surrounding area monitoring device for vehicle |
-
2012
- 2012-06-26 JP JP2012143541A patent/JP5903003B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014006821A (en) | 2014-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5639283B2 (en) | Vehicle periphery monitoring device | |
EP2352136B1 (en) | System for monitoring the area around a vehicle | |
JP5639282B2 (en) | Vehicle periphery monitoring device | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP5198346B2 (en) | Vehicle periphery monitoring device | |
JP5706874B2 (en) | Vehicle periphery monitoring device | |
JP5577398B2 (en) | Vehicle periphery monitoring device | |
JP4456086B2 (en) | Vehicle periphery monitoring device | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP5480925B2 (en) | Vehicle periphery monitoring device | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
JP2010097541A (en) | Vehicular periphery monitoring apparatus | |
JP5898001B2 (en) | Vehicle periphery monitoring device | |
JP4872245B2 (en) | Pedestrian recognition device | |
JP2010026601A (en) | Vehicle periphery monitoring device | |
JP5192007B2 (en) | Vehicle periphery monitoring device | |
JP5345992B2 (en) | Vehicle periphery monitoring device | |
JP5172482B2 (en) | Vehicle periphery monitoring device | |
JP5903003B2 (en) | Vehicle periphery monitoring device | |
JP4615061B2 (en) | Vehicle periphery monitoring device | |
JP2012053663A (en) | Object kind determination device | |
JP5430633B2 (en) | Vehicle periphery monitoring device | |
JP5026398B2 (en) | Vehicle periphery monitoring device | |
JP2010113550A (en) | Environment recognition apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5903003 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |