JP3716647B2 - Safety promotion device for automobile - Google Patents
Safety promotion device for automobile Download PDFInfo
- Publication number
- JP3716647B2 JP3716647B2 JP32089498A JP32089498A JP3716647B2 JP 3716647 B2 JP3716647 B2 JP 3716647B2 JP 32089498 A JP32089498 A JP 32089498A JP 32089498 A JP32089498 A JP 32089498A JP 3716647 B2 JP3716647 B2 JP 3716647B2
- Authority
- JP
- Japan
- Prior art keywords
- safety
- driver
- environment
- traveling environment
- confirmation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、自動車の運転者に安全確認のための注意を喚起する自動車用の安全促進装置に関するものである。
【0002】
【従来の技術】
従来の自動車用の安全促進装置としては、例えば特開平7−108850号公報に記載されているものがある。この安全促進装置は、道路上に障害物等を検出したときに該障害物等から自車両までの距離を求め、その距離と自車速との関係から通常のブレーキによる停車、警報を伴う停車、自動ブレーキによる停車と3段階の停車手段を備えており、警報又は自動ブレーキによる停車後には、再発進時に、運転者に安全確認を促す警報を発するようになっている。
【0003】
【発明が解決しようとする課題】
しかしながら、この従来の安全促進装置では、障害物等の検出による停車後の再発進時にのみ警報を発するため、ごく限られた場面でしか安全確認のための注意を喚起することができず、通常走行時における安全確認が必要な走行環境では安全保持を促すことができないという問題がある。しかも、運転者の安全確認の有無に係わらず警報が発せられるため、運転者が安全確認を行った場合には煩わしいという問題点もある。
【0004】
そこで、本発明では、安全確認が必要な走行環境において運転者が安全確認を怠った場合に、運転者に安全保持を促すことができる自動車用の安全促進装置を提供することを課題としている。
【0005】
【課題を解決するための手段】
請求項1の発明は、自動車の運転者の顔画像を入力する画像入力手段と、該画像入力手段が入力した顔画像を画像処理して顔の特徴量を検出し記憶する特徴量検出手段と、自車両の走行環境を検出する走行環境検出手段と、該走行環境検出手段の検出データに基づいて自車両の走行環境が安全確認を必要とする環境か否かを判定する走行環境判定手段と、該走行環境判定手段が安全確認を必要とする走行環境であると判定した場合に、前記特徴量検出手段の検出データに基づいて運転者の安全確認の有無を判定する安全確認判定手段と、該安全確認判定手段による安全確認を怠ったとの判定に基づいて運転者に安全保持を促す安全促進手段とを備え、前記走行環境検出手段は、自車両の操舵角変化と方向指示器の作動によって自車両の進路変更とを検出し、前記走行環境判定手段は、方向指示器が作動した場合を安全確認が必要な走行環境と判定し、前記安全確認判定手段は、方向指示器の作動開始時から操舵角が変化するまでの間に運転者が安全確認を怠ったと判定した場合、運転者に安全保持を促すよう前記安全促進手段に指示することを特徴としている。
【0008】
請求項2の発明は、自動車の運転者の顔画像を入力する画像入力手段と、該画像入力手段が入力した顔画像を画像処理して顔の特徴量を検出し記憶する特徴量検出手段と、自車両の走行環境を検出する走行環境検出手段と、該走行環境検出手段の検出データに基づいて自車両の走行環境が安全確認を必要とする環境か否かを判定する走行環境判定手段と、該走行環境判定手段が安全確認を必要とする走行環境であると判定した場合に、前記特徴量検出手段の検出データに基づいて運転者の安全確認の有無を判定する安全確認判定手段と、該安全確認判定手段による安全確認を怠ったとの判定に基づいて運転者に安全保持を促す安全促進手段とを備え、前記走行環境検出手段は、ブレーキペダルの踏み込みの有無とトランスミッションのギヤ位置がリバース位置か否かを検出し、前記走行環境判定手段は、前記リバース位置にある場合を安全確認が必要な走行環境と判定し、前記安全確認判定手段は、トランスミッションのギヤ位置がリバース位置になった時点からブレーキペダルの踏み込み無しが検出されるまでの間に運転者が安全確認を怠ったと判定した場合、運転者に安全保持を促すよう前記安全促進手段に指示することを特徴としている。
【0009】
請求項3の発明は、自動車の運転者の顔画像を入力する画像入力手段と、該画像入力手段が入力した顔画像を画像処理して顔の特徴量を検出し記憶する特徴量検出手段と、自車両の走行環境を検出する走行環境検出手段と、該走行環境検出手段の検出データに基づいて自車両の走行環境が安全確認を必要とする環境か否かを判定する走行環境判定手段と、該走行環境判定手段が安全確認を必要とする走行環境であると判定した場合に、前記特徴量検出手段の検出データに基づいて運転者の安全確認の有無を判定する安全確認判定手段と、該安全確認判定手段による安全確認を怠ったとの判定に基づいて運転者に安全保持を促す安全促進手段とを備え、前記走行環境検出手段は、アクセルペダルの踏み込みの有無とトランスミッションのギヤ位置がリバース位置か否かを検出し、前記走行環境判定手段は、前記リバース位置にある場合を安全確認が必要な走行環境と判定し、前記安全確認判定手段は、トランスミッションのギヤ位置がリバース位置になった時点からアクセルペダルの踏み込み有りが検出されるまでの間に運転者が安全確認を怠ったと判定した場合、運転者に安全保持を促すよう前記安全促進手段に指示することを特徴としている。
【0019】
【発明の効果】
請求項1の発明では、画像入力手段は、自動車の運転者の顔画像を入力し、特徴量検出手段は、画像入力手段が入力した顔画像を画像処理し顔の特徴量を検出して記憶し、走行環境検出手段は、自車両の走行環境を検出し、走行環境判定手段は、走行環境検出手段の検出データに基づいて自動車の走行環境が安全確認を必要とする環境か否かを判定し、安全確認判定手段は、走行環境判定手段が安全確認を必要とする走行環境であると判定した場合に、特徴量検出手段の検出データに基づいて運転者の安全確認の有無を判定し、安全促進手段は、安全確認判定手段による安全確認を怠ったとの判定に基づいて運転者に安全保持を促すので、安全確認が必要な走行環境において運転者が安全確認を怠った場合には運転者に安全保持を促すことができる。
【0020】
また、請求項1の発明では、走行環境検出手段は、方向指示器の作動によって自車両の進路変更を検出し、走行環境判定手段は、方向指示器が作動した場合を安全確認が必要な走行環境と判定するので、方向指示器が作動した場合には、安全確認判定手段が運転者の安全確認の有無を判定し、運転者が安全確認を怠ると安全促進手段が運転者に安全保持を促すことができ、従って、方向指示器を作動させて車線変更,追い越し又は交差点での右左折等の進路変更を行う際の事故を未然に防止することができる。
【0021】
また、請求項1の発明では、走行環境検出手段は、自車両の操舵角変化を検出し、安全確認判定手段は、方向指示器の作動開始時から操舵角が変化するまでの間に、運転者の安全確認の有無を判定するので、運転者が方向指示器を作動させて車線変更等の進路変更を行う際に、運転者が方向指示器を作動させてからハンドルを切るまでに安全確認を怠ると、運転者がハンドルを切り始めた直後に安全確認判定手段の指示で安全促進手段が運転者に安全保持を促すことができ、従って、車線変更等の進路変更時の事故を確実に防止することができる。
【0028】
請求項2の発明では、走行環境検出手段は、トランスミッションのギヤ位置がリバース位置か否かを検出し、走行環境判定手段は、リバース位置にある場合を安全確認が必要な走行環境と判定するので、自動車を後退させる場合には、安全確認判定手段が運転者の安全確認の有無を判定し、運転者が安全確認を怠ると安全促進手段が運転者に安全保持を促すことができ、従って、車両後退時の事故を未然に防止することができる。
【0029】
また、請求項2の発明では、走行環境検出手段は、ブレーキペダルの踏み込みの有無を検出し、安全確認判定手段は、トランスミッションのギヤ位置がリバース位置になった時点からブレーキペダルの踏み込み無しが検出されるまでの間に、運転者が安全確認を怠ったと判定した場合には、運転者に安全保持を促すよう前記安全促進手段に指示するので、自動車を後退させる時に運転者が安全確認を怠った場合には、安全確認判定手段の指示によりフットブレーキの作動解除直後に安全促進手段が運転者に安全保持を促して、車両後退時の事故を確実に防止することができる。
【0030】
請求項3の発明では、走行環境検出手段は、トランスミッションのギヤ位置がリバース位置か否かを検出し、走行環境判定手段は、リバース位置にある場合を安全確認が必要な走行環境と判定するので、自動車を後退させる場合には、安全確認判定手段が運転者の安全確認の有無を判定し、運転者が安全確認を怠ると安全促進手段が運転者に安全保持を促すことができ、従って、車両後退時の事故を未然に防止することができる。また、請求項5の発明では、走行環境検出手段は、アクセルペダルの踏み込みの有無を検出し、安全確認判定手段は、トランスミッションのギヤ位置がリバース位置になった時点からアクセルペダルの踏み込み有りが検出されるまでの間に、運転者が安全確認を怠ったと判定した場合には、運転者に安全保持を促すよう前記安全促進手段に指示するので、自動車を後退させる時に運転者が安全確認を怠った場合には、安全確認判定手段の指示によりアクセルペダルの踏み込み開始直後に安全促進手段が運転者に安全保持を促して、車両後退時の事故を確実に防止することができる。
【0034】
【発明の実施の形態】
図1は、本発明の一実施形態を示す機能ブロック図である。図1に示すように、この安全促進装置は、画像入力手段CL1,顔の特徴量検出手段CL2,走行環境検出手段CL3,走行環境判定手段CL4,安全確認判定手段CL5及び安全促進手段CL6を備えている。
【0035】
画像入力手段CL1は、自動車の運転者の顔画像を入力する。特徴量検出手段CL2は、画像入力手段CL1が入力した顔画像を画像処理して顔の特徴量を検出する。走行環境検出手段CL3は、自車両の走行環境を検出する。走行環境判定手段CL4は、走行環境検出手段CL3の検出データに基づいて自車両の走行環境が安全確認を必要とする環境か否かを判定する。
【0036】
安全確認判定手段CL5は、走行環境判定手段CL4が安全確認を必要とする走行環境であると判定した場合に、特徴量検出手段CL2の検出データに基づいて運転者の安全確認の有無を判定する。安全促進手段CL6は、安全確認判定手段CL5による安全確認を怠ったとの判定に基づいて運転者に安全保持を促す。
【0037】
図2は、本発明の一実施形態の構成を示す構成ブロック図である。図2に示すように、本実施形態では、自動車のインストルメントパネルに、運転者の顔を正面から撮影する画像入力手段CL1としてのTVカメラ11が設けられている。このTVカメラ11で撮影された顔画像は、AD変換器12により画像データに変換される。この画像データは、画像メモリ13に格納され、画像メモリ13から画像データ演算回路14に出力される。
【0038】
画像データ演算回路14は、前記画像データから顔の縦方向の画素列における濃度の局所的な高まり毎に画素を定めて抽出点とし、隣接する抽出点を顔の横方向へ連続させた連続データに基づいて眼と眉の位置を特定する。特徴量認識回路15は、画像データ演算回路14が特定した眼と眉の位置を含む所定領域を設定し、その設定した所定領域内に存在する眼と眉のデータのデータ数をカウントして、運転者の顔の特徴量を認識する。
【0039】
従って、AD変換器12,画像メモリ13,画像データ演算回路14及び特徴量認識回路15は、顔の特徴量検出手段CL2を構成している。なお、運転者の顔画像の画像処理による顔の特徴量の認識に関しては追って詳述する。
【0040】
走行環境検出手段CL3としての走行環境検出回路21は、各種センサ等によって自車両の走行環境を検出する。判定回路22は、走行環境検出回路21から入力したデータに基づいて自車両の走行環境が左右の安全確認を必要とする環境であるか否かを判定し、安全確認を必要とする環境であると判定した場合には、顔の特徴量認識回路15から入力したデータに基づいて運転者の安全確認の有無を判定する。従って、判定回路22は、走行環境判定手段CL4と安全確認判定手段CL5とを構成している。なお、判定回路22による判定に関しては追って詳述する。
【0041】
安全促進手段CL6としての警報処理回路23は、音や光で運転者に警報を発する警報器を含み、運転者が安全確認を怠ったと判定回路22が判定した場合に、判定回路22からの指示によって運転者に警報を発する。
【0042】
ここで、運転者の顔画像の画像処理によって運転者の顔の特徴量を認識する方法について説明する。図3は、運転者の顔画像の画像処理を示すフローチャートであり、図4は、画素列の設定を示す説明図である。
【0043】
図3に示すように、ステップS110では、TVカメラ11によって撮影された運転者の顔画像がAD変換器12によって、各画素の濃度がデジタル値の画素像に変換される。ステップS120では、画像メモリ13に1フレームの画像に対応する画像データが蓄積される。
【0044】
ステップS130では、画像メモリ13に蓄積された膨大な画像データの中から顔の縦方向の画素列が図4に示すように選択される。すなわち、顔の縦(Y)方向の画素列が画面の中央部分に等間隔で数十列となるように、横(X)方向の10画素毎に一列の画素列が設定される。なお、横(X)方向には512列の画素列が設定され、1列の画素列は縦(Y)方向に480個の画素を有し、画素列毎に全画素の濃度値が演算処理される。
【0045】
ステップS140では、画素列ごとに濃度値を演算処理して抽出点となる画素(Y座標値)を特定する。ステップS150では、画素列ごとに求めた抽出点を横(X)方向に連結してグループ化する。ステップS160では、グループ化した連結データから不必要な連結データを除去し、最終的に必要な連結データについてだけ候補点データを形成する。ステップS170では、複数の候補点データの中から眼と眉の候補点データを選択して、眼と眉の位置を特定する。従って、ステップS130〜ステップS170は、図2中の画像データ演算回路14によって実行される。
【0046】
ステップS180では、眼と眉の位置を含む所定領域を設定し、その所定領域内に存在する眼と眉のデータのデータ数をカウントして、運転者の顔の特徴量を認識する。従って、ステップS180は、図2中の顔の特徴量認識回路15によって実行される。なお、ステップS140〜S180に関しては、以下に詳述する。
【0047】
図5は、ステップS140を示すフローチャートである。図6は、図4中の画素列Xaの濃度を示すグラフであって、(a)は相加平均濃度値を示し、(b)は相加平均濃度値の微分値を示している。図7は、図4中の画素列Xbの濃度を示すグラフであって、(a)は相加平均濃度値を示し、(b)は相加平均濃度値の微分値を示している。
【0048】
図5に示すように、ステップS141では、図4に示す画像データの左側から順番に、画素列ごとの全画素の濃度値を所定回数呼び出す。ステップS142では、画素列上の各画素の濃度値を相加平均して、画素列上の濃度値から高周波数成分(ノイズ)を除去した相加平均濃度値を求める。例えば、図4に示す画素列Xaからは図6(a)、画素列Xbからは図7(a)に示す相加平均濃度値が算出される。
【0049】
ステップS143では、相加平均濃度値を微分する。図6(a)に示す相加平均濃度値は、図6(b)に示す微分値となり、図7(a)に示す相加平均濃度値は、図7(b)に示す微分値となる。
【0050】
ステップS144では、先ず、ステップS143で算出した微分値から、相加平均濃度値の暗さのピークに対応するY座標値を求める。すなわち、微分値が負から正に反転するY座標値は、暗さのピークに対応して眉,眼,口等をそれぞれ代表する1個づつのY座標値となる。なお、微分値が正から負に反転するY座標値は、眉,眼等の中間位置に対応する明るさのピーク位置であるから採用しない。
【0051】
例えば、図6(a)に示す相加平均濃度値は(b)に示す微分値となり、微分値が負から正に反転するY座標値p1,p2,p3,p4,p5が抽出される。次に、ステップS144では、各Y座標値p1,p2,p3,p4,p5の手前の微分値のピーク値が所定のしきい値(破線)以下となるY座標値q1,q2,q3を抽出点として特定する。なお、手前の微分値のピーク値を判別することにより、顔面の皺や凹凸が抽出点となることを回避している。
【0052】
図7(a)に示す相加平均濃度値からは、(b)に示す微分値が負から正に反転するY座標値p1,p2,p3が抽出される。しかし、何れも手前の微分値のピーク値がしきい値(破線)以下とならず、抽出点が形成されない。
【0053】
ステップS145では、最後の画素列、すなわち、図4の右端の画素列であるか否かを判定する。最後の画素列であれば、全ての画素列で抽出点を特定済みであるから、ステップS150へ進む。最後の画素列でなければ、ステップS141へ戻って、次の画素列の濃度値データからの抽出点の特定を行う。
【0054】
このようにして特定した抽出点の分布を図8に示している。この図に示すように、画素列毎に0〜4個程度の抽出点A1,A2,A3,A4が特定される。例えば、画素列Xcでは抽出点A1,A2、画素列Xdでは抽出点A1,A2,A3,A4が特定される。
【0055】
図9は、図3中のステップS150を示すフローチャートである。図10(a)は、抽出点のグループ化を示すグラフである。ステップS150では、図10(a)に示すように、画素列毎に特定した抽出点をX方向へ連結してグループ化する。
【0056】
図9に示すように、ステップS151では、画素列の抽出点データを画素列の順番に呼び出す。ステップS152では、互いに隣接する画素列の抽出点についてY座標値を比較し、ステップS153では、互いに隣接する画素列で抽出点のY座標値の差が所定の範囲(本実施形態では10画素)内であるか否かを判定する。互いに隣接する画素列の抽出点のY座標値の差が10画素以下であれば、ステップS154へ進んで連結データが形成され、Y座標値の差が10画素を超えていれば、ステップS155へ進んで連結データは形成されない。
【0057】
ステップS154では、互いに隣接する画素列の抽出点から連結データを形成する。連結データは、発生したグループ毎に順番に付与されるグループ番号と、各グループの左端の抽出点が属する画素列の番号(X座標値に対応)とで分類されて、連結された抽出点の個数N(画素列数)とY座標値とがメモリに記憶され、画素列を処理する毎にメモリの記憶内容が書き換えられて形成される。
【0058】
ステップS155では、最後の画素列であるか否かを判定する。最後の画素列であれば、全ての画素列について抽出点データのグループ化が終了しているので、ステップS160へ進む。最後の画素列でなければ、ステップS151へ戻って、次の画素列の抽出点データのグループ化を行う。
【0059】
図11は、図3中のステップS160を示すフローチャートである。図10(b)は、抽出点のグループ化データから形成された候補点を示すグラフである。ステップS160では、不必要な連結データを除去し、最終的に必要な連結データについてだけ候補点データを形成する。
【0060】
図11に示すように、ステップS161では、メモリから連結データをグループ番号の順に1個づつ呼び出す。ステップS162では、連結データのデータ数Nを評価する。ステップS163では、連結データのデータ数Nが所定値(本実施形態では5)以上か否かを判定する。連結データのデータ数Nが所定値以上であれば、ステップS164へ進んで候補点データを形成する。連結データのデータ数Nが所定値未満であれば、例えば鼻の穴等と判定し、ステップS165へ進んで候補点データを形成しない。
【0061】
ステップS164では、各グループ毎に、連結データのY座標値の平均値と、連結データのX座標値の平均値(連結開始画素列番号と連結終了画素列番号との平均値)とからなる候補点データを形成する。例えば、図8に示す抽出点群からは、図10(a)に示すように、両方の眉及び眼,鼻の影,口にそれぞれ対応する抽出点のグループG1〜G6が残される。ただし、ここでは、残された6個のグループG1〜G6について左から右、上から下方向へ順番に番号を付け直している。従って、図10(a)に示す抽出点の各グループG1〜G6は、図10(b)に示す6個の候補点K1〜K6で代表される。
【0062】
ステップS165では、最後の連結データであるか否かを判定する。最後の連結データであれば、全ての連結データを評価済みであるから、ステップS170へ進む。最後の連結データでなければ、ステップS161へ戻って、次の連結データの評価を開始する。
【0063】
図3中のステップS170では、複数の候補点データの中から眼と眉の候補点データを選択して、眼と眉の位置を特定する。例えば、図10(b)に示す6個の候補点K1〜K6の場合、Y座標値の大きい(低い)候補点K5,K6を中心にして中央の検出ゾーンZCを設定する。検出ゾーンZCの外側には、Y座標値の小さい(高い)候補点K1,K3と候補点K2,K4をそれぞれ中心にして左右の検出ゾーンZL,ZRを設定する。
【0064】
そして、左右の検出ゾーンZL,ZRに含まれる候補点K1〜K4と、中央の検出ゾーンZCに含まれる候補点K5,K6との高さ関係や、検出ゾーンZLに含まれる両候補点K1,K3の位置関係や、検出ゾーンZRに含まれる両候補点K2,K4の位置関係に基づき、眼に対応する候補点K3,K4と、眉に対応する候補点K1,K2とを選択して、眼と眉の位置を特定する。
【0065】
図3中のステップS180では、眼と眉の位置を含む所定領域を設定し、その所定領域内に存在する眼と眉のデータのデータ数をカウントして、運転者の顔の特徴量を認識する。ここで、図12〜図16を使用してステップS180について説明する。
【0066】
図12は、運転者の目と眉の部分の顔画像を示す説明図である。図12において、符号31は画面の外枠、符号32は運転者の眉、符号33は運転者の眼を示している。図13は、図12に示すものから抽出点をグループ化し、そのグループ化したものに基づく所定領域の設定を示す説明図である。なお、抽出点のグループ化については、既に説明したので、説明を省略する。
【0067】
図13において、符号G1,G2は、眉32に対応する抽出点のグループを示し、符号G3,G4は、眼33に対応する抽出点のグループを示している。符号34は、運転者の安全確認の有無を判定するための所定領域(以下、ウインドウという)を示している。このウインドウ34の大きさは、運転者が前方を注視している前方注視状態で運転者の眼及び眉が入る大きさに、走行中の振動で眼や眉が動く量を含んだ大きさとしている。
【0068】
図14は、運転者が左ドアミラーを見た状態を示す処理画像の説明図である。図14に示すように、運転者が前方注視状態から左ドアミラーを見ると、眼33や眉32に対応する抽出点のグループG1〜G4は、高さ方向の変化は無いが横方向へ大きく移動して、左側の両グループG2,G4がウインドウ34から外れる。
【0069】
図15は、運転者が右ドアミラーを見た状態を示す処理画像の説図である。図15に示すように、運転者が前方注視状態から右ドアミラーを見ると、眼33や眉32に対応する抽出点のグループG1〜G4は、右側の両グループG1,G3がウインドウ34から外れる。
【0070】
図16は、運転者が斜め後方を見た状態を示す処理画像の説明図である。図16に示すように、運転者が前方注視状態から斜め後方を見ると、眼33や眉32に対応する抽出点のグループG1〜G4は全てウインドウ34から外れる。
【0071】
従って、抽出点のグループG1〜G4を代表する候補点K1〜K4が移動する方向と、ウインドウ34内に存在する候補点K1〜K4数のカウントとによって、運転者が車両前方を注視しているのか、車両左側の安全確認を行ったのか、車両右側の安全確認を行ったのか、あるいは、車両後方の安全確認を行ったのかを認識することができる。
【0072】
図17は、運転者が安全確認を行ったか否かを判定するフローチャートである。図17に示すように、ステップS1では、ウィンドウ34内に存在するグループG1〜G4を代表する候補点K1〜K4の数をデータ数としてカウントする。ウィンドウ34内には、通常は両目と両眉の計4個のデータが存在している。
【0073】
ステップS2では、ウィンドウ34内に存在するデータ数が減少したか否かを判定する。ウィンドウ34内に存在するデータ数が減少していれば、ステップS3へ進んで安全確認をしたと判定し、ウィンドウ34内に存在するデータ数が4個のまま不変であれば、ステップS4へ進んで安全確認を怠ったと判定する。
【0074】
以上説明したように、本実施形態では、特徴量検出手段CL2は、運転者の顔画像から眼33と眉32の位置を特定し、その特定した眼33と眉32の位置を含むウインドウ34内に存在する眼32と眉32のデータのデータ数をカウントし、安全確認判定手段CL5は、ウインドウ34内のデータ数が運転者の前方注視時のデータ数と同数の場合には、運転者が安全確認を怠ったと判定し、ウインドウ34内のデータ数が運転者の前方注視時のデータ数より減少した場合には、運転者が安全確認を行ったと判定する。
【0075】
このため、左右あるいは後方の安全確認が必要な走行環境で運転者が前方注視状態のままのときは、運転者が安全確認を怠ったと判定することができ、左右あるいは後方の安全確認が必要な走行環境で運転者が左右あるいは後方を向いて安全確認を行ったときは、運転者が安全確認を行ったと判定することができ、従って、安全確認判定手段CL5により運転者の安全確認の有無を確実に判定することができる。
【0076】
図18は、自動車が車線変更をする場合を示す説明図である。自動車41の運転者は、車線変更をするために、片側2車線の道路42のA地点で方向指示器を作動させ、右ドアミラーを見て右後方の安全を確認した後、B地点でハンドルを右に切る。なお、図18において、符号43は、センターラインを示し、符号44は、自動車の車線変更の軌跡を示し、符号L1は、AB間の距離を示している。
【0077】
図19は、本実施形態において車線変更時に判定回路が実行するフローチャートである。ただし、図2に示す走行環境検出回路21は、ステアリングホイルの操舵角を検出する舵角センサと、方向指示器の作動の有無を検出する作動センサとを備え、舵角センサによってステアリングホイルの操舵角を検出し、作動センサによって方向指示器の作動の有無を検出している。
【0078】
自動車41が車線変更をする場合には、図19に示すように、図2の判定回路22は、ステップS11において、舵角センサからステアリングホイルの操舵角を舵角信号として入力し、ステップS12において、作動センサから方向指示器の作動の有無を方向指示器信号として入力する。
【0079】
判定回路22は、ステップS13では、ステップS12で入力した方向指示器信号に基づいて方向指示器の作動の有無を判定する。方向指示器が作動している場合にはステップS14へ進み、方向指示器が作動していない場合にはステップS11へ戻る。
【0080】
ステップS14では、ステップS11で入力した舵角信号に基づいて進路変更動作の有無を判定する。A地点で維持されていた舵角が変化して進路変更動作があればステップS15へ進み、進路変更動作が無ければステップS11へ戻る。
【0081】
ステップS15では、方向指示器が作動を開始してからステアリングホイールが操舵されるまでの間に、図2に示す顔の特徴量認識回路15からのデータに基づいて運転者が安全確認を行ったか否かを判定する。方向指示器が作動してからステアリングホイールが操舵されるまでの間に運転者が安全確認を怠った場合にはステップS16へ進み、運転者が安全確認を行った場合にはステップS11へ戻る。
【0082】
ステップS16では、判定回路22は、図2の警報処理回路23に信号を出力して、運転者に安全確認を促す音や光等の警報を警報処理回路23から発生させる。
【0083】
以上説明したように、本実施形態において自動車41が車線変更をする場合には、判定回路22は、先ず方向指示器の作動の有無を判定し、方向指示器が作動している場合には、進路変更動作の有無を判定し、進路変更動作があったと判定した場合には、運転者の安全確認の有無を判定し、運転者が安全確認を怠った場合には、警報処理回路23に指示して運転者に安全確認を促す警報を警報処理回路23から発生させる。従って、本実施形態では、車線変更時の事故を未然に防止することができる。
【0084】
しかも、本実施形態では、判定回路22は、方向指示器が作動を開始してからステアリングホイールが操舵されるまでの間に運転者が安全確認を怠った場合に、運転者に安全確認を促す警報を警報処理回路23から発生させるので、車線変更時に運転者が安全確認を怠ると、運転者がハンドルを切った直後に、運転者に安全確認を促す警報を警報処理回路23から発生させることができ、従って、車線変更時の事故を未然に、かつ確実に防止することができる。
【0085】
ところで、車線変更を行う場合には、運転者が図18のAB区間で安全確認を行う場合の他に、安全確認を行った後に方向指示器を作動させ、その作動後すぐにハンドルを切る場合もある。
【0086】
この場合に対処するには、方向指示器の作動時より所定時間過去に遡った時点から方向指示器の作動時までの間に、運転者が安全確認を行ったか否かを判定回路22に判定させ、運転者が安全確認を怠ったと判定回路22が判定した場合に、判定回路22の指示によって警報処理回路23が運転者に警報を発するようにすれば良い。
【0087】
このようにすれば、運転者が方向指示器を作動させる前の安全確認を怠ったまま方向指示器の作動直後にハンドルを切った場合には、方向指示器の作動開始直後に警報処理回路23が運転者に警報を発して、運転者に安全確認を促すことができ、従って、運転者が方向指示器を作動させる前の安全確認を怠ったまま方向指示器の作動直後に車線変更を行う際の事故を未然に、かつ確実に防止することができる。
【0088】
加えて、判定回路22は、方向指示器の作動開始時より所定時間過去に遡って運転者の安全確認の有無を判定するので、運転者が方向指示器を作動させる前に安全確認を行った場合の運転者への警報を回避することができ、安全確認を行った運転者への警報に対して運転者が感じる煩わしさを解消することもできる。
【0089】
なお、図19図示のフローチャートは、自動車41が車線変更をする場合だけでなく、例えば、運転者が方向指示器を作動させて追い越しを行う場合や交差点を右左折する場合等、運転者が方向指示器を作動させて自動車41の進路を変更する進路変更時に適用することができるのは勿論のことである。
【0090】
図20は、自動車が交差点を通過する場合を示す説明図である。自動車41の運転者は、信号の無い交差点63を通過するために、走行道路61の交差点63手前の停止線64で自動車41aを一時停止させて左右の安全を確認した後、交差点63に進入して交差点63を通過する。なお、図20において、符号62は走行道路61と交差する道路を示し、符号41bは交差点63通過後の自動車を示している。
【0091】
図21は、本実施形態において交差点通過の際に判定回路が実行するフローチャートである。ただし、図2に示す走行環境検出回路21は、ナビゲーションシステム(以下、NAVIと略称する)と、車速を検出する車速センサとを備え、NAVIによって走行道路61の道路情報を検出し、車速センサによって自車両41の車速を検出している。
【0092】
自動車41が交差点を通過する場合には、図21に示すように、図2の判定回路22は、ステップS21において、NAVIから走行道路の情報をNAVI情報として入力し、ステップS22において、車速センサから自車両41の車速を車速信号として入力する。
【0093】
判定回路22は、ステップS23では、ステップS21で入力したNAVI情報に基づいて、走行道路61における自車両41から所定距離前方までに存在する交差点63に信号機があるか否かを判定する。交差点63に信号機が無い場合にはステップS24へ進み、信号機がある場合にはステップS25へ進む。
【0094】
ステップS24では、ステップS21で入力したNAVI情報と、ステップS22で入力した車速信号とに基づいて交差点63手前での一時停止の有無を判定する。交差点63手前で一時停止した場合にはステップS25へ進み、交差点63手前で一時停止しなかった場合にはステップS26へ進んで、図2の警報処理回路23に直ちに警報を発せさせる。
【0095】
ステップS25では、交差点63通過前の交差点63進入時に、図2に示す顔の特徴量認識回路15からのデータに基づいて運転者が安全確認を行ったか否かを判定する。交差点63進入時に運転者が安全確認を怠った場合にはステップS26へ進み、運転者が安全確認を行った場合にはステップS21へ戻る。
【0096】
ステップS26では、判定回路22は、警報処理回路23に信号を出力して、運転者に安全確認を促す音や光等の警報を車速の立ち上がり等のタイミングで警報処理回路23から発生させる。
【0097】
なお、運転者に安全確認を促す警報発生のタイミングは、ステップS22で入力した車速信号に基づく車速の立ち上がりのタイミングに限定されるものではない。例えば、走行環境検出回路21が、ブレーキスイッチによってブレーキペダルの踏み込みの有無を検出すると共に、アクセルスイッチによってアクセルペダルの踏み込みの有無を検出し、判定回路22が、フットブレーキの踏み込み解除後であってアクセルペダルの踏み込み開始直後のタイミングを捉えて警報処理回路23から警報を発生させるようにしても良い。
【0098】
以上説明したように、本実施形態において自動車41が交差点63を通過する場合には、判定回路22は、交差点63における信号機の有無に係わらず、交差点63通過前の交差点63進入時に運転者が安全確認を行ったか否かを判定し、交差点63進入時に運転者が安全確認を怠った場合には、車速の立ち上がり等のタイミングで警報処理回路23に指示して運転者に安全確認を促す警報を警報処理回路23から発生させる。従って、本実施形態では、交差点63通過時の事故を未然に、かつ確実に防止することができる。
【0099】
しかも、判定回路22は、交差点63に信号機が無い場合には、交差点63手前での一旦停車の有無を判定し、交差点63手前で一旦停車しなかった場合には、車速の立ち上がり等のタイミングで警報処理回路23に指示して運転者に安全確認を促す警報を警報処理回路23から発生させる。従って、本実施形態では、信号機の無い交差点63での一旦停車無視による事故を未然に防止することもできる。
【0100】
更に、本実施形態では、走行環境検出手段CL3としての走行環境検出回路21がNAVIを備えているので、自車両41から所定距離前方までの走行道路61に存在する交差点63を確実に検出することができ、その交差点63が信号機を備えているか否かも確実に検出することができ、交差点で車両が停車すべき停車位置も検出することができる。
【0101】
このため、本実施形態では、自車両41が前記停車位置で停車したか否かを確実に検出することができ、該停車位置で停車した場合に運転者が左右の安全を確認したか否かを判定することもできる。
【0102】
図22は、自動車が踏切を通過する場合を示す説明図である。自動車41の運転者は、走行道路71の踏切72手前の停止線73で自動車41aを一時停止させて左右の安全を確認した後、踏切72に進入し踏切72を通過する。なお、図22において、符号L3は、自動車41から踏切72までの距離を示している。
【0103】
図23は、本実施形態において踏切通過の際に判定回路が実行するフローチャートである。ただし、図2に示す走行環境検出回路21は、NAVIと、車速を検出する車速センサとを備え、NAVIによって走行道路71の道路情報を検出し、車速センサによって自車両41の車速を検出している。
【0104】
自動車41が踏切72を通過する場合には、図23に示すように、図2図示の判定回路22は、ステップS31において、NAVIから走行道路71の情報をNAVI情報として入力し、ステップS32において、車速センサから自車両41の車速を車速信号として入力する。
【0105】
判定回路22は、ステップS33では、ステップS31で入力したNAVI情報に基づいて、走行道路71における自車両41から所定距離前方までに踏切72が存在するか否かを判定する。踏切72が存在する場合にはステップS34へ進み、踏切72が存在しない場合にはステップS31へ戻る。
【0106】
ステップS34では、ステップS31で入力したNAVI情報と、ステップS32で入力した車速信号とに基づいて踏切72手前での一時停止の有無を判定する。踏切72手前で一時停止した場合にはステップS35へ進み、踏切72手前で一時停止しなかった場合にはステップS36へ進んで、図2の警報処理回路23に直ちに警報を発せさせる。
【0107】
ステップS35では、踏切72手前で一時停止した後、再発進するまでの間に、図2に示す顔の特徴量認識回路15からのデータに基づいて運転者が安全確認を行ったか否かを判定する。踏切72手前で一時停止した後、再発進するまでの間に運転者が安全確認を怠った場合にはステップS36へ進み、運転者が安全確認を行った場合にはステップS31へ戻る。
【0108】
ステップS36では、判定回路22は、警報処理回路23に信号を出力して、運転者に安全確認を促す音や光等の警報を車速の立ち上がり等のタイミングで警報処理回路23から発生させる。
【0109】
以上説明したように、本実施形態において自動車41が踏切72を通過する場合には、判定回路22は、先ず、走行道路71における自車両41から所定距離前方までに踏切72が存在するか否かを判定し、踏切72が存在する場合には、踏切72手前での一時停止の有無を判定し、踏切72手前で一時停止した場合には、再発進までの間に運転者が安全確認を行ったか否かを判定し、運転者が安全確認を怠った場合には、車速の立ち上がり等のタイミングで警報処理回路23に指示して運転者に安全確認を促す警報を警報処理回路23から発生させる。従って、本実施形態では、踏切72通過時の事故を未然に、かつ確実に防止することができる。
【0110】
しかも、判定回路22は、踏切72手前で一旦停車しなかった場合には、車速の立ち上がり等のタイミングで警報処理回路23に指示して運転者に安全確認を促す警報を警報処理回路23から発生させるので、本実施形態では、踏切72手前での一旦停車無視による事故を未然に防止することもできる。
【0111】
更に、本実施形態では、走行環境検出手段CL3としての走行環境検出回路21がNAVIを備えているので、自車両41から所定距離前方までの走行車線71に存在する踏切72を確実に検出することができると共に、踏切72で車両が停車すべき停車位置を検出することもできる。
【0112】
このため、本実施形態では、自車両41が前記停車位置で停車したか否かを確実に検出することができ、該停車位置で停車した場合に運転者が左右の安全を確認したか否かを判定することもできる。
【0113】
図24は、本実施形態において自動車を後退させる場合に判定回路が実行するフローチャートである。ただし、図2に示す走行環境検出回路21は、ブレーキペダルの踏み込みの有無を検出するブレーキスイッチと、トランスミッションのギヤ位置が車両を後退させるリバース位置にあるか否かを検出するリバーススイッチとを備え、ブレーキスイッチによってブレーキペダルの踏み込みの有無を検出し、リバーススイッチによってトランスミッションのギヤ位置がリバース位置か否かを検出している。
【0114】
自動車を後退させる場合には、図24に示すように、図2の判定回路22は、ステップS41において、リバーススイッチからトランスミッションのギヤ位置がリバース位置か否かをリバースSW信号として入力し、ステップS42において、ブレーキスイッチからブレーキペダルの踏み込みの有無をフットブレーキSW信号として入力する。
【0115】
判定回路22は、ステップS43では、ステップS41で入力したリバースSW信号に基づいて、トランスミッションのギヤ位置がリバース位置にあるか否かを判定する。トランスミッションのギヤ位置がリバース位置にある場合にはステップS44へ進み、トランスミッションのギヤ位置がリバース位置にはない場合にはステップS41へ戻る。
【0116】
ステップS44では、ステップS42で入力したフットブレーキSW信号に基づいてブレーキペダルの踏み込みの有無を判定する。ブレーキペダルの踏み込み無しが検出されてフットブレーキが作動していない場合にはステップS45へ進み、ブレーキペダルが踏み込み有りが検出されてフットブレーキが作動している場合にはステップS41へ戻る。
【0117】
ステップS45では、図2に示す顔の特徴量認識回路15からのデータに基づいて運転者が安全確認を行ったか否かを判定する。運転者が安全確認を怠った場合にはステップS46へ進み、運転者が安全確認を行った場合にはステップS41へ戻る。
【0118】
ステップS46では、判定回路22は、図2に示す警報処理回路23に信号を出力して、運転者に安全確認を促す音や光等の警報を警報処理回路23から直ちに発生させる。
【0119】
以上説明したように、本実施形態において自動車を後退させる場合には、判定回路22は、トランスミッションのギヤ位置がリバース位置か否かを判定し、トランスミッションのギヤ位置がリバース位置にある場合には、ブレーキペダルの踏み込みの有無を判定し、ブレーキペダルの踏み込みが開放されてブレーキペダルの踏み込み無しが検出され、フットブレーキが作動していない場合には、運転者が安全確認を行ったか否かを判定し、運転者が安全確認を怠った場合には、警報処理回路23に指示して運転者に安全確認を促す警報を警報処理回路23から直ちに発生させる。
【0120】
このため、本実施形態では、車両後退時に運転者が安全確認を怠った場合には、フットブレーキの作動開放直後に警報を発して運転者に安全確認を促すことができ、従って、車両後退時の事故を未然に、かつ確実に防止することができる。
【0121】
なお、自動車を後退させる場合には、走行環境検出回路21は、前記ブレーキスイッチに代えて、アクセルペダルの踏み込みの有無を検出するアクセルスイッチを備え、このアクセルスイッチによってアクセルペダルの踏み込みの有無を検出するようにしても良い。
【0122】
このようにした場合には、判定回路22は、図24のステップS42では、アクセルスイッチからアクセルペダルの踏み込みの有無をアクセルSW信号として入力し、ステップS44では、アクセルSW信号に基づいてアクセルペダルの踏み込みの有無を判定し、アクセルペダルが少しでも踏み込まれている場合にはステップS45へ進み、アクセルペダルが踏み込まれていない場合にはステップS41へ戻るようにすれば良い。
【0123】
このようにすることにより、トランスミッションのギヤ位置がリバース位置になってからアクセルペダルの踏み込みを開始するまでの間に運転者が安全確認を怠った場合には、アクセルペダルの踏み込み開始直後に警報を発して運転者に安全確認を促すことができ、車両後退時の事故を未然にかつ確実に防止することができる。
【0124】
以上説明したように、本実施形態では、画像入力手段CL1は、自動車41の運転者の顔画像を入力し、特徴量検出手段CL2は、画像入力手段CL1が入力した顔画像を画像処理して顔の特徴量を検出し、走行環境検出手段CL3は、自車両の走行環境を検出する。
【0125】
そして、本実施形態では、走行環境判定手段CL4と安全確認判定手段CL5とを構成する判定回路22は、走行環境検出手段CL3の検出データに基づいて自動車41の走行環境が安全確認を必要とする環境か否かを判定し、安全確認を必要とする走行環境であると判定した場合には、特徴量検出手段CL2の検出データに基づいて運転者の安全確認の有無を判定し、運転者が安全確認を怠ったと判定した場合には、運転者に安全確認を促す警報を発するよう安全促進手段CL6に指示する。
【0126】
従って、本実施形態では、安全確認が必要な走行環境において運転者が安全確認を怠った場合に、運転者に安全保持を促すことができる。
【0127】
なお、以上説明した本実施形態では、安全促進手段CL6として、運転者に音や光等で警報を発する警報器を含む警報処理回路23を採用している。しかし、安全促進手段CL6は、このような警報処理回路23に限定されず、例えば、安全確認判定手段CL5による安全確認を怠ったとの判定に基づいて自車両41を自動ブレーキ等で制動し、安全保持を促すものであっても良い。
【0128】
そして、安全促進手段CL6として、自車両41を自動ブレーキ等で制動して安全保持を促すものを採用した場合には、走行中の進路変更の際には減速させ、踏切等では一旦停車状態を維持させることにより、安全性をより向上させることができる。勿論、自動ブレーキ等と警報とを組み合わせることも容易である。
【図面の簡単な説明】
【図1】本発明の一実施形態を示す機能ブロック図である。
【図2】本発明の一実施形態の構成を示す構成ブロック図である。
【図3】運転者の顔画像の画像処理を示すフローチャートである。
【図4】運転者の顔画像の画素列の設定を示す説明図である。
【図5】図3中のステップS140を示すフローチャートである。
【図6】図4中の画素列Xaの濃度を示すグラフであって、(a)は相加平均濃度値を示し、(b)は相加平均濃度値の微分値を示している。
【図7】図4中の画素列Xbの濃度を示すグラフであって、(a)は相加平均濃度値を示し、(b)は相加平均濃度値の微分値を示している。
【図8】抽出点の分布を示すグラフである。
【図9】図3中のステップS150を示すフローチャートである。
【図10】抽出点からの候補点の特定を示すグラフであって、(a)は抽出点のグループ化を示し、(b)は候補点の特定を示している。
【図11】図3中のステップS160を示すフローチャートである。
【図12】運転者の目と眉の部分の顔画像を示す説明図である。
【図13】図12に示すものの所定領域の設定を示す説明図である。
【図14】運転者が左ドアミラーを見た状態を示す処理画像の説明図である。
【図15】運転者が右ドアミラーを見た状態を示す処理画像の説明図である。
【図16】運転者が斜め後方を見た状態を示す処理画像の説明図である。
【図17】運転者が安全確認を行ったか否かを判定するフローチャートである。
【図18】自動車が車線変更をする場合を示す説明図である。
【図19】車線変更時に判定回路が実行するフローチャートである。
【図20】自動車が交差点を通過する場合を示す説明図である。
【図21】交差点通過の際に判定回路が実行するフローチャートである。
【図22】自動車が踏切を通過する場合を示す説明図である。
【図23】踏切通過の際に判定回路が実行するフローチャートである。
【図24】車両後退時に判定回路が実行するフローチャートである。
【符号の説明】
CL1 画像入力手段
CL2 特徴量検出手段
CL3 走行環境検出手段
CL4 走行環境判定手段
CL5 安全確認判定手段
CL6 安全促進手段
11 TVカメラ
12 AD変換器
13 画像メモリ
14 画像データ演算回路
15 特徴量認識回路
21 走行環境検出回路
22 判定回路
23 警報処理回路
33 眼
34 ウインドウ(所定領域)
41 自動車(自車両)
63 交差点
72 踏切[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a safety promoting device for a vehicle that alerts a driver of the vehicle to a safety confirmation.
[0002]
[Prior art]
As a conventional safety promoting device for automobiles, for example, there is one described in JP-A-7-108850. This safety promotion device obtains the distance from the obstacle to the host vehicle when an obstacle is detected on the road, and stops with a normal brake or a warning from the relationship between the distance and the host vehicle speed, The vehicle is provided with stopping by automatic braking and three-stage stopping means, and after stopping by warning or automatic braking, an alarm for prompting the driver to confirm safety is issued when the vehicle restarts.
[0003]
[Problems to be solved by the invention]
However, with this conventional safety promotion device, an alarm is issued only when the vehicle restarts after stopping due to the detection of an obstacle, etc., so it is possible to call attention for safety confirmation only in very limited situations. There is a problem that safety cannot be promoted in a driving environment that requires safety confirmation during driving. Moreover, since an alarm is issued regardless of whether or not the driver confirms safety, there is a problem that it is troublesome when the driver confirms safety.
[0004]
Therefore, an object of the present invention is to provide an automobile safety promoting device that can prompt the driver to maintain safety when the driver fails to confirm safety in a driving environment that requires safety confirmation.
[0005]
[Means for Solving the Problems]
The invention according to
[0008]
[0009]
[0019]
【The invention's effect】
According to the first aspect of the present invention, the image input means inputs the face image of the driver of the car, and the feature amount detection means detects the face feature amount by performing image processing on the face image input by the image input means, and stores it. The traveling environment detection means detects the traveling environment of the host vehicle, and the traveling environment determination means determines whether the traveling environment of the automobile is an environment that requires safety confirmation based on the detection data of the traveling environment detection means. The safety confirmation determining means determines whether or not the driver confirms safety based on the detection data of the feature amount detecting means when the driving environment determining means determines that the driving environment requires safety confirmation. The safety promotion means prompts the driver to maintain safety based on the determination that the safety confirmation judgment means has failed, so if the driver fails to confirm safety in a driving environment where safety confirmation is required, the driver To promote safety Kill.
[0020]
In the invention of
[0021]
In the invention of
[0028]
[0029]
[0030]
[0034]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a functional block diagram showing an embodiment of the present invention. As shown in FIG. 1, this safety promotion device includes image input means CL1, facial feature amount detection means CL2, running environment detection means CL3, running environment judgment means CL4, safety confirmation judgment means CL5, and safety promotion means CL6. ing.
[0035]
The image input means CL1 inputs the face image of the driver of the car. The feature amount detection unit CL2 detects the feature amount of the face by performing image processing on the face image input by the image input unit CL1. The traveling environment detection means CL3 detects the traveling environment of the host vehicle. The traveling environment determination unit CL4 determines whether the traveling environment of the host vehicle is an environment that requires safety confirmation based on the detection data of the traveling environment detection unit CL3.
[0036]
The safety confirmation determination means CL5 determines the presence or absence of the driver's safety confirmation based on the detection data of the feature amount detection means CL2 when the travel environment determination means CL4 determines that the travel environment requires safety confirmation. . The safety promotion means CL6 prompts the driver to maintain safety based on the determination that the safety confirmation by the safety confirmation determination means CL5 is neglected.
[0037]
FIG. 2 is a block diagram showing the configuration of one embodiment of the present invention. As shown in FIG. 2, in the present embodiment, a
[0038]
The image
[0039]
Therefore, the
[0040]
The travel
[0041]
The
[0042]
Here, a method for recognizing the feature amount of the driver's face by image processing of the driver's face image will be described. FIG. 3 is a flowchart illustrating image processing of a driver's face image, and FIG. 4 is an explanatory diagram illustrating setting of a pixel row.
[0043]
As shown in FIG. 3, in step S <b> 110, the driver's face image captured by the
[0044]
In step S130, a vertical pixel row of the face is selected from the enormous amount of image data stored in the
[0045]
In step S140, a density value is calculated for each pixel column to specify a pixel (Y coordinate value) that serves as an extraction point. In step S150, the extracted points obtained for each pixel column are connected and grouped in the horizontal (X) direction. In step S160, unnecessary connection data is removed from the grouped connection data, and candidate point data is formed only for the finally required connection data. In step S170, eye and eyebrow candidate point data is selected from a plurality of candidate point data, and the positions of the eye and eyebrow are specified. Accordingly, steps S130 to S170 are executed by the image
[0046]
In step S180, a predetermined area including the positions of the eyes and eyebrows is set, and the number of eye and eyebrow data existing in the predetermined area is counted to recognize the feature amount of the driver's face. Accordingly, step S180 is executed by the facial feature
[0047]
FIG. 5 is a flowchart showing step S140. 6 is a graph showing the density of the pixel row Xa in FIG. 4, where (a) shows the arithmetic mean density value, and (b) shows the differential value of the arithmetic mean density value. FIG. 7 is a graph showing the density of the pixel row Xb in FIG. 4, where (a) shows the arithmetic mean density value, and (b) shows the differential value of the arithmetic mean density value.
[0048]
As shown in FIG. 5, in step S141, the density values of all the pixels for each pixel column are called a predetermined number of times in order from the left side of the image data shown in FIG. In step S142, the density value of each pixel on the pixel column is arithmetically averaged to obtain an arithmetic average density value obtained by removing high frequency components (noise) from the density value on the pixel column. For example, the arithmetic average density value shown in FIG. 6A is calculated from the pixel column Xa shown in FIG. 4 and the arithmetic average density value shown in FIG. 7A is calculated from the pixel column Xb.
[0049]
In step S143, the arithmetic mean concentration value is differentiated. The arithmetic average concentration value shown in FIG. 6 (a) is the differential value shown in FIG. 6 (b), and the arithmetic average concentration value shown in FIG. 7 (a) is the differential value shown in FIG. 7 (b). .
[0050]
In step S144, first, the Y coordinate value corresponding to the dark peak of the arithmetic mean density value is obtained from the differential value calculated in step S143. That is, the Y coordinate value whose differential value is inverted from negative to positive becomes one Y coordinate value representing each of the eyebrows, eyes, mouth and the like corresponding to the darkness peak. Note that the Y coordinate value at which the differential value is inverted from positive to negative is not employed because it is a peak position of brightness corresponding to an intermediate position such as an eyebrow or eye.
[0051]
For example, the arithmetic mean concentration value shown in FIG. 6A becomes the differential value shown in FIG. 6B, and Y coordinate values p1, p2, p3, p4, and p5 at which the differential value is inverted from negative to positive are extracted. Next, in step S144, Y coordinate values q1, q2, and q3 are extracted such that the peak value of the differential value before each Y coordinate value p1, p2, p3, p4, and p5 is equal to or less than a predetermined threshold value (broken line). Identify as a point. Note that it is possible to avoid facial wrinkles and irregularities from becoming extraction points by discriminating the peak value of the differential value in front.
[0052]
From the arithmetic mean concentration value shown in FIG. 7A, Y coordinate values p1, p2, and p3 are extracted in which the differential values shown in FIG. 7B are inverted from negative to positive. However, in any case, the peak value of the previous differential value does not fall below the threshold value (broken line), and no extraction point is formed.
[0053]
In step S145, it is determined whether or not it is the last pixel column, that is, the rightmost pixel column in FIG. If it is the last pixel column, the extraction points have been specified in all the pixel columns, and the process proceeds to step S150. If it is not the last pixel column, the process returns to step S141 to specify the extraction point from the density value data of the next pixel column.
[0054]
The distribution of the extracted points specified in this way is shown in FIG. As shown in this figure, about 0 to 4 extraction points A1, A2, A3, and A4 are specified for each pixel column. For example, the extraction points A1 and A2 are specified in the pixel column Xc, and the extraction points A1, A2, A3, and A4 are specified in the pixel column Xd.
[0055]
FIG. 9 is a flowchart showing step S150 in FIG. FIG. 10A is a graph showing grouping of extraction points. In step S150, as shown in FIG. 10A, the extraction points specified for each pixel column are connected in the X direction to be grouped.
[0056]
As shown in FIG. 9, in step S151, the extraction point data of the pixel column is called in the order of the pixel column. In step S152, the Y coordinate values are compared for the extraction points of the pixel rows adjacent to each other. In step S153, the difference of the Y coordinate values of the extraction points in the pixel rows adjacent to each other is within a predetermined range (10 pixels in this embodiment). It is determined whether it is in. If the difference between the Y coordinate values of the extraction points of the pixel rows adjacent to each other is 10 pixels or less, the process proceeds to step S154 to form concatenated data. If the difference between the Y coordinate values exceeds 10 pixels, the process proceeds to step S155. No concatenated data is formed.
[0057]
In step S154, concatenated data is formed from extraction points of adjacent pixel columns. The concatenated data is classified by the group number given in order for each generated group and the number of the pixel column to which the extraction point at the left end of each group belongs (corresponding to the X coordinate value). The number N (number of pixel columns) and the Y coordinate value are stored in the memory, and each time the pixel column is processed, the memory content is rewritten and formed.
[0058]
In step S155, it is determined whether or not it is the last pixel column. If it is the last pixel column, the grouping of the extraction point data has been completed for all the pixel columns, and the process proceeds to step S160. If it is not the last pixel column, the process returns to step S151 to group the extraction point data of the next pixel column.
[0059]
FIG. 11 is a flowchart showing step S160 in FIG. FIG. 10B is a graph showing candidate points formed from grouped data of extracted points. In step S160, unnecessary connection data is removed, and candidate point data is formed only for the finally required connection data.
[0060]
As shown in FIG. 11, in step S161, the concatenated data is called from the memory one by one in the order of group numbers. In step S162, the number N of linked data is evaluated. In step S163, it is determined whether the number N of linked data is greater than or equal to a predetermined value (5 in the present embodiment). If the number N of linked data is greater than or equal to a predetermined value, the process proceeds to step S164 to form candidate point data. If the number N of connected data is less than the predetermined value, it is determined as, for example, a nostril or the like, and the process proceeds to step S165 and no candidate point data is formed.
[0061]
In step S164, for each group, a candidate consisting of the average value of the Y coordinate values of the concatenated data and the average value of the X coordinate values of the concatenated data (the average value of the concatenation start pixel column number and the concatenation end pixel column number). Form point data. For example, as shown in FIG. 10A, extraction point groups G1 to G6 corresponding to both the eyebrows and the eyes, the shadow of the nose, and the mouth are left from the extraction point group shown in FIG. However, here, the remaining six groups G1 to G6 are renumbered in order from left to right and from top to bottom. Therefore, each group G1 to G6 of extraction points shown in FIG. 10A is represented by six candidate points K1 to K6 shown in FIG.
[0062]
In step S165, it is determined whether it is the last concatenated data. If it is the last concatenated data, since all the concatenated data has been evaluated, the process proceeds to step S170. If it is not the last concatenated data, the process returns to step S161 to start evaluation of the next concatenated data.
[0063]
In step S170 in FIG. 3, eye and eyebrow candidate point data is selected from a plurality of candidate point data, and the positions of the eye and eyebrow are specified. For example, in the case of six candidate points K1 to K6 shown in FIG. 10B, a central detection zone ZC is set around the candidate points K5 and K6 having large (low) Y coordinate values. Outside the detection zone ZC, left and right detection zones ZL and ZR are set with the candidate points K1 and K3 having small (high) Y coordinate values and the candidate points K2 and K4 as centers.
[0064]
The height relationship between the candidate points K1 to K4 included in the left and right detection zones ZL and ZR and the candidate points K5 and K6 included in the center detection zone ZC, and both candidate points K1 and K1 included in the detection zone ZL. Based on the positional relationship between K3 and the positional relationship between both candidate points K2, K4 included in the detection zone ZR, candidate points K3, K4 corresponding to the eyes and candidate points K1, K2 corresponding to the eyebrows are selected, Identify eye and eyebrow positions.
[0065]
In step S180 in FIG. 3, a predetermined area including the positions of the eyes and eyebrows is set, and the number of data of eye and eyebrow data existing in the predetermined area is counted to recognize the feature amount of the driver's face. To do. Here, step S180 will be described with reference to FIGS.
[0066]
FIG. 12 is an explanatory diagram showing face images of the driver's eyes and eyebrows. In FIG. 12,
[0067]
In FIG. 13, reference symbols G <b> 1 and G <b> 2 indicate extraction point groups corresponding to the
[0068]
FIG. 14 is an explanatory diagram of a processed image showing a state where the driver looks at the left door mirror. As shown in FIG. 14, when the driver looks at the left door mirror from the forward gazing state, the extraction point groups G1 to G4 corresponding to the
[0069]
FIG. 15 is an explanatory diagram of a processed image showing a state where the driver looks at the right door mirror. As shown in FIG. 15, when the driver looks at the right door mirror from the front gaze state, the right-side groups G1 and G3 of the extraction point groups G1 to G4 corresponding to the
[0070]
FIG. 16 is an explanatory diagram of a processed image showing a state in which the driver looks obliquely backward. As shown in FIG. 16, when the driver looks diagonally backward from the front gaze state, all the extraction point groups G1 to G4 corresponding to the
[0071]
Accordingly, the driver is gazing at the front of the vehicle based on the direction in which the candidate points K1 to K4 representing the extracted point groups G1 to G4 move and the number of candidate points K1 to K4 existing in the
[0072]
FIG. 17 is a flowchart for determining whether or not the driver has confirmed safety. As shown in FIG. 17, in step S1, the number of candidate points K1 to K4 representing the groups G1 to G4 existing in the
[0073]
In step S2, it is determined whether or not the number of data existing in the
[0074]
As described above, in the present embodiment, the feature amount detection unit CL2 specifies the positions of the
[0075]
For this reason, when the driver remains in the forward gaze state in a driving environment that requires safety confirmation on the left, right, or rear, it can be determined that the driver has failed to confirm safety, and safety confirmation on the left, right, or rear is required. When the driver confirms safety by turning left or right or rearward in the driving environment, it can be determined that the driver has confirmed safety. Therefore, the safety confirmation determination means CL5 determines whether the driver has confirmed safety. It can be determined with certainty.
[0076]
FIG. 18 is an explanatory diagram showing a case where the automobile changes lanes. To change the lane, the driver of the
[0077]
FIG. 19 is a flowchart executed by the determination circuit when a lane is changed in the present embodiment. However, the traveling
[0078]
When the
[0079]
In step S13, the
[0080]
In step S14, the presence or absence of a course changing operation is determined based on the steering angle signal input in step S11. If the rudder angle maintained at the point A changes and there is a course changing operation, the process proceeds to step S15, and if there is no course changing operation, the process returns to step S11.
[0081]
In step S15, whether the driver has confirmed safety based on the data from the facial feature
[0082]
In step S <b> 16, the
[0083]
As described above, when the
[0084]
Moreover, in the present embodiment, the
[0085]
By the way, when changing lanes, in addition to the case where the driver confirms safety in the AB section of FIG. 18, the direction indicator is activated after confirming safety and the steering wheel is turned off immediately after the activation. There is also.
[0086]
In order to cope with this case, the
[0087]
In this way, when the driver turns off the steering wheel immediately after the operation of the direction indicator while neglecting the safety check before operating the direction indicator, the
[0088]
In addition, since the
[0089]
Note that the flowchart shown in FIG. 19 is not only for the case where the
[0090]
FIG. 20 is an explanatory diagram illustrating a case where a vehicle passes through an intersection. The driver of the
[0091]
FIG. 21 is a flowchart executed by the determination circuit when passing the intersection in the present embodiment. However, the traveling
[0092]
When the
[0093]
In step S23, the
[0094]
In step S24, based on the NAVI information input in step S21 and the vehicle speed signal input in step S22, it is determined whether or not there is a temporary stop before the
[0095]
In step S25, when entering the
[0096]
In step S <b> 26, the
[0097]
Note that the alarm generation timing for prompting the driver to confirm safety is not limited to the vehicle speed rising timing based on the vehicle speed signal input in step S22. For example, the traveling
[0098]
As described above, when the
[0099]
In addition, when there is no traffic signal at the
[0100]
Furthermore, in this embodiment, since the traveling
[0101]
For this reason, in the present embodiment, it is possible to reliably detect whether or not the
[0102]
FIG. 22 is an explanatory diagram showing a case where the automobile passes through the railroad crossing. The driver of the
[0103]
FIG. 23 is a flowchart executed by the determination circuit when passing through a crossing in the present embodiment. However, the traveling
[0104]
When the
[0105]
In step S33, the
[0106]
In step S34, based on the NAVI information input in step S31 and the vehicle speed signal input in step S32, it is determined whether or not there is a temporary stop before the
[0107]
In step S35, it is determined whether or not the driver has confirmed safety based on the data from the facial feature
[0108]
In step S36, the
[0109]
As described above, in the present embodiment, when the
[0110]
Moreover, if the
[0111]
Furthermore, in this embodiment, since the traveling
[0112]
For this reason, in the present embodiment, it is possible to reliably detect whether or not the
[0113]
FIG. 24 is a flowchart executed by the determination circuit when the automobile is moved backward in the present embodiment. However, the traveling
[0114]
When the vehicle is to be moved backward, as shown in FIG. 24, the
[0115]
In step S43, the
[0116]
In step S44, it is determined whether or not the brake pedal is depressed based on the foot brake SW signal input in step S42. If it is detected that the brake pedal is not depressed and the foot brake is not activated, the process proceeds to step S45. If it is detected that the brake pedal is depressed and the foot brake is activated, the process returns to step S41.
[0117]
In step S45, it is determined whether or not the driver has confirmed safety based on the data from the facial feature
[0118]
In step S46, the
[0119]
As described above, when the vehicle is moved backward in the present embodiment, the
[0120]
For this reason, in this embodiment, if the driver fails to confirm safety when the vehicle is moving backward, an alarm can be issued immediately after the foot brake is released to prompt the driver to confirm safety. Accidents can be prevented without fail.
[0121]
When the vehicle is to be moved backward, the driving
[0122]
In this case, the
[0123]
In this way, if the driver fails to confirm safety after the transmission gear position is in the reverse position and before the accelerator pedal is depressed, an alarm is issued immediately after the accelerator pedal is depressed. It is possible to prompt the driver to confirm the safety and to prevent accidents when the vehicle moves backward.
[0124]
As described above, in this embodiment, the image input unit CL1 inputs the face image of the driver of the
[0125]
In the present embodiment, the
[0126]
Therefore, in the present embodiment, when the driver fails to confirm safety in a traveling environment where safety confirmation is required, the driver can be encouraged to maintain safety.
[0127]
In the present embodiment described above, an
[0128]
If the
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing an embodiment of the present invention.
FIG. 2 is a configuration block diagram showing the configuration of an embodiment of the present invention.
FIG. 3 is a flowchart showing image processing of a driver's face image.
FIG. 4 is an explanatory diagram illustrating setting of a pixel column of a driver's face image.
FIG. 5 is a flowchart showing step S140 in FIG.
6 is a graph showing the density of the pixel row Xa in FIG. 4, where (a) shows the arithmetic mean density value, and (b) shows the differential value of the arithmetic mean density value.
7 is a graph showing the density of the pixel row Xb in FIG. 4, wherein (a) shows the arithmetic mean density value, and (b) shows the differential value of the arithmetic mean density value.
FIG. 8 is a graph showing the distribution of extracted points.
FIG. 9 is a flowchart showing step S150 in FIG.
FIG. 10 is a graph showing identification of candidate points from extracted points, where (a) shows grouping of extracted points and (b) shows identification of candidate points.
FIG. 11 is a flowchart showing step S160 in FIG. 3;
FIG. 12 is an explanatory diagram showing a face image of a driver's eyes and eyebrows.
13 is an explanatory diagram showing setting of a predetermined area shown in FIG. 12. FIG.
FIG. 14 is an explanatory diagram of a processed image showing a state in which the driver looks at the left door mirror.
FIG. 15 is an explanatory diagram of a processed image showing a state where the driver looks at the right door mirror.
FIG. 16 is an explanatory diagram of a processed image showing a state in which the driver looks obliquely backward.
FIG. 17 is a flowchart for determining whether or not a driver has confirmed safety.
FIG. 18 is an explanatory diagram showing a case where a vehicle changes lanes.
FIG. 19 is a flowchart executed by a determination circuit when a lane is changed.
FIG. 20 is an explanatory diagram showing a case where an automobile passes through an intersection.
FIG. 21 is a flowchart executed by a determination circuit when passing an intersection;
FIG. 22 is an explanatory diagram showing a case where an automobile passes through a railroad crossing.
FIG. 23 is a flowchart executed by a determination circuit when passing a railroad crossing.
FIG. 24 is a flowchart executed by the determination circuit when the vehicle is moving backward.
[Explanation of symbols]
CL1 Image input means
CL2 feature quantity detection means
CL3 Running environment detection means
CL4 traveling environment judgment means
CL5 Safety confirmation judgment means
CL6 Safety promotion means
11 TV camera
12 AD converter
13 Image memory
14 Image data arithmetic circuit
15 Feature recognition circuit
21 Driving environment detection circuit
22 Judgment circuit
23 Alarm processing circuit
33 eyes
34 windows (predetermined area)
41 Automobile (own vehicle)
63 Intersection
72 level crossing
Claims (3)
前記走行環境検出手段は、自車両の操舵角変化と方向指示器の作動によって自車両の進路変更とを検出し、前記走行環境判定手段は、方向指示器が作動した場合を安全確認が必要な走行環境と判定し、前記安全確認判定手段は、方向指示器の作動開始時から操舵角が変化するまでの間に運転者が安全確認を怠ったと判定した場合、運転者に安全保持を促すよう前記安全促進手段に指示することを特徴とする自動車用の安全促進装置。An image input means for inputting the face image of the driver of the car, a feature amount detecting means for detecting and storing a face feature value by performing image processing on the face image input by the image input means, and a traveling environment of the host vehicle A traveling environment detecting means for detecting, a traveling environment determining means for determining whether or not the traveling environment of the host vehicle is an environment that requires safety confirmation based on detection data of the traveling environment detecting means, and the traveling environment determining means; When it is determined that the driving environment requires safety confirmation, safety confirmation determination means for determining presence / absence of driver's safety confirmation based on detection data of the feature amount detection means, and safety by the safety confirmation determination means A safety promotion means for encouraging the driver to maintain safety based on the determination that the confirmation is neglected,
The traveling environment detection means detects a change in the steering angle of the host vehicle and a change in the course of the host vehicle by the operation of the direction indicator, and the traveling environment determination unit needs to confirm safety when the direction indicator is operated. When the driving environment is determined and the safety check determining means determines that the driver has failed to check the safety between the start of the operation of the direction indicator and the change of the steering angle, the safety check determining means prompts the driver to maintain safety. A safety promoting device for an automobile, characterized by instructing the safety promoting means.
前記走行環境検出手段は、ブレーキペダルの踏み込みの有無とトランスミッションのギヤ位置がリバース位置か否かを検出し、前記走行環境判定手段は、前記リバース位置にある場合を安全確認が必要な走行環境と判定し、前記安全確認判定手段は、トランスミッションのギヤ位置がリバース位置になった時点からブレーキペダルの踏み込み無しが検出されるまでの間に運転者が安全確認を怠ったと判定した場合、運転者に安全保持を促すよう前記安全促進手段に指示することを特徴とする自動車用の安全促進装置。The travel environment detection means detects whether or not the brake pedal is depressed and whether or not the gear position of the transmission is in the reverse position, and the travel environment determination means determines that the safety condition is required when the vehicle is in the reverse position. The safety confirmation determining means determines that if the driver has neglected the safety check from the time when the gear position of the transmission is in the reverse position until the absence of depression of the brake pedal is detected, A safety promoting device for an automobile, wherein the safety promoting means is instructed to promote safety maintenance.
前記走行環境検出手段は、アクセルペダルの踏み込みの有無とトランスミッションのギヤ位置がリバース位置か否かを検出し、前記走行環境判定手段は、前記リバース位置にある場合を安全確認が必要な走行環境と判定し、前記安全確認判定手段は、トランスミッションのギヤ位置がリバース位置になった時点からアクセルペダルの踏み込み有りが検出されるまでの間に運転者が安全確認を怠ったと判定した場合、運転者に安全保持を促すよう前記安全促進手段に指示することを特徴とする自動車用の安全促進装置。The travel environment detection means detects whether or not the accelerator pedal is depressed and whether or not the transmission gear position is the reverse position, and the travel environment determination means determines that the safety condition is required when the vehicle is in the reverse position. The safety confirmation determining means determines if the driver has neglected the safety check from the time when the gear position of the transmission is in the reverse position until the presence of depression of the accelerator pedal is detected. A safety promoting device for an automobile, wherein the safety promoting means is instructed to promote safety maintenance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32089498A JP3716647B2 (en) | 1998-11-11 | 1998-11-11 | Safety promotion device for automobile |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32089498A JP3716647B2 (en) | 1998-11-11 | 1998-11-11 | Safety promotion device for automobile |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000142282A JP2000142282A (en) | 2000-05-23 |
JP3716647B2 true JP3716647B2 (en) | 2005-11-16 |
Family
ID=18126464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP32089498A Expired - Fee Related JP3716647B2 (en) | 1998-11-11 | 1998-11-11 | Safety promotion device for automobile |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3716647B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11282002B2 (en) | 2019-06-28 | 2022-03-22 | Advanced New Technologies Co., Ltd. | Method and apparatus for secure check-in |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3817631B2 (en) * | 2001-12-10 | 2006-09-06 | アルパイン株式会社 | Road warning detection device |
JP4281405B2 (en) * | 2003-05-12 | 2009-06-17 | 日産自動車株式会社 | Confirmation operation detection device and alarm system |
JP4136889B2 (en) * | 2003-06-16 | 2008-08-20 | 富士通テン株式会社 | Vehicle control device |
JP4123077B2 (en) * | 2003-06-27 | 2008-07-23 | 日産自動車株式会社 | Driver status detection device |
JP4821347B2 (en) * | 2006-02-07 | 2011-11-24 | トヨタ自動車株式会社 | Armpit driving prevention device |
JP4760445B2 (en) * | 2006-02-27 | 2011-08-31 | トヨタ自動車株式会社 | Vehicle alarm device |
JP4742982B2 (en) * | 2006-05-22 | 2011-08-10 | 株式会社デンソー | Notification device and program |
JP5149658B2 (en) * | 2008-03-11 | 2013-02-20 | トヨタ自動車株式会社 | Driving evaluation device |
JP5161685B2 (en) * | 2008-07-25 | 2013-03-13 | 株式会社豊田中央研究所 | Gaze measurement apparatus and program |
JP5469473B2 (en) * | 2010-02-03 | 2014-04-16 | 富士重工業株式会社 | Confirmation action support device |
JP2012198731A (en) * | 2011-03-21 | 2012-10-18 | Denso Corp | Vehicle controller |
JP2013140558A (en) * | 2011-12-09 | 2013-07-18 | Denso Corp | Driving determination apparatus |
JP6350145B2 (en) * | 2014-09-09 | 2018-07-04 | 株式会社デンソーアイティーラボラトリ | Face orientation detection device and vehicle warning system |
JP6617534B2 (en) * | 2015-11-30 | 2019-12-11 | 株式会社デンソー | Driving assistance device |
JP6852656B2 (en) * | 2017-11-15 | 2021-03-31 | オムロン株式会社 | Alarm control device, alarm control method, and program for alarm control |
JP7309480B2 (en) * | 2019-06-27 | 2023-07-18 | フォルシアクラリオン・エレクトロニクス株式会社 | In-vehicle device and control method for in-vehicle device |
CN110334824B (en) * | 2019-06-28 | 2021-03-02 | 创新先进技术有限公司 | Safe check-in method and device |
-
1998
- 1998-11-11 JP JP32089498A patent/JP3716647B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11282002B2 (en) | 2019-06-28 | 2022-03-22 | Advanced New Technologies Co., Ltd. | Method and apparatus for secure check-in |
Also Published As
Publication number | Publication date |
---|---|
JP2000142282A (en) | 2000-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3716647B2 (en) | Safety promotion device for automobile | |
JP4628683B2 (en) | Pedestrian detection device and vehicle driving support device including the pedestrian detection device | |
CN111824128B (en) | Vehicle control system | |
CN112428988B (en) | Driving support device, vehicle control method, and storage medium | |
KR102581766B1 (en) | Vehicle control apparatus and vehicle control method and vehicle control system | |
JP3818641B2 (en) | Vehicle runway determination device and vehicle control device | |
JP2005309797A (en) | Warning device for pedestrian | |
JP4702070B2 (en) | Driver psychological judgment device | |
CN113895433B (en) | Forward collision avoidance system and method thereof through sensor angle adjustment | |
JP2008189148A (en) | Traveling state detection device | |
JP2001101592A (en) | Collision preventing device for vehicle | |
JP2006146956A (en) | Device for determining travel path for vehicle | |
JP2018142297A (en) | Information processing apparatus and program | |
JP2000016181A (en) | Camera equipped door mirror and vehicle periphery recognition system | |
CN115123207A (en) | Driving assistance device and vehicle | |
CN108238102A (en) | A kind of vehicle-mounted ultrasonic wave sensor system | |
JP2007269310A (en) | Traveling controller and traveling control method, program and recording medium | |
JP2005309660A (en) | Device supporting vehicle in turning right or left | |
JP2000172966A (en) | Alarm device | |
JP3846229B2 (en) | Lane departure warning device | |
JP3138135B2 (en) | Turn alarm | |
JP2006146754A (en) | Preceding car detecting method and preceding car detecting apparatus | |
EP4414966A1 (en) | Method for detecting a non-marked parking space for a vehicle, data processing apparatus, computer program and computer-readable storage medium | |
JP2022023621A (en) | Vehicle notification device | |
JP2020016950A (en) | Collision determination device and collision determination method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041214 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050517 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050822 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090909 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100909 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100909 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110909 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120909 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120909 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130909 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |