JP2017045351A - 車両運転支援装置、車両運転支援方法、およびプログラム - Google Patents
車両運転支援装置、車両運転支援方法、およびプログラム Download PDFInfo
- Publication number
- JP2017045351A JP2017045351A JP2015168638A JP2015168638A JP2017045351A JP 2017045351 A JP2017045351 A JP 2017045351A JP 2015168638 A JP2015168638 A JP 2015168638A JP 2015168638 A JP2015168638 A JP 2015168638A JP 2017045351 A JP2017045351 A JP 2017045351A
- Authority
- JP
- Japan
- Prior art keywords
- time
- vehicle
- difference
- vehicle driver
- series feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Eye Examination Apparatus (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
案されている。特許文献1では、あらかじめ、漫然運転時における車両運転者の注視情報
の統計的分布を定義し、評価時に得られた車両運転者の注視情報の統計的分布との類似性を評価することで、漫然運転の可能性を推定する。
法が提案されている。特許文献2では、車両運転者の視線方向を所定時間検出して、視線
方向の分布を示す視線分布情報を生成する。そして、得られた視線分布情報によって示される分布の所定位置(例えば中心位置)が、あらかじめ定義した基準情報により示される漫然運転でない状態の視線方向の標準的な位置よりも上方向に所定閾値以上離れている場合、漫然運転であると判定する。
うな方法が提案されている。特許文献3では、あらかじめ用意した注意モデルとその時々
で検出される特定情報とに基づいて、オブジェクト、画像情報、各特定情報に基づく注意分布である個別分布を生成する。また、これら個別分布を、同じ重みまたは個々に重み付けして統合した注意分布である統合分布を生成することにより、車両運転者の注意が向けられている位置(注視点)を確率的に推定する。さらに、前方画像から抽出した各オブジェクトに対する車両運転者の注意量を前記統合分布に従って算出する。最終的に、前記注意量に基づいて、車両運転者が認識すべき物体に関する情報を表示や音声、振動等によって提供する。
定義し、評価時に得られた車両運転者の注視情報の統計的分布との類似性を評価することで、漫然運転である可能性を推定している。したがって、特許文献1のような手法には、
漫然運転時における車両運転者の注視情報の統計的分布としてあらかじめ定義していないものに対しては推定精度が低下する問題というがある。
あらかじめ記憶された基準情報により示される漫然運転でない状態の視線方向の標準的な位置との相違に基づいて、漫然運転である可能性を推定している。特許文献2のような手
法には、漫然運転時と漫然運転時でない状態との視線分布情報の相違が標準的な位置ではなく、統計的分布の相違(たとえば、尖度、歪度、分散など)に表れる場合に推定精度が低下する問題というがある。
とに基づいて、オブジェクト、画像情報、各特定情報に基づく注意分布である個別分布し、同じ重み又は個々に重み付けして統合した注意分布を生成している。特許文献3のよう
な手法には、個別分布に対する最適な重みを設定できない場合に推定精度が低下する問題というがある。
車両の前方方向の画像を取得する画像取得手段と、車両運転者の注視情報を抽出する注視情報抽出手段と、前記車両運転者の評価時における注視情報に基づいて時系列特徴量を算出する時系列特徴量算出手段と、正常運転時における注視情報に基づく時系列特徴量を格納する正常データ格納手段と、前記正常運転時と前記評価時における前記時系列特徴量の相違を算出する相違算出手段と、前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知手段と、を備える。
車両の前方方向の画像を取得する画像取得ステップと、車両運転者の注視情報を抽出する注視情報抽出ステップと、前記車両運転者の評価時における注視情報に基づいて時系列特
徴量を算出する時系列特徴量算出ステップと、前記評価データ算出ステップにおいて算出された時系列特徴量と、あらかじめ算出された正常運転時における注視情報に基づく時系列特徴量と、の相違を算出する相違算出ステップと、前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知ステップと、を含む。
本発明の第1の実施形態について、図1〜図4を参照して説明する。
図1(A)は、本発明の第1の実施形態に係る車両運転支援装置1の概略構成を示すブロック図である。本実施形態に係る車両運転支援装置は、半導体集積回路(LSI)を用いて実現で
きる。車両運転支援装置1は、図1(A)に示すように、注視情報抽出部11、時系列特徴量算
出部12、正常データ格納部13、評価データ格納部14、相違算出部15、相違提示部16、刺激発生部17を有する。これらの構成要素は車両運転支援装置1が果たす機能にそれぞれ対応
している。
置から取得する。注視情報抽出部11は、前方画像と眼画像を解析して、図2のように、時
刻tにおける前方画像中の車両運転者の視線位置(xe(t), ye(t))を抽出する。また、注視
情報抽出部11は、得られた時刻tにおける注視情報f(t)=(xe(t),ye(t))を時系列特徴量算
出部12に出力する。
、可視光感知カメラと赤外光感知カメラによって撮影された2つの眼画像の差分画像を適
当な閾値と比較することにより虹彩部分を抽出して視線方向を検出することができる。そして、眼画像を撮影するカメラと前方画像を撮影するカメラの位置関係等に基づいて、車両運転者の時刻tにおける視線位置(xe(t),ye(t))を検出することができる。
F(0)=(f(0), f(1), f(2))=(xe(0), ye(0), xe(1), ye(1), xe(2), ye(2))
の6(2×K)次元のベクトルで与えられる。また、時刻t=1における時系列特徴量F(1)は、
F(1)=(f(1), f(2), f(3))=(xe(1), ye(1), xe(2), ye(2), xe(3), ye(3))
の6(2×K)次元のベクトルで与えられる。さらに、時刻t=2における時系列特徴量F(2)は、
F(2)=(f(2), f(3), f(4))=(xe(2), ye(2), xe(3), ye(3), xe(4), ye(4))
の6(2×K)次元のベクトルで与えられる。以下同様の手順で、時系列特徴量F(3), F(4),…を算出することができる。ここで、時刻t=0, 1, 2, …は、この順番で連続した時刻(
タイムステップ)である。
体に要求される漫然運転の識別性能に応じて決定してもよい。あるいは、システム全体に要求される処理時間に応じて決定してもよい。
情報の組み合わせとする場合を説明したが、その他の方法による定義も可能である。たとえば、F(t)=(f(t-2), f(t-1), f(t))のように、時刻tを終点とした連続したK個(ここで
はK=3としている)の注視情報の組み合わせとして定義することができる。あるいは、F(t)=(f(t-1), f(t), f(t+1))のように、時刻tを中心とした連続したK個の注視情報の組み合わせとして定義してもよい。
よい。あるいは、システム全体に要求される処理速度に応じて決定してもよい。
もよい。
…,F(T)と、評価データ格納部14に格納したT'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')との統計的分布の相違Dを算出し、相違提示部16および刺激発生部17に出力する。
ここで、2つの時系列特徴量の統計的分布の相違Dは、T個の時系列特徴量F(0), F(1), F(2),…,F(T)からなる標本が従う確率密度と、T'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')からなる標本が従う確率密度とに基づいて推定する。
する確率密度の比(密度比)を推定し、得られた密度の比に基づいて相違Dを算出すれば
よい。確率密度比は、たとえば、非特許文献1に記載の相対密度比推定法、非特許文献2に記載の最小二乗密度比適合法、確率的分類法、積率適合法などによって算出することができる。あるいは、2つの時系列特徴量の統計的分布の相違Dは、たとえば、T個の時系列特
徴量F(0), F(1), F(2),…,F(T)に対する確率密度と、T'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')に対する確率密度の差(密度差)を推定し、得られた密度差に基づいて
算出してもよい。確率密度差は、たとえば、非特許文献3に記載の確率密度差推定法によ
って算出することができる。
示する。相違提示部16は、たとえば、相違Dを直感的に分かりやすい図形で可視化し、車
両運転者に提示する。具体的には、図4(A)のように、相違Dが大きければ大きいほど漫然
運転の可能性が高いこと(不良)、相違Dが小さければ小さいほど平常運転の可能性が高
いこと(良好)が直感的にわかるように提示すればよい。あるいは、図4(B)のような図形を用いてもよい。あるいは、図4(C)のような図形を用いてもよい。あるいは、図4(D)のような図形を用いてもよい。このように、図4(A)-4(D)のような図形を車両運転者に提示す
ることで、車両運転者に注意を促すことができる。相違提示部16は、図形以外にも、文字(テキスト)出力によって相違Dを車両運転者に提示してもよい。
の可能性が高い場合のみ、視覚情報による提示を行うようにしてもよい。閾値Thは、たとえば、交差確認法を用いて算出することができる。
る。具体的には、相違Dの大きさに応じて運転席を振動(バイブレーション)させればよ
い。あるいは、相違Dの大きさに応じて車両運転者が握るハンドルを振動(バイブレーシ
ョン)させてもよい。あるいは、相違Dの大きさに応じてシートベルトの締め付け強さを
制御して振動させてもよい。あるいは、相違Dの大きさに応じて警告音を発してもよい。
あるいは、相違Dの大きさに応じて「安全運転ですね。その調子。」「注意力が散漫のよ
うです。気を付けて。」「お疲れではないですか?次のサービスエリアで休憩してみてはいかがですか?」といった音声で注意を促してもよい。また、これらの複数の手法を組み合わせて利用してもよい。
本実施形態の車両運転支援装置1が行う処理の流れについて説明する。
、平常運転(漫然運転でない状態)において撮影された前方画像と眼画像を注視情報抽出部11に入力し、上述した手法により、注視情報抽出部11がこれらの画像から注視情報を抽出する。そして、ステップS12において、時系列特徴量算出部12が、抽出された注視情報
を用いて時系列特徴量を算出する。複数の平常運転に関する画像が用意されている場合には、これら複数の画像からそれぞれ注視情報の抽出および時系列特徴量の算出が行われる。ステップS13において、時系列特徴量算出部12は、ステップS12で算出した時系列特徴量を正常データとして正常データ格納部13に格納する。
に撮影された前方画像と眼画像を注視情報抽出部11に入力し、上述した手法により、注視情報抽出部11がこれらの画像から注視情報を抽出する。そして、ステップS22において、
時系列特徴量算出部12が、抽出された注視情報を用いて時系列特徴量を算出する。ステップS23において、相違算出部15は、ステップS22で算出された時系列特徴量と、正解データ格納部13に格納されている平常運転時の時系列特徴量の統計的分布の相違Dを算出する。
ステップS24において、相違提示部16および刺激発生部17が、ステップS23で算出された相違Dの大きさに応じて画像出力や刺激付与を行うことで車両運転者に対して注意喚起する
。
本実施形態にかかる車両運転支援装置1によれば、車両運転者の漫然運転を精度良く検
出することができる。また、漫然運転の傾向を検知し、その傾向に基づいて車両運転者に刺激を与えることで、漫然運転を未然に防止することができる。
本発明の第2の実施形態について、図5〜図10を参照して説明する。
きる。車両運転支援装置2は、図5(A)に示すように、注視情報抽出部21、時系列特徴量算
出部22、正常データ格納部23、評価データ格納部24、相違算出部25、相違提示部26、刺激発生部27を有する。これらの構成要素は車両運転支援装置2が果たす機能にそれぞれ対応
している。なお、本実施形態においては、第1の実施形態との相違箇所のみ言及する。
における視線情報(xe(t),ye(t))だけでなく、その他の様々な情報(たとえば、車両運転
者の視線情報(xe(t),ye(t))における対象物の属性情報、距離情報、あるいは車両運転者
の生体情報など)を用いて、より注視情報の情報量を高める点に特徴がある。
情報取得部218、注視情報算出部219とから構成される。
、標識検出部215、信号機検出部216、距離情報算出部217、生体情報取得部218に出力する。画像取得部211は、また、車両運転支援装置1の外部から入力される車両運転者の眼の画像(以下、眼画像とよぶ)を取得し、視線位置検出部212に出力する。
方画像中の車両運転者の視線位置(xe(t), ye(t))を抽出する。視線位置の抽出方法は、第1の実施形態において説明した方法と同様の方法により行えばよい。
出し、注視情報算出部219に出力する。ここで、前方画像中の歩行者pの位置(xp(t), yp(t))と歩行者pを包含する矩形領域の水平および垂直方向の大きさ(hp(t), vp(t))は、既存
の任意の手法によって算出すればよい。たとえば、特許文献5,6,7に記載の手法を用いる
ことができる。
は時刻tにおいて歩行者pを目視したことがわかる。一方、車両運転者の時刻tにおける視
線位置(xe(t), ye(t))が、前方画像中の位置(xp(t),yp(t))における大きさ(hp(t),vp(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて歩行者pを目視しなかったことがわかる。また、時刻tにおいて前方画像中に歩行者pが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xp(t), yp(t))=(W/2,H/2),(hp(t), vp(t))=(W/2,H/2)を出力すればよい。
注視情報算出部219に出力する。ここで、前方画像中の車両cの位置(xc(t), yc(t))と車両cを包含する矩形領域の水平および垂直方向の大きさ(hc(t), vc(t))は、既存の任意の手
法によって算出すればよい。たとえば、特許文献8,9に記載の手法を用いることができる
。
は時刻tにおいて車両cを目視したことがわかる。一方、車両運転者の時刻tにおける視線
位置(xe(t), ye(t))が、前方画像中の位置(xc(t),yc(t))における大きさ(hc(t),vc(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて車両cを目視しなかったことがわかる。また、時刻tにおいて前方画像中に車両cが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xc(t), yc(t))=(W/2,H/2),(hc(t), vc(t))=(W/2,H/2)を出力すればよい。
注視情報算出部219に出力する。ここで、前方画像中の標識sの位置(xs(t), ys(t))と標識sを包含する矩形領域の水平および垂直方向の大きさ(hc(t), vc(t))は、既存の任意の手
法によって算出すればよい。たとえば、特許文献10,11に記載の手法を用いることができ
る。
は時刻tにおいて標識sを目視したことがわかる。一方、車両運転者の時刻tにおける視線
位置(xe(t), ye(t))が、前方画像中の位置(xs(t),ys(t))における大きさ(hs(t),vs(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて標識sを目視しなかったことがわかる。また、時刻tにおいて前方画像中に標識sが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xs(t), ys(t))=(W/2,H/2),(hs(t), vs(t))=(W/2,H/2)を出力すればよい。
出し、注視情報算出部219に出力する。ここで、前方画像中の信号機gの位置(xg(t), yg(t))と信号機gを包含する矩形領域の水平および垂直方向の大きさ(hg(t), vg(t))は、既存
の任意の手法によって算出すればよい。たとえば、特許文献12,13に記載の手法を用いる
ことができる。
は時刻tにおいて信号機gを目視したことがわかる。一方、車両運転者の時刻tにおける視
線位置(xe(t), ye(t))が、前方画像中の位置(xg(t),yg(t))における大きさ(hg(t),vg(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて信号機gを目視しなかったことがわかる。また、時刻tにおいて前方画像中に信号機gが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xg(t), yg(t))=(W/2,H/2),(hg(t), vg(t))=(W/2,H/2)を出力すればよい。
運転者の時刻tにおける視線位置(xe(t), ye(t))を表す。同様に、図10(b)は車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(xe(t), ye(t))を表す。ここで、車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(xe(t), ye(t))は、既存の任意の手法によって算出すればよい。たとえば、特許文献13,14,15に記載のステレオ測距の手法を用いてもよいし、TOF(Time Of Flight)手法を用いてもよい。
として抽出すればよい。これらの生体情報の抽出方法には既存の任意の手法を採用できる。たとえば、心拍であれば特許文献17,18に記載の手法を用いることができる。脈拍、心
電、呼吸、体温、体重、体脂肪、血圧、発汗、視線、筋電、皮膚インピーダンスについては特許文献18に記載の手法を用いることができる。
運転者の視線位置(xe(t), ye(t))と、歩行者検出部213で得られた時刻tにおける前方画像中の歩行者pの位置(xp(t), yp(t))と歩行者pを包含する矩形領域の水平および垂直方向の大きさ(hp(t), vp(t))と、車両検出部214で得られた時刻tにおける前方画像中の車両cの
位置(xc(t), yc(t))と車両cを包含する矩形領域の水平および垂直方向の大きさ(hc(t), v
c(t))と、標識検出部215で得られた時刻tにおける前方画像中の標識sの位置(xs(t), ys(t))と標識sを包含する矩形領域の水平および垂直方向の大きさ(hs(t), vs(t))と、信号機
検出部216で得られた時刻tにおける前方画像中の信号機gの位置(xg(t), yg(t))と信号機gを包含する矩形領域の水平および垂直方向の大きさ(hg(t), vg(t))と、距離情報算出部217で得られた車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(t)と、生体情報取得部218で得られた時刻tにおける車両運転者の生体情報v(t)を用いて注視情報f(t)=(X(t), Y(t), z(t), v(t))を算出し、時系列特徴量算出部22に出力する。具体的には、(X(t), Y(t))は次式で定義する。
ここで、上式の分母の各定数は次式で与えられる。
てもよい。
本発明の第3の実施形態について、図11を参照して説明する。
る。車両運転支援装置3は、図11に示すように、注視情報抽出部31、時系列特徴量算出部32、正常データ格納部33、評価データ格納部34、正常データ選択部35、相違算出部36、相
違提示部37、刺激発生部38を有する。これらの構成要素は車両運転支援装置3が果たす機
能にそれぞれ対応している。なお、本実施形態においては、第1の実施形態との相違箇所
のみ言及する。
ータ格納部14に格納された時系列特徴量との統計的分布の相違Dを算出したのに対して、
本実施形態では、正常データ選択部35を用いて、正常データ格納部33に格納された時系列特徴量の部分集合Sを作成し、得られた部分集合Sと評価データ格納部34に格納された時系列特徴量との統計的分布の相違Dを算出する点に特徴がある。
両運転者の属性情報に基づいて、正常データ格納部33に格納された時系列特徴量の部分集合Sを作成し、得られた部分集合Sを相違算出部36に出力する。具体的には、部分集合Sは
、車両運転者の属性情報(たとえば、個人名、年齢層、性別など)に基づいて、評価対象の車両運転者と類似する属性情報を有する正常データの集合として作成すればよい。あるいは、部分集合Sは、車両の走行状態(たとえば、市街地を走行時か、高速道路を走行時
か、郊外を走行時か、走行時は日中か、走行時は夜間か、走行時は快晴か、走行時は雨天かなど)に基づいて、評価対象の走行状態と類似する走行状態を有する正常データの集合として作成してもよい。あるいは、部分集合Sは、車両運転者の属性情報と車両の走行状
態の両方に基づいて決定してもよい。
上記の実施形態では、評価時と正常運転時の時系列特徴量の統計的分布の相違に基づいて画像表示や刺激発生を行っているが、当該相違が閾値以上の場合に漫然運転が発生していると検知してその場合のみ画像表示や刺激発生を行っても良い。また、漫然運転の発生が検知された場合の処理は上記に限られず、漫然運転の発生を知らせる通知を他の装置に対して出力するようにしても良い。
ラムその他を用いて実施してもよい。
11…注視情報抽出部
12…時系列特徴量算出部
13…正常データ格納部
14…評価データ格納部
15…相違算出部
16…相違表示部
17…刺激発生部
Claims (16)
- 車両運転者の漫然運転を検知する車両運転支援装置であって、
車両の前方方向の画像を取得する画像取得手段と、
車両運転者の注視情報を抽出する注視情報抽出手段と、
前記車両運転者の評価時における注視情報に基づいて時系列特徴量を算出する時系列特徴量算出手段と、
正常運転時における注視情報に基づく時系列特徴量を格納する正常データ格納手段と、
前記正常運転時と前記評価時における前記時系列特徴量の相違を算出する相違算出手段と、
前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知手段と、
を備える、車両運転支援装置。 - 前記注視情報は、前記前方方向の画像中の車両運転者の視線位置である、
請求項1に記載の車両運転支援装置。 - 前記注視情報は、前記前方方向の画像中の車両運転者の視線位置における距離情報である、
請求項1または2に記載の車両運転支援装置。 - 前記注視情報は、前記車両運転者の生体情報である、
請求項1から3のいずれか1項に記載の車両運転支援装置。 - 前記注視情報は、前記前方画像中の所定物体の位置および大きさと前記車両運転者の視線位置に基づいて算出される、
請求項1から4のいずれか1項に記載の車両運転支援装置。 - 前記時系列特徴量は、時間的に連続した前記注視情報を所定個数連結して与えられる、
請求項1から5のいずれか1項に記載の車両運転支援装置。 - 前記相違は、前記正常運転時の時系列特徴量と前記評価時の時系列特徴量との確率密度の比に基づいて算出される、
請求項1から6のいずれか1項に記載の車両運転支援装置。 - 前記相違は、前記正常運転時の時系列特徴量と前記評価時の時系列特徴量との確率密度の差に基づいて算出される、
請求項1から6のいずれか1項に記載の車両運転支援装置。 - 前記正常データ格納手段には、前記正常運転時における注視情報に基づく前記時系列特徴量が、前記正常運転時における車両運転者の属性情報または走行状態と関連付けて記憶されており、
前記評価時における車両運転者の属性情報または走行状態を取得し、当該属性情報または走行状態と類似する属性情報または走行状態と関連付けられた時系列特徴量を前記正常データ格納手段から選択する正常データ選択手段をさらに有し、
前記相違算出手段は、前記評価時における前記時系列特徴量と、前記正常データ選択手段によって選択された前記時系列特徴量との相違を算出する、
請求項1から8のいずれか1項に記載の車両運転支援装置。 - 前記相違の大きさを可視化し、前記車両運転者に提示する相違提示手段をさらに備える
、
請求項1から9のいずれか1項に記載の車両運転支援装置。 - 前記相違の大きさに基づいて、前記車両運転者に刺激を与える刺激発生手段をさらに備える、
請求項1から10のいずれか1項に記載の車両運転支援装置。 - 前記刺激発生手段は、前記相違の大きさに基づいて運転席を振動させる、
請求項11に記載の車両運転支援装置。 - 前記刺激発生手段は、前記相違の大きさに基づいて警告音を発する、
請求項11または12に記載の車両運転支援装置。 - 前記刺激発生手段は、前記相違の大きさに基づいて車両運転者に音声で警告する、
請求項11から13のいずれか1項に記載の車両運転支援装置。 - 車両運転者の漫然運転を検知する車両運転支援方法であって、
車両の前方方向の画像を取得する画像取得ステップと、
車両運転者の注視情報を抽出する注視情報抽出ステップと、
前記車両運転者の評価時における注視情報に基づいて時系列特徴量を算出する時系列特徴量算出ステップと、
前記評価データ算出ステップにおいて算出された時系列特徴量と、あらかじめ算出された正常運転時における注視情報に基づく時系列特徴量と、の相違を算出する相違算出ステップと、
前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知ステップと、
を含む、車両運転支援方法。 - コンピュータに請求項15に記載の方法の各ステップを実施させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015168638A JP6459856B2 (ja) | 2015-08-28 | 2015-08-28 | 車両運転支援装置、車両運転支援方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015168638A JP6459856B2 (ja) | 2015-08-28 | 2015-08-28 | 車両運転支援装置、車両運転支援方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017045351A true JP2017045351A (ja) | 2017-03-02 |
JP6459856B2 JP6459856B2 (ja) | 2019-01-30 |
Family
ID=58211469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015168638A Active JP6459856B2 (ja) | 2015-08-28 | 2015-08-28 | 車両運転支援装置、車両運転支援方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6459856B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019239459A1 (ja) * | 2018-06-11 | 2019-12-19 | 三菱電機株式会社 | 運転支援装置、運転支援システムおよび運転支援方法 |
WO2020195167A1 (ja) * | 2019-03-28 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 漫然状態判定装置 |
WO2020195168A1 (ja) * | 2019-03-28 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 漫然状態判定装置および漫然状態判定方法 |
JP2021077139A (ja) * | 2019-11-11 | 2021-05-20 | マツダ株式会社 | 運転者状態推定装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0920157A (ja) * | 1995-07-10 | 1997-01-21 | Nissan Diesel Motor Co Ltd | 覚醒度低下検出装置 |
JP2006231962A (ja) * | 2005-02-22 | 2006-09-07 | Toyota Motor Corp | 車両用運転支援装置 |
JP2007094542A (ja) * | 2005-09-27 | 2007-04-12 | Denso Corp | 危険発生箇所情報収集システム及び車載機器 |
JP2008228759A (ja) * | 2007-03-16 | 2008-10-02 | Toyota Central R&D Labs Inc | 意識低下判定装置及びプログラム |
JP2008250775A (ja) * | 2007-03-30 | 2008-10-16 | Denso Corp | データベース装置、注意喚起装置及び運転支援装置 |
JP2011115450A (ja) * | 2009-12-04 | 2011-06-16 | Toyota Central R&D Labs Inc | 漫然状態判定装置、方法及びプログラム |
WO2015064080A1 (ja) * | 2013-11-01 | 2015-05-07 | パナソニックIpマネジメント株式会社 | 視線方向検出装置および視線方向検出方法 |
JP2015153048A (ja) * | 2014-02-12 | 2015-08-24 | 株式会社デンソー | 運転支援装置 |
-
2015
- 2015-08-28 JP JP2015168638A patent/JP6459856B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0920157A (ja) * | 1995-07-10 | 1997-01-21 | Nissan Diesel Motor Co Ltd | 覚醒度低下検出装置 |
JP2006231962A (ja) * | 2005-02-22 | 2006-09-07 | Toyota Motor Corp | 車両用運転支援装置 |
JP2007094542A (ja) * | 2005-09-27 | 2007-04-12 | Denso Corp | 危険発生箇所情報収集システム及び車載機器 |
JP2008228759A (ja) * | 2007-03-16 | 2008-10-02 | Toyota Central R&D Labs Inc | 意識低下判定装置及びプログラム |
JP2008250775A (ja) * | 2007-03-30 | 2008-10-16 | Denso Corp | データベース装置、注意喚起装置及び運転支援装置 |
JP2011115450A (ja) * | 2009-12-04 | 2011-06-16 | Toyota Central R&D Labs Inc | 漫然状態判定装置、方法及びプログラム |
WO2015064080A1 (ja) * | 2013-11-01 | 2015-05-07 | パナソニックIpマネジメント株式会社 | 視線方向検出装置および視線方向検出方法 |
JP2015153048A (ja) * | 2014-02-12 | 2015-08-24 | 株式会社デンソー | 運転支援装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019239459A1 (ja) * | 2018-06-11 | 2019-12-19 | 三菱電機株式会社 | 運転支援装置、運転支援システムおよび運転支援方法 |
JPWO2019239459A1 (ja) * | 2018-06-11 | 2020-12-17 | 三菱電機株式会社 | 運転支援装置、運転支援システムおよび運転支援方法 |
JP7003254B2 (ja) | 2018-06-11 | 2022-01-20 | 三菱電機株式会社 | 運転支援装置、運転支援システムおよび運転支援方法 |
WO2020195167A1 (ja) * | 2019-03-28 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 漫然状態判定装置 |
WO2020195168A1 (ja) * | 2019-03-28 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 漫然状態判定装置および漫然状態判定方法 |
JPWO2020195167A1 (ja) * | 2019-03-28 | 2020-10-01 | ||
JP7432899B2 (ja) | 2019-03-28 | 2024-02-19 | パナソニックIpマネジメント株式会社 | 漫然状態判定装置 |
JP2021077139A (ja) * | 2019-11-11 | 2021-05-20 | マツダ株式会社 | 運転者状態推定装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6459856B2 (ja) | 2019-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6497915B2 (ja) | 運転支援システム | |
EP3488382B1 (en) | Method and system for monitoring the status of the driver of a vehicle | |
JP6343808B2 (ja) | 視野算出装置および視野算出方法 | |
EP3033999B1 (en) | Apparatus and method for determining the state of a driver | |
JP6459856B2 (ja) | 車両運転支援装置、車両運転支援方法、およびプログラム | |
US9465979B2 (en) | Measurement-target-selecting device, face-shape-estimating device, method for selecting measurement target, and method for estimating face shape | |
JP6320942B2 (ja) | 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法 | |
US10899356B2 (en) | Drowsiness prevention device, drowsiness prevention method, and recording medium | |
JP2007188417A (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
JP2013009825A (ja) | 視認負荷量推定装置、運転支援装置、および視認負荷量推定プログラム | |
WO2019097595A1 (ja) | 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム | |
US20220284718A1 (en) | Driving analysis device and driving analysis method | |
JP2016115117A (ja) | 判定装置および判定方法 | |
JP2012221162A (ja) | 対象物検出装置及びプログラム | |
JP2009070344A (ja) | 画像認識装置、画像認識方法および電子制御装置 | |
JP2007280219A (ja) | 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム | |
JP2016115120A (ja) | 開閉眼判定装置および開閉眼判定方法 | |
JP6572538B2 (ja) | 下方視判定装置および下方視判定方法 | |
JP6731481B2 (ja) | 車両の搭乗者の少なくとも1つの目の開眼データを分類する方法および装置、および、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法および装置 | |
KR20170028631A (ko) | 정면 얼굴 영상의 복원을 통한 운전자 부주의 검출 방법 및 장치 | |
JP6772775B2 (ja) | 運転支援装置および運転支援方法 | |
JP6449504B1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2021105958A (ja) | ドライバ状態推定装置およびドライバ状態推定方法 | |
JP2020103704A (ja) | 情報処理装置及びプログラム | |
Mihai et al. | Using dual camera smartphones as advanced driver assistance systems: Navieyes system architecture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181217 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6459856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |