JP2005212709A - 車両運転支援システム - Google Patents
車両運転支援システム Download PDFInfo
- Publication number
- JP2005212709A JP2005212709A JP2004025046A JP2004025046A JP2005212709A JP 2005212709 A JP2005212709 A JP 2005212709A JP 2004025046 A JP2004025046 A JP 2004025046A JP 2004025046 A JP2004025046 A JP 2004025046A JP 2005212709 A JP2005212709 A JP 2005212709A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- information
- support system
- driving
- driving support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
Abstract
【解決手段】本発明による支援システムは、車両内外の映像情報、走行状態、運転環境の情報入力手段5、それらの情報を処理する処理装置1,2,3および処理結果を表示する出力手段4を備えている。マルチモーダル提示情報選択制御部3により情報提示における提示情報の表現メディア、画像の解像度、画像表示画面の大きさ、提示速度、情報提示タイミング、音像定位方向のいずれかまたは複数を選択し制御する。
【選択図】図1
Description
静止画が簡単に撮れるデジタルスチルカメラやビデオカメラが、携帯電話やPDAやパソコンに搭載されるようになり、様々な応用が生まれるようになり、ビジネスチャンスも拡大している。
さらに詳しく言えば本発明の目的は、複数のカメラを設けた車両における、ドライビング・アシスト、同乗者・アシスト、コミュニケーション・アシスト等の支援を状況または、環境に応じて提供できる運転支援システムを提供することにある。
車両内外の映像情報、走行状態、または運転環境の情報を処理する処理装置の処理結果を表示する車両の運転支援システムにおいて、
車両外部の外界状況を認識判断する手段と、
走行速度や走行方向などの車両運行状態、温度、騒音レベル、湿度、明るさなどに関する車両内部状況を認識判断する手段と、
運転者あるいは同乗者に関する乗車人間状況を認識判断する手段と、
前記車両の外部と内部、および、乗車人間状況の認識判断結果を総合的に判断する車両状況判断部での車両状況判断結果に基づき、外界情報と外界状況認識判断結果とを動的に変化させて運転者へ情報提示する出力手段と、
情報提示における提示情報の表現メディア、画像の解像度、画像表示画面の大きさ、提示速度、情報提示タイミング、音像定位方向のいずれかまたは複数を選択し制御するためのマルチモーダル提示情報選択制御部と、
を有することを特徴とする。
第1項記載の車両運転支援システムにおいて、
前記車両の運行状況,車両外部状況,車両内部状況,および乗車人間状況の情報のいずれかまたは複数を蓄積する手段を有することを特徴とする。
第1項記載の車両運転支援システムにおいて、
複数のカメラから得られた画像情報を処理し、車両周囲の画像を合成して、運転者および同乗者に提示する手段を有することを特徴とする。
第1項記載の車両運転支援システムにおいて、
車両および人間の認識判断結果に基づいて、車載運転支援システムの運転支援モードを制御する手段を有することを特徴とする。
第4項記載の車両運転支援システムにおいて、
通常走行、高速走行、夜間運転、雨天運転、急停車、急減速、後ろ向き走行などの走行モードを決定する手段と、
車両の乗車人数、追い越しや駐車などの運転意図、運転者や同乗者の疲労度、車両内のオーディオ出力のレベルに係わる運転モードを決定する手段を有し、
これらのモード情報を用いて、外界状況の提示を変化させることを特徴とする。
第1項記載の車両運転支援システムにおいて、
車両運行時の目的地を入力する手段を有し、
運転者あるいは同乗者の移動目的が仕事、買い物、観光などである車両運転目的を入力する手段を有し、
前記目的地情報と車両運転目的情報を用いて、
複数のカメラの制御や外界情報の提示を変化させることを特徴とする。
第1項記載の車両運転支援システムにおいて、
車両内にも乗車人間の情報を入力するためのカメラとマイクとを具備することを特徴とする。
第7項記載の車両運転支援システムにおいて、
車両内部の乗車人間と車両外部の人間とが互いにオンライン通信する手段を有し、
両者がオンライン通信している場合、相手の車両を自車両のカメラで捕らえたことを検知する手段と、相手車両を映し出す手段を有することを特徴とする。
さらに、具体的にいうと、本発明による支援システムでは運転者のサラウンディング感覚を増幅する全周囲あるいは半周囲の視覚補完システム "サラウンドビジョン" を実現できる。これは通常の、フロントガラスや側面の窓ガラスを通し、また、車両前方にあるフェンダーミラーや室内のバックミラー、あるいは、後方の窓ガラスを経由した車両周囲の視覚的情報を同時に見ることができ、さらに、これまで死角となっていた車両の周囲の視覚的情報をも複数のカメラを利用して入力し、計算機処理して加工処理および適切な提示を行うことにより、サラウンディング感覚を付与するものである。
これは通常の、フロントガラスや側面の窓ガラスを通し、また、車両前方にあるフェンダーミラーや室内のバックミラー、あるいは、後方の窓ガラスを経由した車両周囲の視覚的情報を同時に見ることができ、さらに、これまで死角となっていた車両の周囲の視覚的情報をも複数のカメラを利用して入力し、計算機処理して加工処理および適切な提示を行うことにより、サラウンディング感覚を付与するものである。
複数のカメラ(図2および図5参照)から得られる車両の外部(外界)の視覚情報(画像情報)は、車外状況情報処理部1に送られて、画像情報の編集・加工や認識処理など様々な処理がなされる。ここで、使用されるカメラ群(A)(図2参照)は通常のカメラ,距離情報があわせて取得可能なカメラのいずれであっても良い。それらのセンサ群5の出力は車外状況情報処理部1,車内状況情報処理部2に入力される。車内状況情報処理部2は、車両運行状況認識判断部2a、車両内部状況認識判断部2b、乗車人間状況認識判断部2cから構成されている。
この実施例では車外状況情報処理部1をサテライトプロセッサ(B)で、残りをセントラルプロセッサ(C)に配置するものとして説明する。図3は、本発明による支援システムのハードウエア構成を示すブロック図である。システムバス接続に関しバスアービタ,コンフィギュレーション用ROM,作業用RAM動作用電源等が一般に必要であるが、詳述しない。図において、33の部分は車外情報処理部、32の部分はセントラルプロセッサ(C)に相当し、ディスプレイやカメラ等は入出力31としてまとめて示してある。なお、33の車外情報処理部には道路面の白線や物体の検出のための認識部専用ハードウェア33aを設けてある。
図においてカメラ51により車内の情報が入力され、カメラ52,53は車外の情報を取得するために配置されている。カメラの光軸はリモートコントロールにより調整可能である。
例えば、運転中に、車外状況情報処理部1で、歩行者や犬や猫の検出が自動的に行われた場合、サラウンド画像に対して、犬や猫や歩行者の、位置や方向や行動(動作)を認識判断し、音声で「進行方向の右前方に犬が走っています」、「斜め後方に老人の歩行者がいます」「クルマの横で酔っ払いがふらついています」などと、テキスト音声合成で伝える。また、検出された「犬」や「老人」などを色や明るさを強調して表示したり、点滅させたり、デフォルメさせたりすることができる。さらに、複数のスピーカの指向性を制御して、運転者の「気づき」の能力を向上させることも可能である。
さらに、車両の走行速度と走行位置や走行方向など車両運行状況認識判断部2a(図1)で把握することにより、フロントのサラウンド画像の表示領域を、前方180度、240度、270度、360度など、あるいは、右前方、後方など、種々変更させることができる。
(ステップ1) 車体に配置したカメラ群のうち隣接するもの同士の画像をサテライトプロセッサ(B)に送る。各サテライトプロセッサ(B)の車外状況情報処理部1では隣接カメラの画像から対応点を検出し、両眼視差の原理を用いて各画素の奥行き (すなわち距離情報) を算出し、各画素をボクセル空間にマッピングする。距離情報が取得可能なカメラの場合は、このステップは省略可能である。
なお、カメラで捉えたドライバーの実際の動きを車内状況情報処理部2で解析のうえ、頭部や眼球の動きに応答させることもできる。また、車内状況情報処理部2において車速等の車両情報を考慮し、車庫入れ等の低速時は応答角を誇張,定速走行時は誇張を抑制するなど、応答の加減を調整することもできる。
(ステップ4) サテライトプロセッサ(B)で分散して行った視点変換結果をシステムバスを通じ再びセントラルプロセッサ(C)に送り返す。各サテライトから送られてくる複数のボクセル空間は、視点変換により統一座標系をもつ部分空間をなしているから、これらを張り合わせることでドライバー座標系のグローバルなボクセル空間が完成する。
(ステップ6) 射影により得られた平面画像を各ディスプレイに対して送ることでサラウンド画像を提示する。
車の基本機能である、選択したギアの情報を活用して、車両運転状況を的確に把握し、クルマ後部のリアカメラのスイッチをオンにし、リアカメラ画像をそのままフロントやバックミラーの画面に表示するとともに、エッジ検出やオプティカルフロー計算を行う。障害物の発見などの処理を行う。また、同様に、ブレーキをかけた時の情報も同様に活用できる。
バック撮像用カメラ53(図5)からの映像を解析し、移動障害物と静止障害物を検出する。
バックギアの操作(ステップ700)に関連し次のステップを実行する。
形状や色、大きさ情報から障害物を特定する(ステップ702〜707)。
移動障害物に関しては、人や動物などが含まれるため緊急性を有するものはブレーキをかけて停止を促す(ステップ708→ステップ713)。
車の後方に配置したマイク(センサの一種)から音声を取り込み分析し、声から動物を検出する(ステップ710〜ステップ712)。
動物を検出した場合もブレーキをかけて停止を促す(ステップ713)。
最終的な提示画像は2つの領域に分けて合成し、カメラ画像と距離に応じた障害物アイコンを提示する(ステップ714)。
映像は車両後方に設置したモニタに提示する(ステップ715)。
さらには、フロントのサラウンド画像を複数種類用意したり、フロントガラスに映し出したり、サイドミラーやバックミラーと分散協調的に提示することも可能である。
画面左側はリアカメラからの映像,右側は距離に応じて障害物をアイコンで提示する。なお、前方のディスプレイで行うことも可能である。
図9は、リアカメラ映像の表示の他の例を示す説明図である。
図9に示すように、各種障害物や周囲の状況をデフォルメして表示したり、音声合成などするのも効果的である。このような各種提示が次世代運転支援で実現できる。
高速走行や、追い越しや追い抜かれ状況に関する処理を説明している。関係する車両と自車両の速度や、関係や、距離の計測、把握、判断が重要である。その状況判断によって、各種情報提示を変化させると効果的である。
図11は、図10に関連して説明した通常走行モードで走行中の後方の他の車両等との関連の例を示す平面図である。
このような少し複雑な状況下においても、複数のカメラ情報処理を基本として、パターン認識や各種コンピュータビジョンの技術(分散協調視覚技術)により、車外状況を把握できる。このような技術は既に利用可能な状況にあるので、車両の状況をマルチモーダル・クルージング・ビークルが把握し、その状況に応じて、必要な車外の外界画像処理を行なう。
左右後方に設置したカメラ(図2,図5)からの画像を解析し、接近車両を検出する(
左 ステップ802〜805,右 ステップ807〜810)。
速度と距離を測定しカメラ画像にアノテーションを付与する。
左カメラ映像をモニタの左に、右カメラ映像をモニタの右に提示する(ステップ806,811,817)。
緊急車両はマイクから収集した音声を解析し発見する(ステップ812〜816)。
緊急車両は図12に示すように、モニタ上に重畳し大げさに提示する(ステップ816,817)。
処理の流れの方向(上から下)に沿って処理手段等を配列してある。なお各部を図1に対応させて数字を付してある。
センサ群5の車外センサとして、車外用のカメラ(イメージセンサ)5a複数組と、マイク5bがある。走行状態等を検出する車体センサとして、車体速度センサ5c、ギアシフト位置検出センサ5d、操舵各方向指示器関連センサ5eが設けられている。
また車内センサとして、運転者等検出カメラ5f、マイク5gがある。それらの検出出力はマルチモーダルプロセッサ(図1の、1,2,3相当)の処理部で図の上から下に順次処理されて、対応する表示手段4の車外向け表示手段4e、車体に関連する出力手段4d,車内の出力手段4c等で出力される。なお、車外向けデバイス4eは、請求項8記載の支援システムを形成するときに用いられる。
図1に示した基本構成に対応する数字を付してある。ただし出力手段は表示のみに限っている。センサ群5として全周囲カメラ,2眼カメラ(測距用)およびハンドル・ブレーキ・アクセル等の位置情報を取得するセンサを準備している。これらのセンサから得られた情報についてはオプティカルフローの情報処理技術を用いて動きを予測したり、距離情報、運転状況の情報を獲得し、画像および認識結果を合成して画像変換部により画像に変換し、表示手段4に表示する。
(ステップ1800〜1801) 図15における目的地・目的入力部1501において、目的が仕事であり、目的地に初めて訪れる場合であるかを調べる。
(ステップ1802) 現在位置取得部1502から得られる自車両の位置情報から、目的地に到達したかを検出しシステムの実行および終了を判断する。
(ステップ1803) 位置情報の履歴または方位センサなどから車両の運行が右左折時であるかを検出する。
(ステップ1804) 位置情報と目的地・目的情報をもとに提示手段決定部1503において決定した提示手段に従い、カメラ制御部1504により、車両外部に設置したカメラから右左折時周辺の画像を撮影し、画像解析により特徴を抽出する。
(ステップ1805) 提示映像生成部1505で得られるカメラ映像とステップ1804で得た特徴を合わせて記録する。
(ステップ1807) ステップ1805で蓄積した映像と特徴を合成し、映像コンテンツとして記録する。
目的地入力では、例えばナビゲーションシステムにおいてカーソルを特定の場所や建物に合わせることで、コンビニエンスストアであれば「買い物」「散歩」などの目的候補がボタンとして画面に表示され、同時に音声により選択枝が読み上げられる。表示されたボタンを押す、または音声で目的を発話することで入力を完了する。
目的入力では、例えば、目的に応じて木構造のメニューを画面に表示する。目的により分類されたメニューを選択していくことで、自車両から近い対象がモニタ上に三角マークで指示され、選択または音声により選択することで入力を完了する。
音声による入力では、目的地を先に言えば目的地中心、目的を先に言えば目的中心インタフェースに自動的にスイッチし、自然発話に近い入力が行える機能も有する。
(ステップ1900) 図16における車内用マイク1601bから得た音声を音声解析部1602bで解析し、同乗者による音声コマンドを検出する。
(ステップ1901) マイクの位置からステップ1900でコマンドを発した同乗者を特定する。
(ステップ1902) 車内用カメラ1601aの映像を画像解析部1602aで処理し、同乗者の顔を獲得する。
(ステップ1903) ステップ1902で撮影した顔画像を画像解析部1602aで解析し、視線方向を検出する。乗車人間用入力情報判断部1603において視線インタフェースとして認識する。
(ステップ1904) カメラ位置とステップ1903で検出した視線方向から、対象者が見ている風景が映るようにカメラを制御する。
(ステップ1905) ステップ1904で制御したカメラから得られる映像をコンテンツとして記録する。
(ステップ1906〜1907) 対象者の終了コマンドを検出すると終了する。
(ステップ2000) 図17におけるネットワーク接続検出部1701で、オンライン登録をしている車両位置を検索する。
(ステップ2001) 通信相手位置・情報取得部1702aにおいて獲得した相手車両位置および自車両位置取得部1702bから獲得した自車両位置から近くを走行中の車両を判断する。
(ステップ2002) ステップ2001で発見した車両にアクセスし、通信相手位置・情報取得部1702aから相手車両の色や形状を含む車両情報を獲得する。
(ステップ2003) ステップ2001で発見した相手車両位置を乗車人間に音声で通知する。
(ステップ2004) カメラ制御部1703において、車両に搭載したカメラをステップ2001で検出した相手車両位置に向ける。
(ステップ2005) ステップ2002で獲得した車両情報を元にステップ2004で獲得したカメラ映像から相手車両を特定する。
(ステップ2006) カメラ映像処理部1704において、ステップ2005で獲得した相手車両映像を画像処理し、提示映像生成部1705で生成した映像を、車内に設置したモニタで乗車人間に映像を提示する。
ステップ2004で獲得されたカメラ画像を図24aとすると、ステップ2005で獲得した対象情報を活用し、同乗人間に分かりやすいように画像処理を施す。例えば図24aの画像のエッジを強調しグレースケールに変換する。検出した対象を元画像から抽出し、変換した画像上に重ね合わせ対象を線で囲み図24bを生成する。
2 車内状況情報処理部
3 マルチモーダル提示情報選択制御部(セントラルプロセッサ)
4 出力手段(ディスプレイ,スピーカ等の表示手段)
5 入力手段(カメラ,マイク等のセンサ群)
Claims (8)
- 車両内外の映像情報、走行状態、または運転環境の情報を処理する処理装置の処理結果を表示する車両の運転支援システムにおいて、
車両外部の外界状況を認識判断する手段と、
走行速度や走行方向などの車両運行状態、温度、騒音レベル、湿度、明るさなどに関する車両内部状況を認識判断する手段と、
運転者あるいは同乗者に関する乗車人間状況を認識判断する手段と、
前記車両の外部と内部、および、乗車人間状況の認識判断結果を総合的に判断する車両状況判断部での車両状況判断結果に基づき、外界情報と外界状況認識判断結果とを動的に変化させて運転者へ情報提示する出力手段と、
情報提示における提示情報の表現メディア、画像の解像度、画像表示画面の大きさ、提示速度、情報提示タイミング、音像定位方向のいずれかまたは複数を選択し制御するためのマルチモーダル提示情報選択制御部と、
を有することを特徴とする車両運転支援システム。 - 第1項記載の車両運転支援システムは、
前記車両の運行状況,車両外部状況,車両内部状況,および乗車人間状況の情報のいずれかまたは複数を蓄積する手段を有することを特徴とする車両運転支援システム。 - 第1項記載の車両運転支援システムは、
複数のカメラから得られた画像情報を処理し、車両周囲の画像を合成して、運転者および同乗者に提示する手段を有することを特徴とする車両運転支援システム。 - 第1項記載の運転支援システムは、
車両および人間の認識判断結果に基づいて、車載運転支援システムの運転支援モードを制御する手段を有することを特徴とする車両運転支援システム。 - 第4項記載の車両運転支援システムは、
通常走行、高速走行、夜間運転、雨天運転、急停車、急減速、後ろ向き走行などの走行モードを決定する手段と、
車両の乗車人数、追い越しや駐車などの運転意図、運転者や同乗者の疲労度、車両内のオーディオ出力のレベルに係わる運転モードを決定する手段を有し、
これらのモード情報を用いて、外界状況の提示を変化させることを特徴とする車両運転支援システム。 - 第1項記載の車両運転支援システムは、
車両運行時の目的地を入力する手段を有し、
運転者あるいは同乗者の移動目的が仕事、買い物、観光などである車両運転目的を入力する手段を有し、
前記目的地情報と車両運転目的情報を用いて、
複数のカメラの制御や外界情報の提示を変化させることを特徴とする車両運転支援システム。 - 第1項記載の車両運転支援システムは、
車両内にも乗車人間の情報を入力するためのカメラとマイクとを具備することを特徴とする車両運転支援システム。 - 第7項記載の車両運転支援システムは、
車両内部の乗車人間と車両外部の人間とが互いにオンライン通信する手段を有し、
両者がオンライン通信している場合、相手の車両を自車両のカメラで捕らえたことを検知する手段と、相手車両を映し出す手段を有することを特徴とする車両運転支援システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004025046A JP2005212709A (ja) | 2004-02-02 | 2004-02-02 | 車両運転支援システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004025046A JP2005212709A (ja) | 2004-02-02 | 2004-02-02 | 車両運転支援システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005212709A true JP2005212709A (ja) | 2005-08-11 |
Family
ID=34907534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004025046A Pending JP2005212709A (ja) | 2004-02-02 | 2004-02-02 | 車両運転支援システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005212709A (ja) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007124609A (ja) * | 2005-09-28 | 2007-05-17 | Nissan Motor Co Ltd | 車両周囲映像提供装置 |
WO2008087706A1 (ja) * | 2007-01-16 | 2008-07-24 | Pioneer Corporation | 車両用表示装置、車両用表示方法及び車両用表示プログラム |
JP2008309533A (ja) * | 2007-06-13 | 2008-12-25 | Ihi Corp | 車両形状計測方法と装置 |
JP2010114547A (ja) * | 2008-11-05 | 2010-05-20 | Canon Inc | 撮影システム及びレンズ装置 |
CN103192767A (zh) * | 2013-01-07 | 2013-07-10 | 浙江吉利汽车研究院有限公司杭州分公司 | 汽车侧后视镜智能调节控制系统及其控制方法 |
JP2013184491A (ja) * | 2012-03-06 | 2013-09-19 | Nissan Motor Co Ltd | 車両走行支援装置 |
WO2014061664A1 (ja) * | 2012-10-17 | 2014-04-24 | 日立マクセル株式会社 | 画像伝送システム |
JP5706874B2 (ja) * | 2010-03-03 | 2015-04-22 | 本田技研工業株式会社 | 車両の周辺監視装置 |
KR20160051421A (ko) * | 2014-11-03 | 2016-05-11 | 현대모비스 주식회사 | 운전 장애 처리 장치 |
JP2016103264A (ja) * | 2014-11-27 | 2016-06-02 | エレクトロビット オートモーティブ ゲーエムベーハー | 自動車の運転手用の装着可能な器械 |
CN105751970A (zh) * | 2016-02-26 | 2016-07-13 | 卢佳龙 | 后视镜智能调节系统 |
WO2019155936A1 (ja) * | 2018-02-07 | 2019-08-15 | 株式会社東海理化電機製作所 | 車両用視認装置 |
JP2021010175A (ja) * | 2020-09-29 | 2021-01-28 | トヨタ モーター ヨーロッパ | 環境コンテキストにおいて人間のような制御行動をシミュレーションするためのシステム及びコンピュータに基づく方法。 |
US11379705B2 (en) | 2015-07-23 | 2022-07-05 | Toyota Motor Europe | System and computer-based method for simulating a human-like control behaviour in an environmental context |
CN115249413A (zh) * | 2021-04-27 | 2022-10-28 | 丰田自动车株式会社 | 信息处理装置以及信息处理方法 |
-
2004
- 2004-02-02 JP JP2004025046A patent/JP2005212709A/ja active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007124609A (ja) * | 2005-09-28 | 2007-05-17 | Nissan Motor Co Ltd | 車両周囲映像提供装置 |
US8174576B2 (en) | 2005-09-28 | 2012-05-08 | Nissan Motor Co., Ltd. | Vehicle periphery video providing apparatus and method |
WO2008087706A1 (ja) * | 2007-01-16 | 2008-07-24 | Pioneer Corporation | 車両用表示装置、車両用表示方法及び車両用表示プログラム |
JPWO2008087706A1 (ja) * | 2007-01-16 | 2010-05-06 | パイオニア株式会社 | 車両用表示装置、車両用表示方法及び車両用表示プログラム |
JP2008309533A (ja) * | 2007-06-13 | 2008-12-25 | Ihi Corp | 車両形状計測方法と装置 |
JP2010114547A (ja) * | 2008-11-05 | 2010-05-20 | Canon Inc | 撮影システム及びレンズ装置 |
JP5706874B2 (ja) * | 2010-03-03 | 2015-04-22 | 本田技研工業株式会社 | 車両の周辺監視装置 |
JP2013184491A (ja) * | 2012-03-06 | 2013-09-19 | Nissan Motor Co Ltd | 車両走行支援装置 |
US9877026B2 (en) | 2012-10-17 | 2018-01-23 | Hitachi Maxell, Ltd. | Image transmission system |
WO2014061664A1 (ja) * | 2012-10-17 | 2014-04-24 | 日立マクセル株式会社 | 画像伝送システム |
JP2014082651A (ja) * | 2012-10-17 | 2014-05-08 | Hitachi Consumer Electronics Co Ltd | 画像伝送システム |
CN103192767A (zh) * | 2013-01-07 | 2013-07-10 | 浙江吉利汽车研究院有限公司杭州分公司 | 汽车侧后视镜智能调节控制系统及其控制方法 |
KR20160051421A (ko) * | 2014-11-03 | 2016-05-11 | 현대모비스 주식회사 | 운전 장애 처리 장치 |
KR102317237B1 (ko) * | 2014-11-03 | 2021-10-26 | 현대모비스 주식회사 | 운전 장애 처리 장치 |
US10086758B2 (en) | 2014-11-27 | 2018-10-02 | Elektrobit Automotive Gmbh | Wearable apparatus for use by a driver of a motor vehicle |
JP2016103264A (ja) * | 2014-11-27 | 2016-06-02 | エレクトロビット オートモーティブ ゲーエムベーハー | 自動車の運転手用の装着可能な器械 |
US11379705B2 (en) | 2015-07-23 | 2022-07-05 | Toyota Motor Europe | System and computer-based method for simulating a human-like control behaviour in an environmental context |
CN105751970A (zh) * | 2016-02-26 | 2016-07-13 | 卢佳龙 | 后视镜智能调节系统 |
WO2019155936A1 (ja) * | 2018-02-07 | 2019-08-15 | 株式会社東海理化電機製作所 | 車両用視認装置 |
JP2021010175A (ja) * | 2020-09-29 | 2021-01-28 | トヨタ モーター ヨーロッパ | 環境コンテキストにおいて人間のような制御行動をシミュレーションするためのシステム及びコンピュータに基づく方法。 |
JP7204717B2 (ja) | 2020-09-29 | 2023-01-16 | トヨタ モーター ヨーロッパ | 環境コンテキストにおいて人間のような制御行動をシミュレーションするためのシステム及びコンピュータに基づく方法。 |
CN115249413A (zh) * | 2021-04-27 | 2022-10-28 | 丰田自动车株式会社 | 信息处理装置以及信息处理方法 |
CN115249413B (zh) * | 2021-04-27 | 2023-11-10 | 丰田自动车株式会社 | 信息处理装置以及信息处理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102432614B1 (ko) | 차량 탑승자 및 원격 사용자를 위한 공유 환경 | |
JP3102250B2 (ja) | 車両用周囲情報表示装置 | |
US11148671B2 (en) | Autonomous systems human controller simulation | |
CN111386701B (zh) | 图像处理装置和图像处理方法 | |
KR101730321B1 (ko) | 운전자 보조 장치 및 그 제어방법 | |
JP7613364B2 (ja) | 表示システム、表示装置、表示方法、及び、移動装置 | |
KR101732983B1 (ko) | 차량용 리어 콤비네이션 램프 및 이를 포함하는 차량 | |
JP5618138B2 (ja) | 駐車支援装置 | |
JP2005212709A (ja) | 車両運転支援システム | |
US20150062168A1 (en) | System and method for providing augmented reality based directions based on verbal and gestural cues | |
JP2012071635A (ja) | 駐車支援装置 | |
KR20160142167A (ko) | 차량용 디스플레이 장치 및 이를 구비한 차량 | |
JP2012071635A5 (ja) | ||
JP7382327B2 (ja) | 情報処理装置、移動体、情報処理方法及びプログラム | |
JP2020061642A (ja) | エージェントシステム、エージェント制御方法、およびプログラム | |
JP2020080542A (ja) | 車両の画像提供システム、サーバーシステムおよび車両の画像提供方法 | |
JP2008236403A (ja) | 車両用運転支援装置 | |
JP2007237785A (ja) | 車載用情報提示システム | |
JP2020020987A (ja) | 車内システム | |
KR20170041418A (ko) | 차량용 디스플레이 장치 및 그 제어방법 | |
KR20160064762A (ko) | 차량용 디스플레이 장치 및 이를 구비한 차량 | |
KR101807788B1 (ko) | 차량용 디스플레이 장치 및 그 제어방법 | |
WO2022085487A1 (ja) | カメラモジュール、情報処理システム、情報処理方法、及び、情報処理装置 | |
WO2020008876A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び、移動体 | |
KR20170119224A (ko) | 차량용 디스플레이 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070118 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090811 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091215 |