JP6985089B2 - 立体物接地判定装置 - Google Patents
立体物接地判定装置 Download PDFInfo
- Publication number
- JP6985089B2 JP6985089B2 JP2017191579A JP2017191579A JP6985089B2 JP 6985089 B2 JP6985089 B2 JP 6985089B2 JP 2017191579 A JP2017191579 A JP 2017191579A JP 2017191579 A JP2017191579 A JP 2017191579A JP 6985089 B2 JP6985089 B2 JP 6985089B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional object
- dimensional
- floating
- ecu
- calculation timing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 claims description 134
- 239000007787 solid Substances 0.000 claims description 40
- 238000003384 imaging method Methods 0.000 claims description 13
- 238000000034 method Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000012887 quadratic function Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 2
- 229920002554 vinyl polymer Polymers 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
車両に搭載されており、
ステレオカメラを用いて車両前方の領域を撮像する撮像手段(11、ステップ1002)と、
前記撮像手段(11)によって撮像された撮像画像に基づいて当該撮像画像を構成する各画素の視差を含む視差情報を算出する視差情報算出手段(ステップ1006)と、
前記視差情報に基づいて前記撮像画像中の立体物を検出する立体物検出手段(ステップ1012)と、
前記視差情報に基づいて、路面から、前記検出された立体物の下端まで、の高さである下端高さ(h)を算出し、前記下端高さ(h)が所定の閾値以下の場合、前記立体物は前記路面に接地している接地物であると暫定的に判定し、前記下端高さ(h)が前記所定の閾値を超えている場合、前記立体物は前記路面から浮遊している浮遊物であると暫定的に判定する暫定判定を所定の演算時間が経過する毎に実行する暫定判定手段と(ステップ1018、1032)、
前記立体物が接地物であるか浮遊物であるかを最終的に判定する最終判定を前記所定の演算時間が経過する毎に実行する最終判定手段(ステップ1022、1026、1038、1048)と、を備え、
前記最終判定手段は、
現在の演算タイミングにおける前記暫定判定と、直前の演算タイミングにおける前記最終判定と、の少なくとも一方において前記立体物が接地物であると判定された場合、前記立体物は現在の演算タイミングにおいて接地物であると最終的に判定し(ステップ1038)、
現在の演算タイミングにおける前記暫定判定と、直前の演算タイミングにおける前記最終判定と、の双方において前記立体物が浮遊物であると判定された場合、前記立体物は現在の演算タイミングにおいて浮遊物であると最終的に判定する(ステップ1048)、
ように構成されている。
前記最終判定手段は、
直前の演算タイミングにおいて接地物であると最終判定された前記立体物が、現在の演算タイミングにおいて浮遊物であると暫定判定された場合(ステップ1042:Yes)において、浮遊物であるとの暫定判定結果が前記演算時間よりも長い所定のリセット時間だけ継続していたときは(ステップ1046:Yes)、前記立体物の最終判定結果を接地物から浮遊物に変更する(ステップ1048)、
ように構成されている。
次に、実施装置の作動の詳細について説明する。
<視差画像の生成>
実施装置のECU10は、自車両の図示しないエンジンスイッチ(イグニッション・キー・スイッチ)がオン状態へと変更されてからオフ状態へと変更されるまでの期間(以下、「エンジンオン期間」とも称する。)、所定時間(演算周期)が経過する毎に、カメラセンサ11から出力された左画像信号及び右画像信号に基づいて、公知の手法(例えば、Semi-Global Matching)を用いて視差画像を生成する。視差画像を構成する各画素には、当該画素の視差を含む視差情報が対応付けられている。以下では、視差画像を構成する各画素を「視差点」と称する。
図2Aは、視差投票マップ30の平面図を示し、図2Bは視差投票マップ30の斜視図を示す。視差投票マップ30は、ECU10のRAM内に設けられている。図2A及び図2Bに示すように、視差投票マップ30は、横方向の辺が視差画像の横方向(車幅方向)の位置に対応し、縦方向の辺が視差画像の縦方向の位置に対応し、奥行き方向の辺が視差の大きさに対応するように配列された複数の直方体形状のブロック32を備える。周知なように、視差の大きさが小さいほど、奥行き方向(車両前後軸方向)の距離が大きくなる。ECU10は、エンジンオン期間中、所定時間が経過する毎に、視差画像に基づいて、視差投票マップ30の各ブロック32の属性を立体物、路面及び不明の何れかに設定する(図3参照)。属性の設定方法は周知であるため、以下ではその一例を一例を簡単に説明する。なお、詳細については、特開2016−206776号公報(米国特許出願公開第2016305785号明細書)を参照されたい。
ECU10は、エンジンオン期間中、所定時間が経過する毎に、立体物ブロック32aに分類された視差点(以下、「立体物視差点」とも称する。)と、路面ブロック32bに分類された視差点(以下、「路面視差点」とも称する。)と、を以下の式(1)乃至式(3)に則って3次元座標(z,x,y)に変換する。ここで、z、x、yは、それぞれ奥行き方向(車両前後軸方向)の成分、横方向(車幅方向)の成分、高さ方向の成分を表す。なお、この高さ方向は、視差画像及び視差投票マップ30の縦方向に対応する。加えて、式中のBはカメラセンサ11の左カメラと右カメラとの距離を表し、fは両カメラの焦点距離を表し、dは視差点に対応付けられた視差情報に含まれる視差を表し、u及びvは視差画像中の視差点の座標の横方向及び縦方向の成分をそれぞれ表す。
z=B・f/d…(1)
x=u・f/z…(2)
y=v・f/z…(3)
ECU10は、視差投票マップ30内において複数の立体物ブロック32aが隣接している場合、これらの立体物が1つの連続した立体物であるか、個別の立体物であるかを判定する。この判定は、エンジンオン期間中、所定時間が経過する毎に行われる。具体的には、図3に示すように、ある立体物ブロック32aに隣接している8つのブロック32の中に立体物ブロック32aが存在する場合、ECU10は、一方の立体物ブロック32aに分類された立体物視差点と、他方の立体物ブロック32aに分類された立体物視差点と、のz−x平面上の距離を算出する。そして、ECU10は、当該距離の最小値が所定の結合距離閾値以下であるか否かを判定する。当該最小値が結合距離閾値以下の場合、ECU10は、一方の立体物ブロック32aに対応する立体物と、他方の立体物ブロック32aに対応する立体物は、1つの連続した立体物であると判定し、これら2つの立体物ブロック32aを結合する。一方、当該最小値が結合距離閾値を超えている場合、ECU10は、一方の立体物ブロック32aに対応する立体物と、他方の立体物ブロック32aに対応する立体物は、個別の立体物であると判定し、これら2つの立体物ブロック32aを結合しない。
ECU10は、エンジンオン期間中、所定時間が経過する毎に、自車両前方に存在する路面の勾配を表す路面勾配式を公知の手法を用いて算出する。具体的には、ECU10は、図5に示すように、自車両の位置を基準としたときの路面視差点の奥行き方向(z方向)の距離と高さ方向(y方向)の距離との関係を規定したグラフを作成する。このグラフは、横軸がz方向を表し、縦軸がy方向を表しており、視差投票マップ30内の全ての路面視差点の座標のz成分及びy成分をプロットすることにより作成される。ECU10は、路面視差点をグラフにプロットすると、最小二乗法のM推定を用いてグラフ上の点群を二次関数(y=a・z2+b・z+c。a、b、cはM推定によって算出される定数。)で近似し、この近似式を路面勾配式として算出する。なお、上記の説明から明らかなように、路面勾配式は路面視差点の座標のz成分(奥行き方向の成分)とy成分(高さ方向の成分)に基づいて決定される式であり、x成分(横方向の成分)は考慮されない。即ち、路面勾配式は、「奥行き方向の距離が同一の地点における路面の高さは横方向に亘って略一定である」という前提の下で作成される。このため、路面視差点については、3次元座標への変換を行う際にx成分を算出しない構成であってもよい。なお、グラフ上の点群を近似する手法はM推定に限られず、例えばL推定やR推定が用いられてもよいし、最小二乗法以外の手法が用いられてもよい。ECU10は、算出された路面勾配式をRAMに格納する。
ECU10は、エンジンオン期間中、所定時間が経過する毎に、立体物が「現在の演算タイミングにおいて」接地物であるか浮遊物であるかを暫定的に判定する。以下、この暫定的な判定を「暫定判定」とも称する。具体的には、まず、ECU10は、立体物の下端位置の座標(zL,xL,yL)を次に述べるように算出する。即ち、立体物ブロック32aが何れのブロック32とも結合されていない場合、ECU10は、当該立体物ブロック32aに分類された立体物視差点のうち、y座標が最小である立体物視差点の座標(z,x,y)を立体物の下端位置の座標(zL,xL,yL)として算出する。一方、立体物ブロック32aが隣接する他の立体物ブロック32aと結合されている場合、ECU10は、結合されている複数の立体物ブロック32aに分類されている全ての立体物視差点のうち、y座標が最小である立体物視差点の座標(z,x,y)を立体物の下端位置の座標(zL,xL,yL)として算出する。なお、下端位置の高さyLが同一の立体物視差点が複数存在する場合、ECU10は、これら複数の立体物視差点から1つを選択し、選択された立体物視差点の座標を立体物の下端位置の座標として算出する。本実施形態では、ECU10は、下端位置の高さyLが同一の複数の立体物視差点のうち、下端位置の奥行きzLが最小である立体物視差点を選択する。ECU10は、算出された立体物の下端位置の座標をRAMに格納する。
h=yL−(a・zL2+b・zL+c)…(4)
ECU10は、左右カメラにより撮像された左右画像信号に基づいて自車両前方に存在する立体物を検出するように構成されているが、自車両前方には、左右カメラの撮像範囲に含まれない領域が存在する。この領域は、例えば、左右カメラの画角制限及び/又は左右カメラの撮像範囲が自車両のフード(ボンネット)により遮られることにより必然的に生じる領域であり、以下では、「オクルージョン領域R」と称する。図6は、左右カメラの撮像範囲が自車両のフード13に遮られることにより生じているオクルージョン領域Rを側方から見た図を示す。このオクルージョン領域Rは、カメラセンサ11の設置位置とフード13の角部とを結ぶ直線L1と、路面14と、自車両の前端部を通り路面14に垂直な直線L2と、によって囲まれる領域である。路面に接地している立体物Aがオクルージョン領域Rに存在している場合、立体物Aのうちオクルージョン領域R内に位置している部分は撮像範囲に含まれない。このため、ECU10は、立体物Aの実際の下端位置Pa1ではなく、「立体物Aのうちオクルージョン領域Rよりも上方に位置している部分」の下端位置Pa2を立体物Aの下端位置として算出する。この結果、下端高さhが実際よりも大きい値として算出されることになり、当該下端高さhが高さ閾値を超えている場合、ECU10は、立体物Aは実際には接地物であるにも関わらず、浮遊物であると暫定判定してしまう。
ECU10は、上述したように、現在の演算タイミングにおいて「ある立体物」が接地物であると暫定的に判定した場合、当該立体物の接地フラグの値(即ち、直前の演算タイミングにおける最終的な判定結果)に関わらず、当該立体物を「接地物」と最終判定し、当該立体物の接地フラグの値を「1」に設定する。
上述した方法によると、ある立体物についてのn回目の演算タイミングにおける暫定的な判定結果と、その立体物についてのn−1回目の演算タイミングにおける最終的な判定結果と、の少なくとも一方が「接地物」である場合、ECU10は、当該立体物はn回目の演算タイミングにおいて接地物であると最終的に判定する。このため、ある演算タイミングにおいて立体物が接地物と暫定的に判定されると、その後の演算タイミングにおいて当該立体物が浮遊物であると暫定的に判定され続けたとしても、当該立体物は接地物であるとの最終的な判定が継続する。従って、浮遊物が接地物であるとの暫定的な判定が誤ってなされると、本来的には衝突回避制御が不要な浮遊物に対して衝突回避制御が実行される可能性がある。
次に、ECU10の実際の作動について説明する。ECU10のCPUは、エンジンオン期間中、図10及び図11にフローチャートにより示したルーチンを所定時間(演算周期)が経過する毎に実行するようになっている。
ステップ1002:CPUは、カメラセンサ11から左画像信号及び右画像信号を受信する。即ち、左画像及び右画像を含む撮像画像を取得する。
ステップ1004:CPUは、車両状態センサ12から車速を取得する。
ステップ1006:CPUは、撮像画像から視差画像を生成する。
ステップ1008:CPUは、視差画像に含まれる視差情報に基づいて視差投票マップ30の各ブロック32に、3種類の属性(立体物、路面及び不明)の何れかを書き込む。
ステップ1012:CPUは、ステップ1010にて3次元座標に変換された立体物視差点の座標に基づいて、隣接している立体物ブロック32aが1つの連続した立体物であるか、個別の立体物であるかを判定する。CPUは、隣接している立体物ブロック32aが1つの連続した立体物であると判定した場合、これらの立体物ブロック32aを結合して結合立体物ブロック32aを生成し、当該結合立体物ブロック32aに含まれる立体物視差点の3次元座標群をグルーピングする。一方、CPUは、隣接している立体物ブロック32aが個別の立体物であると判定した場合、これらの立体物ブロック32aを結合せず、各立体物ブロック32aに含まれる立体物視差点の3次元座標群をグルーピングする。これにより、自車両前方に存在する立体物が検出される。
ステップ1015:CPUは、ステップ1010にて3次元座標に変換された立体物視差点の座標に基づいて、ステップ1012にて検出された立体物のうち1つの立体物(以下、「対象立体物」とも称する。)について、当該立体物の下端位置の座標(zL,xL,yL)を求める。
ステップ1016:CPUは、対象立体物が、前回の演算タイミングにおいて検出された立体物の何れに相当するかをトラッキングして、トラッキングされた立体物に設定されている接地フラグの値(前回の演算タイミングにおける最終判定結果)を取得する。
ステップ1022:CPUは、対象立体物は「接地物」であると最終判定し、当該対象立体物の接地フラグの値を「1」に設定する。CPUは、この接地フラグの値(最終判定結果)を当該対象立体物に関連付けてECU10のRAMに格納する。即ち、ある立体物が初めて検出された演算タイミングにおいては、CPUは、最終判定において暫定判定と同一の判定を行う(後述するステップ1026においても同様である。)。
ステップ1026:CPUは、対象立体物は「浮遊物」であると最終判定し、当該対象立体物の接地フラグの値を「0」に設定する。CPUは、この接地フラグの値(最終判定結果)を当該立体物に関連付けてECU10のRAMに格納する。
ステップ1036:CPUは、浮遊物判定継続時間を計測するためのタイマである計時タイマtを初期化する。これにより、浮遊物判定継続時間が初期化される。
ステップ1038:CPUは、対象立体物は「接地物」であると最終判定し、当該立体物の接地フラグの値を「1」に設定する。CPUは、この接地フラグの値(最終判定結果)を当該立体物に関連付けてECU10のRAMに格納する。
Claims (3)
- 車両に搭載されている立体物接地判定装置であって、
ステレオカメラを用いて車両前方の領域を撮像する撮像手段と、
前記撮像手段によって撮像された撮像画像に基づいて当該撮像画像を構成する各画素の視差を含む視差情報を算出する視差情報算出手段と、
前記視差情報に基づいて前記撮像画像中の立体物を検出する立体物検出手段と、
前記視差情報に基づいて、路面から、前記検出された立体物の下端まで、の高さである下端高さを算出し、前記下端高さが所定の閾値以下の場合、前記立体物は前記路面に接地している接地物であると暫定的に判定し、前記下端高さが前記所定の閾値を超えている場合、前記立体物は前記路面から浮遊している浮遊物であると暫定的に判定する暫定判定を所定の演算時間が経過する毎に実行する暫定判定手段と、
前記立体物が接地物であるか浮遊物であるかを最終的に判定する最終判定を前記所定の演算時間が経過する毎に実行する最終判定手段と、を備え、
前記最終判定手段は、
現在の演算タイミングにおける前記暫定判定と、直前の演算タイミングにおける前記最終判定と、の少なくとも一方において前記立体物が接地物であると判定された場合、前記立体物は現在の演算タイミングにおいて接地物であると最終的に判定し、
現在の演算タイミングにおける前記暫定判定と、直前の演算タイミングにおける前記最終判定と、の双方において前記立体物が浮遊物であると判定された場合、前記立体物は現在の演算タイミングにおいて浮遊物であると最終的に判定する、
ように構成された、
立体物接地判定装置。 - 請求項1に記載の立体物接地判定装置であって、
前記最終判定手段は、
直前の演算タイミングにおいて接地物であると最終判定された前記立体物が、現在の演算タイミングにおいて浮遊物であると暫定判定された場合において、浮遊物であるとの暫定判定結果が前記演算時間よりも長い所定のリセット時間だけ継続していたときは、前記立体物の最終判定結果を接地物から浮遊物に変更する、
ように構成された、
立体物接地判定装置。 - 請求項1又は請求項2に記載の立体物接地判定装置であって、
前記暫定判定手段は、
前記視差情報に基づいて、前記車両前方に存在する路面の勾配を表す路面勾配式を算出し、
前記下端高さを、前記検出された立体物の下端位置と、前記路面勾配式と、に基づいて算出する、
ように構成された、
立体物接地判定装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017191579A JP6985089B2 (ja) | 2017-09-29 | 2017-09-29 | 立体物接地判定装置 |
US16/145,361 US10740592B2 (en) | 2017-09-29 | 2018-09-28 | Three-dimensional object ground-contact determining apparatus |
DE102018124033.3A DE102018124033B4 (de) | 2017-09-29 | 2018-09-28 | Bodenkontaktbestimmungsvorrichtung für ein dreidimensionales Objekt |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017191579A JP6985089B2 (ja) | 2017-09-29 | 2017-09-29 | 立体物接地判定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019067116A JP2019067116A (ja) | 2019-04-25 |
JP6985089B2 true JP6985089B2 (ja) | 2021-12-22 |
Family
ID=65727766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017191579A Active JP6985089B2 (ja) | 2017-09-29 | 2017-09-29 | 立体物接地判定装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10740592B2 (ja) |
JP (1) | JP6985089B2 (ja) |
DE (1) | DE102018124033B4 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6810009B2 (ja) * | 2017-09-29 | 2021-01-06 | トヨタ自動車株式会社 | 視差算出装置 |
US10026209B1 (en) * | 2017-12-21 | 2018-07-17 | Capital One Services, Llc | Ground plane detection for placement of augmented reality objects |
GB2578914B (en) * | 2018-11-14 | 2021-05-12 | Jaguar Land Rover Ltd | Vehicle control system and method |
JP7206172B2 (ja) * | 2019-09-19 | 2023-01-17 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
WO2022099620A1 (zh) * | 2020-11-13 | 2022-05-19 | 深圳市大疆创新科技有限公司 | 三维点云分割方法和装置、可移动平台 |
DE102021107904A1 (de) * | 2021-03-29 | 2022-09-29 | Conti Temic Microelectronic Gmbh | Verfahren und System zur Bestimmung der Bodenebene mit einem künstlichen neuronalen Netz |
US20230032998A1 (en) * | 2021-07-30 | 2023-02-02 | Magna Electronics Inc. | Vehicular object detection and door opening warning system |
US12030513B2 (en) | 2021-10-04 | 2024-07-09 | Magna Electronics Inc. | Vehicular door opening warning system |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008219063A (ja) * | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | 車両周辺監視装置及び方法 |
US9826200B2 (en) * | 2007-04-30 | 2017-11-21 | Mobileye Vision Technologies Ltd. | Rear obstruction detection |
JP2009009332A (ja) * | 2007-06-27 | 2009-01-15 | Sharp Corp | 利用者認証システムおよびそれを備えた画像処理システム |
JP5003395B2 (ja) | 2007-10-05 | 2012-08-15 | 日産自動車株式会社 | 車両周辺画像処理装置及び車両周辺状況提示方法 |
JP5570715B2 (ja) * | 2008-10-10 | 2014-08-13 | オムロンオートモーティブエレクトロニクス株式会社 | 物体検出装置 |
JP5251800B2 (ja) * | 2009-09-16 | 2013-07-31 | 株式会社豊田中央研究所 | 対象物追跡装置及びプログラム |
JP2012243049A (ja) * | 2011-05-19 | 2012-12-10 | Fuji Heavy Ind Ltd | 環境認識装置および環境認識方法 |
JP2013161434A (ja) | 2012-02-08 | 2013-08-19 | Toyota Motor Corp | 車両の周辺監視装置 |
JP2014092434A (ja) * | 2012-11-02 | 2014-05-19 | Denso Corp | 物標検出装置、及び、当該装置を用いた接触回避システム |
JP6542539B2 (ja) * | 2015-02-10 | 2019-07-10 | クラリオン株式会社 | 車両用進入可否判定装置 |
JP6350374B2 (ja) | 2015-04-17 | 2018-07-04 | トヨタ自動車株式会社 | 路面検出装置 |
JP6794243B2 (ja) * | 2016-12-19 | 2020-12-02 | 日立オートモティブシステムズ株式会社 | 物体検出装置 |
-
2017
- 2017-09-29 JP JP2017191579A patent/JP6985089B2/ja active Active
-
2018
- 2018-09-28 DE DE102018124033.3A patent/DE102018124033B4/de active Active
- 2018-09-28 US US16/145,361 patent/US10740592B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
DE102018124033A1 (de) | 2019-04-04 |
JP2019067116A (ja) | 2019-04-25 |
US20190102602A1 (en) | 2019-04-04 |
US10740592B2 (en) | 2020-08-11 |
DE102018124033B4 (de) | 2023-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6985089B2 (ja) | 立体物接地判定装置 | |
US11809194B2 (en) | Target abnormality determination device | |
EP3306429B1 (en) | Position estimation device and position estimation method | |
JP5389002B2 (ja) | 走行環境認識装置 | |
JP6344275B2 (ja) | 車両制御装置 | |
CN110121449B (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
JP6601696B2 (ja) | 予測装置、予測方法、およびプログラム | |
US11370420B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20160327948A1 (en) | Misrecognition determination device | |
JP2018167699A (ja) | 車両制御システム、車両制御方法、および車両制御プログラム | |
JP6627127B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP2010003254A (ja) | 画像処理装置 | |
US10940860B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP6547785B2 (ja) | 物標検出装置 | |
WO2017187592A1 (ja) | 駐車支援方法および装置 | |
US20190047468A1 (en) | Driving assistance device, and storage medium | |
US20200290624A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP6936098B2 (ja) | 対象物推定装置 | |
JP2020189560A (ja) | 車両制御装置 | |
JP2020050108A (ja) | 車両制御装置、車両制御方法、及びプログラム | |
US20220126824A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN111942379A (zh) | 车辆控制装置及车辆控制方法 | |
JP6927132B2 (ja) | 運転支援システムおよび方法 | |
JP2016168932A (ja) | 車両挙動制御装置、車両挙動制御プログラム、及び車両 | |
JP6849569B2 (ja) | 路面検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211125 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6985089 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |