JP2012043364A - 物体認識装置 - Google Patents
物体認識装置 Download PDFInfo
- Publication number
- JP2012043364A JP2012043364A JP2010186347A JP2010186347A JP2012043364A JP 2012043364 A JP2012043364 A JP 2012043364A JP 2010186347 A JP2010186347 A JP 2010186347A JP 2010186347 A JP2010186347 A JP 2010186347A JP 2012043364 A JP2012043364 A JP 2012043364A
- Authority
- JP
- Japan
- Prior art keywords
- model
- detection result
- recognition target
- unit
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】 物体を識別できない場合においても、物体の移動を予測して危険度の推定を行うことを可能とする物体認識装置を提供する。
【解決手段】 物体認識装置10は、センサ入力部1、物体識別部2及びモデル配置部4を備えている。センサ入力部1は、自車両の周辺に存在する物体を検出する。物体識別部2は、検出された物体の識別を行う。モデル配置部4は、物体識別部2が物体を識別できない場合に、物体の大きさに基づいて、センサ入力部1で検出された物体を含む物体領域に対して物体モデルを配置する。
【選択図】図1
【解決手段】 物体認識装置10は、センサ入力部1、物体識別部2及びモデル配置部4を備えている。センサ入力部1は、自車両の周辺に存在する物体を検出する。物体識別部2は、検出された物体の識別を行う。モデル配置部4は、物体識別部2が物体を識別できない場合に、物体の大きさに基づいて、センサ入力部1で検出された物体を含む物体領域に対して物体モデルを配置する。
【選択図】図1
Description
本発明は、車両に搭載された物体認識装置に関する。
上記技術分野の従来の物体認識装置として、例えば特許文献1に記載の移動体・施設制御システムが知られている。特許文献1に記載の移動体・施設制御システムは、移動体を観測して得られる画像情報に対して所定の処理を施し、処理後の画像情報に基づいて、移動体の属性を識別する。
特許文献1に記載の移動体・施設制御システムによれば、上記のようにして識別した移動体の属性に基づいて、移動体の移動を予測して危険度の推定を行うことが可能となる。しかしながら、特許文献1に記載の移動体・施設制御システムにあっては、観測対象の移動体が複数であって、ぞれぞれの移動体の一部分同士が観測方向に重なっている場合等には、当該複数の移動体が1つの移動体として認識されてしまう虞がある。このように複数の移動体が1つの移動体として認識された場合には、移動体の属性を識別できず、その結果、移動体の移動を予測して危険度の推定を行うことが困難となることがある。
本発明は、そのような事情に鑑みてなされたものであり、物体を識別できない場合においても、物体の移動を予測して危険度の推定を行うことを可能とする物体認識装置を提供することを課題とする。
上記課題を解決するために、本発明の物体認識装置は、車両に搭載された物体認識装置であって、車両の周辺の物体を検出する物体検出センサと、物体検出センサの検出結果に基づいて物体を識別する識別手段と、識別手段が物体を識別できない場合に、検出結果から得られる物体の大きさに対応する物体モデルを、物体検出センサにより検出された物体を含む物体領域に対して配置するモデル配置手段と、を備えることを特徴とする。
この物体認識装置においては、識別手段が物体を識別できない場合に、モデル配置手段が、物体の大きさに対応する物体モデルを物体領域に対して配置する。このため、識別手段によって物体の識別ができない場合であっても、物体領域に配置された物体モデルを利用することによって、物体の移動を予測して危険度の推定を行うことを可能となる。
本発明の物体認識装置においては、モデル配置手段は、検出結果から得られる物体の移動速度に基づいて、物体領域に配置する物体モデルを決定することが好ましい。この場合、物体の移動速度に基づいて物体モデル決定するので、実際の物体の移動速度に即した危険度の推定が可能となる。
また、本発明の物体認識装置においては、モデル配置手段は、検出結果から得られる物体の移動速度に応じた占有空間を物体モデルに設定し、該占有空間を考慮して、物体領域に対して物体モデルを配置することが好ましい。この場合、物体の移動速度に応じた占有空間を考慮して物体モデルが配置されるので、物体領域に対して過剰に物体モデルが配置されることが防止される。
さらに、本発明の物体認識装置においては、モデル配置手段は、検出結果の信頼度に応じた重みを検出結果に付与し、該重みが付与された検出結果に基づいて、物体領域に配置する物体モデルを決定することが好ましい。この場合、例えば、検出手段によって信頼度が異なる複数の検出結果が得られた場合においても、より実際の物体に即した物体モデルを決定することができる。
本発明によれば、物体を識別できない場合においても、物体の移動を予測して危険度の推定を行うことが可能となる。その結果、適切な運転支援が可能となる。
以下、本発明に係わる物体認識装置の好適な実施形態について、図面を参照して詳細に説明する。なお、図面の説明において、同一の要素には同一の符号を付し、重複する説明を省略する。
[第1実施形態]
図1は、本発明の物体認識装置の第1実施形態の構成を示すブロック図である。図1に示されるように、本実施形態に係る物体認識装置10は、センサ入力部(物体検出センサ)1、物体識別部(識別手段)2、物体識別データベース3、モデル配置部(モデル配置手段)4、物体モデルデータベース5、及び、危険度推定部6を備えている。このような物体認識装置10は車両に搭載されている。
図1は、本発明の物体認識装置の第1実施形態の構成を示すブロック図である。図1に示されるように、本実施形態に係る物体認識装置10は、センサ入力部(物体検出センサ)1、物体識別部(識別手段)2、物体識別データベース3、モデル配置部(モデル配置手段)4、物体モデルデータベース5、及び、危険度推定部6を備えている。このような物体認識装置10は車両に搭載されている。
センサ入力部1は、車両の周辺に存在する物体を検出する。センサ入力部1は、例えば、カメラやレーザレンジファインダ等の外界認識センサとすることができる。以下では、センサ入力部1が検出した物体を認識対象物体と称する。
物体識別部2は、センサ入力部1の検出結果に基づいて、認識対象物体の位置や大きさを取得する。その際、例えばセンサ入力部1がカメラである場合には、その検出結果に含まれるテクスチャ情報(絵柄情報)を使用するSIFTやHOGを用いることができる。また、物体識別部2は、認識対象物体を含む物体領域や認識対象物体の移動速度を推定する。
また、物体識別部2は、物体識別データベース3に格納された情報(例えば、テクスチャパターンを登録した辞書等)を参照することにより、認識対象物体の大きさ等に基づいて、認識対象物体の識別を行う。なお、ここでの認識対象物体の識別とは、認識対象物体が歩行者であるのか車両であるのか、或いは、乗用車であるのかトラックであるのか等を認識することである。
モデル配置部4は、物体識別部2が認識対象物体を識別できない場合に、認識対象物体の大きさに対応する物体モデルを物体領域に配置する。その際に、モデル配置部4は、物体モデルデータベース5が保持する各種の物体モデルを参照する。
物体モデルデータベース5が保持する物体モデルとしては、歩行者をモデル化した歩行者モデルや、車両をモデル化した車両モデル等が例示される。また、物体モデルデータベース5が保持する各種の物体モデルのそれぞれには、大きさや移動速度等が登録されている。
危険度推定部6は、物体識別部2による認識対象物体の識別結果や認識対象物体の移動速度を利用して、或いは、物体領域に配置された物体モデルを利用して、認識対象物体の移動を予測して危険度の推定を行う。
なお、物体識別部2、モデル配置部4及び危険度推定部6は、CPU、ROM及びRAM等を含むコンピュータを主体として構成される電子制御ユニット(ECU)を用いて構成される。
次に、物体認識装置10の動作について説明する。図2は、物体認識装置10の動作を示すフローチャートである。物体認識装置10においては、図2に示されるように、まず、センサ入力部1が車両の周辺に存在する物体の検出を行う(ステップS1)。
図3(a)は、センサ入力部1がレーザレンジファインダである場合の検出結果の一例を示す図である。図3(a)に示されるように、ここでは、例えばレーザの反射点Rの集合Sとして認識対象物体が検出される。そして、センサ入力部1は、そのような検出結果を示す情報を、物体識別部2に送信する。
続いて、物体識別部2が、ステップS1でセンサ入力部1から送信された検出結果を示す情報に基づいて、認識対象物体の位置や大きさを取得する(ステップS2)。
続いて、物体識別部2が、センサ入力部1から送信される検出結果を示す情報に基づいて、認識対象物体を含む物体領域や認識対象物体の移動速度を推定する(ステップS3)。ここで、物体領域は、例えば、図3(a)に示されるように、2つの近接する集合Sを含む領域Aとして推定される。
続いて、物体識別部2が、物体識別データベース3を参照することにより、ステップS2,3で取得・推定した認識対象物体の位置や大きさや移動速度に基づいて、認識対象物体の識別を行う(ステップS4)。
続いて、物体識別部2が、認識対象物体の識別が成功したか否かを判定する(ステップS5)。この判定の結果、認識対象物体の識別が成功した場合、物体識別部2は、識別結果を示す識別情報と、ステップS3で推定した認識対象物体の移動速度を示す速度情報とを危険度推定部6に送信する(ステップS6)。
一方、ステップS5の判定の結果、認識対象物体の識別が失敗した場合、物体識別部2は、ステップS2で取得した認識対象物体の大きさを示す大きさ情報、及び、ステップS3で推定した物体領域を示す物体領域情報をモデル配置部4に送信する(ステップS7)。
続いて、モデル配置部4が、物体モデルデータベース5が保持する各種の物体モデルを参照し、ステップS7で物体識別部2から送信された大きさ情報に基づいて、認識対象物体の大きさに対応する物体モデルを認識対象物体に当て嵌める(ステップS8)。換言すれば、モデル配置部4は、物体モデルデータベース5が保持する各種の物体モデルから、認識対象物体の大きさに適合する物体モデルを選別する。なお、ここでの認識対象物体の大きさとは、認識対象物体の面積や形状等を含む。
続いて、モデル配置部4が、ステップS8で認識対象物体に当て嵌めた物体モデルを物体領域に対して配置する(ステップS9)。このとき、例えば、認識対象物体の大きさに対応する物体モデルが歩行者モデルであった場合、図3(b)に示されるように、物体領域Aに納まるように3つの歩行者モデルM1を配置する。すなわち、認識対象物体の面積よりも小さく、かつ、認識対象物体の形状に包含されるような物体モデルを選別するように構成してもよい。
そして、危険度推定部6が、ステップS6で物体識別部2から送信された識別情報と速度情報とを利用して、或いは、ステップS9で物体領域に配置された物体モデルを利用して、認識対象物体の移動を予測して危険度の推定を行う(ステップS10)。
以上説明したように、本実施形態に係わる物体認識装置10においては、まず、物体識別部2によって認識対象物体の識別が行われる。その後、物体識別部2による認識対象物体の識別が失敗した場合(即ち、認識対象物体が不明物体である場合)、モデル配置部4によって、認識対象物体の大きさに対応する物体モデルが選別されて物体領域に配置される。このため、物体認識装置10によれば、認識対象物体が識別できない場合であっても、物体領域に配置された物体モデルを利用し、認識対象物体の移動を予測して危険度の推定を行うことができる。
[第2実施形態]
図4は、本実施形態に係わる物体認識装置の構成を示すブロック図である。図4に示されるように、物体認識装置20は、第1実施形態に係わる物体認識装置10のセンサ入力部1及びモデル配置部4に換えて、センサ入力部11及びモデル配置部14を備えている。このような物体認識装置20も、物体認識装置10と同様に車両に搭載されている。
図4は、本実施形態に係わる物体認識装置の構成を示すブロック図である。図4に示されるように、物体認識装置20は、第1実施形態に係わる物体認識装置10のセンサ入力部1及びモデル配置部4に換えて、センサ入力部11及びモデル配置部14を備えている。このような物体認識装置20も、物体認識装置10と同様に車両に搭載されている。
センサ入力部11は、センサ入力部1と同様に、カメラやレーザレンジファインダ等の外界認識センサであって、車両の周辺に存在する物体を検出する。ただし、センサ入力部11の検出結果には、その信頼度を示す情報が付されている。
検出結果の信頼度は、例えば、センサ入力部11の種類や性能に応じて評価することができる。具体的には、検出結果の信頼度は、センサ入力部11がカメラである場合にはエッジの強弱等に基づいて、センサ入力部11がレーザレンジファインダである場合にはレーザの反射強度の強弱等に基づいて評価することができる。
モデル配置部14は、物体識別部2が認識対象物体を識別できない場合に、物体モデルデータベース5が保持する各種の物体モデルを参照して、認識対象物体の大きさに対応する物体モデルを物体領域に対して配置する。その際に、モデル配置部14は、検出結果の信頼度に応じた重みを検出結果に付与し、重みが付与された検出結果に基づいて、物体領域に配置する物体モデルを決定する。
また、モデル配置部14は、物体識別部2が認識対象物体を識別できない場合に、認識対象物体の移動速度に基づいて、物体領域に配置する物体モデルを決定する。さらに、モデル配置部14は、物体識別部2が認識対象物体を識別できない場合に、認識対象物体の移動速度に応じた占有空間を物体モデルに設定し、その占有空間を考慮して、物体領域に対して物体モデルを配置する。
なお、モデル配置部14は、CPU、ROM及びRAM等を含むコンピュータを主体として構成される電子制御ユニットを用いて構成される。
次に、物体認識装置20の動作について説明する。図5は、物体認識装置20の動作を示すフローチャートである。物体認識装置20においては、図5に示されるように、まず、センサ入力部11が車両の周辺に存在する物体の検出を行う(ステップS11)。そして、センサ入力部11は、信頼度が付与された検出結果を示す情報を、物体識別部2及びモデル配置部14に送信する。
続いて、物体識別部2が、ステップS11でセンサ入力部11から送信された検出結果を示す情報に基づいて、認識対象物体の位置や大きさを取得する(ステップS12)。続いて、物体識別部2が、検出結果を示す情報に基づいて、認識対象物体を含む物体領域や認識対象物体の移動速度を推定する(ステップS13)。
続いて、物体識別部2が、物体識別データベース3を参照することにより、ステップS12,13で取得・推定した認識対象物体の位置や大きさや移動速度に基づいて、認識対象物体の識別を行う(ステップS14)。
続いて、物体識別部2が、認識対象物体の識別が成功したか否かを判定する(ステップS15)。この判定の結果、認識対象物の識別が成功した場合、物体識別部2は、識別結果を示す識別情報と、ステップS13で推定した認識対象物体の移動速度を示す速度情報とを危険度推定部6へ送信する(ステップS16)。
一方、ステップS15の判定の結果、認識対象物体の識別が失敗した場合、物体識別部2は、ステップS13で推定した物体領域を示す物体領域情報と速度情報とをモデル配置部14へ送信する(ステップS17)。
続いて、モデル配置部14が、ステップS11でセンサ入力部11から送信された検出結果を示す情報に基づいて、検出結果に対してその信頼度に応じた重みを付与する(ステップS18)。より具体的には、例えば、検出結果が、図6に示されるように、一点鎖線で示された検出結果C2と、二点鎖線で示された検出結果C3との2つであった場合、検出結果C2,C3のそれぞれに対して重み付けを行う。
この重み付けは、例えば、検出結果C2の信頼度と検出結果C3の信頼度とを比較して、検出結果C2の信頼度の方が検出結果C3の信頼度よりも高い場合には、検出結果C2の重みを検出結果C3の重みよりも大きくするといったように行われる。
続いて、モデル配置部14が、物体モデルデータベース5が保持する各種の物体モデルを参照し、重みが付与された検出結果に基づいて、認識対象物体の大きさに対応する物体モデルを認識対象物体に当て嵌める(ステップS19)。換言すれば、モデル配置部14は、物体モデルデータベース5が保持する各種の物体モデルから、検出結果の信頼度を考慮した上で、検出結果に基づき、認識対象物体の大きさに適合する物体モデルを選別する。
より具体的には、検出結果C2の方が検出結果C3よりも信頼度が高く、大きな重みが付与されている場合には、例えば、図6に示されるように、検出結果C3に即した高さのある物体モデルM3(例えばトラック等の車両モデル)でなく、検出結果C2に即した高さのない物体モデルM2(例えば乗用車等の車両モデル)を認識対象物体に当て嵌める。
続いて、モデル配置部14が、認識対象物体の移動速度に基づいて、物体領域に配置する物体モデルを決定する(ステップS20)。このステップS20においては、モデル配置部14は、物体モデルデータベース5が保持する各種の物体モデルから、認識対象物体の移動速度に適合する物体モデルを選別する。
例えば、ステップS19で認識対象物体に当て嵌められた物体モデルが歩行者モデルであって、認識対象物体の移動速度が時速50kmであった場合、歩行者が時速50kmで移動することが困難であることから、物体領域に配置する物体モデルを、時速50kmで移動可能な車両モデルとして決定する。つまり、モデル配置部14は、認識対象物体の大きさよりも移動速度を優先して物体モデルを決定する。
続いて、モデル配置部14が、認識対象物体の移動速度に応じた占有空間を、ステップS20で決定された物体モデルに設定する(ステップS21)。一般に、静止している車両においては、縦列駐車等により他車両との間隔が狭い場合がある。このため、ステップS20で決定された物体モデルが車両モデルであり、認識対象物体の移動速度が比較的小さい場合には(認識対象物体が静止中である場合には)、モデル配置部14は、図7(a)に示されるように、前後方向に短い占有空間P4を物体モデルM4に設定する。
一方で、移動している車両においては、その移動速度に応じて他車両との間隔が大きくなる場合がある。このため、ステップS20で決定された物体モデルが車両モデルであり、認識対象物体の移動速度が比較的大きい場合には(認識対象物体が移動中である場合には)、モデル配置部14は、図7(b)に示されるように、移動方向(前方向)に延長された占有空間P5を物体モデルM5に設定する。
さらに、ステップS20で決定された物体モデルが歩行者モデルである場合には、モデル配置部14は、図7(c)に示されるように、例えば半径50cm程度の円形の占有空間P6を物体モデルM6に設定する。
続いて、モデル配置部14が、ステップS21で設定した占有空間を考慮して、物体領域に対して物体モデルを配置する(ステップS22)。より具体的には、例えば、物体モデルが歩行者モデルである場合には、図8に示されるように、互いの占有空間P6が重ならないように、物体領域Aに対して物体モデルM6を4つ配置する。
そして、危険度推定部6が、ステップS16で物体識別部2から送信された識別情報と速度情報とを利用して、或いは、ステップS22で物体領域に配置された物体モデルを利用して、認識対象物体の移動を予測して危険度の推定を行う(ステップS23)。
以上説明したように、本実施形態に係わる物体認識装置20においても、第1実施形態に係わる物体認識装置10と同様に、認識対象物体が識別できない場合であっても、物体領域に配置された物体モデルを利用し、認識対象物体の移動を予測して危険度の推定を行うことができる。
また、本実施形態に係わる物体認識装置20においては、センサ入力部11の検出結果の信頼度を考慮して、モデル配置部14が認識対象物体に物体モデルを当て嵌める。このため、物体モデルの当て嵌めの精度が向上する。
また、本実施形態に係わる物体認識装置20においては、認識対象物体の大きさに適合するように選別した物体モデルが、認識対象物体の移動速度に適合しない場合には、移動速度を優先して物体モデルを決定する。このため、物体の大きさを誤って認識した場合であっても、移動速度が合致する物体モデルを用いて、最悪条件での危険度の推定が可能となる。
さらに、本実施形態に係わる物体認識装置20においては、モデル配置部14が、認識対象物体の移動速度に応じた占有空間を物体モデルに設定して、その占有空間を考慮して、物体領域に対して物体モデルを配置する。このため、占有空間に対して過剰に物体モデルを配置することが避けられる。その結果、危険度推定部6における危険度の推定に際して、危険度推定部6の演算負荷を低減することができる。
なお、本実施形態に係わる物体認識装置20は、検出結果の信頼度を考慮した物体モデルの当て嵌めの後に、認識対象物体の移動速度に基づいた物体モデルの決定と、占有空間を考慮した物体モデルの配置とを行っているが、そのうちのいずれか一方のみを行う態様としてもよい。
上述した第1及び第2実施形態に係る物体認識装置10及び物体認識装置20においては、認識対象物体が大きい場合に、物体領域も大きいものとなる。そのような場合には、物体領域に対する物体モデルの配置の自由度が高く、ステップS9及びステップS22において、複数の物体モデル配置パターンが発生することがある。
そこで、モデル配置部4及びモデル配置部14は、ステップS9及びステップS22において物体領域に対する物体モデルの配置パターンが複数発生した場合に、それらの複数の配置パターンのうちの最も移動速度が大きい配置パターンを、危険度推定に供するものとして決定することが好ましい。
この場合、危険度推定部6において危険度の推定を行う際に、多数の配置パターンについての演算を行うことが避けられるので、危険度推定部6の処理負荷が低減される。
1,11…センサ入力部(物体検出センサ)、2…物体識別部(識別手段)、4,14…モデル配置部(モデル配置手段)、10,20…物体認識装置、A…物体領域、C2,C3…検出結果、M1,M2,M3,M4,M5,M6…物体モデル、P4,P5,P6…占有空間。
Claims (4)
- 車両に搭載された物体認識装置であって、
前記車両の周辺の物体を検出する物体検出センサと、
前記物体検出センサの検出結果に基づいて前記物体を識別する識別手段と、
前記識別手段が前記物体を識別できない場合に、前記検出結果から得られる前記物体の大きさに対応する物体モデルを、前記物体検出センサにより検出された前記物体を含む物体領域に対して配置するモデル配置手段と、を備えることを特徴とする物体認識装置。 - 前記モデル配置手段は、前記検出結果から得られる前記物体の移動速度に基づいて、前記物体領域に配置する物体モデルを決定することを特徴とする請求項1に記載の物体認識装置。
- 前記モデル配置手段は、前記検出結果から得られる前記物体の移動速度に応じた占有空間を物体モデルに設定し、該占有空間を考慮して、前記物体領域に対して物体モデルを配置することを特徴とする請求項1又は2に記載の物体認識装置。
- 前記モデル配置手段は、前記検出結果の信頼度に応じた重みを前記検出結果に付与し、該重みが付与された前記検出結果に基づいて、前記物体領域に配置する物体モデルを決定することを特徴とする請求項1〜3のいずれか一項に記載の物体認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010186347A JP2012043364A (ja) | 2010-08-23 | 2010-08-23 | 物体認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010186347A JP2012043364A (ja) | 2010-08-23 | 2010-08-23 | 物体認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012043364A true JP2012043364A (ja) | 2012-03-01 |
Family
ID=45899551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010186347A Pending JP2012043364A (ja) | 2010-08-23 | 2010-08-23 | 物体認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012043364A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104816697A (zh) * | 2014-02-05 | 2015-08-05 | 丰田自动车株式会社 | 防碰撞控制装置 |
CN105128836A (zh) * | 2014-05-30 | 2015-12-09 | 株式会社万都 | 自主紧急制动系统及其中识别行人的方法 |
CN108845321A (zh) * | 2018-04-19 | 2018-11-20 | 北京三快在线科技有限公司 | 目标对象的识别方法、装置及无人驾驶智能设备 |
KR20200074488A (ko) * | 2018-12-17 | 2020-06-25 | 현대자동차주식회사 | 차량 및 그 제어방법 |
-
2010
- 2010-08-23 JP JP2010186347A patent/JP2012043364A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104816697A (zh) * | 2014-02-05 | 2015-08-05 | 丰田自动车株式会社 | 防碰撞控制装置 |
JP2015148899A (ja) * | 2014-02-05 | 2015-08-20 | トヨタ自動車株式会社 | 衝突回避制御装置 |
US9481365B2 (en) | 2014-02-05 | 2016-11-01 | Toyota Jidosha Kabushiki Kaisha | Collision prevention control apparatus |
CN105128836A (zh) * | 2014-05-30 | 2015-12-09 | 株式会社万都 | 自主紧急制动系统及其中识别行人的方法 |
CN105128836B (zh) * | 2014-05-30 | 2019-04-19 | 株式会社万都 | 自主紧急制动系统及其中识别行人的方法 |
CN108845321A (zh) * | 2018-04-19 | 2018-11-20 | 北京三快在线科技有限公司 | 目标对象的识别方法、装置及无人驾驶智能设备 |
KR20200074488A (ko) * | 2018-12-17 | 2020-06-25 | 현대자동차주식회사 | 차량 및 그 제어방법 |
KR102636740B1 (ko) * | 2018-12-17 | 2024-02-15 | 현대자동차주식회사 | 차량 및 그 제어방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109389863B (zh) | 提示方法及相关设备 | |
JP6942712B2 (ja) | コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 | |
JP4790454B2 (ja) | 画像認識装置、車両制御装置、画像認識方法および車両制御方法 | |
US10528804B2 (en) | Detection device, detection method, and storage medium | |
JP6196044B2 (ja) | 交通信号認識システム及び方法 | |
CN108001456A (zh) | 基于车辆通信的对象分类调整 | |
JP6757442B2 (ja) | 自動運転車における車線後処理 | |
US10843698B2 (en) | Information processing system, information processing device, information processing method, and non-transitory computer readable storage medium storing program | |
JP4884096B2 (ja) | 物体識別システム | |
JP6509361B2 (ja) | 駐車支援装置及び駐車支援方法 | |
JP4322913B2 (ja) | 画像認識装置、画像認識方法および電子制御装置 | |
JP2019185347A (ja) | 物体認識装置、及び、物体認識方法 | |
JPH10222679A (ja) | 車両用画像処理装置 | |
US20220415169A1 (en) | Systems and methods for fiber optic based vehicle-direction detection | |
JP2019067201A (ja) | 車両捜索システム、車両捜索方法、ならびに、それに用いられる車両およびプログラム | |
JP2009070344A (ja) | 画像認識装置、画像認識方法および電子制御装置 | |
JP2012043364A (ja) | 物体認識装置 | |
Kim et al. | Algorithm & SoC design for automotive vision systems | |
JP2017162178A (ja) | 判定装置、判定方法、および判定プログラム | |
JP2021033510A (ja) | 運転支援装置 | |
JP6523196B2 (ja) | 推定装置、方法及びプログラム | |
JP2018131110A (ja) | 推定装置、推定方法、及び推定プログラム | |
JP2014006075A (ja) | 歩行者検知装置 | |
US11288901B2 (en) | Vehicle impact detection | |
JP2019003343A (ja) | 運転支援装置および運転支援方法 |