[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6256531B2 - 物体認識処理装置、物体認識処理方法および自動運転システム - Google Patents

物体認識処理装置、物体認識処理方法および自動運転システム Download PDF

Info

Publication number
JP6256531B2
JP6256531B2 JP2016116285A JP2016116285A JP6256531B2 JP 6256531 B2 JP6256531 B2 JP 6256531B2 JP 2016116285 A JP2016116285 A JP 2016116285A JP 2016116285 A JP2016116285 A JP 2016116285A JP 6256531 B2 JP6256531 B2 JP 6256531B2
Authority
JP
Japan
Prior art keywords
fusion
combination
processing unit
same
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016116285A
Other languages
English (en)
Other versions
JP2017220157A (ja
Inventor
智広 秋山
智広 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016116285A priority Critical patent/JP6256531B2/ja
Priority to US15/602,172 priority patent/US10460467B2/en
Priority to CN201710403858.6A priority patent/CN107490794B/zh
Priority to DE102017209772.8A priority patent/DE102017209772A1/de
Publication of JP2017220157A publication Critical patent/JP2017220157A/ja
Application granted granted Critical
Publication of JP6256531B2 publication Critical patent/JP6256531B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/874Combination of several systems for attitude determination
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

この発明は、物体認識処理装置、物体認識処理方法および自動運転システムに関するものである。
従来から、自動車の自動運転技術、予防安全運転技術では、物体認識処理装置が車載用測距装置を備えている。当該車載用測距装置が自己の車両(以下、自車両という)と自車両の周辺物体との距離などを測定する。当該測定の値は、自車両が前方の物体に衝突した際の被害を軽減する衝突被害軽減ブレーキシステム、自車両が前方の車両に追従するアダプティブクルーズコントロールシステム、および自車両が自動で駐車スペースに駐車する自動駐車システムなどで、活用されている。つまり、当該車載用測距装置は、自車両の運転の安全および自車両の快適な運転を向上させるためのものであり、車両用アプリケーションで活用されている。
当該車載用測距装置では、複数のセンサを搭載しており、自車両の周辺物体のセンシング性能を向上する技術としては、複数のセンサを統合するセンサ融合技術がある。例えば、特許文献1では、観測の精度が異なる複数のセンサが測定する値を使用して、自車両と自車両の周辺物体との距離を測定するとともに、当該周辺物体の位置を測定する。
当該特許文献1の当該センサ融合技術では、自車両が前方の車両を追尾中において、複数のセンサのうち、高精度であるセンサが自車両の前方の車両を検知し(高精度であるセンサが自車両の周辺物体を検出せず)、低精度であるセンサが、自車両の周辺物体を検出し、自車両と周辺物体との距離を測定する。当該車載用測距装置は、当該測定された距離を用いて、一定の時間ごとに当該周辺物体の位置の変遷の履歴(以下、航跡という)を生成する。
特許第5896823号公報
当該特許文献1の当該センサ融合技術では、例えば、高精度であるセンサが自車両の周辺物体を検出するともに、低精度であるセンサも自車両の周辺物体を検出した場合、複数のセンサが、同一対象の物体(当該周辺物体)を検出することになる。つまり、精度の異なるセンサが、同一対象の物体を検知することになる。この結果、高精度であるセンサで測定された距離と低精度であるセンサで測定された距離とは、異なる値となり得る。従って、高精度であるセンサで測定された距離に基づいて生成された航跡と、低精度であるセンサで測定された距離に基づいて生成された航跡と、2つ航跡が生成される。この結果、特許文献1のセンサ融合技術では、一つの対象の物体に対し、複数の航跡が発生してしまう問題がある。
この発明は、上記課題を解決するためになされたもので、従来の物体認識処理装置と比べて、自車両と周辺物体との距離および当該周辺物体の位置を正確に認識することができる物体認識処理装置を提供する。
この発明の物体認識処理装置は、複数の物体検出部で検出した車両周辺の物体の検出情報信号を融合し、物体融合信号として出力する物体融合処部と、物体融合信号の組合せのため、物体融合信号の候補を選択する同一物体融合結果組合せ候補選択処理部と、選択された物体融合信号の組合せが、同一の物体のものであるか否かを判定する同一物体融合結果組合せ判定処理部と、その判定結果に基づいて、車両周辺の物体を認識する同一物体融合組合せ統合処理部とを備えるものである。
この発明によれば、従来の物体認識処理装置と比べて、自車両と周辺物体との距離および当該周辺物体の位置を正確に認識することができる。
この発明の実施の形態1に係る物体認識処理装置を示すブロック図である。 この発明の実施の形態1に係る物体認識処理を示すフローチャート(前半)である。 この発明の実施の形態1に係る物体認識処理を示すフローチャート(後半)である。
実施の形態1.
この発明の実施の形態1では、複数センサの出力の融合信号の組合せが同一対象の融合信号であるか否かを判定し、同一物体と判定された融合信号の組合せを統合する処理を有する物体認識処理装置および物体認識処理方法を説明する。
当該複数のセンサの出力は、周辺物体の自車両に対する相対位置、周辺物体の自車両に対する相対速度、周辺物体の識別情報(車、人など)、センサ検出精度、センサ識別信頼度などがある。複数のセンサの周辺物体の自車両に対する相対位置を組み合わせる場合は、センサの検出精度によりそれぞれの相対位置に重みづけをして和をとった値が、認識結果の相対位置となる。複数のセンサの周辺物体の識別情報を組み合わせる場合は、センサ識別信頼度の大きいセンサの識別情報が認識結果の識別結果となる。以上のとおり、融合とは、複数のセンサの出力を上述のとおり組み合わせることをいうものとする。
以下、この発明の実施の形態1に係る物体認識処理装置を図1、図2A、図2Bに基づいて説明する。図1は、この発明の実施の形態1に係る物体認識処理装置1を車両制御部2とともに示すブロック構成図である。なお、図1中の矢印は、信号の流れを示すものとする。
この発明に係る物体認識処理装置1が搭載される車両は、複数のセンサとして、第1の物体検出部3および第2の物体検出部4を備えており、第1の物体検出部3および第2の物体検出部4は、例えば、ミリ波レーダ、レーザレーダ、カメラ、超音波センサ、車車間通信機器(複数の自動車間での通信機器をいう)などの装置で構成されるものである。第1の物体検出部3および第2の物体検出部4は、自車両とその周辺物体との距離、および相対位置をそくていするものであり、測定された距離、相対位置は、距離信号、相対位置信号として、物体ロスト検出部5へ出力される。なお、物体検出情報は、距離信号、相対位置信号で構成されるものとする。さらにまた、第1の物体検出部3および第2の物体検出部4の出力である物体検出情報には、距離信号および相対位置信号に加えて、物体識別情報、速度情報も付加されている。
なお、ここで自車両に搭載される第1の物体検出部3と第2の物体検出部4は、両方がミリ波レーダというようにそれぞれ同じ種類の装置を用いても良く、また、第1の物体検出部3がミリ波レーダであり、第2の物体検出部4がカメラというように異なる種類の装置を用いても良い。さらにまた、第1の物体検出部3と第2の物体検出部4とが、同じセンシング精度を有するものであっても良く、異なるセンシング精度を有するものであっても良い。
物体ロスト検出部5は、第1の物体検出部3および第2の物体検出部4での周辺物体の検出ミス(以下、ロストという)を検出し、その回数を計数する処理部である。
物体融合処理部6は、第1の物体検出部3および第2の物体検出部4の出力である物体検出情報および物体ロスト検出部5で検出された物体検出ロスト回数を入力する。また、物体融合処理部6では、第1の物体検出部3の物体検出情報と、第2の物体検出部4の物体検出情報との融合を行う。
同一物体融合結果組合せ候補選択処理部7は、物体融合処理部6で融合された物体融合結果から同一物体の融合結果の組合せ候補を選択する処理部である。つまり、融合結果の組み合わせ候補を選択する。この処理は、後述する図2AのステップS101からステップS111が該当する。
高信頼度同一物体融合結果組合せ候補抽出処理部8は、同一物体の融合結果の組合せ候補から物体検出情報の検出信頼度が高い融合結果組合せを抽出する処理部である。この処理は、後述する図2A、図2BのステップS121からステップS122およびステップS104が該当する。
物体検出回数カウンタ9は、物体融合処理部6で融合された物体検知回数の和を算出する処理部である。
同一物体融合結果組合せ判定処理部10は、高信頼度同一物体融合結果組合せ候補抽出処理部8からの信号が、同一物体の融合信号であるか否かを判定する処理部である。この処理は、後述する図2BのステップS131からステップS134およびステップS104に該当する。
同一物体融合組合せ統合処理部11は、同一物体の融合信号の組合せと判定された組合せを統合する処理部である。この処理は、後述する図2BのステップS141およびステップS104に該当する。
最後に、車両制御部2は、物体認識処理装置1の認識結果に基づき、自車両のヨーレート、操舵角、自車速度等、自車両の運動を制御するものである。
以上のとおり、図1に示す物体認識処理装置は、物体ロスト検出部5が、第1の物体検出部3および第2の物体検出部4の物体のロストを検出し、物体ロスト信号として出力し、これを受けた物体融合処理部6が、複数の物体検出部で検出された複数の当該物体の検出情報信号を融合して物体融合信号として出力する。同一物体融合組合せ候補選択処理部7が、当該物体融合信号の組合せのため、当該物体融合信号の候補を選択し、高信頼度同一物体融合結果組合せ候補抽出処理部8が、この候補から物体検出情報の検出信頼度が高い融合結果組合せを選択する。物体検出回数カウンタ9は、物体融合処理部6で融合された物体検知回数の和を算出する。同一物体融合結果組合せ判定処理部10は、選択された当該物体の融合信号の組合せが同一の物体のものであるか否かを判定し、同一物体融合組合せ統合処理部11が、当該判定結果に基づいて当該車両周辺の物体を認識するものである。
異常説明した図1の各構成の動作について、以下、更に詳細に説明する。
同一物体融合結果組合せ候補選択処理部7は、物体運動諸元差条件に基づき、物体融合信号の組合せのため、当該物体融合信号の候補を選択する。
ここで、物体運動諸元差条件とは、物体融合処理部6における処理による複数物体の融合の結果について、(1)当該物体の位置の相違、(2)当該物体の速度の相違、(3)当該物体の加速度の相違のうち、少なくとも1つを含むものであり、物体融合処理部6が物体融合信号に物体特徴情報信号を付加して出力する場合、同一物体融合結果組合せ候補選択処理部7は、当該物体識別情報に基づき物体運動諸元差条件を変更することもできる。
物体融合処理部6が、物体融合信号に物体特徴情報信号(後述する)を付加して出力する場合、同一物体融合結果組合せ候補選択処理部7は、物体融合処理部6から入力する物体特徴情報信号に基づき、物体融合信号の組合せのため、当該物体融合信号の候補を選択する。なお、当該物体特徴情報信号は、当該物体の向き、当該物体の識別情報、当該物体の色彩、当該物体の受信レベルのうち、少なくとも1つを含むものである。
高信頼度同一物体融合結果組合せ候補抽出処理部8は、第1の物体検出部3および第2の物体検出部4から入力する検出信頼度条件信号(後述する)に基づき、当該検出信頼度条件信号に含まれる検出信頼度条件を包含する物体融合信号の組合せのため、同一物体の融合結果の組合せ候補の絞り込みを行う。
ここで、検出信頼度条件とは、(1)物体融合処理部6が物体の検出情報信号を融合できない回数(換言すれば物体融合信号のロスト回数)、(2)当該物体の検出位置、(3)当該物体の検出信頼度、(4)当該物体の検出の推定誤差のうち、少なくとも1つを含むものである。
同一物体融合結果組合せ判定処理部10は、最新のn処理周期分(nは自然数)の選択された物体融合信号の組合せにおいて、最新のn処理周期分の物体の融合に用いた当該物体検出の個数が同一物体融合結果組合せ判定閾値以上の場合、同一物体融合結果組合せと判定する。なお、同一物体融合結果組合せ判定処理部10は、最新のn処理周期分の物体の融合に用いた複数の当該物体の検出情報信号が全て同一の物体検出部で(すなわち、第1の物体検出部3および第2の物体検出部4のいずれか一方のみで)検出されている場合、同一の物体のものであるか否かを判定せず、また、物体融合信号の組合せ候補を生成した物体検出部(すなわち、第1の物体検出部3および第2の物体検出部4のいずれか一方)が同一タイミングにて同一物体融合結果組合せ候補を検出していた場合、同一の物体のものであるか否かを判定しない。
同一物体融合組合せ統合処理部11は、複数の物体の融合信号の平均値、中央値、最頻値、最短縦位置、または、物体の融合信号の推定誤差を考慮した重みづけして統合した値のうち、少なくとも1つの値に基づいて、当該車両周辺の物体を認識する。
また、同一物体融合組合せ統合処理部11は、当該物体の融合信号に付加された当該物体識別情報に基づき、複数の物体の融合信号に含まれる相対位置、相対速度、及び相対加速度の平均値、中央値、最頻値、最短縦位置、または、物体融合信号の推定誤差を考慮した重みづけして統合した値のうち、少なくとも1つの値を決定して、決定した値に基づいて当該自車両周辺の物体を認識することもできる。例えば、平均値を用いて認識結果を演算する場合、複数の物体の融合信号を航跡1、航跡2として、航跡1の相対位置x1、航跡2の相対位置x2のとき、物体の認識信号の相対位置は(x1+x2)/2となる。

また、物体融合結果の推定誤差を考慮し、重みづけして統合する方法については、物体認識結果の横位置を例に説明すると、以下の式の通りである。なお、a(ただし、0≦a≦1)は航跡1及び航跡2の推定誤差によって決まる。
航跡1の横位置の推定誤差が航跡2の横位置の推定誤差より大きい場合は、aは0.5より小さな値となり、航跡1の横位置の推定誤差が航跡2の横位置の推定誤差より小さい場合は、aは0.5より大きな値となる。
物体認識結果の横位置=a×航跡1の横位置+(1−a)×航跡2の横位置
なお、縦位置、横速度、縦速度においても物体の融合信号の推定誤差を考慮した重みづけして統合する方法は同様である。
以上のように、同一物体融合組合せ統合処理部11は、最新のn処理周期分の物体融合信号を用いて、自車両周辺の物体を認識する。
次に、実施の形態1の物体認識処理装置1の動作処理につき、図2Aおよび図2Bを用いて詳細に説明する。図2Aおよび図2Bは、物体認識処理装置1の動作処理を示すフローチャートである
図1および図2Aおよび図2Bに示すとおり、同一物体融合結果組合せ候補選択処理部7への入力は、全ての物体の融合信号の中から選択された2つの物体の融合信号であり、それぞれ航跡1、航跡2とする。ここで、航跡とは、一定の時間ごとに当該周辺物体の位置の変遷の履歴をいう。
まず、ステップS101では、航跡1、航跡2の両方に物体識別情報があるか否かを判定する。ステップS101において、航跡1、航跡2両方に物体識別情報があると判定された場合(ステップS101がYes)、ステップS102に進んで航跡1、航跡2が同じ物体識別信号であるか否か判定する。
ステップS102において、航跡1、航跡2が同じ物体の識別信号であると判定された場合(ステップS102がYes)、ステップS103にて物体運動諸元閾値として物体運動諸元差閾値1を設定する。
ステップS102において、航跡1、航跡2が同じ物体の識別信号でないと判定された場合(ステップS102がNo)、ステップS104に進んで航跡1、航跡2の組合せは同一物体の融合信号の統合処理対象外と判定し、本処理を終了する。
これは、ステップS102の判定にて、航跡1、航跡2の物体の識別信号が異なっていると判定されると、航跡1、航跡2が異なる対象の融合結果の可能性が高いと判断し、同一物体の融合信号の統合処理対象外とするものであり、このことにより、異なる物体の融合信号の誤統合の可能性を低くすることができる。
ステップS101において、航跡1、航跡2両方ともには物体識別情報がないと判定された場合(ステップS101がNo)、ステップS105に進んで航跡1、航跡2いずれか一方に物体識別情報があるか否かを判定する。
ステップS105において、航跡1、航跡2いずれか一方に物体識別情報ありと判定された場合(ステップS105がYes)、ステップS106に進んで物体運動諸元閾値として物体運動諸元差閾値2を設定する。
また、ステップS105において、航跡1、航跡2いずれも物体識別情報なしと判定された場合(ステップS106がNo)、ステップS107に進んで物体運動諸元閾値として物体運動諸元差閾値3を設定する。
なお、ここで、物体運動諸元閾値の設定については、例えば、航跡1、航跡2が同じ物体識別情報となった場合(ステップs102がYes)に設定する物体運動諸元閾値は、航跡1、航跡2のいずれか一方に物体識別情報がある場合(ステップS105がYes)、または両方の物体識別情報を持っていない場合(ステップS105がNo)に設定する物体運動諸元閾値と比べて低くする。
これにより、物体の識別信号が同じである場合、同一物体である可能性が高いため、閾値を高くし、同一物体判定基準を緩くし、異なる物体識別情報である可能性がある場合の物体運動諸元差閾値を厳しくすることとなり、異なる物体の融合信号の誤統合の可能性を低くすることができる。
また、ステップS101、ステップS102およびステップS105では上述のように物体識別情報に基づいて判定したが、物体の向き、色彩、受信レベルを用いてもよく、物体識別情報に基づく判定と同様に、航跡1、航跡2の物体の向き、色彩、受信レベルが大きく異なる場合には、航跡1、航跡2の組合せは同一物体融合結果統合処理対象外と判定する。
続いて、ステップS111において、最新のn処理周期の航跡1、航跡2において、それぞれの周期で航跡1、航跡2の横位置差、縦位置差、横速度差、縦速度差の全てが、ステップS103、ステップS106、またはステップS107で決定した物体運動諸元差閾値以下の場合(ステップS111がYes)、ステップS121へ進む。
逆に、ステップS111において、最新のn処理周期の航跡1、航跡2において、それぞれの周期で航跡1、航跡2の横位置差、縦位置差、横速度差、縦速度差が、ひとつでもステップS103、ステップS106、またはステップS107で決定した物体運動諸元差閾値より大きい場合(ステップS111がNo)、ステップS104へ進んで航跡1、航跡2の組合せは同一物体の融合信号の統合処理対象外と判定し、本処理を終了する。
なお、ステップS111では、例えば、以下の数式のようにそれぞれの運動諸元の値に重みづけをした運動諸元差評価値を設定し、運動諸元差評価値が一定閾値未満の場合は同一の融合信号統合処理対象とし、一定閾値以上の場合は同一物体の融合信号統合処理対象外としてもよい。
運動諸元差評価値=c×横位置差+d×縦位置差+e×横速度差+f×縦速度差
ただし、(c,d,e,fは任意の値)
以上のとおり、組合せ抽出において、航跡1、航跡2の物体運動諸元差が物体運動諸元差閾値以下の場合、同一物体の融合信号の組合せ候補とすることにより、異なる物体の融合信号の誤統合が起こる可能性を低くすることができる。
次に、ステップS121において、最新のn処理周期の航跡1、航跡2において、同一周期で航跡1、航跡2ともに物体検出部の検出情報との相関が取れなかった回数(つまり、物体ロスト検出部5で検出された物体検出ロスト回数)が、所定値(例えばn/3回)以下の場合(ステップs121がYes)、ステップS122に進んで航跡1、航跡2は同一物体の融合信号組合せ候補であると判定し、ステップS131に進む。
逆に、ステップS121において、最新のn処理周期分の航跡1、航跡2において、航跡1、航跡2を生成した物体ロスト検出部5で算出された物体検出ロスト回数がn/3回より多い場合(ステップS121がNo)、ステップS104に進んで航跡1、航跡2の組合せは同一物体の融合信号の統合処理対象外と判定し、本処理を終了する。
つまり、最新のn処理周期中において、航跡1、航跡2を生成した物体ロスト検出部5で算出された物体検出のロスト回数がn/3回より多い場合、航跡1、航跡2の一方または両方の検出信頼度が低いと判断し、航跡1、航跡2の組合せは同一物体の融合信号の統合処理対象外とすることで、異なる物体の融合信号の誤統合の可能性を低くすることができる。
ここで、航跡1、航跡2の検出位置、推定誤差をもとに、検出信頼度が低い組合せを同一物体の融合信号の統合処理対象外としてもよい。また、航跡1、航跡2が検出信頼度情報を有している場合は、そのまま検出信頼度情報を利用して検出信頼度が低い組合せを同一物体の融合信号の統合処理対象外としてもよい。
なお、上述のステップS121およびステップS122の処理は、ステップS101からステップS111の処理(すなわち、同一物体融合結果組合せ候補選択処理部7)により選択された組合せの中から、例えば、物体検出部の検出信頼度が高いもののように、より信頼性の高い組合せを抽出する処理であり、これらの処理を省略しても問題ない。
続いて、ステップS131において、最新のn処理周期中で複数の物体検出部の検出情報を用いて航跡1、航跡2を生成している場合(ステップS131がYes)、ステップS132に進む。
逆に、ステップS131において、最新のn処理周期中で同一物体検出部の検出情報を用いて航跡1、航跡2を生成している場合(ステップS131がNo)、ステップS104に進んで航跡1、航跡2の組合せは同一物体の融合信号の統合処理対象外と判定し、本処理を終了する。
つまり、最新のn処理周期中で同一物体検出部の検出情報のみを用いて航跡1、航跡2を生成している場合は、異なる対象の融合結果である可能性が高いと判断し、同一物体の融合信号の統合処理対象外とした。このことにより、異なる物体の融合信号の誤統合の可能性を低くすることができる。
続いて、ステップS132において、最新のn処理周期中全て、同一周期かつ同一物体検出部の検出情報で航跡1、航跡2を生成していない場合(ステップS132がYes)、ステップS133に進む。
逆に、ステップS132において、最新のn処理周期中において、同一周期かつ同一物体検出部の検出情報で航跡1、航跡2を生成している場合(ステップS132がNo)、ステップS104に進んで航跡1、航跡2の組合せは同一物体の融合信号の統合処理対象外と判定し、本処理を終了する。
続いて、ステップS133において、最新のn処理周期で航跡1、航跡2の生成に用いた物体検出回数カウンタ9で算出した物体検出回数の和が所定の検知回数閾値、例えば、3×(2×n)/5以下の場合(ステップS133がYes)、ステップS134に進んで同一物体融合結果組合せ判定処理部10が航跡1、航跡2の組合せが同一物体の融合信号の組合せであると判定する。
逆に、ステップS133において、最新のn処理周期で航跡1、航跡2の生成に用いた物体検出回数カウンタ9で算出した物体検出回数の和が所定の検知回数閾値、例えば、3×(2×n)/5より多い場合(ステップS133がNo)、ステップS104に進んで航跡1、航跡2の組合せは同一物体の融合信号の統合処理対象外と判定し、本処理を終了する。
つまり、航跡1、航跡2が異なる物体の融合信号の場合と比べ、同じ物体の融合信号の場合は、最新のn処理周期で航跡1、航跡2の生成に利用した物体検出回数の和は低くなると判断し、最新のn処理周期で航跡1、航跡2の生成に用いた物体検出回数の和が所定の検知回数閾値、例えば、3×(2×n)/5より大きい場合は航跡1、航跡2は同一物体の融合信号の統合処理対象外とする。このことにより、異なる物体の融合信号の誤統合の可能性を低くすることができる。
続いて、ステップS141において、航跡1、航跡2の各運動諸元の平均値で新規航跡を生成し、今回の航跡1、航跡2を削除し、この処理を終了する。この一連の処理を全ての物体の融合信号の組合せで実施する。
ここでは、航跡1、航跡2の各運動諸元の平均値としたが、中央値、最頻値、最短縦位置、または、航跡1、航跡2それぞれの推定誤差を考慮した重みづけで新規航跡を生成してもよい。
加えて、複数の航跡の統合方法は物体の融合信号の物体識別情報に基づき決定してもよい。
また、過去m処理周期分(mは自然数)の航跡1、航跡2のデータを用いて、平均値、中央値、最頻値、最短縦位置、または航跡1、航跡2それぞれの推定誤差を考慮した重みづけで新規航跡を生成するようにしてもよい。
なお、本実施の形態では全ての物体の融合信号の中から選択された2つの物体の融合信号としているが、3つ以上の物体の融合信号を選択して実施してもよい。
車両制御部2は、物体認識処理装置1より得られた自車両と自車両の周辺物体との距離、当該周辺物体の位置などの情報を用いて、自車両が前方の物体に衝突した際の被害を軽減する衝突被害軽減ブレーキシステム、前方の車両に追従するアダプティブクルーズコントロールシステムの制御などを行う。つまり、当該物体認識処理装置1による物体の認識結果に基づき、自車両の自動運転を行うことができるものである。
以上のように、この発明は、従来のものと比べて物体の認識の精度が更に向上したので、物体を認識するための物体認識装置、物体認識方法に適している。
1 物体認識処理装置
2 車両制御部
3 第1の物体検出部
4 第2の物体検出部
5 物体ロスト検出部
6 物体融合処理部
7 同一物体融合結果組合せ候補選択処理部
8 高信頼度同一物体融合結果組合せ候補抽出処理部
9 物体検出回数カウンタ
10 同一物体融合結果組合せ判定処理部
11 同一物体融合組合せ統合処理部

Claims (18)

  1. 車両周辺の物体を複数の物体検出部で検出し、当該物体の検出情報をそれぞれの当該物体検出部から入力する物体認識処理装置において、
    前記複数の物体検出部で検出された前記複数の物体の検出情報信号を融合し、物体融合信号として出力する物体融合処部と、
    前記物体融合信号の組合せのため、当該物体融合信号の候補を選択する同一物体融合結果組合せ候補選択処理部と、
    この選択された前記物体融合信号の組合せが、同一の物体のものであるか否かを判定する同一物体融合結果組合せ判定処理部と、
    前記同一物体融合結果組合せ判定処理部の判定結果に基づいて、前記車両周辺の物体を認識する同一物体融合組合せ統合処理部とを備えたことを特徴とする物体認識処理装置。
  2. 前記同一物体融合結果組合せ候補選択処理部によって選択された候補から物体検出情報の検出信頼度が高い前記物体融合信号の組合せを抽出する高信頼度同一物体融合結果組合せ候補抽出処理部をさらに備え、
    前記同一物体融合結果組合せ判定処理部が、前記高信頼度同一物体融合結果組合せ候補抽出処理部によって抽出された前記物体融合信号の組合せが同一の物体のものであるか否かを判定することを特徴とする請求項1に記載の物体認識処理装置。
  3. 前記高信頼度同一物体融合結果組合せ候補抽出処理部は、前記物体検出部から入力する検出信頼度条件信号に基づき、物体融合信号の組合せのため、前記物体融合信号の候補を選択することを特徴とする請求項2に記載の物体認識処理装置。
  4. 前記高信頼度同一物体融合結果組合せ候補抽出処理部は、前記物体検出部から入力する検出信頼度条件信号に含まれる前記検出信頼度条件を包含する物体融合信号を候補として選択することを特徴とする請求項3に記載の物体認識処理装置。
  5. 前記検出信頼度条件とは、前記物体融合処理部が物体の検出情報信号を融合できない回数、当該物体の検出位置、当該物体の検出信頼度および当該物体の検出の推定誤差のうち、少なくとも1つを含むものであることを特徴とする請求項3または請求項4に記載の物体認識処理装置。
  6. 前記同一物体融合結果組合せ候補選択処理部は、物体運動諸元差条件に基づき、物体融合信号の組合せのため、当該物体融合信号の候補を選択することを特徴とする請求項1に記載の物体認識処理装置。
  7. 前記物体運動諸元差条件とは、前記物体融合処理部での複数の物体の融合の結果、当該物体の位置の相違、当該物体の速度の相違および当該物体の加速度の相違のうち、少なくとも1つを含むものであることを特徴とする請求項6に記載の物体認識処理装置。
  8. 前記物体融合処理部が、前記物体融合信号に物体特徴情報信号を付加して出力する場合、物体識別情報に基づき前記物体運動諸元差条件を変更することを特徴とする請求項6に記載の物体認識処理装置。
  9. 前記物体融合処理部が、前記物体融合信号に前記物体特徴情報信号を付加して出力する場合、前記同一物体融合結果組合せ候補選択処理部は、前記物体融合処理部から入力する前記物体特徴情報信号に基づき、前記物体融合信号の組合せのため、前記物体融合信号の候補を選択することを特徴とする請求項8に記載の物体認識処理装置。
  10. 前記物体特徴情報信号は、当該物体の向き、当該物体の識別情報、当該物体の色彩および当該物体の受信レベルのうち、少なくとも1つを含むものであることを特徴とする請求項8または請求項9に記載の物体認識処理装置。
  11. 前記同一物体融合結果組合せ判定処理部は、最新のn処理周期分(nは自然数)の選択された前記物体融合信号の組合せにおいて、最新のn処理周期分の物体の融合に用いた前記物体検出の個数が同一物体融合信号の組合せ判定閾値以上の場合、同一物体信号の融合結果組合であると判定することを特徴とする請求項1に記載の物体認識処理装置。
  12. 前記同一物体融合結果組合せ判定処理部は、最新のn処理周期分(nは自然数)の選択された前記物体融合信号の組合せにつき、最新のn処理周期分の物体の融合に用いた複数の当該物体の検出情報信号が全て同一の物体検出部で検出されている場合、同一の物体のものであるか否かを判定しないことを特徴とする請求項1に記載の物体認識処理装置。
  13. 前記同一物体融合結果組合せ判定処理部は、前記物体融合信号の組合せ候補を生成した当該物体検出部が同一タイミングにて同一物体信号の融合結果組合せ候補を検出していた場合、同一の物体のものであるか否かを判定しないことを特徴とする請求項1に記載の物体認識処理装置。
  14. 前記同一物体融合組合せ統合処理部は、複数の前記物体融合信号の平均値、または物体融合信号の推定誤差値に基づいて、当該車両周辺の物体を認識することを特徴とする請求項1に記載の物体認識処理装置。
  15. 前記同一物体融合組合せ統合処理部は、前記物体融合信号に付加された物体識別情報に基づき、複数の物体融合信号の平均値、または物体融合信号の推定誤差値を決定し、決定した値に基づいて当該車両周辺の物体を認識することを特徴とする請求項1に記載の物体認識処理装置。
  16. 前記同一物体融合組合せ統合処理部は、最新のn処理周期分の前記物体融合信号を用いて、当該車両周辺の物体を認識することを特徴とする請求項14または請求項15に記載の物体認識処理装置。
  17. 車両周辺の物体を複数の物体検出部で検出し、当該物体の検出情報をそれぞれの当該物体検出部から入力する第1のステップと、
    前記複数の物体検出部で検出された前記複数の当該物体の検出情報信号を融合し、物体融合信号として出力する第2のステップと、
    前記物体融合信号の組合せのため、当該物体融合信号の候補を選択する第3のステップと、
    この選択された前記物体融合信号の組合せが、同一の物体のものであるか否かを判定する第4のステップと、
    当該判定結果に基づいて、当該車両周辺の物体を認識する第5のステップを備えたことを特徴とする物体認識方法。
  18. 車両周辺の物体を複数の物体検出部で検出し、当該物体の検出情報をそれぞれの当該物体検出部から入力する物体認識処理装置において、
    前記複数の物体検出部で検出された前記複数の物体の検出情報信号を融合し、物体融合信号として出力する物体融合処部と、
    前記物体融合信号の組合せのため、当該物体融合信号の候補を選択する同一物体融合結果組合せ候補選択処理部と、
    この抽出された前記物体融合信号の組合せが、同一の物体のものであるか否かを判定する同一物体融合結果組合せ判定処理部と、
    前記同一物体融合結果組合せ判定処理部の判定結果に基づいて、前記車両周辺の物体を認識する同一物体融合組合せ統合処理部と
    前記同一物体融合組合せ統合処理部の認識結果に基づいて、前記車両の動作を制御する車両制御部を備えたことを特徴とする自動運転システム。
JP2016116285A 2016-06-10 2016-06-10 物体認識処理装置、物体認識処理方法および自動運転システム Active JP6256531B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016116285A JP6256531B2 (ja) 2016-06-10 2016-06-10 物体認識処理装置、物体認識処理方法および自動運転システム
US15/602,172 US10460467B2 (en) 2016-06-10 2017-05-23 Object recognition processing apparatus, object recognition processing method, and autonomous driving system
CN201710403858.6A CN107490794B (zh) 2016-06-10 2017-06-01 物体辨识处理装置、物体辨识处理方法及自动驾驶系统
DE102017209772.8A DE102017209772A1 (de) 2016-06-10 2017-06-09 Objekterkennungsverarbeitungsvorrichtung, Objekterkennungsverarbeitungsverfahren und autonomes Fahrsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016116285A JP6256531B2 (ja) 2016-06-10 2016-06-10 物体認識処理装置、物体認識処理方法および自動運転システム

Publications (2)

Publication Number Publication Date
JP2017220157A JP2017220157A (ja) 2017-12-14
JP6256531B2 true JP6256531B2 (ja) 2018-01-10

Family

ID=60572939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016116285A Active JP6256531B2 (ja) 2016-06-10 2016-06-10 物体認識処理装置、物体認識処理方法および自動運転システム

Country Status (4)

Country Link
US (1) US10460467B2 (ja)
JP (1) JP6256531B2 (ja)
CN (1) CN107490794B (ja)
DE (1) DE102017209772A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199244A1 (ja) * 2015-06-10 2016-12-15 株式会社日立製作所 物体認識装置及び物体認識システム
EP3459827B1 (en) * 2017-09-25 2022-07-27 Volvo Car Corporation Method and system for automated parking of a vehicle
US10691969B2 (en) * 2017-11-06 2020-06-23 EagleSens Systems Corporation Asynchronous object ROI detection in video mode
WO2019136479A1 (en) * 2018-01-08 2019-07-11 The Regents On The University Of California Surround vehicle tracking and motion prediction
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
EP3547213A1 (en) * 2018-03-27 2019-10-02 Panasonic Intellectual Property Management Co., Ltd. Information processing system and information processing method
US11906612B2 (en) * 2018-05-14 2024-02-20 Mitsubishi Electric Corporation Object detection device and object detection method
US10852420B2 (en) 2018-05-18 2020-12-01 Industrial Technology Research Institute Object detection system, autonomous vehicle using the same, and object detection method thereof
CN108985314A (zh) * 2018-05-24 2018-12-11 北京飞搜科技有限公司 目标检测方法及设备
US11959999B2 (en) * 2018-07-02 2024-04-16 Sony Semiconductor Solutions Corporation Information processing device, information processing method, computer program, and mobile device
US10928819B2 (en) * 2018-10-29 2021-02-23 Here Global B.V. Method and apparatus for comparing relevant information between sensor measurements
US10817777B2 (en) 2019-01-31 2020-10-27 StradVision, Inc. Learning method and learning device for integrating object detection information acquired through V2V communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same
JP7135908B2 (ja) * 2019-02-04 2022-09-13 トヨタ自動車株式会社 衝突前制御装置
CN110007754B (zh) * 2019-03-06 2020-08-28 清华大学 手与物体交互过程的实时重建方法及装置
WO2020235466A1 (ja) * 2019-05-23 2020-11-26 日立オートモティブシステムズ株式会社 車両制御システム及び車両制御方法
CN110320912A (zh) * 2019-07-10 2019-10-11 苏州欧博智慧机器人有限公司 激光与视觉slam融合的agv定位导航装置及方法
CN110435642A (zh) * 2019-08-06 2019-11-12 吉利汽车研究院(宁波)有限公司 数据融合方法、装置及存储介质
JP7397609B2 (ja) * 2019-09-24 2023-12-13 株式会社Subaru 走行環境認識装置
CN113470105A (zh) * 2020-03-31 2021-10-01 清华大学 远距离测量瞳孔大小的装置及其方法
JP7412254B2 (ja) * 2020-04-02 2024-01-12 三菱電機株式会社 物体認識装置および物体認識方法
JP2023009609A (ja) * 2021-07-07 2023-01-20 株式会社Subaru 車両の運転支援装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5470762A (en) * 1977-11-16 1979-06-06 Seiko Instr & Electronics Ltd Semiconductor device
JPS5724955A (en) * 1980-07-23 1982-02-09 Fuji Xerox Co Ltd Correcting device for zigzag movement
JPS5896123A (ja) 1981-12-01 1983-06-08 Mitsugi Aoyama 二段圧縮して熱風着火させる省エネ無公害エンジン
JPS5896823A (ja) 1981-12-02 1983-06-09 Nisshin Steel Co Ltd 着色用ステンレス鋼板の製造法
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP4712562B2 (ja) * 2006-01-13 2011-06-29 富士重工業株式会社 車両の前方立体物認識装置
JP5109264B2 (ja) * 2006-02-27 2012-12-26 トヨタ自動車株式会社 物体検出装置
JP4684960B2 (ja) * 2006-07-07 2011-05-18 富士重工業株式会社 車両の衝突防止支援システム
CN101231340A (zh) * 2007-12-29 2008-07-30 四川川大智胜软件股份有限公司 多雷达系统航迹融合处理时的误差配准方法
JP5470762B2 (ja) * 2008-07-08 2014-04-16 富士通株式会社 物体検出装置、物体検出プログラム、および物体検出方法
US8867790B2 (en) * 2010-08-03 2014-10-21 Panasonic Corporation Object detection device, object detection method, and program
JP5896823B2 (ja) 2012-04-26 2016-03-30 三菱電機株式会社 目標追尾装置及び目標追尾方法
JP5724955B2 (ja) * 2012-06-22 2015-05-27 トヨタ自動車株式会社 物体検出装置、情報処理装置、物体検出方法
US9216688B2 (en) * 2013-03-15 2015-12-22 Adil Ansari System and method for blindzone object detection
EP2865575B1 (en) * 2013-10-22 2022-08-24 Honda Research Institute Europe GmbH Confidence estimation for predictive driver assistance systems based on plausibility rules
CN103926564B (zh) * 2014-03-21 2016-08-24 成都民航空管科技发展有限公司 一种多源监视数据的融合方法及装置
FR3020616B1 (fr) * 2014-04-30 2017-10-27 Renault Sas Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif
KR101644370B1 (ko) * 2014-10-23 2016-08-01 현대모비스 주식회사 물체 검출 장치 및 그 동작 방법
JP6690952B2 (ja) * 2016-01-25 2020-04-28 日立オートモティブシステムズ株式会社 車両走行制御システム、及び車両走行制御方法

Also Published As

Publication number Publication date
CN107490794A (zh) 2017-12-19
US20170358102A1 (en) 2017-12-14
DE102017209772A1 (de) 2018-01-18
CN107490794B (zh) 2020-10-16
US10460467B2 (en) 2019-10-29
JP2017220157A (ja) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6256531B2 (ja) 物体認識処理装置、物体認識処理方法および自動運転システム
US9731728B2 (en) Sensor abnormality detection device
US10037472B1 (en) Automated vehicle object detection system with camera image and radar data fusion
US8798907B2 (en) On-vehicle apparatus, preceding vehicle position determining apparatus, and preceding vehicle position determining method
US8610620B2 (en) Object detecting apparatus and object detecting method
US20150239472A1 (en) Vehicle-installed obstacle detection apparatus having function for judging motion condition of detected object
WO2014024336A1 (ja) 物体検出装置及び運転支援装置
JP5910434B2 (ja) 衝突予測装置
US11415690B2 (en) Method and system comparing odometer velocity to radar based velocity
JP2007310741A (ja) 立体物認識装置
EP1367411A2 (en) Collision detection system and method of estimating miss distance
US11155272B2 (en) Estimating apparatus
US11292481B2 (en) Method and apparatus for multi vehicle sensor suite diagnosis
CN111352413A (zh) 全向传感器融合系统和方法及包括该融合系统的车辆
US10996317B2 (en) Object detection apparatus and object detection method
JP6490747B2 (ja) 物体認識装置、物体認識方法および車両制御システム
KR20200108464A (ko) 임계적인 횡방향 이동을 검출하는 방법 및 장치
EP3477333B1 (en) Method and device of determining kinematics of a target
JP5655497B2 (ja) 障害物認識装置及び障害物認識方法
JP5067091B2 (ja) 衝突判定装置
KR102712307B1 (ko) 차량 충돌 방지 장치 및 방법
US20180372860A1 (en) Object detection device and object detection method
US20050004719A1 (en) Device and method for determining the position of objects in the surroundings of a motor vehicle
JP4683910B2 (ja) 衝突防止支援装置
JP6555132B2 (ja) 移動物体検出装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171120

R151 Written notification of patent or utility model registration

Ref document number: 6256531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350