[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018092501A - 車載用画像処理装置 - Google Patents

車載用画像処理装置 Download PDF

Info

Publication number
JP2018092501A
JP2018092501A JP2016237258A JP2016237258A JP2018092501A JP 2018092501 A JP2018092501 A JP 2018092501A JP 2016237258 A JP2016237258 A JP 2016237258A JP 2016237258 A JP2016237258 A JP 2016237258A JP 2018092501 A JP2018092501 A JP 2018092501A
Authority
JP
Japan
Prior art keywords
vehicle
image processing
feature
dimensional object
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016237258A
Other languages
English (en)
Other versions
JP2018092501A5 (ja
JP6773540B2 (ja
Inventor
健人 緒方
Taketo Ogata
健人 緒方
將裕 清原
Masahiro Kiyohara
將裕 清原
福田 大輔
Daisuke Fukuda
大輔 福田
吉孝 内田
Yoshitaka Uchida
吉孝 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016237258A priority Critical patent/JP6773540B2/ja
Priority to US16/467,234 priority patent/US10977504B2/en
Priority to CN201780064386.4A priority patent/CN109844762B/zh
Priority to PCT/JP2017/031424 priority patent/WO2018105179A1/ja
Priority to EP17878703.2A priority patent/EP3553744B1/en
Publication of JP2018092501A publication Critical patent/JP2018092501A/ja
Publication of JP2018092501A5 publication Critical patent/JP2018092501A5/ja
Application granted granted Critical
Publication of JP6773540B2 publication Critical patent/JP6773540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】カメラ画像を用いて駐車枠等の路面上に存在する対象物を検出する際に、立体物の一部を対象物と誤認識することを回避することが可能な車載用画像処理装置を提供する。
【解決手段】車載用画像処理装置1000は、自車10の周囲の画像を取得し、画像から路面上に存在する対象物の特徴量と自車10に対する相対位置座標を検出するとともに、自車10の周囲の立体物情報とその相対位置座標を取得し、特徴量と立体物の位置関係の情報を用いて、特徴量が路面上のものか立体物上のものかを選別し、路面上の特徴を用いて、対象物を認識する。
【選択図】 図1

Description

本発明は、運転者の運転操作を補助する車両制御を実施する際などに好適に用いられる車載用画像処理装置に関する。
駐車枠の線の左右両端の候補となる直線を精度良く検出でき、無関係な直線を駐車枠の線の両端と誤検出することを防止でき、駐車枠を精度良く検出することを目的として、特許文献1には、車両後方を撮像する撮像手段と、撮像した後方画像からエッジを抽出するエッジ抽出手段と、エッジを抽出された画像を俯瞰画像に変換する画像変換手段と、変換された俯瞰画像を左右の領域に分割する領域分割手段と、分割された左右領域からハフ変換により領域毎にそれぞれ直線を検出する直線検出手段と、検出された直線が幅を有する線の端であるか否かを判定する第1の判定手段と、幅を有する線の端であると判定された複数の直線から左右の領域毎に2本の直線の組合せをつくり、この組合せが幅を有する線の両端であるか否かを判定する第2の判定手段とを備える駐車枠検出装置が記載されている。
特開2012−80497号公報
近年、カメラを用いて駐車枠を検出し、運転者の駐車操作をサポートするシステムの開発が進められている。たとえば、自車の周囲の駐車枠を検出し、運転者の駐車操作の一部あるいはすべてを自動で実施する自律駐車システム等が実用化されている。
カメラを用いて駐車枠を検出する場合、白線と路面の輝度差により生じるエッジ情報を用いて検出する。この際、駐車枠の白線の近くに影がある場合、影によるエッジを駐車枠と誤認識してしまうことがある。このような誤認識への対策として、たとえば、上述した特許文献1には、白線のエッジは輝度変化方向が異なるエッジが2本生じることを利用し、立ち上がりエッジの近くに存在する立ち下がりエッジをチェックすることにより、影によるエッジの影響を受けなくする技術が記載されている。
しかしながら、カメラ画像からは立体物情報が得られない。このため、たとえば駐車枠の隣の駐車車両のバンパー、サイドシルや塗装等が画像上では駐車枠の白線と同じように見えてしまい、さらにエッジも立ち上がりと立ち下りのペアが成立し、サイドシルのエッジと白線をペアリングして駐車枠と誤認識することがある。すなわち、立体物の一部を駐車枠と誤認識してしまう、との問題がある。
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、カメラ画像を用いて駐車枠等の路面上に存在する対象物を検出する際に、立体物の一部を対象物と誤認識することを回避することが可能な車載用画像処理装置を提供することである。
上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。
本発明は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、自車周囲の対象物を認識する車載用画像処理装置であって、撮像部によって撮像された前記自車周囲の画像を取得する画像取得部と、前記画像取得部により取得した前記自車周囲の画像から対象物の特徴量および前記特徴量が路面上にあると仮定した場合の前記特徴量の自車に対する座標情報を抽出する特徴量抽出部と、前記自車周囲の立体物の自車に対する座標情報を取得し、記憶する立体物情報記憶部と、前記特徴量抽出部で検出された前記特徴量の自車に対する座標情報と前記立体物情報記憶部に記憶された前記立体物の自車に対する座標情報との位置関係を用いて、前記特徴量が路面上のものか立体物上のものかを選別する特徴量選別部と、前記特徴量選別部において路面上のものと選別された特徴量を用いて、前記対象物を認識する対象物認識部と、を備えることを特徴とする。
本発明によれば、カメラ画像を用いて駐車枠等の路面上に存在する対象物を検出する際に、立体物の一部を対象物と誤認識することを回避することができる。上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
本発明の第1の実施形態における車載用画像処理装置のブロック図である。 第1の実施形態における画像取得部での処理の一例を示す図である。 第1の実施形態における白線特徴検出部の処理を表すフローチャート図である。 第1の実施形態における立体物検出部の処理を表すフローチャート図である。 第1の実施形態における立体物検出部の処理の説明図である。 第1の実施形態における立体物検出部の処理の説明図である。 第1の実施形態における立体物情報記憶部の処理を表すフローチャート図である。 第1の実施形態における立体物情報記憶部の処理の説明図である。 第1の実施形態における立体物情報記憶部の処理の説明図である。 第1の実施形態における立体物情報記憶部の処理の説明図である。 第1の実施形態における立体物情報記憶部の処理の説明図である。 第1の実施形態における白線特徴選別部の処理を表すフローチャート図である。 第1の実施形態における白線特徴選別部の処理の説明図である。 第1の実施形態における白線特徴選別部の処理の説明図である。 第1の実施形態における白線特徴選別部の処理の説明図である。 第1の実施形態における白線特徴選別部の処理の説明図である。 第1の実施形態における白線特徴選別部の処理の説明図である。 第1の実施形態における白線特徴選別部の処理の説明図である。 第1の実施形態における駐車枠認識部の処理を表すフローチャート図である。 第1の実施形態における駐車枠認識部の処理の説明図である。 第1の実施形態における駐車枠認識部の処理の説明図である。 第1の実施形態の第1の変形例のブロック図である。 第1の実施形態の第2の変形例のブロック図である。 第1の実施形態の第3の変形例のブロック図である。 本発明の第2の実施形態における車載用画像処理装置のブロック図である。 第2の実施形態における白線特徴選別部の処理を表すフローチャート図である。 第2の実施形態における白線特徴選別部の処理の説明図である。 第2の実施形態における白線特徴選別部の処理の説明図である。 第2の実施形態における白線特徴選別部の処理の説明図である。 第2の実施形態における白線特徴選別部の処理の説明図である。 第2の実施形態における白線特徴選別部の処理の説明図である。 本発明の第3の実施形態における車載用画像処理装置のブロック図である。 第3の実施形態における端点特徴検出部の処理を表すフローチャート図である。 第3の実施形態における端点特徴検出部の処理の説明図である。 第3の実施形態における端点特徴検出部の処理の説明図である。 第3の実施形態における端点特徴選別部の処理の説明図である。 第3の実施形態における端点特徴選別部の処理の説明図である。 第3の実施形態における端点特徴選別部の処理の説明図である。 第3の実施形態における端点特徴選別部の処理の説明図である。 第3の実施形態における駐車枠認識部の処理を表すフローチャート図である。 第3の実施形態における駐車枠認識部の他の処理の一例を表すフローチャート図である。 本発明の第4の実施形態における車載用画像処理装置のブロック図である。 第4の実施形態における路面ペイント認識部の処理を表すフローチャート図である。 本発明の第5の実施形態における車載用画像処理装置のブロック図である。 第5の実施形態における縁石認識部の処理を表すフローチャート図である。
以下にカメラ等の画像センサからの情報に基づいて駐車枠、路面ペイントや縁石等、高さが無い対象物を検出し、検出結果に応じて運転者の駐車操作を補助する車両制御を実施する際に好適に用いられる本発明の車載用画像処理装置の実施形態について図面を用いて説明する。
<第1の実施形態>
以下、本発明の車載用画像処理装置の第1の実施形態を図1乃至図14を用いて説明する。図1は、第1の実施形態における車載用画像処理装置1000のブロック図である。
車載用画像処理装置1000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれており、カメラ装置のカメラ1001〜1004で撮影した画像内から物体を検出するための装置である。本実施形態の車載用画像処理装置1000は、対象物として自車10の周囲の駐車枠を検知するように構成されている。
車載用画像処理装置1000は、CPUやメモリ、I/O等を有するコンピュータによって構成されている。所定の処理がプログラミングされており、あらかじめ定められた周期Tで繰り返し処理を実行する。
図1に示すように、車載用画像処理装置1000は、画像取得部1011と、白線特徴検出部(特徴量抽出部)1021と、立体物検出部1031と、立体物情報取得部1041と、車両挙動情報取得部1050と、立体物情報記憶部1051と、白線特徴選別部(特徴量選別部)1061と、駐車枠認識部(対象物認識部)1071と、を備えている。
画像取得部1011は、図2に示すように、自車10の周囲を撮像可能な位置に取り付けられたカメラ(撮像部)1001,1002,1003,1004より、自車10の周囲を撮影して得られた画像1011A,1012A,1013A,1014Aを取得する。その後、取得した画像1011A,1012A,1013A,1014Aを幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。なお、俯瞰画像1015は2次元配列であり、IMGSRC[x][y]で表すものとする。x,yはそれぞれ画像の座標を示す。
白線特徴検出部1021は、画像取得部1011により取得された俯瞰画像1015から、白線特徴LC[n]を検出する。白線特徴LC[n]は、自車10の後輪の車軸の中心を原点とした座標(世界座標)系における白線特徴の自車10に対する相対位置の座標の情報を持っており、テーブルを要素とする1次元配列である。nは複数検出した場合のIDを表す。処理の詳細は後述する。
立体物検出部1031は、カメラ1001,1002,1003,1004でそれぞれ取得された画像1011A,1012A,1013A,1014Aを用いて、自車10の周囲の立体物までの距離点群IPT[b]を検出する。距離点群IPT[b]は立体物までの距離座標等の情報を持つテーブルを要素とする1次元配列であり、bは複数検出した場合のIDを表す。処理の詳細は後述する。
立体物情報取得部1041は、自車10の前方や後方、側面に設けられたソナー1005により検出した自車10の周囲に存在する立体物情報を距離点群SPT[c]として取得する。距離点群SPT[c]は立体物までの距離座標の座標等の情報を持つテーブルを要素とする1次元配列であり、cは複数検出した場合のIDを表す。
車両挙動情報取得部1050は、自車10に搭載されたECや車載用画像処理装置1000内にて自車10のタイヤのパルスなどを用いて算出された車両挙動DRCを、車内ネットワークCAN等を経由して取得する。車両挙動DRCは、世界座標系に対する速度(VX,VY)およびヨーレート(YR)の情報を含んでいる。
立体物情報記憶部1051は、立体物検出部1031で検出された距離点群IPT[b]や、立体物情報取得部1041で取得された距離点群SPT[c]、車両挙動情報取得部1050で取得された車両挙動DRCを用いて、過去の検出結果も含めて立体物点群OPT[d]として統合し、記憶する。処理の詳細は後述する。
白線特徴選別部1061は、白線特徴検出部1021より得られる白線特徴LC[n]と、立体物情報記憶部1051で統合・記憶した立体物点群OPT[d]と、世界座標系におけるカメラの座標位置情報であるカメラ幾何情報CLBとを用いて、白線特徴LC[n]から路面上の白線LN[m]を選別する。処理の詳細は後述する。
駐車枠認識部1071は、白線特徴選別部1061において路面上のものと選別された白線LN[m]を用いて、駐車枠を認識する。処理の詳細は後述する。
駐車枠認識部1071で認識された駐車枠の情報は車載用画像処理装置1000外の自車10内の他のコントロールユニット等に対して出力され、他のコントロールユニットにおける自動運転制御や自動駐車制御、駐車支援制御等の各制御を実行する際に利用する。
[白線特徴検出部1021]
つぎに、図3を用いて、白線特徴検出部1021における処理の内容について説明する。図3は、白線特徴検出部1021の処理の流れを示したフローチャートである。
白線特徴検出部1021は、俯瞰画像1015全体に対して実施しても良いし、処理領域を限定しても良い。本実施形態では、シフトポジションに基づいて、自車が停車・前進している場合は俯瞰画像1015の上半分を、自車が後進している場合は下半分を処理領域として設定する。
まず、ステップS301にて、俯瞰画像1015を90度回転させる。
つぎに、ステップS302にて、処理領域内の各ラインに対して画像の左から右に走査しながら、横方向(元画像における縦方向)のエッジフィルタを適用する。以下、ステップS303,ステップS304はライン毎に実施する。
つぎに、ステップS303にて、エッジフィルタの出力値がピークとなるエッジ点を検出する。ピークは、立ち上がりエッジ(輝度の暗から明への変化点)Eu[nu]および立下りエッジ(輝度の明から暗への変化点)Ed[nd]をそれぞれ抽出する。
路面上の白線は路面よりも輝度値が高いため、白線の左側には立ち上がりエッジが、右側には立下りエッジが存在する。その特徴を捉えるため、ステップS304にて、ステップS303で検出した立ち上がりエッジ点Eu[nu]、および立下りエッジ点Ed[nd]のうち、立ち上がりエッジから画像右側の所定範囲(あらかじめ定義する、検出する白線の最大太さ)内に立下りエッジが存在するエッジペアEp[np]のみを残し、それ以外の単独エッジは特異点であるとして消去する。
上記ステップS302〜S304の処理を、処理領域内の各ラインに対して実行する。
つぎに、ステップS305にて、ステップS304にて抽出したエッジペアEp[np]のうち、直線状に並んでいるものをグルーピングすることで、直線候補グループLg[ng]を生成する。この処理により、直線状でないエッジペアを除去する。直線上に並ぶ白線のグルーピングは、公知のハフ変換を用いることで可能である。
つぎに、ステップS306にて、直線候補グループLg[ng]の線のうち、所定長さ以下のものを除去するフィルタリング処理を行う。
そして、ステップS307にて、残ったグループの立ち上がり・立下りエッジの上端・下端(それぞれ始点、終点とする)の画像座標、および俯瞰画像1015から算出される世界座標系における自車に対する相対位置の座標の情報を、白線候補LC[n]の要素として格納する。
なお、ここではステップS301にて画像を回転させ、ステップS302〜S307の処理は回転させた画像で実施する場合について説明したが、俯瞰画像1015を回転させずに、上下方向に走査し、横方向のエッジを検出するフィルタを用いる処理を実施することもできる。
[立体物検出部1031]
つぎに、図4乃至図5Bを用いて、立体物検出部1031における処理の内容について説明する。図4は、立体物検出部1031の処理の流れを示したフローチャートである。また、図5Aおよび図5Bは、立体物検出部1031の処理の説明図である。
立体物検出部1031は、画像1011A,1012A,1013A,1014Aのいずれか1つ以上の画像に対して実施する。すなわち、1つの画像だけでも良いし、すべての画像に実施してもよい。本実施形態では、自車のシフトポジションに応じて、進行方向の画像に対して実施するものとする。
まず、ステップS401にて、処理対象の現在画像IMG_Cから特徴点FPT[f]を抽出する。特徴点FPT[f]の抽出は、Harrisコーナー等公知の方法を用いる。
つぎに、ステップS402にて、特徴点FPT[f]が抽出された画像を撮像したカメラから取得された、所定時刻前の過去画像IMG_Pを取得する。
つぎに、ステップS403にて、現在画像IMG_C上における各特徴点FPT[f]の過去画像IMG_P上の対応位置を、オプティカルフロー法により算出し、各特徴点の移動ベクトルFPT_VX[f]、FPT_VY[f]を取得する。オプティカルフローは、Lucas−Kanade法等、公知の方法を用いる。
そして、ステップS404にて、特徴点FPT[f]および移動ベクトルFPT_VX[f]、FPT_VY[f]を用いて、各特徴点FPT[f]の自車10の周囲における3次元位置を算出する。算出方法は、公知の手段を用いる。
最後に、ステップS405にて、各特徴点の3次元位置を車両の後輪車軸中心を原点とする座標系(世界座標系)に変換し、距離点群IPT[b]として格納する。
図5Aおよび図5Bに示すように、算出の原理は、過去の自車位置と現在の自車位置が変化することにより視差が生まれることを利用して、距離を計測することによって行う。画像の特徴点それぞれの距離を計測するため、たとえば駐車車両に対して計測した結果は、図5Bに示すように、世界座標を有する複数の点群として得られる。
[立体物情報記憶部1051]
つぎに、図6および図7A乃至図7Dを用いて、立体物情報記憶部1051における処理の内容について説明する。図6は、立体物情報記憶部1051の処理の流れを示したフローチャートである。また、図7乃至図7Dは、立体物情報記憶部1051の処理の説明図である。
立体物情報記憶部1051は、立体物検出部1031より算出される距離点群IPT[b]、および立体物情報取得部1041より取得されるソナーの距離点群SPT[c]を、過去の値含めて記憶する。
本実施形態においては、立体物情報記憶部1051は、すべての障害物情報を、ある位置を原点とする、高さ情報を持たない2次元マップEMPで管理するものとする。立体物情報記憶部1051は、逐次計算される距離点群IPT[b]およびソナー距離点群SPT[c]の情報を、車両挙動情報取得部1050より取得される車両挙動DRCを用いて空白の二次元マップに次々と貼り付けていくことで2次元マップEMP[x][y]を作成する。ここでEMPは2次元配列であり、x,yはある分解能で区切られた配列の座標である。
まず、ステップS601にて、前回処理した2次元マップEMPを取得する。
つぎに、ステップS602にて、車両挙動情報取得部1050から車両挙動DRCを取得する。
つぎに、ステップS603にて、立体物検出部1031より算出される距離点群IPT[b]を取得する。
また、ステップS604にて、立体物情報取得部1041より取得されるソナーの距離点群SPT[c]を取得する。
取得した距離点群IPT[b]や距離点群SPT[c]は自車10に対する相対座標の情報を有していることから、ステップS605にて、カメラによる距離点群IPT[b]、ソナーによる距離点群SPT[c]を、車両挙動DRCを用いて、空白のマップ上にそれぞれマッピングすることで2次元マップEMPを作成する。
さらに、ステップS606にて、2次元マップEMP上にマッピングされたすべての立体物点群OPT[d]のうち、過去に取得された点群情報を除去し、マップ上に残った点群を立体物点群OPT[d]とする。
ここで、2次元マップの各グリッドに確信度を設定し、確信度が所定の閾値以上のグリッドのみ障害物が存在すると判定することにより、センシング結果のノイズを除去することができる。
たとえば、立体物情報記憶部1051では、ステップS605にて、同じグリッドに過去の情報や複数のセンシング結果が同時に検出された場合にはその確信を高めるようにし、ステップS606にて、全確信度を所定値減算することができる。これにより、センシング結果が重複するグリッドは確信度が上昇し、センシング結果が繰り返し得られないグリッドは徐々に確信度が下降し、古い情報が除去されるようになる。
図7A乃至図7Dは処理の一例を示す。t時点に得られる距離点群IPT[b]およびSPT[c]が図7A、t−1時点に得られる距離点群IPT[b]およびSPT[c]が図7B、t−2時点に得られる距離点群IPT[b]およびSPT[c]が図7Cであったとすると、ここにt時点、t−1時点、t−2時点における車両挙動DRCをそれぞれ用いて統合した結果である立体物点群OPT[d]の例が図7Dに示すような結果となる。
[白線特徴選別部1061]
つぎに、図8および図9A乃至図9Fを用いて、白線特徴選別部1061における処理の内容について説明する。図8は、白線特徴選別部1061の処理の流れを示したフローチャートである。また、図9A乃至図9Fは、白線特徴選別部1061の処理の説明図である。
白線特徴選別部1061は、白線特徴検出部1021より得られる白線特徴LC[n]、立体物情報記憶部1051より得られる立体物情報OPT[d]、およびカメラ設置位置情報CLBを用いて、白線特徴LC[n]が路面上の白線LN[m]か、それとも立体物上の物体である隣駐車車両のバンパー、サイドシルや塗装等であるか、を選別する。
まず、ステップS801にて、立体物情報OPT[d]を取得する。
つぎに、ステップS802にて、カメラ設置位置情報CLBを取得する。
つぎに、ステップS803にて、白線特徴LC[n]を取得する。
そして、ステップS804にて、n=1からNの全白線特徴LC[n]について、n=1からNに対して以下ステップS805からステップS807の処理を行う。
まず、ステップS805にて、白線特徴LC[n]の始点座標、終点座標、カメラ設置位置座標の三点から、高さを考慮しない2次元座標における三角領域Dを算出する。
つぎに、ステップS806にて、三角領域D内に立体物情報OPT[d]が存在するかどうかを判定する。存在しないと判定された場合にはステップS807に処理を進めて、白線特徴LC[n]を白線LN[m]として登録する。これに対し、存在すると判定されたときは白線特徴LC[n]は白線LN[m]でないとして次の白線特徴LC[n]に対する判定処理に移行する。
ステップS805−ステップS807の処理の例を、図9A乃至図9Fを用いて説明する。ここでは、3つの白線特徴LC[n]について説明する。図9Aは俯瞰画像1015から白線特徴LC[n]を検出した結果である。図9Bは立体物情報OPT[d]、図9Cは立体物情報OPT[d]と白線特徴LC[n]を重ねて図示した結果である。図9D,図9E,図9Fは各々の三角領域Dと白線特徴LC[n]との重複を確認する様子を図示したものである。
図9Aに示すような白線特徴LC[n]および白線特徴LC[n]を検出したカメラの設置位置CLBと図9Bに示すような立体物情報OPT[d]の検出結果を用いて、図9Cに示すように立体物情報OPT[d]と白線特徴LC[n]とを重ねる。この図9Cにおいて図9D,図9E,図9Fに示すような3つの三角領域Dを生成し、各三角領域Dの内側に立体物情報OPT[d]が存在するか否かを判定する。
この例では、図9Fで生成される三角領域D内に立体物情報が含まれているため、図9Fに示す白線特徴LC[n]が除去され、図9Dおよび図9Eに示す残り2つの白線特徴LC[n]が白線LN[m]として登録される。
[駐車枠認識部1071]
つぎに、図10を用いて、駐車枠認識部1071における処理の内容について説明する。図10は駐車枠認識部1071の処理の流れを示したフローチャートである。
駐車枠認識部1071では、登録された白線LN[m]を組み合わせて、自車10が停車可能な駐車枠を探索、認識する。
まず、ステップS1001にて、白線LN[m]から2本の線LN[mL],LN[mR]を選択する。
つぎに、ステップS1002において、ステップS1001で選択した2本の白線LN[mL],LN[mR]の延在方向の角度差θが所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS1002では、2本の白線が略平行であるか否かを判断する。所定値以下であると判断されたときは処理をステップS1003に進め、所定値より大きいと判断されたときは選択された2本の白線LN[mL],LN[mR]が駐車枠を構成する白線の組み合わせではないとして処理をステップS1006に進める。
ステップS1002が肯定判断されるとステップS1003へ進み、2本の白線LN[mL],LN[mR]の間隔Wが所定の範囲内(ThWmin以上かつThWmax以下)であるか否かを判断する。すなわち、ステップS1003では、駐車枠を構成する2本の白線として考えられる間隔で2本の白線が並んでいるか否かを判断する。所定範囲内であると判断されたときは処理をステップS1004に進め、所定範囲外であると判断されたときは処理をステップS1006に進める。
ステップS1003が肯定判断されるとステップS1004へ進み、2本の白線の下端のずれΔBが所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断する。ここで、本ステップS1004で判断する2本の白線の下端のずれについて、図11Aおよび図11Bを参照して説明する。
図11Aに示すように、駐車場の敷地における自車10の移動方向(図11Aにおける上下方向および左右方向)に対して自車10を平行または直角に駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合、下端側にはずれがない。
しかし、図11Bに示すように、駐車場によっては、自車10の移動方向(図11Bおける上下方向および左右方向)に対して自車10を平行または直角ではなく斜めに駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合がある。この場合、距離Bで示すように、駐車枠23を構成する駐車枠線23Lの下端位置がずれる。これは、図11B右側の駐車枠線23Lが自車10が走行する領域に対してはみ出さないようにするために、駐車枠線23Lの下端位置をずらしてあるからである。
たとえば、高速道路のサービスエリアやパーキングエリアでは、図11Bの左側の駐車枠線23Lの下端から駐車枠線23Lの延在方向に対して垂直な線分と、駐車枠線23Lの下端同士を結ぶ線分との交差角度ρが0度、30度、45度のいずれかとすることが定められている。また、駐車枠23の幅Wについても取り得る値の範囲が決まっている。そこで、本実施形態では、上記交差角度θが、0度、30度、45度のいずれかの値であるときに取り得る距離Bの値があらかじめメモリ(図示省略)等に記憶されている。
ステップS1004では、選択したLN[mL],LN[mR]から算出される距離Bを用いて比較を行い、その差が上述した所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断することによって、2本の白線が1つの駐車枠23を構成する白線(駐車枠線23L)であるか否かを判断する。所定範囲内であると判断されたときは処理をステップS1005に進め、所定範囲外であると判断されたときは処理をステップS1006に進める。
ステップS1004が肯定判断されるとステップS1005へ進み、2本の白線LN[mL],LN[mR]で構成される矩形の駐車枠23の4隅の座標を1つの駐車枠23についての位置の情報PS[k]として登録する。
ステップS1005を実行するとステップS1006へ進み、白線特徴選別部1061から出力された情報に基づくすべての白線(駐車枠線)に関して、任意の2本の白線についての上述した処理を行ったか否かを確認する。ステップS1006が肯定判断されると、上述した処理によって得られた結果を出力して、駐車枠認識部1071の処理を終了する。ステップS1006が否定判断されるとステップS1001の処理へ戻し、全ての白線LN[m]の組み合わせて上述した処理を実行する。
次に、本実施形態の効果について説明する。
以上説明したように、カメラ画像を用いて白線を検出する際に、カメラ画像からではその特徴が立体物上に存在するものか路面上に存在するものか区別がつかない。よって、すべての特徴が路面上に存在するものと仮定して世界座標を計測すると、立体物上に存在する特徴は実際よりも遠方に計測されてしまう。そこで、上述した本発明の第1の実施形態の車載用画像処理装置1000では、駐車枠の白線特徴を検出し、白線特徴から得られる始点・終点と、カメラ設置位置から構成される三角形に、取得した立体物の情報を重ねる処理を行い、対象物の特徴量が立体物上か路面上かを判定し、路面上の特徴量を用いて対象物を認識する。
この処理によって、立体物上に存在する白線特徴の場合には、この三角形の内側に立体物の情報が入る。逆に、路面上の特徴であれば、三角形の内側に立体物が入ることは無い。この特徴を用いることによって、白線特徴のうち路面上に存在する白線特徴のみを選別することができ、駐車枠を認識することができる。これにより、駐車操作を補助するシステムにおいて、立体物の一部を駐車枠と誤認識する不具合を回避することができ、目標駐車位置が立体物の一部として誤って認識されることにより駐車が立体物に向かっていき衝突してしまう、という課題を防ぐことができる。
[第1の実施形態における立体物取得部の変形例]
以下、第1の実施形態における立体物情報の取得の複数の変形例について説明する。
まず、図12は、本実施形態の第1の変形例の車載用画像処理装置1100のブロック図である。図12に示す車載用画像処理装置1100は、図1に示す車載用画像処理装置1000に対して、立体物検出部1031が無い例である。この場合、立体物情報記憶部1051は、立体物情報取得部1041から得られる結果のみで処理を行う。すなわち、図6のステップS603を実施しないものである。他の構成・処理は第1の実施形態内の各部における構成・処理と同様である。
つぎに、図13は、本実施形態の第2の変形例の車載用画像処理装置1200のブロック図である。図13に示す車載用画像処理装置1200では、図1に示す車載用画像処理装置1000に対して、立体物情報取得部1041が無い例である。この場合、立体物情報記憶部1051は、立体物検出部1031から得られる結果のみで処理を行う。すなわち、図6のステップS604を実施しないものである。他の構成・処理は第1の実施形態内の各部における構成・処理と同様である。
さらに、図14は、本実施形態の第3の変形例の車載用画像処理装置1300のブロック図である。図14に示す車載用画像処理装置1300では、図1に示す車載用画像処理装置1000に対して、LiDAR(Light Detection and Ranging、またはLaser Imaging Detection and Ranging)1006を装備しており、立体物情報取得部1041はLiDAR1006の情報を取得する例である。LiDARとは、パルス状に発光するレーザー照射に対する散乱光を測定し、遠距離にある対象までの距離やその対象の性質を分析する装置である。LiDAR1006であれば立体物を検出できるため、立体物検出部1031は不要である。他の構成・処理は第1の実施形態の変形例1における構成・処理と同様である。
<第2の実施形態>
本発明の第2の実施形態の車載用画像処理装置を図15乃至図17Eを用いて説明する。図15は、第2の実施形態における車載用画像処理装置2000の構成を示すブロック図である。
なお、以下の説明では、上述の第1の実施形態における車載用画像処理装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。以下の実施形態においても同様とする。
図15に示すように、本実施形態の車載用画像処理装置2000は、第1の実施形態の車載用画像処理装置1000と比べて特徴的なことは、白線特徴選別部1061の替わりに白線特徴選別部(特徴量選別部)2061を備えることである。
車載用画像処理装置2000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から物体を検知するためのものである。本実施形態における車載用画像処理装置2000は、対象物として駐車枠を検知するように構成されている。
車載用画像処理装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されている。所定の処理がプログラミングされており、あらかじめ定められた周期で繰り返し処理を実行する。
[白線特徴選別部2061]
図16および図17A乃至図17Eを用いて、白線特徴選別部2061における処理の内容について説明する。図16は、白線特徴選別部2061の処理の流れを示したフローチャートである。また、図17A乃至図17Eは、白線特徴選別部2061の処理の説明図である。
白線特徴選別部2061は、カメラ設置位置情報CLBは用いずに、白線特徴検出部1021より得られる白線特徴LC[n]、立体物情報記憶部1051より得られる立体物情報OPT[d]を用いて、白線特徴LC[n]が路面上の白線LN[m]か否かを選別する。
まず、ステップS1601にて、立体物情報OPT[d]を取得する。
つぎに、ステップS1602にて、立体物情報OPT[d]の点群に対し、所定の大きさの矩形フィッティングを行い、フィッティング率が所定値以上となった矩形を近似矩形RCT[f]として記憶する。点群に対する矩形近似の方法は公知の技術が存在するため、ここでは詳細な説明は省略する。所定の大きさには、たとえば自車のサイズを用いる。
つぎに、ステップS1603にて、白線特徴LC[n]を取得する。
そして、ステップS1604にて、n=1からNの全白線特徴LC[n]について、n=1からNに対して以下ステップS1605およびステップS1606の処理を行う。
まず、ステップS1605にて、白線特徴LC[n]の一部がいずれかの矩形RCT[f]の内側に含まれていないかを判定する。内側に存在せずに重複していない場合にはステップS1606に処理を進めて、白線特徴LC[n]を白線LN[m]として登録する。これに対し、一部でも矩形RCT[f]の内側に存在し、重複していると判定されたときは白線特徴LC[n]は白線LN[m]でないとして次の白線特徴LC[n]に対する処理に移行する。
本ステップS1605−ステップS1606の処理の例を、図17A乃至図17Fを用いて説明する。ここでは、3つの白線特徴LC[n]について説明する。図17Aは俯瞰画像から白線特徴LC[n]を検出した結果である。図17Bは立体物情報OPT[d]および近似矩形RCT[f]を図示した結果である。図17C,図17D,図17Eは各々の近似矩形RCT[f]と白線特徴LC[n]との重複を確認する様子を示した図である。
図17Aに示すような白線特徴LC[n]に対して図17Bに示すような近似矩形RCT[f]を重ね、白線特徴LC[n]が一部でも近似矩形RCT[f]の内側に含まれていないか否かを判定する。
この例では、図17Eの白線特徴LC[n]が矩形内に含まれるため除去され、図17Cおよび図17Dに示す残り2つの白線特徴LC[n]は白線LN[m]として登録される。
その他の構成・動作は前述した第1の実施形態の車載用画像処理装置1000と略同じ構成・動作であり、詳細は省略する。
以上説明したように、駐車場内の駐車枠認識においては、その周囲の障害物が駐車車両である可能性が高い。そこで、第2の実施形態の車載用画像処理装置2000では、立体物情報を車両相当サイズの矩形、たとえば自車サイズの矩形とフィッティングさせる。この処理によって、センシング範囲外の障害物の位置を予測することができ、この近似矩形を用いて、白線特徴が立体物上の特徴か路面上の特徴かを判定することが出来るため、前述した第1の実施形態の車載用画像処理装置1000とほぼ同様な効果が得られる。
<第3の実施形態>
本発明の第3の実施形態の車載用画像処理装置を図18乃至図23を用いて説明する。図18は、第3の実施形態における車載用画像処理装置3000の構成を示すブロック図である。
図18に示すように、本実施形態の車載用画像処理装置3000は、第1の実施形態の車載用画像処理装置1000の白線特徴検出の構成の替わりに、端点特徴検出部(特徴量抽出部)3021、端点特徴選別部(特徴量選別部)3061、駐車枠認識部(対象物認識部)3071を有することである。
車載用画像処理装置3000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から物体を検知するためのものであり、本実施形態における車載用画像処理装置3000は、対象物として駐車枠を検知するように構成されている。
車載用画像処理装置3000は、CPUやメモリ、I/O等を有するコンピュータによって構成されている。所定の処理がプログラミングされており、あらかじめ定められた周期で繰り返し処理を実行する。
[端点特徴検出部3021]
図19乃至図20Bを用いて、端点特徴検出部3021における処理の内容について説明する。図19は、端点特徴検出部3021の処理の流れを示したフローチャートである。また、図20Aおよび図20Bは、端点特徴検出部3021の処理の説明図である。
端点特徴検出部3021は、画像取得部1011により取得された現在画像IMG_C中から端点を検出し、その組み合わせを用いて端点特徴PC[n]を検出する処理を行う。
まず、ステップS1901にて、画像取得部1011により取得された俯瞰画像1015を取得する。
つぎに、ステップS1902にて、特徴点LPT[g]を検出する。本実施例では、Harris特徴点を検出するものとする。図20Aの(1)や図20Bの(1)に特徴点LPT[g]を検出した例を示す。
つぎに、ステップS1903にて、特徴点LPT[g]の周囲パターンを取得する。端点特徴検出部3021では、特徴点ごとに、特徴点を中心とする幅および高さが所定画素の画像から局所パターンLPTN[g]を取得する。取得するパターンは画像そのものでも良いし、2値化された情報や、さらにエッジの立ち上がり角度・立下り角度を記憶したものでも良い。取得される周囲パターンの例を図20Aの(2)に示す。
つぎに、ステップS1904およびステップS1095にて、検出した特徴点LPT[g]について、g1=1・・・G,g2=g1+1・・・Gで繰り返し演算を行い、LPT[g1]とLPT[g2]のすべての組み合わせについて、以下ステップS1906からステップS1908の処理を行う。
まず、ステップS1906にて、局所パターンLPTN[g1]とLPTN[g2]が特定のパターン形状であるか否かを判定する。特定パターンは検出したい駐車枠の角を規定したパターンであり、たとえば図20Aの(3)や図20Bの(2)のようなパターン形状である。
図20Aの(1)や図20Bの(1)からそれぞれ判定して特定パターンのみのLPT[g]を残した結果をそれぞれ図20Aの(4)や図20Bの(3)に示す。ここで局所パターンLPTN[g1]とLPTN[g2]が条件に合致した場合はステップS1907に進み、合致しなかった場合には以降の処理を行わず、g1,g2をインクリメントしてループ処理を続ける。
つぎに、ステップS1907にて、局所パターンLPTN[g1]とLPTN[g2]の対称性を比較する。比較は、例えば、選択した2点を結ぶ線分に直交する垂線を対称軸として、局所パターンLPTN[g2]を反転させたパターンLPTN’[g2]を生成し、LPTN[g1]とLPTN’[g2]の一致度を算出することで行う。図20Aの(5)や図20Bの(4)に、算出の例を示す。そして、局所パターンLPTN[g1]とLPTN[g2]の一致度が所定の閾値以上か否かを判定し、閾値以上の場合はステップS1908に進み、合致しなかった場合には以降の処理を行わず、g1,g2をインクリメントしてループ処理を続ける。
つぎに、ステップS1908にて、LPT[g1]とLPT[g2]から成る線分を端点特徴PC[n]として登録する。図20Aの(6)や図20Bの(5)は、上記処理の結果登録された線分PC[n]の例である。
[端点特徴選別部3061]
つぎに、図21A乃至図21Dを用いて、端点特徴選別部3061における処理の内容について説明する。図21A乃至図21Dは、端点特徴選別部3061の処理の説明図である。
端点特徴選別部3061は、端点特徴検出部3021より得られる端点特徴PC[n]、立体物情報記憶部1051より得られる立体物情報OPT[d]、および、カメラ設置位置情報CLBを用いて、端点特徴PC[n]が路面上の端点線分PN[m]か否かを選別する。
この端点特徴選別部3061における処理のフローは、図8で説明した白線特徴選別部1061における処理のうち、入力が白線特徴LC[n]から端点特徴PC[n]に変わり、出力が白線LN[m]から端点線分PN[m]に変わった以外は同じであるため、説明は省略する。
端点特徴選別部3061の処理の例を、図21A乃至図21Dを用いて説明する。まず、図21Aは、端点特徴PC[n]を検出した例であり、端点特徴PC[n]が2つ検出されている。図21Bは、この端点特徴PC[n]と、立体物情報OPT[d]を重畳した例である。図21C,図21Dは各々の端点特徴PC[n]と立体物情報OPT[d]との重複を確認する様子を図示したものである。
端点特徴選別部3061の処理では、図21C,図21Dに示すように、2つの端点特徴PC[n]に対し、カメラ設置位置情報CLBを用いてそれぞれ三角形を生成し、その内側に立体物OPT[d]の存在有無を確認する。ここでは、図21Cに示す端点特徴PC[n]は三角形に入っておらず、図21Dに示す端点特徴PC[n]は三角形には入っているため、図21Cの端点特徴PC[n]が、路面上の端点線分PN[m]として登録される。
[駐車枠認識部3071]
つぎに、図22および図23を用いて、駐車枠認識部3071における処理の内容について説明する。図22は、駐車枠認識部3071の処理の流れを示したフローチャートである。
駐車枠認識部3071では、登録された端点線分PN[m]を組み合わせて、自車10が停車可能な駐車枠を探索、認識する。
まず、ステップS2201にて、端点線分PN[m]を1つ選択する。
つぎに、ステップS2202において、基準方位角θBを取得する。ここで、基準方位各θBは、様々なものを用いることができる。たとえば、自車の方位角を用いても良いし、自車が所定時間走行した軌跡の方位を用いてもよい。さらには、過去の駐車枠の検出結果の短辺の平均方位を用いても良いし、第2の実施形態の白線特徴選別部2061の内部の処理にあった障害物OPT[d]にフィッティングさせた矩形の短辺の平均値を用いても良い。
つぎに、ステップS2203にて、ステップS2201にて選択した端点線分PN[m]の角度と基準方位角θBとの角度差θが所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS2203では、端点線分と基準方位角が平行であるか否かを判断する。所定値以下であると判断されたときは処理をステップS2204に進め、所定値より大きいと判断されたときは処理をステップS2206に進める。
ステップS2203が肯定判断されるとステップS2204へ進み、端点線分PN[m]の長さLが所定の範囲内(ThLmin以上かつThLmax以下)であるか否かを判断する。すなわち、ステップS2204では、駐車枠の短辺を構成する端点線分の間隔が駐車枠相当の幅か否かを判断する。所定範囲内であると判断されたときは処理をステップS2205に進め、所定範囲外であると判断されたときは処理をステップS2206に進める。
ステップS2204が肯定判断されるとステップS2205へ進み、端点線分PN[m]を短辺とする矩形の駐車枠の四隅の座標を位置情報PS[k]として登録する。ここで、端点線分で求めた座標は駐車枠の手前の2点であり、駐車枠の奥の端点位置は検出していないため、自車の長さ等により補間する。
ステップS2205を実行するとステップS2206へ進み、端点特徴選別部3061から出力された情報に基づくすべての端点特徴(駐車枠の入り口線)に関して上述した処理を行ったか否かを確認する。ステップS2206が肯定判断されると、上述した処理によって得られた結果を出力して、駐車枠認識部3071の処理を終了する。ステップS2206が否定判断されるとステップS2201へ戻る。
また、上述した駐車枠認識部3071とは異なる処理により駐車枠を認識する処理内容を、図23を用いて説明する。図23は、駐車枠認識部3071の他の処理の流れを示したフローチャートである。
まず、ステップS2301にて、端点線分PN[m]を2つ選択する。以下、端点線分PN[m1],PN[m2]とする。
つぎに、ステップS2302にて、ステップS2301にて選択した2つの端点線分PN[m1],PN[m2]の長さ差ΔLが所定の範囲内(ThΔLmin以上かつThΔLmax以下)であるか否かを判断する。すなわち、ステップS2302では、駐車枠の短辺を構成する端点線分の長さに類似した線分が他に存在するか否かを確認する。所定範囲内であると判断されたときは処理をステップS2303に進め、所定範囲外であると判断されたときは処理をステップS2305に進める。
ステップS2302が肯定判断されるとステップS2303へ進み、ステップS2301にて選択した端点線分PN[m1],PN[m2]の角度差Δθが所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS2303では、2つの端点線分が平行であるか否かを判断する。所定値以下であると判断されたときは処理をステップS2304に進め、所定値より大きいと判断されたときは処理をステップS2305に進める。
ステップS2303が肯定判断されるとステップS2304へ進み、基準とする端点線分PN[m1]を短辺とする矩形の駐車枠の四隅の座標を位置情報PS[k]として登録する。ここで、端点線分で求めた座標は駐車枠の手前の2点であり、駐車枠の奥の端点位置は検出していないため、自車の長さ等により補間する。
ステップS2304を実行するとステップS2305へ進み、端点特徴選別部3061から出力された情報に基づくすべての端点特徴(駐車枠の入り口線)に関して上述した処理を行ったか否かを確認する。ステップS2305が肯定判断されると、上述した処理によって得られた結果を出力して、駐車枠認識部3071の処理を終了する。ステップS2305が否定判断されるとステップS2301へ戻る。
図23の処理は、2つ以上の駐車枠が検出されている場合には、図22の処理のように単独で判断する場合よりも誤認識を削減することができる。
その他の構成・動作は前述した第1の実施形態の車載用画像処理装置1000と略同じ構成・動作であり、詳細は省略する。
以上説明したように、図20A(1)や図20B(1)に示すような駐車枠の四隅にしかペイントが存在しないような駐車枠を検出する際に、図21Dのように駐車枠の左右の停車車両のナンバープレート等のパターンを駐車枠の一部と誤認識することが発生する。これに対し、第3の実施形態の車載用画像処理装置3000によればこれらの誤認識を除去することができ、前述した第1の実施形態の車載用画像処理装置1000とほぼ同様な効果が得られる。
<第4の実施形態>
本発明の第4の実施形態の車載用画像処理装置を図24および図25を用いて説明する。図24は、第4の実施形態における車載用画像処理装置4000の構成を示すブロック図である。
図24に示すように、本実施形態の車載用画像処理装置4000は、第1の実施形態の車載用画像処理装置1000の駐車枠認識部1071の替わりに路面ペイント認識部(対象物認識部)4071を有することである。
車載用画像処理装置4000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から物体を検知するためのものであり、本実施形態における車載用画像処理装置4000は、対象物として路面ペイントを検知するように構成されている。
車載用画像処理装置4000は、CPUやメモリ、I/O等を有するコンピュータによって構成されている。所定の処理がプログラミングされており、あらかじめ定められた周期で繰り返し処理を実行する。
[路面ペイント認識部4071]
図25を用いて、路面ペイント認識部4071における処理の内容について説明する。図25は、路面ペイント認識部4071の処理を表すフローチャートである。
路面ペイント認識部4071は、白線特徴選別部1061より得られるLN[m]を用いて、路面上のペイントのパターンを認識する。本実施形態では、横断歩道を認識する処理について説明する。
まず、ステップS2501にて、基準とする白線LN[m1]を1つ選択する。
つぎに、ステップS2502において、参照する白線LN[m2]を選択し、m1以外のすべての白線について、ステップS2503からS2505の処理を実施する。
まず、ステップS2503にて、ステップS2501にて選択した基準となる線分LN[m1]と参照する白線LN[m2]との角度差θが所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS2503では、2つの白線が平行であるか否かを判断する。所定値以下であると判断されたときは処理をステップS2504に進め、所定値より大きいと判断されたときはループ処理を続ける。
ステップS2503が肯定判断されるとステップS2504へ進み、2本の白線LN[m1],LN[m2]の間隔Wが所定の範囲内(ThWmin以上かつThWmax以下)であるか否かを判断する。すなわち、ステップS2504では、2つの白線が横断歩道相当の間隔を持って並んでいるか否かを判断する。所定範囲内であると判断されたときは処理をステップS2505に進め、所定範囲外であると判断されたときはループ処理を続ける。
ここで、間隔Wの判定は、W/2,W/3,W/4,・・・についても、所定範囲内であるか否かを判定する。これは、横断歩道から任意の白線を選択した際に、隣り合う白線であれば間隔は所定範囲内となるが、1つ隣の白線が選択された場合は2倍の間隔、2つ隣の白線が選択された場合には3倍の間隔になるため、上記いずれかの条件に合致した場合であっても、所定範囲内であったと判断する。
ステップS2504が肯定判断されるとステップS2505へ進み、横断歩道スコアPCR[m1]をインクリメントする。
参照する白線LN[m2]をすべて処理した後はステップS2506へ進み、横断歩道スコアPCR[m1]が所定閾値以上か否かを判定する。閾値以上であればステップS2507へ進み、検出結果として座標値や検出結果のフラグ等を登録し、閾値より小さいと判断されれば次の基準白線を選択し、ループ処理を続けて、全ての白線で横断歩道スコアPCR[m]を判断する。
判断された横断歩道の情報は車載用画像処理装置4000外の自車10内の他のコントロールユニットに対して出力され、他のコントロールユニットにおける自動運転制御の各種制御を実行する際に利用する。
その他の構成・動作は前述した第1の実施形態の車載用画像処理装置1000と略同じ構成・動作であり、詳細は省略する。
以上説明したように、路面ペイントを検出する際においても、第4の実施形態の車載用画像処理装置4000により障害物の内側に存在する路面ペイントに類似した特徴を除去することができ、路面ペイントを正しく認識することができる。
なお、第4の実施形態では、路面ペイントの特徴として、第1の実施形態で用いた白線特徴検出部1021により検出する白線特徴LC[n]、白線特徴選別部1061より選別される白線LN[m]を用いたが、第3の実施形態で説明したように、端点特徴検出部3021により検出する端点特徴PC[n]、端点特徴選別部3061より選別される端点線分PN[m]を用いることもできる。
また、本実施形態では横断歩道を例に取り上げたが、他の路面ペイント(矢印、速度表示、止まれ、等)についても、路面ペイント認識部4071の条件を変更することにより、認識可能である。
<第5の実施形態>
本発明の第5の実施形態の車載用画像処理装置を図26および図27を用いて説明する。図26は、第5の実施形態における車載用画像処理装置5000の構成を示すブロック図である。
図26に示すように、本実施形態の車載用画像処理装置5000は、第1の実施形態の車載用画像処理装置1000と比べて特徴的なことは、縁石特徴検出部(特徴量抽出部)5021、縁石特徴選別部(特徴量選別部)5061、縁石認識部(対象物認識部)5071を有し、さらに駐車空間取得部5081を有することである。
車載用画像処理装置5000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から物体を検知するためのものであり、本実施形態における車載用画像処理装置5000は、対象物として縁石を検知するように構成されている。なお、本実施形態で対象物とする縁石は、例えば、複数の駐車枠が並ぶ領域近くに存在し、枠線と平行して横たわっているものであり、道路に設けられた縦列駐車用の白線と平行に設けられたものである。
車載用画像処理装置5000は、CPUやメモリ、I/O等を有するコンピュータによって構成されている。所定の処理がプログラミングされており、あらかじめ定められた周期で繰り返し処理を実行する。
縁石特徴検出部5021は、画像取得部1011により取得された画像IMG_Cから、縁石の特徴となる線分を検出する処理である。縁石特徴検出部5021は、縁石と路面の輝度の違いを用いて、画像からエッジを検出し、その立ち上がりと立下りの間隔を用いて線分を検出する。この処理は、第1の実施形態にて用いた白線特徴検出部1021と同じ処理でよいため、詳細な説明は省略する。
縁石特徴選別部5061についても同様に、第1の実施形態における白線特徴選別部1061と同じ処理でよいため、詳細な説明は省略する。
[駐車空間取得部5081]
駐車空間取得部5081は、自車10の周囲の駐車空間を認識し、その矩形情報PS[p]を取得する。矩形情報PS[p]の取得は、たとえば上述した次第1の実施形態で実行する駐車枠認識の結果でも良いし、立体物情報記憶部1051から立体物点群OPT[d]の間に生成された空間を駐車枠とみなすものでも良いし、公知の手段により取得するものとすることができる。本処理は公知の手段によって実行可能なため、説明を省略する。
[縁石認識部5071]
図27を用いて、縁石認識部5071における処理の内容について説明する。図27は、縁石認識部5071の処理を表すフローチャートである。
縁石認識部5071は、縁石特徴選別部5061より得られる線分LN[m]と駐車空間PS[p]を用いて、縁石を認識する。
まず、ステップS2701にて、線分LN[m]を選択する。
つぎに、ステップS2702において、駐車空間PS[p]を選択し、すべての駐車空間PS[p]について、ステップS2703からステップS2705の処理を実施する。
まず、ステップS2703にて、ステップS2701にて選択した線分LN[m]と駐車空間PS[p]との角度差θが所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS2703では、線分と駐車空間が平行であるか否かを判断する。所定値以下であると判断されたときは処理をステップS2704に進め、所定値より大きいと判断されたときはループ処理を続ける。
ステップS2703が肯定判断されるとステップS2704へ進み、線分LN[m]と駐車空間PS[p]のうち自車から遠いほうの長辺との間隔Wが所定値(ThWmax)以下であるか否かを判断する。すなわち、ステップS2704では、駐車空間の奥に線分が存在するか否かを判断する。所定値以下であると判断されたときは処理をステップS2705に進め、所定値より大きいと判断されたときはループ処理を続ける。
ステップS2704が肯定判断されるとステップS2705へ進み、立体物情報OPT[d]を参照し、線分LN[m]上に高さが所定値以下の低い物体の点群が存在するか否かを確認する。存在すると判断されたときは処理をステップS2706に進め、存在しないと判断されたときはループ処理を続ける。
ステップS2705が肯定判断されるとステップS2706に進み、線分を縁石として登録する。登録情報は、縁石の始点と終点、すなわち線分の情報である。
なお、検出する対象物を縁石の場合について説明したが、駐車枠内の輪留めを検出の対象物とすることもできる。この場合、ステップS2703は駐車枠の方位と輪留めの角度が直交するか否かを判定し、ステップS2704は駐車空間PS[p]のうち自車から遠いほうの短辺との間隔を判定するものとする。
その他の構成・動作は前述した第1の実施形態の車載用画像処理装置1000と略同じ構成・動作であり、詳細は省略する。
以上説明したように、縁石や輪留めのような、高さが低い物体を画像のエッジ特徴から検出するような場合であっても、第5の実施形態の車載用画像処理装置5000によれば誤検知することなく高い精度で検出することができ、前述した第1の実施形態の車載用画像処理装置1000とほぼ同様な効果が得られる。
<その他>
なお、本発明は、上記の実施形態に限定されるものではなく、様々な変形例が含まれる。上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることも可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
10…自車
23…駐車枠
23L…駐車枠線
1000,1100,1200,1300,2000,3000,4000,5000…車載用画像処理装置
1001,1002,1003,1004…カメラ(撮像部)
1005…ソナー
1006…LiDAR
1011…画像取得部
1011A,1012A,1013A,1014A…画像
1015…俯瞰画像
1021…白線特徴検出部(特徴量抽出部)
1031…立体物検出部
1041…立体物情報取得部
1050…車両挙動情報取得部
1051…立体物情報記憶部
1061…白線特徴選別部(特徴量選別部)
1071…駐車枠認識部(対象物認識部)
2061…白線特徴選別部(特徴量選別部)
3021…端点特徴検出部(特徴量抽出部)
3061…端点特徴選別部(特徴量選別部)
3071…駐車枠認識部(対象物認識部)
4071…路面ペイント認識部(対象物認識部)
5021…縁石特徴検出部(特徴量抽出部)
5061…縁石特徴選別部(特徴量選別部)
5071…縁石認識部(対象物認識部)
5081…駐車空間取得部

Claims (11)

  1. 自車周囲の対象物を認識する車載用画像処理装置であって、
    撮像部によって撮像された前記自車周囲の画像を取得する画像取得部と、
    前記画像取得部により取得した前記自車周囲の画像から対象物の特徴量および前記特徴量が路面上にあると仮定した場合の前記特徴量の自車に対する座標情報を抽出する特徴量抽出部と、
    前記自車周囲の立体物の自車に対する座標情報を取得し、記憶する立体物情報記憶部と、
    前記特徴量抽出部で検出された前記特徴量の自車に対する座標情報と前記立体物情報記憶部に記憶された前記立体物の自車に対する座標情報との位置関係を用いて、前記特徴量が路面上のものか立体物上のものかを選別する特徴量選別部と、
    前記特徴量選別部において路面上のものと選別された特徴量を用いて、前記対象物を認識する対象物認識部と、を備える
    ことを特徴とする車載用画像処理装置。
  2. 請求項1に記載の車載用画像処理装置において、
    前記特徴量抽出部は、特徴量として線分を検出し、前記特徴量の自車に対する座標情報として前記線分の始点と終点の自車に対する座標情報を算出し、
    前記特徴量選別部は、前記線分の始点および終点の自車に対する座標情報と、前記立体物の自車に対する座標情報の位置関係を用いて、前記特徴量が路面上のものか立体物上のものかを選別する
    ことを特徴とする車載用画像処理装置。
  3. 請求項2に記載の車載用画像処理装置において、
    前記特徴量抽出部は、前記画像からエッジを検出し、直線状に並んでいるエッジの始点と終点とを結ぶ線分を前記線分として検出する
    ことを特徴とする車載用画像処理装置。
  4. 請求項2に記載の車載用画像処理装置において、
    前記特徴量選別部は、前記特徴量を抽出した前記撮像部の設置位置と前記線分の始点と前記線分の終点との三点から成る三角形を算出し、前記三角形の中に前記立体物の自車に対する座標情報が存在するか否かを判定し、存在しないと判定される場合は前記特徴量が路面上の特徴量であると判定し、存在すると判定される場合は前記特徴量が立体物上のものであると判定する
    ことを特徴とする車載用画像処理装置。
  5. 請求項2に記載の車載用画像処理装置において、
    前記立体物の自車に対する座標情報を取得する立体物情報取得部と、
    前記自車の挙動情報を取得する車両挙動情報取得部と、を更に備え、
    前記立体物情報記憶部は、前記立体物情報取得部で取得された前記立体物の自車に対する座標情報と前記車両挙動情報取得部で取得された前記自車の挙動情報を用いて、過去に取得した立体物情報を現在の自車位置からの相対座標へ変換し、蓄積した情報を前記自車周囲の立体物の自車に対する座標情報として記憶する
    ことを特徴とする車載用画像処理装置。
  6. 請求項2に記載の車載用画像処理装置において、
    前記対象物は駐車枠であり、
    前記対象物認識部は、路面上と判定された前記特徴量である線分を2つ選択し、この2つの線分間の幅、角度の差を含む条件を用いて前記駐車枠を認識する
    ことを特徴とする車載用画像処理装置。
  7. 請求項2に記載の車載用画像処理装置において、
    前記特徴量選別部は、前記立体物情報記憶部に存在する立体物の自車に対する座標情報を矩形近似し、前記線分が前記矩形近似した立体物の自車に対する座標情報の内側に一部でも含まれるか否かを判定し、含まれないと判定される場合は前記特徴量が路面上の特徴量であると判定し、含まれると判定される場合は前記特徴量が立体物上のものであると判定する
    ことを特徴とする車載用画像処理装置。
  8. 請求項2に記載の車載用画像処理装置において、
    前記特徴量抽出部は、画像からコーナー点を検出し、コーナー点の2つの組み合わせのうち、コーナー点の周囲の画像パターンの対称性が所定基準値以上となったコーナー点の組み合わせを始点と終点とする線分を前記線分として検出する
    ことを特徴とする車載用画像処理装置。
  9. 請求項8に記載の車載用画像処理装置において、
    前記対象物は駐車枠であり、
    前記対象物認識部は、路面上と判定された前記特徴量である線分を1つ選択し、選択された線分の長さを含む条件を用いて前記駐車枠を認識する
    ことを特徴とする車載用画像処理装置。
  10. 請求項2に記載の車載用画像処理装置において、
    前記対象物は路面ペイントであり、
    前記対象物認識部は、路面上と判定された前記特徴量である線分を複数選択し、選択された複数の線分間の位置関係を用いて前記路面ペイントを認識する
    ことを特徴とする車載用画像処理装置。
  11. 請求項3に記載の車載用画像処理装置において、
    前記対象物は縁石または輪留めであり、
    前記自車周囲の駐車空間を取得する駐車空間取得部を更に備え、
    前記対象物認識部は、前記路面上と判断された前記特徴量と前記駐車空間取得部によって取得された前記駐車空間との方位関係、および前記路面上と判断された前記特徴量と前記駐車空間との位置関係を用いて前記対象物を認識する
    ことを特徴とする車載用画像処理装置。
JP2016237258A 2016-12-07 2016-12-07 車載用画像処理装置 Active JP6773540B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016237258A JP6773540B2 (ja) 2016-12-07 2016-12-07 車載用画像処理装置
US16/467,234 US10977504B2 (en) 2016-12-07 2017-08-31 Vehicle-mounted image target objection recognition device
CN201780064386.4A CN109844762B (zh) 2016-12-07 2017-08-31 车载用图像处理装置
PCT/JP2017/031424 WO2018105179A1 (ja) 2016-12-07 2017-08-31 車載用画像処理装置
EP17878703.2A EP3553744B1 (en) 2016-12-07 2017-08-31 Vehicle-mounted image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016237258A JP6773540B2 (ja) 2016-12-07 2016-12-07 車載用画像処理装置

Publications (3)

Publication Number Publication Date
JP2018092501A true JP2018092501A (ja) 2018-06-14
JP2018092501A5 JP2018092501A5 (ja) 2019-11-28
JP6773540B2 JP6773540B2 (ja) 2020-10-21

Family

ID=62490915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016237258A Active JP6773540B2 (ja) 2016-12-07 2016-12-07 車載用画像処理装置

Country Status (5)

Country Link
US (1) US10977504B2 (ja)
EP (1) EP3553744B1 (ja)
JP (1) JP6773540B2 (ja)
CN (1) CN109844762B (ja)
WO (1) WO2018105179A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919002A (zh) * 2019-01-23 2019-06-21 平安科技(深圳)有限公司 黄色禁停线识别方法、装置、计算机设备及存储介质
JP2020079030A (ja) * 2018-11-14 2020-05-28 クラリオン株式会社 画像処理装置及び画像処理方法
JP2020123343A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョン 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
JP2020194470A (ja) * 2019-05-30 2020-12-03 クラリオン株式会社 画像処理装置及び画像処理方法
CN112644471A (zh) * 2019-10-11 2021-04-13 丰田自动车株式会社 车辆停车辅助装置
US11756314B2 (en) 2020-03-05 2023-09-12 Samsung Electronics Co., Ltd. Processors configured to detect objects and methods of detecting objects
JP7497398B2 (ja) 2022-09-26 2024-06-10 株式会社デンソーテン 情報処理装置、情報処理方法およびプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102327344B1 (ko) * 2017-05-23 2021-11-17 주식회사 만도모빌리티솔루션즈 스마트 주차 보조 시스템 및 그 제어 방법
JP7141940B2 (ja) * 2018-12-14 2022-09-26 株式会社デンソーテン 画像処理装置および画像処理方法
JP7236857B2 (ja) 2018-12-14 2023-03-10 株式会社デンソーテン 画像処理装置および画像処理方法
JP7195131B2 (ja) 2018-12-14 2022-12-23 株式会社デンソーテン 画像処理装置および画像処理方法
JP7226986B2 (ja) 2018-12-14 2023-02-21 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095623A (ja) 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP7203587B2 (ja) 2018-12-14 2023-01-13 株式会社デンソーテン 画像処理装置および画像処理方法
JP7252750B2 (ja) 2018-12-14 2023-04-05 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095620A (ja) 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095624A (ja) 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置、および画像処理方法
JP7359541B2 (ja) 2018-12-14 2023-10-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020152347A (ja) * 2019-03-22 2020-09-24 株式会社Jvcケンウッド 駐車支援制御装置、駐車支援装置、駐車支援方法およびプログラム
JP7296768B2 (ja) * 2019-04-22 2023-06-23 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP7288793B2 (ja) * 2019-04-25 2023-06-08 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP7346129B2 (ja) * 2019-07-29 2023-09-19 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置及び駐車支援装置の制御方法
JP7160014B2 (ja) * 2019-10-11 2022-10-25 トヨタ自動車株式会社 駐車支援装置
US11176682B2 (en) * 2019-11-27 2021-11-16 Nvidia Corporation Enhanced optical flow estimation using a varied scan order

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150688A (ja) * 2009-12-25 2011-08-04 Ricoh Co Ltd 立体物識別装置、並びに、これを備えた移動体制御装置及び情報提供装置
JP2014006588A (ja) * 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc 路面境界推定装置及びプログラム
JP2014117989A (ja) * 2012-12-14 2014-06-30 Nippon Soken Inc 駐車支援装置
JP2016099172A (ja) * 2014-11-19 2016-05-30 株式会社豊田中央研究所 車両位置推定装置及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2517175A4 (en) 2009-12-25 2018-01-10 Ricoh Company, Ltd. Object identifying apparatus, moving body control apparatus, and information providing apparatus
JP5574235B2 (ja) 2010-10-06 2014-08-20 スズキ株式会社 駐車枠検出装置及び駐車枠検出方法
KR101372171B1 (ko) * 2012-10-11 2014-03-07 현대자동차주식회사 주차가능영역 판단 장치 및 방법
JP6393189B2 (ja) * 2012-11-27 2018-09-19 クラリオン株式会社 車載画像処理装置
JP2015096411A (ja) * 2013-10-11 2015-05-21 本田技研工業株式会社 駐車支援システム
JP6313081B2 (ja) * 2014-03-20 2018-04-18 クラリオン株式会社 車載用画像処理装置およびそれを用いた車両システム
KR101583998B1 (ko) * 2014-10-17 2016-01-19 현대자동차주식회사 주차지원장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150688A (ja) * 2009-12-25 2011-08-04 Ricoh Co Ltd 立体物識別装置、並びに、これを備えた移動体制御装置及び情報提供装置
JP2014006588A (ja) * 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc 路面境界推定装置及びプログラム
JP2014117989A (ja) * 2012-12-14 2014-06-30 Nippon Soken Inc 駐車支援装置
JP2016099172A (ja) * 2014-11-19 2016-05-30 株式会社豊田中央研究所 車両位置推定装置及びプログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7246167B2 (ja) 2018-11-14 2023-03-27 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP2020079030A (ja) * 2018-11-14 2020-05-28 クラリオン株式会社 画像処理装置及び画像処理方法
CN109919002B (zh) * 2019-01-23 2024-02-27 平安科技(深圳)有限公司 黄色禁停线识别方法、装置、计算机设备及存储介质
CN109919002A (zh) * 2019-01-23 2019-06-21 平安科技(深圳)有限公司 黄色禁停线识别方法、装置、计算机设备及存储介质
JP2020123343A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョン 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
JP2020194470A (ja) * 2019-05-30 2020-12-03 クラリオン株式会社 画像処理装置及び画像処理方法
JP7341730B2 (ja) 2019-05-30 2023-09-11 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP7238722B2 (ja) 2019-10-11 2023-03-14 トヨタ自動車株式会社 車両駐車支援装置
JP2021062707A (ja) * 2019-10-11 2021-04-22 トヨタ自動車株式会社 車両駐車支援装置
CN112644471A (zh) * 2019-10-11 2021-04-13 丰田自动车株式会社 车辆停车辅助装置
CN112644471B (zh) * 2019-10-11 2024-07-05 丰田自动车株式会社 车辆停车辅助装置
US11756314B2 (en) 2020-03-05 2023-09-12 Samsung Electronics Co., Ltd. Processors configured to detect objects and methods of detecting objects
JP7497398B2 (ja) 2022-09-26 2024-06-10 株式会社デンソーテン 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US10977504B2 (en) 2021-04-13
EP3553744A1 (en) 2019-10-16
CN109844762B (zh) 2023-04-28
CN109844762A (zh) 2019-06-04
EP3553744B1 (en) 2022-11-16
EP3553744A4 (en) 2020-08-12
US20200074192A1 (en) 2020-03-05
WO2018105179A1 (ja) 2018-06-14
JP6773540B2 (ja) 2020-10-21

Similar Documents

Publication Publication Date Title
WO2018105179A1 (ja) 車載用画像処理装置
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
CN106463064B (zh) 物体识别装置和使用该物体识别装置的车辆行驶控制装置
JP6151150B2 (ja) 物体検出装置及びそれを用いた車両
CN102317954B (zh) 检测对象的方法
US9064418B2 (en) Vehicle-mounted environment recognition apparatus and vehicle-mounted environment recognition system
CN106324618B (zh) 实现基于激光雷达检测车道线系统的方法
CN106289159B (zh) 基于测距补偿的车辆测距方法及装置
US10699567B2 (en) Method of controlling a traffic surveillance system
JP6313081B2 (ja) 車載用画像処理装置およびそれを用いた車両システム
WO2017145600A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
KR102536037B1 (ko) 차량의 주변 환경에 있는 물체와 관련된 정보를 결정하기 위한 방법 및 처리 유닛
JP6583527B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
CN105825185A (zh) 车辆防碰撞预警方法及装置
JP6547785B2 (ja) 物標検出装置
CN102303605A (zh) 基于多传感器信息融合的碰撞及偏离预警装置及预警方法
CN104111058A (zh) 车距测量方法及装置、车辆相对速度测量方法及装置
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
JP4940177B2 (ja) 交通流計測装置
CN109827516B (zh) 一种通过车轮来测量距离的方法
KR20190059894A (ko) 카메라 영상에서 대상의 감지
Kellner et al. Multi-cue, model-based detection and mapping of road curb features using stereo vision
Leu et al. High speed stereo vision based automotive collision warning system
JP3586938B2 (ja) 車載用距離測定装置
JP4106163B2 (ja) 障害物検出装置及びその方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201001

R150 Certificate of patent or registration of utility model

Ref document number: 6773540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150