[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6197291B2 - 複眼カメラ装置、及びそれを備えた車両 - Google Patents

複眼カメラ装置、及びそれを備えた車両 Download PDF

Info

Publication number
JP6197291B2
JP6197291B2 JP2013001370A JP2013001370A JP6197291B2 JP 6197291 B2 JP6197291 B2 JP 6197291B2 JP 2013001370 A JP2013001370 A JP 2013001370A JP 2013001370 A JP2013001370 A JP 2013001370A JP 6197291 B2 JP6197291 B2 JP 6197291B2
Authority
JP
Japan
Prior art keywords
image
color
area
parallax
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013001370A
Other languages
English (en)
Other versions
JP2013225289A (ja
Inventor
横田 聡一郎
聡一郎 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013001370A priority Critical patent/JP6197291B2/ja
Priority to ES13158677.8T priority patent/ES2686047T3/es
Priority to EP13158677.8A priority patent/EP2642429B1/en
Priority to CN201310084234.4A priority patent/CN103322974B/zh
Priority to US13/845,860 priority patent/US9420151B2/en
Publication of JP2013225289A publication Critical patent/JP2013225289A/ja
Application granted granted Critical
Publication of JP6197291B2 publication Critical patent/JP6197291B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Cameras In General (AREA)
  • Studio Devices (AREA)

Description

本発明は、視差情報を取得可能な複眼カメラ装置及びそれを備えた車両に関する。
近年、車載用のステレオカメラの普及が進んでおり、このようなステレオカメラを用いることで、車両前方の距離画像を生成し、その距離画像に基づいて障害物を認識して障害物までの距離を計測することにより、衝突の防止や車間距離制御のために運転者に警告を発したり、ブレーキやステアリングなどの制御装置の操作を実行することが出来ることが知られている。
さらに、近年は解像度などのセンサ性能が高まったこともあり、車載環境におけるセンシングの中心ニーズが高速道路から市街地へと移行してきている。
市街地環境では、高速道路等に比べてセンシングの対象となる環境が多様となっている。
複雑なセンシング環境における認識処理の最大の問題点は、認識する対象が多様化することにより処理の複雑化して処理時間が増大することと、誤認識が増加することである。
従来の一般的な車載ステレオカメラにおける認識処理を説明すると、まず、撮像画像のほぼ全面に対してエッジを検出し、エッジ検出された画素位置に対して視差計算処理を施す。その後、計算結果の視差情報を用いてクラスタリングを施し、これに各種の情報を付加して最終的な認識対象を検出する。
図9は、視差情報を使った一般的な物体認識処理の流れを示すフローチャートである。なお、ここでの認識ターゲットは、路上物体としての車、人、バイク、自転車、標識、信号などである。
まず、ステレオカメラ(基準カメラ/比較カメラ)を用いて、ステレオ画像(基準画像/比較画像)を撮影する(ステップS201)。
そして、基準画像における輝度情報を用いて、路面上の白線を認識する(ステップS208)。
そして、基準画像/比較画像に基づいて視差を算出し(ステップS202)、視差情報を用いたクラスタリング(ステップS203)を実行し、車、人/バイク/自転車のサイズ、標識/信号のサイズなどの物体サイズを用いて、クラスタリング結果の修正を行う(ステップS204)。
図10は、図9のステップS201〜ステップS204の処理によって得られた認識結果画像の例を示す図である。
図10において、枠100が車両物体サイズとして認識されたクラスタリング結果、枠101が歩行者/バイク/自転車サイズとして認識されたクラスタリング結果、枠102が標識/信号サイズとして認識されたクラスタリング結果である。
図10に示す認識結果画像からわかるように、特に標識/信号などはサイズが小さいがために、多くの誤認識(枠102’)が見られる。また歩行者の誤認識が画面上方に見られる(枠101’)。
これらの誤認識に対して、図9のステップS205以降の処理において、さまざまな条件分岐処理などを行う。
例えば、ステップS208において認識した白線のデータから、路面高さを算出し、その上にある人や物体などのターゲットモデル情報を用いて、クラスタリング結果の修正を行う(ステップS205)。
さらに、基準画像における輝度情報を用いて、クラスタリングをされたエリアに対して、Adaboostなどを使って、ターゲット物体認識の最終判断を行う(ステップS206)。最後に、認識物体の3次元位置を出力する(ステップS207)。
以上説明した処理における、ステップS204までの処理において、大きく誤認識が発生したり、またうまく物体を分離できていないとその後の認識処理においてさまざまな条件分岐処理を行う必要が生じたり、前段の処理に戻る必要が生じたりと、多くの複雑な処理が発生する。
従って、視差算出/クラスタリング処理における認識率をより高めて誤認識を減らすことが非常に重要になる。
画像内の物体を認識する手法として、例えば特許文献1には、自車両周辺の景色を撮像することにより、カラー画像を出力するカメラと、監視領域内における距離の二次元的な分布を示す距離データを計算して自車線や隣接車線を走行する他車両を認識するステレオカメラを備え、認識結果である画像内の車両位置を基準として所定面積のウィンカ領域を設定し、カラー画像に基づいてウィンカの色成分の画素を検出することで、カラー情報と視差情報をともに利用してウィンカと隣接車両を同時に認識する構成が開示されている。
かかる構成によれば、カラー情報と視差情報といった異なる情報を組み合わせて使用して、より正確に、複数の対象物を同時に認識することが可能である。
確かに、特許文献1に記載の方法によれば、予めカラー情報が分かっているような認識対象について、カラーカメラによって撮像したカラー画像から、認識対象の色成分を検出することで、その対象について正確に検出することが可能である。
しかし、ステレオカメラに加えて別途カラーカメラが必要であり、画像内に認識対象用のエリアを設定して、別途異なるアルゴリズムによって認識を行う必要がある。
また、全面画像内の物体と、設定エリア内の物体についてそれぞれ視差計算を行うには、視差計算アルゴリズムやパラメータ切替等が必要になる。これは、処理の複雑化につながり、上述の問題点を解消し得ない。
本発明は、視差画像を使った認識処理における画像認識率を向上するとともに処理負荷を低減して、高精度且つ高速に周辺環境を認識することが可能な複眼カメラ装置を提供することを目的とする。
上記の課題を解決するために、請求項1の発明は、光学フィルタ及び撮像素子を備えた複数のカメラユニットと、前記各撮像素子が前記各光学フィルタを介して取得した撮影画像について画像処理を行う画像処理手段と、を備え、前記光学フィルタは、前記撮影画像の中央部に対応する領域に備えたクリアフィルタ領域と、前記撮影画像の上部に対応する領域に備えたカラーフィルタ領域と、を有し、前記画像処理手段は、前記撮影画像の前記クリアフィルタ領域に対応する領域について複数の前記撮影画像間の視差計算を行うとともに、前記撮影画像の前記カラーフィルタ領域に対応する領域について物体認識を行う複眼カメラ装置を特徴とする。
上記のように構成したので、本発明によれば、光学特性が異なる複数の光学フィルタ領域を用いて得られる複数の画像領域毎に異なる画像処理を行うことで、画像処理の精度を向上して、高精度且つ高速に周辺環境を認識することが可能な複眼カメラ装置を提供することが出来る。
本発明の実施の形態に係るステレオカメラの構成の一例を示す図。 図1に示すステレオカメラによって撮影した画像を示す図。 本実施形態のステレオカメラの制御部の構成を示す図。 ステレオカメラの原理を示す図。 本実施形態のステレオカメラにおける処理を説明するフローチャート。 本実施形態を構成する各要素のタイミングチャートを示す図。 全画面の視差計算・クリアフィルタクラスタリングによって得られる視差画像を示した図。 本実施形態のステレオカメラを適用した車両を説明する概略図。 視差情報を使った一般的な物体認識処理の流れを示すフローチャート。 図8の処理フロー(ステップS201〜ステップS204)に従って処理を施した結果画像の例を示す図。
以下に、図面を参照して、本発明の実施の形態を詳細に説明する。
図1は、本発明の実施の形態に係るステレオカメラの構成の一例を示す図である。
図1(a)に示すように、本実施形態に係るステレオカメラ1は、左右に基準カメラ10及び比較カメラ20を備えている。
基準カメラ(カメラユニット)10は、撮像素子11と、撮像素子11の上面に配置した光学フィルタ12と、撮像素子11に光を集光するレンズ13とを備え、比較カメラ(カメラユニット)20は、撮像素子21と、撮像素子21の上面に配置した光学フィルタ22と、撮像素子21に光を集光するレンズ23とを備えている。
さらに、各カメラユニットによって撮像された画像に基づいて視差計算や画像認識等の処理を行う画像処理部30を備えている。
本実施形態に係るステレオカメラ装置は、異なる視点位置から同じ物体を撮像し、それぞれのセンサ画像上での結像点が物体の距離によって変化することを利用して物体の距離や位置を測定する距離測定装置である。
図1(b)は、各カメラユニットにおける撮像素子及び光学フィルタを詳細に示した図であり、図1(b)において、基準カメラ10の光学フィルタ12と、比較カメラ20の光学フィルタ22とは互いに同じ構成を有するフィルタである。
従って、撮像素子11と撮像素子21とにより取得される画像は、基本的に同じ特性を有する。
基準カメラ10の光学フィルタ12及び比較カメラ20の光学フィルタ22は、カラーフィルタ領域12a(22a)、クリアフィルタ領域12b(22b)、NDフィルタ領域12c(22c)に分割された特種フィルタである。
これにより、カラーフィルタ領域12aを使用して色情報を検出出来るとともに、クリアフィルタ領域12bを使用して輝度情報を検出することが出来る。
図2は、図1に示すステレオカメラによって撮影した画像を示す図である。
図1に示すステレオカメラによって撮影された画像40は、図2に示すように、各フィルタ領域12a(22a)、12b(22b)、12c(22c)の特性が反映された領域40a、40b、40cに分割された画像となる。
なお、光学フィルタ12(22)において、中央部にクリアフィルタ領域を設ければ、その上下の領域は、他の異なるフィルタとしても良く、検出をしたい情報に応じて適宜選択することが出来る。
また、領域分割の形態も、図1(b)に示すような横分割ではなく、縦分割としても良い。
図2の画像40における領域40aは、カラーフィルタ領域12a(22a)を通過した光が撮像素子11(22)に結像することで得られたカラーフィルタ対応領域であり、領域40bは、クリアフィルタ領域12b(22b)を通過した光が撮像素子11(22)に結像することで得られたクリアフィルタ対応領域40b、領域40cは、NDフィルタ領域12c(22c)を通過した光が撮像素子11(22)に結像することで得られたNDフィルタ対応領域である。
このように複数の異なる光学特性を有する画像について、本実施形態では、クリアフィルタ対応領域40bのみについて視差計算を施す。
そして、このクリアフィルタ対応領域40bは、車サイズ、および人/バイク/自転車サイズを認識する領域とする。
このクリアフィルタ対応領域40bは、カメラが車両においてとりつけられた際に、撮像画像内の消失点位置を中心に、上下に坂道や車両/人の高さ分を考慮して決定される。
車両や人を認識する上では、視差情報が非常に有効であり、高解像度に視差(距離)を算出することによって、高精度に物体を分離すること、及び、遠方までの認識が可能になる。また、車両/人は自車両との衝突時間などの算出が問題となるため、距離の算出が必須である。そのために、このエリアはクリアフィルタが望ましく、認識処理も視差情報を積極的に使用することが望ましい。
一方、画像上部に撮像される標識や信号などは、物体が小さく、視差情報からも、誤認識することが多くなる。一方、信号の色や標識の色などは、車両の色などと異なって規定されるため、カラー情報を積極的に利用することで、視差情報からの認識よりも効率的に認識が可能になる。
そこで、このエリアには、カラーフィルタを設け、カラー画像(カラーフィルタ対応領域40a)として撮像する。
そしてカラー画像を使って視差計算をする場合には、RGBもしくはYCBCRなどで、多次元の視差計算を実行しなければならなくなり、処理時間やアルゴリズムを変更する必要がある。そこで、このエリアでは、カラー画像から、まず信号などを認識し、そのエリアに対して、必要に応じてカラー用の視差算出処理を実行させる、という方法をとる。
さらに、画像下部領域40cについては、極小エリアとして画像認識に使用しない領域とする。なお、図2においては、ボンネットが撮像されている。
そしてこの領域には、LED光を照射するなどして、その光波長のみをターゲットとしたNDフィルタを設置する。
これにより、画像の不要領域を用いて雨滴を検知することができる。また、この領域を画像認識に使う場合でも、超近距離をターゲットとする。
この場合でも、物体は大きく写る為、画像としては粗くして、視差計算を実施することが出来る。
以上のように、ステレオカメラにおいて光学的に分割されたエリアごとに視差計算処理方法/利用方法を可変とし、さらに他の撮像情報を積極的に利用することで、誤認識の低減、認識率の向上を実現しつつ、ステレオカメラ、および車両制御システムのコストダウンと省スペース化を実現することができる。
図3は、本実施形態のステレオカメラの画像処理部の構成を示す図である。
図3に示すように、画像処理部30は、基準カメラ10で撮影された基準撮影画像と、比較カメラ20で撮影された比較撮影画像とが入力されるフレームバッファとしてのRAM32と、RAM32に入力された基準撮影画像10Aのクリアフィルタ領域通過成分と、比較撮影画像20Aのクリア領域通過成分とを用いて視差計算及びクラスタリングを行う視差計算部31としてのFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)と、所定のプログラムに従って、基準撮影画像のうちのカラーフィルタ領域通過成分(RGB画素成分)、比較撮影画像得のカラーフィルタ領域通過成分に基づく認識処理を実行するCPU33と、CPU33による処理のための一時データや処理プログラムを一時的に展開して格納するRAM34と、を備えている。
視差計算部31による処理もCPU33による処理とすることも可能であるが、処理速度を考慮すると、ハードウェアによる処理がより望ましい。
視差計算部31による処理において、大きく誤認識が発生したり、うまく物体を分離できていないと、その後のCPU33による認識処理においてさまざまな条件分岐処理を行う必要が生じたり、前段の処理に戻る必要が生じたりと、多くの複雑な処理が発生する。
そのために、後段のCPU33が高価になったり、処理時間が増大する、といった問題が発生する。よって、視差計算部31による処理のシンプル性を保ちつつ、この段階での認識率を高めて誤認識を減らし、後段のCPU33での処理負荷を低減させることが非常に重要になる。
しかし、視差計算部31による重要性は、先行車両のみをメインで検出すればよかった高速道路に対して、たとえば車両、歩行者、バイク、自転車、信号、標識などを認識対象とする市街地ではさらに顕著になる。
そこで、ステレオカメラにおいて光学的に分割されたエリアごとに視差計算処理方法/利用方法を可変とし、さらに他の撮像情報を積極的に利用することで、誤認識の低減、認識率の向上を実現しつつ、ステレオカメラ、および車両制御システムのコストダウンと省スペース化を実現することができる。
図4は、ステレオカメラの原理を示す図である。
基線長B(カメラ間の距離)と焦点距離fと視差d(視点による物体の結像点の位置の差)、物体までの距離Zの情報を使い、式(1)に表される形で、物体までの距離を算出する。ここで、視差計算とは、数式1におけるdを算出することを言う。

Figure 0006197291
・・・(1)
このdは、基準カメラ10で撮像された基準画像と、比較カメラ20で撮像された比較画像との、各画素の対応位置を意味しており、これは一般的には、注目画素の周辺数画素を使ったブロックマッチングによって算出される。たとえば周辺画素を含むブロックサイズを9x9と想定すると、下記式(2)に示されるようなSAD(Sum of Absolute Difference)などによって計算されるとする。
ブロックマッチングの方法としては、SAD以外にも、SSD(Sum of Squared Differences)やNCC(Normalized Cross Correlation)、ZSAD(Zero-mean Sum of Absolute Differences)など、さまざまな手法が提案されており、いずれの手法を利用してもよい。

Figure 0006197291
・・・(2)
このブロックマッチングによる視差計算は、この式(2)で表される計算を、基準画像の注目画素に対して、比較画像側で1画素づつ(もしくは小数補間されたサブピクセル合成画像づつ)計算していき、最も相関している位置を視差dと算出するものである。
このように、ある画素について視差を探索するには、少なくとも想定可能な視差d以上の画素数分の処理が必要になるため、多くの時間を必要とする。例えば、1画素ごとに視差dを探索するための画素をずらして探索する長さ(探索幅)が64画素だとした場合、ある画像を処理するための処理時間は、1画素分の視差を探索するために1クロックサイクルかかるとしても、1画面を処理するために64倍の処理時間がかかることになる。一般に1画素分の相関値を計算するために1クロックサイクルで処理が実現されるということは不可能であり、これは相関を行うブロックサイズによって指数的にさらに増大する。このため、視差計算時間を短縮することは大きな課題となっている。これを一般化した式で表すと、下記(3)式のようになる。
1画面分の視差計算時間=視差算出画素数×(1画素の相関計算時間×探索幅)
・・・(3)
この計算が図9におけるステップS202に相当する部分であり、この処理時間を短縮することは、大きな技術課題のひとつとなっている。
そこで、この視差計算は、クリアフィルタ対応領域40bのみに施す。
図5は、本実施形態のステレオカメラにおける処理を説明するフローチャートである。
まず、基準カメラ10、比較カメラ20によって、ステレオ画像(基準画像/比較画像)を撮影する(ステップS100)。
次に、図1(b)に示したフィルタ構成に基づいてステレオ画像(基準画像/比較画像)を分割する(ステップS101)。
そして、各フィルタ領域を通過することでフィルタごとに光学特性の異なるそれぞれの画像エリアに対して異なる処理を実行する。
[クリアフィルタ対応領域を用いた処理]
図2に示した各画像領域において、基準画像10A、比較画像20A双方のクリアフィルタ対応領域(クリアフィルタ部)40bは、図3に示した視差計算部31に入力され、図4で説明した輝度情報を用いた視差計算が実施される(ステップS102)。
特にステップS102の視差計算処理は、処理はシンプルであるものの多大な時間がかかるため、処理のハ−ド化が必須である。
次に、視差計算部31では、基準画像10Aのクリアフィルタ対応領域40bを用いて、路面上の白線の認識を行い(ステップS103a)、且つ、ステップS102で算出した視差情報を用いて、クラスタリングを実行する(ステップS103b)。そして、車サイズ、人/バイク/自動車サイズなどといった物体サイズに基づいて、クラスタリングの結果を修正する(ステップS103b)。
次に、ターゲットモデル情報を用いて、クラスタリング結果の修正を行う(ステップS105)。例えば、ステップS103aで認識した白線のデータから路面の高さを算出し、その上にある物体などをターゲットモデル情報として使用する。
次に、基準画像10Aの輝度情報を用いて、ターゲット物体認識の最終判断を行う(ステップS106)。これは、クラスタリングされたエリアに対して、Adaboostなど用いて識別する。
以上の処理により認識された認識物体の3次元位置を出力する(ステップS107)。
[カラーフィルタ対応領域を用いた処理]
カラーフィルタ対応領域については、視差計算部31ではなく、CPU33にデータが渡され、信号や標識の認識処理が実施される。
ステップS101で分割した領域における、基準画像Aのカラーフィルタ対応領域(基準側カラーフィルタ部)40aを用いて、交通信号/交通標識の認識を行う(ステップS110)。
そして、交通信号/交通標識が認識された結果エリアにのみ、基準画像10A、比較画像20A双方におけるカラーフィルタ対応領域40aのカラー情報を用いて、視差計算を行う(ステップS111)。
こうして認識された物体(信号/標識)について、3次元位置を出力する(ステップS112)。
上記に説明したように、カラーフィルタ対応領域40aについては、CPU33で認識された結果に対してのみ、視差計算が実施されている。
このとき、クリアフィルタ対応領域40bに対して実施したものとは異なる視差計算処理を実施する必要がある。
カラー画像はR、G、BもしくはYCbCrなどで表されるため、輝度のように視差計算に利用する情報が1次元的ではない。
一般に、カラー画像の視差計算では、輝度画像での視差計算に比較して3倍以上の処理時間を要する。
また、カラー画像での視差計算では、多重化された情報をもってマッチング処理が実行されるために誤認識は低減できるが、クリアフィルタの場合のように全画素について視差を算出することができない。
またレンズを通して結像される点が輝度画像のように全画素において均一に利用されることはないため、測距精度を高精度に実現することが難しくなる。
そのために、遠方物体の視差を算出するのには適さない。従って、カラー画像に対しては、カラー情報を利用して認識した物体の部分のみに対して、視差を算出することが望ましい。
また、そのような目的で利用する場合、利用される目的が異なる為に、視差計算のアルゴリズムやパラメータなども、輝度画像による視差計算とは適したものが異なる。
例えば、画面内にカラー物体を見つける場合には、まず画面全体の視差を算出し、そこにおけるカラー視差の分布を見て距離を計測する必要がある。
そのために、よりシンプルな手法で、各画素や隣接画素差分が高い画素位置などに対してブロックマッチングを適用するのが望ましい。
一方、基準画像内のある部分に、ある物体が撮像されていると考えられる場合は、その部分全体を1つの塊として、それと同じ特徴を持つ塊が比較画像のどこにあるかを探索するほうが、視差計算時間やミスマッチングなどを低減することができる。
そのような手法として、ブロックマッチングではなく、たとえば空間周波数特性を利用する位相限定相関などが有効である。
[NDフィルタ対応領域を用いた処理]
NDフィルタ対応領域40cも、視差計算部31ではなく、CPU33にデータが渡され、雨滴認識が実施される。
雨滴については、距離を計測する必要はないので視差計算は実施しない。
ステップS101で分割した領域における、基準画像10AのNDフィルタ対応領域(基準側NDフィルタ部)40cについて、輝度画像を用いた雨滴の認識を行う(ステップS120)。
そして、雨滴の検出結果を出力する(ステップS121)。
図6は、本実施形態を構成する各要素のタイミングチャートを示す図である。
なお、図6中(b)は、本実施形態の各要素のタイミングチャートを示す図であるが、(a)には、比較例としての、視差計算部によって全画面について輝度に基づく視差算出・クラスタリングを行い(処理300)、なおかつ別途設けたカラーカメラによって得たカラー画像に対して認識処理を行い(処理301)、処理300の処理結果を、処理301による認識結果に基づいて修正する場合におけるタイミングチャートを示している。
図6(a)に示す場合、全画面について輝度に基づく視差計算、クラスタリングを行っているため、この処理300に3フレームを費やしている。この処理300によって得られる視差画像を図7に示している。
カラー画像認識には処理時間も大きくかかり、誤認識も多いが、本実施形態では、図1(b)に示すような特種の光学フィルタを構成し、各領域に適した視差計算ロジックを採用するので、ひとつのカメラ画像によって処理することができ、さらにエリアごとに処理方法を変えるので、図6(b)のようにCPU33と視差計算部31の処理を効率的に利用することができる。
すなわち、本実施形態は、クリアフィルタ対応領域を画面の1/3に設定しているため、視差計算部31による視差計算も、図6(a)の場合の1/3である1フレ−ムで処理を実行することができている。
図6(b)を参照すると、視差計算部31は、図5のステップS102、103の処理を1フレームで実行後、次のフレームでステップS111の処理を実行出来ているのが分かる。
また、それに並行して、CPU33は、ステップS110、ステップS120の処理を1フレームで実行し、次のフレームでステップS104〜ステップ106を実行出来ている。
このように、本実施形態の場合、処理の効率が極めて高い。
また、カラー画像の認識に加え、カラー情報を利用した距離計測も可能になる。
これは、上述したように、カラー画像が得意とする対象を画像認識し、そのエリアのみを視差計算するためである。
ただし、このような処理を実現するためには、各光学フィルタ撮像画像と認識手法にあわせた視差計算アルゴリズムの切替とパラメータの切替等が必要になる。
そして、一般に、全く異なる視差計算ロジックを適用する場合は、視差計算ハードウェア(視差計算部)内にそれぞれ別の視差計算実行ロジックを実装しなければならない。
認識対象の要求精度などによっては、通常のブロックマッチング・アルゴリズムを利用してもよいが、その場合でも、互いに光学特性が異なる画像に適用する場合、ブロックサイズの変更だけでは十分ではない。たとえばカラー画像領域では、画像はRGBなどのフィルタを通して画素に結像されるため、カラー補間されない画像を使う場合は各フィルタ分離画像の探索幅が変わり、また、カラー補間された画像を利用する場合は、補間後の画素情報量が異なるからである。
以上説明したように、本実施形態では、輝度に基づく視差画像をベースに視差計算処理を行うべき領域と、カラー画像などを利用した方が効率的に認識をすることが可能になる領域を、アプリケーション、及び認識ターゲットに応じて光学的、および画像エリアとして分割することで、視差計算部31による誤認識の低減が可能になり、認識率が向上することが出来るようになった。
また、視差計算ロジックをそのエリアごとに効率的に適用させることができるようになり、不必要な処理演算を低減することができる。同時に、輝度情報を用いた視差計算を実行する領域を制限することができるため、視差計算部31の処理負荷を低減できるとともに、図3に示す視差計算部31、CPU23のコストダウンが可能になる。
さらに、雨滴用に別途センサを設けたり、カラー情報を利用するためにカラーカメラを別途も受けたり、処理負荷が大きいカラーステレオカメラを構成したりといった必要がなくなり、一体のステレオカメラで複数のアプリケーションが可能になり、結果、システムとして大きなコストダウンと省スペース化が可能となる。
本実施形態では、ステレオカメラの撮像画像を、目的の認識対象ごとに領域分割し、さらに、これらをそれぞれの認識処理に適した画像が撮像できるように光学的に工夫している。
これにより、認識すべき対象を整理し、その対象が見えるエリアを画像上で配置設定し、その認識に適した特種光学フィルタを構築し、この特種フィルタの画像特性と認識処理方法に応じて視差計算ロジックのアルゴリズムやパラメータ、さらに、画像間引き率や視差計算実行画素位置検出アルゴリズムを変更することで、誤認識の低減や認識対象の拡大といった性能の向上とともに、処理の高速化も図ることが可能になっている。
なお、本実施形態では2眼のステレオカメラにおいて説明しているが、同様の構成・原理が適用できるため、カメラを2台以上搭載した測距カメラ装置に適用することが出来る。また、カメラを1台のみ用いる、単眼カメラ装置に適用することも出来る。
<その他の実施形態>
図8は、本実施形態の距離計測装置を適用可能な車両を示す模式図である。
本実施形態の画像処理システムは、車両50前方の画像を取得するための撮像ユニット51と、取得した画像に基づいて車両50の前方に存在する他の車両までの距離を算出する等の処理を行う画像解析ユニット52を有している。撮像ユニット51は、車両50が走行する前方の画像を撮像できるように、座席のルームミラー位置等に設置されている。撮像ユニット51で撮像された車両前方の画像は、画像信号化されて画像解析ユニット52に入力される。画像解析ユニット52は、撮像ユニット51から出力された画像信号を解析する。
撮像ユニット51として、上記実施形態の基準カメラ、比較カメラよりなるステレオカメラを適用できる。
また、画像解析ユニット52の一部の機能として、上記実施形態の視差計算部31、CPU33適用することが出来る。
車両走行制御ユニット58は、画像解析ユニット52で計算された距離に基づいてハンドルやブレーキの制御も行うことが出来る。
1 ステレオカメラ、10 基準カメラ(カメラユニット)、10A 基準画像、11 撮像素子、12 光学フィルタ、12a カラーフィルタ領域、12b クリアフィルタ領域、12c NDフィルタ領域、13 レンズ、20 比較カメラ(カメラユニット)、20A 比較画像、21 撮像素子、22 光学フィルタ、22a カラーフィルタ領域、22b クリアフィルタ領域、23 レンズ、30 制御部、31 視差計算部、32 RAM、33 CPU、34 RAM、40 画像、40a カラーフィルタ対応領域、40b クリアフィルタ対応領域、40c NDフィルタ対応領域、50 車両、51 撮像ユニット、52 画像解析ユニット、58 車両走行制御ユニット
特許第4151890号

Claims (6)

  1. 光学フィルタ及び撮像素子を備えた複数のカメラユニットと、前記各撮像素子が前記各光学フィルタを介して取得した撮影画像について画像処理を行う画像処理手段と、を備え、
    前記光学フィルタは、
    前記撮影画像の中央部に対応する領域に備えたクリアフィルタ領域と、前記撮影画像の上部に対応する領域に備えたカラーフィルタ領域と、を有し、
    前記画像処理手段は、
    前記撮影画像の前記クリアフィルタ領域に対応するクリア画像領域について複数の前記撮影画像間の視差計算を行うとともに、前記撮影画像の前記カラーフィルタ領域に対応するカラー画像領域について物体認識を行うことを特徴とする複眼カメラ装置。
  2. 請求項1に記載の複眼カメラ装置において、
    前記画像処理手段は、
    前記カラー画像領域について、前記クリア画像領域とは異なる視差計算方法によって、複数の前記撮影画像間の視差計算を行うことを特徴とする複眼カメラ装置。
  3. 請求項2に記載の複眼カメラ装置において、
    前記画像処理手段は、
    前記カラー画像領域について、前記クリア画像領域とは異なる画像情報を用いて視差計算を行うこと特徴とする複眼カメラ装置。
  4. 請求項2又は3に記載の複眼カメラ装置において、
    前記画像処理手段は、
    前記クリア画像領域について、前記カラー画像領域とは異なる画像認識方法によって物体認識を行うことを特徴とする複眼カメラ装置。
  5. 請求項4に記載の複眼カメラ装置において、
    前記画像処理手段は、
    前記クリア画像領域について、前記撮影画像における輝度情報又は前記撮影画像間の視差情報を利用して物体認識を行うとともに、前記カラー画像領域について、カラー情報を利用して物体認識を行うことを特徴とする複眼カメラ装置。
  6. 請求項1乃至5の何れか一項に記載の複眼カメラ装置を備えたことを特徴とする車両。
JP2013001370A 2012-03-21 2013-01-08 複眼カメラ装置、及びそれを備えた車両 Active JP6197291B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013001370A JP6197291B2 (ja) 2012-03-21 2013-01-08 複眼カメラ装置、及びそれを備えた車両
ES13158677.8T ES2686047T3 (es) 2012-03-21 2013-03-12 Sistema de cámara multilente y método de telemetría ejecutado por el sistema de cámara multilente
EP13158677.8A EP2642429B1 (en) 2012-03-21 2013-03-12 Multi-lens camera system and range-finding method executed by the multi-lens camera system
CN201310084234.4A CN103322974B (zh) 2012-03-21 2013-03-15 多透镜摄像机系统、安装多透镜摄像机系统的交通工具,以及由多透镜摄像机系统执行的测距方法
US13/845,860 US9420151B2 (en) 2012-03-21 2013-03-18 Multi-lens camera system, vehicle mounting the multi-lens camera system, and range-finding method executed by the multi-lens camera system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012063660 2012-03-21
JP2012063660 2012-03-21
JP2013001370A JP6197291B2 (ja) 2012-03-21 2013-01-08 複眼カメラ装置、及びそれを備えた車両

Publications (2)

Publication Number Publication Date
JP2013225289A JP2013225289A (ja) 2013-10-31
JP6197291B2 true JP6197291B2 (ja) 2017-09-20

Family

ID=48013721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013001370A Active JP6197291B2 (ja) 2012-03-21 2013-01-08 複眼カメラ装置、及びそれを備えた車両

Country Status (5)

Country Link
US (1) US9420151B2 (ja)
EP (1) EP2642429B1 (ja)
JP (1) JP6197291B2 (ja)
CN (1) CN103322974B (ja)
ES (1) ES2686047T3 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5701785B2 (ja) * 2012-02-03 2015-04-15 株式会社東芝 カメラモジュール
US9137517B2 (en) * 2012-10-05 2015-09-15 Blackberry Limited Methods and devices for generating a stereoscopic image
CN111024099B (zh) * 2013-06-13 2023-10-27 移动眼视力科技有限公司 用于导航的移动装置、非暂时性机器可读介质和设备
JP5883833B2 (ja) * 2013-08-05 2016-03-15 富士重工業株式会社 車外環境認識装置
KR20150042574A (ko) * 2013-10-11 2015-04-21 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101611261B1 (ko) * 2013-12-12 2016-04-12 엘지전자 주식회사 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량
WO2015145543A1 (ja) * 2014-03-24 2015-10-01 株式会社日立製作所 物体検出装置、物体検出方法、および移動ロボット
US11243294B2 (en) 2014-05-19 2022-02-08 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US20150334371A1 (en) * 2014-05-19 2015-11-19 Rockwell Automation Technologies, Inc. Optical safety monitoring with selective pixel array analysis
US9921300B2 (en) 2014-05-19 2018-03-20 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US9696424B2 (en) 2014-05-19 2017-07-04 Rockwell Automation Technologies, Inc. Optical area monitoring with spot matrix illumination
JP6283105B2 (ja) * 2014-05-28 2018-02-21 京セラ株式会社 ステレオカメラ装置、ステレオカメラ装置を設置した車両及びプログラム
EP3203725B1 (en) * 2014-09-30 2022-01-26 Hitachi Astemo, Ltd. Vehicle-mounted image recognition device
JP2016102733A (ja) * 2014-11-28 2016-06-02 株式会社東芝 レンズ及び撮影装置
CN118816908A (zh) * 2015-02-10 2024-10-22 御眼视觉技术有限公司 用于自主车辆导航的稀疏地图
JP6562648B2 (ja) * 2015-02-16 2019-08-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9794543B2 (en) 2015-03-02 2017-10-17 Ricoh Company, Ltd. Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
JP6519355B2 (ja) * 2015-06-30 2019-05-29 株式会社デンソー カメラ装置及び車載システム
WO2017047282A1 (ja) 2015-09-15 2017-03-23 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
US9948857B2 (en) * 2015-10-22 2018-04-17 Samsung Electronics Co., Ltd. Method and device for generating images
EP3382639B1 (en) 2015-11-27 2024-02-21 Ricoh Company, Ltd. Image processing device, image pickup device, apparatus control system, distribution data generation method, and program
EP3385904A4 (en) 2015-11-30 2018-12-19 Ricoh Company, Ltd. Image processing device, object recognition device, device conrol system, image processing method, and program
US10635909B2 (en) * 2015-12-30 2020-04-28 Texas Instruments Incorporated Vehicle control with efficient iterative triangulation
JP6544257B2 (ja) * 2016-02-09 2019-07-17 株式会社リコー 情報処理システム、情報処理方法及び情報処理プログラム
JP6800628B2 (ja) * 2016-06-22 2020-12-16 キヤノン株式会社 追跡装置、追跡方法、及びプログラム
IT201600094858A1 (it) * 2016-09-21 2018-03-21 St Microelectronics Srl Procedimento per un cross traffic alert avanzato a basso costo, corrispondente sistema di elaborazione, sistema per cross traffic alert e veicolo
CN106355906B (zh) * 2016-11-11 2018-12-11 安徽理工大学 利用凹镜成像聚焦原理调控红绿灯的方法
US10453208B2 (en) * 2017-05-19 2019-10-22 Waymo Llc Camera systems using filters and exposure times to detect flickering illuminated objects
JP6922705B2 (ja) * 2017-12-06 2021-08-18 トヨタ自動車株式会社 センサー搭載構造
CN109314746B (zh) * 2017-12-22 2021-08-10 深圳配天智能技术研究院有限公司 图像传感器及其获取图像的方法、智能设备
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
WO2019181591A1 (ja) * 2018-03-22 2019-09-26 日立オートモティブシステムズ株式会社 車載ステレオカメラ
CN111829484B (zh) * 2020-06-03 2022-05-03 江西江铃集团新能源汽车有限公司 基于视觉的目标距离测算方法
US20220100193A1 (en) * 2020-09-25 2022-03-31 Ford Global Technologies, Llc Vehicle wheelchair loading system
US11790665B2 (en) * 2021-04-29 2023-10-17 Hitachi Astemo, Ltd. Data driven dynamically reconfigured disparity map
JP7364269B2 (ja) * 2022-03-15 2023-10-18 Necプラットフォームズ株式会社 物体検知装置、画像処理表示方法及びプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US6396397B1 (en) * 1993-02-26 2002-05-28 Donnelly Corporation Vehicle imaging system with stereo imaging
DE19524936C1 (de) * 1995-07-08 1996-11-21 Leica Ag Vorrichtung zur Darstellung einer rotationssymmetrischen, gaußförmigen Intensitätsverteilung im Strahlenquerschnitt eines Strahlenbündels
JP3691124B2 (ja) 1995-08-23 2005-08-31 フジノン株式会社 測距装置
JP4391624B2 (ja) * 1999-06-16 2009-12-24 本田技研工業株式会社 物体認識装置
JP4641601B2 (ja) * 2000-09-08 2011-03-02 富士通テン株式会社 画像処理装置および画像処理システム
KR100903450B1 (ko) * 2001-12-05 2009-06-18 하마마츠 포토닉스 가부시키가이샤 광 검출 장치, 촬상 장치 및 거리 화상 취득 장치
JP4275378B2 (ja) 2002-09-27 2009-06-10 富士重工業株式会社 ステレオ画像処理装置およびステレオ画像処理方法
JP4151890B2 (ja) 2002-11-22 2008-09-17 富士重工業株式会社 車両監視装置および車両監視方法
JP2004239886A (ja) * 2002-12-11 2004-08-26 Fuji Xerox Co Ltd 三次元画像撮像装置および方法
JP2005241340A (ja) 2004-02-25 2005-09-08 Sharp Corp マルチ測距装置
GB0405014D0 (en) * 2004-03-05 2004-04-07 Qinetiq Ltd Movement control system
JP2006318059A (ja) * 2005-05-10 2006-11-24 Olympus Corp 画像処理装置、画像処理方法、および画像処理用プログラム
US8107000B2 (en) * 2006-05-16 2012-01-31 Panasonic Corporation Image pickup apparatus and semiconductor circuit element
JP4258539B2 (ja) * 2006-08-31 2009-04-30 株式会社日立製作所 複数画角カメラ
US8423003B2 (en) * 2007-07-11 2013-04-16 Yahoo! Inc. System for serving targeted advertisements over mobile messaging services
JP2009284188A (ja) * 2008-05-22 2009-12-03 Panasonic Corp カラー撮像装置
JP5278819B2 (ja) * 2009-05-11 2013-09-04 株式会社リコー ステレオカメラ装置及びそれを用いた車外監視装置
JP2010276469A (ja) * 2009-05-28 2010-12-09 Konica Minolta Holdings Inc 画像処理装置及び測距装置の画像処理方法
JP5440927B2 (ja) * 2009-10-19 2014-03-12 株式会社リコー 測距カメラ装置
JP5776173B2 (ja) 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置

Also Published As

Publication number Publication date
JP2013225289A (ja) 2013-10-31
US20130250109A1 (en) 2013-09-26
CN103322974A (zh) 2013-09-25
EP2642429A3 (en) 2015-09-02
CN103322974B (zh) 2017-09-22
ES2686047T3 (es) 2018-10-16
US9420151B2 (en) 2016-08-16
EP2642429B1 (en) 2018-07-11
EP2642429A2 (en) 2013-09-25

Similar Documents

Publication Publication Date Title
JP6197291B2 (ja) 複眼カメラ装置、及びそれを備えた車両
JP5399027B2 (ja) 自動車の運転を支援するための、立体画像を捕捉することができるシステムを有するデバイス
JP6274557B2 (ja) 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
JP6013884B2 (ja) 物体検出装置及び物体検出方法
JP4654163B2 (ja) 車両の周囲環境認識装置及びシステム
JP6376429B2 (ja) 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
JP5480917B2 (ja) 車両周辺監視装置
EP2928178B1 (en) On-board control device
JP5999127B2 (ja) 画像処理装置
WO2010047054A1 (ja) 車両の周辺監視装置
WO2015163078A1 (ja) 外界認識装置
JP4528283B2 (ja) 車両周辺監視装置
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP2014006885A (ja) 段差認識装置、段差認識方法及び段差認識用プログラム
US9870513B2 (en) Method and device for detecting objects from depth-resolved image data
JP6756908B2 (ja) 車両周囲の歩行者を検出する方法及び装置
JP5073700B2 (ja) 物体検出装置
JP4887537B2 (ja) 車両周辺監視装置
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2017129543A (ja) ステレオカメラ装置及び車両
JP2010092353A (ja) 画像処理装置及び画像処理方法
JP6701905B2 (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム
WO2017154305A1 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム
JP2014016981A (ja) 移動面認識装置、移動面認識方法及び移動面認識用プログラム
JP7229032B2 (ja) 車外物体検出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170807

R151 Written notification of patent or utility model registration

Ref document number: 6197291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151