JP6197291B2 - 複眼カメラ装置、及びそれを備えた車両 - Google Patents
複眼カメラ装置、及びそれを備えた車両 Download PDFInfo
- Publication number
- JP6197291B2 JP6197291B2 JP2013001370A JP2013001370A JP6197291B2 JP 6197291 B2 JP6197291 B2 JP 6197291B2 JP 2013001370 A JP2013001370 A JP 2013001370A JP 2013001370 A JP2013001370 A JP 2013001370A JP 6197291 B2 JP6197291 B2 JP 6197291B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- color
- area
- parallax
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Vascular Medicine (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Cameras In General (AREA)
- Studio Devices (AREA)
Description
さらに、近年は解像度などのセンサ性能が高まったこともあり、車載環境におけるセンシングの中心ニーズが高速道路から市街地へと移行してきている。
市街地環境では、高速道路等に比べてセンシングの対象となる環境が多様となっている。
複雑なセンシング環境における認識処理の最大の問題点は、認識する対象が多様化することにより処理の複雑化して処理時間が増大することと、誤認識が増加することである。
従来の一般的な車載ステレオカメラにおける認識処理を説明すると、まず、撮像画像のほぼ全面に対してエッジを検出し、エッジ検出された画素位置に対して視差計算処理を施す。その後、計算結果の視差情報を用いてクラスタリングを施し、これに各種の情報を付加して最終的な認識対象を検出する。
まず、ステレオカメラ(基準カメラ/比較カメラ)を用いて、ステレオ画像(基準画像/比較画像)を撮影する(ステップS201)。
そして、基準画像における輝度情報を用いて、路面上の白線を認識する(ステップS208)。
そして、基準画像/比較画像に基づいて視差を算出し(ステップS202)、視差情報を用いたクラスタリング(ステップS203)を実行し、車、人/バイク/自転車のサイズ、標識/信号のサイズなどの物体サイズを用いて、クラスタリング結果の修正を行う(ステップS204)。
図10において、枠100が車両物体サイズとして認識されたクラスタリング結果、枠101が歩行者/バイク/自転車サイズとして認識されたクラスタリング結果、枠102が標識/信号サイズとして認識されたクラスタリング結果である。
図10に示す認識結果画像からわかるように、特に標識/信号などはサイズが小さいがために、多くの誤認識(枠102’)が見られる。また歩行者の誤認識が画面上方に見られる(枠101’)。
これらの誤認識に対して、図9のステップS205以降の処理において、さまざまな条件分岐処理などを行う。
さらに、基準画像における輝度情報を用いて、クラスタリングをされたエリアに対して、Adaboostなどを使って、ターゲット物体認識の最終判断を行う(ステップS206)。最後に、認識物体の3次元位置を出力する(ステップS207)。
従って、視差算出/クラスタリング処理における認識率をより高めて誤認識を減らすことが非常に重要になる。
画像内の物体を認識する手法として、例えば特許文献1には、自車両周辺の景色を撮像することにより、カラー画像を出力するカメラと、監視領域内における距離の二次元的な分布を示す距離データを計算して自車線や隣接車線を走行する他車両を認識するステレオカメラを備え、認識結果である画像内の車両位置を基準として所定面積のウィンカ領域を設定し、カラー画像に基づいてウィンカの色成分の画素を検出することで、カラー情報と視差情報をともに利用してウィンカと隣接車両を同時に認識する構成が開示されている。
かかる構成によれば、カラー情報と視差情報といった異なる情報を組み合わせて使用して、より正確に、複数の対象物を同時に認識することが可能である。
しかし、ステレオカメラに加えて別途カラーカメラが必要であり、画像内に認識対象用のエリアを設定して、別途異なるアルゴリズムによって認識を行う必要がある。
また、全面画像内の物体と、設定エリア内の物体についてそれぞれ視差計算を行うには、視差計算アルゴリズムやパラメータ切替等が必要になる。これは、処理の複雑化につながり、上述の問題点を解消し得ない。
本発明は、視差画像を使った認識処理における画像認識率を向上するとともに処理負荷を低減して、高精度且つ高速に周辺環境を認識することが可能な複眼カメラ装置を提供することを目的とする。
図1は、本発明の実施の形態に係るステレオカメラの構成の一例を示す図である。
図1(a)に示すように、本実施形態に係るステレオカメラ1は、左右に基準カメラ10及び比較カメラ20を備えている。
基準カメラ(カメラユニット)10は、撮像素子11と、撮像素子11の上面に配置した光学フィルタ12と、撮像素子11に光を集光するレンズ13とを備え、比較カメラ(カメラユニット)20は、撮像素子21と、撮像素子21の上面に配置した光学フィルタ22と、撮像素子21に光を集光するレンズ23とを備えている。
さらに、各カメラユニットによって撮像された画像に基づいて視差計算や画像認識等の処理を行う画像処理部30を備えている。
本実施形態に係るステレオカメラ装置は、異なる視点位置から同じ物体を撮像し、それぞれのセンサ画像上での結像点が物体の距離によって変化することを利用して物体の距離や位置を測定する距離測定装置である。
従って、撮像素子11と撮像素子21とにより取得される画像は、基本的に同じ特性を有する。
基準カメラ10の光学フィルタ12及び比較カメラ20の光学フィルタ22は、カラーフィルタ領域12a(22a)、クリアフィルタ領域12b(22b)、NDフィルタ領域12c(22c)に分割された特種フィルタである。
これにより、カラーフィルタ領域12aを使用して色情報を検出出来るとともに、クリアフィルタ領域12bを使用して輝度情報を検出することが出来る。
図1に示すステレオカメラによって撮影された画像40は、図2に示すように、各フィルタ領域12a(22a)、12b(22b)、12c(22c)の特性が反映された領域40a、40b、40cに分割された画像となる。
なお、光学フィルタ12(22)において、中央部にクリアフィルタ領域を設ければ、その上下の領域は、他の異なるフィルタとしても良く、検出をしたい情報に応じて適宜選択することが出来る。
また、領域分割の形態も、図1(b)に示すような横分割ではなく、縦分割としても良い。
このように複数の異なる光学特性を有する画像について、本実施形態では、クリアフィルタ対応領域40bのみについて視差計算を施す。
そして、このクリアフィルタ対応領域40bは、車サイズ、および人/バイク/自転車サイズを認識する領域とする。
このクリアフィルタ対応領域40bは、カメラが車両においてとりつけられた際に、撮像画像内の消失点位置を中心に、上下に坂道や車両/人の高さ分を考慮して決定される。
車両や人を認識する上では、視差情報が非常に有効であり、高解像度に視差(距離)を算出することによって、高精度に物体を分離すること、及び、遠方までの認識が可能になる。また、車両/人は自車両との衝突時間などの算出が問題となるため、距離の算出が必須である。そのために、このエリアはクリアフィルタが望ましく、認識処理も視差情報を積極的に使用することが望ましい。
そこで、このエリアには、カラーフィルタを設け、カラー画像(カラーフィルタ対応領域40a)として撮像する。
そしてカラー画像を使って視差計算をする場合には、RGBもしくはYCBCRなどで、多次元の視差計算を実行しなければならなくなり、処理時間やアルゴリズムを変更する必要がある。そこで、このエリアでは、カラー画像から、まず信号などを認識し、そのエリアに対して、必要に応じてカラー用の視差算出処理を実行させる、という方法をとる。
さらに、画像下部領域40cについては、極小エリアとして画像認識に使用しない領域とする。なお、図2においては、ボンネットが撮像されている。
そしてこの領域には、LED光を照射するなどして、その光波長のみをターゲットとしたNDフィルタを設置する。
これにより、画像の不要領域を用いて雨滴を検知することができる。また、この領域を画像認識に使う場合でも、超近距離をターゲットとする。
この場合でも、物体は大きく写る為、画像としては粗くして、視差計算を実施することが出来る。
図3に示すように、画像処理部30は、基準カメラ10で撮影された基準撮影画像と、比較カメラ20で撮影された比較撮影画像とが入力されるフレームバッファとしてのRAM32と、RAM32に入力された基準撮影画像10Aのクリアフィルタ領域通過成分と、比較撮影画像20Aのクリア領域通過成分とを用いて視差計算及びクラスタリングを行う視差計算部31としてのFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)と、所定のプログラムに従って、基準撮影画像のうちのカラーフィルタ領域通過成分(RGB画素成分)、比較撮影画像得のカラーフィルタ領域通過成分に基づく認識処理を実行するCPU33と、CPU33による処理のための一時データや処理プログラムを一時的に展開して格納するRAM34と、を備えている。
視差計算部31による処理において、大きく誤認識が発生したり、うまく物体を分離できていないと、その後のCPU33による認識処理においてさまざまな条件分岐処理を行う必要が生じたり、前段の処理に戻る必要が生じたりと、多くの複雑な処理が発生する。
そのために、後段のCPU33が高価になったり、処理時間が増大する、といった問題が発生する。よって、視差計算部31による処理のシンプル性を保ちつつ、この段階での認識率を高めて誤認識を減らし、後段のCPU33での処理負荷を低減させることが非常に重要になる。
そこで、ステレオカメラにおいて光学的に分割されたエリアごとに視差計算処理方法/利用方法を可変とし、さらに他の撮像情報を積極的に利用することで、誤認識の低減、認識率の向上を実現しつつ、ステレオカメラ、および車両制御システムのコストダウンと省スペース化を実現することができる。
基線長B(カメラ間の距離)と焦点距離fと視差d(視点による物体の結像点の位置の差)、物体までの距離Zの情報を使い、式(1)に表される形で、物体までの距離を算出する。ここで、視差計算とは、数式1におけるdを算出することを言う。
・・・(1)
このdは、基準カメラ10で撮像された基準画像と、比較カメラ20で撮像された比較画像との、各画素の対応位置を意味しており、これは一般的には、注目画素の周辺数画素を使ったブロックマッチングによって算出される。たとえば周辺画素を含むブロックサイズを9x9と想定すると、下記式(2)に示されるようなSAD(Sum of Absolute Difference)などによって計算されるとする。
・・・(2)
このブロックマッチングによる視差計算は、この式(2)で表される計算を、基準画像の注目画素に対して、比較画像側で1画素づつ(もしくは小数補間されたサブピクセル合成画像づつ)計算していき、最も相関している位置を視差dと算出するものである。
1画面分の視差計算時間=視差算出画素数×(1画素の相関計算時間×探索幅)
・・・(3)
この計算が図9におけるステップS202に相当する部分であり、この処理時間を短縮することは、大きな技術課題のひとつとなっている。
そこで、この視差計算は、クリアフィルタ対応領域40bのみに施す。
まず、基準カメラ10、比較カメラ20によって、ステレオ画像(基準画像/比較画像)を撮影する(ステップS100)。
次に、図1(b)に示したフィルタ構成に基づいてステレオ画像(基準画像/比較画像)を分割する(ステップS101)。
そして、各フィルタ領域を通過することでフィルタごとに光学特性の異なるそれぞれの画像エリアに対して異なる処理を実行する。
図2に示した各画像領域において、基準画像10A、比較画像20A双方のクリアフィルタ対応領域(クリアフィルタ部)40bは、図3に示した視差計算部31に入力され、図4で説明した輝度情報を用いた視差計算が実施される(ステップS102)。
特にステップS102の視差計算処理は、処理はシンプルであるものの多大な時間がかかるため、処理のハ−ド化が必須である。
次に、視差計算部31では、基準画像10Aのクリアフィルタ対応領域40bを用いて、路面上の白線の認識を行い(ステップS103a)、且つ、ステップS102で算出した視差情報を用いて、クラスタリングを実行する(ステップS103b)。そして、車サイズ、人/バイク/自動車サイズなどといった物体サイズに基づいて、クラスタリングの結果を修正する(ステップS103b)。
次に、ターゲットモデル情報を用いて、クラスタリング結果の修正を行う(ステップS105)。例えば、ステップS103aで認識した白線のデータから路面の高さを算出し、その上にある物体などをターゲットモデル情報として使用する。
次に、基準画像10Aの輝度情報を用いて、ターゲット物体認識の最終判断を行う(ステップS106)。これは、クラスタリングされたエリアに対して、Adaboostなど用いて識別する。
以上の処理により認識された認識物体の3次元位置を出力する(ステップS107)。
カラーフィルタ対応領域については、視差計算部31ではなく、CPU33にデータが渡され、信号や標識の認識処理が実施される。
ステップS101で分割した領域における、基準画像Aのカラーフィルタ対応領域(基準側カラーフィルタ部)40aを用いて、交通信号/交通標識の認識を行う(ステップS110)。
そして、交通信号/交通標識が認識された結果エリアにのみ、基準画像10A、比較画像20A双方におけるカラーフィルタ対応領域40aのカラー情報を用いて、視差計算を行う(ステップS111)。
こうして認識された物体(信号/標識)について、3次元位置を出力する(ステップS112)。
このとき、クリアフィルタ対応領域40bに対して実施したものとは異なる視差計算処理を実施する必要がある。
カラー画像はR、G、BもしくはYCbCrなどで表されるため、輝度のように視差計算に利用する情報が1次元的ではない。
一般に、カラー画像の視差計算では、輝度画像での視差計算に比較して3倍以上の処理時間を要する。
またレンズを通して結像される点が輝度画像のように全画素において均一に利用されることはないため、測距精度を高精度に実現することが難しくなる。
そのために、遠方物体の視差を算出するのには適さない。従って、カラー画像に対しては、カラー情報を利用して認識した物体の部分のみに対して、視差を算出することが望ましい。
また、そのような目的で利用する場合、利用される目的が異なる為に、視差計算のアルゴリズムやパラメータなども、輝度画像による視差計算とは適したものが異なる。
例えば、画面内にカラー物体を見つける場合には、まず画面全体の視差を算出し、そこにおけるカラー視差の分布を見て距離を計測する必要がある。
そのために、よりシンプルな手法で、各画素や隣接画素差分が高い画素位置などに対してブロックマッチングを適用するのが望ましい。
そのような手法として、ブロックマッチングではなく、たとえば空間周波数特性を利用する位相限定相関などが有効である。
NDフィルタ対応領域40cも、視差計算部31ではなく、CPU33にデータが渡され、雨滴認識が実施される。
雨滴については、距離を計測する必要はないので視差計算は実施しない。
ステップS101で分割した領域における、基準画像10AのNDフィルタ対応領域(基準側NDフィルタ部)40cについて、輝度画像を用いた雨滴の認識を行う(ステップS120)。
そして、雨滴の検出結果を出力する(ステップS121)。
なお、図6中(b)は、本実施形態の各要素のタイミングチャートを示す図であるが、(a)には、比較例としての、視差計算部によって全画面について輝度に基づく視差算出・クラスタリングを行い(処理300)、なおかつ別途設けたカラーカメラによって得たカラー画像に対して認識処理を行い(処理301)、処理300の処理結果を、処理301による認識結果に基づいて修正する場合におけるタイミングチャートを示している。
図6(a)に示す場合、全画面について輝度に基づく視差計算、クラスタリングを行っているため、この処理300に3フレームを費やしている。この処理300によって得られる視差画像を図7に示している。
カラー画像認識には処理時間も大きくかかり、誤認識も多いが、本実施形態では、図1(b)に示すような特種の光学フィルタを構成し、各領域に適した視差計算ロジックを採用するので、ひとつのカメラ画像によって処理することができ、さらにエリアごとに処理方法を変えるので、図6(b)のようにCPU33と視差計算部31の処理を効率的に利用することができる。
すなわち、本実施形態は、クリアフィルタ対応領域を画面の1/3に設定しているため、視差計算部31による視差計算も、図6(a)の場合の1/3である1フレ−ムで処理を実行することができている。
図6(b)を参照すると、視差計算部31は、図5のステップS102、103の処理を1フレームで実行後、次のフレームでステップS111の処理を実行出来ているのが分かる。
このように、本実施形態の場合、処理の効率が極めて高い。
また、カラー画像の認識に加え、カラー情報を利用した距離計測も可能になる。
これは、上述したように、カラー画像が得意とする対象を画像認識し、そのエリアのみを視差計算するためである。
ただし、このような処理を実現するためには、各光学フィルタ撮像画像と認識手法にあわせた視差計算アルゴリズムの切替とパラメータの切替等が必要になる。
そして、一般に、全く異なる視差計算ロジックを適用する場合は、視差計算ハードウェア(視差計算部)内にそれぞれ別の視差計算実行ロジックを実装しなければならない。
認識対象の要求精度などによっては、通常のブロックマッチング・アルゴリズムを利用してもよいが、その場合でも、互いに光学特性が異なる画像に適用する場合、ブロックサイズの変更だけでは十分ではない。たとえばカラー画像領域では、画像はRGBなどのフィルタを通して画素に結像されるため、カラー補間されない画像を使う場合は各フィルタ分離画像の探索幅が変わり、また、カラー補間された画像を利用する場合は、補間後の画素情報量が異なるからである。
また、視差計算ロジックをそのエリアごとに効率的に適用させることができるようになり、不必要な処理演算を低減することができる。同時に、輝度情報を用いた視差計算を実行する領域を制限することができるため、視差計算部31の処理負荷を低減できるとともに、図3に示す視差計算部31、CPU23のコストダウンが可能になる。
さらに、雨滴用に別途センサを設けたり、カラー情報を利用するためにカラーカメラを別途も受けたり、処理負荷が大きいカラーステレオカメラを構成したりといった必要がなくなり、一体のステレオカメラで複数のアプリケーションが可能になり、結果、システムとして大きなコストダウンと省スペース化が可能となる。
これにより、認識すべき対象を整理し、その対象が見えるエリアを画像上で配置設定し、その認識に適した特種光学フィルタを構築し、この特種フィルタの画像特性と認識処理方法に応じて視差計算ロジックのアルゴリズムやパラメータ、さらに、画像間引き率や視差計算実行画素位置検出アルゴリズムを変更することで、誤認識の低減や認識対象の拡大といった性能の向上とともに、処理の高速化も図ることが可能になっている。
なお、本実施形態では2眼のステレオカメラにおいて説明しているが、同様の構成・原理が適用できるため、カメラを2台以上搭載した測距カメラ装置に適用することが出来る。また、カメラを1台のみ用いる、単眼カメラ装置に適用することも出来る。
図8は、本実施形態の距離計測装置を適用可能な車両を示す模式図である。
本実施形態の画像処理システムは、車両50前方の画像を取得するための撮像ユニット51と、取得した画像に基づいて車両50の前方に存在する他の車両までの距離を算出する等の処理を行う画像解析ユニット52を有している。撮像ユニット51は、車両50が走行する前方の画像を撮像できるように、座席のルームミラー位置等に設置されている。撮像ユニット51で撮像された車両前方の画像は、画像信号化されて画像解析ユニット52に入力される。画像解析ユニット52は、撮像ユニット51から出力された画像信号を解析する。
撮像ユニット51として、上記実施形態の基準カメラ、比較カメラよりなるステレオカメラを適用できる。
また、画像解析ユニット52の一部の機能として、上記実施形態の視差計算部31、CPU33適用することが出来る。
車両走行制御ユニット58は、画像解析ユニット52で計算された距離に基づいてハンドルやブレーキの制御も行うことが出来る。
Claims (6)
- 光学フィルタ及び撮像素子を備えた複数のカメラユニットと、前記各撮像素子が前記各光学フィルタを介して取得した撮影画像について画像処理を行う画像処理手段と、を備え、
前記光学フィルタは、
前記撮影画像の中央部に対応する領域に備えたクリアフィルタ領域と、前記撮影画像の上部に対応する領域に備えたカラーフィルタ領域と、を有し、
前記画像処理手段は、
前記撮影画像の前記クリアフィルタ領域に対応するクリア画像領域について複数の前記撮影画像間の視差計算を行うとともに、前記撮影画像の前記カラーフィルタ領域に対応するカラー画像領域について物体認識を行うことを特徴とする複眼カメラ装置。 - 請求項1に記載の複眼カメラ装置において、
前記画像処理手段は、
前記カラー画像領域について、前記クリア画像領域とは異なる視差計算方法によって、複数の前記撮影画像間の視差計算を行うことを特徴とする複眼カメラ装置。 - 請求項2に記載の複眼カメラ装置において、
前記画像処理手段は、
前記カラー画像領域について、前記クリア画像領域とは異なる画像情報を用いて視差計算を行うこと特徴とする複眼カメラ装置。 - 請求項2又は3に記載の複眼カメラ装置において、
前記画像処理手段は、
前記クリア画像領域について、前記カラー画像領域とは異なる画像認識方法によって物体認識を行うことを特徴とする複眼カメラ装置。 - 請求項4に記載の複眼カメラ装置において、
前記画像処理手段は、
前記クリア画像領域について、前記撮影画像における輝度情報又は前記撮影画像間の視差情報を利用して物体認識を行うとともに、前記カラー画像領域について、カラー情報を利用して物体認識を行うことを特徴とする複眼カメラ装置。 - 請求項1乃至5の何れか一項に記載の複眼カメラ装置を備えたことを特徴とする車両。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013001370A JP6197291B2 (ja) | 2012-03-21 | 2013-01-08 | 複眼カメラ装置、及びそれを備えた車両 |
ES13158677.8T ES2686047T3 (es) | 2012-03-21 | 2013-03-12 | Sistema de cámara multilente y método de telemetría ejecutado por el sistema de cámara multilente |
EP13158677.8A EP2642429B1 (en) | 2012-03-21 | 2013-03-12 | Multi-lens camera system and range-finding method executed by the multi-lens camera system |
CN201310084234.4A CN103322974B (zh) | 2012-03-21 | 2013-03-15 | 多透镜摄像机系统、安装多透镜摄像机系统的交通工具,以及由多透镜摄像机系统执行的测距方法 |
US13/845,860 US9420151B2 (en) | 2012-03-21 | 2013-03-18 | Multi-lens camera system, vehicle mounting the multi-lens camera system, and range-finding method executed by the multi-lens camera system |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063660 | 2012-03-21 | ||
JP2012063660 | 2012-03-21 | ||
JP2013001370A JP6197291B2 (ja) | 2012-03-21 | 2013-01-08 | 複眼カメラ装置、及びそれを備えた車両 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013225289A JP2013225289A (ja) | 2013-10-31 |
JP6197291B2 true JP6197291B2 (ja) | 2017-09-20 |
Family
ID=48013721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013001370A Active JP6197291B2 (ja) | 2012-03-21 | 2013-01-08 | 複眼カメラ装置、及びそれを備えた車両 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9420151B2 (ja) |
EP (1) | EP2642429B1 (ja) |
JP (1) | JP6197291B2 (ja) |
CN (1) | CN103322974B (ja) |
ES (1) | ES2686047T3 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5701785B2 (ja) * | 2012-02-03 | 2015-04-15 | 株式会社東芝 | カメラモジュール |
US9137517B2 (en) * | 2012-10-05 | 2015-09-15 | Blackberry Limited | Methods and devices for generating a stereoscopic image |
CN111024099B (zh) * | 2013-06-13 | 2023-10-27 | 移动眼视力科技有限公司 | 用于导航的移动装置、非暂时性机器可读介质和设备 |
JP5883833B2 (ja) * | 2013-08-05 | 2016-03-15 | 富士重工業株式会社 | 車外環境認識装置 |
KR20150042574A (ko) * | 2013-10-11 | 2015-04-21 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR101611261B1 (ko) * | 2013-12-12 | 2016-04-12 | 엘지전자 주식회사 | 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량 |
WO2015145543A1 (ja) * | 2014-03-24 | 2015-10-01 | 株式会社日立製作所 | 物体検出装置、物体検出方法、および移動ロボット |
US11243294B2 (en) | 2014-05-19 | 2022-02-08 | Rockwell Automation Technologies, Inc. | Waveform reconstruction in a time-of-flight sensor |
US20150334371A1 (en) * | 2014-05-19 | 2015-11-19 | Rockwell Automation Technologies, Inc. | Optical safety monitoring with selective pixel array analysis |
US9921300B2 (en) | 2014-05-19 | 2018-03-20 | Rockwell Automation Technologies, Inc. | Waveform reconstruction in a time-of-flight sensor |
US9696424B2 (en) | 2014-05-19 | 2017-07-04 | Rockwell Automation Technologies, Inc. | Optical area monitoring with spot matrix illumination |
JP6283105B2 (ja) * | 2014-05-28 | 2018-02-21 | 京セラ株式会社 | ステレオカメラ装置、ステレオカメラ装置を設置した車両及びプログラム |
EP3203725B1 (en) * | 2014-09-30 | 2022-01-26 | Hitachi Astemo, Ltd. | Vehicle-mounted image recognition device |
JP2016102733A (ja) * | 2014-11-28 | 2016-06-02 | 株式会社東芝 | レンズ及び撮影装置 |
CN118816908A (zh) * | 2015-02-10 | 2024-10-22 | 御眼视觉技术有限公司 | 用于自主车辆导航的稀疏地图 |
JP6562648B2 (ja) * | 2015-02-16 | 2019-08-21 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9794543B2 (en) | 2015-03-02 | 2017-10-17 | Ricoh Company, Ltd. | Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method |
JP6519355B2 (ja) * | 2015-06-30 | 2019-05-29 | 株式会社デンソー | カメラ装置及び車載システム |
WO2017047282A1 (ja) | 2015-09-15 | 2017-03-23 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
US9948857B2 (en) * | 2015-10-22 | 2018-04-17 | Samsung Electronics Co., Ltd. | Method and device for generating images |
EP3382639B1 (en) | 2015-11-27 | 2024-02-21 | Ricoh Company, Ltd. | Image processing device, image pickup device, apparatus control system, distribution data generation method, and program |
EP3385904A4 (en) | 2015-11-30 | 2018-12-19 | Ricoh Company, Ltd. | Image processing device, object recognition device, device conrol system, image processing method, and program |
US10635909B2 (en) * | 2015-12-30 | 2020-04-28 | Texas Instruments Incorporated | Vehicle control with efficient iterative triangulation |
JP6544257B2 (ja) * | 2016-02-09 | 2019-07-17 | 株式会社リコー | 情報処理システム、情報処理方法及び情報処理プログラム |
JP6800628B2 (ja) * | 2016-06-22 | 2020-12-16 | キヤノン株式会社 | 追跡装置、追跡方法、及びプログラム |
IT201600094858A1 (it) * | 2016-09-21 | 2018-03-21 | St Microelectronics Srl | Procedimento per un cross traffic alert avanzato a basso costo, corrispondente sistema di elaborazione, sistema per cross traffic alert e veicolo |
CN106355906B (zh) * | 2016-11-11 | 2018-12-11 | 安徽理工大学 | 利用凹镜成像聚焦原理调控红绿灯的方法 |
US10453208B2 (en) * | 2017-05-19 | 2019-10-22 | Waymo Llc | Camera systems using filters and exposure times to detect flickering illuminated objects |
JP6922705B2 (ja) * | 2017-12-06 | 2021-08-18 | トヨタ自動車株式会社 | センサー搭載構造 |
CN109314746B (zh) * | 2017-12-22 | 2021-08-10 | 深圳配天智能技术研究院有限公司 | 图像传感器及其获取图像的方法、智能设备 |
US10757320B2 (en) | 2017-12-28 | 2020-08-25 | Waymo Llc | Multiple operating modes to expand dynamic range |
WO2019181591A1 (ja) * | 2018-03-22 | 2019-09-26 | 日立オートモティブシステムズ株式会社 | 車載ステレオカメラ |
CN111829484B (zh) * | 2020-06-03 | 2022-05-03 | 江西江铃集团新能源汽车有限公司 | 基于视觉的目标距离测算方法 |
US20220100193A1 (en) * | 2020-09-25 | 2022-03-31 | Ford Global Technologies, Llc | Vehicle wheelchair loading system |
US11790665B2 (en) * | 2021-04-29 | 2023-10-17 | Hitachi Astemo, Ltd. | Data driven dynamically reconfigured disparity map |
JP7364269B2 (ja) * | 2022-03-15 | 2023-10-18 | Necプラットフォームズ株式会社 | 物体検知装置、画像処理表示方法及びプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
US6396397B1 (en) * | 1993-02-26 | 2002-05-28 | Donnelly Corporation | Vehicle imaging system with stereo imaging |
DE19524936C1 (de) * | 1995-07-08 | 1996-11-21 | Leica Ag | Vorrichtung zur Darstellung einer rotationssymmetrischen, gaußförmigen Intensitätsverteilung im Strahlenquerschnitt eines Strahlenbündels |
JP3691124B2 (ja) | 1995-08-23 | 2005-08-31 | フジノン株式会社 | 測距装置 |
JP4391624B2 (ja) * | 1999-06-16 | 2009-12-24 | 本田技研工業株式会社 | 物体認識装置 |
JP4641601B2 (ja) * | 2000-09-08 | 2011-03-02 | 富士通テン株式会社 | 画像処理装置および画像処理システム |
KR100903450B1 (ko) * | 2001-12-05 | 2009-06-18 | 하마마츠 포토닉스 가부시키가이샤 | 광 검출 장치, 촬상 장치 및 거리 화상 취득 장치 |
JP4275378B2 (ja) | 2002-09-27 | 2009-06-10 | 富士重工業株式会社 | ステレオ画像処理装置およびステレオ画像処理方法 |
JP4151890B2 (ja) | 2002-11-22 | 2008-09-17 | 富士重工業株式会社 | 車両監視装置および車両監視方法 |
JP2004239886A (ja) * | 2002-12-11 | 2004-08-26 | Fuji Xerox Co Ltd | 三次元画像撮像装置および方法 |
JP2005241340A (ja) | 2004-02-25 | 2005-09-08 | Sharp Corp | マルチ測距装置 |
GB0405014D0 (en) * | 2004-03-05 | 2004-04-07 | Qinetiq Ltd | Movement control system |
JP2006318059A (ja) * | 2005-05-10 | 2006-11-24 | Olympus Corp | 画像処理装置、画像処理方法、および画像処理用プログラム |
US8107000B2 (en) * | 2006-05-16 | 2012-01-31 | Panasonic Corporation | Image pickup apparatus and semiconductor circuit element |
JP4258539B2 (ja) * | 2006-08-31 | 2009-04-30 | 株式会社日立製作所 | 複数画角カメラ |
US8423003B2 (en) * | 2007-07-11 | 2013-04-16 | Yahoo! Inc. | System for serving targeted advertisements over mobile messaging services |
JP2009284188A (ja) * | 2008-05-22 | 2009-12-03 | Panasonic Corp | カラー撮像装置 |
JP5278819B2 (ja) * | 2009-05-11 | 2013-09-04 | 株式会社リコー | ステレオカメラ装置及びそれを用いた車外監視装置 |
JP2010276469A (ja) * | 2009-05-28 | 2010-12-09 | Konica Minolta Holdings Inc | 画像処理装置及び測距装置の画像処理方法 |
JP5440927B2 (ja) * | 2009-10-19 | 2014-03-12 | 株式会社リコー | 測距カメラ装置 |
JP5776173B2 (ja) | 2010-03-01 | 2015-09-09 | 株式会社リコー | 撮像装置及び距離測定装置 |
-
2013
- 2013-01-08 JP JP2013001370A patent/JP6197291B2/ja active Active
- 2013-03-12 ES ES13158677.8T patent/ES2686047T3/es active Active
- 2013-03-12 EP EP13158677.8A patent/EP2642429B1/en active Active
- 2013-03-15 CN CN201310084234.4A patent/CN103322974B/zh active Active
- 2013-03-18 US US13/845,860 patent/US9420151B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013225289A (ja) | 2013-10-31 |
US20130250109A1 (en) | 2013-09-26 |
CN103322974A (zh) | 2013-09-25 |
EP2642429A3 (en) | 2015-09-02 |
CN103322974B (zh) | 2017-09-22 |
ES2686047T3 (es) | 2018-10-16 |
US9420151B2 (en) | 2016-08-16 |
EP2642429B1 (en) | 2018-07-11 |
EP2642429A2 (en) | 2013-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6197291B2 (ja) | 複眼カメラ装置、及びそれを備えた車両 | |
JP5399027B2 (ja) | 自動車の運転を支援するための、立体画像を捕捉することができるシステムを有するデバイス | |
JP6274557B2 (ja) | 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム | |
JP6013884B2 (ja) | 物体検出装置及び物体検出方法 | |
JP4654163B2 (ja) | 車両の周囲環境認識装置及びシステム | |
JP6376429B2 (ja) | 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体 | |
JP5480917B2 (ja) | 車両周辺監視装置 | |
EP2928178B1 (en) | On-board control device | |
JP5999127B2 (ja) | 画像処理装置 | |
WO2010047054A1 (ja) | 車両の周辺監視装置 | |
WO2015163078A1 (ja) | 外界認識装置 | |
JP4528283B2 (ja) | 車両周辺監視装置 | |
US20200074212A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP2014006885A (ja) | 段差認識装置、段差認識方法及び段差認識用プログラム | |
US9870513B2 (en) | Method and device for detecting objects from depth-resolved image data | |
JP6756908B2 (ja) | 車両周囲の歩行者を検出する方法及び装置 | |
JP5073700B2 (ja) | 物体検出装置 | |
JP4887537B2 (ja) | 車両周辺監視装置 | |
EP3410345B1 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
JP2017129543A (ja) | ステレオカメラ装置及び車両 | |
JP2010092353A (ja) | 画像処理装置及び画像処理方法 | |
JP6701905B2 (ja) | 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム | |
WO2017154305A1 (ja) | 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム | |
JP2014016981A (ja) | 移動面認識装置、移動面認識方法及び移動面認識用プログラム | |
JP7229032B2 (ja) | 車外物体検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170807 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6197291 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |