[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6764573B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP6764573B2
JP6764573B2 JP2017543145A JP2017543145A JP6764573B2 JP 6764573 B2 JP6764573 B2 JP 6764573B2 JP 2017543145 A JP2017543145 A JP 2017543145A JP 2017543145 A JP2017543145 A JP 2017543145A JP 6764573 B2 JP6764573 B2 JP 6764573B2
Authority
JP
Japan
Prior art keywords
unit
camera
image
vehicle
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017543145A
Other languages
English (en)
Other versions
JPWO2017057057A1 (ja
Inventor
江島 公志
公志 江島
貝野 彰彦
彰彦 貝野
嵩明 加藤
嵩明 加藤
辰吾 鶴見
辰吾 鶴見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017057057A1 publication Critical patent/JPWO2017057057A1/ja
Application granted granted Critical
Publication of JP6764573B2 publication Critical patent/JP6764573B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Description

本開示は、画像処理装置、画像処理方法、およびプログラムに関し、特に、カメラのキャリブレーションの必要性の有無を判定することができるようにした画像処理装置、画像処理方法、およびプログラムに関する。
複数のカメラにより撮像された画像を連携させて画像処理を行う際、カメラどうしの3次元位置および向き(姿勢)の関係を高精度で制御することは重要である。また、カメラどうしの3次元位置や向きの関係は、衝撃、温度、経年等によって変化するため、これらの関係の制御パラメータは定期的に更新する必要がある。
カメラどうしの3次元位置や向きの関係が所定の関係となるように制御する方法として、カメラにより撮像された画像を補正する方法が知られている。画像の補正に用いられるパラメータを決定する方法、即ちカメラをキャリブレーションする方法としては、例えば各カメラで特定パターンを撮像し、その結果得られる画像が所望の画像となるように補正するためのパラメータを求める方法がある。この方法では、特定パターンを撮像する必要があるため、定期的にパラメータを更新することは困難である。
そこで、特定パターンを用いずに、通常使用時に複数のカメラにより撮像された画像を用いて、各画像内の既知物体の類似度が高くなるようにパラメータを決定する方法が考案されている(例えば、特許文献1参照)。この方法では、通常使用時にパラメータを決定することができるため、定期的にパラメータを更新することができる。また、任意のシーンを撮像することによりパラメータを決定する方法も考案されている。
特開2012−75060号公報
ところで、カメラのキャリブレーションの処理量は比較的多い。従って、カメラのキャリブレーションの必要性の有無を判定し、必要時にのみカメラのキャリブレーションを行うことにより、処理量を削減することが望まれている。
本開示は、このような状況に鑑みてなされたものであり、カメラのキャリブレーションの必要性の有無を判定することができるようにするものである。
本開示の一側面の画像処理装置は、第1の時刻に第1の撮像部により撮像された第1の画像と、前記第1の時刻より後の第2の時刻に前記第1の撮像部により撮像された第2の画像とを用いて、車両に搭載された前記第1の撮像部の、前記第1の時刻と前記第2の時刻の間の3次元位置および向きの移動量を推定する移動量推定部と、推定された前記移動量と、前記車両の速度計により計測された前記車両の速度とに基づいて、前記第1の撮像部のキャリブレーションの必要性の有無を判定する判定部を備える画像処理装置である。
本開示の一側面の画像処理方法およびプログラムは、本開示の一側面の画像処理装置に対応する。
本開示の一側面においては、第1の時刻に第1の撮像部により撮像された第1の画像と、前記第1の時刻より後の第2の時刻に前記第1の撮像部により撮像された第2の画像とを用いて、車両に搭載された前記第1の撮像部の、前記第1の時刻と前記第2の時刻の間の3次元位置および向きの移動量が推定され、推定された前記移動量と、前記車両の速度計により計測された前記車両の速度とに基づいて、前記第1の撮像部のキャリブレーションの必要性の有無が判定される。
本開示の一側面によれば、画像処理を行うことができる。また、本開示の一側面によれば、カメラのキャリブレーションの必要性の有無を判定することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した車載カメラシステムの第1実施の形態の概要を示す図である。 図1の車両に搭載される画像処理装置の構成例を示すブロック図である。 図2の移動量推定部の構成例を示すブロック図である。 図2の位置検出部の構成例を示すブロック図である。 図2の画像処理装置の画像処理を説明するフローチャートである。 図5のキャリブレーション判定処理の詳細を説明するフローチャートである。 図5のカメラ関係認識処理の詳細を説明するフローチャートである。 本開示を適用した車載カメラシステムの第2実施の形態の概要を示す図である。 図8の車載カメラシステムの位置検出部の構成例を示すブロック図である。 本開示を適用した車載カメラシステムの第3実施の形態の概要を示す図である。 本開示を適用した車載カメラシステムの第4実施の形態の概要を示す図である。 図11の車両に搭載される画像処理装置の構成例を示すブロック図である。 図12の画像処理装置のキャリブレーション判定処理を説明するフローチャートである。 本開示を適用した車載カメラシステムの第5実施の形態の概要を示す図である。 コンピュータのハードウエアの構成例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1実施の形態:車載カメラシステム(図1乃至図7)
2.第2実施の形態:車載カメラシステム(図8および図9)
3.第3実施の形態:車載カメラシステム(図10)
4.第4実施の形態:車載カメラシステム(図11乃至図13)
5.第5実施の形態:車載カメラシステム(図14)
6.第6実施の形態:コンピュータ(図15)
7.第7実施の形態:車両制御システム(図16および図17)
<第1実施の形態>
(車載カメラシステムの第1実施の形態の概要)
図1は、本開示を適用した車載カメラシステムの第1実施の形態の概要を示す図である。
図1の車載カメラシステム10は、自動車の車両11、カメラ12、カメラ13等により構成される。なお、本明細書では、通常運転時の車両11の進行方向に向かって、前方、後方、右側、左側を、それぞれ、車両11の前方、後方、右側、左側という。
カメラ12(第1の撮像部)とカメラ13(第2の撮像部)は、車両11の屋根の前方に、撮像領域が重複するように搭載される。図1の例では、カメラ12とカメラ13の撮像領域に、車両11の前方の既知物体である道路標識21が含まれている。
第1実施の形態では、道路標識21が既知物体とされるが、既知物体は、サイズおよび形状が既知の物体であれば、道路標識以外の道路上の物体、または、ナンバープレート、エンブレムなどの車両11または他の車両が有する物体などであってもよい。
車両11に搭載された図示せぬ画像処理装置は、カメラ12とカメラ13それぞれに対する道路標識21の3次元位置および向きを推定する。
なお、カメラ12(カメラ13)に対する3次元位置とは、例えば、カメラ12(カメラ13)の撮像面の所定の位置(例えば中央)を原点とし、その撮像面の水平方向および垂直方向、並びに、撮像面に垂直な方向を、それぞれ、x方向、y方向、z方向としたときの、x方向、y方向、およびz方向の位置である。また、カメラ12(カメラ13)に対する向きとは、例えば、このx方向、y方向、およびz方向を軸としたときの回転角である。
画像処理装置は、カメラ12とカメラ13それぞれに対する道路標識21の3次元位置および向きに基づいて、カメラ12とカメラ13の3次元位置および向きの関係を認識し、その関係に基づいてカメラ12とカメラ13のキャリブレーションを行う。
カメラ12とカメラ13の3次元位置の関係とは、例えば、カメラ12またはカメラ13の一方の撮像面の所定の位置(例えば中央)を原点とし、その撮像面の水平方向および垂直方向、並びに、撮像面に垂直な方向を、それぞれ、x方向、y方向、z方向としたときの、他方の撮像面の所定の位置のx方向、y方向、およびz方向の位置である。また、カメラ12とカメラ13の向きの関係とは、例えば、このx方向、y方向、およびz方向を軸としたときの他方の撮像面の回転角である。
(画像処理装置の構成例)
図2は、図1の車両11に搭載される画像処理装置の構成例を示すブロック図である。
図2の画像処理装置40は、移動量推定部41、判定部42、移動量推定部43、判定部44、位置検出部45、および補正部46により構成される。
画像処理装置40には、カメラ12およびカメラ13により撮像された画像が入力される。カメラ12により撮像された画像は、移動量推定部41、移動量推定部43、位置検出部45、および補正部46に供給され、カメラ13により撮像された画像は、移動量推定部41、移動量推定部43、位置検出部45、および補正部46に供給される。また、画像処理装置40には、カメラ12およびカメラ13のそれぞれから、撮像パラメータが入力され、位置検出部45に供給される。
なお、撮像パラメータとは、例えば、焦点距離、画素サイズなどに基づいて算出される水平方向および垂直方向の拡大率などの内部パラメータであり、画像上の位置を実世界の3次元空間上の位置に変換する際に用いられるパラメータである。内部パラメータの詳細は、例えば、特許文献1に記載されている。
画像処理装置40の移動量推定部41は、カメラ12から供給される異なる時刻(フレーム)の画像を用いて、その時刻の間のカメラ12の3次元位置および向きの移動量を推定し、判定部42に供給する。
判定部42は、移動量推定部41から供給される移動量と、車両11に搭載された図示せぬ速度計により計測された車両11の速度とに基づいて、カメラ12のキャリブレーションの必要性の有無を判定する。判定部42は、判定結果を位置検出部45と補正部46に供給する。
移動量推定部43は、カメラ13から供給される異なる時刻の画像を用いて、その時刻の間のカメラ13の3次元位置および向きの移動量を推定し、判定部44に供給する。
判定部44は、移動量推定部43から供給される移動量と、車両11に搭載された図示せぬ速度計により計測された車両11の速度とに基づいて、カメラ13のキャリブレーションの必要性の有無を判定する。判定部44は、判定結果を位置検出部45と補正部46に供給する。
位置検出部45は、判定部42と判定部44の少なくとも一方から供給される判定結果が必要性有りという判定結果である場合、カメラ12とカメラ13から供給される画像に含まれる共通の既知物体として道路標識21を検出する。
そして、位置検出部45は、カメラ12およびカメラ13のそれぞれから供給される撮像パラメータに基づいて、カメラ12およびカメラ13それぞれに対する道路標識21の3次元位置および向きを推定する。位置検出部45は、その3次元位置および向きに基づいてカメラ12とカメラ13の3次元位置および向きの関係を認識する。位置検出部45は、その関係を補正部46に供給する。
補正部46は、位置検出部45から供給されるカメラ12とカメラ13の関係と、判定部42および判定部44から供給される判定結果とに基づいて、カメラ12とカメラ13の少なくとも一方の画像の補正に用いられる補正パラメータを決定し、保持(更新)する。補正部46は、保持されている補正パラメータを用いて、カメラ12とカメラ13から供給される画像を補正し、補正後の画像を出力する。また、保持されているカメラ12の補正パラメータは、移動量推定部41により読み出され、カメラ12の移動量を推定する際に用いられる。保持されているカメラ13の補正パラメータは、移動量推定部43により読み出され、カメラ13の移動量を推定する際に用いられる。
補正パラメータは、例えば、カメラ12とカメラ13の向き、並びに、y方向およびz方向の位置が同一になるように決定することができる。この場合、カメラ12とカメラ13により撮像された画像は、補正部46の補正により平行になる。
(移動量推定部の構成例)
図3は、図2の移動量推定部41の構成例を示すブロック図である。
移動量推定部41は、画像補正部61、画像補正部62、特徴点検出部63、視差検出部64、位置算出部65、特徴量算出部66、マップ情報記憶部67、動きマッチング部68、および移動量算出部69により構成される。
画像補正部61は、図2の補正部46に保持されているカメラ12の補正パラメータに基づいて、カメラ12から供給される画像を、カメラ13から供給される画像と同じ方向を向いた画像となるように補正する。画像補正部61は、補正後の画像を左画像として視差検出部64と動きマッチング部68に供給する。
画像補正部62は、図2の補正部46に保持されているカメラ13の補正パラメータに基づいて、カメラ13から供給される画像を、カメラ12から供給される画像と同じ方向を向いた画像となるように補正する。画像補正部62は、補正後の画像を右画像として特徴点検出部63に供給する。
特徴点検出部63は、画像補正部62から供給される右画像の特徴点を検出する。特徴点検出部63は、検出された各特徴点の右画像上の位置を示す右特徴点位置情報と右画像を、視差検出部64および特徴量算出部66に供給する。
視差検出部64は、特徴点検出部63から供給される右特徴点位置情報と右画像とに基づいて、画像補正部61から供給される左画像から、右画像の各特徴点に対応する特徴点を検出する。視差検出部64は、検出された各特徴点の左画像上の位置を示す左特徴点位置情報と右特徴点位置情報を位置算出部65に供給する。また、視差検出部64は、特徴点ごとに、右特徴点位置情報が示す位置と左特徴点位置情報が示す位置との差をステレオ視差として検出し、各特徴点のステレオ視差を位置算出部65に供給する。
位置算出部65は、視差検出部64から供給されるステレオ視差、右特徴点位置情報、および左特徴点位置情報に基づいて、各特徴点の実世界の3次元空間上の位置を算出する。位置算出部65は、各特徴点の実世界の3次元空間上の位置を示す3次元位置情報を特徴量算出部66に供給する。
特徴量算出部66は、特徴点検出部63から供給される右特徴点位置情報と右画像に基づいて、各特徴点の特徴量を算出する。特徴量算出部66は、各特徴点の3次元位置情報と特徴量を含む特徴点情報を、マップ情報記憶部67に記憶させる。
動きマッチング部68は、過去の左画像および右画像から検出された各特徴点の特徴点情報をマップ情報記憶部67から読み出す。動きマッチング部68は、読み出された特徴点情報に含まれる各特徴点の特徴量に基づいて、画像補正部61から供給される現在の左画像から、その特徴点に対応する特徴点を検出する。動きマッチング部68は、読み出された特徴点情報に含まれる各特徴点の3次元位置情報と、その特徴点に対応する左特徴点位置情報を、移動量算出部69に供給する。
移動量算出部69は、動きマッチング部68から供給される過去の各特徴点の3次元位置情報と、その特徴点に対応する現在の特徴点の左特徴点位置情報とに基づいて、フレーム間のカメラ12の3次元位置および向きの移動量を推定する。移動量算出部69は、推定された移動量を図2の判定部42に供給する。
なお、図3の移動量推定部41では、ステレオ視差に基づいて各特徴点の3次元位置が算出されるようにしたが、移動視差に基づいて各特徴点の3次元位置が算出されるようにしてもよい。この場合、視差検出部64は、異なる時刻の左画像(右画像)を用いて、左画像(右画像)の各特徴点の移動視差を検出する。そして、位置算出部65は、視差検出部64により検出された移動視差と左特徴点位置情報(右特徴点位置情報)に基づいて、各特徴点の3次元位置を算出する。
また、図示は省略するが、移動量推定部43の構成は、動きマッチング部68に左画像ではなく右画像が入力される点を除いて、図3の移動量推定部41の構成と同様である。なお、ここでは、移動量推定部41および判定部42と、移動量推定部43および判定部44が、別々に設けられ、カメラ12とカメラ13のキャリブレーションの必要性の有無が別々に判定されるようにするが、移動量推定部41が図3で示すように構成される場合、カメラ12およびカメラ13のキャリブレーションの必要性の判定結果は同一になるため、移動量推定部41および判定部42のみが設けられるようにしてもよい。この場合、判定部42は、移動量推定部41から供給される移動量と、車両11に搭載された図示せぬ速度計により計測された車両11の速度とに基づいて、カメラ12およびカメラ13の両方のキャリブレーションの必要性の有無を判定する。また、移動量推定部41は、ステレオ視差ではなく、移動視差を用いて移動量を推定するようにしてもよい。この場合には、移動量推定部41および判定部42と、移動量推定部43および判定部44は、別々に設けられ、カメラ12とカメラ13のキャリブレーションの必要性の有無が別々に判定される。
(位置検出部の構成例)
図4は、図2の位置検出部45の構成例を示すブロック図である。
図4の位置検出部45は、辞書部80、特徴点検出部81、マッチング部82、推定部83、特徴点検出部84、マッチング部85、推定部86、および認識部87により構成される。
辞書部80は、既知物体である道路標識21の複数の特徴点の特徴量を保持する。
特徴点検出部81は、図2の判定部42と判定部44から供給される判定結果に応じて、カメラ12から供給される画像から特徴点を検出し、既知物体の特徴点の候補とする。特徴点検出部81は、既知物体の特徴点の候補の特徴量と画像上の2次元位置をマッチング部82に供給する。
マッチング部82は、辞書部80から道路標識21の複数の特徴点の特徴量を読み出す。マッチング部82は、読み出された道路標識21の特徴点ごとに、その特徴点の特徴量と、特徴点検出部81から供給される特徴点の候補の特徴量のマッチングを行い、類似度が最も高い特徴点の候補を、道路標識21の特徴点として選択する。マッチング部82は、選択された道路標識21の特徴点の画像上の2次元位置を推定部83に供給する。
但し、例えば、道路標識21の特徴点のうちの所定数以上の特徴点について、最も高い類似度が閾値以下である場合には、マッチング部82は、カメラ12から供給される画像内に道路標識21は存在しないと判断し、推定部83には何も供給しない。
推定部83は、マッチング部82から供給される道路標識21の各特徴点の画像上の2次元位置と、カメラ12から供給される撮像パラメータとに基づいて、カメラ12に対する道路標識21の各特徴点の3次元位置を求める。推定部83は、カメラ12に対する道路標識21の各特徴点の3次元位置に基づいて、カメラ12に対する道路標識21の3次元位置と向きを推定し、認識部87に供給する。
特徴点検出部84は、図2の判定部42と判定部44から供給される判定結果に応じて、カメラ13から供給される画像から特徴点を検出し、既知物体の特徴点の候補とする。特徴点検出部84は、既知物体の特徴点の候補の特徴量と画像上の2次元位置をマッチング部85に供給する。
マッチング部85は、辞書部80から道路標識21の複数の特徴点の特徴量を読み出す。マッチング部85は、読み出された道路標識21の特徴点ごとに、その特徴点の特徴量と、特徴点検出部84から供給される特徴点の候補の特徴量のマッチングを行い、類似度が最も高い特徴点の候補を、道路標識21の特徴点として選択する。マッチング部85は、選択された道路標識21の特徴点の画像上の2次元位置を推定部86に供給する。
但し、例えば、道路標識21の特徴点のうちの所定数以上の特徴点について、最も高い類似度が閾値以下である場合には、マッチング部85は、カメラ13から供給される画像内に道路標識21は存在しないと判断し、推定部86には何も供給しない。
推定部86は、マッチング部82から供給される道路標識21の各特徴点の画像上の2次元位置と、カメラ13から供給される撮像パラメータとに基づいて、カメラ13に対する道路標識21の各特徴点の3次元位置を求める。推定部86は、カメラ13に対する道路標識21の各特徴点の3次元位置に基づいて、カメラ13に対する道路標識21の3次元位置と向きを推定し、認識部87に供給する。
認識部87は、推定部83からのカメラ12に対する道路標識21の3次元位置および向き、並びに、推定部86からのカメラ13に対する道路標識21の3次元位置および向きに基づいて、カメラ12とカメラ13の3次元位置および向きの関係を認識する。認識部87は、認識されたカメラ12とカメラ13の3次元位置および向きの関係を、図2の補正部46に供給する。
(画像処理装置の処理の説明)
図5は、図2の画像処理装置40の画像処理を説明するフローチャートである。この画像処理は、例えば、カメラ12およびカメラ13により撮像された画像が画像処理装置40に入力されたとき、開始される。
図5のステップS11において、画像処理装置40は、カメラ12およびカメラ13のキャリブレーションの必要性の有無を判定するキャリブレーション判定処理を行う。このキャリブレーション判定処理の詳細は、後述する図6を参照して説明する。
ステップS12において、位置検出部45は、判定部42および判定部44から供給される判定結果に基づいて、カメラ12とカメラ13のうちの少なくとも1つのキャリブレーションが必要であるかどうかを判定する。
具体的には、判定部42と判定部44の少なくとも一方から供給される判定結果が必要性有りという判定結果である場合、位置検出部45は、カメラ12とカメラ13のうちの少なくとも1つのキャリブレーションが必要であると判定する。一方、判定部42と判定部44の両方から供給される判定結果が必要無しという判定結果である場合、位置検出部45は、カメラ12とカメラ13のうちの両方のキャリブレーションが必要ないと判定する。
ステップS12でカメラ12とカメラ13のうちの少なくとも1つのキャリブレーションが必要であると判定された場合、ステップS13において、位置検出部45は、カメラ12とカメラ13の3次元位置および向きの関係を認識するカメラ関係認識処理を行う。このカメラ関係認識処理の詳細は、後述する図7を参照して説明する。
ステップS14において、補正部46は、判定部42から供給される判定結果に基づいて、カメラ12のキャリブレーションが必要であるかどうかを判定する。
ステップS14でカメラ12のキャリブレーションが必要であると判定された場合、処理はステップS15に進む。ステップS15において、補正部46は、位置検出部45から供給されるカメラ12とカメラ13の3次元位置および向きの関係に基づいて、カメラ12の画像の補正に用いられる補正パラメータを決定し、保持(更新)する。そして、処理はステップS16に進む。
一方、ステップS14でカメラ12のキャリブレーションが必要ではないと判定された場合、処理はステップS16に進む。
ステップS16において、補正部46は、判定部44から供給される判定結果に基づいて、カメラ13のキャリブレーションが必要であるかどうかを判定する。
ステップS16でカメラ13のキャリブレーションが必要であると判定された場合、処理はステップS17に進む。ステップS17において、補正部46は、位置検出部45から供給されるカメラ13とカメラ13の3次元位置および向きの関係に基づいて、カメラ13の画像の補正に用いられる補正パラメータを決定し、保持(更新)する。そして、処理はステップS18に進む。
一方、ステップS16でカメラ13のキャリブレーションが必要ではないと判定された場合、処理はステップS18に進む。
また、ステップS12でカメラ12とカメラ13のうちの両方のキャリブレーションが必要ないと判定された場合、処理はステップS18に進む。
ステップS18において、補正部46は、保持されている補正パラメータを用いて、カメラ12とカメラ13から供給される画像を補正し、補正後の画像を出力して、処理を終了する。
図6は、図5のステップS11のキャリブレーション判定処理のうちの、カメラ12のキャリブレーションの必要性の有無を判定するカメラ12のキャリブレーション判定処理の詳細を説明するフローチャートである。
図6のステップS31において、画像補正部61は、図2の補正部46に保持されているカメラ12の補正パラメータに基づいて、カメラ12から供給される画像を、カメラ13から供給される画像と同じ方向を向いた画像となるように補正する。画像補正部61は、補正後の画像を左画像として視差検出部64と動きマッチング部68に供給する。また、画像補正部62は、図2の補正部46に保持されているカメラ13の補正パラメータに基づいて、カメラ13から供給される画像を、カメラ12から供給される画像と同じ方向を向いた画像となるように補正する。画像補正部62は、補正後の画像を右画像として特徴点検出部63に供給する。
ステップS32において、特徴点検出部63は、画像補正部62から供給される右画像の特徴点を検出する。特徴点検出部63は、検出された各特徴点の右特徴点位置情報と右画像を、視差検出部64および特徴量算出部66に供給する。
ステップS33において、視差検出部64は、特徴点検出部63から供給される右特徴点位置情報と右画像とに基づいて、画像補正部61から供給される左画像から、右画像の各特徴点に対応する特徴点を検出する。視差検出部64は、検出された各特徴点の左特徴点位置情報と右特徴点位置情報を位置算出部65に供給する。
ステップS34において、視差検出部64は、特徴点ごとに、右特徴点位置情報が示す位置と左特徴点位置情報が示す位置との差をステレオ視差として検出し、各特徴点のステレオ視差を位置算出部65に供給する。
ステップS35において、位置算出部65は、視差検出部64から供給されるステレオ視差、右特徴点位置情報、および左特徴点位置情報に基づいて、各特徴点の実世界の3次元空間上の位置を算出する。位置算出部65は、各特徴点の3次元位置情報を特徴量算出部66に供給する。
ステップS36において、特徴量算出部66は、特徴点検出部63から供給される右特徴点位置情報と右画像に基づいて、各特徴点の特徴量を算出する。
ステップS37において、特徴量算出部66は、各特徴点の3次元位置情報と特徴量を含む特徴点情報を、マップ情報記憶部67に供給し、記憶させる。
ステップS38において、動きマッチング部68は、過去の左画像および右画像から検出された各特徴点の特徴点情報をマップ情報記憶部67から読み出す。
ステップS39において、動きマッチング部68は、読み出された特徴点情報に含まれる各特徴点の特徴量に基づいて、画像補正部61から供給される現在の左画像から、その特徴点に対応する特徴点を検出する。動きマッチング部68は、読み出された特徴点情報に含まれる各特徴点の3次元位置情報と、その特徴点に対応する左特徴点位置情報を、移動量算出部69に供給する。
ステップS40において、移動量算出部69は、動きマッチング部68から供給される3次元位置情報と左特徴点位置情報に基づいて、フレーム間のカメラ12の3次元位置および向きの移動量を推定する。移動量算出部69は、推定された移動量を判定部42に供給する。
ステップS41において、判定部42は、移動量推定部41から供給されるカメラ12の移動量と、車両11に搭載された図示せぬ速度計により計測された車両11の速度とに基づいて、カメラ12のキャリブレーションの必要性の有無を判定する。判定部42は、判定結果を位置検出部45と補正部46に供給する。
なお、キャリブレーション判定処理のうちの、カメラ13のキャリブレーションの必要性の有無を判定するカメラ13のキャリブレーション判定処理は、ステップS39乃至S41の処理を除いて、図6のカメラ12のキャリブレーション判定処理と同様であるので、図示は省略する。
カメラ13のキャリブレーション判定処理では、ステップS39において右画像から特徴点が検出され、ステップS40において、カメラ13の3次元位置および向きの移動量が推定され、ステップS41において、カメラ13のキャリブレーションの必要性の有無が判定される。
図7は、図5のステップS13のカメラ関係認識処理の詳細を説明するフローチャートである。
図7のステップS51において、特徴点検出部81(図4)は、カメラ12から供給される画像から特徴点を検出し、道路標識21の特徴点の候補とする。特徴点検出部81は、道路標識21の特徴点の候補の特徴量と画像上の2次元位置をマッチング部82に供給する。
ステップS52において、マッチング部82は、辞書部80に特徴量が保持されている道路標識21の特徴点ごとに、その特徴点の特徴量と、特徴点検出部81から供給される道路標識21の特徴点の候補の特徴量のマッチングを行う。マッチング部82は、マッチングの結果得られる類似度が最も高い道路標識21の特徴点の候補を、道路標識21の特徴点として選択する。
ステップS53において、マッチング部82は、カメラ12から供給される画像に道路標識が含まれているかどうかを判定する。例えば、マッチング部82は、選択された道路標識21の特徴点のうち、類似度が閾値以下である特徴点の数が所定数より少ない場合、カメラ12から供給される画像に道路標識が含まれていると判定し、所定数以上である場合、道路標識が含まれていないと判定する。
ステップS53でカメラ12から供給される画像に道路標識が含まれていると判定された場合、マッチング部82は、選択された道路標識21の特徴点の画像上の2次元位置を推定部83に供給する。
そして、ステップS54において、推定部83は、マッチング部82から供給される道路標識21の特徴点の画像上の2次元位置と、カメラ12から供給される撮像パラメータとに基づいて、カメラ12に対する道路標識21の3次元位置と向きを推定する。推定部83は、推定されたカメラ12に対する道路標識21の3次元位置と向きを認識部87に供給する。
ステップS55において、特徴点検出部84は、カメラ13から供給される画像から特徴点を検出し、道路標識21の特徴点の候補とする。特徴点検出部84は、道路標識21の特徴点の候補の特徴量と画像上の2次元位置をマッチング部85に供給する。
ステップS56において、マッチング部85は、辞書部80に特徴量が保持されている道路標識21の特徴点ごとに、その特徴点の特徴量と、特徴点検出部84から供給される道路標識21の特徴点の候補の特徴量のマッチングを行う。マッチング部85は、マッチングの結果得られる類似度が最も高い道路標識21の特徴点の候補を、道路標識21の特徴点として選択する。
ステップS57において、マッチング部85は、マッチング部82と同様に、カメラ13から供給される画像に道路標識が含まれているかどうかを判定する。ステップS57でカメラ13から供給される画像に道路標識が含まれていると判定された場合、マッチング部85は、選択された道路標識21の特徴点の画像上の2次元位置を推定部86に供給する。
そして、ステップS58において、推定部86は、マッチング部85から供給される道路標識21の特徴点の画像上の2次元位置と、カメラ13から供給される撮像パラメータとに基づいて、カメラ13に対する道路標識21の3次元位置と向きを推定する。推定部83は、推定されたカメラ13に対する道路標識21の3次元位置と向きを認識部87に供給する。
ステップS59において、認識部87は、道路標識21のカメラ12に対する3次元位置および向きと、道路標識21のカメラ13に対する3次元位置および向きとに基づいて、カメラ12とカメラ13の3次元位置および向きの関係を認識する。認識部87は、認識されたカメラ12とカメラ13の3次元位置および向きの関係を、図2の補正部46に供給する。そして、処理は図5のステップS13に戻り、ステップS14に進む。
一方、ステップS53でカメラ12から供給される画像に道路標識が含まれていないと判定された場合、または、ステップS57でカメラ13から供給される画像に道路標識が含まれていないと判定された場合、処理は図5のステップS18に進む。
以上のように、画像処理装置40は、車載カメラシステム10の通常使用時にカメラ12およびカメラ13により撮像される機会が多い、適度に道路上に存在する既知物体である道路標識21のカメラ12およびカメラ13それぞれに対する3次元位置を推定する。そして、画像処理装置40は、その3次元位置に基づいてカメラ12およびカメラ13の位置の関係を認識し、その関係に基づいてカメラ12およびカメラ13のキャリブレーションを行う。
従って、特定のパターンの撮像といった特別な環境や器具を要するキャリブレーションに比べて、カメラ12およびカメラ13のキャリブレーションの頻度を高めることができる。また、撮影環境の影響を受けにくいため、高精度のカメラ12およびカメラ13のキャリブレーションを行うことができる。さらに、少ない処理量でカメラ12およびカメラ13のキャリブレーションを行うことができる。
また、画像処理装置40は、カメラ12(カメラ13)により異なる時刻に撮像された画像を用いてカメラ12(カメラ13)の移動量を推定し、その移動量に基づいてカメラ12(カメラ13)のキャリブレーションの必要性の有無を判定する。
従って、カメラ12(カメラ13)の3次元位置または向きにずれが発生した場合にのみ、カメラ12(カメラ13)に対してキャリブレーションを行うことができる。その結果、画像処理装置40の消費電力、画像処理装置40を実現する処理プロセッサの性能や個数等を削減することができる。
<第2実施の形態>
(車載カメラシステムの第2実施の形態の概要)
図8は、本開示を適用した車載カメラシステムの第2実施の形態の概要を示す図である。
図8に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図8の車載カメラシステム100の構成は、既知物体が道路標識21とナンバープレート111の2つである点が、図1の車載カメラシステム10の構成と異なる。
車両11に搭載された図示せぬ画像処理装置は、カメラ12とカメラ13それぞれに対する道路標識21およびナンバープレート111の3次元位置および向きを推定する。そして、画像処理装置は、カメラ12とカメラ13それぞれに対する道路標識21およびナンバープレート111の3次元位置および向きと、その3次元位置および向きの推定精度とに基づいて、カメラ12とカメラ13の3次元位置および向きの関係を認識する。画像処理装置は、その関係に基づいてカメラ12とカメラ13のキャリブレーションを行う。
第2実施の形態の画像処理装置の構成は、位置検出部45の構成を除いて図2の画像処理装置40の構成と同様である。従って、以下では、位置検出部45についてのみ説明する。
(位置検出部の構成例)
図9は、車載カメラシステム100の位置検出部45の構成例を示すブロック図である。
図9に示す構成のうち、図4の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図9の位置検出部45の構成は、辞書部80、マッチング部82、推定部83、マッチング部85、推定部86、認識部87の代わりに、辞書部120、マッチング部122、推定部123、マッチング部125、推定部126、認識部127が設けられる点が、図4の構成と異なる。
辞書部120は、既知物体である道路標識21とナンバープレート111の複数の特徴点の特徴量を保持する。
マッチング部122は、辞書部120から道路標識21とナンバープレート111の複数の特徴点の特徴量を読み出す。マッチング部122は、図4のマッチング部82と同様に、読み出された道路標識21の特徴点ごとに、特徴点検出部81から供給される特徴点の候補から、道路標識21の特徴点を選択する。
また、マッチング部122は、読み出されたナンバープレート111の特徴点ごとに、その特徴点の特徴量と、特徴点検出部81から供給される特徴点の候補の特徴量のマッチングを行う。マッチング部122は、マッチングの結果得られる類似度が最も高い特徴点の候補を、ナンバープレート111の特徴点として選択する。
マッチング部122は、選択された道路標識21の特徴点およびナンバープレート111の特徴点の画像上の2次元位置を推定部123に供給する。また、マッチング部122は、選択された道路標識21の特徴点およびナンバープレート111の特徴点に対応する類似度を、推定部123による推定の精度として認識部127に供給する。
但し、例えば、道路標識21の特徴点のうちの所定数以上の特徴点について、最も高い類似度が閾値以下である場合には、マッチング部122は、カメラ12から供給される画像内に道路標識21は存在しないと判断し、推定部123には何も供給しない。ナンバープレート111についても同様である。
推定部123は、図4の推定部83と同様に、マッチング部122から供給される道路標識21の特徴点の画像上の2次元位置と、カメラ12から供給される撮像パラメータとに基づいて、カメラ12に対する道路標識21の3次元位置と向きを推定する。推定部123は、推定されたカメラ12に対する道路標識21の3次元位置と向きを認識部127に供給する。
また、推定部123は、マッチング部122から供給されるナンバープレート111の特徴点の画像上の2次元位置と、カメラ12の撮像パラメータとに基づいて、カメラ12に対するナンバープレート111の各特徴点の3次元位置を求める。そして、推定部123は、カメラ12に対するナンバープレート111の各特徴点の3次元位置に基づいて、カメラ13に対するナンバープレート111の3次元位置と向きを推定し、認識部127に供給する。
マッチング部125は、辞書部120から道路標識21およびナンバープレート111の複数の特徴点の特徴量を読み出す。マッチング部125は、図4のマッチング部85と同様に、読み出された道路標識21の特徴点ごとに、特徴点検出部84から供給される特徴点の候補から、道路標識21の特徴点を選択する。
また、マッチング部125は、読み出されたナンバープレート111の特徴点ごとに、その特徴点の特徴量と、特徴点検出部84から供給される特徴点の候補の特徴量のマッチングを行う。マッチング部125は、マッチングの結果得られる類似度が最も高い特徴点の候補を、ナンバープレート111の特徴点として選択する。
マッチング部125は、選択された道路標識21の特徴点およびナンバープレート111の特徴点の画像上の2次元位置を推定部126に供給する。また、マッチング部125は、選択された道路標識21の特徴点およびナンバープレート111の特徴点に対応する類似度を、推定部126による推定の精度として認識部127に供給する。
但し、例えば、道路標識21の特徴点のうちの所定数以上の特徴点について、最も高い類似度が閾値以下である場合には、マッチング部125は、カメラ13から供給される画像内に道路標識21は存在しないと判断し、推定部126には何も供給しない。ナンバープレート111についても同様である。
推定部126は、図4の推定部86と同様に、マッチング部125から供給される道路標識21の特徴点の画像上の2次元位置と、カメラ13から供給される撮像パラメータとに基づいて、カメラ13に対する道路標識21の3次元位置と向きを推定する。推定部126は、推定されたカメラ13に対する道路標識21の3次元位置と向きを認識部127に供給する。
また、推定部126は、マッチング部125から供給されるナンバープレート111の特徴点の画像上の2次元位置と、カメラ13の撮像パラメータとに基づいて、カメラ13に対するナンバープレート111の3次元位置と向きを推定し、認識部127に供給する。
認識部127は、カメラ12およびカメラ13それぞれに対する道路標識21およびナンバープレート111の3次元位置および向き、並びに、推定部123および推定部126による推定の精度に基づいて、カメラ12とカメラ13の3次元位置および向きの関係を認識する。
具体的には、例えば、認識部127は、推定部123と推定部126による道路標識21に対する推定の精度の平均値と、ナンバープレート111に対する推定の精度の平均値のうちの高い方に対応する道路標識21またはナンバープレート111を選択する。認識部127は、選択された道路標識21またはナンバープレート111のカメラ12およびカメラ13それぞれに対する3次元位置および向きに基づいて、カメラ12とカメラ13の3次元位置および向きの関係を認識する。
または、認識部127は、推定部123と推定部126による道路標識21に対する推定の精度の平均値に基づいて、推定の精度の平均値が高いほど大きくなるように、道路標識21の重みを設定する。また、認識部127は、推定部123と推定部126によるナンバープレート111に対する推定の精度の平均値に基づいて、推定の精度の平均値が高いほど大きくなるように、ナンバープレート111の重みを設定する。
そして、認識部127は、道路標識21およびナンバープレート111それぞれについて、カメラ12およびカメラ13それぞれに対する3次元位置および向きに基づいて、カメラ12とカメラ13の3次元位置および向きの関係を認識する。認識部127は、道路標識21およびナンバープレート111それぞれの3次元位置および向きから認識されたカメラ12とカメラ13の3次元位置および向きの関係を、設定された重みを用いて重み付け加算する。認識部127は、重み付け加算結果を、最終的なカメラ12とカメラ13の3次元位置および向きの関係として認識する。
認識部127は、認識されたカメラ12とカメラ13の3次元位置および向きの関係を、図2の補正部46に供給する。
なお、ここでは、推定部123および推定部126による推定の精度は、それぞれ、マッチング部122、マッチング部125における類似度とされるが、推定部123と推定部126により推定される3次元位置や向きに基づいて決定されるようにしてもよい。
また、図9の位置検出部45によるカメラ関係認識処理は、道路標識21が道路標識21とナンバープレート111に代わる点、および、ステップS59の処理で推定部123および推定部126による推定の精度が用いられる点を除いて、図7のカメラ関係認識処理と同様である。従って、説明は省略する。
なお、カメラ12とカメラ13の両方から供給される画像に、道路標識21とナンバープレート111の一方のみが含まれる場合には、認識部127は、その一方のカメラ12およびカメラ13それぞれに対する3次元位置や向きに基づいて、図4の認識部87と同様に、カメラ12とカメラ13の3次元位置および向きの関係を認識するようにしてもよい。
<第3実施の形態>
(車載カメラシステムの第3実施の形態の概要)
図10は、本開示を適用した車載カメラシステムの第3実施の形態の概要を示す図である。
図10に示す構成のうち、図8の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図10の車載カメラシステム140の構成は、車両11にカメラ12とカメラ13だけでなくカメラ141も搭載される点が、図8の車載カメラシステム100の構成と異なる。
カメラ141は、車両11の後部に搭載され、車両11の前方を撮像する。カメラ12、カメラ13、およびカメラ141のそれぞれは、他の1以上のカメラと撮像領域が重複する。
図10の例では、カメラ12とカメラ13の撮像領域に、車両11の前方の既知物体である道路標識21が含まれている。また、カメラ12、カメラ13、およびカメラ141の撮像領域に、車両11の前方の既知物体であるナンバープレート111が含まれている。
この場合、車両11に搭載された図示せぬ画像処理装置は、カメラ12とカメラ13それぞれに対する道路標識21の3次元位置および向きを推定する。また、画像処理装置は、カメラ12、カメラ13、およびカメラ141それぞれに対するナンバープレート111の3次元位置および向きを推定する。
画像処理装置は、カメラ12とカメラ13それぞれに対する道路標識21の3次元位置および向き、カメラ12、カメラ13、およびカメラ141それぞれに対するナンバープレート111の3次元位置および向き、並びに、それらの3次元位置および向きの推定精度に基づいて、カメラ12、カメラ13、およびカメラ141の3次元位置および向きの関係を認識する。
具体的には、例えば、画像処理装置は、第2実施の形態の画像処理装置と同様に、カメラ12とカメラ13それぞれに対する道路標識21およびナンバープレート111の3次元位置および向きと、その3次元位置および向きの推定精度とに基づいて、カメラ12とカメラ13の3次元位置および向きの関係を認識する。
また、画像処理装置は、カメラ12とカメラ13それぞれに対するナンバープレート111の3次元位置および向きのうちの、推定精度が高い方と、カメラ141に対するナンバープレート111の3次元位置および向きとに基づいて、カメラ12またはカメラ13とカメラ141の3次元位置および向きの関係を認識する。
そして、画像処理装置は、カメラ12とカメラ13の3次元位置および向きの関係と、カメラ12またはカメラ13とカメラ141の3次元位置および向きの関係とに基づいて、カメラ12、カメラ13、およびカメラ141のキャリブレーションを行う。
第3実施の形態の画像処理装置は、カメラ12やカメラ13についての処理と同様にカメラ141についての処理も行われる点を除いて、第2実施の形態の画像処理装置と同様である。
なお、第3実施の形態の画像処理装置では、3つの移動量が求められるため、速度計により計測される車両11の速度を用いずに、3つの移動量の分布に基づいてカメラ12、カメラ13、およびカメラ141のキャリブレーションの必要性の有無が判定されるようにしてもよい。この場合、移動量が3つの移動量の分布の外れ値であるカメラ12、カメラ13、またはカメラ141のキャリブレーションの必要性が有ると判定される。
<第4実施の形態>
(車載カメラシステムの第4実施の形態の概要)
図11は、本開示を適用した車載カメラシステムの第4実施の形態の概要を示す図である。
図11に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図11の車載カメラシステム160の構成は、カメラ12およびカメラ13の代わりにカメラ161およびカメラ162が設けられる点が、図1の車載カメラシステム10の構成と異なる。なお、図11は、車両11を上から見た図である。
カメラ161(第1の撮像部)とカメラ162(第2の撮像部)は、光軸方向が車両11の進行方向と略垂直な方向になるように搭載される。図11の例では、カメラ161とカメラ162は、車両11の右側の屋根に搭載されている。
車載カメラシステム160では、車両11に搭載された図示せぬ画像処理装置が、移動量ではなく、カメラ161とカメラ162により撮像された画像の視差に基づいて、カメラ161とカメラ162のキャリブレーションの必要性を判定する。
(画像処理装置の構成例)
図12は、図11の車両11に搭載される画像処理装置の構成例を示すブロック図である。
図12に示す構成のうち、図2の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図12の画像処理装置180の構成は、移動量推定部41および移動量推定部43の代わりに推定部181が設けられる点と、判定部42および判定部44の代わりに判定部182が設けられる点とが、図2の画像処理装置40の構成と異なる。
推定部181は、移動視差推定部191、移動視差推定部192、およびステレオ視差推定部193により構成される。
推定部181の移動視差推定部191は、カメラ161により撮像され、カメラ161から入力された画像を保持する。移動視差推定部191(第1の移動視差推定部)は、保持している過去(第1の時刻)の画像と現在(第2の時刻)の画像とを用いて、現在の画像の移動視差(運動視差)を推定する。移動視差推定部191は、推定された移動視差を判定部182に供給する。
移動視差推定部192は、カメラ162により撮像され、カメラ162から入力された画像を保持する。移動視差推定部192(第2の移動視差推定部)は、保持している過去(第1の時刻)の画像と現在(第2の時刻)の画像とを用いて、現在の画像の移動視差を推定する。移動視差推定部192は、推定された移動視差を判定部182に供給する。
ステレオ視差推定部193は、カメラ161により撮像された現在の画像と、カメラ162により撮像された現在の画像とを用いて、その2枚の画像の間の視差(以下、ステレオ視差という)を推定し、判定部182に供給する。
判定部182は、移動視差推定部191および移動視差推定部192から供給される移動視差、並びに、ステレオ視差推定部193から供給されるステレオ視差に基づいて、カメラ161とカメラ162のキャリブレーションの必要性の有無を判定する。判定部182は、判定結果を位置検出部45に供給する。
(画像処理装置の処理の説明)
図12の画像処理装置180の画像処理は、カメラ12およびカメラ13がカメラ161およびカメラ162に代わる点、および、キャリブレーション判定処理を除いて、図5の画像処理と同様である。従って、以下では、キャリブレーション判定処理についてのみ説明する。
図13は、画像処理装置180のキャリブレーション判定処理を説明するフローチャートである。
図13のステップS71において、推定部181の移動視差推定部191は、カメラ161から入力された画像を保持し、移動視差推定部192は、カメラ162から入力された画像を保持する。
ステップS72において、移動視差推定部191は、保持しているカメラ161の過去の画像と現在の画像とを用いて、現在の画像の移動視差を推定し、判定部182に供給する。
ステップS73において、移動視差推定部192は、保持しているカメラ162の過去の画像と現在の画像とを用いて、現在の画像の移動視差を推定し、判定部182に供給する。
ステップS74において、ステレオ視差推定部193は、カメラ161の現在の画像と、カメラ162の現在の画像とを用いて、ステレオ視差を推定し、判定部182に供給する。
ステップS75において、判定部182は、移動視差推定部191および移動視差推定部192から供給される移動視差の少なくとも一方と、ステレオ視差推定部193から供給されるステレオ視差との差が閾値以上であるかどうかを判定する。
ステップS75で閾値以上であると判定された場合、ステップS76において、判定部182は、カメラ161とカメラ162のキャリブレーションの必要性が有ると判定し、その判定結果を位置検出部45に供給する。そしてキャリブレーション判定処理は終了する。
一方、ステップS75で移動視差推定部191および移動視差推定部192から供給される移動視差の両方と、ステレオ視差との差が閾値より小さいと場合、処理はステップS77に進む。ステップS77において、判定部182は、カメラ161とカメラ162のキャリブレーションの必要性が無いと判定し、その判定結果を位置検出部45に供給する。
<第5実施の形態>
(車載カメラシステムの第5実施の形態の概要)
図14は、本開示を適用した車載カメラシステムの第5実施の形態の概要を示す図である。
図14に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。なお、図14は、車両11を上から見た図である。
図14の車載カメラシステム210の構成は、カメラ12およびカメラ13の代わりに、4つのカメラ211乃至214が車両11に搭載される点が、図1の車載カメラシステム10の構成と異なる。
カメラ211乃至214は、それぞれ、車両11の屋根の前方、右側、後方、左側に搭載される。車両11に搭載された図示せぬ画像処理装置は、カメラ211乃至カメラ214それぞれについて、第1乃至第3実施の形態と同様の処理を行い、カメラ211乃至214のキャリブレーションを行う。
なお、このとき、4つの移動量が求められるため、第3実施の形態と同様に、速度計により計測される車両11の速度を用いずに、4つの移動量の分布に基づいてカメラ211乃至214のキャリブレーションの必要性の有無が判定されるようにしてもよい。
<第6実施の形態>
(本開示を適用したコンピュータの説明)
上述した画像処理装置の一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ300において、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、及びドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロフォンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア311を駆動する。
以上のように構成されるコンピュータ300では、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ300(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ300では、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、コンピュータ300が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
<第7実施の形態>
(本開示を適用した車両制御システムの説明)
図16は、本開示を適用した車両制御システムの概略的な構成の一例を示すブロック図である。
車両制御システム2000は、通信ネットワーク2010を介して接続された複数の電子制御ユニットを備える。図16に示した例では、車両制御システム2000は、駆動系制御ユニット2100、ボディ系制御ユニット2200、バッテリ制御ユニット2300、車外情報検出ユニット2400、車内情報検出ユニット2500、及び統合制御ユニット2600を備える。これらの複数の制御ユニットを接続する通信ネットワーク2010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク2010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図16では、統合制御ユニット2600の機能構成として、マイクロコンピュータ2610、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660、音声画像出力部2670、車載ネットワークI/F2680及び記憶部2690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット2100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット2100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット2100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット2100には、車両状態検出部2110が接続される。車両状態検出部2110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット2100は、車両状態検出部2110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット2200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット2200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット2200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット2200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット2300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池2310を制御する。例えば、バッテリ制御ユニット2300には、二次電池2310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット2300は、これらの信号を用いて演算処理を行い、二次電池2310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット2400は、車両制御システム2000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット2400には、撮像部2410及び車外情報検出部2420のうちの少なくとも一方が接続される。撮像部2410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部2420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム2000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部2410及び車外情報検出部2420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図17は、撮像部2410及び車外情報検出部2420の設置位置の例を示す。撮像部2910,2912,2914,2916,2918は、例えば、車両2900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部2910及び車室内のフロントガラスの上部に備えられる撮像部2918は、主として車両2900の前方の画像を取得する。サイドミラーに備えられる撮像部2912,2914は、主として車両2900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部2916は、主として車両2900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部2918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図17には、それぞれの撮像部2910,2912,2914,2916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部2910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部2912,2914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部2916の撮像範囲を示す。例えば、撮像部2910,2912,2914,2916で撮像された画像データが重ね合わせられることにより、車両2900を上方から見た俯瞰画像が得られる。
車両2900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2922,2924,2926,2928,2930は、例えば超音波センサ又はレーダ装置であってよい。車両2900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2926,2930は、例えばLIDAR装置であってよい。これらの車外情報検出部2920〜2930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図16に戻って説明を続ける。車外情報検出ユニット2400は、撮像部2410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット2400は、接続されている車外情報検出部2420から検出情報を受信する。車外情報検出部2420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット2400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット2400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット2400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット2400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット2400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット2400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部2410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット2400は、異なる撮像部2410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット2500は、車内の情報を検出する。車内情報検出ユニット2500には、例えば、運転者の状態を検出する運転者状態検出部2510が接続される。運転者状態検出部2510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット2500は、運転者状態検出部2510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット2500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット2600は、各種プログラムにしたがって車両制御システム2000内の動作全般を制御する。統合制御ユニット2600には、入力部2800が接続されている。入力部2800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。入力部2800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム2000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部2800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。さらに、入力部2800は、例えば、上記の入力部2800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット2600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部2800を操作することにより、車両制御システム2000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部2690は、マイクロコンピュータにより実行される各種プログラムを記憶するRAM(Random Access Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するROM(Read Only Memory)を含んでいてもよい。また、記憶部2690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F2620は、外部環境2750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F2620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F2620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F2620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F2630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F2630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、又はDSRC(Dedicated Short Range Communications)といった標準プロトコルを実装してよい。専用通信I/F2630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部2640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部2640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部2650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部2650の機能は、上述した専用通信I/F2630に含まれてもよい。
車内機器I/F2660は、マイクロコンピュータ2610と車内に存在する様々な機器との間の接続を仲介する通信インタフェースである。車内機器I/F2660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F2660は、図示しない接続端子(及び、必要であればケーブル)を介して有線接続を確立してもよい。車内機器I/F2660は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F2680は、マイクロコンピュータ2610と通信ネットワーク2010との間の通信を仲介するインタフェースである。車載ネットワークI/F2680は、通信ネットワーク2010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット2600のマイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム2000を制御する。例えば、マイクロコンピュータ2610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット2100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ2610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ2610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部2670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図16の例では、出力装置として、オーディオスピーカ2710、表示部2720及びインストルメントパネル2730が例示されている。表示部2720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部2720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ2610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図16に示した例において、通信ネットワーク2010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム2000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク2010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク2010を介して相互に検出情報を送受信してもよい。
以上のように構成された車両制御システム2000では、統合制御ユニット2600に本願の画像処理装置の機能が設けられる。なお、本願の画像処理装置の少なくとも一部の機能は、統合制御ユニット2600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)により実現されてもよい。また、本願の画像処理装置は、複数の制御ユニットによって実現されてもよい。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、車載カメラシステム(車両制御システム)を構成するカメラ(撮像部)の数や配置は、上述した数や配置に限定されない。また、本技術は、自動車以外の電気自動車、ハイブリッド電気自動車、自動二輪車などの車両に搭載される車載カメラシステムにも適用することができる。
また、既知物体の3次元位置や向きの推定方法は、上述した方法に限定されない。さらに、既知物体の3次元位置のみに基づいてカメラのキャリブレーションを行うようにしてもよい。
なお、本開示は、以下のような構成もとることができる。
(1)
第1の時刻に第1の撮像部により撮像された第1の画像と、前記第1の時刻より後の第2の時刻に前記第1の撮像部により撮像された第2の画像とを用いて、前記第1の撮像部のキャリブレーションの必要性の有無を判定する判定部
を備える画像処理装置。
(2)
前記第1の画像と前記第2の画像とを用いて、前記第1の撮像部の3次元位置の移動量を推定する移動量推定部
をさらに備え、
前記判定部は、前記移動量推定部により推定された前記移動量に基づいて、前記キャリブレーションの必要性の有無を判定する
ように構成された
前記(1)に記載の画像処理装置。
(3)
前記移動量推定部は、前記第1の撮像部の3次元位置および向きの移動量を推定する
ように構成された
前記(2)に記載の画像処理装置。
(4)
前記移動量推定部は、前記第1の画像の特徴点の3次元位置と、前記第2の画像上の前記特徴点の位置とに基づいて、前記特徴点の3次元位置および向きの移動量を推定する
ように構成された
前記(3)に記載の画像処理装置。
(5)
前記第1の画像と、前記第1の時刻に第2の撮像部により撮像された第3の画像とを用いて、前記第1の画像の前記特徴点のステレオ視差を検出する視差検出部と、
前記視差検出部により検出された前記ステレオ視差に基づいて、前記第1の画像の前記特徴点の3次元位置を算出する位置算出部と
をさらに備える
前記(4)に記載の画像処理装置。
(6)
前記第1の画像と、前記第1の時刻とは異なる第3の時刻に前記第1の撮像部により撮像された第3の画像とを用いて、前記第1の画像の前記特徴点の移動視差を検出する視差検出部と、
前記視差検出部により検出された前記移動視差に基づいて、前記第1の画像の前記特徴点の3次元位置を算出する位置算出部と
をさらに備える
前記(4)に記載の画像処理装置。
(7)
前記第1の撮像部は、車両に搭載され、
前記判定部は、前記移動量と前記車両の速度計により計測された前記車両の速度とに基づいて、前記キャリブレーションの必要性の有無を判定する
ように構成された
前記(2)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記第1の画像と前記第2の画像とを用いて、前記第1の画像の移動視差を推定する第1の移動視差推定部と、
前記第1の時刻に第2の撮像部により撮像された第3の画像と、前記第2の時刻に前記第2の撮像部により撮像された第4の画像とを用いて、前記第2の画像の移動視差を推定する第2の移動視差推定部と、
前記第1の画像と前記第3の画像を用いて、前記第1の画像と前記第3の画像の間のステレオ視差を推定するステレオ視差推定部と
をさらに備え、
前記判定部は、前記第1の移動視差推定部により推定された前記第1の画像の移動視差、前記第2の移動視差推定部により推定された前記第2の画像の移動視差、および前記ステレオ視差推定部により推定された前記ステレオ視差に基づいて、前記第1の撮像部および前記第2の撮像部のキャリブレーションの必要性の有無を判定する
ように構成された
前記(1)に記載の画像処理装置。
(9)
前記第1の撮像部と前記第2の撮像部は、車両に搭載される
ように構成された
前記(8)に記載の画像処理装置。
(10)
前記第1の撮像部と前記第2の撮像部の光軸方向は、前記車両の進行方向と略垂直な方向である
ように構成された
前記(9)に記載の画像処理装置。
(11)
画像処理装置が、
第1の時刻に第1の撮像部により撮像された第1の画像と、前記第1の時刻より後の第2の時刻に前記第1の撮像部により撮像された第2の画像とを用いて、前記第1の撮像部のキャリブレーションの必要性の有無を判定する判定ステップ
を含む画像処理方法。
(12)
コンピュータを、
第1の時刻に第1の撮像部により撮像された第1の画像と、前記第1の時刻より後の第2の時刻に前記第1の撮像部により撮像された第2の画像とを用いて、前記第1の撮像部のキャリブレーションの必要性の有無を判定する判定部
として機能させるためのプログラム。
11 車両, 12,13 カメラ, 21道路標識, 40 画像処理装置, 41 移動量推定部, 42 判定部, 43 移動量推定部, 44 判定部, 46 補正部, 64 視差検出部, 65 位置算出部, 83,86 推定部, 87 認識部, 111 ナンバープレート, 123,126 推定部, 127 認識部, 141 カメラ, 161,162 カメラ, 180 画像処理装置, 182 判定部, 191,192 移動視差推定部, 193 ステレオ視差推定部

Claims (6)

  1. 第1の時刻に第1の撮像部により撮像された第1の画像と、前記第1の時刻より後の第2の時刻に前記第1の撮像部により撮像された第2の画像とを用いて、車両に搭載された前記第1の撮像部の、前記第1の時刻と前記第2の時刻の間の3次元位置および向きの移動量を推定する移動量推定部と、
    推定された前記移動量と、前記車両の速度計により計測された前記車両の速度とに基づいて、前記第1の撮像部のキャリブレーションの必要性の有無を判定する判定部
    を備える画像処理装置。
  2. 前記移動量推定部は、前記第1の画像の特徴点の3次元位置と、前記第2の画像上の前記特徴点の位置とに基づいて、前記特徴点の3次元位置および向きの移動量を推定する
    請求項に記載の画像処理装置。
  3. 前記第1の画像と、前記車両に搭載された第2の撮像部により前記第1の時刻に撮像された第3の画像とを用いて、前記第1の画像の前記特徴点のステレオ視差を検出する視差検出部と、
    前記視差検出部により検出された前記ステレオ視差に基づいて、前記第1の画像の前記特徴点の3次元位置を算出する位置算出部と
    をさらに備える
    請求項に記載の画像処理装置。
  4. 前記第1の画像と、前記第1の時刻とは異なる第3の時刻に前記第1の撮像部により撮像された第3の画像とを用いて、前記第1の画像の前記特徴点の移動視差を検出する視差検出部と、
    前記視差検出部により検出された前記移動視差に基づいて、前記第1の画像の前記特徴点の3次元位置を算出する位置算出部と
    をさらに備える
    請求項に記載の画像処理装置。
  5. 画像処理装置が、
    第1の時刻に第1の撮像部により撮像された第1の画像と、前記第1の時刻より後の第2の時刻に前記第1の撮像部により撮像された第2の画像とを用いて、車両に搭載された前記第1の撮像部の、前記第1の時刻と前記第2の時刻の間の3次元位置および向きの移動量を推定し、
    推定した前記移動量と、前記車両の速度計により計測された前記車両の速度とに基づいて、前記第1の撮像部のキャリブレーションの必要性の有無を判定する
    画像処理方法
  6. コンピュータを、
    第1の時刻に第1の撮像部により撮像された第1の画像と、前記第1の時刻より後の第2の時刻に前記第1の撮像部により撮像された第2の画像とを用いて、車両に搭載された前記第1の撮像部の、前記第1の時刻と前記第2の時刻の間の3次元位置および向きの移動量を推定する移動量推定部と、
    推定された前記移動量と、前記車両の速度計により計測された前記車両の速度とに基づいて、前記第1の撮像部のキャリブレーションの必要性の有無を判定する判定部
    として機能させるためのプログラム。
JP2017543145A 2015-09-30 2016-09-16 画像処理装置、画像処理方法、およびプログラム Active JP6764573B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015194136 2015-09-30
JP2015194136 2015-09-30
PCT/JP2016/077430 WO2017057057A1 (ja) 2015-09-30 2016-09-16 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017057057A1 JPWO2017057057A1 (ja) 2018-08-16
JP6764573B2 true JP6764573B2 (ja) 2020-10-07

Family

ID=58423756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017543145A Active JP6764573B2 (ja) 2015-09-30 2016-09-16 画像処理装置、画像処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US10587863B2 (ja)
JP (1) JP6764573B2 (ja)
CN (1) CN108028883B (ja)
WO (1) WO2017057057A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10508911B2 (en) 2015-09-29 2019-12-17 Sony Corporation Apparatus and method for measurement, and program
JP6872128B2 (ja) 2015-09-30 2021-05-19 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017057043A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP6877115B2 (ja) * 2016-09-27 2021-05-26 株式会社東海理化電機製作所 車両用視認装置
JP6822234B2 (ja) * 2017-03-15 2021-01-27 セイコーエプソン株式会社 プロジェクターシステム
KR20210102212A (ko) 2018-12-10 2021-08-19 소니 세미컨덕터 솔루션즈 가부시키가이샤 화상 처리 장치, 화상 처리 방법 및 화상 처리 시스템
US11263780B2 (en) * 2019-01-14 2022-03-01 Sony Group Corporation Apparatus, method, and program with verification of detected position information using additional physical characteristic points
JP7502025B2 (ja) * 2019-12-23 2024-06-18 株式会社東芝 カメラ自動検査システム
JP7383584B2 (ja) 2020-07-30 2023-11-20 株式会社東芝 情報処理装置、情報処理方法、プログラムおよび車両制御システム
WO2024014265A1 (ja) * 2022-07-12 2024-01-18 ソニーグループ株式会社 移動体、キャリブレーション方法、およびプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7333133B2 (en) * 2003-03-31 2008-02-19 Spatial Integrated Systems, Inc. Recursive least squares approach to calculate motion parameters for a moving camera
PL1685540T3 (pl) * 2003-11-11 2011-02-28 Technikus Ag Urządzenie do rejestracji parametrów jazdy i/lub sytuacji w ruchu pojazdów i sposób oceny tych zapisanych danych
JP2006252473A (ja) * 2005-03-14 2006-09-21 Toshiba Corp 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
US20070058717A1 (en) * 2005-09-09 2007-03-15 Objectvideo, Inc. Enhanced processing for scanning video
US8848053B2 (en) * 2006-03-28 2014-09-30 Objectvideo, Inc. Automatic extraction of secondary video streams
JP4976756B2 (ja) * 2006-06-23 2012-07-18 キヤノン株式会社 情報処理方法および装置
US7924316B2 (en) * 2007-03-14 2011-04-12 Aptina Imaging Corporation Image feature identification and motion compensation apparatus, systems, and methods
WO2008130219A1 (en) * 2007-04-19 2008-10-30 Tele Atlas B.V. Method of and apparatus for producing road information
EP2192546A1 (en) * 2008-12-01 2010-06-02 Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO Method for recognizing objects in a set of images recorded by one or more cameras
JP2011215963A (ja) 2010-03-31 2011-10-27 Sony Corp 電子機器、画像処理方法及びプログラム
JP5588812B2 (ja) 2010-09-30 2014-09-10 日立オートモティブシステムズ株式会社 画像処理装置及びそれを用いた撮像装置
WO2012056437A1 (en) * 2010-10-29 2012-05-03 École Polytechnique Fédérale De Lausanne (Epfl) Omnidirectional sensor array system
US8743214B2 (en) * 2011-05-11 2014-06-03 Intel Corporation Display screen for camera calibration
US8872897B2 (en) * 2011-05-11 2014-10-28 Intel Corporation Camera calibration using an easily produced 3D calibration pattern
JP6182866B2 (ja) * 2012-03-21 2017-08-23 株式会社リコー 校正装置、距離計測装置及び車両
JP5773944B2 (ja) * 2012-05-22 2015-09-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP5820787B2 (ja) * 2012-08-30 2015-11-24 株式会社デンソー 画像処理装置、及びプログラム
TWI602152B (zh) * 2013-02-06 2017-10-11 聚晶半導體股份有限公司 影像擷取裝置及其影像處理方法
CN105122787B (zh) * 2013-04-16 2018-11-27 富士胶片株式会社 摄像装置、校准系统、校准方法
JP6091977B2 (ja) * 2013-04-22 2017-03-08 日立建機株式会社 建設機械
US20150030208A1 (en) * 2013-07-29 2015-01-29 Irida Labs S.A. System and a method for motion estimation based on a series of 2d images
KR101573576B1 (ko) * 2013-10-08 2015-12-01 현대자동차주식회사 Avm 시스템의 이미지 처리 방법
KR20150057431A (ko) * 2013-11-19 2015-05-28 삼성전자주식회사 디스플레이장치 및 그 제어방법
FR3014553A1 (fr) * 2013-12-11 2015-06-12 Parrot Procede de calibration angulaire de la position d'une camera video embarquee dans un vehicule automobile
US9508026B2 (en) * 2014-07-01 2016-11-29 Irida Labs S.A. System and a method for camera motion analysis and understanding from a video sequence
US10508911B2 (en) 2015-09-29 2019-12-17 Sony Corporation Apparatus and method for measurement, and program
WO2017057043A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP6872128B2 (ja) 2015-09-30 2021-05-19 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2017057057A1 (ja) 2018-08-16
CN108028883A (zh) 2018-05-11
US10587863B2 (en) 2020-03-10
US20180288401A1 (en) 2018-10-04
CN108028883B (zh) 2020-11-03
WO2017057057A1 (ja) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6834964B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6764573B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2017159382A1 (ja) 信号処理装置および信号処理方法
US11076141B2 (en) Image processing device, image processing method, and vehicle
WO2017057044A1 (ja) 情報処理装置及び情報処理方法
CN110574357B (zh) 成像控制设备、用于控制成像控制设备的方法以及移动体
JPWO2017122552A1 (ja) 画像処理装置および方法、プログラム、並びに画像処理システム
JP7294148B2 (ja) キャリブレーション装置とキャリブレーション方法およびプログラム
WO2016203988A1 (ja) 画像処理装置および画像処理方法
JPWO2019142660A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP6922169B2 (ja) 情報処理装置および方法、車両、並びに情報処理システム
JP2019145021A (ja) 情報処理装置、撮像装置、及び撮像システム
WO2016203989A1 (ja) 画像処理装置および画像処理方法
CN114788257A (zh) 信息处理装置、信息处理方法、程序、成像装置和成像系统
WO2020195965A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN111868778B (zh) 图像处理装置、图像处理方法以及存储介质
JP7059185B2 (ja) 画像処理装置、画像処理方法、および撮像装置
JP7173056B2 (ja) 認識装置と認識方法およびプログラム
WO2022196316A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022249533A1 (ja) 情報処理装置、キャリブレーションシステム及び情報処理方法
WO2020255589A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN113614777A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200826

R151 Written notification of patent or utility model registration

Ref document number: 6764573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151