JP2024137371A - Electronic device, distance measurement method, and distance measurement program - Google Patents
Electronic device, distance measurement method, and distance measurement program Download PDFInfo
- Publication number
- JP2024137371A JP2024137371A JP2023048868A JP2023048868A JP2024137371A JP 2024137371 A JP2024137371 A JP 2024137371A JP 2023048868 A JP2023048868 A JP 2023048868A JP 2023048868 A JP2023048868 A JP 2023048868A JP 2024137371 A JP2024137371 A JP 2024137371A
- Authority
- JP
- Japan
- Prior art keywords
- imaging unit
- distance
- electronic device
- imaging
- triangulation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000691 measurement method Methods 0.000 title claims description 8
- 238000003384 imaging method Methods 0.000 claims abstract description 227
- 238000012545 processing Methods 0.000 claims description 30
- 238000005259 measurement Methods 0.000 abstract description 18
- 238000010586 diagram Methods 0.000 description 20
- 238000000034 method Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 150000001875 compounds Chemical class 0.000 description 4
- 230000004075 alteration Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000011230 binding agent Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Measurement Of Optical Distance (AREA)
Abstract
【課題】移動体から対象までの測距の精度を向上可能な電子機器を提供する。【解決手段】本開示に係る電子機器10は、移動体1に配置され、互いに異なる方向を向く第1撮像部111及び第2撮像部112を含む撮像部11と、2つの撮像部11における共通視野Vで三角測量を実行し、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する制御部13と、を備える。【選択図】図1[Problem] To provide an electronic device capable of improving the accuracy of distance measurement from a moving body to an object. [Solution] The electronic device 10 according to the present disclosure is provided with an imaging unit 11 that is disposed on a moving body 1 and includes a first imaging unit 111 and a second imaging unit 112 that face in different directions, and a control unit 13 that performs triangulation in a common field of view V of the two imaging units 11 and measures the distance to an object S by motion stereo from the movement distance of the imaging unit 11 obtained based on the triangulation. [Selected Figure] Figure 1
Description
本開示は、電子機器、測距方法、及び測距プログラムに関する。 This disclosure relates to an electronic device, a distance measurement method, and a distance measurement program.
従来、車両などの移動体に配置されたカメラなどの撮像部を用いて移動体から対象までの距離を測定する測距技術が知られている。例えば、特許文献1には、ステレオカメラの測距のための処理負荷を低減するステレオカメラシステム及び測距方法が開示されている。
Conventionally, distance measurement technology is known that measures the distance from a moving object such as a vehicle to an object using an imaging unit such as a camera arranged on the moving object. For example,
しかしながら、従来技術では、移動体から対象までの測距の精度について改善の余地があった。 However, conventional technology leaves room for improvement in the accuracy of measuring the distance from a moving body to a target.
本開示は、移動体から対象までの測距の精度を向上可能な電子機器、測距方法、及び測距プログラムを提供することを目的とする。 The present disclosure aims to provide an electronic device, a distance measurement method, and a distance measurement program that can improve the accuracy of measuring the distance from a moving body to a target.
上記の課題を解決するための第1の観点による電子機器は、
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部と、
2つの前記撮像部における共通視野で三角測量を実行し、前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距する制御部と、
を備える。
According to a first aspect of the present invention, there is provided an electronic device comprising:
An imaging unit that is disposed on the moving body and includes a first imaging unit and a second imaging unit that face in different directions;
a control unit that performs triangulation in a common field of view of the two imaging units and measures a distance to an object by motion stereo from a moving distance of the imaging units obtained based on the triangulation;
Equipped with.
第2の観点による測距方法は、
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む。
The distance measuring method according to the second aspect comprises:
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
Includes.
第3の観点による測距プログラムは、
電子機器に、
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む動作を実行させる。
The third aspect of the distance measurement program is
For electronic devices,
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
The method executes an operation including:
本開示によれば、移動体から対象までの測距の精度を向上可能な電子機器、測距方法、及び測距プログラムを提供可能である。 The present disclosure makes it possible to provide an electronic device, a distance measurement method, and a distance measurement program that can improve the accuracy of measuring distances from a moving body to a target.
以下では、添付図面を参照しながら本開示の一実施形態について主に説明する。以下の説明は、本開示を適用した測距方法及び測距プログラムにも当てはまる。 Below, one embodiment of the present disclosure will be mainly described with reference to the attached drawings. The following description also applies to a ranging method and a ranging program to which the present disclosure is applied.
図1は、本開示の一実施形態に係る電子機器10を有する移動体1による測距の様子を示した模式図である。図2は、本開示の一実施形態に係る電子機器10の構成の一例を示すブロック図である。図1及び図2を参照しながら、移動体1及び移動体1が有する電子機器10の構成、並びに移動体1が有する電子機器10による測距の様子の一例について主に説明する。
FIG. 1 is a schematic diagram showing distance measurement by a
本開示の一実施形態に係る電子機器10は、例えば、移動体1に搭載される。本開示において、「移動体1」は、車両、船舶、航空機、及びドローンなどを含む。「車両」は、自動車、産業車両、鉄道車両、生活車両、及び滑走路を走行する固定翼機などを含む。「自動車」は、乗用車、トラック、バス、二輪車、及びトロリーバスなどを含む。「産業車両」は、農業及び建設向けの産業車両などを含む。産業車両は、フォークリフト及びゴルフカートなどを含む。農業向けの産業車両は、トラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機などを含む。建設向けの産業車両は、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラなどを含む。車両は、自動運転により走行するもの、運転者による運転に基づいて走行するもの、及び人力で走行するものなどを含む。車両の分類は、上述した例に限定されない。例えば、自動車は、道路を走行可能な産業車両を含んでもよい。複数の分類に同一の車両が含まれてもよい。「船舶」は、客船、マリンジェット、ボート、及びタンカーなどを含む。「航空機」は、固定翼機及び回転翼機などを含む。「ドローン」は、飛行用及び水中移動用などのドローンを含む。
The
図2に示されるように、電子機器10は、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114と、記憶部12と、制御部13と、を有する。以下では、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114を互いに区別しないときは、「撮像部11」と表記する。第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114は、移動体1に配置されている。
2, the
第1撮像部111は、移動体1から第1方向に向いて当該第1方向の光景を撮像する。第1撮像部111は、撮像した光景を第1画像として制御部13に出力する。本開示において、「第1画像」は、例えば、少なくとも1つの静止画及び複数の静止画をフレームとして連続的に含む動画を含む。第1撮像部111は、例えば、第1カメラを含む。第1カメラは、魚眼レンズを有する単眼カメラなどを含む。これに限定されず、第1カメラは、魚眼レンズ以外の超広角レンズにより180°から360°に近い視野角を有する単眼カメラなどを含んでもよい。第1カメラは、広角レンズを有する単眼カメラなどを含んでもよい。第1カメラは、図1を用いて後述する共通視野Vを隣り合うカメラとの間で形成可能な視野角を有する任意の他の単眼カメラなどを含んでもよい。その他にも、第1カメラは、単眼カメラに限定されず、複眼カメラなどを含んでもよい。
The
第2撮像部112は、移動体1から第2方向に向いて当該第2方向の光景を撮像する。第2撮像部112は、撮像した光景を第2画像として制御部13に出力する。本開示において、「第2画像」は、例えば、少なくとも1つの静止画及び複数の静止画をフレームとして連続的に含む動画を含む。第2撮像部112は、例えば、第2カメラを含む。第2カメラは、魚眼レンズを有する単眼カメラなどを含む。これに限定されず、第2カメラは、魚眼レンズ以外の超広角レンズにより180°から360°に近い視野角を有する単眼カメラなどを含んでもよい。第2カメラは、広角レンズを有する単眼カメラなどを含んでもよい。第2カメラは、共通視野Vを隣り合うカメラとの間で形成可能な視野角を有する任意の他の単眼カメラなどを含んでもよい。その他にも、第2カメラは、単眼カメラに限定されず、複眼カメラなどを含んでもよい。
The
第3撮像部113は、移動体1から第3方向に向いて当該第3方向の光景を撮像する。第3撮像部113は、撮像した光景を第3画像として制御部13に出力する。本開示において、「第3画像」は、例えば、少なくとも1つの静止画及び複数の静止画をフレームとして連続的に含む動画を含む。第3撮像部113は、例えば、第3カメラを含む。第3カメラは、魚眼レンズを有する単眼カメラなどを含む。これに限定されず、第3カメラは、魚眼レンズ以外の超広角レンズにより180°から360°に近い視野角を有する単眼カメラなどを含んでもよい。第3カメラは、広角レンズを有する単眼カメラなどを含んでもよい。第3カメラは、共通視野Vを隣り合うカメラとの間で形成可能な視野角を有する任意の他の単眼カメラなどを含んでもよい。その他にも、第3カメラは、単眼カメラに限定されず、複眼カメラなどを含んでもよい。
The
第4撮像部114は、移動体1から第4方向に向いて当該第4方向の光景を撮像する。第4撮像部114は、撮像した光景を第4画像として制御部13に出力する。本開示において、「第4画像」は、例えば、少なくとも1つの静止画及び複数の静止画をフレームとして連続的に含む動画を含む。第4撮像部114は、例えば、第4カメラを含む。第4カメラは、魚眼レンズを有する単眼カメラなどを含む。これに限定されず、第4カメラは、魚眼レンズ以外の超広角レンズにより180°から360°に近い視野角を有する単眼カメラなどを含んでもよい。第4カメラは、広角レンズを有する単眼カメラなどを含んでもよい。第4カメラは、共通視野Vを隣り合うカメラとの間で形成可能な視野角を有する任意の他の単眼カメラなどを含んでもよい。その他にも、第4カメラは、単眼カメラに限定されず、複眼カメラなどを含んでもよい。
The
記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、及びRAM(Random Access Memory)などの記憶装置を含む。記憶部12は、電子機器10の動作を実現するために必要な情報を記憶する。記憶部12は、電子機器10の動作によって得られた情報を記憶する。例えば、記憶部12は、システムプログラム、アプリケーションプログラム、及び通信などの任意の手段で取得される各種データなどを記憶する。
The
記憶部12は、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部12は、電子機器10に内蔵されているものに限定されず、USB(Universal Serial Bus)などのデジタル入出力ポートなどによって接続されている外付け型の記憶装置であってもよい。
The
制御部13は、1つ以上のプロセッサを含む。本開示において、「プロセッサ」は、汎用のプロセッサ、又は特定の処理に特化した専用のプロセッサであるが、これらに限定されない。制御部13は、電子機器10を構成する各構成部と通信可能に接続され、電子機器10全体の動作を制御する。例えば、制御部13は、車両としての移動体1が有するECU(Electronic Control Unit)の一部を構成してもよい。
The
図1に示されるように、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114を含む4つの撮像部11は、移動体1に配置され、互いに異なる方向を向く。例えば、移動体1が車両を含むとき、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114は、車両の前後左右の4方向を向くようにそれぞれ配置されている。
As shown in FIG. 1, the four
一例として、移動体1から第1撮像部111が向いている第1方向は、前方向に対応する。移動体1から第2撮像部112が向いている第2方向は、右方向に対応する。移動体1から第3撮像部113が向いている第3方向は、後方向に対応する。移動体1から第4撮像部114が向いている第4方向は、左方向に対応する。4つの撮像部11にそれぞれ含まれる4つのカメラは、移動体1において全周囲カメラを構成する。
As an example, the first direction in which the
第1撮像部111の第1カメラ、第2撮像部112の第2カメラ、第3撮像部113の第3カメラ、及び第4撮像部114の第4カメラの各々は、180°に近い視野角を有する。各カメラが有する広い視野角に起因して、互いに隣り合う一組のカメラで共通視野Vが形成されている。例えば、第1撮像部111及び第2撮像部112の組において第1共通視野V1が形成されている。例えば、第2撮像部112及び第3撮像部113の組において第2共通視野V2が形成されている。例えば、第3撮像部113及び第4撮像部114の組において第3共通視野V3が形成されている。例えば、第4撮像部114及び第1撮像部111の組において第4共通視野V4が形成されている。
The first camera of the
移動体1が有する電子機器10は、移動体1の移動方向となる前方に存在する対象S及び他の方向に存在する対象Sなどを検知して、移動体1の移動を支援する。本開示において、「対象S」は、物、歩行者などの人物、及び移動体1の周囲を移動する他の移動体などを含む。電子機器10は、検知した対象Sに関連した情報を移動体1の移動を操作している操作者に通知する。例えば、電子機器10は、検知した対象Sと移動体1との間の距離を測定し、対象Sと移動体1との衝突の危険性などをその距離に応じて予測する。電子機器10は、衝突の危険性などを操作者に通知して警告処理などを実行する。
The
電子機器10は、共通視野Vを有する一組の撮像部11による三角測量の処理を実行することで、各カメラを用いたモーションステレオによる測距の処理を精度良く実行する。以下では、電子機器10による処理の一例についてより詳細に説明する。
The
図3は、図2の電子機器10による処理の一例を説明するための第1図である。電子機器10の制御部13は、例えば、移動体1において全周囲カメラを構成する各カメラを用いて、時系列で前後関係を有する一対のフレーム画像から視差画像を生成する。以下では、視差画像の生成処理について第2撮像部112の第2カメラを一例に挙げて説明するが、同様の説明が他の撮像部11についても当てはまる。
Figure 3 is a first diagram for explaining an example of processing by the
図3の(a)は、時刻tでのフレーム画像の様子の一例を示す模式図である。図3の(b)は、時刻t-1でのフレーム画像の様子の一例を示す模式図である。図3に示される2つの模式図は、移動体1の右側に配置されて右方向を向く第2撮像部112の第2カメラにより撮像された第2画像の様子を一例として示す。
(a) in FIG. 3 is a schematic diagram showing an example of the appearance of a frame image at time t. (b) in FIG. 3 is a schematic diagram showing an example of the appearance of a frame image at time t-1. The two schematic diagrams shown in FIG. 3 show, as an example, the appearance of a second image captured by the second camera of the
移動体1は、所定の速度で前方に移動している。したがって、移動体1に配置されている4つの撮像部11も移動体1の移動に合わせてその位置を時間ごとに変化させる。例えば、第2撮像部112も、時刻t-1から時刻tに時間が経過することで、その位置を変化させる。結果として、時刻t-1でのフレーム画像と時刻tでのフレーム画像とは、第2撮像部112について互いに異なる撮像位置から撮像されたものとなる。これらのフレーム画像間には、視差が生じる。
The moving
電子機器10の制御部13は、時刻t-1でのフレーム画像と時刻tでのフレーム画像とに基づいて2つのフレーム画像の視差画像を生成する。制御部13は、例えば、ステレオマッチング法及びPlane Sweep法などの任意の方法を用いてモーションステレオにおける視差画像を生成する。
The
制御部13は、生成された視差画像に含まれる視差Dから奥行距離Zを以下の式1に基づいて算出する。
式1において、Bは、基線長、すなわち撮像部11の移動距離を表す。Bは、時刻tでのカメラの位置と時刻t-1でのカメラの位置とを結んだ線の長さを表す。fは、撮像部11に含まれるカメラの焦点距離を表す。
The
In
本開示において、「視差D」は、例えば、時刻tでのフレーム画像と時刻t-1でのフレーム画像との間で生じる、対象Sの所定の対応点の画像上での移動量を実空間上での物理的な距離に換算したものである。視差Dは、画素ごとのピクセルサイズの情報などに基づいて係数を乗算することで、上記の2つのフレーム画像間の所定の対応点についての画素の差分から物理的な距離に変換されたものである。「奥行距離Z」は、例えば、撮像部11に含まれるカメラの光軸に沿った、当該カメラから対象Sの所定の対応点までの距離である。
In this disclosure, "parallax D" is, for example, the amount of movement on an image of a specific corresponding point of target S that occurs between a frame image at time t and a frame image at time t-1, converted into a physical distance in real space. Parallax D is converted from the pixel difference for a specific corresponding point between the above two frame images into a physical distance by multiplying it by a coefficient based on information such as the pixel size of each pixel. "Depth distance Z" is, for example, the distance from a camera included in the
制御部13は、モーションステレオにおいて、上記の式1に従って奥行距離Zを算出するために、基線長B、焦点距離f、及び視差Dを情報として得る必要があるが、基線長Bを絶対距離として画像から算出することは容易ではない。したがって、モーションステレオのみでは基線長Bの値が未知であり、奥行距離Zを正確に算出することが容易ではない。
In motion stereo, the
そこで、制御部13は、4つの撮像部11のうちの少なくとも一組の撮像部11における各共通視野Vで三角測量を実行し、当該三角測量に基づいて基線長Bを撮像部11の移動距離として算出する。制御部13は、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する。以下では、三角測量を用いた基線長Bの算出処理について主に説明する。
Therefore, the
図4は、図2の電子機器10による処理の一例を説明するための第2図である。以下では、三角測量に基づく基線長Bの算出処理について、第1撮像部111の第1カメラ及び第2撮像部112の第2カメラの組を一例に挙げて説明するが、同様の説明が他の撮像部11の組についても当てはまる。
Figure 4 is a second diagram for explaining an example of processing by the
図4の(a)は、移動体1において前方を向く第1撮像部111の第1カメラにより撮像された第1画像の様子の一例を示す模式図である。図4の(b)は、移動体1において右方を向く第2撮像部112の第2カメラにより撮像された第2画像の様子の一例を示す模式図である。図4において模式図として示される2つの画像は、移動体1が移動している中で所定のタイミングで互いに同時に撮像されたものである。
(a) in FIG. 4 is a schematic diagram showing an example of a first image captured by the first camera of the
上述したとおり、移動体1に搭載されている全周囲カメラおいて、隣り合うカメラ同士で視野が重なる領域が共通視野Vとして存在する。制御部13は、三角測量の処理を実行するにあたり、図4に示される2つの画像での共通視野Vにおいて対応点Piを算出する。例えば、制御部13は、第1撮像部111の第1カメラにより撮像された第1画像と第2撮像部112の第2カメラにより撮像された第2画像との間で第1共通視野V1から対応点Piを算出する。制御部13は、算出された対応点Piに基づいて三角測量の処理を実行する。
As described above, in the omnidirectional cameras mounted on the moving
図5は、図2の電子機器10による処理の一例を説明するための第3図である。制御部13が実行する三角測量の処理において、以下のような演算が実行される。例えば、図5において、第1撮像部111の第1カメラと第2撮像部112の第2カメラとの間の距離Lは、以下の式2で表される。
Figure 5 is a third diagram for explaining an example of processing by the
式2において、Z’は、2つのカメラを基準としたときの奥行距離を表す。Z’は、第1カメラと第2カメラとを結ぶ長さLの線に対して対応点Piから下ろされた垂線の長さを表す。αは、第1カメラから対応点Piまで伸びる光線ベクトルrαの線と、第1カメラ及び第2カメラを互いに結ぶ長さLの線とが互いになす角度である。βは、第2カメラから対応点Piまで伸びる光線ベクトルrβの線と、第1カメラ及び第2カメラを互いに結ぶ長さLの線とが互いになす角度である。
In Equation 2, Z' represents the depth distance when the two cameras are used as references. Z' represents the length of a perpendicular line dropped from the corresponding point P i to a line of length L connecting the first camera and the second camera. α represents the angle between the line of the light vector r α extending from the first camera to the corresponding point P i and the line of length L connecting the first camera and the second camera. β represents the angle between the line of the light vector r β extending from the second camera to the corresponding point P i and the line of length L connecting the first camera and the second camera.
式2を変形すると、奥行距離Z’が以下の式3のように求まる。
一方で、制御部13は、第2撮像部112の第2カメラから対応点Piまでの奥行距離Zを、三角測量により算出したZ’に基づいて以下の式により算出する。
制御部13は、全ての対応点Pi(i=1、2、・・・n)に対して同様の演算処理を実行し、各対応点Piに対して奥行距離Ziを算出する。制御部13は、第2撮像部112の第2カメラに隣接する第1撮像部111の第1カメラに対しても同様の演算処理を実行する。制御部13は、第1カメラ及び第2カメラの両方に対して、各対応点Piに対する奥行距離Ziを算出する。
The
各対応点Piは、視差画像から取得可能な視差Diと、三角測量により取得した奥行距離Ziとを情報として有する。したがって、この2つのパラメータから基線長Biが算出される。 Each corresponding point P i has information on a disparity D i that can be obtained from a disparity image and a depth distance Z i obtained by triangulation. Therefore, a base line length B i is calculated from these two parameters.
制御部13は、上述したモーションステレオにより生成された、共通視野Vにおける対応点Piを含む視差画像での視差Diと、三角測量により得られた撮像部11から対応点Piまでの奥行距離Ziと、に基づいて基線長Biを撮像部11の移動距離として算出する。例えば、制御部13は、第2撮像部112の第2カメラを用いてモーションステレオにより生成された視差画像での視差Diと、三角測量により得られた第2カメラから対応点Piまでの奥行距離Ziと、に基づいて以下の式6により基線長Biを算出する。
The
図6は、図2の電子機器10による処理の一例を説明するための第4図である。制御部13は、上述した基線長Biの外れ値M2を除外するために、複数の対応点Piについて算出された基線長Biの最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を最終的に算出する。
Fig. 6 is a fourth diagram for explaining an example of processing by the
例えば、図6に示されるように、制御部13は、所定の撮像部11のカメラに対して得られた複数の基線長Biの各々に対して対応点Piの数をヒストグラム化する。制御部13は、外れ値M2を除外して、最頻値M1周辺の残りの基線長Biの平均値を算出する。
6, the
制御部13は、算出された平均値を、最終的な基線長B、すなわち撮像部11の移動距離として、モーションステレオによる測距の処理に利用する。制御部13は、当該平均値と視差画像における視差Dとに基づいて奥行距離Zを式1に従い算出する。これにより、制御部13は、所定の撮像部11のカメラの視野範囲全体で正確な奥行画像を生成し、当該奥行画像中に存在する全ての対象Sを測距することが可能となる。
The
図7は、図2の電子機器10による処理の一例を説明するための第5図である。上記の説明では、1つのカメラにおいて基線長Bが統計処理に基づき算出されているが、これに限定されない。制御部13は、複数組の撮像部11における複数の共通視野Vでそれぞれ算出された基線長Biの最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を最終的に算出してもよい。
7 is a fifth diagram for explaining an example of processing by the
式6により算出される基線長Biは、移動体1の移動に伴う撮像部11の移動距離であるので、全てのカメラにおいて同一の値となることが理想的である。しかしながら、例えば、夜間のシーンでは移動体1の前方が照明により照らされることで第1共通視野V1及び第4共通視野V4において対応点Piを算出することは可能であるが、他の共通視野Vでは暗いことが原因となって対応点Piの算出が容易ではない可能性もある。これにより、誤マッチングなどの影響をより受けやすくなり、撮像部11の移動距離の算出が容易でなくなる。結果的に、モーションステレオにより対象Sを測距することも容易でなくなる。夜間以外のシーンにおいても、全周囲カメラを構成する4つのカメラの全てで対応点Piを十分に得ることは容易ではない場合も想定される。
The base length B i calculated by Equation 6 is the moving distance of the
したがって、制御部13は、以上のような場合などを想定して、各カメラで算出した対応点Piに対応する基線長Biを統合し算出することで、移動体1における撮像部11全体の移動距離の情報を統合的に算出してもよい。例えば、図7の(b)に示されるように、制御部13は、全ての撮像部11のカメラに対して得られた複数の基線長Biの各々に対して対応点Piの数をヒストグラム化する。制御部13は、外れ値M2を除外して、最頻値M1周辺の残りの基線長Biの平均値を算出する。図7の(b)に示される最頻値M1は、図7の(a)に示される、第2撮像部112の第2カメラに対してのみ得られた複数の基線長Biに関するヒストグラムの最頻値M1と比較して統計的により明確に現れている。
Therefore, assuming the above-mentioned cases, the
制御部13は、算出された平均値を、最終的な基線長B、すなわち撮像部11の移動距離として、モーションステレオによる測距の処理に利用する。以上のように、制御部13は、4つの撮像部11のうちの複数組の撮像部11における各共通視野Vで三角測量を実行し、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距してもよい。
The
図8は、図2の電子機器10の動作の一例を説明するフローチャートである。図8を参照しながら、電子機器10により実行される測距方法の処理の一例について説明する。
Figure 8 is a flowchart illustrating an example of the operation of the
ステップS100では、電子機器10の制御部13は、撮像部11を用いて画像を撮像する。制御部13は、撮像部11を用いて撮像した画像を情報として記憶部12に格納する。
In step S100, the
ステップS101では、電子機器10の制御部13は、ステップS100において撮像された画像に基づいて、時刻t-1でのフレーム画像と時刻tでのフレーム画像との間の視差画像を生成する。
In step S101, the
ステップS102では、電子機器10の制御部13は、互いに異なる方向を向く4つの撮像部11のうちの少なくとも一組における各共通視野Vで三角測量を実行する。
In step S102, the
ステップS103では、電子機器10の制御部13は、ステップS102において実行された三角測量に基づいて、撮像部11から対応点Piまでの奥行距離Ziを算出する。
In step S103, the
ステップS104では、電子機器10の制御部13は、ステップS101で生成された視差画像での視差Diと、ステップS102における三角測量によりステップS103で得られた奥行距離Ziと、に基づいて撮像部11の移動距離を基線長Biとして算出する。
In step S104, the
ステップS105では、電子機器10の制御部13は、ステップS104において得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する。
In step S105, the
以上のような一実施形態に係る電子機器10によれば、移動体1から対象Sまでの測距の精度を向上可能である。電子機器10は、少なくとも一組の撮像部11における各共通視野Vで三角測量を実行し、得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する。これにより、電子機器10は、従来の単眼カメラによる測距と異なり、ダートなどの、平地以外の凸凹路面においても精度良く対象Sを測距可能である。電子機器10は、路面状態に依存しない、高精度な測距を実現可能である。電子機器10は、モーションステレオに加えて三角測量を実行することで、モーションステレオにおいて奥行距離Zの算出に必要となる基線長Bを撮像部11の移動距離として精度良く算出可能である。結果として、電子機器10は、モーションステレオにおいて奥行距離Zを正確に算出することが可能となる。
According to the
電子機器10は、視差画像での視差Diと、三角測量により得られた奥行距離Ziと、に基づいて撮像部11の移動距離を算出することで、モーションステレオにおいて奥行距離Zの算出に必要となる基線長Bを精度良く算出可能である。したがって、電子機器10は、モーションステレオにおいて奥行距離Zを正確に算出することが可能となる。
The
電子機器10は、複数の対応点Piについて算出された撮像部11の移動距離の最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を算出することで、基線長Biに関するサンプル数を増加させることが可能となる。したがって、電子機器10は、誤マッチングによりノイズとして生じた外れ値M2の判別をより容易に実行できる。電子機器10は、基線長Biの最頻値M1を算出し、対象Sの測距に用いる撮像部11の移動距離をより高精度に算出可能となる。結果として、電子機器10は、モーションステレオにおいて奥行距離Zをより正確に算出することが可能となる。
The
電子機器10は、移動体1に配置され、第1撮像部111及び第2撮像部112と異なる方向を向く第3撮像部113もさらに含むことで、2つの撮像部11を有する場合と比較して、移動体1の周囲のより広い範囲で対象Sを測距可能である。電子機器10は、共通視野Vを形成する撮像部11の組み合わせの数も増やすことができる。すわなち、電子機器10は、共通視野Vでの三角測量を実行する撮像部11の組み合わせの数も増やすことができる。
The
電子機器10は、3つの撮像部11のうちの複数組の撮像部11における各共通視野Vで三角測量を実行し、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する。これにより、電子機器10は、移動体1から対象Sまでの測距の精度をさらに向上可能である。電子機器10は、従来の単眼カメラによる測距と異なり、ダートなどの、平地以外の凸凹路面においても精度良く対象Sを測距可能である。電子機器10は、路面状態に依存しない、高精度な測距を実現可能である。電子機器10は、モーションステレオに加えて複数組の撮像部11で三角測量を実行することで、モーションステレオにおいて奥行距離Zの算出に必要となる基線長Bを撮像部11の移動距離として多角的に精度良く算出可能である。結果として、電子機器10は、モーションステレオにおいて奥行距離Zをより正確に算出することが可能となる。
The
電子機器10は、複数組の撮像部11における複数の共通視野Vでそれぞれ算出された撮像部11の移動距離の最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を算出する。これにより、電子機器10は、基線長Biに関するサンプル数をさらに増加させることが可能となる。したがって、電子機器10は、誤マッチングによりノイズとして生じた外れ値M2の判別をより容易に実行できる。電子機器10は、基線長Biの最頻値M1を算出し、対象Sの測距に用いる撮像部11の移動距離をより高精度に算出可能となる。結果として、電子機器10は、モーションステレオにおいて奥行距離Zをより正確に算出することが可能となる。例えば、電子機器10は、暗いシーン及び壁による背景などで所定のカメラで対応点Piが取れずに基線長Biを算出することが困難であるような場合であっても、他のカメラから基線長Biを補完することも可能となる。
The
電子機器10は、第1撮像部111、第2撮像部112、及び第3撮像部113が車両の前後左右のうちのいずれかの方向を向くようにそれぞれ配置されていることで、全周囲センシングシステムを構成して車両の全周囲で高精度な測距を実現可能である。電子機器10は、4つの撮像部11が車両の前後左右の4方向を向くようにそれぞれ配置されていることで、このような効果をより顕著に奏する。電子機器10は、車両の全周囲で死角のない高精度な測距を実現可能である。電子機器10は、LiDAR(Light Detection And Ranging)などの高価なセンサを必要とせずに、汎用の車載カメラのみで高精度な測距を実現可能である。電子機器10は、従来の一般的な全周囲センシングシステムを踏襲して高精度な測距を実現することも可能である。
The
本開示を諸図面及び実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び改変を行うことが可能であることに注意されたい。したがって、これらの変形及び改変は本開示の範囲に含まれることに留意されたい。例えば、各構成又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。 Although the present disclosure has been described based on the drawings and embodiments, it should be noted that a person skilled in the art would be able to make various modifications and alterations based on the present disclosure. Therefore, it should be noted that these modifications and alterations are included in the scope of the present disclosure. For example, the functions included in each configuration or step can be rearranged so as not to cause logical inconsistencies, and multiple configurations or steps can be combined into one or divided.
例えば、上述した各構成部の形状、大きさ、配置、向き、及び個数などは、上記の説明及び図面における図示の内容に限定されない。各構成部の形状、大きさ、配置、向き、及び個数などは、その機能を実現できるのであれば、任意に構成されてもよい。 For example, the shape, size, arrangement, orientation, and number of each of the above-mentioned components are not limited to the above description and the illustrations in the drawings. The shape, size, arrangement, orientation, and number of each of the components may be configured arbitrarily as long as the function can be realized.
例えば、スマートフォン又はコンピュータなどの汎用の端末装置を、上述した一実施形態に係る電子機器10の一部として機能させることも可能である。具体的には、一実施形態に係る電子機器10の各機能を実現する処理内容を記述したプログラムを、端末装置のメモリに格納し、端末装置のプロセッサにより当該プログラムを読み出して実行させる。したがって、本開示は、プロセッサが実行可能な測距プログラムとしても実現可能である。
For example, it is also possible to cause a general-purpose terminal device such as a smartphone or a computer to function as part of the
又は、本開示は、一実施形態に係る電子機器10などに各機能を実行させるために1つ又は複数のプロセッサにより実行可能な測距プログラムを記憶した非一時的なコンピュータ読取可能な媒体としても実現し得る。本開示の範囲には、これらも包含されると理解されたい。
Alternatively, the present disclosure may also be realized as a non-transitory computer-readable medium storing a ranging program executable by one or more processors to cause an
上記実施形態では、電子機器10は、移動体1に配置され、3つの撮像部11と異なる方向を向く第4撮像部114もさらに含む4つの撮像部11を有すると説明したが、これに限定されない。電子機器10は、移動体1に配置され、互いに異なる方向を向く第1撮像部111、第2撮像部112、及び第3撮像部113を含む3つの撮像部11を有してもよい。このとき、電子機器10の制御部13は、3つの撮像部11のうちの少なくとも一組の撮像部11における各共通視野Vで三角測量を実行し、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距してもよい。
In the above embodiment, the
電子機器10は、3つの撮像部11又は4つの撮像部11を有する構成に限定されず、2つの撮像部11を有してもよいし、5つ以上の撮像部11を有してもよい。
The
上記実施形態では、電子機器10は、共通視野Vにおける対応点Piを含む視差画像での視差Diと、三角測量により得られた撮像部11から対応点Piまでの奥行距離Ziと、に基づいて撮像部11の移動距離を算出すると説明したが、これに限定されない。電子機器10は、任意の他の方法を用いて、モーションステレオにおいて奥行距離Zの算出に必要となる基線長B、すなわち撮像部11の移動距離を算出してもよい。
In the above embodiment, the
上記実施形態では、電子機器10は、複数の対応点Piについて算出された撮像部11の移動距離の最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を算出すると説明したが、これに限定されない。電子機器10は、このような統計処理を実行しなくてもよい。
In the above embodiment, the
上記実施形態では、電子機器10は、複数組の撮像部11における複数の共通視野Vでそれぞれ算出された撮像部11の移動距離の最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を算出すると説明したが、これに限定されない。電子機器10は、このような統計処理を実行しなくてもよい。
In the above embodiment, the
上記実施形態では、電子機器10では、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114は、車両の前後左右の4方向を向くようにそれぞれ配置されていると説明したが、これに限定されない。4つの撮像部11は、車両の全周囲で測距可能に配置されていなくてもよく、車両の全周囲の一部のみを測距可能に配置されていてもよい。
In the above embodiment, the
以下に本開示の実施形態の一部について例示する。しかしながら、本開示の実施形態はこれらに限定されない点に留意されたい。
[付記1]
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部と、
2つの前記撮像部における共通視野で三角測量を実行し、前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距する制御部と、
を備える、
電子機器。
[付記2]
付記1に記載の電子機器であって、
前記制御部は、前記モーションステレオにより生成された、前記共通視野における対応点を含む視差画像での視差と、前記三角測量により得られた前記撮像部から前記対応点までの奥行距離と、に基づいて前記移動距離を算出する、
電子機器。
[付記3]
付記2に記載の電子機器であって、
前記制御部は、複数の前記対応点について算出された前記移動距離の最頻値に基づく統計処理により前記対象の測距に用いる前記移動距離を算出する、
電子機器。
[付記4]
付記1乃至3のいずれか1つに記載の電子機器であって、
前記撮像部が、
前記移動体に配置され、前記第1撮像部及び前記第2撮像部と異なる方向を向く第3撮像部もさらに含む、
電子機器。
[付記5]
付記4に記載の電子機器であって、
前記制御部は、3つの前記撮像部のうちの複数組の前記撮像部における各共通視野で三角測量を実行し、前記三角測量に基づき得られた前記移動距離からモーションステレオにより前記対象を測距する、
電子機器。
[付記6]
付記5に記載の電子機器であって、
前記制御部は、複数組の前記撮像部における複数の共通視野でそれぞれ算出された前記移動距離の最頻値に基づく統計処理により前記対象の測距に用いる前記移動距離を算出する、
電子機器。
[付記7]
付記4乃至6のいずれか1つに記載の電子機器であって、
前記移動体が車両を含み、
前記第1撮像部、前記第2撮像部、及び前記第3撮像部は、前記車両の前後左右のうちのいずれかの方向を向くようにそれぞれ配置されている、
電子機器。
[付記8]
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む、
測距方法。
[付記9]
電子機器に、
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む動作を実行させる、
測距プログラム。
Some of the embodiments of the present disclosure will be described below as examples. However, it should be noted that the embodiments of the present disclosure are not limited to these examples.
[Appendix 1]
An imaging unit that is disposed on the moving body and includes a first imaging unit and a second imaging unit that face in different directions;
a control unit that performs triangulation in a common field of view of the two imaging units and measures a distance to an object by motion stereo from a moving distance of the imaging units obtained based on the triangulation;
Equipped with
Electronic devices.
[Appendix 2]
2. The electronic device according to
the control unit calculates the movement distance based on a parallax in a parallax image including the corresponding point in the common field of view generated by the motion stereo and a depth distance from the imaging unit to the corresponding point obtained by the triangulation.
Electronic devices.
[Appendix 3]
3. The electronic device according to claim 2,
the control unit calculates the movement distance used for measuring the distance to the object by statistical processing based on a mode value of the movement distances calculated for the plurality of corresponding points.
Electronic devices.
[Appendix 4]
An electronic device according to any one of
The imaging unit,
The imaging device further includes a third imaging unit that is disposed on the moving body and faces in a direction different from the first imaging unit and the second imaging unit.
Electronic devices.
[Appendix 5]
The electronic device according to claim 4,
The control unit performs triangulation in a common field of view of each of the plurality of sets of the imaging units among the three imaging units, and measures the distance to the object by motion stereo from the movement distance obtained based on the triangulation.
Electronic devices.
[Appendix 6]
6. The electronic device according to claim 5,
the control unit calculates the moving distance used for measuring the distance to the object by statistical processing based on a mode of the moving distances calculated in a plurality of common fields of view in a plurality of sets of the imaging units.
Electronic devices.
[Appendix 7]
7. An electronic device according to any one of claims 4 to 6,
the moving object includes a vehicle,
The first imaging unit, the second imaging unit, and the third imaging unit are each arranged to face any one of the front, rear, left, and right directions of the vehicle.
Electronic devices.
[Appendix 8]
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
Including,
Distance measurement method.
[Appendix 9]
For electronic devices,
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
performing an operation including
Ranging program.
1 移動体
10 電子機器
11 撮像部
111 第1撮像部
112 第2撮像部
113 第3撮像部
114 第4撮像部
12 記憶部
13 制御部
B、Bi 基線長
D、Di 視差
f 焦点距離
M1 最頻値
M2 外れ値
Pi 対応点
S 対象
V 共通視野
V1 第1共通視野
V2 第2共通視野
V3 第3共通視野
V4 第4共通視野
Z、Zi、Z’ 奥行距離
REFERENCE SIGNS
Claims (9)
2つの前記撮像部における共通視野で三角測量を実行し、前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距する制御部と、
を備える、
電子機器。 An imaging unit that is disposed on the moving body and includes a first imaging unit and a second imaging unit that face in different directions;
a control unit that performs triangulation in a common field of view of the two imaging units and measures a distance to an object by motion stereo from a moving distance of the imaging units obtained based on the triangulation;
Equipped with
Electronic devices.
前記制御部は、前記モーションステレオにより生成された、前記共通視野における対応点を含む視差画像での視差と、前記三角測量により得られた前記撮像部から前記対応点までの奥行距離と、に基づいて前記移動距離を算出する、
電子機器。 2. The electronic device according to claim 1,
the control unit calculates the movement distance based on a parallax in a parallax image including the corresponding point in the common field of view generated by the motion stereo and a depth distance from the imaging unit to the corresponding point obtained by the triangulation.
Electronic devices.
前記制御部は、複数の前記対応点について算出された前記移動距離の最頻値に基づく統計処理により前記対象の測距に用いる前記移動距離を算出する、
電子機器。 3. The electronic device according to claim 2,
the control unit calculates the movement distance used for measuring the distance to the object by statistical processing based on a mode value of the movement distances calculated for the plurality of corresponding points.
Electronic devices.
前記撮像部が、
前記移動体に配置され、前記第1撮像部及び前記第2撮像部と異なる方向を向く第3撮像部もさらに含む、
電子機器。 4. The electronic device according to claim 1,
The imaging unit,
The imaging device further includes a third imaging unit that is disposed on the moving body and faces in a direction different from the first imaging unit and the second imaging unit.
Electronic devices.
前記制御部は、3つの前記撮像部のうちの複数組の前記撮像部における各共通視野で三角測量を実行し、前記三角測量に基づき得られた前記移動距離からモーションステレオにより前記対象を測距する、
電子機器。 5. The electronic device according to claim 4,
The control unit performs triangulation in a common field of view of each of the plurality of sets of the imaging units among the three imaging units, and measures the distance to the object by motion stereo from the movement distance obtained based on the triangulation.
Electronic devices.
前記制御部は、複数組の前記撮像部における複数の共通視野でそれぞれ算出された前記移動距離の最頻値に基づく統計処理により前記対象の測距に用いる前記移動距離を算出する、
電子機器。 6. The electronic device according to claim 5,
the control unit calculates the moving distance used for measuring the distance to the object by statistical processing based on a mode of the moving distances calculated in a plurality of common fields of view in a plurality of sets of the imaging units.
Electronic devices.
前記移動体が車両を含み、
前記第1撮像部、前記第2撮像部、及び前記第3撮像部は、前記車両の前後左右のうちのいずれかの方向を向くようにそれぞれ配置されている、
電子機器。 5. The electronic device according to claim 4,
the moving object includes a vehicle,
The first imaging unit, the second imaging unit, and the third imaging unit are each arranged to face any one of the front, rear, left, and right directions of the vehicle.
Electronic devices.
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む、
測距方法。 A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
Including,
Distance measurement method.
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む動作を実行させる、
測距プログラム。
For electronic devices,
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
performing an operation including
Ranging program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023048868A JP2024137371A (en) | 2023-03-24 | 2023-03-24 | Electronic device, distance measurement method, and distance measurement program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023048868A JP2024137371A (en) | 2023-03-24 | 2023-03-24 | Electronic device, distance measurement method, and distance measurement program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024137371A true JP2024137371A (en) | 2024-10-07 |
Family
ID=92969325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023048868A Pending JP2024137371A (en) | 2023-03-24 | 2023-03-24 | Electronic device, distance measurement method, and distance measurement program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024137371A (en) |
-
2023
- 2023-03-24 JP JP2023048868A patent/JP2024137371A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11836989B2 (en) | Vehicular vision system that determines distance to an object | |
EP3358295B1 (en) | Image processing device, stereo camera device, vehicle, and image processing method | |
CN110178369B (en) | Camera device, camera system and display system | |
JP7107931B2 (en) | Method and apparatus for estimating range of moving objects | |
US20150248594A1 (en) | Disparity value deriving device, equipment control system, movable apparatus, and robot | |
JP2020042775A (en) | Method and system for sensing obstacle, computer device, and computer storage medium | |
JP6456499B2 (en) | Three-dimensional object detection device, stereo camera device, vehicle, and three-dimensional object detection method | |
JP6855325B2 (en) | Image processing equipment, stereo camera systems, moving objects, road surface shape detection methods and programs | |
JP6589313B2 (en) | Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program | |
US20230109473A1 (en) | Vehicle, electronic apparatus, and control method thereof | |
JP6455164B2 (en) | Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program | |
JP6543935B2 (en) | PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM | |
JPWO2016208200A1 (en) | Image processing apparatus, stereo camera apparatus, vehicle, and image processing method | |
JP6674959B2 (en) | Parallax calculating device, stereo camera device, vehicle, and parallax calculating method | |
KR101469717B1 (en) | Video system and method using cameras with a wide angle | |
CN118570289A (en) | Method and device for positioning optical center of automobile camera | |
JP2024137371A (en) | Electronic device, distance measurement method, and distance measurement program | |
CN112270311A (en) | A method and system for fast near target detection based on vehicle-mounted surround-view reverse projection | |
WO2022141262A1 (en) | Object detection | |
JP7621828B2 (en) | IMAGE PROCESSING DEVICE, STEREO CAMERA DEVICE, MOBILE BODY, AND IMAGE PROCESSING METHOD | |
JP7516204B2 (en) | IMAGE PROCESSING DEVICE, STEREO CAMERA DEVICE, MOBILE BODY, AND IMAGE PROCESSING METHOD | |
JP7569173B2 (en) | IMAGE PROCESSING DEVICE, STEREO CAMERA DEVICE, MOBILE BODY, AND IMAGE PROCESSING METHOD | |
EP3876199B1 (en) | Image processing apparatus, image pickup apparatus, mobile object and image processing method | |
JP7334572B2 (en) | Object detection device and object detection program | |
KR20230110949A (en) | Vehicle, electronic apparatus and method for controlling thereof |