[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2024137371A - Electronic device, distance measurement method, and distance measurement program - Google Patents

Electronic device, distance measurement method, and distance measurement program Download PDF

Info

Publication number
JP2024137371A
JP2024137371A JP2023048868A JP2023048868A JP2024137371A JP 2024137371 A JP2024137371 A JP 2024137371A JP 2023048868 A JP2023048868 A JP 2023048868A JP 2023048868 A JP2023048868 A JP 2023048868A JP 2024137371 A JP2024137371 A JP 2024137371A
Authority
JP
Japan
Prior art keywords
imaging unit
distance
electronic device
imaging
triangulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023048868A
Other languages
Japanese (ja)
Inventor
一希 山中
Kazuki Yamanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2023048868A priority Critical patent/JP2024137371A/en
Publication of JP2024137371A publication Critical patent/JP2024137371A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)

Abstract

【課題】移動体から対象までの測距の精度を向上可能な電子機器を提供する。【解決手段】本開示に係る電子機器10は、移動体1に配置され、互いに異なる方向を向く第1撮像部111及び第2撮像部112を含む撮像部11と、2つの撮像部11における共通視野Vで三角測量を実行し、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する制御部13と、を備える。【選択図】図1[Problem] To provide an electronic device capable of improving the accuracy of distance measurement from a moving body to an object. [Solution] The electronic device 10 according to the present disclosure is provided with an imaging unit 11 that is disposed on a moving body 1 and includes a first imaging unit 111 and a second imaging unit 112 that face in different directions, and a control unit 13 that performs triangulation in a common field of view V of the two imaging units 11 and measures the distance to an object S by motion stereo from the movement distance of the imaging unit 11 obtained based on the triangulation. [Selected Figure] Figure 1

Description

本開示は、電子機器、測距方法、及び測距プログラムに関する。 This disclosure relates to an electronic device, a distance measurement method, and a distance measurement program.

従来、車両などの移動体に配置されたカメラなどの撮像部を用いて移動体から対象までの距離を測定する測距技術が知られている。例えば、特許文献1には、ステレオカメラの測距のための処理負荷を低減するステレオカメラシステム及び測距方法が開示されている。 Conventionally, distance measurement technology is known that measures the distance from a moving object such as a vehicle to an object using an imaging unit such as a camera arranged on the moving object. For example, Patent Document 1 discloses a stereo camera system and a distance measurement method that reduce the processing load for distance measurement by the stereo camera.

特開2020-190925号JP 2020-190925 A

しかしながら、従来技術では、移動体から対象までの測距の精度について改善の余地があった。 However, conventional technology leaves room for improvement in the accuracy of measuring the distance from a moving body to a target.

本開示は、移動体から対象までの測距の精度を向上可能な電子機器、測距方法、及び測距プログラムを提供することを目的とする。 The present disclosure aims to provide an electronic device, a distance measurement method, and a distance measurement program that can improve the accuracy of measuring the distance from a moving body to a target.

上記の課題を解決するための第1の観点による電子機器は、
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部と、
2つの前記撮像部における共通視野で三角測量を実行し、前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距する制御部と、
を備える。
According to a first aspect of the present invention, there is provided an electronic device comprising:
An imaging unit that is disposed on the moving body and includes a first imaging unit and a second imaging unit that face in different directions;
a control unit that performs triangulation in a common field of view of the two imaging units and measures a distance to an object by motion stereo from a moving distance of the imaging units obtained based on the triangulation;
Equipped with.

第2の観点による測距方法は、
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む。
The distance measuring method according to the second aspect comprises:
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
Includes.

第3の観点による測距プログラムは、
電子機器に、
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む動作を実行させる。
The third aspect of the distance measurement program is
For electronic devices,
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
The method executes an operation including:

本開示によれば、移動体から対象までの測距の精度を向上可能な電子機器、測距方法、及び測距プログラムを提供可能である。 The present disclosure makes it possible to provide an electronic device, a distance measurement method, and a distance measurement program that can improve the accuracy of measuring distances from a moving body to a target.

本開示の一実施形態に係る電子機器を有する移動体による測距の様子を示した模式図である。1 is a schematic diagram showing distance measurement performed by a moving object having an electronic device according to an embodiment of the present disclosure; 本開示の一実施形態に係る電子機器の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a configuration of an electronic device according to an embodiment of the present disclosure. 図2の電子機器による処理の一例を説明するための第1図である。FIG. 3 is a first diagram for explaining an example of processing by the electronic device of FIG. 2 . 図2の電子機器による処理の一例を説明するための第2図である。FIG. 3 is a second diagram for explaining an example of processing by the electronic device of FIG. 2 . 図2の電子機器による処理の一例を説明するための第3図である。FIG. 3 is a third diagram for explaining an example of processing by the electronic device of FIG. 2 . 図2の電子機器による処理の一例を説明するための第4図である。FIG. 4 is a fourth diagram for explaining an example of processing by the electronic device of FIG. 2 . 図2の電子機器による処理の一例を説明するための第5図である。FIG. 5 is a diagram for explaining an example of processing by the electronic device of FIG. 2 . 図2の電子機器の動作の一例を説明するフローチャートである。3 is a flowchart illustrating an example of an operation of the electronic device of FIG. 2 .

以下では、添付図面を参照しながら本開示の一実施形態について主に説明する。以下の説明は、本開示を適用した測距方法及び測距プログラムにも当てはまる。 Below, one embodiment of the present disclosure will be mainly described with reference to the attached drawings. The following description also applies to a ranging method and a ranging program to which the present disclosure is applied.

図1は、本開示の一実施形態に係る電子機器10を有する移動体1による測距の様子を示した模式図である。図2は、本開示の一実施形態に係る電子機器10の構成の一例を示すブロック図である。図1及び図2を参照しながら、移動体1及び移動体1が有する電子機器10の構成、並びに移動体1が有する電子機器10による測距の様子の一例について主に説明する。 FIG. 1 is a schematic diagram showing distance measurement by a mobile object 1 having an electronic device 10 according to an embodiment of the present disclosure. FIG. 2 is a block diagram showing an example of the configuration of an electronic device 10 according to an embodiment of the present disclosure. With reference to FIGS. 1 and 2, the configuration of the mobile object 1 and the electronic device 10 possessed by the mobile object 1, and an example of distance measurement by the electronic device 10 possessed by the mobile object 1 will be mainly described.

本開示の一実施形態に係る電子機器10は、例えば、移動体1に搭載される。本開示において、「移動体1」は、車両、船舶、航空機、及びドローンなどを含む。「車両」は、自動車、産業車両、鉄道車両、生活車両、及び滑走路を走行する固定翼機などを含む。「自動車」は、乗用車、トラック、バス、二輪車、及びトロリーバスなどを含む。「産業車両」は、農業及び建設向けの産業車両などを含む。産業車両は、フォークリフト及びゴルフカートなどを含む。農業向けの産業車両は、トラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機などを含む。建設向けの産業車両は、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラなどを含む。車両は、自動運転により走行するもの、運転者による運転に基づいて走行するもの、及び人力で走行するものなどを含む。車両の分類は、上述した例に限定されない。例えば、自動車は、道路を走行可能な産業車両を含んでもよい。複数の分類に同一の車両が含まれてもよい。「船舶」は、客船、マリンジェット、ボート、及びタンカーなどを含む。「航空機」は、固定翼機及び回転翼機などを含む。「ドローン」は、飛行用及び水中移動用などのドローンを含む。 The electronic device 10 according to an embodiment of the present disclosure is mounted on, for example, a moving body 1. In the present disclosure, the "moving body 1" includes vehicles, ships, aircraft, drones, and the like. The "vehicles" include automobiles, industrial vehicles, railroad vehicles, lifestyle vehicles, and fixed-wing aircraft that run on runways. The "automobiles" include passenger cars, trucks, buses, motorcycles, trolley buses, and the like. The "industrial vehicles" include industrial vehicles for agriculture and construction, and the like. The industrial vehicles include forklifts and golf carts, and the like. The industrial vehicles for agriculture include tractors, cultivators, transplanters, binders, combines, and lawnmowers, and the like. The industrial vehicles for construction include bulldozers, scrapers, excavators, cranes, dump trucks, and road rollers, and the like. The vehicles include those that run by automatic driving, those that run based on the driving by a driver, and those that run by human power. The classification of vehicles is not limited to the above examples. For example, the automobile may include an industrial vehicle that can run on a road. The same vehicle may be included in multiple classifications. "Marines" includes passenger ships, watercraft, boats, and tankers. "Aircraft" includes fixed-wing and rotary-wing aircraft. "Drones" includes drones for flying and underwater mobility, etc.

図2に示されるように、電子機器10は、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114と、記憶部12と、制御部13と、を有する。以下では、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114を互いに区別しないときは、「撮像部11」と表記する。第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114は、移動体1に配置されている。 2, the electronic device 10 has a first imaging section 111, a second imaging section 112, a third imaging section 113, and a fourth imaging section 114, a storage section 12, and a control section 13. Hereinafter, when the first imaging section 111, the second imaging section 112, the third imaging section 113, and the fourth imaging section 114 are not to be distinguished from one another, they will be referred to as "imaging section 11." The first imaging section 111, the second imaging section 112, the third imaging section 113, and the fourth imaging section 114 are disposed in the moving body 1.

第1撮像部111は、移動体1から第1方向に向いて当該第1方向の光景を撮像する。第1撮像部111は、撮像した光景を第1画像として制御部13に出力する。本開示において、「第1画像」は、例えば、少なくとも1つの静止画及び複数の静止画をフレームとして連続的に含む動画を含む。第1撮像部111は、例えば、第1カメラを含む。第1カメラは、魚眼レンズを有する単眼カメラなどを含む。これに限定されず、第1カメラは、魚眼レンズ以外の超広角レンズにより180°から360°に近い視野角を有する単眼カメラなどを含んでもよい。第1カメラは、広角レンズを有する単眼カメラなどを含んでもよい。第1カメラは、図1を用いて後述する共通視野Vを隣り合うカメラとの間で形成可能な視野角を有する任意の他の単眼カメラなどを含んでもよい。その他にも、第1カメラは、単眼カメラに限定されず、複眼カメラなどを含んでもよい。 The first imaging unit 111 faces the moving body 1 in a first direction and captures a scene in the first direction. The first imaging unit 111 outputs the captured scene to the control unit 13 as a first image. In this disclosure, the "first image" includes, for example, at least one still image and a video including a plurality of still images successively as frames. The first imaging unit 111 includes, for example, a first camera. The first camera includes a monocular camera having a fisheye lens. Without being limited thereto, the first camera may include a monocular camera having a viewing angle of 180° to nearly 360° using an ultra-wide-angle lens other than a fisheye lens. The first camera may include a monocular camera having a wide-angle lens. The first camera may include any other monocular camera having a viewing angle capable of forming a common field of view V, which will be described later with reference to FIG. 1, between adjacent cameras. In addition, the first camera is not limited to a monocular camera and may include a compound eye camera.

第2撮像部112は、移動体1から第2方向に向いて当該第2方向の光景を撮像する。第2撮像部112は、撮像した光景を第2画像として制御部13に出力する。本開示において、「第2画像」は、例えば、少なくとも1つの静止画及び複数の静止画をフレームとして連続的に含む動画を含む。第2撮像部112は、例えば、第2カメラを含む。第2カメラは、魚眼レンズを有する単眼カメラなどを含む。これに限定されず、第2カメラは、魚眼レンズ以外の超広角レンズにより180°から360°に近い視野角を有する単眼カメラなどを含んでもよい。第2カメラは、広角レンズを有する単眼カメラなどを含んでもよい。第2カメラは、共通視野Vを隣り合うカメラとの間で形成可能な視野角を有する任意の他の単眼カメラなどを含んでもよい。その他にも、第2カメラは、単眼カメラに限定されず、複眼カメラなどを含んでもよい。 The second imaging unit 112 faces the moving body 1 in a second direction and captures a scene in the second direction. The second imaging unit 112 outputs the captured scene to the control unit 13 as a second image. In this disclosure, the "second image" includes, for example, at least one still image and a video including a plurality of still images successively as frames. The second imaging unit 112 includes, for example, a second camera. The second camera includes a monocular camera having a fisheye lens. Without being limited thereto, the second camera may include a monocular camera having a viewing angle of 180° to nearly 360° using an ultra-wide-angle lens other than a fisheye lens. The second camera may include a monocular camera having a wide-angle lens. The second camera may include any other monocular camera having a viewing angle capable of forming a common field of view V between adjacent cameras. In addition, the second camera is not limited to a monocular camera and may include a compound eye camera.

第3撮像部113は、移動体1から第3方向に向いて当該第3方向の光景を撮像する。第3撮像部113は、撮像した光景を第3画像として制御部13に出力する。本開示において、「第3画像」は、例えば、少なくとも1つの静止画及び複数の静止画をフレームとして連続的に含む動画を含む。第3撮像部113は、例えば、第3カメラを含む。第3カメラは、魚眼レンズを有する単眼カメラなどを含む。これに限定されず、第3カメラは、魚眼レンズ以外の超広角レンズにより180°から360°に近い視野角を有する単眼カメラなどを含んでもよい。第3カメラは、広角レンズを有する単眼カメラなどを含んでもよい。第3カメラは、共通視野Vを隣り合うカメラとの間で形成可能な視野角を有する任意の他の単眼カメラなどを含んでもよい。その他にも、第3カメラは、単眼カメラに限定されず、複眼カメラなどを含んでもよい。 The third imaging unit 113 faces the moving body 1 in the third direction and captures a scene in the third direction. The third imaging unit 113 outputs the captured scene to the control unit 13 as a third image. In this disclosure, the "third image" includes, for example, at least one still image and a video including a plurality of still images successively as frames. The third imaging unit 113 includes, for example, a third camera. The third camera includes a monocular camera having a fisheye lens. Without being limited thereto, the third camera may include a monocular camera having a viewing angle of 180° to nearly 360° using an ultra-wide-angle lens other than a fisheye lens. The third camera may include a monocular camera having a wide-angle lens. The third camera may include any other monocular camera having a viewing angle capable of forming a common field of view V between adjacent cameras. In addition, the third camera is not limited to a monocular camera and may include a compound eye camera.

第4撮像部114は、移動体1から第4方向に向いて当該第4方向の光景を撮像する。第4撮像部114は、撮像した光景を第4画像として制御部13に出力する。本開示において、「第4画像」は、例えば、少なくとも1つの静止画及び複数の静止画をフレームとして連続的に含む動画を含む。第4撮像部114は、例えば、第4カメラを含む。第4カメラは、魚眼レンズを有する単眼カメラなどを含む。これに限定されず、第4カメラは、魚眼レンズ以外の超広角レンズにより180°から360°に近い視野角を有する単眼カメラなどを含んでもよい。第4カメラは、広角レンズを有する単眼カメラなどを含んでもよい。第4カメラは、共通視野Vを隣り合うカメラとの間で形成可能な視野角を有する任意の他の単眼カメラなどを含んでもよい。その他にも、第4カメラは、単眼カメラに限定されず、複眼カメラなどを含んでもよい。 The fourth imaging unit 114 faces the moving body 1 in the fourth direction and captures a scene in the fourth direction. The fourth imaging unit 114 outputs the captured scene to the control unit 13 as a fourth image. In this disclosure, the "fourth image" includes, for example, at least one still image and a video including a plurality of still images successively as frames. The fourth imaging unit 114 includes, for example, a fourth camera. The fourth camera includes a monocular camera having a fisheye lens. Without being limited thereto, the fourth camera may include a monocular camera having a viewing angle of 180° to nearly 360° using an ultra-wide-angle lens other than a fisheye lens. The fourth camera may include a monocular camera having a wide-angle lens. The fourth camera may include any other monocular camera having a viewing angle capable of forming a common field of view V between adjacent cameras. In addition, the fourth camera is not limited to a monocular camera and may include a compound eye camera.

記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、及びRAM(Random Access Memory)などの記憶装置を含む。記憶部12は、電子機器10の動作を実現するために必要な情報を記憶する。記憶部12は、電子機器10の動作によって得られた情報を記憶する。例えば、記憶部12は、システムプログラム、アプリケーションプログラム、及び通信などの任意の手段で取得される各種データなどを記憶する。 The storage unit 12 includes storage devices such as a hard disk drive (HDD), a solid state drive (SSD), an electrically erasable programmable read-only memory (EEPROM), a read-only memory (ROM), and a random access memory (RAM). The storage unit 12 stores information necessary to realize the operation of the electronic device 10. The storage unit 12 stores information obtained by the operation of the electronic device 10. For example, the storage unit 12 stores system programs, application programs, and various data obtained by any means such as communication.

記憶部12は、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部12は、電子機器10に内蔵されているものに限定されず、USB(Universal Serial Bus)などのデジタル入出力ポートなどによって接続されている外付け型の記憶装置であってもよい。 The memory unit 12 may function as a main memory device, an auxiliary memory device, or a cache memory. The memory unit 12 is not limited to being built into the electronic device 10, but may be an external memory device connected via a digital input/output port such as a Universal Serial Bus (USB).

制御部13は、1つ以上のプロセッサを含む。本開示において、「プロセッサ」は、汎用のプロセッサ、又は特定の処理に特化した専用のプロセッサであるが、これらに限定されない。制御部13は、電子機器10を構成する各構成部と通信可能に接続され、電子機器10全体の動作を制御する。例えば、制御部13は、車両としての移動体1が有するECU(Electronic Control Unit)の一部を構成してもよい。 The control unit 13 includes one or more processors. In this disclosure, a "processor" refers to, but is not limited to, a general-purpose processor or a dedicated processor specialized for a particular process. The control unit 13 is communicatively connected to each component constituting the electronic device 10, and controls the operation of the entire electronic device 10. For example, the control unit 13 may constitute a part of an ECU (Electronic Control Unit) possessed by the mobile object 1 as a vehicle.

図1に示されるように、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114を含む4つの撮像部11は、移動体1に配置され、互いに異なる方向を向く。例えば、移動体1が車両を含むとき、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114は、車両の前後左右の4方向を向くようにそれぞれ配置されている。 As shown in FIG. 1, the four imaging units 11 including the first imaging unit 111, the second imaging unit 112, the third imaging unit 113, and the fourth imaging unit 114 are disposed on the moving body 1 and face in different directions. For example, when the moving body 1 includes a vehicle, the first imaging unit 111, the second imaging unit 112, the third imaging unit 113, and the fourth imaging unit 114 are disposed so as to face in four directions, namely, the front, rear, left, and right, of the vehicle.

一例として、移動体1から第1撮像部111が向いている第1方向は、前方向に対応する。移動体1から第2撮像部112が向いている第2方向は、右方向に対応する。移動体1から第3撮像部113が向いている第3方向は、後方向に対応する。移動体1から第4撮像部114が向いている第4方向は、左方向に対応する。4つの撮像部11にそれぞれ含まれる4つのカメラは、移動体1において全周囲カメラを構成する。 As an example, the first direction in which the first imaging unit 111 faces from the moving body 1 corresponds to the forward direction. The second direction in which the second imaging unit 112 faces from the moving body 1 corresponds to the rightward direction. The third direction in which the third imaging unit 113 faces from the moving body 1 corresponds to the backward direction. The fourth direction in which the fourth imaging unit 114 faces from the moving body 1 corresponds to the leftward direction. The four cameras included in each of the four imaging units 11 constitute an all-around camera in the moving body 1.

第1撮像部111の第1カメラ、第2撮像部112の第2カメラ、第3撮像部113の第3カメラ、及び第4撮像部114の第4カメラの各々は、180°に近い視野角を有する。各カメラが有する広い視野角に起因して、互いに隣り合う一組のカメラで共通視野Vが形成されている。例えば、第1撮像部111及び第2撮像部112の組において第1共通視野V1が形成されている。例えば、第2撮像部112及び第3撮像部113の組において第2共通視野V2が形成されている。例えば、第3撮像部113及び第4撮像部114の組において第3共通視野V3が形成されている。例えば、第4撮像部114及び第1撮像部111の組において第4共通視野V4が形成されている。 The first camera of the first imaging unit 111, the second camera of the second imaging unit 112, the third camera of the third imaging unit 113, and the fourth camera of the fourth imaging unit 114 each have a viewing angle close to 180°. Due to the wide viewing angle of each camera, a common field of view V is formed by a pair of adjacent cameras. For example, a first common field of view V1 is formed in the pair of the first imaging unit 111 and the second imaging unit 112. For example, a second common field of view V2 is formed in the pair of the second imaging unit 112 and the third imaging unit 113. For example, a third common field of view V3 is formed in the pair of the third imaging unit 113 and the fourth imaging unit 114. For example, a fourth common field of view V4 is formed in the pair of the fourth imaging unit 114 and the first imaging unit 111.

移動体1が有する電子機器10は、移動体1の移動方向となる前方に存在する対象S及び他の方向に存在する対象Sなどを検知して、移動体1の移動を支援する。本開示において、「対象S」は、物、歩行者などの人物、及び移動体1の周囲を移動する他の移動体などを含む。電子機器10は、検知した対象Sに関連した情報を移動体1の移動を操作している操作者に通知する。例えば、電子機器10は、検知した対象Sと移動体1との間の距離を測定し、対象Sと移動体1との衝突の危険性などをその距離に応じて予測する。電子機器10は、衝突の危険性などを操作者に通知して警告処理などを実行する。 The electronic device 10 possessed by the moving body 1 detects an object S that exists in front of the moving body 1 in the moving direction, and an object S that exists in another direction, and supports the movement of the moving body 1. In this disclosure, "object S" includes objects, people such as pedestrians, and other moving bodies moving around the moving body 1. The electronic device 10 notifies an operator who is controlling the movement of the moving body 1 of information related to the detected object S. For example, the electronic device 10 measures the distance between the detected object S and the moving body 1, and predicts the risk of collision between the object S and the moving body 1 according to the distance. The electronic device 10 notifies the operator of the risk of collision and executes a warning process.

電子機器10は、共通視野Vを有する一組の撮像部11による三角測量の処理を実行することで、各カメラを用いたモーションステレオによる測距の処理を精度良く実行する。以下では、電子機器10による処理の一例についてより詳細に説明する。 The electronic device 10 performs triangulation processing using a set of imaging units 11 that have a common field of view V, thereby performing motion stereo ranging processing using each camera with high accuracy. An example of processing performed by the electronic device 10 is described in more detail below.

図3は、図2の電子機器10による処理の一例を説明するための第1図である。電子機器10の制御部13は、例えば、移動体1において全周囲カメラを構成する各カメラを用いて、時系列で前後関係を有する一対のフレーム画像から視差画像を生成する。以下では、視差画像の生成処理について第2撮像部112の第2カメラを一例に挙げて説明するが、同様の説明が他の撮像部11についても当てはまる。 Figure 3 is a first diagram for explaining an example of processing by the electronic device 10 of Figure 2. The control unit 13 of the electronic device 10 generates a parallax image from a pair of frame images having a chronological relationship, for example, using each camera constituting a panoramic camera in the moving body 1. Below, the parallax image generation process will be explained using the second camera of the second imaging unit 112 as an example, but a similar explanation applies to the other imaging units 11.

図3の(a)は、時刻tでのフレーム画像の様子の一例を示す模式図である。図3の(b)は、時刻t-1でのフレーム画像の様子の一例を示す模式図である。図3に示される2つの模式図は、移動体1の右側に配置されて右方向を向く第2撮像部112の第2カメラにより撮像された第2画像の様子を一例として示す。 (a) in FIG. 3 is a schematic diagram showing an example of the appearance of a frame image at time t. (b) in FIG. 3 is a schematic diagram showing an example of the appearance of a frame image at time t-1. The two schematic diagrams shown in FIG. 3 show, as an example, the appearance of a second image captured by the second camera of the second imaging unit 112, which is disposed on the right side of the moving body 1 and faces in the right direction.

移動体1は、所定の速度で前方に移動している。したがって、移動体1に配置されている4つの撮像部11も移動体1の移動に合わせてその位置を時間ごとに変化させる。例えば、第2撮像部112も、時刻t-1から時刻tに時間が経過することで、その位置を変化させる。結果として、時刻t-1でのフレーム画像と時刻tでのフレーム画像とは、第2撮像部112について互いに異なる撮像位置から撮像されたものとなる。これらのフレーム画像間には、視差が生じる。 The moving object 1 is moving forward at a predetermined speed. Therefore, the four imaging units 11 arranged on the moving object 1 also change their positions over time in accordance with the movement of the moving object 1. For example, the second imaging unit 112 also changes its position as time passes from time t-1 to time t. As a result, the frame image at time t-1 and the frame image at time t are captured from different imaging positions for the second imaging unit 112. Parallax occurs between these frame images.

電子機器10の制御部13は、時刻t-1でのフレーム画像と時刻tでのフレーム画像とに基づいて2つのフレーム画像の視差画像を生成する。制御部13は、例えば、ステレオマッチング法及びPlane Sweep法などの任意の方法を用いてモーションステレオにおける視差画像を生成する。 The control unit 13 of the electronic device 10 generates a parallax image of two frame images based on the frame image at time t-1 and the frame image at time t. The control unit 13 generates the parallax image in motion stereo using any method, such as a stereo matching method or a plane sweep method.

制御部13は、生成された視差画像に含まれる視差Dから奥行距離Zを以下の式1に基づいて算出する。
(式1)
式1において、Bは、基線長、すなわち撮像部11の移動距離を表す。Bは、時刻tでのカメラの位置と時刻t-1でのカメラの位置とを結んだ線の長さを表す。fは、撮像部11に含まれるカメラの焦点距離を表す。
The control unit 13 calculates the depth distance Z from the parallax D included in the generated parallax image based on the following formula 1.
(Equation 1)
In formula 1, B represents the base line length, i.e., the moving distance of the imaging unit 11. B represents the length of the line connecting the position of the camera at time t and the position of the camera at time t-1. f represents the focal length of the camera included in the imaging unit 11.

本開示において、「視差D」は、例えば、時刻tでのフレーム画像と時刻t-1でのフレーム画像との間で生じる、対象Sの所定の対応点の画像上での移動量を実空間上での物理的な距離に換算したものである。視差Dは、画素ごとのピクセルサイズの情報などに基づいて係数を乗算することで、上記の2つのフレーム画像間の所定の対応点についての画素の差分から物理的な距離に変換されたものである。「奥行距離Z」は、例えば、撮像部11に含まれるカメラの光軸に沿った、当該カメラから対象Sの所定の対応点までの距離である。 In this disclosure, "parallax D" is, for example, the amount of movement on an image of a specific corresponding point of target S that occurs between a frame image at time t and a frame image at time t-1, converted into a physical distance in real space. Parallax D is converted from the pixel difference for a specific corresponding point between the above two frame images into a physical distance by multiplying it by a coefficient based on information such as the pixel size of each pixel. "Depth distance Z" is, for example, the distance from a camera included in the imaging unit 11 to a specific corresponding point of target S along the optical axis of the camera.

制御部13は、モーションステレオにおいて、上記の式1に従って奥行距離Zを算出するために、基線長B、焦点距離f、及び視差Dを情報として得る必要があるが、基線長Bを絶対距離として画像から算出することは容易ではない。したがって、モーションステレオのみでは基線長Bの値が未知であり、奥行距離Zを正確に算出することが容易ではない。 In motion stereo, the control unit 13 needs to obtain the baseline length B, focal length f, and parallax D as information to calculate the depth distance Z according to the above formula 1, but it is not easy to calculate the baseline length B as an absolute distance from an image. Therefore, with motion stereo alone, the value of the baseline length B is unknown, and it is not easy to accurately calculate the depth distance Z.

そこで、制御部13は、4つの撮像部11のうちの少なくとも一組の撮像部11における各共通視野Vで三角測量を実行し、当該三角測量に基づいて基線長Bを撮像部11の移動距離として算出する。制御部13は、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する。以下では、三角測量を用いた基線長Bの算出処理について主に説明する。 Therefore, the control unit 13 performs triangulation in the common field of view V of at least one of the four imaging units 11, and calculates the baseline length B as the movement distance of the imaging units 11 based on the triangulation. The control unit 13 measures the distance to the target S by motion stereo from the movement distance of the imaging units 11 obtained based on the triangulation. The following mainly describes the calculation process of the baseline length B using triangulation.

図4は、図2の電子機器10による処理の一例を説明するための第2図である。以下では、三角測量に基づく基線長Bの算出処理について、第1撮像部111の第1カメラ及び第2撮像部112の第2カメラの組を一例に挙げて説明するが、同様の説明が他の撮像部11の組についても当てはまる。 Figure 4 is a second diagram for explaining an example of processing by the electronic device 10 of Figure 2. Below, the calculation process of the baseline length B based on triangulation will be explained using an example of a pair of the first camera of the first imaging unit 111 and the second camera of the second imaging unit 112, but a similar explanation also applies to other pairs of imaging units 11.

図4の(a)は、移動体1において前方を向く第1撮像部111の第1カメラにより撮像された第1画像の様子の一例を示す模式図である。図4の(b)は、移動体1において右方を向く第2撮像部112の第2カメラにより撮像された第2画像の様子の一例を示す模式図である。図4において模式図として示される2つの画像は、移動体1が移動している中で所定のタイミングで互いに同時に撮像されたものである。 (a) in FIG. 4 is a schematic diagram showing an example of a first image captured by the first camera of the first imaging unit 111 facing forward on the moving body 1. (b) in FIG. 4 is a schematic diagram showing an example of a second image captured by the second camera of the second imaging unit 112 facing right on the moving body 1. The two images shown as schematic diagrams in FIG. 4 were captured simultaneously at a predetermined timing while the moving body 1 was moving.

上述したとおり、移動体1に搭載されている全周囲カメラおいて、隣り合うカメラ同士で視野が重なる領域が共通視野Vとして存在する。制御部13は、三角測量の処理を実行するにあたり、図4に示される2つの画像での共通視野Vにおいて対応点Pを算出する。例えば、制御部13は、第1撮像部111の第1カメラにより撮像された第1画像と第2撮像部112の第2カメラにより撮像された第2画像との間で第1共通視野V1から対応点Pを算出する。制御部13は、算出された対応点Pに基づいて三角測量の処理を実行する。 As described above, in the omnidirectional cameras mounted on the moving body 1, there exists an area where the fields of view of adjacent cameras overlap, which is called a common field of view V. When executing the triangulation process, the control unit 13 calculates a corresponding point Pi in the common field of view V of the two images shown in Fig. 4. For example, the control unit 13 calculates a corresponding point Pi from the first common field of view V1 between a first image captured by the first camera of the first imaging unit 111 and a second image captured by the second camera of the second imaging unit 112. The control unit 13 executes the triangulation process based on the calculated corresponding point Pi .

図5は、図2の電子機器10による処理の一例を説明するための第3図である。制御部13が実行する三角測量の処理において、以下のような演算が実行される。例えば、図5において、第1撮像部111の第1カメラと第2撮像部112の第2カメラとの間の距離Lは、以下の式2で表される。 Figure 5 is a third diagram for explaining an example of processing by the electronic device 10 of Figure 2. In the triangulation processing executed by the control unit 13, the following calculation is performed. For example, in Figure 5, the distance L between the first camera of the first imaging unit 111 and the second camera of the second imaging unit 112 is expressed by the following formula 2.

(式2)
式2において、Z’は、2つのカメラを基準としたときの奥行距離を表す。Z’は、第1カメラと第2カメラとを結ぶ長さLの線に対して対応点Pから下ろされた垂線の長さを表す。αは、第1カメラから対応点Pまで伸びる光線ベクトルrαの線と、第1カメラ及び第2カメラを互いに結ぶ長さLの線とが互いになす角度である。βは、第2カメラから対応点Pまで伸びる光線ベクトルrβの線と、第1カメラ及び第2カメラを互いに結ぶ長さLの線とが互いになす角度である。
(Equation 2)
In Equation 2, Z' represents the depth distance when the two cameras are used as references. Z' represents the length of a perpendicular line dropped from the corresponding point P i to a line of length L connecting the first camera and the second camera. α represents the angle between the line of the light vector r α extending from the first camera to the corresponding point P i and the line of length L connecting the first camera and the second camera. β represents the angle between the line of the light vector r β extending from the second camera to the corresponding point P i and the line of length L connecting the first camera and the second camera.

式2を変形すると、奥行距離Z’が以下の式3のように求まる。
(式3)
By modifying Equation 2, the depth distance Z′ is obtained as shown in Equation 3 below.
(Equation 3)

一方で、制御部13は、第2撮像部112の第2カメラから対応点Pまでの奥行距離Zを、三角測量により算出したZ’に基づいて以下の式により算出する。
式4において、|rβ|は、光線ベクトルrβの長さを表す。式5において、rβzは、光線ベクトルrβの奥行距離Z方向の成分を表す。制御部13は、式3により算出したZ’により式4に基づいて光線ベクトルrβの長さを算出する。制御部13は、式4により算出された光線ベクトルrβの長さと、光線ベクトルrβの奥行距離Z方向からの既知の角度とに基づき式5を用いて奥行距離Zを算出する。
On the other hand, the control unit 13 calculates the depth distance Z from the second camera of the second imaging unit 112 to the corresponding point P i using the following formula based on Z′ calculated by triangulation.
In Equation 4, |r β | represents the length of the light vector r β . In Equation 5, r βz represents the component of the light vector r β in the depth distance Z direction. The control unit 13 calculates the length of the light vector r β based on Equation 4 using Z' calculated using Equation 3. The control unit 13 calculates the depth distance Z using Equation 5 based on the length of the light vector r β calculated using Equation 4 and the known angle of the light vector r β from the depth distance Z direction.

制御部13は、全ての対応点P(i=1、2、・・・n)に対して同様の演算処理を実行し、各対応点Pに対して奥行距離Zを算出する。制御部13は、第2撮像部112の第2カメラに隣接する第1撮像部111の第1カメラに対しても同様の演算処理を実行する。制御部13は、第1カメラ及び第2カメラの両方に対して、各対応点Pに対する奥行距離Zを算出する。 The control unit 13 executes a similar calculation process for all corresponding points P i (i=1, 2, ..., n) and calculates a depth distance Z i for each corresponding point P i . The control unit 13 also executes a similar calculation process for the first camera of the first imaging unit 111 adjacent to the second camera of the second imaging unit 112. The control unit 13 calculates a depth distance Z i for each corresponding point P i for both the first camera and the second camera.

各対応点Pは、視差画像から取得可能な視差Dと、三角測量により取得した奥行距離Zとを情報として有する。したがって、この2つのパラメータから基線長Bが算出される。 Each corresponding point P i has information on a disparity D i that can be obtained from a disparity image and a depth distance Z i obtained by triangulation. Therefore, a base line length B i is calculated from these two parameters.

制御部13は、上述したモーションステレオにより生成された、共通視野Vにおける対応点Pを含む視差画像での視差Dと、三角測量により得られた撮像部11から対応点Pまでの奥行距離Zと、に基づいて基線長Bを撮像部11の移動距離として算出する。例えば、制御部13は、第2撮像部112の第2カメラを用いてモーションステレオにより生成された視差画像での視差Dと、三角測量により得られた第2カメラから対応点Pまでの奥行距離Zと、に基づいて以下の式6により基線長Bを算出する。 The control unit 13 calculates the base line length B i as the movement distance of the imaging unit 11 based on the parallax D i in the parallax image including the corresponding point P i in the common field of view V generated by the above-mentioned motion stereo and the depth distance Z i from the imaging unit 11 to the corresponding point P i obtained by triangulation. For example, the control unit 13 calculates the base line length B i by the following formula 6 based on the parallax D i in the parallax image generated by motion stereo using the second camera of the second imaging unit 112 and the depth distance Z i from the second camera to the corresponding point P i obtained by triangulation.

式6により算出される基線長Bは、移動体1の移動に伴う撮像部11の移動距離であるので、全ての対応点Pにおいて同一の値となることが理想的である。しかしながら、様々な誤マッチングによる影響を受けて基線長Bの値がばらつき、ノイズとして外れ値が生じる。本開示において、「誤マッチング」は、所定の撮像部11を用いて2つのフレーム画像により視差画像を生成するときに、画像情報の欠落及びノイズなどにより視差Dが正しく得られないこと、及び三角測量において対応点Pが2つのカメラ間で一致していないことなどを含む。 The baseline length B i calculated by Equation 6 is the moving distance of the imaging unit 11 accompanying the movement of the moving object 1, and therefore ideally, it should be the same value for all corresponding points P i . However, the values of the baseline length B i vary due to the influence of various erroneous matching, and outliers are generated as noise. In the present disclosure, "erroneous matching" includes a case where the parallax D i cannot be obtained correctly due to missing image information and noise, etc., when a parallax image is generated from two frame images using a specific imaging unit 11, and a case where the corresponding points P i do not match between the two cameras in triangulation.

図6は、図2の電子機器10による処理の一例を説明するための第4図である。制御部13は、上述した基線長Bの外れ値M2を除外するために、複数の対応点Pについて算出された基線長Bの最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を最終的に算出する。 Fig. 6 is a fourth diagram for explaining an example of processing by the electronic device 10 of Fig. 2. In order to exclude the above-mentioned outlier value M2 of the base line length B i , the control unit 13 finally calculates the moving distance of the imaging unit 11 used for measuring the distance of the target S by statistical processing based on the most frequent value M1 of the base line length B i calculated for the multiple corresponding points P i .

例えば、図6に示されるように、制御部13は、所定の撮像部11のカメラに対して得られた複数の基線長Bの各々に対して対応点Pの数をヒストグラム化する。制御部13は、外れ値M2を除外して、最頻値M1周辺の残りの基線長Bの平均値を算出する。 6, the control unit 13 creates a histogram of the number of corresponding points P i for each of a plurality of baseline lengths B i obtained for a given camera of the imaging unit 11. The control unit 13 excludes an outlier M2 and calculates the average value of the remaining baseline lengths B i around the mode M1.

制御部13は、算出された平均値を、最終的な基線長B、すなわち撮像部11の移動距離として、モーションステレオによる測距の処理に利用する。制御部13は、当該平均値と視差画像における視差Dとに基づいて奥行距離Zを式1に従い算出する。これにより、制御部13は、所定の撮像部11のカメラの視野範囲全体で正確な奥行画像を生成し、当該奥行画像中に存在する全ての対象Sを測距することが可能となる。 The control unit 13 uses the calculated average value as the final baseline length B, i.e., the movement distance of the imaging unit 11, for the motion stereo distance measurement process. The control unit 13 calculates the depth distance Z based on the average value and the parallax D in the parallax image according to Equation 1. This enables the control unit 13 to generate an accurate depth image over the entire field of view of the camera of a given imaging unit 11, and to measure the distance to all objects S present in the depth image.

図7は、図2の電子機器10による処理の一例を説明するための第5図である。上記の説明では、1つのカメラにおいて基線長Bが統計処理に基づき算出されているが、これに限定されない。制御部13は、複数組の撮像部11における複数の共通視野Vでそれぞれ算出された基線長Bの最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を最終的に算出してもよい。 7 is a fifth diagram for explaining an example of processing by the electronic device 10 of FIG. 2. In the above description, the baseline length B is calculated based on statistical processing in one camera, but this is not limiting. The control unit 13 may finally calculate the moving distance of the imaging unit 11 used for measuring the distance to the target S by statistical processing based on the most frequent value M1 of the baseline lengths B i calculated in the multiple common fields of view V in the multiple sets of imaging units 11.

式6により算出される基線長Bは、移動体1の移動に伴う撮像部11の移動距離であるので、全てのカメラにおいて同一の値となることが理想的である。しかしながら、例えば、夜間のシーンでは移動体1の前方が照明により照らされることで第1共通視野V1及び第4共通視野V4において対応点Pを算出することは可能であるが、他の共通視野Vでは暗いことが原因となって対応点Pの算出が容易ではない可能性もある。これにより、誤マッチングなどの影響をより受けやすくなり、撮像部11の移動距離の算出が容易でなくなる。結果的に、モーションステレオにより対象Sを測距することも容易でなくなる。夜間以外のシーンにおいても、全周囲カメラを構成する4つのカメラの全てで対応点Pを十分に得ることは容易ではない場合も想定される。 The base length B i calculated by Equation 6 is the moving distance of the imaging unit 11 accompanying the movement of the moving object 1, so it is ideal that the base length B i is the same value for all cameras. However, for example, in a nighttime scene, the front of the moving object 1 is illuminated by lighting, so it is possible to calculate the corresponding point P i in the first common field of view V1 and the fourth common field of view V4, but it may not be easy to calculate the corresponding point P i in the other common fields of view V because they are dark. This makes it more susceptible to the influence of erroneous matching, etc., and makes it difficult to calculate the moving distance of the imaging unit 11. As a result, it is also not easy to measure the distance to the target S by motion stereo. Even in scenes other than nighttime, it is assumed that it is not easy to obtain a sufficient number of corresponding points P i in all four cameras constituting the omnidirectional camera.

したがって、制御部13は、以上のような場合などを想定して、各カメラで算出した対応点Pに対応する基線長Bを統合し算出することで、移動体1における撮像部11全体の移動距離の情報を統合的に算出してもよい。例えば、図7の(b)に示されるように、制御部13は、全ての撮像部11のカメラに対して得られた複数の基線長Bの各々に対して対応点Pの数をヒストグラム化する。制御部13は、外れ値M2を除外して、最頻値M1周辺の残りの基線長Bの平均値を算出する。図7の(b)に示される最頻値M1は、図7の(a)に示される、第2撮像部112の第2カメラに対してのみ得られた複数の基線長Bに関するヒストグラムの最頻値M1と比較して統計的により明確に現れている。 Therefore, assuming the above-mentioned cases, the control unit 13 may integrate and calculate the baseline lengths B i corresponding to the corresponding points P i calculated by each camera, thereby integrating information on the movement distance of the entire imaging unit 11 in the moving object 1. For example, as shown in (b) of FIG. 7, the control unit 13 creates a histogram of the number of corresponding points P i for each of the multiple baseline lengths B i obtained for the cameras of all the imaging units 11. The control unit 13 excludes the outlier M2 and calculates the average value of the remaining baseline lengths B i around the mode M1. The mode M1 shown in (b) of FIG. 7 appears statistically more clearly than the mode M1 of the histogram for the multiple baseline lengths B i obtained only for the second camera of the second imaging unit 112 shown in (a) of FIG.

制御部13は、算出された平均値を、最終的な基線長B、すなわち撮像部11の移動距離として、モーションステレオによる測距の処理に利用する。以上のように、制御部13は、4つの撮像部11のうちの複数組の撮像部11における各共通視野Vで三角測量を実行し、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距してもよい。 The control unit 13 uses the calculated average value as the final baseline length B, i.e., the movement distance of the imaging unit 11, in the motion stereo distance measurement process. As described above, the control unit 13 may perform triangulation in the common field of view V of multiple sets of imaging units 11 out of the four imaging units 11, and measure the distance to the target S by motion stereo from the movement distance of the imaging unit 11 obtained based on the triangulation.

図8は、図2の電子機器10の動作の一例を説明するフローチャートである。図8を参照しながら、電子機器10により実行される測距方法の処理の一例について説明する。 Figure 8 is a flowchart illustrating an example of the operation of the electronic device 10 of Figure 2. With reference to Figure 8, an example of the processing of the distance measurement method executed by the electronic device 10 will be described.

ステップS100では、電子機器10の制御部13は、撮像部11を用いて画像を撮像する。制御部13は、撮像部11を用いて撮像した画像を情報として記憶部12に格納する。 In step S100, the control unit 13 of the electronic device 10 captures an image using the imaging unit 11. The control unit 13 stores the image captured using the imaging unit 11 as information in the storage unit 12.

ステップS101では、電子機器10の制御部13は、ステップS100において撮像された画像に基づいて、時刻t-1でのフレーム画像と時刻tでのフレーム画像との間の視差画像を生成する。 In step S101, the control unit 13 of the electronic device 10 generates a parallax image between the frame image at time t-1 and the frame image at time t based on the image captured in step S100.

ステップS102では、電子機器10の制御部13は、互いに異なる方向を向く4つの撮像部11のうちの少なくとも一組における各共通視野Vで三角測量を実行する。 In step S102, the control unit 13 of the electronic device 10 performs triangulation in the common field of view V of at least one set of the four imaging units 11 that face in different directions.

ステップS103では、電子機器10の制御部13は、ステップS102において実行された三角測量に基づいて、撮像部11から対応点Pまでの奥行距離Zを算出する。 In step S103, the control unit 13 of the electronic device 10 calculates the depth distance Z i from the imaging unit 11 to the corresponding point P i based on the triangulation performed in step S102.

ステップS104では、電子機器10の制御部13は、ステップS101で生成された視差画像での視差Dと、ステップS102における三角測量によりステップS103で得られた奥行距離Zと、に基づいて撮像部11の移動距離を基線長Bとして算出する。 In step S104, the control unit 13 of the electronic device 10 calculates the movement distance of the imaging unit 11 as a baseline length B i based on the parallax D i in the parallax image generated in step S101 and the depth distance Z i obtained in step S103 by the triangulation in step S102.

ステップS105では、電子機器10の制御部13は、ステップS104において得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する。 In step S105, the control unit 13 of the electronic device 10 measures the distance to the target S using motion stereo based on the movement distance of the imaging unit 11 obtained in step S104.

以上のような一実施形態に係る電子機器10によれば、移動体1から対象Sまでの測距の精度を向上可能である。電子機器10は、少なくとも一組の撮像部11における各共通視野Vで三角測量を実行し、得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する。これにより、電子機器10は、従来の単眼カメラによる測距と異なり、ダートなどの、平地以外の凸凹路面においても精度良く対象Sを測距可能である。電子機器10は、路面状態に依存しない、高精度な測距を実現可能である。電子機器10は、モーションステレオに加えて三角測量を実行することで、モーションステレオにおいて奥行距離Zの算出に必要となる基線長Bを撮像部11の移動距離として精度良く算出可能である。結果として、電子機器10は、モーションステレオにおいて奥行距離Zを正確に算出することが可能となる。 According to the electronic device 10 according to the embodiment described above, it is possible to improve the accuracy of distance measurement from the moving body 1 to the target S. The electronic device 10 performs triangulation in each common field of view V of at least one set of imaging units 11, and measures the distance to the target S by motion stereo from the obtained movement distance of the imaging units 11. As a result, unlike distance measurement using a conventional monocular camera, the electronic device 10 can accurately measure the distance to the target S even on uneven road surfaces other than flat ground, such as dirt. The electronic device 10 can achieve high-precision distance measurement that is not dependent on the road surface condition. By performing triangulation in addition to motion stereo, the electronic device 10 can accurately calculate the baseline length B required for calculating the depth distance Z in motion stereo as the movement distance of the imaging units 11. As a result, the electronic device 10 can accurately calculate the depth distance Z in motion stereo.

電子機器10は、視差画像での視差Dと、三角測量により得られた奥行距離Zと、に基づいて撮像部11の移動距離を算出することで、モーションステレオにおいて奥行距離Zの算出に必要となる基線長Bを精度良く算出可能である。したがって、電子機器10は、モーションステレオにおいて奥行距離Zを正確に算出することが可能となる。 The electronic device 10 calculates the movement distance of the imaging unit 11 based on the parallax D i in the parallax image and the depth distance Z i obtained by triangulation, thereby enabling accurate calculation of the base line length B required for calculation of the depth distance Z in motion stereo. Therefore, the electronic device 10 can accurately calculate the depth distance Z in motion stereo.

電子機器10は、複数の対応点Pについて算出された撮像部11の移動距離の最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を算出することで、基線長Bに関するサンプル数を増加させることが可能となる。したがって、電子機器10は、誤マッチングによりノイズとして生じた外れ値M2の判別をより容易に実行できる。電子機器10は、基線長Bの最頻値M1を算出し、対象Sの測距に用いる撮像部11の移動距離をより高精度に算出可能となる。結果として、電子機器10は、モーションステレオにおいて奥行距離Zをより正確に算出することが可能となる。 The electronic device 10 calculates the movement distance of the imaging unit 11 used to measure the distance of the target S by statistical processing based on the most frequent value M1 of the movement distance of the imaging unit 11 calculated for multiple corresponding points P i , thereby making it possible to increase the number of samples related to the base line length B i . Therefore, the electronic device 10 can more easily distinguish the outlier M2 generated as noise due to erroneous matching. The electronic device 10 calculates the most frequent value M1 of the base line length B i , and can more accurately calculate the movement distance of the imaging unit 11 used to measure the distance of the target S. As a result, the electronic device 10 can more accurately calculate the depth distance Z in motion stereo.

電子機器10は、移動体1に配置され、第1撮像部111及び第2撮像部112と異なる方向を向く第3撮像部113もさらに含むことで、2つの撮像部11を有する場合と比較して、移動体1の周囲のより広い範囲で対象Sを測距可能である。電子機器10は、共通視野Vを形成する撮像部11の組み合わせの数も増やすことができる。すわなち、電子機器10は、共通視野Vでの三角測量を実行する撮像部11の組み合わせの数も増やすことができる。 The electronic device 10 is disposed on the moving object 1 and further includes a third imaging unit 113 that faces a different direction from the first imaging unit 111 and the second imaging unit 112, thereby enabling distance measurement of the target S over a wider range around the moving object 1 compared to a case in which two imaging units 11 are included. The electronic device 10 can also increase the number of combinations of imaging units 11 that form a common field of view V. In other words, the electronic device 10 can also increase the number of combinations of imaging units 11 that perform triangulation in the common field of view V.

電子機器10は、3つの撮像部11のうちの複数組の撮像部11における各共通視野Vで三角測量を実行し、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距する。これにより、電子機器10は、移動体1から対象Sまでの測距の精度をさらに向上可能である。電子機器10は、従来の単眼カメラによる測距と異なり、ダートなどの、平地以外の凸凹路面においても精度良く対象Sを測距可能である。電子機器10は、路面状態に依存しない、高精度な測距を実現可能である。電子機器10は、モーションステレオに加えて複数組の撮像部11で三角測量を実行することで、モーションステレオにおいて奥行距離Zの算出に必要となる基線長Bを撮像部11の移動距離として多角的に精度良く算出可能である。結果として、電子機器10は、モーションステレオにおいて奥行距離Zをより正確に算出することが可能となる。 The electronic device 10 performs triangulation in the common field of view V of each of the multiple sets of the three imaging units 11, and measures the distance to the target S by motion stereo from the moving distance of the imaging unit 11 obtained based on the triangulation. This allows the electronic device 10 to further improve the accuracy of measuring the distance from the moving body 1 to the target S. Unlike distance measurement using a conventional monocular camera, the electronic device 10 can accurately measure the distance to the target S even on uneven road surfaces other than flat ground, such as dirt. The electronic device 10 can achieve highly accurate distance measurement that is not dependent on the road surface condition. By performing triangulation using multiple sets of the imaging units 11 in addition to motion stereo, the electronic device 10 can accurately calculate the baseline length B required to calculate the depth distance Z in motion stereo as the moving distance of the imaging unit 11 from multiple angles. As a result, the electronic device 10 can more accurately calculate the depth distance Z in motion stereo.

電子機器10は、複数組の撮像部11における複数の共通視野Vでそれぞれ算出された撮像部11の移動距離の最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を算出する。これにより、電子機器10は、基線長Bに関するサンプル数をさらに増加させることが可能となる。したがって、電子機器10は、誤マッチングによりノイズとして生じた外れ値M2の判別をより容易に実行できる。電子機器10は、基線長Bの最頻値M1を算出し、対象Sの測距に用いる撮像部11の移動距離をより高精度に算出可能となる。結果として、電子機器10は、モーションステレオにおいて奥行距離Zをより正確に算出することが可能となる。例えば、電子機器10は、暗いシーン及び壁による背景などで所定のカメラで対応点Pが取れずに基線長Bを算出することが困難であるような場合であっても、他のカメラから基線長Bを補完することも可能となる。 The electronic device 10 calculates the moving distance of the imaging unit 11 used for measuring the distance of the target S by statistical processing based on the most frequent value M1 of the moving distance of the imaging unit 11 calculated in each of the multiple common fields of view V in the multiple sets of imaging units 11. This allows the electronic device 10 to further increase the number of samples related to the baseline length B i . Therefore, the electronic device 10 can more easily distinguish the outlier M2 generated as noise due to erroneous matching. The electronic device 10 calculates the most frequent value M1 of the baseline length B i , and can more accurately calculate the moving distance of the imaging unit 11 used for measuring the distance of the target S. As a result, the electronic device 10 can more accurately calculate the depth distance Z in motion stereo. For example, even if it is difficult to calculate the baseline length B i because a corresponding point P i cannot be obtained by a specific camera in a dark scene and against a wall, the electronic device 10 can also complement the baseline length B i from other cameras.

電子機器10は、第1撮像部111、第2撮像部112、及び第3撮像部113が車両の前後左右のうちのいずれかの方向を向くようにそれぞれ配置されていることで、全周囲センシングシステムを構成して車両の全周囲で高精度な測距を実現可能である。電子機器10は、4つの撮像部11が車両の前後左右の4方向を向くようにそれぞれ配置されていることで、このような効果をより顕著に奏する。電子機器10は、車両の全周囲で死角のない高精度な測距を実現可能である。電子機器10は、LiDAR(Light Detection And Ranging)などの高価なセンサを必要とせずに、汎用の車載カメラのみで高精度な測距を実現可能である。電子機器10は、従来の一般的な全周囲センシングシステムを踏襲して高精度な測距を実現することも可能である。 The electronic device 10 is capable of realizing highly accurate distance measurement all around the vehicle by configuring an all-around sensing system with the first imaging unit 111, the second imaging unit 112, and the third imaging unit 113, each of which is arranged to face one of the front, rear, left and right directions of the vehicle. The electronic device 10 exerts such an effect more prominently by arranging the four imaging units 11 to face the four directions of the front, rear, left and right directions of the vehicle. The electronic device 10 is capable of realizing highly accurate distance measurement all around the vehicle without blind spots. The electronic device 10 is capable of realizing highly accurate distance measurement only with a general-purpose vehicle-mounted camera without requiring an expensive sensor such as LiDAR (Light Detection And Ranging). The electronic device 10 is also capable of realizing highly accurate distance measurement by following a conventional general all-around sensing system.

本開示を諸図面及び実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び改変を行うことが可能であることに注意されたい。したがって、これらの変形及び改変は本開示の範囲に含まれることに留意されたい。例えば、各構成又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。 Although the present disclosure has been described based on the drawings and embodiments, it should be noted that a person skilled in the art would be able to make various modifications and alterations based on the present disclosure. Therefore, it should be noted that these modifications and alterations are included in the scope of the present disclosure. For example, the functions included in each configuration or step can be rearranged so as not to cause logical inconsistencies, and multiple configurations or steps can be combined into one or divided.

例えば、上述した各構成部の形状、大きさ、配置、向き、及び個数などは、上記の説明及び図面における図示の内容に限定されない。各構成部の形状、大きさ、配置、向き、及び個数などは、その機能を実現できるのであれば、任意に構成されてもよい。 For example, the shape, size, arrangement, orientation, and number of each of the above-mentioned components are not limited to the above description and the illustrations in the drawings. The shape, size, arrangement, orientation, and number of each of the components may be configured arbitrarily as long as the function can be realized.

例えば、スマートフォン又はコンピュータなどの汎用の端末装置を、上述した一実施形態に係る電子機器10の一部として機能させることも可能である。具体的には、一実施形態に係る電子機器10の各機能を実現する処理内容を記述したプログラムを、端末装置のメモリに格納し、端末装置のプロセッサにより当該プログラムを読み出して実行させる。したがって、本開示は、プロセッサが実行可能な測距プログラムとしても実現可能である。 For example, it is also possible to cause a general-purpose terminal device such as a smartphone or a computer to function as part of the electronic device 10 according to the embodiment described above. Specifically, a program describing the processing contents for realizing each function of the electronic device 10 according to the embodiment is stored in the memory of the terminal device, and the program is read and executed by the processor of the terminal device. Therefore, the present disclosure can also be realized as a distance measurement program that can be executed by a processor.

又は、本開示は、一実施形態に係る電子機器10などに各機能を実行させるために1つ又は複数のプロセッサにより実行可能な測距プログラムを記憶した非一時的なコンピュータ読取可能な媒体としても実現し得る。本開示の範囲には、これらも包含されると理解されたい。 Alternatively, the present disclosure may also be realized as a non-transitory computer-readable medium storing a ranging program executable by one or more processors to cause an electronic device 10 according to an embodiment to execute each function. It should be understood that these are also included within the scope of the present disclosure.

上記実施形態では、電子機器10は、移動体1に配置され、3つの撮像部11と異なる方向を向く第4撮像部114もさらに含む4つの撮像部11を有すると説明したが、これに限定されない。電子機器10は、移動体1に配置され、互いに異なる方向を向く第1撮像部111、第2撮像部112、及び第3撮像部113を含む3つの撮像部11を有してもよい。このとき、電子機器10の制御部13は、3つの撮像部11のうちの少なくとも一組の撮像部11における各共通視野Vで三角測量を実行し、三角測量に基づき得られた撮像部11の移動距離からモーションステレオにより対象Sを測距してもよい。 In the above embodiment, the electronic device 10 is described as having four imaging units 11, including a fourth imaging unit 114 that is arranged on the moving object 1 and faces in a different direction from the three imaging units 11, but this is not limited to the above. The electronic device 10 may have three imaging units 11, including a first imaging unit 111, a second imaging unit 112, and a third imaging unit 113, that are arranged on the moving object 1 and face in different directions. In this case, the control unit 13 of the electronic device 10 may perform triangulation in the common field of view V of at least one set of the imaging units 11 out of the three imaging units 11, and measure the distance to the target S by motion stereo from the movement distance of the imaging units 11 obtained based on the triangulation.

電子機器10は、3つの撮像部11又は4つの撮像部11を有する構成に限定されず、2つの撮像部11を有してもよいし、5つ以上の撮像部11を有してもよい。 The electronic device 10 is not limited to a configuration having three imaging units 11 or four imaging units 11, but may have two imaging units 11, or may have five or more imaging units 11.

上記実施形態では、電子機器10は、共通視野Vにおける対応点Pを含む視差画像での視差Dと、三角測量により得られた撮像部11から対応点Pまでの奥行距離Zと、に基づいて撮像部11の移動距離を算出すると説明したが、これに限定されない。電子機器10は、任意の他の方法を用いて、モーションステレオにおいて奥行距離Zの算出に必要となる基線長B、すなわち撮像部11の移動距離を算出してもよい。 In the above embodiment, the electronic device 10 calculates the movement distance of the imaging unit 11 based on the parallax D i in the parallax image including the corresponding point P i in the common field of view V and the depth distance Z i from the imaging unit 11 to the corresponding point P i obtained by triangulation, but the present invention is not limited to this. The electronic device 10 may calculate the base length B required for calculating the depth distance Z in motion stereo, i.e., the movement distance of the imaging unit 11, by using any other method.

上記実施形態では、電子機器10は、複数の対応点Pについて算出された撮像部11の移動距離の最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を算出すると説明したが、これに限定されない。電子機器10は、このような統計処理を実行しなくてもよい。 In the above embodiment, the electronic device 10 calculates the moving distance of the image capturing unit 11 used for measuring the distance to the target S by statistical processing based on the most frequent value M1 of the moving distance of the image capturing unit 11 calculated for the multiple corresponding points Pi, but the present invention is not limited to this. The electronic device 10 does not need to execute such statistical processing.

上記実施形態では、電子機器10は、複数組の撮像部11における複数の共通視野Vでそれぞれ算出された撮像部11の移動距離の最頻値M1に基づく統計処理により対象Sの測距に用いる撮像部11の移動距離を算出すると説明したが、これに限定されない。電子機器10は、このような統計処理を実行しなくてもよい。 In the above embodiment, the electronic device 10 calculates the moving distance of the imaging unit 11 used to measure the distance to the target S by statistical processing based on the most frequent value M1 of the moving distance of the imaging unit 11 calculated for each of the multiple common fields of view V in the multiple sets of imaging units 11, but this is not limited to the above. The electronic device 10 does not have to perform such statistical processing.

上記実施形態では、電子機器10では、第1撮像部111、第2撮像部112、第3撮像部113、及び第4撮像部114は、車両の前後左右の4方向を向くようにそれぞれ配置されていると説明したが、これに限定されない。4つの撮像部11は、車両の全周囲で測距可能に配置されていなくてもよく、車両の全周囲の一部のみを測距可能に配置されていてもよい。 In the above embodiment, the electronic device 10 has been described as having the first imaging unit 111, the second imaging unit 112, the third imaging unit 113, and the fourth imaging unit 114 arranged to face four directions, namely, the front, rear, left, and right, of the vehicle, but is not limited to this. The four imaging units 11 do not need to be arranged so as to be able to measure distances all around the vehicle, and may be arranged so as to be able to measure distances only in a portion of the entire periphery of the vehicle.

以下に本開示の実施形態の一部について例示する。しかしながら、本開示の実施形態はこれらに限定されない点に留意されたい。
[付記1]
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部と、
2つの前記撮像部における共通視野で三角測量を実行し、前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距する制御部と、
を備える、
電子機器。
[付記2]
付記1に記載の電子機器であって、
前記制御部は、前記モーションステレオにより生成された、前記共通視野における対応点を含む視差画像での視差と、前記三角測量により得られた前記撮像部から前記対応点までの奥行距離と、に基づいて前記移動距離を算出する、
電子機器。
[付記3]
付記2に記載の電子機器であって、
前記制御部は、複数の前記対応点について算出された前記移動距離の最頻値に基づく統計処理により前記対象の測距に用いる前記移動距離を算出する、
電子機器。
[付記4]
付記1乃至3のいずれか1つに記載の電子機器であって、
前記撮像部が、
前記移動体に配置され、前記第1撮像部及び前記第2撮像部と異なる方向を向く第3撮像部もさらに含む、
電子機器。
[付記5]
付記4に記載の電子機器であって、
前記制御部は、3つの前記撮像部のうちの複数組の前記撮像部における各共通視野で三角測量を実行し、前記三角測量に基づき得られた前記移動距離からモーションステレオにより前記対象を測距する、
電子機器。
[付記6]
付記5に記載の電子機器であって、
前記制御部は、複数組の前記撮像部における複数の共通視野でそれぞれ算出された前記移動距離の最頻値に基づく統計処理により前記対象の測距に用いる前記移動距離を算出する、
電子機器。
[付記7]
付記4乃至6のいずれか1つに記載の電子機器であって、
前記移動体が車両を含み、
前記第1撮像部、前記第2撮像部、及び前記第3撮像部は、前記車両の前後左右のうちのいずれかの方向を向くようにそれぞれ配置されている、
電子機器。
[付記8]
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む、
測距方法。
[付記9]
電子機器に、
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む動作を実行させる、
測距プログラム。
Some of the embodiments of the present disclosure will be described below as examples. However, it should be noted that the embodiments of the present disclosure are not limited to these examples.
[Appendix 1]
An imaging unit that is disposed on the moving body and includes a first imaging unit and a second imaging unit that face in different directions;
a control unit that performs triangulation in a common field of view of the two imaging units and measures a distance to an object by motion stereo from a moving distance of the imaging units obtained based on the triangulation;
Equipped with
Electronic devices.
[Appendix 2]
2. The electronic device according to claim 1,
the control unit calculates the movement distance based on a parallax in a parallax image including the corresponding point in the common field of view generated by the motion stereo and a depth distance from the imaging unit to the corresponding point obtained by the triangulation.
Electronic devices.
[Appendix 3]
3. The electronic device according to claim 2,
the control unit calculates the movement distance used for measuring the distance to the object by statistical processing based on a mode value of the movement distances calculated for the plurality of corresponding points.
Electronic devices.
[Appendix 4]
An electronic device according to any one of claims 1 to 3,
The imaging unit,
The imaging device further includes a third imaging unit that is disposed on the moving body and faces in a direction different from the first imaging unit and the second imaging unit.
Electronic devices.
[Appendix 5]
The electronic device according to claim 4,
The control unit performs triangulation in a common field of view of each of the plurality of sets of the imaging units among the three imaging units, and measures the distance to the object by motion stereo from the movement distance obtained based on the triangulation.
Electronic devices.
[Appendix 6]
6. The electronic device according to claim 5,
the control unit calculates the moving distance used for measuring the distance to the object by statistical processing based on a mode of the moving distances calculated in a plurality of common fields of view in a plurality of sets of the imaging units.
Electronic devices.
[Appendix 7]
7. An electronic device according to any one of claims 4 to 6,
the moving object includes a vehicle,
The first imaging unit, the second imaging unit, and the third imaging unit are each arranged to face any one of the front, rear, left, and right directions of the vehicle.
Electronic devices.
[Appendix 8]
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
Including,
Distance measurement method.
[Appendix 9]
For electronic devices,
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
performing an operation including
Ranging program.

1 移動体
10 電子機器
11 撮像部
111 第1撮像部
112 第2撮像部
113 第3撮像部
114 第4撮像部
12 記憶部
13 制御部
B、B 基線長
D、D 視差
f 焦点距離
M1 最頻値
M2 外れ値
対応点
S 対象
V 共通視野
V1 第1共通視野
V2 第2共通視野
V3 第3共通視野
V4 第4共通視野
Z、Z、Z’ 奥行距離
REFERENCE SIGNS LIST 1 Mobile object 10 Electronic device 11 Imaging section 111 First imaging section 112 Second imaging section 113 Third imaging section 114 Fourth imaging section 12 Memory section 13 Control section B, Bi Baseline length D, Di Parallax f Focal length M1 Mode M2 Outlier P i Corresponding point S Object V Common field of view V1 First common field of view V2 Second common field of view V3 Third common field of view V4 Fourth common field of view Z, Z i , Z' Depth distance

Claims (9)

移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部と、
2つの前記撮像部における共通視野で三角測量を実行し、前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距する制御部と、
を備える、
電子機器。
An imaging unit that is disposed on the moving body and includes a first imaging unit and a second imaging unit that face in different directions;
a control unit that performs triangulation in a common field of view of the two imaging units and measures a distance to an object by motion stereo from a moving distance of the imaging units obtained based on the triangulation;
Equipped with
Electronic devices.
請求項1に記載の電子機器であって、
前記制御部は、前記モーションステレオにより生成された、前記共通視野における対応点を含む視差画像での視差と、前記三角測量により得られた前記撮像部から前記対応点までの奥行距離と、に基づいて前記移動距離を算出する、
電子機器。
2. The electronic device according to claim 1,
the control unit calculates the movement distance based on a parallax in a parallax image including the corresponding point in the common field of view generated by the motion stereo and a depth distance from the imaging unit to the corresponding point obtained by the triangulation.
Electronic devices.
請求項2に記載の電子機器であって、
前記制御部は、複数の前記対応点について算出された前記移動距離の最頻値に基づく統計処理により前記対象の測距に用いる前記移動距離を算出する、
電子機器。
3. The electronic device according to claim 2,
the control unit calculates the movement distance used for measuring the distance to the object by statistical processing based on a mode value of the movement distances calculated for the plurality of corresponding points.
Electronic devices.
請求項1乃至3のいずれか1項に記載の電子機器であって、
前記撮像部が、
前記移動体に配置され、前記第1撮像部及び前記第2撮像部と異なる方向を向く第3撮像部もさらに含む、
電子機器。
4. The electronic device according to claim 1,
The imaging unit,
The imaging device further includes a third imaging unit that is disposed on the moving body and faces in a direction different from the first imaging unit and the second imaging unit.
Electronic devices.
請求項4に記載の電子機器であって、
前記制御部は、3つの前記撮像部のうちの複数組の前記撮像部における各共通視野で三角測量を実行し、前記三角測量に基づき得られた前記移動距離からモーションステレオにより前記対象を測距する、
電子機器。
5. The electronic device according to claim 4,
The control unit performs triangulation in a common field of view of each of the plurality of sets of the imaging units among the three imaging units, and measures the distance to the object by motion stereo from the movement distance obtained based on the triangulation.
Electronic devices.
請求項5に記載の電子機器であって、
前記制御部は、複数組の前記撮像部における複数の共通視野でそれぞれ算出された前記移動距離の最頻値に基づく統計処理により前記対象の測距に用いる前記移動距離を算出する、
電子機器。
6. The electronic device according to claim 5,
the control unit calculates the moving distance used for measuring the distance to the object by statistical processing based on a mode of the moving distances calculated in a plurality of common fields of view in a plurality of sets of the imaging units.
Electronic devices.
請求項4に記載の電子機器であって、
前記移動体が車両を含み、
前記第1撮像部、前記第2撮像部、及び前記第3撮像部は、前記車両の前後左右のうちのいずれかの方向を向くようにそれぞれ配置されている、
電子機器。
5. The electronic device according to claim 4,
the moving object includes a vehicle,
The first imaging unit, the second imaging unit, and the third imaging unit are each arranged to face any one of the front, rear, left, and right directions of the vehicle.
Electronic devices.
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む、
測距方法。
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
Including,
Distance measurement method.
電子機器に、
移動体に配置され、互いに異なる方向を向く第1撮像部及び第2撮像部を含む撮像部における共通視野で三角測量を実行するステップと、
前記三角測量に基づき得られた前記撮像部の移動距離からモーションステレオにより対象を測距するステップと、
を含む動作を実行させる、
測距プログラム。
For electronic devices,
A step of performing triangulation in a common field of view of an imaging unit including a first imaging unit and a second imaging unit that are disposed on a moving body and face in different directions;
measuring a distance to an object by motion stereo from a moving distance of the imaging unit obtained based on the triangulation;
performing an operation including
Ranging program.
JP2023048868A 2023-03-24 2023-03-24 Electronic device, distance measurement method, and distance measurement program Pending JP2024137371A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023048868A JP2024137371A (en) 2023-03-24 2023-03-24 Electronic device, distance measurement method, and distance measurement program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023048868A JP2024137371A (en) 2023-03-24 2023-03-24 Electronic device, distance measurement method, and distance measurement program

Publications (1)

Publication Number Publication Date
JP2024137371A true JP2024137371A (en) 2024-10-07

Family

ID=92969325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023048868A Pending JP2024137371A (en) 2023-03-24 2023-03-24 Electronic device, distance measurement method, and distance measurement program

Country Status (1)

Country Link
JP (1) JP2024137371A (en)

Similar Documents

Publication Publication Date Title
US11836989B2 (en) Vehicular vision system that determines distance to an object
EP3358295B1 (en) Image processing device, stereo camera device, vehicle, and image processing method
CN110178369B (en) Camera device, camera system and display system
JP7107931B2 (en) Method and apparatus for estimating range of moving objects
US20150248594A1 (en) Disparity value deriving device, equipment control system, movable apparatus, and robot
JP2020042775A (en) Method and system for sensing obstacle, computer device, and computer storage medium
JP6456499B2 (en) Three-dimensional object detection device, stereo camera device, vehicle, and three-dimensional object detection method
JP6855325B2 (en) Image processing equipment, stereo camera systems, moving objects, road surface shape detection methods and programs
JP6589313B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
US20230109473A1 (en) Vehicle, electronic apparatus, and control method thereof
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JPWO2016208200A1 (en) Image processing apparatus, stereo camera apparatus, vehicle, and image processing method
JP6674959B2 (en) Parallax calculating device, stereo camera device, vehicle, and parallax calculating method
KR101469717B1 (en) Video system and method using cameras with a wide angle
CN118570289A (en) Method and device for positioning optical center of automobile camera
JP2024137371A (en) Electronic device, distance measurement method, and distance measurement program
CN112270311A (en) A method and system for fast near target detection based on vehicle-mounted surround-view reverse projection
WO2022141262A1 (en) Object detection
JP7621828B2 (en) IMAGE PROCESSING DEVICE, STEREO CAMERA DEVICE, MOBILE BODY, AND IMAGE PROCESSING METHOD
JP7516204B2 (en) IMAGE PROCESSING DEVICE, STEREO CAMERA DEVICE, MOBILE BODY, AND IMAGE PROCESSING METHOD
JP7569173B2 (en) IMAGE PROCESSING DEVICE, STEREO CAMERA DEVICE, MOBILE BODY, AND IMAGE PROCESSING METHOD
EP3876199B1 (en) Image processing apparatus, image pickup apparatus, mobile object and image processing method
JP7334572B2 (en) Object detection device and object detection program
KR20230110949A (en) Vehicle, electronic apparatus and method for controlling thereof