JP2021150942A - Image capture device and image capture processing method - Google Patents
Image capture device and image capture processing method Download PDFInfo
- Publication number
- JP2021150942A JP2021150942A JP2020092826A JP2020092826A JP2021150942A JP 2021150942 A JP2021150942 A JP 2021150942A JP 2020092826 A JP2020092826 A JP 2020092826A JP 2020092826 A JP2020092826 A JP 2020092826A JP 2021150942 A JP2021150942 A JP 2021150942A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- display
- information
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 238000003384 imaging method Methods 0.000 claims description 54
- 229920006395 saturated elastomer Polymers 0.000 claims description 27
- 230000005611 electricity Effects 0.000 claims description 9
- 238000012790 confirmation Methods 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 85
- 238000000034 method Methods 0.000 description 37
- 230000005540 biological transmission Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 20
- 238000005259 measurement Methods 0.000 description 17
- 230000004048 modification Effects 0.000 description 17
- 238000012986 modification Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 239000004065 semiconductor Substances 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000013585 weight reducing agent Substances 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Cameras In General (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置および撮像処理方法に関する。 The present invention relates to an image pickup apparatus and an image pickup processing method.
特許文献1には、物体までの距離を安定して精度良く測定することができる測距装置が記載されている。
特許文献2には、指などの写り込みが発生した場合に、写り込みの影響を少なくする画像処理を行う撮像装置が記載されている。 Patent Document 2 describes an image pickup apparatus that performs image processing to reduce the influence of the reflection when the reflection of a finger or the like occurs.
本発明は、対象物の撮像画像への写り込みの有無を正確に確認できる撮像装置および撮像処理方法を提供することを目的とする。 An object of the present invention is to provide an image pickup apparatus and an image pickup processing method capable of accurately confirming the presence or absence of an image of an object in a captured image.
本発明に係る撮像装置は、対象を撮像する撮像部と、対象に光を投射する投射部と、対象から反射してきた光を受光する受光部と、受光部の出力と、撮像部の出力と、に基づき判断される特定の対象物の有無に応じて、表示部に異なる表示をさせる表示制御部と、を備える。 The imaging apparatus according to the present invention includes an imaging unit that images an object, a projection unit that projects light onto the object, a light receiving unit that receives light reflected from the object, an output of the light receiving unit, and an output of the imaging unit. A display control unit that causes the display unit to display differently according to the presence or absence of a specific object determined based on the above.
本発明によれば、対象物の撮像画像への写り込みの有無を正確に確認できる撮像装置および撮像処理方法を提供することができる。 According to the present invention, it is possible to provide an image pickup apparatus and an image pickup processing method capable of accurately confirming the presence or absence of an image of an object in a captured image.
以下に添付図面を参照して、撮像装置および撮像処理方法の実施の形態を詳細に説明する。 Hereinafter, embodiments of the imaging apparatus and the imaging processing method will be described in detail with reference to the accompanying drawings.
図1は、本発明の実施形態に係る撮像装置の外観の一例を示す図である。図2は、撮像装置の構成を説明するための図である。図2には、図1の撮像装置の内部の構成を示している。 FIG. 1 is a diagram showing an example of the appearance of the image pickup apparatus according to the embodiment of the present invention. FIG. 2 is a diagram for explaining the configuration of the image pickup apparatus. FIG. 2 shows the internal configuration of the image pickup apparatus of FIG.
撮像装置1は、受光した光に基づいて決定される3次元情報を出力する情報処理装置の一例であり、撮像部(カメラ)11と、可視光以外の光を投射する投射部(距離センサの発光部に相当する部分)12と、投射部12が投射した光に基づいて距離情報を取得する距離情報取得部(距離センサの受光部に相当する部分)13とを筐体10に対して一体に設けたものである。各部は、筐体10内部の処理回路14と同期信号線Lにより電気的に接続されており、それぞれ同期して動作する。
The
撮影スイッチ15は、ユーザが処理回路14に撮影指示信号を入力するためのものである。表示部20は、処理回路14の出力信号に応じた内容を表示するものであり、液晶画面等により構成される。表示部20は、タッチパネル等により構成され、ユーザの操作入力を受け付けるようにしてもよい。撮影指示に基づき処理回路14は各部を制御してRGB画像や距離情報のデータを取得し、取得した距離情報のデータをRGB画像や距離情報のデータに基づいて高密度3次元点群データに再構築する処理を行う。距離情報のデータは、そのまま使用しても3次元点群データを構築することが可能だが、その場合、3次元点群データの精度が距離情報取得部13の画素数(解像度)に制限される。本例では、それを高密度の3次元点群データに再構築する場合の処理についても示す。再構築したデータは可搬型の記録媒体や通信などを介して外部のPCなどに出力され、3次元復元モデルの表示に利用される。
The
各部や処理回路14には、筐体10内部に収容されるバッテリから電力が供給される。この他にも、筐体10の外部から接続コードにより電力供給を受ける構成としてもよい。
Electric power is supplied to each part and the
撮像部11は、撮像素子11a、11Aや、魚眼レンズ(広角レンズ)11b、11Bなどを有する。投射部12は、光源部12a、12Aや広角レンズ12b、12Bなどを有する。距離情報取得部13は、TOF(Time Of Fright)センサ13a、13Aや広角レンズ13b、13Bなどを有する。なお、各部は、図示を省略しているがプリズムやレンズ群などの光学系を構成してよい。例えば、撮像部11に、魚眼レンズ11b、11Bが集めた光を撮像素子11a、11Aに結像するための光学系を構成してよい。また、投射部12に、光源部12a、12Aの光を広角レンズ12b、12Bに導く光学系を構成してよい。また、距離情報取得部13に広角レンズ13b、13Bが集めた光をTOFセンサ13a、13Aに結像するための光学系を構成してよい。各光学系については、撮像素子11a、11A、光源部12a、12A、TOFセンサ13a、13Aなどの構成や配置に応じて適宜決めてよいものとし、ここでは、プリズムやレンズ群などの光学系については省略して説明する。
The
撮像素子11a、11A、光源部12a、12A、およびTOFセンサ13a、13Aは、筐体10の内部に一体的に収められている。魚眼レンズ11bと、広角レンズ12bと、広角レンズ13bと、表示部20とは、それぞれ筐体10の正面側の第1の面に設けられている。第1の面において、魚眼レンズ11b、広角レンズ12b、および広角レンズ13bのぞれぞれの内側の範囲は開口している。
The
魚眼レンズ11Bと、広角レンズ12Bと、広角レンズ13Bと、撮影スイッチ15とは、それぞれ筐体10の背面側の第2の面に設けられている。第2の面において、魚眼レンズ11B、広角レンズ12B、および広角レンズ13Bのぞれぞれの内側の範囲は開口している。
The
撮像素子11a、11Aは、2次元解像度のイメージセンサ(エリアセンサ)である。撮像素子11a、11Aは、2次元方向に各画素の受光素子(フォトダイオード)が多数配列された撮像エリアを有する。撮像エリアには可視光を受光するためにベイヤ配列等のR(Red)とG(Green)とB(Blue)のカラーフィルタが設けられており、カラーフィルタを通過した光がフォトダイオードに蓄電される。ここでは、広角(例えば図2に示す撮像方向を正面とする周囲180度の半天球の範囲など)の2次元画像を高解像度で取得することができるように画素数の多いイメージセンサを使用する。撮像素子11a、11Aは、その撮像エリアに結像した光を各画素の画素回路で電気信号に変換して高解像度のRGB画像を出力する。魚眼レンズ11b、11Bは、広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)から光を集め、その光を撮像素子11a、11Aの撮像エリアに結像する。
The
光源部12a、12Aは、半導体レーザであり、距離の計測に用いる可視光領域以外(ここでは一例として赤外とする)の波長帯のレーザ光を出射する。光源部12a、12Aには、1つの半導体レーザを用いてもよいし、複数の半導体レーザを組み合わせて使用してもよい。また、半導体レーザとして例えばVCSEL(Vertical Cavity Surface Emitting LASER)などの面発光型の半導体レーザを使用してもよい。また、半導体レーザの光を光学レンズにより縦に長くなるように成形し、縦長にした光を、MEMS(Micro Electro Mechanical Systems)ミラーなどの光偏向素子で計測範囲の一次元方向に走査するような構成にしてもよい。本実施の形態では、光源部12a、12Aとして、半導体レーザLAの光をMEMSミラーなどの光偏向素子を使用せずに広角レンズ12b、12Bを介して広角の範囲に広げる形態を示している。
The
光源部12a、12Aの広角レンズ12b、12Bは、光源部12a、12Aが出射した光を広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)の範囲に広げる機能を有する。
The wide-
距離情報取得部13の広角レンズ13b、13Bは、投射部12により投射された光源部12a、12Aの光の反射光を、計測範囲である広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)の各方向から取り込み、それらの光をTOFセンサ13a、13Aの受光エリアに結像する。計測範囲には一つまたは複数の被投射物(例えば建物など)が含まれており、被投射物で反射した光(反射光)が広角レンズ13b、13Bに入射する。反射光は、例えば広角レンズ13b、13Bの表面全体に赤外領域の波長以上の光をカットするフィルタを設けるなどして取り込んでよい。なお、これに限らず、受光エリアに赤外領域の光が入射すればよいため、広角レンズ13b、13Bから受光エリアまでの光路にフィルタなど赤外領域の波長の光を通す手段を設けてもよい。
The wide-
TOFセンサ13a、13Aは、2次元解像度の光センサである。TOFセンサ13a、13Aは多数の受光素子(フォトダイオード)が2次元方向に配列された受光エリアを有する。この意味で「第2の撮像受光手段 」と言えるである。TOFセンサ13a、13Aは、計測範囲の各エリア(各エリアを位置とも言う)の反射光を、各エリアに対応する受光素子で受光し、各受光素子で検出した光に基づき各エリアまでの距離を計測(算出)する。
The
本実施形態では、位相差検出方式で距離を計測する。位相差検出方式では、基本周波数で振幅変調したレーザ光を計測範囲に照射し、その反射光を受光して照射光と反射光との位相差を測定することで時間を求め、その時間に光速をかけて距離を算出する。この方式では、ある程度の解像度が見込めることが強みである。 In this embodiment, the distance is measured by the phase difference detection method. In the phase difference detection method, the measurement range is irradiated with laser light amplitude-modulated at the basic frequency, the reflected light is received and the phase difference between the irradiation light and the reflected light is measured to obtain the time, and the speed of light is obtained at that time. To calculate the distance. The strength of this method is that a certain level of resolution can be expected.
TOFセンサ13a、13Aは、投射部12による光の照射に同期して駆動し、各受光素子(画素に対応)で反射光との位相差から各画素に対応する距離を算出し、画素情報に計測範囲内の各エリアまでの距離を示す情報を対応付けた距離情報画像データ(後において「距離画像」や「TOF画像」とも言う)を出力する。TOFセンサ13a、13Aは、画素情報に位相情報を対応付けた位相情報画像データを出力し、後処理にて位相情報画像データに基づき距離情報画像データを取得してもよい。
The
なお、測定範囲を分割することができるエリア数は、受光エリアの解像度によって決まる。従って、小型化のため解像度が低いものを使用した場合、距離画像データの画素情報の数が減少するため、3次元点群の数も少なくなる。 The number of areas in which the measurement range can be divided is determined by the resolution of the light receiving area. Therefore, when a low resolution is used for miniaturization, the number of pixel information of the distance image data is reduced, so that the number of three-dimensional point clouds is also reduced.
なお、他の形態として、位相差検出方式に代えて、パルス方式で距離を計測してもよい。その場合、例えば、光源部12a、12Aで、立ち上がり時間が数ナノ秒(ns)で且つ光ピークパワーが強い超短パルスの照射パルスP1を出射し、これに同期してTOFセンサ13a、13Aにより、光源部12a、12Aが出射した照射パルスP1の反射光である反射パルスP2の受光までにかかる時間(t)を計測する。この方式を採用する場合、例えばTOFセンサ13a、13Aとして、受光素子の出力側に時間の計測を行う回路などを実装したものを使用する。各回路では、受光素子毎に、光源部12a、12Aが照射パルスP1を出射してから反射パルスP2を受光するまでにかかる時間を距離に換算し、各エリアまでの距離を得る。
As another form, the distance may be measured by the pulse method instead of the phase difference detection method. In that case, for example, the
この方式は、ピーク光を使用し強力な光を出力することができるので、撮像装置1の広角化に適している。また、MEMSミラーなどを使用して光を振る(走査する)構成にした場合には、強力な光を、広がりを抑えつつ遠くまで照射することができるため、測定距離の拡大に繋がる。この場合、光源部12a、12Aから出射されたレーザ光を、MEMSミラーにより広角レンズ12b、12Bへ向けて走査(偏向)するような配置関係とする。
This method is suitable for widening the angle of the
なお、撮像部11の有効画角と距離情報取得部13の有効画角は例えば180度以上で一致していることが望ましいが、必ずしも一致していなくてもよい。必要に応じて撮像部11の有効画角と距離情報取得部13の有効画角とをそれぞれ減じてもよい。本実施例では、撮像部11および距離情報取得部13は画角に干渉するものがないように例えば100度〜180度の範囲内などに有効画素を減じている。また、TOFセンサ13a、13Aの解像度は、撮像装置1の小型化を優先して撮像素子11a、11Aの解像度よりも低く設定してよい。TOFセンサ13a、13Aを撮像素子11a、11Aよりも低解像度のものとすることにより、受光エリアのサイズ拡大を抑えることができるため、撮像装置1の小型化に繋げることができる。このためTOFセンサ13a、13Aは低解像度になり、TOFセンサ13a、13Aで得られる3次元点群は低密度となるが、「取得手段」である処理回路14を設けているため高密度の3次元点群に変換することができる。処理回路14において高密度の3次元点群に変換する処理については後述する。
It is desirable that the effective angle of view of the
本実施の形態では、一例として、撮像素子11aと、光源部12aと、TOFセンサ13aとは筐体10の長手方向に直線上に並ぶように設けている。同様に、撮像素子11Aと、光源部12Aと、TOFセンサ13Aとは筐体10の長手方向に直線上に並ぶように設けている。以下、撮像素子11aと、光源部12aと、TOFセンサ13aの例で説明する。
In the present embodiment, as an example, the
撮像素子11aの撮像エリア(撮像面)やTOFセンサ13aの受光エリア(受光面)は、図2に示すように長手方向に直交する方向に向けて配置してもよいし、光の直進方向(光路)を90度変換して入射させるプリズムなどを設けることで長手方向に向けて配置してもよい。この他にも、構成に応じて任意の向きに配置してもよい。つまりは、撮像素子11aと、光源部12aと、TOFセンサ13aとは、同じ計測範囲が対象となるように配置される。撮像部11と、投射部12と、距離情報取得部13とが筐体10の一面側から、その測定範囲に向けて配置される。 この際に、撮像素子11aとTOFセンサ13aとを、平行ステレオ化するように同一基線上に配置できればよい。平行ステレオ化するように配置することにより、撮像素子11aが1つであっても、TOFセンサ13aの出力を利用して視差データを得ることが可能になる。光源部12aは、TOFセンサ13aの計測範囲に光を照射することができるように構成する。
The image pickup area (imaging surface) of the
(処理回路)
続いて、処理回路14の処理について説明する。TOFセンサ13a、13Aだけで得たTOF画像は、そのままでは解像度が低い。このため、本例では処理回路14により高解像度化し、高密度の3次元点群データを再構築する例を示す。なお、処理回路14における「情報処理手段」としての以下に示す処理の一部または全ては、外部装置で行ってもよい。
(Processing circuit)
Subsequently, the processing of the
前述したように、撮像装置1で再構築された3次元点群データは、可搬型の記録媒体や通信などを介してPCなどの外部装置に出力され、3次元復元モデルの表示に利用される。
As described above, the 3D point cloud data reconstructed by the
これにより、撮像装置1自体が3次元復元モデルの表示を行う場合に比べて、高速化、小型化、軽量化により携帯性に優れた撮像装置1を提供することができる。
As a result, it is possible to provide the
しかしながら、3次元情報を取得する現場から離れて、外部装置により3次元情報を復元した後に、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことに気づく場合があり、その場合、3次元情報を取得する現場を再訪問する手間がかかる。 However, after moving away from the site where the 3D information is acquired and restoring the 3D information by an external device, the image is reflected in the captured image of the photographer himself or the tripod, and the 3D information of the desired layout is acquired. You may notice that there is no such thing, and in that case, it takes time and effort to revisit the site where the 3D information is acquired.
これを解決するには、現場に3次元復元装置を持ち込むことが考えられるが、そうすると、高速化、小型化、軽量化というメリットがなくなってしまう。 To solve this, it is conceivable to bring a three-dimensional restoration device to the site, but doing so eliminates the merits of speeding up, downsizing, and weight reduction.
また、取得した3次元情報を通信回線により外部装置に送信し、復元された3次元情報を受信することも考えられるが、高速化のメリットが無くなるのと、そもそも3次元情報は情報量が多いので、撮影者自身や三脚等の撮像画像への写り込みを目視で確認するのは困難である。 It is also conceivable to send the acquired 3D information to an external device via a communication line and receive the restored 3D information, but the merit of speeding up is lost and the 3D information has a large amount of information in the first place. Therefore, it is difficult to visually confirm the reflection on the captured image of the photographer himself or the tripod.
特に全天球3次元情報の場合は、撮影者自身や三脚等の撮像画像への写り込みを目視で確認するのは極めて困難である。 In particular, in the case of spherical three-dimensional information, it is extremely difficult to visually confirm the reflection on the captured image of the photographer himself or a tripod.
本実施形態は、以上の課題に鑑み、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことをリアルタイムで容易に確認できる撮像装置1を提供することを目的とする。
In view of the above problems, the present embodiment provides an
図3は、同実施形態における撮像装置の使用状況を説明するための図である。 FIG. 3 is a diagram for explaining a usage situation of the image pickup apparatus in the same embodiment.
図3(a)に示す状態では、撮影者Mおよび撮像装置1を支持する自撮り棒1Aは、全天球撮像範囲Rに含まれておらず、撮影者Mおよび自撮り棒1Aが、全天球の撮像画像に写りこむことはない。
In the state shown in FIG. 3A, the photographer M and the
図3(b)に示す状態では、撮影者Mが全天球撮像範囲Rに含まれており、撮影者Mが、全天球の撮像画像に写りこんでしまう。 In the state shown in FIG. 3B, the photographer M is included in the spherical imaging range R, and the photographer M is reflected in the captured image of the spherical image.
図3(c)に示す状態では、撮像装置1を支持する三脚1Bが全天球撮像範囲Rに含まれており、三脚1Bが、全天球の撮像画像に写りこんでしまう。
In the state shown in FIG. 3C, the
図3(d)に示す状態では、撮影者Mおよび撮像装置1を支持する自撮り棒1Aは、全天球撮像範囲Rに含まれておらず、撮影者Mおよび自撮り棒1Aが、全天球の撮像画像に写りこむことはないが、外光が強いため、写りこみを誤判定する可能性がある。
In the state shown in FIG. 3D, the photographer M and the
また、図3(b)および図3(c)に示す状態では、写りこむ物体の色や種類、およびその見え方が多様であるため、一律に写りこみの有無を判断するのは困難であった。 Further, in the states shown in FIGS. 3B and 3C, it is difficult to uniformly determine the presence or absence of reflection because the colors and types of the reflected objects and their appearance are various. rice field.
以上の状況に対して、TOFセンサ13a、13Aから出力される距離情報画像データに基づき、撮影者自身や三脚等の特定の対象物(近接物)の有無を判断する場合、本当に特定の対象物が存在するのか、外光が強すぎるのか、区別することが困難であった。
In response to the above situation, when determining the presence or absence of a specific object (proximity object) such as the photographer himself or a tripod based on the distance information image data output from the
すなわち、TOFセンサ13a、13Aの特定の画素の蓄電量が飽和している場合、特定の対象物が存在しているのが原因なのか、外光の強度が強すぎるのか、TOFセンサ13a、13Aの出力からだけでは、区別することが困難であった。
That is, when the amount of electricity stored in the specific pixels of the
本実施形態は、以上の課題に鑑み、外光の影響と区別して、撮影者自身や三脚等の特定の対象物の撮像画像への写り込みの有無を正確に確認することができる撮像装置1を提供することを他の目的とする。 In view of the above problems, the present embodiment can accurately confirm whether or not a specific object such as the photographer or a tripod is reflected in the captured image by distinguishing it from the influence of external light. The other purpose is to provide.
図4は、処理回路14の処理ブロックの構成の一例を示す図である。図4に示す処理回路14は、制御部141と、RGB画像データ取得部142と、モノクロ処理部143と、TOF画像データ取得部144と、高解像度化部145と、マッチング処理部146と、再投影処理部147と、セマンティックセグメンテーション部148と、視差計算部149と、3次元再構成処理部150と、判断部160と、出力部の一例である表示制御部170と、出力部の一例である送受信部180とを有する。なお、図4において、実線矢印は信号の流れを示し、破線矢印はデータの流れを示している。
FIG. 4 is a diagram showing an example of the configuration of the processing block of the
制御部141は、撮影スイッチ15からON信号(撮影開始信号)を受けると撮像素子11a、11A、光源部12a、12A、およびTOFセンサ13a、13Aに同期信号を出力し、処理回路14全体を制御する。制御部141は、先ず光源部12a、12Aに超短パルスの出射を指示する信号を出力し、これと同じタイミングでTOFセンサ13a、13AにTOF画像データの生成を指示する信号を出力する。さらに、制御部141は、撮像素子11a、11Aに撮像を指示する信号を出力する。なお、撮像素子11a、11Aにおける撮像は、光源部12a、12Aから出射されている期間でもよいし、その前後の直近の期間でもよい。
When the
RGB画像データ取得部142は、制御部141による撮像指示に基づき、撮像素子11a、11Aが撮像したRGB画像データを取得して、全天球のRGB画像データを出力する。モノクロ処理部143は、TOFセンサ13a、13Aから得られるTOF画像データとのマッチング処理のためにデータ種を揃えるための処理を行う。この例では、モノクロ処理部143は、全天球のRGB画像データを全天球のモノクロ画像に変換する処理を行う。
The RGB image data acquisition unit 142 acquires the RGB image data captured by the
TOF画像データ取得部144は、制御部141によるTOF画像データの生成指示に基づき、TOFセンサ13a、13Aが生成したTOF画像データを取得して、全天球のTOF画像データを出力する。
The TOF image data acquisition unit 144 acquires the TOF image data generated by the
高解像度化部145は、全天球のTOF画像データをモノクロ画像に見立て、その解像度を高解像度化する。具体的に、高解像度化部145は、全天球のTOF画像データの各画素に対応付けられている距離の値を、全天球のモノクロ画像の値(グレースケール値)に置き換えて使用する。さらに、高解像度化部145は、全天球のモノクロ画像の解像度を撮像素子11a、11Aから得られた全天球のRGB画像データの解像度まで高解像度化する。高解像度への変換は、例えば通常のアップコンバート処理を施すことにより行う。その他の変換方法としては、例えば連続して生成された全天球のTOF画像データを複数フレーム取得し、それらを利用して隣接する地点の距離を追加して超解像度処理を施すなどしてもよい。
The high-
マッチング処理部146は、全天球のTOF画像データを高解像度化した全天球のモノクロ画像と、全天球のRGB画像データの全天球のモノクロ画像とについて、テクスチャのある部分の特徴量を抽出し、抽出した特徴量によりマッチング処理を行う。例えば、マッチング処理部146は、各モノクロ画像からエッジを抽出し、抽出したエッジ情報同士でマッチング処理を行う。この他の方法として、例えばSIFT等のテクスチャの変化を特徴量化した手法でマッチング処理を行ってもよい。ここでマッチング処理とは、対応画素の探索のことを意味する。 The matching processing unit 146 describes the feature amount of the textured portion of the monochrome image of the spherical image obtained by increasing the resolution of the TOF image data of the spherical image and the monochrome image of the spherical image of the RGB image data of the spherical image. Is extracted, and matching processing is performed according to the extracted feature amount. For example, the matching processing unit 146 extracts edges from each monochrome image and performs matching processing between the extracted edge information. As another method, for example, the matching process may be performed by a method such as SIFT that quantifies the change in texture. Here, the matching process means searching for the corresponding pixel.
マッチング処理の具体的な手法として、例えばブロックマッチングがある。ブロックマッチングは、参照する画素の周辺で、M×M(Mは正の整数)ピクセルサイズのブロックとして切り出される画素値と、もう一方の画像のうち、探索の中心となる画素の周辺で、同じくM×Mピクセルのブロックとして切り出される画素値の類似度を計算し、最も類似度が高くなる中心画素を対応画素とする方法である。 As a specific method of matching processing, for example, there is block matching. Block matching is performed around the pixel value that is cut out as a block of M × M (M is a positive integer) pixel size around the pixel to be referenced, and around the pixel that is the center of the search in the other image. This is a method in which the similarity of pixel values cut out as a block of M × M pixels is calculated, and the central pixel having the highest similarity is set as the corresponding pixel.
類似度の計算方法は様々である。例えば、正規化自己相関係数CNCC(NCC:Normalized Correlation Coefficient)を示す式を用いても良い。正規化自己相関係数CNCCは数値が高いほど類似度が高いことを示し、ブロックの画素値が完全に一致していれる場合に1となる。 There are various methods for calculating the degree of similarity. For example, an equation showing a normalized autocorrelation coefficient CNCC (NCC: Normalized Correlation Cooperative) may be used. The normalized autocorrelation coefficient CNCC indicates that the higher the numerical value, the higher the similarity, and it becomes 1 when the pixel values of the blocks are exactly the same.
また、全天球のTOF画像データからテクスチャレス領域の距離のデータも得られるため、領域に応じてマッチング処理に重みをつけてもよい。例えばCNCCを示す式の計算において、エッジ以外の箇所(テクスチャレス領域)に重みをかける計算を行ってもよい。 Further, since the data of the distance of the textureless region can be obtained from the TOF image data of the spherical image, the matching process may be weighted according to the region. For example, in the calculation of the equation showing CNCC, the calculation may be performed by weighting the portion other than the edge (textureless region).
また、NCCを示す式の代わりに、選択的正規化相関(SCC:Selective Correlation Coefficient)などを用いてもよい。 Further, instead of the formula indicating NCC, a selective normalization correlation (SCC) or the like may be used.
再投影処理部147は、計測範囲の各位置の距離を示す全天球のTOF画像データを撮像部11の2次元座標(スクリーン座標系)に再投影する処理を行う。再投影するとは、TOFセンサ13a、13Aが算出する3次元点が、撮像素子11a、11Aの画像ではどの座標に写るかを求めることである。全天球のTOF画像データは、距離情報取得部13(主に広角レンズ13b、13B)を中心とする座標系における3次元点の位置を示す。従って、全天球のTOF画像データが示す3次元点を、撮像部11(主に魚眼レンズ11b、11B)を中心とする座標系に再投影する。例えば、再投影処理部147は、全天球のTOF画像データの3次元点の座標を撮像部11を中心とする3次元点の座標に平行移動し、平行移動後に、全天球のRGB画像データが示す2次元の座標系(スクリーン座標系)に変換する処理を施す。
The
視差計算部149は、マッチング処理により得られた対応画素との距離のズレから各位置の視差を計算する。
The
なお、視差のマッチング処理は、再投影処理部147が変換した再投影座標を利用して、再投影座標の位置の周辺画素を探索することで、処理時間の短縮や、より詳細で高解像度な距離情報を取得することが可能になる。
The parallax matching process uses the reprojection coordinates converted by the
また、視差のマッチング処理にセマンティックセグメンテーション部148のセマンティックセグメンテーション処理により得られたセグメンテーションデータを利用してもよい。その場合、さらに詳細で高解像度の距離情報を取得することができるようになる。 Further, the segmentation data obtained by the semantic segmentation process of the semantic segmentation unit 148 may be used for the parallax matching process. In that case, it becomes possible to acquire more detailed and high-resolution distance information.
また、エッジのみや、強い特徴量のある部分のみ、視差のマッチング処理を行い、その他の部分は、全天球のTOF画像データも利用し、例えば全天球のRGB画像特徴や確率的な手法を利用し、伝搬処理を行ってもよい。 In addition, parallax matching processing is performed only on the edges and only the parts with strong features, and the TOF image data of the whole celestial sphere is also used for the other parts. May be used to perform propagation processing.
セマンティックセグメンテーション部148は、深層学習を利用して、計測範囲の入力画像に対して対象物を示すセグメンテーションラベルを付与する。これにより、全天球のTOF画像データの各画素を、距離毎に分けた複数の距離領域の何れかに拘束させることができるので、計算の信頼性がさらに高まる。 The semantic segmentation unit 148 uses deep learning to assign a segmentation label indicating an object to the input image of the measurement range. As a result, each pixel of the TOF image data of the spherical image can be constrained to any of a plurality of distance regions divided for each distance, so that the reliability of the calculation is further improved.
3次元再構成処理部145は、RGB画像データ取得部142から全天球のRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて全天球の3次元データを再構成し、各3次元点に色情報を付加した全天球の高密度3次元点群を出力する。3次元再構成処理部150は、3次元情報を決定する3次元情報決定部の一例である。
The three-dimensional
判断部160は、RGB画像データ取得部142から全天球のRGB画像データを取得するとともに、再投影処理部147から全天球のRGB画像データが示す2次元の座標系に変換された全天球のTOF画像データを取得し、これらのデータに基づき、特定の対象物の撮像画像への写り込みの有無を判断し、判断結果を表示制御部170へ出力する。
The
表示制御部170は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示部20に表示させる。また、表示制御部170は、判断部160から取得した判断結果を示す情報を2次元画像情報に重畳させて表示部20に表示させる。
The
表示制御部170は、3次元情報とは別に撮像部11により撮像された2次元画像情報を出力する出力部の一例であり、表示部20は、2次元画像情報を出力する出力先の一例である。
The
表示制御部170は、3次元再構成処理部145から全天球の3次元データを取得し、3次元情報を表示部20に表示させてもよい。具体的には、表示制御部170は、2次元画像情報を表示部20に表示させる場合と、3次元情報を表示部20に表示させる場合を所定の条件に従って選択してもよい。これにより、表示制御部170は、3次元情報とは別に2次元画像情報を出力することができる。
The
送受信部180は、有線または無線技術により外部装置と通信を行うものであり、3次元再構成処理部145から出力される全天球の3次元データおよびRGB画像データ取得部142から出力される全天球の2次元画像情報をネットワーク400経由で3次元復元処理を行う外部装置300へ送信(出力)する。
The transmission / reception unit 180 communicates with an external device by wired or wireless technology, and the three-dimensional data of the entire celestial sphere output from the three-dimensional
送受信部180は、3次元情報を出力する出力部の一例であり、外部装置300は、3次元情報を出力する出力先の一例である。
The transmission / reception unit 180 is an example of an output unit that outputs three-dimensional information, and the
送受信部180は、全天球の2次元画像情報は送信せず、全天球の3次元データのみ送信してもよい。また、送受信部180は、SDカード等の可搬型の記憶媒体やパーソナルコンピュータなどとのインターフェース回路により構成されてもよい。 The transmission / reception unit 180 may not transmit the two-dimensional image information of the whole celestial sphere, but may transmit only the three-dimensional data of the whole celestial sphere. Further, the transmission / reception unit 180 may be configured by an interface circuit with a portable storage medium such as an SD card or a personal computer.
(処理回路の動作)
図5は、撮像装置1の処理回路14の動作の一例を示すフロー図である。処理回路14の制御部141は、ユーザにより撮影スイッチ15がONされ、撮影指示信号が入力されると、次のような方法で高密度3次元点群を生成する動作を行う(撮像処理方法および情報処理方法の一例)。
(Operation of processing circuit)
FIG. 5 is a flow chart showing an example of the operation of the
先ず、制御部141は、光源部12a、12Aと、TOFセンサ13a、13Aと、撮像素子11a、11Aとを駆動して計測範囲を撮影する(ステップS1)。制御部141による駆動により、光源部12a、12Aが赤外光を照射し(投射ステップの一例)、その反射光をTOFセンサ13a、13Aが受光する(受光ステップの一例)。また、撮像素子11a、11Aが、光源部12a、12Aの駆動開始のタイミングあるいはその直近の期間に計測範囲を撮像する(撮像ステップの一例)。
First, the
次に、RGB画像データ取得部142が、撮像素子11a、11Aから計測範囲のRGB画像データを取得する(ステップS2)。そして、表示制御部170は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示部20に表示させる(2次元画像情報出力ステップの一例)(ステップS3)。
Next, the RGB image data acquisition unit 142 acquires RGB image data in the measurement range from the
表示制御部170は、取得した全天球のRGB画像データのうちの一部の領域の2次元画像情報を表示部20に表示させ、ユーザの各種入力により、表示部20に表示される2次元画像情報の領域を変更する。ユーザの各種入力は、撮影スイッチ15以外の操作スイッチを設けることや、表示部20をタッチパネル等の入力部として構成することにより、実現できる。
The
この段階で、撮影者は、表示部20に表示された2次元画像情報により、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの2次元画像情報が取得されていないことを確認することができる。
At this stage, the photographer has not acquired the image in the captured image of the photographer himself or the tripod, or the two-dimensional image information of the desired layout by the two-dimensional image information displayed on the
次に、TOF画像データ取得部144が、TOFセンサ13a、13Aから2次元領域の各位置の距離を示すTOF画像データを取得する(ステップS4)。
Next, the TOF image data acquisition unit 144 acquires TOF image data indicating the distance of each position in the two-dimensional region from the
次に、モノクロ処理部143が、RGB画像データをモノクロ画像へ変換する(ステップS5)。TOF画像データとRGB画像データとでは、それぞれが距離データとRGBデータとでデータ種が異なり、そのままではマッチングを行うことができない。従って、先ず一旦、それぞれのデータをモノクロ画像に変換する。TOF画像データについては、高解像度化部145が高解像度化の前に各画素の距離を示す値を、そのままモノクロ画像の値に置き換えることで変換する。
Next, the
次に、高解像度化部145がTOF画像データの解像度を高解像度化する(ステップS6)。
Next, the high-
次に、マッチング処理部146が、各モノクロ画像についてテクスチャのある部分の特徴量を抽出し、抽出した特徴量でマッチング処理を行う(ステップS7)。 Next, the matching processing unit 146 extracts the feature amount of the textured portion of each monochrome image, and performs the matching process with the extracted feature amount (step S7).
次に、判断部160は、RGB画像データ取得部142から全天球のRGB画像データを取得するとともに、再投影処理部147からRGB画像データが示す2次元の座標系に変換された全天球のTOF画像データを取得し、これらのデータに基づき、特定の対象物としての近接物の撮像画像への写り込みの有無を判断し、判断結果を表示制御部170へ出力する。表示制御部170は、判断部160から取得した判断結果を示す情報を2次元画像情報に重畳させて表示部20に表示させる(表示ステップの一例)(ステップS8)。
Next, the
次に、視差計算部149が、対応画素の距離のズレから各位置の視差を計算する(ステップS9)。
Next, the
そして、3次元再構成処理部145が、RGB画像データ取得部142からRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて3次元データを再構成し、各3次元点に色情報を付加した高密度3次元点群を出力する(ステップS10)。
Then, the three-dimensional
次に、送受信部180は、3次元再構成処理部145から出力される3次元データおよびRGB画像データ取得部142から出力される2次元画像情報をネットワーク400経由で3次元復元処理を行う外部装置300へ送信する(3次元情報出力ステップの一例)(ステップS11)。
Next, the transmission / reception unit 180 is an external device that performs three-dimensional restoration processing of the three-dimensional data output from the three-dimensional
送受信部180は、RGB画像データ取得部142から出力される2次元画像情報は送信することなく、3次元再構成処理部145から出力される3次元データを送信してもよい。
The transmission / reception unit 180 may transmit the three-dimensional data output from the three-dimensional
以上説明したように、撮像装置1は、撮像部11と、3次元情報とは別に撮像部11により撮像された2次元画像情報を出力する表示制御部170備える。
As described above, the
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認することなく、2次元画像情報から容易に確認することが可能になる。 As a result, it is easy to confirm from the 2D image information that the image is reflected in the captured image of the photographer himself or the tripod, and that the 3D information of the desired layout is not acquired without confirming the 3D information. Will be possible.
したがって、3次元情報を取得する現場に居ながら、3次元情報再取得することが可能になり、3次元情報を取得する現場から離れた後で、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことに気づく場合に比べて、再度、3次元情報を取得する現場を訪問する手間が低減される。 Therefore, it is possible to reacquire the 3D information while being at the site where the 3D information is acquired, and after leaving the site where the 3D information is acquired, the image is taken on the photographer himself or the captured image of a tripod or the like. Compared to the case of crowding or noticing that the 3D information of the desired layout has not been acquired, the time and effort to visit the site for acquiring the 3D information again is reduced.
3次元情報は、全天球3次元情報を含む。この場合、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、確認することが困難な全天球3次元情報においても、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、撮像部11により撮像された2次元画像情報から容易に確認することが可能になる。
The three-dimensional information includes spherical three-dimensional information. In this case, even in the case of all-sky 3D information, which is difficult to confirm that the image is reflected in the captured image of the photographer himself or a tripod, or that the 3D information of the desired layout is not acquired. It is possible to easily confirm from the two-dimensional image information captured by the
表示制御部170は、ステップS11で送受信部180が3次元情報を送信(出力)する前に、ステップS3で2次元画像情報Gを出力する。表示制御部170は、ステップS10で3次元再構成処理部150が3次元情報を決定する前に、ステップS3で2次元画像情報Gを出力する。
The
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認する前に、2次元画像情報から確認することが可能になる。 As a result, it is necessary to confirm from the 2D image information before confirming the 3D information that the photographer himself or the tripod is reflected in the captured image and the 3D information of the desired layout is not acquired. Becomes possible.
表示制御部170は、表示部20に2次元画像情報を表示させる。撮像装置1は、表示部20を備える。
The
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、表示部20に表示される2次元画像情報から容易に確認することが可能になる。
As a result, it is possible to easily confirm from the two-dimensional image information displayed on the
表示制御部170は、送受信部180が3次元情報を出力する外部装置300とは異なる表示部20へ、2次元画像情報を出力する。
The
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、外部装置300に出力される3次元情報を確認することなく、外部装置300とは異なる表示部20に出力される2次元画像情報から確認することが可能になる。
As a result, it is possible to confirm that the image is reflected in the captured image of the photographer himself or the tripod, and that the three-dimensional information of the desired layout has not been acquired, without checking the three-dimensional information output to the
撮像装置1は、距離情報取得部13の出力に基づき3次元情報を決定する3次元再構成処理部150を備える。3次元再構成処理部150は、距離情報取得部13の出力と、2次元画像情報に基づき、3次元情報を決定する。
The
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元再構成処理部150で決定される3次元情報を確認することなく、撮像部11により撮像された2次元画像情報から確認することが可能になる。
As a result, the 3D information determined by the 3D
図6は、同実施形態における全天球画像データ生成フロー図である。 FIG. 6 is a spherical image data generation flow diagram in the same embodiment.
図6(a)は、図5で説明したステップS2に対応する全天球のRGB画像データの生成処理を示すフローチャートである。 FIG. 6A is a flowchart showing a process of generating RGB image data of the spherical image corresponding to step S2 described with reference to FIG.
RGB画像データ取得部142は、魚眼画像形式の2つのRGB画像データを入力する(ステップS201)。 The RGB image data acquisition unit 142 inputs two RGB image data in the fisheye image format (step S201).
RGB画像データ取得部142は、各RGB画像データを正距円筒画像形式に変換する(ステップS202)。RGB画像データ取得部142は、2つのRGB画像データを同じ座標系に基づいて正距円筒画像形式に変換することで、次のステップでの画像結合を容易にする。 The RGB image data acquisition unit 142 converts each RGB image data into an equirectangular image format (step S202). The RGB image data acquisition unit 142 converts the two RGB image data into a regular distance cylindrical image format based on the same coordinate system, thereby facilitating image combination in the next step.
ここで、正距円筒画像形式について説明する。正距円筒画像形式は、全天球画像を表現可能な方式であり、正距円筒図法を用いて作成される画像(正距円筒画像)の形式である。正距円筒図法とは、地球儀の緯度経度のような、2変数で3次元の方向を表し、緯度経度が直交するように平面表示した図法である。従って、正距円筒画像は、正距円筒図法を用いて生成された画像であり、球面座標系の2つの角度変数を2軸とする座標で表現されている。 Here, the equirectangular image format will be described. The equirectangular image format is a method capable of expressing a spherical image, and is a format of an image (equirectangular image) created by using the equirectangular projection. The equirectangular projection is a projection that represents a three-dimensional direction with two variables, such as the latitude and longitude of a globe, and is displayed in a plane so that the latitude and longitude are orthogonal to each other. Therefore, the equirectangular image is an image generated by using the equirectangular projection, and is represented by coordinates with two angular variables in the spherical coordinate system as two axes.
RGB画像データ取得部142は、ステップS202で生成された2つのRGB画像データを結合し、1枚の全天球RGB画像データを生成する(ステップS203)。入力された2つのRGB画像データは、全画角180度超の領域をカバーしている。このため、この2つのRGB画像データを適切に繋ぐことで生成された全天球RGB画像データは、全天球領域をカバーすることができる。 The RGB image data acquisition unit 142 combines the two RGB image data generated in step S202 to generate one all-sky RGB image data (step S203). The two input RGB image data cover an area having a total angle of view of more than 180 degrees. Therefore, the spherical RGB image data generated by appropriately connecting the two RGB image data can cover the spherical region.
なお、ステップS203における結合処理は、複数画像を繋ぐための既存の技術を用いることができ、特に方法を限定しない。 The combination process in step S203 can use an existing technique for connecting a plurality of images, and the method is not particularly limited.
図6(b)は、図5で説明したステップS4に対応する全天球のTOF画像データの生成処理を示すフローチャートである。 FIG. 6B is a flowchart showing a processing of generating TOF image data of the spherical image corresponding to step S4 described with reference to FIG.
TOF画像データ取得部144は、魚眼画像形式の2つの距離画像データを取得する(ステップS401)。 The TOF image data acquisition unit 144 acquires two distance image data in the fisheye image format (step S401).
TOF画像データ取得部144は、魚眼画像形式の2つのTOF画像データをそれぞれ正距円筒画像形式に変換する(ステップS402)。正距円筒画像形式は、上述の通り、全天球画像を表現可能な方式である。本ステップS402において、2つのTOF画像データを同じ座標系に基づいて正距円筒画像形式に変換することで、次のステップS403での画像結合を容易にする。 The TOF image data acquisition unit 144 converts each of the two TOF image data in the fisheye image format into an equirectangular image format (step S402). As described above, the equirectangular image format is a method capable of expressing a spherical image. In this step S402, by converting the two TOF image data into an equirectangular image format based on the same coordinate system, the image combination in the next step S403 is facilitated.
TOF画像データ取得部144は、ステップS402で生成された2つのTOF画像データを結合し、1枚の全天球TOF画像データを生成する(ステップS403)。入力された2つのTOF画像データは、全画角180度超の領域をカバーしている。このため、この2つのTOF画像データを適切に繋ぐことで生成された全天球TOF画像データは、全天球領域をカバーすることができる。 The TOF image data acquisition unit 144 combines the two TOF image data generated in step S402 to generate one spherical TOF image data (step S403). The two input TOF image data cover an area having a total angle of view of more than 180 degrees. Therefore, the spherical TOF image data generated by appropriately connecting the two TOF image data can cover the spherical region.
なお、ステップS403における結合処理は、複数画像を繋ぐための既存の技術を用いることができ、特に方法を限定しない。 The combination process in step S403 can use an existing technique for connecting a plurality of images, and the method is not particularly limited.
図7は、同実施形態における近接物判断フロー図である。 FIG. 7 is a proximity object determination flow diagram in the same embodiment.
図7は、図5で説明したステップS8に対応する近接物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 7 is a flowchart showing a process of determining whether or not a nearby object is reflected in the captured image corresponding to step S8 described with reference to FIG.
判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が飽和している画素があるか判断する(ステップS801)。
Based on the TOF image data of the spherical image acquired from the
判断部160は、ステップS801で蓄電量が飽和している画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS801で蓄電量が飽和していた画素と同一座標の画素について、蓄電量が飽和しているか判断する(ステップS802)。
When there is a pixel whose storage amount is saturated in step S801, the
判断部160は、ステップS802で蓄電量が飽和している場合、ステップS801で蓄電量が飽和している画素は、外光によるものであると判断し、エラー情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得したエラー情報に基づき、エラー情報を2次元画像情報に重畳させて表示部20に表示させる(ステップS803)。
When the storage amount is saturated in step S802, the
判断部160は、ステップS802で蓄電量が飽和していない場合、ステップS801で蓄電量が飽和している画素は、近接物の存在によるものであると判断し、ステップS801で蓄電量が飽和していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報を2次元画像情報に重畳させて表示部20に表示させる(ステップS804)。
When the storage amount is not saturated in step S802, the
判断部160は、ステップS801で蓄電量が飽和している画素がなかった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、0.5m以下の距離情報を示す画素があるか判断する(ステップS805)。
When there is no pixel whose storage amount is saturated in step S801, the
判断部160は、ステップS805で0.5m以下の距離情報を示す画素がない場合、処理を終了する。
If there is no pixel indicating the distance information of 0.5 m or less in step S805, the
判断部160は、ステップS805で0.5m以下の距離情報を示す画素がある場合、前述したステップS804へ移行し、ステップS805で0.5m以下の距離情報を示す画素は、近接物の存在によるものであると判断し、ステップS805で0.5m以下の距離情報を示していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報を2次元画像情報に重畳させて表示部20に表示させる。
If there is a pixel showing distance information of 0.5 m or less in step S805, the
以上説明したように、表示制御部170は、近接物が存在すると判断した場合には識別情報を2次元画像情報に重畳させ、近接物が存在すると判断しない場合には識別情報を2次元画像情報に重畳させない。
As described above, the
すなわち、表示制御部170は、近接物の存在の有無に応じて、表示部20に異なる表示をさせる。
That is, the
また、表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報を2次元画像情報に重畳させて表示部20に表示させる。
Further, the
すなわち、表示制御部170は、近接物の位置に応じて、表示部20に異なる位置の表示をさせる。
That is, the
図8は、同実施形態における表示部の表示内容を説明するための図である。 FIG. 8 is a diagram for explaining the display contents of the display unit in the same embodiment.
図8は、図5に示したステップS2、図7に示したステップS803およびステップS804に対応する説明図である。 FIG. 8 is an explanatory diagram corresponding to step S2 shown in FIG. 5, step S803 and step S804 shown in FIG. 7.
表示部20には、表示制御部170により、2次元画像情報Gが表示されている。また、表示部20には、表示制御部170により、近接物を識別する識別情報G1、G2およびエラー情報G3が、それぞれ2次元画像情報Gに重畳して表示されている。
Two-dimensional image information G is displayed on the
以上説明したように、撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13と、距離情報取得部13の出力と、撮像部11の出力と、に基づき判断される近接物の有無に応じて、表示部20に異なる表示をさせる表示制御部170と、を備える。
As described above, the
これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not the photographer himself or a nearby object such as a tripod is reflected in the captured image, distinguishing from the influence of external light.
撮像装置1は、表示部20を備える。これにより、撮影者は、近接物の撮像画像への写り込みの有無を確実に確認することができる。
The
表示制御部170は、近接物の位置に応じて、表示部20に異なる位置の表示をさせる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確認することができる。
The
表示制御部170は、撮像部11が撮像した画像情報Gを表示部20に表示させるとともに、近接物を識別する識別情報G1、G2を画像情報に重畳させて表示部20に表示させる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確実に確認することができる。
The
撮像装置1は、距離情報取得部13が受光した光による蓄電量が飽和しており、かつ撮像部11の画素の蓄電量が飽和していない場合、近接物があると判断する判断部160を備える。
The
これにより、撮影者は、外光の影響と区別して、近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not a nearby object is reflected in the captured image, distinguishing it from the influence of external light.
図9は、同実施形態の変形例に係る撮像装置の外観を示す図である。図10は、変形例における処理回路の処理ブロックの構成を示す図である。 FIG. 9 is a diagram showing the appearance of the image pickup apparatus according to the modified example of the same embodiment. FIG. 10 is a diagram showing a configuration of a processing block of a processing circuit in a modified example.
本変形例において、表示制御部170は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示装置500の表示部520に表示させる。表示部520は、2次元画像情報を出力する出力先の一例である。
In this modification, the
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、表示部520に表示される2次元画像情報から容易に確認することが可能になる。
As a result, it is possible to easily confirm from the two-dimensional image information displayed on the
表示制御部170は、送受信部180が3次元情報を出力する外部装置300とは異なる表示部520へ、2次元画像情報を出力する。
The
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、外部装置300に出力される3次元情報を確認することなく、外部装置300とは異なる表示部520に出力される2次元画像情報から確認することが可能になる。
As a result, it is possible to confirm that the image is reflected in the captured image of the photographer himself or the tripod, and that the three-dimensional information of the desired layout has not been acquired, without checking the three-dimensional information output to the
表示制御部170は、3次元再構成処理部145から全天球の3次元データを取得し、3次元情報を表示部520に表示させてもよい。具体的には、表示制御部170は、2次元画像情報を表示部520に表示させる場合と、3次元情報を表示部520に表示させる場合を所定の条件に従って選択してもよい。これにより、表示制御部170は、3次元情報とは別に2次元画像情報を出力することができる。
The
表示制御部170は、判断部160から取得したエラー情報に基づき、エラー情報を2次元画像情報に重畳させて表示部520に表示させる
The
表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報を2次元画像情報に重畳させて表示部520に表示させる
The
すなわち、表示制御部170は、距離情報取得部13の出力と、撮像部11の出力と、に基づき判断される近接物の有無に応じて、表示部520に異なる表示をさせる。
That is, the
これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not the photographer himself or a nearby object such as a tripod is reflected in the captured image, distinguishing from the influence of external light.
表示制御部170は、近接物の位置に応じて、表示部520に異なる位置の表示をさせる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確認することができる。
The
表示制御部170は、撮像部11が撮像した画像情報を表示部520に表示させるとともに、近接物を識別する識別情報を画像情報に重畳させて表示部520に表示させる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確実に確認することができる。
The
図11は、本発明の実施形態の第2の変形例に係る撮像装置の外観を示す図である。図12は、第2の変形例における処理回路の処理ブロックの構成を示す図である。 FIG. 11 is a diagram showing the appearance of the image pickup apparatus according to the second modification of the embodiment of the present invention. FIG. 12 is a diagram showing a configuration of a processing block of the processing circuit in the second modification.
図11に示す第2の変形例において、撮像装置1は、図1に示した表示部20に代えて、複数の表示部20A、20aを備える。表示部20A、20aは、LED等により構成され、処理回路14の出力信号に応じ点滅または点灯する。
In the second modification shown in FIG. 11, the
表示部20aは、筐体10の正面側の第1の面に設けられ、表示部20Aは、筐体10の背面側の第2の面に設けられている。
The
図12に示す第2の変形例において、表示制御部170は、判断部160から取得した判断結果を示す情報を表示部20A、20aに表示させる。
In the second modification shown in FIG. 12, the
また、送受信部180は、RGB画像データ取得部142から出力される全天球の2次元画像情報をネットワーク400経由で表示装置500へ送信(出力)する。表示装置500は、2次元画像情報を出力する出力先の一例である。
Further, the transmission / reception unit 180 transmits (outputs) the two-dimensional image information of the spherical image output from the RGB image data acquisition unit 142 to the
すなわち、第2の変形例では、図5に示したステップS3において、送受信部180は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示装置500へ送信(出力)する。
That is, in the second modification, in step S3 shown in FIG. 5, the transmission / reception unit 180 acquires the RGB image data of the whole celestial sphere from the RGB image data acquisition unit 142, and the acquired RGB image data of the whole celestial sphere. The two-dimensional image information based on the above is transmitted (output) to the
表示装置500の送受信部510は、撮像装置1の送受信部180から送信された2次元画像情報を受信する。
The transmission /
表示装置500の制御部530は、送受信部510が受信した2次元画像情報を表示部520へ表示させる。
The
以上説明したように、撮像装置1は、撮像部11と、3次元情報とは別に撮像部11により撮像された2次元画像情報を出力する送受信部180を備える。
As described above, the
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認することなく、2次元画像情報から容易に確認することが可能になる。 As a result, it is easy to confirm from the 2D image information that the image is reflected in the captured image of the photographer himself or the tripod, and that the 3D information of the desired layout is not acquired without confirming the 3D information. Will be possible.
したがって、3次元情報を取得する現場に居ながら、3次元情報再取得することが可能になり、3次元情報を取得する現場から離れた後で、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことに気づく場合に比べて、再度、3次元情報を取得する現場を訪問する手間が低減される。 Therefore, it is possible to reacquire the 3D information while being at the site where the 3D information is acquired, and after leaving the site where the 3D information is acquired, the image is taken on the photographer himself or the captured image of a tripod or the like. Compared to the case of crowding or noticing that the 3D information of the desired layout has not been acquired, the time and effort to visit the site for acquiring the 3D information again is reduced.
送受信部180は、ステップS11で3次元情報を送信(出力)する前に、ステップS3で2次元画像情報Gを送信(出力)する。送受信部180は、ステップS10で3次元再構成処理部150が3次元情報を決定する前に、ステップS3で2次元画像情報Gを送信(出力)する。
The transmission / reception unit 180 transmits (outputs) the two-dimensional image information G in step S3 before transmitting (outputting) the three-dimensional information in step S11. The transmission / reception unit 180 transmits (outputs) the two-dimensional image information G in step S3 before the three-dimensional
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認する前に、2次元画像情報から確認することが可能になる。 As a result, it is necessary to confirm from the 2D image information before confirming the 3D information that the photographer himself or the tripod is reflected in the captured image and the 3D information of the desired layout is not acquired. Becomes possible.
送受信部180は、表示装置500に2次元画像情報を送信し、表示装置500は表示部520に2次元画像情報を表示させる。
The transmission / reception unit 180 transmits the two-dimensional image information to the
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、表示部520に表示される2次元画像情報から容易に確認することが可能になる。
As a result, it is possible to easily confirm from the two-dimensional image information displayed on the
送受信部180は、3次元情報を出力する外部装置300とは異なる表示装置500へ、2次元画像情報を送信する。
The transmission / reception unit 180 transmits the two-dimensional image information to the
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、外部装置300に出力される3次元情報を確認することなく、外部装置300とは異なる表示装置500の表示部520に出力される2次元画像情報から確認することが可能になる。
As a result, the image is reflected in the captured image of the photographer himself or the tripod, and the fact that the three-dimensional information of the desired layout has not been acquired can be confirmed from the outside without checking the three-dimensional information output to the
送受信部180は、3次元情報を表示装置500へ送信してもよい。具体的には、送受信部180は、2次元画像情報を表示装置500へ送信する場合と、3次元情報を表示装置500へ送信する場合を所定の条件に従って選択してもよい。これにより、送受信部180は、表示装置500に対して3次元情報とは別に2次元画像情報を送信することができる。
The transmission / reception unit 180 may transmit the three-dimensional information to the
図13は、第2の変形例における近接物判断フロー図である。 FIG. 13 is a proximity object determination flow diagram in the second modification.
図13は、第2の変形例における図5で説明したステップS8に対応する近接物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 13 is a flowchart showing a process of determining whether or not a nearby object is reflected in the captured image corresponding to step S8 described in FIG. 5 in the second modification.
判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が飽和している画素があるか判断する(ステップS811)。
Based on the TOF image data of the spherical image acquired from the
判断部160は、ステップS811で蓄電量が飽和している画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS811で蓄電量が飽和していた画素と同一座標の画素について、蓄電量が飽和しているか判断する(ステップS812)。
When there is a pixel whose storage amount is saturated in step S811, the
判断部160は、ステップS812で蓄電量が飽和している場合、ステップS811で蓄電量が飽和している画素は、外光によるものであると判断し、エラー情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得したエラー情報に基づき、エラー情報を表示部20A、20aに表示させる(ステップS813)。
When the storage amount is saturated in step S812, the
判断部160は、ステップS812で蓄電量が飽和していない場合、ステップS811で蓄電量が飽和している画素は、近接物の存在によるものであると判断し、ステップS811で蓄電量が飽和していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、座標位置情報が筐体10の正面側であるか判断する(ステップS814)。
When the storage amount is not saturated in step S812, the
判断部160は、ステップS811で蓄電量が飽和している画素がなかった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、0.5m以下の距離情報を示す画素があるか判断する(ステップS815)。
When there is no pixel whose storage amount is saturated in step S811, the
判断部160は、ステップS815で0.5m以下の距離情報を示す画素がない場合、処理を終了する。
If there is no pixel indicating the distance information of 0.5 m or less in step S815, the
判断部160は、ステップS815で0.5m以下の距離情報を示す画素がある場合、前述したステップS814へ移行し、ステップS815で0.5m以下の距離情報を示す画素は、近接物の存在によるものであると判断し、ステップS815で0.5m以下の距離情報を示していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、座標位置情報が筐体10の正面側であるか判断する。
If there is a pixel showing distance information of 0.5 m or less in step S815, the
表示制御部170は、ステップS814で正面側であると判断した場合には、筐体10の正面側に配置された表示部20aを点滅させる(ステップS816)。
When the
表示制御部170は、ステップS814で正面側であると判断しなかった場合には、筐体10の背面側に配置された表示部20Aを点滅させる(ステップS817)。
If the
以上説明したように、表示制御部170は、近接物が存在すると判断した場合には表示部20aまたは表示部20Aを点滅させ、近接物が存在すると判断しない場合には表示部20aおよび表示部20Aを点滅させない。
As described above, the
すなわち、表示制御部170は、近接物の存在の有無に応じて、表示部20aおよび表示部20Aに異なる表示をさせる。
That is, the
これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not the photographer himself or a nearby object such as a tripod is reflected in the captured image, distinguishing from the influence of external light.
また、表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、表示部20aまたは表示部20Aを点滅させる。
Further, the
すなわち、表示制御部170は、近接物の位置に応じて、表示部20aおよび表示部20Aに異なる位置の表示をさせる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確認することができる。
That is, the
そして、表示制御部170は、表示部20A、20aのうち、近接物に近い側の表示部に、近接物の有無に応じて異なる表示をさせる。これにより、撮影者は、特定の対象物の撮像画像への写り込みの位置を確実に確認することができる。
Then, the
図14は、本発明の実施形態の第3の変形例に係る撮像装置の構成を説明するための図である。 FIG. 14 is a diagram for explaining a configuration of an image pickup apparatus according to a third modification of the embodiment of the present invention.
図14に示す第3の変形例において、撮像装置1は、図2に示した構成に加えて、他の撮像素子111a、111Aや、他の魚眼レンズ(広角レンズ)111b、111Bなどを有する他の撮像部111を備える。
In the third modification shown in FIG. 14, in addition to the configuration shown in FIG. 2, the
第3の変形例では、RGBの撮像部11と他の撮像部111を同一基線上に設けている。この場合、処理回路14において多眼での処理が可能になる。つまり、一面において所定距離離して設けた撮像部11と他の撮像部111を同時に駆動することにより2つの視点のRGB画像が得られる。このため、2つのRGB画像に基づいて計算した視差の使用が可能になり、さらに測定範囲全体の距離精度を向上させることができる。
In the third modification, the
具体的には、RGBの撮像部11と他の撮像部111設けた場合、従来の視差計算のように、SSSDを使ったマルチベースラインステレオ(MSB)やEPI処理などが利用可能になる。このため、これを利用することで視差の信頼度があがり、高い空間解像度と精度を実現することが可能になる。
Specifically, when the
以上のように、撮像装置1は、他の撮像部111を備え、3次元再構成処理部150は、距離情報取得部13の出力と、2次元画像情報と、他の撮像部111により撮像された他の2次元画像情報と、に基づき3次元情報を決定する。
As described above, the
撮像装置1は、距離情報取得部13の出力によらずに、他の撮像部111と、2次元画像情報と他の撮像部111により撮像された他の2次元画像情報とに基づき3次元情報を決定する3次元情報決定部と、を備えてもよい。
The
これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、2次元画像情報に基づき3次元再構成処理部150で決定される3次元情報を確認することなく、撮像部11により撮像された2次元画像情報から確認することが可能になる。
As a result, the 3D
以上説明したように、本発明の一実施形態に係る撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13(受光部の一例)と、距離情報取得部13の出力と、撮像部11の出力と、に基づき判断される特定の対象物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。
As described above, the
これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の特定の対象物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not a specific object such as the photographer himself or a tripod is reflected in the captured image, distinguishing from the influence of external light.
撮像装置1は、表示部20を備える。これにより、撮影者は、特定の対象物の撮像画像への写り込みの有無を確実に確認することができる。
The
表示制御部170は、特定の対象物の位置に応じて、表示部20、520に異なる位置の表示をさせる。これにより、撮影者は、特定の対象物の撮像画像への写り込みの位置を確認することができる。
The
表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、特定の対象物に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、特定の対象物の撮像画像への写り込みの位置を確実に確認することができる。
The
表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、特定の対象物を識別する識別情報G1、G2を画像情報に重畳させて表示部20、520に表示させる。これにより、撮影者は、特定の対象物の撮像画像への写り込みの位置を確実に確認することができる。
The
撮像装置1は、距離情報取得部13が受光した光による蓄電量が飽和しており、かつ撮像部の画素の蓄電量が飽和していない場合、特定の対象物があると判断する判断部160を備える。
The
これにより、撮影者は、外光の影響と区別して、特定の対象物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not a specific object is reflected in the captured image, distinguishing it from the influence of external light.
1 撮像装置(情報処理装置の一例)
10 筐体
11 撮像部
11a、11A 撮像素子
11b、11B 魚眼レンズ
12 投射部
12a、12A 光源部
12b、12B 広角レンズ
13 距離情報取得部(受光部の一例)
13a、13A TOFセンサ
13b、13B 広角レンズ
14 処理回路
15 撮影スイッチ
20 表示部
20A、20a 表示部
111 他の撮像部
150 3次元再構成処理部(3次元情報決定部の一例)
160 判断部
170 表示制御部(出力部の一例)
180 送受信部(出力部の一例)
300 外部装置(出力先の一例)
500 表示装置(出力先の一例)
520 表示部(出力先の一例)
L 同期信号線
1 Imaging device (an example of information processing device)
10
13a,
160
180 Transmitter / receiver (example of output)
300 External device (example of output destination)
500 display device (example of output destination)
520 display unit (example of output destination)
L sync signal line
Claims (7)
前記対象に光を投射する投射部と、
前記対象から反射してきた前記光を受光する受光部と、
前記受光部の出力と、前記撮像部の出力と、に基づき判断される特定の対象物の有無に応じて、表示部に異なる表示をさせる表示制御部と、
を備えた撮像装置。 An imaging unit that captures an object and
A projection unit that projects light onto the target,
A light receiving unit that receives the light reflected from the object and
A display control unit that causes the display unit to display differently depending on the presence or absence of a specific object determined based on the output of the light receiving unit and the output of the imaging unit.
Imaging device equipped with.
前記表示制御部は、前記複数の表示部のうち、前記特定の対象物に近い側の前記表示部に、前記対象物の有無に応じて異なる表示をさせる請求項4記載の撮像装置。 The display unit includes a plurality of display units.
The imaging device according to claim 4, wherein the display control unit causes the display unit on the side closer to the specific object among the plurality of display units to display differently depending on the presence or absence of the object.
前記対象に光を投射する投射ステップと、
前記対象から反射してきた前記光を受光部により受光する受光ステップと、
前記受光部の出力と、前記撮像部の出力と、に基づき判断される特定の対象物の有無に応じて、異なる表示をさせる表示ステップと、を備えた撮像処理方法。 An imaging step in which an object is imaged by an imaging unit,
A projection step that projects light onto the target,
A light receiving step in which the light reflected from the target is received by the light receiving unit, and
An imaging processing method comprising: an output of the light receiving unit, an output of the imaging unit, and a display step of displaying differently depending on the presence or absence of a specific object determined based on the output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020092826A JP6868167B1 (en) | 2020-03-23 | 2020-05-28 | Imaging device and imaging processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050608A JP7528485B2 (en) | 2020-03-23 | 2020-03-23 | Imaging device and program |
JP2020092826A JP6868167B1 (en) | 2020-03-23 | 2020-05-28 | Imaging device and imaging processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020050608A Division JP7528485B2 (en) | 2020-03-23 | 2020-03-23 | Imaging device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6868167B1 JP6868167B1 (en) | 2021-05-12 |
JP2021150942A true JP2021150942A (en) | 2021-09-27 |
Family
ID=75801774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020092826A Active JP6868167B1 (en) | 2020-03-23 | 2020-05-28 | Imaging device and imaging processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6868167B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023002982A (en) * | 2021-06-23 | 2023-01-11 | 株式会社リコー | Distance measuring device and distance measuring system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015005925A (en) * | 2013-06-21 | 2015-01-08 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
2020
- 2020-05-28 JP JP2020092826A patent/JP6868167B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015005925A (en) * | 2013-06-21 | 2015-01-08 | キヤノン株式会社 | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6868167B1 (en) | 2021-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10116922B2 (en) | Method and system for automatic 3-D image creation | |
CN113412614A (en) | Three-dimensional localization using depth images | |
EP3144880B1 (en) | A method and an apparatus for generating data representative of a light field | |
CN109743621A (en) | More VR/AR equipment collaboration systems and Synergistic method | |
JP7409443B2 (en) | Imaging device | |
JP6868167B1 (en) | Imaging device and imaging processing method | |
WO2022202536A1 (en) | Information processing apparatus and information processing method | |
JP6868168B1 (en) | Imaging device and imaging processing method | |
JP6966011B1 (en) | Imaging device, imaging method and information processing device | |
JP7581638B2 (en) | Information processing device and information processing method | |
JP7414090B2 (en) | Imaging device and method of controlling the imaging device | |
JP7528485B2 (en) | Imaging device and program | |
JP7006824B1 (en) | Information processing equipment | |
JP2021150880A (en) | Image capture device and image capture processing method | |
JP7031771B1 (en) | Imaging device, imaging method and information processing device | |
JP7040660B1 (en) | Information processing equipment and information processing method | |
JP2004260591A (en) | Stereoscopic image display device | |
JP7120365B1 (en) | IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE | |
WO2022202775A1 (en) | Imaging device, imaging method, and information processing device | |
US12118259B2 (en) | Information processing apparatus and information processing method for adjusting display based on presence or absence of an object in a space | |
JP2022147124A (en) | Information processing apparatus | |
JP2022147012A (en) | Information processing apparatus and information processing method | |
Christodoulou | Overview: 3D stereo vision camera-sensors-systems, advancements, and technologies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200608 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200608 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210302 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6868167 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |