JP7099506B2 - Detection device, detection method, information processing device, and processing program - Google Patents
Detection device, detection method, information processing device, and processing program Download PDFInfo
- Publication number
- JP7099506B2 JP7099506B2 JP2020179856A JP2020179856A JP7099506B2 JP 7099506 B2 JP7099506 B2 JP 7099506B2 JP 2020179856 A JP2020179856 A JP 2020179856A JP 2020179856 A JP2020179856 A JP 2020179856A JP 7099506 B2 JP7099506 B2 JP 7099506B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- accuracy
- viewpoint
- detection
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Description
本発明は、検出装置、検出方法、情報処理装置、及び処理プログラムに関する。 The present invention relates to a detection device, a detection method, an information processing device, and a processing program.
複数の撮像装置により対象物を検出し、得られた複数の画像をコンピュータに入力し、対象物の三次元形状を取得する技術が提案されている(例えば、特許文献1参照)。 A technique has been proposed in which an object is detected by a plurality of image pickup devices, a plurality of obtained images are input to a computer, and a three-dimensional shape of the object is acquired (see, for example, Patent Document 1).
上述のような技術においては、対象物を検出した結果から対象物の三次元形状を高精度に構築可能であることが望まれる。 In the above-mentioned techniques, it is desired that the three-dimensional shape of the object can be constructed with high accuracy from the result of detecting the object.
本発明の態様によれば、検出部と、検出部により検出可能な第1領域と、検出部により検出不能、又は検出部の検出結果の信頼度が第1領域よりも低い第2領域とを特定する情報を算出する算出部と、を備え、検出部は、一視点から対象物を検出し、算出部は、検出部の検出結果を用いて一視点における対象物の確度情報を算出し、算出部は、確度情報として、対象物を含む領域のうち一視点から検出可能な第1領域と一視点から見て第1領域の陰になる第2領域とを区別する情報を算出し、一視点と対象物上の点を結ぶ線上で、一視点から点よりも遠い領域を第2領域と判定し、検出結果及び確度情報を用いて対象物の形状情報を算出する情報算出部を備える検出装置が提供される。
また、本発明の態様によれば、複数の上記検出装置と、複数の検出装置から出力される情報を処理する情報処理装置と、を備え、複数の検出装置は、対象物の形状情報と対象物のテクスチャ情報との少なくとも一方を含むモデル情報をそれぞれ出力し、情報処理装置は、複数の検出装置から出力される情報を統合するモデル統合部を含む、検出システムが提供される。
また、本発明の態様によれば、検出部により一視点から対象物を検出することと、検出部により検出可能な第1領域と、検出部により検出不能、又は検出部の検出結果の信頼度が第1領域よりも低い第2領域とを特定する情報を算出することと、検出部の検出結果を用いて一視点における対象物の確度情報を算出することと、確度情報として、対象物を含む領域のうち一視点から検出可能な第1領域と一視点から見て第1領域の陰になる第2領域とを区別する情報を算出し、一視点と対象物上の点を結ぶ線上で、一視点から点よりも遠い領域を第2領域と判定することと、検出結果及び確度情報を用いて対象物の形状情報を算出することと、を含む検出方法が提供される。
また、本発明の態様によれば、第1検出結果と第1確度情報とを用いて算出された、一視点における対象物の形状情報を含む第1モデル情報と、第2検出結果と第2確度情報とを用いて算出された、一視点とは異なる視点における対象物の形状情報を含む第2モデル情報とを受信する受信部と、第1モデル情報と第2モデル情報とを統合するモデル統合部と、を備え、第1確度情報及び第2確度情報は、検出可能な第1領域と、検出不能、又は検出結果の信頼度が第1領域よりも低い第2領域とを区別する情報として算出され、一視点における対象物の形状情報は、一視点から検出部により検出された対象物の検出結果を用いて一視点における対象物の確度情報を算出し、確度情報として、対象物を含む領域のうち一視点から検出可能な第1領域と一視点から見て第1領域の陰になる第2領域とを区別する情報を算出し、一視点と対象物上の点を結ぶ線上で、一視点から点よりも遠い領域を第2領域と判定し、検出結果及び確度情報を用いて算出される、情報処理装置が提供される。
また、本発明の態様によれば、一視点から検出部により対象物を検出した検出結果を処理する処理プログラムであって、コンピュータに、検出部により検出可能な第1領域と、検出部により検出不能、又は検出部の検出結果の信頼度が第1領域よりも低い第2領域とを特定する情報を算出することと、検出部の検出結果を用いて一視点における対象物の確度情報を算出することと、確度情報として、対象物を含む領域のうち一視点から検出可能な第1領域と一視点から見て第1領域の陰になる第2領域とを区別する情報を算出し、一視点と対象物上の点を結ぶ線上で、一視点から点よりも遠い領域を第2領域と判定することと、検出結果及び確度情報を用いて対象物の形状情報を算出することと、を実行させる、処理プログラムが提供される。
また、本発明の第1の態様によれば、検出装置が提供される。検出装置は、検出部を備えてよい。検出装置は、検出部により検出可能な第1領域と、検出部により検出不能、又は検出部の検出結果の信頼度が第1領域よりも低い第2領域とを特定する情報を算出する算出部を備えてよい。本発明の第2の態様によれば、検出装置が提供される。検出装置は、対象物を検出する検出部を備えてよい。検出装置は、検出部が検出した対象物と検出部との間の領域を特定する情報を算出する算出部とを備えてよい。本発明の第3の態様によれば、検出システムが提供される。検出システムは、前述のとおりの複数の検出装置を備えてよい。検出システムは、複数の検出装置から出力される情報を処理する情報処理装置を備えてよい。複数の検出装置は、対象物の形状情報と対象物のテクスチャ情報との少なくとも一方を含むモデル情報をそれぞれ出力してよい。情報処理装置は、複数の検出装置から出力される情報を統合するモデル統合部を含んでよい。本発明の第4の態様によれば、検出システムが提供される。検出システムは、前述のとおりの検出装置を備えてよい。検出システムは、検出装置から出力される情報を処理する情報処理装置を備えてよい。本発明の第5の態様によれば、検出方法が提供される。検出方法は、検出部により検出可能な第1領域と、検出部により検出不能、又は検出部の検出結果の信頼度が第1領域よりも低い第2領域とを特定することを含んでよい。本発明の第6の態様によれば、検出方法が提供される。検出方法は、検出部により対象物を検出することを含んでよい。検出方法は、検出部が検出した対象物と検出部との間の領域を特定する情報を算出することを含んでよい。本発明の第7の態様によれば、情報処理装置が提供される。情報処理装置は、第1検出結果と第1確度情報とを用いて算出された、一視点における対象物の形状情報を含む第1モデル情報と、第2検出結果と第2確度情報とを用いて算出された、一視点とは異なる視点における対象物の形状情報を含む第2モデル情報とを受信する受信部を備えてよい。情報処理装置は、第1モデル情報と第2モデル情報とを統合するモデル統合部を備えてよい。第1確度情報及び第2確度情報は、検出可能な第1領域と、検出不能、又は検出結果の信頼度が第1領域よりも低い第2領域とを区別する情報として算出されてよい。本発明の第8の態様によれば、情報処理装置が提供される。情報処理装置は、第1検出結果と第1確度情報とを用いて算出された、一視点における対象物の形状情報を含む第1モデル情報と、第2検出結果と第2確度情報とを用いて算出された、一視点とは異なる視点における対象物の形状情報を含む第2モデル情報とを受信する受信部を備えてよい。情報処理装置は、第1モデル情報と第2モデル情報とを統合するモデル統合部を備えてよい。第1確度情報及び第2確度情報は、対象物と一視点との間の領域を特定する情報として算出されてよい。本発明の第9の態様によれば、処理プログラムが提供される。処理プログラムは、検出部により検出した検出結果を処理する処理プログラムであってよい。処理プログラムは、コンピュータに、検出部により検出可能な第1領域と、検出部により検出不能、又は検出部の検出結果の信頼度が第1領域よりも低い第2領域とを特定することを実行させてよい。本発明の第10の態様によれば、処理プログラムが提供される。処理プログラムは、対象物を検出部により検出した検出結果を処理する処理プログラムであってよい。処理プログラムは、コンピュータに、検出部が検出した対象物と検出部との間の領域を特定する情報を算出することを実行させてよい。
According to the aspect of the present invention, the detection unit, the first region that can be detected by the detection unit, and the second region that cannot be detected by the detection unit or the reliability of the detection result of the detection unit is lower than that of the first region. It is equipped with a calculation unit that calculates the information to be specified, the detection unit detects the object from one viewpoint, and the calculation unit calculates the accuracy information of the object in one viewpoint using the detection result of the detection unit. As accuracy information, the calculation unit calculates information that distinguishes between the first region that can be detected from one viewpoint and the second region that is behind the first region when viewed from one viewpoint, among the regions containing the object. Detection provided with an information calculation unit that determines a region farther than the point from one viewpoint on the line connecting the viewpoint and a point on the object as the second region, and calculates shape information of the object using the detection result and accuracy information. Equipment is provided.
Further, according to the aspect of the present invention, the plurality of detection devices include the plurality of detection devices and an information processing device for processing information output from the plurality of detection devices, and the plurality of detection devices include shape information of an object and a target. A detection system is provided that outputs model information including at least one of the texture information of an object, and the information processing apparatus includes a model integration unit that integrates information output from a plurality of detection devices.
Further, according to the aspect of the present invention, the object is detected from one viewpoint by the detection unit, the first region that can be detected by the detection unit, and the reliability of the detection result that cannot be detected by the detection unit or is detected by the detection unit. The information that identifies the second region, which is lower than the first region, is calculated, the accuracy information of the object in one viewpoint is calculated using the detection result of the detection unit, and the object is used as the accuracy information. Information that distinguishes the first region that can be detected from one viewpoint and the second region that is behind the first region when viewed from one viewpoint is calculated, and on the line connecting the one viewpoint and the point on the object. , A detection method including determining a region farther than a point from one viewpoint as a second region and calculating shape information of an object using the detection result and accuracy information is provided.
Further, according to the aspect of the present invention, the first model information including the shape information of the object in one viewpoint, the second detection result and the second, calculated by using the first detection result and the first accuracy information. A receiver that receives second model information including shape information of an object from a viewpoint different from one viewpoint, calculated using accuracy information, and a model that integrates the first model information and the second model information. The first accuracy information and the second accuracy information include an integrated unit, and the first accuracy information and the second accuracy information are information that distinguishes between a detectable first region and a second region that is undetectable or has a lower reliability of the detection result than the first region. The shape information of the object in one viewpoint is calculated as, the accuracy information of the object in one viewpoint is calculated using the detection result of the object detected by the detection unit from one viewpoint, and the object is used as the accuracy information. Information that distinguishes the first region that can be detected from one viewpoint and the second region that is behind the first region when viewed from one viewpoint is calculated, and on the line connecting the one viewpoint and the point on the object. Provided is an information processing apparatus that determines a region farther than a point from one viewpoint as a second region and calculates using the detection result and accuracy information.
Further, according to the aspect of the present invention, it is a processing program that processes the detection result in which the object is detected by the detection unit from one viewpoint, and is detected by the first region that can be detected by the detection unit and the detection unit by the computer. Calculate information that identifies the second region where the reliability of the detection result of the detection unit is lower than that of the first region, and calculate the accuracy information of the object from one viewpoint using the detection result of the detection unit. As accuracy information, information that distinguishes between the first region that can be detected from one viewpoint and the second region that is behind the first region when viewed from one viewpoint is calculated as accuracy information. On the line connecting the viewpoint and the point on the object, the region farther than the point from one viewpoint is determined as the second region, and the shape information of the object is calculated using the detection result and the accuracy information. A processing program to be executed is provided.
Further , according to the first aspect of the present invention, a detection device is provided. The detection device may include a detection unit. The detection device calculates information that identifies the first region that can be detected by the detection unit and the second region that cannot be detected by the detection unit or the reliability of the detection result of the detection unit is lower than that of the first region. It may be provided with a calculation unit. According to the second aspect of the present invention, a detection device is provided. The detection device may include a detection unit that detects an object. The detection device may include a calculation unit that calculates information for specifying an area between the object detected by the detection unit and the detection unit. According to the third aspect of the present invention, a detection system is provided. The detection system may include a plurality of detection devices as described above. The detection system may include an information processing device that processes information output from a plurality of detection devices. The plurality of detection devices may output model information including at least one of the shape information of the object and the texture information of the object. The information processing device may include a model integration unit that integrates information output from a plurality of detection devices. According to a fourth aspect of the present invention, a detection system is provided. The detection system may include the detection device as described above. The detection system may include an information processing device that processes information output from the detection device. According to the fifth aspect of the present invention, a detection method is provided. The detection method may include identifying a first region that can be detected by the detection unit and a second region that cannot be detected by the detection unit or whose reliability of the detection result of the detection unit is lower than that of the first region. According to the sixth aspect of the present invention, a detection method is provided. The detection method may include detecting an object by a detection unit. The detection method may include calculating information that identifies the area between the object detected by the detection unit and the detection unit. According to the seventh aspect of the present invention, an information processing apparatus is provided. The information processing device uses the first model information including the shape information of the object in one viewpoint, and the second detection result and the second accuracy information calculated by using the first detection result and the first accuracy information. It may be provided with a receiving unit for receiving the second model information including the shape information of the object at a viewpoint different from one viewpoint calculated by the above. The information processing device may include a model integration unit that integrates the first model information and the second model information. The first accuracy information and the second accuracy information may be calculated as information for distinguishing the first region that can be detected from the second region that cannot be detected or the reliability of the detection result is lower than that of the first region. According to the eighth aspect of the present invention, an information processing apparatus is provided. The information processing device uses the first model information including the shape information of the object in one viewpoint, and the second detection result and the second accuracy information calculated by using the first detection result and the first accuracy information. It may be provided with a receiving unit for receiving the second model information including the shape information of the object at a viewpoint different from one viewpoint calculated by the above. The information processing device may include a model integration unit that integrates the first model information and the second model information. The first accuracy information and the second accuracy information may be calculated as information for specifying an area between the object and one viewpoint. According to the ninth aspect of the present invention, a processing program is provided. The processing program may be a processing program that processes the detection result detected by the detection unit. The processing program executes the computer to identify the first region that can be detected by the detection unit and the second region that cannot be detected by the detection unit or the reliability of the detection result of the detection unit is lower than that of the first region. You may let me. According to the tenth aspect of the present invention, a processing program is provided. The processing program may be a processing program that processes the detection result obtained by detecting the object by the detection unit. The processing program may cause the computer to calculate information that identifies the area between the object detected by the detection unit and the detection unit.
[第1実施形態]
第1実施形態について説明する。図1(A)は、本実施形態に係る検出装置1の一例を示す概念図である。検出装置1は、例えば撮像装置であり、検出領域A1(例、視野)内の対象物OBを検出する。検出装置1は、例えば、定点カメラでもよいし、手動または自動で視野を変更可能なカメラでもよく、携帯可能な情報端末(例、スマートフォン、タブレット、カメラ付き携帯電話)でもよい。検出装置1は、対象物OBを検出した結果を使って、対象物OBに関する情報の演算処理を行う。検出装置1は、自端末の演算処理によって、対象物OBの少なくとも一部をモデル化し、モデル情報(モデルデータ)を算出する。例えば、検出装置1は、演算処理によって、対象物OBの少なくとも一部をコンピュータグラフィック処理(CG処理)し、モデル情報(例、CGモデルデータ)を算出する。モデル情報は、例えば、対象物OBの三次元形状を示す形状情報と、対象物OBの表面の模様を示すテクスチャ情報の少なくとも一方を含む。また、例えば、モデル情報は、3次元の点座標、その点座標の関連情報、該点座標及びその関連情報で規定された面のテクスチャ情報、画像全体の照明条件や光源情報などの画像の空間情報、及び形状情報としてのポリゴンデータの少なくとも一つを含む。テクスチャ情報は、例えば、対象物OBの表面の文字や図形、パターン、凹凸を規定する情報、特定の画像、及び色彩(例、有彩色、無彩色)の少なくとも1つの情報を含む。検出装置1は、例えば、視点Vp(例、所定の視点、一視点、単一の視点、1方向)から見た対象物OBを示すモデル情報を算出する。また、例えば、検出装置1は、対象物OBに対して所定の角度における一視点から見た対象物OBを示すモデル情報を算出する。
[First Embodiment]
The first embodiment will be described. FIG. 1A is a conceptual diagram showing an example of the
図1(B)は、検出装置1の構成の一例を示すブロック図である。検出装置1は、例えば、検出部2と、確度算出部3と、情報算出部4と、記憶部5と、通信部6と、制御部7と、本体部8とを備える。本体部8は、例えば、カメラボディ、ケース、筐体などである。検出部2、確度算出部3、及び情報算出部4は、例えば、本体部8に設けられる。
FIG. 1B is a block diagram showing an example of the configuration of the
検出部2は、視点Vpから対象物OBを検出する。確度算出部3は、視点Vpにおける対象物OBの確度情報を算出する。確度算出部3は、例えば、視点Vpに応じた対象物OBの確度情報を算出する。確度情報は、例えば、対象物OBを含む領域(例、検出部2の検出領域A1、視野)の各位置に物体が存在する確率、確率分布、及び期待値の少なくとも一つを含む。この確率分布は、例えば、検出部2の検出領域の一部の領域の確度と、その周辺の領域との確度との関係を示す情報である。確度情報は、例えば、対象物OBを含む領域(例、検出部2の検出領域、視野)の各位置に対する、検出部2の検出結果の信頼度を含む。例えば、確度は、各位置のデータの正確さ(正確度、精度、信頼度)、または不確かさ(曖昧さ、不明瞭さ)を数値化したものであり、確度情報は、複数の位置における確度の分布を含む。例えば、確度が高いことは、正確さが高いこと、あるいは不確かさが低いことに相当する。例えば、確度が低いことは、正確さが低いこと、あるいは不確かさが高いことに相当する。また、例えば、検出部2は対象物OBを検出した検出結果(例、画像データなど)を情報算出部4へ送信し、確度算出部3は算出した対象物OBの確度情報を情報算出部4へ送信する。情報算出部4は、受信した検出部2の検出結果および確度情報を用いて、視点Vpにおける対象物OBの形状情報とテクスチャ情報との少なくとも一方を算出する。例えば、情報算出部4は、視点Vpから見た場合の対象物OBの形状情報とテクスチャ情報との少なくとも一方を算出する。例えば、確度算出部3は、対象物OBの領域ごとに確度情報を算出し、情報算出部4は、対象物OBの領域ごとに算出された確度情報を形状情報とテクスチャ情報との少なくとも一方に関連付けする。以下、検出装置1の各部について説明する。
The
図2は、検出部2の一例を示す図である。検出部2は、例えば、視点Vpから対象物OBを光学的に検出する。例えば、一視点(視点Vp)から対象物OBを見た画像と、一視点(視点Vp)から対象物OB上の各点までの距離との少なくとも一方を取得する。検出部2は、例えば、所定の視角で対象物OBを検出してもよい。検出部2は、例えば、所定の視線(例、単一の視線)で対象物OBを検出してもよい。検出部2は、例えば、撮像部11および測距部12を含む。撮像部11は、視点Vpから対象物OBを撮像して、検出結果として対象物OBの画像データなどを出力する。検出部2の検出結果は、例えば、検出した対象物OBの画像データを含む。測距部12は、視点Vp(図1(A)参照)から対象物OB上の各点までの距離を検出する。なお、検出部2は、撮像部11または測距部12を含まなくてもよい。
FIG. 2 is a diagram showing an example of the
撮像部11は、結像光学系13および撮像素子14を備える。結像光学系13は、対象物OBの像を形成する。結像光学系13は、例えば鏡筒内に保持され、鏡筒とともに本体部8(図1参照)に取り付けられる。結像光学系13および鏡筒は、例えば交換レンズであり、本体部8から取り外し可能である。結像光学系13および鏡筒は、内蔵レンズでもよく、例えば鏡筒は、本体部8の一部でもよいし、本体部8から取り外し不能でもよい。
The
撮像素子14は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、あるいはCCDイメージセンサである。撮像素子14は、例えば本体部8に収容される。撮像素子14は、結像光学系13が形成した像を撮像する。撮像素子14の撮像結果(検出結果)は、例えば、各画素の色ごとの階調値の情報(例、RGBデータ)を含む。撮像素子14は、例えば、撮像結果をフルカラー画像のデータ形式で出力する。
The
測距部12は、対象物OBの表面上の各点からの距離を検出する。測距部12は、例えば、TOF(time of flight)法により距離を検出する。測距部12は、その他の手法で距離を検出するものでもよい。例えば、測距部12は、レーザスキャナを含み、レーザスキャンにより距離を検出するものでもよい。例えば、測距部12は、対象物OBに所定のパターンを投影し、このパターンの検出結果をもとに距離を測定するものでもよい。また、測距部12は、位相差センサを含み、位相差法により距離を検出するものでもよい。また、測距部12は、DFD(depth from defocus)法により距離を検出するものでもよい。DFD法を用いる場合、測距部12は、撮像部11の結像光学系13と撮像素子14との少なくとも一方を用いるものでもよい。
The ranging
測距部12は、例えば、照射部15、結像光学系16、撮像素子17、及びコントローラ18を備える。照射部15は、対象物OBに赤外光を照射可能である。照射部15は、コントローラ18に制御される。コントローラ18は、照射部15から照射される赤外光の強度を時間変化させる(例、振幅変調する)。結像光学系16は、対象物OBの像を形成する。結像光学系16は、結像光学系13と同様に、交換レンズの少なくとも一部でもよいし、内蔵レンズの少なくとも一部でもよい。撮像素子17は、例えば、CMOSイメージセンサ、あるいはCCDイメージセンサである。撮像素子17は、少なくとも照射部15が照射する光の波長帯に感度を有する。撮像素子17は、例えば、コントローラ18に制御され、対象物OBで反射散乱した赤外光を検出する。例えば、撮像素子17は、結像光学系16が形成した像を撮像する。
The ranging
コントローラ18は、撮像素子17による検出結果を使って、対象物OBの表面の各点から撮像素子17までの距離(デプス)を検出する。例えば、対象物OBの表面上の点から撮像素子17に入射する光の飛行時間は、この点のデプスに応じて変化する。撮像素子17の出力は飛行時間に応じて変化し、コントローラ18は、例えば、撮像素子17の出力をもとにデプスを算出する。コントローラ18は、例えば、撮像素子17が撮像した画像の一部の領域(例、1画素、複数の画素)ごとにデプスを算出し、この領域の位置とデプスとを関連付けて、デプス情報を算出(生成)する。デプス情報は、例えば、対象物OBの表面上の点の位置と、この点から検出装置1までの距離(デプス、深度)とを関連付けた情報を含む。デプス情報は、例えば、対象物OBにおけるデプスの分布(例、デプスマップ)を示す情報(例、デプス画像)を含む。
The
次に、確度算出部3が算出する確度情報について説明する。確度算出部3(図1(B)参照)は、例えば、検出部2に設けられる光学系(例、結像光学系13、結像光学系16)の光学特性に基づいて、確度情報を算出する。図3は、検出部2の光学特性に基づく確度情報の説明図である。
Next, the accuracy information calculated by the
図3(A)は、撮像部11による撮像画像Im1の一例を示す概念図である。結像光学系13(図2参照)は、例えば、光軸13aから離れるほど収差が大きくなる。例えば、結像光学系13の光軸13aは撮像部11の視野中心14aに対応し、撮像部11は、撮像素子14において視野中心14aから離れた領域(例、1画素、複数画素)であるほど、この領域を用いた検出結果の信頼度が低下する。図3(A)において、符号Imcは、撮像部11の視野中心に相当する撮像画像Im1上の位置である。撮像画像Im1は、例えば、位置Imcから離れるにつれて収差の影響が大きくなり、ボケ等により被写体の再現性(検出結果の信頼度)が低くなる。確度算出部3は、例えば、撮像画像Im1の領域(例、1画素、複数画素)ごとに、位置Imcからの距離に基づいて確度情報を算出する。
FIG. 3A is a conceptual diagram showing an example of the image Im1 captured by the
図3(B)は、撮像画像Im1上の撮像部11の視野中心(位置Imc)からの距離に応じた確度の一例を示す概念図である。図3において、縦軸は確度P1であり、横軸は撮像画像Im1上の位置である。図3(B)において、確度P1は、位置Imcにおいて極大をとり、位置Imcから離れるにつれて減少する。確度P1と撮像部11の視野中心からの距離との関係は、例えば、結像光学系13による収差の撮像素子14上の分布に基づいて定められる。ここでは、確度P1は、位置Imcからの距離に対して非線形に変化するが、位置Imcからの距離に対して線形に変化してもよいし、不連続に(例、ステップ的に)変化してもよい。
FIG. 3B is a conceptual diagram showing an example of the accuracy according to the distance from the center of the visual field (position Imc) of the
確度P1と、撮像画像Im1上の撮像部11の視野中心からの距離との関係を示す情報(以下、第1関係情報という)は、例えば、記憶部5(図1参照)に予め記憶される。確度算出部3は、例えば、撮像画像Im1の領域(例、1画素、複数画素)ごとに位置Imcからの距離を算出する。確度算出部3は、算出した距離を上記の第1関係情報と照合して、この領域における確度P1を算出する。確度算出部3は、例えば、確度情報として、各領域の位置と確度P1とを関連付けた情報(以下、確度P1の情報という)を算出する。
Information indicating the relationship between the accuracy P1 and the distance of the
なお、確度算出部3は、結像光学系13の収差(例、収差の分布)に基づいて確度情報を算出してもよい。また、確度算出部3は、結像光学系13の収差および視野中心からの距離に基づいて確度情報を算出してもよい。また、確度算出部3は、測距部12の検出結果に対して、測距部12の視野中心からの距離と結像光学系16の収差との少なくとも一方に基づいて、確度情報を算出してもよい。
The
また、撮像画像Im1は、例えば、対象物OBからの反射光により、その一部の領域において明るさが飽和することがある。また、対象物OB上には、例えば、他の物体の影がある場合など、視点Vpから見て暗い部分ができる場合がある。確度算出部3は、例えば、撮像画像Im1における明るさ(明暗)に基づいて確度情報を算出してもよい。図3(C)は、撮像画像Im1における明るさに応じた確度P2の一例を示す概念図である。図3(C)において、縦軸は確度P2であり、横軸は明るさ(例、画素の階調値)である。ここでは、明るさが所定の範囲BR内である場合に一定であり、明るさが範囲BRよりも低下する(暗くなる)につれて確度P2が低くなり、また明るさが範囲BRよりも増加する(明るくなる)につれて確度P2が低くなる。明るさと確度との関係は、例えば実験やシミュレーションなどに基づいて任意に設定される。例えば、確度P2は、明るさに対して非線形に変化してもよいし、線形に変化してもよく、不連続に(例、ステップ的に)変化してもよい。
Further, the brightness of the captured image Im1 may be saturated in a part of the region due to the reflected light from the object OB, for example. Further, on the object OB, a dark part may be formed when viewed from the viewpoint Vp, for example, when there is a shadow of another object. The
明るさと確度との関係を示す情報(以下、第2関係情報という)は、例えば、記憶部5(図1参照)に予め記憶される。確度算出部3は、撮像画像の領域(例、1画素、複数画素)ごとの明るさ(例、階調値)を上記の第2関係情報と照合し、この領域における確度P2を算出する。確度算出部3は、例えば、確度情報として、各領域の位置と確度P2とを関連付けた情報(以下、確度P2の情報という)を算出する。
Information indicating the relationship between brightness and accuracy (hereinafter referred to as second relationship information) is stored in advance in, for example, a storage unit 5 (see FIG. 1). The
上述の確度P1の情報と確度P2の情報との少なくとも一方は、撮像画像のデータと同じファイルに格納されてもよい。例えば、この情報のデータ構造(データ形式、データフォーマット)は、例えば、画素の階調値(R、G、Bの各階調値)と、確度(例、確度P1と確度P2との少なくとも一方)とを組にした構造でもよい。また、確度P1の情報と確度P2の情報との少なくとも一方は、撮像画像のデータと別のファイルに格納されてもよい。例えば、確度P1の情報のデータ構造は、撮像画像の画素配列に対応させて、各画素の確度の値を配列した構造でもよい。なお、確度算出部3は、検出部2に設けられる光学系(例、結像光学系13、結像光学系16)の光学特性に基づいた確度情報の算出を行わなくてもよい。例えば、確度算出部3は、上述の確度P1と確度P2との少なくとも一方を算出しなくてもよい。
At least one of the above-mentioned information of accuracy P1 and information of accuracy P2 may be stored in the same file as the data of the captured image. For example, the data structure (data format, data format) of this information is, for example, the gradation value of the pixel (each gradation value of R, G, B) and the accuracy (eg, at least one of the accuracy P1 and the accuracy P2). It may be a structure in which and is combined. Further, at least one of the information of the accuracy P1 and the information of the accuracy P2 may be stored in a file different from the data of the captured image. For example, the data structure of the information of the accuracy P1 may be a structure in which the accuracy values of each pixel are arranged in correspondence with the pixel arrangement of the captured image. The
次に、対象物OBの周囲を含む領域の確度情報について説明する。図4は、検出装置1(検出部2)の検出領域A1の一例を示す概念図である。図4(A)には、対象物OBおよび検出装置1をX方向(例、側方)から見た概念図を示した。図4(B)には、対象物OBおよび検出装置1をZ方向(例、上方)から見た概念図を示した。
Next, the accuracy information of the region including the periphery of the object OB will be described. FIG. 4 is a conceptual diagram showing an example of the detection area A1 of the detection device 1 (detection unit 2). FIG. 4A shows a conceptual diagram of the object OB and the
確度算出部3は、例えば、確度情報として、対象物OBを含む領域(例、検出部2の検出領域A1)のうち視点Vpから検出可能な第1領域(例、視点Vpから見て対象物OBを平面視できる領域)AR1と、視点Vpから見て第1領域AR1の陰になる第2領域(例、視点Vpから見て対象物OBを平面視できない領域)AR2とを区別する情報を算出する。検出領域A1は、例えば、検出装置1(例、検出部2)の視野である。第1領域AR1は、例えば、検出領域A1のうち、検出部2が検出した物体(例、対象物OB、背景、図4(A)の床F、図4(B)の壁W)の表面と検出部2との間の領域を含む。図4において符号OBxは、検出部2が検出した物体(例、対象物)の表面上の任意の点である。点OBxの位置は、例えば、視点Vpを基準とする3次元座標で表され、情報算出部4が算出する形状情報(例、後述する点群データ、サーフェス情報)により得られる。確度算出部3は、視点Vpと点OBxとの間の領域ARaを第1領域AR1とする。領域ARaは、例えば、視点Vpと点OBxとを結ぶ線上に光を遮る物体の存在確率が低い領域である。第1領域AR1は、例えば、複数の点OBxのそれぞれに対する領域ARaの集合である。例えば、第1領域AR1は空隙(ガス空間)である。確度算出部3は、例えば、情報算出部4が算出する形状情報をもとに、第1領域AR1の範囲を示す座標を算出する。また、確度算出部3は、例えば、確度情報として、第1領域AR1を示す座標と、第1領域AR1に光を遮る物体が存在する確率が低い(第1領域AR1に光を遮る物体が存在しない確率が高い)ことを示す確度とを関連付けた情報を算出する。
For example, the
また、確度算出部3は、例えば、視点Vpと対象物OB上の点OBxとを結ぶ線上で、視点Vpから点OBxよりも遠い領域ARbを第2領域AR2と判定する。第2領域AR2は、例えば、複数の点OBxのそれぞれに対する領域ARbの集合である。第2領域AR2は、例えば、検出部2の検出結果の信頼度が第1領域AR1よりも低い領域である。例えば、点OBxの部分がガラスなどの場合、第2領域AR2から視点Vpに向かう光の点OBxでの屈折、反射、散乱等により、第2領域AR2に関する検出部2の検出結果の信頼度が低下する場合がある。また、点OBxの部分が光を透過しない材質であると、視点Vpから第2領域AR2を検出不能である場合もある。このような場合、確度算出部3は、確度情報として、第2領域AR2が視点Vpから検出不能な領域であることを示す情報を算出してもよい。
Further, the
このように、確度算出部3は、対象物OBの周囲の領域の情報(例、第1領域AR1に関する確度情報、第2領域AR2に関する確度情報)を算出してもよい。また、確度算出部3は、視点Vpに対して対象物OBの側方の空間(例、空隙)の情報を算出してもよい。図4(B)の符号SPxは、対象物OBの側方の空間における点である。点SPxと視点Vpとの距離は、例えば、視点Vpと点OBxとの距離と同じである。確度算出部3は、例えば、点SPxが第1領域AR1(物体の表面よりも視点Vpに近い領域)に属するか否かを判定する。確度算出部3は、点SPxが第1領域AR1に属すると判定した場合、例えば、点SPxの位置に空隙があると判定する。このようにして、確度算出部3は、例えば、対象物OBの側方の空隙を検出してもよい。また、確度算出部3は、例えば、確度情報として、検出した空隙の位置と、この位置に空隙が存在する確率が高いこと(光を遮る物体が存在する確率が低いこと)を示す情報を算出してもよい。なお、確度算出部3は、図4を参照して説明した確度情報の少なくとも一部を算出しなくてもよい。
In this way, the
次に、検出部2(例、測距部12)が検出した距離(デプス)に基づいた確度情報について説明する。確度算出部3は、例えば、測距部12が検出した距離に基づいて、確度情報を算出する。図5は、測距部12が検出した距離に基づいた確度情報の説明図である。図5(A)は、デプス情報(デプス画像Im2)の一例を示す概念図である。図5(A)において、対象物OBを点線で表し、検出部2の検出領域A1に含まれる領域(例、デプス画像Im2の1画素、複数画素)ごとの距離をグレースケールで表した。デプス画像Im2において、階調値が高い(白に近い)部分は視点Vpからの距離が近く、階調値が低い(黒に近い)部分は視点から遠い。
Next, the accuracy information based on the distance (depth) detected by the detection unit 2 (eg, the distance measuring unit 12) will be described. The
図5(B)は、距離と確度P3との関係の一例を示す図である。測距部12は、例えば、視点Vpから遠い位置であるほどその検出結果の信頼度(例、検出精度)が低下する場合がある。このような場合、確度算出部3は、例えば、確度情報として距離に対して負の相関をもつ値の確度P3を算出する。図5(B)において、確度P3は、視点Vpからの距離が遠くなるにつれて減少する。確度P3と視点Vpからの距離との関係を示す情報(以下、第3関係情報)は、例えば、予め記憶部5(図1参照)に記憶される。確度算出部3は、例えば、デプス画像Im2(図5(A)参照)上の領域(例、1画素、複数画素)ごとに、領域における視点Vpまでの距離を第3関係情報に照合して、この領域の確度P3を算出する。確度算出部3は、例えば、確度情報として、各領域の位置と確度P3とを関連付けた情報(以下、確度P3の情報という)を算出する。
FIG. 5B is a diagram showing an example of the relationship between the distance and the accuracy P3. For example, the farther the
図5(C)は、距離と確度P3との関係の他の例を示す図である。測距部12は、例えば所定の測距範囲(測距レンジ)を有し、測距範囲の中心から離れるほど検出結果の信頼度(例、検出精度)が低下する場合がある。このような場合、確度算出部3は、例えば、確度情報として、測距範囲の中心と、視点からの距離とのずれ量に基づいて、確度情報を算出してもよい。図5(C)において、確度P3は、測距範囲の中心で極大となり、距離が測距範囲の中心からずれるほど低下する。図5(B)および図5(C)に示したように、距離と確度P3との関係は、例えば測距部12の特性に応じて適宜設定される。
FIG. 5C is a diagram showing another example of the relationship between the distance and the accuracy P3. The ranging
また、確度算出部3は、測距部12が検出した距離の分布に基づいて、確度情報を算出してもよい。図6は、距離の分布に基づいた確度情報の説明図である。図6(A)は、デプス情報(デプス画像Im2)の一例および対象物OBを示す概念図である。図6において、符号X1~X5は、デプス画像Im2上の1方向の位置を示す。位置X1はデプス画像Im2の一端の位置であり、位置X2はデプス画像Im2の他端の位置である。位置X1から位置X3の区間は、対象物OBの背景(例、図4の床F、壁W)の部分である。位置X3から位置X4の区間は、対象物OBの前面OB1の部分である。位置X4から位置X5の区間は、前面OB1と段差を有する面OB2の部分である。位置X5と位置X2の区間は、対象物OBの背景(例、図4の床F、壁W)の部分である。位置X3は、前面OB1に対する側面OB3の部分であり、位置X4は、前面OB1と面OB2との間の側面OB4の部分である。位置X5は、面OB2に対する側面OB5の部分である。側面OB3、側面OB4、側面OB5は、例えば、視点Vpからの視線に対して、平行に近い面であり、検出結果の信頼度が低い場合がある。
Further, the
図6(B)は、図6(A)の線Imd上における距離の分布を示す概念図である。図6(B)において、視点Vpからの距離は、位置X3、位置X4、位置X5のそれぞれにおいて、ステップ的に変化する。測距部12の検出結果の信頼度は、例えば、距離の変化量が閾値よりも大きい位置(例、段差の近傍)で低下する。このような場合、確度算出部3は、例えば、確度情報として、距離の変化量に応じた確度を算出してもよい。例えば、確度算出部3は、確度情報として、距離の変化量に対して負の相関の値の確度を算出してもよい。例えば、確度算出部3は、距離の変化量が相対的に小さい領域について、測距部12の検出結果の信頼度が高いことを示す確度を算出してもよい。また、例えば、確度算出部3は、距離の変化量が相対的に大きい領域について、測距部12の検出結果の信頼度が低いことを示す確度を算出してもよい。
FIG. 6B is a conceptual diagram showing the distribution of distances on the line Imd of FIG. 6A. In FIG. 6B, the distance from the viewpoint Vp changes stepwise at each of the position X3, the position X4, and the position X5. The reliability of the detection result of the
図6(C)は、距離の変化量に基づいた確度P4の分布の一例を示す概念図である。ここでは、図6(B)の距離の分布に応じた確度P4の分布を概念的に示した。距離の変化量は、例えば、検出部2の視点を通る視線と、対象物OB上の面との傾きに応じた量である。例えば、距離の変化量が大きい場合、視線に対して対象物OB上の面が平行に近く、距離の変化量が小さい場合、視線に対して対象物OB上の面が垂直に近い。図6(C)において、距離の変化量が大きい位置(例、位置X3,X4、位置X5)において確度P4が相対的に低い。確度算出部3は、例えば、デプス画像Im2の領域ごとに距離の変化量(例、隣接する2つの領域におけるデプスとの差分)を算出し、算出した変化量と閾値とを比較する。確度算出部3は、例えば、距離の変化量が閾値以下である場合に、この領域の確度P4をハイレベルとする。確度算出部3は、距離の変化量が閾値よりも大きい場合に、この領域の確度P4をローレベルとする。
FIG. 6C is a conceptual diagram showing an example of the distribution of the accuracy P4 based on the amount of change in the distance. Here, the distribution of the accuracy P4 according to the distribution of the distance in FIG. 6B is conceptually shown. The amount of change in the distance is, for example, an amount according to the inclination of the line of sight passing through the viewpoint of the
図6(D)は、距離の変化量と確度P4との関係の一例を示す概念図である。図6(D)において、確度P4は、距離の変化量が閾値Dth以下の範囲において一定であり、距離の変化量が閾値Dthを超える範囲において減少する。なお、確度P4は、距離の変化量に対して、非線形に変化してもよいし、線形に変化してもよく、不連続に(例、ステップ的に)変化してもよい。確度P4と、視点Vpからの距離の変化量との関係を示す情報(以下、第4関係情報)は、例えば、予め記憶部5(図1参照)に記憶される。確度算出部3は、例えば、デプス画像Im2(図6(A)参照)上の領域(例、1画素、複数画素)ごとに、視点Vpまでの距離の変化量を算出し、この変化量を第4関係情報に照合して各領域の確度P4を算出する。確度算出部3は、例えば、確度情報として、各領域の位置と確度P4とを関連付けた情報(以下、確度P4の情報という)を算出する。
FIG. 6D is a conceptual diagram showing an example of the relationship between the amount of change in distance and the accuracy P4. In FIG. 6D, the accuracy P4 is constant in the range where the amount of change in distance is equal to or less than the threshold value Dth, and decreases in the range where the amount of change in distance exceeds the threshold value Dth. The accuracy P4 may change non-linearly, linearly, or discontinuously (eg, stepwise) with respect to the amount of change in distance. Information indicating the relationship between the accuracy P4 and the amount of change in the distance from the viewpoint Vp (hereinafter referred to as the fourth relational information) is stored in advance in the storage unit 5 (see FIG. 1), for example. The
上述の確度P3の情報と確度P4の情報との少なくとも一方は、デプス情報と同じファイルに格納されてもよい。例えば、この情報のデータ構造(データ形式、データフォーマット)は、例えば、検出領域A1の一部の領域ごとに、確度(確度P3と確度P4との少なくとも一方)とデプスとを組にした構造でもよい。例えば、この情報は、デプス画像Im2の領域(例、1画素、複数画素)ごとに、デプスの値と確度とを組にした形式で表されてもよい。また、確度P3の情報と確度P4の情報との少なくとも一方は、デプス情報と別のファイルに格納されてもよい。例えば、確度P1の情報のデータ構造と確度P2の情報のデータ構造の少なくとも一方は、デプス情報における各領域の距離のデータ配列に対応させて、各領域の確度の値を配列した構造でもよい。 At least one of the above-mentioned information of accuracy P3 and information of accuracy P4 may be stored in the same file as the depth information. For example, the data structure (data format, data format) of this information may be, for example, a structure in which accuracy (at least one of accuracy P3 and accuracy P4) and depth are combined for each part of the detection area A1. good. For example, this information may be expressed in a format in which a depth value and an accuracy are paired for each region of the depth image Im2 (eg, one pixel, a plurality of pixels). Further, at least one of the information of the accuracy P3 and the information of the accuracy P4 may be stored in a file different from the depth information. For example, at least one of the data structure of the information of the accuracy P1 and the data structure of the information of the accuracy P2 may be a structure in which the accuracy values of each region are arranged so as to correspond to the data array of the distance of each region in the depth information.
なお、確度算出部3は、確度P3の情報と確度P4の情報との少なくとも一方を算出しなくてもよい。また確度算出部3は、検出部2(例、測距部12)が検出した距離に基づいた確度情報の算出を行わなくてもよい。なお、確度算出部3は、上記の確度P1~確度P4の2つ以上を組み合わせた確度を算出してもよい。例えば、確度算出部3は、上記の確度P1~確度P4の2つ以上を用いた重み付け(加重平均(weighted average)の算出)を行って、確度を算出してもよい。また、確度算出部3は、確度P1~確度P4のうち2つ以上の相加平均と相乗平均との少なくとも一方を、確度として算出してもよい。
The
図1の説明に戻り、情報算出部4は、例えば、デジタルシグナルプロセッサ(digital signal processor; DSP)を含む。情報算出部4は、検出部2の検出結果(例、デプス情報)を使って、対象物OBの形状情報およびテクスチャ情報の少なくとも一方を算出する。なお、上述の説明では測距部12がデプス情報を生成するものとしたが、情報算出部4は、測距部12が検出したデプスをもとにデプス情報を生成してもよい。また、情報算出部4は、デプス情報をもとに確度算出部3が算出した確度情報と、デプス情報とを関連付けた情報を生成してもよい。
Returning to the description of FIG. 1, the
情報算出部4は、例えば、形状情報として、検出部2の検出結果をもとに対象物OB上の複数の点の座標を含む点群データを算出する。情報算出部4は、測距部12の検出結果(例、デプス情報)を使って、点群データを算出する(点群データ処理)。例えば、情報算出部4は、デプス情報が示す距離画像(デプス画像)から平面画像への透視変換などにより、点群データを算出する。なお、情報算出部4は、撮像部11と測距部12とで視野が異なる場合、例えば、測距部12の検出結果を透視変換(射影変換)などによって、撮像部11の視野から対象物OBを検出した結果に変換してもよい。情報算出部4は、例えば、撮像部11の視野と測距部12の視野との位置関係(例、視点の位置、視線の向き)に依存するパラメータを使って、透視変換を実行してもよい。
For example, the
情報算出部4は、例えば、確度情報を用いて点群データを生成する。例えば、情報算出部4は、デプス画像において確度が相対的に高い領域を選択して、デプス画像から平面画像への透視変換を行ってもよい。例えば、情報算出部4は、デプス画像において確度が相対的に低い領域の少なくとも一部の透視変換を省略してもよい。情報算出部4は、例えば、デプス情報のうち確度が相対的に低い情報を用いないで点群データを生成してもよく、この場合、処理の負荷を減らすこと、生成される点群データのデータ量を減らすことができる。また、情報算出部4は、例えば、デプス画像において確度が相対的に高い領域を用いて、確度が相対的に低い領域を補間し、デプス画像から平面画像への透視変換を行ってもよい。
The
情報算出部4は、例えば、算出した点群データを記憶部5に記憶させる。情報算出部4は、例えば、点群データと確度情報とを関連付けた情報を生成する。例えば、情報算出部4は、点群データに含まれる3次元の点座標と、この点に対応するデプス画像上の点の確度とを関連付けた情報を算出する。この情報のデータ構造は、例えば、3次元の点座標と確度とを組にした構造でもよい。情報算出部4は、例えば、点群データと確度情報とを関連付けた情報を、記憶部5に記憶させる。
The
なお、情報算出部4は、確度情報を用いないで点群データを生成してもよい。また、確度算出部3は、情報算出部4が生成した点群データを用いて、点群データに含まれる点の情報に関する確度情報(点群データの確度情報)を算出してもよい。例えば、確度算出部3は、点群データに含まれる所定の2点間の距離情報に基づいて、確度情報を算出してもよい。例えば、確度算出部3は、点群データから隣接する2点を選択し、これら2点間の距離を閾値と比較して、確度情報を算出してもよい。また、確度算出部3は、点群データに含まれる複数の点の空間周波数情報(例、点の空間分布の粗密)に基づいて、確度情報を算出してもよい。また、確度算出部3は、点群データに含まれる2点を結ぶベクトル情報に基づいて、確度情報を算出してもよい。例えば、確度算出部3は、点群データから隣接する2点を選択し、これら2点を結ぶベクトルと、検出装置1の位置情報とを用いて、確度情報を算出してもよい。検出装置1の位置情報は、例えば、視点Vpの向き(検出方向、視線、光学系の光軸の方向)を含む。確度算出部3は、例えば、点群データに含まれる2点を結ぶベクトルと視点Vpの向きとの角度に応じて、確度情報を算出してもよい。例えば、確度算出部3は、上記のベクトルと視点Vpの向きとの角度が0°あるいは180°に近い場合、上記のベクトルの始点と終点との少なくとも一方の確度を相対的に低くしてもよい。また、例えば、確度算出部3は、上記のベクトルと視点Vpの向きとの角度が90°あるいは270°に近い場合、確度を相対的に高くしてもよい。
The
なお、確度算出部3が確度情報の算出に用いる情報は、上記の距離情報、空間周波数情報、ベクトル情報、及び検出装置1の位置情報のうち、1種類でもよいし、2種類以上でもよい。確度算出部3が確度情報の算出に用いる点群データは、情報算出部4が確度情報を用いて生成したものでもよいし、情報算出部4が確度情報を用いないで生成したものでもよい。また、確度算出部3は、点群データを用いて算出した確度情報を、記憶部5に記憶させてもよい。
The information used by the
また、情報算出部4は、形状情報として、検出部2の検出結果をもとに対象物OB上の複数の点の座標と複数の点間の連結情報とを含むサーフェス情報を生成する。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。連結情報は、例えば、対象物OBの稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報、及び対象物OBの面の輪郭に相当する複数の線を互いに関連付ける情報を含む。情報算出部4は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換する(サーフェス処理)。情報算出部4は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。
Further, the
情報算出部4は、例えば、確度情報を用いてサーフェス情報を生成する。例えば、情報算出部4は、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定する際に、確度を加味して近傍の点を選択する。例えば、情報算出部4は、近傍の点として、確度が相対的に高い点を選択する。情報算出部4は、例えば、点群データのうち確度が相対的に低い情報を用いないでサーフェス情報を生成してもよく、この場合、処理の負荷を減らすこと、生成されるサーフェス情報のデータ量を減らすことができる。また、情報算出部4は、上記の近傍の点の確度が閾値よりも低い場合、その周囲の点のうち相対的に確度が高い点を用いた補間を行ってもよい。
The
情報算出部4は、例えば、サーフェス情報と確度情報とを関連付けた情報を生成する。例えば、情報算出部4は、サーフェス情報に含まれる線(または面)の情報と、この線(または面)に対応する点群データの点の確度の情報とを関連付けた情報を生成する。この情報は、例えば、サーフェス情報に含まれる要素(例、線、面)の属性情報として、格納されてもよい。情報算出部4は、例えば、サーフェス情報と確度情報とを関連付けた情報を、記憶部5に記憶させる。
The
なお、情報算出部4は、サーフェス情報を生成する際に確度情報を用いなくてもよい。例えば、情報算出部4は、確度情報を用いて点群データを生成し、この点群データをもとにサーフェス情報を生成する際に、確度情報を用いなくてもよい。また、確度算出部3は、情報算出部4が生成したサーフェス情報を用いて、確度情報を算出してもよい。例えば、サーフェス情報は、2点を結ぶ線(グラフ)の情報を含み、確度算出部3は、線の情報に関する確度情報を算出してもよい。例えば、上述の点群データを用いた確度情報の算出と同様に、確度算出部3は、上記の距離情報、ベクトル情報、及び検出装置1の位置情報の少なくとも1つを用いて、線の情報に関する確度情報を算出してもよい。
The
また、サーフェス情報は、例えば3以上の線に囲まれる対象物の面の情報を含み、情報算出部4は、線の情報に関する確度情報を用いて、面の情報を生成してもよい。例えば、面の外周線の複数の候補のうち相対的に確度が高い線を、面の外周線に採用してもよい。また、サーフェス情報は、例えば3以上の線に囲まれる面の情報を含み、確度算出部3は、面の情報に関する確度情報を算出してもよい。例えば、確度算出部3は、面の外周線に相当する線の情報に関する確度情報を用いた相加平均、相乗平均、あるいは加重平均によって、面の情報に関する確度情報を算出してもよい。また、確度算出部3は、面の法線方向と、検出装置1の位置情報(例、視点Vpの向き)とを用いて、確度情報を算出してもよい。例えば、確度算出部3は、例えば、面の法線ベクトルと視点Vpの向きとの角度に応じて、確度情報を算出してもよい。例えば、確度算出部3は、面の法線ベクトルと視点Vpの向きとの角度が0°あるいは180°に近い場合、面の確度を相対的に低くしてもよい。また、例えば、確度算出部3は、面の法線ベクトルと視点Vpの向きとの角度が90°あるいは270°に近い場合、面の確度を相対的に高くしてもよい。
Further, the surface information includes, for example, information on the surface of an object surrounded by three or more lines, and the
また、確度算出部3は、情報算出部4が生成したサーフェス情報を用いて、点群データに関する確度情報を算出してもよい。例えば、確度算出部3は、面の情報に用いられた点の情報について、面と点との距離に基づいて確度情報を算出してもよい。例えば、確度算出部3は、面に属する点のうち面からの距離が閾値以上の場合、この点の確度を距離が閾値未満の場合に比べて低くしてもよい。確度算出部3は、サーフェス情報を用いて点群データに関する確度情報を算出し、この確度情報を用いてサーフェス情報の少なくとも一部(例、線の情報、面の情報)を再計算してもよい。また、確度算出部3は、サーフェス情報を用いて算出した確度情報を、記憶部5に記憶させてもよい。
Further, the
情報算出部4は、例えばインバースレンダリングの手法により、テクスチャ情報を算出する。テクスチャ情報は、例えば、対象物OBの表面の模様を示すパターン情報、対象物OBを照らす光の光源情報、及び対象物OBの表面の光学特性(例、反射率、散乱率、透過率)を示す光学特性情報の少なくとも1項目の情報を含む。光源情報は、例えば、光源の位置、光源から対象物へ光が照射される方向、光源から照射される光の波長、光源の種類のうち少なくとも1項目の情報を含む。
The
情報算出部4は、例えば、ランバート反射を仮定したモデル、アルベド(Albedo)推定を含むモデルなどを利用して、光源情報を算出する。例えば、情報算出部4は、撮像部11が撮像した画像の各画素の画素値のうち、対象物OBで拡散した光に由来する成分と対象物OBで正反射した成分とを推定する。また、情報算出部4は、例えば、対象物OBで正反射した成分の推定結果、及び形状情報を使って、光源から対象物OBへ光が入射してくる方向を算出する。情報算出部4は、例えば、算出した光源情報および形状情報を使って対象物OBの反射特性を推定し、反射特性の推定結果を含む光学特性情報を算出する。また、情報算出部4は、例えば、算出した光源情報および光学特性情報を使って、可視光画像のデータから照明光の影響を除去して、パターン情報を算出する。
The
確度算出部3は、例えば、テクスチャ情報の元になる画像データを用いて、テクスチャ情報に関する確度情報を算出してもよい。例えば、確度算出部3は、画像データに含まれる各画素のR、G、Bの輝度(階調値)と、画像データから算出されるテクスチャの空間周波数情報との少なくとも一方を用いて、確度情報を算出してもよい。また、確度算出部3は、上記の画像データの取得に用いられる光学系の特性(例、照野、収差)、対象物の光学特性(例、反射率、透過率、吸収率)、及び対象物を照らす光の光源の情報の少なくとも一部を用いて、確度情報を算出してもよい。情報算出部4は、例えば、確度情報を用いてテクスチャ情報を算出する。例えば、情報算出部4は、検出部2(例、撮像部11)の検出結果(撮像画像)のうち、確度が相対的に高い領域を選択的に用いて、テクスチャ情報を算出してもよい。例えば、情報算出部4は、撮像部11による撮像画像のうち、確度が相対的に低い領域をテクスチャ情報の算出に用いなくてもよく、この場合、処理の負荷を減らすこと、生成されるテクスチャ情報のデータ量を減らすことができる。また、情報算出部4は、確度が相対的に低い領域の情報を、確度が相対的に高い領域の情報を用いて補間し、テクスチャ情報を算出してもよい。
The
確度算出部3は、例えば、対象物OBの領域(例、点群データの各点、サーフェス情報の要素)ごとに、確度情報を算出する。確度情報は、例えば、形状情報またはテクスチャ情報を算出するために検出部2の検出結果に対して重み付けした情報を含んでもよい。確度情報は、例えば、形状情報またはテクスチャ情報の算出に用いられる情報として、検出部2の検出結果または検出結果から生成される情報に対して重み付けした情報を含んでもよい。この重み付けに用いられる係数は、重み付けの処理よりも前に取得された確度情報に含まれる確度に応じた値でもよい。
The
情報算出部4は、例えば、対象物OBの領域ごとに算出された確度情報を形状情報とテクスチャ情報の少なくとも一方に関連付ける。例えば、情報算出部4は、点群データの各点の座標(例、(Xi,Yi,Zi))と、この点の確度情報(例、確度P=Pi)とを組にしたデータ(例、(Xi,Yi,Zi,Pi))を生成する。なお、情報算出部4は、例えば、点群データの各点の識別子(例、ID、番号)と、この点の確度情報とを関連付けることで、点群データの各点と確度情報とを関連付けてもよい。例えば、情報算出部4は、点群データの各点の確度情報にこの点の識別子を付加したデータを生成してもよい。また、情報算出部4は、点群データの各点の座標に、この点の確度情報の識別子(ID、番号)を付加したデータを生成してもよい。
The
また、例えば、情報算出部4は、サーフェス情報の要素(例、線、面、メッシュの各領域、ボクセル)と、この要素の確度情報とを組にしたデータを生成する。例えば、情報算出部4は、サーフェス情報に規定される要素(例、点の連結情報)と、この要素の確度情報とを組にしたデータを生成する。また、例えば、情報算出部4は、対象物OBの領域(例、撮像画像の1画素、複数画素)ごとに算出されたテクスチャ情報を、この領域の確度情報と組にしたデータを生成する。
Further, for example, the
なお、情報算出部4は、例えば、サーフェス情報の各要素の識別子(例、ID、番号)と、この要素の確度情報とを関連付けることで、サーフェス情報の各要素と確度情報とを関連付けてもよい。例えば、情報算出部4は、サーフェス情報の要素の確度情報にこの要素の識別子を付加したデータを生成してもよい。また、情報算出部4は、サーフェス情報の要素の情報(例、点の連結情報)に、この点の確度情報の識別子(ID、番号)を付加したデータを生成してもよい。情報算出部4は、例えば、形状情報およびテクスチャ情報の少なくとも一方を含む情報にヘッダ情報(例、番号やコードなどの識別情報)を付けたモデル情報を生成する。このヘッダ情報は、識別情報、検出装置1の位置(位置情報)、撮像部11による撮像タイミング、撮像部11による撮像時間、対象物OBの光学特性情報、および撮像環境情報(例、光源情報、対象物OBなどに対する照明条件)のうち少なくとも一つを含む。このように、情報算出部4は、ヘッダ情報を有するモデル情報を所定のデータフォーマットに基づいて生成する。
The
記憶部5は、例えばUSBメモリ、メモリカードなどの不揮発性メモリであり、各種情報を記憶する。記憶部5は、検出装置1に内蔵される記憶デバイスを含んでいてもよいし、検出装置1からリリース可能な記憶デバイスを接続可能なポートを含んでいてもよい。
The
制御部7は、例えば、ユーザまたは外部装置からの指令(制御信号)により、検出装置1の各部を制御する。例えば、制御部7は、検出部2に上記の検出処理を実行させる。この検出処理は、例えば、撮像部11による撮像処理、及び測距部12による距離検出処理を含む。制御部7は、例えば、検出部2の検出結果の少なくとも一部を記憶部5に記憶させる。制御部7は、例えば、確度算出部3に確度情報を算出させる。例えば、確度算出部3が算出した確度情報の少なくとも一部を記憶部5に記憶させる。制御部7は、例えば、情報算出部4にモデル情報を算出させる。制御部7は、例えば、情報算出部4が算出したモデル情報の少なくとも一部を記憶部5に記憶させる。
The
通信部6は、例えば、USBポートなどのI/Oポート、電波または赤外線の無線通信を行う通信器のうち少なくとも一つを含む。通信部6は、制御部7に制御され、記憶部5に記憶されている情報を読み出し、読み出した情報を外部装置に送信する。例えば、通信部6は、確度算出部3の算出結果(例、確度情報)と情報算出部4の算出結果(例、モデル情報)の少なくとも一部を、外部装置(例、後に図9等に示す情報処理装置51)に送信する。また、通信部6は、例えば、外部装置からの指令を含む情報を受信する。通信部6は、受信した情報を記憶部5に記憶させること、受信した情報を制御部7に供給することができる。
The
また、例えば、検出装置1は、モデル情報の少なくとも一部を、バーコードや2次元コードのようなデジタル情報を入出力できるデジタル装置に出力可能である。このようなデジタル装置は、モデル情報の少なくとも一部を含むデジタル情報をディスプレイや紙などに表示する又は印字することができる。表示された又は印字されたデジタル情報を読み取れるリーダー部(例、光学式リーダー)を備えるリーダー装置は、該リーダー部を介して該デジタル情報を自装置の記憶領域などに入力することができる。また、リーダー装置は、後述のレンダリング処理部を更に備えていてもよい。なお、上記の検出システム50は、上記のデジタル装置やリーダー部を備えるリーダー装置を備える構成であってもよい。また、検出装置1は、上記のデジタル装置やリーダー装置を備える構成であってもよい。検出装置1が上記のデジタル装置を備える場合に、通信部6はモデル情報の少なくとも一部を上記のデジタル装置に送信してもよい。また、上記のデジタル装置は、受信したモデル情報をもとにデジタル情報を生成し、このデジタル情報を紙などの媒体に出力してもよい。
Further, for example, the
次に、上述の構成の検出装置1の動作に基づき、本実施形態に係る検出方法について説明する。図7は、本実施形態に係る検出方法の一例を示すフローチャートである。ステップS1において、検出部2は、所定の一視点(単一視点)から対象物OBを検出する。例えば、検出部2の撮像部11は、視点Vpから対象物OBを撮像する。また、例えば、検出部2の測距部12は、視点Vpと対象物OBの表面の各点までの距離を検出する。また、ステップS2において、確度算出部3は、所定の一視点における対象物OBの確度情報を算出する。例えば、確度算出部3は、撮像部11の検出結果(例、撮像画像)と、測距部12の検出結果(例、デプス情報)との少なくとも一部を用いて、確度情報を算出する。例えば、確度算出部3は、図3~図6を参照して説明した確度情報の少なくとも一部を算出する。また、ステップS3において、情報算出部4は、検出部2の検出結果および確度情報を用いて、視点Vpにおける対象物の形状情報とテクスチャ情報との少なくとも一方を含むモデル情報を算出する。
Next, a detection method according to the present embodiment will be described based on the operation of the
図8は、図7のステップS2およびステップS3の処理の一例を示すフローチャートである。本実施形態においては、確度情報の算出に先立ち、例えば測距部12によりデプスを検出しておく。ステップS11において、確度算出部3は、例えば図4~図6に示したように、測距部12が検出した距離(デプス)に基づいて確度情報を算出する。また、ステップS13において、情報算出部4は、ステップS11で算出された確度情報と、ステップS12で生成されたデプス情報とを関連付けた情報を算出する。ステップS14において、情報算出部4は、ステップS13で算出した情報を用いて、点群データを算出する。ステップS15において、情報算出部4は、点群データと確度情報とを関連付けた情報を生成する。ステップS16において、情報算出部4は、ステップS15で算出した情報を用いて、サーフェス情報を算出する。ステップS17において、情報算出部4は、サーフェス情報と確度情報とを関連付けた情報を算出する。
FIG. 8 is a flowchart showing an example of the processing of step S2 and step S3 of FIG. In the present embodiment, the depth is detected by, for example, the ranging
図9は、図7のステップS2およびステップS3の処理の他の例を示すフローチャートである。図9において図8と同様の処理については、同じ符号を付してその説明を適宜、省略あるいは簡略化する。ステップS11において、検出装置1(例、コントローラ18)は、デプス情報を生成する。ステップS14において、情報算出部4は、点群データを算出する。ステップS21において、確度算出部3は、情報算出部4がステップS14で算出した点群データの確度情報を生成する。
FIG. 9 is a flowchart showing another example of the processing of step S2 and step S3 of FIG. In FIG. 9, the same processing as in FIG. 8 is designated by the same reference numerals, and the description thereof will be omitted or simplified as appropriate. In step S11, the detection device 1 (eg, controller 18) generates depth information. In step S14, the
確度算出部3は、例えば、生成した点群データの確度情報を記憶部5に記憶させる。ステップS22において、情報算出部4は、点群データ、及び確度算出部3がステップS21で生成した点群データの確度情報を用いて、サーフェス情報のうち線の情報を算出する。ステップS23において、確度算出部3は、情報算出部4がステップS22で算出した線の情報の確度情報を生成する。確度算出部3は、例えば、生成した線の情報の確度情報を記憶部5に記憶させる。ステップS24において、情報算出部4は、線の情報、及び確度算出部3がステップS23で生成した線の情報の確度情報を用いて、サーフェス情報のうち面の情報を算出する。ステップS25において、確度算出部3は、情報算出部4がステップS24で算出した面の情報の確度情報を生成する。確度算出部3は、例えば、生成した面の情報の確度情報を記憶部5に記憶させる。
The
ステップS26にいて、確度算出部3は、情報算出部4がステップS24で算出した面の情報を用いて、点群データの確度情報を算出する。確度算出部3は、ステップS21で生成した点群データの確度情報を、ステップS26で生成した点群データの確度情報へ更新してもよい。また、確度算出部3は、ステップS21で生成した点群データの確度情報と、ステップS26で生成した点群データの確度情報とを、相加平均、相乗平均、あるいは加重平均などによって統合してもよい。また、確度算出部3は、ステップS26で生成した点群データの確度情報を、ステップS21で生成した点群データの確度情報と別に記憶部5に記憶させてもよい。ステップS27において、検出装置1(例、情報算出部4)は、サーフェス情報を再計算するか否かを判定する。例えば、情報算出部4は、再計算するか否かを予め定めた設定情報に従って、ステップS27の判定処理を行う。情報算出部4は、サーフェス情報を再計算すると判定した場合(ステップS27;Yes)、ステップS22に戻り、前回のステップS22からステップS26の処理で生成された確度情報の少なくとも一部を用いて、ステップS22以降の処理を繰り返す。情報算出部4は、サーフェス情報を再計算しない判定した場合(ステップS27;No)、一連の処理を終了する。
In step S26, the
なお、確度算出部3は、ステップS21における点群データの確度情報の生成処理、ステップS23における線の情報の確度情報の生成処理、ステップS25における面の情報の確度情報の生成、及びステップS26における点群データの確度情報の生成処理の少なくとも1つの生成処理を行わなくてもよい。この場合、情報算出部4は、上記の生成処理が行われなかった項目の確度情報を用いないで、サーフェス情報の少なくとも一部(例、線の情報、面の情報)を生成してもよい。また、情報算出部4は、上記の生成処理が行われた項目の確度情報を用いないでサーフェス情報(例、線の情報、面の情報)を生成してもよい。この場合、上記の生成処理が行われた確度情報は、サーフェス情報の算出処理以外の処理、例えば、サーフェス情報を用いた処理(例、レンダリング処理)に利用されてもよい。また、情報算出部4は、ステップS27の処理を行わなくてもよく、確度情報の少なくとも一部を用いたサーフェス情報の再計算を行わなくてもよい。
The
上述の実施形態において、検出装置1は、例えばコンピュータ(例、マイクロコンピュータ)を含む。このコンピュータは、記憶部5に記憶されている処理プログラムを読み出し、この処理プログラムに従って各種の処理を実行する。この処理プログラムは、例えば、所定の一視点(例、視点Vp)から対象物OBを検出部2により光学的に検出した検出結果を処理する。この処理プログラムは、例えば、コンピュータに、所定の一視点(例、視点)Vpにおける対象物OBの確度情報を算出することと、検出部2の検出結果および確度情報を用いて、所定の一視点(例、視点Vp)における対象物OBの形状情報とテクスチャ情報との少なくとも一方を生成することと、を実行させる。この処理プログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。
In the above-described embodiment, the
[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図10は、本実施形態に係る検出システム50の一例を示す図である。検出システム50は、検出装置1と、検出装置1から出力される情報を処理する情報処理装置51と、を備える。情報処理装置51には、例えば、入力装置52および表示装置53が設けられる。
[Second Embodiment]
The second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 10 is a diagram showing an example of the
情報処理装置51は、検出装置1との間の通信により、検出装置1から情報を取得する。情報処理装置51は、例えば、検出装置1から取得した情報(例、モデル情報、確度情報)を使って、レンダリング処理を実行する。例えば、情報処理装置51は、ユーザにより入力装置52に入力された視点の設定情報を元に、この視点から対象物OBを見た推定画像のデータを算出する。情報処理装置51は、例えば、推定画像のデータを表示装置53に供給し、表示装置53に推定画像を表示させる。
The
入力装置52は、例えば、キーボード、マウス、タッチパネル、加速度センサなどのセンサ、音声入力機、タッチ型ペンなどの少なくとも一つを含む。入力装置52は、情報処理装置51と接続される。入力装置52は、例えばユーザから情報の入力を受け付け、入力された情報を情報処理装置51に供給する。表示装置53は、例えば、液晶ディスプレイ又はタッチパネル型ディスプレイを含み、情報処理装置51と接続されている。表示装置53は、例えば、情報処理装置51から供給される画像データにより、画像(例、レンダリング処理による推定画像)を表示する。
The
図11は、本実施形態に係る検出システム50の一例を示すブロック図である。情報処理装置51は、通信部55、記憶部56、レンダリング処理部57、及び制御部58を備える。通信部55は、例えば、USBポート、ネットワークカード、電波または赤外線の無線通信を行う通信器のうち少なくとも一つを含む。通信部55は、検出装置1の通信部6と通信可能である。
FIG. 11 is a block diagram showing an example of the
記憶部56は、例えば、USBメモリなどの取り外し可能な記憶媒体、外付け型あるいは内蔵型のハードディスクなどの大容量記憶装置を含む。記憶部56は、例えば、通信部55を介して受信した情報の少なくとも一部のデータ、検出装置1を制御する撮像制御プログラム、情報処理装置51の各処理を実行させる処理プログラム、などを記憶する。
The
レンダリング処理部57は、例えば、グラフィックス プロセッシング ユニット(Graphics Processing Unit; GPU)を含む。なお、レンダリング処理部57は、CPUおよびメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部57は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。
The
レンダリング処理部57は、描画処理において、例えば、モデル情報の形状情報に定められた形状を任意の視点から見た推定画像(例、再構築画像)を算出できる。以下の説明において、形状情報が示す形状をモデル形状という。レンダリング処理部57は、例えば、描画処理によって、モデル情報(例、形状情報)からモデル形状(例、推定画像)を再構成できる。レンダリング処理部57は、例えば、算出した推定画像のデータを記憶部56に記憶させる。また、レンダリング処理部57は、テクスチャマッピング処理において、例えば、推定画像上の物体の表面に、モデル情報のテクスチャ情報が示す画像を貼り付けた推定画像を算出できる。レンダリング処理部57は、推定画像上の物体の表面に、対象物OBと別のテクスチャを貼り付けた推定画像を算出することもできる。レンダリング処理部57は、シェーディング処理において、例えば、モデル情報の光源情報が示す光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。また、レンダリング処理部57は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。
In the drawing process, the
レンダリング処理部57は、例えば、検出装置1が生成した確度情報を用いて、レンダリング処理を行う。例えば、レンダリング処理部57は、モデル形状のうち確度が相対的に高い領域の解像度を、確度が相対的に低い領域の解像度よりも高くしてもよい。例えば、レンダリング処理部57は、モデル形状のうち確度が相対的に低い領域の解像度を落として(例、ぼかして)、推定画像を生成してもよい。例えば、レンダリング処理部57は、モデル形状のうち確度が相対的に低い領域のレンダリング処理を、省略あるいは簡略化してもよい。例えば、レンダリング処理部57は、モデル形状のうち確度が相対的に低い領域を、確度が相対的に高い領域を用いて補間して、レンダリング処理を行ってもよい。
The
制御部58は、例えば、情報処理装置51の各部、検出装置1、入力装置52、及び表示装置53を制御する。制御部58は、例えば、通信部55を制御し、検出装置1に指令(制御信号)や設定情報を送信させる。制御部58は、例えば、通信部55が検出装置1から受信した情報を、記憶部56に記憶させる。制御部58は、例えば、レンダリング処理部57を制御し、レンダリング処理を実行させる。
The control unit 58 controls, for example, each unit of the
なお、検出システム50は、入力装置52を備えなくてもよい。例えば、検出システム50は、各種の指令、情報が通信部6を介して入力される形態でもよい。また、検出システム50は、表示装置53を備えなくてもよい。例えば、検出システム50は、レンダリング処理により生成された推定画像のデータを外部の表示装置へ出力し、この表示装置が推定画像を表示してもよい。
The
[第3実施形態]
第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図12は、本実施形態に係る検出システム50を示す図である。検出システム50は、複数の検出装置(第1検出装置1a、第2検出装置1b)と、複数の撮像装置から出力される情報を処理する情報処理装置51とを備える。
[Third Embodiment]
The third embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 12 is a diagram showing a
情報処理装置51は、第1検出装置1aとの間の通信により、対象物OBに対して第1視点の位置に配置された第1検出装置1aから情報(例、モデル情報、確度情報)を取得する。情報処理装置51は、対象物OBに対して第2視点の位置に配置された第2検出装置1bとの間の通信により、第2検出装置1bから情報(例、モデル情報、確度情報)を取得する。情報処理装置51は、第1視点から対象物OBを検出する第1検出装置1aから取得した情報、及び第2視点から対象物OBを検出する第2検出装置1bから取得した情報を使って、情報処理を行う。例えば、第1検出装置1aおよび第2検出装置1bは、それぞれ、自装置の視点(1視点、単一視点、1方向)から見た対象物OBを表すモデル情報を、情報処理装置51に供給する。情報処理装置51は、第1検出装置1aの視点(第1視点)から見た対象物OBを表す第1モデル情報と、第2検出装置1bの視点(第1視点とは異なる第2視点)から見た対象物を表す第2モデル情報とを統合するモデル統合処理を行う。
The
図13は、本実施形態に係る検出システム50を示すブロック図である。第1検出装置1aおよび第2検出装置1bは、それぞれ、例えば図1に示した検出装置1と同様の構成である。情報処理装置51は、受信部(通信部55)を備える。通信部55は、対象物OBの第1モデル情報と、対象物OBの第2モデル情報とを受信する。第1モデル情報は、一視点(例、後に図14に示す視点Vp1)における対象物の形状情報とテクスチャ情報との少なくとも一方を含む。第1モデル情報は、例えば、第1検出装置1aによる第1検出結果と第1確度情報とを用いて第1検出装置1aによって算出され、通信部55は、第1検出装置1aから第1モデル情報を受信する。第2モデル情報は、上記の一視点と異なる視点(例、後に図14に示す視点Vp2)における対象物の形状情報とテクスチャ情報との少なくとも一方を含む。第2モデル情報は、例えば、第2検出装置1bによる第2検出結果と第2確度情報とを用いて第2検出装置1bによって算出され、通信部55は、第2検出装置1bから第2モデル情報を受信する。
FIG. 13 is a block diagram showing a
情報処理装置51は、モデル統合処理を行うモデル統合部59を備える。モデル統合部59は、上記の第1モデル情報と第2モデル情報とを統合する。モデル統合部59は、例えば、第1検出装置1aからの第1モデル情報が示す形状から特徴点を抽出する。また、モデル統合部59は、第2検出装置1bからの第2モデル情報が示す形状から特徴点を抽出する。特徴点は、各モデル情報が示す形状のうち他の部分と識別可能な部分である。例えば、サーフェス情報において面に定義されている部分は、その外周の形状などにより、他の面と識別可能である。例えば、モデル統合部59は、各モデル情報に含まれる形状情報とテクスチャ情報とのうち少なくとも一方を使って特徴点を抽出する。また、モデル統合部59は、例えば、第1モデル情報と第2モデル情報とで特徴点をマッチングし、第1モデル情報と第2モデル情報とで共通する特徴点を検出する。また、モデル統合部59は、第1モデル情報と第2モデル情報とで共通する特徴点を用いて、第1モデル情報が示す形状と第2モデル情報が示す形状との相対位置、相対姿勢を算出し、第1モデル情報と第2モデル情報とを統合する。
The
モデル統合部59は、例えば、第1検出装置1aから供給される確度情報(第1確度情報)と、第2検出装置1bから供給される確度情報(第2確度情報)の少なくとも一部を用いて、モデル統合処理を行う。モデル統合部59は、例えば、確度情報に基づいて、モデル情報から統合に用いる情報を選択する。例えば、モデル統合部59は、モデル情報が示す形状から特徴点を抽出する際に、この形状のうち相対的に確度が高い領域から特徴点を抽出する。また、モデル統合部59は、例えば、第1モデル情報が示す形状と第2モデル情報が示す形状とで重複部分がある場合、第1確度情報と第2確度情報とを用いて重複部分における第1モデル情報の確度と第2モデル情報の確度とを比較し、相対的に確度が高い方のモデル情報を用いて重複部分の形状を表す。また、モデル統合部59は、例えば、上記の重複部分について、第1モデル情報と第2モデル情報とに重み付け(加重平均の算出)を行って、形状情報を統合してもよい。加重平均は、例えば、相加平均、相乗平均、または指数平均(指数加重移動平均)を含む。この重み付けの係数は、例えば、重複部分における第1モデル情報の確度、及び重複部分における第2モデル情報の確度に基づいて、決定される。
The
図14は、モデル統合処理の一例を示す概念図である。符号MF1は、第1検出装置1aの視点(第1視点)Vp1からの検出結果をもとに生成されるモデル形状である。符号MF2は、第2検出装置1bの視点(第2視点)Vp2からの検出結果をもとに生成されるモデル形状である。符号MF3は、統合したモデル形状(統合モデル形状)である。
FIG. 14 is a conceptual diagram showing an example of the model integration process. Reference numeral MF1 is a model shape generated based on the detection result from the viewpoint (first viewpoint) Vp1 of the
視点Vp1から見たモデル形状MF1において、例えば、面Aa、面Ba、及び面Caは、視点Vp1からの検出結果の信頼度(確度)が高い。モデル形状MF1において、例えば、面Daおよび面Eaは、視点Vp1からの検出結果の信頼度(確度)が低い。また、対象物OBに対して視点Vp1と異なる方向の視点Vp2から見たモデル形状MF2において、例えば、面Cb、面Db、及び面Ebは、視点Vp2からの検出結果の信頼度(確度)が高い。また、モデル形状MF2において、例えば、面Abおよび面Bbは、視点Vp2からの検出結果の信頼度(確度)が低い。このような場合、モデル統合部59は、例えば、モデル形状MF1の面Aaおよび面Abをモデル形状MF3の生成に用い、モデル形状MF2の面Dbおよび面Ebをモデル形状MF3の生成に用いる。また、モデル統合部59は、例えば、モデル形状MF1の面Caとモデル形状MF2の面Cbに重み付けを行い、モデル形状MF3のCに用いる。
In the model shape MF1 viewed from the viewpoint Vp1, for example, the surfaces Aa, Ba, and Ca have high reliability (accuracy) of the detection result from the viewpoint Vp1. In the model shape MF1, for example, the surface Da and the surface Ea have low reliability (accuracy) of the detection result from the viewpoint Vp1. Further, in the model shape MF2 viewed from the viewpoint Vp2 in a direction different from the viewpoint Vp1 with respect to the object OB, for example, the surface Cb, the surface Db, and the surface Eb have the reliability (accuracy) of the detection result from the viewpoint Vp2. high. Further, in the model shape MF2, for example, the surface Ab and the surface Bb have low reliability (accuracy) of the detection result from the viewpoint Vp2. In such a case, the
なお、モデル統合部59が第1モデル情報と第2モデル情報とを統合する手法は、上述の例に限定されない。例えば、モデル統合部59は、第1検出装置1aと第2検出装置1bとの相対的な位置および相対的な姿勢を用いて、モデル統合処理を行ってもよい。また、モデル統合部59は、第1検出装置1aの視点と第2検出装置1bの視点との相対的な位置、及び第1検出装置1aの視点の向き(視線)と第2検出装置1bの視点の向き(視線)との関係を用いて、モデル統合処理を行ってもよい。また、情報処理装置51は、モデル統合部59を備え、レンダリング処理部57を備えなくてもよい。例えば、情報処理装置51は、モデル統合処理の結果を外部装置へ出力し、この外部装置に設けられるレンダリング処理部がレンダリング処理を実行してもよい。
The method by which the
なお、モデル統合部59は、複数の検出装置(例、第1検出装置1a、第2検出装置1b)のうち少なくとも1つの検出装置に設けられてもよい。例えば、第1検出装置1aは、モデル統合部59を備えてもよい。この場合、第1検出装置1aは、例えば、第1検出装置1aと別の検出装置(第2検出装置1b)から第2モデル情報を通信部6によって受信し、モデル統合部59は、第1検出装置1aの情報算出部4が算出した第1モデル情報と、第2モデル情報とを統合してもよい。
The
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. Further, the requirements described in the above-described embodiments and the like can be appropriately combined. In addition, to the extent permitted by law, the disclosure of all documents cited in the above-mentioned embodiments and the like shall be incorporated as part of the description in the main text.
1、1a、1b・・・検出装置、2・・・検出部、3・・・確度算出部、4・・・情報算出部、11・・・撮像部、12・・・測距部、50・・・検出システム、51・・・情報処理装置、57・・・レンダリング処理部、59・・・モデル統合部、Vp・・・視点、AR1・・・第1領域、AR2・・・第2領域 1, 1a, 1b ... Detection device, 2 ... Detection unit, 3 ... Accuracy calculation unit, 4 ... Information calculation unit, 11 ... Imaging unit, 12 ... Distance measuring unit, 50 ... detection system, 51 ... information processing device, 57 ... rendering processing unit, 59 ... model integration unit, Vp ... viewpoint, AR1 ... first area, AR2 ... second region
Claims (39)
前記検出部により検出可能な第1領域と、前記検出部により検出不能、又は前記検出部の検出結果の信頼度が前記第1領域よりも低い第2領域とを特定する情報を算出する算出部と、を備え、
前記検出部は、一視点から対象物を検出し、
前記算出部は、前記検出部の検出結果を用いて前記一視点における前記対象物の確度情報を算出し、
前記算出部は、前記確度情報として、前記対象物を含む領域のうち前記一視点から検出可能な第1領域と前記一視点から見て前記第1領域の陰になる第2領域とを区別する情報を算出し、前記一視点と前記対象物上の点を結ぶ線上で、前記一視点から前記点よりも遠い領域を前記第2領域と判定し、
前記検出結果及び前記確度情報を用いて前記対象物の形状情報を算出する情報算出部を備える検出装置。 With the detector
A calculation unit that calculates information that identifies a first region that can be detected by the detection unit and a second region that cannot be detected by the detection unit or whose reliability of the detection result of the detection unit is lower than that of the first region. And with
The detection unit detects an object from one viewpoint and
The calculation unit calculates the accuracy information of the object at the one viewpoint by using the detection result of the detection unit.
As the accuracy information, the calculation unit distinguishes between a first region that can be detected from the one viewpoint and a second region that is behind the first region when viewed from the one viewpoint. Information is calculated, and a region farther from the one viewpoint than the point on the line connecting the one viewpoint and the point on the object is determined to be the second region.
A detection device including an information calculation unit that calculates shape information of the object using the detection result and the accuracy information .
前記情報算出部は、前記対象物の領域ごとに算出された前記確度情報を前記形状情報又は前記テクスチャ情報に関連付けする、請求項5に記載の検出装置。 The calculation unit calculates the accuracy information for each region of the object, and the calculation unit calculates the accuracy information.
The detection device according to claim 5 , wherein the information calculation unit associates the accuracy information calculated for each region of the object with the shape information or the texture information.
前記算出部は、前記測距部が検出した前記距離に基づいて、前記確度情報を算出する、請求項1から請求項9のいずれか一項に記載の検出装置。 The detection unit includes a distance measuring unit that detects a distance from the one viewpoint to each point on the object.
The detection device according to any one of claims 1 to 9 , wherein the calculation unit calculates the accuracy information based on the distance detected by the distance measuring unit.
前記情報算出部は、前記デプス情報と前記確度情報とを関連付けた情報を生成する、請求項1から請求項6のいずれか一項に記載の検出装置。 Based on the detection result of the detection unit, depth information including the distance from the one viewpoint to each point on the object is generated.
The detection device according to any one of claims 1 to 6 , wherein the information calculation unit generates information in which the depth information and the accuracy information are associated with each other.
前記情報算出部は、前記線の情報の確度情報を用いて、前記面の情報を生成する、請求項17に記載の検出装置。 The surface information includes information on a line connecting two points on the object and information on a surface surrounded by three or more lines.
The detection device according to claim 17 , wherein the information calculation unit generates information on the surface by using the accuracy information of the information on the line.
前記情報算出部は、前記点群データの確度情報を用いて、前記サーフェス情報の少なくとも一部を再計算する、請求項17又は請求項18に記載の検出装置。 The calculation unit uses the surface information to generate accuracy information of point cloud data including the coordinates of a plurality of points on the object.
The detection device according to claim 17 , wherein the information calculation unit recalculates at least a part of the surface information by using the accuracy information of the point cloud data.
前記算出部は、前記確度情報として、前記撮像画像の画素ごとに確度を関連づけた情報を算出する、請求項23から請求項25のいずれか一項に記載の検出装置。 The detection result includes a captured image of the detected object.
The detection device according to any one of claims 23 to 25 , wherein the calculation unit calculates information in which the accuracy is associated with each pixel of the captured image as the accuracy information.
前記算出部は、前記検出部が撮像した撮像画像を用いて前記一視点における前記対象物の確度情報を算出し、
前記撮像画像及び前記確度情報を用いて前記一視点における前記対象物のテクスチャ情報を算出する情報算出部を備える、請求項1から請求項3のいずれか一項に記載の検出装置。 The detection unit captures an object from a single viewpoint.
The calculation unit calculates the accuracy information of the object at the one viewpoint using the captured image captured by the detection unit.
The detection device according to any one of claims 1 to 3 , further comprising an information calculation unit for calculating texture information of the object at the one viewpoint using the captured image and the accuracy information.
前記算出部は、前記検出部が検出した前記対象物上の領域ごとに、前記撮像部の視野中心からの距離、前記撮像部の撮像画像における明るさ、前記撮像部の光学系の収差、前記一視点からの距離の変化量、前記対象物の法線ベクトルと前記一視点の向きとの差、前記対象物上の2点間の距離情報、前記対象物上の複数の点の空間周波数情報、及び前記対象物上の2点を結ぶベクトル情報の少なくとも一つに基づいて、前記確度情報を算出する、請求項1から請求項30のいずれか一項に記載の検出装置。 The detection unit includes an imaging unit that captures an image of the object.
The calculation unit describes, for each region on the object detected by the detection unit, the distance from the center of the field of view of the image pickup unit, the brightness of the image captured by the image pickup unit, the aberration of the optical system of the image pickup unit, and the above. Amount of change in distance from one viewpoint, difference between the normal vector of the object and the direction of the one viewpoint, distance information between two points on the object, spatial frequency information of a plurality of points on the object. The detection device according to any one of claims 1 to 30 , which calculates the accuracy information based on at least one of the vector information connecting the two points on the object.
前記複数の検出装置から出力される情報を処理する情報処理装置と、を備え、
前記複数の検出装置は、対象物の形状情報と前記対象物のテクスチャ情報との少なくとも一方を含むモデル情報をそれぞれ出力し、
前記情報処理装置は、前記複数の検出装置から出力される情報を統合するモデル統合部を含む、検出システム。 The plurality of detection devices according to any one of claims 1 to 31 , and the plurality of detection devices.
An information processing device that processes information output from the plurality of detection devices is provided.
The plurality of detection devices output model information including at least one of the shape information of the object and the texture information of the object, respectively.
The information processing device is a detection system including a model integration unit that integrates information output from the plurality of detection devices.
前記検出装置から出力される情報を処理する情報処理装置と、を備える検出システム。 The detection device according to any one of claims 1 to 31 and
A detection system including an information processing device that processes information output from the detection device.
前記検出部により検出可能な第1領域と、前記検出部により検出不能、又は前記検出部の検出結果の信頼度が前記第1領域よりも低い第2領域とを特定する情報を算出することと、
前記検出部の検出結果を用いて前記一視点における前記対象物の確度情報を算出することと、
前記確度情報として、前記対象物を含む領域のうち前記一視点から検出可能な前記第1領域と前記一視点から見て前記第1領域の陰になる前記第2領域とを区別する情報を算出し、前記一視点と前記対象物上の点を結ぶ線上で、前記一視点から前記点よりも遠い領域を前記第2領域と判定することと、
前記検出結果及び前記確度情報を用いて前記対象物の形状情報を算出することと、を含む検出方法。 Detecting an object from one viewpoint by the detection unit,
To calculate information that identifies a first region that can be detected by the detection unit and a second region that cannot be detected by the detection unit or whose reliability of the detection result of the detection unit is lower than that of the first region. ,
Using the detection result of the detection unit to calculate the accuracy information of the object at the one viewpoint,
As the accuracy information, information for distinguishing the first region that can be detected from the one viewpoint and the second region that is behind the first region when viewed from the one viewpoint is calculated among the regions including the object. Then, on the line connecting the one viewpoint and the point on the object, the region farther from the one viewpoint than the point is determined to be the second region.
A detection method including calculating shape information of the object using the detection result and the accuracy information .
前記第1モデル情報と前記第2モデル情報とを統合するモデル統合部と、を備え、
前記第1確度情報及び前記第2確度情報は、検出可能な第1領域と、検出不能、又は検出結果の信頼度が前記第1領域よりも低い第2領域とを区別する情報として算出され、
前記一視点における前記対象物の形状情報は、
前記一視点から検出部により検出された前記対象物の検出結果を用いて前記一視点における前記対象物の確度情報を算出し、
前記確度情報として、前記対象物を含む領域のうち前記一視点から検出可能な前記第1領域と前記一視点から見て前記第1領域の陰になる前記第2領域とを区別する情報を算出し、前記一視点と前記対象物上の点を結ぶ線上で、前記一視点から前記点よりも遠い領域を前記第2領域と判定し、
前記検出結果及び前記確度情報を用いて前記対象物の形状情報を算出する、情報処理装置。 The first model information including the shape information of the object in one viewpoint, which was calculated by using the first detection result and the first accuracy information, and the second detection result and the second accuracy information, which were calculated by using the second detection result and the second accuracy information. A receiving unit that receives the second model information including the shape information of the object from a viewpoint different from the one viewpoint, and the receiving unit.
A model integration unit that integrates the first model information and the second model information is provided.
The first accuracy information and the second accuracy information are calculated as information for distinguishing a first region that can be detected from a second region that cannot be detected or whose reliability of the detection result is lower than that of the first region .
The shape information of the object in the one viewpoint is
Using the detection result of the object detected by the detection unit from the one viewpoint, the accuracy information of the object in the one viewpoint is calculated.
As the accuracy information, information for distinguishing the first region that can be detected from the one viewpoint and the second region that is behind the first region when viewed from the one viewpoint is calculated among the regions including the object. Then, on the line connecting the one viewpoint and the point on the object, the region farther from the one viewpoint than the point is determined to be the second region.
An information processing device that calculates shape information of the object using the detection result and the accuracy information .
コンピュータに、前記検出部により検出可能な第1領域と、前記検出部により検出不能、又は前記検出部の検出結果の信頼度が前記第1領域よりも低い第2領域とを特定する情報を算出することと、
前記検出部の検出結果を用いて前記一視点における前記対象物の確度情報を算出することと、
前記確度情報として、前記対象物を含む領域のうち前記一視点から検出可能な前記第1領域と前記一視点から見て前記第1領域の陰になる前記第2領域とを区別する情報を算出し、前記一視点と前記対象物上の点を結ぶ線上で、前記一視点から前記点よりも遠い領域を前記第2領域と判定することと、
前記検出結果及び前記確度情報を用いて前記対象物の形状情報を算出することと、を実行させる、処理プログラム。 It is a processing program that processes the detection result of detecting an object by the detection unit from one viewpoint .
The computer calculates information that identifies a first region that can be detected by the detection unit and a second region that cannot be detected by the detection unit or whose reliability of the detection result of the detection unit is lower than that of the first region. To do and
Using the detection result of the detection unit to calculate the accuracy information of the object at the one viewpoint,
As the accuracy information, information for distinguishing the first region that can be detected from the one viewpoint and the second region that is behind the first region when viewed from the one viewpoint is calculated among the regions including the object. Then, on the line connecting the one viewpoint and the point on the object, the region farther from the one viewpoint than the point is determined to be the second region.
A processing program that calculates shape information of the object using the detection result and the accuracy information, and executes the calculation.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020179856A JP7099506B2 (en) | 2020-10-27 | 2020-10-27 | Detection device, detection method, information processing device, and processing program |
JP2022105069A JP2022130613A (en) | 2020-10-27 | 2022-06-29 | Detection device, detection method, information processing device, and processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020179856A JP7099506B2 (en) | 2020-10-27 | 2020-10-27 | Detection device, detection method, information processing device, and processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018501525A Division JP6787389B2 (en) | 2016-02-26 | 2016-02-26 | Detection device, detection system, detection method, information processing device, and processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022105069A Division JP2022130613A (en) | 2020-10-27 | 2022-06-29 | Detection device, detection method, information processing device, and processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043206A JP2021043206A (en) | 2021-03-18 |
JP7099506B2 true JP7099506B2 (en) | 2022-07-12 |
Family
ID=74862280
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020179856A Active JP7099506B2 (en) | 2020-10-27 | 2020-10-27 | Detection device, detection method, information processing device, and processing program |
JP2022105069A Pending JP2022130613A (en) | 2020-10-27 | 2022-06-29 | Detection device, detection method, information processing device, and processing program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022105069A Pending JP2022130613A (en) | 2020-10-27 | 2022-06-29 | Detection device, detection method, information processing device, and processing program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7099506B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024043665A1 (en) * | 2022-08-22 | 2024-02-29 | (주)클로버추얼패션 | Method and apparatus for generating marker in three-dimensional simulation |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164571A (en) | 2002-06-27 | 2004-06-10 | Mitsubishi Electric Research Laboratories Inc | Method for modeling three-dimensional object |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003150940A (en) * | 2001-11-16 | 2003-05-23 | Komatsu Ltd | Stereo image processor |
JP2003331263A (en) * | 2002-05-13 | 2003-11-21 | Nippon Telegr & Teleph Corp <Ntt> | Map generating method for making camera image correspond to real spatial coordinate, map generating apparatus for making camera image correspond to real spatial coordinate, and program and recording medium |
JP2008002995A (en) * | 2006-06-23 | 2008-01-10 | Konica Minolta Sensing Inc | Three-dimensional shape measuring device |
JP5120926B2 (en) * | 2007-07-27 | 2013-01-16 | 有限会社テクノドリーム二十一 | Image processing apparatus, image processing method, and program |
-
2020
- 2020-10-27 JP JP2020179856A patent/JP7099506B2/en active Active
-
2022
- 2022-06-29 JP JP2022105069A patent/JP2022130613A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164571A (en) | 2002-06-27 | 2004-06-10 | Mitsubishi Electric Research Laboratories Inc | Method for modeling three-dimensional object |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024043665A1 (en) * | 2022-08-22 | 2024-02-29 | (주)클로버추얼패션 | Method and apparatus for generating marker in three-dimensional simulation |
Also Published As
Publication number | Publication date |
---|---|
JP2021043206A (en) | 2021-03-18 |
JP2022130613A (en) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7180646B2 (en) | Detection device, information processing device, detection method, detection program, and detection system | |
US10663567B2 (en) | Field calibration of a structured light range-sensor | |
JP6662449B2 (en) | Detection device, detection system, detection method, and detection program | |
US10613228B2 (en) | Time-of-flight augmented structured light range-sensor | |
WO2017154705A1 (en) | Imaging device, image processing device, image processing program, data structure, and imaging system | |
WO2016158856A1 (en) | Imaging system, imaging device, imaging method, and imaging program | |
US11967094B2 (en) | Detecting device, information processing device, detecting method, and information processing program | |
CN105306922A (en) | Method and device for obtaining depth camera reference diagram | |
JP2023157018A (en) | Detection device, information processing device, detection method, detection program, and detection system | |
US11151783B2 (en) | Image pickup device, information processing device, and image pickup system | |
JP7099506B2 (en) | Detection device, detection method, information processing device, and processing program | |
US11682134B2 (en) | Object detection device, method, information processing device, and storage medium calculating reliability information of detected image data for object shape determination | |
CN107493452A (en) | Video pictures processing method, device and terminal | |
US11748908B1 (en) | Systems and methods for generating point-accurate three-dimensional models with point-accurate color information from a non-cosited capture | |
WO2019198446A1 (en) | Detection device, detection method, information processing device, and information processing program | |
JP2023115289A (en) | Detection device, information processing device, and system | |
JP6867766B2 (en) | Information processing device and its control method, program | |
US11195290B2 (en) | Apparatus and method for encoding in structured depth camera system | |
JP2017161370A (en) | Detector, detection system, detection method and detection program | |
CN112581512A (en) | Image matching, 3D imaging and posture recognition method, device and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220613 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7099506 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |