[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2022086354A - 3D measurement system and 3D measurement method - Google Patents

3D measurement system and 3D measurement method Download PDF

Info

Publication number
JP2022086354A
JP2022086354A JP2020198307A JP2020198307A JP2022086354A JP 2022086354 A JP2022086354 A JP 2022086354A JP 2020198307 A JP2020198307 A JP 2020198307A JP 2020198307 A JP2020198307 A JP 2020198307A JP 2022086354 A JP2022086354 A JP 2022086354A
Authority
JP
Japan
Prior art keywords
image
phase
cnn
measurement
shift method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020198307A
Other languages
Japanese (ja)
Other versions
JP7544342B2 (en
Inventor
一弘 小菅
Kazuhiro Kosuge
翔悟 荒井
Shogo Arai
幸平 芳住
Kohei Yoshizumi
大輔 小柳
Daisuke Koyanagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
MinebeaMitsumi Inc
Original Assignee
Tohoku University NUC
MinebeaMitsumi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, MinebeaMitsumi Inc filed Critical Tohoku University NUC
Priority to JP2020198307A priority Critical patent/JP7544342B2/en
Publication of JP2022086354A publication Critical patent/JP2022086354A/en
Application granted granted Critical
Publication of JP7544342B2 publication Critical patent/JP7544342B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide a system and method capable of performing highly accurate three-dimensional measurement for an object having a glossy surface.SOLUTION: A three-dimensional measurement system includes: a projection section that irradiates an object with sinusoidal pattern light a plurality of times while shifting its phase; an imaging section that captures light reflected by the object; and a measurement processing section that generates a phase image from the captured image using a phase shift method. The measurement processing section inputs at least one of images before or after the measurement processing section performs the phase shift method to a CNN which has learned so that an image obtained by reducing the effect of a specular reflection component is generated.SELECTED DRAWING: Figure 2

Description

本発明は、光沢面を有する対象物の三次元計測システムおよび三次元計測方法に関するものである。 The present invention relates to a three-dimensional measurement system and a three-dimensional measurement method for an object having a glossy surface.

三次元計測技術は、例えば、工場の製造ラインにおいて、ロボットハンドで対象物であるワークを把持する際、ワーク位置を認識するために用いられる。三次元計測技術として、例えば、プロジェクタからワークに対してパターン画像を投影し、カメラによりワークからの反射光を撮影して解析する方法が知られている。 The three-dimensional measurement technique is used, for example, in a factory production line to recognize a work position when gripping a work which is an object with a robot hand. As a three-dimensional measurement technique, for example, a method is known in which a pattern image is projected from a projector onto a work, and the reflected light from the work is photographed and analyzed by a camera.

特許文献1には、複数種類の符号化パターン画像からなる符号化パターン画像列を順に投影する投影部と、投影部にて符号化パターン画像が投影される対象物を順に撮像して、複数の撮影画像からなる撮影画像列を取得する撮像部と、符号化パターン画像列および撮影画像列を用いて、相互反射に対応した復号化を行う復号化部と、復号化部における復号化の結果および投影部と撮像部との幾何的関係を用いて、符号化パターン画像と撮影画像との対応付けを行うことで対象物の三次元形状を計測する計測部と、を備えた三次元形状計測システムが開示されている。 In Patent Document 1, a projection unit that sequentially projects a coded pattern image sequence composed of a plurality of types of coded pattern images and an object on which the coded pattern image is projected by the projection unit are imaged in order, and a plurality of images are taken. An imaging unit that acquires a captured image sequence consisting of captured images, a decoding unit that performs decoding corresponding to mutual reflection using a coded pattern image sequence and a captured image sequence, and a decoding result in the decoding unit and A three-dimensional shape measurement system including a measurement unit that measures the three-dimensional shape of an object by associating a coded pattern image with a captured image using the geometrical relationship between the projection unit and the imaging unit. Is disclosed.

特開2020-020640号公報Japanese Unexamined Patent Publication No. 2020-02640

しかしながら、光沢面を有する金属等の鏡面反射の割合が大きい対象物において、位相シフト法等のアクティブ三次元計測方法を用いる場合、計測精度が悪化する、または、計測が不可能になることが知られている。 However, it is known that when an active three-dimensional measurement method such as a phase shift method is used for an object having a large specular reflection ratio such as a metal having a glossy surface, the measurement accuracy deteriorates or measurement becomes impossible. Has been done.

そこで、本発明では、光沢面を有する対象物について高精度に三次元計測可能なシステムおよび方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a system and a method capable of three-dimensionally measuring an object having a glossy surface with high accuracy.

本発明の三次元計測システムは、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射する投影部と、
前記対象物で反射された反射光を撮影する撮像部と、
位相シフト法を用いて撮影画像から位相画像を生成する計測処理部と、
を有し、
前記計測処理部は、前記計測処理部が位相シフト法を実行する前および後の少なくとも一方の画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力する。
The three-dimensional measurement system of the present invention is
A projection unit that irradiates an object with a sinusoidal pattern light multiple times while shifting the phase.
An image pickup unit that captures the reflected light reflected by the object, and
A measurement processing unit that generates a phase image from a captured image using the phase shift method,
Have,
The measurement processing unit inputs at least one image before and after the measurement processing unit executes the phase shift method to the CNN trained to generate an image in which the influence of the specular reflection component is reduced.

本発明の三次元計測システムでは、前記計測処理部は、前記位相画像および前記位相画像をCNNで処理した画像の一方からエピポーラ拘束条件を利用してさらなる位相画像を生成することが好ましい。 In the three-dimensional measurement system of the present invention, it is preferable that the measurement processing unit generates a further phase image from one of the phase image and the image obtained by processing the phase image with CNN by using the epipolar constraint condition.

本発明の三次元計測システムでは、前記計測処理部は、
位相シフト法を用いて撮影画像から位相画像を生成し、
前記位相画像をCNNに入力して、鏡面反射成分の影響を低減した位相画像を生成し、
鏡面反射成分の影響を低減した前記位相画像からエピポーラ拘束条件を利用してさらなる位相画像を生成し、
前記さらなる位相画像から三角測量の原理を用いて三次元点群を生成することが好ましい。
In the three-dimensional measurement system of the present invention, the measurement processing unit is
Generate a phase image from the captured image using the phase shift method,
The phase image is input to the CNN to generate a phase image in which the influence of the specular reflection component is reduced.
Further phase images are generated from the phase image with the influence of the specular reflection component reduced by using the epipolar constraint condition.
It is preferable to generate a three-dimensional point cloud from the further phase image using the principle of triangulation.

本発明の三次元計測方法では、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射し、
前記対象物で反射された反射光を撮影し、
位相シフト法を用いて撮影画像から位相画像を生成し、
位相シフト法を実行する前および後の少なくとも一方の画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力する。
In the three-dimensional measurement method of the present invention,
Irradiate the object with a sine and cosine pattern light multiple times while shifting the phase.
The reflected light reflected by the object is photographed,
Generate a phase image from the captured image using the phase shift method,
At least one of the images before and after performing the phase shift method is input to the CNN trained to generate an image with reduced influence of the specular reflection component.

本発明により、光沢面を有する対象物について高精度に三次元計測可能なシステムおよび方法を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a system and a method capable of three-dimensionally measuring an object having a glossy surface with high accuracy.

本発明の一実施形態による三次元計測システムの構成を示す図である。It is a figure which shows the structure of the 3D measurement system by one Embodiment of this invention. 本発明の一実施形態による三次元計測方法のフローを示す図である。It is a figure which shows the flow of the 3D measurement method by one Embodiment of this invention. 互いに位相シフトされた正弦波状のパターン光を示す。It shows a sinusoidal pattern light phase-shifted from each other. 本発明の一実施形態において構築したCNNを示す。The CNN constructed in one embodiment of the present invention is shown. エピポーラ拘束による修正を説明するための図である。It is a figure for demonstrating the correction by epipolar restraint. 本発明の変形実施形態による三次元計測方法のフローを示す図である。It is a figure which shows the flow of the 3D measurement method by the modified embodiment of this invention. 本実施例において、CNNの学習データを生成するためのシミュレータによって生成された2つのシーンを示す。In this embodiment, two scenes generated by a simulator for generating CNN training data are shown. (a)はばら積みにした対象物の画像を示し、(b)は本実施例により得られた三次元点群の画像を示す。(A) shows an image of an object piled up in bulk, and (b) shows an image of a three-dimensional point cloud obtained by this embodiment.

図1は、本発明の一実施形態による三次元計測システムの構成を示す図である。
三次元計測システム10は、プロジェクタである投影部1と、カメラである撮像部2と、コンピュータである計測処理部3と、を有する。
投影部1は、正弦波状のパターン光を、位相シフトしながら対象物4に対して複数回照射する。撮像部2は、対象物4で反射された反射光を撮影する。
FIG. 1 is a diagram showing a configuration of a three-dimensional measurement system according to an embodiment of the present invention.
The three-dimensional measurement system 10 includes a projection unit 1 which is a projector, an image pickup unit 2 which is a camera, and a measurement processing unit 3 which is a computer.
The projection unit 1 irradiates the object 4 with a sinusoidal pattern light a plurality of times while shifting the phase. The image pickup unit 2 captures the reflected light reflected by the object 4.

図2は、本発明の一実施形態による三次元計測方法のフローを示す図である。
ステップS1において、計測処理部3は、位相シフト法を用いて撮影画像から位相画像Aを生成する。
ステップS2において、計測処理部3は、位相画像AをCNN(畳み込みニューラルネットワーク)に入力することで、鏡面反射成分の影響を低減した位相画像Bを生成する。
ステップS3において、計測処理部3は、位相画像Bからエピポーラ拘束条件を利用して位相画像Cを生成する。なお、このステップS3は、オプションであり、省略することができる。
ステップS4において、計測処理部3は、位相画像Cから三角測量の原理を用いて三次元点群を生成する。
FIG. 2 is a diagram showing a flow of a three-dimensional measurement method according to an embodiment of the present invention.
In step S1, the measurement processing unit 3 generates a phase image A from the captured image by using a phase shift method.
In step S2, the measurement processing unit 3 inputs the phase image A to the CNN (convolutional neural network) to generate the phase image B in which the influence of the mirror reflection component is reduced.
In step S3, the measurement processing unit 3 generates the phase image C from the phase image B by using the epipolar constraint condition. Note that this step S3 is optional and can be omitted.
In step S4, the measurement processing unit 3 generates a three-dimensional point cloud from the phase image C using the principle of triangulation.

第1に、位相シフト法について説明する。
図3(a)~(d)は、互いに位相シフトされた正弦波状のパターン光を示す。
投影部1は、図3に示すような位相シフトされた複数の正弦波状のパターン光を対象物4に対して照射する。位相シフト法では、パターン光の数が多いほど、計測精度が向上するが、計算量も増加する。それゆえ、本実施形態では、4つのパターン光による4step位相シフト法を用いているが、パターン光は、3つ以上であれば、任意の数とすることができる。
First, the phase shift method will be described.
3 (a) to 3 (d) show sinusoidal pattern lights phase-shifted from each other.
The projection unit 1 irradiates the object 4 with a plurality of phase-shifted sinusoidal pattern lights as shown in FIG. In the phase shift method, as the number of pattern lights increases, the measurement accuracy improves, but the amount of calculation also increases. Therefore, in the present embodiment, the 4step phase shift method using four pattern lights is used, but the number of pattern lights can be any number as long as it is three or more.

第2に、CNNについて説明する。
図4は、本発明の一実施形態において構築したCNNを示す。
通常のCNNでは、画像を畳み込む過程で局所情報が失われる。しかし、ばら積みにした対象物の三次元計測では、鏡面反射成分の影響により計測困難な画素の情報をその周囲の局所的な画像特徴から復元する必要がある。したがって、CNNの入力に近い上層で出力される局所的な画像特徴をSkip Connectionにより下層に直接伝達する必要がある。そこで、本実施形態では、Skip Connectionを有しており、画素単位で回帰問題を解くことが可能なUnetをベースとしたCNNを利用する。
このように、計測処理部3において、位相画像Aから鏡面反射成分の影響を低減した位相画像Bを生成するようにCNNをあらかじめ学習させる。
なお、Unetを二段重ねた構造を有するCNNを用いることもできる(後述する図6(c)(d)参照)。この場合、鏡面反射成分の影響をより精度よく低減することができる。
Second, CNN will be described.
FIG. 4 shows a CNN constructed in one embodiment of the present invention.
In a normal CNN, local information is lost in the process of convolving an image. However, in the three-dimensional measurement of bulk objects, it is necessary to restore the information of pixels that are difficult to measure due to the influence of the specular reflection component from the local image features around them. Therefore, it is necessary to directly transmit the local image features output in the upper layer close to the input of the CNN to the lower layer by Skip Connection. Therefore, in this embodiment, a CNN based on Unit, which has a Skip Connection and can solve a regression problem on a pixel-by-pixel basis, is used.
In this way, the measurement processing unit 3 trains the CNN in advance so as to generate the phase image B in which the influence of the specular reflection component is reduced from the phase image A.
It is also possible to use a CNN having a structure in which Units are stacked in two stages (see FIGS. 6 (c) and 6 (d) described later). In this case, the influence of the specular reflection component can be reduced more accurately.

第3に、エピポーラ拘束について説明する。
図5は、エピポーラ拘束による修正を説明するための図である。
点Oにあるカメラで観測点xを撮影すると、観測点xは、カメラの投影面の点xに投影される。このとき、観測点xと点xの間の点x、x、xは、点Oにあるプロジェクタの投影面のエピポーラ線に投影される。
このように、プロジェクタ・カメラシステムでは、任意のカメラ画素に対応するプロジェクタ画素は、対応するエピポーラ線上に存在するという条件があり、このエピポーラ線を、外部パラメータおよび内部パラメータを使って事前に計算することができる。
エピポーラ線から外れる点(位相)があった場合、計測処理部3は、当該点からエピポーラ線上に垂線を下ろし、当該垂線とエピポーラ線との交点を正しい点として修正する。
Third, epipolar restraint will be described.
FIG. 5 is a diagram for explaining the correction by the epipolar constraint.
When the observation point x is photographed by the camera at the point OL, the observation point x is projected onto the point x L on the projection surface of the camera. At this time, the points x 1 , x 2 , and x 3 between the observation point x and the point x L are projected onto the epipolar line of the projection surface of the projector at the point OR .
Thus, in a projector-camera system, there is a condition that the projector pixel corresponding to any camera pixel exists on the corresponding epipolar line, and this epipolar line is calculated in advance using external parameters and internal parameters. be able to.
When there is a point (phase) deviating from the epipolar line, the measurement processing unit 3 draws a perpendicular line from the point onto the epipolar line, and corrects the intersection of the perpendicular line and the epipolar line as a correct point.

上述した実施形態では、計測処理部3は、位相シフト法、CNNおよびエピポーラ拘束の各ステップをこの順で実行している。最初に位相シフト法を用いて、撮影画像から位相画像Aを生成し、位相画像AをCNNに入力して、鏡面反射成分の影響を低減した位相画像Bを生成することにより、実環境で撮影する画像の枚数を減少することができる。
例えば、CNNの入力データとして、100枚の画像を用いると仮定する。撮影画像をCNNに入力する場合、100枚の画像を撮影しなければならない。一方、最初に位相シフト法を用いて、撮影画像から位相画像を生成し、位相画像をCNNに入力する場合、撮影画像とシミュレーションデータとを組み合わせて位相画像を生成するため、例えば、10枚の画像を撮影すればよくなり(残りの90枚はシミュレーションデータを用いる)、撮影の手間および時間を削減することができる。
ただし、各ステップの順番は上述した実施形態に限定されるものではなく、さまざまな変形が可能であり、以下その変形例を説明する。
In the above-described embodiment, the measurement processing unit 3 executes each step of the phase shift method, the CNN, and the epipolar constraint in this order. First, a phase image A is generated from the captured image using the phase shift method, and the phase image A is input to the CNN to generate a phase image B in which the influence of the mirror reflection component is reduced, thereby photographing in a real environment. The number of images to be displayed can be reduced.
For example, it is assumed that 100 images are used as input data of CNN. When inputting captured images to CNN, 100 images must be captured. On the other hand, when a phase image is first generated from a captured image by first using the phase shift method and the phase image is input to the CNN, the phase image is generated by combining the captured image and the simulation data, for example, 10 images. All you have to do is take an image (the remaining 90 images use simulation data), and you can reduce the time and effort of taking a picture.
However, the order of each step is not limited to the above-described embodiment, and various modifications are possible, and examples of the modifications will be described below.

図6(a)~(d)は、本発明の変形実施形態による三次元計測方法のフローを示す図である。
図6(a)では、CNNを位相シフト法の前に実行する。すなわち、計測処理部3は、位相シフト法を実行する前の画像である撮影画像を、CNNに入力して、鏡面反射成分の影響を低減した画像を生成した後、位相シフト法を用いて位相画像Aを生成する。
なお、本明細書において、「撮影画像から位相画像を生成する」という表現は、撮影画像から直接位相画像を生成する場合だけでなく、撮影画像を処理した画像(例えば図6(a)のように、撮影画像をCNNにおいて処理した画像)から位相画像を生成する場合も含むものとする。
6 (a) to 6 (d) are diagrams showing a flow of a three-dimensional measurement method according to a modified embodiment of the present invention.
In FIG. 6 (a), the CNN is executed before the phase shift method. That is, the measurement processing unit 3 inputs a captured image, which is an image before executing the phase shift method, to the CNN to generate an image in which the influence of the mirror reflection component is reduced, and then uses the phase shift method to generate a phase. Generate image A.
In the present specification, the expression "generate a phase image from a captured image" is used not only when a phase image is directly generated from a captured image but also as an image processed from a captured image (for example, as shown in FIG. 6A). In addition, a case where a phase image is generated from an image) obtained by processing a captured image in CNN is also included.

図6(b)では、CNNをエピポーラ拘束の後に実行する。すなわち、計測処理部3は、位相シフト法を用いて撮影画像から位相画像Aを生成し、エピポーラ拘束条件を利用して位相画像Bを生成し、位相画像BをCNNに入力して、鏡面反射成分の影響を低減した位相画像Cを生成する。 In FIG. 6 (b), CNN is performed after epipolar restraint. That is, the measurement processing unit 3 generates a phase image A from the captured image using the phase shift method, generates a phase image B using the epipolar constraint condition, inputs the phase image B to the CNN, and mirror-reflects the image. A phase image C with reduced influence of components is generated.

図6(c)では、2回のCNNを実行する。すなわち、計測処理部3は、位相画像AをCNNに入力して、鏡面反射成分の影響を低減した位相画像Bを生成し、位相画像BをCNNに入力して、鏡面反射成分の影響をさらに低減した位相画像Cを生成する。 In FIG. 6 (c), the CNN is executed twice. That is, the measurement processing unit 3 inputs the phase image A to the CNN to generate a phase image B in which the influence of the mirror reflection component is reduced, and inputs the phase image B to the CNN to further influence the influence of the mirror reflection component. Generates a reduced phase image C.

図6(d)では、2回のCNNを位相シフト法の前後に実行する。すなわち、計測処理部3は、撮影画像をCNNに入力して、鏡面反射成分の影響を低減した画像を生成し、位相シフト法を用いて位相画像Aを生成し、位相画像AをCNNに入力して、鏡面反射成分の影響を低減した位相画像Bを生成する。 In FIG. 6D, two CNNs are executed before and after the phase shift method. That is, the measurement processing unit 3 inputs the captured image to the CNN to generate an image in which the influence of the mirror reflection component is reduced, generates the phase image A by using the phase shift method, and inputs the phase image A to the CNN. Then, a phase image B in which the influence of the mirror reflection component is reduced is generated.

以下、本発明の実施例を説明する。
本実施例では、図2に示した順で各ステップを実行した。
本実施例で用いたプロジェクタおよびカメラの構成は、以下のとおりである。
プロジェクタ:Panasonic PT-VMZ50J
解像度:1920×1080
有効光束:5000lm
コントラスト:3,000,000:1
カメラ:Baumer VCxU-124
レンズ:VS TECHNOLOGY VS-1614H1N
解像度:800×600
視野範囲:400×300mm
WD:550mm
空間解像度:0.50×0.50mm/pixel
また、プロジェクタとカメラとの間の校正にはZhangの方法を用いた。校正試験結果は、以下のとおりである。

Figure 2022086354000002
Hereinafter, examples of the present invention will be described.
In this embodiment, each step was executed in the order shown in FIG.
The configurations of the projector and the camera used in this embodiment are as follows.
Projector: Panasonic PT-VMZ50J
Resolution: 1920 x 1080
Effective luminous flux: 5000 lm
Contrast: 3,000,000: 1
Camera: Baumer VCxU-124
Lens: VS TECHNOLOGY VS-1614H1N
Resolution: 800 x 600
Field of view: 400 x 300 mm
WD: 550 mm
Spatial resolution: 0.50 x 0.50 mm / pixel
In addition, Zhang's method was used for calibration between the projector and the camera. The calibration test results are as follows.
Figure 2022086354000002

図7(a)(b)は、本実施例において、CNNの学習データを生成するためのシミュレータによって生成された2つのシーンを示す。
シミュレータにはBlenderを利用し、Blenderの設定は、以下のとおりである。
メタリック:1.00
スペキュラー:0.50
粗さ:0.30
拡散反射回数:4
鏡面反射回数:4
レンダー数:1024本/pixel
7 (a) and 7 (b) show two scenes generated by the simulator for generating the learning data of CNN in this embodiment.
Blender is used for the simulator, and the settings of Blender are as follows.
Metallic: 1.00
Specular: 0.50
Roughness: 0.30
Diffuse reflection count: 4
Number of specular reflections: 4
Number of renders: 1024 / pixel

第1の実験として、位相シフト法、CNNおよびエピポーラ拘束による鏡面反射成分の影響低減をシミュレーションによって確認した。すなわち、位相シフト法により生成された位相画像A、CNNにより生成された位相画像Bおよびエピポーラ拘束により生成された位相画像Cをそれぞれ三次元点群に変換した。
位相画像Aから変換された三次元点群より位相画像Bから変換された三次元点群の方が精度が上昇し、さらに位相画像Cから変換された三次元点群の方が精度が上昇していることが目視で確認できた。
これは、ステップを経るごとに、鏡面反射成分の影響を低減できたことを意味する。
As a first experiment, the reduction of the influence of the specular reflection component by the phase shift method, CNN and epipolar constraint was confirmed by simulation. That is, the phase image A generated by the phase shift method, the phase image B generated by the CNN, and the phase image C generated by the epipolar constraint were converted into a three-dimensional point cloud, respectively.
The accuracy of the 3D point group converted from the phase image B is higher than that of the 3D point group converted from the phase image A, and the accuracy is higher than that of the 3D point group converted from the phase image C. It was confirmed visually that it was.
This means that the influence of the specular reflection component could be reduced with each step.

第2の実験として、シミュレーションによる計測精度誤差の評価を実施した。
従来法(本実施例からCNNを取り除いた方法)では、平均が7.21mmであり、標準偏差(σ)が6.39mmであり、3σが19.17mmであった。
本実施例では、平均が0.21mmであり、標準偏差(σ)が0.68mmであり、3σが1.64mmであった。
これにより、本実施例では、従来法と比較して計測精度が大きく向上していることが分かった。
As the second experiment, the measurement accuracy error was evaluated by simulation.
In the conventional method (the method in which CNN was removed from this example), the average was 7.21 mm, the standard deviation (σ) was 6.39 mm, and 3σ was 19.17 mm.
In this example, the average was 0.21 mm, the standard deviation (σ) was 0.68 mm, and 3σ was 1.64 mm.
As a result, it was found that in this embodiment, the measurement accuracy was greatly improved as compared with the conventional method.

第3の実験として、実環境において三次元計測を実施し、計測誤差を求めた。
図8(a)はばら積みにした対象物の画像を示し、図8(b)は本実施例により得られた三次元点群の画像を示す。
作業台上の1つの対象物について、本実施例の方法により三次元点群を取得した。
対象物を1mm、5mm、10mm移動し、各移動後の位置において同様に三次元点群を取得した。
移動前後の三次元点群をコンピュータで読み込み、画像上に表示し、手作業で重ね合わせた。
各三次元点群間の移動量を計算し、その移動量の平均値を計測誤差とした。
この環境における計測誤差は0.4mmであり、本実施例では、計測誤差が小さいことが分かった。
As the third experiment, three-dimensional measurement was performed in the actual environment, and the measurement error was obtained.
FIG. 8A shows an image of objects piled up in bulk, and FIG. 8B shows an image of a three-dimensional point cloud obtained in this embodiment.
A three-dimensional point cloud was acquired by the method of this embodiment for one object on the workbench.
The object was moved by 1 mm, 5 mm, and 10 mm, and a three-dimensional point cloud was similarly obtained at the position after each movement.
The 3D point cloud before and after the movement was read by a computer, displayed on the image, and manually superimposed.
The amount of movement between each three-dimensional point cloud was calculated, and the average value of the amount of movement was used as the measurement error.
The measurement error in this environment was 0.4 mm, and it was found that the measurement error was small in this embodiment.

1…投影部、2…撮像部、3…計測処理部、4…対象物、10…三次元計測システム 1 ... Projection unit, 2 ... Imaging unit, 3 ... Measurement processing unit, 4 ... Object, 10 ... Three-dimensional measurement system

Claims (4)

三次元計測システムであって、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射する投影部と、
前記対象物で反射された反射光を撮影する撮像部と、
位相シフト法を用いて撮影画像から位相画像を生成する計測処理部と、
を有し、
前記計測処理部は、前記計測処理部が位相シフト法を実行する前および後の少なくとも一方の画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力する、
三次元計測システム。
It ’s a three-dimensional measurement system.
A projection unit that irradiates an object with a sinusoidal pattern light multiple times while shifting the phase.
An image pickup unit that captures the reflected light reflected by the object, and
A measurement processing unit that generates a phase image from a captured image using the phase shift method,
Have,
The measurement processing unit inputs at least one image before and after the measurement processing unit executes the phase shift method to the CNN trained to generate an image in which the influence of the specular reflection component is reduced.
Three-dimensional measurement system.
前記計測処理部は、前記位相画像および前記位相画像をCNNで処理した画像の一方からエピポーラ拘束条件を利用してさらなる位相画像を生成する、
請求項1に記載の三次元計測システム。
The measurement processing unit generates a further phase image from one of the phase image and the image obtained by processing the phase image with CNN by using the epipolar constraint condition.
The three-dimensional measurement system according to claim 1.
前記計測処理部は、
位相シフト法を用いて撮影画像から位相画像を生成し、
前記位相画像をCNNに入力して、鏡面反射成分の影響を低減した位相画像を生成し、
鏡面反射成分の影響を低減した前記位相画像からエピポーラ拘束条件を利用してさらなる位相画像を生成し、
前記さらなる位相画像から三角測量の原理を用いて三次元点群を生成する、
請求項1または2に記載の三次元計測システム。
The measurement processing unit
Generate a phase image from the captured image using the phase shift method,
The phase image is input to the CNN to generate a phase image in which the influence of the specular reflection component is reduced.
Further phase images are generated from the phase image with the influence of the specular reflection component reduced by using the epipolar constraint condition.
A three-dimensional point cloud is generated from the further phase image using the principle of triangulation.
The three-dimensional measurement system according to claim 1 or 2.
三次元計測方法であって、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射し、
前記対象物で反射された反射光を撮影し、
位相シフト法を用いて撮影画像から位相画像を生成し、
位相シフト法を実行する前および後の少なくとも一方の画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力する、
三次元計測方法。
It ’s a three-dimensional measurement method.
Irradiate the object with a sine and cosine pattern light multiple times while shifting the phase.
The reflected light reflected by the object is photographed,
Generate a phase image from the captured image using the phase shift method,
At least one of the images before and after performing the phase shift method is input to the CNN trained to generate an image with reduced effects of specular reflection components.
Three-dimensional measurement method.
JP2020198307A 2020-11-30 2020-11-30 Three-dimensional measurement system and three-dimensional measurement method Active JP7544342B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020198307A JP7544342B2 (en) 2020-11-30 2020-11-30 Three-dimensional measurement system and three-dimensional measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020198307A JP7544342B2 (en) 2020-11-30 2020-11-30 Three-dimensional measurement system and three-dimensional measurement method

Publications (2)

Publication Number Publication Date
JP2022086354A true JP2022086354A (en) 2022-06-09
JP7544342B2 JP7544342B2 (en) 2024-09-03

Family

ID=81893950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020198307A Active JP7544342B2 (en) 2020-11-30 2020-11-30 Three-dimensional measurement system and three-dimensional measurement method

Country Status (1)

Country Link
JP (1) JP7544342B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7186019B2 (en) 2017-06-20 2022-12-08 株式会社ミツトヨ Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2019074777A (en) 2017-10-12 2019-05-16 キヤノン株式会社 Image processing method, image processing apparatus, and imaging apparatus
JP6888580B2 (en) 2018-04-05 2021-06-16 オムロン株式会社 Information processing equipment, information processing methods, and programs
CA3117946A1 (en) 2018-11-07 2020-05-14 Spectrum Optix Inc. Bright spot removal using a neural network

Also Published As

Publication number Publication date
JP7544342B2 (en) 2024-09-03

Similar Documents

Publication Publication Date Title
CN111127422B (en) Image labeling method, device, system and host
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
CN103649674B (en) Measuring equipment and messaging device
JP5029618B2 (en) Three-dimensional shape measuring apparatus, method and program by pattern projection method
CN106408556B (en) A Calibration Method for Small Object Measurement System Based on General Imaging Model
JP6092530B2 (en) Image processing apparatus and image processing method
TWI489082B (en) Method and system for calibrating laser measuring apparatus
JPWO2021140886A5 (en)
US20150134303A1 (en) Three-dimensional scanning system and method with hole-filling function for point cloud using contact probe
JP2015090298A (en) Information processing apparatus, and information processing method
JP2016186469A (en) Information processing apparatus, information processing method, and program
US20190255706A1 (en) Simulation device that simulates operation of robot
US10277884B2 (en) Method and apparatus for acquiring three-dimensional image, and computer readable recording medium
Din et al. Projector calibration for pattern projection systems
Cajal et al. Simulation of laser triangulation sensors scanning for design and evaluation purposes
JP5757156B2 (en) Method, apparatus and program for calculating center position of detection object
JP6696230B2 (en) Stereo calibration device and stereo calibration method for line sensor camera
CN116758160A (en) Position and orientation detection method and assembly method of optical components assembly process based on orthogonal vision system
JP4961405B2 (en) Image data generation apparatus for simulation apparatus
JP2014202567A (en) Position attitude measurement device, control method thereof, and program
JP2015132523A (en) Position/attitude measurement apparatus, position/attitude measurement method, and program
Ricolfe-Viala et al. Optimal conditions for camera calibration using a planar template
JP6822086B2 (en) Simulation equipment, simulation method and simulation program
JP7544342B2 (en) Three-dimensional measurement system and three-dimensional measurement method
Georgiev et al. Investigation possibilities for the use of free software for data processing used for accurate measurement details through photogrammetry

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240813

R150 Certificate of patent or registration of utility model

Ref document number: 7544342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150