[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7544342B2 - Three-dimensional measurement system and three-dimensional measurement method - Google Patents

Three-dimensional measurement system and three-dimensional measurement method Download PDF

Info

Publication number
JP7544342B2
JP7544342B2 JP2020198307A JP2020198307A JP7544342B2 JP 7544342 B2 JP7544342 B2 JP 7544342B2 JP 2020198307 A JP2020198307 A JP 2020198307A JP 2020198307 A JP2020198307 A JP 2020198307A JP 7544342 B2 JP7544342 B2 JP 7544342B2
Authority
JP
Japan
Prior art keywords
image
phase
phase image
specular reflection
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020198307A
Other languages
Japanese (ja)
Other versions
JP2022086354A (en
Inventor
一弘 小菅
翔悟 荒井
幸平 芳住
大輔 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
MinebeaMitsumi Inc
Original Assignee
Tohoku University NUC
MinebeaMitsumi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, MinebeaMitsumi Inc filed Critical Tohoku University NUC
Priority to JP2020198307A priority Critical patent/JP7544342B2/en
Publication of JP2022086354A publication Critical patent/JP2022086354A/en
Application granted granted Critical
Publication of JP7544342B2 publication Critical patent/JP7544342B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、光沢面を有する対象物の三次元計測システムおよび三次元計測方法に関するものである。 The present invention relates to a three-dimensional measurement system and a three-dimensional measurement method for an object having a glossy surface.

三次元計測技術は、例えば、工場の製造ラインにおいて、ロボットハンドで対象物であるワークを把持する際、ワーク位置を認識するために用いられる。三次元計測技術として、例えば、プロジェクタからワークに対してパターン画像を投影し、カメラによりワークからの反射光を撮影して解析する方法が知られている。 Three-dimensional measurement technology is used, for example, in factory production lines to recognize the position of a workpiece when the target workpiece is grasped by a robot hand. One known three-dimensional measurement technology is to project a pattern image onto the workpiece from a projector and then capture and analyze the reflected light from the workpiece with a camera.

特許文献1には、複数種類の符号化パターン画像からなる符号化パターン画像列を順に投影する投影部と、投影部にて符号化パターン画像が投影される対象物を順に撮像して、複数の撮影画像からなる撮影画像列を取得する撮像部と、符号化パターン画像列および撮影画像列を用いて、相互反射に対応した復号化を行う復号化部と、復号化部における復号化の結果および投影部と撮像部との幾何的関係を用いて、符号化パターン画像と撮影画像との対応付けを行うことで対象物の三次元形状を計測する計測部と、を備えた三次元形状計測システムが開示されている。 Patent Document 1 discloses a three-dimensional shape measurement system that includes a projection unit that sequentially projects a sequence of coded pattern images consisting of multiple types of coded pattern images, an imaging unit that sequentially images an object onto which the coded pattern images are projected by the projection unit to obtain a sequence of captured images consisting of multiple captured images, a decoding unit that performs decoding corresponding to interreflection using the coded pattern image sequence and the captured image sequence, and a measurement unit that measures the three-dimensional shape of the object by associating the coded pattern images with the captured images using the results of the decoding in the decoding unit and the geometric relationship between the projection unit and the imaging unit.

特開2020-020640号公報JP 2020-020640 A

しかしながら、光沢面を有する金属等の鏡面反射の割合が大きい対象物において、位相シフト法等のアクティブ三次元計測方法を用いる場合、計測精度が悪化する、または、計測が不可能になることが知られている。 However, when using active 3D measurement methods such as the phase shift method on objects with a high proportion of specular reflection, such as metals with shiny surfaces, it is known that the measurement accuracy deteriorates or measurement becomes impossible.

そこで、本発明では、光沢面を有する対象物について高精度に三次元計測可能なシステムおよび方法を提供することを目的とする。 Therefore, the present invention aims to provide a system and method capable of performing highly accurate three-dimensional measurements of objects with glossy surfaces.

本発明の三次元計測システムは、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射する投影部と、
前記対象物で反射された反射光を撮影する撮像部と、
位相シフト法を用いて撮影画像から位相画像を生成する計測処理部と、
を有し、
前記計測処理部は、前記計測処理部が位相シフト法を実行する前および後の少なくとも一方の画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力する。
The three-dimensional measurement system of the present invention comprises:
a projection unit that projects a sinusoidal pattern light onto an object multiple times while shifting the phase of the light;
An imaging unit that captures light reflected by the object;
a measurement processing unit that generates a phase image from the captured image by using a phase shift method;
having
The measurement processing unit inputs at least one of images taken before and after the measurement processing unit performs the phase shift method to a CNN that has been trained to generate an image in which the influence of specular reflection components is reduced.

本発明の三次元計測システムでは、前記計測処理部は、前記位相画像および前記位相画像をCNNで処理した画像の一方からエピポーラ拘束条件を利用してさらなる位相画像を生成することが好ましい。 In the three-dimensional measurement system of the present invention, it is preferable that the measurement processing unit generates a further phase image from either the phase image or an image obtained by processing the phase image using a CNN, using an epipolar constraint condition.

本発明の三次元計測システムでは、前記計測処理部は、
位相シフト法を用いて撮影画像から位相画像を生成し、
前記位相画像をCNNに入力して、鏡面反射成分の影響を低減した位相画像を生成し、
鏡面反射成分の影響を低減した前記位相画像からエピポーラ拘束条件を利用してさらなる位相画像を生成し、
前記さらなる位相画像から三角測量の原理を用いて三次元点群を生成することが好ましい。
In the three-dimensional measurement system of the present invention, the measurement processing unit is
A phase image is generated from the captured image using a phase shift method;
The phase image is input to a CNN to generate a phase image in which the influence of the specular reflection component is reduced;
generating a further phase image from the phase image in which the influence of the specular reflection component has been reduced, utilizing an epipolar constraint condition;
A three-dimensional point cloud is preferably generated from said further phase images using the principles of triangulation.

本発明の三次元計測方法では、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射し、
前記対象物で反射された反射光を撮影し、
位相シフト法を用いて撮影画像から位相画像を生成し、
位相シフト法を実行する前および後の少なくとも一方の画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力する。
In the three-dimensional measurement method of the present invention,
A sinusoidal pattern of light is irradiated onto the target multiple times while shifting the phase.
Photographing the light reflected by the object;
A phase image is generated from the captured image using a phase shift method;
At least one of the images before and after the phase shifting method is applied is input to a CNN trained to generate images with reduced influence of the specular reflection component.

本発明により、光沢面を有する対象物について高精度に三次元計測可能なシステムおよび方法を提供することができる。 The present invention provides a system and method capable of performing highly accurate three-dimensional measurements of objects with glossy surfaces.

本発明の一実施形態による三次元計測システムの構成を示す図である。1 is a diagram showing a configuration of a three-dimensional measurement system according to an embodiment of the present invention. 本発明の一実施形態による三次元計測方法のフローを示す図である。FIG. 2 is a diagram showing a flow of a three-dimensional measurement method according to an embodiment of the present invention. 互いに位相シフトされた正弦波状のパターン光を示す。1 shows sinusoidal light patterns that are phase shifted relative to one another. 本発明の一実施形態において構築したCNNを示す。1 shows a CNN constructed in one embodiment of the present invention. エピポーラ拘束による修正を説明するための図である。FIG. 13 is a diagram for explaining correction by epipolar constraint. 本発明の変形実施形態による三次元計測方法のフローを示す図である。FIG. 11 is a diagram showing the flow of a three-dimensional measuring method according to a modified embodiment of the present invention. 本実施例において、CNNの学習データを生成するためのシミュレータによって生成された2つのシーンを示す。In this embodiment, two scenes are shown that are generated by a simulator for generating training data for a CNN. (a)はばら積みにした対象物の画像を示し、(b)は本実施例により得られた三次元点群の画像を示す。1A shows an image of a bulk pile of objects, and FIG. 1B shows an image of a three-dimensional point cloud obtained by this embodiment.

図1は、本発明の一実施形態による三次元計測システムの構成を示す図である。
三次元計測システム10は、プロジェクタである投影部1と、カメラである撮像部2と、コンピュータである計測処理部3と、を有する。
投影部1は、正弦波状のパターン光を、位相シフトしながら対象物4に対して複数回照射する。撮像部2は、対象物4で反射された反射光を撮影する。
FIG. 1 is a diagram showing the configuration of a three-dimensional measurement system according to an embodiment of the present invention.
The three-dimensional measurement system 10 has a projection unit 1 which is a projector, an imaging unit 2 which is a camera, and a measurement processing unit 3 which is a computer.
The projection unit 1 projects a sinusoidal pattern light onto the object 4 multiple times while shifting the phase of the light. The imaging unit 2 captures an image of the light reflected by the object 4.

図2は、本発明の一実施形態による三次元計測方法のフローを示す図である。
ステップS1において、計測処理部3は、位相シフト法を用いて撮影画像から位相画像Aを生成する。
ステップS2において、計測処理部3は、位相画像AをCNN(畳み込みニューラルネットワーク)に入力することで、鏡面反射成分の影響を低減した位相画像Bを生成する。
ステップS3において、計測処理部3は、位相画像Bからエピポーラ拘束条件を利用して位相画像Cを生成する。なお、このステップS3は、オプションであり、省略することができる。
ステップS4において、計測処理部3は、位相画像Cから三角測量の原理を用いて三次元点群を生成する。
FIG. 2 is a diagram showing a flow of a three-dimensional measuring method according to an embodiment of the present invention.
In step S1, the measurement processing unit 3 generates a phase image A from a captured image using a phase shift method.
In step S2, the measurement processing unit 3 inputs the phase image A to a CNN (convolutional neural network) to generate a phase image B in which the influence of the specular reflection component is reduced.
In step S3, the measurement processing unit 3 uses the epipolar constraint condition to generate a phase image C from the phase image B. Note that this step S3 is optional and can be omitted.
In step S4, the measurement processing unit 3 generates a three-dimensional point group from the phase image C using the principle of triangulation.

第1に、位相シフト法について説明する。
図3(a)~(d)は、互いに位相シフトされた正弦波状のパターン光を示す。
投影部1は、図3に示すような位相シフトされた複数の正弦波状のパターン光を対象物4に対して照射する。位相シフト法では、パターン光の数が多いほど、計測精度が向上するが、計算量も増加する。それゆえ、本実施形態では、4つのパターン光による4step位相シフト法を用いているが、パターン光は、3つ以上であれば、任意の数とすることができる。
First, the phase shift method will be described.
3(a) to (d) show sinusoidal pattern lights that are phase-shifted from one another.
The projection unit 1 irradiates the target 4 with a plurality of phase-shifted sinusoidal pattern lights as shown in Fig. 3. In the phase shift method, the more the number of pattern lights, the higher the measurement accuracy, but the more the amount of calculation increases. Therefore, in this embodiment, the 4-step phase shift method using four pattern lights is used, but the number of pattern lights can be any number as long as it is three or more.

第2に、CNNについて説明する。
図4は、本発明の一実施形態において構築したCNNを示す。
通常のCNNでは、画像を畳み込む過程で局所情報が失われる。しかし、ばら積みにした対象物の三次元計測では、鏡面反射成分の影響により計測困難な画素の情報をその周囲の局所的な画像特徴から復元する必要がある。したがって、CNNの入力に近い上層で出力される局所的な画像特徴をSkip Connectionにより下層に直接伝達する必要がある。そこで、本実施形態では、Skip Connectionを有しており、画素単位で回帰問題を解くことが可能なUnetをベースとしたCNNを利用する。
このように、計測処理部3において、位相画像Aから鏡面反射成分の影響を低減した位相画像Bを生成するようにCNNをあらかじめ学習させる。
なお、Unetを二段重ねた構造を有するCNNを用いることもできる(後述する図6(c)(d)参照)。この場合、鏡面反射成分の影響をより精度よく低減することができる。
Secondly, we will explain CNN.
FIG. 4 shows a CNN constructed in one embodiment of the present invention.
In a normal CNN, local information is lost in the process of convolving an image. However, in the three-dimensional measurement of a bulk object, it is necessary to restore information on pixels that are difficult to measure due to the influence of specular reflection components from local image features around them. Therefore, it is necessary to directly transmit local image features output in an upper layer close to the input of the CNN to a lower layer by Skip Connection. Therefore, in this embodiment, a CNN based on Unet that has Skip Connection and can solve regression problems on a pixel-by-pixel basis is used.
In this way, in the measurement processing unit 3, the CNN is trained in advance to generate a phase image B from a phase image A in which the influence of the specular reflection component is reduced.
It is also possible to use a CNN having a two-stage structure of Unets (see FIGS. 6(c) and 6(d) described later). In this case, the influence of the specular reflection component can be reduced with higher accuracy.

第3に、エピポーラ拘束について説明する。
図5は、エピポーラ拘束による修正を説明するための図である。
点Oにあるカメラで観測点xを撮影すると、観測点xは、カメラの投影面の点xに投影される。このとき、観測点xと点xの間の点x、x、xは、点Oにあるプロジェクタの投影面のエピポーラ線に投影される。
このように、プロジェクタ・カメラシステムでは、任意のカメラ画素に対応するプロジェクタ画素は、対応するエピポーラ線上に存在するという条件があり、このエピポーラ線を、外部パラメータおよび内部パラメータを使って事前に計算することができる。
エピポーラ線から外れる点(位相)があった場合、計測処理部3は、当該点からエピポーラ線上に垂線を下ろし、当該垂線とエピポーラ線との交点を正しい点として修正する。
Thirdly, the epipolar constraint will be described.
FIG. 5 is a diagram for explaining correction by epipolar constraint.
When an observation point x is photographed by a camera at point O_L , the observation point x is projected onto the camera's projection plane at point x_L . At this time, points x_1 , x_2 , and x_3 between the observation point x and point x_L are projected onto the epipolar line of the projection plane of the projector at point O_R .
Thus, in a projector-camera system, the projector pixel corresponding to any camera pixel must lie on the corresponding epipolar line, and this epipolar line can be calculated in advance using extrinsic and intrinsic parameters.
If there is a point (phase) that deviates from the epipolar line, the measurement processing unit 3 draws a perpendicular line from that point onto the epipolar line, and modifies the point of intersection of the perpendicular line and the epipolar line as the correct point.

上述した実施形態では、計測処理部3は、位相シフト法、CNNおよびエピポーラ拘束の各ステップをこの順で実行している。最初に位相シフト法を用いて、撮影画像から位相画像Aを生成し、位相画像AをCNNに入力して、鏡面反射成分の影響を低減した位相画像Bを生成することにより、実環境で撮影する画像の枚数を減少することができる。
例えば、CNNの入力データとして、100枚の画像を用いると仮定する。撮影画像をCNNに入力する場合、100枚の画像を撮影しなければならない。一方、最初に位相シフト法を用いて、撮影画像から位相画像を生成し、位相画像をCNNに入力する場合、撮影画像とシミュレーションデータとを組み合わせて位相画像を生成するため、例えば、10枚の画像を撮影すればよくなり(残りの90枚はシミュレーションデータを用いる)、撮影の手間および時間を削減することができる。
ただし、各ステップの順番は上述した実施形態に限定されるものではなく、さまざまな変形が可能であり、以下その変形例を説明する。
In the above-described embodiment, the measurement processing unit 3 executes the steps of the phase shift method, CNN, and epipolar constraint in this order. First, the phase shift method is used to generate a phase image A from a captured image, and the phase image A is input to the CNN to generate a phase image B in which the influence of the specular reflection component is reduced, thereby making it possible to reduce the number of images captured in the real environment.
For example, assume that 100 images are used as input data for CNN. When the captured images are input to CNN, 100 images must be captured. On the other hand, when the phase shift method is first used to generate a phase image from the captured image and input the phase image to CNN, the captured image and simulation data are combined to generate the phase image, so that, for example, 10 images need only be captured (the remaining 90 images use simulation data), and the effort and time required for capturing can be reduced.
However, the order of each step is not limited to that of the above-described embodiment, and various modifications are possible. The following describes such modifications.

図6(a)~(d)は、本発明の変形実施形態による三次元計測方法のフローを示す図である。
図6(a)では、CNNを位相シフト法の前に実行する。すなわち、計測処理部3は、位相シフト法を実行する前の画像である撮影画像を、CNNに入力して、鏡面反射成分の影響を低減した画像を生成した後、位相シフト法を用いて位相画像Aを生成する。
なお、本明細書において、「撮影画像から位相画像を生成する」という表現は、撮影画像から直接位相画像を生成する場合だけでなく、撮影画像を処理した画像(例えば図6(a)のように、撮影画像をCNNにおいて処理した画像)から位相画像を生成する場合も含むものとする。
6(a) to (d) are diagrams showing the flow of a three-dimensional measuring method according to a modified embodiment of the present invention.
6A, the CNN is executed before the phase shift method. That is, the measurement processing unit 3 inputs the captured image, which is the image before the phase shift method is executed, to the CNN to generate an image in which the influence of the specular reflection component is reduced, and then generates a phase image A using the phase shift method.
In this specification, the expression "generating a phase image from a captured image" includes not only the case where a phase image is generated directly from a captured image, but also the case where a phase image is generated from an image obtained by processing the captured image (for example, an image obtained by processing the captured image in a CNN, as in FIG. 6(a)).

図6(b)では、CNNをエピポーラ拘束の後に実行する。すなわち、計測処理部3は、位相シフト法を用いて撮影画像から位相画像Aを生成し、エピポーラ拘束条件を利用して位相画像Bを生成し、位相画像BをCNNに入力して、鏡面反射成分の影響を低減した位相画像Cを生成する。 In FIG. 6(b), CNN is executed after epipolar constraint. That is, the measurement processing unit 3 generates a phase image A from the captured image using the phase shift method, generates a phase image B using the epipolar constraint condition, inputs phase image B to the CNN, and generates a phase image C in which the influence of the specular reflection component is reduced.

図6(c)では、2回のCNNを実行する。すなわち、計測処理部3は、位相画像AをCNNに入力して、鏡面反射成分の影響を低減した位相画像Bを生成し、位相画像BをCNNに入力して、鏡面反射成分の影響をさらに低減した位相画像Cを生成する。 In FIG. 6(c), CNN is executed twice. That is, the measurement processing unit 3 inputs phase image A to the CNN to generate phase image B in which the influence of the specular reflection component is reduced, and inputs phase image B to the CNN to generate phase image C in which the influence of the specular reflection component is further reduced.

図6(d)では、2回のCNNを位相シフト法の前後に実行する。すなわち、計測処理部3は、撮影画像をCNNに入力して、鏡面反射成分の影響を低減した画像を生成し、位相シフト法を用いて位相画像Aを生成し、位相画像AをCNNに入力して、鏡面反射成分の影響を低減した位相画像Bを生成する。 In FIG. 6(d), CNN is executed twice before and after the phase shift method. That is, the measurement processing unit 3 inputs the captured image to the CNN to generate an image in which the influence of the specular reflection component is reduced, generates phase image A using the phase shift method, and inputs phase image A to the CNN to generate phase image B in which the influence of the specular reflection component is reduced.

以下、本発明の実施例を説明する。
本実施例では、図2に示した順で各ステップを実行した。
本実施例で用いたプロジェクタおよびカメラの構成は、以下のとおりである。
プロジェクタ:Panasonic PT-VMZ50J
解像度:1920×1080
有効光束:5000lm
コントラスト:3,000,000:1
カメラ:Baumer VCxU-124
レンズ:VS TECHNOLOGY VS-1614H1N
解像度:800×600
視野範囲:400×300mm
WD:550mm
空間解像度:0.50×0.50mm/pixel
また、プロジェクタとカメラとの間の校正にはZhangの方法を用いた。校正試験結果は、以下のとおりである。

Figure 0007544342000001
Hereinafter, an embodiment of the present invention will be described.
In this embodiment, the steps were performed in the order shown in FIG.
The projector and camera used in this embodiment have the following configurations.
Projector: Panasonic PT-VMZ50J
Resolution: 1920 x 1080
Effective luminous flux: 5000lm
Contrast: 3,000,000:1
Camera: Baumer VCxU-124
Lens: VS TECHNOLOGY VS-1614H1N
Resolution: 800 x 600
Field of view: 400 x 300 mm
Working distance: 550 mm
Spatial resolution: 0.50 x 0.50mm/pixel
In addition, the Zhang method was used for the calibration between the projector and the camera. The calibration test results are as follows:
Figure 0007544342000001

図7(a)(b)は、本実施例において、CNNの学習データを生成するためのシミュレータによって生成された2つのシーンを示す。
シミュレータにはBlenderを利用し、Blenderの設定は、以下のとおりである。
メタリック:1.00
スペキュラー:0.50
粗さ:0.30
拡散反射回数:4
鏡面反射回数:4
レンダー数:1024本/pixel
7(a) and (b) show two scenes generated by a simulator for generating training data for a CNN in this embodiment.
Blender was used as the simulator, and the Blender settings were as follows:
Metallic: 1.00
Specular: 0.50
Roughness: 0.30
Diffuse reflection count: 4
Specular reflection count: 4
Number of renders: 1024/pixel

第1の実験として、位相シフト法、CNNおよびエピポーラ拘束による鏡面反射成分の影響低減をシミュレーションによって確認した。すなわち、位相シフト法により生成された位相画像A、CNNにより生成された位相画像Bおよびエピポーラ拘束により生成された位相画像Cをそれぞれ三次元点群に変換した。
位相画像Aから変換された三次元点群より位相画像Bから変換された三次元点群の方が精度が上昇し、さらに位相画像Cから変換された三次元点群の方が精度が上昇していることが目視で確認できた。
これは、ステップを経るごとに、鏡面反射成分の影響を低減できたことを意味する。
In the first experiment, the reduction of the influence of the specular reflection component by the phase shifting method, CNN, and epipolar constraint was confirmed by simulation. That is, phase image A generated by the phase shifting method, phase image B generated by CNN, and phase image C generated by the epipolar constraint were each converted into a 3D point cloud.
It was visually confirmed that the accuracy of the three-dimensional point cloud converted from phase image B was higher than that of the three-dimensional point cloud converted from phase image A, and that the accuracy of the three-dimensional point cloud converted from phase image C was even higher.
This means that the influence of the specular reflection component can be reduced with each step.

第2の実験として、シミュレーションによる計測精度誤差の評価を実施した。
従来法(本実施例からCNNを取り除いた方法)では、平均が7.21mmであり、標準偏差(σ)が6.39mmであり、3σが19.17mmであった。
本実施例では、平均が0.21mmであり、標準偏差(σ)が0.68mmであり、3σが1.64mmであった。
これにより、本実施例では、従来法と比較して計測精度が大きく向上していることが分かった。
As a second experiment, an evaluation of measurement accuracy error was carried out by simulation.
In the conventional method (a method in which CNN was removed from this example), the average was 7.21 mm, the standard deviation (σ) was 6.39 mm, and 3σ was 19.17 mm.
In this example, the average was 0.21 mm, the standard deviation (σ) was 0.68 mm, and the 3σ was 1.64 mm.
This shows that the measurement accuracy is significantly improved in this embodiment as compared with the conventional method.

第3の実験として、実環境において三次元計測を実施し、計測誤差を求めた。
図8(a)はばら積みにした対象物の画像を示し、図8(b)は本実施例により得られた三次元点群の画像を示す。
作業台上の1つの対象物について、本実施例の方法により三次元点群を取得した。
対象物を1mm、5mm、10mm移動し、各移動後の位置において同様に三次元点群を取得した。
移動前後の三次元点群をコンピュータで読み込み、画像上に表示し、手作業で重ね合わせた。
各三次元点群間の移動量を計算し、その移動量の平均値を計測誤差とした。
この環境における計測誤差は0.4mmであり、本実施例では、計測誤差が小さいことが分かった。
In the third experiment, we performed three-dimensional measurements in a real environment and calculated the measurement error.
FIG. 8(a) shows an image of the bulk object, and FIG. 8(b) shows an image of the 3D point cloud obtained by this example.
A three-dimensional point cloud was acquired for one object on a workbench using the method of this embodiment.
The object was moved by 1 mm, 5 mm, and 10 mm, and a three-dimensional point cloud was similarly acquired at each position after the movement.
The three-dimensional point clouds before and after the movement were read into a computer, displayed on the image, and manually overlaid.
The amount of movement between each group of three-dimensional points was calculated, and the average of the amounts of movement was taken as the measurement error.
The measurement error in this environment was 0.4 mm, and it was found that the measurement error was small in this embodiment.

1…投影部、2…撮像部、3…計測処理部、4…対象物、10…三次元計測システム 1...Projection unit, 2...Imaging unit, 3...Measurement processing unit, 4...Object, 10...3D measurement system

Claims (2)

三次元計測システムであって、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射する投影部と、
前記対象物で反射された反射光を撮影する撮像部と、
位相シフト法を用いて撮影画像から位相画像を生成する計測処理部と、
を有し、
前記計測処理部は、
相シフト法を用いて撮影画像から位相画像を生成し、
前記位相画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力して、鏡面反射成分の影響を低減した位相画像を生成し
鏡面反射成分の影響を低減した前記位相画像からエピポーラ拘束条件を利用してさらなる位相画像を生成し、
前記さらなる位相画像から三角測量の原理を用いて三次元点群を生成する、
三次元計測システム。
1. A three-dimensional measurement system, comprising:
a projection unit that projects a sinusoidal pattern light onto an object multiple times while shifting the phase of the light;
An imaging unit that captures light reflected by the object;
a measurement processing unit that generates a phase image from the captured image by using a phase shift method;
having
The measurement processing unit includes:
A phase image is generated from the captured image using a phase shift method;
The phase image is input to a CNN trained to generate an image with reduced influence of the specular reflection component to generate a phase image with reduced influence of the specular reflection component ;
generating a further phase image from the phase image in which the influence of the specular reflection component has been reduced, utilizing an epipolar constraint condition;
generating a three-dimensional point cloud from said further phase images using the principles of triangulation;
Three-dimensional measuring system.
三次元計測方法であって、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射し、
前記対象物で反射された反射光を撮影し、
位相シフト法を用いて撮影画像から位相画像を生成し、
前記位相画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力して、鏡面反射成分の影響を低減した位相画像を生成し
鏡面反射成分の影響を低減した前記位相画像からエピポーラ拘束条件を利用してさらなる位相画像を生成し、
前記さらなる位相画像から三角測量の原理を用いて三次元点群を生成する、
三次元計測方法。
A three-dimensional measurement method, comprising:
A sinusoidal pattern of light is irradiated onto the target multiple times while shifting the phase.
Photographing the light reflected by the object;
A phase image is generated from the captured image using a phase shift method;
The phase image is input to a CNN trained to generate an image with reduced influence of the specular reflection component to generate a phase image with reduced influence of the specular reflection component ;
generating a further phase image from the phase image in which the influence of the specular reflection component has been reduced, utilizing an epipolar constraint condition;
generating a three-dimensional point cloud from said further phase images using the principles of triangulation;
Three-dimensional measurement methods.
JP2020198307A 2020-11-30 2020-11-30 Three-dimensional measurement system and three-dimensional measurement method Active JP7544342B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020198307A JP7544342B2 (en) 2020-11-30 2020-11-30 Three-dimensional measurement system and three-dimensional measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020198307A JP7544342B2 (en) 2020-11-30 2020-11-30 Three-dimensional measurement system and three-dimensional measurement method

Publications (2)

Publication Number Publication Date
JP2022086354A JP2022086354A (en) 2022-06-09
JP7544342B2 true JP7544342B2 (en) 2024-09-03

Family

ID=81893950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020198307A Active JP7544342B2 (en) 2020-11-30 2020-11-30 Three-dimensional measurement system and three-dimensional measurement method

Country Status (1)

Country Link
JP (1) JP7544342B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074777A (en) 2017-10-12 2019-05-16 キヤノン株式会社 Image processing method, image processing apparatus, and imaging apparatus
JP2019090782A (en) 2017-06-20 2019-06-13 株式会社ミツトヨ Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2019184340A (en) 2018-04-05 2019-10-24 オムロン株式会社 Information processing apparatus, information processing method, and program
WO2020095233A1 (en) 2018-11-07 2020-05-14 Spectrum Optix Inc. Bright spot removal using a neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019090782A (en) 2017-06-20 2019-06-13 株式会社ミツトヨ Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2019074777A (en) 2017-10-12 2019-05-16 キヤノン株式会社 Image processing method, image processing apparatus, and imaging apparatus
JP2019184340A (en) 2018-04-05 2019-10-24 オムロン株式会社 Information processing apparatus, information processing method, and program
WO2020095233A1 (en) 2018-11-07 2020-05-14 Spectrum Optix Inc. Bright spot removal using a neural network

Also Published As

Publication number Publication date
JP2022086354A (en) 2022-06-09

Similar Documents

Publication Publication Date Title
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
GB2564794B (en) Image-stitching for dimensioning
JP5029618B2 (en) Three-dimensional shape measuring apparatus, method and program by pattern projection method
JP5576726B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and program
TWI489082B (en) Method and system for calibrating laser measuring apparatus
JP6092530B2 (en) Image processing apparatus and image processing method
CN103366360B (en) Information processing apparatus and information processing method
JP6596433B2 (en) Structured optical matching of a set of curves from two cameras
JP6282098B2 (en) Calibration apparatus and method
US11446822B2 (en) Simulation device that simulates operation of robot
JP2016186469A (en) Information processing apparatus, information processing method, and program
JP7088530B2 (en) 3D method and device for projecting measurement result-related information on the surface of an object to be measured
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
Cajal et al. Simulation of laser triangulation sensors scanning for design and evaluation purposes
JP6645140B2 (en) Image calibration apparatus and calibration method
Wang et al. Highly reflective surface measurement based on dual stereo monocular structured light system fusion
KR20130075712A (en) A laser-vision sensor and calibration method thereof
JP7544342B2 (en) Three-dimensional measurement system and three-dimensional measurement method
JP4006296B2 (en) Displacement measuring method and displacement measuring apparatus by photogrammetry
KR101634283B1 (en) The apparatus and method of 3d modeling by 3d camera calibration
CN116758160B (en) Method for detecting pose of optical element assembly process based on orthogonal vision system and assembly method
Georgiev et al. Investigation possibilities for the use of free software for data processing used for accurate measurement details through photogrammetry
JP6822086B2 (en) Simulation equipment, simulation method and simulation program
CN118119972A (en) Method and system for generating a camera model for camera calibration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240813

R150 Certificate of patent or registration of utility model

Ref document number: 7544342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150