JP7544342B2 - Three-dimensional measurement system and three-dimensional measurement method - Google Patents
Three-dimensional measurement system and three-dimensional measurement method Download PDFInfo
- Publication number
- JP7544342B2 JP7544342B2 JP2020198307A JP2020198307A JP7544342B2 JP 7544342 B2 JP7544342 B2 JP 7544342B2 JP 2020198307 A JP2020198307 A JP 2020198307A JP 2020198307 A JP2020198307 A JP 2020198307A JP 7544342 B2 JP7544342 B2 JP 7544342B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- phase
- phase image
- specular reflection
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 title claims description 47
- 238000000691 measurement method Methods 0.000 title claims description 7
- 238000000034 method Methods 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 23
- 230000010363 phase shift Effects 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 8
- 238000004088 simulation Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、光沢面を有する対象物の三次元計測システムおよび三次元計測方法に関するものである。 The present invention relates to a three-dimensional measurement system and a three-dimensional measurement method for an object having a glossy surface.
三次元計測技術は、例えば、工場の製造ラインにおいて、ロボットハンドで対象物であるワークを把持する際、ワーク位置を認識するために用いられる。三次元計測技術として、例えば、プロジェクタからワークに対してパターン画像を投影し、カメラによりワークからの反射光を撮影して解析する方法が知られている。 Three-dimensional measurement technology is used, for example, in factory production lines to recognize the position of a workpiece when the target workpiece is grasped by a robot hand. One known three-dimensional measurement technology is to project a pattern image onto the workpiece from a projector and then capture and analyze the reflected light from the workpiece with a camera.
特許文献1には、複数種類の符号化パターン画像からなる符号化パターン画像列を順に投影する投影部と、投影部にて符号化パターン画像が投影される対象物を順に撮像して、複数の撮影画像からなる撮影画像列を取得する撮像部と、符号化パターン画像列および撮影画像列を用いて、相互反射に対応した復号化を行う復号化部と、復号化部における復号化の結果および投影部と撮像部との幾何的関係を用いて、符号化パターン画像と撮影画像との対応付けを行うことで対象物の三次元形状を計測する計測部と、を備えた三次元形状計測システムが開示されている。
しかしながら、光沢面を有する金属等の鏡面反射の割合が大きい対象物において、位相シフト法等のアクティブ三次元計測方法を用いる場合、計測精度が悪化する、または、計測が不可能になることが知られている。 However, when using active 3D measurement methods such as the phase shift method on objects with a high proportion of specular reflection, such as metals with shiny surfaces, it is known that the measurement accuracy deteriorates or measurement becomes impossible.
そこで、本発明では、光沢面を有する対象物について高精度に三次元計測可能なシステムおよび方法を提供することを目的とする。 Therefore, the present invention aims to provide a system and method capable of performing highly accurate three-dimensional measurements of objects with glossy surfaces.
本発明の三次元計測システムは、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射する投影部と、
前記対象物で反射された反射光を撮影する撮像部と、
位相シフト法を用いて撮影画像から位相画像を生成する計測処理部と、
を有し、
前記計測処理部は、前記計測処理部が位相シフト法を実行する前および後の少なくとも一方の画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力する。
The three-dimensional measurement system of the present invention comprises:
a projection unit that projects a sinusoidal pattern light onto an object multiple times while shifting the phase of the light;
An imaging unit that captures light reflected by the object;
a measurement processing unit that generates a phase image from the captured image by using a phase shift method;
having
The measurement processing unit inputs at least one of images taken before and after the measurement processing unit performs the phase shift method to a CNN that has been trained to generate an image in which the influence of specular reflection components is reduced.
本発明の三次元計測システムでは、前記計測処理部は、前記位相画像および前記位相画像をCNNで処理した画像の一方からエピポーラ拘束条件を利用してさらなる位相画像を生成することが好ましい。 In the three-dimensional measurement system of the present invention, it is preferable that the measurement processing unit generates a further phase image from either the phase image or an image obtained by processing the phase image using a CNN, using an epipolar constraint condition.
本発明の三次元計測システムでは、前記計測処理部は、
位相シフト法を用いて撮影画像から位相画像を生成し、
前記位相画像をCNNに入力して、鏡面反射成分の影響を低減した位相画像を生成し、
鏡面反射成分の影響を低減した前記位相画像からエピポーラ拘束条件を利用してさらなる位相画像を生成し、
前記さらなる位相画像から三角測量の原理を用いて三次元点群を生成することが好ましい。
In the three-dimensional measurement system of the present invention, the measurement processing unit is
A phase image is generated from the captured image using a phase shift method;
The phase image is input to a CNN to generate a phase image in which the influence of the specular reflection component is reduced;
generating a further phase image from the phase image in which the influence of the specular reflection component has been reduced, utilizing an epipolar constraint condition;
A three-dimensional point cloud is preferably generated from said further phase images using the principles of triangulation.
本発明の三次元計測方法では、
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射し、
前記対象物で反射された反射光を撮影し、
位相シフト法を用いて撮影画像から位相画像を生成し、
位相シフト法を実行する前および後の少なくとも一方の画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力する。
In the three-dimensional measurement method of the present invention,
A sinusoidal pattern of light is irradiated onto the target multiple times while shifting the phase.
Photographing the light reflected by the object;
A phase image is generated from the captured image using a phase shift method;
At least one of the images before and after the phase shifting method is applied is input to a CNN trained to generate images with reduced influence of the specular reflection component.
本発明により、光沢面を有する対象物について高精度に三次元計測可能なシステムおよび方法を提供することができる。 The present invention provides a system and method capable of performing highly accurate three-dimensional measurements of objects with glossy surfaces.
図1は、本発明の一実施形態による三次元計測システムの構成を示す図である。
三次元計測システム10は、プロジェクタである投影部1と、カメラである撮像部2と、コンピュータである計測処理部3と、を有する。
投影部1は、正弦波状のパターン光を、位相シフトしながら対象物4に対して複数回照射する。撮像部2は、対象物4で反射された反射光を撮影する。
FIG. 1 is a diagram showing the configuration of a three-dimensional measurement system according to an embodiment of the present invention.
The three-
The
図2は、本発明の一実施形態による三次元計測方法のフローを示す図である。
ステップS1において、計測処理部3は、位相シフト法を用いて撮影画像から位相画像Aを生成する。
ステップS2において、計測処理部3は、位相画像AをCNN(畳み込みニューラルネットワーク)に入力することで、鏡面反射成分の影響を低減した位相画像Bを生成する。
ステップS3において、計測処理部3は、位相画像Bからエピポーラ拘束条件を利用して位相画像Cを生成する。なお、このステップS3は、オプションであり、省略することができる。
ステップS4において、計測処理部3は、位相画像Cから三角測量の原理を用いて三次元点群を生成する。
FIG. 2 is a diagram showing a flow of a three-dimensional measuring method according to an embodiment of the present invention.
In step S1, the
In step S2, the
In step S3, the
In step S4, the
第1に、位相シフト法について説明する。
図3(a)~(d)は、互いに位相シフトされた正弦波状のパターン光を示す。
投影部1は、図3に示すような位相シフトされた複数の正弦波状のパターン光を対象物4に対して照射する。位相シフト法では、パターン光の数が多いほど、計測精度が向上するが、計算量も増加する。それゆえ、本実施形態では、4つのパターン光による4step位相シフト法を用いているが、パターン光は、3つ以上であれば、任意の数とすることができる。
First, the phase shift method will be described.
3(a) to (d) show sinusoidal pattern lights that are phase-shifted from one another.
The
第2に、CNNについて説明する。
図4は、本発明の一実施形態において構築したCNNを示す。
通常のCNNでは、画像を畳み込む過程で局所情報が失われる。しかし、ばら積みにした対象物の三次元計測では、鏡面反射成分の影響により計測困難な画素の情報をその周囲の局所的な画像特徴から復元する必要がある。したがって、CNNの入力に近い上層で出力される局所的な画像特徴をSkip Connectionにより下層に直接伝達する必要がある。そこで、本実施形態では、Skip Connectionを有しており、画素単位で回帰問題を解くことが可能なUnetをベースとしたCNNを利用する。
このように、計測処理部3において、位相画像Aから鏡面反射成分の影響を低減した位相画像Bを生成するようにCNNをあらかじめ学習させる。
なお、Unetを二段重ねた構造を有するCNNを用いることもできる(後述する図6(c)(d)参照)。この場合、鏡面反射成分の影響をより精度よく低減することができる。
Secondly, we will explain CNN.
FIG. 4 shows a CNN constructed in one embodiment of the present invention.
In a normal CNN, local information is lost in the process of convolving an image. However, in the three-dimensional measurement of a bulk object, it is necessary to restore information on pixels that are difficult to measure due to the influence of specular reflection components from local image features around them. Therefore, it is necessary to directly transmit local image features output in an upper layer close to the input of the CNN to a lower layer by Skip Connection. Therefore, in this embodiment, a CNN based on Unet that has Skip Connection and can solve regression problems on a pixel-by-pixel basis is used.
In this way, in the
It is also possible to use a CNN having a two-stage structure of Unets (see FIGS. 6(c) and 6(d) described later). In this case, the influence of the specular reflection component can be reduced with higher accuracy.
第3に、エピポーラ拘束について説明する。
図5は、エピポーラ拘束による修正を説明するための図である。
点OLにあるカメラで観測点xを撮影すると、観測点xは、カメラの投影面の点xLに投影される。このとき、観測点xと点xLの間の点x1、x2、x3は、点ORにあるプロジェクタの投影面のエピポーラ線に投影される。
このように、プロジェクタ・カメラシステムでは、任意のカメラ画素に対応するプロジェクタ画素は、対応するエピポーラ線上に存在するという条件があり、このエピポーラ線を、外部パラメータおよび内部パラメータを使って事前に計算することができる。
エピポーラ線から外れる点(位相)があった場合、計測処理部3は、当該点からエピポーラ線上に垂線を下ろし、当該垂線とエピポーラ線との交点を正しい点として修正する。
Thirdly, the epipolar constraint will be described.
FIG. 5 is a diagram for explaining correction by epipolar constraint.
When an observation point x is photographed by a camera at point O_L , the observation point x is projected onto the camera's projection plane at point x_L . At this time, points x_1 , x_2 , and x_3 between the observation point x and point x_L are projected onto the epipolar line of the projection plane of the projector at point O_R .
Thus, in a projector-camera system, the projector pixel corresponding to any camera pixel must lie on the corresponding epipolar line, and this epipolar line can be calculated in advance using extrinsic and intrinsic parameters.
If there is a point (phase) that deviates from the epipolar line, the
上述した実施形態では、計測処理部3は、位相シフト法、CNNおよびエピポーラ拘束の各ステップをこの順で実行している。最初に位相シフト法を用いて、撮影画像から位相画像Aを生成し、位相画像AをCNNに入力して、鏡面反射成分の影響を低減した位相画像Bを生成することにより、実環境で撮影する画像の枚数を減少することができる。
例えば、CNNの入力データとして、100枚の画像を用いると仮定する。撮影画像をCNNに入力する場合、100枚の画像を撮影しなければならない。一方、最初に位相シフト法を用いて、撮影画像から位相画像を生成し、位相画像をCNNに入力する場合、撮影画像とシミュレーションデータとを組み合わせて位相画像を生成するため、例えば、10枚の画像を撮影すればよくなり(残りの90枚はシミュレーションデータを用いる)、撮影の手間および時間を削減することができる。
ただし、各ステップの順番は上述した実施形態に限定されるものではなく、さまざまな変形が可能であり、以下その変形例を説明する。
In the above-described embodiment, the
For example, assume that 100 images are used as input data for CNN. When the captured images are input to CNN, 100 images must be captured. On the other hand, when the phase shift method is first used to generate a phase image from the captured image and input the phase image to CNN, the captured image and simulation data are combined to generate the phase image, so that, for example, 10 images need only be captured (the remaining 90 images use simulation data), and the effort and time required for capturing can be reduced.
However, the order of each step is not limited to that of the above-described embodiment, and various modifications are possible. The following describes such modifications.
図6(a)~(d)は、本発明の変形実施形態による三次元計測方法のフローを示す図である。
図6(a)では、CNNを位相シフト法の前に実行する。すなわち、計測処理部3は、位相シフト法を実行する前の画像である撮影画像を、CNNに入力して、鏡面反射成分の影響を低減した画像を生成した後、位相シフト法を用いて位相画像Aを生成する。
なお、本明細書において、「撮影画像から位相画像を生成する」という表現は、撮影画像から直接位相画像を生成する場合だけでなく、撮影画像を処理した画像(例えば図6(a)のように、撮影画像をCNNにおいて処理した画像)から位相画像を生成する場合も含むものとする。
6(a) to (d) are diagrams showing the flow of a three-dimensional measuring method according to a modified embodiment of the present invention.
6A, the CNN is executed before the phase shift method. That is, the
In this specification, the expression "generating a phase image from a captured image" includes not only the case where a phase image is generated directly from a captured image, but also the case where a phase image is generated from an image obtained by processing the captured image (for example, an image obtained by processing the captured image in a CNN, as in FIG. 6(a)).
図6(b)では、CNNをエピポーラ拘束の後に実行する。すなわち、計測処理部3は、位相シフト法を用いて撮影画像から位相画像Aを生成し、エピポーラ拘束条件を利用して位相画像Bを生成し、位相画像BをCNNに入力して、鏡面反射成分の影響を低減した位相画像Cを生成する。
In FIG. 6(b), CNN is executed after epipolar constraint. That is, the
図6(c)では、2回のCNNを実行する。すなわち、計測処理部3は、位相画像AをCNNに入力して、鏡面反射成分の影響を低減した位相画像Bを生成し、位相画像BをCNNに入力して、鏡面反射成分の影響をさらに低減した位相画像Cを生成する。
In FIG. 6(c), CNN is executed twice. That is, the
図6(d)では、2回のCNNを位相シフト法の前後に実行する。すなわち、計測処理部3は、撮影画像をCNNに入力して、鏡面反射成分の影響を低減した画像を生成し、位相シフト法を用いて位相画像Aを生成し、位相画像AをCNNに入力して、鏡面反射成分の影響を低減した位相画像Bを生成する。
In FIG. 6(d), CNN is executed twice before and after the phase shift method. That is, the
以下、本発明の実施例を説明する。
本実施例では、図2に示した順で各ステップを実行した。
本実施例で用いたプロジェクタおよびカメラの構成は、以下のとおりである。
プロジェクタ:Panasonic PT-VMZ50J
解像度:1920×1080
有効光束:5000lm
コントラスト:3,000,000:1
カメラ:Baumer VCxU-124
レンズ:VS TECHNOLOGY VS-1614H1N
解像度:800×600
視野範囲:400×300mm
WD:550mm
空間解像度:0.50×0.50mm/pixel
また、プロジェクタとカメラとの間の校正にはZhangの方法を用いた。校正試験結果は、以下のとおりである。
In this embodiment, the steps were performed in the order shown in FIG.
The projector and camera used in this embodiment have the following configurations.
Projector: Panasonic PT-VMZ50J
Resolution: 1920 x 1080
Effective luminous flux: 5000lm
Contrast: 3,000,000:1
Camera: Baumer VCxU-124
Lens: VS TECHNOLOGY VS-1614H1N
Resolution: 800 x 600
Field of view: 400 x 300 mm
Working distance: 550 mm
Spatial resolution: 0.50 x 0.50mm/pixel
In addition, the Zhang method was used for the calibration between the projector and the camera. The calibration test results are as follows:
図7(a)(b)は、本実施例において、CNNの学習データを生成するためのシミュレータによって生成された2つのシーンを示す。
シミュレータにはBlenderを利用し、Blenderの設定は、以下のとおりである。
メタリック:1.00
スペキュラー:0.50
粗さ:0.30
拡散反射回数:4
鏡面反射回数:4
レンダー数:1024本/pixel
7(a) and (b) show two scenes generated by a simulator for generating training data for a CNN in this embodiment.
Blender was used as the simulator, and the Blender settings were as follows:
Metallic: 1.00
Specular: 0.50
Roughness: 0.30
Diffuse reflection count: 4
Specular reflection count: 4
Number of renders: 1024/pixel
第1の実験として、位相シフト法、CNNおよびエピポーラ拘束による鏡面反射成分の影響低減をシミュレーションによって確認した。すなわち、位相シフト法により生成された位相画像A、CNNにより生成された位相画像Bおよびエピポーラ拘束により生成された位相画像Cをそれぞれ三次元点群に変換した。
位相画像Aから変換された三次元点群より位相画像Bから変換された三次元点群の方が精度が上昇し、さらに位相画像Cから変換された三次元点群の方が精度が上昇していることが目視で確認できた。
これは、ステップを経るごとに、鏡面反射成分の影響を低減できたことを意味する。
In the first experiment, the reduction of the influence of the specular reflection component by the phase shifting method, CNN, and epipolar constraint was confirmed by simulation. That is, phase image A generated by the phase shifting method, phase image B generated by CNN, and phase image C generated by the epipolar constraint were each converted into a 3D point cloud.
It was visually confirmed that the accuracy of the three-dimensional point cloud converted from phase image B was higher than that of the three-dimensional point cloud converted from phase image A, and that the accuracy of the three-dimensional point cloud converted from phase image C was even higher.
This means that the influence of the specular reflection component can be reduced with each step.
第2の実験として、シミュレーションによる計測精度誤差の評価を実施した。
従来法(本実施例からCNNを取り除いた方法)では、平均が7.21mmであり、標準偏差(σ)が6.39mmであり、3σが19.17mmであった。
本実施例では、平均が0.21mmであり、標準偏差(σ)が0.68mmであり、3σが1.64mmであった。
これにより、本実施例では、従来法と比較して計測精度が大きく向上していることが分かった。
As a second experiment, an evaluation of measurement accuracy error was carried out by simulation.
In the conventional method (a method in which CNN was removed from this example), the average was 7.21 mm, the standard deviation (σ) was 6.39 mm, and 3σ was 19.17 mm.
In this example, the average was 0.21 mm, the standard deviation (σ) was 0.68 mm, and the 3σ was 1.64 mm.
This shows that the measurement accuracy is significantly improved in this embodiment as compared with the conventional method.
第3の実験として、実環境において三次元計測を実施し、計測誤差を求めた。
図8(a)はばら積みにした対象物の画像を示し、図8(b)は本実施例により得られた三次元点群の画像を示す。
作業台上の1つの対象物について、本実施例の方法により三次元点群を取得した。
対象物を1mm、5mm、10mm移動し、各移動後の位置において同様に三次元点群を取得した。
移動前後の三次元点群をコンピュータで読み込み、画像上に表示し、手作業で重ね合わせた。
各三次元点群間の移動量を計算し、その移動量の平均値を計測誤差とした。
この環境における計測誤差は0.4mmであり、本実施例では、計測誤差が小さいことが分かった。
In the third experiment, we performed three-dimensional measurements in a real environment and calculated the measurement error.
FIG. 8(a) shows an image of the bulk object, and FIG. 8(b) shows an image of the 3D point cloud obtained by this example.
A three-dimensional point cloud was acquired for one object on a workbench using the method of this embodiment.
The object was moved by 1 mm, 5 mm, and 10 mm, and a three-dimensional point cloud was similarly acquired at each position after the movement.
The three-dimensional point clouds before and after the movement were read into a computer, displayed on the image, and manually overlaid.
The amount of movement between each group of three-dimensional points was calculated, and the average of the amounts of movement was taken as the measurement error.
The measurement error in this environment was 0.4 mm, and it was found that the measurement error was small in this embodiment.
1…投影部、2…撮像部、3…計測処理部、4…対象物、10…三次元計測システム 1...Projection unit, 2...Imaging unit, 3...Measurement processing unit, 4...Object, 10...3D measurement system
Claims (2)
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射する投影部と、
前記対象物で反射された反射光を撮影する撮像部と、
位相シフト法を用いて撮影画像から位相画像を生成する計測処理部と、
を有し、
前記計測処理部は、
位相シフト法を用いて撮影画像から位相画像を生成し、
前記位相画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力して、鏡面反射成分の影響を低減した位相画像を生成し、
鏡面反射成分の影響を低減した前記位相画像からエピポーラ拘束条件を利用してさらなる位相画像を生成し、
前記さらなる位相画像から三角測量の原理を用いて三次元点群を生成する、
三次元計測システム。 1. A three-dimensional measurement system, comprising:
a projection unit that projects a sinusoidal pattern light onto an object multiple times while shifting the phase of the light;
An imaging unit that captures light reflected by the object;
a measurement processing unit that generates a phase image from the captured image by using a phase shift method;
having
The measurement processing unit includes:
A phase image is generated from the captured image using a phase shift method;
The phase image is input to a CNN trained to generate an image with reduced influence of the specular reflection component to generate a phase image with reduced influence of the specular reflection component ;
generating a further phase image from the phase image in which the influence of the specular reflection component has been reduced, utilizing an epipolar constraint condition;
generating a three-dimensional point cloud from said further phase images using the principles of triangulation;
Three-dimensional measuring system.
正弦波状のパターン光を、位相シフトしながら対象物に対して複数回照射し、
前記対象物で反射された反射光を撮影し、
位相シフト法を用いて撮影画像から位相画像を生成し、
前記位相画像を、鏡面反射成分の影響を低減した画像を生成するように学習したCNNに入力して、鏡面反射成分の影響を低減した位相画像を生成し、
鏡面反射成分の影響を低減した前記位相画像からエピポーラ拘束条件を利用してさらなる位相画像を生成し、
前記さらなる位相画像から三角測量の原理を用いて三次元点群を生成する、
三次元計測方法。 A three-dimensional measurement method, comprising:
A sinusoidal pattern of light is irradiated onto the target multiple times while shifting the phase.
Photographing the light reflected by the object;
A phase image is generated from the captured image using a phase shift method;
The phase image is input to a CNN trained to generate an image with reduced influence of the specular reflection component to generate a phase image with reduced influence of the specular reflection component ;
generating a further phase image from the phase image in which the influence of the specular reflection component has been reduced, utilizing an epipolar constraint condition;
generating a three-dimensional point cloud from said further phase images using the principles of triangulation;
Three-dimensional measurement methods.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020198307A JP7544342B2 (en) | 2020-11-30 | 2020-11-30 | Three-dimensional measurement system and three-dimensional measurement method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020198307A JP7544342B2 (en) | 2020-11-30 | 2020-11-30 | Three-dimensional measurement system and three-dimensional measurement method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022086354A JP2022086354A (en) | 2022-06-09 |
JP7544342B2 true JP7544342B2 (en) | 2024-09-03 |
Family
ID=81893950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020198307A Active JP7544342B2 (en) | 2020-11-30 | 2020-11-30 | Three-dimensional measurement system and three-dimensional measurement method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7544342B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019074777A (en) | 2017-10-12 | 2019-05-16 | キヤノン株式会社 | Image processing method, image processing apparatus, and imaging apparatus |
JP2019090782A (en) | 2017-06-20 | 2019-06-13 | 株式会社ミツトヨ | Three-dimensional shape measuring device and three-dimensional shape measuring method |
JP2019184340A (en) | 2018-04-05 | 2019-10-24 | オムロン株式会社 | Information processing apparatus, information processing method, and program |
WO2020095233A1 (en) | 2018-11-07 | 2020-05-14 | Spectrum Optix Inc. | Bright spot removal using a neural network |
-
2020
- 2020-11-30 JP JP2020198307A patent/JP7544342B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019090782A (en) | 2017-06-20 | 2019-06-13 | 株式会社ミツトヨ | Three-dimensional shape measuring device and three-dimensional shape measuring method |
JP2019074777A (en) | 2017-10-12 | 2019-05-16 | キヤノン株式会社 | Image processing method, image processing apparatus, and imaging apparatus |
JP2019184340A (en) | 2018-04-05 | 2019-10-24 | オムロン株式会社 | Information processing apparatus, information processing method, and program |
WO2020095233A1 (en) | 2018-11-07 | 2020-05-14 | Spectrum Optix Inc. | Bright spot removal using a neural network |
Also Published As
Publication number | Publication date |
---|---|
JP2022086354A (en) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10825198B2 (en) | 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images | |
JP6465789B2 (en) | Program, apparatus and method for calculating internal parameters of depth camera | |
GB2564794B (en) | Image-stitching for dimensioning | |
JP5029618B2 (en) | Three-dimensional shape measuring apparatus, method and program by pattern projection method | |
JP5576726B2 (en) | Three-dimensional measuring apparatus, three-dimensional measuring method, and program | |
TWI489082B (en) | Method and system for calibrating laser measuring apparatus | |
JP6092530B2 (en) | Image processing apparatus and image processing method | |
CN103366360B (en) | Information processing apparatus and information processing method | |
JP6596433B2 (en) | Structured optical matching of a set of curves from two cameras | |
JP6282098B2 (en) | Calibration apparatus and method | |
US11446822B2 (en) | Simulation device that simulates operation of robot | |
JP2016186469A (en) | Information processing apparatus, information processing method, and program | |
JP7088530B2 (en) | 3D method and device for projecting measurement result-related information on the surface of an object to be measured | |
JP6626338B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
Cajal et al. | Simulation of laser triangulation sensors scanning for design and evaluation purposes | |
JP6645140B2 (en) | Image calibration apparatus and calibration method | |
Wang et al. | Highly reflective surface measurement based on dual stereo monocular structured light system fusion | |
KR20130075712A (en) | A laser-vision sensor and calibration method thereof | |
JP7544342B2 (en) | Three-dimensional measurement system and three-dimensional measurement method | |
JP4006296B2 (en) | Displacement measuring method and displacement measuring apparatus by photogrammetry | |
KR101634283B1 (en) | The apparatus and method of 3d modeling by 3d camera calibration | |
CN116758160B (en) | Method for detecting pose of optical element assembly process based on orthogonal vision system and assembly method | |
Georgiev et al. | Investigation possibilities for the use of free software for data processing used for accurate measurement details through photogrammetry | |
JP6822086B2 (en) | Simulation equipment, simulation method and simulation program | |
CN118119972A (en) | Method and system for generating a camera model for camera calibration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240807 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240813 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7544342 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |