[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021018219A - Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program - Google Patents

Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program Download PDF

Info

Publication number
JP2021018219A
JP2021018219A JP2019135943A JP2019135943A JP2021018219A JP 2021018219 A JP2021018219 A JP 2021018219A JP 2019135943 A JP2019135943 A JP 2019135943A JP 2019135943 A JP2019135943 A JP 2019135943A JP 2021018219 A JP2021018219 A JP 2021018219A
Authority
JP
Japan
Prior art keywords
dimensional shape
point
decoding
coded pattern
constraint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019135943A
Other languages
Japanese (ja)
Inventor
信一 住吉
Shinichi Sumiyoshi
信一 住吉
慎作 日浦
Shinsaku Hiura
慎作 日浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2019135943A priority Critical patent/JP2021018219A/en
Publication of JP2021018219A publication Critical patent/JP2021018219A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide a three-dimensional shape measurement system that is advantageous to excluding a decoding point by interreflection and performing a three-dimensional shape measurement even as to an overlapping point where decoding information on a direct reflection component cannot be separated from decoding information on an interreflection component under only an epipolar constraint.SOLUTION: A three-dimensional shape measurement system 100 comprises: a projection part 2 that projects a coded pattern image row in sequence; an imaging unit 1 that images an object to which the coded pattern image is projected in the projection part 2 in sequence, and acquires an imaging image row; a decoding unit 51 that acquires decoding information as separating decoding information on a direct reflection component from decoding information on an interreflection component as to an overlapping point on the basis of the coded pattern image row and imaging image row; a three-dimensional shape measurement unit 53 that obtains decompression by a geometric calculation, using the decoding information, and thereby measures a three-dimensional shape of the object; and a geometry constraint processing unit 522 that performs geometry constraint processing of excluding a decompression point off a prescribed constraint range.SELECTED DRAWING: Figure 2

Description

本発明は、対象物に符号化パターン画像を投影して、符号化パターン画像が投影された対象物を撮影することで当該対象物の3次元形状を計測する3次元形状計測システム、3次元形状計測方法、3次元形状計測プログラムに関する。 The present invention is a three-dimensional shape measuring system that measures a three-dimensional shape of an object by projecting a coded pattern image onto the object and photographing the object on which the coded pattern image is projected. The measurement method relates to a three-dimensional shape measurement program.

3次元計測技術は、生産現場における対象物(ワーク)の傷の検査や、乱雑に置かれた対象物(ワーク)のアームロボットによる把持などに有用な技術である。なかでもプロジェクタとカメラの組み合わせ(以下、「プロカム」という。)に基づく光計測法は、面計測方式であるため実時間での計測ができ、コストを抑えることができ、工業的な応用価値が高い。プロカムシステムに基づく3次元計測法として、グレイコード法や位相シフト法(例えば、非特許文献1、2)、特殊な投影パターンを用いた高速計測手法(例えば、非特許文献3)が知られている。 The three-dimensional measurement technique is a technique useful for inspecting scratches on an object (work) at a production site and grasping a randomly placed object (work) by an arm robot. Among them, the optical measurement method based on the combination of a projector and a camera (hereinafter referred to as "Pro Cam") is a surface measurement method, so it can measure in real time, can reduce costs, and has industrial application value. high. As a three-dimensional measurement method based on the Procam system, a Gray code method, a phase shift method (for example, Non-Patent Documents 1 and 2), and a high-speed measurement method using a special projection pattern (for example, Non-Patent Document 3) are known. ing.

しかしながら、対象物の鏡面性が強い場合(例えば、対象物が金属製である場合)には、対象物の凹部では鏡面相互反射が生じる。その結果、投影光の反射光がカメラとプロジェクタの位置関係から期待される画素以外で観測されたり(問題点1)、カメラの1つの画素に複数の反射光が重畳して観測されたりする(問題点2)。プロカムを用いた一般的な計測法は、プロカムに基づく3次元計測法は、対象物の材質がランバート反射であることを前提としており、対象物の鏡面性が強い場合には、上記の問題点1及び2によって、対象物の凹部の正確な3次元計測が困難になる。 However, when the mirror surface of the object is strong (for example, when the object is made of metal), mirror surface mutual reflection occurs in the recess of the object. As a result, the reflected light of the projected light is observed in a pixel other than the pixel expected from the positional relationship between the camera and the projector (problem 1), or a plurality of reflected lights are superposed on one pixel of the camera and observed (problem 1). Problem 2). The general measurement method using Pro Cam is based on Pro Cam, and the three-dimensional measurement method is based on the premise that the material of the object is Lambertian reflection. If the object has a strong mirror surface, the above problems 1 and 2 make it difficult to accurately measure the concave portion of the object in three dimensions.

問題点1に対しては、直接反射光が観測される場合には期待される領域をカメラ画像のエピポーラ線上に限定できること(エピポーラ拘束)を用いて、エピポーラ線外で観測される相互反射光を除去することで対応付けを安定化する手法が提案されている(例えば、非特許文献4〜7)。これらの既存法では反射分離の安定性のために多数のバイナリパターンの投影と撮影を必要とし、特殊な装置を用いなければ即時性が期待できない。 For problem 1, the mutually reflected light observed outside the epipolar line can be limited to the epipolar line of the camera image (epipolar constraint) when the directly reflected light is observed. A method for stabilizing the association by removing it has been proposed (for example, Non-Patent Documents 4 to 7). These existing methods require the projection and imaging of a large number of binary patterns for the stability of reflection separation, and immediacy cannot be expected without the use of special equipment.

バイナリパターンを用いる符号化方式の中で最小枚数で符号化が可能なグレイコード法は、投影画像の視差方向の画素数をMとすると、投影枚数 NGC=logMで座標符号化が可能である。 The Gray code method, which can encode with the minimum number of pixels among the coding methods using binary patterns, allows coordinate coding with the number of projected images NGC = log 2 M, where M is the number of pixels in the parallax direction of the projected image. Is.

しかし、この手法ではそれぞれのカメラ画素は単一のプロジェクタ画素の影響しか受けないと仮定しているため、問題点2のように、投影画像のエピポーラ線上の異なる画素からの投影光が鏡面相互反射によって1つのカメラ画素で観測されてしまうと、相互反射光の対応点の除去ができず、誤った形状が求められてしまう。 However, since this method assumes that each camera pixel is affected only by a single projector pixel, the projected light from different pixels on the epipolar line of the projected image is mirror-plane mutual reflection as in Problem 2. If it is observed by one camera pixel, the corresponding point of the mutually reflected light cannot be removed, and an erroneous shape is required.

Brenner, C., Boehm, J. and Guehring, J.: Photogrammetric calibration and accuracy evaluation of a crosspattern stripe projector, Videometrics VI, Vol. 3641, International Society for Optics and Photonics, pp. 164-173 (1998).Brenner, C., Boehm, J. and Guehring, J .: Photogrammetric calibration and accuracy evaluation of a crosspattern stripe projector, Videometrics VI, Vol. 3641, International Society for Optics and Photonics, pp. 164-173 (1998). Sato, K. and Inokuchi, S.: Three-dimensional surface measurement by space encoding range imaging, Journal of Robotic Systems, Vol. 2, pp. 27-39 (1985).Sato, K. and Inokuchi, S .: Three-dimensional surface measurement by space encoding range imaging, Journal of Robotic Systems, Vol. 2, pp. 27-39 (1985). Sagawa, R., Furukawa, R. and Kawasaki, H.: Dense 3D reconstruction from high frame-rate video using a static grid pattern, IEEE transactions on pattern analysis and machine intelligence, Vol. 36, No. 9, pp. 1733-1747 (2014).Sagawa, R., Furukawa, R. and Kawasaki, H .: Dense 3D reconstruction from high frame-rate video using a static grid pattern, IEEE transactions on pattern analysis and machine intelligence, Vol. 36, No. 9, pp. 1733 -1747 (2014). Furuse, T., Hiura, S. and Sato, K.: Synchronous detection for robust 3-d shape measurement against interreection and subsurface scattering, International Conference on Image Analysis and Processing, Springer, pp. 276-285 (2011).Furuse, T., Hiura, S. and Sato, K .: Synchronous detection for robust 3-d shape measurement against interreection and subsurface scattering, International Conference on Image Analysis and Processing, Springer, pp. 276-285 (2011). Nayar, S. K., Krishnan, G., Grossberg, M. D. and Raskar, R.: Fast separation of direct and global components of a scene using high frequency illumination, ACM Transactions on Graphics (TOG), Vol. 25, No. 3, pp. 935-944 (2006).Nayar, SK, Krishnan, G., Grossberg, MD and Raskar, R .: Fast separation of direct and global components of a scene using high frequency illumination, ACM Transactions on Graphics (TOG), Vol. 25, No. 3, pp . 935-944 (2006). O'Toole, M., Achar, S., Narasimhan, S. G. and Kutulakos, K. N.: Homogeneous codes for energy-efficient illumination and imaging, ACM Transactions on Graphics (ToG), Vol. 34, No. 4, p. 35 (2015).O'Toole, M., Achar, S., Narasimhan, SG and Kutulakos, KN: Homogeneous codes for energy-efficient illumination and imaging, ACM Transactions on Graphics (ToG), Vol. 34, No. 4, p. 35 ( 2015). O'Toole, M., Mather, J. and Kutulakos, K. N.: 3d shape and indirect appearance by structured light transport, Computer Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on, IEEE, pp. 3246-3253 (2014).O'Toole, M., Mather, J. and Kutulakos, KN: 3d shape and indirect appearance by structured light transport, Computer Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on, IEEE, pp. 3246-3253 (2014) .. Mirdehghan, P., Chen, W. and Kutulakos, K. N.: Optimal Structured Light a la Carte, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 6248-6257 (2018).Mirdehghan, P., Chen, W. and Kutulakos, K.N .: Optimal Structured Light a la Carte, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 6248-6257 (2018).

そこで、本発明は、エピポーラ拘束のみでは直接反射成分の復号化情報であるか相互反射成分の復号化情報であるかを分離できない重畳点についても、相互反射による復元点を排除して3次元形状計測をするのに有利な3次元形状計測システムを提供することを目的とする。 Therefore, the present invention eliminates the restoration point due to mutual reflection even for the superimposed point where it is not possible to separate whether it is the decoding information of the direct reflection component or the decoding information of the mutual reflection component only by the epipolar constraint. An object of the present invention is to provide a three-dimensional shape measurement system which is advantageous for measuring.

本発明の一態様の3次元形状計測システムは、符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影する投影手段と、前記投影手段にて前記符号化パターン画像が投影される対象物を順に撮像して、複数の撮像画像からなる撮像画像列を取得する撮像手段と、前記符号化パターン画像列及び前記撮像画像列に基づいて、復号化を行って復号化情報を取得する復号化手段であって、直接反射光と間接反射光とが重なった重畳点については直接反射成分の復号化情報と相互反射成分の復号化情報とに分離して前記復号化情報を取得する復号化手段と、前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測手段と、所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理手段とを備えた構成を有している。 The three-dimensional shape measurement system according to one aspect of the present invention includes a projection means for sequentially projecting a plurality of types of coded pattern images forming a coded pattern image sequence, and an object on which the coded pattern image is projected by the projection means. Decoding to acquire decoding information by performing decoding based on the imaging means for acquiring an imaged image sequence composed of a plurality of captured images by sequentially imaging an object and the coded pattern image string and the captured image string. Decoding means for obtaining the decoding information by separating the superimposed point where the directly reflected light and the indirect reflected light overlap into the decoding information of the directly reflected component and the decoding information of the mutual reflection component. A means, a three-dimensional shape measuring means for measuring the three-dimensional shape of the object by obtaining a restoration point by geometric calculation using the decoding information, and a geometry for excluding the restoration point outside a predetermined constraint range. It has a configuration including a superimposing point processing means for performing constraint processing.

この構成によって、復号化により重畳点において直接反射成分の復号化情報と相互反射成分の復号化情報とが分離して得られ、それらを用いて3次元形状計測を行ったときに、相互反射の対応点で復元された点は復元範囲外に復元され、直接反射の対応点は復元範囲内に復元される性質を用いて、復元範囲外の復元点を排除することで、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 With this configuration, the decoding information of the direct reflection component and the decoding information of the mutual reflection component are separately obtained at the superimposition point by decoding, and when the three-dimensional shape measurement is performed using them, the mutual reflection Corresponding points of direct reflection are restored outside the restoration range by using the property that the corresponding points of direct reflection are restored within the restoration range by eliminating the restoration points outside the restoration range. It is possible to measure (restore) the three-dimensional shape by appropriately excluding the restoration points due to mutual reflection even for the overlapping points that cannot be separated only by the epipolar constraint that restores.

上記の3次元形状計測システムにおいて、前記重畳点処理手段は、前記復元点をエピポーラ線上に限定するエピポーラ拘束処理によって前記重畳点における前記相互反射成分の復号化情報を排除してよく、前記3次元形状計測手段は、前記エピポーラ拘束処理によって前記相互反射成分の復号化情報を排除された前記復号化情報を用いて、前記3次元形状を計測してよい。 In the above three-dimensional shape measurement system, the superimposition point processing means may eliminate the decoding information of the mutual reflection component at the superimposition point by epipolar constraint processing that limits the restoration point on the epipolar line, and the three-dimensional The shape measuring means may measure the three-dimensional shape by using the decoding information in which the decoding information of the mutual reflection component is excluded by the epipolar constraint process.

この構成により、エピポーラ拘束によって相互反射成分の復号化情報を排除するので、ジオメトリ拘束によって分離できない相互反射成分の復号化情報を排除できる。 With this configuration, since the decoding information of the mutual reflection component is excluded by the epipolar constraint, the decoding information of the mutual reflection component that cannot be separated by the geometry constraint can be excluded.

上記の3次元形状計測システムにおいて、前記重畳点処理手段は、前記ジオメトリ拘束処理における前記拘束範囲を設定する拘束範囲設定手段を備えていてよい。 In the above three-dimensional shape measurement system, the superimposition point processing means may include a constraint range setting means for setting the constraint range in the geometry constraint process.

この構成により、設定された拘束範囲によってジオメトリ拘束処理を行うことができる。 With this configuration, geometry constraint processing can be performed according to the set constraint range.

上記の3次元形状計測システムにおいて、前記拘束範囲設定手段は、ユーザによる指定に応じて前記拘束範囲を設定してよい。 In the above three-dimensional shape measurement system, the constraint range setting means may set the constraint range according to a designation by the user.

この構成により、ユーザが拘束範囲を設定することができる。 With this configuration, the user can set the constraint range.

上記の3次元形状計測システムにおいて、前記拘束範囲設定手段は、前記対象物の形状に応じて前記拘束範囲を設定してよい。 In the above three-dimensional shape measuring system, the restraint range setting means may set the restraint range according to the shape of the object.

この構成により、対象物の形状に対応した拘束範囲を設定できる。 With this configuration, the restraint range corresponding to the shape of the object can be set.

上記の3次元形状計測システムにおいて、前記拘束範囲設定手段は、前記対象物の位置に応じて前記拘束範囲を設定してよい。 In the above three-dimensional shape measuring system, the restraint range setting means may set the restraint range according to the position of the object.

この構成により、対象物の位置に対応した拘束範囲を設定できる。 With this configuration, the restraint range corresponding to the position of the object can be set.

上記の3次元形状計測システムは、前記対象物を検出する検出手段をさらに備えていてよく、前記拘束範囲設定手段は、前記検出手段の検出結果に応じて前記拘束範囲を設定してよい。 The three-dimensional shape measuring system may further include a detection means for detecting the object, and the restraint range setting means may set the restraint range according to the detection result of the detection means.

この構成により、実際の対象物の検出に基づいて、拘束範囲を設定できる。 With this configuration, the constraint range can be set based on the detection of the actual object.

上記の3次元形状計測システムは、前記3次元形状計測手段より粗い精度で前記対象物の形状を計測する第2の3次元形状計測手段をさらに備えていてよく、前記拘束範囲設定手段は、前記第2の3次元形状計測手段の計測結果に基づいて、前記対象物が含まれるように前記拘束範囲を設定してよい。 The three-dimensional shape measuring system may further include a second three-dimensional shape measuring means for measuring the shape of the object with a coarser accuracy than the three-dimensional shape measuring means, and the restraint range setting means may be provided. Based on the measurement result of the second three-dimensional shape measuring means, the restraint range may be set so as to include the object.

この構成により、第2の3次元計測手段による対象物体の粗い形状計測に基づいて拘束範囲を設定できる。 With this configuration, the restraint range can be set based on the rough shape measurement of the target object by the second three-dimensional measuring means.

上記の3次元形状計測システムは、前記符号化パターン画像列は、ランダム数に基づいて生成されてよい。 In the above three-dimensional shape measurement system, the coded pattern image sequence may be generated based on a random number.

この構成により、符号化パターン画像列で得られる各画素の信号同士のゼロ平均正規化相互相関が低く、直交性の高い符号化パターン画像列を生成できる。 With this configuration, it is possible to generate a coded pattern image string having low zero average normalization cross-correlation between the signals of each pixel obtained in the coded pattern image string and having high orthogonality.

上記の3次元形状計測システムにおいて、前記復号化手段は、最大の正規化相互相関値と第2位の正規化相互相関値との比を所定の閾値と比較することで、前記重畳点を識別してよい。 In the above three-dimensional shape measurement system, the decoding means identifies the superposition point by comparing the ratio of the maximum normalized cross-correlation value to the second-order normalized cross-correlation value with a predetermined threshold value. You can do it.

この構成により、符号化パターン画像列の直交性が高いことを利用して、重畳点を識別できる。 With this configuration, the superimposition points can be identified by utilizing the high orthogonality of the coded pattern image sequence.

本発明の一態様の3次元形状計測方法は、符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影する投影ステップと、前記投影ステップにて前記符号化パターン画像が投影される対象物を順に撮像して、複数の撮像画像からなる撮像画像列を取得する撮像ステップと、前記符号化パターン画像列及び前記撮像画像列に基づいて、前記撮像画像上で、直接反射光と間接反射光とが重なった重畳点を含む対応点を探索する復号化ステップと、前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測ステップと、所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理ステップとを備えた構成を有している。 The three-dimensional shape measurement method of one aspect of the present invention includes a projection step of sequentially projecting a plurality of types of coded pattern images forming a coded pattern image sequence, and an object on which the coded pattern image is projected in the projection step. Directly reflected light and indirect reflection on the captured image based on the imaging step of acquiring an captured image sequence consisting of a plurality of captured images by sequentially imaging an object, the coded pattern image sequence, and the captured image sequence. Three-dimensional shape measurement that measures the three-dimensional shape of the object by obtaining the restoration point by geometric calculation using the decoding step to search for the corresponding point including the overlapping point where the light overlaps and the decoding information. It has a configuration including a step and a superimposing point processing step for performing a geometry constraint processing for excluding the restoration point outside a predetermined constraint range.

この構成によっても、復号化により重畳点において直接反射成分の復号化情報と相互反射成分の復号化情報とが分離して得られ、それらを用いて3次元形状計測を行ったときに、相互反射の対応点で復元された点は復元範囲外に復元され、直接反射の対応点は復元範囲内に復元される性質を用いて、復元範囲外の復元点を排除することで、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 Even with this configuration, the decoding information of the direct reflection component and the decoding information of the mutual reflection component are separately obtained by decoding at the superimposition point, and when three-dimensional shape measurement is performed using them, mutual reflection is performed. Correspondence of direct reflection by eliminating the restoration points outside the restoration range by using the property that the points restored by the correspondence points of are restored outside the restoration range and the correspondence points of direct reflection are restored within the restoration range. It is possible to measure (restore) the three-dimensional shape by appropriately excluding the restoration points due to mutual reflection even for the overlapping points that cannot be separated only by the epipolar constraint that restores the points.

本発明の一態様の3次元形状計測プログラムは、コンピュータに、投影手段に、符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影させる投影ステップと、撮像手段に、前記投影ステップにて前記符号化パターン画像が投影される対象物を順に撮像させて、複数の撮像画像からなる撮像画像列を取得させる撮像ステップと、前記符号化パターン画像列及び前記撮像画像列に基づいて、前記撮像画像上で、直接反射光と間接反射光とが重なった重畳点を含む対応点を探索する復号化ステップと、前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測ステップと、所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理ステップとを実行させる構成を有している。 The three-dimensional shape measurement program according to one aspect of the present invention includes a projection step in which a computer projects a plurality of types of coded pattern images forming a coded pattern image sequence on a projection means in order, and a projection step on the imaging means. Based on the imaging step of sequentially imaging an object on which the coded pattern image is projected to acquire an captured image sequence composed of a plurality of captured images, and the coded pattern image sequence and the captured image sequence. The object is obtained by geometrically calculating a restoration point using the decoding step of searching for a corresponding point including an overlapping point in which the directly reflected light and the indirect reflected light overlap on the captured image and the decoding information. It has a configuration in which a three-dimensional shape measurement step for measuring the three-dimensional shape of the above and a superposition point processing step for performing a geometry constraint process for excluding the restoration point outside a predetermined constraint range are executed.

この構成によっても、復号化により重畳点において直接反射成分の復号化情報と相互反射成分の復号化情報とが分離して得られ、それらを用いて3次元形状計測を行ったときに、相互反射の対応点で復元された点は復元範囲外に復元され、直接反射の対応点は復元範囲内に復元される性質を用いて、復元範囲外の復元点を排除することで、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 Even with this configuration, the decoding information of the direct reflection component and the decoding information of the mutual reflection component are separately obtained by decoding at the superimposition point, and when three-dimensional shape measurement is performed using them, mutual reflection is performed. Correspondence of direct reflection by eliminating the restoration points outside the restoration range by using the property that the points restored by the correspondence points of are restored outside the restoration range and the correspondence points of direct reflection are restored within the restoration range. It is possible to measure (restore) the three-dimensional shape by appropriately excluding the restoration points due to mutual reflection even for the overlapping points that cannot be separated only by the epipolar constraint that restores the points.

本発明によれば、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 According to the present invention, even for a superposed point that cannot be separated only by the epipolar constraint that restores the corresponding point of direct reflection, the restoration point due to mutual reflection can be appropriately excluded to measure (restore) the three-dimensional shape.

図1は、本発明の実施の形態の3次元形状計測システムの応用シーンを示す図である。FIG. 1 is a diagram showing an application scene of the three-dimensional shape measurement system according to the embodiment of the present invention. 図2は、本発明の実施の形態の3次元形状計測システムにおける機能構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration in the three-dimensional shape measurement system according to the embodiment of the present invention. 図3は、本発明の実施の形態の投影部によって投影される符号化パターン画像列を示す図である。FIG. 3 is a diagram showing a coded pattern image sequence projected by the projection unit of the embodiment of the present invention. 図4は、本発明の実施の形態の符号化パターン画像生成のフローチャートである。FIG. 4 is a flowchart of coded pattern image generation according to the embodiment of the present invention. 図5は、本発明の実施の形態の復号化で得た最大のZNCC値と第2位のZNCC値をマップした図である。FIG. 5 is a map showing the maximum ZNCC value obtained by decoding according to the embodiment of the present invention and the ZNCC value at the second position. 図6は、本発明の実施の形態の復号化のフローチャートである。FIG. 6 is a flowchart of decoding according to the embodiment of the present invention. 図7は、本発明の実施の形態の直接反射成分と間接反射成分とが重畳する例を示す図である。FIG. 7 is a diagram showing an example in which the direct reflection component and the indirect reflection component of the embodiment of the present invention are superimposed. 図8は、本発明の実施の形態のジオメトリ拘束処理の説明図である。FIG. 8 is an explanatory diagram of the geometry constraint processing according to the embodiment of the present invention. 図9は、本発明の実施の形態の対応付けの結果(N=30の時)を示す図である。FIG. 9 is a diagram showing the result of association (when N = 30) according to the embodiment of the present invention. 図10は、本発明の実施の形態の3次元形状測定部による形状計測結果を示す図である。FIG. 10 is a diagram showing a shape measurement result by the three-dimensional shape measuring unit according to the embodiment of the present invention. 図11は、本発明の実施の形態のジオメトリ拘束処理の効果を示すグラフである。FIG. 11 is a graph showing the effect of the geometry constraint processing according to the embodiment of the present invention. 図12は、本発明の実施の形態の3次元形状計測のフローチャートである。FIG. 12 is a flowchart of three-dimensional shape measurement according to the embodiment of the present invention.

以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the embodiments described below are examples of cases where the present invention is carried out, and the present invention is not limited to the specific configurations described below. In carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted.

図1は、本発明の実施の形態の3次元形状計測システムの応用シーンを示す図である。3次元形状計測システム100は、プロジェクタ10と、カメラ20と、3次元形状計測装置30とを含んで構成される。プロジェクタ10は、所定のフレームレートで変化する符号化パターン画像を投影する。カメラ20は、3次元形状計測の対象物であるワークWを撮影するように設置される。カメラ20は、プロジェクタ10によって投影されてワークWで反射した符号化パターン画像を所定のフレームレートで撮影して、撮像画像を生成する。 FIG. 1 is a diagram showing an application scene of the three-dimensional shape measurement system according to the embodiment of the present invention. The three-dimensional shape measuring system 100 includes a projector 10, a camera 20, and a three-dimensional shape measuring device 30. The projector 10 projects a coded pattern image that changes at a predetermined frame rate. The camera 20 is installed so as to photograph the work W, which is an object of three-dimensional shape measurement. The camera 20 captures a coded pattern image projected by the projector 10 and reflected by the work W at a predetermined frame rate to generate an captured image.

プロジェクタ10とカメラ20との幾何的関係、即ち位置及び姿勢の関係は、運用時には固定されており、この幾何的関係は3次元形状計測装置30において既知である。また、プロジェクタ10及びカメラ20は、いずれも3次元形状計測装置30に有線又は無線で通信可能に接続されている。 The geometrical relationship between the projector 10 and the camera 20, that is, the relationship between the position and the posture is fixed at the time of operation, and this geometrical relationship is known in the three-dimensional shape measuring device 30. Further, the projector 10 and the camera 20 are both connected to the three-dimensional shape measuring device 30 so as to be able to communicate by wire or wirelessly.

3次元形状計測装置30は、プロジェクタ10が投影した符号化パターン画像と、カメラ20が撮影した撮像画像とに基づいて、ワークWの位置情報を含む3次元形状を計測する。3次元形状計測装置30は、例えば、汎用のコンピュータが本実施の形態の3次元形状計測プログラムを実行することで実現されてよい。 The three-dimensional shape measuring device 30 measures the three-dimensional shape including the position information of the work W based on the coded pattern image projected by the projector 10 and the captured image captured by the camera 20. The three-dimensional shape measuring device 30 may be realized by, for example, a general-purpose computer executing the three-dimensional shape measuring program of the present embodiment.

図1の例では、3次元形状計測装置30は、アームロボット40に接続されている。アームロボット40は、複数の関節を有するアームを備え、ワークWに対して、ワークWを把持するという仕事をする。3次元形状計測装置30にて得られたワークWの3次元形状計測の結果は、アームロボット40に与えられる。アームロボット40は、ワークWの位置情報及び3次元形状情報に基づいて動作する。これにより、アームロボット40は、目的とするワークWに対して適切に仕事をすることができ、例えばワークWを適切にピッキングすることが可能となる。 In the example of FIG. 1, the three-dimensional shape measuring device 30 is connected to the arm robot 40. The arm robot 40 includes an arm having a plurality of joints, and performs a task of gripping the work W with respect to the work W. The result of the three-dimensional shape measurement of the work W obtained by the three-dimensional shape measuring device 30 is given to the arm robot 40. The arm robot 40 operates based on the position information of the work W and the three-dimensional shape information. As a result, the arm robot 40 can appropriately work on the target work W, for example, can appropriately pick the work W.

図2は、本発明の実施の形態の3次元形状計測システムにおける機能構成を示すブロック図である。3次元形状計測システム100は、撮像部1と、投影部2と、同期制御部3と、符号化パターン画像生成部4と、情報処理部5と、3次元情報出力部6とを備えている。 FIG. 2 is a block diagram showing a functional configuration in the three-dimensional shape measurement system according to the embodiment of the present invention. The three-dimensional shape measurement system 100 includes an imaging unit 1, a projection unit 2, a synchronization control unit 3, a coded pattern image generation unit 4, an information processing unit 5, and a three-dimensional information output unit 6. ..

撮像部1は、カメラ20で構成される。投影部2は、プロジェクタ10で構成される。同期制御部3、符号化パターン画像生成部4、情報処理部5、及び3次元情報出力部6は、3次元形状計測装置30に備えられてもよく、あるいは、その一部のみが3次元形状計測装置30に備えられ、他の一部はプロジェクタ10若しくは高速カメラ20、又は3次元形状計測装置30に接続された他の装置に備えられてもよい。 The imaging unit 1 is composed of a camera 20. The projection unit 2 is composed of a projector 10. The synchronization control unit 3, the coding pattern image generation unit 4, the information processing unit 5, and the three-dimensional information output unit 6 may be provided in the three-dimensional shape measuring device 30, or only a part thereof has a three-dimensional shape. It may be provided in the measuring device 30, and a part of the other may be provided in the projector 10, the high-speed camera 20, or another device connected to the three-dimensional shape measuring device 30.

撮像部1は、撮像を行って撮像画像を得る。撮像部1は、1000〜3000fps程度の高いフレームレートで連続的に撮像を行って、連続する複数の撮像画像からなる撮像画像列を得る。本実施の形態では、撮像部1は、入射する光の輝度値のみを検出して、撮像画像としてモノクロ画像を生成する。また、本実施の形態では、撮像部1は、1024×768ピクセルの解像度の撮像素子を用いて撮像画像を得る。 The imaging unit 1 performs imaging to obtain an captured image. The imaging unit 1 continuously performs imaging at a high frame rate of about 1000 to 3000 fps to obtain an captured image sequence composed of a plurality of continuous captured images. In the present embodiment, the imaging unit 1 detects only the brightness value of the incident light and generates a monochrome image as an captured image. Further, in the present embodiment, the image pickup unit 1 obtains a captured image using an image pickup device having a resolution of 1024 × 768 pixels.

投影部2は、符号化パターン画像生成部4で生成された符号化パターン画像生成情報に基づいて符号化パターン画像を投影する。投影部2は、符号化パターン画像列を構成する複数の符号化パターン画像を60fps程度で順に投影する。なお、投影部2としては、DMDを用いた高速駆動(例えば、5000Hz程度)が可能なDLPプロジェクタを用いてもよい。この場合に、撮像部1を構成するカメラ20はハイスピードカメラとしてもよい。また、本実施の形態では、投影部2は、480×360ピクセルのDMDを用い、1ドットサイズを5×5ピクセルとしている。 The projection unit 2 projects a coded pattern image based on the coded pattern image generation information generated by the coded pattern image generation unit 4. The projection unit 2 sequentially projects a plurality of coded pattern images constituting the coded pattern image sequence at about 60 fps. As the projection unit 2, a DLP projector capable of high-speed driving (for example, about 5000 Hz) using a DMD may be used. In this case, the camera 20 constituting the imaging unit 1 may be a high-speed camera. Further, in the present embodiment, the projection unit 2 uses a DMD of 480 × 360 pixels and has a 1-dot size of 5 × 5 pixels.

符号化パターン画像生成部4は、符号化パターン画像生成情報を生成して、投影部2に供給する。図3は、本発明の実施の形態の投影部によって投影される符号化パターン画像列を示す図である。符号化パターン画像生成部4は、符号化パターン画像として、復号化に関するランダムドットの時系列変調信号データに基づいて白黒2値のランダムドットパターンを生成する。 The coded pattern image generation unit 4 generates coded pattern image generation information and supplies it to the projection unit 2. FIG. 3 is a diagram showing a coded pattern image sequence projected by the projection unit of the embodiment of the present invention. The coded pattern image generation unit 4 generates a black-and-white binary random dot pattern as a coded pattern image based on the time-series modulation signal data of random dots related to decoding.

符号化パターン画像生成部4は、ランダム数として、メルセンヌツイスタ又はM系列の乱数を用いて、符号化パターン画像を生成する。これにより、各画素の信号同士のゼロ平均正規化相互相関が低く、直交性の高い符号化パターン画像列を得ることができる。 The coded pattern image generation unit 4 generates a coded pattern image using a Mersenne Twister or an M-sequence random number as a random number. As a result, it is possible to obtain a coded pattern image sequence having low zero average normalization cross-correlation between the signals of each pixel and high orthogonality.

符号化パターン画像生成部4は、投影部2のフレームレートよりも高速に、複数の異なる符号化パターン画像からなる符号化パターン画像列を生成する。 The coded pattern image generation unit 4 generates a coded pattern image sequence composed of a plurality of different coded pattern images at a speed higher than the frame rate of the projection unit 2.

符号化パターン画像生成部4は、N種類(本実施の形態ではN=6912とする。)の符号化パターン画像生成情報を順に繰り返し出力する。すなわち、符号化パターン画像生成部4は、t=1のタイムフレーム用の符号化パターン画像の生成情報、t=2のタイムフレーム用の符号化パターン画像の生成情報、t=3のタイムフレーム用の符号化パターン画像の生成情報、・・・、t=Nのタイムフレーム用の符号化パターン画像の生成情報を順に生成する。 The coded pattern image generation unit 4 repeatedly outputs N types of coded pattern image generation information (N = 6912 in the present embodiment) in order. That is, the coded pattern image generation unit 4 generates information on the coded pattern image for the time frame of t = 1, information on the generation of the coded pattern image for the time frame of t = 2, and for the time frame of t = 3. The generation information of the coded pattern image, ..., The generation information of the coded pattern image for the time frame of t = N is generated in order.

本実施の形態では、符号化パターン画像生成部4は、符号化パターン画像として、白黒2値のランダムドットパターンを生成する。これにより、他のパターン画像に比べて、各ドットの符号化信号の直交性を容易に高くすることができ、各ドットの信号が空間的に独立しているため、撮影枚数の増減を柔軟に行うことができる。 In the present embodiment, the coded pattern image generation unit 4 generates a black-and-white binary random dot pattern as the coded pattern image. As a result, the orthogonality of the coded signal of each dot can be easily increased as compared with other pattern images, and since the signal of each dot is spatially independent, the number of shots can be increased or decreased flexibly. It can be carried out.

図4は、本発明の実施の形態の符号化パターン画像生成のフローチャートである。符号化パターン画像生成部4は、まず、画素を指定して、適当なシードを基に、0〜255のランダム数を生成する(ステップS41)。そして、符号化パターン画像生成部4は、生成されたランダム数が閾値128以下であれば(ステップS42でYES)、当該画素の画素値を255とし(ステップS43)、生成されたランダム数が閾値128未満であれば(ステップS42でNO)、当該画素の画素値を0とする(ステップS44)。 FIG. 4 is a flowchart of coded pattern image generation according to the embodiment of the present invention. First, the coded pattern image generation unit 4 specifies pixels and generates a random number from 0 to 255 based on an appropriate seed (step S41). Then, if the generated random number is 128 or less (YES in step S42), the coded pattern image generation unit 4 sets the pixel value of the pixel to 255 (step S43), and the generated random number is the threshold value. If it is less than 128 (NO in step S42), the pixel value of the pixel is set to 0 (step S44).

N枚の画像のすべての画素で、画素値が決定されていない場合は(ステップS45でNO)、指定する画素を1つ進めて、ステップS41〜S44を繰り返し、すべての画像のすべての画素について、画素値を決定すると(ステップS45でYES)、処理を終了する。この処理により、白黒2値のランダムパターンの画像がN枚生成される。 If the pixel value has not been determined for all the pixels of the N images (NO in step S45), the specified pixel is advanced by one, steps S41 to S44 are repeated, and all the pixels of all the images are covered. When the pixel value is determined (YES in step S45), the process ends. By this process, N black-and-white binary random pattern images are generated.

同期制御部3は、撮像部1と投影部2との同期をとる。これにより、撮像部1において、投影部2で時系列に変化する符号化パターン画像列の各タイムフレームの画像を確実に撮像することができる。 The synchronization control unit 3 synchronizes the imaging unit 1 with the projection unit 2. As a result, the imaging unit 1 can reliably capture an image of each time frame of the coded pattern image sequence that changes in time series by the projection unit 2.

情報処理部5は、撮像部1で得られた時系列に並ぶ複数の撮像画像からなる撮像画像列と、符号化パターン画像生成部4で生成された時系列に並ぶ複数の符号化パターン画像生成情報を取得する。なお、情報処理部5が符号化パターン画像生成部4から取得する符号化パターン画像生成情報を特に、キャリブレーションパラメタともいう。情報処理部5は、撮像画像と符号化パターン画像生成情報(キャリブレーションパラメタ)とに基づいて、対象物Wの3次元形状を計測する。情報処理部5は、復号化部51と、重畳点処理部52と、3次元形状計測部53とを備えている。 The information processing unit 5 generates an image sequence composed of a plurality of captured images obtained by the imaging unit 1 in a time series, and a plurality of coded pattern images generated in a time series generated by the coded pattern image generation unit 4. Get information. The coded pattern image generation information acquired by the information processing unit 5 from the coded pattern image generation unit 4 is also referred to as a calibration parameter. The information processing unit 5 measures the three-dimensional shape of the object W based on the captured image and the coded pattern image generation information (calibration parameter). The information processing unit 5 includes a decoding unit 51, a superposition point processing unit 52, and a three-dimensional shape measurement unit 53.

復号化部51は、符号化パターン画像列と撮像画像列とに基づいて、投影光が重畳している領域については、画素ごとに復号化情報を直接反射成分と相互反射成分とを分離する。ここで、上述のように、本実施の形態では、時系列に従って変化する符号化パターン画像を投影しているので、N個のタイムフレームに対応するN枚の撮像画像によって、画素ごとにNステップで変化するドットパターンが得られる。 Based on the coded pattern image sequence and the captured image sequence, the decoding unit 51 separates the decoding information into the direct reflection component and the mutual reflection component for each pixel in the region where the projected light is superimposed. Here, as described above, in the present embodiment, since the coded pattern image that changes according to the time series is projected, N steps are taken for each pixel by N images captured corresponding to N time frames. A dot pattern that changes with is obtained.

復号化部51は、相関演算にゼロ平均正規化相互相関(Zero-mean Normalized Cross-Correlation:ZNCC)を用いる。復号化部51は、各撮像画像で得られる観測信号と全符号化信号とでZNCCを算出し、最大のZNCC値znccと第2位のZNCC値znccの信号を求め、これらの比rzncc=zncc/znccが閾値thzncc以上である点を直接反射点であると識別し、それ以外の点を重畳点であると識別することで、重畳点とそれ以外の点とを区別しつつ対応点を抽出する。ここで、重畳点とは、相互反射などが原因で直接反射光と間接反射光とが重なった点である。本実施の形態では、閾値thznccは、2.0とし、ZNCC値が0.4以上である対応点を用いて復元を行った。 The decoding unit 51 uses zero-mean normalized cross-correlation (ZNCC) for the correlation calculation. The decoding unit 51 calculates the ZNCC from the observation signal obtained from each captured image and the fully coded signal, obtains the signal having the maximum ZNCC value zncc 1 and the second-order ZNCC value zncc 2 , and the ratio r of these. By discriminating a point where zncc = znccc 1 / znccc 2 is equal to or higher than the threshold value th znccc as a direct reflection point and identifying other points as superimposition points, the superimposition points and other points are distinguished. While doing so, extract the corresponding points. Here, the superimposing point is a point where the directly reflected light and the indirect reflected light overlap due to mutual reflection or the like. In the present embodiment, the threshold value th zncc is set to 2.0, and restoration is performed using a corresponding point having a ZNCC value of 0.4 or more.

図5は、本発明の実施の形態の復号化で得た最大のZNCC値と第2位のZNCC値をマップした図である。図5において、最大のZNCC値(図5の「First」)は左側に配置され、第2位のZNCC値(図5の「Second」)は右側に配置されている。また、図5において、上段は撮影枚数N=50であり、下段は撮影枚数N=20である。図5から、投影光が当たる領域では、Nが増加すると、最大のZNCC値と第2位のZNCC値との差が大きくなり、復号化の安定性が高くなることが分かる。 FIG. 5 is a map showing the maximum ZNCC value obtained by decoding according to the embodiment of the present invention and the ZNCC value at the second position. In FIG. 5, the largest ZNCC value (“First” in FIG. 5) is located on the left side and the second ZNCC value (“Second” in FIG. 5) is located on the right side. Further, in FIG. 5, the upper row shows the number of shots N = 50, and the lower row shows the number of shots N = 20. From FIG. 5, it can be seen that as N increases in the region exposed to the projected light, the difference between the maximum ZNCC value and the second-position ZNCC value increases, and the decoding stability increases.

復号化部51は、抽出した重畳点において、どの2つの符号化信号の和の信号が最大のZNCC値となるかを探索する。このとき、符号化信号のすべての組合せについてZNCC値を求めると計算が膨大となるため、復号化部51は、直交する信号同士であれば、下式(1)が成り立つことを用いて、重畳点の信号のZNCC値を求める。 The decoding unit 51 searches for which signal of the sum of the two coded signals has the maximum ZNCC value at the extracted superimposition point. At this time, if the ZNCC value is obtained for all combinations of coded signals, the calculation becomes enormous. Therefore, the decoding unit 51 superimposes the signals by using the following equation (1) if the signals are orthogonal to each other. Find the ZNCC value of the point signal.

Figure 2021018219
ここで、CCはZNCCであり、fは直接反射光の符号化信号であり、gは相互反射光の符号化信号であり、hは重畳点の観測信号を表す。
Figure 2021018219
Here, CC is ZNCC, f is a coded signal of the directly reflected light, g is a coded signal of the mutually reflected light, and h is an observation signal of the superimposition point.

図6は、本発明の実施の形態の復号化のフローチャートである。まず、復号化部51は、符号化パターン画像生成部4から得た、符号化パターン画像列を生成するのに用いた、復号化に関するランダムドットの時系列変調信号データを取得する(ステップS61)。復号化部51は、撮像部1から、符号化パターン画像列を撮像して得られた撮像画像列を入力する(ステップS62)。 FIG. 6 is a flowchart of decoding according to the embodiment of the present invention. First, the decoding unit 51 acquires time-series modulated signal data of random dots related to decoding used for generating the coded pattern image string obtained from the coded pattern image generation unit 4 (step S61). .. The decoding unit 51 inputs the captured image sequence obtained by imaging the coded pattern image string from the imaging unit 1 (step S62).

復号化部51は、撮像画像の各画素において、時間方向の輝度変調の信号を取得する(ステップS63)。復号化部51は、各画素で得られた信号とランダムドットの時系列変調信号データとを用いて、ZNCCを算出する(ステップS64)。復号化部51は、ZNCCの値が最小の信号を採用して、復号化を行う(ステップS65)。 The decoding unit 51 acquires a signal for luminance modulation in the time direction in each pixel of the captured image (step S63). The decoding unit 51 calculates ZNCC using the signal obtained at each pixel and the time-series modulated signal data of random dots (step S64). The decoding unit 51 adopts the signal having the smallest ZNCC value and performs decoding (step S65).

復号化の結果が2つの信号の和の合成信号でない場合は(ステップS66でNO)、復号化部51は、1つの復号化情報として信号を取得する(ステップS67)。復号化の結果が2つの信号の和の合成信号である場合は(ステップS66でYES)、復号化部51は、2つの復号化情報に分離して信号を取得する(ステップS68)。 If the result of the decoding is not a composite signal of the sum of the two signals (NO in step S66), the decoding unit 51 acquires the signal as one decoding information (step S67). When the result of the decoding is a composite signal of the sum of the two signals (YES in step S66), the decoding unit 51 separates the two decoding information and acquires the signal (step S68).

このように、復号化部51では、重畳点に対して投影画像上で直接反射と相互反射の1つの対応点が得られた状態となり、重畳点処理部52は、相互反射の対応点で復元された点を排除する。重畳点処理部52は、エピポーラ拘束処理部521と、ジオメトリ拘束処理部522と、拘束範囲設定部523とを備えている。 In this way, the decoding unit 51 is in a state where one corresponding point of direct reflection and mutual reflection is obtained on the projected image with respect to the superimposed point, and the superimposed point processing unit 52 is restored at the corresponding point of mutual reflection. Eliminate the points that have been made. The superimposition point processing unit 52 includes an epipolar constraint processing unit 521, a geometry constraint processing unit 522, and a constraint range setting unit 523.

エピポーラ拘束処理部521は、復号化部51から得られた復号化情報から、エピポーラ拘束処理によって、エピポーラ線上の対応点を排除することで、重畳点における相互反射成分の復号化情報を排除する。 The epipolar constraint processing unit 521 eliminates the decoding information of the mutual reflection component at the superposition point by removing the corresponding points on the epipolar line from the decoding information obtained from the decoding unit 51 by the epipolar constraint processing.

ジオメトリ拘束処理部522は、復号化部51から得られた復号化情報について、エピポーラ拘束処理部521で一部の復号化情報が排除された後に、さらに、エピポーラ拘束のみでは排除できない重畳点の相互反射成分の復号化情報をジオメトリ拘束によって排除する。 Regarding the decoding information obtained from the decoding unit 51, the geometry constraint processing unit 522 removes some of the decoding information by the epipolar constraint processing unit 521, and then further, the mutual overlap points that cannot be excluded by the epipolar constraint alone. Decoding information of the reflection component is excluded by geometry constraint.

このために、3次元形状計測部53は、エピポーラ拘束処理が行われた後の復号化情報即ち、相互反射成分の復号化情報が排除された復号化情報を用いて、幾何計算により復元点を求めることにより3次元形状の計測(復元)を行って、復元点をジオメトリ拘束処理部522に出力する。ジオメトリ拘束処理部522は、3次元形状計測部53から得た復元点が復元範囲内か否かを判断し、復元範囲外の復元点を排除する。 For this purpose, the three-dimensional shape measuring unit 53 uses the decoding information after the epipolar constraint processing is performed, that is, the decoding information from which the decoding information of the mutual reflection component is excluded, to determine the restoration point by geometric calculation. By obtaining it, the three-dimensional shape is measured (restored), and the restored point is output to the geometry constraint processing unit 522. The geometry constraint processing unit 522 determines whether or not the restoration point obtained from the three-dimensional shape measurement unit 53 is within the restoration range, and excludes the restoration point outside the restoration range.

拘束範囲設定部523は、ジオメトリ拘束処理部522におけるジオメトリ拘束の範囲を設定する。ジオメトリ拘束処理部522は、拘束範囲設定部523で設定された拘束範囲においてジオメトリ拘束処理を行って相互反射による復元点を排除する。拘束範囲設定部523におけるジオメトリ拘束の範囲の設定については、後に詳述する。 The constraint range setting unit 523 sets the range of the geometry constraint in the geometry constraint processing unit 522. The geometry constraint processing unit 522 performs geometry constraint processing in the constraint range set by the constraint range setting unit 523 to eliminate restoration points due to mutual reflection. The setting of the range of geometry constraint in the constraint range setting unit 523 will be described in detail later.

図7は、本発明の実施の形態の直接反射成分と間接反射成分とが重畳する例を示す図である。図7に示す例では、ワークWが鏡面性を有することにより、プロジェクタ10から投影される投影画像81上のエピポーラ線83上の2点85、86から投影された光が、カメラ20の撮像画像82上のエピポーラ線84上の1点87で観測されている。 FIG. 7 is a diagram showing an example in which the direct reflection component and the indirect reflection component of the embodiment of the present invention are superimposed. In the example shown in FIG. 7, since the work W has a mirror surface property, the light projected from the two points 85 and 86 on the epipolar line 83 on the projected image 81 projected from the projector 10 is the captured image of the camera 20. It is observed at one point 87 on the epipolar line 84 on 82.

図8は、本発明の実施の形態のジオメトリ拘束処理の説明図である。図8において、奥行方向の復元範囲91は、ワークWを包含するように設定されている。対応点92を用いた復元点94はワークWの表面上にあり、対応点93を用いた復元点95はワークWとは異なる場所にある。また、図8には、カメラ20の光学中心95及びプロジェクタ10の光学中心96が示されている。直接反射光の対応点94及び相互反射光の対応点93の2つの対応点のうち相互反射光の対応点93で3次元計測された点(復元点)は、復元範囲91外に復元されているため、ジオメトリ拘束処理部522は、この復元点を排除する。 FIG. 8 is an explanatory diagram of the geometry constraint processing according to the embodiment of the present invention. In FIG. 8, the restoration range 91 in the depth direction is set to include the work W. The restoration point 94 using the correspondence point 92 is on the surface of the work W, and the restoration point 95 using the correspondence point 93 is in a different place from the work W. Further, FIG. 8 shows the optical center 95 of the camera 20 and the optical center 96 of the projector 10. Of the two corresponding points of the directly reflected light correspondence point 94 and the mutual reflected light correspondence point 93, the point (restoration point) measured three-dimensionally at the mutual reflected light correspondence point 93 is restored outside the restoration range 91. Therefore, the geometry constraint processing unit 522 eliminates this restoration point.

これにより、図7において相互反射光で得られた対応点は、図8のようにワークWの復元範囲91から離れた位置に復元される可能性が高いため、ジオメトリ拘束処理部522でこのような対応点を排除することで、図7の場合の多くの重畳点について、相互反射光の復元点を有効に排除できる。 As a result, the corresponding points obtained by the mutually reflected light in FIG. 7 are likely to be restored to a position away from the restoration range 91 of the work W as shown in FIG. 8, and thus the geometry constraint processing unit 522 By eliminating the corresponding points, it is possible to effectively eliminate the restoration points of the mutually reflected light for many overlapping points in the case of FIG. 7.

3次元情報出力部6は、ジオメトリ拘束処理部522におけるジオメトリ拘束処理で残った復元点を3次元形状の計測結果として出力する。 The three-dimensional information output unit 6 outputs the restoration points remaining in the geometry constraint processing in the geometry constraint processing unit 522 as the measurement result of the three-dimensional shape.

図9は、本発明の実施の形態の対応付けの結果(N=30の時)を示す図である。図9(A)はカメラ20による実験シーンの撮像画像である。図9(A)に示すように、この例では、左に白い箱があり、右にアルミ製のL字アングルが配置されている。図9(B)は、幾何拘束を用いない場合の結果を示している。なお、図9(B)の左上には、座標符号化情報も示している。 FIG. 9 is a diagram showing the result of association (when N = 30) according to the embodiment of the present invention. FIG. 9A is an image captured by the camera 20 of the experimental scene. As shown in FIG. 9A, in this example, there is a white box on the left and an aluminum L-shaped angle is arranged on the right. FIG. 9B shows the result when the geometric constraint is not used. The coordinate coding information is also shown in the upper left of FIG. 9B.

図9(C)は、エピポーラ拘束処理を行った結果を示しており、図9(E)はエピポーラ拘束処理とジオメトリ拘束処理を行った結果を示している。図9(D)は、図9(C)及び図9(E)における結果の一部を拡大して並べて示している。 FIG. 9C shows the result of performing the epipolar constraint process, and FIG. 9E shows the result of performing the epipolar constraint process and the geometry constraint process. 9 (D) shows a part of the results in FIGS. 9 (C) and 9 (E) in an enlarged manner and side by side.

幾何拘束を用いない図9(B)の場合には、L字アングル上で重畳点が発生し、復号化誤りが比較的多くなっているが、エピポーラ拘束処理を行った図9(C)の結果では重畳点による符号化誤りが大幅に減少している。さらに、ジオメトリ拘束処理も行うと、図9(D)に示すように、相互反射に起因する符号化誤り(図9(C)及び図9(D)の黒枠部を参照)をより低減できることが分かる。 In the case of FIG. 9 (B) in which the geometric constraint is not used, overlapping points occur on the L-shaped angle and the decoding error is relatively large, but in FIG. 9 (C) in which the epipolar constraint process is performed. As a result, the coding error due to the superposition point is greatly reduced. Further, when the geometry constraint processing is also performed, as shown in FIG. 9 (D), coding errors due to mutual reflection (see the black frame portions in FIGS. 9 (C) and 9 (D)) can be further reduced. I understand.

図10は、本発明の実施の形態の3次元形状測定部による形状計測結果を示す図である。図10(A)は、従来の方法を用いた結果であり、図10(B)は、幾何拘束を用いない場合の結果であり、図10(C)は、エピポーラ拘束処理を行った場合の結果であり、図10(D)は、エピポーラ拘束処理とジオメトリ拘束処理を行った場合の結果である。 FIG. 10 is a diagram showing a shape measurement result by the three-dimensional shape measuring unit according to the embodiment of the present invention. FIG. 10 (A) is the result of using the conventional method, FIG. 10 (B) is the result of not using the geometric constraint, and FIG. 10 (C) is the result of performing the epipolar constraint process. As a result, FIG. 10 (D) shows the result when the epipolar constraint process and the geometry constraint process are performed.

図10(A)に示す従来の方法の結果では、相互反射成分を判定できないが、図10(B)〜(D)では、相互反射成分を判定できている。L字アングルの凹み付近での計測点について注目すると、エピポーラ拘束処理に加えてジオメトリ拘束処理を行った効果により、図10(D)が最も密で、かつ、ノイズを少なくして計測できている。 Although the mutual reflection component cannot be determined by the result of the conventional method shown in FIG. 10 (A), the mutual reflection component can be determined in FIGS. 10 (B) to 10 (D). Focusing on the measurement points near the dent of the L-shaped angle, FIG. 10 (D) is the densest and can be measured with less noise due to the effect of performing geometry constraint processing in addition to epipolar constraint processing. ..

図11は、本発明の実施の形態のジオメトリ拘束処理の効果を示すグラフである。エピポーラ共有点は、近点及び遠点で構成され、投影画像上のエピポーラ線上の2点が相互反射のために離れた位置からの投影光が重畳したエピポーラ共有点を「遠点」と定義し、近傍ドットの漏れ光が重畳したエピポーラ共有点を「近点」と定義する。 FIG. 11 is a graph showing the effect of the geometry constraint processing according to the embodiment of the present invention. The epipolar common point is composed of a near point and a far point, and the epipolar common point where two points on the epipolar line on the projected image are superimposed with the projected light from a distant position due to mutual reflection is defined as a "far point". , The epipolar shared point on which the leaked light of the neighboring dots is superimposed is defined as the "near point".

図11において、各グラフは投影枚数Nを変えた際の発生点数を示す。図11(A)の縦軸は、重畳点及びエピポーラ共有点の点数の変化を示し、図11(B)の縦軸は、エピポーラ共有点を構成する遠点及び近点の点数の変化を示し、図11(C)の縦軸は、遠点のうちジオメトリ拘束処理で除去された点数の変化を示している。 In FIG. 11, each graph shows the number of points generated when the number of projected sheets N is changed. The vertical axis of FIG. 11A shows the change in the points of the superimposition point and the epipolar common point, and the vertical axis of FIG. 11B shows the change of the points of the far point and the near point constituting the epipolar common point. , The vertical axis of FIG. 11C shows the change in the number of distant points removed by the geometry constraint process.

全体傾向を見ると、撮影枚数Nが比較的小さい場合(N=10〜29)は、直接反射の信号の信頼度が低く、正しく復号化されない点が多いため、重畳点が多く発生するが、エピポーラ共有点は少ない。一方で、撮影枚数Nが比較的大きい場合(N=30〜50)は、直接反射の信号の信頼度が高くなり、正しく復号化される点が増えるため、重畳点は減少し、エピポーラ共有点は増加する傾向にある。 Looking at the overall tendency, when the number of shots N is relatively small (N = 10 to 29), the reliability of the direct reflection signal is low and there are many points where it is not correctly decoded, so that many overlapping points occur. There are few epipolar sharing points. On the other hand, when the number of shots N is relatively large (N = 30 to 50), the reliability of the direct reflection signal is high and the number of points to be correctly decoded increases, so that the number of superimposition points decreases and the epipolar shared point. Tends to increase.

図11(B)及び図11(C)に示すように、投影枚数Nが大きい場合は、遠点と近点の発声比率はおよそ1対4であり、遠点のうち、相互反射による復元点の約60%をジオメトリ拘束処理で排除できる。この例では、最小投影枚数N=30でノイズの少ない復元が可能である。以上のように、投影枚数Nを少なくすると、エピポーラ拘束処理のみでは直接反射光の対応点が決定できない重畳点が増加し、ジオメトリ拘束処理の効果が顕著になる。 As shown in FIGS. 11B and 11C, when the number of projected images N is large, the vocalization ratio between the far point and the near point is about 1: 4, and the restoration point due to mutual reflection among the far points About 60% of the above can be eliminated by geometry constraint processing. In this example, restoration with less noise is possible with a minimum number of projected images N = 30. As described above, when the number of projected sheets N is reduced, the number of overlapping points at which the corresponding points of the directly reflected light cannot be determined only by the epipolar constraint processing increases, and the effect of the geometry constraint processing becomes remarkable.

次に、拘束範囲設定部523におけるジオメトリ拘束処理の拘束範囲の設定について説明する。上記の説明から明らかなように、拘束範囲は、対象物を完全に含んでいる必要があるとともに、拘束範囲が小さいほど、ジオメトリ拘束処理が有効に相互反射光の復元点を排除できる。このような拘束範囲は、種々の方法によって設定することができる。 Next, the setting of the constraint range of the geometry constraint process in the constraint range setting unit 523 will be described. As is clear from the above description, the constraint range must completely include the object, and the smaller the constraint range, the more effectively the geometry constraint process can eliminate the restoration point of the mutually reflected light. Such a restraint range can be set by various methods.

なお、拘束範囲は、必ずしも3次元の閉空間として設定される必要はなく、1次元又は2次元の方向に解放されていてもよい。例えば、奥行方向にのみ拘束範囲が設定され、奥行方向と直行する平面方向には解放されていてもよく、あるいは、拘束範囲が投影部2の投影画角内として設定され、投影奥行方向の拘束条件が設定されていなくてもよい。 The constraint range does not necessarily have to be set as a three-dimensional closed space, and may be released in the one-dimensional or two-dimensional direction. For example, the constraint range may be set only in the depth direction and released in the plane direction perpendicular to the depth direction, or the constraint range may be set within the projection angle of view of the projection unit 2 and the constraint range in the projection depth direction may be set. The conditions do not have to be set.

まず、拘束範囲は、ユーザの指定に応じて設定することができる。この場合には、拘束範囲設定部523には、ユーザからの拘束範囲の指定が入力され、拘束範囲設定部523は、この指定に従って拘束範囲を設定する。ユーザは、撮像部1及び投影部2に関連して設定された座標内で任意の範囲を指定することができる。例えば、拘束範囲を直方体のボックス形状とする場合には、ユーザは、ボックスの縦横高さ、位置、姿勢を指定することで拘束範囲を指定することができる。 First, the constraint range can be set according to the user's specification. In this case, the constraint range designation from the user is input to the constraint range setting unit 523, and the constraint range setting unit 523 sets the constraint range according to this designation. The user can specify an arbitrary range within the coordinates set in relation to the imaging unit 1 and the projection unit 2. For example, when the constraint range is a rectangular parallelepiped box shape, the user can specify the constraint range by specifying the height, position, and posture of the box.

特に、対象物の形状、位置、姿勢が既知である場合には、ユーザは、その既知の形状、位置、姿勢に従って拘束範囲を指定することができる。例えば、上記のように対象物に対して仕事をするための3次元形状計測の場合には、対象物の位置及び姿勢が未知である場合があるが、対象物の形状検査のための3次元形状計測の場合には、対象物の形状、位置、姿勢が既知である場合がある。対象物の形状、位置、姿勢が既知である場合には、ユーザが予め対象物の既知の形状、位置、姿勢に応じて拘束範囲を指定することができる。 In particular, when the shape, position, and posture of the object are known, the user can specify the restraint range according to the known shape, position, and posture. For example, in the case of 3D shape measurement for working on an object as described above, the position and posture of the object may be unknown, but 3D for shape inspection of the object. In the case of shape measurement, the shape, position, and posture of the object may be known. When the shape, position, and posture of the object are known, the user can specify the restraint range in advance according to the known shape, position, and posture of the object.

また、拘束範囲設定部523は、対象物の形状に応じて拘束範囲を設定してもよい。上述のように、対象物がL字アングルである場合には、拘束範囲はその形状に合わせて、当該L字アングルを包含するL字アングル形状に設定されてよい。 Further, the restraint range setting unit 523 may set the restraint range according to the shape of the object. As described above, when the object has an L-shaped angle, the restraint range may be set to an L-shaped angle shape including the L-shaped angle according to the shape.

また、3次元形状計測システム100が、対象物を検出する検出部をさらに備えて、拘束範囲設定部523が、検出部の検出結果に応じて拘束範囲を設定してよい。すなわち、対象物の位置が未知である場合に、検出部が既存の手法を用いて対象物を検知し、拘束範囲設定部523が、検知部によって対象物が検知された位置に拘束範囲を設定してよい。 Further, the three-dimensional shape measurement system 100 may further include a detection unit for detecting an object, and the restraint range setting unit 523 may set the restraint range according to the detection result of the detection unit. That is, when the position of the object is unknown, the detection unit detects the object using an existing method, and the constraint range setting unit 523 sets the constraint range at the position where the object is detected by the detection unit. You can do it.

さらに、3次元形状計測システム100は、上記の3次元形状計測より粗い精度で対象物の形状を計測する第2の3次元形状計測部をさらに備えていてよい。そして、拘束範囲設定部523は、第2の3次元形状計測部の計測結果に基づいて、対象物が含まれるように拘束範囲を設定してよい。第2の3次元形状計測部によって対象物の大まかな形状、位置、姿勢が得られるので、拘束範囲設定部523は、それを包含するように拘束範囲を設定する。 Further, the three-dimensional shape measurement system 100 may further include a second three-dimensional shape measurement unit that measures the shape of the object with a coarser accuracy than the above-mentioned three-dimensional shape measurement. Then, the restraint range setting unit 523 may set the restraint range so that the object is included based on the measurement result of the second three-dimensional shape measurement unit. Since the rough shape, position, and posture of the object can be obtained by the second three-dimensional shape measuring unit, the restraint range setting unit 523 sets the restraint range so as to include it.

あるいは、対象物が存在すべき空間に、拘束範囲となるべき形状、位置、姿勢の物体を置いて、第2の3次元形状計測部によって当該物体を計測して、拘束範囲設定部523が、計測された形状、位置、姿勢をそのまま拘束範囲としてもよい。 Alternatively, an object having a shape, position, and posture that should be a restraint range is placed in the space where the object should exist, and the object is measured by the second three-dimensional shape measurement unit, and the restraint range setting unit 523 determines. The measured shape, position, and posture may be used as they are as the restraint range.

図12は、本発明の実施の形態の3次元形状計測のフローチャートである。まず、信号処理部5は、あらかじめ得られている幾何的なキャリブレーションパラメタを取得する(ステップS121)。投影部2は、符号化パターン画像生成部4で生成された符号化パターン画像列を投影する(ステップS122)。撮像部1は、投影された符号化パターン画像列を複数枚撮像して撮像画像列を取得する(ステップS123)。 FIG. 12 is a flowchart of three-dimensional shape measurement according to the embodiment of the present invention. First, the signal processing unit 5 acquires the geometric calibration parameters obtained in advance (step S121). The projection unit 2 projects the coded pattern image sequence generated by the coded pattern image generation unit 4 (step S122). The imaging unit 1 acquires a plurality of projected coded pattern image sequences to acquire the captured image sequence (step S123).

符号化部51は、撮像画像列を用いて、撮像画像上で復号化を行う(ステップS124)。エピポーラ拘束処理部521は、重畳点についてエピポーラ拘束処理を行うことで、復号化情報から相互反射成分の復号化情報を排除する(ステップS125)。3次元形状計測部53が残った重畳点を含む復号化情報から3次元形状を計測(復元)して、ジオメトリ拘束処理部522に出力する(ステップS126)。 The coding unit 51 decodes the captured image using the captured image sequence (step S124). The epipolar constraint processing unit 521 removes the decoding information of the mutual reflection component from the decoding information by performing the epipolar constraint processing on the superposed point (step S125). The three-dimensional shape measuring unit 53 measures (restores) the three-dimensional shape from the decoding information including the remaining overlapping points, and outputs the three-dimensional shape to the geometry constraint processing unit 522 (step S126).

ジオメトリ拘束処理部522は、3次元形状計測部53から得た復元点から、復元範囲外の復元点を排除し(ステップS127)、3次元情報出力部6は、残った復元点を対象物の3次元形状を示す3次元形状データとして出力する(ステップS128)。 The geometry constraint processing unit 522 excludes the restoration points outside the restoration range from the restoration points obtained from the three-dimensional shape measurement unit 53 (step S127), and the three-dimensional information output unit 6 sets the remaining restoration points as the object. It is output as three-dimensional shape data indicating the three-dimensional shape (step S128).

以上のように、本実施の形態によれば、復号化により重畳点において直接反射成分の復号化情報と相互反射成分の復号化情報とが分離して得られ、それらを用いて3次元形状計測を行ったときに、相互反射の対応点で復元された点は復元範囲外に復元され、直接反射の対応点は復元範囲内に復元される性質を用いて、復元範囲外の復元点を排除することで、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 As described above, according to the present embodiment, the decoding information of the direct reflection component and the decoding information of the mutual reflection component are separately obtained at the superimposition point by decoding, and the three-dimensional shape measurement is performed using them. When the above is performed, the points restored at the corresponding points of mutual reflection are restored outside the restoration range, and the corresponding points of direct reflection are restored within the restoration range, and the restoration points outside the restoration range are excluded. By doing so, it is possible to measure (restore) the three-dimensional shape by appropriately excluding the restoration points due to mutual reflection even for the overlapping points that cannot be separated only by the epipolar constraint that restores the corresponding points of direct reflection.

(変形例1)
上記の実施の形態では、対象物に投影された符号化パターン画像をカメラ20(撮像部1)で撮像しているが、このカメラ20に代えて、イベントカメラを用いてもよい。イベントカメラは輝度値の変化量に応じて、画素ごとにイベントを検出することが可能なカメラである。イベントカメラは、通常のカメラよりもダイナミックレンジが広く、小型かつ省メモリで利用できる点で有利である。イベントカメラのこの性質を利用することで、対象物が金属以外の半透明物等である場合にも有効に3次元形状を計測できる。
(Modification example 1)
In the above embodiment, the coded pattern image projected on the object is captured by the camera 20 (imaging unit 1), but an event camera may be used instead of the camera 20. The event camera is a camera capable of detecting an event for each pixel according to the amount of change in the brightness value. Event cameras have a wider dynamic range than ordinary cameras, and are advantageous in that they are compact and can be used with low memory. By utilizing this property of the event camera, the three-dimensional shape can be effectively measured even when the object is a translucent object other than metal.

(変形例2)
上記の実施の形態では、符号化パターン画像として、白黒2値のランダムドットパターンを用いているが、これに代えて、ライン型のM系列画像などを用いてもよい。
(Modification 2)
In the above embodiment, a black-and-white binary random dot pattern is used as the coded pattern image, but a line-type M-sequence image or the like may be used instead.

(変形例3)
上記の実施の形態では、プロジェクタ10とカメラ20とをそれぞれ1つずつ用いて3次元形状計測システム100を構成したが、プロジェクタ10やカメラ20は、複数であってもよい。例えば、1台のプロジェクタと複数台のカメラ20の組み合わせ、複数台のプロジェクタ10と1台のカメラ20との組み合わせ、複数台のプロジェクタ10と複数台のプロジェクタ10と複数台のカメラ20との組み合わせで3次元形状計測システム100を構成してもよい。
(Modification 3)
In the above embodiment, the three-dimensional shape measurement system 100 is configured by using one projector 10 and one camera 20, but the number of projectors 10 and cameras 20 may be plural. For example, a combination of one projector and a plurality of cameras 20, a combination of a plurality of projectors 10 and one camera 20, a combination of a plurality of projectors 10 and a plurality of projectors 10 and a plurality of cameras 20. 3D shape measurement system 100 may be configured with.

プロジェクタ10が複数ある場合には、それぞれのプロジェクタ10が独自の符号化パターン画像列を投影し、かつ、それぞれが発生させる符号化の信号のZNCCが相対的に低い場合には、復号化情報の分離が可能となる。 When there are a plurality of projectors 10, each projector 10 projects a unique coded pattern image sequence, and when the ZNCC of the coded signal generated by each projector is relatively low, the decoding information Separation is possible.

本発明は、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができ、対象物に符号化パターン画像を投影して、符号化パターン画像が投影された対象物を撮影することで当該対象物の3次元形状を計測する3次元形状計測システム等として有用である。 According to the present invention, even for a superposed point that cannot be separated only by the epipolar constraint that restores the corresponding point of direct reflection, the restoration point due to mutual reflection can be appropriately excluded to measure (restore) the three-dimensional shape of the object. It is useful as a three-dimensional shape measurement system or the like that measures the three-dimensional shape of the object by projecting the coded pattern image onto the object and photographing the object on which the coded pattern image is projected.

1 撮像部
2 投影部
3 同期制御部
4 符号化パターン画像生成部
5 情報処理部
51 復号化部
52 重畳点処理部
521 エピポーラ拘束処理部
522 ジオメトリ拘束処理部
523 拘束範囲設定部
53 3次元形状計測部
6 3次元形状出力部
10 プロジェクタ
20 カメラ
30 3次元形状計測装置
40 アームロボット
100 3次元形状計測システム
W ワーク(対象物)
1 Imaging unit 2 Projection unit 3 Synchronous control unit 4 Coding pattern image generation unit 5 Information processing unit 51 Decoding unit 52 Superimposition point processing unit 521 Epipolar constraint processing unit 522 Geometry constraint processing unit 523 Constraint range setting unit 53 3D shape measurement Part 6 3D shape output part 10 Projector 20 Camera 30 3D shape measuring device 40 Arm robot 100 3D shape measuring system W work (object)

Claims (12)

符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影する投影手段と、
前記投影手段にて前記符号化パターン画像が投影される対象物を順に撮像して、複数の撮像画像からなる撮像画像列を取得する撮像手段と、
前記符号化パターン画像列及び前記撮像画像列に基づいて、復号化を行って復号化情報を取得する復号化手段であって、直接反射光と間接反射光とが重なった重畳点については直接反射成分の復号化情報と相互反射成分の復号化情報とに分離して前記復号化情報を取得する復号化手段と、
前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測手段と、
所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理手段と、
を備えた3次元形状計測システム。
A projection means that sequentially projects multiple types of coded pattern images that form a coded pattern image sequence,
An imaging means that acquires an image sequence composed of a plurality of captured images by sequentially imaging an object on which the coded pattern image is projected by the projection means.
It is a decoding means that obtains decoding information by performing decoding based on the coded pattern image sequence and the captured image sequence, and is directly reflected at an overlapping point where directly reflected light and indirect reflected light overlap. Decoding means for acquiring the decoding information by separating the decoding information of the component and the decoding information of the mutual reflection component,
A three-dimensional shape measuring means for measuring the three-dimensional shape of the object by obtaining a restoration point by geometric calculation using the decoded information.
Superimposition point processing means that performs geometry constraint processing that excludes the restoration points outside the predetermined constraint range, and
3D shape measurement system equipped with.
前記重畳点処理手段は、前記復元点をエピポーラ線上に限定するエピポーラ拘束処理によって前記重畳点における前記相互反射成分の復号化情報を排除し、
前記3次元形状計測手段は、前記エピポーラ拘束処理によって前記相互反射成分の復号化情報を排除された前記復号化情報を用いて、前記3次元形状を計測する、請求項1に記載の3次元形状計測システム。
The superimposition point processing means eliminates the decoding information of the mutual reflection component at the superimposition point by epipolar constraint processing that limits the restoration point on the epipolar line.
The three-dimensional shape according to claim 1, wherein the three-dimensional shape measuring means measures the three-dimensional shape by using the decoding information from which the decoding information of the mutual reflection component is excluded by the epipolar constraint process. Measurement system.
前記重畳点処理手段は、前記ジオメトリ拘束処理における前記拘束範囲を設定する拘束範囲設定手段を備えた、請求項1又は2に記載の3次元形状計測システム。 The three-dimensional shape measuring system according to claim 1 or 2, wherein the superimposing point processing means includes a constraint range setting means for setting the constraint range in the geometry constraint process. 前記拘束範囲設定手段は、ユーザによる指定に応じて前記拘束範囲を設定する、請求項3に記載の3次元形状計測システム。 The three-dimensional shape measuring system according to claim 3, wherein the restraint range setting means sets the restraint range according to a designation by a user. 前記拘束範囲設定手段は、前記対象物の形状に応じて前記拘束範囲を設定する、請求項3に記載の3次元形状計測システム。 The three-dimensional shape measuring system according to claim 3, wherein the restraint range setting means sets the restraint range according to the shape of the object. 前記拘束範囲設定手段は、前記対象物の位置に応じて前記拘束範囲を設定する、請求項3に記載の3次元形状計測システム。 The three-dimensional shape measuring system according to claim 3, wherein the restraint range setting means sets the restraint range according to the position of the object. 前記対象物を検出する検出手段をさらに備え、
前記拘束範囲設定手段は、前記検出手段の検出結果に応じて前記拘束範囲を設定する、請求項3に記載の3次元形状計測システム。
Further provided with a detection means for detecting the object,
The three-dimensional shape measurement system according to claim 3, wherein the restraint range setting means sets the restraint range according to the detection result of the detection means.
前記3次元形状計測手段より粗い精度で前記対象物の形状を計測する第2の3次元形状計測手段をさらに備え、
前記拘束範囲設定手段は、前記第2の3次元形状計測手段の計測結果に基づいて、前記対象物が含まれるように前記拘束範囲を設定する、請求項3に記載の3次元形状計測システム。
A second three-dimensional shape measuring means for measuring the shape of the object with a coarser accuracy than the three-dimensional shape measuring means is further provided.
The three-dimensional shape measuring system according to claim 3, wherein the restraint range setting means sets the restraint range so as to include the object based on the measurement result of the second three-dimensional shape measuring means.
前記符号化パターン画像列は、ランダム数に基づいて生成される、請求項1〜6のいずれかに記載の3次元形状計測システム。 The three-dimensional shape measurement system according to any one of claims 1 to 6, wherein the coded pattern image sequence is generated based on a random number. 前記復号化手段は、最大の正規化相互相関値と第2位の正規化相互相関値との比を所定の閾値と比較することで、前記重畳点を識別する、請求項9に記載の3次元形状計測システム。 3. The three according to claim 9, wherein the decoding means identifies the superposition point by comparing the ratio of the maximum normalized cross-correlation value to the second-ranked normalized cross-correlation value with a predetermined threshold value. Dimensional shape measurement system. 符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影する投影ステップと、
前記投影ステップにて前記符号化パターン画像が投影される対象物を順に撮像して、複数の撮像画像からなる撮像画像列を取得する撮像ステップと、
前記符号化パターン画像列及び前記撮像画像列に基づいて、前記撮像画像上で、直接反射光と間接反射光とが重なった重畳点を含む対応点を探索する復号化ステップと、
前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測ステップと、
所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理ステップと、
を備えた3次元形状計測方法。
A projection step that sequentially projects multiple types of coded pattern images that form a coded pattern image sequence,
An imaging step in which an object on which the coded pattern image is projected is sequentially imaged in the projection step, and an captured image sequence composed of a plurality of captured images is acquired.
Based on the coded pattern image sequence and the captured image sequence, a decoding step of searching for a corresponding point including a superposed point in which the directly reflected light and the indirect reflected light overlap on the captured image, and a decoding step.
A three-dimensional shape measurement step of measuring the three-dimensional shape of the object by obtaining a restoration point by geometric calculation using the decoding information, and
A superposition point processing step that performs a geometry constraint process that excludes the restored points outside the predetermined constraint range, and
A three-dimensional shape measurement method equipped with.
コンピュータに、
投影手段に、符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影させる投影ステップと、
撮像手段に、前記投影ステップにて前記符号化パターン画像が投影される対象物を順に撮像させて、複数の撮像画像からなる撮像画像列を取得させる撮像ステップと、
前記符号化パターン画像列及び前記撮像画像列に基づいて、前記撮像画像上で、直接反射光と間接反射光とが重なった重畳点を含む対応点を探索する復号化ステップと、
前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測ステップと、
所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理ステップと、
を実行させる3次元形状計測プログラム。
On the computer
A projection step of sequentially projecting a plurality of types of coded pattern images forming a coded pattern image sequence on the projection means,
An imaging step in which the imaging means sequentially images an object on which the coded pattern image is projected in the projection step to acquire an image sequence composed of a plurality of captured images.
Based on the coded pattern image sequence and the captured image sequence, a decoding step of searching for a corresponding point including a superposed point in which the directly reflected light and the indirect reflected light overlap on the captured image, and a decoding step.
A three-dimensional shape measurement step of measuring the three-dimensional shape of the object by obtaining a restoration point by geometric calculation using the decoding information, and
A superposition point processing step that performs a geometry constraint process that excludes the restored points outside the predetermined constraint range, and
3D shape measurement program to execute.
JP2019135943A 2019-07-24 2019-07-24 Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program Pending JP2021018219A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019135943A JP2021018219A (en) 2019-07-24 2019-07-24 Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019135943A JP2021018219A (en) 2019-07-24 2019-07-24 Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program

Publications (1)

Publication Number Publication Date
JP2021018219A true JP2021018219A (en) 2021-02-15

Family

ID=74563171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019135943A Pending JP2021018219A (en) 2019-07-24 2019-07-24 Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program

Country Status (1)

Country Link
JP (1) JP2021018219A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113358103A (en) * 2021-04-25 2021-09-07 西安交通大学 Distributed measurement architecture processing method of large-scale R-LATs measurement system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016217833A (en) * 2015-05-19 2016-12-22 株式会社リコー Image processing system and image processing method
JP2018146449A (en) * 2017-03-07 2018-09-20 オムロン株式会社 Device and method for measuring three-dimensional shape

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016217833A (en) * 2015-05-19 2016-12-22 株式会社リコー Image processing system and image processing method
JP2018146449A (en) * 2017-03-07 2018-09-20 オムロン株式会社 Device and method for measuring three-dimensional shape

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TATSUHIKO FURUSE ET AL.: "Synchronous Detection for Robust 3-D Shape Measurement against Interreflection and Subsurface Scatte", ICIAP 2011: PROCEEDINGS OF THE 16TH INTERNATIONAL CONFERENCE ON IMAGE ANALYSIS AND PROCESSING: PRAT, vol. 6978, JPN6022040956, 14 September 2011 (2011-09-14), pages 276 - 285, XP019164492, ISSN: 0005102734, DOI: 10.1007/978-3-642-24085-0_29 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113358103A (en) * 2021-04-25 2021-09-07 西安交通大学 Distributed measurement architecture processing method of large-scale R-LATs measurement system
CN113358103B (en) * 2021-04-25 2023-06-09 西安交通大学 Distributed measurement architecture processing method of large-scale R-LATs measurement system

Similar Documents

Publication Publication Date Title
JP6347789B2 (en) System for optically scanning and measuring the surrounding environment
EP1595224B1 (en) Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
JP6596433B2 (en) Structured optical matching of a set of curves from two cameras
US9835438B2 (en) Distance measuring apparatus and method
JP6097903B2 (en) Three-dimensional shape acquisition apparatus, processing method, and program
JP3482990B2 (en) 3D image capturing device
JP7168077B2 (en) Three-dimensional measurement system and three-dimensional measurement method
CN112602118B (en) Image processing device and three-dimensional measurement system
JP2011237296A (en) Three dimensional shape measuring method, three dimensional shape measuring device, and program
KR102160340B1 (en) Method and apparatus for generating 3-dimensional data of moving object
JP7184203B2 (en) Image processing device, three-dimensional measurement system, image processing method
JP6975106B2 (en) 3D shape measurement system, 3D shape measurement method, and 3D shape measurement program
JP2021018219A (en) Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program
Rodrigues et al. Structured light techniques for 3D surface reconstruction in robotic tasks
JP6456084B2 (en) Image processing apparatus, image processing method, and program
JP2020027599A (en) Three-dimensional scanning system
JP6671589B2 (en) Three-dimensional measurement system, three-dimensional measurement method, and three-dimensional measurement program
JP2006058092A (en) Three-dimensional shape measuring device and method
JPH05122602A (en) Range moving image input processing method
JP3932776B2 (en) 3D image generation apparatus and 3D image generation method
JP2023158825A (en) Three-dimensional shape measurement system, three-dimensional shape measurement method and three-dimensional shape measurement program
JP2022083132A (en) Three-dimensional shape measuring system, three-dimensional shape measuring method, and three-dimensional shape measuring program
Nikolova Experimental studies on the acquisition of 3D information using 2D images captured by a moving digital still camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230426

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230509

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230714