[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH08136222A - Method and device for three-dimensional measurement - Google Patents

Method and device for three-dimensional measurement

Info

Publication number
JPH08136222A
JPH08136222A JP6303231A JP30323194A JPH08136222A JP H08136222 A JPH08136222 A JP H08136222A JP 6303231 A JP6303231 A JP 6303231A JP 30323194 A JP30323194 A JP 30323194A JP H08136222 A JPH08136222 A JP H08136222A
Authority
JP
Japan
Prior art keywords
pattern
image
pixel
brightness
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6303231A
Other languages
Japanese (ja)
Inventor
Kosuke Sato
宏介 佐藤
Shigeru Yoda
茂 余田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP6303231A priority Critical patent/JPH08136222A/en
Publication of JPH08136222A publication Critical patent/JPH08136222A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To measure the position of an object accurately accurately without receiving effects of the minuteness of the picture elements of an input image and the color of the surface of the object. CONSTITUTION: The specified pattern is formed in a work station 3 and moved. A liquid crystal projector 2 emits the light on the surface of an object 1 and projects the above described pattern. A CCD camera 5 picks up the image of the object, whose pattern is projected, at every specified time and forms a plurality of the images. These images are inputted into the work station 3. In the work station 3, the specified picture element on each image is noticed, and the brightness of the picture element is extracted. After the correlation value of the obtained time-series data and the above described pattern is obtained for every images, the comparison of the respective correlation values is performed, and the image, whose brightness becomes the maximum among the above described images, is specified. The position of the object is computed based on the time when the specified image is obtained and the position of the above described image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、対象物の三次元位置
を計測して形状などの認識を行うための三次元計測方法
およびその装置に関連し、特にこの発明は、対象物の表
面に投影された特定のパターンを撮像して得られた画像
を処理することにより前記の位置計測や形状などの認識
を実行する三次元計測方法およびその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional measuring method and apparatus for measuring the three-dimensional position of an object and recognizing the shape and the like. The present invention relates to a three-dimensional measurement method and apparatus for executing the above-described position measurement and recognition of a shape by processing an image obtained by imaging a specific projected pattern.

【0002】[0002]

【従来の技術】従来の三次元計測装置は、図17に示す
ように、レーザ光源31および反射鏡32を含む投光系
30と、撮像装置34および画像処理装置35を含む受
光系33とで構成される。前記投光系30の反射鏡32
と前記受光系33の撮像装置34とは同じ高さに所定の
距離Lだけ離れて位置し、それぞれ対象物38に向けて
配置してある。
2. Description of the Related Art A conventional three-dimensional measuring device, as shown in FIG. 17, includes a light projecting system 30 including a laser light source 31 and a reflecting mirror 32, and a light receiving system 33 including an image pickup device 34 and an image processing device 35. Composed. Reflecting mirror 32 of the light projecting system 30
And the image pickup device 34 of the light receiving system 33 are located at the same height and apart from each other by a predetermined distance L, and are respectively arranged toward the object 38.

【0003】前記投光系30は、レーザ光源31より水
平方向へ投射されたレーザ光36を反射鏡32で反射さ
せ、その反射光37を対象物38に向けて投射して、対
象物38の表面に輝点S0 を生成する。前記反射鏡32
は図示しない首振り機構に連繋されており、この首振り
機構で反射鏡32を水平方向に首振り動作させることに
より、前記反射光37を走査させて、前記輝点S0 を水
平方向に移動させる。前記反射鏡32にはエンコーダの
ような角度検出手段が設けてあり、これによりある時刻
0 における反射光37の走査角度θ(t0 )、すなわ
ち撮像装置34の方向に対する投射方向がわかるように
なっている。
The light projecting system 30 reflects the laser light 36 projected from the laser light source 31 in the horizontal direction by the reflecting mirror 32, projects the reflected light 37 toward the object 38, and projects the reflected light 37 toward the object 38. A bright point S 0 is generated on the surface. The reflecting mirror 32
Is connected to a swinging mechanism (not shown). The swinging mechanism swings the reflecting mirror 32 in the horizontal direction to scan the reflected light 37 and move the bright spot S 0 in the horizontal direction. Let The reflecting mirror 32 is provided with an angle detecting means such as an encoder so that the scanning angle θ (t 0 ) of the reflected light 37 at a certain time t 0 , that is, the projection direction with respect to the direction of the image pickup device 34 can be known. Has become.

【0004】前記受光系33では、対象物38を撮像装
置34により撮像し、その画像を画像処理装置35に取
り込む。図中、39は画像処理装置35のモニタ画面上
に表示された入力画像を示し、画像処理装置35は、前
記輝点S0 の画像S0 ′がこの入力画像39上のどの画
素位置に存在するかを求める。画像処理装置35は、前
記輝点S0 の画像S0 ′が存在する画素位置の座標(X
0 ,Y0 )より撮像装置34から見た輝点S0 の視線方
向Φ(t0 )を求め、前記走査角度θ(t0 )と、輝点
0 の視線方向Φ(t0 )と、前記反射鏡32と撮像装
置34との距離Lとから三角測量の原理により輝点S0
の空間位置の座標(X,Y,Z)を算出する。
In the light receiving system 33, the object 38 is picked up by the image pickup device 34, and the image is taken into the image processing device 35. In the figure, reference numeral 39 denotes an input image displayed on the monitor screen of the image processing device 35. In the image processing device 35, the image S 0 ′ of the bright point S 0 exists at which pixel position on the input image 39. Ask what to do. The image processing device 35 determines the coordinates (X) of the pixel position where the image S 0 ′ of the bright point S 0 exists.
0 , Y 0 ), the line-of-sight direction Φ (t 0 ) of the bright point S 0 viewed from the imaging device 34 is obtained, and the scanning angle θ (t 0 ) and the line-of-sight direction Φ (t 0 ) of the bright point S 0 are obtained. , And the distance L between the reflecting mirror 32 and the image pickup device 34, the bright point S 0 is calculated according to the principle of triangulation.
The coordinates (X, Y, Z) of the spatial position of are calculated.

【0005】[0005]

【発明が解決しようとする課題】従来の三次元計測方法
では、前記入力画像39において輝点S0 の画像S0
の明るさがどの画素位置で最大になるかにより、前記輝
点S0 の画像S0 ′が存在する画素位置の座標(X0
0 )を求めているが、そのような方法では、計測精度
は画素の細かさにより左右されることになるため、その
画素の細かさ以上の精度で輝点の画像S0 ′が存在する
画素位置を求めることができず、対象物の位置を高精度
で計測することは困難である。
According to the conventional three-dimensional measuring method, the image S 0 ′ of the bright spot S 0 in the input image 39 is obtained.
Depending on whether the brightness is maximized at any pixel location of the coordinates (X 0 of the pixel position where the image S 0 of the bright point S 0 'is present,
Y 0 ) is obtained, but in such a method, the measurement accuracy depends on the fineness of the pixel, and therefore the image S 0 ′ of the bright spot exists with an accuracy higher than the fineness of the pixel. Since the pixel position cannot be obtained, it is difficult to measure the position of the object with high accuracy.

【0006】また対象物38の表面に複数の色彩領域が
存在する場合、前記輝点S0 が色彩領域の境界などに生
成されたとき、各色彩領域の反射率が異なるため、明る
さが最大となる画素位置が輝点の画像S0 ′の中心位置
からずれるおそれがある。このため輝点S0 の画像
0 ′が存在する画素位置が正確に求められず、対象物
の位置を正確に計測することが困難である。
Further, when a plurality of color areas are present on the surface of the object 38, when the bright spot S 0 is generated at the boundary of the color areas or the like, the reflectance of each color area is different, so that the maximum brightness is obtained. There is a possibility that the pixel position at which the pixel position is shifted from the center position of the image S 0 ′ of the bright spot. Therefore, the pixel position where the image S 0 ′ of the bright point S 0 exists cannot be accurately obtained, and it is difficult to accurately measure the position of the object.

【0007】この発明は、上記問題に着目してなされた
もので、入力画像の画素の細かさや対象物の表面の色彩
の影響を受けずに、正確かつ高精度に対象物の位置を計
測できる三次元計測方法およびその装置を提供すること
を目的とする。
The present invention has been made in view of the above problems, and the position of an object can be accurately and accurately measured without being affected by the fineness of pixels of an input image or the color of the surface of the object. An object of the present invention is to provide a three-dimensional measuring method and an apparatus thereof.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するた
め、この発明では、対象物の表面へ投光して特定のパタ
ーンを投影し、その投影されたパターンを決められた方
向へ移動させつつ所定の時間毎に対象物を撮像して複数
の画像を生成し、各画像上の特定の画素に着目して、そ
の画素の明るさを画像毎に抽出して得られた時系列デー
タと前記パターンとの相関値を各画像毎に求めた後、各
相関値の比較を行って前記画素の明るさが最大となる画
像を特定し、その特定された画像が得られた時間と前記
画素位置とから対象物の位置を算出するようにしてい
る。
To achieve the above object, the present invention projects a specific pattern by projecting light onto the surface of an object and moving the projected pattern in a predetermined direction. Time-series data obtained by capturing a target object at predetermined time intervals to generate a plurality of images, focusing on a specific pixel on each image, and extracting the brightness of the pixel for each image, and After obtaining the correlation value with the pattern for each image, the correlation value is compared to identify the image with the maximum brightness of the pixel, and the time when the identified image was obtained and the pixel position. The position of the object is calculated from this.

【0009】請求項2〜請求項4の発明は、計測精度を
高めるための三次元計測方法であって、請求項2の発明
では、前記パターンは自己相関の強い所定の符号を明暗
が繰り返す縞模様に符号化したものである。また請求項
3の発明では、前記パターンとして、自己相関の強いM
系列符号を、また請求項4の発明では、自己相関の強い
チャープ信号を、それぞれ用いている。
The invention according to claims 2 to 4 is a three-dimensional measuring method for increasing the measurement accuracy, and in the invention according to claim 2, the pattern is a stripe pattern in which bright and dark repeat a predetermined code having a strong autocorrelation. It is a coded pattern. Further, in the invention of claim 3, as the pattern, M having a strong autocorrelation is used.
The sequence code is used, and in the invention of claim 4, a chirp signal having a strong autocorrelation is used.

【0010】請求項5の発明は、さらに計測精度を高め
るための三次元計測方法であって、前記パターンは、縞
模様の境界にピーク値をもつパターンに変調されて投影
される。
According to a fifth aspect of the present invention, there is provided a three-dimensional measuring method for further increasing the measuring accuracy, wherein the pattern is modulated and projected into a pattern having a peak value at the boundary of the striped pattern.

【0011】請求項6の発明は、縦横の各方向の計測精
度を高めるための三次元計測方法であって、前記パター
ンは、所定の符号を明暗が繰り返す縦縞模様に符号化し
た第1のパターンと、所定の符号を明暗が繰り返す横縞
模様に符号化した第2のパターンとで構成されたもので
ある。
According to a sixth aspect of the present invention, there is provided a three-dimensional measurement method for increasing the measurement accuracy in each of the vertical and horizontal directions, wherein the pattern is a first pattern in which a predetermined code is encoded in a vertical striped pattern in which light and dark are repeated. And a second pattern in which a predetermined code is encoded in a horizontal striped pattern in which light and dark are repeated.

【0012】請求項7の発明では、前記第1,第2の各
パターンは、同じ色彩で縦縞模様および横縞模様が表さ
れており、請求項8の発明では、縦横各方向の計測精度
を高めかつ計測の高速化をはかるために、前記第1,第
2の各パターンは、異なる色彩で縦縞模様および横縞模
様が表されている。
In the invention of claim 7, the first and second patterns have vertical stripe patterns and horizontal stripe patterns with the same color, and in the invention of claim 8, the measurement accuracy in each of the vertical and horizontal directions is improved. In addition, in order to speed up the measurement, the first and second patterns have vertical stripe patterns and horizontal stripe patterns in different colors.

【0013】請求項9の発明は上記三次元計測方法を実
施するための三次元計測装置であって、対象物の表面へ
投光して特定のパターンを投影する投光手段と、前記投
光手段により投影すべきパターンを生成して決められた
方向へ移動させるパターン生成手段と、前記パターンが
投影された対象物を所定の時間毎に撮像して複数の画像
を生成する撮像手段と、前記撮像手段により得られた各
画像を順次記憶させる記憶手段と、前記記憶手段に記憶
された各画像上の特定の画素に着目して、その画素の明
るさを画像毎に抽出して得られた時系列データと前記パ
ターンとの相関値を画像毎に求める演算手段と、前記演
算手段で求めた各相関値の比較を行って前記画素の明る
さが最大となる画像を特定すると共に、その特定された
画像が得られた時間と前記画素位置とから対象物の位置
を算出する位置算出手段とを備えたものである。
According to a ninth aspect of the present invention, there is provided a three-dimensional measuring apparatus for carrying out the above-mentioned three-dimensional measuring method, which comprises a light projecting means for projecting a specific pattern by projecting light onto the surface of an object. Pattern generating means for generating a pattern to be projected by the means and moving the pattern in a predetermined direction; image capturing means for capturing a plurality of images by capturing an image of the object onto which the pattern is projected at predetermined intervals; Focusing on the storage means for sequentially storing each image obtained by the image pickup means and the specific pixel on each image stored in the storage means, the brightness of the pixel is extracted for each image. An arithmetic unit that obtains the correlation value between the time-series data and the pattern for each image is compared with each correlation value obtained by the arithmetic unit to identify the image in which the brightness of the pixel is maximum, and to identify the image. When the captured image was obtained It is obtained by a position calculating means for calculating the position of the object from said pixel position with.

【0014】請求項10の発明は、計測精度が高められ
た三次元計測装置であって、前記演算手段は、各画像間
を時間的に分割して各分割画像に前記画素の明るさを補
間した上で、その補間により得られた明るさを含む時系
列データと前記パターンとの相関値を分割された画像を
含む画像毎に求めるようにしたものである。
According to a tenth aspect of the present invention, there is provided a three-dimensional measuring apparatus having improved measurement accuracy, wherein the arithmetic means temporally divides each image and interpolates the brightness of the pixel in each divided image. Then, the correlation value between the time series data including the brightness obtained by the interpolation and the pattern is obtained for each image including the divided images.

【0015】[0015]

【作用】この発明の三次元計測方法では、特定の画素に
着目して、複数の画像の中で明るさが最大となる画像を
特定することにより対象物の位置を算出するので、入力
画像の画素の細かさに左右されずに対象物の位置が高精
度に計測される。またたとえ対象物の表面に色彩領域が
存在していても、特定の画素に着目するので、条件が変
化することがなく、対象物の表面の色彩の影響を受けず
に、対象物の位置が正確に計測される。
In the three-dimensional measuring method of the present invention, the position of the object is calculated by focusing on a specific pixel and specifying the image having the maximum brightness among the plurality of images. The position of the object can be measured with high accuracy regardless of the fineness of the pixels. Even if there is a color area on the surface of the object, since the focus is on a specific pixel, the condition does not change, and the position of the object is not affected by the color of the surface of the object. Accurately measured.

【0016】この発明の三次元計測装置では、パターン
生成手段が特定のパターンを生成して決められた方向へ
移動させると、投光手段により対象物の表面に投影され
た前記パターンは同じ方向へ移動する。パターンが投影
された対象物は撮像手段により所定の時間毎に撮像され
て、複数の画像が生成される。各画像上において特定の
画素が着目され、その画素の明るさを画像毎に抽出して
得られた時系列データが記憶手段に記憶される。演算手
段は前記時系列データと前記パターンとの相関値を各画
像毎に求める。この場合、請求項10の三次元計測装置
では、前記演算手段は、各画像間を時間的に分割して各
分割画像に前記画素の明るさを補間した上で、その補間
により得られた明るさを含む時系列データと前記パター
ンとの相関値を分割された画像を含む画像毎に求める。
位置計測手段は各相関値の比較を行って前記画素の明る
さが最大となる画像を特定した後、その特定された画像
が得られた時間と前記着目された特定の画素位置とから
対象物の位置を算出する。
In the three-dimensional measuring apparatus of the present invention, when the pattern generating means generates a specific pattern and moves it in a predetermined direction, the pattern projected onto the surface of the object by the light projecting means moves in the same direction. Moving. The object on which the pattern is projected is imaged by the imaging unit at predetermined time intervals, and a plurality of images are generated. A particular pixel is focused on each image, and the time series data obtained by extracting the brightness of the pixel for each image is stored in the storage means. The calculating means obtains a correlation value between the time series data and the pattern for each image. In this case, in the three-dimensional measuring apparatus according to claim 10, the calculation unit temporally divides each image, interpolates the brightness of the pixel in each divided image, and then obtains the brightness obtained by the interpolation. The correlation value between the time-series data including the height and the pattern is obtained for each image including the divided images.
The position measuring means compares the respective correlation values to specify the image in which the brightness of the pixel is maximum, and then determines the object from the time when the specified image was obtained and the specific pixel position of interest. Calculate the position of.

【0017】[0017]

【実施例】図1は、この発明の一実施例である三次元計
測装置の概略構成を示す。図示例の三次元計測装置は、
対象物1の表面へ投光して特定のパターンを投影する液
晶プロジェクタ2と、前記パターンを画像により生成し
て水平方向へ移動させるワークステーション3と、この
ワークステーション3で生成されたパターンをビデオ信
号に変換して前記液晶プロジェクタ2へ出力するネット
ワークビデオサーバ4と、前記パターンが投影された対
象物1を所定の時間毎に撮像して複数の画像を生成する
CCDカメラ5とを備えており、前記CCDカメラ5で
得られた複数の入力画像はビデオインターフェイス6を
経て前記ワークステーション3に入力される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows a schematic configuration of a three-dimensional measuring apparatus which is an embodiment of the present invention. The three-dimensional measuring device in the illustrated example is
A liquid crystal projector 2 that projects a specific pattern by projecting light onto the surface of the object 1, a workstation 3 that generates the pattern by an image and moves it in the horizontal direction, and a pattern that is generated by the workstation 3 on a video. A network video server 4 that converts the signal into a signal and outputs the signal to the liquid crystal projector 2 and a CCD camera 5 that captures an image of the object 1 onto which the pattern is projected at predetermined time intervals to generate a plurality of images are provided. A plurality of input images obtained by the CCD camera 5 are input to the workstation 3 via the video interface 6.

【0018】なお、以下の説明において、ワークステー
ション3で生成される基準となるパターンを「基準パタ
ーン」(図2に示す)、この基準パターンを移動させた
パターンを「移動パターン」(図3および図4に示
す)、対象物1の表面に投影されたパターンを「投影パ
ターン」と称して区別する。前記液晶プロジェクタ2と
CCDカメラ5とは同じ高さに所定の距離Lだけ離れて
位置し、それぞれ対象物1に向けて配置されている。
In the following description, the reference pattern generated by the workstation 3 is the "reference pattern" (shown in FIG. 2), and the pattern obtained by moving the reference pattern is the "movement pattern" (see FIG. 3 and FIG. 3). The pattern projected on the surface of the object 1 is referred to as a "projection pattern" for distinction. The liquid crystal projector 2 and the CCD camera 5 are located at the same height and apart from each other by a predetermined distance L, and are arranged toward the object 1.

【0019】前記ワークステーション3は、複数の入力
画像より後述する着目画素についての時系列データを得
て、入力画像毎に前記基準パターンとの相関演算を実行
した後、対象物の位置の算出や形状などの認識のための
処理を実行する。
The workstation 3 obtains time-series data on a pixel of interest, which will be described later, from a plurality of input images, performs correlation calculation with the reference pattern for each input image, and then calculates the position of the object. Performs processing for recognition of shapes and the like.

【0020】なおこの実施例では、前記ワークステーシ
ョン3とネットワークビデオサーバ4との間およびワー
クステーション3と前記ビデオインターフェイス6との
間はイーサネット7を介して繋がれているが、これに限
られることはない。またワークステーション3に代えて
パーソナルコンピュータを用いてもよい。
In this embodiment, the work station 3 and the network video server 4 and the work station 3 and the video interface 6 are connected via the Ethernet 7, but the present invention is not limited to this. There is no. A personal computer may be used instead of the workstation 3.

【0021】図2は、前記ワークステーション3で生成
される基準パターン10の一例を示す。図示例の基準パ
ターン10は、所定の符号を明暗が横方向に繰り返す縞
模様に符号化したものであって、黒の縦縞11a〜11
eと白の縦縞12とが交互に配列されている。各縦縞1
1a〜11e,12は符号列に応じた幅にそれぞれ設定
されている。
FIG. 2 shows an example of the reference pattern 10 generated by the workstation 3. The reference pattern 10 in the illustrated example is obtained by encoding a predetermined code into a striped pattern in which light and dark repeat in the horizontal direction, and black vertical stripes 11a to 11 are formed.
e and white vertical stripes 12 are alternately arranged. Each vertical stripe 1
The widths of 1a to 11e and 12 are set to correspond to the code strings.

【0022】図3には、前記基準パターン10を水平方
向(右から左方向)へ移動させることにより得られる移
動パターン10′の具体例が示してある。図3(1)は
基準パターン10の縦縞11a〜11eが出現する前の
移動パターン10′を、図2(2)は基準パターン10
の先頭の縦縞11aが右端に出現した状態の移動パター
ン10′を、図2(3)は基準パターン10のすべての
縦縞11a〜11eが出現した状態の移動パターン1
0′を、図2(4)は基準パターン10の最後の縦縞1
1eのみが左端に残った状態の移動パターン10′を、
図2(5)は基準パターン10の全ての縦縞10a〜1
0eが消失した後の移動パターン10′を、それぞれ示
す。
FIG. 3 shows a specific example of the moving pattern 10 'obtained by moving the reference pattern 10 in the horizontal direction (from right to left). 3 (1) shows the moving pattern 10 'before the vertical stripes 11a to 11e of the reference pattern 10 appear, and FIG. 2 (2) shows the reference pattern 10'.
2 (3) shows a movement pattern 10 'in which the first vertical stripe 11a of the reference pattern 10 appears at the right end, and FIG. 2 (3) shows a movement pattern 1 in which all the vertical stripes 11a to 11e of the reference pattern 10 appear.
2'is the last vertical stripe 1 of the reference pattern 10.
Move pattern 10 'with only 1e left at the left end,
FIG. 2 (5) shows all the vertical stripes 10a to 1 of the reference pattern 10.
Movement patterns 10 'after the disappearance of 0e are respectively shown.

【0023】図4は、基準パターン10の縦縞10a〜
10eを巡回させるようにした移動パターン10′の具
体例を示している。図4(1)は基準パターン10のす
べての縦縞11a〜11eが出現した状態の移動パター
ン10′を示す。この移動パターン10′は基準パター
ン10と各縦縞11a〜11eの位置が完全に一致す
る。図4(2)は基準パターン10が左方向へわずかに
移動した状態の移動パターン10′を、図4(3)は基
準パターン10の先頭の縦縞11aが左端へ消失した
後、右端に出現した状態の移動パターン10′を、それ
ぞれ示す。図4(4)は基準パターン10のすべての縦
縞11a〜11eが一巡したときの移動パターン10′
を示す。この移動パターン10′は基準パターン10が
右方向へわずかに位置ずれした状態のものである。図4
(5)は基準パターン10の縦縞11a〜11eが完全
に一巡したときの移動パターン10′を示す。この移動
パターン10′は基準パターン10と各縦縞11a〜1
1eの位置が完全に一致する。
FIG. 4 shows vertical stripes 10a to 10a of the reference pattern 10.
The specific example of the movement pattern 10 'which makes 10e go around is shown. FIG. 4A shows the moving pattern 10 'in a state where all the vertical stripes 11a to 11e of the reference pattern 10 have appeared. In the moving pattern 10 ', the positions of the vertical patterns 11a to 11e are completely the same as those of the reference pattern 10. FIG. 4 (2) shows the movement pattern 10 'in which the reference pattern 10 is slightly moved to the left, and FIG. 4 (3) appears at the right end after the leading vertical stripe 11a of the reference pattern 10 disappears to the left end. The movement patterns 10 'of the state are shown respectively. FIG. 4 (4) shows a movement pattern 10 'when all the vertical stripes 11a to 11e of the reference pattern 10 make one round.
Indicates. This movement pattern 10 'is a state in which the reference pattern 10 is slightly displaced to the right. FIG.
(5) shows the movement pattern 10 'when the vertical stripes 11a to 11e of the reference pattern 10 make a complete cycle. The moving pattern 10 'includes a reference pattern 10 and vertical stripes 11a-1.
The positions of 1e are completely the same.

【0024】上記の基準パターン10として、自己相関
の強い符号を明暗が繰り返す縞模様に符号化したものを
用いるのが望ましい。図5には、M系列符号を明暗が横
方向へ繰り返す縞模様に符号化して成る基準パターン1
0の具体例が、また図6には、このM系列符号を用いた
基準パターン10の自己相関特性(画素のずれ数に対す
る自己相関値)が、それぞれ示してある。
As the above-mentioned reference pattern 10, it is desirable to use a code having a strong autocorrelation coded in a striped pattern in which light and dark are repeated. In FIG. 5, the reference pattern 1 is formed by encoding the M-sequence code into a striped pattern in which light and dark repeat in the horizontal direction.
6 and FIG. 6 show the autocorrelation characteristics (autocorrelation value with respect to the number of pixel shifts) of the reference pattern 10 using this M-sequence code.

【0025】このような鋭い自己相関特性を有する基準
パターン10を用いることにより高精度な位置計測が可
能となる。なお、自己相関の強い符号であれば、M系列
符号のみならず、例えばチャープ信号なども用いること
ができる。
By using the reference pattern 10 having such a sharp autocorrelation characteristic, highly accurate position measurement becomes possible. If the code has a strong autocorrelation, not only the M-sequence code but also, for example, a chirp signal can be used.

【0026】図7は、チャープ信号を用いた基準パター
ン10の具体例を、また図8には、このチャープ信号を
用いた基準パターン10の自己相関特性を、それぞれ示
す。このチャープ信号は、正弦波の周波数を連続的に変
化させた信号であり、この信号によれば列毎に異なる濃
度値を持つ基準パターンが生成される。
FIG. 7 shows a specific example of the reference pattern 10 using the chirp signal, and FIG. 8 shows the autocorrelation characteristic of the reference pattern 10 using the chirp signal. This chirp signal is a signal in which the frequency of a sine wave is continuously changed, and according to this signal, a reference pattern having different density values for each column is generated.

【0027】図9は、この発明の三次元計測方法の原理
を説明するための図である。同図において、Mはスポッ
ト光を投射するための光源であって、この光源Mからの
投射光13により対象物14の表面に輝点15が生成さ
れる。前記投射光13は水平方向に振られ、これにより
前記輝点15が図中、Sa ,Sb ,Sc の各位置に順次
移動してゆく。
FIG. 9 is a diagram for explaining the principle of the three-dimensional measuring method of the present invention. In the figure, M is a light source for projecting spot light, and the projection light 13 from this light source M produces a bright spot 15 on the surface of the object 14. The projection light 13 is shaken in the horizontal direction, whereby the bright spots 15 sequentially move to respective positions S a , S b , and S c in the figure.

【0028】図中、CはCCDカメラであり、このCC
DカメラCで所定の時間毎に対象物14を撮像すること
により、複数の入力画像16が得られる。図示の入力画
像16において、矩形状の枡目で表されているのは画素
を意味している。任意の画素Xに着目したとき、所定の
時間毎に得られた各入力画像16について、前記画素X
の明るさを時系列で観測して得られた明るさ分布が図1
0に示してある。
In the figure, C is a CCD camera, and CC
A plurality of input images 16 are obtained by imaging the target object 14 with the D camera C at every predetermined time. In the illustrated input image 16, pixels represented by rectangular cells mean pixels. When focusing on an arbitrary pixel X, the pixel X of each input image 16 obtained at a predetermined time
Fig. 1 shows the brightness distribution obtained by observing the brightness of
0 is shown.

【0029】なお図9および図10において、ta ,t
b ,tc は、輝点15がSa ,Sb,Sc の各位置にあ
るときに得られた入力画像16が何個目の入力画像であ
るかを表す入力画像数を示している。またθ(ta ),
θ(tb ),θ(tc )は、光源Mから見たCCDカメ
ラCの方向に対する各位置Sa ,Sb ,Sc の方向、す
なわち投射光13の走査角度である。
In FIGS. 9 and 10, t a , t
b and t c indicate the number of input images representing the number of input images of the input image 16 obtained when the bright point 15 is at each position of S a , S b and S c . . Also θ (t a ),
θ (t b ) and θ (t c ) are the directions of the positions S a , S b , and S c with respect to the direction of the CCD camera C viewed from the light source M, that is, the scanning angles of the projection light 13.

【0030】着目した前記画素Xに対するカメラCの視
線方向φは固定であるから、輝点15がSa ,Sc の各
位置にあるときは、輝点15は画素Xを通して観測でき
ないが、輝点15がSb の位置にあるときは、輝点15
は画素Xを通して観測することができる。従って入力画
像数がtb のときの入力画像16において、画素Xの明
るさは最大となる(図10)。この入力画像数tb が判
れば、前記走査角度θ(tb ),視線方向φ,光源Mと
カメラCとの距離LからSb の空間位置の座標を求める
ことができる。なお図9では、説明を容易にするため、
光源Mからの投射光13がスポット光である例を示して
いるが、処理を高速化するには、スポット光に代えて縦
長のスリット光を用いればよい。
Since the line-of-sight direction φ of the camera C with respect to the noted pixel X is fixed, when the bright spot 15 is at each position of S a and S c , the bright spot 15 cannot be observed through the pixel X, but When the point 15 is located at S b , the bright point 15
Can be observed through pixel X. Therefore, in the input image 16 when the number of input images is t b , the brightness of the pixel X becomes maximum (FIG. 10). If the number of input images t b is known, the coordinates of the spatial position S b can be obtained from the scanning angle θ (t b ), the line-of-sight direction φ, and the distance L between the light source M and the camera C. In FIG. 9, in order to facilitate the explanation,
Although an example in which the projection light 13 from the light source M is spot light is shown, a vertically long slit light may be used instead of the spot light in order to speed up the processing.

【0031】図11は、対象物への投射光として3本の
スリット光を用いたときのこの発明の原理説明図であ
る。3本のスリット光を対象物の表面に投射して左から
右の方向へ水平に移動させたとき、対象物の表面には、
各スリット光による3本の輝線が生成されて同方向へ移
動してゆく。図11(1)は、横軸が入力画像の水平方
向の画素位置Xを、縦軸が入力画像数t、すなわちその
入力画像が得られた時間を、それぞれ示しており、図
中、斜線で示す各輝線の画像領域17,18,19が時
間の経過と共に右方向へ変位している。この対象物は、
光源との対向面の傾きが途中で変化しているため、各輝
線の画像領域17,18,19の傾き、すなわち移動速
度も途中で変化している。
FIG. 11 is an explanatory view of the principle of the present invention when three slit lights are used as the light projected onto the object. When three slit lights are projected onto the surface of the object and moved horizontally from left to right,
Three bright lines are generated by each slit light and move in the same direction. In FIG. 11 (1), the horizontal axis indicates the pixel position X in the horizontal direction of the input image, and the vertical axis indicates the number t of input images, that is, the time when the input image is obtained. The image areas 17, 18 and 19 of the respective bright lines shown in the figure are displaced to the right with the passage of time. This object is
Since the inclination of the surface facing the light source changes midway, the inclination of the image areas 17, 18, 19 of each bright line, that is, the moving speed also changes midway.

【0032】図11(2)は入力画像数tがtA のとき
の明るさ分布を、図11(3)は入力画像数tがtB
ときの明るさ分布を、それぞれ示す。なお、横軸は画素
位置Xである。図11(2)(3)から明らかなよう
に、各明るさ分布は相互に異なっており、またいずれの
明るさ分布も図11(5)に示す基準パターンの明るさ
分布とも異なっている。これは光源との対向面の傾きが
途中で変化していることに起因する。図11(4)は、
ある画素位置X0 の画素について、時系列で明るさを求
めたときの明るさの変化を示す。この画素位置X0 の画
素について各入力画像毎に求められる明るさの時系列デ
ータは、図11(5)の基準パターンの明るさ分布とい
ずれかの時点で高い相関を得るもので、図11(6)に
示すように、入力画像数tがt0 のとき、両者の相関値
は最大となる。
FIG. 11B shows the brightness distribution when the number of input images t is t A , and FIG. 11C shows the brightness distribution when the number of input images t is t B. Note that the horizontal axis is the pixel position X. As is clear from FIGS. 11 (2) and 11 (3), the respective brightness distributions are different from each other, and each brightness distribution is also different from the brightness distribution of the reference pattern shown in FIG. 11 (5). This is because the inclination of the surface facing the light source changes midway. FIG. 11 (4) shows
The change in brightness when the brightness is obtained in time series for the pixel at a certain pixel position X 0 is shown. The time-series data of the brightness obtained for each input image for the pixel at the pixel position X 0 obtains a high correlation with the brightness distribution of the reference pattern in FIG. 11 (5) at any time. As shown in (6), when the number of input images t is t 0 , the correlation value between the two becomes maximum.

【0033】図12は、上記原理に基づく三次元計測装
置の動作の流れをステップ1(図中「ST1」で示す)
〜ステップ7で示す。まずステップ1において、ワーク
ステーション3は基準パターンに基づいて対象物1へ投
影すべき移動パターンの画像を生成し、その画像はネッ
トワークビデオサーバー4を経て液晶プロジェクタ2へ
与えられる。つぎのステップ2で液晶プロジェクタ2が
対象物1の表面に前記移動パターンを投影すると、CC
Dカメラ5が前記移動パターンが投影された対象物1を
撮像して最初の入力画像を生成し、その入力画像はワー
クステーション3に取り込まれて画像メモリに記憶され
る(ステップ3,4)。
FIG. 12 shows a flow of the operation of the three-dimensional measuring apparatus based on the above principle in step 1 (indicated by "ST1" in the figure).
~ As shown in step 7. First, in step 1, the workstation 3 generates an image of a moving pattern to be projected on the object 1 based on the reference pattern, and the image is given to the liquid crystal projector 2 via the network video server 4. In the next step 2, when the liquid crystal projector 2 projects the movement pattern on the surface of the object 1, CC
The D camera 5 images the object 1 on which the movement pattern is projected to generate a first input image, and the input image is taken into the workstation 3 and stored in the image memory (steps 3 and 4).

【0034】つぎのステップ5は、移動パターンによる
対象物1の走査が完了したか否か、すなわち対象物1の
表面に全ての移動パターンを投影したか否かを判定して
おり、その判定が「NO」であれば、ステップ6へ進
み、ワークステーション3は1画素分移動させた移動パ
ターンの画像を生成してステップ2に戻り、前記したス
テップ2〜4の各手順が順次実行される。なお、移動パ
ターンの移動量は1画素に限らず、数画素毎に移動させ
ても良い。
In the next step 5, it is judged whether or not the scanning of the object 1 by the moving pattern is completed, that is, whether or not all the moving patterns are projected on the surface of the object 1, and the judgment is made. If “NO”, the process proceeds to step 6, the workstation 3 generates an image of the movement pattern moved by one pixel, returns to step 2, and the above-mentioned steps 2 to 4 are sequentially executed. The amount of movement of the movement pattern is not limited to one pixel and may be moved every several pixels.

【0035】同様の手順が繰り返し実行されて、前記し
たステップ5の判定が「YES」になると、ステップ7
へ進み、ワークステーション3では対象物1の位置計測
処理が実行される。このステップ7の位置計測処理にお
いて、画像メモリに記憶された全ての入力画像につい
て、特定の画素に着目し、その画素の明るさを入力画像
毎に抽出して時系列データを生成する。ついでこの時系
列のデータと前記基準パターンとの相関値を各入力画像
毎に後記する演算式により計算し、相関値が最大となる
入力画像を前記画素の明るさが最大となる入力画像とし
て特定した後、その特定された入力画像が得られた時間
と着目された前記画素位置とから対象物の空間位置の座
標を算出する。同様の手順を着目する画素を順次変えな
がら繰り返し実行することにより対象物1の各点の位置
計測および形状などの認識が可能である。
When the same procedure is repeatedly executed and the judgment in step 5 is "YES", step 7
Then, the process for measuring the position of the object 1 is executed in the workstation 3. In the position measurement process of step 7, attention is paid to a specific pixel in all the input images stored in the image memory, and the brightness of the pixel is extracted for each input image to generate time series data. Then, the correlation value between the time-series data and the reference pattern is calculated for each input image by an arithmetic expression described below, and the input image having the maximum correlation value is specified as the input image having the maximum pixel brightness. After that, the coordinates of the spatial position of the object are calculated from the time when the specified input image was obtained and the noted pixel position. It is possible to measure the position and recognize the shape of each point of the object 1 by repeatedly performing the same procedure while sequentially changing the pixel of interest.

【0036】この実施例では、高精度の計測を行うため
に、前記した相関演算上で各入力画像間を時間的に等分
割して仮想的な入力画像を設定し、これら仮想的な入力
画像について前記画素の明るさを補間した上で、その補
間により得られた明るさを含む時系列データと前記基準
パターンとの相関値を仮想的な入力画像を含む全ての入
力画像毎に求めるようにしている。
In this embodiment, in order to perform highly accurate measurement, each input image is temporally equally divided in the above-mentioned correlation calculation to set a virtual input image, and these virtual input images are set. With respect to the above, the brightness of the pixel is interpolated, and the correlation value between the time-series data including the brightness obtained by the interpolation and the reference pattern is obtained for all input images including the virtual input image. ing.

【0037】いま実際に得られた入力画像(以下「実画
像」という)の数をf、各実画像間に仮想的に設定され
た入力画像(以下「仮想画像」という)の数、すなわち
分割数をb、t個目の実画像における着目画素xの明る
さをB(t)、基準パターンにおけるt個目の明るさを
M(t)、f個の実画像についての着目画素xの明るさ
の平均値をAVと定義する。なおB(t)は、256階
調のとき、0≦B(t)≦255であり、またM(t)
は、M系列符号を用いた基準パターンの場合、「1」ま
たは「−1」である。
The number of input images (hereinafter referred to as “actual images”) actually obtained is f, and the number of input images (hereinafter referred to as “virtual image”) virtually set between the actual images, that is, division. The brightness of the pixel of interest x in the t-th actual image is B (t), the brightness of the t-th pixel in the reference pattern is M (t), and the brightness of the pixel of interest x in the f actual images is The average value of the heights is defined as AV. Note that B (t) is 0 ≦ B (t) ≦ 255 at the time of 256 gradations, and M (t)
Is "1" or "-1" in the case of the reference pattern using the M-sequence code.

【0038】この定義下で、仮想画像を含めたf×b個
の画像のうち、t′個目の画像における着目画素xの明
るさB′(t′)および基準パターンにおけるt′個目
の明るさM′(t′)を補間演算により算出する。たと
えばf個の実画像のうちt個目およびt+1個目の実画
像間に設定されたt′個目の仮想画像の場合、その画像
における着目画素xの明るさB′(t′)は明るさB
(t)およびB(t+1)を用いて、また基準パターン
におけるt′個目の明るさM′(t′)は明るさM
(t)およびM(t+1)を用いて、それぞれ算出され
る。
Under this definition, of the f × b images including the virtual image, the brightness B ′ (t ′) of the target pixel x in the t′-th image and the t′-th image in the reference pattern. The brightness M '(t') is calculated by interpolation calculation. For example, in the case of the t'th virtual image set between the t'th and t + 1'th real images of the f real images, the brightness B '(t') of the pixel of interest x in that image is bright. B
(T) and B (t + 1), and the t'th brightness M '(t') in the reference pattern is the brightness M.
It is calculated using (t) and M (t + 1), respectively.

【0039】上記の補完演算処理により明るさが算出さ
れると、s個目(ただし0≦s≦f×b)の画像につい
てそれぞれ次式により相関演算が実行される。
When the brightness is calculated by the above complementary calculation process, the correlation calculation is executed for each of the sth image (where 0 ≦ s ≦ f × b) by the following equation.

【0040】[0040]

【数1】 [Equation 1]

【0041】上式により最大の相関値が得られたs個目
の画像が得られた時点における明るさの時系列データが
基準パターンに最も類似することになり、s/b個目の
画像を前記着目画素xにおける明るさが最大となる画像
として特定する。なお、上式の相関演算では、DC成分
の小さい符号を用いて演算結果の精度を高めるために、
各画像における着目画素xの明るさB´(t´)につい
て平均値AVをオフセットとして取り除いた後、得られ
る値を−1から1までの数値に変換して演算を行うよう
にしている。
The time-series data of the brightness at the time when the sth image for which the maximum correlation value is obtained by the above equation is obtained is the most similar to the reference pattern, and the s / bth image is It is specified as an image having the maximum brightness in the pixel of interest x. In the correlation calculation of the above equation, in order to improve the accuracy of the calculation result by using a code having a small DC component,
After the average value AV is removed as an offset for the brightness B ′ (t ′) of the pixel of interest x in each image, the obtained value is converted into a numerical value from −1 to 1 to perform the calculation.

【0042】図13は、図5のM系列符号を用いた基準
パターンにより生成される移動パターンを投影して得ら
れた複数の入力画像について、特定の画素に着目して、
その画素の明るさを入力画像毎に抽出して得られた時系
列データを示す。この具体例では、光学系の歪みなどの
影響を受けて明暗部分の各ピーク値にばらつきが生じて
いる。この場合に相関演算において平均値のオフセット
を取り除くと、得られる明るさの時系列パターンの明暗
の幅は基準パターンにおける明暗の幅を正確に反映しな
くなり、計測精度が低下してしまう。
FIG. 13 shows specific pixels in a plurality of input images obtained by projecting a movement pattern generated by a reference pattern using the M-sequence code of FIG.
The time-series data obtained by extracting the brightness of the pixel for each input image is shown. In this specific example, the peak values of the bright and dark portions are varied due to the influence of distortion of the optical system. In this case, if the offset of the average value is removed in the correlation calculation, the lightness / darkness width of the time-series pattern of the obtained brightness will not accurately reflect the lightness / darkness width in the reference pattern, and the measurement accuracy will deteriorate.

【0043】そこで図14に示すように、基準パターン
を形成する符号(1または−1)の切り換わり時にピー
ク値をもたせたパターンに変調したもの(マーク間変
調)を対象物に投影することにより、計測精度を高める
ことが可能である。図14(1)は基準パターンの明る
さの変化を、図14(2)は図14(1)の基準パター
ンを用いたときの時系列パターンの明るさの変化を、そ
れぞれ示す。図14(3)は、図14(1)の明るさの
立ち上がり部分および立ち下がり部分にピーク値をもた
せたパターンの明るさの変化を、図14(4)は図14
(3)のパターンを用いたときの時系列パターンの明る
さの変化を、それぞれ示す。各図示例から明らかなよう
に、M系列符号のようなデジタルの信号による基準パタ
ーンを用いる場合、マーク間変調を施したパターンを基
準パターンとすることにより、正確な計測結果を得るこ
とができる。
Therefore, as shown in FIG. 14, by projecting onto a target object a pattern (mark-to-mark modulation) that is modulated into a pattern having a peak value when the code (1 or -1) forming the reference pattern is switched. It is possible to improve the measurement accuracy. 14 (1) shows a change in brightness of the reference pattern, and FIG. 14 (2) shows a change in brightness of the time-series pattern when the reference pattern in FIG. 14 (1) is used. FIG. 14 (3) shows a change in the brightness of the pattern in which peak values are given to the rising part and the falling part of the brightness in FIG. 14 (1), and FIG.
Changes in the brightness of the time-series pattern when the pattern (3) is used are shown. As is clear from the illustrated examples, when using a reference pattern based on a digital signal such as an M-sequence code, an accurate measurement result can be obtained by using a pattern subjected to inter-mark modulation as a reference pattern.

【0044】一方、前記したチャープ信号の場合、図7
に示すごとく、各列毎に徐々に変化する基準パターンが
生成されるため、光学系の特性に依存することなく、基
準パターンを正確に反映した時系列データが得られ、解
像度の低い光学系を用いた場合でも高精度の計測結果を
得ることができる。
On the other hand, in the case of the chirp signal described above, FIG.
As shown in Fig. 2, since a reference pattern that gradually changes for each column is generated, time-series data that accurately reflects the reference pattern is obtained without depending on the characteristics of the optical system, and an optical system with low resolution can be obtained. Even when used, highly accurate measurement results can be obtained.

【0045】図15は、前記基準パターンが、所定の符
号を明暗が横方向へ繰り返す縦縞模様に符号化した第1
のパターン10Aと、所定の符号を明暗が縦方向へ繰り
返す横縞模様に符号化した第2のパターン10Bとで構
成される例を示す。第1のパターン10Aと第2のパタ
ーン10Bとが同じ色彩で縦縞模様および横縞模様が表
される場合は、まず第1のパターン10Aを対象物に投
影して走査を完了した後、第2のパターン10Bを対象
物に投影して走査することになる。このような第1,第
2のパターン10A,10Bより成る基準パターンを用
いると、水平、垂直の各方向について高精度の計測が可
能となる。
FIG. 15 shows a first pattern in which the reference pattern is encoded as a vertical striped pattern in which a predetermined code repeats light and dark in the horizontal direction.
10A and a second pattern 10B in which a predetermined code is encoded in a horizontal striped pattern in which light and dark repeat in the vertical direction. In the case where the first pattern 10A and the second pattern 10B have the same color and show a vertical striped pattern and a horizontal striped pattern, first, the first pattern 10A is projected onto an object to complete scanning, and then the second pattern The pattern 10B is projected and scanned on the object. By using the reference pattern composed of such first and second patterns 10A and 10B, highly accurate measurement can be performed in each of the horizontal and vertical directions.

【0046】また第1のパターン10Aと第2のパター
ン10Bとが異なる色彩で縦縞模様および横縞模様が表
される場合は、第1,第2の各パターン10A,10B
を対象物に同時に投影して水平,垂直の各方向へ走査す
ることになる。このような異なる色彩の第1,第2のパ
ターン10A,10Bより成る基準パターンを用いる
と、水平、垂直の各方向について高精度かつ高速の計測
が可能となる。
When the first pattern 10A and the second pattern 10B have vertical stripes and horizontal stripes in different colors, the first and second patterns 10A and 10B are used.
Are projected onto the object at the same time and scanned in the horizontal and vertical directions. By using the reference pattern composed of the first and second patterns 10A and 10B having different colors as described above, it is possible to perform high-accuracy and high-speed measurement in each of the horizontal and vertical directions.

【0047】図16は、上記した第1,第2のパターン
10A,10Bを用いる場合の三次元計測装置の構成を
示しており、第1,第2のパターン10A,10Bを対
象物1へ投影する液晶プロジェクタ2に対し、互いに直
交する方向に、第1のパターン10Aが投影された対象
物1を撮像するための第1のCCDカメラ5Aと、第2
のパターン10Bが投影された対象物1を撮像するため
の第2のCCDカメラ5B,5Bとが配置される。
FIG. 16 shows the configuration of the three-dimensional measuring apparatus when the above-mentioned first and second patterns 10A and 10B are used. The first and second patterns 10A and 10B are projected onto the object 1. A first CCD camera 5A for picking up an image of the object 1 onto which the first pattern 10A is projected, and a second CCD camera 5A in a direction orthogonal to each other.
Second CCD cameras 5B, 5B for picking up the object 1 on which the pattern 10B of FIG.

【0048】[0048]

【発明の効果】この発明は上記の如く、特定の画素に着
目して、複数の画像の中で明るさが最大となる画像を特
定することにより対象物の位置を算出するようにしたか
ら、入力画像の画素の細かさに左右されずに高精度に対
象物の位置を計測できる。またたとえ対象物の表面に色
彩領域が存在していても、特定の画素に着目するので、
条件が変化することがなく、対象物の表面の色彩の影響
を受けずに、正確に対象物の位置を計測できる。
As described above, according to the present invention, the position of the object is calculated by focusing on a specific pixel and identifying the image having the maximum brightness among the plurality of images. The position of the object can be measured with high accuracy without being affected by the fineness of the pixels of the input image. Even if there is a color area on the surface of the target object, since we focus on specific pixels,
The condition does not change, and the position of the object can be accurately measured without being affected by the color of the surface of the object.

【0049】請求項2の発明では、自己相関の強い所定
の符号を明暗が繰り返す縞模様に符号化したパターンを
用いるから、計測精度が高められる。
According to the second aspect of the present invention, since a predetermined code having a strong autocorrelation is coded into a striped pattern in which light and dark are repeated, the measurement accuracy is improved.

【0050】請求項3の発明では、自己相関の強いM系
列符号が符号化されたパターンを用いるので計測精度が
さらに高められる。
According to the third aspect of the invention, since the pattern in which the M-sequence code having a strong autocorrelation is encoded is used, the measurement accuracy can be further improved.

【0051】請求項4の発明では、自己相関の強いチャ
ープ信号が符号化されたパターンを用いるから、解像度
の低い光学系を用いた場合でも精度の高い計測結果が得
られる。
According to the fourth aspect of the invention, since a pattern in which a chirp signal having a strong autocorrelation is encoded is used, a highly accurate measurement result can be obtained even when an optical system having a low resolution is used.

【0052】請求項5の発明では、前記パターンを縞模
様の境界にピーク値をもつパターンに変調して対象物に
投影するから、ディジタル符号が符号化されたパターン
を用いた場合でも正確な計測結果を得ることができる。
According to the fifth aspect of the present invention, the pattern is modulated into a pattern having a peak value at the boundary of the striped pattern and projected onto the object. Therefore, accurate measurement is possible even when a digital coded pattern is used. The result can be obtained.

【0053】請求項6の発明では、前記パターンとし
て、縦縞模様に符号化した第1のパターンと、横縞模様
に符号化した第2のパターンとを用いるようにしたか
ら、縦横2方向の計測精度が高められる。
According to the sixth aspect of the invention, as the pattern, the first pattern encoded in the vertical striped pattern and the second pattern encoded in the horizontal striped pattern are used. Is increased.

【0054】請求項8の発明では、第1,第2の各パタ
ーンの縦縞模様および横縞模様を異なる色彩で表すよう
にしたから、縦横2方向の計測精度が高められかつ計測
の高速化がはかられる。
According to the eighth aspect of the invention, since the vertical striped pattern and the horizontal striped pattern of each of the first and second patterns are represented by different colors, the measurement accuracy in the vertical and horizontal directions can be improved and the measurement speed can be increased. Get rid of.

【0055】請求項9の発明は、投光手段,パターン生
成手段,撮像手段,記憶手段,演算手段,位置算出手段
で三次元計測装置を構成し、複数の画像の中で着目した
特定の画素の明るさが最大となる画像を特定することに
より対象物の位置を算出するようにしたから、入力画像
の画素の細かさに左右されず、また対象物の表面の色彩
の影響を受けずに、対象物の位置を高精度かつ正確に計
測できる。
According to a ninth aspect of the present invention, a three-dimensional measuring device is constituted by the light projecting means, the pattern generating means, the imaging means, the storing means, the calculating means, and the position calculating means, and a specific pixel of interest among a plurality of images Since the position of the target object is calculated by specifying the image with the maximum brightness of, it does not depend on the fineness of the pixels of the input image and is not affected by the color of the surface of the target object. , The position of the object can be measured with high precision and accuracy.

【0056】請求項10の発明では、各画像間を時間的
に分割して前記画素の明るさを補間した上で、その補間
により得られた明るさを含む時系列データと前記パター
ンとの相関値を分割された画像を含む画像毎に求めるよ
うにしたから、対象物の位置を高精度で計測できるとい
う効果がある。
According to the tenth aspect of the present invention, each image is temporally divided to interpolate the brightness of the pixel, and then the correlation between the time series data including the brightness obtained by the interpolation and the pattern. Since the value is obtained for each image including the divided image, there is an effect that the position of the object can be measured with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例である三次元計測装置の構
成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a three-dimensional measuring apparatus that is an embodiment of the present invention.

【図2】基準パターンの一例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of a reference pattern.

【図3】移動パターンの一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of a movement pattern.

【図4】移動パターンの他の例を示す説明図である。FIG. 4 is an explanatory diagram showing another example of a movement pattern.

【図5】M系列符号を用いた基準パターンの具体例を示
す説明図である。
FIG. 5 is an explanatory diagram showing a specific example of a reference pattern using an M-sequence code.

【図6】M系列符号を用いた基準パターンの自己相関特
性を示す特性図である。
FIG. 6 is a characteristic diagram showing an autocorrelation characteristic of a reference pattern using an M-sequence code.

【図7】チャープ信号を用いた基準パターンの具体例を
示す説明図である。
FIG. 7 is an explanatory diagram showing a specific example of a reference pattern using a chirp signal.

【図8】チャープ信号を用いた基準パターンの自己相関
特性を示す特性図である。
FIG. 8 is a characteristic diagram showing an autocorrelation characteristic of a reference pattern using a chirp signal.

【図9】この発明の三次元計測方法の原理を示す原理説
明図である。
FIG. 9 is a principle explanatory view showing the principle of the three-dimensional measuring method of the present invention.

【図10】明るさの時系列データの明るさ分布を示す説
明図である。
FIG. 10 is an explanatory diagram showing a brightness distribution of time-series brightness data.

【図11】この発明の原理を説明するための原理説明図
である。
FIG. 11 is a principle explanatory view for explaining the principle of the present invention.

【図12】三次元計測装置の動作の流れを示すフローチ
ャートである。
FIG. 12 is a flowchart showing a flow of operations of the three-dimensional measuring apparatus.

【図13】明るさの時系列データの具体例を示す説明図
である。
FIG. 13 is an explanatory diagram showing a specific example of brightness time-series data.

【図14】マーク間変調の具体例を示す説明図である。FIG. 14 is an explanatory diagram showing a specific example of inter-mark modulation.

【図15】基準パターンの他の例を示す説明図である。FIG. 15 is an explanatory diagram showing another example of the reference pattern.

【図16】図13の基準パターンが用いられる三次元計
測装置の全体構成を示す説明図である。
16 is an explanatory diagram showing an overall configuration of a three-dimensional measuring apparatus using the reference pattern of FIG.

【図17】従来例の三次元計測装置の構成を示す原理説
明図である。
FIG. 17 is a principle explanatory diagram showing a configuration of a conventional three-dimensional measuring apparatus.

【符号の説明】[Explanation of symbols]

1 対象物 2 液晶プロジェクタ 3 ワークステーション 5 CCDカメラ 10 基準パターン 10′移動パターン 1 Object 2 Liquid Crystal Projector 3 Workstation 5 CCD Camera 10 Reference Pattern 10 'Movement Pattern

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G06T 7/00

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 対象物の表面へ投光して特定のパターン
を投影し、その投影されたパターンを決められた方向へ
移動させつつ所定の時間毎に対象物を撮像して複数の画
像を生成し、各画像上の特定の画素に着目して、その画
素の明るさを画像毎に抽出して得られた時系列データと
前記パターンとの相関値を各画像毎に求めた後、各相関
値の比較を行って前記画素の明るさが最大となる画像を
特定し、その特定された画像が得られた時間と前記画素
位置とから対象物の位置を算出することを特徴とする三
次元計測方法。
1. An object is projected at a predetermined time while projecting a specific pattern by projecting light onto the surface of the object and moving the projected pattern in a predetermined direction, and a plurality of images are displayed. After generating and focusing on a specific pixel on each image, the brightness of the pixel is extracted for each image and the correlation value between the time-series data and the pattern is obtained for each image. A third order characterized by specifying an image in which the brightness of the pixel is maximum by comparing the correlation values, and calculating the position of the object from the time when the specified image is obtained and the pixel position. Original measurement method.
【請求項2】 前記パターンは、自己相関の強い所定の
符号を明暗が繰り返す縞模様に符号化したものである請
求項1に記載された三次元計測方法。
2. The three-dimensional measuring method according to claim 1, wherein the pattern is obtained by encoding a predetermined code having a strong autocorrelation into a striped pattern in which light and dark are repeated.
【請求項3】 前記パターンは、M系列符号を明暗が繰
り返す縞模様に符号化したものである請求項1または2
に記載された三次元計測方法。
3. The pattern is an M-sequence code encoded in a striped pattern in which light and dark are repeated.
3D measurement method described in.
【請求項4】 前記パターンは、チャープ信号を明暗が
繰り返す縞模様に符号化したものである請求項1または
2に記載された三次元計測方法。
4. The three-dimensional measuring method according to claim 1, wherein the pattern is a chirp signal encoded into a striped pattern in which light and dark are repeated.
【請求項5】 前記パターンは、縞模様の境界にピーク
値をもつパターンに変調されて投影される請求項1〜4
のいずれかに記載された三次元計測方法。
5. The pattern is modulated and projected into a pattern having a peak value at a boundary of a striped pattern.
The three-dimensional measurement method described in any one of.
【請求項6】 前記パターンは、所定の符号を明暗が繰
り返す縦縞模様に符号化した第1のパターンと、所定の
符号を明暗が繰り返す横縞模様に符号化した第2のパタ
ーンとで構成されている請求項1に記載された三次元計
測方法。
6. The pattern comprises a first pattern in which a predetermined code is encoded in a vertical striped pattern in which light and dark are repeated, and a second pattern in which a predetermined code is encoded in a horizontal striped pattern in which light and dark are repeated. The three-dimensional measuring method according to claim 1.
【請求項7】 前記第1,第2の各パターンは、同じ色
彩で縦縞模様および横縞模様が表されている請求項1ま
たは6に記載された三次元計測方法。
7. The three-dimensional measuring method according to claim 1, wherein each of the first and second patterns has a vertical stripe pattern and a horizontal stripe pattern with the same color.
【請求項8】 前記第1,第2の各パターンは、異なる
色彩で縦縞模様および横縞模様が表されている請求項1
または6に記載された三次元計測方法。
8. The vertical stripe pattern and the horizontal stripe pattern are expressed in different colors in each of the first and second patterns.
Or the three-dimensional measuring method described in 6.
【請求項9】 対象物の表面へ投光して特定のパターン
を投影する投光手段と、 前記投光手段により投影すべきパターンを生成して決め
られた方向へ移動させるパターン生成手段と、 前記パターンが投影された対象物を所定の時間毎に撮像
して複数の画像を生成する撮像手段と、 前記撮像手段により得られた各画像を順次記憶させる記
憶手段と、 前記記憶手段に記憶された各画像上の特定の画素に着目
して、その画素の明るさを画像毎に抽出して得られた時
系列データと前記パターンとの相関値を画像毎に求める
演算手段と、 前記演算手段で求めた各相関値の比較を行って前記画素
の明るさが最大となる画像を特定すると共に、その特定
された画像が得られた時間と前記画素位置とから対象物
の位置を算出する位置算出手段とを備えて成る三次元計
測装置。
9. A light projecting means for projecting a specific pattern by projecting light onto the surface of an object, and a pattern generating means for generating a pattern to be projected by the light projecting means and moving it in a predetermined direction. An image capturing unit that captures an image of the object onto which the pattern is projected at predetermined time intervals to generate a plurality of images, a storage unit that sequentially stores each image obtained by the image capturing unit, and a storage unit that stores the image. Focusing on a specific pixel on each image, a calculation unit that calculates, for each image, a correlation value between the time-series data obtained by extracting the brightness of the pixel for each image and the pattern; The position at which the position of the object is calculated from the time when the specified image was obtained and the pixel position while specifying the image in which the brightness of the pixel is maximum by comparing the correlation values obtained in Comprising calculation means Dimension measuring device.
【請求項10】 前記演算手段は、各画像間を時間的に
分割して各分割画像に前記画素の明るさを補間した上
で、その補間により得られた明るさを含む時系列データ
と前記パターンとの相関値を分割された画像を含む画像
毎に求めるようにした請求項9に記載された三次元計測
装置。
10. The computing means temporally divides each image, interpolates the brightness of the pixel in each divided image, and time-series data including the brightness obtained by the interpolation and the time series data. The three-dimensional measuring apparatus according to claim 9, wherein the correlation value with the pattern is obtained for each image including the divided images.
JP6303231A 1994-11-12 1994-11-12 Method and device for three-dimensional measurement Pending JPH08136222A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6303231A JPH08136222A (en) 1994-11-12 1994-11-12 Method and device for three-dimensional measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6303231A JPH08136222A (en) 1994-11-12 1994-11-12 Method and device for three-dimensional measurement

Publications (1)

Publication Number Publication Date
JPH08136222A true JPH08136222A (en) 1996-05-31

Family

ID=17918463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6303231A Pending JPH08136222A (en) 1994-11-12 1994-11-12 Method and device for three-dimensional measurement

Country Status (1)

Country Link
JP (1) JPH08136222A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269935A (en) * 2002-03-18 2003-09-25 Hamano Engineering:Kk Measurement method of three-dimensional surface shape, measurement device for three-dimensional surface shape, computer program and computer program recording medium
JP2005315728A (en) * 2004-04-28 2005-11-10 Hiroshima Univ Apparatus and method for measuring surface profile
JP2009041929A (en) * 2007-08-06 2009-02-26 Nissan Motor Co Ltd Distance measuring method and device and vehicle equipped with the device
JP2011028042A (en) * 2009-07-27 2011-02-10 Sony Corp Detection system and detection method
JP2012083233A (en) * 2010-10-12 2012-04-26 Canon Inc Three-dimensional shape measurement apparatus, three-dimensional shape measurement method and computer program
CN111692987A (en) * 2019-03-15 2020-09-22 上海图漾信息科技有限公司 Depth data measuring head, measuring device and measuring method
JP2021143960A (en) * 2020-03-12 2021-09-24 オムロン株式会社 Inspection device and inspection method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269935A (en) * 2002-03-18 2003-09-25 Hamano Engineering:Kk Measurement method of three-dimensional surface shape, measurement device for three-dimensional surface shape, computer program and computer program recording medium
JP2005315728A (en) * 2004-04-28 2005-11-10 Hiroshima Univ Apparatus and method for measuring surface profile
JP2009041929A (en) * 2007-08-06 2009-02-26 Nissan Motor Co Ltd Distance measuring method and device and vehicle equipped with the device
JP2011028042A (en) * 2009-07-27 2011-02-10 Sony Corp Detection system and detection method
JP2012083233A (en) * 2010-10-12 2012-04-26 Canon Inc Three-dimensional shape measurement apparatus, three-dimensional shape measurement method and computer program
CN111692987A (en) * 2019-03-15 2020-09-22 上海图漾信息科技有限公司 Depth data measuring head, measuring device and measuring method
JP2021143960A (en) * 2020-03-12 2021-09-24 オムロン株式会社 Inspection device and inspection method

Similar Documents

Publication Publication Date Title
Zhang et al. Rapid shape acquisition using color structured light and multi-pass dynamic programming
JP4883517B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and three-dimensional measuring program
CN104335005B (en) 3D is scanned and alignment system
EP1580523A1 (en) Three-dimensional shape measuring method and its device
US20100328308A1 (en) Three Dimensional Mesh Modeling
EP2881702A1 (en) Image processing system, and image processing method
EP1643210A1 (en) Method and apparatus for measuring shape of an object
JP2001116526A (en) Three-dimensional shape measuring instrument
EP1663046A2 (en) High speed multiple line three-dimensional digitization
CN107370950B (en) Focusing process method, apparatus and mobile terminal
JP4337266B2 (en) Three-dimensional measurement method and three-dimensional measurement system
US7280685B2 (en) Object segmentation from images acquired by handheld cameras
JPH08136222A (en) Method and device for three-dimensional measurement
Brink et al. Indexing Uncoded Stripe Patterns in Structured Light Systems by Maximum Spanning Trees.
US20020008701A1 (en) 3D rendering
JP3862402B2 (en) 3D model generation apparatus and computer-readable recording medium on which 3D model generation program is recorded
JP2001338280A (en) Three-dimensional space information input device
CN112433641A (en) Implementation method for automatic calibration of desktop prop interaction system of multiple RGBD depth sensors
JPH10269365A (en) Characteristic extracting method, and object recognition device using the method
Miyasaka et al. Development of real-time 3D measurement system using intensity ratio method
JP6867766B2 (en) Information processing device and its control method, program
JP2000146546A (en) Method and apparatus for forming three-dimensional model
JP2961140B2 (en) Image processing method
JP2001264017A (en) Three-dimensional image photographing apparatus
JP4351090B2 (en) Image processing apparatus and image processing method