[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPS61265510A - 3D measurement method for objects - Google Patents

3D measurement method for objects

Info

Publication number
JPS61265510A
JPS61265510A JP10767685A JP10767685A JPS61265510A JP S61265510 A JPS61265510 A JP S61265510A JP 10767685 A JP10767685 A JP 10767685A JP 10767685 A JP10767685 A JP 10767685A JP S61265510 A JPS61265510 A JP S61265510A
Authority
JP
Japan
Prior art keywords
image
slit
slit light
camera
matter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10767685A
Other languages
Japanese (ja)
Inventor
Tsugihito Maruyama
次人 丸山
Shinji Kanda
真司 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP10767685A priority Critical patent/JPS61265510A/en
Publication of JPS61265510A publication Critical patent/JPS61265510A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)

Abstract

PURPOSE:To make it possible to measure the spatial arrangement of matter at a high speed by one camera, by irradiating a plurality of slit lights preset in arrangement according to predetermined order. CONSTITUTION:The image of the matter irradiated with an illuminator 12 is picked by a camera 1 and the output thereof is converted to a digital signal which is, in turn, inputted to an image processor 15. This input signal is processed by a density processing part 16 to be stored in an image memory 21 as an image A wherein the contour of the matter was extracted. Next, a scanning region is calculated from the obtained data and the selection of a slit light source and the determination of the scanning region are subsequently performed on the basis of the calculation result. Thereafter, the illuminator 12 is turned OFF and a selected slit light source is lighted to irradiate slit light and the slit light image on the matter is picked up to extract the center line thereof and stored in an image memory 22 as an image B. Succeedingly, the data of the images A, B are read from the image memories 21, 22 and the slit image corresponding to the slit light image is extracted by an inter- image AND operation part 20 and the coordinates thereof are stored in a buffer 26. Subsequently, a distance is calculated by a distance calculation part 25.

Description

【発明の詳細な説明】 〔目次〕 概要・・・・・・・・・・・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・(1)産業上
の利用分野・・・・・・・・・・・・・・・・・・・・
・・・・(2)従来の技術・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・(2)発明
が解決しようとする問題点・・・・・・(3)問題点を
解決するための手段・・・・・・・・・(4)発明の基
本的原理・・・・・・・・・・・・・・・・・・・・・
・・・(4)実施例 (i)計414装置の構成・・・・・・・・・・・・・
・・・・・(8)(ii)計1111処理・・・・・・
・・・・・・・・・・・・・・・・・・・・・(10)
発明の効果・・・・・・・・・・・・・・・・・・・・
・・・・・・・・・・・・・(18)〔M間〕 本発明は、いわゆる両頭ゲ体視法で必要とする左右画像
面の対応付けという複雑な処理を行うことなく、予め配
置が設定された複数のスリット光を所定の順序に従って
照射し、物体の空間的配置を1台のカメラで高速に計測
する方法である。
[Detailed Description of the Invention] [Table of Contents] Overview
・・・・・・・・・・・・・・・・・・・・・(1) Industrial application field・・・・・・・・・・・・・・・・・・・・・
・・・(2) Conventional technology・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・・(2) Problem to be solved by the invention ・・・(3) Means for solving the problem...・・・・・・・・・(4) Basic principle of the invention・・・・・・・・・・・・・・・・・・・・・
...(4) Example (i) Configuration of 414 devices in total ......
...(8)(ii) Total of 1111 processes...
・・・・・・・・・・・・・・・・・・・・・(10)
Effect of the invention····················
... This is a method in which a plurality of slit lights whose arrangement is set is irradiated in a predetermined order, and the spatial arrangement of an object is measured at high speed with a single camera.

〔産業上の利用分野〕[Industrial application field]

本発明は、ロボット等の自動機械による作業の際に必要
となる物体の空間的配置を計測する方法に係り、詳しく
はスリット光を物体に照射し、その画像を得ることによ
って物体の空間的配置を計ΔIIIする物体の三次見計
a+1方法に関するものである。
The present invention relates to a method for measuring the spatial arrangement of an object, which is necessary when an automatic machine such as a robot performs work. This relates to a third-order observation a+1 method of an object in which a total of ΔIII is obtained.

〔従来の技術〕[Conventional technology]

従来、視覚情報を利用して物体を三次元的に計Δ11す
る方法としては、いわゆる両眼立体視法がある。この方
法は、まず第9図に示すように対象となる物体4の近く
に2台のカメラ1.2を固定配置し、同時に物体を撮影
して三角測量の原理に基づいて物体の二次元位置を計測
する方法である。
Conventionally, there is a so-called binocular stereoscopic viewing method as a method of viewing an object three-dimensionally by using visual information. In this method, first, as shown in Figure 9, two cameras 1 and 2 are fixedly placed near the target object 4, and the object is simultaneously photographed and the two-dimensional position of the object is determined based on the principle of triangulation. This is a method of measuring.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

ところで、この従来の方法では、カメラ1で撮影した画
像と、カメラ2で撮影した画像との間の対応付け(第9
図でいえば、左画面の着目点Aに対し、右画面でAに対
応する点Bを求めること)が難しく、その処理が複雑で
処理時間がかかるという欠点を有していた。また、線材
等では、それが2台のカメラの配置に対して平行に伸び
ている場合には、対応点が一意に決定することができな
いため、計測することができないという問題があった。
By the way, in this conventional method, the correspondence between the image taken by camera 1 and the image taken by camera 2 (9th
In the figure, it is difficult to find a point B corresponding to point A on the right screen for a point of interest A on the left screen, and the process is complicated and takes a long time. Further, in the case of a wire or the like, if it extends parallel to the arrangement of the two cameras, there is a problem in that corresponding points cannot be uniquely determined and measurement cannot be performed.

そこで、本発明は、いわゆる両眼立体視法における2台
のカメラで撮影したスリット画像間の対応付けという複
雑な処理をせずに、線材等の物体の三次元的な計測を行
うことができる方法を提供することを目的としてなされ
たものである。
Therefore, the present invention makes it possible to perform three-dimensional measurements of objects such as wire rods without the complicated process of associating slit images taken with two cameras in the so-called binocular stereoscopic viewing method. This was done for the purpose of providing a method.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、所定の座標系において配置が予め設定された
スリット光面を各々有する複数のスリット光を所定の順
序に従って物体表面に照射するとともに、上記物体表面
−ヒのスリット光によるスリット光像に対応したスリッ
ト画像を所定画像面とにて得る一力、当該各スリット画
像の画像面丑の位置と各スリット画像に対応したスリッ
ト光面とに基づいて当該物体の上記座標系における空間
的配置を計測するようにした物体の三次元計測方法であ
る。
The present invention irradiates an object surface with a plurality of slit lights each having a slit light plane whose arrangement is set in advance in a predetermined coordinate system, and creates a slit light image of the object surface by the slit light. One step is to obtain a corresponding slit image on a predetermined image plane, and determine the spatial arrangement of the object in the coordinate system based on the position of the image plane of each slit image and the slit light plane corresponding to each slit image. This is a three-dimensional measurement method for objects to be measured.

〔発明の基本原理〕[Basic principle of the invention]

次に本発明の基本原理を第1図と第2図とに基づいて説
明する。所定の座標系としてカメラlの焦点QCを原点
とし、カメラlの光軸方向を2軸としてカメラ直交座標
系QC−XCyCzCを設定する。さらに、スリット光
源6を原点としたスリット直交座標系をOS   XS
  yS  zS を設定する。カメラ直交座標系とス
リット直交座標系との間は、一般に次の関係式で表わさ
れる。
Next, the basic principle of the present invention will be explained based on FIGS. 1 and 2. As a predetermined coordinate system, a camera orthogonal coordinate system QC-XCyCzC is set, with the focal point QC of the camera l as the origin and the optical axis direction of the camera l as two axes. Furthermore, the slit orthogonal coordinate system with the slit light source 6 as the origin is OS
Set yS zS. The relationship between the camera orthogonal coordinate system and the slit orthogonal coordinate system is generally expressed by the following relational expression.

但し、hii(i、j=1.2.3)は、i。However, hii (i, j=1.2.3) is i.

j座標軸間のなす角度の方向余弦を表わし、hi4(i
=1.2.3)は平行移動距離を表わす。今、スリット
光源6をスリット直交座標系のyS軸を回転軸としてモ
面xs′=oをθJだけ回転したスリット光面を81 
とすると、S」はスリット直交座標系で S」: xscasO−zSsinO= 0  ・・・
(2)と表される。これをカメラ直交座標系で表わせば
(1)式を用いて、 S;:(b++ xC+h17 YC+h13 zC+
b+4) cos 01(h31 zc+h32 yC
+h33zc+h3s ) sjnθ。
j represents the direction cosine of the angle between the coordinate axes, hi4(i
=1.2.3) represents the parallel movement distance. Now, the slit light surface is obtained by rotating the slit light source 6 by θJ around the mo surface xs'=o using the yS axis of the slit orthogonal coordinate system as the rotation axis.
Then, S'' is S'' in the slit orthogonal coordinate system: xscasO-zSsinO= 0...
It is expressed as (2). If this is expressed in the camera orthogonal coordinate system, using equation (1), S;: (b++ xC+h17 YC+h13 zC+
b+4) cos 01(h31 zc+h32 yC
+h33zc+h3s) sjnθ.

=0 ・・・(3) となる。以下、説明の便宜北、物体4が線状であるとす
る。スリット光8の照射によって物体4表面りに点状の
スリット光像9ができ、それをカメラlで撮影すること
によってカメラlの撮影素子等の画像面C4mにスリッ
ト光像9に対応したスリット画像が得られたとする。物
体4−ヒのスリット光像9の座標をP」 (xp+C+
 yPiC、zp;t)とし、該スリー2ト光像9に対
応するスリット画像の座標をIJ  (XIJC+ 7
11C+ ZIJC)とする、ここで、簡単にするため
画像面CをXCyC一平面に平行な平面zc=f(焦点
距離)とする、そのとき、視線lOを直線Lj  (=
σ了、)とすると、L、は で表わされる。すると、点状のスリット光像9であるP
、の座標は視線10である直線L」とスリット光面SJ
 との交点として求まる。
=0...(3) Hereinafter, for convenience of explanation, it is assumed that the object 4 is linear. By irradiating the slit light 8, a point-like slit light image 9 is created on the surface of the object 4, and by photographing it with the camera l, a slit image corresponding to the slit light image 9 is displayed on the image plane C4m of the photographing element of the camera l. Suppose that we obtain Let the coordinates of the slit light image 9 of the object 4-H be P'' (xp+C+
yPiC, zp; t), and the coordinates of the slit image corresponding to the three-two optical image 9 are IJ (XIJC+ 7
11C+ZIJC), and here, for the sake of simplicity, the image plane C is a plane parallel to the plane of
σ了, ), then L is expressed as. Then, the point-like slit light image 9 P
The coordinates of , are the line L which is the line of sight 10 and the slit light surface SJ
It is found as the intersection with

即ち、(4)式から が得られ、これを(3)式へ代入し、zCについてまと
めると、 =h+a cos O1+b3a sin O+   
−(6)より、 ここで、 である。こうして、スリット光像9であるP」の三次元
座標が得られる。同様にして、スリット光源6をyS軸
を回転軸として遂次回転させることによって、物体41
−のスリット光像9の三次元座標を得ることにより、物
体4の三次元計測を行うことができる。
That is, from equation (4), we obtain, substitute this into equation (3), and summarize for zC: =h+a cos O1+b3a sin O+
- From (6), here, . In this way, the three-dimensional coordinates of P'', which is the slit light image 9, are obtained. Similarly, by sequentially rotating the slit light source 6 with the yS axis as the rotation axis, the object 41
By obtaining the three-dimensional coordinates of the slit light image 9 of −, three-dimensional measurement of the object 4 can be performed.

〔実施例〕〔Example〕

以下、本発明に係る実施例を図面に基づいて説明する。 Embodiments according to the present invention will be described below based on the drawings.

(i)計測装置の構成 本発明に係る物体の三次元計測方法を実現する装置は、
例えは第3図に示すように構成される。
(i) Configuration of measuring device The device for realizing the three-dimensional measuring method of an object according to the present invention is as follows:
An example is constructed as shown in FIG.

同図において、lはカメラ、11はアナログ拳デジタル
変換器、12は物体4表面を照射する通常照明である。
In the figure, 1 is a camera, 11 is an analog-to-digital converter, and 12 is a normal light that illuminates the surface of the object 4.

13は二次元スキャナであり、スリット光8の移動に使
用するもので、可動ミラー13a、x軸駆動部13b及
びy軸駆動部13cからなっている。14はスリット光
装置であり、二次元スキャナ13と連動し、固定ミラー
14a、ビームスプリッタ14b、スリット光源14c
及びスリット光源14dとからなっている。スリット光
源14c及びスリット光源14dは、物体4の配置に応
じて適宜選択して使用する。15は画像プロセッサであ
り、物体4の輪郭を抽出するための濃淡画像処理部16
と、線状の物体4の中心線を太さ1画素幅のラインを抽
出するための尾根点処理部17と、局所的ピーク点を抽
出するための極点処理部18と、デジタル信号を2値化
する2値化処理部19と、画像間演算機ず3を有する画
像間AND演算部20とからなる。尚、この画像プロセ
ッサ15は、特願昭58−091309号に示した装置
に極点処理部18と画像間AND@算部20とを付加し
たものである。21.22は画像メモリであり、カメラ
1の画像面Cに得られた画像を格納しておく装置である
。23は物体方向・スキャニング領域計算部であって、
画像面c−hのスリット画像位置座標を計算するもので
ある。25は距離計算部であって、スリット光像9の位
置座標を計算するものであり、これによって物体の三次
元計測がなされる・26はバッファである。29はCP
Uであり、以上の全装εと接続され、全装置の制御や演
算等を行うものである。
A two-dimensional scanner 13 is used to move the slit light 8, and is composed of a movable mirror 13a, an x-axis drive section 13b, and a y-axis drive section 13c. 14 is a slit light device, which works in conjunction with the two-dimensional scanner 13, and includes a fixed mirror 14a, a beam splitter 14b, and a slit light source 14c.
and a slit light source 14d. The slit light source 14c and the slit light source 14d are appropriately selected and used according to the arrangement of the object 4. 15 is an image processor; a grayscale image processing unit 16 for extracting the outline of the object 4;
, a ridge point processing unit 17 for extracting a line with a thickness of 1 pixel width from the center line of the linear object 4, and an extremity processing unit 18 for extracting local peak points, and converting the digital signal into a binary signal. It consists of a binarization processing section 19 for converting images into images, and an inter-image AND operation section 20 having an inter-image operation unit 3. The image processor 15 is the same as the device shown in Japanese Patent Application No. 58-091309, with a polar point processing section 18 and an inter-image AND@ calculating section 20 added thereto. 21 and 22 are image memories, which are devices that store images obtained on the image plane C of the camera 1. 23 is an object direction/scanning area calculation unit,
This is to calculate the slit image position coordinates of the image plane c-h. Reference numeral 25 denotes a distance calculation unit which calculates the position coordinates of the slit light image 9, thereby performing three-dimensional measurement of the object. Reference numeral 26 denotes a buffer. 29 is CP
U, which is connected to the above-mentioned complete system ε, and performs control and calculation of all the devices.

(ii)計測処理 計測すべき物体として線状の物体を想定する。(ii) Measurement processing Assume a linear object as the object to be measured.

まず、第1図に示すように、対象となる物体4の近くに
、カメラl及びスリット光源6を配置する。スリット光
源6は、発明の基本原理に述べたように設定されたスリ
ット光8を照射し、物体4の位置に応じて、第3図に示
すスリット光源14cとスリット光源14dの中から選
択されたものである。以下、第4図の流れ図に従って説
明する。物体4近くに配置された通常照明12を点灯す
ることにより物体4を照射する(41)。但し、物体4
と背景とを明確に区別することができる場合には点灯す
る必要はない。次に、通常照明12により照射された物
体4をカメラ1で撮影し、物体4の輪郭を撮影素子等の
画像面C上にとらえる。その際、撮影された画像をアナ
ログeデジタル変換器11によって濃淡レベルをもつデ
ジタル信号に変換しく80)、 さらに該信号を画像プ
ロセッサ15へ人力する0画像プロセッサ15へ入力さ
れた信号は、濃淡画像処理部16で、第5図の流れ図に
示すように上滑化処理81、ラプラシアン処理82又は
それらの組合せ処理87がなされる。次に、該信号は尾
根点処理部17において尾根点処理83がなされ、さら
に、2値化処理部19によって2値化処理84がなされ
る。もし、物体4の中心線にひげ状ノイズが多く存在す
るときは、2値化処理84後に雑汗除去処理85を行っ
てノイズを除く。以ト述べた処理によって物体4の中心
線を太さ1画素幅のラインとして抽出し、画像30とし
て画像メモリ21への格納処理86を行う(42)。得
られたデータから物体方向・スキャニング領域計算部2
3によって物体4の配置方向を計算する。その方法は、
まず、カメラ直交座標系(または画像面に設定した直交
座標系)によって、画像面CJ:の物体4の始点r、s
  (xsC,ysC)と終点Le  (NPC,7e
C)とを求める。ここで扱う物体4はあまり複雑な形状
でないとすれば、L、とLe とから物体4の配置方向
を示す角度θが計算される。即ち、 である。これによって物体4の配置を示す方向ベクトル 1 = (cos O、sin +))が求まる(43
)。以北の結果に基づいて相異なる向きに配置されたス
リット光源14c、14dの選択とスリットのスキャニ
ング領域の決定とを行う(44)。スリット光源の選択
はスリット光源14 Cとスリット光源14dとのスリ
ット面の法線ベクトルをそれぞれSC,S、I とする
とき、内積交会Scと内積立・Sd との絶対値を計算
し両者の大小を比較して内積の絶対値の小さい方のスリ
ット光源を選択する。これは、スリット光8に対するよ
り多くのスリット光像9を得て計測を確実にするためで
ある。但し、スリット光源14c、14dのうち必ずし
もどちらか一方のみを選択しなくても、両方のスリット
光源14C914dを使って異なる方向から2回計測し
てもよい。
First, as shown in FIG. 1, a camera l and a slit light source 6 are placed near a target object 4. The slit light source 6 emits the slit light 8 set as described in the basic principle of the invention, and is selected from the slit light source 14c and the slit light source 14d shown in FIG. 3 depending on the position of the object 4. It is something. The process will be explained below according to the flowchart shown in FIG. The object 4 is illuminated by lighting the normal illumination 12 placed near the object 4 (41). However, object 4
There is no need to turn on the light if it is possible to clearly distinguish the background from the background. Next, the object 4 illuminated by the normal illumination 12 is photographed by the camera 1, and the outline of the object 4 is captured on the image plane C of a photographing element or the like. At that time, the photographed image is converted into a digital signal having grayscale levels by the analog e-digital converter 11 (80), and the signal is then manually inputted to the image processor 15.The signal input to the image processor 15 is a grayscale image. The processing unit 16 performs an upper smoothing process 81, a Laplacian process 82, or a combination process 87 thereof, as shown in the flowchart of FIG. Next, the signal is subjected to ridge point processing 83 in the ridge point processing section 17, and further subjected to binarization processing 84 in the binarization processing section 19. If there is a lot of whisker-like noise on the center line of the object 4, a sweat removal process 85 is performed after the binarization process 84 to remove the noise. Through the processing described above, the center line of the object 4 is extracted as a line with a thickness of 1 pixel width, and storage processing 86 is performed in the image memory 21 as the image 30 (42). From the obtained data, object direction/scanning area calculation unit 2
3 to calculate the placement direction of the object 4. The method is
First, using the camera orthogonal coordinate system (or the orthogonal coordinate system set on the image plane), start points r, s of the object 4 on the image plane CJ:
(xsC, ysC) and the end point Le (NPC, 7e
C). Assuming that the object 4 to be treated here does not have a very complicated shape, an angle θ indicating the arrangement direction of the object 4 is calculated from L and Le. That is, As a result, the direction vector 1 = (cos O, sin +)) indicating the arrangement of the object 4 is found (43
). Based on the north results, the slit light sources 14c and 14d arranged in different directions are selected and the slit scanning area is determined (44). The slit light source is selected by calculating the absolute value of the inner product intersection Sc and the inner product Sd when the normal vectors of the slit surfaces of the slit light source 14C and the slit light source 14d are respectively SC, S, and I. The slit light source with the smaller absolute value of the inner product is selected. This is to obtain more slit light images 9 for the slit light 8 to ensure measurement. However, it is not necessary to select only one of the slit light sources 14c and 14d, and measurement may be performed twice from different directions using both slit light sources 14C914d.

一方、スリット光8がカバーするスキャニング領域は、
物体4が複雑な形状ではないとして、物体4を囲む必要
十分な領域に相当する4点、L=l  (XSC,ys
C)、 La  (Xsc、 MI8c) +L1、(
Xe’、ypC)及びLb  (XPC,ysc) テ
囲まれる画像面C−1−の長方形の領域内とする。実際
には、これよりも少し大きめに領域を設定して、スリッ
ト光8がこの領域を充分力/ヘーすることができるよう
に、スリット光8の照射角度の範囲0、と0.と?決定
する。スリット光8は、この照射角度の範囲O5とθ、
・との間を走査することになる。
On the other hand, the scanning area covered by the slit light 8 is
Assuming that the object 4 is not a complicated shape, four points corresponding to a necessary and sufficient area surrounding the object 4, L = l (XSC, ys
C), La (Xsc, MI8c) +L1, (
Xe', ypC) and Lb (XPC, ysc) are within the rectangular area of the image plane C-1-. In reality, the area is set slightly larger than this, and the range of the irradiation angle of the slit light 8 is 0 and 0. and? decide. The slit light 8 has this irradiation angle range O5 and θ,
・You will scan between.

次に、通常照明12を消し、選択したスリット光源6を
点灯して、L記スキャニング領域内の適当な位21(4
5)でスリット光8を照射する。スリット光8によって
物体4表面を横切るようにして輝線7が引かれ、物体4
表面りにはスリット光像9ができる。スリット光像9を
含む輝線7をカメラ1で撮影し、カメラ1の画像面C,
1−にスリット光8によるスリット光像9に対応したス
リント画像38を含む線画像37を得る(37)。その
際、撮影された線画像37は、第3図に示したアナログ
・デジタル変換器11によってデジタル信5)に変換さ
れ(90)、 さらに該信号を画像プロセッサ15へ人
力する。画像プロセッサ15へ人力された信号は、濃淡
画像処理部16で、第6図の流れ図に示すように、+層
化処理91.ラブランアン処理92又は両者の組合せ処
理98がなされる。次に、該信号は尾根点処理部17に
おいて尾根点処理93がなされ、さらに2値化処理部1
9で2値化処理95がなされ、スリット光8による線画
像37の中心線を抽出し、画像31として画像メモリ2
2へ格納処理96を行う(46)。このとき、尾根点処
理部17による尾根点処理93の代わりに極点処理部1
8による極点処理94を適用してもよい。この場合は、
スリット光8による線画像37の中心線というより局所
的ピークをもつ点が抽出されることになる。
Next, the normal illumination 12 is turned off, the selected slit light source 6 is turned on, and an appropriate position 21 (4
In step 5), the slit light 8 is irradiated. A bright line 7 is drawn across the surface of the object 4 by the slit light 8, and the object 4
A slit light image 9 is formed on the surface. The bright line 7 including the slit light image 9 is photographed by the camera 1, and the image plane C of the camera 1,
1-, a line image 37 including a slit image 38 corresponding to the slit light image 9 by the slit light 8 is obtained (37). At this time, the photographed line image 37 is converted into a digital signal 5) by the analog-to-digital converter 11 shown in FIG. The signal input to the image processor 15 is sent to the grayscale image processing section 16, where it is subjected to layering processing 91. as shown in the flowchart of FIG. A love run process 92 or a combination process 98 of both is performed. Next, the signal is subjected to ridge point processing 93 in the ridge point processing section 17, and further, the signal is subjected to ridge point processing 93 in the ridge point processing section 17.
At step 9, binarization processing 95 is performed, and the center line of the line image 37 produced by the slit light 8 is extracted and stored as an image 31 in the image memory 2.
2 (46). At this time, instead of the ridge point processing 93 performed by the ridge point processing section 17, the polar point processing section 1
Pole processing 94 according to 8 may also be applied. in this case,
Rather than the center line of the line image 37 produced by the slit light 8, points having local peaks are extracted.

特に、後述のスリント画像38が1画素として抽出され
る場合には、第8図に示す統合処理が不要となり能率的
である。
In particular, when a slint image 38, which will be described later, is extracted as one pixel, the integration process shown in FIG. 8 is not necessary, which is efficient.

続いて、第7図に記したように画像メモリ21と画像メ
モリ22とから同時に画像データを読み出しく100)
、画像間ANDS算部20で画像30と画像31とのA
ND演′H(101)を行って、線画像37の中から物
体4表面丘にあるスリート光像9に対応するスリット画
像38を抽出する。その画像面Cヒのスリット画像38
の座標値C1(xC、yc)を八ツファ26に格納する
(107.42)。以上の処理が終了したら、スキャニ
ング領域内でのスリー7ト光8の照射の確認(48)を
行いながら、二次元スキャナ13を用いて、スリット光
面Sの配置がL記と異なるスリート光而Sを有するスリ
ット光8を照射するようにスリット光源6の移動(45
)を行い、ヒ述した一連の処理(46,47)を、スリ
ッ)・光面Sの傾斜角度の大きさ順等の所定の順序に従
って繰り返す。こうして得られた一連の複数のスリット
画像38に対応した画像面C上のスリット画像38の座
標イ【ClCl (X(、yC)をノヘツファ26に次
々と格納しでいく。この−1fflの繰り返し処理の際
、スリット光8の照射毎にその照射方向、即ちスリント
直交座標系でy、軸を回転軸とした回転角度θ、をCP
U29に記憶する。その場合、二次元スキャナ13と画
像プロセッサ15とを同期させれば、リアルタイムで画
像面Cl−のスリット画像38の座標値C4(xC。
Next, as shown in FIG. 7, image data is read out simultaneously from the image memory 21 and the image memory 22 (100).
, A between image 30 and image 31 in inter-image ANDS calculating section 20
An ND operation 'H (101) is performed to extract a slit image 38 corresponding to the slit light image 9 located on the hill of the surface of the object 4 from the line image 37. Slit image 38 of the image plane Chi
The coordinate values C1 (xC, yc) of are stored in the eight buffer 26 (107.42). After the above processing is completed, while confirming the irradiation of the three-lit light 8 within the scanning area (48), use the two-dimensional scanner 13 to identify the three-light beam whose arrangement of the slit light surface S is different from that described in L. The slit light source 6 is moved so as to emit the slit light 8 having S (45
), and the series of processes (46, 47) described above are repeated in a predetermined order, such as in the order of slits and the inclination angle of the optical surface S. The coordinates I [ClCl In this case, for each irradiation of the slit light 8, the irradiation direction, that is, y in the slint orthogonal coordinate system, and the rotation angle θ with the axis as the rotation axis, are CP
Store in U29. In that case, if the two-dimensional scanner 13 and the image processor 15 are synchronized, the coordinate value C4 (xC) of the slit image 38 on the image plane Cl- can be obtained in real time.

yC)を抽出することができる。ところで、こうして得
られる画像面C−ヒの座標値CI (xC。
yC) can be extracted. By the way, the coordinate value CI (xC.

yC)は必ずしも1点にならず数点出現することがある
。そこで、本実施例では、スリット画像38の座標値C
j  (XC、yC)を抽出した後に、距離計算部25
で距離計算処理49を行うこととした。距離計算処理4
9は第8図の流れ図に示すように、最初にC;  (x
’  、y’ )の統合処理110を行う。統合処理1
10は、特願昭58−235898号で示した処理によ
ってスリット画像38の座標値CI (xC、yC)を
適角な複数のクラスに分類し、同一クラス内の各座標位
置の平均によって各クラスを代表させて、各クラス内の
数点のI+標値を各クラス内で1点のスリット画像38
の座標値ヲCj  (XiC,Vjc)。
yC) is not necessarily one point, but may appear several times. Therefore, in this embodiment, the coordinate value C of the slit image 38 is
After extracting j (XC, yC), the distance calculation unit 25
It was decided that the distance calculation process 49 would be performed. Distance calculation process 4
9, as shown in the flowchart of FIG. 8, first C; (x
', y') is performed. Integrated processing 1
10, the coordinate values CI (xC, yC) of the slit image 38 are classified into a plurality of appropriate classes by the process shown in Japanese Patent Application No. 58-235898, and each class is determined by the average of each coordinate position within the same class. The I+ target values of several points in each class are represented by one slit image 38 in each class.
The coordinate value of woCj (XiC, Vjc).

j=1〜nに統合する処理である。統合されたスリット
画像38の座標値Cj  (XjC+ VjC)をカメ
ラ直交座標系ではなく、画像面トに設定した別の画像面
直交座標系で表現した場合には、スリット画像38の座
標値をカメラ直交座標系で表現する変換処理111を加
える。画像面Cがカメラ直交座標系でZC=f(カメラ
の焦点距5t)と表わされる場合には、画像面直交座標
系Q!  ziylzi と、カメラ直交座標系QC−
Xcyczc との間は、(1)式を用いて次のように
表わされる。
This is a process of integrating j=1 to n. When the coordinate values Cj (XjC+VjC) of the integrated slit image 38 are expressed not in the camera orthogonal coordinate system but in another image plane orthogonal coordinate system set on the image plane, the coordinate values of the slit image 38 are expressed in the camera orthogonal coordinate system. A transformation process 111 expressed in an orthogonal coordinate system is added. When the image plane C is expressed in the camera orthogonal coordinate system as ZC=f (camera focal length 5t), the image plane orthogonal coordinate system Q! ziylzi and camera orthogonal coordinate system QC-
The relationship between Xcyczc and Xcyczc is expressed as follows using equation (1).

この関係式を使って、Cr  (XiC+ YjC)を
変換シタものをDi  (xlJc 、yNc) とt
6゜伊し、ここではカメラ直交座標系で座標を表現シテ
イルノテ、D+  Cx口’  + Y+1c)とC4
(XiC,Yj’)とは一致している。こうして得られ
たスリット光8のスリット光面S1を一意的に決める0
、と、それに対応するスリット画像38の座標値である
Dj(Xi□C、yI、C)(j = 1− n )を
(7)式と(8)式とに代入することによって物体4の
スリット光像9の位置をカメラ直交座標系で表現するこ
とができるので、物体4の空間的な配置を知ること、即
ち、物体4の三次元計測が可能となる(112)。尚、
本実施例では、物体4を線状として考えたが、物体4は
線状の場合に限らず、一般の立体の場合にも適用するこ
とができる。この際、物体上のスリット光線が線状のも
のとして処理される(本実施例では点状のものとして処
理された)。
Using this relational expression, Cr (XiC + YjC) is converted into Di (xlJc, yNc) and t
6゜I, here the coordinates are expressed in the camera orthogonal coordinate system.
(XiC, Yj') is consistent. 0 that uniquely determines the slit light surface S1 of the slit light 8 obtained in this way.
, and the corresponding coordinate values of the slit image 38, Dj (Xi□C, yI, C) (j = 1-n), are substituted into equations (7) and (8) to obtain the object 4. Since the position of the slit light image 9 can be expressed in the camera orthogonal coordinate system, it becomes possible to know the spatial arrangement of the object 4, that is, to measure the object 4 in three dimensions (112). still,
In this embodiment, the object 4 is considered to be linear, but the object 4 is not limited to a linear case, but can also be applied to a general three-dimensional case. At this time, the slit light beam on the object is processed as a linear beam (in this embodiment, it is processed as a point beam).

〔発明の効果〕 以上説明してきたように、本発明によれば、配置4が予
め設定されたスリット光面を各々有する複数のスリット
光を所定の順序に従って物体表面Lに照射することによ
って得られる画像及び各スリット光面の関係に基づいて
当該物体の三次元計測を行うことができる。従って、本
発明では、カメラ1台による物体の計測が可能となり、
カメラ2台で計測する場合に必要となる各画像間の対応
付けという複雑な処理を必要としないため、リアルタイ
ムで物体の高速な計測が町ず侶となる。
[Effects of the Invention] As described above, according to the present invention, the arrangement 4 is obtained by irradiating the object surface L with a plurality of slit lights each having a preset slit light surface in a predetermined order. Three-dimensional measurement of the object can be performed based on the relationship between the image and each slit light surface. Therefore, in the present invention, it is possible to measure an object with a single camera,
Since it does not require the complicated process of associating each image with each other, which is required when measuring with two cameras, it is possible to measure objects quickly in real time.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理説明図、第2図は本発明の基本原
理図、第3図は本発明に係る実施例の全体構成図、第4
図は本発明に係る実施例の処理の流れ図、第5図は物体
輪郭抽出処理の流れ図、第6図はスリット光による線画
像抽出処理の流れ図、第7図はスリット画像抽出処理の
流れ図、第8図は距離計算処理の流れ図、第9図は従来
の物体の三次元計測方法である。 l・・・カメラ         4・・・物体6・・
・スリット光源      8・・・スリット光本勇明
の身、埋vL明図 第1図 第2図 /Il−発明1z併1糺兎伊
Fig. 1 is an explanatory diagram of the principle of the present invention, Fig. 2 is a diagram of the basic principle of the present invention, Fig. 3 is an overall configuration diagram of an embodiment according to the present invention, and Fig. 4 is a diagram illustrating the principle of the present invention.
5 is a flowchart of the process of extracting an object contour, FIG. 6 is a flowchart of the line image extraction process using slit light, FIG. 7 is a flowchart of the slit image extraction process, and FIG. FIG. 8 is a flowchart of distance calculation processing, and FIG. 9 is a conventional three-dimensional measurement method of an object. l...Camera 4...Object 6...
・Slit light source 8...Slit Yumei Mitsumoto's body, Buried VL light Figure 1 Figure 2 / Il-Invention 1z and 1 Tadasugi

【処理の胤れl第4図 物イネ輪郭抽払処遁の涜】れ図 第5図 又リット化1zよる線画イ東抽上処理の九れ図第6図[Processing Seeds Figure 4] Monoine outline raffle drawing Figure 5 Also, Figure 6 is a diagram of the line drawing East extraction process by lit conversion 1z.

Claims (1)

【特許請求の範囲】 所定の座標系において配置が予め設定されたスリット光
面を各々有する複数のスリット光を所定の順序に従つて
物体表面に照射するとともに、上記物体表面上のスリッ
ト光によるスリット光像に対応したスリット画像を所定
画像面上にて得る一方、 当該各スリット画像の画像面上の位置と各スリット画像
に対応したスリット光面とに基づいて当該物体の上記座
標系における空間的配置を計測するようにした物体の三
次元計測方法。
[Claims] A plurality of slit lights each having a slit light surface whose arrangement is set in advance in a predetermined coordinate system is irradiated onto the object surface in a predetermined order, and a slit formed by the slit light on the object surface is While obtaining a slit image corresponding to the optical image on a predetermined image plane, the spatial image of the object in the above coordinate system is calculated based on the position of each slit image on the image plane and the slit light plane corresponding to each slit image. A three-dimensional measurement method for objects that measures their placement.
JP10767685A 1985-05-20 1985-05-20 3D measurement method for objects Pending JPS61265510A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10767685A JPS61265510A (en) 1985-05-20 1985-05-20 3D measurement method for objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10767685A JPS61265510A (en) 1985-05-20 1985-05-20 3D measurement method for objects

Publications (1)

Publication Number Publication Date
JPS61265510A true JPS61265510A (en) 1986-11-25

Family

ID=14465160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10767685A Pending JPS61265510A (en) 1985-05-20 1985-05-20 3D measurement method for objects

Country Status (1)

Country Link
JP (1) JPS61265510A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008164491A (en) * 2006-12-28 2008-07-17 Shima Seiki Mfg Ltd Device and method for measuring human body shape

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008164491A (en) * 2006-12-28 2008-07-17 Shima Seiki Mfg Ltd Device and method for measuring human body shape

Similar Documents

Publication Publication Date Title
KR100968386B1 (en) Inspection system and defect detection method based on reference frame
CN102589516B (en) Dynamic distance measuring system based on binocular line scan cameras
CN107633532B (en) Point cloud fusion method and system based on white light scanner
JPH11166818A (en) Calibrating method and device for three-dimensional shape measuring device
CN111833392A (en) Multi-angle scanning method, system and device for mark points
US3883251A (en) Single photo epipolar scan instrument
JP3862402B2 (en) 3D model generation apparatus and computer-readable recording medium on which 3D model generation program is recorded
Lee et al. Machine vision system for curved surface inspection
JPH05135155A (en) Three-dimensional model constitution device using successive silhouette image
JP3919722B2 (en) Skin shape measuring method and skin shape measuring apparatus
JPS61265510A (en) 3D measurement method for objects
GB2253052A (en) Measurement of three-dimensional surfaces
JPH024028B2 (en)
JPH0367566B2 (en)
JP2809348B2 (en) 3D position measuring device
JPH05122602A (en) Range moving image input processing method
JPH076779B2 (en) Three-dimensional object recognition method and apparatus
KR20000000446A (en) 3d digital system
JPH0755440A (en) Shape recognition device
JPH024029B2 (en)
JPH04171586A (en) Pattern retrieving method
JPH045926B2 (en)
AT516140A1 (en) Method for safety control of a system and corresponding safety system
JPH0697162B2 (en) Distance measurement method for three-dimensional objects
Potosi et al. Metrological analysis of the human foot: 3D multisensor exploration