JP2018072267A - Image measurement device - Google Patents
Image measurement device Download PDFInfo
- Publication number
- JP2018072267A JP2018072267A JP2016215545A JP2016215545A JP2018072267A JP 2018072267 A JP2018072267 A JP 2018072267A JP 2016215545 A JP2016215545 A JP 2016215545A JP 2016215545 A JP2016215545 A JP 2016215545A JP 2018072267 A JP2018072267 A JP 2018072267A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- contact
- shape
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 290
- 239000000523 sample Substances 0.000 claims abstract description 217
- 238000003384 imaging method Methods 0.000 claims abstract description 124
- 238000000034 method Methods 0.000 claims description 53
- 239000000284 extract Substances 0.000 claims description 19
- 238000004140 cleaning Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 description 79
- 238000005286 illumination Methods 0.000 description 70
- 238000001514 detection method Methods 0.000 description 43
- 230000008569 process Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 20
- 238000013461 design Methods 0.000 description 19
- 239000000428 dust Substances 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 13
- 239000002184 metal Substances 0.000 description 11
- 239000007788 liquid Substances 0.000 description 8
- 238000011960 computer-aided design Methods 0.000 description 7
- 239000000126 substance Substances 0.000 description 7
- 230000036544 posture Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 240000001973 Ficus microcarpa Species 0.000 description 1
- 230000001464 adherent effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 235000021028 berry Nutrition 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Image Processing (AREA)
- A Measuring Device Byusing Mechanical Method (AREA)
Abstract
Description
本発明は、画像測定装置に係り、さらに詳しくは、プローブをステージ上のワークに接触させ、プローブの位置を画像で検出してワークの寸法を求める画像測定装置の改良に関する。 The present invention relates to an image measuring apparatus, and more particularly, to an improvement in an image measuring apparatus that obtains the dimensions of a workpiece by bringing a probe into contact with a workpiece on a stage and detecting the position of the probe with an image.
画像測定装置は、ステージ上に載置されたワークを撮影してワーク画像を取得し、ワーク画像からエッジを抽出してワークの寸法を求める寸法測定器である。ワーク画像は、カメラの高さ方向の位置に関わらず、ワークに対して極めて正確な相似形であり、ワーク画像上の距離や角度を判定することにより、ワーク上における実際の寸法や角度を検知することができる。エッジ抽出は、ワーク画像の輝度変化を解析してエッジ点を検出し、検出された複数のエッジ点に直線、円、円弧などの幾何学図形をフィッティングさせることにより行われ、ワークと背景との境界、ワーク上の凹部又は凸部の輪郭等がエッジとして求められる。ワークの寸法は、この様にして求められるエッジ間の距離や角度として求められる。また、求められた寸法値と設計値との差分(誤差)を公差と比較してワークの良否判定が行われる。 The image measuring device is a dimension measuring device that captures a workpiece placed on a stage to acquire a workpiece image, extracts an edge from the workpiece image, and obtains a workpiece dimension. Regardless of the position in the height direction of the camera, the workpiece image is a very accurate similar shape to the workpiece. By detecting the distance and angle on the workpiece image, the actual size and angle on the workpiece are detected. can do. Edge extraction is performed by analyzing the brightness change of the workpiece image, detecting edge points, and fitting a plurality of detected edge points with geometric figures such as straight lines, circles, arcs, etc. A boundary, a contour of a concave portion or a convex portion on the workpiece, and the like are obtained as edges. The dimension of the workpiece is obtained as the distance or angle between the edges obtained in this way. Further, the quality of the workpiece is determined by comparing the difference (error) between the obtained dimension value and the design value with a tolerance.
上述した様な画像測定装置には、プローブをステージ上に載置されたワークの側面に接触させてワークの寸法を求めるものがある(非特許文献1)。プローブは、カメラの撮像視野内に配置され、ワークとの接触位置は、ワークの側面に接触した状態のプローブが撮影された画像からプローブの位置を特定することによって求められる。 Some image measuring apparatuses as described above obtain the dimensions of a workpiece by bringing a probe into contact with the side surface of the workpiece placed on a stage (Non-Patent Document 1). The probe is disposed in the imaging field of view of the camera, and the contact position with the workpiece is obtained by specifying the position of the probe from an image obtained by photographing the probe in contact with the side surface of the workpiece.
図33及び図34は、画像測定装置の動作例を示した図である。図33の(a)には、測定対象のワークWが示され、(b)には、ワーク画像Iwが示されている。このワークWは、ベース部材w1と、ベース部材w1上に形成された2つの突出部w2とからなる。2つの突出部w2における内側の側面Sa間の距離Aと、外側の側面Sb間の距離Bと、ベース部材w1の側面Sc間の距離Cとを測定する場合、突出部w2の内側が曲面形状であることから、側面Sb及びScのエッジに比べ、側面Saのエッジをワーク画像Iwから正確に特定することは難しい。 33 and 34 are diagrams illustrating an example of the operation of the image measurement apparatus. 33A shows the workpiece W to be measured, and FIG. 33B shows the workpiece image Iw. The workpiece W includes a base member w 1 and two protrusions w 2 formed on the base member w 1 . The distance A between the inner side surface Sa of the two protrusions w 2, when measuring the distance B between the outer side surface Sb, and the distance C between the side surfaces Sc of the base member w 1, the interior sides of the protruding portion w 2 Is a curved surface shape, it is difficult to accurately specify the edge of the side surface Sa from the work image Iw as compared to the edges of the side surfaces Sb and Sc.
図34の(a)には、プローブPrを右側の突出部w2の側面Saに接触させた状態で撮影されたワーク画像Iwが示され、(b)には、プローブPrを左側の突出部w2の側面Saに接触させた状態で撮影されたワーク画像Iwが示されている。ワーク画像IwにおけるプローブPrの位置は、プローブPrの形状やサイズが既知であることから正確に特定することができる。また、側面Saの位置は、撮像視野内におけるプローブPrの変位量から接触位置を特定することによって求められる。従って、この種の画像測定装置を用いれば、ワーク画像Iwからエッジが正確に特定できない測定箇所であっても、寸法を正確に求めることができる。 The (a) of FIG. 34, indicated workpiece image Iw taken in a state in contact with the side surface Sa of the right protrusion w 2 the probe Pr is, the (b) is a probe Pr left projecting portions A work image Iw photographed while being in contact with the side surface Sa of w 2 is shown. The position of the probe Pr in the work image Iw can be accurately specified since the shape and size of the probe Pr are known. Further, the position of the side surface Sa is obtained by specifying the contact position from the displacement amount of the probe Pr within the imaging field of view. Therefore, if this type of image measuring apparatus is used, it is possible to accurately determine the dimensions even at a measurement location where the edge cannot be accurately specified from the work image Iw.
ところで、プローブPrを利用した画像測定装置ではプローブPrの形状とサイズが既知の形状とサイズに維持されていることが前提となっている。そのため、プローブPrの先端に設けられた球状のコンタクト部に油やゴミなどが付着していると、コンタクト部がワークWに接触した位置の測定精度が低下する。画像測定装置の測定精度はマイクロメートルのオーダーであるため、目視で確認できないような付着物がついていても、測定誤差を引き起こす。そのため、ユーザは毎回測定前にコンタクト部をクリーニングすれば、測定精度を維持できるが、ユーザには負担となろう。したがって、測定精度に影響を与えるような付着物が実際にコンタクト部に付着しているときに警告を発し、ユーザにクリーニングを促すことができれば、ユーザビリティが向上するであろう。そこで、本発明は、測定精度の低下を抑制しつつ、ユーザビリティを向上することを目的とする。 By the way, in the image measuring apparatus using the probe Pr, it is assumed that the shape and size of the probe Pr are maintained in a known shape and size. Therefore, if oil or dust adheres to the spherical contact portion provided at the tip of the probe Pr, the measurement accuracy at the position where the contact portion contacts the workpiece W is lowered. Since the measurement accuracy of the image measuring apparatus is on the order of micrometers, even if there is a deposit that cannot be visually confirmed, a measurement error is caused. Therefore, if the user cleans the contact portion before each measurement, the measurement accuracy can be maintained, but it will be a burden on the user. Therefore, usability will be improved if a warning can be issued when a deposit that actually affects the measurement accuracy is adhered to the contact portion and the user can be prompted to perform cleaning. Accordingly, an object of the present invention is to improve usability while suppressing a decrease in measurement accuracy.
本発明の第1の態様による画像測定装置は、
ワークが載置されるステージと、
前記ステージに載置された前記ワークを撮像して画像を生成する撮像部と、
前記撮像部の視野内において、前記ステージに載置された前記ワークの側面と接触可能なコンタクト部を有するプローブと、
前記ステージの載置面と略平行に前記ステージと前記プローブとのうち少なくとも一方を移動させる駆動部と、
前記コンタクト部と前記ワークの側面とが接触したときに前記撮像部により生成された画像を用いて前記ワークの側面の位置を測定する測定部と
を有する画像測定装置であって、
前記撮像部により生成された前記コンタクト部の画像における当該コンタクト部の形状が所定形状であるかを判定する形状判定部と、
前記形状判定部の判定結果を出力する出力部と
をさらに有することを特徴とする画像測定装置を備える。
An image measuring apparatus according to the first aspect of the present invention includes:
A stage on which the workpiece is placed;
An imaging unit that images the workpiece placed on the stage and generates an image;
In the field of view of the imaging unit, a probe having a contact part that can come into contact with the side surface of the workpiece placed on the stage;
A drive unit that moves at least one of the stage and the probe substantially parallel to the mounting surface of the stage;
An image measuring apparatus comprising: a measuring unit that measures a position of the side surface of the workpiece using an image generated by the imaging unit when the contact unit and the side surface of the workpiece are in contact with each other;
A shape determination unit that determines whether the shape of the contact part in the image of the contact part generated by the imaging unit is a predetermined shape;
And an output unit that outputs a determination result of the shape determination unit.
本発明によれば、コンタクト部の形状が所定形状であるかを示す判定結果が出力されるため、ユーザはその判定結果に基づきコンタクト部のクリーニングを実施できるようになる。これにより、測定精度の低下を抑制しつつ、ユーザビリティを向上することが可能となる。 According to the present invention, since a determination result indicating whether the shape of the contact portion is a predetermined shape is output, the user can perform cleaning of the contact portion based on the determination result. Thus, usability can be improved while suppressing a decrease in measurement accuracy.
<画像測定装置1>
図1は、本発明の実施の形態による画像測定装置1の一構成例を示したシステム図である。この画像測定装置1は、ステージ23上のワークWが撮影されたワーク画像からエッジを抽出し、また、プローブ26をステージ23上のワークWに接触させて接触位置を特定することにより、ワークWの寸法を求める寸法測定器であり、本体2、コントローラ3、キーボード41及びマウス42により構成される。ワークWは、その形状や寸法が測定される測定対象物である。
<Image measuring device 1>
FIG. 1 is a system diagram showing a configuration example of an image measuring apparatus 1 according to an embodiment of the present invention. The image measuring apparatus 1 extracts an edge from a workpiece image obtained by photographing the workpiece W on the stage 23, and specifies the contact position by bringing the probe 26 into contact with the workpiece W on the stage 23. Is a dimension measuring instrument for determining the dimensions of the main body 2, and comprises the main body 2, the controller 3, the keyboard 41 and the mouse 42. The workpiece W is a measurement object whose shape and dimensions are measured.
本体2は、測定ユニット20、表示部21、垂直駆動部22、ステージ23、水平駆動部24及び透過照明ユニット25により構成され、ステージ23上のワークWに可視光からなる検出光を照射し、その透過光又は反射光を受光してワーク画像を生成する。表示部21の正面方向を前後方向と呼ぶことにすれば、表示部21は、測定ユニット20よりも前側に配置されている。 The main body 2 includes a measurement unit 20, a display unit 21, a vertical drive unit 22, a stage 23, a horizontal drive unit 24, and a transmission illumination unit 25, and irradiates the work W on the stage 23 with detection light made of visible light. The transmitted light or reflected light is received to generate a work image. If the front direction of the display unit 21 is referred to as the front-rear direction, the display unit 21 is arranged in front of the measurement unit 20.
ここでは、ワーク画像からエッジを抽出してワークWの寸法を求める処理を画像測定と呼び、プローブ26をワークWの側面に接触させた状態のワーク画像から、プローブ26の位置を検出し、プローブ26とワークWとの接触位置の座標を特定することにより、ワークWの寸法を求める処理をプローブ測定と呼ぶことにする。 Here, the process of extracting the edge from the workpiece image and obtaining the dimension of the workpiece W is called image measurement, and the position of the probe 26 is detected from the workpiece image in a state where the probe 26 is in contact with the side surface of the workpiece W. The process for obtaining the dimensions of the workpiece W by specifying the coordinates of the contact position between the workpiece 26 and the workpiece W will be referred to as probe measurement.
表示部21は、ワーク画像や測定結果を表示する表示装置である。垂直駆動部22は、ステージ23に対するフォーカス位置の高さやプローブ26の高さを調整するために、測定ユニット20及びステージ23を鉛直方向に相対的に移動させる。この垂直駆動部22は、測定ユニット20を鉛直方向に移動させることができる。なお、垂直駆動部22は、プローブ26を測定ユニット20に対して個別に高さ調整可能な構成としても良い。 The display unit 21 is a display device that displays work images and measurement results. The vertical driving unit 22 relatively moves the measurement unit 20 and the stage 23 in the vertical direction in order to adjust the height of the focus position with respect to the stage 23 and the height of the probe 26. The vertical drive unit 22 can move the measurement unit 20 in the vertical direction. Note that the vertical drive unit 22 may be configured such that the height of the probe 26 can be individually adjusted with respect to the measurement unit 20.
ステージ23は、ワークWを載置するための水平かつ平坦な載置面を有する作業台である。例えば、ステージ23は、検出光を透過させるガラス板からなる。水平駆動部24は、ステージ23に対する撮像視野の位置やプローブ26の位置を調整するために、測定ユニット20及びステージ23をステージ23の上面と平行な方向に相対的に移動させる。この水平駆動部24は、ステージ23を水平面内の任意の方向に移動させることができる。 The stage 23 is a work table having a horizontal and flat mounting surface for mounting the workpiece W. For example, the stage 23 is made of a glass plate that transmits detection light. The horizontal driving unit 24 relatively moves the measurement unit 20 and the stage 23 in a direction parallel to the upper surface of the stage 23 in order to adjust the position of the imaging field of view with respect to the stage 23 and the position of the probe 26. The horizontal drive unit 24 can move the stage 23 in an arbitrary direction within a horizontal plane.
透過照明ユニット25は、ステージ23上のワークWに検出光を下方から照射する投光装置であり、透過照明用光源251、ミラー252及び集光レンズ253により構成される。透過照明用光源251は、前方に向けて配置されている。透過照明用光源251から出射された検出光は、ミラー252により上方に向けて反射され、集光レンズ253を介して出射される。この検出光は、ステージ23を透過し、その透過光の一部は、ワークWにより遮断され、他の一部が測定ユニット20の対物レンズ205に入射する。 The transmitted illumination unit 25 is a light projecting device that irradiates the workpiece W on the stage 23 with detection light from below, and includes a transmitted illumination light source 251, a mirror 252, and a condenser lens 253. The transmitted illumination light source 251 is disposed facing forward. The detection light emitted from the transmitted illumination light source 251 is reflected upward by the mirror 252 and emitted through the condenser lens 253. This detection light passes through the stage 23, a part of the transmitted light is blocked by the work W, and the other part enters the objective lens 205 of the measurement unit 20.
<測定ユニット20>
測定ユニット20は、ステージ23上のワークWに検出光を照射し、ワークWからの検出光を受光する投受光ユニットであり、プローブ26、切替駆動部27、撮像部201,206、ハーフミラー204,210、対物レンズ205、同軸落射照明用光源209、リング照明ユニット211、リング照明用垂直駆動部212及びプローブ用光源263により構成される。
<Measurement unit 20>
The measurement unit 20 is a light projecting / receiving unit that irradiates the workpiece W on the stage 23 with detection light and receives detection light from the workpiece W, and includes a probe 26, a switching drive unit 27, imaging units 201 and 206, and a half mirror 204. 210, the objective lens 205, the coaxial epi-illumination light source 209, the ring illumination unit 211, the ring illumination vertical drive unit 212, and the probe light source 263.
対物レンズ205は、ワークWからの検出光を集光する受光レンズであり、ステージ23と対向するように配置されている。撮像部201及び206は、共通の対物レンズ205を介してステージ23上のワークWを撮影し、ワーク画像をそれぞれ生成するカメラである。 The objective lens 205 is a light receiving lens that condenses detection light from the workpiece W, and is disposed so as to face the stage 23. The imaging units 201 and 206 are cameras that capture the workpiece W on the stage 23 via the common objective lens 205 and generate workpiece images, respectively.
撮像部201は、撮影倍率の低い撮像装置であり、撮像素子202と、結像レンズ及び絞り板からなる低倍側結像レンズ部203とにより構成される。撮像素子202は、低倍側結像レンズ部203を介してワークWからの検出光を受光し、ワーク画像を生成する。この撮像素子202は、受光面を下方に向けた状態で配置されている。 The imaging unit 201 is an imaging device with a low imaging magnification, and includes an imaging element 202 and a low-magnification side imaging lens unit 203 including an imaging lens and a diaphragm plate. The image sensor 202 receives the detection light from the workpiece W via the low magnification side imaging lens unit 203 and generates a workpiece image. The image sensor 202 is arranged with the light receiving surface facing downward.
撮像部206は、撮影倍率の高い撮像装置であり、撮像素子207と、結像レンズ及び絞り板からなる高倍側結像レンズ部208とにより構成され、撮像部201の撮像視野と同軸の撮像視野をステージ23上に形成する。撮像素子207は、高倍側結像レンズ部208を介してワークWからの検出光を受光し、ワーク画像を生成する。この撮像素子207は、受光面を前方に向けた状態で配置されている。対物レンズ205を透過した検出光は、ハーフミラー204により後方に向けて反射され、高倍側結像レンズ部208を介して撮像素子207に結像する。 The imaging unit 206 is an imaging device having a high imaging magnification, and includes an imaging element 207 and a high-magnification imaging lens unit 208 including an imaging lens and a diaphragm plate. The imaging field of view is coaxial with the imaging field of the imaging unit 201. Is formed on the stage 23. The image sensor 207 receives detection light from the work W via the high magnification side imaging lens unit 208 and generates a work image. The image sensor 207 is arranged with the light receiving surface facing forward. The detection light transmitted through the objective lens 205 is reflected backward by the half mirror 204 and forms an image on the image sensor 207 via the high magnification side imaging lens unit 208.
撮像素子202及び207には、例えば、CCD(Charge Coupled Devices:電荷結合素子)、CMOS(Complementary Metal Oxide Semiconductor:相補型金属酸化物半導体)などのイメージセンサが用いられる。対物レンズ205には、鉛直方向、すなわち、対物レンズ205の光軸方向の位置が変化しても、像の大きさを変化させない性質を有するテレセントリックレンズが用いられる。 For the imaging elements 202 and 207, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) is used. As the objective lens 205, a telecentric lens having a property that the size of the image is not changed even when the position in the optical axis direction of the objective lens 205 is changed is used.
同軸落射照明用光源209は、ステージ23上のワークWに検出光を鉛直上方から照射するための投光用光源装置であり、前方に向けて配置されている。同軸落射照明用光源209から出射された検出光は、ハーフミラー210により下方に向けて反射され、対物レンズ205を介して出射される。 The coaxial epi-illumination light source 209 is a light projecting light source device for irradiating the workpiece W on the stage 23 with detection light from vertically above, and is arranged facing forward. Detection light emitted from the coaxial epi-illumination light source 209 is reflected downward by the half mirror 210 and emitted through the objective lens 205.
リング照明ユニット211は、ステージ23上のワークWに検出光を上方又は側方から照射する投光装置であり、対物レンズ205を取り囲むリング形状からなる。リング照明用垂直駆動部212は、ステージ23に対する検出光の照射角度を調整するために、リング照明ユニット211を鉛直方向に移動させる。ワークWの照明方法としては、透過照明、リング照明又は同軸落射照明のいずれかを選択することができる。 The ring illumination unit 211 is a light projecting device that irradiates the workpiece W on the stage 23 with detection light from above or from the side, and has a ring shape surrounding the objective lens 205. The ring illumination vertical drive unit 212 moves the ring illumination unit 211 in the vertical direction in order to adjust the irradiation angle of the detection light with respect to the stage 23. As a method for illuminating the workpiece W, any one of transmitted illumination, ring illumination, and coaxial epi-illumination can be selected.
<プローブ26>
プローブ26は、ステージ23上に載置されたワークWの側面に接触させてワークWの寸法を測定するための接触子である。このプローブ26は、撮像部201の撮像視野内と退避位置とに移動可能に配置されている。また、プローブ26は、自発光型のプローブであり、ワークWに接触させる球状のコンタクト部261と、ガイド光を伝送する金属管262とにより構成される。
<Probe 26>
The probe 26 is a contact for contacting the side surface of the workpiece W placed on the stage 23 and measuring the dimension of the workpiece W. The probe 26 is disposed so as to be movable between an imaging field of the imaging unit 201 and a retracted position. The probe 26 is a self-luminous probe, and includes a spherical contact portion 261 that contacts the workpiece W and a metal tube 262 that transmits guide light.
金属管262の内部には、ガイド光を伝送するための光ファイバが内包されている。金属管262は、十分な強度を有するSUS管で構成されており、ワークWにコンタクト部261が接触しても金属管262の形状は変化しない。 An optical fiber for transmitting guide light is included inside the metal tube 262. The metal tube 262 is formed of a SUS tube having sufficient strength, and the shape of the metal tube 262 does not change even if the contact portion 261 contacts the workpiece W.
コンタクト部261は、プローブ用光源263から延出する金属管262の先端に配置され、ガイド光を拡散放射する。球状のコンタクト部261の水平方向における断面積は金属管262の水平方向における断面積よりも大きくなっていることから、撮像部201によりコンタクト部261を上方から撮像した場合であっても、コンタクト部261の輪郭を撮像することができる。プローブ用光源263は、可視光からなるガイド光を生成し、金属管262に入射させる光源装置である。 The contact portion 261 is disposed at the tip of a metal tube 262 extending from the probe light source 263, and diffuses and emits guide light. Since the cross-sectional area in the horizontal direction of the spherical contact portion 261 is larger than the cross-sectional area in the horizontal direction of the metal tube 262, even when the contact portion 261 is imaged from above by the imaging portion 201, the contact portion 261 contours can be imaged. The probe light source 263 is a light source device that generates guide light made of visible light and makes it incident on the metal tube 262.
切替駆動部27は、プローブ26が撮像視野内の測定位置に位置する状態と、プローブ26が撮像視野の中心から離れる方向に移動した退避位置に位置する状態とを相互に切り替える水平駆動部である。この切替駆動部27は、鉛直方向の回転軸を中心としてプローブ用光源263を回転させる回転駆動部であり、プローブ用光源263を回転させることにより、プローブ26を退避位置と測定位置との間で移動させる。例えば、退避位置は、撮像部201の撮像視野外であることが望ましいが、プローブ26がワーク画像に被写体として映し込まれなければ撮像視野の周縁部であっても良い。 The switching drive unit 27 is a horizontal drive unit that switches between a state in which the probe 26 is positioned at a measurement position in the imaging field of view and a state in which the probe 26 is positioned in a retracted position that is moved away from the center of the imaging field of view. . The switching drive unit 27 is a rotation drive unit that rotates the probe light source 263 around the rotation axis in the vertical direction. By rotating the probe light source 263, the probe 26 is moved between the retracted position and the measurement position. Move. For example, the retracted position is preferably outside the imaging field of the imaging unit 201, but may be the peripheral part of the imaging field if the probe 26 is not reflected as a subject in the work image.
コントローラ3は、本体2による撮影や画面表示を制御し、ワーク画像を解析してワークWの寸法を演算により求める制御ユニットであり、キーボード41及びマウス42が接続されている。キーボード41及びマウス42は、ユーザが操作入力を行う入力部4である。 The controller 3 is a control unit that controls photographing and screen display by the main body 2, analyzes the work image, and obtains the dimensions of the work W by calculation, and is connected to a keyboard 41 and a mouse 42. The keyboard 41 and the mouse 42 are the input unit 4 on which a user performs operation input.
図2〜図4は、図1の画像測定装置1の動作の一例を模式的に示した説明図である。図2には、取付アーム264から延びるプローブ26を鉛直上方から見た様子が示されている。図中の(a)には、プローブ26が測定位置にある場合が示され、(b)には、プローブ26が退避位置にある場合が示されている。 2-4 is explanatory drawing which showed typically an example of operation | movement of the image measuring apparatus 1 of FIG. FIG. 2 shows a state where the probe 26 extending from the mounting arm 264 is viewed from above. (A) in the figure shows the case where the probe 26 is in the measurement position, and (b) shows the case where the probe 26 is in the retracted position.
取付アーム264は、プローブ26を測定ユニット20の筐体に取り付けるための取付部材であり、L字形状からなる。取付アーム264の一端には、鉛直方向の回転軸265が配置され、他端面からプローブ26が突出している。取付アーム264は、金属管262をフローティング構造により支持している。コンタクト部261がワークWの側面に接触したときに、金属管262は接触により変形することなくX及びY方向にオフセットする。その結果、ワーク画像上でコンタクト部261の位置が変化する。 The attachment arm 264 is an attachment member for attaching the probe 26 to the housing of the measurement unit 20 and has an L shape. A vertical rotation shaft 265 is disposed at one end of the mounting arm 264, and the probe 26 projects from the other end surface. The mounting arm 264 supports the metal tube 262 with a floating structure. When the contact portion 261 contacts the side surface of the workpiece W, the metal tube 262 is offset in the X and Y directions without being deformed by the contact. As a result, the position of the contact portion 261 changes on the work image.
撮像エリア11は、撮像部201の撮像視野に対応するステージ23上の領域であり、矩形形状からなる。透光エリア12は、透過照明ユニット25から検出光が照射されるステージ23上の円形領域であり、撮像エリア11内に形成される。 The imaging area 11 is an area on the stage 23 corresponding to the imaging field of view of the imaging unit 201 and has a rectangular shape. The translucent area 12 is a circular area on the stage 23 that is irradiated with detection light from the transillumination unit 25, and is formed in the imaging area 11.
プローブ26が測定位置にある場合、コンタクト部261は、撮像エリア11及び透光エリア12の中心に配置される。この状態で撮影されたワーク画像には、コンタクト部261が被写体として映し込まれる。切替駆動部27を制御してプローブ26が測定位置にある状態から取付アーム264を180°程度回転させることにより、プローブ26は退避位置に移動する。 When the probe 26 is at the measurement position, the contact portion 261 is disposed at the center of the imaging area 11 and the light transmitting area 12. The contact part 261 is reflected as a subject on the work image photographed in this state. By controlling the switching drive unit 27 and rotating the mounting arm 264 about 180 ° from the state where the probe 26 is at the measurement position, the probe 26 is moved to the retracted position.
退避位置は、プローブ26がワーク画像に被写体として映し込まれないようにプローブ26を退避させるための位置であり、予め定められている。プローブ26が退避位置にある場合、コンタクト部261及び金属管262は、撮像エリア11の外側に配置される。 The retracted position is a position for retracting the probe 26 so that the probe 26 is not reflected as a subject in the work image. When the probe 26 is in the retracted position, the contact portion 261 and the metal tube 262 are disposed outside the imaging area 11.
図3には、プローブ26をステージ23上のワークWに接触させる際の動作の一例が示されている。図中の(a)には、基準高さにおいて、スキャン経路の開始位置に対応する位置まで、ステージ23に対し、プローブ26を相対的に移動させる場合が示され、(b)には、基準高さから測定高さまでプローブ26を鉛直下方に移動させる場合が示されている。図中の(c)には、測定高さにおいて、ステージ23に対し、プローブ26を相対的にスキャン経路に沿って移動させる場合が示されている。 FIG. 3 shows an example of the operation when the probe 26 is brought into contact with the workpiece W on the stage 23. (A) in the figure shows a case where the probe 26 is moved relative to the stage 23 to the position corresponding to the start position of the scan path at the reference height, and (b) shows the reference height. The case where the probe 26 is moved vertically downward from the height to the measurement height is shown. (C) in the drawing shows a case where the probe 26 is moved relative to the stage 23 along the scanning path at the measurement height.
プローブ26を用いた寸法測定では、プローブ26をワークWの側面に接触させる際の接触目標位置と、この接触目標位置を通るスキャン経路とが予め指定される。基準高さは、プローブ26がステージ23上のワークWと干渉しない高さである。水平駆動部24を制御することにより、基準高さにおいて、ステージ23に対し、プローブ26を相対的に水平方向に移動させることができる。なお、基準高さは、プローブ26の先端部が撮像部201又は206の被写界深度範囲の外側になるような高さに指定されるような構成であっても良い。 In dimension measurement using the probe 26, a contact target position when the probe 26 is brought into contact with the side surface of the workpiece W and a scan path passing through the contact target position are designated in advance. The reference height is a height at which the probe 26 does not interfere with the workpiece W on the stage 23. By controlling the horizontal drive unit 24, the probe 26 can be moved in the horizontal direction relative to the stage 23 at the reference height. The reference height may be configured to be specified such that the tip of the probe 26 is outside the depth of field range of the imaging unit 201 or 206.
測定高さは、プローブ26が接触すべきワーク側面の高さであり、鉛直方向の位置が基準高さよりも低い。垂直駆動部22は、ステージ23に対するプローブ26の高さを測定高さと、この測定高さよりも高い基準高さとに切り替える。ステージ23に対し、プローブ26を相対的にスキャン経路に沿って開始位置から終了位置に向かってスキャン方向に移動させれば、コンタクト部261をワークWの側面に接触させることができる。プローブ26がワークWの側面に接触したことが検知されれば、プローブ26はステージ23に対して直ちに停止する。 The measurement height is the height of the side surface of the workpiece that the probe 26 should contact, and the vertical position is lower than the reference height. The vertical drive unit 22 switches the height of the probe 26 with respect to the stage 23 between a measurement height and a reference height higher than the measurement height. If the probe 26 is moved relative to the stage 23 in the scanning direction from the start position to the end position along the scan path, the contact portion 261 can be brought into contact with the side surface of the workpiece W. If it is detected that the probe 26 contacts the side surface of the workpiece W, the probe 26 immediately stops with respect to the stage 23.
スキャン経路の開始位置は、上述したスキャン動作を開始させるための動作開始位置であり、終了位置は、スキャン動作を終了させるための動作終了位置である。終了位置を定めておくことにより、プローブ26が終了位置に到達した時点で接触エラーを検知することができる。スキャン経路の開始位置と終了位置は、接触目標位置を通り、かつ、ワークWの輪郭線の法線に沿ったスキャン経路上に設定される。 The start position of the scan path is an operation start position for starting the above-described scan operation, and the end position is an operation end position for ending the scan operation. By determining the end position, a contact error can be detected when the probe 26 reaches the end position. The start position and the end position of the scan path are set on a scan path that passes through the contact target position and extends along the normal line of the contour line of the workpiece W.
図4には、輪郭線14の位置を特定してワークWの側面間の距離Dを算出する場合が示されている。図中の(a)には、測定対象のワークWとこのワークWの右側面に接触させたプローブ26とが示されている。このワークWは、階段状の段差を有しており、上段の右側面と左側面との間の距離Dが測定される。 FIG. 4 shows a case where the distance D between the side surfaces of the workpiece W is calculated by specifying the position of the contour line 14. (A) in the drawing shows the workpiece W to be measured and the probe 26 brought into contact with the right side surface of the workpiece W. The workpiece W has a stepped step, and a distance D between the upper right side surface and the left side surface is measured.
図中の(b)には、透過照明により撮像された透過画像からなるワーク画像Iwが示されている。透過画像では、ワークWの外縁をエッジ抽出によって特定することは可能であるが、外縁よりも内側の輪郭線をエッジ抽出によって特定することは困難である。 (B) in the drawing shows a work image Iw composed of a transmission image captured by transmission illumination. In the transmission image, it is possible to specify the outer edge of the workpiece W by edge extraction, but it is difficult to specify the contour line inside the outer edge by edge extraction.
図中の(c)には、反射照明により撮像された反射画像からなるワーク画像Iwが示されている。反射照明は、同軸落射照明又はリング照明による照明方法であり、ワークWの外縁よりも内側の輪郭線であっても、エッジ抽出によって特定可能である。ところが、ワークWの上段部は、右側の上部が曲面形状であることから、左側面の輪郭線に比べ、右側面の輪郭線をエッジ抽出によって正確に特定することは難しい。この様な場合、プローブ26を接触させることにより、右側面の輪郭線14を正確に特定することができる。 (C) in the figure shows a work image Iw composed of a reflected image captured by reflected illumination. The reflected illumination is an illumination method using coaxial epi-illumination or ring illumination, and even a contour line inside the outer edge of the workpiece W can be specified by edge extraction. However, since the upper part of the workpiece W has a curved upper surface, it is difficult to accurately identify the right side contour line by edge extraction compared to the left side contour line. In such a case, the contour line 14 on the right side surface can be accurately specified by bringing the probe 26 into contact.
図中の(c)に示すワーク画像Iwには、プローブ26を接触させて特定した右側面の輪郭線14と、エッジ抽出領域15からエッジを抽出して特定した左側面の輪郭線14とが表示されている。 In the work image Iw shown in FIG. 5C, the right side outline 14 specified by contacting the probe 26 and the left side outline 14 specified by extracting an edge from the edge extraction region 15 are included. It is displayed.
プローブ26がワークWの側面に接触したことは、スキャン経路を移動中のコンタクト部261のワーク画像Iw上における位置が、所定時間内に所定の閾値以上変化したか否かによって検知することができる。コンタクト部261の位置は、例えば、コンタクト部261のエッジから円中心を求めることにより特定される。また、プローブ26がワークWの側面に接触した際のワーク画像Iw上において、撮像視野の中心に対するコンタクト部261の変位方向から、ワークWの側面の法線方向や接触位置13を特定することができる。 The contact of the probe 26 with the side surface of the workpiece W can be detected based on whether or not the position on the workpiece image Iw of the contact portion 261 moving along the scan path has changed by a predetermined threshold value or more within a predetermined time. . The position of the contact part 261 is specified by obtaining the center of the circle from the edge of the contact part 261, for example. Further, on the workpiece image Iw when the probe 26 contacts the side surface of the workpiece W, the normal direction of the side surface of the workpiece W and the contact position 13 can be specified from the displacement direction of the contact portion 261 with respect to the center of the imaging field of view. it can.
なお、プローブ26自体を水平に移動させるような構成の場合は、スキャン経路を移動中のコンタクト部261がワーク画像Iw上で停止したか否かにより、ワーク側面との接触が検知される。 In the case of a configuration in which the probe 26 itself is moved horizontally, contact with the workpiece side surface is detected depending on whether or not the contact portion 261 moving along the scan path has stopped on the workpiece image Iw.
コンタクト部261の形状は既知であるため、コンタクト部261の位置は公知のサーチ技術を使って高い精度で特定できる。従って、図4のワークWのように、エッジが丸みを帯びており2次元のワーク画像Iw上では精度良くエッジが検出できない場合であっても、コンタクト部261の位置からプローブ26とワークWの接触位置13の座標を特定することにより、画像上では検出が難しいエッジの寸法を高い精度で求めることができる。 Since the shape of the contact portion 261 is known, the position of the contact portion 261 can be specified with high accuracy using a known search technique. Therefore, even when the edge is rounded and the edge cannot be accurately detected on the two-dimensional workpiece image Iw as in the workpiece W in FIG. 4, the probe 26 and the workpiece W are positioned from the position of the contact portion 261. By specifying the coordinates of the contact position 13, the edge size that is difficult to detect on the image can be obtained with high accuracy.
接触位置13は、ワーク画像Iwからコンタクト部261の位置を特定し、コンタクト部261の半径に対応する距離だけ法線方向にオフセットさせることによって特定される。また、右側面の輪郭線14の位置は、複数の接触位置13に予め指定された幾何学図形をフィッティングさせることによって求められる。一方、左側面の輪郭線14の位置は、ワーク画像Iw上のエッジ抽出領域15からエッジ点を検出し、検出された複数のエッジ点に幾何学図形をフィッティングさせることによって求められる。この様にして特定された輪郭線14の位置に基づいて、右側面と左側面との距離Dが算出される。 The contact position 13 is specified by specifying the position of the contact portion 261 from the work image Iw and offsetting it in the normal direction by a distance corresponding to the radius of the contact portion 261. Further, the position of the contour line 14 on the right side surface is obtained by fitting a predetermined geometric figure to the plurality of contact positions 13. On the other hand, the position of the contour line 14 on the left side is obtained by detecting an edge point from the edge extraction region 15 on the work image Iw and fitting a geometric figure to the detected plurality of edge points. Based on the position of the contour line 14 specified in this way, the distance D between the right side surface and the left side surface is calculated.
<コントローラ3>
図5は、図1のコントローラ3の一構成例を示したブロック図である。このコントローラ3は、制御装置31及び記憶装置33により構成され、制御装置31と記憶装置33とがバス32を介して接続されている。制御装置31は、入力受付部311、表示制御部312、撮像制御部313、照明制御部314及び測定制御部315により構成される。本体2は、撮像部201,206及び垂直駆動部22からなるカメラ200と、水平駆動部24からなるステージ23と、切替駆動部27からなるプローブユニット260と、表示部21、透過照明ユニット25及び反射照明ユニット28とにより構成される。反射照明ユニット28は、同軸落射照明用光源209とリング照明ユニット211とにより構成される。
<Controller 3>
FIG. 5 is a block diagram showing a configuration example of the controller 3 of FIG. The controller 3 includes a control device 31 and a storage device 33, and the control device 31 and the storage device 33 are connected via a bus 32. The control device 31 includes an input receiving unit 311, a display control unit 312, an imaging control unit 313, an illumination control unit 314, and a measurement control unit 315. The main body 2 includes a camera 200 including imaging units 201 and 206 and a vertical driving unit 22, a stage 23 including a horizontal driving unit 24, a probe unit 260 including a switching driving unit 27, a display unit 21, a transmission illumination unit 25, and The reflection illumination unit 28 is used. The reflective illumination unit 28 includes a coaxial epi-illumination light source 209 and a ring illumination unit 211.
表示制御部312は、寸法測定のためのモデル画像や設定情報を表示部21に表示する。モデル画像は、例えば、マスターピースが撮影されたマスターピース画像であっても良いし、CAD(Computer Aided Design)により作成されたCADデータからなるCAD画像であっても良い。 The display control unit 312 displays a model image and setting information for dimension measurement on the display unit 21. The model image may be, for example, a master piece image obtained by photographing a master piece, or may be a CAD image made up of CAD data created by CAD (Computer Aided Design).
表示制御部312は、設計データから生成されたモデル画像を表示部21に表示する場合、ステージ23上に載置されたワークWを上方から撮像して得られた画像データを仮定して、設計データから生成されたモデル画像を表示する。この様にすれば、設計データから生成されたモデル画像であっても、撮像部201又は206により撮像されるワーク画像と同様のアングルで表示されるため、接触目標位置情報の指定を容易化することができる。 When displaying the model image generated from the design data on the display unit 21, the display control unit 312 assumes that the image data obtained by imaging the workpiece W placed on the stage 23 from above is designed. The model image generated from the data is displayed. In this way, even the model image generated from the design data is displayed at the same angle as the work image picked up by the image pickup unit 201 or 206, thereby facilitating specification of the contact target position information. be able to.
入力受付部311は、入力部4において受け付けられたユーザ操作に基づいて、撮像部201又は206からモデル画像を取得し、寸法測定を行うための各種の測定設定情報を記憶装置33に登録する処理を行う。 The input receiving unit 311 acquires a model image from the imaging unit 201 or 206 based on a user operation received by the input unit 4 and registers various measurement setting information for measuring dimensions in the storage device 33. I do.
撮像制御部313は、記憶装置33に登録された測定設定情報に基づいて、撮像部201及び206を制御し、撮影倍率の切替、撮像タイミングや露光時間の調整を行う。照明制御部314は、記憶装置33に登録された測定設定情報に基づいて、透過照明ユニット25、同軸落射照明用光源209、リング照明ユニット211及びプローブ用光源263の点灯制御を行う。例えば、画像測定からプローブ測定に切り替えられれば、照明制御部314は、プローブ用光源263を点灯させる一方、透過照明ユニット25、同軸落射照明用光源209及びリング照明ユニット211を消灯する。 The imaging control unit 313 controls the imaging units 201 and 206 based on the measurement setting information registered in the storage device 33, and performs switching of imaging magnification and adjustment of imaging timing and exposure time. The illumination control unit 314 performs lighting control of the transmitted illumination unit 25, the coaxial incident illumination light source 209, the ring illumination unit 211, and the probe light source 263 based on the measurement setting information registered in the storage device 33. For example, when switching from image measurement to probe measurement, the illumination control unit 314 turns on the probe light source 263 while turning off the transmitted illumination unit 25, the coaxial incident illumination light source 209, and the ring illumination unit 211.
測定制御部315は、記憶装置33に登録された測定設定情報に基づいて、垂直駆動部22、水平駆動部24及び切替駆動部27を制御し、撮像部201又は206からワーク画像Iwを取得して寸法測定を行う。 The measurement control unit 315 controls the vertical drive unit 22, the horizontal drive unit 24, and the switching drive unit 27 based on the measurement setting information registered in the storage device 33, and acquires the work image Iw from the imaging unit 201 or 206. Measure the dimensions.
<入力受付部311>
図6は、図5の入力受付部311の一構成例を示したブロック図である。この入力受付部311は、撮像及び照明条件指定部341、エッジ抽出領域指定部342、接触位置指定部343、測定設定部344、設計値及び公差指定部345及び特徴量情報設定部346により構成される。
<Input reception unit 311>
FIG. 6 is a block diagram illustrating a configuration example of the input receiving unit 311 in FIG. The input receiving unit 311 includes an imaging and illumination condition specifying unit 341, an edge extraction region specifying unit 342, a contact position specifying unit 343, a measurement setting unit 344, a design value and tolerance specifying unit 345, and a feature amount information setting unit 346. The
撮像及び照明条件指定部341は、ユーザの指示に基づいて、撮影倍率、露光時間、ゲイン等の撮像条件と、照明種別、明るさ、リング照明ユニットの高さ等の照明条件とを指定し、記憶装置33に測定設定情報として登録する。 The imaging and illumination condition designating unit 341 designates imaging conditions such as imaging magnification, exposure time, and gain, and illumination conditions such as illumination type, brightness, and height of the ring illumination unit based on a user instruction. Registered as measurement setting information in the storage device 33.
エッジ抽出領域指定部342は、ユーザの指示に基づいて、モデル画像上でエッジ抽出領域を特徴量情報、例えば、パターン画像に対する相対的な座標値として指定し、記憶装置33にエッジ抽出領域情報として登録する。 The edge extraction region designation unit 342 designates the edge extraction region on the model image as feature amount information, for example, a relative coordinate value with respect to the pattern image, based on the user's instruction, and stores it as edge extraction region information in the storage device 33. sign up.
接触位置指定部343は、表示部21に表示されたモデル画像上で、プローブ26が接触すべきワークWの側面の複数の接触目標位置を示す接触目標位置情報の指定を受け付ける。すなわち、接触位置指定部343は、プローブ26が接触すべき複数の接触目標位置にプローブ26を接触させるためのプローブ動作を決定する接触目標位置情報を特徴量情報(パターン画像)に対する相対的な座標値として指定し、記憶装置33内に登録する。接触目標位置情報は、接触目標位置、スキャン動作開始位置及びスキャン動作終了位置からなる。 The contact position designation unit 343 accepts designation of contact target position information indicating a plurality of contact target positions on the side surface of the work W to be contacted by the probe 26 on the model image displayed on the display unit 21. That is, the contact position designating unit 343 sets the contact target position information for determining the probe operation for bringing the probe 26 into contact with a plurality of contact target positions to be contacted by the probe 26 with relative coordinates with respect to the feature amount information (pattern image). It is designated as a value and registered in the storage device 33. The contact target position information includes a contact target position, a scan operation start position, and a scan operation end position.
接触目標位置には、モデル画像上で登録されたパターン画像(サーチ用データ)に対する相対的な位置座標と、プローブ26が接触すべきワーク側面の高さを示す測定高さとが含まれる。測定高さは、例えば、ユーザによって予め指定される。 The contact target position includes a relative position coordinate with respect to the pattern image (search data) registered on the model image, and a measurement height indicating the height of the side surface of the workpiece to which the probe 26 should contact. The measurement height is designated in advance by the user, for example.
測定設定部344は、エッジ抽出領域指定部342により指定されたエッジ抽出領域の中から、モデル画像上に存在するワークWのエッジを抽出し、また、プローブ26を接触目標位置に接触させて、プローブ26を撮像することにより、プローブ26とモデル画像上に存在するワークWとの接触位置を特定し、これらのエッジ又は接触位置に基づいて、モデル画像上から測定の基準とする輪郭線や、基準点を特定する。特定された輪郭線や基準点に基づいて、測定要素(たとえば、直線、円、円弧など)が特定される。なお、特徴量情報がCADデータである場合、輪郭線や基準点は、エッジ抽出によらず直接に特定される。 The measurement setting unit 344 extracts the edge of the workpiece W existing on the model image from the edge extraction region designated by the edge extraction region designation unit 342, and brings the probe 26 into contact with the contact target position, By imaging the probe 26, the contact position between the probe 26 and the workpiece W existing on the model image is specified, and based on these edges or contact positions, a contour line as a measurement reference from the model image, Identify the reference point. A measurement element (for example, a straight line, a circle, an arc, etc.) is specified based on the specified contour line or reference point. When the feature amount information is CAD data, the contour line and the reference point are specified directly without edge extraction.
測定設定部344は、ユーザの指示に基づいて、上述した処理により特定された測定要素の中から、測定の対象とする要素を選択し、記憶装置33に測定箇所情報として登録する。測定要素は、特定された輪郭線や基準点から新たに作成された補助線(点)に基づいて特定することもできる。補助線(点)としては、例えば、2つの輪郭線の交点や円中心などが挙げられる。測定設定部344は、さらに選択された測定要素が円や円弧の場合にその半径や直径、2つの直線が選択されている場合に直線間の距離などを測定対象として指定することができる。 The measurement setting unit 344 selects an element to be measured from the measurement elements specified by the above-described processing based on a user instruction, and registers the selected element in the storage device 33 as measurement location information. The measurement element can also be specified based on an auxiliary line (point) newly created from the specified contour line or reference point. Examples of the auxiliary line (point) include an intersection of two contour lines and a circle center. The measurement setting unit 344 can specify the radius and diameter when the selected measurement element is a circle or an arc, and the distance between the straight lines when the two straight lines are selected as the measurement target.
設計値及び公差指定部345は、ユーザの指示に基づいて、良否判定のための設計値及び公差を指定し、記憶装置33に測定設定情報として登録する。 The design value and tolerance designation unit 345 designates the design value and tolerance for pass / fail judgment based on the user's instruction, and registers the design value and tolerance in the storage device 33 as measurement setting information.
特徴量情報設定部346は、測定実行時に撮像部201又は206により撮像されたワーク画像からワークWの位置及び姿勢を特定するための特徴量情報を設定する。すなわち、特徴量情報設定部346は、ユーザの指示に基づいて、モデル画像に基づいてワークWの位置及び姿勢を特定するためのサーチ用データからなる特徴量情報を設定し、記憶装置33に測定設定情報として登録する。例えば、特徴量情報は、正規化相関サーチ用のパターン画像(データ)であり、マスターピースが撮影されたマスターピース画像に基づいて設定される。記憶装置33には、特徴量情報設定部346により設定されたパターン画像と接触位置指定部343により指定された接触目標位置情報とが同一の座標上で記憶される。 The feature amount information setting unit 346 sets feature amount information for specifying the position and orientation of the workpiece W from the workpiece image captured by the imaging unit 201 or 206 when performing measurement. That is, the feature amount information setting unit 346 sets feature amount information including search data for specifying the position and orientation of the workpiece W based on the model image based on the user's instruction, and measures the feature amount information in the storage device 33. Register as setting information. For example, the feature amount information is a pattern image (data) for normalized correlation search, and is set based on a master piece image obtained by photographing a master piece. The storage device 33 stores the pattern image set by the feature amount information setting unit 346 and the contact target position information specified by the contact position specifying unit 343 on the same coordinates.
モデル画像上で特徴が多い箇所をユーザが指定することによりパターン画像が登録されるようにしても良いし、画像全体が自動的にパターン画像として登録されるようにしても良い。また、モデル画像から特徴部分を抽出してパターン画像が自動的に登録されるようにしても良い。 The pattern image may be registered by the user specifying a portion having many features on the model image, or the entire image may be automatically registered as the pattern image. In addition, a pattern image may be automatically registered by extracting a feature portion from a model image.
登録されたパターン画像と検査対象ワークWを撮像したワーク画像をマッチングすることにより、ワーク画像内のワークWの位置及び姿勢(座標)を特定できる。マッチングには公知のマッチング技術、例えば、正規化相関サーチや幾何サーチ等が利用できる。なお、モデル画像がCAD画像であれば、CADデータに基づいて、特徴量情報を指定することもできる。 By matching the registered pattern image and the work image obtained by imaging the inspection target work W, the position and orientation (coordinates) of the work W in the work image can be specified. For matching, a known matching technique such as normalized correlation search or geometric search can be used. Note that if the model image is a CAD image, the feature amount information can be specified based on the CAD data.
上述したように、本実施の形態によれば、モデル画像上で登録されたパターン画像(サーチ用データ)に対する相対的な座標値として、プローブ26による接触目標位置情報とエッジ抽出領域が指定される。接触目標位置情報には、プローブ26を接触させる目標位置である接触目標位置、スキャン動作を開始させる位置であるスキャン動作開始位置、スキャン動作を終了させる位置であるスキャン動作終了位置、接触すべきワーク側面の高さを示す測定高さなどが含まれる。 As described above, according to the present embodiment, the contact target position information and the edge extraction region by the probe 26 are designated as relative coordinate values with respect to the pattern image (search data) registered on the model image. . The contact target position information includes a contact target position that is a target position for contacting the probe 26, a scan operation start position that is a position for starting a scan operation, a scan operation end position that is a position for ending the scan operation, and a work to be contacted Measurement height indicating the height of the side is included.
使用者が、検査対象のワークWをステージ23に載置してワーク画像を取得し、パターン画像(サーチ用データ)を用いたマッチング処理を実行することにより、プローブ26による接触目標位置と、エッジ抽出領域が自動的に特定できる。特定された接触目標位置に従って、プローブ26をワーク側面に順次接触させることにより、ワークWの輪郭線が特定される。なお、直線状の輪郭線を特定するためには、2点以上の接触位置の座標情報が必要となり、円状あるいは円弧状の輪郭線を特定するためには、3点以上の接触位置の座標情報が必要となる。また、必ずしも2点以上の接触位置が必要ではなく、ある特定の点の測定を行いたい場合は、1点の接触位置の座標情報を測定に用いることもできる。 A user obtains a workpiece image by placing the workpiece W to be inspected on the stage 23, and executes a matching process using a pattern image (search data). Extraction area can be specified automatically. The outline of the workpiece W is specified by sequentially bringing the probe 26 into contact with the side surface of the workpiece according to the specified contact target position. In addition, in order to specify a linear outline, coordinate information of two or more contact positions is required, and in order to specify a circular or arc-shaped outline, the coordinates of three or more contact positions are required. Information is needed. In addition, two or more contact positions are not necessarily required, and when it is desired to measure a specific point, the coordinate information of one contact position can be used for the measurement.
入力受付部311は、表示部21に表示されたモデル画像上で、プローブ26による測定を行う測定要素の指定を受け付ける。表示部21に表示中のモデル画像は、測定設定用のワークWが撮像されたワーク画像である。記憶装置33には、入力受付部311により指定可能な測定要素の形状種別又は大きさと、プローブ26の接触目標位置の配置位置との関係を規定した配置ルールが予め記憶される。配置ルールは、測定要素の形状種別又は大きさに応じて、接触目標位置を適切に指定するための情報である。配置ルールは、例えば、測定要素の形状種別や大きさと接触目標位置の数とを対応づけるテーブル、関数又は演算式からなる。 The input accepting unit 311 accepts designation of a measurement element to be measured by the probe 26 on the model image displayed on the display unit 21. The model image being displayed on the display unit 21 is a work image obtained by capturing the work W for measurement setting. The storage device 33 stores in advance an arrangement rule that defines the relationship between the shape type or size of the measurement element that can be designated by the input reception unit 311 and the arrangement position of the contact target position of the probe 26. The arrangement rule is information for appropriately specifying the contact target position according to the shape type or size of the measurement element. The arrangement rule includes, for example, a table, a function, or an arithmetic expression that associates the shape type and size of the measurement element with the number of contact target positions.
配置ルールは、例えば、測定要素の形状種別が円又は円弧である場合、当該円又は円弧の周方向に3以上の接触目標位置が等間隔に配置されるように定められている。また、配置ルールは、形状種別が直線である場合、当該直線の方向に2以上の接触目標位置が等間隔に配置されるように定められている。 For example, when the shape type of the measurement element is a circle or an arc, the arrangement rule is determined so that three or more contact target positions are arranged at equal intervals in the circumferential direction of the circle or arc. In addition, when the shape type is a straight line, the arrangement rule is determined so that two or more contact target positions are arranged at equal intervals in the direction of the straight line.
測定制御部315は、測定実行時に、上記入力受付部により指定された測定要素の位置と、測定要素の形状種別又は大きさと、上記記憶部に記憶された配置ルールとに従って、上記プローブの接触目標位置を特定し、特定された上記複数の接触目標位置に上記プローブが順次に移動するように上記水平駆動部を制御する。 The measurement control unit 315 performs the contact target of the probe according to the position of the measurement element designated by the input receiving unit, the shape type or size of the measurement element, and the arrangement rule stored in the storage unit when performing measurement. The position is specified, and the horizontal drive unit is controlled so that the probe sequentially moves to the specified plurality of contact target positions.
接触位置指定部343は、測定要素上にエッジ抽出領域が設定された場合に、表示中のモデル画像に対し、エッジ抽出領域からエッジを抽出して輪郭線を求め、輪郭線上の位置として複数の接触目標位置を指定するとともに、接触目標位置から輪郭線の法線方向に離間した位置として、プローブ26を接近させるスキャン動作の開始位置を指定する。 When an edge extraction region is set on the measurement element, the contact position designation unit 343 obtains a contour line by extracting an edge from the edge extraction region with respect to the model image being displayed, and obtains a plurality of positions as the positions on the contour line. A contact target position is designated, and a start position of a scanning operation for approaching the probe 26 is designated as a position separated from the contact target position in the normal direction of the contour line.
表示部21には、スキャン動作の開始位置を示すシンボルがモデル画像上に表示され、接触位置指定部343は、スキャン動作の開始位置、輪郭線上における接触目標位置の数、プローブ26を接近させるスキャン方向及び高さ情報を変更するためのユーザ操作を受け付ける。 The display unit 21 displays a symbol indicating the start position of the scan operation on the model image, and the contact position specifying unit 343 scans the probe 26 to approach the start position of the scan operation, the number of contact target positions on the contour line. A user operation for changing the direction and height information is received.
図7は、図5の入力受付部311における接触位置指定時の動作の一例を示した図である。図中の(a)には、パターン画像Ip及び接触目標位置情報を登録するためのワークWが示されている。このワークWは、ベース部材w1上に形成された突出部w2の両外側が曲面形状であり、突出部w2の側面間の距離Dがプローブ26を用いて測定される。 FIG. 7 is a diagram illustrating an example of an operation at the time of designating a contact position in the input receiving unit 311 in FIG. (A) in the figure shows a work W for registering the pattern image Ip and the target contact position information. In this work W, both outer sides of the protruding part w 2 formed on the base member w 1 have a curved shape, and the distance D between the side surfaces of the protruding part w 2 is measured using the probe 26.
モデル画像Imは、反射照明により撮像された反射画像であり、ワークWを含む一部の領域がパターン画像Ipとして登録される。このパターン画像Ipと接触目標位置情報との関連づけには、例えば、以下の(b)〜(d)に示すように3通りの方法がある。 The model image Im is a reflected image captured by reflected illumination, and a partial area including the workpiece W is registered as the pattern image Ip. There are three methods for associating the pattern image Ip with the contact target position information, for example, as shown in the following (b) to (d).
図中の(b)には、パターン画像Ipと接触目標位置とを直接に関連づける場合が示されている。例えば、パターン画像Ipに対し、スキャン動作の開始位置と終了位置を指定することにより、接触目標位置が自動的に特定される。開始位置や終了位置は、プローブ26を示すシンボルSmやスキャン方向を示す矢印Yをマウス操作によって移動させることによって指定することができる。なお、接触目標位置を指定することにより、スキャン動作の開始位置と終了位置を自動的に決定しても良い。この様にパターン画像Ipと接触目標位置とを直接に関連づけることにより、パターン画像(サーチ用データ)に対して接触目標位置座標が相対的に記憶される。 (B) in the figure shows a case where the pattern image Ip and the contact target position are directly associated with each other. For example, by designating the start position and end position of the scanning operation for the pattern image Ip, the contact target position is automatically specified. The start position and the end position can be specified by moving the symbol Sm indicating the probe 26 and the arrow Y indicating the scanning direction by operating the mouse. Note that the start position and end position of the scanning operation may be automatically determined by designating the contact target position. In this way, the contact target position coordinates are stored relative to the pattern image (search data) by directly associating the pattern image Ip with the contact target position.
図中の(c)には、エッジ抽出領域Rからエッジを抽出して特定される輪郭線Lと接触目標位置とを関連づける場合が示されている。パターン画像Ip上で指定されたエッジ抽出領域Rからエッジ点を抽出し、抽出されたエッジ点列にフィッティングする輪郭線Lが特定される。この輪郭線Lに対して接触目標位置を指定することにより、パターン画像Ipと接触目標位置とが間接的に関連づけられる。検査時に入力されるワーク画像上のエッジ抽出領域Rの位置座標は、ワーク画像と、パターン画像(サーチ用データ)とをマッチングすることにより、自動的に特定される。位置が特定されたエッジ抽出領域R内のエッジ点列が抽出され、このエッジ点列から特定される輪郭線Lに対して予め定めた位置に接触目標位置が設定される。例えば、スキャン方向が輪郭線Lに対して法線方向に所定距離離れた位置から接近する方向に設定されている場合、輪郭線Lの法線に沿って安定的にアプローチできるため、測定が安定する。 (C) in the drawing shows a case where the contour line L specified by extracting an edge from the edge extraction region R and the contact target position are associated with each other. An edge point is extracted from the edge extraction region R designated on the pattern image Ip, and a contour line L to be fitted to the extracted edge point sequence is specified. By designating the contact target position with respect to the contour line L, the pattern image Ip and the contact target position are indirectly associated. The position coordinates of the edge extraction region R on the workpiece image input at the time of inspection are automatically specified by matching the workpiece image with the pattern image (search data). An edge point sequence in the edge extraction region R whose position has been specified is extracted, and a contact target position is set at a predetermined position with respect to the contour line L specified from the edge point sequence. For example, when the scanning direction is set to a direction approaching from a position that is a predetermined distance away from the contour line L in the normal direction, the approach can be stably approached along the normal line of the contour line L, so that the measurement is stable. To do.
図中の(d)には、エッジ抽出領域Rと接触目標位置とを関連づける場合が示されている。パターン画像Ip上で指定されたエッジ抽出領域Rに対して、接触目標位置を指定することにより、パターン画像Ipと接触目標位置とが間接的に関連づけられる。上述したマッチング処理によりエッジ抽出領域Rの位置座標が特定されると同時に、接触目標位置座標が特定される。 (D) in the figure shows a case where the edge extraction region R and the contact target position are associated with each other. By designating the contact target position for the edge extraction region R designated on the pattern image Ip, the pattern image Ip and the contact target position are indirectly associated. The position coordinates of the edge extraction region R are specified by the matching process described above, and at the same time, the target contact position coordinates are specified.
図8は、図5の入力受付部311におけるパターン画像登録時の動作の一例を示した図であり、図7の(a)に示したワークWを透過照明により撮像した場合のモデル画像Imが示されている。このモデル画像Imの一部がサーチ用のパターン画像Ipとして登録される。この様にサーチ用のパターン画像Ipには、透過照明で撮像された透過画像を用いる一方、接触目標位置の指定には、反射照明で撮像された反射画像を用いることができる。 FIG. 8 is a diagram illustrating an example of an operation at the time of pattern image registration in the input reception unit 311 in FIG. 5. A model image Im when the workpiece W illustrated in FIG. It is shown. A part of the model image Im is registered as a pattern image Ip for search. In this way, a transmitted image captured with transmitted illumination is used as the search pattern image Ip, while a reflected image captured with reflected illumination can be used to specify the contact target position.
一般に透過照明で撮像された透過画像ははっきりとしたエッジが得られる他、周囲環境の変化による画像の変化も小さい。従って、透過照明で撮像した透過画像に基づいて、パターン画像を登録する一方で、透過照明では取得できない非貫通のワーク形状に存在する内側の輪郭の寸法を測定するために、反射照明で撮像された反射画像に基づいてプローブ26による接触目標位置の指定を行うことができる。この様にパターン画像を登録する際の照明条件と、接触目標位置やエッジ抽出領域を登録する際の照明条件とは異ならせることができる。また、連続測定時の照明条件を設定時の照明条件と同じにするために、設定時の照明条件が測定設定情報として登録される。 In general, a transmitted image captured with transmitted illumination provides a clear edge, and changes in the image due to changes in the surrounding environment are small. Therefore, while registering a pattern image based on a transmission image captured with transmission illumination, it is captured with reflection illumination in order to measure the dimension of the inner contour existing in a non-penetrating workpiece shape that cannot be obtained with transmission illumination. The contact target position can be designated by the probe 26 based on the reflected image. In this way, the illumination condition for registering the pattern image can be different from the illumination condition for registering the contact target position and the edge extraction region. Further, in order to make the illumination condition at the time of continuous measurement the same as the illumination condition at the time of setting, the illumination condition at the time of setting is registered as measurement setting information.
上述したように設定時にモデル画像Im上で登録されたパターン画像(サーチ用データ)と、検査時に入力されたワーク画像とをマッチングすることにより、直接的、または間接的に接触目標位置が特定される。プローブ26によりスキャンすべき位置が特定されると、プローブ26の動作計画が決定し、測定制御部315がプローブ26の動作を制御する。 As described above, the target contact position is specified directly or indirectly by matching the pattern image (search data) registered on the model image Im at the time of setting with the work image input at the time of inspection. The When the position to be scanned is specified by the probe 26, the operation plan of the probe 26 is determined, and the measurement control unit 315 controls the operation of the probe 26.
図9は、図5の入力受付部311における接触位置指定時の動作の一例を示した図であり、形状種別とスキャン経路の本数とを対応づけたテーブルが示されている。図中の(a)には、分割数が固定である場合のテーブルが示されている。このテーブルは、測定対象の形状種別とスキャン経路の本数とを対応づけた配置基準であり、3つの形状種別(直線、円及び円弧)について、スキャン経路の本数及び分割数が規定されている。 FIG. 9 is a diagram showing an example of the operation at the time of designating the contact position in the input reception unit 311 in FIG. 5, and shows a table in which the shape type and the number of scan paths are associated with each other. (A) in the figure shows a table when the number of divisions is fixed. This table is an arrangement reference that associates the shape type of the measurement target with the number of scan paths, and the number of scan paths and the number of divisions are defined for three shape types (straight line, circle, and arc).
具体的には、形状種別が直線であれば、分割数=3であり、直線を3等分するように2本のスキャン経路が配置される。また、形状種別が円であれば、分割数=3であり、円周を3等分するように3本のスキャン経路が配置される。形状種別が円弧であれば、分割数=4であり、円弧を4等分するように3本のスキャン経路が配置される。 Specifically, if the shape type is a straight line, the number of divisions is 3, and two scan paths are arranged so as to divide the straight line into three equal parts. If the shape type is a circle, the number of divisions is 3, and three scan paths are arranged so that the circumference is equally divided into three. If the shape type is an arc, the number of divisions is 4, and three scan paths are arranged to divide the arc into four equal parts.
図中の(b)には、分割数が測定対象のサイズに応じて可変である場合のテーブルが示されている。このテーブルは、測定対象の形状種別及びサイズとスキャン経路の本数とを対応づけた配置基準であり、3つの形状種別(直線、円及び円弧)について、スキャン経路の本数が規定されている。 (B) in the figure shows a table when the number of divisions is variable according to the size of the measurement target. This table is an arrangement reference that associates the shape type and size of the measurement target with the number of scan paths, and the number of scan paths is defined for three shape types (straight line, circle, and arc).
具体的には、形状種別が直線である場合、輪郭線Lの長さが閾値TH未満であれば、分割数=3であり、直線を3等分するように2本のスキャン経路が配置される。一方、輪郭線Lの長さが閾値TH以上であれば、分割数=4であり、直線を4等分するように3本のスキャン経路が配置される。また、形状種別が円である場合、輪郭線Lの長さが閾値TH未満であれば、分割数=3であり、円周を3等分するように3本のスキャン経路が配置される。一方、輪郭線Lの長さが閾値TH以上であれば、分割数=4であり、円周を4等分するように4本のスキャン経路が配置される。形状種別が円弧である場合、輪郭線Lの長さが閾値TH未満であれば、分割数=4であり、円弧を4等分するように3本のスキャン経路が配置される。一方、輪郭線Lの長さが閾値TH以上であれば、分割数=5であり、円弧を5等分するように4本のスキャン経路が配置される。 Specifically, when the shape type is a straight line and the length of the contour line L is less than the threshold value TH, the number of divisions is 3, and two scan paths are arranged so as to divide the straight line into three equal parts. The On the other hand, if the length of the contour line L is equal to or greater than the threshold value TH, the number of divisions is 4, and three scan paths are arranged to divide the straight line into four equal parts. When the shape type is a circle and the length of the contour line L is less than the threshold value TH, the number of divisions is 3, and three scan paths are arranged so as to divide the circumference into three equal parts. On the other hand, if the length of the contour line L is equal to or greater than the threshold value TH, the number of divisions is 4, and four scan paths are arranged so as to divide the circumference into four equal parts. When the shape type is an arc, if the length of the contour line L is less than the threshold TH, the number of divisions is 4, and three scan paths are arranged so as to divide the arc into four equal parts. On the other hand, if the length of the contour line L is equal to or greater than the threshold value TH, the number of divisions is 5, and four scan paths are arranged so as to divide the arc into five equal parts.
図10は、図5の入力受付部311における接触位置指定時の動作の一例を示した図であり、輪郭線Lの長さに応じてスキャン経路の本数が異なる場合が示されている。図中の(a)には、形状種別が直線である場合が示され、(b)には、形状種別が円である場合が示されている。 FIG. 10 is a diagram illustrating an example of the operation at the time of designating the contact position in the input receiving unit 311 in FIG. 5, and shows a case where the number of scan paths differs according to the length of the contour line L. In the figure, (a) shows a case where the shape type is a straight line, and (b) shows a case where the shape type is a circle.
ユーザによりモデル画像Im上でエッジ抽出領域Rが測定対象領域として指定されれば、エッジ抽出領域Rからエッジを抽出して特定された輪郭線Lに対し、接触目標位置が指定される。例えば、接触目標位置は、輪郭線Lの端点から一定間隔ごとに指定される。輪郭線Lの形状種別が直線であれば、2箇所以上の接触目標位置が指定され、輪郭線Lの形状種別が円又は円弧であれば、3箇所以上の接触目標位置が指定される。この場合、輪郭線L上に指定される接触目標位置の数は、輪郭線Lの長さに応じて異なる。なお、輪郭線Lは、マウス操作などによって直接に指定されるようなものであっても良い。 If the edge extraction region R is specified as a measurement target region on the model image Im by the user, the contact target position is specified for the contour line L specified by extracting the edge from the edge extraction region R. For example, the contact target position is designated at regular intervals from the end point of the contour line L. If the shape type of the contour line L is a straight line, two or more contact target positions are specified, and if the shape type of the contour line L is a circle or an arc, three or more contact target positions are specified. In this case, the number of contact target positions designated on the contour line L varies depending on the length of the contour line L. Note that the contour line L may be specified directly by a mouse operation or the like.
また、図示したスキャン経路のように、3以上の分割数nを指定することにより、輪郭線Lを等分割するn本又は(n−1)本のスキャン経路が指定されるようにしても良い。具体的には、図10の(a)に示す通り、輪郭線Lの形状種別が直線であれば、輪郭線Lの長さが一定値未満である場合に分割数を3とし、輪郭線Lを等分割する2本のスキャン経路が指定される。一方、輪郭線Lの長さが一定値以上である場合には分割数を4とし、輪郭線Lを等分割する3本のスキャン経路が指定される。 Further, as shown in the illustrated scan path, n or (n-1) scan paths for equally dividing the contour line L may be specified by designating a division number n of 3 or more. . Specifically, as shown in FIG. 10A, if the shape type of the contour line L is a straight line, the number of divisions is set to 3 when the length of the contour line L is less than a certain value, and the contour line L Two scan paths that equally divide are designated. On the other hand, when the length of the contour line L is equal to or greater than a certain value, the number of divisions is set to 4, and three scan paths for equally dividing the contour line L are designated.
また、図10の(b)に示す通り、形状種別が円であれば、半径が一定値未満である場合に分割数を3とし、輪郭線Lを等分割する3本のスキャン経路が指定される。一方、半径が一定値以上である場合には分割数を4とし、輪郭線Lを等分割する4本のスキャン経路が指定される。 Further, as shown in FIG. 10B, if the shape type is a circle, the number of divisions is set to 3 when the radius is less than a certain value, and three scan paths for equally dividing the contour line L are designated. The On the other hand, when the radius is equal to or larger than a certain value, the number of divisions is set to 4, and four scan paths for equally dividing the contour line L are designated.
スキャン経路の開始位置は、接触目標位置から輪郭線Lに垂直な方向に一定距離だけ離間した位置として指定される。スキャン経路の終了位置は、輪郭線Lを挟んで開始位置とは反対側の位置として指定される。また、モデル画像Imから抽出されたエッジの両側の輝度差に基づいて、プローブ26をワークWの側面に近づける際のスキャン方向が決定される。なお、スキャン経路の開始位置と終了位置の決め方は上記の方法に限定されない。スキャン経路の開始位置と終了位置は、接触目標位置に対して相対的に定められていれば良い。 The start position of the scan path is designated as a position that is separated from the contact target position by a certain distance in the direction perpendicular to the contour line L. The end position of the scan path is designated as a position on the opposite side of the start position across the contour line L. Further, based on the luminance difference between both sides of the edge extracted from the model image Im, the scanning direction for bringing the probe 26 close to the side surface of the workpiece W is determined. The method for determining the start position and end position of the scan path is not limited to the above method. The start position and the end position of the scan path may be determined relative to the contact target position.
<測定制御部315>
図11は、図5の測定制御部315の一構成例を示したブロック図である。この測定制御部315は、サーチ処理部351、エッジ抽出領域特定部352、エッジ抽出処理部353、スキャン動作決定部354、スキャン動作制御部355、プローブ検出部356、接触位置特定部357、輪郭線算出部358及び寸法算出部359により構成される。
<Measurement control unit 315>
FIG. 11 is a block diagram illustrating a configuration example of the measurement control unit 315 in FIG. The measurement control unit 315 includes a search processing unit 351, an edge extraction region specifying unit 352, an edge extraction processing unit 353, a scan operation determining unit 354, a scan operation control unit 355, a probe detection unit 356, a contact position specifying unit 357, an outline The calculation unit 358 and the dimension calculation unit 359 are configured.
サーチ処理部351は、撮像部201又は206からワーク画像を取得し、記憶装置33内の特徴量情報に基づいて、ワークWの位置及び姿勢を特定する。位置及び姿勢の特定は、パターンサーチにより行われる。このサーチ処理部351は、プローブ26が撮像視野外の退避位置にある状態で生成されたワーク画像を取得し、当該ワーク画像からワークWの位置及び姿勢を特定する。 The search processing unit 351 acquires a work image from the imaging unit 201 or 206 and specifies the position and orientation of the work W based on the feature amount information in the storage device 33. The position and orientation are specified by pattern search. The search processing unit 351 acquires a workpiece image generated in a state where the probe 26 is at the retracted position outside the imaging field of view, and specifies the position and orientation of the workpiece W from the workpiece image.
エッジ抽出領域特定部352は、サーチ処理部351により特定されたワークWの位置及び姿勢とエッジ抽出領域情報とに基づいて、ワーク画像上のエッジ抽出領域を特定する。エッジ抽出処理部353は、エッジ抽出領域特定部352により特定されたエッジ抽出領域からエッジ点を抽出する。 The edge extraction region specifying unit 352 specifies an edge extraction region on the workpiece image based on the position and posture of the workpiece W specified by the search processing unit 351 and the edge extraction region information. The edge extraction processing unit 353 extracts edge points from the edge extraction region specified by the edge extraction region specifying unit 352.
スキャン動作決定部354は、エッジ抽出処理部353により抽出された複数のエッジ点に形状種別として予め指定された幾何学図形をフィッティングさせることにより、輪郭線の位置を特定し、接触目標位置情報に基づいて、開始位置やスキャン方向を特定することにより、スキャン動作を決定する。 The scanning operation determination unit 354 specifies the position of the contour line by fitting a geometric figure previously specified as a shape type to the plurality of edge points extracted by the edge extraction processing unit 353, and sets the position as the contact target position information. Based on this, the scan operation is determined by specifying the start position and the scan direction.
スキャン動作制御部355は、スキャン動作決定部354により決定されたスキャン動作に従って、本体2の垂直駆動部22、水平駆動部24及び切替駆動部27を制御する。スキャン動作制御部355は、例えば、切替駆動部27を制御してプローブ26を退避位置から測定位置に切り替えた後、複数の接触目標位置にプローブ26が順次に移動するように水平駆動部24を制御する。 The scan operation control unit 355 controls the vertical drive unit 22, the horizontal drive unit 24, and the switching drive unit 27 of the main body 2 according to the scan operation determined by the scan operation determination unit 354. For example, the scan operation control unit 355 controls the switching drive unit 27 to switch the probe 26 from the retracted position to the measurement position, and then moves the horizontal drive unit 24 so that the probe 26 sequentially moves to a plurality of contact target positions. Control.
プローブ検出部356は、プローブ26がワークWの側面に接触したことを検出する。例えば、撮像部201又は206からワーク画像を繰り返し取得し、スキャン経路を移動中のプローブ26のワーク画像上における位置が一定時間内に一定の閾値以上変化すれば、プローブ26がワークWの側面に接触したと判断される。なお、プローブ26に物理的な接触を検知するセンサを設けてもよい。 The probe detection unit 356 detects that the probe 26 has contacted the side surface of the workpiece W. For example, when a workpiece image is repeatedly acquired from the imaging unit 201 or 206 and the position of the probe 26 moving on the scan path on the workpiece image changes by a certain threshold value within a certain time, the probe 26 is placed on the side surface of the workpiece W. Judged to have touched. A sensor for detecting physical contact may be provided on the probe 26.
接触位置特定部357は、プローブ26がワークWの側面に接触したことが検出されれば、ワークWの側面に接触した状態のプローブ26が撮影されたワーク画像を取得し、当該ワーク画像上におけるプローブ26の位置から接触位置を特定する。ワーク画像上のプローブ26の位置と、ステージ23に対する撮像視野の相対位置とに基づいて、プローブ26がワークWに接触した複数の接触位置が特定される。 When it is detected that the probe 26 is in contact with the side surface of the workpiece W, the contact position specifying unit 357 acquires a workpiece image in which the probe 26 in contact with the side surface of the workpiece W is photographed, The contact position is specified from the position of the probe 26. Based on the position of the probe 26 on the workpiece image and the relative position of the imaging field of view with respect to the stage 23, a plurality of contact positions where the probe 26 has contacted the workpiece W are specified.
ステージ23に対する撮像視野の相対位置は、水平駆動部24から入力される。水平駆動部24から入力されたグローバル座標系内における撮像視野(カメラ200又はステージ23の相対位置)の位置座標と、撮像視野内のローカル座標系内における各接触位置の座標とから、各接触位置が求められる。 The relative position of the imaging field of view with respect to the stage 23 is input from the horizontal drive unit 24. From the position coordinates of the imaging field of view (relative position of the camera 200 or the stage 23) in the global coordinate system input from the horizontal drive unit 24 and the coordinates of each contact position in the local coordinate system within the imaging field of view, each contact position Is required.
なお、本実施の形態では、カメラ200とプローブ26はXY方向に動作せず、ステージ23がXY方向に移動することにより、プローブ26とワークWの側面とを接触させる構成としている。そのため、プローブ26がワークWと接触していない状態では、プローブ26は常に撮像視野内の中心に位置する。この実施例に限らず、カメラ側がプローブ26とともに動く構成としても良いし、撮像視野内をプローブ26が移動する構成としても良い。 In the present embodiment, the camera 200 and the probe 26 do not operate in the XY direction, and the stage 23 moves in the XY direction so that the probe 26 and the side surface of the workpiece W are brought into contact with each other. Therefore, in a state where the probe 26 is not in contact with the workpiece W, the probe 26 is always located at the center in the imaging field. The present invention is not limited to this embodiment, and the camera side may move with the probe 26, or the probe 26 may move within the imaging field of view.
輪郭線算出部358は、エッジ抽出処理部353によって抽出された複数のエッジ点、又は、接触位置特定部357によって特定された複数の接触位置に対し、幾何学図形をフィッティングさせることにより、輪郭線の位置を特定する。 The contour calculation unit 358 fits the geometric figure to the plurality of edge points extracted by the edge extraction processing unit 353 or the plurality of contact positions specified by the contact position specifying unit 357, thereby generating a contour line. Specify the position of.
寸法算出部359は、輪郭線算出部358により特定された輪郭線の位置に基づいて、ワークWの寸法を求め、測定結果を表示部21に表示する。寸法算出部359では、エッジ抽出領域からエッジを抽出して特定された輪郭線と、プローブ26が接触することによって特定された輪郭線とのいずれか一方又は両方を用いて、ワークWの寸法が求められる。 The dimension calculation unit 359 obtains the dimension of the workpiece W based on the position of the contour line specified by the contour line calculation unit 358 and displays the measurement result on the display unit 21. In the dimension calculation unit 359, the dimension of the workpiece W is determined using one or both of the contour line specified by extracting the edge from the edge extraction region and the contour line specified by the probe 26 contacting. Desired.
例えば、エッジ抽出によって特定された輪郭線と、プローブ26が接触することによって特定された輪郭線とを組み合わせて寸法を求めることができる。この様な構成を採用することにより、エッジが正確に抽出できない測定箇所の輪郭線はプローブ26を接触させて特定し、エッジが正確に抽出できる測定箇所の輪郭線はエッジ抽出によって特定して寸法測定を行うことができる。つまり、画像で測定できる部分は、画像で測定する方が寸法測定に要する時間を短縮することができる。 For example, the dimension can be obtained by combining the contour line specified by edge extraction and the contour line specified by contact of the probe 26. By adopting such a configuration, the contour line of the measurement point where the edge cannot be accurately extracted is specified by contacting the probe 26, and the contour line of the measurement point where the edge can be accurately extracted is specified and dimensioned by edge extraction. Measurements can be made. That is, it is possible to reduce the time required for measuring the dimension of the portion that can be measured with the image by measuring with the image.
図12のステップS101〜S107は、図5のコントローラ3における測定設定時の動作の一例を示したフローチャートである。まず、コントローラ3は、画像測定又はプローブ測定のいずれかの測定方法がユーザにより選択されれば(ステップS101)、選択された測定方法に応じた測定要素の設定を行う(ステップS102〜S104)。 Steps S101 to S107 in FIG. 12 are flowcharts showing an example of the operation at the time of measurement setting in the controller 3 in FIG. First, when one of the measurement methods of image measurement or probe measurement is selected by the user (step S101), the controller 3 sets measurement elements according to the selected measurement method (steps S102 to S104).
図13及び図14は、図1の画像測定装置1における測定設定時の動作の一例を示した図である。図13の(a)には、登録対象のワークWが示され、(b)には、パターン画像Ip上で指定されたエッジ抽出領域Rとスキャン動作の開始位置を示すシンボルSmが示されている。このワークWは、ベース部材w1上に円筒状の突出部w2が形成され、ベース部材w1の周縁部に3つの貫通孔w3が形成されている。 13 and 14 are diagrams showing an example of an operation at the time of measurement setting in the image measurement apparatus 1 of FIG. 13A shows the workpiece W to be registered, and FIG. 13B shows the edge extraction region R designated on the pattern image Ip and the symbol Sm indicating the start position of the scanning operation. Yes. The workpiece W includes a cylindrical projecting portion w 2 is formed on the base member w 1, the periphery into three holes w 3 of the base member w 1 is formed.
パターン画像Ipは、この様なワークWが被写体として撮像された撮影画像からなる。測定箇所は、ベース部材w1の左右の側面間の距離と、前後の側面間の距離と、2つの貫通孔w3間の距離と、突出部w2の内径とが指定されている。ベース部材w1の左右の側面間の距離と2つの貫通孔w3間の距離とは、ワークWの輪郭線に対して指定されたエッジ抽出領域Rからエッジを抽出することによって測定される。一方、ベース部材w1の前後の側面間の距離と突出部w2の内径とは、プローブ26を接触させることによって測定される。 The pattern image Ip is composed of a captured image obtained by capturing such a workpiece W as a subject. As the measurement location, the distance between the left and right side surfaces of the base member w 1 , the distance between the front and rear side surfaces, the distance between the two through holes w 3 , and the inner diameter of the protruding portion w 2 are specified. The distance between the left and right side surfaces of the base member w 1 and the distance between the two through holes w 3 are measured by extracting an edge from the edge extraction region R specified for the contour line of the workpiece W. On the other hand, the distance between the front and back side surfaces of the base member w 1 and the inner diameter of the protrusion w 2 are measured by bringing the probe 26 into contact therewith.
図14には、測定設定情報の指定時に、表示部21に表示される設定画面100が示されている。設定画面100は、測定設定情報の編集画面であり、モデル画像を表示するための表示欄110と、寸法種別を選択するためのメニュー欄111が設けられている。 FIG. 14 shows a setting screen 100 displayed on the display unit 21 when the measurement setting information is designated. The setting screen 100 is an editing screen for measurement setting information, and includes a display column 110 for displaying a model image and a menu column 111 for selecting a dimension type.
表示欄110に表示中のモデル画像は、図12に示したワークWが被写体として撮像された撮影画像である。倍率ボタン131又は132を操作することにより、広視野測定用の低倍率と高精度測定用の高倍率とのいずれかを撮影倍率として指定することができる。また、ステージ調整ボタン133を操作すれば、ステージ23のX方向の位置及びY方向の位置を調整することができる。また、Z調整ボタン134を操作すれば、測定ユニット20のZ方向の位置を調整することができる。照明ボタン135を操作すれば、照明種別を指定することができる。照明種別には、透過照明、リング照明及び同軸落射照明などがある。 The model image being displayed in the display column 110 is a captured image obtained by capturing the work W illustrated in FIG. 12 as a subject. By operating the magnification button 131 or 132, either the low magnification for wide field measurement or the high magnification for high accuracy measurement can be designated as the imaging magnification. Further, if the stage adjustment button 133 is operated, the position in the X direction and the position in the Y direction of the stage 23 can be adjusted. Further, if the Z adjustment button 134 is operated, the position of the measurement unit 20 in the Z direction can be adjusted. By operating the illumination button 135, the illumination type can be designated. Illumination types include transmitted illumination, ring illumination, and coaxial epi-illumination.
メニュー欄111の寸法種別には、距離測定、角度測定などがある。距離測定には、2直線の間の距離測定、直線と点との間の距離測定、2点の間の距離測定、2円の間の距離測定、円と直線との間の距離測定、円と点との間の距離測定、円の直径測定及び円弧の半径測定がある。 The dimension types in the menu column 111 include distance measurement and angle measurement. Distance measurement includes distance measurement between two straight lines, distance measurement between straight lines and points, distance measurement between two points, distance measurement between two circles, distance measurement between circles and straight lines, circles There is a distance measurement between each point, a circle diameter measurement and an arc radius measurement.
ステップS103の画像測定要素の設定では、エッジ抽出により寸法測定を行うための測定要素について、測定設定情報の指定が行われる。一方、ステップS104のプローブ測定要素の設定では、プローブ26を接触させて寸法測定を行うための測定要素について、測定設定情報の指定が行われる。ステップS103及びS104の処理内容は、図17及び図19においてそれぞれ詳述する。コントローラ3は、モデル画像上の全ての測定要素について、設定が完了するまでステップS101からS104までの処理手順を繰り返す(ステップS105)。 In the setting of the image measurement element in step S103, the measurement setting information is specified for the measurement element for performing dimension measurement by edge extraction. On the other hand, in the setting of the probe measurement element in step S104, the measurement setting information is designated for the measurement element for measuring the dimension by bringing the probe 26 into contact. The processing contents of steps S103 and S104 will be described in detail with reference to FIGS. The controller 3 repeats the processing procedure from step S101 to S104 for all measurement elements on the model image until the setting is completed (step S105).
次に、コントローラ3は、設計値及び公差の指定を行う(ステップS106)。このステップでは、モデル画像から算出された寸法値が測定要素の輪郭線に対応づけて表示され、モデル画像上の寸法値がユーザにより選択されれば、設計値や公差を新たに指定し、或いは、変更することができる。 Next, the controller 3 designates design values and tolerances (step S106). In this step, the dimension value calculated from the model image is displayed in association with the outline of the measurement element, and if the dimension value on the model image is selected by the user, a design value or tolerance is newly designated, or Can be changed.
図15には、設計値及び公差の指定時における公差設定画面101が示されている。公差設定画面101は、設計値及び公差の編集画面であり、モデル画像を表示するための表示欄110と、設計値と公差の上限値及び下限値とを指定するための入力欄112が設けられている。表示欄110に表示中のモデル画像には、測定箇所に対応づけて寸法線や識別番号が表示されている。 FIG. 15 shows a tolerance setting screen 101 when design values and tolerances are designated. The tolerance setting screen 101 is a design value and tolerance editing screen, and is provided with a display column 110 for displaying a model image and an input column 112 for designating the design value and the upper limit value and the lower limit value of the tolerance. ing. In the model image being displayed in the display column 110, a dimension line and an identification number are displayed in association with the measurement location.
この入力欄112には、測定設定情報として登録された複数の測定箇所について、設計値と公差の上限値及び下限値とが表示され、測定箇所を選択すれば、設計値、公差の上限値又は下限値を新たに指定し、或いは、変更することができる。 In this input column 112, design values and upper and lower tolerance limits are displayed for a plurality of measurement locations registered as measurement setting information. If a measurement location is selected, the design value, the upper limit of tolerance or A lower limit value can be newly designated or changed.
次に、コントローラ3は、特徴量情報の登録を行う(ステップS107)。このステップでは、ワークWの位置及び姿勢を特定するためのパターン画像(サーチ用データ)が、パターン画像と各測定要素の設定で指定されるエッジ抽出領域との相対的な位置関係と共にモデル画像を用いて登録される。 Next, the controller 3 registers feature amount information (step S107). In this step, the pattern image (search data) for specifying the position and orientation of the workpiece W is converted into a model image together with the relative positional relationship between the pattern image and the edge extraction region specified by the setting of each measurement element. Registered.
図16には、特徴量情報の指定時における特徴量設定画面102が示されている。この特徴量設定画面102は、パターン画像を特徴量情報として登録するための編集画面であり、モデル画像を表示するための表示欄110と、登録対象領域及びサーチ条件を指定するための入力欄114が設けられている。表示欄110に表示中のモデル画像には、登録対象領域の外縁を示す枠113が表示されている。 FIG. 16 shows a feature amount setting screen 102 when designating feature amount information. The feature amount setting screen 102 is an edit screen for registering a pattern image as feature amount information, and includes a display column 110 for displaying a model image, and an input column 114 for specifying a registration target region and a search condition. Is provided. In the model image displayed in the display column 110, a frame 113 indicating the outer edge of the registration target area is displayed.
サーチ条件には、回転方向のスキャン範囲を制限するためのサーチ範囲と、パターン画像と一致するワークWの検出個数とを指定することができる。登録ボタン115を操作すれば、表示中のモデル画像がサーチ用のパターン画像として登録される。 As the search condition, a search range for limiting the scan range in the rotation direction and the number of workpieces W that match the pattern image can be specified. When the registration button 115 is operated, the model image being displayed is registered as a pattern image for search.
図17のステップS201〜S209は、図12のステップS103(画像測定要素の設定)について、詳細動作の一例を示したフローチャートであり、コントローラ3の動作が示されている。まず、コントローラ3は、後述する撮影条件を指定し(ステップS201)、ステージ23上に載置されたマスターピースが撮影された撮影画像を取得してモデル画像として表示する(ステップS202)。 Steps S201 to S209 in FIG. 17 are flowcharts showing an example of detailed operations for step S103 (setting of image measurement elements) in FIG. 12, and the operations of the controller 3 are shown. First, the controller 3 designates shooting conditions to be described later (step S201), acquires a shot image obtained by shooting a master piece placed on the stage 23, and displays it as a model image (step S202).
次に、測定要素の形状種別がユーザにより選択され(ステップS203)、形状種別に対応づけてエッジ抽出領域がユーザにより指定される(ステップS204)。コントローラ3は、指定されたエッジ抽出領域から複数のエッジ点を抽出し(ステップS205)、これらのエッジ点に対し、選択された形状種別に対応する幾何学図形をフィッティングさせることによって輪郭線の位置を決定する(ステップS206)。 Next, the shape type of the measurement element is selected by the user (step S203), and the edge extraction region is specified by the user in association with the shape type (step S204). The controller 3 extracts a plurality of edge points from the designated edge extraction region (step S205), and fits a geometric figure corresponding to the selected shape type to these edge points to thereby determine the position of the contour line. Is determined (step S206).
次に、コントローラ3は、輪郭線の位置に基づいて、測定箇所の寸法を算出し、測定要素に対応づけて測定結果の寸法値をモデル画像上に表示する(ステップS207,S208)。コントローラは、モデル画像上の全ての測定要素について、設定が完了するまでステップS203からS208までの処理手順を繰り返す(ステップS209)。 Next, the controller 3 calculates the dimension of the measurement location based on the position of the contour line, and displays the dimension value of the measurement result on the model image in association with the measurement element (steps S207 and S208). The controller repeats the processing procedure from steps S203 to S208 for all measurement elements on the model image until the setting is completed (step S209).
図18は、図1の画像測定装置1における画像測定要素の設定時の動作の一例を示した図である。図中の(a)には、モデル画像上で指定されたエッジ抽出領域116が示され、(b)には、エッジ抽出領域116からエッジを抽出して特定された輪郭線117が示されている。 FIG. 18 is a diagram illustrating an example of an operation when setting an image measurement element in the image measurement apparatus 1 of FIG. In the figure, (a) shows an edge extraction region 116 designated on the model image, and (b) shows an outline 117 specified by extracting an edge from the edge extraction region 116. Yes.
設定画面100の表示欄110に表示中のモデル画像に対し、測定要素の始点及び終点の位置を指定すれば、始点及び終点を結ぶ直線を含む矩形領域がエッジ抽出領域116として自動的に指定され、エッジ点のスキャン方向と共に測定要素に対応づけてモデル画像上に表示される。エッジ抽出領域116の登録が完了すれば、当該エッジ抽出領域116からエッジを抽出して特定された輪郭線117や寸法値がモデル画像上に表示される。 If the position of the start point and end point of the measurement element is specified for the model image displayed in the display field 110 of the setting screen 100, a rectangular area including a straight line connecting the start point and end point is automatically specified as the edge extraction area 116. The edge point scan direction is displayed on the model image in association with the measurement element. When the registration of the edge extraction region 116 is completed, the contour 117 and the dimension value specified by extracting the edge from the edge extraction region 116 are displayed on the model image.
図19のステップS301〜S315は、図12のステップS104(プローブ測定要素の設定)について、詳細動作の一例を示したフローチャートであり、コントローラ3の動作が示されている。ステップS301からステップS306までの処理手順は、図17のステップS201からステップS206までの処理手順と同様である。 Steps S301 to S315 in FIG. 19 are flowcharts showing an example of detailed operation for step S104 (setting of probe measurement elements) in FIG. 12, and the operation of the controller 3 is shown. The processing procedure from step S301 to step S306 is the same as the processing procedure from step S201 to step S206 in FIG.
次に、コントローラ3は、接触目標位置情報を指定する(ステップS307)。接触目標位置情報、すなわち、接触目標位置及びスキャン経路は、測定要素の形状種別及びサイズに基づいて自動的に指定される。また、指定されたスキャン経路は、モデル画像上に重畳して表示される(ステップS308)。 Next, the controller 3 designates contact target position information (step S307). The contact target position information, that is, the contact target position and the scan path are automatically specified based on the shape type and size of the measurement element. Also, the designated scan path is displayed superimposed on the model image (step S308).
図20は、図1の画像測定装置1におけるプローブ測定要素の設定時の動作の一例を示した図である。プローブ測定は、プローブ26をカメラ200により撮像して行うものであることから、プローブ26をワークWのどこに接触させれば良いのか、或いは、ワークWの側面に対し、どのようにアプローチすれば良いのかをユーザ自身で判断するのは難しい。本実施の形態による画像測定装置1では、モデル画像上でエッジ抽出領域を測定対象領域として指定するだけで、接触目標位置が自動的に決定される。 FIG. 20 is a diagram showing an example of the operation when setting the probe measurement element in the image measurement apparatus 1 of FIG. Since the probe measurement is performed by imaging the probe 26 with the camera 200, where the probe 26 should be brought into contact with the work W or how the approach is made to the side surface of the work W. It is difficult for the user to determine whether or not. In the image measurement apparatus 1 according to the present embodiment, the contact target position is automatically determined simply by designating the edge extraction region as the measurement target region on the model image.
図中の(a)には、モデル画像Im上で指定されたエッジ抽出領域118が示されている。設定画面100の表示欄110に表示中のモデル画像Imに対し、測定要素の円周上に3つの点を指定すれば、これらの点を含む円環状の領域がエッジ抽出領域118として自動的に指定され、モデル画像Im上に表示される。 (A) in the figure shows an edge extraction region 118 designated on the model image Im. If three points are specified on the circumference of the measurement element for the model image Im displayed in the display field 110 of the setting screen 100, an annular area including these points is automatically set as the edge extraction area 118. Designated and displayed on the model image Im.
図中の(b)には、エッジ抽出領域118からエッジを抽出して特定された輪郭線119とスキャン動作の開始位置を示すシンボル120とが示されている。エッジ抽出領域118の登録が完了すれば、当該エッジ抽出領域118からエッジを抽出して輪郭線119の位置が特定される。接触目標位置は、この輪郭線119に対して指定され、スキャン動作の開始位置を示すシンボル120が輪郭線119に対応づけて表示される。この例では、3つのスキャン経路が輪郭線119に沿って等間隔に配置されている。 (B) in the figure shows a contour line 119 identified by extracting an edge from the edge extraction region 118 and a symbol 120 indicating the start position of the scanning operation. When the registration of the edge extraction area 118 is completed, the edge is extracted from the edge extraction area 118 and the position of the contour line 119 is specified. The contact target position is specified for the contour line 119, and a symbol 120 indicating the start position of the scanning operation is displayed in association with the contour line 119. In this example, three scan paths are arranged along the contour line 119 at equal intervals.
設定画面100上でのシンボル120とワークWは、実際のコンタクト部261とワークWの相似形である。これにより、ユーザは、設定画面100上でコンタクト部261とワークWとの位置関係を正確に把握することができ、プローブ26を動作させた際にコンタクト部261がワークWと干渉するか否かを確認することができる。また、コンタクト部261とワークWが干渉する可能性が高い場合には、設定画面100上にエラーを表示するなどして、ユーザに報知しても良い。 The symbol 120 and the workpiece W on the setting screen 100 are similar to the actual contact portion 261 and the workpiece W. Accordingly, the user can accurately grasp the positional relationship between the contact portion 261 and the workpiece W on the setting screen 100, and whether or not the contact portion 261 interferes with the workpiece W when the probe 26 is operated. Can be confirmed. Further, when there is a high possibility that the contact portion 261 and the workpiece W interfere with each other, an error may be displayed on the setting screen 100 to notify the user.
図中の(c)には、プローブ26を接触させて特定された輪郭線121と輪郭線121に対応づけて表示された寸法値とが示されている。接触目標位置の登録が完了すれば、設定画面100内のモデル画像には、プローブ26をワークWの側面に接触させて特定された輪郭線121が表示されるとともに、当該輪郭線121から求められた寸法値が輪郭線121に対応づけて表示される。 (C) in the figure shows the contour line 121 specified by contacting the probe 26 and the dimension value displayed in association with the contour line 121. When the registration of the contact target position is completed, the model image in the setting screen 100 displays the contour line 121 specified by bringing the probe 26 into contact with the side surface of the workpiece W and is obtained from the contour line 121. Dimension values are displayed in association with the contour line 121.
次に、コントローラ3は、スキャン経路の調整を行うか否かをユーザに照会し(ステップS309)、スキャン経路の調整がユーザにより指示されれば、接触目標位置の調整を行う(ステップS310)。 Next, the controller 3 inquires of the user whether or not to adjust the scan path (step S309), and if the user instructs to adjust the scan path, the controller 3 adjusts the target contact position (step S310).
図21及び図22は、図1の画像測定装置1におけるプローブ測定要素の設定時の動作の一例を示した図である。図21の(a)には、モデル画像Im上の輪郭線119に対して指定された接触目標位置を調整する場合が示され、(b)には、スキャン方向を変更する場合が示され、(c)には、スキャン経路の本数を変更する場合が示されている。 21 and 22 are diagrams illustrating an example of the operation when setting the probe measurement element in the image measurement apparatus 1 of FIG. FIG. 21A shows a case where the contact target position designated with respect to the contour line 119 on the model image Im is adjusted, and FIG. 21B shows a case where the scan direction is changed. (C) shows a case where the number of scan paths is changed.
モデル画像Im上の輪郭線119に対して指定された接触目標位置は、マウス操作などによってスキャン動作の開始位置を示すシンボル120を移動させることにより、調整することができる。例えば、シンボル120を輪郭線119の径方向に移動させることにより、スキャン動作の開始位置を輪郭線119から内側へ遠ざけることができる。また、設定画面100を操作することにより、スキャン方向を反転させ、或いは、スキャン経路を追加することができる。 The contact target position designated for the contour line 119 on the model image Im can be adjusted by moving the symbol 120 indicating the start position of the scanning operation by a mouse operation or the like. For example, by moving the symbol 120 in the radial direction of the contour line 119, the start position of the scanning operation can be moved away from the contour line 119. Further, by operating the setting screen 100, the scan direction can be reversed or a scan path can be added.
図22の(a)には、登録対象のワークWが示され、(b)には、モデル画像Im上で指定された接触目標位置が示され、(c)には、エラー表示されたシンボル120が示されている。ワークWの右側面に対応する輪郭線119に対し、2つのスキャン経路が指定されている。スキャン動作の開始位置を示すシンボル120をマウス操作などによって移動させることにより、接触目標位置を変更することができる。 22A shows the workpiece W to be registered, FIG. 22B shows the contact target position designated on the model image Im, and FIG. 22C shows the symbol displayed as an error. 120 is shown. Two scan paths are designated for the contour line 119 corresponding to the right side surface of the workpiece W. The contact target position can be changed by moving the symbol 120 indicating the start position of the scanning operation by a mouse operation or the like.
スキャン動作の開始位置は、測定箇所の輪郭線119に近い方が測定時間を短縮することができる。しかしながら、スキャン動作の開始位置を測定箇所の輪郭線119に近づけ過ぎた場合、ワークWの寸法ばらつきにより、プローブ26を開始位置まで移動させる際にプローブ26がワークWと干渉するおそれがある。すなわち、右側の輪郭線119を測定対象とする場合、右側の輪郭線119にスキャン開始位置を近づけ過ぎると、連続測定時のワークWの寸法ばらつきにより、プローブ26がワークWに干渉してしまう。 As the start position of the scanning operation is closer to the outline 119 of the measurement location, the measurement time can be shortened. However, if the start position of the scanning operation is too close to the outline 119 of the measurement location, the probe 26 may interfere with the work W when the probe 26 is moved to the start position due to dimensional variations of the work W. That is, when the right outline 119 is a measurement target, if the scan start position is too close to the right outline 119, the probe 26 interferes with the workpiece W due to dimensional variations of the workpiece W during continuous measurement.
この様にモデル画像Im上で指定された接触目標位置が測定対象の輪郭線119に近い場合、当該輪郭線119から遠ざかるように接触目標位置を調整することができる。すなわち、右側の輪郭線119から離れるように、スキャン動作の開始位置を調整することができる。 As described above, when the contact target position designated on the model image Im is close to the contour line 119 to be measured, the contact target position can be adjusted so as to be away from the contour line 119. That is, the start position of the scanning operation can be adjusted so as to be away from the right outline 119.
一方、スキャン開始位置が左側の輪郭線119に近づけ過ぎると、プローブ26がワークWの左側面と干渉してしまう。この様に測定対象の輪郭線119とは異なる輪郭線と重複する位置にスキャン開始位置が指定されれば、シンボル120がエラー表示される。このため、ユーザは、モデル画像Imを確認することにより、接触目標位置を容易に調整することができる。 On the other hand, if the scan start position is too close to the left outline 119, the probe 26 interferes with the left side surface of the workpiece W. In this way, if the scan start position is designated at a position overlapping with a contour line different from the contour line 119 to be measured, the symbol 120 is displayed as an error. Therefore, the user can easily adjust the contact target position by confirming the model image Im.
図23は、図1の画像測定装置1におけるプローブ測定要素の設定時の動作の一例を示した図である。図中の(a)には、登録対象のワークWが示され、(b)には、モデル画像Im上でスキャン動作の高さ位置を調整する場合が示されている。このワークWは、高さ方向の段差を有し、下段の右側面と上段の右側面との間の水平方向の距離Dがプローブ26を用いて測定される。 FIG. 23 is a diagram showing an example of the operation when setting the probe measurement element in the image measurement apparatus 1 of FIG. (A) in the figure shows a workpiece W to be registered, and (b) shows a case where the height position of the scanning operation is adjusted on the model image Im. The workpiece W has a step in the height direction, and a horizontal distance D between the lower right side surface and the upper right side surface is measured using the probe 26.
ワークWの下段の右側面と上段の右側面とでは、鉛直方向の位置が異なるため、スキャン動作の測定高さを適切に指定する必要がある。すなわち、上段の右側面を測定するための測定高さh2は、下段の右側面を測定するための測定高さh1よりも高い位置として指定する必要がある。この様な高さ情報は、プローブ26を実際に移動させて指定しても良いし、数値で指定することもできる。 Since the lower right side surface and the upper right side surface of the work W have different vertical positions, it is necessary to appropriately specify the measurement height of the scanning operation. That is, the measurement height h 2 for measuring the right side surface of the upper, it is necessary to specify a position higher than the measured height h 1 for measuring the right side surface of the lower. Such height information may be specified by actually moving the probe 26 or numerically.
また、測定高さを変更すると、垂直駆動部22を制御してプローブ26を変更後の測定高さに移動させることができ、これによりワークWとコンタクト部261の高さ関係を実際に確認することができる。 When the measurement height is changed, the vertical drive unit 22 can be controlled to move the probe 26 to the changed measurement height, thereby actually confirming the height relationship between the workpiece W and the contact part 261. be able to.
次に、コントローラ3は、スキャン動作を開始し、マスターピースの側面に接触した状態のプローブ26が撮影された撮影画像を取得し、当該撮影画像に基づいて、接触点の位置を特定する(ステップS311)。そして、コントローラ3は、2以上の接触点の位置から輪郭線の位置を決定する(ステップS312)。 Next, the controller 3 starts a scanning operation, acquires a captured image obtained by capturing the probe 26 in contact with the side surface of the master piece, and specifies the position of the contact point based on the captured image (step S311). ). Then, the controller 3 determines the position of the contour line from the positions of two or more contact points (step S312).
コントローラ3は、輪郭線の位置に基づいて、測定箇所の寸法を算出し、測定要素に対応づけて測定結果の寸法値をモデル画像上に表示する(ステップS313,S314)。コントローラは、モデル画像上の全ての測定要素について、設定が完了するまでステップS303からS314までの処理手順を繰り返す(ステップS315)。 The controller 3 calculates the dimension of the measurement location based on the position of the contour line, and displays the dimension value of the measurement result on the model image in association with the measurement element (steps S313 and S314). The controller repeats the processing procedure from step S303 to S314 for all measurement elements on the model image until the setting is completed (step S315).
図24は、図1の画像測定装置1におけるプローブ測定要素の設定時の動作の一例を示した図である。図中の(a)には、第1スキャンモードの場合が示され、(b)には、第2スキャンモードが示されている。第1スキャンモード及び第2スキャンモードは、ステージ23に対し、プローブ26が相対的に接触目標位置間を移動する際の移動方法であり、第1スキャンモード又は第2スキャンモードのいずれかを指定することができる。 FIG. 24 is a diagram showing an example of the operation when setting the probe measurement element in the image measurement apparatus 1 of FIG. In the figure, (a) shows the case of the first scan mode, and (b) shows the second scan mode. The first scan mode and the second scan mode are moving methods when the probe 26 moves between the contact target positions relative to the stage 23, and designates either the first scan mode or the second scan mode. can do.
第1スキャンモードでは、接触目標位置間の移動ごとに、プローブ26が測定高さから基準高さに切り替えられる。隣接する2つの接触目標位置間に段差などの障害物がある場合には、第1スキャンモードを選択することにより、ワークWとの干渉を確実に防止することができる。 In the first scan mode, the probe 26 is switched from the measurement height to the reference height for each movement between the contact target positions. When there is an obstacle such as a step between two adjacent contact target positions, interference with the workpiece W can be reliably prevented by selecting the first scan mode.
一方、第2スキャンモードでは、基準高さに切り替えることなく、ステージ23に対し、プローブ26が相対的に接触目標位置間を移動する。具体的には、1つの測定要素に対して複数の接触目標位置が指定されている場合、基準高さに切り替えることなく、ステージ23に対し、プローブ26を相対的に当該接触目標位置間で移動させる。ただし、ステージ23に対し、異なる2つの測定要素間でプローブ26を相対的に移動させる際には、基準高さに切り替えることなくプローブ26を移動させても良いが、プローブ26を測定高さから基準高さに切り替えることが望ましい。ステージ23に対し、プローブ26を相対的に同じ高さで輪郭線に沿って移動させることにより、測定時間を短縮することができる。 On the other hand, in the second scan mode, the probe 26 moves between the contact target positions relative to the stage 23 without switching to the reference height. Specifically, when a plurality of contact target positions are specified for one measurement element, the probe 26 is moved between the contact target positions relative to the stage 23 without switching to the reference height. Let However, when the probe 26 is moved relative to the stage 23 between two different measurement elements, the probe 26 may be moved without switching to the reference height, but the probe 26 is moved from the measurement height. It is desirable to switch to the reference height. The measurement time can be shortened by moving the probe 26 along the contour line at the same height relative to the stage 23.
図25のステップS401〜S404は、図12のステップS107(特徴量情報の登録)について、詳細動作の一例を示したフローチャートであり、コントローラ3の動作が示されている。まず、コントローラ3は、撮影条件を指定した後(ステップS401)、マスターピースが撮影されたモデル画像を取得して登録対象領域を指定する(ステップS402)。 Steps S401 to S404 in FIG. 25 are flowcharts showing an example of detailed operations for step S107 (registration of feature amount information) in FIG. 12, and the operations of the controller 3 are shown. First, after designating shooting conditions (step S401), the controller 3 acquires a model image in which a master piece is shot and designates a registration target area (step S402).
次に、コントローラ3は、パターン画像を用いてパターンサーチする際のサーチ条件を指定する(ステップS403)。コントローラ3は、特徴量情報の登録に係る全ての設定が完了するまで、ステップS401からステップS403までの処理手順を繰り返し(ステップS404)、全ての設定が完了すれば、モデル画像から得られたパターン画像とサーチ条件とを特徴量情報として記憶する。 Next, the controller 3 designates a search condition for performing a pattern search using the pattern image (step S403). The controller 3 repeats the processing procedure from step S401 to step S403 until all the settings related to the registration of the feature amount information are completed (step S404). If all the settings are completed, the pattern obtained from the model image is obtained. Images and search conditions are stored as feature information.
図26のステップS501〜S508は、図17のステップS201、図19のステップS301及び図25のステップS401(撮影条件の指定)について、詳細動作の一例を示したフローチャートであり、コントローラ3の動作が示されている。まず、コントローラ3は、プローブ26の位置を確認し、退避位置でなければ、測定ユニット20の切替駆動部27を制御して退避位置に切り替える(ステップS501,S502)。 Steps S501 to S508 in FIG. 26 are flowcharts showing an example of detailed operations for step S201 in FIG. 17, step S301 in FIG. 19 and step S401 in FIG. 25 (designation of shooting conditions). It is shown. First, the controller 3 confirms the position of the probe 26, and if it is not the retracted position, it switches to the retracted position by controlling the switching drive unit 27 of the measurement unit 20 (steps S501 and S502).
次に、コントローラ3は、水平駆動部24を制御し、水平面内におけるステージ23のX方向の位置及びY方向の位置を調整する(ステップS503)。次に、コントローラ3は、フォーカス位置を調整するために、垂直駆動部22を制御して測定ユニット20のZ方向の位置を調整する(ステップS504)。 Next, the controller 3 controls the horizontal drive unit 24 to adjust the position in the X direction and the position in the Y direction of the stage 23 in the horizontal plane (step S503). Next, in order to adjust the focus position, the controller 3 controls the vertical drive unit 22 to adjust the position of the measurement unit 20 in the Z direction (step S504).
次に、コントローラ3は、照明条件、撮像条件及び撮影倍率を指定する(ステップS505〜S507)。照明条件には、照明種別、点灯状態、明るさ及びリング照明ユニット211のZ方向の位置がある。撮像条件には、露光時間、ゲイン及び撮影範囲がある。 Next, the controller 3 designates illumination conditions, imaging conditions, and imaging magnification (steps S505 to S507). Illumination conditions include illumination type, lighting state, brightness, and position of the ring illumination unit 211 in the Z direction. Imaging conditions include exposure time, gain, and imaging range.
コントローラ3は、撮影条件の指定に係る全ての設定が完了するまで、ステップS503からステップS507までの処理手順を繰り返し(ステップS508)、全ての設定が完了すれば、撮影条件を測定設定情報として記憶する。 The controller 3 repeats the processing procedure from step S503 to step S507 until all the settings relating to the specification of the imaging conditions are completed (step S508). If all the settings are completed, the imaging conditions are stored as measurement setting information. To do.
図27及び図28のステップS601〜S617は、図5のコントローラ3における連続測定時の動作の一例を示したフローチャートである。まず、コントローラ3は、測定設定情報を読み出し(ステップS601)、測定設定情報に基づいて、撮影条件を指定する(ステップS602)。次に、コントローラ3は、ステージ23上に載置されたワークWを上記撮影条件で撮影してワーク画像を取得し(ステップS603)、特徴量情報を用いたパターンサーチによりワークWの位置及び姿勢を特定する(ステップS604,S605)。 Steps S601 to S617 in FIG. 27 and FIG. 28 are flowcharts showing an example of the operation at the time of continuous measurement in the controller 3 in FIG. First, the controller 3 reads the measurement setting information (step S601), and designates the imaging condition based on the measurement setting information (step S602). Next, the controller 3 captures the workpiece W placed on the stage 23 under the above-described photographing conditions to obtain a workpiece image (step S603), and the position and orientation of the workpiece W by pattern search using feature amount information. Is specified (steps S604 and S605).
次に、コントローラ3は、パターンサーチによって特定されたワークWの位置及び姿勢に基づいて、ワーク画像上でエッジ抽出領域の位置を特定する(ステップS606)。コントローラ3は、特定されたエッジ抽出領域から複数のエッジ点を抽出し(ステップS607)、これらのエッジ点に幾何学図形をフィッティングさせることによって輪郭線の位置を特定する(ステップS608)。 Next, the controller 3 specifies the position of the edge extraction region on the work image based on the position and orientation of the work W specified by the pattern search (step S606). The controller 3 extracts a plurality of edge points from the specified edge extraction region (step S607), and specifies the position of the contour line by fitting a geometric figure to these edge points (step S608).
次に、コントローラ3は、画像測定要素が測定設定情報として登録されていれば(ステップS609)、特定された輪郭線の位置に基づいて、測定箇所の寸法を算出し(ステップS610)、測定要素に対応づけて測定結果の寸法値をワーク画像上に表示する(ステップS611)。 Next, if the image measurement element is registered as measurement setting information (step S609), the controller 3 calculates the dimension of the measurement location based on the position of the specified contour line (step S610), and the measurement element The dimension value of the measurement result is displayed on the work image in association with (Step S611).
次に、コントローラ3は、プローブ測定要素が測定設定情報として登録されていれば(ステップS612)、測定ユニット20の切替駆動部27を制御してプローブ26を退避位置から測定位置に切り替えた後、垂直駆動部22を制御して基準高さに切り替える(ステップS613)。コントローラ3は、エッジ抽出領域からエッジを抽出して特定した輪郭線の位置に基づいて、スキャン開始位置を特定し(ステップS614)、スキャン動作を行う(ステップS615)。 Next, if the probe measurement element is registered as measurement setting information (step S612), the controller 3 controls the switching drive unit 27 of the measurement unit 20 to switch the probe 26 from the retracted position to the measurement position. The vertical drive unit 22 is controlled to switch to the reference height (step S613). The controller 3 specifies the scan start position based on the position of the contour line extracted and specified from the edge extraction region (step S614), and performs the scan operation (step S615).
次に、コントローラ3は、ワークWの側面に接触した状態のプローブ26が撮影された撮影画像を取得し、当該撮影画像に基づいて接触点の位置を求めて輪郭線の位置を特定し、測定箇所の寸法を算出する(ステップS616)。そして、コントローラ3は、測定要素に対応づけて測定結果の寸法値をワーク画像上に表示する(ステップS617)。 Next, the controller 3 obtains a photographed image obtained by photographing the probe 26 in contact with the side surface of the workpiece W, obtains the position of the contact point based on the photographed image, identifies the position of the contour line, and performs measurement. The dimension of the location is calculated (step S616). Then, the controller 3 displays the dimension value of the measurement result in association with the measurement element on the work image (step S617).
なお、接触目標位置がパターン画像に直接に関連づけられている場合、パターンサーチによって特定されたワークWの位置及び姿勢から接触目標位置が直接に特定される。また、接触目標位置がエッジ抽出領域に関連づけられている場合には、パターンサーチによって特定されたワークWの位置及び姿勢に基づいてワーク画像上のエッジ抽出領域の位置を特定することにより、接触目標位置が特定される。 When the contact target position is directly associated with the pattern image, the contact target position is directly specified from the position and posture of the workpiece W specified by the pattern search. Further, when the contact target position is associated with the edge extraction area, the position of the edge extraction area on the work image is specified based on the position and posture of the work W specified by the pattern search, thereby A location is identified.
図29〜図31は、図1の画像測定装置1における連続測定時の動作の一例を示した図である。図29の(b)〜(d)、図30の(a)〜(d)及び図31には、ワークWの位置及び姿勢が互いに異なる2つのワーク画像Iwがそれぞれケース1及びケース2として示されている。図29の(a)には、サーチ用データとして登録されたパターン画像Ipが示され、(b)には、パターンサーチのために撮像されたワーク画像Iwが示されている。これらのパターン画像Ip及びワーク画像Iwは、いずれも透過照明による透過画像である。このワーク画像Iwをパターン画像Ipとマッチングすることにより、ワークWの位置及び姿勢が特定される。 FIGS. 29 to 31 are diagrams showing an example of the operation at the time of continuous measurement in the image measuring apparatus 1 of FIG. 29 (b) to (d), FIG. 30 (a) to (d), and FIG. 31, two work images Iw having different positions and postures of the work W are shown as case 1 and case 2, respectively. Has been. 29A shows a pattern image Ip registered as search data, and FIG. 29B shows a work image Iw captured for pattern search. Both the pattern image Ip and the work image Iw are transmitted images by transmitted illumination. By matching the workpiece image Iw with the pattern image Ip, the position and orientation of the workpiece W are specified.
図29の(c)には、エッジ抽出のために撮像されたワーク画像Iwが示されている。このワーク画像Iwは、反射照明による反射画像であり、パターンサーチによって特定されたワークWの位置及び姿勢に基づいて、エッジ抽出領域が特定される。 FIG. 29 (c) shows a work image Iw imaged for edge extraction. This work image Iw is a reflected image by reflected illumination, and an edge extraction region is specified based on the position and posture of the work W specified by the pattern search.
図29の(d)には、図29の(c)に示したワーク画像Iw上で特定された複数のエッジ抽出領域Rが示されている。エッジ抽出領域Rは、ワークWの位置及び姿勢と、エッジ抽出領域情報として登録された相対位置情報とに基づいて、位置座標が特定される。 FIG. 29D shows a plurality of edge extraction regions R specified on the work image Iw shown in FIG. The position coordinates of the edge extraction region R are specified based on the position and orientation of the workpiece W and the relative position information registered as the edge extraction region information.
図30の(a)には、エッジ抽出領域Rからエッジを抽出して特定された複数の輪郭線L1及びL2が示されている。輪郭線L1は、測定要素が画像測定要素として登録されている場合の輪郭線である。一方、輪郭線L2は、測定要素がプローブ測定要素として登録されている場合に、接触目標位置を特定するために用いる仮の輪郭線であり、位置精度は低い。 FIG. 30A shows a plurality of contour lines L 1 and L 2 specified by extracting an edge from the edge extraction region R. Contour line L 1, the measurement element is a contour line in a case that is registered as the image measuring elements. On the other hand, the contour line L 2, when the measuring element is registered as a probe measuring element, a provisional contour used to identify the contact target position, positional accuracy is low.
図30の(b)には、ワーク画像Iw上の輪郭線L2に対して特定された複数の接触目標位置が示されている。接触目標位置は、輪郭線L2の位置と接触目標位置情報として登録された相対位置情報とに基づいて、特定される。 In (b) of FIG. 30, a plurality of contact target position specified with respect to the contour line L 2 on the work image Iw is shown. Contact target position, based on the relative position information registered as the position and the contact target position information of contour L 2, are specified.
図30の(c)には、プローブ26を接触させて特定された複数の接触位置Pが示されている。接触位置Pは、プローブ26がワークWの側面に接触した状態で取得されたワーク画像Iwとステージ23の位置とに基づいて、特定される。図30の(d)には、複数の接触位置Pに幾何学図形をフィッティングさせて特定された輪郭線L3が示されている。 FIG. 30C shows a plurality of contact positions P identified by bringing the probe 26 into contact therewith. The contact position P is specified based on the workpiece image Iw acquired in a state where the probe 26 is in contact with the side surface of the workpiece W and the position of the stage 23. In (d) of FIG. 30 is a contour line L 3 identified by fitting a geometric figures into a plurality of the contact position P is shown.
図31には、ワークWの良否判定の結果が測定箇所に対応づけて表示されたワーク画像Iwが示されている。エッジ抽出により特定された輪郭線L1やプローブ動作によって特定された輪郭線L3に基づいて、測定箇所の寸法値が求められる。また、求められた寸法値を設計値と比較し、設計値に対する誤差を公差と比較することにより、ワークWの良否判定が行われる。この良否判定の結果は、測定箇所に対応づけてワーク画像Iw上に表示される。 FIG. 31 shows a workpiece image Iw in which the result of the quality determination of the workpiece W is displayed in association with the measurement location. Based on the contour line L 3 identified by the identifying contour line L 1 and the probe operation by the edge extraction, the dimension values of the measurement point is determined. Further, the quality of the workpiece W is determined by comparing the obtained dimension value with the design value and comparing the error with respect to the design value with the tolerance. The result of the pass / fail judgment is displayed on the work image Iw in association with the measurement location.
図31の左側に示したワーク画像Iwでは、全ての測定箇所がOK判定であり、ワークWは、良品であると判定される。一方、図31の右側に示したワーク画像Iwでは、画像測定要素として登録された測定箇所の1つがNG判定であり、ワークWは、不良品であると判定される。 In the work image Iw shown on the left side of FIG. 31, all measurement locations are OK, and the work W is determined to be a non-defective product. On the other hand, in the work image Iw shown on the right side of FIG. 31, one of the measurement points registered as the image measurement element is NG determination, and the work W is determined to be a defective product.
図32のステップS701〜S712は、図28のステップS615(スキャン動作)について、詳細動作の一例を示したフローチャートであり、コントローラ3の動作が示されている。まず、コントローラ3は、水平駆動部24を制御し、基準高さにおいて、ステージ23に対し、スキャン経路の開始位置に対応する位置にプローブ26を相対的に移動させた後(ステップS701)、垂直駆動部22を制御してプローブ26を測定高さに移動させる(ステップS702)。 Steps S701 to S712 in FIG. 32 are flowcharts showing an example of detailed operation for step S615 (scan operation) in FIG. 28, and show the operation of the controller 3. First, the controller 3 controls the horizontal drive unit 24 to move the probe 26 relative to the stage 23 at a reference height to a position corresponding to the start position of the scan path (step S701), and then vertically. The drive unit 22 is controlled to move the probe 26 to the measurement height (step S702).
次に、コントローラ3は、水平駆動部24を制御して、ステージ23に対し、プローブ26を相対的にスキャン方向に移動させ(ステップS703)、接触が検出されれば、ワーク画像上のプローブ26の位置及びステージ23の位置に基づいて、接触位置を算出する(ステップS704,S705)。プローブ26は、ワーク画像上の輪郭線の法線に沿って接近するように制御される。コントローラ3は、全ての接触目標位置について測定が完了するまで、ステップS701からステップS705までの処理手順を繰り返し、全ての接触目標位置について測定が完了すれば、プローブ26を基準高さに移動させてこの処理を終了する(ステップS706,S707)。 Next, the controller 3 controls the horizontal driving unit 24 to move the probe 26 relative to the stage 23 in the scanning direction (step S703). If contact is detected, the probe 26 on the workpiece image is detected. And the position of the stage 23, the contact position is calculated (steps S704 and S705). The probe 26 is controlled so as to approach along the normal line of the contour line on the workpiece image. The controller 3 repeats the processing procedure from step S701 to step S705 until the measurement is completed for all contact target positions. When the measurement is completed for all contact target positions, the probe 26 is moved to the reference height. This process ends (steps S706 and S707).
コントローラ3は、第1スキャンモードが指定されていれば、1つの接触目標位置について測定が完了するごとに、プローブ26を基準高さに移動させる(ステップS706,S711,S712)。 If the first scan mode is designated, the controller 3 moves the probe 26 to the reference height every time measurement is completed for one contact target position (steps S706, S711, S712).
また、コントローラ3は、接触が検出されることなく、プローブ26が終了位置に到達すれば、エラーが発生したと判断し、プローブを基準高さに移動させてエラー出力を行う(ステップS704,S708〜S710)。 The controller 3 determines that an error has occurred if the probe 26 reaches the end position without detecting contact, and moves the probe to the reference height to output an error (steps S704 and S708). ~ S710).
本実施の形態によれば、パターン画像に基づいてワーク画像からワークWの位置及び姿勢が特定されるため、ワークWをステージ23上に載置するだけで、プローブ26を用いた寸法測定を行うことができる。また、接触目標位置情報に基づいて、プローブ26が接触すべき接触目標位置が特定されるため、パターン画像に対して相対的な位置を最初に指定するだけで、ワークWに対する複数の接触目標位置を特定してプローブ26を順次に移動させることができる。 According to the present embodiment, since the position and orientation of the workpiece W are specified from the workpiece image based on the pattern image, the dimension measurement using the probe 26 is performed only by placing the workpiece W on the stage 23. be able to. In addition, since the contact target position to which the probe 26 should contact is specified based on the contact target position information, a plurality of contact target positions with respect to the workpiece W can be simply specified by first specifying a relative position with respect to the pattern image. And the probe 26 can be moved sequentially.
また、ワークWの位置及び姿勢を特定するためのワーク画像はプローブ26が退避位置にある状態で生成されるため、プローブ26がワークWと重複して撮像され、或いは、ワークWの近傍に撮像されるのを防止することができる。 Further, since the workpiece image for specifying the position and orientation of the workpiece W is generated in a state where the probe 26 is in the retracted position, the probe 26 is imaged in an overlapping manner with the workpiece W or is imaged in the vicinity of the workpiece W. Can be prevented.
また、本実施の形態によれば、測定要素の位置と測定要素の形状種別又は大きさと配置ルールとに従ってプローブ26が接触すべきワーク側面の複数の接触目標位置が特定されるため、モデル画像上で測定要素を指定するだけで、複数の接触目標位置を自動的に特定してプローブ26によるスキャン動作を決定することができる。 Further, according to the present embodiment, a plurality of contact target positions on the side surface of the workpiece to be contacted by the probe 26 are specified according to the position of the measurement element, the shape type or size of the measurement element, and the arrangement rule. By simply designating the measurement element, the plurality of contact target positions can be automatically identified and the scanning operation by the probe 26 can be determined.
なお、本実施の形態では、水平駆動部24がステージ23をX方向及びY方向に移動させる場合の例について説明したが、本発明は、水平駆動部24の構成をこれに限定するものではない。例えば、水平駆動部24が、プローブ26又は測定ユニット20をX方向及びY方向に移動させるような構成であっても良い。或いは、水平駆動部24が、ステージ23をX方向に移動させ、プローブ26又は測定ユニット20をY方向に移動させるような構成であっても良い。 In the present embodiment, an example in which the horizontal driving unit 24 moves the stage 23 in the X direction and the Y direction has been described, but the present invention does not limit the configuration of the horizontal driving unit 24 to this. . For example, the horizontal drive unit 24 may be configured to move the probe 26 or the measurement unit 20 in the X direction and the Y direction. Alternatively, the horizontal driving unit 24 may move the stage 23 in the X direction and move the probe 26 or the measurement unit 20 in the Y direction.
また、本実施の形態では、垂直駆動部22が測定ユニット20をZ方向に移動させる場合の例について説明したが、本発明は、垂直駆動部22の構成をこれに限定するものではない。例えば、垂直駆動部22がステージ23をZ方向に移動させるような構成であっても良い。 In the present embodiment, an example in which the vertical drive unit 22 moves the measurement unit 20 in the Z direction has been described. However, the present invention does not limit the configuration of the vertical drive unit 22 to this. For example, the vertical drive unit 22 may be configured to move the stage 23 in the Z direction.
また、本実施の形態では、スキャン経路のスキャン方向がエッジの両側の輝度差に基づいて指定される場合の例について説明したが、本発明は、スキャン方向の指定方法をこれに限定するものではない。例えば、撮像部201又は206のフォーカス位置を利用して測定箇所の近傍の高さ情報を取得し、この高さ情報に基づいて、スキャン方向を指定するような構成であっても良い。また、スキャン方向には、予め定められた方向がデフォルト指定されるような構成であっても良い。 In the present embodiment, an example in which the scan direction of the scan path is designated based on the luminance difference between both sides of the edge has been described. However, the present invention does not limit the scan direction designation method to this. Absent. For example, the configuration may be such that height information in the vicinity of the measurement location is acquired using the focus position of the imaging unit 201 or 206, and the scan direction is designated based on this height information. The scan direction may be configured so that a predetermined direction is designated by default.
また、本実施の形態では、接触目標位置の測定高さがユーザによって指定される場合の例について説明したが、本発明は、測定高さを撮像部201又は206のフォーカス位置を利用して自動的に指定するような構成であっても良い。 In this embodiment, an example in which the measurement height of the contact target position is specified by the user has been described. However, the present invention automatically uses the focus position of the imaging unit 201 or 206 to measure the measurement height. The configuration may be specified as desired.
また、本実施の形態では、ワーク画像に基づいて、プローブ26がワークWの側面に接触したことが検出される場合の例について説明したが、本発明は、接触検出の方法をこれに限定するものではない。例えば、圧力又は振動を検知するセンサを用いて、プローブ26がワークWの側面に接触したことを検出するような構成であっても良い。 In the present embodiment, an example in which it is detected that the probe 26 has contacted the side surface of the workpiece W based on the workpiece image has been described. However, the present invention limits the contact detection method to this. It is not a thing. For example, it may be configured to detect that the probe 26 is in contact with the side surface of the workpiece W using a sensor that detects pressure or vibration.
また、本実施の形態では、プローブ26が測定ユニット20の筐体に取り付けられる場合の例について説明したが、本発明は、プローブ26が、撮像部201又は206の撮像視野内における測定領域内で水平方向に移動可能なものにも適用することができる。 Further, in the present embodiment, an example in which the probe 26 is attached to the housing of the measurement unit 20 has been described. However, in the present invention, the probe 26 is within a measurement region in the imaging field of the imaging unit 201 or 206. The present invention can also be applied to those that are movable in the horizontal direction.
また、本実施の形態では、プローブ用光源263から金属管262を介してガイド光が伝送される自発光型のプローブ26を備えた画像測定装置1について説明したが、本発明は、プローブ26の構成をこれに限定するものではない。例えば、プローブは、ガイド光を放射しないものであっても良い。 In the present embodiment, the image measuring apparatus 1 including the self-luminous probe 26 that transmits the guide light from the probe light source 263 through the metal tube 262 has been described. The configuration is not limited to this. For example, the probe may not emit guide light.
<付着物検知>
測定制御部315はコンタクト部261とワークWの側面とが接触したときに撮像部201により生成された画像を用いてワークWの側面の位置を測定する測定部として機能する。したがって、コンタクト部261に油やゴミなど異物(付着物)が付着していると、ワークWの側面の位置の測定結果に誤差が生じる。そこで、測定制御部315は撮像部201により生成されたコンタクト部261の画像におけるコンタクト部261の形状が所定形状であるかを判定する形状判定部をさらに有する。表示部21は形状判定部の判定結果を出力する出力部として機能する。なお、撮像部201に代えて撮像部206が使用されてもよい。撮像部206は、撮像部201と比較して、撮影倍率の高い撮像装置であるため、非常に小さなコンタクト部261であっても精度よくコンタクト部261を撮影することができる。
<Adherent detection>
The measurement control unit 315 functions as a measurement unit that measures the position of the side surface of the workpiece W using the image generated by the imaging unit 201 when the contact unit 261 contacts the side surface of the workpiece W. Therefore, if foreign matter (attachment) such as oil or dust adheres to the contact portion 261, an error occurs in the measurement result of the position of the side surface of the workpiece W. Therefore, the measurement control unit 315 further includes a shape determination unit that determines whether the shape of the contact part 261 in the image of the contact part 261 generated by the imaging unit 201 is a predetermined shape. The display unit 21 functions as an output unit that outputs the determination result of the shape determination unit. Note that the imaging unit 206 may be used instead of the imaging unit 201. Since the imaging unit 206 is an imaging device having a higher imaging magnification than the imaging unit 201, the contact unit 261 can be accurately photographed even with a very small contact unit 261.
図35(a)はコンタクト部261に付着物が付着していないときに撮像部201により生成されたコンタクト部261の画像Ic1の一例を示している。コンタクト部261は点灯しているため、画像Ic1においてコンタクト部261の外周は白くなっている。図35(b)は画像Ic1から抽出されたコンタクト部261のエッジ3501を示している。コンタクト部261は球体であるため、画像Ic1におけるコンタクト部261の部分は水平断面形状を示す。つまり、エッジ3501は半径rの円となる。図35(c)はコンタクト部261のエッジ3501から求められた最小二乗近似円3502を示している。最小二乗近似円3502の半径rも設計通りの値となる。 FIG. 35A shows an example of an image Ic1 of the contact portion 261 generated by the imaging unit 201 when no deposit is attached to the contact portion 261. Since the contact portion 261 is lit, the outer periphery of the contact portion 261 is white in the image Ic1. FIG. 35B shows an edge 3501 of the contact portion 261 extracted from the image Ic1. Since the contact portion 261 is a sphere, the portion of the contact portion 261 in the image Ic1 has a horizontal cross-sectional shape. That is, the edge 3501 is a circle with a radius r. FIG. 35 (c) shows a least square approximation circle 3502 obtained from the edge 3501 of the contact portion 261. The radius r of the least square approximation circle 3502 is also a designed value.
図35(d)はコンタクト部261にゴミ3500が付着しているときに撮像部201により生成されたコンタクト部261の画像Ic2の一例を示している。ゴミ3500は、説明の便宜上、誇張されて図示されている。図35(b)は画像Ic2から抽出されたコンタクト部261のエッジ3511を示している。ゴミ3500が付着している外周部分(エッジ)までの中心からの距離は、所定半径rよりも大きな距離r’となっている。図35(f)はコンタクト部261のエッジ3511から求められた最小二乗近似円3512を示している。最小二乗近似円3512の半径r”は、ゴミ3500の影響を受けて、所定半径rよりも大きくなってしまう。また、ゴミ3500が付着している外周部分の中心からの距離r’は、最小二乗近似円3512の半径r”からも乖離する。つまり、ゴミが付着していないコンタクト部261のエッジ3501から求められる真円度はほぼ設計値を満たすが、ゴミ3500が付着していないコンタクト部261のエッジ3501から求められる真円度は設計値を満たさない。 FIG. 35D shows an example of an image Ic2 of the contact part 261 generated by the imaging part 201 when the dust 3500 adheres to the contact part 261. The garbage 3500 is exaggerated for convenience of explanation. FIG. 35B shows an edge 3511 of the contact portion 261 extracted from the image Ic2. The distance from the center to the outer peripheral portion (edge) to which the dust 3500 is attached is a distance r ′ larger than the predetermined radius r. FIG. 35 (f) shows a least square approximation circle 3512 obtained from the edge 3511 of the contact portion 261. The radius r ″ of the least square approximate circle 3512 is affected by the dust 3500 and becomes larger than the predetermined radius r. The distance r ′ from the center of the outer peripheral portion to which the dust 3500 is attached is the minimum. Also deviating from the radius r ″ of the square approximation circle 3512. That is, the roundness obtained from the edge 3501 of the contact portion 261 to which no dust is attached substantially satisfies the design value, but the roundness obtained from the edge 3501 of the contact portion 261 to which no dust 3500 is attached is the design value. Does not meet.
このように測定制御部315はコンタクト部261の断面形状が所定形状でないことを判定するために、抽出エッジの真円度と閾値とを比較してもよい。とりわけ、測定制御部315は抽出エッジから最小二乗近似円3512を求め、最小二乗近似円3512から乖離しているエッジの位置にクリーニングすべきゴミ3500が存在すると判定してもよい。 As described above, the measurement control unit 315 may compare the roundness of the extracted edge with a threshold value in order to determine that the cross-sectional shape of the contact unit 261 is not a predetermined shape. In particular, the measurement control unit 315 may obtain a least square approximation circle 3512 from the extracted edge, and may determine that there is dust 3500 to be cleaned at the position of the edge that deviates from the least square approximation circle 3512.
代替案として、測定制御部315はゴミが付着していないときに撮像部201により生成されたコンタクト部261の画像Ic1を記憶装置33に記憶しておき、撮像部201により生成されたコンタクト部261の画像Ic2と画像Ic1とを比較することで、コンタクト部261の形状が所定形状でないことを判定してもよい。たとえば、測定制御部315は、画像Ic1と画像Ic2との差分画像を生成し、差分が閾値よりも大きな画素を見つけると、コンタクト部261の形状が所定形状でないことを判定してもよい。また、測定制御部315は差分が閾値よりも大きな画素の位置にゴミ3500が付着していると判定してもよい。 As an alternative, the measurement control unit 315 stores the image Ic1 of the contact unit 261 generated by the imaging unit 201 when no dust is attached in the storage device 33, and the contact unit 261 generated by the imaging unit 201. It may be determined that the shape of the contact portion 261 is not a predetermined shape by comparing the image Ic2 and the image Ic1. For example, the measurement control unit 315 may generate a difference image between the image Ic1 and the image Ic2, and may determine that the shape of the contact unit 261 is not a predetermined shape when a pixel having a difference larger than a threshold value is found. Further, the measurement control unit 315 may determine that the dust 3500 is attached to a pixel position where the difference is larger than the threshold value.
代替案として、測定制御部315はゴミが付着していないときに撮像部201により生成されたコンタクト部261の画像Ic1からコンタクト部261のエッジを抽出し、直径を求めて記憶装置33に記憶しておき、記憶されている直径と画像Ic2から同様にして求めた直径との差分が閾値を超えていれば、コンタクト部261の形状が所定形状でないと判定してもよい。この手法はコンタクト部261の全体にほぼ均一に付着した油であっても検知できる。たとえば、最小二乗近似円と中心からエッジまでの距離との乖離を検知する手法は、コンタクト部261の全体に付着した油を検知できない。よって、コンタクト部261の全体に液体などが均一に付着しやすい測定環境においては、直径比較が有利であろう。 As an alternative, the measurement control unit 315 extracts the edge of the contact unit 261 from the image Ic1 of the contact unit 261 generated by the imaging unit 201 when dust is not attached, obtains the diameter, and stores it in the storage device 33. In addition, if the difference between the stored diameter and the diameter obtained in the same manner from the image Ic2 exceeds the threshold value, it may be determined that the shape of the contact portion 261 is not a predetermined shape. This technique can detect even oil that adheres substantially uniformly to the entire contact portion 261. For example, the technique for detecting the deviation between the least square approximation circle and the distance from the center to the edge cannot detect oil adhering to the entire contact portion 261. Therefore, in a measurement environment in which liquid or the like easily adheres to the entire contact portion 261, diameter comparison may be advantageous.
●測定制御部の機能
図36は測定制御部315の機能を示している。エッジ抽出部3601はコンタクト部261の画像Ic1、Ic2からコンタクト部261の外形(断面形状)のエッジを抽出する。近似円決定部3602はエッジ抽出部3601により抽出された各エッジの位置データ(座標データ)に対して最小二乗フィッティングを適用して最小二乗近似円を算出する。形状判定部3603は、たとえば、エッジ抽出部3601により抽出された各エッジと最小近似円とに基づきコンタクト部261の断面形状が所定形状であるかを判定する。たとえば、形状判定部3603は、各エッジと最小近似円との距離を求め、各距離が所定の閾値を超えているかどうかを判定する。比較情報3605は、付着物を検知するための閾値や基準画像などを含む。結果出力部3604は、形状判定部3603の判定結果を、表示制御部312を介して表示部21に出力する。なお、制御装置31の機能のすべてまたは一部はCPUなどのプロセッサが制御プログラムを実行することで実現されてもよいし、FPGAやASICのようなハードウエアによって実現されてもよい。ASICは特定用途集積回路の略称である。FPGAはフィールドプログラマブルゲートアレイの略称である。制御プログラムは記憶装置33などのコンピュータ可読記憶媒体に記憶されている。
● Function of Measurement Control Unit FIG. 36 shows the function of the measurement control unit 315. The edge extraction unit 3601 extracts the edge of the outer shape (cross-sectional shape) of the contact part 261 from the images Ic1 and Ic2 of the contact part 261. The approximate circle determination unit 3602 calculates a least square approximate circle by applying a least square fitting to the position data (coordinate data) of each edge extracted by the edge extraction unit 3601. For example, the shape determination unit 3603 determines whether the cross-sectional shape of the contact unit 261 is a predetermined shape based on each edge extracted by the edge extraction unit 3601 and the minimum approximate circle. For example, the shape determination unit 3603 obtains the distance between each edge and the minimum approximate circle, and determines whether each distance exceeds a predetermined threshold. The comparison information 3605 includes a threshold value and a reference image for detecting the attached matter. The result output unit 3604 outputs the determination result of the shape determination unit 3603 to the display unit 21 via the display control unit 312. Note that all or part of the functions of the control device 31 may be realized by a processor such as a CPU executing a control program, or may be realized by hardware such as an FPGA or an ASIC. ASIC is an abbreviation for application specific integrated circuit. FPGA is an abbreviation for field programmable gate array. The control program is stored in a computer readable storage medium such as the storage device 33.
●フローチャート
図37はコントローラ3が実行するプローブチェック処理を示すフローチャートである。コントローラ3は、プローブチェック処理の開始条件が満たされると、プローブチェック処理を開始する。開始条件とは、たとえば、入力受付部311を通じてユーザによりプローブチェック処理の実行を指示されたことである。また、開始条件は、画像測定装置1に商用電源などから電力を供給されて画像測定装置1が起動したことであってもよい。また、開始条件は、画像測定装置1の設定モードから測定モードに遷移したことであってもよい。開始条件は、各測定要素の測定直前であってもよい。また、一つの測定要素につき複数のプローブ測定点が設定されている場合、開始条件は、各プローブ測定点の測定直前であってもよい。このように一つのワークWについてプローブチェック処理が一回実行されてもよいし、プローブ26を用いた一回の測定処理についてプローブチェック処理が一回実行されてもよい。また、プローブ26を用いて測定される一つの測定要素についてプローブチェック処理が一回実行されてもよい。また、一つの測定点についてプローブチェック処理が一回実行されてもよい。
Flowchart FIG. 37 is a flowchart showing a probe check process executed by the controller 3. When the start condition for the probe check process is satisfied, the controller 3 starts the probe check process. The start condition is, for example, that the user has instructed execution of the probe check process through the input receiving unit 311. In addition, the start condition may be that the image measurement apparatus 1 is started by being supplied with power from a commercial power source or the like. In addition, the start condition may be that the setting mode of the image measurement device 1 has changed to the measurement mode. The start condition may be immediately before measurement of each measurement element. When a plurality of probe measurement points are set for one measurement element, the start condition may be immediately before measurement of each probe measurement point. As described above, the probe check process may be executed once for one workpiece W, or the probe check process may be executed once for one measurement process using the probe 26. Further, the probe check process may be executed once for one measurement element measured using the probe 26. Further, the probe check process may be executed once for one measurement point.
S801で測定制御部315は照明制御部314にプローブ用光源263を点灯させる。なお、測定制御部315はステージ上に何も載せてはならないことを示すメッセージを表示部21に表示してもよい。これは、ステージ23にワークWなどが載置されていると、コンタクト部261の画像にワークWが写りこんでしまい、コンタクト部261のエッジの抽出精度を低下させるからである。 In step S <b> 801, the measurement control unit 315 causes the illumination control unit 314 to light the probe light source 263. Note that the measurement control unit 315 may display a message on the display unit 21 indicating that nothing should be placed on the stage. This is because when the workpiece W or the like is placed on the stage 23, the workpiece W is reflected in the image of the contact portion 261, and the edge extraction accuracy of the contact portion 261 is lowered.
S802で測定制御部315は撮像制御部313を通じてカメラ200を制御し、カメラ200の撮像部201に点灯状態のコンタクト部261を撮影させ、カメラ200および撮像制御部313により生成されたコンタクト部261の画像Ic2を取得する。画像Ic2は記憶装置33に保持されてもよい。 In step S <b> 802, the measurement control unit 315 controls the camera 200 through the imaging control unit 313, causes the imaging unit 201 of the camera 200 to photograph the lighting contact unit 261, and sets the contact unit 261 generated by the camera 200 and the imaging control unit 313. An image Ic2 is acquired. The image Ic2 may be held in the storage device 33.
S803で測定制御部315(形状判定部3603)はコンタクト部261の画像Ic2に基づきコンタクト部261に付着した付着物を検知する。たとえば、形状判定部3603は、付着物を検知するとフラグをセットし、付着物を検知しなければフラグをリセットする。フラグは記憶装置33に保持されている。 In step S <b> 803, the measurement control unit 315 (shape determination unit 3603) detects attached matter attached to the contact unit 261 based on the image Ic <b> 2 of the contact unit 261. For example, the shape determination unit 3603 sets a flag when detecting an attached substance, and resets the flag when no attached object is detected. The flag is held in the storage device 33.
S804で測定制御部315(形状判定部3603)は付着物の検知結果(フラグ)に基づきコンタクト部261が所定形状であるかどうか、つまり、コンタクト部261に付着物が付いていないかどうかを判定する。コンタクト部261に付着物が付いていないと判定すると、測定制御部315はS805に進む。S805で測定制御部315(結果出力部3604)は判定結果として、コンタクト部261のクリーニングが不要であること、または、コンタクト部261が良好な状態にあることを示すメッセージを表示部21に出力する。なお、付着物の付着位置が特定されていれば、結果出力部3604は、画像Ic2において付着物の付着位置を強調するめの強調表示を実行してもよい。たとえば、結果出力部3604は、画像Ic2を表示部21に表示するとともに、付着位置を囲む図形(円や四角形など)を重ねて表示してもよい。 In S804, the measurement control unit 315 (shape determination unit 3603) determines whether or not the contact part 261 has a predetermined shape based on the detection result (flag) of the adhering substance, that is, whether or not the adhering substance is attached to the contact part 261. To do. If it is determined that there is no deposit on the contact part 261, the measurement control part 315 proceeds to S805. In S805, the measurement control unit 315 (result output unit 3604) outputs, as a determination result, a message indicating that the contact unit 261 does not need to be cleaned or that the contact unit 261 is in a good state to the display unit 21. . If the attachment position of the attached matter is specified, the result output unit 3604 may execute a highlighting display for emphasizing the attached position of the attached matter in the image Ic2. For example, the result output unit 3604 may display the image Ic2 on the display unit 21 and display a figure (circle, square, etc.) surrounding the attachment position in an overlapping manner.
一方で、S803でコンタクト部261に付着物がついいると判定すると、測定制御部315はS806に進む。S806で測定制御部315(結果出力部3604)は判定結果として、コンタクト部261のクリーニングが必要であること、または、コンタクト部261が良好な状態にないことを示すメッセージを表示部21に出力する。この場合、測定制御部315は、ユーザによりコンタクト部261のクリーニングが完了するまで、ワークWの測定を禁止してもよい。また、入力受付部311を通じてクリーニングの完了を示すキーが操作されると、測定制御部315は、S802に戻り、クリーニングされたコンタクト部261についてS802以降の処理を再度実行してもよい。これにより、付着物が取り除かれると、測定制御部315は、ワークWの測定を許可してもよい。 On the other hand, if it is determined in S803 that the deposit is attached to the contact portion 261, the measurement control unit 315 proceeds to S806. In S806, the measurement control unit 315 (result output unit 3604) outputs, as a determination result, a message indicating that the contact unit 261 needs to be cleaned or that the contact unit 261 is not in a good state to the display unit 21. . In this case, the measurement control unit 315 may prohibit the measurement of the workpiece W until the cleaning of the contact unit 261 is completed by the user. In addition, when a key indicating the completion of cleaning is operated through the input receiving unit 311, the measurement control unit 315 may return to S <b> 802 and perform the processing subsequent to S <b> 802 again on the cleaned contact unit 261. Thereby, when the deposit is removed, the measurement control unit 315 may permit the measurement of the workpiece W.
●真円度に基づく付着物の検知
図38はコントローラ3が実行する付着物の検知処理(S803)の一例を示すフローチャートである。
Detection of attached matter based on roundness FIG. 38 is a flowchart showing an example of the attached matter detection process (S803) executed by the controller 3.
S901でエッジ抽出部3601は画像Ic2におけるコンタクト部261のエッジを抽出する。これにより、複数のエッジの位置(座標)が求められる。つまり、画像Ic2におけるコンタクト部261のエッジは複数のエッジ点の集合(エッジ点群)に変換される。 In step S901, the edge extraction unit 3601 extracts the edge of the contact unit 261 in the image Ic2. Thereby, the positions (coordinates) of a plurality of edges are obtained. That is, the edge of the contact portion 261 in the image Ic2 is converted into a set of edge points (edge point group).
S902で近似円決定部3602はエッジ抽出部3601により求められた複数のエッジ点の位置に対して最小二乗法(最小二乗フィッティング)を適用してコンタクト部261の断面形状を示す最小二乗近似円(最小二乗フィッティング円)を決定する。 In step S <b> 902, the approximate circle determination unit 3602 applies a least square method (least square fitting) to the positions of the plurality of edge points obtained by the edge extraction unit 3601, and displays a least square approximate circle indicating the cross-sectional shape of the contact unit 261 ( The least square fitting circle).
S903で形状判定部3603はエッジ抽出部3601により求められた各エッジ点と近似円との距離を算出する。つまり、形状判定部3603は距離算出部を備えている。なお、この距離はいわゆる真円度を求めるためのパラメータとして利用されてもよい。つまり、距離は真円度と読み替えられてもよい。 In step S <b> 903, the shape determination unit 3603 calculates the distance between each edge point obtained by the edge extraction unit 3601 and the approximate circle. That is, the shape determination unit 3603 includes a distance calculation unit. This distance may be used as a parameter for obtaining a so-called roundness. That is, the distance may be read as roundness.
S904で形状判定部3603は各エッジ点についても求められた距離と、比較情報3605に含まれている閾値とを比較し、閾値を超える距離が存在するかどうかを判定する。閾値を超える距離が存在すれば、付着物がコンタクト部261に付着している可能性が高いため、形状判定部3603は、S905に進む。S905で形状判定部3603は、付着物が検知されたことを示すためにフラグをセットする。一方、閾値を超える距離が存在しなければ、付着物がコンタクト部261に付着していない可能性が高いため、形状判定部3603は、S906に進む。S906で形状判定部3603は、付着物が検知されなかったことを示すためにフラグをリセットする。 In S904, the shape determination unit 3603 compares the distance obtained for each edge point with the threshold value included in the comparison information 3605, and determines whether there is a distance exceeding the threshold value. If there is a distance exceeding the threshold value, there is a high possibility that the deposit is attached to the contact part 261, and the shape determination unit 3603 proceeds to S905. In step S905, the shape determination unit 3603 sets a flag to indicate that an attached object has been detected. On the other hand, if there is no distance exceeding the threshold value, there is a high possibility that the adhering matter has not adhered to the contact part 261, so the shape determining part 3603 proceeds to S906. In S906, the shape determination unit 3603 resets the flag to indicate that no adhered matter has been detected.
●画像比較に基づく付着物の検知
図39はコントローラ3が実行する付着物の検知処理(S803)の一例を示すフローチャートである。この例では、予め付着物が付着していないコンタクト部261の画像Ic1が基準画像として記憶装置33に記憶されているものとする。基準画像が比較情報3605に含まれている。また、画像比較では、エッジ抽出部3601と近似円決定部3602は不要である。
Attachment Detection Based on Image Comparison FIG. 39 is a flowchart showing an example of the attachment detection process (S803) executed by the controller 3. In this example, it is assumed that an image Ic1 of the contact portion 261 to which no deposit is attached is stored in the storage device 33 as a reference image. A reference image is included in the comparison information 3605. In the image comparison, the edge extraction unit 3601 and the approximate circle determination unit 3602 are not necessary.
S1001で形状判定部3603は記憶装置33から基準画像を読み出す。S1002で形状判定部3603は、コンタクト部261の画像Ic2の基準画像に対する画素ごとの差分を算出する。つまり、形状判定部3603は、差分演算部を有している。S1003で形状判定部3603は、差分が閾値を超える画素が存在するかどうかを判定する。閾値も比較情報3605に含まれているものとする。差分が閾値を超える画素が存在すれば、付着物がコンタクト部261に付着している可能性が高いため、形状判定部3603は、S905に進む。一方で、差分が閾値を超える画素が存在しなければ、付着物がコンタクト部261に付着していない可能性が高いため、形状判定部3603は、S906に進む。このように付着物が付着していないコンタクト部261の画像Ic1と画像Ic2とを比較することで、付着物が検知されてもよい。 In step S <b> 1001, the shape determination unit 3603 reads the reference image from the storage device 33. In step S <b> 1002, the shape determination unit 3603 calculates a difference for each pixel with respect to the reference image of the image Ic <b> 2 of the contact unit 261. That is, the shape determination unit 3603 has a difference calculation unit. In S1003, the shape determination unit 3603 determines whether there is a pixel whose difference exceeds the threshold. It is assumed that the threshold value is also included in the comparison information 3605. If there is a pixel whose difference exceeds the threshold, there is a high possibility that the deposit is attached to the contact part 261, and the shape determination unit 3603 proceeds to S905. On the other hand, if there is no pixel whose difference exceeds the threshold value, there is a high possibility that the adhering matter has not adhered to the contact portion 261, and the shape determining unit 3603 proceeds to S906. Thus, the deposit may be detected by comparing the image Ic1 and the image Ic2 of the contact portion 261 to which the deposit is not adhered.
●直径(球径)に基づく付着物の検知
図40はコントローラ3が実行する付着物の検知処理(S803)の一例を示すフローチャートである。上述したように油などの液体がコンタクト部261の外周に均一に付着することがある。このような付着物の検知には、直径(球径)に基づく付着物の検知処理が向いている。この例では、予め付着物が付着していないコンタクト部261の画像Ic1から求められた基準直径が記憶装置33に記憶されているものとする。基準直径は、閾値として、入力受付部を通じてユーザにより入力されたものであってもよい。基準直径は比較情報3605に含まれている。
Detection of attached matter based on diameter (sphere diameter) FIG. 40 is a flowchart showing an example of the attached matter detection process (S803) executed by the controller 3. As described above, a liquid such as oil may uniformly adhere to the outer periphery of the contact portion 261. For detection of such an adhering matter, an adhering matter detection process based on the diameter (spherical diameter) is suitable. In this example, it is assumed that the reference diameter obtained from the image Ic1 of the contact portion 261 to which no deposit is attached is stored in the storage device 33 in advance. The reference diameter may be input by the user through the input receiving unit as a threshold value. The reference diameter is included in the comparison information 3605.
S1101で形状判定部3603は画像Ic2におけるコンタクト部261の直径を算出する。なお、直径は、画像Ic2から求められたコンタクト部261のエッジから算出されてもよい。この場合、近似円決定部3602に代えて直径算出部が設けられてもよい。 In S1101, the shape determination unit 3603 calculates the diameter of the contact unit 261 in the image Ic2. The diameter may be calculated from the edge of the contact part 261 obtained from the image Ic2. In this case, a diameter calculating unit may be provided instead of the approximate circle determining unit 3602.
S1102で形状判定部3603は画像Ic2におけるコンタクト部261の直径が閾値(基準直径)を超えているかどうかを判定する。コンタクト部261の直径が閾値を超えていれば、コンタクト部261に液体などの付着物が付着している可能性が高いため、形状判定部3603はS905に進む。一方で、コンタクト部261の直径が閾値を超えていなければ、コンタクト部261に液体などの付着物が付着していない可能性が高いため、形状判定部3603はS906に進む。 In S1102, the shape determining unit 3603 determines whether the diameter of the contact unit 261 in the image Ic2 exceeds a threshold value (reference diameter). If the diameter of the contact part 261 exceeds the threshold value, there is a high possibility that an adhering substance such as a liquid is attached to the contact part 261, and the shape determination part 3603 advances to S905. On the other hand, if the diameter of the contact part 261 does not exceed the threshold value, there is a high possibility that an adhering substance such as a liquid has not adhered to the contact part 261, and the shape determination part 3603 advances to S906.
●透過画像に基づく付着物の検知処理
上述した実施例ではコンタクト部261の画像Ic1、Ic2はいずれも反射照明ユニット28を点灯し、透過照明ユニット25を消灯し、かつ、プローブ用光源263を点灯して撮影することで得られた反射画像であった。しかし、図41(a)が示すように付着物がコンタクト部261に付着していても画像Ic2には付着物が写っていないことがある。付着物がコンタクト部261からの光を反射しにくい素材で形成された物体であるときに、画像Ic2に付着物が写りにくい。一方で、図41(b)が示すようにプローブ用光源263を消灯し、透過照明ユニット25を点灯してコンタクト部261を撮影して生成された透過画像Ic2’であればゴミ3500のエッジが明確となることがある。したがって、上述した画像Ic2に代えて透過画像Ic2’が使用されてもよい。あるいは、画像Ic2を用いた検知処理と、透過画像Ic2’を用いた検知処理との両方が実行されてもよい。これにより精度よく付着物を検知することが可能となろう。
In the embodiment described above, the images Ic1 and Ic2 of the contact portion 261 both turn on the reflection illumination unit 28, turn off the transmission illumination unit 25, and turn on the probe light source 263. It was a reflection image obtained by photographing. However, as shown in FIG. 41A, even if the deposit is attached to the contact portion 261, the deposit may not appear in the image Ic2. When the adhering matter is an object formed of a material that hardly reflects the light from the contact portion 261, the adhering matter is difficult to appear in the image Ic2. On the other hand, as shown in FIG. 41B, if the probe light source 263 is turned off, the transmission illumination unit 25 is turned on and the contact portion 261 is photographed, and the transmission image Ic2 ′ is generated, the edge of the dust 3500 is present. May be clear. Therefore, the transmission image Ic2 ′ may be used instead of the image Ic2 described above. Alternatively, both the detection process using the image Ic2 and the detection process using the transmission image Ic2 ′ may be executed. Thereby, it will be possible to detect the deposit with high accuracy.
また、真円度に基づく方法での検知処理と、画像比較または直径に基づく検知処理との両方が実行されてもよい。これによりそれぞれの検知処理の利点を生かして付着物が検知されるため、付着物の検知精度が向上しよう。 Moreover, both the detection process by the method based on the roundness and the detection process based on the image comparison or the diameter may be executed. As a result, the adhering matter is detected by taking advantage of each detection process, so that the adhering matter detection accuracy will be improved.
●ユーザーインターフェース(UI)
図42は判定結果を示すUIの一例を示している。結果出力部3604が生成したUI4200には、プローブの検知処理に関するガイダンスメッセージ4201と、ユーザがプローブの検知処理の実行を指示するためのボタン4202とを有している。画像表示部4203には、コンタクト部261を撮影することで生成された画像Ic2がレンダリングされる。ダイアログボックス4204は判定結果を示すためのUIであり、ユーザにクリーニングを促すメッセージなども含まれてもよい。さらに、付着物の位置を強調するために協調表示4205が画像Ic2に重ねて表示されてもよい。
● User interface (UI)
FIG. 42 shows an example of a UI indicating the determination result. The UI 4200 generated by the result output unit 3604 includes a guidance message 4201 regarding the probe detection process and a button 4202 for the user to instruct execution of the probe detection process. On the image display unit 4203, an image Ic2 generated by photographing the contact unit 261 is rendered. A dialog box 4204 is a UI for indicating a determination result, and may include a message for prompting the user to perform cleaning. Further, the cooperative display 4205 may be displayed over the image Ic2 in order to emphasize the position of the deposit.
<まとめ>
図1に示したように、画像測定装置1は、ワークWが載置されるステージ23と、ステージ23に載置されたワークWを撮像して画像を生成する撮像部201と、撮像部201の視野内において、ステージ23に載置されたワークWの側面と接触可能なコンタクト部261を有するプローブ26とを有している。さらに、画像測定装置1は、ステージ23の載置面と略平行にステージ23とプローブ26とのうち少なくとも一方を移動させる水平駆動部24と、コンタクト部261とワークWの側面とが接触したときに撮像部201により生成された画像Ic1、Ic2を用いてワークWの側面の位置を測定する測定部(接触位置特定部357)とを有している。とりわけ、画像測定装置1は、撮像部201により生成されたコンタクト部261の画像における当該コンタクト部261の形状が所定形状であるかを判定する形状判定部3603と、形状判定部3603の判定結果を出力する出力部(結果出力部3604や表示部21)とを有している。コンタクト部261にゴミ3500や液体が付着すると、測定精度が低下する。また、コンタクト部261にゴミ3500や液体が付着すると、画像Ic2におけるコンタクト部261の形状が所定形状から逸脱する。そこで、コンタクト部261の形状が所定形状であるかどうかの判定結果をユーザに報知することで、ユーザはコンタクト部261のクリーニングのタイミングを容易に知ることができ、ユーザビリティが向上する。また、ユーザはその判定結果に基づきコンタクト部261のクリーニングを実施できるようになるため、測定精度の低下も抑制される。
<Summary>
As illustrated in FIG. 1, the image measurement apparatus 1 includes a stage 23 on which a workpiece W is placed, an imaging unit 201 that captures an image of the workpiece W placed on the stage 23 and generates an image, and an imaging unit 201. The probe 26 having the contact portion 261 that can come into contact with the side surface of the workpiece W placed on the stage 23 is provided. Furthermore, when the image measuring apparatus 1 is in contact with the horizontal drive unit 24 that moves at least one of the stage 23 and the probe 26 substantially parallel to the mounting surface of the stage 23, and the contact unit 261 and the side surface of the workpiece W. And a measuring unit (contact position specifying unit 357) that measures the position of the side surface of the workpiece W using the images Ic1 and Ic2 generated by the imaging unit 201. In particular, the image measurement apparatus 1 uses the shape determination unit 3603 for determining whether the shape of the contact unit 261 in the image of the contact unit 261 generated by the imaging unit 201 is a predetermined shape, and the determination result of the shape determination unit 3603. It has an output part (result output part 3604 and display part 21) to output. When dust 3500 or liquid adheres to the contact portion 261, the measurement accuracy is lowered. Further, when dust 3500 or liquid adheres to the contact portion 261, the shape of the contact portion 261 in the image Ic2 deviates from a predetermined shape. Therefore, by notifying the user of the determination result as to whether or not the shape of the contact part 261 is a predetermined shape, the user can easily know the cleaning timing of the contact part 261, and usability is improved. In addition, since the user can perform cleaning of the contact portion 261 based on the determination result, a decrease in measurement accuracy is also suppressed.
コンタクト部261の形状は球体や円柱、多角柱など、一定形状を有する立体物であればよい。たとえば、コンタクト部261は略球体である。形状判定部3603は、コンタクト部261の画像Ic2からコンタクト部261の水平断面形状を抽出し、抽出された水平断面形状が所定形状であるかを判定する。図1が示すように、コンタクト部261は、撮像部201の光軸上に配置されるため、画像Ic2におけるコンタクト部261のエッジは水平断面形状のエッジと概ね等しい。また、コンタクト部261はワークWに対して相対的に水平移動してワークWの側面に当接するため、コンタクト部261の水平断面形状のエッジ(外周または外縁)がワークWの側面に当接する。よって、このエッジにゴミ3500などが付着していると、測定誤りが発生しうる。コンタクト部261の水平断面形状のエッジに着目して異物の付着が検知される。 The shape of the contact portion 261 may be a three-dimensional object having a certain shape such as a sphere, a cylinder, or a polygonal column. For example, the contact part 261 is a substantially spherical body. The shape determination unit 3603 extracts the horizontal cross-sectional shape of the contact part 261 from the image Ic2 of the contact part 261, and determines whether the extracted horizontal cross-sectional shape is a predetermined shape. As shown in FIG. 1, since the contact part 261 is disposed on the optical axis of the imaging part 201, the edge of the contact part 261 in the image Ic2 is substantially equal to the edge of the horizontal sectional shape. In addition, since the contact portion 261 moves horizontally relative to the workpiece W and contacts the side surface of the workpiece W, the horizontal cross-sectional edge (outer periphery or outer edge) of the contact portion 261 contacts the side surface of the workpiece W. Therefore, if dust 3500 or the like adheres to this edge, a measurement error may occur. Focusing on the edge of the horizontal cross-sectional shape of the contact portion 261, the adhesion of a foreign object is detected.
形状判定部3603は、水平断面形状の真円度に基づき水平断面形状が所定形状であるかを判定してもよい。コンタクト部261が略球体であれば水平断面形状のエッジは円となる。そのため、水平断面形状の真円度に着目することでゴミ3500などの異物の付着が精度よく検知される。なお、画像測定装置1は、真円度の閾値の入力を受け付ける受付部(入力受付部311)を有していてもよい。形状判定部3603は、画像Ic2から算出された水平断面形状の真円度と閾値とを比較することで、水平断面形状が所定形状であるかを判定してもよい。この閾値はたとえば公差などであってもよい。 The shape determination unit 3603 may determine whether the horizontal cross-sectional shape is a predetermined shape based on the roundness of the horizontal cross-sectional shape. If the contact part 261 is a substantially spherical body, the edge of the horizontal cross-sectional shape is a circle. Therefore, by attaching attention to the roundness of the horizontal cross-sectional shape, the adhesion of foreign matter such as dust 3500 can be accurately detected. The image measurement apparatus 1 may include a reception unit (input reception unit 311) that receives an input of a roundness threshold value. The shape determination unit 3603 may determine whether the horizontal cross-sectional shape is a predetermined shape by comparing the roundness of the horizontal cross-sectional shape calculated from the image Ic2 with a threshold value. This threshold may be a tolerance, for example.
形状判定部3603は、水平断面形状の直径と所定形状の直径とを比較することで水平断面形状が所定形状であるかを判定してもよい。油などの液体がコンタクト部261に付着すると、コンタクト部261の直径がほぼ均一に増加する。この特性を生かして、液体状の異物であっても精度よく検知することが可能となる。画像測定装置1は、さらに、直径の閾値の入力を受け付ける受付部(入力受付部311)を有してもよい。形状判定部3603は、水平断面形状の直径と閾値とを比較することで、水平断面形状が所定形状であるかを判定してもよい。直径の閾値は公差などであってもよい。 The shape determination unit 3603 may determine whether the horizontal cross-sectional shape is a predetermined shape by comparing the diameter of the horizontal cross-sectional shape with the diameter of the predetermined shape. When a liquid such as oil adheres to the contact portion 261, the diameter of the contact portion 261 increases substantially uniformly. Utilizing this characteristic, even a liquid foreign substance can be detected with high accuracy. The image measurement apparatus 1 may further include a reception unit (input reception unit 311) that receives an input of a diameter threshold value. The shape determination unit 3603 may determine whether the horizontal cross-sectional shape is a predetermined shape by comparing the diameter of the horizontal cross-sectional shape with a threshold value. The threshold for the diameter may be a tolerance.
図38などを用いて説明したように、形状判定部3603は、コンタクト部261の画像におけるコンタクト部261のエッジを水平断面形状として抽出し、当該抽出されたエッジから最小二乗法により近似円を求め、当該近似円とコンタクト部261の各エッジの位置を比較することで、水平断面形状が所定形状であるかを判定してもよい。ゴミ3500がコンタクト部261の側面に付着すると、画像Ic2から抽出されたエッジの一部が近似円から乖離する。この特性を利用して精度よくゴミ3500が検知される。 As described with reference to FIG. 38 and the like, the shape determination unit 3603 extracts the edge of the contact portion 261 in the image of the contact portion 261 as a horizontal cross-sectional shape, and obtains an approximate circle from the extracted edge by the least square method. By comparing the approximate circle and the position of each edge of the contact portion 261, it may be determined whether the horizontal cross-sectional shape is a predetermined shape. When the dust 3500 adheres to the side surface of the contact portion 261, a part of the edge extracted from the image Ic2 deviates from the approximate circle. Using this characteristic, the dust 3500 is detected with high accuracy.
画像測定装置1は、所定形状をしたコンタクト部261の画像である基準画像を記憶する記憶部(記憶装置33)をさらに有していてもよい。図39を用いて説明したように、形状判定部3603は、撮像部201により生成されたコンタクト部261の画像と基準画像とを比較することでコンタクト部261の形状が所定形状であるかを判定してもよい。このように異物が付着していないコンタクト部261の画像を基準画像として使用することで異物を検知することが可能となる。たとえば、形状判定部3603は、基準画像から所定形状を抽出し、当該抽出された所定形状と撮像部201により生成されたコンタクト部261の画像から抽出されたコンタクト部261の水平断面形状とを比較してもよい。 The image measurement device 1 may further include a storage unit (storage device 33) that stores a reference image that is an image of the contact unit 261 having a predetermined shape. As described with reference to FIG. 39, the shape determining unit 3603 determines whether the shape of the contact unit 261 is a predetermined shape by comparing the image of the contact unit 261 generated by the imaging unit 201 with the reference image. May be. As described above, it is possible to detect the foreign matter by using the image of the contact portion 261 to which no foreign matter is attached as the reference image. For example, the shape determination unit 3603 extracts a predetermined shape from the reference image, and compares the extracted predetermined shape with the horizontal cross-sectional shape of the contact unit 261 extracted from the image of the contact unit 261 generated by the imaging unit 201. May be.
画像測定装置1は、コンタクト部261を発光させる光源(プローブ用光源263)と、光源の点灯と消灯とを制御する制御部(照明制御部314や測定制御部315を含む制御装置31)とを有している。制御装置31は、コンタクト部261の画像を取得する際に光源を点灯させてコンタクト部261を発光させる。これにより、コンタクト部261の光を反射しやすい異物を検知しやすくなる。なお、制御装置31は、コンタクト部261の画像を取得する際に光源を消灯してもよい。これにより、コンタクト部261の光を反射しにくい異物を検知しやすくなる。 The image measuring apparatus 1 includes a light source (probe light source 263) that emits light from the contact unit 261 and a control unit (control device 31 including an illumination control unit 314 and a measurement control unit 315) that controls turning on and off of the light source. Have. When acquiring the image of the contact part 261, the control device 31 turns on the light source to cause the contact part 261 to emit light. Thereby, it becomes easy to detect a foreign substance that easily reflects the light of the contact portion 261. Note that the control device 31 may turn off the light source when acquiring the image of the contact portion 261. Thereby, it becomes easy to detect the foreign matter which is hard to reflect the light of the contact part 261. FIG.
形状判定部3603は、ステージ23にワークWが載置されていないときに撮像部201により生成された画像からコンタクト部261の画像を抽出してもよい。これによりワークWの影響を受けないため、精度よく、異物を検知することが可能となる。 The shape determination unit 3603 may extract the image of the contact unit 261 from the image generated by the imaging unit 201 when the workpiece W is not placed on the stage 23. Thereby, since it is not influenced by the workpiece | work W, it becomes possible to detect a foreign material accurately.
形状判定部3603は、コンタクト部261とワークWの側面とが接触したときに撮像部201により生成された画像から、コンタクト部261の画像を抽出してもよい。このようにワークWを測定する測定シーケンス内に異物を検知する処理を取り入れることで、検知専用の作業時間が削減され、効率よく、異物を検知することが可能となる。 The shape determination unit 3603 may extract the image of the contact unit 261 from the image generated by the imaging unit 201 when the contact unit 261 contacts the side surface of the workpiece W. Thus, by incorporating the processing for detecting foreign matter in the measurement sequence for measuring the workpiece W, it is possible to reduce the work time dedicated to detection and efficiently detect foreign matter.
撮像部201の合焦範囲にコンタクト部261が位置しているときに撮像部201がコンタクト部261の画像を生成する。これによりコンタクト部261のエッジの鮮鋭度が増すため、エッジ付近に付着している異物のエッジも鮮鋭となり、異物の検知精度が向上する。 The imaging unit 201 generates an image of the contact unit 261 when the contact unit 261 is located in the focusing range of the imaging unit 201. As a result, the sharpness of the edge of the contact portion 261 increases, so that the edge of the foreign matter adhering to the vicinity of the edge is also sharpened, and the foreign matter detection accuracy is improved.
表示部21などにより形成される出力部は、コンタクト部261の形状が所定形状でないときにコンタクト部261のクリーニングを促すメッセージを出力してもよい。これによりユーザにクリーニングが必要であることを直接的に訴えることができる。なお、画像測定装置1は、音声や警告音を出力する音源とスピーカーを有し、これによりクリーニングを促してもよい。 The output unit formed by the display unit 21 or the like may output a message prompting cleaning of the contact unit 261 when the shape of the contact unit 261 is not a predetermined shape. This can directly appeal to the user that cleaning is necessary. Note that the image measurement device 1 may include a sound source that outputs sound and warning sound and a speaker, which may prompt cleaning.
図42に示したように、出力部は、コンタクト部261の画像を出力するとともに、当該画像において付着物の位置を強調してもよい。これにより、ユーザに対して異物の位置を知らせることが可能となり、クリーニングの作業効率が向上しよう。 As illustrated in FIG. 42, the output unit may output an image of the contact unit 261 and emphasize the position of the deposit in the image. As a result, it becomes possible to inform the user of the position of the foreign matter, and the work efficiency of the cleaning will be improved.
1 画像測定装置、201,206 撮像部、21 表示部、23 ステージ、24 水平駆動部、26 プローブ、261 コンタクト部、263 プローブ用光源、31 制御装置、311 入力受付部、315 測定制御部、33 記憶装置、3601 エッジ抽出部、3602 近似円決定部、3602 形状判定部、3604 結果出力部 DESCRIPTION OF SYMBOLS 1 Image measuring apparatus, 201,206 Imaging part, 21 Display part, 23 Stage, 24 Horizontal drive part, 26 Probe, 261 Contact part, 263 Probe light source, 31 Control apparatus, 311 Input reception part, 315 Measurement control part, 33 Storage device, 3601 edge extraction unit, 3602 approximate circle determination unit, 3602 shape determination unit, 3604 result output unit
Claims (16)
前記ステージに載置された前記ワークを撮像して画像を生成する撮像部と、
前記撮像部の視野内において、前記ステージに載置された前記ワークの側面と接触可能なコンタクト部を有するプローブと、
前記ステージの載置面と略平行に前記ステージと前記プローブとのうち少なくとも一方を移動させる駆動部と、
前記コンタクト部と前記ワークの側面とが接触したときに前記撮像部により生成された画像を用いて前記ワークの側面の位置を測定する測定部と
を有する画像測定装置であって、
前記撮像部により生成された前記コンタクト部の画像における当該コンタクト部の形状が所定形状であるかを判定する形状判定部と、
前記形状判定部の判定結果を出力する出力部と
をさらに有することを特徴とする画像測定装置。 A stage on which the workpiece is placed;
An imaging unit that images the workpiece placed on the stage and generates an image;
In the field of view of the imaging unit, a probe having a contact part that can come into contact with the side surface of the workpiece placed on the stage;
A drive unit that moves at least one of the stage and the probe substantially parallel to the mounting surface of the stage;
An image measuring apparatus comprising: a measuring unit that measures a position of the side surface of the workpiece using an image generated by the imaging unit when the contact unit and the side surface of the workpiece are in contact with each other;
A shape determination unit that determines whether the shape of the contact part in the image of the contact part generated by the imaging unit is a predetermined shape;
An image measurement apparatus further comprising: an output unit that outputs a determination result of the shape determination unit.
前記形状判定部は、前記コンタクト部の画像から前記コンタクト部の水平断面形状を抽出し、抽出された水平断面形状が前記所定形状であるかを判定することを特徴とする請求項1に記載の画像測定装置。 The contact portion is substantially spherical;
2. The shape determination unit according to claim 1, wherein the shape determination unit extracts a horizontal cross-sectional shape of the contact part from an image of the contact part, and determines whether the extracted horizontal cross-sectional shape is the predetermined shape. Image measuring device.
前記形状判定部は、前記水平断面形状の真円度と前記閾値とを比較することで、前記水平断面形状が前記所定形状であるかを判定することを特徴とする請求項3に記載の画像測定装置。 A reception unit that receives an input of the threshold value of the roundness;
The image according to claim 3, wherein the shape determination unit determines whether the horizontal cross-sectional shape is the predetermined shape by comparing the roundness of the horizontal cross-sectional shape with the threshold value. measuring device.
前記形状判定部は、前記水平断面形状の直径と前記閾値とを比較することで、前記水平断面形状が前記所定形状であるかを判定することを特徴とする請求項5に記載の画像測定装置。 A reception unit that receives an input of a threshold value of the diameter;
The image measuring device according to claim 5, wherein the shape determination unit determines whether the horizontal cross-sectional shape is the predetermined shape by comparing the diameter of the horizontal cross-sectional shape with the threshold value. .
前記形状判定部は、前記撮像部により生成された前記コンタクト部の画像と前記基準画像とを比較することで前記コンタクト部の形状が所定形状であるかを判定することを特徴とする請求項1に記載の画像測定装置。 A storage unit that stores a reference image that is an image of the contact unit having the predetermined shape;
The shape determination unit determines whether the shape of the contact part is a predetermined shape by comparing an image of the contact part generated by the imaging unit and the reference image. The image measuring device described in 1.
前記光源の点灯と消灯とを制御する制御部とをさらに有し、
前記制御部は、前記コンタクト部の画像を取得する際に前記光源を点灯させて前記コンタクト部を発光させることを特徴とする請求項1ないし9のいずれか一項に記載の画像測定装置。 A light source that emits light from the contact portion;
A control unit that controls turning on and off of the light source;
The image measuring apparatus according to claim 1, wherein the control unit turns on the light source to emit light when the image of the contact unit is acquired.
前記光源の点灯と消灯とを制御する制御部とをさらに有し、
前記制御部は、前記コンタクト部の画像を取得する際に前記光源を消灯することを特徴とする請求項1ないし9のいずれか一項に記載の画像測定装置。 A light source that emits light from the contact portion;
A control unit that controls turning on and off of the light source;
The image measurement apparatus according to claim 1, wherein the control unit turns off the light source when acquiring an image of the contact unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215545A JP6797638B2 (en) | 2016-11-02 | 2016-11-02 | Image measuring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215545A JP6797638B2 (en) | 2016-11-02 | 2016-11-02 | Image measuring device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018072267A true JP2018072267A (en) | 2018-05-10 |
JP2018072267A5 JP2018072267A5 (en) | 2019-10-24 |
JP6797638B2 JP6797638B2 (en) | 2020-12-09 |
Family
ID=62115242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016215545A Expired - Fee Related JP6797638B2 (en) | 2016-11-02 | 2016-11-02 | Image measuring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6797638B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019199663A (en) * | 2018-05-16 | 2019-11-21 | Juki株式会社 | Inspection device |
JP2020197437A (en) * | 2019-05-31 | 2020-12-10 | 株式会社ミツトヨ | Shape measurement system |
WO2021230083A1 (en) * | 2020-05-14 | 2021-11-18 | 株式会社東京精密 | Shape measurement device and method for controlling same |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000155013A (en) * | 1998-11-20 | 2000-06-06 | Keyence Corp | Shape measuring instrument |
JP2002503339A (en) * | 1997-06-12 | 2002-01-29 | ベルス・メステヒニーク・ゲーエムベーハー | Coordinate measuring device provided with feeler member and optical sensor for measuring position of feeler member |
JP2003148942A (en) * | 2001-11-16 | 2003-05-21 | Tokyo Seimitsu Co Ltd | Device for inspecting tip piece of stylus |
WO2007033811A1 (en) * | 2005-09-20 | 2007-03-29 | Werth Messtechnik Gmbh | Method and device for measuring the object structures |
JP2008102123A (en) * | 2006-09-20 | 2008-05-01 | Mitsutoyo Corp | Shape measurement method and shape measurement device |
JP2009508114A (en) * | 2005-09-14 | 2009-02-26 | ハルビン インスティチュート オブ テクノロジー | Microcavity measurement apparatus and method using double optical fiber connection |
JP2009257812A (en) * | 2008-04-14 | 2009-11-05 | Mitsutoyo Corp | Shape measuring method and shape measuring device |
JP2014109495A (en) * | 2012-12-03 | 2014-06-12 | Mitsutoyo Corp | Surface property measurement device, surface property measurement method, and program |
JP2015219169A (en) * | 2014-05-20 | 2015-12-07 | リョーエイ株式会社 | Roundness measurement probe, roundness measurement apparatus, and roundness measurement method |
JP2016085057A (en) * | 2014-10-23 | 2016-05-19 | 株式会社キーエンス | Coordinate measurement device |
-
2016
- 2016-11-02 JP JP2016215545A patent/JP6797638B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002503339A (en) * | 1997-06-12 | 2002-01-29 | ベルス・メステヒニーク・ゲーエムベーハー | Coordinate measuring device provided with feeler member and optical sensor for measuring position of feeler member |
JP2000155013A (en) * | 1998-11-20 | 2000-06-06 | Keyence Corp | Shape measuring instrument |
JP2003148942A (en) * | 2001-11-16 | 2003-05-21 | Tokyo Seimitsu Co Ltd | Device for inspecting tip piece of stylus |
JP2009508114A (en) * | 2005-09-14 | 2009-02-26 | ハルビン インスティチュート オブ テクノロジー | Microcavity measurement apparatus and method using double optical fiber connection |
WO2007033811A1 (en) * | 2005-09-20 | 2007-03-29 | Werth Messtechnik Gmbh | Method and device for measuring the object structures |
JP2008102123A (en) * | 2006-09-20 | 2008-05-01 | Mitsutoyo Corp | Shape measurement method and shape measurement device |
JP2009257812A (en) * | 2008-04-14 | 2009-11-05 | Mitsutoyo Corp | Shape measuring method and shape measuring device |
JP2014109495A (en) * | 2012-12-03 | 2014-06-12 | Mitsutoyo Corp | Surface property measurement device, surface property measurement method, and program |
JP2015219169A (en) * | 2014-05-20 | 2015-12-07 | リョーエイ株式会社 | Roundness measurement probe, roundness measurement apparatus, and roundness measurement method |
JP2016085057A (en) * | 2014-10-23 | 2016-05-19 | 株式会社キーエンス | Coordinate measurement device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019199663A (en) * | 2018-05-16 | 2019-11-21 | Juki株式会社 | Inspection device |
JP2020197437A (en) * | 2019-05-31 | 2020-12-10 | 株式会社ミツトヨ | Shape measurement system |
JP7296186B2 (en) | 2019-05-31 | 2023-06-22 | 株式会社ミツトヨ | Shape measurement system and its control method |
WO2021230083A1 (en) * | 2020-05-14 | 2021-11-18 | 株式会社東京精密 | Shape measurement device and method for controlling same |
JPWO2021230083A1 (en) * | 2020-05-14 | 2021-11-18 |
Also Published As
Publication number | Publication date |
---|---|
JP6797638B2 (en) | 2020-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6663808B2 (en) | Image measuring device | |
JP5547105B2 (en) | Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus | |
JP6663807B2 (en) | Image measuring device | |
JP6239232B2 (en) | High performance edge focus tool | |
JP5679560B2 (en) | Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus | |
US8503758B2 (en) | Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement | |
JP6001305B2 (en) | Inspection of potential interfering elements in machine vision systems | |
JP5467962B2 (en) | Measurement setting data creation device, measurement setting data creation method, program for measurement setting data creation device, and dimension measurement device | |
JP6797638B2 (en) | Image measuring device | |
JP6767843B2 (en) | Image measuring device | |
JP7353757B2 (en) | Methods for measuring artifacts | |
JP6621351B2 (en) | Image processing apparatus and image processing method for laser processing | |
JP6552074B2 (en) | Image measuring instrument | |
US11776110B2 (en) | Image measuring apparatus | |
US10846881B2 (en) | Image measuring apparatus | |
JP2016048195A (en) | Image measuring device | |
JP2018072269A (en) | Image measurement device | |
JP6797639B2 (en) | Image measuring device | |
JP7161430B2 (en) | Image measuring device | |
JP7240913B2 (en) | Image measuring device | |
JP2012032323A (en) | Picture measuring device, picture measuring method and program for picture measuring device | |
JP2010276554A (en) | Method, apparatus and reference jig for discriminating precision of shape measuring instrument | |
JP2013116545A (en) | Groove machining method for workpiece | |
JP2019179097A (en) | Focusing method, focusing mechanism, focusing operation program and optical microscope | |
JP2004198274A (en) | Three-dimensional shape measuring instrument, and three-dimensional shape measuring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6797638 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |