[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013088414A - Shape inspection method and device of the same - Google Patents

Shape inspection method and device of the same Download PDF

Info

Publication number
JP2013088414A
JP2013088414A JP2011232468A JP2011232468A JP2013088414A JP 2013088414 A JP2013088414 A JP 2013088414A JP 2011232468 A JP2011232468 A JP 2011232468A JP 2011232468 A JP2011232468 A JP 2011232468A JP 2013088414 A JP2013088414 A JP 2013088414A
Authority
JP
Japan
Prior art keywords
shape
data
dimensional
dimensional shape
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011232468A
Other languages
Japanese (ja)
Other versions
JP5913903B2 (en
Inventor
Atsushi Taniguchi
敦史 谷口
Kaoru Sakai
薫 酒井
Shigenobu Maruyama
重信 丸山
Shunji Maeda
俊二 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2011232468A priority Critical patent/JP5913903B2/en
Priority to CN201280052260.2A priority patent/CN104024793B/en
Priority to PCT/JP2012/077386 priority patent/WO2013061976A1/en
Publication of JP2013088414A publication Critical patent/JP2013088414A/en
Application granted granted Critical
Publication of JP5913903B2 publication Critical patent/JP5913903B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional shape inspection method for securing high measurement accuracy regardless of a shape of a measuring object by complementarily combining a plurality of three-dimensional shape measurement methods and surface measurement methods, and its device.SOLUTION: A three-dimensional shape inspection device includes: a storage part for storing reference data which is shape data of a reference model of an inspection object; an area specifying part for specifying an area to acquire first shape data from the reference data; a first three-dimensional shape sensor for acquiring the first shape data for the area specified in the area specifying part; a second three-dimensional shape sensor for acquiring second shape data different from the first shape data of the inspection object for an area other than the area specified in the area specifying part; and a complementary integration part for integrating the first shape data and the second shape data.

Description

本発明は、例えば、加工品および加工工具における形状検査方法および検査装置に関する。   The present invention relates to a shape inspection method and an inspection apparatus for a processed product and a processing tool, for example.

ものづくりにおける加工・組み立て中の製品の品質確保を目的に、目視検査員の技量に左右されない定量的・製造プロセスへのフィードバックが可能な加工工具、製品の形状・表面状態検査技術が求められている。   For the purpose of ensuring the quality of products during processing and assembly in manufacturing, there is a need for processing tools that can be quantitatively fed back to the manufacturing process regardless of the skill of visual inspectors, and for product shape and surface condition inspection technology. .

特許文献1にはレーザ光走査により広範に3次元形状測定を行うことができる3次元形状測定において、3次元形状に色彩や陰影を付しても、反射光量が一定となるようにレーザ光量を調整することで精度が良好な3次元形状測定を実施する方法が提案されている。   In Patent Document 1, in a three-dimensional shape measurement capable of performing a wide range of three-dimensional shape measurement by laser light scanning, the laser light amount is set so that the reflected light amount is constant even when a color or a shadow is added to the three-dimensional shape. There has been proposed a method for performing three-dimensional shape measurement with good accuracy by adjustment.

また、特許文献2には、光切断法にて計測した測定対象物の形状を現す測定点データと基準点データとを逐次収束処理に基づいて位置合わせし、位置合わせ後の測定点データと基準点データとに基づいて測定対象物の形状を評価する物体形状評価装置について記載されている。位置合わせ処理においては、隣接する測定点の間の隣接点間距離または隣接する基準点の間の隣接点間距離に基づいて隣接点間距離重み係数を決定し、当該隣接点間距離重み係数が逐次収束処理における逐次収束評価値を求める際に用いられる。   In Patent Document 2, the measurement point data representing the shape of the measurement object measured by the optical cutting method and the reference point data are aligned based on sequential convergence processing, and the measured measurement point data and the reference are aligned. An object shape evaluation apparatus that evaluates the shape of a measurement object based on point data is described. In the alignment process, the distance weight between adjacent points is determined based on the distance between adjacent points between adjacent measurement points or the distance between adjacent points between adjacent reference points. This is used when obtaining the sequential convergence evaluation value in the sequential convergence processing.

特開2009−204425JP2009-204425A 特開2010−107300JP 2010-107300 A

しかし、特許文献1、2のように単一の3次元形状測定方法により、3次元形状測定を行っても例えば、測定対象の形状に鋭角、急峻な面が含まれている場合に計測精度が確保するのが困難となっている。   However, even if three-dimensional shape measurement is performed by a single three-dimensional shape measurement method as in Patent Documents 1 and 2, for example, when the shape of the measurement target includes an acute angle or a steep surface, the measurement accuracy is high. It is difficult to secure.

そこで、本発明は、上記問題点に鑑み、複数の3次元形状計測法、表面計測手法を相補的に組み合わせることで、測定対象の形状によらず高い計測精度を確保した3次元形状検査方法およびその装置を提供することを目的とする。   Therefore, in view of the above problems, the present invention provides a three-dimensional shape inspection method that ensures high measurement accuracy regardless of the shape of the measurement target by combining a plurality of three-dimensional shape measurement methods and surface measurement methods in a complementary manner. An object is to provide such a device.

上記課題を解決するため、本発明は、検査対象の参照モデルの形状データである参照データを格納する格納部と、前記参照データから第1の形状データを取得する領域を特定する領域特定部と、前記領域特定部で特定した領域について前記第1の形状データを取得する第1の3次元形状センサと、前記領域特定部で特定した領域以外の領域について前記検査対象の前記第1の形状データとは異なる第2の形状データを取得する第2の3次元形状センサと、前記第1の形状データと前記第2の形状データとを統合する相補的統合部とを備えることを特徴とする3次元形状検査装置を提供する。   In order to solve the above problems, the present invention includes a storage unit that stores reference data that is shape data of a reference model to be inspected, a region specifying unit that specifies a region from which the first shape data is acquired from the reference data, The first three-dimensional shape sensor that acquires the first shape data for the region specified by the region specifying unit, and the first shape data of the inspection target for a region other than the region specified by the region specifying unit 3, comprising: a second three-dimensional shape sensor that obtains second shape data different from the first shape data; and a complementary integration unit that integrates the first shape data and the second shape data. A dimension shape inspection apparatus is provided.

また、他の観点における本発明は、検査対象の参照モデルの形状データである参照データを読み込み、特定した領域について前記第1の形状データを取得し、前記特定した領域以外の領域について前記検査対象の前記第1の形状データとは異なる第2の形状データを取得し、前記第1の形状データと前記第2の形状データとを統合することを特徴とする3次元形状検査方法を提供する。   According to another aspect of the present invention, reference data that is shape data of a reference model to be inspected is read, the first shape data is acquired for the specified region, and the inspection target is obtained for a region other than the specified region. A second shape data different from the first shape data is acquired, and the first shape data and the second shape data are integrated, and a three-dimensional shape inspection method is provided.

本発明によれば、複数の3次元形状計測法、表面計測手法を相補的に組み合わせることで、測定対象の形状によらず高い計測精度を確保した3次元形状検査方法およびその装置を提供することができる。   According to the present invention, it is possible to provide a three-dimensional shape inspection method and apparatus that ensure high measurement accuracy regardless of the shape of a measurement object by complementarily combining a plurality of three-dimensional shape measurement methods and surface measurement methods. Can do.

本発明の実施例1に係る3次元形状検査装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional shape inspection apparatus which concerns on Example 1 of this invention. 本発明の実施例1に係る相補的統合の手順を示すフロー図である。It is a flowchart which shows the procedure of the complementary integration which concerns on Example 1 of this invention. 本発明の実施例1に係る試料と面の方向を示す図である。It is a figure which shows the direction and the sample which concern on Example 1 of this invention. 本発明の実施例1に係る点群データと画像データの統合手順を示すフロー図である。It is a flowchart which shows the integration procedure of the point cloud data and image data which concern on Example 1 of this invention. 本発明の実施例1に係る点群データと画像データの特徴点での位置合わせを示す図である。It is a figure which shows the registration in the feature point of the point cloud data and image data which concern on Example 1 of this invention. 本発明の実施例1に係る相補的統合の手順を示すフロー図である。It is a flowchart which shows the procedure of the complementary integration which concerns on Example 1 of this invention. 本発明の実施例1に係る相補的統合の手順を示すフロー図である。It is a flowchart which shows the procedure of the complementary integration which concerns on Example 1 of this invention. 本発明の実施例1に係る試料の類似性を示す図である。It is a figure which shows the similarity of the sample which concerns on Example 1 of this invention. 本発明の実施例1に係る自己参照形状データによる形状定量化を示すフロー図を示す。The flowchart which shows shape quantification by the self-reference shape data which concerns on Example 1 of this invention is shown. 本発明の実施例1に係る自己参照形状データの導出方法を示す図である。It is a figure which shows the derivation | leading-out method of the self-reference shape data which concerns on Example 1 of this invention. 本発明の実施例1に係る平均形状データによる形状定量化を示すフロー図を示す。The flowchart which shows shape quantification by the average shape data which concerns on Example 1 of this invention is shown. 本発明の実施例1に係る平均形状データの導出方法を示す図である。It is a figure which shows the derivation method of the average shape data which concerns on Example 1 of this invention. 本発明の実施例1に係る自己参照形状データとCADデータを用いた形状不良定量化の手順を示すフロー図である。It is a flowchart which shows the procedure of shape defect quantification using the self-reference shape data and CAD data which concern on Example 1 of this invention. 本発明の実施例1に係る自己参照形状データと平均形状データを用いた形状不良定量化の手順を示すフロー図である。It is a flowchart which shows the procedure of shape defect quantification using the self-reference shape data which concerns on Example 1 of this invention, and average shape data. 本発明の実施例1に係る2次元カメラ画像にて撮像された試料表面の正常部と欠陥部の特徴量の違いからの欠陥の検出を示す図である。It is a figure which shows the detection of the defect from the difference of the feature-value of the normal part and defect part of the sample surface imaged with the two-dimensional camera image which concerns on Example 1 of this invention. 本発明の実施例1に係る2次元カメラ画像にて撮像された試料表面の正常部と欠陥部の特徴量の違いから欠陥を検出する手順を示すフロー図である。It is a flowchart which shows the procedure which detects a defect from the difference in the feature-value of the normal part and defect part of the sample surface which were imaged with the two-dimensional camera image which concerns on Example 1 of this invention. 本発明の実施例1に係る穴あけ加工具の影響度を導出する手順を示すフロー図である。It is a flowchart which shows the procedure which derives | leads-out the influence degree of the drilling tool which concerns on Example 1 of this invention. 本発明の実施例1に係る穴あけ加工具の検査パラメータを示す図である。It is a figure which shows the inspection parameter of the drilling tool which concerns on Example 1 of this invention. 本発明の実施例1に係る検査結果を表示するGUIを示す図である。It is a figure which shows GUI which displays the test result which concerns on Example 1 of this invention. 本発明の実施例2に係る3次元形状検査装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional shape inspection apparatus which concerns on Example 2 of this invention.

3次元形状の検査には、3次元形状を計測し、参照モデルと比較することで形状不良を定量化し、さらに不良定量値からその影響度を見積もることが必要となる。ここで、影響度とは、不良定量値が与える、製品であればその製品の性能を表す指標への、加工工具であれば加工性能を表す指標への影響を定量化したものである。   Inspecting a three-dimensional shape requires measuring the three-dimensional shape, comparing it with a reference model, quantifying the shape defect, and further estimating the degree of influence from the defect quantitative value. Here, the influence degree is obtained by quantifying the influence given to the index representing the performance of the product in the case of a product, or to the index representing the machining performance in the case of a machining tool.

特許文献1、2におけるの3次元計測装置は、上記技術に関してそれぞれ課題を有している。計測時にエッジや鋭角部の精度の不足する傾向があること、計測したデータの比較を行う際CADデータを必須とする場合が多くCADデータが手元にない場合には検査ができないこと、形状不良値から影響度の推定機能を備えていないことがある。   The three-dimensional measuring devices in Patent Documents 1 and 2 each have problems with respect to the above technique. There is a tendency for the accuracy of edges and sharp corners to be insufficient at the time of measurement, CAD data is often required when comparing measured data, inspection is not possible when CAD data is not at hand, and shape defect values Therefore, it may not have the function of estimating the degree of influence.

以下、上記問題点に鑑みなされた本発明の実施例を図面を用いて説明する。   Embodiments of the present invention made in view of the above problems will be described below with reference to the drawings.

本発明の第1の実施例を図1から図17を用いて説明する。   A first embodiment of the present invention will be described with reference to FIGS.

図1に3次元計測装置の構成を示す。試料1は、保持機構101および102によって保持されている。ここで、試料1と保持機構101および102の全体がサーボモータ103に接続されており、xz平面上でy軸を中心とした回転機構を有する。ここで、保持機構101および102は、サーボモータ103の回転量と試料1の回転量にずれが生じない適度な保持力を持つ。サーボモータ103の回転により、試料1と画像撮像部120および点群計測部130との相対位置を設定する。ここで、試料1は、試料1と画像撮像部120および点群計測部130との相対位置は、検査カバー率(=検査可能面積/全体面積試料)が大きくなるように、つまり検査領域がより広くなるように、保持機構101および102に配置する。試料1は3次元形状計測により品質確保が必要な加工品や、加工精度管理のために形状計測が必要な加工工具などである。   FIG. 1 shows the configuration of the three-dimensional measuring apparatus. Sample 1 is held by holding mechanisms 101 and 102. Here, the entire sample 1 and the holding mechanisms 101 and 102 are connected to the servo motor 103 and have a rotation mechanism centered on the y-axis on the xz plane. Here, the holding mechanisms 101 and 102 have an appropriate holding force that does not cause a deviation between the rotation amount of the servo motor 103 and the rotation amount of the sample 1. The relative position between the sample 1 and the image capturing unit 120 and the point group measuring unit 130 is set by the rotation of the servo motor 103. Here, the relative position between the sample 1 and the image capturing unit 120 and the point cloud measuring unit 130 is such that the inspection coverage ratio (= inspectable area / total area sample) is increased, that is, the inspection region is larger. It arrange | positions to the holding mechanisms 101 and 102 so that it may become large. Sample 1 is a processed product that requires quality assurance by three-dimensional shape measurement or a processing tool that requires shape measurement for processing accuracy management.

また、試料1、保持機構101および102、サーボモータ103の全体はベース105により保持されており、ベース105はxステージ106、yステージ107、θステージ108に搭載されている。θステージ108の回転方向はxy平面内であり、θ軸はxy平面と直行している。xステージ106、yステージ107、θステージ108およびベース105は、防振定盤110に搭載されている。サーボモータ103はモータコントローラ104を、xステージ106、yステージ107、θステージ108の3つは3軸のステージコントローラ109を介し、制御用PC140にて動作が制御される。   The sample 1, the holding mechanisms 101 and 102, and the servo motor 103 are all held by a base 105, and the base 105 is mounted on an x stage 106, a y stage 107, and a θ stage 108. The rotation direction of the θ stage 108 is in the xy plane, and the θ axis is orthogonal to the xy plane. The x stage 106, the y stage 107, the θ stage 108, and the base 105 are mounted on an anti-vibration surface plate 110. The servo motor 103 is controlled by a control PC 140 through a motor controller 104, and the x stage 106, y stage 107, and θ stage 108 through a three-axis stage controller 109.

図1に示す3次元計測装置では、試料1の表面状態および形状を、画像撮像部120および点群計測部130にて計測する。画像撮像部120では、照明部121により試料1を任意の方向より照明し、その反射光、散乱光、回折光、拡散光をレンズ122を用いて2次元カメラ123にて撮像し、3次元形状を2次元の画像データとして取得する。照明部121にはランプ、LED(Light Emitting Diode)等を使用でき、図1は単一方向からの照明を示しているが、照明方向は複数方向でもよいし、リング状照明を用いてもよい。また、単一方向から照明する場合においても、照明方向を自由に設定できる機構を持ち、試料1の表面状態、形状に応じて、表面凹凸や形状を顕在化する方向から照明光を照射することができる。2次元カメラ123にはCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどが使用できる。ここで、2次元カメラ123の画素ピッチは、レンズ122の倍率と開口率から決まる分解能より細かくなるように設定する。2次元カメラ123はカメラコントローラ124を介し、制御用PC140にて制御され、計測結果はモニタ141に出力される。   In the three-dimensional measuring apparatus shown in FIG. 1, the surface state and shape of the sample 1 are measured by the image capturing unit 120 and the point group measuring unit 130. In the image capturing unit 120, the illumination unit 121 illuminates the sample 1 from an arbitrary direction, and the reflected light, scattered light, diffracted light, and diffused light are captured by the two-dimensional camera 123 using the lens 122, and the three-dimensional shape is captured. Are acquired as two-dimensional image data. A lamp, LED (Light Emitting Diode), or the like can be used for the illumination unit 121, and FIG. 1 shows illumination from a single direction, but the illumination direction may be a plurality of directions, or ring illumination may be used. . In addition, even when illuminating from a single direction, it has a mechanism that allows the illumination direction to be freely set, and irradiates illumination light from a direction that reveals surface irregularities and shapes according to the surface state and shape of the sample 1. Can do. For the two-dimensional camera 123, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like can be used. Here, the pixel pitch of the two-dimensional camera 123 is set to be finer than the resolution determined from the magnification and aperture ratio of the lens 122. The two-dimensional camera 123 is controlled by the control PC 140 via the camera controller 124, and the measurement result is output to the monitor 141.

点群計測部130は、点群計測センサ131とセンサコントローラ132からなり、制御用PC140にて制御され、計測結果はモニタ141に出力される。点群計測センサ130は、非接触の光学式や接触式プローブ式等があり、物体表面の形状を計測し、多数の点の3次元座標を点群として出力する装置である。光学式の点群計測センサは、多くの手法が提案されており、いずれの方法も本発明に適用可能である。以下に本発明に使用可能な方式として、三角測量に基づく光切断法、物体へ光を当て、その光が戻ってくる時間によって距離を計測するTOF(Time Of Flight)法、レンズの焦点を動かしピントを合わせることで距離を計測するレンズ焦点法、物体に格子パターンを投影し物体表面の形状に応じて変形したパターン模様から形状計測するモアレ法、白色干渉を用いた干渉法などがある。また、近年、周波数空間において等間隔に並ぶ多数の光周波数モードを持つ光周波数コムを用いた点群計測法や、周波数帰還型レーザを用いた点群計測法も提案されている。   The point cloud measurement unit 130 includes a point cloud measurement sensor 131 and a sensor controller 132, is controlled by the control PC 140, and the measurement result is output to the monitor 141. The point group measurement sensor 130 includes a non-contact optical type, a contact type probe type, and the like, and is a device that measures the shape of the object surface and outputs three-dimensional coordinates of a large number of points as a point group. Many methods have been proposed for the optical point group measurement sensor, and any method can be applied to the present invention. As a method that can be used in the present invention, a light cutting method based on triangulation, a TOF (Time Of Flight) method in which light is applied to an object and the distance is measured according to the time when the light returns, and the focal point of the lens is moved. There are a lens focus method for measuring a distance by focusing, a moire method for projecting a lattice pattern onto an object and measuring the shape from a pattern pattern deformed according to the shape of the object surface, and an interference method using white interference. In recent years, a point cloud measurement method using an optical frequency comb having a large number of optical frequency modes arranged at equal intervals in a frequency space and a point cloud measurement method using a frequency feedback laser have been proposed.

詳細は後述するが、図1の装置は、試料1の表面状態や形状計測を精確に実施するため、2次元カメラ123の画像と、点群計測センサ130のデータを統合する相補的統合部1401、制御用PC140に接続された3D形状を表すCAD(Computer Aided Design)データ142が格納された格納部、CADデータ142から点群計測センサ131により形状データを取得する領域を特定する領域特定部、CADデータ142もしくは試料1が持つ類似性から導いた自己参照形状データと相補的統合部1401により統合されたデータとを比較して形状不良値を定量化する不良定量化部1402、不良定量部1402により定量化された不良具合より、過去の実験結果およびシミュレーション結果に基づくデータベース(DB)143を参照し、製品の出来具合をOK、NG判定もしくは程度の判断までを行う判定部を持つ。   Although details will be described later, the apparatus of FIG. 1 performs complementary measurement of the surface state and shape of the sample 1, and the complementary integration unit 1401 that integrates the image of the two-dimensional camera 123 and the data of the point cloud measurement sensor 130. A storage unit in which CAD (Computer Aided Design) data 142 representing a 3D shape connected to the control PC 140 is stored, a region specifying unit that specifies a region in which shape data is acquired by the point cloud measurement sensor 131 from the CAD data 142, A defect quantification unit 1402 and a defect quantification unit 1402 for quantifying the shape defect value by comparing the CAD data 142 or the self-reference shape data derived from the similarity of the sample 1 with the data integrated by the complementary integration unit 1401 Database based on past experimental results and simulation results (DB) 143 refers to the, the doneness of the product OK, with a decision unit that performs up to NG judgment or extent of judgment.

以下、本発明にて提案する点群計測法と画像の利点を組み合わせることでより正確に3次元形状・表面凹凸を計測する相補的統合、相補的統合により復元した試料の着目箇所の3次元情報の形状不良を定量化する不良定量化法、および形状不良が最終的に製品の出来栄え、および加工工具の加工精度の出来栄えへの影響度を推定する方法について以下に詳細に説明する。   In the following, by combining the point cloud measurement method proposed in the present invention and the advantages of images, complementary integration for more accurately measuring 3D shapes and surface irregularities, and 3D information on the point of interest of the sample restored by complementary integration A defect quantification method for quantifying the shape defect and a method for estimating the influence of the shape defect on the final product quality and the processing accuracy of the machining tool will be described in detail below.

(相補的統合)
点群計測法は大局的な形状の把握には向いているが、局所的な変化や微小凹凸に対しては計測精度の低下が生じる。プローブを用いた接触式ではプローブ走査が困難なエッジや鋭角部で形状計測精度が低下する傾向がある。また、レーザ等の光学を応用した非接触式でも、エッジや鋭角部、および急峻な傾きを持つ形状は、光の反射角が平坦な形状とは大きく異なり、測定精度が低下する傾向がある。さらに、点群計測法では試料の表面粗さ等の微小凹凸の計測は不得手である。
(Complementary integration)
The point cloud measurement method is suitable for grasping the global shape, but the measurement accuracy is reduced for local changes and minute irregularities. In the contact type using a probe, the shape measurement accuracy tends to be lowered at an edge or an acute angle portion where it is difficult to scan the probe. Even in a non-contact type using laser or other optics, a shape having an edge, an acute angle portion, and a steep inclination is greatly different from a shape having a flat light reflection angle, and the measurement accuracy tends to be lowered. Furthermore, the point cloud measurement method is not good at measuring minute irregularities such as the surface roughness of the sample.

ここで、2次元カメラである照明下でエッジ部や鋭角部、および急峻な傾きを持つ形状を取得した場合、取得画像中では周辺との明度差が大きくなる、もしくは明度変化が大きくなるという特徴を持つ。そのため、点群計測法が不得手とするエッジ部や鋭角部、および急峻な傾きを持つ形状の情報を画像から復元することができる。また、表面状態や微小凹凸についても画像中の陰影からその形状を導出することができる。しかし、点群計測法が得意とする大局的な形状については、平坦な強度分布の画像となり、特徴的な箇所が少ないため、形状の復元が困難な場合がある。   Here, when a shape having an edge portion, an acute angle portion, and a steep inclination is acquired under illumination that is a two-dimensional camera, the brightness difference from the surroundings in the acquired image increases or the brightness change increases. have. Therefore, it is possible to restore from the image information on the edge portion, the acute angle portion, and the shape having a steep inclination that the point cloud measurement method is not good at. Further, the shape of the surface state and minute unevenness can be derived from the shadow in the image. However, the global shape that the point cloud measurement method is good at is an image with a flat intensity distribution, and there are few characteristic parts, so that it may be difficult to restore the shape.

本実施例では、これら点群計測法の苦手とする箇所を2次元カメラにより撮像した画像を用いて補うことで、点群計測のみまたは2次元カメラ画像のみを用いた場合よりも高精度な3次元形状計測を実現する相補的統合を提案する。以下、相補的統合方法の具体例を示す。   In the present embodiment, 3 points which are more accurate than the case where only the point group measurement or only the two-dimensional camera image is used are compensated by using the image picked up by the two-dimensional camera for the portion which is not good for the point group measurement method. This paper proposes complementary integration to realize dimensional shape measurement. Hereinafter, a specific example of the complementary integration method will be shown.

図2に形状計測における相補的統合の手順を示す。試料の3次元形状を表すCADデータには形状を構成する面の方向を表す情報が含まれている。点群計測法には、手法によって測定精度が保証されている面の方向、傾きがある。この測定精度が保証されている領域を点群計測センサにて計測可能な領域とする。CADデータを読み込み(S100)、試料1の計測領域を設定し(S101)、図1に示す試料1の保持する際の配置および回転軸と点群計測センサの相対位置を算出し(S102)、図3に示す試料の面と点群計測センサとの傾きβが点群計測センサの特性で決まるしきい値以下もしくは以上を判定し(S103),点群計測が可能な面の領域を領域特定部により特定する。しきい値以下の領域については点群計測センサにて形状を表す点群を計測する(S104)。しきい値以上の領域は、点群計測センサの精度が保証されないので、2次元カメラにて撮像し(S105)、撮像された画像から形状データを推定する(S106)。点群計測センサの点群と画像より推測した形状データの位置情報を照合し(S107)、所望の形状データを取得する(S108)。   FIG. 2 shows a complementary integration procedure in shape measurement. The CAD data representing the three-dimensional shape of the sample includes information representing the direction of the surface constituting the shape. The point cloud measurement method has a direction and an inclination of a surface whose measurement accuracy is guaranteed by the method. An area in which the measurement accuracy is guaranteed is an area that can be measured by the point cloud measurement sensor. The CAD data is read (S100), the measurement area of the sample 1 is set (S101), the arrangement when holding the sample 1 shown in FIG. 1 and the relative position of the rotation axis and the point cloud measurement sensor are calculated (S102). The slope β between the sample surface and the point group measurement sensor shown in FIG. 3 is determined to be equal to or less than a threshold value determined by the characteristics of the point group measurement sensor (S103), and the region of the surface where the point group measurement is possible is specified. Specify by part. For the area below the threshold, a point cloud representing the shape is measured by the point cloud measurement sensor (S104). Since the accuracy of the point cloud measurement sensor is not guaranteed for the area above the threshold value, it is imaged with a two-dimensional camera (S105), and shape data is estimated from the captured image (S106). The point cloud of the point cloud measurement sensor and the position information of the shape data estimated from the image are collated (S107), and desired shape data is acquired (S108).

2次元カメラにて撮像した画像から形状データを推定する(S105)には、複数の手法がある。図1の装置構成においては、サーボモータ103の回転量を制御することで試料1を多数の視点から2次元カメラ123で撮像することができる。これら複数視点からの画像を用いて点群計測センサが苦手とするエッジ、鋭角部などの形状データを推定する。形状データの推定には、三角測量法に基づいた奥行き測定法であるステレオ法、画像の陰影から測定面の傾きを推定するインバースレンダリング法、複数画像のシルエットから試料の輪郭を推定する視体積交差法を用いる。ステレオ法は同一の視野を異なる方向から撮像した2枚の画像を用いる。異なる方向からの画像は、図1のサーボモータ103を一定量回転させ、2次元カメラ123との相対位置を制御し、取得する。例えば、1枚目の画像を取得した後、サーボモータ103にて試料1を5度回転させ、2枚目の画像を取得する。これら2枚の画像から三角測量の原理を用いて奥行きを算出する。サーボモータを5度刻みに360度回転させることで、試料1の回転軸に平行な面の形状データを取得することができる。インバースレンダリング法では、照明状態と物体反射率を既知として、2次元カメラにて得られた画像より、レンダリング方程式を用いて幾何形状を推定する手法である。1枚の画像から物体の形状データを取得することが可能である。ステレオ法と同様に、サーボモータ103の回転により2次元カメラ123との相対位置を制御することで、試料1の回転軸に平行な面の形状データを取得することができる。視体積交差法では、視点を頂点、シルエットを断面とする錐体である視体積を導出し、すべての視点における視体積の共通部分を求めることにより、対象物の形状を復元する手法である。サーボモータ103を回転させ試料1の回転軸に平行な面の画像を360度分、2次元カメラ123にて取得し、各画像のシルエットからそれぞれ視体積を導出し、各画像の視体積の共通部分から形状データを取得する。画像からシルエットを取得するには、対象物を含む入力画像と、あらかじめ用意された背景画像との差分を計算することでシルエット抽出する背景差分や、視点の異なる複数毎画像の共通部分の統計値を利用してシルエット抽出するDavisの方法等がある。   There are a plurality of methods for estimating shape data from an image captured by a two-dimensional camera (S105). In the apparatus configuration of FIG. 1, the sample 1 can be imaged by the two-dimensional camera 123 from many viewpoints by controlling the rotation amount of the servo motor 103. Using these images from a plurality of viewpoints, shape data such as an edge and an acute angle portion that the point cloud measurement sensor is not good at is estimated. For the estimation of shape data, the stereo method, which is a depth measurement method based on triangulation, the inverse rendering method that estimates the tilt of the measurement surface from the shadow of the image, and the view volume intersection that estimates the contour of the sample from the silhouette of multiple images Use the law. The stereo method uses two images obtained by capturing the same visual field from different directions. Images from different directions are acquired by rotating the servo motor 103 of FIG. 1 by a certain amount and controlling the relative position with the two-dimensional camera 123. For example, after acquiring the first image, the sample 1 is rotated 5 degrees by the servo motor 103 to acquire the second image. The depth is calculated from these two images using the principle of triangulation. By rotating the servo motor 360 degrees in increments of 5 degrees, the shape data of the surface parallel to the rotation axis of the sample 1 can be acquired. In the inverse rendering method, the illumination state and the object reflectance are known, and a geometric shape is estimated from an image obtained by a two-dimensional camera using a rendering equation. It is possible to acquire object shape data from a single image. Similar to the stereo method, by controlling the relative position with the two-dimensional camera 123 by the rotation of the servo motor 103, the shape data of the surface parallel to the rotation axis of the sample 1 can be acquired. The view volume intersection method is a technique for deriving the shape of the target object by deriving a view volume that is a cone having a viewpoint as a vertex and a silhouette as a cross section, and obtaining a common part of the view volumes at all viewpoints. The servo motor 103 is rotated to acquire an image of a plane parallel to the rotation axis of the sample 1 by 360 degrees with the two-dimensional camera 123, and the viewing volume is derived from the silhouette of each image. Get shape data from the part. To obtain a silhouette from an image, calculate the difference between the input image containing the target object and the background image prepared in advance to extract the silhouette, and statistical values for the common part of multiple images with different viewpoints. There is a Davis method for extracting silhouettes using the.

図4に位置照合(S107)の例を示す。取得した点群データ(S200)と画像データ(S202)は点群計測部と画像撮像部の設計時に決まる空間分解能が異なる。そこで、
図5に示すように点群データの空間分解能を画像撮像部により取得した画像データと同じスケールとなるように調整する(S201)。ここで、スケールの調整は点群データと画像データの空間分解能が同じになれば、画像処理部に実施してもよいし、点群データと画像データの両方に施してもよい。また、点群データと画像データが同じ空間分解能になるよう設計されている場合には、このスケール調整(S201)は必要ない。スケール調整(S201)後、点群計測部と画像撮像部の幾何学的配置の違いから、点群データと画像データを粗調整する(S203)。粗調整(S203)後に、図5の点群データにて変位が急峻に変化する点161、画像において強度変化の大きい箇所162の両データにて共通の特徴点にて詳細な位置照合を実施する(S204)。特徴点が複数存在する場合には、各特徴点同士の距離の総和が最小となるように位置照合を行う。もしくは特徴点同士の距離が統計的に中間値となるように位置照合を行ってもよい。
FIG. 4 shows an example of position collation (S107). The acquired point cloud data (S200) and image data (S202) have different spatial resolutions determined at the time of designing the point cloud measurement unit and the image capturing unit. there,
As shown in FIG. 5, the spatial resolution of the point cloud data is adjusted to be the same scale as the image data acquired by the image capturing unit (S201). Here, the adjustment of the scale may be performed on the image processing unit as long as the point cloud data and the image data have the same spatial resolution, or may be applied to both the point cloud data and the image data. If the point cloud data and the image data are designed to have the same spatial resolution, this scale adjustment (S201) is not necessary. After the scale adjustment (S201), the point cloud data and the image data are roughly adjusted based on the difference in the geometric arrangement between the point cloud measurement unit and the image capturing unit (S203). After the coarse adjustment (S203), detailed position matching is performed at the common feature points in both the data 161 of the point 161 where the displacement changes sharply in the point cloud data of FIG. 5 and the location 162 where the intensity change is large in the image. (S204). When there are a plurality of feature points, position matching is performed so that the sum of the distances between the feature points is minimized. Alternatively, the position matching may be performed so that the distance between the feature points is statistically an intermediate value.

図2には形状データを取得する際の相補的統合フローを示したが、点群計測法の不得手な表面粗さ等の点群計測法の精度以下の微小凹凸の計測については、図1のレンズ122と2次元カメラ123の画素サイズで決まる分解能が着目する微小凹凸が十分捕捉できる高さに設定し、画像を取得する。
図2にはCADデータを用いて点群計測する領域を算出する方法を示したが、図6に示す取得した点群データとCADデータとの比較結果を用いて2次元画像を用いる領域を決定する方法でも、2次元画像との相補的統合が可能である。試料の形状計測を行う領域を設定し(S300),点群計測を行う(S301)。試料のCADデータ(S302)を入力し、(S301)にて計測した点群とを位置合わせして対応点同士の距離を算出する(S303)。この照合には、点群の照合に広く用いられているICP(Itarative Closest Point)法等を用いる。ICP法では、ここで、計測した点群とCADデータの各対応点間の距離の平均を取り、この平均値があるしきい値と比較を行う(S304)。しきい値以上の領域は、点群計測センサの精度が保証されないので、2次元カメラにて撮像し(S305)、撮像された画像から形状データを推定する(S306)。点群計測センサの点群と画像より推測した形状データの位置情報を照合し(S307)、所望の形状データを取得する(S308)。実際の計測結果とCADを比較し、点群計測結果の使用可否を決定するため、図2に示したフローでは不可能な点群計測におけるはずれ値を除去することができ、計測の精度が向上する。なお、各対応点間の距離の平均と比較するしきい値は、検査対象である形状不良や表面凹凸等よりも大きな値を設定する。
FIG. 2 shows a complementary integration flow when acquiring shape data. For measurement of minute irregularities below the accuracy of the point cloud measurement method such as surface roughness which is not good for the point cloud measurement method, FIG. The resolution determined by the pixel size of the lens 122 and the two-dimensional camera 123 is set to a height that can sufficiently capture the minute unevenness to which attention is focused, and an image is acquired.
FIG. 2 shows a method for calculating a region for point cloud measurement using CAD data, but the region for using a two-dimensional image is determined using the comparison result between the acquired point cloud data and CAD data shown in FIG. In this way, complementary integration with a two-dimensional image is possible. An area for measuring the shape of the sample is set (S300), and point cloud measurement is performed (S301). The CAD data (S302) of the sample is input, and the distance between corresponding points is calculated by aligning with the point group measured in (S301) (S303). For this collation, an ICP (Irative Closest Point) method widely used for collation of point clouds is used. In the ICP method, the distance between the measured point group and each corresponding point in the CAD data is averaged, and the average value is compared with a certain threshold value (S304). Since the accuracy of the point cloud measurement sensor is not guaranteed for the area above the threshold value, it is imaged with a two-dimensional camera (S305), and shape data is estimated from the captured image (S306). The point cloud of the point cloud measurement sensor and the position information of the shape data estimated from the image are collated (S307), and the desired shape data is acquired (S308). Compare actual measurement results with CAD to determine whether or not to use point cloud measurement results, so outliers in point cloud measurement that are not possible with the flow shown in FIG. 2 can be removed, improving measurement accuracy To do. Note that the threshold value to be compared with the average of the distances between corresponding points is set to a value larger than the shape defect or surface unevenness to be inspected.

ここまで述べた図2と図6の方式では、形状データの復元に点群データもしくは画像データのどちらかを取得していたが、両方のデータを取得しておき、形状計測においてエッジや鋭角部は画像データを用いて、それ以外は点群データを用いてもよい。また、表面凹凸の検査には画像データを用いてもよい。図7に、点群データと画像データの両方をCADデータ比較前に取得する計測のフローを示す。試料の形状計測を行う領域を設定し(S400),設定した領域に対し点群計測を行い(S401)、さらに画像も撮像する(S402)。計測後にCADデータを読み込み(S403)、試料の面と点群計測センサとの傾きβが点群計測センサの特性で決まるしきい値以下もしくは以上を判定し(S404),点群計測が可能な面の領域を明らかにする。しきい値以下の領域については点群計測センサにて計測した形状データを採用し(S406)、しきい値以上の領域では画像の陰影より形状データを算出する(S405)。そして、点群計測データと画像より算出した形状データを位置合わせし(S407)、形状データを出力する(S408)。点群データと画像データの両方をCADデータ比較前に取得する場合、点群データと画像データを位置合わせする際には重複部分が必要となり、両方のデータを全領域にわたって取得するため、データ量は増加するが、重複部分の不足は発生しない。従って、点群データと画像データの両方をCADデータ比較前に取得することで、点群データと画像データのうち、精度の高いデータを使用することができ、計測の精度をさらに向上させることができる。   In the methods shown in FIGS. 2 and 6 described so far, either point cloud data or image data is acquired to restore the shape data. However, both of the data are acquired and an edge or an acute angle portion is measured in the shape measurement. May use image data, otherwise point cloud data may be used. Further, image data may be used for the inspection of surface irregularities. FIG. 7 shows a measurement flow in which both point cloud data and image data are acquired before CAD data comparison. An area for measuring the shape of the sample is set (S400), point cloud measurement is performed on the set area (S401), and an image is also taken (S402). After the measurement, the CAD data is read (S403), and it is determined whether the inclination β between the sample surface and the point group measurement sensor is equal to or less than the threshold value determined by the characteristics of the point group measurement sensor (S404). Clarify the surface area. The shape data measured by the point cloud measurement sensor is adopted for the area below the threshold (S406), and the shape data is calculated from the shadow of the image in the area above the threshold (S405). Then, the point cloud measurement data and the shape data calculated from the image are aligned (S407), and the shape data is output (S408). When both point cloud data and image data are acquired before CAD data comparison, an overlapping portion is required when aligning the point cloud data and image data, and both data are acquired over the entire area. Will increase, but there will be no shortage of overlap. Therefore, by acquiring both the point cloud data and the image data before the CAD data comparison, it is possible to use highly accurate data out of the point cloud data and the image data, and further improve the measurement accuracy. it can.

(不良定量化)
形状不良を定量化するため、計測した形状と基準となる形状とを定量的に比較する。基準となる形状として、理想形状であるCADデータ、もしくは試料自身の類似性を利用し算出した平均的な自己参照形状データ、複数個の同形状の試料の平均形状データのいずれか、もしくは複数種を用いる。各形状データの導出方法および不良定量化方法、組み合わせについて以下に記述する。
(Defect quantification)
In order to quantify the shape defect, the measured shape is quantitatively compared with the reference shape. As a reference shape, either CAD data that is an ideal shape, average self-reference shape data calculated using the similarity of the sample itself, average shape data of a plurality of samples of the same shape, or a plurality of types Is used. The method for deriving each shape data, the method for quantifying the defect, and the combination will be described below.

CADデータを用いる場合は、測定した形状データとCADデータとの差分をとり、その差分値を形状不良値として出力する。   When CAD data is used, the difference between the measured shape data and CAD data is taken and the difference value is output as a shape defect value.

試料自身の類似性を利用した自己参照形状データの導出方法および自己参照形状データを用いた形状不良定量化について説明する。図8は測定対象である試料の例として6枚羽の羽根車170を示している。6枚の羽170a〜170fは同一の形状を持つ。図1の検査装置に羽根車中心軸1701とy軸が一致するよう搭載し、y軸中心にサーボモータ103で回転させながら、点群計測センサ131および2次元カメラ123にて前述した方法にて形状・表面データを取得する。自己参照形状データの導出フローを図9に示す。図1の検査装置にて形状・表面データを取得し(S501)、形状・表面データ中から類似性を認識する(S502)。羽根車170の形状を表す波形を図10に示す。図10(a)に各羽170a〜170fの波形のプロファイル171a〜171fは設計上は同一のプロファイルを示す。これらプロファイル171a〜171fの類似性の認識は、手動で装置操作者が行ってもよいし、パターン認識技術に基づき自動認識してもよい。同形状部分が3つ以上ある場合、それらの統計的な平均値より自己参照形状データ171を算出する(S503)。統計的な平均値は、自己参照形状データから形状不良や表面凹凸不良の影響を除去するために、メディアンにて算出したり、最大値と最小値を省き平均値にて算出したりする。ここで、形状不良や表面凹凸不良が生じる確率が低いことを想定している。この自己参照形状データ171と各プロファイル171a〜171fとの位置合わせし(S504)、図10(b)に示すようにそれらの差分を算出し(S505)、その差分値を形状不良値として出力する(S506)。試料自身の類似性を利用するため、CADデータがなくても形状不良を定量化できる。   A method for deriving self-reference shape data using the similarity of the sample itself and shape defect quantification using the self-reference shape data will be described. FIG. 8 shows a six-blade impeller 170 as an example of a sample to be measured. The six wings 170a to 170f have the same shape. 1 is mounted so that the impeller central axis 1701 and the y axis coincide with each other, and the point cloud measuring sensor 131 and the two-dimensional camera 123 are rotated by the servo motor 103 about the y axis by the method described above. Acquire shape and surface data. FIG. 9 shows a flow for deriving self-reference shape data. The shape / surface data is acquired by the inspection apparatus of FIG. 1 (S501), and the similarity is recognized from the shape / surface data (S502). A waveform representing the shape of the impeller 170 is shown in FIG. In FIG. 10A, the waveform profiles 171a to 171f of the wings 170a to 170f are identical in design. Recognition of the similarity between the profiles 171a to 171f may be performed manually by the apparatus operator, or may be automatically recognized based on a pattern recognition technique. If there are three or more parts having the same shape, the self-reference shape data 171 is calculated from their statistical average value (S503). The statistical average value is calculated by the median or the average value is calculated by omitting the maximum value and the minimum value in order to remove the influence of the shape defect and the surface irregularity defect from the self-reference shape data. Here, it is assumed that the probability of occurrence of a shape defect or surface irregularity is low. The self-reference shape data 171 and the profiles 171a to 171f are aligned (S504), the difference between them is calculated as shown in FIG. 10B (S505), and the difference value is output as a shape defect value. (S506). Since the similarity of the sample itself is used, shape defects can be quantified without CAD data.

次に、複数個の同形状の試料の平均形状データの導出方法および平均形状データを用いた形状不良定量化について説明する。平均形状データの導出フローを図11に示す。図1の検査装置にて形状・表面データを取得し(S601)する。羽根車170の形状を表す波形を図12に示す。図12(a)に羽根車をn回計測したときのそれぞれの全体のプロファイル172a〜170nを示す。これらプロファイルの統計的な平均値より平均形状データ172を算出する(S602)。統計的な平均値は、平均形状データから形状不良や表面凹凸不良の影響を除去するために、メディアンにて算出したり、最大値と最小値を省き平均値にて算出したりする。ここで、形状不良や表面凹凸不良が生じる確率が低いことを想定している。この平均形状データ172と各プロファイル172a〜171nとを位置合わせし(S603)、図12(b)に示すようにそれらの差分を算出し(S604)、その差分値を形状不良値として出力する(S605)。自己参照形状データは、試料自身に類似性がないと利用できない。一方、平均形状データは複数の試料から形状データを導出するため、CADデータがなく、類似性もない試料についても比較検査が可能となる。   Next, a method for deriving the average shape data of a plurality of samples having the same shape and quantification of the shape defect using the average shape data will be described. The derivation flow of average shape data is shown in FIG. The shape / surface data is acquired by the inspection apparatus of FIG. 1 (S601). A waveform representing the shape of the impeller 170 is shown in FIG. FIG. 12A shows the entire profiles 172a to 170n when the impeller is measured n times. The average shape data 172 is calculated from the statistical average value of these profiles (S602). The statistical average value is calculated by the median or the average value is calculated by omitting the maximum value and the minimum value in order to remove the influence of the shape defect and the surface irregularity defect from the average shape data. Here, it is assumed that the probability of occurrence of a shape defect or surface irregularity is low. The average shape data 172 and the profiles 172a to 171n are aligned (S603), the difference between them is calculated as shown in FIG. 12B (S604), and the difference value is output as a shape defect value ( S605). Self-referenced shape data cannot be used unless the sample itself is similar. On the other hand, since the average shape data is derived from a plurality of samples, comparative inspection is possible even for samples having no CAD data and no similarity.

次に、CADデータ、自己参照形状データ、平均形状データの3つの基準となる形状データを組み合わせた形状不良定量化について説明する。平均形状データを算出するには試料の個数が足りないときには、図13に示すように、自己参照形状データとCADデータを用いて形状不良を定量化する。形状・表面凹凸データを図1の装置にて計測し(S701)、類似性の有無を判定する(S702)。前述したとおり、類似性の認識は、手動で装置操作者が行ってもよいし、パターン認識技術に基づき自動認識してもよい。類似性がない場合には、測定した形状データとCADデータとの差分をとり、その差分値を形状不良値として出力する(S703)。類似性がある場合には、類似部は図9に示すフローに従い自己参照形状データとの差分値を算出し(S704)、非類似部はCADデータとの差分を算出するし(S705)、形状不良値を出力する(S706)。   Next, a description will be given of shape defect quantification combining three standard shape data: CAD data, self-reference shape data, and average shape data. When the number of samples is insufficient to calculate the average shape data, the shape defect is quantified using self-reference shape data and CAD data, as shown in FIG. The shape / surface unevenness data is measured by the apparatus of FIG. 1 (S701), and the presence or absence of similarity is determined (S702). As described above, similarity recognition may be performed manually by the apparatus operator, or may be automatically recognized based on a pattern recognition technique. If there is no similarity, the difference between the measured shape data and CAD data is taken and the difference value is output as a shape defect value (S703). If there is similarity, the similar part calculates a difference value from the self-reference shape data according to the flow shown in FIG. 9 (S704), and the dissimilar part calculates a difference from the CAD data (S705). A defective value is output (S706).

平均データが算出できる場合には、図14に示すように、自己参照形状データと平均形状データを用いて形状不良を定量化する。形状・表面凹凸データを図1の装置にて計測し(S801)、類似性の有無を判定する(S802)。前述したとおり、類似性の認識は、手動で装置操作者が行ってもよいし、パターン認識技術に基づき自動認識してもよい。類似性がない場合には、図11に示すフローに従い、測定した形状データと平均形状データとの差分をとり、その差分値を形状不良値として出力する(S803)。類似性がある場合には、類似部は図9に示すフローに従い自己参照形状データとの差分値を算出し(S804)、非類似部は平均形状データとの差分を算出し(S805)、形状不良値を出力する(S806)。   When the average data can be calculated, as shown in FIG. 14, the shape defect is quantified using the self-reference shape data and the average shape data. The shape / surface unevenness data is measured by the apparatus of FIG. 1 (S801), and the presence or absence of similarity is determined (S802). As described above, similarity recognition may be performed manually by the apparatus operator, or may be automatically recognized based on a pattern recognition technique. If there is no similarity, the difference between the measured shape data and the average shape data is taken according to the flow shown in FIG. 11, and the difference value is output as a shape defect value (S803). If there is similarity, the similar part calculates a difference value from the self-reference shape data according to the flow shown in FIG. 9 (S804), and the dissimilar part calculates a difference from the average shape data (S805) A defective value is output (S806).

試料表面の凹凸などの欠陥検出を行う際、2次元カメラ画像にて撮像された試料表面の正常部と欠陥部の特徴量の違いから欠陥を検出してもよい。特徴量とは、画像の特徴を表すもので高次局所自己相関(Hihger Order Local Autocolleration:HLAC)特徴量等がある。本発明においては、2次元カメラの位置、照明の位置、および試料の傾きも特徴量として用いる。図15に示す2次元カメラ123の位置は単位ベクトルI301および照明121の位置は単位ベクトルS302、直交座標系における試料の傾きは、点群計測センサにて計測した結果を用い、例えば、点群中の隣接する3点にて形成される三角パッチ303の法線ベクトル304を試料の傾きを表す特徴量として用いる。CADデータがあり、表面凹凸のみを検査する場合は、法線ペクトル304の導出にCADデータを用いてもよい。2次元カメラ123により得られる画像は、照明121の位置、2次元カメラ123の位置、試料の傾きに依存するため、画像の特徴のみではなく、これらを特徴として用いることで、欠陥部305と正常部をより正確に判別することができる。また、試料の形状により生じる遮蔽部306を算出することができ、影による輝度の低下による画像の特徴の変化も考慮し、欠陥部305と正常部をより正確に判別することができる。   When detecting defects such as irregularities on the sample surface, the defect may be detected from the difference in the feature quantity between the normal portion and the defective portion of the sample surface captured by the two-dimensional camera image. The feature amount represents the feature of the image, and includes a higher-order local autocorrelation (HLAC) feature amount. In the present invention, the position of the two-dimensional camera, the position of illumination, and the tilt of the sample are also used as the feature amount. The position of the two-dimensional camera 123 shown in FIG. 15 is the unit vector I301, the position of the illumination 121 is the unit vector S302, and the tilt of the sample in the Cartesian coordinate system is measured using a point cloud measurement sensor. The normal vector 304 of the triangular patch 303 formed by three adjacent points is used as a feature amount representing the inclination of the sample. When CAD data is present and only surface irregularities are inspected, CAD data may be used to derive the normal vector 304. The image obtained by the two-dimensional camera 123 depends on the position of the illumination 121, the position of the two-dimensional camera 123, and the tilt of the sample. The part can be determined more accurately. Further, the shielding portion 306 caused by the shape of the sample can be calculated, and the defect portion 305 and the normal portion can be more accurately discriminated in consideration of a change in image characteristics due to a decrease in luminance due to a shadow.

図16にフロー図を示す。2次元カメラにて試料の画像を計測する(S1001)。2次元カメラで取得した画像の各画素(もしくは周辺の複数画素から平滑化処理等を施し求めた値)について、25次元のHLAC特徴、照明位置、2次元カメラ位置、試料の法線ベクトルの値を特徴量として算出する(S1002)。次に、正常部と欠陥部を教示し、特徴量空間にて正常部と欠陥部を判別する境界を決定する(S1003)。境界を決定するにはSupport Vector Machine(SVM)等を用いる。最後に、(S1003)で算出した境界を用いて欠陥部を抽出する(S1004)。なお、(S1002)にて決定する境界は、検査前にサンプルを用いて決定しておいてもよい。   FIG. 16 shows a flowchart. An image of the sample is measured with a two-dimensional camera (S1001). 25-dimensional HLAC features, illumination positions, 2-dimensional camera positions, and sample normal vector values for each pixel (or a value obtained by performing smoothing processing or the like from a plurality of peripheral pixels) acquired with a 2-dimensional camera Is calculated as a feature amount (S1002). Next, the normal part and the defective part are taught, and the boundary for discriminating between the normal part and the defective part in the feature amount space is determined (S1003). To determine the boundary, Support Vector Machine (SVM) or the like is used. Finally, a defective part is extracted using the boundary calculated in (S1003) (S1004). Note that the boundary determined in (S1002) may be determined using a sample before inspection.

(製品の加工精度判定)
図1の3次元形状検査装置では、形状不良を定量化した後、その形状不良値が、試料が加工品である場合にはその出来栄えを製品の性能を指標として、試料が加工工具である場合には加工精度を指標として良否判定結果を出力する。
(Product processing accuracy judgment)
In the three-dimensional shape inspection apparatus of FIG. 1, after quantifying the shape defect, if the shape defect value is a processed product, the performance is indicated by the product performance as an index, and the sample is a processing tool. Outputs a pass / fail judgment result using the machining accuracy as an index.

図17から図19にて穴あけ加工工具の例を示す。図17のフローにて検査手順を説明する。工具の形状を表すパラメータを指定する(S901)。この例では、図18の穴あけ加工工具の先端の磨耗面積180と、先端の刃先の角度181を評価パラメータとする。次に前述の方式により、試料である穴あけ加工工具の形状を計測し、CADデータ、自己参照形状データ、もしくは平均形状データのいずれかと比較し、形状不良値を定量化する(S902)。そして、形状の違いを距離で示した形状不良値から磨耗面積や刃先の角度を計算する(S903)。この磨耗面積や刃先の角度が、加工結果に与える影響を、過去の実験結果および加工シミュレーション結果から見積もる。穴あけ工具の性能を決める穴の深さおよび真円度と、磨耗面積180および刃先の角度181の関係を過去の実験結果および加工シミュレーション結果と関連付けたデータベースを用意し、磨耗面積に応じた穴の深さ、真円度を見積もる(S904)。また、使用回数による磨耗面積の増大、刃先の角度の変化も推測し、残りの使用回数も算出しておく。さらに、穴あけ加工工具のOK,NG判定を行うため、あらかじめ穴の深さと真円度に代表される形状異常にしきい値を設定しておき、許容値との大小を判定する(S905)。許容値を超えた場合はNG判定を出力する(s906)。許容値以内の場合はOK判定およびデータベースより推定した残りの使用回数を出力する(S907).加工工具の場合は、加工に付随して発生する切りくずの形状から、加工工具の状態を推定することも可能であり、図17の手法をそのまま適用できる。図19に検査条件を入力、結果を出力するGUIを示す。GUIは検査装置に搭載されているモニタ141に表示される。検査領域、加工への影響度として深さや真円度の許容値を入力値とし、測定結果である刃先傾き、磨耗面積、それらから導出した加工への影響度の推定値を出力する。また、最終的な判定値を検査結果191として出力する。   An example of a drilling tool is shown in FIGS. The inspection procedure will be described with reference to the flow of FIG. A parameter representing the shape of the tool is designated (S901). In this example, the wear area 180 at the tip of the drilling tool in FIG. 18 and the angle 181 of the tip of the tip are used as evaluation parameters. Next, the shape of the drilling tool as a sample is measured by the above-described method, and compared with any of CAD data, self-reference shape data, or average shape data, and the shape defect value is quantified (S902). Then, the wear area and the angle of the blade edge are calculated from the shape defect value indicating the difference in shape by distance (S903). The influence of the wear area and the blade edge angle on the machining result is estimated from past experimental results and machining simulation results. Prepare a database that correlates the relationship between the depth and roundness of the hole that determines the performance of the drilling tool, the wear area 180 and the angle 181 of the cutting edge with past experimental results and machining simulation results. Depth and roundness are estimated (S904). Further, an increase in the wear area due to the number of uses and a change in the angle of the blade edge are also estimated, and the remaining number of uses is calculated. Further, in order to perform OK / NG determination of the drilling tool, a threshold is set in advance for the shape abnormality represented by the depth and roundness of the hole, and the size of the allowable value is determined (S905). If the allowable value is exceeded, an NG determination is output (s906). If it is within the allowable value, the number of times of use estimated from the OK judgment and the database is output (S907). In the case of a processing tool, it is possible to estimate the state of the processing tool from the shape of chips generated accompanying the processing, and the method of FIG. 17 can be applied as it is. FIG. 19 shows a GUI for inputting inspection conditions and outputting results. The GUI is displayed on a monitor 141 mounted on the inspection apparatus. The allowable values of the depth and roundness are input as the inspection area and the degree of influence on the machining, and the estimated values of the cutting edge inclination, the wear area, and the degree of influence on the machining derived from the measurement results are output. Further, the final determination value is output as the inspection result 191.

本実施例によれば、点群計測データおよび2次元カメラ画像を相補的に用いることにより、点群計測データおよび2次元カメラ画像それぞれのみを用いた場合よりも高精度な3次元形状計測を実現することができる。   According to the present embodiment, the point cloud measurement data and the two-dimensional camera image are used in a complementary manner, thereby realizing three-dimensional shape measurement with higher accuracy than when only the point cloud measurement data and the two-dimensional camera image are used. can do.

また、試料自身の類似性を活用し生成した自己参照形状データを用いることで、設計データなしの形状不良定量化が可能となる。   Further, by using self-reference shape data generated by utilizing the similarity of the sample itself, it is possible to quantify the shape defect without design data.

また、形状不良を、加工品、加工工具が使用される際の性能を基準とした良否判定、良否程度の把握を行うことで、製品の品質・歩留まり予測。加工工具の劣化・磨耗状態と、加工精度低下を考慮した寿命予測等の管理が可能となる。   In addition, the quality and yield of products can be predicted by determining the quality based on the performance when using processed products and processing tools, and grasping the degree of quality. It is possible to manage the life prediction and the like considering the deterioration / wearing state of the machining tool and the reduction of machining accuracy.

本発明の第2の実施例を図20を用いて説明する。装置構成を図20に示す。基本的な構成は実施例1と同様であり、図1の2次元カメラ123に替えて反射光の偏光状態を解析可能な偏光カメラ200を用い、照明部121に替えてリング照明系201を用いている。偏光カメラは各画素の前に微小な偏光子が貼り付けられており、4画素で1グループとし、グループ内の4画素はそれぞれ偏光子の方位が異なる。試料1より反射しくてる光の偏光状態は、面の方向によって異なることが知られており、4画素で得られた異なる偏光情報を統合することで、面の方向を検出することができる。偏光情報を用いることで、通常の画像では識別が困難なシミなどの色の変化があったとしても高い精度で面の方向を決定することができる。また、偏光情報はキズ等の微小凹凸に対する応答性も高く、表面凹凸も効果的に顕在化できる。   A second embodiment of the present invention will be described with reference to FIG. The apparatus configuration is shown in FIG. The basic configuration is the same as that of the first embodiment. The polarization camera 200 that can analyze the polarization state of the reflected light is used instead of the two-dimensional camera 123 of FIG. 1, and the ring illumination system 201 is used instead of the illumination unit 121. ing. In the polarization camera, a minute polarizer is attached in front of each pixel, and four pixels form one group, and the four pixels in the group have different polarizer orientations. It is known that the polarization state of the light reflected from the sample 1 varies depending on the direction of the surface, and the direction of the surface can be detected by integrating different polarization information obtained by the four pixels. By using the polarization information, the direction of the surface can be determined with high accuracy even if there is a color change such as a spot that is difficult to identify in a normal image. In addition, the polarization information is highly responsive to minute irregularities such as scratches, and surface irregularities can be effectively revealed.

これまで説明してきた実施例は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。また、実施例1、2を組み合わせることにより本発明を実施してもよい。   The embodiments described so far are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention is not limitedly interpreted by these. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof. Further, the present invention may be implemented by combining the first and second embodiments.

1・・・試料
101、102・・・保持機構
103・・・サーボモータ
104・・・モータコントローラ
105・・・ベース
106・・・xステージ
107・・・yステージ
108・・・θステージ
109・・・ステージコントローラ
110・・・防振定盤
120・・・画像撮像部
121・・・照明部
122・・・レンズ
123・・・2次元カメラ
124・・・カメラコントローラ
130・・・点群計測部
131・・・点群計測センサ
132・・・センサコントローラ
140・・・制御用PC
141・・・モニタ
142・・・CADデータ
143・・・データベース
144・・・入力装置
160・・・点群データ上の1点
161・・・点群データ特徴点
162・・・画像データ特徴点
170・・・羽根車
1701・・・羽根車中心軸
170a、170b、170c、170d、170e、170f・・・羽
170・・・自己参照形状データ
171a、171b、171c、171d、171e、171f・・・プロファイル
180・・・磨耗面積
181・・・刃先の角度
190・・・GUI
191・・・検査結果
200・・・偏光カメラ
201・・・リング照明系
301・・・2次元カメラ方向の単位ベクトル
302・・・照明方向の単位ベクトル
303・・・三角メッシュ
304・・・法線ベクトル
305・・・欠陥
306・・・遮蔽部
1401・・・相補的統合部
1402・・・不良定量化部
1403・・・判定部
DESCRIPTION OF SYMBOLS 1 ... Sample 101, 102 ... Holding mechanism 103 ... Servo motor 104 ... Motor controller 105 ... Base 106 ... x stage 107 ... y stage 108 ... θ stage 109- ..Stage controller 110 ... Anti-vibration surface plate 120 ... Image capturing unit 121 ... Illumination unit 122 ... Lens 123 ... Two-dimensional camera 124 ... Camera controller 130 ... Point group measurement Part 131 ... Point cloud measuring sensor 132 ... Sensor controller 140 ... Control PC
141 ... Monitor 142 ... CAD data 143 ... Database 144 ... Input device 160 ... One point 161 on point cloud data ... Point cloud data feature point 162 ... Image data feature point 170 ... impeller 1701 ... impeller central axis 170a, 170b, 170c, 170d, 170e, 170f ... wing 170 ... self-reference shape data 171a, 171b, 171c, 171d, 171e, 171f Profile 180 ... Wear area 181 ... Blade angle 190 ... GUI
191 ... Inspection result 200 ... Polarized camera 201 ... Ring illumination system 301 ... Two-dimensional camera direction unit vector 302 ... Illumination direction unit vector 303 ... Triangular mesh 304 ... Method Line vector 305 ... Defect 306 ... Shielding part 1401 ... Complementary integration part 1402 ... Defect quantification part 1403 ... Determination part

Claims (14)

検査対象の参照モデルの形状データである参照データを格納する格納部と、
前記参照データから第1の形状データを取得する領域を特定する領域特定部と、
前記領域特定部で特定した領域について前記第1の形状データを取得する第1の3次元形状センサと、
前記領域特定部で特定した領域以外の領域について前記検査対象の前記第1の形状データとは異なる第2の形状データを取得する第2の3次元形状センサと、
前記第1の形状データと前記第2の形状データとを統合する相補的統合部とを備えることを特徴とする3次元形状検査装置。
A storage unit that stores reference data that is shape data of a reference model to be inspected;
An area specifying unit for specifying an area for acquiring the first shape data from the reference data;
A first three-dimensional shape sensor that acquires the first shape data for the region specified by the region specifying unit;
A second three-dimensional shape sensor that acquires second shape data different from the first shape data of the inspection object for a region other than the region specified by the region specifying unit;
A three-dimensional shape inspection apparatus comprising: a complementary integration unit that integrates the first shape data and the second shape data.
前記相補的統合部により統合された統合データと前記参照データとを定量的に評価する不良定量化部を備える請求項1に記載の3次元形状検査装置。   The three-dimensional shape inspection apparatus according to claim 1, further comprising a defect quantification unit that quantitatively evaluates the integrated data integrated by the complementary integration unit and the reference data. 前記第1の3次元形状センサは3次元形状の点群を計測する点群計測センサであり、前記第2の3次元形状センサは3次元形状を2次元の画像データとして取得する2次元カメラであることを特徴とする請求項1に記載の3次元形状検査装置。   The first three-dimensional shape sensor is a point group measurement sensor that measures a point group of a three-dimensional shape, and the second three-dimensional shape sensor is a two-dimensional camera that acquires a three-dimensional shape as two-dimensional image data. The three-dimensional shape inspection apparatus according to claim 1, wherein the three-dimensional shape inspection apparatus is provided. 前記第1の3次元形状センサは3次元形状の点群を計測する点群計測センサであり、前記第2の3次元形状センサは複数の異なる偏光情報から3次元形状を計測する偏光カメラであることを特徴とする請求項1に記載の3次元形状検査装置。   The first three-dimensional shape sensor is a point group measurement sensor that measures a point group of a three-dimensional shape, and the second three-dimensional shape sensor is a polarization camera that measures a three-dimensional shape from a plurality of different polarization information. The three-dimensional shape inspection apparatus according to claim 1. 前記格納部は検査対象自身のもつ類似性から導いた自己参照形状データを参照データとして格納することを特徴とする請求項1に記載の3次元形状検査装置。   The three-dimensional shape inspection apparatus according to claim 1, wherein the storage unit stores self-reference shape data derived from the similarity of the inspection object itself as reference data. 前記不良定量化部によって得られた形状不良値と、実験値またはシミュレーション値とから前記検査対象の形状異常の判定を行う判定部を備えることを特徴とする請求項2に記載の3次元形状検査装置。   The three-dimensional shape inspection according to claim 2, further comprising: a determination unit configured to determine a shape abnormality of the inspection target from a shape defect value obtained by the defect quantification unit and an experimental value or a simulation value. apparatus. 前記判定部は、前記検査対象を照射する照明部の位置、前記2次元カメラの位置、前記検査対象の傾きのいずれかを特徴量として用いて形状異常の判定を行うことを特徴とする請求項6に記載の3次元形状検査装置。   The determination unit performs a shape abnormality determination using any one of a position of an illumination unit that irradiates the inspection target, a position of the two-dimensional camera, and a tilt of the inspection target as a feature amount. 6. The three-dimensional shape inspection apparatus according to 6. 検査対象の参照モデルの形状データである参照データを読み込み、
前記参照データから第1の形状データを取得する領域を特定し、
特定した領域について前記第1の形状データを取得し、
前記特定した領域以外の領域について前記検査対象の前記第1の形状データとは異なる第2の形状データを取得し、
前記第1の形状データと前記第2の形状データとを統合することを特徴とする3次元形状検査方法。
Read the reference data that is the shape data of the reference model to be inspected,
Specify the area from which the first shape data is obtained from the reference data,
Obtaining the first shape data for the identified region;
Obtaining second shape data different from the first shape data of the inspection object for an area other than the specified area;
3. A three-dimensional shape inspection method, wherein the first shape data and the second shape data are integrated.
前記相補的統合部により統合された統合データと前記参照データとを定量的に評価することを特徴とする請求項8に記載の3次元形状検査方法。   The three-dimensional shape inspection method according to claim 8, wherein the integrated data integrated by the complementary integration unit and the reference data are quantitatively evaluated. 前記第1の形状データは3次元形状の点群であり、前記第2の形状データは2次元カメラにより撮像した画像であることを特徴とする請求項8に記載の3次元形状検査方法。   9. The three-dimensional shape inspection method according to claim 8, wherein the first shape data is a point group of a three-dimensional shape, and the second shape data is an image captured by a two-dimensional camera. 前記第1の形状データは3次元形状の点群であり、前記第2の形状データは偏光カメラにより撮像した画像であることを特徴とする請求項8に記載の3次元形状検査方法。   9. The three-dimensional shape inspection method according to claim 8, wherein the first shape data is a point group of a three-dimensional shape, and the second shape data is an image captured by a polarization camera. 前記参照データは検査対象自身のもつ類似性から導いた自己参照形状データであることを特徴とする請求項8に記載の3次元形状検査方法。   9. The three-dimensional shape inspection method according to claim 8, wherein the reference data is self-reference shape data derived from the similarity of the inspection object itself. 前記相補的統合部により統合された統合データと前記参照データとを定量的に評価することによって得られた形状不良値と、実験値またはシミュレーション値かとから前記検査対象の形状異常の判定を行うことを特徴とする請求項9に記載の3次元形状検査方法。   Determining the shape abnormality of the inspection object from the shape defect value obtained by quantitatively evaluating the integrated data integrated by the complementary integration unit and the reference data, and an experimental value or a simulation value The three-dimensional shape inspection method according to claim 9. 前記検査対象を照射する照明部の位置、前記2次元カメラの位置、前記検査対象の傾きのいずれかを特徴量として用いて形状異常の判定を行う請求項13に記載の3次元形状検査方法。   The three-dimensional shape inspection method according to claim 13, wherein a shape abnormality is determined using any one of a position of an illumination unit that irradiates the inspection target, a position of the two-dimensional camera, and a tilt of the inspection target as a feature amount.
JP2011232468A 2011-10-24 2011-10-24 Shape inspection method and apparatus Active JP5913903B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011232468A JP5913903B2 (en) 2011-10-24 2011-10-24 Shape inspection method and apparatus
CN201280052260.2A CN104024793B (en) 2011-10-24 2012-10-24 Shape inspection method and device
PCT/JP2012/077386 WO2013061976A1 (en) 2011-10-24 2012-10-24 Shape inspection method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011232468A JP5913903B2 (en) 2011-10-24 2011-10-24 Shape inspection method and apparatus

Publications (2)

Publication Number Publication Date
JP2013088414A true JP2013088414A (en) 2013-05-13
JP5913903B2 JP5913903B2 (en) 2016-04-27

Family

ID=48532439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011232468A Active JP5913903B2 (en) 2011-10-24 2011-10-24 Shape inspection method and apparatus

Country Status (1)

Country Link
JP (1) JP5913903B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015034711A (en) * 2013-08-07 2015-02-19 株式会社東芝 Three-dimensional data processing apparatus, three-dimensional data processing method, and three-dimensional data processing program
JP2016527475A (en) * 2013-05-27 2016-09-08 カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー Method and apparatus for generating at least one virtual image of a measurement object
JP2020046326A (en) * 2018-09-20 2020-03-26 株式会社Screenホールディングス Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2021025220A (en) * 2019-07-31 2021-02-22 株式会社大林組 Roughness evaluation device for construction joint surface and roughness evaluation system for construction joint surface
WO2022070309A1 (en) * 2020-09-30 2022-04-07 株式会社ニコン Machining system and display device
JP2022079494A (en) * 2020-01-15 2022-05-26 Dmg森精機株式会社 Image processing device, machine tool and image processing method
JP2022541674A (en) * 2019-09-17 2022-09-26 ボストン ポーラリメトリックス,インコーポレイティド Systems and methods for surface modeling using polarization cues

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12131236B2 (en) * 2018-07-12 2024-10-29 Servicenow Canada Inc. System and method for detecting similarities

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122706A (en) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd Shape diagnosing device, shape diagnosis method and program thereof
JP2005215917A (en) * 2004-01-29 2005-08-11 Hitachi Plant Eng & Constr Co Ltd Working drawing creation support method and replacement model creation method
JP2006098152A (en) * 2004-09-29 2006-04-13 Dainippon Screen Mfg Co Ltd Apparatus and method for detecting defect
JP2007333462A (en) * 2006-06-13 2007-12-27 Yokohama Rubber Co Ltd:The Tire mold member inspection method, tire mold member inspection system, and inspection method for mold member manufacturing process accuracy
JP2009058459A (en) * 2007-09-03 2009-03-19 Nikon Corp Profile measuring system
JP2010160135A (en) * 2008-12-09 2010-07-22 Toshiba Corp Method for measuring three-dimensional shape of connection assembly of stator coil in turbine generator, and fixture for three-dimensional shape measuring device
JP2011175600A (en) * 2010-02-25 2011-09-08 Canon Inc Recognition apparatus and method thereof, and computer program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122706A (en) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd Shape diagnosing device, shape diagnosis method and program thereof
JP2005215917A (en) * 2004-01-29 2005-08-11 Hitachi Plant Eng & Constr Co Ltd Working drawing creation support method and replacement model creation method
JP2006098152A (en) * 2004-09-29 2006-04-13 Dainippon Screen Mfg Co Ltd Apparatus and method for detecting defect
JP2007333462A (en) * 2006-06-13 2007-12-27 Yokohama Rubber Co Ltd:The Tire mold member inspection method, tire mold member inspection system, and inspection method for mold member manufacturing process accuracy
JP2009058459A (en) * 2007-09-03 2009-03-19 Nikon Corp Profile measuring system
JP2010160135A (en) * 2008-12-09 2010-07-22 Toshiba Corp Method for measuring three-dimensional shape of connection assembly of stator coil in turbine generator, and fixture for three-dimensional shape measuring device
JP2011175600A (en) * 2010-02-25 2011-09-08 Canon Inc Recognition apparatus and method thereof, and computer program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016527475A (en) * 2013-05-27 2016-09-08 カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー Method and apparatus for generating at least one virtual image of a measurement object
JP2015034711A (en) * 2013-08-07 2015-02-19 株式会社東芝 Three-dimensional data processing apparatus, three-dimensional data processing method, and three-dimensional data processing program
JP2020046326A (en) * 2018-09-20 2020-03-26 株式会社Screenホールディングス Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2021025220A (en) * 2019-07-31 2021-02-22 株式会社大林組 Roughness evaluation device for construction joint surface and roughness evaluation system for construction joint surface
JP7398613B2 (en) 2019-07-31 2023-12-15 株式会社大林組 Joint surface roughness evaluation device and joint surface roughness evaluation system
JP2022541674A (en) * 2019-09-17 2022-09-26 ボストン ポーラリメトリックス,インコーポレイティド Systems and methods for surface modeling using polarization cues
JP7273250B2 (en) 2019-09-17 2023-05-12 ボストン ポーラリメトリックス,インコーポレイティド Systems and methods for surface modeling using polarization cues
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
JP2022079494A (en) * 2020-01-15 2022-05-26 Dmg森精機株式会社 Image processing device, machine tool and image processing method
JP7253088B2 (en) 2020-01-15 2023-04-05 Dmg森精機株式会社 Image processing device, machine tool and image processing method
WO2022070309A1 (en) * 2020-09-30 2022-04-07 株式会社ニコン Machining system and display device

Also Published As

Publication number Publication date
JP5913903B2 (en) 2016-04-27

Similar Documents

Publication Publication Date Title
JP5913903B2 (en) Shape inspection method and apparatus
WO2013061976A1 (en) Shape inspection method and device
JP5676387B2 (en) Appearance inspection method and apparatus
JP6506731B2 (en) System and method for scoring clutter used for 3D point cloud matching in vision system
JP2013186100A (en) Shape inspection method and device
US20120072170A1 (en) Vision measurement probe and method of operation
CN107462587B (en) Precise visual inspection system and method for concave-convex mark defects of flexible IC substrate
WO2014136490A1 (en) Shape examination method and device therefor
JP5385703B2 (en) Inspection device, inspection method, and inspection program
WO2014205385A1 (en) Wafer inspection using free-form care areas
US10360684B2 (en) Method and apparatus for edge determination of a measurement object in optical metrology
CN109716495B (en) Method and system for optical measurement of opening size in wafer
EP3789728B1 (en) Thread shape measuring apparatus and measuring method
CN111784684A (en) Laser-assisted transparent product internal defect depth setting detection method and device
JP2006010392A (en) Through hole measuring system, method, and through hole measuring program
JP6040215B2 (en) Inspection method
US11168976B2 (en) Measuring device for examining a specimen and method for determining a topographic map of a specimen
JP7353757B2 (en) Methods for measuring artifacts
JPWO2016031364A1 (en) Manufacturing method of parts, manufacturing apparatus using the same, volume measuring method
Su et al. Measuring wear of the grinding wheel using machine vision
TW201534424A (en) Tool inspection method and tool inspection device
JP7153514B2 (en) 3D shape inspection device, 3D shape inspection method, 3D shape inspection program, computer
Bračun et al. A method for surface quality assessment of die-castings based on laser triangulation
TW201809592A (en) Automated 3-D measurement
Gupta et al. Vision-Based Precision Deburring and Edge Breaking Process Quality Control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160404

R151 Written notification of patent or utility model registration

Ref document number: 5913903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151