JP2013088414A - Shape inspection method and device of the same - Google Patents
Shape inspection method and device of the same Download PDFInfo
- Publication number
- JP2013088414A JP2013088414A JP2011232468A JP2011232468A JP2013088414A JP 2013088414 A JP2013088414 A JP 2013088414A JP 2011232468 A JP2011232468 A JP 2011232468A JP 2011232468 A JP2011232468 A JP 2011232468A JP 2013088414 A JP2013088414 A JP 2013088414A
- Authority
- JP
- Japan
- Prior art keywords
- shape
- data
- dimensional
- dimensional shape
- inspection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
Description
本発明は、例えば、加工品および加工工具における形状検査方法および検査装置に関する。 The present invention relates to a shape inspection method and an inspection apparatus for a processed product and a processing tool, for example.
ものづくりにおける加工・組み立て中の製品の品質確保を目的に、目視検査員の技量に左右されない定量的・製造プロセスへのフィードバックが可能な加工工具、製品の形状・表面状態検査技術が求められている。 For the purpose of ensuring the quality of products during processing and assembly in manufacturing, there is a need for processing tools that can be quantitatively fed back to the manufacturing process regardless of the skill of visual inspectors, and for product shape and surface condition inspection technology. .
特許文献1にはレーザ光走査により広範に3次元形状測定を行うことができる3次元形状測定において、3次元形状に色彩や陰影を付しても、反射光量が一定となるようにレーザ光量を調整することで精度が良好な3次元形状測定を実施する方法が提案されている。 In Patent Document 1, in a three-dimensional shape measurement capable of performing a wide range of three-dimensional shape measurement by laser light scanning, the laser light amount is set so that the reflected light amount is constant even when a color or a shadow is added to the three-dimensional shape. There has been proposed a method for performing three-dimensional shape measurement with good accuracy by adjustment.
また、特許文献2には、光切断法にて計測した測定対象物の形状を現す測定点データと基準点データとを逐次収束処理に基づいて位置合わせし、位置合わせ後の測定点データと基準点データとに基づいて測定対象物の形状を評価する物体形状評価装置について記載されている。位置合わせ処理においては、隣接する測定点の間の隣接点間距離または隣接する基準点の間の隣接点間距離に基づいて隣接点間距離重み係数を決定し、当該隣接点間距離重み係数が逐次収束処理における逐次収束評価値を求める際に用いられる。 In Patent Document 2, the measurement point data representing the shape of the measurement object measured by the optical cutting method and the reference point data are aligned based on sequential convergence processing, and the measured measurement point data and the reference are aligned. An object shape evaluation apparatus that evaluates the shape of a measurement object based on point data is described. In the alignment process, the distance weight between adjacent points is determined based on the distance between adjacent points between adjacent measurement points or the distance between adjacent points between adjacent reference points. This is used when obtaining the sequential convergence evaluation value in the sequential convergence processing.
しかし、特許文献1、2のように単一の3次元形状測定方法により、3次元形状測定を行っても例えば、測定対象の形状に鋭角、急峻な面が含まれている場合に計測精度が確保するのが困難となっている。 However, even if three-dimensional shape measurement is performed by a single three-dimensional shape measurement method as in Patent Documents 1 and 2, for example, when the shape of the measurement target includes an acute angle or a steep surface, the measurement accuracy is high. It is difficult to secure.
そこで、本発明は、上記問題点に鑑み、複数の3次元形状計測法、表面計測手法を相補的に組み合わせることで、測定対象の形状によらず高い計測精度を確保した3次元形状検査方法およびその装置を提供することを目的とする。 Therefore, in view of the above problems, the present invention provides a three-dimensional shape inspection method that ensures high measurement accuracy regardless of the shape of the measurement target by combining a plurality of three-dimensional shape measurement methods and surface measurement methods in a complementary manner. An object is to provide such a device.
上記課題を解決するため、本発明は、検査対象の参照モデルの形状データである参照データを格納する格納部と、前記参照データから第1の形状データを取得する領域を特定する領域特定部と、前記領域特定部で特定した領域について前記第1の形状データを取得する第1の3次元形状センサと、前記領域特定部で特定した領域以外の領域について前記検査対象の前記第1の形状データとは異なる第2の形状データを取得する第2の3次元形状センサと、前記第1の形状データと前記第2の形状データとを統合する相補的統合部とを備えることを特徴とする3次元形状検査装置を提供する。 In order to solve the above problems, the present invention includes a storage unit that stores reference data that is shape data of a reference model to be inspected, a region specifying unit that specifies a region from which the first shape data is acquired from the reference data, The first three-dimensional shape sensor that acquires the first shape data for the region specified by the region specifying unit, and the first shape data of the inspection target for a region other than the region specified by the region specifying unit 3, comprising: a second three-dimensional shape sensor that obtains second shape data different from the first shape data; and a complementary integration unit that integrates the first shape data and the second shape data. A dimension shape inspection apparatus is provided.
また、他の観点における本発明は、検査対象の参照モデルの形状データである参照データを読み込み、特定した領域について前記第1の形状データを取得し、前記特定した領域以外の領域について前記検査対象の前記第1の形状データとは異なる第2の形状データを取得し、前記第1の形状データと前記第2の形状データとを統合することを特徴とする3次元形状検査方法を提供する。 According to another aspect of the present invention, reference data that is shape data of a reference model to be inspected is read, the first shape data is acquired for the specified region, and the inspection target is obtained for a region other than the specified region. A second shape data different from the first shape data is acquired, and the first shape data and the second shape data are integrated, and a three-dimensional shape inspection method is provided.
本発明によれば、複数の3次元形状計測法、表面計測手法を相補的に組み合わせることで、測定対象の形状によらず高い計測精度を確保した3次元形状検査方法およびその装置を提供することができる。 According to the present invention, it is possible to provide a three-dimensional shape inspection method and apparatus that ensure high measurement accuracy regardless of the shape of a measurement object by complementarily combining a plurality of three-dimensional shape measurement methods and surface measurement methods. Can do.
3次元形状の検査には、3次元形状を計測し、参照モデルと比較することで形状不良を定量化し、さらに不良定量値からその影響度を見積もることが必要となる。ここで、影響度とは、不良定量値が与える、製品であればその製品の性能を表す指標への、加工工具であれば加工性能を表す指標への影響を定量化したものである。 Inspecting a three-dimensional shape requires measuring the three-dimensional shape, comparing it with a reference model, quantifying the shape defect, and further estimating the degree of influence from the defect quantitative value. Here, the influence degree is obtained by quantifying the influence given to the index representing the performance of the product in the case of a product, or to the index representing the machining performance in the case of a machining tool.
特許文献1、2におけるの3次元計測装置は、上記技術に関してそれぞれ課題を有している。計測時にエッジや鋭角部の精度の不足する傾向があること、計測したデータの比較を行う際CADデータを必須とする場合が多くCADデータが手元にない場合には検査ができないこと、形状不良値から影響度の推定機能を備えていないことがある。 The three-dimensional measuring devices in Patent Documents 1 and 2 each have problems with respect to the above technique. There is a tendency for the accuracy of edges and sharp corners to be insufficient at the time of measurement, CAD data is often required when comparing measured data, inspection is not possible when CAD data is not at hand, and shape defect values Therefore, it may not have the function of estimating the degree of influence.
以下、上記問題点に鑑みなされた本発明の実施例を図面を用いて説明する。 Embodiments of the present invention made in view of the above problems will be described below with reference to the drawings.
本発明の第1の実施例を図1から図17を用いて説明する。 A first embodiment of the present invention will be described with reference to FIGS.
図1に3次元計測装置の構成を示す。試料1は、保持機構101および102によって保持されている。ここで、試料1と保持機構101および102の全体がサーボモータ103に接続されており、xz平面上でy軸を中心とした回転機構を有する。ここで、保持機構101および102は、サーボモータ103の回転量と試料1の回転量にずれが生じない適度な保持力を持つ。サーボモータ103の回転により、試料1と画像撮像部120および点群計測部130との相対位置を設定する。ここで、試料1は、試料1と画像撮像部120および点群計測部130との相対位置は、検査カバー率(=検査可能面積/全体面積試料)が大きくなるように、つまり検査領域がより広くなるように、保持機構101および102に配置する。試料1は3次元形状計測により品質確保が必要な加工品や、加工精度管理のために形状計測が必要な加工工具などである。
FIG. 1 shows the configuration of the three-dimensional measuring apparatus. Sample 1 is held by
また、試料1、保持機構101および102、サーボモータ103の全体はベース105により保持されており、ベース105はxステージ106、yステージ107、θステージ108に搭載されている。θステージ108の回転方向はxy平面内であり、θ軸はxy平面と直行している。xステージ106、yステージ107、θステージ108およびベース105は、防振定盤110に搭載されている。サーボモータ103はモータコントローラ104を、xステージ106、yステージ107、θステージ108の3つは3軸のステージコントローラ109を介し、制御用PC140にて動作が制御される。
The sample 1, the
図1に示す3次元計測装置では、試料1の表面状態および形状を、画像撮像部120および点群計測部130にて計測する。画像撮像部120では、照明部121により試料1を任意の方向より照明し、その反射光、散乱光、回折光、拡散光をレンズ122を用いて2次元カメラ123にて撮像し、3次元形状を2次元の画像データとして取得する。照明部121にはランプ、LED(Light Emitting Diode)等を使用でき、図1は単一方向からの照明を示しているが、照明方向は複数方向でもよいし、リング状照明を用いてもよい。また、単一方向から照明する場合においても、照明方向を自由に設定できる機構を持ち、試料1の表面状態、形状に応じて、表面凹凸や形状を顕在化する方向から照明光を照射することができる。2次元カメラ123にはCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどが使用できる。ここで、2次元カメラ123の画素ピッチは、レンズ122の倍率と開口率から決まる分解能より細かくなるように設定する。2次元カメラ123はカメラコントローラ124を介し、制御用PC140にて制御され、計測結果はモニタ141に出力される。
In the three-dimensional measuring apparatus shown in FIG. 1, the surface state and shape of the sample 1 are measured by the
点群計測部130は、点群計測センサ131とセンサコントローラ132からなり、制御用PC140にて制御され、計測結果はモニタ141に出力される。点群計測センサ130は、非接触の光学式や接触式プローブ式等があり、物体表面の形状を計測し、多数の点の3次元座標を点群として出力する装置である。光学式の点群計測センサは、多くの手法が提案されており、いずれの方法も本発明に適用可能である。以下に本発明に使用可能な方式として、三角測量に基づく光切断法、物体へ光を当て、その光が戻ってくる時間によって距離を計測するTOF(Time Of Flight)法、レンズの焦点を動かしピントを合わせることで距離を計測するレンズ焦点法、物体に格子パターンを投影し物体表面の形状に応じて変形したパターン模様から形状計測するモアレ法、白色干渉を用いた干渉法などがある。また、近年、周波数空間において等間隔に並ぶ多数の光周波数モードを持つ光周波数コムを用いた点群計測法や、周波数帰還型レーザを用いた点群計測法も提案されている。
The point
詳細は後述するが、図1の装置は、試料1の表面状態や形状計測を精確に実施するため、2次元カメラ123の画像と、点群計測センサ130のデータを統合する相補的統合部1401、制御用PC140に接続された3D形状を表すCAD(Computer Aided Design)データ142が格納された格納部、CADデータ142から点群計測センサ131により形状データを取得する領域を特定する領域特定部、CADデータ142もしくは試料1が持つ類似性から導いた自己参照形状データと相補的統合部1401により統合されたデータとを比較して形状不良値を定量化する不良定量化部1402、不良定量部1402により定量化された不良具合より、過去の実験結果およびシミュレーション結果に基づくデータベース(DB)143を参照し、製品の出来具合をOK、NG判定もしくは程度の判断までを行う判定部を持つ。
Although details will be described later, the apparatus of FIG. 1 performs complementary measurement of the surface state and shape of the sample 1, and the
以下、本発明にて提案する点群計測法と画像の利点を組み合わせることでより正確に3次元形状・表面凹凸を計測する相補的統合、相補的統合により復元した試料の着目箇所の3次元情報の形状不良を定量化する不良定量化法、および形状不良が最終的に製品の出来栄え、および加工工具の加工精度の出来栄えへの影響度を推定する方法について以下に詳細に説明する。 In the following, by combining the point cloud measurement method proposed in the present invention and the advantages of images, complementary integration for more accurately measuring 3D shapes and surface irregularities, and 3D information on the point of interest of the sample restored by complementary integration A defect quantification method for quantifying the shape defect and a method for estimating the influence of the shape defect on the final product quality and the processing accuracy of the machining tool will be described in detail below.
(相補的統合)
点群計測法は大局的な形状の把握には向いているが、局所的な変化や微小凹凸に対しては計測精度の低下が生じる。プローブを用いた接触式ではプローブ走査が困難なエッジや鋭角部で形状計測精度が低下する傾向がある。また、レーザ等の光学を応用した非接触式でも、エッジや鋭角部、および急峻な傾きを持つ形状は、光の反射角が平坦な形状とは大きく異なり、測定精度が低下する傾向がある。さらに、点群計測法では試料の表面粗さ等の微小凹凸の計測は不得手である。
(Complementary integration)
The point cloud measurement method is suitable for grasping the global shape, but the measurement accuracy is reduced for local changes and minute irregularities. In the contact type using a probe, the shape measurement accuracy tends to be lowered at an edge or an acute angle portion where it is difficult to scan the probe. Even in a non-contact type using laser or other optics, a shape having an edge, an acute angle portion, and a steep inclination is greatly different from a shape having a flat light reflection angle, and the measurement accuracy tends to be lowered. Furthermore, the point cloud measurement method is not good at measuring minute irregularities such as the surface roughness of the sample.
ここで、2次元カメラである照明下でエッジ部や鋭角部、および急峻な傾きを持つ形状を取得した場合、取得画像中では周辺との明度差が大きくなる、もしくは明度変化が大きくなるという特徴を持つ。そのため、点群計測法が不得手とするエッジ部や鋭角部、および急峻な傾きを持つ形状の情報を画像から復元することができる。また、表面状態や微小凹凸についても画像中の陰影からその形状を導出することができる。しかし、点群計測法が得意とする大局的な形状については、平坦な強度分布の画像となり、特徴的な箇所が少ないため、形状の復元が困難な場合がある。 Here, when a shape having an edge portion, an acute angle portion, and a steep inclination is acquired under illumination that is a two-dimensional camera, the brightness difference from the surroundings in the acquired image increases or the brightness change increases. have. Therefore, it is possible to restore from the image information on the edge portion, the acute angle portion, and the shape having a steep inclination that the point cloud measurement method is not good at. Further, the shape of the surface state and minute unevenness can be derived from the shadow in the image. However, the global shape that the point cloud measurement method is good at is an image with a flat intensity distribution, and there are few characteristic parts, so that it may be difficult to restore the shape.
本実施例では、これら点群計測法の苦手とする箇所を2次元カメラにより撮像した画像を用いて補うことで、点群計測のみまたは2次元カメラ画像のみを用いた場合よりも高精度な3次元形状計測を実現する相補的統合を提案する。以下、相補的統合方法の具体例を示す。 In the present embodiment, 3 points which are more accurate than the case where only the point group measurement or only the two-dimensional camera image is used are compensated by using the image picked up by the two-dimensional camera for the portion which is not good for the point group measurement method. This paper proposes complementary integration to realize dimensional shape measurement. Hereinafter, a specific example of the complementary integration method will be shown.
図2に形状計測における相補的統合の手順を示す。試料の3次元形状を表すCADデータには形状を構成する面の方向を表す情報が含まれている。点群計測法には、手法によって測定精度が保証されている面の方向、傾きがある。この測定精度が保証されている領域を点群計測センサにて計測可能な領域とする。CADデータを読み込み(S100)、試料1の計測領域を設定し(S101)、図1に示す試料1の保持する際の配置および回転軸と点群計測センサの相対位置を算出し(S102)、図3に示す試料の面と点群計測センサとの傾きβが点群計測センサの特性で決まるしきい値以下もしくは以上を判定し(S103),点群計測が可能な面の領域を領域特定部により特定する。しきい値以下の領域については点群計測センサにて形状を表す点群を計測する(S104)。しきい値以上の領域は、点群計測センサの精度が保証されないので、2次元カメラにて撮像し(S105)、撮像された画像から形状データを推定する(S106)。点群計測センサの点群と画像より推測した形状データの位置情報を照合し(S107)、所望の形状データを取得する(S108)。 FIG. 2 shows a complementary integration procedure in shape measurement. The CAD data representing the three-dimensional shape of the sample includes information representing the direction of the surface constituting the shape. The point cloud measurement method has a direction and an inclination of a surface whose measurement accuracy is guaranteed by the method. An area in which the measurement accuracy is guaranteed is an area that can be measured by the point cloud measurement sensor. The CAD data is read (S100), the measurement area of the sample 1 is set (S101), the arrangement when holding the sample 1 shown in FIG. 1 and the relative position of the rotation axis and the point cloud measurement sensor are calculated (S102). The slope β between the sample surface and the point group measurement sensor shown in FIG. 3 is determined to be equal to or less than a threshold value determined by the characteristics of the point group measurement sensor (S103), and the region of the surface where the point group measurement is possible is specified. Specify by part. For the area below the threshold, a point cloud representing the shape is measured by the point cloud measurement sensor (S104). Since the accuracy of the point cloud measurement sensor is not guaranteed for the area above the threshold value, it is imaged with a two-dimensional camera (S105), and shape data is estimated from the captured image (S106). The point cloud of the point cloud measurement sensor and the position information of the shape data estimated from the image are collated (S107), and desired shape data is acquired (S108).
2次元カメラにて撮像した画像から形状データを推定する(S105)には、複数の手法がある。図1の装置構成においては、サーボモータ103の回転量を制御することで試料1を多数の視点から2次元カメラ123で撮像することができる。これら複数視点からの画像を用いて点群計測センサが苦手とするエッジ、鋭角部などの形状データを推定する。形状データの推定には、三角測量法に基づいた奥行き測定法であるステレオ法、画像の陰影から測定面の傾きを推定するインバースレンダリング法、複数画像のシルエットから試料の輪郭を推定する視体積交差法を用いる。ステレオ法は同一の視野を異なる方向から撮像した2枚の画像を用いる。異なる方向からの画像は、図1のサーボモータ103を一定量回転させ、2次元カメラ123との相対位置を制御し、取得する。例えば、1枚目の画像を取得した後、サーボモータ103にて試料1を5度回転させ、2枚目の画像を取得する。これら2枚の画像から三角測量の原理を用いて奥行きを算出する。サーボモータを5度刻みに360度回転させることで、試料1の回転軸に平行な面の形状データを取得することができる。インバースレンダリング法では、照明状態と物体反射率を既知として、2次元カメラにて得られた画像より、レンダリング方程式を用いて幾何形状を推定する手法である。1枚の画像から物体の形状データを取得することが可能である。ステレオ法と同様に、サーボモータ103の回転により2次元カメラ123との相対位置を制御することで、試料1の回転軸に平行な面の形状データを取得することができる。視体積交差法では、視点を頂点、シルエットを断面とする錐体である視体積を導出し、すべての視点における視体積の共通部分を求めることにより、対象物の形状を復元する手法である。サーボモータ103を回転させ試料1の回転軸に平行な面の画像を360度分、2次元カメラ123にて取得し、各画像のシルエットからそれぞれ視体積を導出し、各画像の視体積の共通部分から形状データを取得する。画像からシルエットを取得するには、対象物を含む入力画像と、あらかじめ用意された背景画像との差分を計算することでシルエット抽出する背景差分や、視点の異なる複数毎画像の共通部分の統計値を利用してシルエット抽出するDavisの方法等がある。
There are a plurality of methods for estimating shape data from an image captured by a two-dimensional camera (S105). In the apparatus configuration of FIG. 1, the sample 1 can be imaged by the two-
図4に位置照合(S107)の例を示す。取得した点群データ(S200)と画像データ(S202)は点群計測部と画像撮像部の設計時に決まる空間分解能が異なる。そこで、
図5に示すように点群データの空間分解能を画像撮像部により取得した画像データと同じスケールとなるように調整する(S201)。ここで、スケールの調整は点群データと画像データの空間分解能が同じになれば、画像処理部に実施してもよいし、点群データと画像データの両方に施してもよい。また、点群データと画像データが同じ空間分解能になるよう設計されている場合には、このスケール調整(S201)は必要ない。スケール調整(S201)後、点群計測部と画像撮像部の幾何学的配置の違いから、点群データと画像データを粗調整する(S203)。粗調整(S203)後に、図5の点群データにて変位が急峻に変化する点161、画像において強度変化の大きい箇所162の両データにて共通の特徴点にて詳細な位置照合を実施する(S204)。特徴点が複数存在する場合には、各特徴点同士の距離の総和が最小となるように位置照合を行う。もしくは特徴点同士の距離が統計的に中間値となるように位置照合を行ってもよい。
FIG. 4 shows an example of position collation (S107). The acquired point cloud data (S200) and image data (S202) have different spatial resolutions determined at the time of designing the point cloud measurement unit and the image capturing unit. there,
As shown in FIG. 5, the spatial resolution of the point cloud data is adjusted to be the same scale as the image data acquired by the image capturing unit (S201). Here, the adjustment of the scale may be performed on the image processing unit as long as the point cloud data and the image data have the same spatial resolution, or may be applied to both the point cloud data and the image data. If the point cloud data and the image data are designed to have the same spatial resolution, this scale adjustment (S201) is not necessary. After the scale adjustment (S201), the point cloud data and the image data are roughly adjusted based on the difference in the geometric arrangement between the point cloud measurement unit and the image capturing unit (S203). After the coarse adjustment (S203), detailed position matching is performed at the common feature points in both the
図2には形状データを取得する際の相補的統合フローを示したが、点群計測法の不得手な表面粗さ等の点群計測法の精度以下の微小凹凸の計測については、図1のレンズ122と2次元カメラ123の画素サイズで決まる分解能が着目する微小凹凸が十分捕捉できる高さに設定し、画像を取得する。
図2にはCADデータを用いて点群計測する領域を算出する方法を示したが、図6に示す取得した点群データとCADデータとの比較結果を用いて2次元画像を用いる領域を決定する方法でも、2次元画像との相補的統合が可能である。試料の形状計測を行う領域を設定し(S300),点群計測を行う(S301)。試料のCADデータ(S302)を入力し、(S301)にて計測した点群とを位置合わせして対応点同士の距離を算出する(S303)。この照合には、点群の照合に広く用いられているICP(Itarative Closest Point)法等を用いる。ICP法では、ここで、計測した点群とCADデータの各対応点間の距離の平均を取り、この平均値があるしきい値と比較を行う(S304)。しきい値以上の領域は、点群計測センサの精度が保証されないので、2次元カメラにて撮像し(S305)、撮像された画像から形状データを推定する(S306)。点群計測センサの点群と画像より推測した形状データの位置情報を照合し(S307)、所望の形状データを取得する(S308)。実際の計測結果とCADを比較し、点群計測結果の使用可否を決定するため、図2に示したフローでは不可能な点群計測におけるはずれ値を除去することができ、計測の精度が向上する。なお、各対応点間の距離の平均と比較するしきい値は、検査対象である形状不良や表面凹凸等よりも大きな値を設定する。
FIG. 2 shows a complementary integration flow when acquiring shape data. For measurement of minute irregularities below the accuracy of the point cloud measurement method such as surface roughness which is not good for the point cloud measurement method, FIG. The resolution determined by the pixel size of the
FIG. 2 shows a method for calculating a region for point cloud measurement using CAD data, but the region for using a two-dimensional image is determined using the comparison result between the acquired point cloud data and CAD data shown in FIG. In this way, complementary integration with a two-dimensional image is possible. An area for measuring the shape of the sample is set (S300), and point cloud measurement is performed (S301). The CAD data (S302) of the sample is input, and the distance between corresponding points is calculated by aligning with the point group measured in (S301) (S303). For this collation, an ICP (Irative Closest Point) method widely used for collation of point clouds is used. In the ICP method, the distance between the measured point group and each corresponding point in the CAD data is averaged, and the average value is compared with a certain threshold value (S304). Since the accuracy of the point cloud measurement sensor is not guaranteed for the area above the threshold value, it is imaged with a two-dimensional camera (S305), and shape data is estimated from the captured image (S306). The point cloud of the point cloud measurement sensor and the position information of the shape data estimated from the image are collated (S307), and the desired shape data is acquired (S308). Compare actual measurement results with CAD to determine whether or not to use point cloud measurement results, so outliers in point cloud measurement that are not possible with the flow shown in FIG. 2 can be removed, improving measurement accuracy To do. Note that the threshold value to be compared with the average of the distances between corresponding points is set to a value larger than the shape defect or surface unevenness to be inspected.
ここまで述べた図2と図6の方式では、形状データの復元に点群データもしくは画像データのどちらかを取得していたが、両方のデータを取得しておき、形状計測においてエッジや鋭角部は画像データを用いて、それ以外は点群データを用いてもよい。また、表面凹凸の検査には画像データを用いてもよい。図7に、点群データと画像データの両方をCADデータ比較前に取得する計測のフローを示す。試料の形状計測を行う領域を設定し(S400),設定した領域に対し点群計測を行い(S401)、さらに画像も撮像する(S402)。計測後にCADデータを読み込み(S403)、試料の面と点群計測センサとの傾きβが点群計測センサの特性で決まるしきい値以下もしくは以上を判定し(S404),点群計測が可能な面の領域を明らかにする。しきい値以下の領域については点群計測センサにて計測した形状データを採用し(S406)、しきい値以上の領域では画像の陰影より形状データを算出する(S405)。そして、点群計測データと画像より算出した形状データを位置合わせし(S407)、形状データを出力する(S408)。点群データと画像データの両方をCADデータ比較前に取得する場合、点群データと画像データを位置合わせする際には重複部分が必要となり、両方のデータを全領域にわたって取得するため、データ量は増加するが、重複部分の不足は発生しない。従って、点群データと画像データの両方をCADデータ比較前に取得することで、点群データと画像データのうち、精度の高いデータを使用することができ、計測の精度をさらに向上させることができる。 In the methods shown in FIGS. 2 and 6 described so far, either point cloud data or image data is acquired to restore the shape data. However, both of the data are acquired and an edge or an acute angle portion is measured in the shape measurement. May use image data, otherwise point cloud data may be used. Further, image data may be used for the inspection of surface irregularities. FIG. 7 shows a measurement flow in which both point cloud data and image data are acquired before CAD data comparison. An area for measuring the shape of the sample is set (S400), point cloud measurement is performed on the set area (S401), and an image is also taken (S402). After the measurement, the CAD data is read (S403), and it is determined whether the inclination β between the sample surface and the point group measurement sensor is equal to or less than the threshold value determined by the characteristics of the point group measurement sensor (S404). Clarify the surface area. The shape data measured by the point cloud measurement sensor is adopted for the area below the threshold (S406), and the shape data is calculated from the shadow of the image in the area above the threshold (S405). Then, the point cloud measurement data and the shape data calculated from the image are aligned (S407), and the shape data is output (S408). When both point cloud data and image data are acquired before CAD data comparison, an overlapping portion is required when aligning the point cloud data and image data, and both data are acquired over the entire area. Will increase, but there will be no shortage of overlap. Therefore, by acquiring both the point cloud data and the image data before the CAD data comparison, it is possible to use highly accurate data out of the point cloud data and the image data, and further improve the measurement accuracy. it can.
(不良定量化)
形状不良を定量化するため、計測した形状と基準となる形状とを定量的に比較する。基準となる形状として、理想形状であるCADデータ、もしくは試料自身の類似性を利用し算出した平均的な自己参照形状データ、複数個の同形状の試料の平均形状データのいずれか、もしくは複数種を用いる。各形状データの導出方法および不良定量化方法、組み合わせについて以下に記述する。
(Defect quantification)
In order to quantify the shape defect, the measured shape is quantitatively compared with the reference shape. As a reference shape, either CAD data that is an ideal shape, average self-reference shape data calculated using the similarity of the sample itself, average shape data of a plurality of samples of the same shape, or a plurality of types Is used. The method for deriving each shape data, the method for quantifying the defect, and the combination will be described below.
CADデータを用いる場合は、測定した形状データとCADデータとの差分をとり、その差分値を形状不良値として出力する。 When CAD data is used, the difference between the measured shape data and CAD data is taken and the difference value is output as a shape defect value.
試料自身の類似性を利用した自己参照形状データの導出方法および自己参照形状データを用いた形状不良定量化について説明する。図8は測定対象である試料の例として6枚羽の羽根車170を示している。6枚の羽170a〜170fは同一の形状を持つ。図1の検査装置に羽根車中心軸1701とy軸が一致するよう搭載し、y軸中心にサーボモータ103で回転させながら、点群計測センサ131および2次元カメラ123にて前述した方法にて形状・表面データを取得する。自己参照形状データの導出フローを図9に示す。図1の検査装置にて形状・表面データを取得し(S501)、形状・表面データ中から類似性を認識する(S502)。羽根車170の形状を表す波形を図10に示す。図10(a)に各羽170a〜170fの波形のプロファイル171a〜171fは設計上は同一のプロファイルを示す。これらプロファイル171a〜171fの類似性の認識は、手動で装置操作者が行ってもよいし、パターン認識技術に基づき自動認識してもよい。同形状部分が3つ以上ある場合、それらの統計的な平均値より自己参照形状データ171を算出する(S503)。統計的な平均値は、自己参照形状データから形状不良や表面凹凸不良の影響を除去するために、メディアンにて算出したり、最大値と最小値を省き平均値にて算出したりする。ここで、形状不良や表面凹凸不良が生じる確率が低いことを想定している。この自己参照形状データ171と各プロファイル171a〜171fとの位置合わせし(S504)、図10(b)に示すようにそれらの差分を算出し(S505)、その差分値を形状不良値として出力する(S506)。試料自身の類似性を利用するため、CADデータがなくても形状不良を定量化できる。
A method for deriving self-reference shape data using the similarity of the sample itself and shape defect quantification using the self-reference shape data will be described. FIG. 8 shows a six-
次に、複数個の同形状の試料の平均形状データの導出方法および平均形状データを用いた形状不良定量化について説明する。平均形状データの導出フローを図11に示す。図1の検査装置にて形状・表面データを取得し(S601)する。羽根車170の形状を表す波形を図12に示す。図12(a)に羽根車をn回計測したときのそれぞれの全体のプロファイル172a〜170nを示す。これらプロファイルの統計的な平均値より平均形状データ172を算出する(S602)。統計的な平均値は、平均形状データから形状不良や表面凹凸不良の影響を除去するために、メディアンにて算出したり、最大値と最小値を省き平均値にて算出したりする。ここで、形状不良や表面凹凸不良が生じる確率が低いことを想定している。この平均形状データ172と各プロファイル172a〜171nとを位置合わせし(S603)、図12(b)に示すようにそれらの差分を算出し(S604)、その差分値を形状不良値として出力する(S605)。自己参照形状データは、試料自身に類似性がないと利用できない。一方、平均形状データは複数の試料から形状データを導出するため、CADデータがなく、類似性もない試料についても比較検査が可能となる。
Next, a method for deriving the average shape data of a plurality of samples having the same shape and quantification of the shape defect using the average shape data will be described. The derivation flow of average shape data is shown in FIG. The shape / surface data is acquired by the inspection apparatus of FIG. 1 (S601). A waveform representing the shape of the
次に、CADデータ、自己参照形状データ、平均形状データの3つの基準となる形状データを組み合わせた形状不良定量化について説明する。平均形状データを算出するには試料の個数が足りないときには、図13に示すように、自己参照形状データとCADデータを用いて形状不良を定量化する。形状・表面凹凸データを図1の装置にて計測し(S701)、類似性の有無を判定する(S702)。前述したとおり、類似性の認識は、手動で装置操作者が行ってもよいし、パターン認識技術に基づき自動認識してもよい。類似性がない場合には、測定した形状データとCADデータとの差分をとり、その差分値を形状不良値として出力する(S703)。類似性がある場合には、類似部は図9に示すフローに従い自己参照形状データとの差分値を算出し(S704)、非類似部はCADデータとの差分を算出するし(S705)、形状不良値を出力する(S706)。 Next, a description will be given of shape defect quantification combining three standard shape data: CAD data, self-reference shape data, and average shape data. When the number of samples is insufficient to calculate the average shape data, the shape defect is quantified using self-reference shape data and CAD data, as shown in FIG. The shape / surface unevenness data is measured by the apparatus of FIG. 1 (S701), and the presence or absence of similarity is determined (S702). As described above, similarity recognition may be performed manually by the apparatus operator, or may be automatically recognized based on a pattern recognition technique. If there is no similarity, the difference between the measured shape data and CAD data is taken and the difference value is output as a shape defect value (S703). If there is similarity, the similar part calculates a difference value from the self-reference shape data according to the flow shown in FIG. 9 (S704), and the dissimilar part calculates a difference from the CAD data (S705). A defective value is output (S706).
平均データが算出できる場合には、図14に示すように、自己参照形状データと平均形状データを用いて形状不良を定量化する。形状・表面凹凸データを図1の装置にて計測し(S801)、類似性の有無を判定する(S802)。前述したとおり、類似性の認識は、手動で装置操作者が行ってもよいし、パターン認識技術に基づき自動認識してもよい。類似性がない場合には、図11に示すフローに従い、測定した形状データと平均形状データとの差分をとり、その差分値を形状不良値として出力する(S803)。類似性がある場合には、類似部は図9に示すフローに従い自己参照形状データとの差分値を算出し(S804)、非類似部は平均形状データとの差分を算出し(S805)、形状不良値を出力する(S806)。 When the average data can be calculated, as shown in FIG. 14, the shape defect is quantified using the self-reference shape data and the average shape data. The shape / surface unevenness data is measured by the apparatus of FIG. 1 (S801), and the presence or absence of similarity is determined (S802). As described above, similarity recognition may be performed manually by the apparatus operator, or may be automatically recognized based on a pattern recognition technique. If there is no similarity, the difference between the measured shape data and the average shape data is taken according to the flow shown in FIG. 11, and the difference value is output as a shape defect value (S803). If there is similarity, the similar part calculates a difference value from the self-reference shape data according to the flow shown in FIG. 9 (S804), and the dissimilar part calculates a difference from the average shape data (S805) A defective value is output (S806).
試料表面の凹凸などの欠陥検出を行う際、2次元カメラ画像にて撮像された試料表面の正常部と欠陥部の特徴量の違いから欠陥を検出してもよい。特徴量とは、画像の特徴を表すもので高次局所自己相関(Hihger Order Local Autocolleration:HLAC)特徴量等がある。本発明においては、2次元カメラの位置、照明の位置、および試料の傾きも特徴量として用いる。図15に示す2次元カメラ123の位置は単位ベクトルI301および照明121の位置は単位ベクトルS302、直交座標系における試料の傾きは、点群計測センサにて計測した結果を用い、例えば、点群中の隣接する3点にて形成される三角パッチ303の法線ベクトル304を試料の傾きを表す特徴量として用いる。CADデータがあり、表面凹凸のみを検査する場合は、法線ペクトル304の導出にCADデータを用いてもよい。2次元カメラ123により得られる画像は、照明121の位置、2次元カメラ123の位置、試料の傾きに依存するため、画像の特徴のみではなく、これらを特徴として用いることで、欠陥部305と正常部をより正確に判別することができる。また、試料の形状により生じる遮蔽部306を算出することができ、影による輝度の低下による画像の特徴の変化も考慮し、欠陥部305と正常部をより正確に判別することができる。
When detecting defects such as irregularities on the sample surface, the defect may be detected from the difference in the feature quantity between the normal portion and the defective portion of the sample surface captured by the two-dimensional camera image. The feature amount represents the feature of the image, and includes a higher-order local autocorrelation (HLAC) feature amount. In the present invention, the position of the two-dimensional camera, the position of illumination, and the tilt of the sample are also used as the feature amount. The position of the two-
図16にフロー図を示す。2次元カメラにて試料の画像を計測する(S1001)。2次元カメラで取得した画像の各画素(もしくは周辺の複数画素から平滑化処理等を施し求めた値)について、25次元のHLAC特徴、照明位置、2次元カメラ位置、試料の法線ベクトルの値を特徴量として算出する(S1002)。次に、正常部と欠陥部を教示し、特徴量空間にて正常部と欠陥部を判別する境界を決定する(S1003)。境界を決定するにはSupport Vector Machine(SVM)等を用いる。最後に、(S1003)で算出した境界を用いて欠陥部を抽出する(S1004)。なお、(S1002)にて決定する境界は、検査前にサンプルを用いて決定しておいてもよい。 FIG. 16 shows a flowchart. An image of the sample is measured with a two-dimensional camera (S1001). 25-dimensional HLAC features, illumination positions, 2-dimensional camera positions, and sample normal vector values for each pixel (or a value obtained by performing smoothing processing or the like from a plurality of peripheral pixels) acquired with a 2-dimensional camera Is calculated as a feature amount (S1002). Next, the normal part and the defective part are taught, and the boundary for discriminating between the normal part and the defective part in the feature amount space is determined (S1003). To determine the boundary, Support Vector Machine (SVM) or the like is used. Finally, a defective part is extracted using the boundary calculated in (S1003) (S1004). Note that the boundary determined in (S1002) may be determined using a sample before inspection.
(製品の加工精度判定)
図1の3次元形状検査装置では、形状不良を定量化した後、その形状不良値が、試料が加工品である場合にはその出来栄えを製品の性能を指標として、試料が加工工具である場合には加工精度を指標として良否判定結果を出力する。
(Product processing accuracy judgment)
In the three-dimensional shape inspection apparatus of FIG. 1, after quantifying the shape defect, if the shape defect value is a processed product, the performance is indicated by the product performance as an index, and the sample is a processing tool. Outputs a pass / fail judgment result using the machining accuracy as an index.
図17から図19にて穴あけ加工工具の例を示す。図17のフローにて検査手順を説明する。工具の形状を表すパラメータを指定する(S901)。この例では、図18の穴あけ加工工具の先端の磨耗面積180と、先端の刃先の角度181を評価パラメータとする。次に前述の方式により、試料である穴あけ加工工具の形状を計測し、CADデータ、自己参照形状データ、もしくは平均形状データのいずれかと比較し、形状不良値を定量化する(S902)。そして、形状の違いを距離で示した形状不良値から磨耗面積や刃先の角度を計算する(S903)。この磨耗面積や刃先の角度が、加工結果に与える影響を、過去の実験結果および加工シミュレーション結果から見積もる。穴あけ工具の性能を決める穴の深さおよび真円度と、磨耗面積180および刃先の角度181の関係を過去の実験結果および加工シミュレーション結果と関連付けたデータベースを用意し、磨耗面積に応じた穴の深さ、真円度を見積もる(S904)。また、使用回数による磨耗面積の増大、刃先の角度の変化も推測し、残りの使用回数も算出しておく。さらに、穴あけ加工工具のOK,NG判定を行うため、あらかじめ穴の深さと真円度に代表される形状異常にしきい値を設定しておき、許容値との大小を判定する(S905)。許容値を超えた場合はNG判定を出力する(s906)。許容値以内の場合はOK判定およびデータベースより推定した残りの使用回数を出力する(S907).加工工具の場合は、加工に付随して発生する切りくずの形状から、加工工具の状態を推定することも可能であり、図17の手法をそのまま適用できる。図19に検査条件を入力、結果を出力するGUIを示す。GUIは検査装置に搭載されているモニタ141に表示される。検査領域、加工への影響度として深さや真円度の許容値を入力値とし、測定結果である刃先傾き、磨耗面積、それらから導出した加工への影響度の推定値を出力する。また、最終的な判定値を検査結果191として出力する。
An example of a drilling tool is shown in FIGS. The inspection procedure will be described with reference to the flow of FIG. A parameter representing the shape of the tool is designated (S901). In this example, the
本実施例によれば、点群計測データおよび2次元カメラ画像を相補的に用いることにより、点群計測データおよび2次元カメラ画像それぞれのみを用いた場合よりも高精度な3次元形状計測を実現することができる。 According to the present embodiment, the point cloud measurement data and the two-dimensional camera image are used in a complementary manner, thereby realizing three-dimensional shape measurement with higher accuracy than when only the point cloud measurement data and the two-dimensional camera image are used. can do.
また、試料自身の類似性を活用し生成した自己参照形状データを用いることで、設計データなしの形状不良定量化が可能となる。 Further, by using self-reference shape data generated by utilizing the similarity of the sample itself, it is possible to quantify the shape defect without design data.
また、形状不良を、加工品、加工工具が使用される際の性能を基準とした良否判定、良否程度の把握を行うことで、製品の品質・歩留まり予測。加工工具の劣化・磨耗状態と、加工精度低下を考慮した寿命予測等の管理が可能となる。 In addition, the quality and yield of products can be predicted by determining the quality based on the performance when using processed products and processing tools, and grasping the degree of quality. It is possible to manage the life prediction and the like considering the deterioration / wearing state of the machining tool and the reduction of machining accuracy.
本発明の第2の実施例を図20を用いて説明する。装置構成を図20に示す。基本的な構成は実施例1と同様であり、図1の2次元カメラ123に替えて反射光の偏光状態を解析可能な偏光カメラ200を用い、照明部121に替えてリング照明系201を用いている。偏光カメラは各画素の前に微小な偏光子が貼り付けられており、4画素で1グループとし、グループ内の4画素はそれぞれ偏光子の方位が異なる。試料1より反射しくてる光の偏光状態は、面の方向によって異なることが知られており、4画素で得られた異なる偏光情報を統合することで、面の方向を検出することができる。偏光情報を用いることで、通常の画像では識別が困難なシミなどの色の変化があったとしても高い精度で面の方向を決定することができる。また、偏光情報はキズ等の微小凹凸に対する応答性も高く、表面凹凸も効果的に顕在化できる。
A second embodiment of the present invention will be described with reference to FIG. The apparatus configuration is shown in FIG. The basic configuration is the same as that of the first embodiment. The
これまで説明してきた実施例は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。また、実施例1、2を組み合わせることにより本発明を実施してもよい。 The embodiments described so far are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention is not limitedly interpreted by these. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof. Further, the present invention may be implemented by combining the first and second embodiments.
1・・・試料
101、102・・・保持機構
103・・・サーボモータ
104・・・モータコントローラ
105・・・ベース
106・・・xステージ
107・・・yステージ
108・・・θステージ
109・・・ステージコントローラ
110・・・防振定盤
120・・・画像撮像部
121・・・照明部
122・・・レンズ
123・・・2次元カメラ
124・・・カメラコントローラ
130・・・点群計測部
131・・・点群計測センサ
132・・・センサコントローラ
140・・・制御用PC
141・・・モニタ
142・・・CADデータ
143・・・データベース
144・・・入力装置
160・・・点群データ上の1点
161・・・点群データ特徴点
162・・・画像データ特徴点
170・・・羽根車
1701・・・羽根車中心軸
170a、170b、170c、170d、170e、170f・・・羽
170・・・自己参照形状データ
171a、171b、171c、171d、171e、171f・・・プロファイル
180・・・磨耗面積
181・・・刃先の角度
190・・・GUI
191・・・検査結果
200・・・偏光カメラ
201・・・リング照明系
301・・・2次元カメラ方向の単位ベクトル
302・・・照明方向の単位ベクトル
303・・・三角メッシュ
304・・・法線ベクトル
305・・・欠陥
306・・・遮蔽部
1401・・・相補的統合部
1402・・・不良定量化部
1403・・・判定部
DESCRIPTION OF SYMBOLS 1 ...
141 ...
191 ...
Claims (14)
前記参照データから第1の形状データを取得する領域を特定する領域特定部と、
前記領域特定部で特定した領域について前記第1の形状データを取得する第1の3次元形状センサと、
前記領域特定部で特定した領域以外の領域について前記検査対象の前記第1の形状データとは異なる第2の形状データを取得する第2の3次元形状センサと、
前記第1の形状データと前記第2の形状データとを統合する相補的統合部とを備えることを特徴とする3次元形状検査装置。 A storage unit that stores reference data that is shape data of a reference model to be inspected;
An area specifying unit for specifying an area for acquiring the first shape data from the reference data;
A first three-dimensional shape sensor that acquires the first shape data for the region specified by the region specifying unit;
A second three-dimensional shape sensor that acquires second shape data different from the first shape data of the inspection object for a region other than the region specified by the region specifying unit;
A three-dimensional shape inspection apparatus comprising: a complementary integration unit that integrates the first shape data and the second shape data.
前記参照データから第1の形状データを取得する領域を特定し、
特定した領域について前記第1の形状データを取得し、
前記特定した領域以外の領域について前記検査対象の前記第1の形状データとは異なる第2の形状データを取得し、
前記第1の形状データと前記第2の形状データとを統合することを特徴とする3次元形状検査方法。 Read the reference data that is the shape data of the reference model to be inspected,
Specify the area from which the first shape data is obtained from the reference data,
Obtaining the first shape data for the identified region;
Obtaining second shape data different from the first shape data of the inspection object for an area other than the specified area;
3. A three-dimensional shape inspection method, wherein the first shape data and the second shape data are integrated.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011232468A JP5913903B2 (en) | 2011-10-24 | 2011-10-24 | Shape inspection method and apparatus |
CN201280052260.2A CN104024793B (en) | 2011-10-24 | 2012-10-24 | Shape inspection method and device |
PCT/JP2012/077386 WO2013061976A1 (en) | 2011-10-24 | 2012-10-24 | Shape inspection method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011232468A JP5913903B2 (en) | 2011-10-24 | 2011-10-24 | Shape inspection method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013088414A true JP2013088414A (en) | 2013-05-13 |
JP5913903B2 JP5913903B2 (en) | 2016-04-27 |
Family
ID=48532439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011232468A Active JP5913903B2 (en) | 2011-10-24 | 2011-10-24 | Shape inspection method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5913903B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015034711A (en) * | 2013-08-07 | 2015-02-19 | 株式会社東芝 | Three-dimensional data processing apparatus, three-dimensional data processing method, and three-dimensional data processing program |
JP2016527475A (en) * | 2013-05-27 | 2016-09-08 | カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー | Method and apparatus for generating at least one virtual image of a measurement object |
JP2020046326A (en) * | 2018-09-20 | 2020-03-26 | 株式会社Screenホールディングス | Three-dimensional shape measuring device and three-dimensional shape measuring method |
JP2021025220A (en) * | 2019-07-31 | 2021-02-22 | 株式会社大林組 | Roughness evaluation device for construction joint surface and roughness evaluation system for construction joint surface |
WO2022070309A1 (en) * | 2020-09-30 | 2022-04-07 | 株式会社ニコン | Machining system and display device |
JP2022079494A (en) * | 2020-01-15 | 2022-05-26 | Dmg森精機株式会社 | Image processing device, machine tool and image processing method |
JP2022541674A (en) * | 2019-09-17 | 2022-09-26 | ボストン ポーラリメトリックス,インコーポレイティド | Systems and methods for surface modeling using polarization cues |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12131236B2 (en) * | 2018-07-12 | 2024-10-29 | Servicenow Canada Inc. | System and method for detecting similarities |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005122706A (en) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Shape diagnosing device, shape diagnosis method and program thereof |
JP2005215917A (en) * | 2004-01-29 | 2005-08-11 | Hitachi Plant Eng & Constr Co Ltd | Working drawing creation support method and replacement model creation method |
JP2006098152A (en) * | 2004-09-29 | 2006-04-13 | Dainippon Screen Mfg Co Ltd | Apparatus and method for detecting defect |
JP2007333462A (en) * | 2006-06-13 | 2007-12-27 | Yokohama Rubber Co Ltd:The | Tire mold member inspection method, tire mold member inspection system, and inspection method for mold member manufacturing process accuracy |
JP2009058459A (en) * | 2007-09-03 | 2009-03-19 | Nikon Corp | Profile measuring system |
JP2010160135A (en) * | 2008-12-09 | 2010-07-22 | Toshiba Corp | Method for measuring three-dimensional shape of connection assembly of stator coil in turbine generator, and fixture for three-dimensional shape measuring device |
JP2011175600A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Recognition apparatus and method thereof, and computer program |
-
2011
- 2011-10-24 JP JP2011232468A patent/JP5913903B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005122706A (en) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Shape diagnosing device, shape diagnosis method and program thereof |
JP2005215917A (en) * | 2004-01-29 | 2005-08-11 | Hitachi Plant Eng & Constr Co Ltd | Working drawing creation support method and replacement model creation method |
JP2006098152A (en) * | 2004-09-29 | 2006-04-13 | Dainippon Screen Mfg Co Ltd | Apparatus and method for detecting defect |
JP2007333462A (en) * | 2006-06-13 | 2007-12-27 | Yokohama Rubber Co Ltd:The | Tire mold member inspection method, tire mold member inspection system, and inspection method for mold member manufacturing process accuracy |
JP2009058459A (en) * | 2007-09-03 | 2009-03-19 | Nikon Corp | Profile measuring system |
JP2010160135A (en) * | 2008-12-09 | 2010-07-22 | Toshiba Corp | Method for measuring three-dimensional shape of connection assembly of stator coil in turbine generator, and fixture for three-dimensional shape measuring device |
JP2011175600A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Recognition apparatus and method thereof, and computer program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016527475A (en) * | 2013-05-27 | 2016-09-08 | カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー | Method and apparatus for generating at least one virtual image of a measurement object |
JP2015034711A (en) * | 2013-08-07 | 2015-02-19 | 株式会社東芝 | Three-dimensional data processing apparatus, three-dimensional data processing method, and three-dimensional data processing program |
JP2020046326A (en) * | 2018-09-20 | 2020-03-26 | 株式会社Screenホールディングス | Three-dimensional shape measuring device and three-dimensional shape measuring method |
JP2021025220A (en) * | 2019-07-31 | 2021-02-22 | 株式会社大林組 | Roughness evaluation device for construction joint surface and roughness evaluation system for construction joint surface |
JP7398613B2 (en) | 2019-07-31 | 2023-12-15 | 株式会社大林組 | Joint surface roughness evaluation device and joint surface roughness evaluation system |
JP2022541674A (en) * | 2019-09-17 | 2022-09-26 | ボストン ポーラリメトリックス,インコーポレイティド | Systems and methods for surface modeling using polarization cues |
JP7273250B2 (en) | 2019-09-17 | 2023-05-12 | ボストン ポーラリメトリックス,インコーポレイティド | Systems and methods for surface modeling using polarization cues |
US11699273B2 (en) | 2019-09-17 | 2023-07-11 | Intrinsic Innovation Llc | Systems and methods for surface modeling using polarization cues |
JP2022079494A (en) * | 2020-01-15 | 2022-05-26 | Dmg森精機株式会社 | Image processing device, machine tool and image processing method |
JP7253088B2 (en) | 2020-01-15 | 2023-04-05 | Dmg森精機株式会社 | Image processing device, machine tool and image processing method |
WO2022070309A1 (en) * | 2020-09-30 | 2022-04-07 | 株式会社ニコン | Machining system and display device |
Also Published As
Publication number | Publication date |
---|---|
JP5913903B2 (en) | 2016-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5913903B2 (en) | Shape inspection method and apparatus | |
WO2013061976A1 (en) | Shape inspection method and device | |
JP5676387B2 (en) | Appearance inspection method and apparatus | |
JP6506731B2 (en) | System and method for scoring clutter used for 3D point cloud matching in vision system | |
JP2013186100A (en) | Shape inspection method and device | |
US20120072170A1 (en) | Vision measurement probe and method of operation | |
CN107462587B (en) | Precise visual inspection system and method for concave-convex mark defects of flexible IC substrate | |
WO2014136490A1 (en) | Shape examination method and device therefor | |
JP5385703B2 (en) | Inspection device, inspection method, and inspection program | |
WO2014205385A1 (en) | Wafer inspection using free-form care areas | |
US10360684B2 (en) | Method and apparatus for edge determination of a measurement object in optical metrology | |
CN109716495B (en) | Method and system for optical measurement of opening size in wafer | |
EP3789728B1 (en) | Thread shape measuring apparatus and measuring method | |
CN111784684A (en) | Laser-assisted transparent product internal defect depth setting detection method and device | |
JP2006010392A (en) | Through hole measuring system, method, and through hole measuring program | |
JP6040215B2 (en) | Inspection method | |
US11168976B2 (en) | Measuring device for examining a specimen and method for determining a topographic map of a specimen | |
JP7353757B2 (en) | Methods for measuring artifacts | |
JPWO2016031364A1 (en) | Manufacturing method of parts, manufacturing apparatus using the same, volume measuring method | |
Su et al. | Measuring wear of the grinding wheel using machine vision | |
TW201534424A (en) | Tool inspection method and tool inspection device | |
JP7153514B2 (en) | 3D shape inspection device, 3D shape inspection method, 3D shape inspection program, computer | |
Bračun et al. | A method for surface quality assessment of die-castings based on laser triangulation | |
TW201809592A (en) | Automated 3-D measurement | |
Gupta et al. | Vision-Based Precision Deburring and Edge Breaking Process Quality Control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150818 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160404 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5913903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |