JP2009270984A - Position detecting device, position detecting program, and position detecting method - Google Patents
Position detecting device, position detecting program, and position detecting method Download PDFInfo
- Publication number
- JP2009270984A JP2009270984A JP2008122951A JP2008122951A JP2009270984A JP 2009270984 A JP2009270984 A JP 2009270984A JP 2008122951 A JP2008122951 A JP 2008122951A JP 2008122951 A JP2008122951 A JP 2008122951A JP 2009270984 A JP2009270984 A JP 2009270984A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- image
- unit
- position detection
- transparent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manufacturing Of Magnetic Record Carriers (AREA)
- Manufacturing Optical Record Carriers (AREA)
- Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
透明部材の位置を非接触で検出する技術に関する。より具体的には,カメラなどの画像入力手段で透明部材を撮影し、取得した画像に画像処理を施すことで計測対象の中心位置や大きさに関わるパラメータを検出する位置検出装置、位置検出プログラム、位置検出方法に関する。 The present invention relates to a technique for detecting the position of a transparent member in a non-contact manner. More specifically, a position detection device and a position detection program that detect a parameter related to the center position and size of a measurement target by photographing a transparent member with an image input unit such as a camera and performing image processing on the acquired image. The present invention relates to a position detection method.
磁性膜形成装置において、基板を大気中から真空装置へセッティングする際、基板落下を防止するため基板を真空装置内に配置されたホルダに正確に把持させる必要がある。基板とホルダの位置ずれを非接触で計測するには、画像センサが有効である。 In the magnetic film forming apparatus, when the substrate is set from the atmosphere to the vacuum apparatus, it is necessary to accurately hold the substrate by a holder disposed in the vacuum apparatus in order to prevent the substrate from falling. An image sensor is effective for measuring the positional deviation between the substrate and the holder in a non-contact manner.
HDD(ハードディスクドライブ)の磁性膜を形成する基板材料には、主にアルミあるいはガラスが使用される。画像センサで基板の位置を検出する際、アルミ基板の場合はシルエット形状によるパターンマッチングが可能であるが、ガラス基板は光を透過するため、シルエットが形成されずパターンマッチングを適用することができない。特に近年においては、アルミよりもより剛性が強く、平滑性が優れているガラス基板が主流となってきている為、パターンマッチングの適用が出来ないことは生産性の低下を招く為、より深刻な問題となってきている。 Aluminum or glass is mainly used as a substrate material for forming a magnetic film of an HDD (Hard Disk Drive). When the position of the substrate is detected by the image sensor, pattern matching based on a silhouette shape is possible in the case of an aluminum substrate, but since a glass substrate transmits light, a silhouette is not formed and pattern matching cannot be applied. Particularly in recent years, glass substrates that are stronger and smoother than aluminum have become the mainstream, and the fact that pattern matching cannot be applied causes a decline in productivity, which is more serious. It has become a problem.
また従来技術として、透明部材を画像処理で検出するには、透明部材の背面から照明をあて、または正面から光をあてその反射光を利用することで部材のエッジを検出し、位置を検出する手法が開示されている。また透明なウェハを回転させエッジ位置を検出する手法、さらに、Oリング形状の対象物の外周内周それぞれのバリや欠損を2重円形ウィンドウにて検出する手法が開示されている。 In addition, as a conventional technique, in order to detect a transparent member by image processing, the edge of the member is detected by illuminating from the back of the transparent member or using light reflected from the front and detecting the position. A technique is disclosed. Also disclosed are a method for detecting the edge position by rotating a transparent wafer, and a method for detecting burrs and defects on the outer periphery and inner periphery of an O-ring shaped object with a double circular window.
しかしながら、背景が変化する場合や、複数の基板があり奥側の基板のエッジも抽出されてしまう場合、さらに輪郭のエッジが途切れていたりする場合にはエッジの検出に失敗する。 However, when the background changes, when there are a plurality of substrates and the edge of the back substrate is also extracted, and when the edge of the contour is further interrupted, the edge detection fails.
上述した問題点を解決するため、部材の背景が変化する等でノイズが生じたり、複数の基板があり奥側の基板のエッジも抽出され、また部材輪郭のエッジが途切れる等でエッジが不完全であったりしても、透明部材のエッジ形状を認識し、透明部材の位置を検出することができる位置検出装置、位置検出プログラム、位置検出方法を提供することを目的とする。 In order to solve the above-mentioned problems, noise occurs due to changes in the background of the member, the edges of the substrate on the back side are extracted because there are multiple substrates, and the edge of the member outline is interrupted, resulting in incomplete edges Even if it is, it aims at providing the position detection apparatus which can recognize the edge shape of a transparent member, and can detect the position of a transparent member, a position detection program, and a position detection method.
位置検出装置は、面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得部と、前記画像取得部によって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得部と、前記領域取得部によって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出部と、前記エッジ抽出部によって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択部と、前記エッジ選択部によって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出部と、を備える。 The position detection device captures an image acquired from the vertical direction of the surface with respect to a plurality of transparent members arranged so that the surfaces face each other, and an image acquired by the image acquisition unit. An area acquisition unit that acquires an area including at least the contours of each of the plurality of transparent members, an edge extraction unit that extracts edges of the plurality of transparent members from the area acquired by the area acquisition unit, An edge selection unit that selects an edge of a predetermined transparent member among the plurality of transparent members from edges extracted by the edge extraction unit, and the edge of the predetermined transparent member based on the edge selected by the edge selection unit A position calculation unit that calculates a position.
また、位置検出プログラムは、面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、をコンピュータに実行させる。 In addition, the position detection program includes an image acquisition step for acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other, and an image acquired by the image acquisition step. An area acquisition step of acquiring an area including at least the contours of each of the plurality of transparent members imaged; an edge extraction step of extracting edges of the plurality of transparent members from the area acquired by the area acquisition step; , An edge selection step for selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step, and the predetermined transparent based on the edge selected by the edge selection step And causing the computer to execute a position calculating step of calculating the position of the member.
さらに、位置検出方法は、面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、を実行する。 Further, the position detection method includes an image acquisition step of acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other, and an image acquired by the image acquisition step. An area acquisition step of acquiring an area including at least the contours of each of the plurality of transparent members imaged; an edge extraction step of extracting edges of the plurality of transparent members from the area acquired by the area acquisition step; , An edge selection step for selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step, and the predetermined transparent based on the edge selected by the edge selection step And a position calculating step for calculating the position of the member.
透明部材を撮像した画像上に、ノイズがあったりエッジが不完全であったりしても透明部材の形状を認識し、透明部材の位置を検出可能することができる。 Even if there is noise or an incomplete edge on the image of the transparent member, the shape of the transparent member can be recognized and the position of the transparent member can be detected.
(実施の形態1)
実施の形態1における位置検出装置を図1に示す。尚、実施の形態1では、検出対象は例えばHDDに用いられるガラス基板を始め、CDやDVD等で使用される円形ドーナツ状の透明基板(透明部材)であるものとする。また実施の形態1では、撮像するカメラに対し最前の透明基板の位置(中心位置)を検出するものとする。
(Embodiment 1)
A position detection apparatus according to
位置検出装置1は、画像入力部2(画像取得部)、画像処理部3、入力された画像等を表示するディスプレイ4を備える。また位置検出装置1は、数値入力等、ユーザからの入力を受け付ける手段であるキーボード5、透明基板を撮像するカメラ6を備える。
The
画像入力部2は、キーボード5、ディスプレイ4、カメラ6と接続され、これらの入出力されるデータを制御する入出力制御部14を備える。また、画像入力部2は、入出力制御部14の入出力を含め、位置検出装置1内の全てのデータの入出力を制御する制御部15を備える。画像入力部2は、入出力制御部14および制御部15を用いてカメラ6から一定のサンプリング時間間隔(例えば、33ms)で送出される画像を取得し、画像処理部3に取得した画像を送る。尚、実施の形態1では、画像入力部2はカメラ6から画像を取得するものとしたが、例えばビデオやDVDなどのメデイアから取得してもよく、またハードディスク上に格納されている動画ファイルを取得してもよい。
The
画像入力部2によって入力される画像は、例えば横640画素×縦480画素の矩形であり、1つの画素に、カラー画像の場合は赤成分(R)、緑成分(G)、青成分(B)の階調値が与えられる。尚、白黒画像の場合は1つの画素に明るさの階調値(輝度)が与えられる。例えば整数i、jで示される座標(i,j)の画素の赤成分(R)、緑成分(G)、青成分(B)、輝度(I)の階調値は、それぞれディジタル値R(i,j)、G(i,j)、B(i,j)、I(i,j)などで与えられる。尚、本実施の形態では、計算で使用する画素値には輝度(白黒濃淡値)を用いるが、Rのみ、Gのみ、Bのみ、またはRGBの組み合わせ、更にRGB値を変換して求まる他の表色系(HSV表色系、YUV表色系など)を使用しても良い。
An image input by the
ここで、図2に、透明基板の撮像の配置状態および撮像される透明基板の画像例を示す。図2(a)のように面が互いに向き合うように連なって配置された2枚の透明基板を、基板正面に対し垂直方向から撮像すると、手前の基板の円周が大きく、奥の基板の円周が小さく撮像される。すなわち、図2(b)にて示すような画像が得られる。尚、実施の形態1では透明基板同士の間隔は10mm程度とするが、後述するエッジ抽出の際に各エッジが交差しない程度の距離が確保されていればよい。 Here, FIG. 2 shows an arrangement state of imaging of the transparent substrate and an image example of the transparent substrate to be imaged. As shown in FIG. 2A, when two transparent substrates arranged so that their surfaces face each other are imaged from the direction perpendicular to the front surface of the substrate, the circumference of the front substrate is large, and the circle of the back substrate is large. The circumference is taken small. That is, an image as shown in FIG. 2B is obtained. In the first embodiment, the distance between the transparent substrates is about 10 mm. However, it is only necessary to ensure a distance that does not allow the edges to intersect at the time of edge extraction described later.
説明を図1の構成図に戻す。画像処理部3は、ROI(Region of Interest)設定部10(領域取得部)、エッジ抽出部11、最適エッジ選択部12(エッジ選択部)、位置算出部13を備える。尚、画像処理部3内の各ユニットは、記憶媒体であるメモリ102に予め格納されたプログラムとCPU(Central Processing Unit)101およびメモリ102等のハードウェア資源とが協働することで実現される。
The description returns to the configuration diagram of FIG. The
ROI設定部10は、手動あるいは自動で、画像上の2枚の透明基板それぞれの輪郭を少なくとも含んだドーナツ状のROI(領域)を取得し、画像にROIを設定する。図3にROIの設定例を示す。ROIが設定され、ROI内のみが処理対象となることで、処理時間が短縮されるとともに、透明基板の背景が変化する等のノイズの影響が低減される。ROI設定部10は、ROIが手動で設定される場合、次のパラメータがユーザによってキーボード5から入力されることでROIの範囲を取得する。
(1)内周円、外周円の半径r1,r2
(2)内周円、外周円の中心座標(iROI,jROI)
The
(1) Inner and outer circle radii r1 and r2
(2) Center coordinates of inner circle and outer circle (i ROI , j ROI )
あるいは、位置検出装置1にマウスなどの入力装置が備えられている場合、ROI設定部10はユーザがディスプレイ4上に表示された画像に対し内周円、外周円を描画することでROIの範囲を取得してもよい。尚、設定するROIの大きさは、基板の位置がずれた場合でも、基板の外郭がROI領域から外れない程度に設定するものとする。
Alternatively, when the
説明を図1の構成図に戻す。エッジ抽出部11は、ROIが設定された画像に対して、2枚の透明基板に対するエッジ抽出処理を施す。画像中の明暗差を利用してエッジを抽出するには様々な方法があるが、実施の形態1では典型的なエッジ抽出方法であるSobelフィルタを採用する。Sobelフィルタでは、着目している画素(i,j)の上下左右3×3画素から成る行列と、下記の行列との積fA,fBを算出し、
図4に、エッジ抽出部11によって抽出されたエッジ画像の例を示す。尚、実施の形態1では上下左右の3×3画素に基づきエッジ抽出処理を施すが、態様を限定するものではなく、例えば5×5画素、7×7画素であってもよい。
FIG. 4 shows an example of an edge image extracted by the
説明を図1の構成図に戻す。最適エッジ選択部12は、エッジ抽出部11によって抽出されたエッジから、カメラ6に対し最前の透明基板のエッジ(最適なエッジ)を選択する。図4では、手前の基板のエッジと奥の基板のエッジが分離されておらず、抽出されたエッジがどちらの基板に含まれるのかが不明である。そこで、最適エッジ選択部12は、ROIを徐々に絞り込むことで手前の基板のエッジのみ抽出する。
The description returns to the configuration diagram of FIG. The optimum
ここで、最適エッジ選択部12の処理の詳細を説明する。まず、抽出した全エッジ上の点列(Xn,Yn)を用いて、最小二乗法による近似処理(以下、必要に応じ円フィッティングと称す)を実施する(n=1,・・・,N)。求める円の中心、半径を(iC,jC)、rCとすると、円の式は次式となる。
次に、最適エッジ選択部12は、上述の円フィッティング処理で求めた円を基準とし、ドーナツ状のROIを再設定する。つまり、次のような内周円、外周円となるROIを設定する。
内周円・・・中心座標:(iC,jC)、半径:rC−L1
外周円・・・中心座標:(iC,jC)、半径:rC+L2
ここで、L2>L1>0
Next, the optimum
Inner circumference circle: center coordinates: (i C , j C ), radius: r C -L 1
Peripheral circle: center coordinates: (i C , j C ), radius: r C + L 2
Here, L 2 > L 1 > 0
位置検出装置1は、再設定したROIを用いて、エッジ抽出処理および円フィッティング処理を上述同様に再度実行する。このように、L2をL1よりも大きく設定することで、基準円(半径rC)の内側のエッジを除外し、外側のエッジを抽出するようなエッジ抽出が可能となる(図6)。逆に、L2<L1とすることで、外側のエッジを除外し、内側のエッジを抽出することが可能となる。
The
位置検出装置1は、上述の処理を所定回数k回実行したときに、算出される円フィッッティングの結果の半径rC (K)と、k−1回目の半径rC (K-1)の差分を計算する。差分がしきい値rTH以下である場合、抽出されたエッジを最適エッジ(撮像位置から最前の基板のエッジ)とみなす。
説明を図1の構成図に戻す。位置算出部13は、最適エッジを抽出するときに求めた円フィッティングの中心位置を、手前の基板の中心位置とみなす。
(iC (K),jC (K))
The description returns to the configuration diagram of FIG. The
(I C (K) , j C (K) )
上述の各ユニットによる一連の処理が完了し、次のサンプリング時刻になるとカメラ6は次フレーム画像を撮像する。基板位置が変化しない場合は、次フレーム画像に対するROIの設定値として、上述した値を用いることができる。すなわち、次のフレーム画像に対し、以下のようにROIが設定される。
内周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)−L1
外周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)+L2
L2>L1>0
尚、基板位置が変化する場合は、基板画像がROIから外れないようにROIを大きめに設定する。
内周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)−L3
外周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)+L4
L3>L1,L4>L2
通常は,検出誤差などを考慮して、ROIを大きめに設定すると良い。このように検出した基板位置(iC (K),jC (K))を用いてROIを自動的に設定すると、手動でのROI設定は先頭フレーム画像に対してのみ実施すればよいので作業負荷を低減することができる。
When a series of processes by each unit described above is completed and the next sampling time is reached, the
Inner circumference: center coordinates: (i C (K) , j C (K) ), radius: r C (K) −L 1
Peripheral circle: center coordinates: (i C (K) , j C (K) ), radius: r C (K) + L 2
L 2 > L 1 > 0
When the substrate position changes, the ROI is set to be large so that the substrate image does not deviate from the ROI.
Inner circumference: center coordinates: (i C (K) , j C (K) ), radius: r C (K) −L 3
Peripheral circle: center coordinates: (i C (K) , j C (K) ), radius: r C (K) + L 4
L 3 > L 1 , L 4 > L 2
Normally, it is better to set a larger ROI in consideration of detection errors and the like. When the ROI is automatically set using the substrate position (i C (K) , j C (K) ) detected in this way, manual ROI setting only needs to be performed for the first frame image. The load can be reduced.
また、エッジ抽出部11で抽出された基板のエッジが途切れているなど、エッジ画素数が少ない場合、検出された中心位置と半径の信頼性が低い可能性がある。そこで、位置検出装置1は、下記の判定基準に満たない場合は検出結果を採用しないように処理する。前サンプリング時に、判定基準を満たしたときの円周の長さlを半径rC (K)から計算する。
N<l×pTH ・・・ 判定基準を満たさない。
N≧l×pTH ・・・ 判定基準を満たす。
In addition, when the number of edge pixels is small, such as when the edge of the substrate extracted by the
N <l × p TH: Does not meet the criteria.
N ≧ l × p TH・ ・ ・ Meets the criteria.
次に、実施の形態1における位置検出装置1の処理を図8のフローチャートを参照しつつ説明する。
Next, the process of the
カメラ6は、2枚の連なった透明基板の撮影を開始する(ステップS1)。カメラ6は、所定のサンプリング周期の間隔で透明基板の面に対し垂直方向から撮像する。
The
画像入力部2は、カメラ6が撮像したサンプリング周期でのフレーム画像を取得する(ステップS2)。
The
ROI設定部3は、透明基板のそれぞれの輪郭を少なくとも含んだ領域となるように、ROIの内周円、外周円の中心位置と半径を取得する(ステップS3)。尚、位置検出装置1が起動した直後の初回の処理に限り、キーボード5を介してROIの内周円、外周円の中心位置と半径がユーザによって入力される。
The
またROI設定部3は、画像入力部2で取得されたフレーム画像から、ステップS3によって取得されたROIをフレーム画像に設定する(ステップS4)。
The
エッジ抽出部11は、設定されたROIに対して上述のエッジ抽出処理を適用する(ステップS5)。
The
最適エッジ選択部12は、抽出されたエッジの全点列(Xn,Yn)を取得し(ステップS6)、点列(Xn,Yn)を用いて上述の円フィッティングを実施することで基準円を算出する(ステップS7)。
The optimum
最適エッジ選択部12は、基準円の中心座標(iC (K),jC (K))、および半径rC (K)を算出する(ステップS8)。
The optimum
最適エッジ選択部12は、半径rC (K)と、k−1回目の半径rC (K-1)の差分を計算する(ステップS9)。差分がしきい値rTH以上である場合(ステップS9、N)、ROIの内周円と外周円を以下のように再設定し、処理はステップS3へ戻る(ステップS10)。
内周円・・・中心座標:(iC (K),jC (K))、半径:rC (K)−L1
外周円・・・中心座標:(iC (K),jC (K))、半径:rC (K)+L2
また、ステップS3においては、ROI設定部10はステップS10によって算出された中心座標および半径をROIの範囲として取得する。
The
Inner circumference: center coordinates: (i C (K) , j C (K) ), radius: r C (K) −L 1
Peripheral circle: center coordinates: (i C (K) , j C (K) ), radius: r C (K) + L 2
In step S3, the
尚、最適エッジ選択部12は、ステップS10からステップS3へループするごとに、L1、L2の値を徐々に小さくすることで、ROIの範囲をさらに絞り込むことができる。
The optimum
一方、差分がしきい値rTHより小さい場合(ステップS9、Y)、最適エッジ選択部12はエッジを形成する点の総数Nが円周長さの一定の割合pTHに到達しているか否かを判定する(ステップS11)。判定基準を満たさない場合(ステップS11、N)、最適エッジ選択部12はROIの内周円と外周円を前サンプリング時の算出結果を基に再設定し(ステップS12)、処理は次のフレーム画像の取得(ステップS2)へと遷移する。
On the other hand, when the difference is smaller than the threshold value r TH (step S9, Y), the optimum
一方、判定基準を満たす場合(ステップS11、Y)、位置算出部13は基板の中心位置(iC (K),jC (K))を検出する(ステップS13)。その後、位置算出部13はROIの内周円と外周円を以下のように設定し、処理は次のフレーム画像の取得(ステップS2)へと遷移する。
内周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)−L3
外周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)+L4
尚、次のフレーム画像に対するステップS3は、ROI設定部10はステップS14によって算出された内周円、外周円の中心座標および半径をROIの範囲として取得する。
On the other hand, when the determination criterion is satisfied (step S11, Y), the
Inner circumference: center coordinates: (i C (K) , j C (K) ), radius: r C (K) −L 3
Peripheral circle: center coordinates: (i C (K) , j C (K) ), radius: r C (K) + L 4
In step S3 for the next frame image, the
上述の各ステップが、カメラ6にて撮像されたフレーム画像分実行される。
The above steps are executed for the frame image captured by the
上述のフローチャートでは、円フィッティングの結果を取得しL1、L2を用いてROIを再設定した後、ROI設定部10、エッジ抽出部11による処理へループするようにしたが、ROIを再設定した後、位置算出部13による処理の前までは最適エッジ選択部12によって実施されてもよい。
In the above flowchart, after obtaining the result of the circle fitting and resetting the ROI using L 1 and L 2 , the process loops to the
(実施の形態2)
実施の形態1での最適エッジ選択部12は、判定基準を満たすまでROIの再設定、エッジ抽出および最小二乗法による近似を繰り返し行うことで、最適エッジ(撮像位置に対し最前の透明基板のエッジ)を算出したが、実施の形態2の最適エッジ選択部12は、ライン走査によって最適エッジを選択する。尚、実施の形態2においても位置検出装置1の構成は実施の形態1と同様であるため、ここでの説明は省略する(図1参照)。また、検出対象、撮像の配置等、各条件も実施の形態1と同様であるため、ここでの説明は省略する(図2参照)。
(Embodiment 2)
The optimum
ここで、ライン走査によって最適エッジを選択する方法を、図9を参照しつつ説明する。エッジ抽出部11で抽出されたエッジについて、連続しているエッジの点列を(X(m)n,Y(m)n)と表記する。尚、mは第m番目のエッジに含まれていることを示し、nは第m番目のエッジの中の第n番目の点であることを示す。また、以下の説明では垂直ラインで走査するときの処理方法を示すが、水平ラインで走査する場合も同様の手順で処理することができる。
Here, a method of selecting the optimum edge by line scanning will be described with reference to FIG. For the edges extracted by the
垂直ラインを、画像の左端(i=0)から右端(i=imax)まで走査する。垂直ラインがiのとき、垂直ラインと交差するエッジmとの交点の座標は、
(i,Y(m)n)
である。最適エッジ選択部12は、全エッジとの交点座標の中で、y座標の最大値と最小値を算出し、対応するエッジ番号を、上部最外周エッジ候補、下部最外周エッジ候補に登録(メモリ102に保持)する。例えば図9において、垂直ラインがi=i1のとき、最大値、最小値はそれぞれ
max{Y(1)n,・・・,Y(m)n}=Y(1)n
min{Y(1)n,・・・,Y(m)n}=Y(1)n
となる。尚、max{ },min{ }は、それぞれ最大値、最小値を算出する演算子である。従って、上部最外周エッジ候補、下部最外周エッジ候補に、m=1を登録する。
上部最外周エッジ候補[1]
下部最外周エッジ候補[1]
A vertical line is scanned from the left edge (i = 0) to the right edge (i = imax) of the image. When the vertical line is i, the coordinates of the intersection with the edge m intersecting the vertical line are
(I, Y (m) n)
It is. The optimum
min {Y (1) n,..., Y (m) n} = Y (1) n
It becomes. Note that max {} and min {} are operators for calculating the maximum value and the minimum value, respectively. Therefore, m = 1 is registered in the upper outermost peripheral edge candidate and the lower outermost peripheral edge candidate.
Upper outermost edge candidate [1]
Lower outermost edge candidate [1]
同様に、図9において垂直ラインがi=i2のとき、
max{Y(1)n,・・・,Y(m)n}=Y(3)n
min{Y(1)n,・・・,Y(m)n}=Y(3)n
となり、最適エッジ選択部12は新たに求められた最大値と最小値に対応するエッジ番号3を登録する。
上部最外周エッジ候補[1,3]
下部最外周エッジ候補[1,3]
Similarly, when the vertical line in FIG. 9 is i = i 2 ,
max {Y (1) n,..., Y (m) n} = Y (3) n
min {Y (1) n,..., Y (m) n} = Y (3) n
Thus, the optimum
Upper outermost edge candidate [1,3]
Lower outermost edge candidate [1,3]
更に、図9において垂直ラインがi=i3のとき、
max{Y(1)n,・・・,Y(m)n}=Y(2)n
min{Y(1)n,・・・,Y(m)n}=Y(4)n
となる。このとき、第3番目のエッジ(m=3のエッジ)も垂直ラインi3と交差するが、最大値、最小値のいずれにも該当しない。この場合、最適エッジ選択部12は、上部最外周エッジ候補、下部最外周エッジ候補から3を削除し、新たに算出された最大値と最小値に対応するエッジ番号を登録する。
上部最外周エッジ候補[1,2]
下部最外周エッジ候補[1,4]
Furthermore, in FIG. 9, when the vertical line is i = i 3 ,
max {Y (1) n,..., Y (m) n} = Y (2) n
min {Y (1) n,..., Y (m) n} = Y (4) n
It becomes. At this time, the third edge (m = 3 edge) also intersects the vertical line i 3 , but does not correspond to either the maximum value or the minimum value. In this case, the optimum
Upper outermost edge candidate [1,2]
Lower outermost peripheral edge candidate [1, 4]
上述の処理を繰り返すことで、最外周エッジのみを抽出することができる。図9の抽出結果は次のようになる。
上部最外周エッジ候補[1,2,5]
下部最外周エッジ候補[1,4,9]
上部最外周エッジ候補、下部最外周エッジ候補に最終的に登録されているエッジが最適エッジとなる。尚、図9のエッジの中から抽出された最適エッジは、図10のようになる。
By repeating the above processing, only the outermost peripheral edge can be extracted. The extraction result of FIG. 9 is as follows.
Upper outermost edge candidate [1, 2, 5]
Lower outermost peripheral edge candidate [1, 4, 9]
The edge finally registered in the upper outermost peripheral edge candidate and the lower outermost peripheral edge candidate is the optimum edge. The optimum edge extracted from the edges in FIG. 9 is as shown in FIG.
次に、実施の形態2における位置検出装置1の処理を図11のフローチャートを参照しつつ説明する。尚、図11のフローチャートでは、ライン走査によって最適エッジを選択する方法に加え、さらに円フィッティング処理も施すものとする。このようにすることで、より正確な基板の中心座標(iC,jC)、半径rCが求められる。
Next, processing of the
ステップS21からステップS25までは、実施の形態1と同様であるためここでの説明は省略する(図8のステップS1からステップS5までを参照)。 Steps S21 to S25 are the same as those in the first embodiment, and thus description thereof is omitted (see steps S1 to S5 in FIG. 8).
最適エッジ選択部12は、連続している各エッジの点列(X(m)n,Y(m)n)を取得する(ステップS26)。
The optimum
最適エッジ選択部12は、走査する垂直ラインの座標値iに、初期値0をセットする(ステップS27)。
The optimum
最適エッジ選択部12は、垂直ラインと交差する全エッジとの交点座標の中からy座標の最大値と最小値を算出する。(ステップS28)、また最適エッジ選択部12は、算出した最大値と最小値に対応するエッジ番号を、それぞれ上部最外周エッジ候補、下部最外周エッジ候補に登録する(ステップS29)。
The optimum
最適エッジ選択部12は、最大値、最小値以外のy座標に対応するエッジ番号が、上部最外周エッジ候補、下部最外周エッジ候補に登録されている場合は、そのエッジ番号の登録を抹消する(ステップS30)。
When the edge number corresponding to the y coordinate other than the maximum value and the minimum value is registered in the upper outermost edge candidate and the lower outermost edge candidate, the optimum
最適エッジ選択部12は、垂直ラインの座標値iに1を加える(ステップS31)。ここで、座標値iがimax(最右端)未満の場合(ステップS32、N)、ステップS28に処理が遷移し、座標値iがimaxに達するまでステップS28からステップS31の処理が繰り返される。
The optimum
一方、座標値iがimaxに達した場合(ステップS32、Y)、最適エッジ選択部12は上部最外周エッジ候補、下部最外周エッジ候補に登録されているエッジの点列(X(m)n,Y(m)n)を用いて、実施の形態1と同様に円フィッテングを実施する(ステップS33)。
On the other hand, when the coordinate value i has reached imax (step S32, Y), the optimum
最適エッジ選択部12は、実施の形態1のステップS8と同様処理にて中心座標(iC,jC)、および半径rCを算出する(ステップS34)。
The optimum
以降のステップS35からステップS38までの処理は、実施の形態1と同様であるためここでの説明は省略する(ステップS11からステップS14参照)。 Since the subsequent processing from step S35 to step S38 is the same as that of the first embodiment, description thereof will be omitted (see steps S11 to S14).
実施の形態1、実施の形態2とも、検出対象を円形ドーナツ状の透明基板としたが、形状を限定するものではない。例えば四角形基板でも適用可能である。
In both
位置検出装置を構成するコンピュータにおいて上述した各ステップを実行させるプログラムを、位置検出プログラムとして提供することができる。上述したプログラムは、コンピュータにより読取り可能な記録媒体に記憶させることによって、位置検出装置を構成するコンピュータに実行させることが可能となる。ここで、上記コンピュータにより読取り可能な記録媒体としては、ROMやRAM等のコンピュータに内部実装される内部記憶装置、CD−ROMやフレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータ並びにそのデータベースや、更に回線上の伝送媒体をも含むものである。 A program that causes a computer constituting the position detection apparatus to execute the above-described steps can be provided as a position detection program. By storing the above-described program in a computer-readable recording medium, the computer constituting the position detection device can be executed. Here, examples of the recording medium readable by the computer include an internal storage device such as a ROM and a RAM, a portable storage such as a CD-ROM, a flexible disk, a DVD disk, a magneto-optical disk, and an IC card. It includes a medium, a database holding a computer program, another computer and its database, and a transmission medium on a line.
(付記1) 面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得部と、
前記画像取得部によって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得部と、
前記領域取得部によって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出部と、
前記エッジ抽出部によって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択部と、
前記エッジ選択部によって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出部と、
を備える位置検出装置。
(付記2) 付記1に記載の位置検出装置において、
前記エッジ選択部は、前記エッジ抽出部によって抽出されたエッジに基づき、基準となる形状を算出し、該形状に基づき前記領域取得部によって取得された領域の範囲をさらに絞り込むことで前記所定の透明部材のエッジを選択することを特徴とする位置検出装置。
(付記3) 付記2に記載の位置検出装置において、
前記エッジ選択部は、前記エッジ抽出部によって抽出された全てのエッジを最小二乗法によって近似することで、前記基準となる形状を算出することを特徴とする位置検出装置。
(付記4) 付記1に記載の位置検出装置において、
前記所定の透明部材が撮像位置に対し最前の透明部材である場合、前記エッジ選択部は、前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最大値または最小値となるエッジを求め、該エッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出装置。
(付記5) 付記4に記載の位置検出装置において、
前記エッジ選択部は、
前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最大値となるエッジを第1エッジ候補として登録し、
走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最小値となるエッジを第2エッジ候補として登録し、
走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最大値または最小値でないエッジが前記第1エッジ候補または前記第2エッジ候補として登録されている場合、該エッジの登録を抹消し、
第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録されたエッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出装置。
(付記6) 付記5に記載の位置検出装置において、
前記エッジ選択部は、さらに、第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録された全てのエッジを最小二乗法によって近似した形状を、前記所定の透明部材のエッジとして選択することを特徴とする位置検出装置。
(付記7) 面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、
前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、
前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、
前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、
をコンピュータに実行させる位置検出プログラム。
(付記8) 付記7に記載の位置検出プログラムにおいて、
前記エッジ選択ステップは、前記エッジ抽出ステップによって抽出されたエッジに基づき、基準となる形状を算出し、該形状に基づき前記領域取得部によって取得された領域の範囲をさらに絞り込むことで前記所定の透明部材のエッジを選択することを特徴とする位置検出プログラム。
(付記9) 付記8に記載の位置検出プログラムにおいて、
前記エッジ選択ステップは、前記エッジ抽出ステップによって抽出された全てのエッジを最小二乗法によって近似することで、前記基準となる形状を算出することを特徴とする位置検出プログラム。
(付記10) 付記7に記載の位置検出プログラムにおいて、
前記所定の透明部材が撮像位置に対し最前の透明部材である場合、前記エッジ選択ステップは、前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値または最小値となるエッジを求め、該エッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出プログラム。
(付記11) 付記10に記載の位置検出プログラムにおいて、
前記エッジ選択ステップは、
前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値となるエッジを第1エッジ候補として登録し、
走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最小値となるエッジを第2エッジ候補として登録し、
走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値または最小値でないエッジが前記第1エッジ候補または前記第2エッジ候補として登録されている場合、該エッジの登録を抹消し、
第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録されたエッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出プログラム。
(付記12) 付記11に記載の位置検出プログラムにおいて、
前記エッジ選択ステップは、さらに、第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録された全てのエッジを最小二乗法によって近似した形状を、前記所定の透明部材のエッジとして選択することを特徴とする位置検出プログラム。
(付記13)
面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、
前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、
前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、
前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、
を実行する位置検出方法。
(付記14) 付記13に記載の位置検出方法において、
前記エッジ選択ステップは、前記エッジ抽出ステップによって抽出されたエッジに基づき、基準となる形状を算出し、該形状に基づき前記領域取得部によって取得された領域の範囲をさらに絞り込むことで前記所定の透明部材のエッジを選択することを特徴とする位置検出方法。
(付記15) 付記14に記載の位置検出方法において、
前記エッジ選択ステップは、前記エッジ抽出ステップによって抽出された全てのエッジを最小二乗法によって近似することで、前記基準となる形状を算出することを特徴とする位置検出方法。
(付記16) 付記13に記載の位置検出方法において、
前記所定の透明部材が撮像位置に対し最前の透明部材である場合、前記エッジ選択ステップは、前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値または最小値となるエッジを求め、該エッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出方法。
(付記17) 付記16に記載の位置検出方法において、
前記エッジ選択ステップは、
前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値となるエッジを第1エッジ候補として登録し、
走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最小値となるエッジを第2エッジ候補として登録し、
走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値または最小値でないエッジが前記第1エッジ候補または前記第2エッジ候補として登録されている場合、該エッジの登録を抹消し、
第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録されたエッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出方法。
(付記18) 付記17に記載の位置検出方法において、
前記エッジ選択ステップは、さらに、第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録された全てのエッジを最小二乗法によって近似した形状を、前記所定の透明部材のエッジとして選択することを特徴とする位置検出方法。
(Additional remark 1) The image acquisition part which acquires the image imaged from the perpendicular | vertical direction of the said surface with respect to the several transparent member arrange | positioned so that a surface may face each other,
An area acquisition unit for acquiring an area including at least the contours of each of the plurality of transparent members captured in the image acquired by the image acquisition unit;
An edge extraction unit that extracts edges of the plurality of transparent members from the region acquired by the region acquisition unit;
An edge selection unit that selects an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction unit;
A position calculating unit that calculates the position of the predetermined transparent member based on the edge selected by the edge selecting unit;
A position detection device comprising:
(Supplementary note 2) In the position detection device according to
The edge selection unit calculates a reference shape based on the edge extracted by the edge extraction unit, and further narrows down the range of the region acquired by the region acquisition unit based on the shape, thereby the predetermined transparent A position detecting device for selecting an edge of a member.
(Supplementary note 3) In the position detection device according to
The position detection device, wherein the edge selection unit calculates the reference shape by approximating all edges extracted by the edge extraction unit by a least square method.
(Additional remark 4) In the position detection apparatus of
When the predetermined transparent member is the frontmost transparent member with respect to the imaging position, the edge selection unit scans a horizontal or vertical line of the image, and a scan line and an edge extracted by the edge extraction unit are detected. A position detection apparatus characterized by obtaining an edge having an intersection point coordinate having a maximum value or a minimum value, and selecting the edge as an edge of the predetermined transparent member.
(Additional remark 5) In the position detection apparatus of
The edge selector is
Scan a horizontal or vertical line of the image, register an edge where the intersection coordinate between the scanning line and the edge extracted by the edge extraction unit is the maximum value as a first edge candidate,
Register an edge at which the intersection coordinate between the scanning line and the edge extracted by the edge extraction unit is the minimum value as a second edge candidate,
When an edge whose intersection coordinate between a scanning line and the edge extracted by the edge extraction unit is not the maximum value or the minimum value is registered as the first edge candidate or the second edge candidate, the registration of the edge is deleted. ,
Edges registered as the first edge candidate and the second edge candidate when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all the scanning lines of the image. The position detecting device is selected as an edge of the predetermined transparent member.
(Supplementary note 6) In the position detection device according to
The edge selection unit further performs the first edge candidate registration, the second edge candidate registration, and the edge deregistration processing on the scanning lines of all the images when the first edge candidate and the second edge candidate are registered. A position detection apparatus, wherein a shape obtained by approximating all edges registered as edge candidates by a least square method is selected as an edge of the predetermined transparent member.
(Supplementary Note 7) An image acquisition step of acquiring images captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition step of acquiring an area including at least the outline of each of the plurality of transparent members captured in the image acquired by the image acquisition step;
An edge extraction step of extracting edges of the plurality of transparent members from within the region acquired by the region acquisition step;
An edge selection step of selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step;
A position calculating step for calculating a position of the predetermined transparent member based on the edge selected by the edge selecting step;
Position detection program that causes a computer to execute.
(Supplementary note 8) In the position detection program according to
The edge selection step calculates a reference shape based on the edge extracted by the edge extraction step, and further narrows down the range of the region acquired by the region acquisition unit based on the shape, thereby the predetermined transparent A position detection program for selecting an edge of a member.
(Supplementary note 9) In the position detection program according to
The position selecting program calculates the reference shape by approximating all the edges extracted by the edge extracting step by a least square method.
(Supplementary note 10) In the position detection program according to
When the predetermined transparent member is the transparent member that is the frontmost with respect to the imaging position, the edge selection step scans a horizontal or vertical line of the image, and a scan line and an edge extracted by the edge extraction step are A position detection program characterized by obtaining an edge having an intersection point coordinate having a maximum value or a minimum value and selecting the edge as an edge of the predetermined transparent member.
(Supplementary note 11) In the position detection program according to
The edge selection step includes:
Scan a horizontal or vertical line of the image, register an edge where the intersection coordinate between the scanning line and the edge extracted by the edge extraction step is a maximum value as a first edge candidate,
Register an edge having a minimum intersection coordinate between the scanning line and the edge extracted by the edge extraction step as a second edge candidate;
If an edge whose intersection coordinates between the scanning line and the edge extracted by the edge extraction step are not the maximum value or the minimum value is registered as the first edge candidate or the second edge candidate, the registration of the edge is deleted. ,
Edges registered as the first edge candidate and the second edge candidate when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all the scanning lines of the image. A position detection program that selects an edge of the predetermined transparent member.
(Supplementary note 12) In the position detection program according to
In the edge selection step, the first edge candidate and the second edge candidate are registered when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all scanning lines of the image. A position detection program that selects, as an edge of the predetermined transparent member, a shape obtained by approximating all edges registered as edge candidates by a least square method.
(Appendix 13)
An image acquisition step of acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition step of acquiring an area including at least the outline of each of the plurality of transparent members captured in the image acquired by the image acquisition step;
An edge extraction step of extracting edges of the plurality of transparent members from within the region acquired by the region acquisition step;
An edge selection step of selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step;
A position calculating step for calculating a position of the predetermined transparent member based on the edge selected by the edge selecting step;
Position detection method to execute.
(Supplementary note 14) In the position detection method according to
The edge selection step calculates a reference shape based on the edge extracted by the edge extraction step, and further narrows down the range of the region acquired by the region acquisition unit based on the shape, thereby the predetermined transparent A position detection method comprising selecting an edge of a member.
(Supplementary note 15) In the position detection method according to
The position detection method characterized in that the edge selection step calculates the reference shape by approximating all edges extracted by the edge extraction step by a least square method.
(Supplementary note 16) In the position detection method according to
When the predetermined transparent member is the transparent member that is the frontmost with respect to the imaging position, the edge selection step scans a horizontal or vertical line of the image, and a scan line and an edge extracted by the edge extraction step A position detection method characterized in that an edge having a maximum or minimum intersection coordinate is obtained and the edge is selected as an edge of the predetermined transparent member.
(Supplementary note 17) In the position detection method according to supplementary note 16,
The edge selection step includes:
Scan a horizontal or vertical line of the image, register an edge where the intersection coordinate between the scanning line and the edge extracted by the edge extraction step is a maximum value as a first edge candidate,
Register an edge having a minimum intersection coordinate between the scanning line and the edge extracted by the edge extraction step as a second edge candidate;
If an edge whose intersection coordinate between the scanning line and the edge extracted by the edge extraction step is not the maximum value or the minimum value is registered as the first edge candidate or the second edge candidate, the registration of the edge is deleted. ,
Edges registered as the first edge candidate and the second edge candidate when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all the scanning lines of the image. A position detecting method comprising selecting the edge of the predetermined transparent member.
(Supplementary note 18) In the position detection method according to supplementary note 17,
In the edge selection step, the first edge candidate and the second edge candidate are registered when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all scanning lines of the image. A position detection method, wherein a shape obtained by approximating all edges registered as edge candidates by the least square method is selected as an edge of the predetermined transparent member.
1 位置検出装置、2 画像入力部、3 画像処理部、4 ディスプレイ、5 キーボード、6 カメラ、10 ROI設定部、11 エッジ抽出部、12 最適エッジ選択部、13 位置算出部、14 入出力制御部、15 制御部、101 CPU、102 メモリ。
DESCRIPTION OF
Claims (6)
前記画像取得部によって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得部と、
前記領域取得部によって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出部と、
前記エッジ抽出部によって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択部と、
前記エッジ選択部によって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出部と、
を備える位置検出装置。 An image acquisition unit for acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition unit for acquiring an area including at least the contours of each of the plurality of transparent members captured in the image acquired by the image acquisition unit;
An edge extraction unit that extracts edges of the plurality of transparent members from the region acquired by the region acquisition unit;
An edge selection unit that selects an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction unit;
A position calculating unit that calculates the position of the predetermined transparent member based on the edge selected by the edge selecting unit;
A position detection device comprising:
前記エッジ選択部は、前記エッジ抽出部によって抽出されたエッジに基づき、基準となる形状を算出し、該形状に基づき前記領域取得部によって取得された領域の範囲をさらに絞り込むことで前記所定の透明部材のエッジを選択することを特徴とする位置検出装置。 The position detection device according to claim 1,
The edge selection unit calculates a reference shape based on the edge extracted by the edge extraction unit, and further narrows down the range of the region acquired by the region acquisition unit based on the shape, thereby the predetermined transparent A position detecting device for selecting an edge of a member.
前記エッジ選択部は、前記エッジ抽出部によって抽出された全てのエッジを最小二乗法によって近似することで、前記基準となる形状を算出することを特徴とする位置検出装置。 The position detection device according to claim 2,
The position detection device, wherein the edge selection unit calculates the reference shape by approximating all edges extracted by the edge extraction unit by a least square method.
前記所定の透明部材が撮像位置に対し最前の透明部材である場合、前記エッジ選択部は、前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最大値または最小値となるエッジを求め、該エッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出装置。 The position detection device according to claim 1,
When the predetermined transparent member is the frontmost transparent member with respect to the imaging position, the edge selection unit scans a horizontal or vertical line of the image, and a scan line and an edge extracted by the edge extraction unit are detected. A position detection apparatus characterized by obtaining an edge having an intersection point coordinate having a maximum value or a minimum value, and selecting the edge as an edge of the predetermined transparent member.
前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、
前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、
前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、
をコンピュータに実行させる位置検出プログラム。 An image acquisition step of acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition step of acquiring an area including at least the outline of each of the plurality of transparent members captured in the image acquired by the image acquisition step;
An edge extraction step of extracting edges of the plurality of transparent members from within the region acquired by the region acquisition step;
An edge selection step of selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step;
A position calculating step for calculating a position of the predetermined transparent member based on the edge selected by the edge selecting step;
Position detection program that causes a computer to execute.
前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、
前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、
前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、
を実行する位置検出方法。 An image acquisition step of acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition step of acquiring an area including at least the outline of each of the plurality of transparent members captured in the image acquired by the image acquisition step;
An edge extraction step of extracting edges of the plurality of transparent members from within the region acquired by the region acquisition step;
An edge selection step of selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step;
A position calculating step for calculating a position of the predetermined transparent member based on the edge selected by the edge selecting step;
Position detection method to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008122951A JP5304016B2 (en) | 2008-05-09 | 2008-05-09 | Position detection apparatus, position detection program, and position detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008122951A JP5304016B2 (en) | 2008-05-09 | 2008-05-09 | Position detection apparatus, position detection program, and position detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009270984A true JP2009270984A (en) | 2009-11-19 |
JP5304016B2 JP5304016B2 (en) | 2013-10-02 |
Family
ID=41437666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008122951A Expired - Fee Related JP5304016B2 (en) | 2008-05-09 | 2008-05-09 | Position detection apparatus, position detection program, and position detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5304016B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014052257A (en) * | 2012-09-06 | 2014-03-20 | Asahi Glass Co Ltd | Device for measuring shape of disk-shaped substrate and method thereof |
KR20140075042A (en) * | 2012-12-07 | 2014-06-19 | 엘지디스플레이 주식회사 | Apparatus for inspecting of display panel and method thereof |
JP2017228634A (en) * | 2016-06-22 | 2017-12-28 | 株式会社ディスコ | Wafer detection method for detecting outer peripheral position of wafer and processing apparatus capable of detecting outer peripheral position of wafer |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63128733U (en) * | 1987-02-16 | 1988-08-23 | ||
JPH07210654A (en) * | 1994-01-19 | 1995-08-11 | Matsushita Electric Ind Co Ltd | Circular pattern measuring and position recognizing device |
JPH07306009A (en) * | 1994-05-10 | 1995-11-21 | Casio Comput Co Ltd | Method for matching position of transparent substrate |
JPH0835813A (en) * | 1994-07-21 | 1996-02-06 | Olympus Optical Co Ltd | Shape measuring method and apparatus |
JPH10284576A (en) * | 1997-04-07 | 1998-10-23 | Mecs:Kk | Wafer conveyer |
JP2001091469A (en) * | 1999-09-21 | 2001-04-06 | Olympus Optical Co Ltd | Surface defect inspection device |
JP2004333177A (en) * | 2003-04-30 | 2004-11-25 | Ademakku:Kk | Method and apparatus for discriminating object to be inspected |
-
2008
- 2008-05-09 JP JP2008122951A patent/JP5304016B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63128733U (en) * | 1987-02-16 | 1988-08-23 | ||
JPH07210654A (en) * | 1994-01-19 | 1995-08-11 | Matsushita Electric Ind Co Ltd | Circular pattern measuring and position recognizing device |
JPH07306009A (en) * | 1994-05-10 | 1995-11-21 | Casio Comput Co Ltd | Method for matching position of transparent substrate |
JPH0835813A (en) * | 1994-07-21 | 1996-02-06 | Olympus Optical Co Ltd | Shape measuring method and apparatus |
JPH10284576A (en) * | 1997-04-07 | 1998-10-23 | Mecs:Kk | Wafer conveyer |
JP2001091469A (en) * | 1999-09-21 | 2001-04-06 | Olympus Optical Co Ltd | Surface defect inspection device |
JP2004333177A (en) * | 2003-04-30 | 2004-11-25 | Ademakku:Kk | Method and apparatus for discriminating object to be inspected |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014052257A (en) * | 2012-09-06 | 2014-03-20 | Asahi Glass Co Ltd | Device for measuring shape of disk-shaped substrate and method thereof |
CN103673919A (en) * | 2012-09-06 | 2014-03-26 | 旭硝子株式会社 | Shape measurement device of disk-like substrate, and method thereof |
KR20140075042A (en) * | 2012-12-07 | 2014-06-19 | 엘지디스플레이 주식회사 | Apparatus for inspecting of display panel and method thereof |
KR102009740B1 (en) | 2012-12-07 | 2019-08-13 | 엘지디스플레이 주식회사 | Apparatus for inspecting of display panel and method thereof |
JP2017228634A (en) * | 2016-06-22 | 2017-12-28 | 株式会社ディスコ | Wafer detection method for detecting outer peripheral position of wafer and processing apparatus capable of detecting outer peripheral position of wafer |
Also Published As
Publication number | Publication date |
---|---|
JP5304016B2 (en) | 2013-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021138995A1 (en) | Fully automatic detection method for checkerboard corners | |
US20210281748A1 (en) | Information processing apparatus | |
JP4373840B2 (en) | Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus | |
WO2017067342A1 (en) | Board card position detection method and apparatus | |
CN111292228B (en) | Lens defect detection method | |
JP2007285754A (en) | Flaw detection method and flaw detector | |
JP2009259036A (en) | Image processing device, image processing method, image processing program, recording medium, and image processing system | |
US8139861B2 (en) | Character extracting apparatus, method, and program | |
JP2020088647A (en) | Information processing device, information processing method, and program | |
KR101195917B1 (en) | Acquisition method of Tongue Diagnosis Region | |
US9094617B2 (en) | Methods and systems for real-time image-capture feedback | |
JP5304016B2 (en) | Position detection apparatus, position detection program, and position detection method | |
JP2005345290A (en) | Streak-like flaw detecting method and streak-like flaw detector | |
JP2006098217A (en) | Image inspection apparatus, image inspection method, and image inspection program | |
CN112285876A (en) | Camera automatic focusing method based on image processing and bubble detection | |
JP2981382B2 (en) | Pattern matching method | |
US20060010582A1 (en) | Chin detecting method, chin detecting system and chin detecting program for a chin of a human face | |
US5682440A (en) | Method of extracting pixels constituting intensity changes in an image and method of identifying collection of intensity changes | |
JP2007219899A (en) | Personal identification device, personal identification method, and personal identification program | |
JP2007285868A (en) | Luminance gradient detection method, flaw detection method, luminance gradient detector and flaw detector | |
JP2019100937A (en) | Defect inspection device and defect inspection method | |
JP2006133055A (en) | Unevenness defect detection method and device, spatial filter, unevenness defect inspection system, and program for unevenness defect detection method | |
TWI510776B (en) | Bubble inspection processing method for glass | |
JP4491922B2 (en) | Surface defect inspection method | |
JPH0624014B2 (en) | Gray image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120710 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130610 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |