[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5369563B2 - 形状測定装置 - Google Patents

形状測定装置 Download PDF

Info

Publication number
JP5369563B2
JP5369563B2 JP2008233494A JP2008233494A JP5369563B2 JP 5369563 B2 JP5369563 B2 JP 5369563B2 JP 2008233494 A JP2008233494 A JP 2008233494A JP 2008233494 A JP2008233494 A JP 2008233494A JP 5369563 B2 JP5369563 B2 JP 5369563B2
Authority
JP
Japan
Prior art keywords
image
objective lens
measurement
lens
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008233494A
Other languages
English (en)
Other versions
JP2010066155A (ja
Inventor
宗樹 浜島
篤 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008233494A priority Critical patent/JP5369563B2/ja
Publication of JP2010066155A publication Critical patent/JP2010066155A/ja
Application granted granted Critical
Publication of JP5369563B2 publication Critical patent/JP5369563B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、形状測定装置に関する。
対物レンズの光軸に沿って被検物を移動させながら焦点位置の異なる複数の画像を得て、被検物上の点各々について、それら複数の画像より合焦測度が最大となる画像を選択し、その画像での焦点位置をその点についての高さとし、これらの情報から被検物の形状測定を行うものが知られている。
これは、一般的に、SFF(Shape From Focus)といった手法である。
特許第2960684号公報
しかしながら、このような従来の技術では、対物レンズの光軸に沿って被検物を移動させながら画像を取得する必要があり、測定に時間がかかっていた。
本発明はこのような状況に鑑みてなされたものであり、対物レンズの光軸に沿って、被検物を移動することなく、被検物の形状を測定できるようにするものである。
本発明の一側面の形状測定装置は、対物レンズと、前記対物レンズの背後に2次元に配列された複数のレンズを有する光学素子と、前記光学素子の背後に配置された2次元の撮像素子と、前記対物レンズを光軸方向へ移動させるレンズ移動手段と、前記撮像素子の出力から焦点面の異なる複数の測定画像を生成する画像形成手段と、前記複数のレンズの各々に対応する前記撮像素子の撮像領域を構成する画素のうち前記対物レンズと前記光学素子との光学配置に応じた所定画素から得られる、全ての画素が合焦した基準画像、前記複数の測定画像との相関から求められる被検物の前記対物レンズの光軸方向の位置を用いて、前記被検物の3次元の形状を測定する3次元形状測定手段とを備えることを特徴とする。
前記3次元形状測定手段は、前記形状の測定の前提として、前記被検物の各測定点までの距離情報を求め、前記3次元形状測定手段により測定された距離情報に基づいて、前記被検物に焦点が合うように前記レンズ移動手段を制御する制御手段をさらに備えることを特徴とする。
前記距離情報は、前記基準画像と、前記複数の測定画像との相関から求められる前記被検物の前記光軸方向の位置に応じた、前記対物レンズから前記被検物までの距離に関する情報であることを特徴とする。
前記レンズ移動手段によって前記対物レンズを所定の間隔ごとにステップ移動させ、前記対物レンズが停止するごとに、前記画像形成手段に前記複数の測定画像の生成を指示する制御手段をさらに備えることを特徴とする。
前記ステップ移動の間隔は、前記被検物までの距離に応じて変化する測定感度が所定の範囲となるように定められることを特徴とする。
本発明の一側面によれば、対物レンズが光軸方向へ移動され、撮像素子の出力から焦点面の異なる複数の測定画像が生成され、複数のレンズの各々に対応する撮像素子の撮像領域を構成する画素のうち対物レンズと光学素子との光学配置に応じた所定画素から得られる、全ての画素が合焦した基準画像複数の測定画像との相関から求められる被検物の対物レンズの光軸方向の位置を用いて、被検物の3次元の形状が測定される。
本発明によれば、対物レンズの光軸に沿って、被検物を移動することなく、被検物の形状を測定できる。
以下、図面を参照しながら本発明の実施の形態について説明する。
本発明では、レンズを動かすことなく、複数の仮想的な物体面(Z1,Z2,・・・)からの(方向性を含む)ボケ量(以下、フォーカス情報ともいう)を算出し、さらに、ボケのない全焦点の画像も同時に得られるようにしている。これにより、本発明においては、それらの情報を用いた距離計測を行うことが可能となる。
具体的には、レンズと撮像面の間隔a(以下、レンズ位置aともいう)と、レンズの焦点距離fから、下記の式(1)のガウスの公式により、被検物の測定点までの距離bを知ることができる。
1/b=1/f−1/a・・・(1)
本発明による測定では、上記の機構的に決まるレンズ位置aとは別に、マイクロレンズアレイ(以下、MLAという)を通した撮像素子上の画素信号を組み換え、加算することにより、仮想的にレンズと撮像面の間隔a1,a2,a3,・・・,anを構築する。これらの値を、式(1)の値aに代入して得られる値bの値列が、複数の物体面(Z1,Z2,Z3,・・・Zn)の位置となる。すなわち、かかる測定においては、このような再構成により、異なる物体面から発せられた光線が撮像面に到達したとして、そのときの画像を再構成し、フォーカス情報を得ることができる。
このようにして、レンズの光軸に沿って被検物を移動することなく、従来のSFF法と同様の情報を得ることができる。
なお、このような焦点検出での位置は、MLAの数だけ実行できるので、被検物をどのくらい細かく測定できるか(空間分解能)は、MLAの配列構成によって決まる。つまり、MLAの数が多いほど、測定の空間分解能が高くなることになる。
次に、上記の原理を用いて、被検物の形状測定を行う形状測定装置の詳細について、各構成要素ごとに説明する。
[1.光学系]
まず、図1を参照して、本発明を適用した形状測定装置の光学系の概要について説明する。
図1に示すように、光学系は、対物レンズ11、MLA12、及び撮像素子13を含むようにして構成される。
図1には、図1aと図1bの2つの光学系の構成が図示されているが、図1aの構成では、被検物(物体面(P面))の像を捕らえる対物レンズ11の焦点距離だけ離れた位置にMLA12を置き、MLA12の焦点距離だけ離れた位置に撮像素子13が置かれている。図1aでは、この撮像素子13の撮像面が、物体面(P面)と共役になっており、被検物の像が結像している。
MLA12は、先述したMLAと同様に、例えば7×7個などの、複数のマイクロレンズ(以下、MLという)を2次元状に並べてなる光学素子である(図1では、縦方向の7個を図示している)。各MLで結像した像のできる領域、すなわち、ML領域13MLから得られる画像信号は、それぞれのML領域の位置に応じて被検物の異なる視点の画像、つまり、視差のある像となっている。
一方、図1bの構成では、所定の位置にある物体面Pが対物レンズ11で結像する面にMLA12を置き、MLの焦点距離だけ離れた位置に撮像素子13が置かれている。この場合、撮像素子13の面が、対物レンズ11の瞳面と共役になっており、各ML領域の画像信号は、瞳を分割した像となっている。言い換えると、図1bでは、結像された光線が、レンズ瞳から見て違う角度ごとの光線に振り分けられている。
本発明では、上記の図1a又は図1bのいずれの構成からも、違う角度からの光線を再構成することによって、焦点面の異なる複数の画像を得ることができ、それを利用して、被検物の形状の測定を行う。したがって、以下の説明では、図1aの構成を中心に述べるが、図1bの構成を採用しても同様である。
そこで、次に、図2及び図3を参照して、図1aの光学系のさらに詳細な構成について説明する。なお、図2においては、複数のMLからなるMLA12の一部としての、マイクロレンズMLa,マイクロレンズMLb,マイクロレンズMLcの3つのML(以下、それぞれ、MLa,MLb,MLcという)が説明のために図示されている。
図2において、物体面(P面)上の点P1からの光線には、光軸と平行方向の光(図中の実線)として対物レンズ11を通過後屈折して、MLbによって撮像素子13の撮像面上のML領域の点P1bに結像される光線群(図中の実線)や、対物レンズ11の中心を通過後、MLcによって、撮像素子13の撮像面上のML領域の点P1cに結像される光線群(図中の点線)などがある。
こうして、対物レンズ11の瞳面に置いた各MLが、撮像面にそれぞれ独立に物体の像を結ぶ。また、このとき、撮像面上のML領域の点P1bと、ML領域の点P1cとは、物体面(P面)上の同じ点P1からの、異なる角度で出てきた光線を受光する。
同様に、物体面(P面)上の点P2からの光線には、図中の一点鎖線で示される方向に射出して対物レンズ11を通過屈折し、MLaによって撮像素子13の撮像面上のML領域の点P2aに結像される光線、図中の実線で示されるように、対物レンズ11の光軸と平行方向に射出して対物レンズ11を通過後、MLbによって撮像素子13の撮像面上のML領域の点P2bに結像される光線、及び図中の点線で示されるように、下方向に射出して対物レンズ11を通過後屈折して、MLcによって撮像素子13の撮像面上のML領域の点P2cに結像される光線が示されている。また、物体面(P面)上の点P3からの光線には、図中の一点鎖線で示されるように上方向に射出して対物レンズ11を通過後屈折して、MLaによって撮像素子13の撮像面上のML領域の点P3aに結像される光線、図中の実線で示されるように対物レンズ11の光軸と平行方向に射出して、MLbによって撮像素子13の撮像面上のML領域の点P3bに結像される光線が示されている。
ここで、仮に、対物レンズ11だけの結像系であったとすると、例えば、点P2から射出された光は対物レンズ11で一点に集光される。すなわち、図2の光学系でいうと、点P2a,P2b,P2cなどの点P2から射出したあらゆる方向からの光線強度が加算されたものとなり、これが画素信号となる。このことは、図2に示すような、本発明の光学系では、MLA12の各MLによって、被検物上の一点から出た光を方向別に選別して捕えることができる、ということを意味している。
図3は、ある1つのMLから見た像が、P面から射出した同じ方向からの光線で構成されたP面の像であることを示しており、そのことはP面を各MLによって各MLの数だけ異なる方向から見た像が得られることを示すものである。すなわち、MLの数だけできるが、それらはP面から射出した光のうち、同じ方向へ射出した光が対応するMLに入射してP面の像を形成することを意味する。換言すれば、MLの数だけ異なる視差の像が得られる。
図3aないし図3cで示す光線のうち、図3bにおいて、対物レンズ11に対して垂直に入ってくる光を集めた中央部のMLによる像は、P面を正面から捕らえた像となる。また、図3a及び図3cは、対物レンズ11に斜めに入射する光を集めた端の方に位置するMLによる像は、P面から射出する光の角度の方向からP面を見た像となる。
対物レンズ11の瞳面は、MLA12の各MLの口径の大きさに分割され、それぞれのMLが同じ物体像を結ぶ。このとき、端の方のMLでの像は、周辺でけられ(物体の見えない所)が発生し、端の方の視野の一部は遮られるが、基本的には、各MLによる像は、物体面(P面)と共役の位置で物体面(P面)を異なる角度から見た像となる。
そして、N個の各MLA像のNA(開き角)は、各MLの口径で決まる開口で1/Nに縮小される。ここで注目すべきことは、各MLの像は、結像側からの見込み角度が小さく、光量は少なくなるが、被写界深度(焦点深度)は非常に深くなる。従って、物体側の奥行きに関係なく、ほとんど焦点の合った像、いわゆる全焦点画像となっている。
さらに、図3bの対物レンズ11の光軸上(図2のMLA12の中心に相当する)のML(図2のMLbに相当する)によって結像される像は、物体位置が光軸方向に移動しても、焦点もほぼ合ったまま像はずれない。すなわち、物体の光軸方向の位置が変わっても像はほとんど変化しない。
一方、図3aと図3cでの中心から外れたML(図2のMLa,MLcに相当する)を見ると、図中の左方向の矢印で示すように、物体位置が対物レンズ11から遠ざかる場合、結像される像は、図3aでは図中の上方向の矢印の方向にずれ、図3cでは図中の下方向の矢印の方向にずれる。つまり、光線のあたる画素位置は、光軸から遠ざかる方向にずれていく。逆に、物体位置が近づけば、これらの画像の画素位置は、光軸へ近づく方向にずれていく。
以上のようにして、本発明の光学系は構成される。
[2.焦点画像生成の手順]
(2−1)MLA12を対物レンズ11の瞳面とした場合
次に、図4及び図5を参照しつつ、上記の本発明の光学系を採用した場合において、複数の異なる位置での物体面の画像又は信号を形成して、物体各点でのフォーカス情報を検出する方法について説明する。なお、本実施の形態においては、図1で説明したように、図1a又は図1bのいずれの構成を採用しても、異なる角度から入射される光線を再構成して、焦点面の異なる複数の画像を生成することが可能である。したがって、はじめに、(1)MLA12を対物レンズ11の瞳面に置いた場合について説明し、その後、(2)MLA12を対物レンズ11の結像面に置いた場合についても説明する。
図4は、対物レンズ11とMLA12での光線追跡図を示し、図5は、MLA12で結像された撮像素子13の面での画素配列の一部と、MLA領域ごとに信号処理される選択画素を示している。
ところで、MLA12の後側に配置される撮像素子13は、例えば、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどであり、MLA12の各MLを通過した光を受光する所定の画素配列を、MLに対応した配置パターンで配置してなる。この画素配列の縦方向と横方向の画素数は、例えば7×7個などの個々のMLを個別に透過した部分光束を個別に受けられるように、適宜設定される。なお、ここでは、撮像素子13として、CCDを用いた例について説明する。
図5において、21×21個の四角は、撮像素子13を対物レンズ11の光軸方向から見た場合に撮像面上に配列された画素を示しており、そのうちの太線で囲まれた7×7個の四角からなる領域がそれぞれ1つのML領域を示している。図5では、7×7個のML領域のうち、3×3個のML領域を代表させて示している。したがって、図中の太線で囲まれたML領域のうちの中央の領域が、対物レンズ11の中心のML(図2のMLbに相当する)で結像されるML領域となる。
図4aは、物体面P0(焦点の合っている焦点面Z0と同じ)がフォーカス位置にある場合の光線図である。ここで、物体面P0は、光学系の焦点距離f、及び対物レンズ11と撮像素子13の撮像面との間隔aで一義的に決定され、具体的には、上記の光学系のガウスの式(1)で決まる距離bの位置である。
物体面P0の対物レンズ11の光軸と一致する位置から射出した光は、MLA12の各MLで、CCD(撮像素子13)面上の各ML領域の中央部(各MLの光軸と一致)に集光する。従って、図5(既に述べたように、対物レンズ11の光軸に一致する位置のMLを中心にその周囲1つずつのML領域に対応する画素エリアのみを示している)に示すように、物体面P0の中央(対物レンズ11の光軸に一致する)の点P02から射出した光は、各ML領域内の中央の画素(図5では黒色の四角)に集光するので、各画素エリアの中央の画素の出力を選択し、加算することで物体面P0の点P02の全輝度が得られる。
物体面P0の点P02から外れた位置からの光は、点P02からのずれ量に応じた角度で平行にMLA12に入射するので、これらの光は各ML領域で中央から同量、同方向へずれることになる。よって、各ML領域で同じ位置の画素を選択し、加算することで、焦点面Z0にある物体面P0の画像を再現することができる。
図4bは、物体面P0より対物レンズ11に近い物体面P1(実際には、図4bの点線の物体面P0で示すように、図4aと同様に、物体面P0と撮像素子13の撮像面とが共役のままとなっている)からの光線図である。物体面P1の対物レンズ11の光軸と一致する位置から射出した光は、各MLの光軸上からレンズの端側へ、少しずつ外側にずれる角度でMLA12の各MLに入射し、集光される。この場合、物体面P1の中央(対物レンズ11の光軸に一致する)の点P12から射出した光は、図5に示すように、中心のML領域(図2のMLbによって結像される領域に相当する)内での画素はそのままで、それ以外のML領域では、図4aに示した物体面P0での画素の位置から1画素ずつ外側の画素(図5では間隔の狭い左下がり斜線の四角)に集光するので、それらの画素を選択し、加算することで物体面P1の点P12の全輝度が得られる。
物体面P1の点P12から外れた位置からの光は、点P12からのずれ量に応じた角度で平行にMLA12に入射するので、これらの光は各ML領域で中央から同量、同方向へずれることになる。よって、各ML領域で同じ位置の画素を選択し、加算することで、物体面P1の画像を再現することができる。
図4cは、物体面P0より対物レンズ11から遠い物体面P2(実際には、図4cの点線の物体面P0で示すように、図4aと同様に、物体面P0と撮像素子13の撮像面とが共役のままとなっている)からの光線図である。物体面P2の対物レンズ11の光軸と一致する位置から射出した光は、各MLの光軸上からレンズの端側へ、少しずつ内側にずれる角度でMLA12の各MLに入射し、集光される。この場合、物体面P2の中央(対物レンズ11の光軸に一致する)の点P22から射出した光は、図5に示すように、中央のML領域(図2のMLbによって結像される領域に相当する)での画素はそのままで、それ以外のML領域では、図4aに示した物体面P0での画素の位置から1画素ずつ内側の画素(図5では間隔の広い左下がり斜線の四角)に集光するので、それらの画素を選択し、加算することで物体面P2の点P22の全輝度が得られる。
物体面P2の点P22から外れた位置からの光は、点P22からのずれ量に応じた角度で平行にMLA12に入射するので、これらの光は各ML領域で中央から同量、同方向へずれることになる。よって、各ML領域で同じ位置の画素を選択し、加算することで、物体面P2の画像を再現することができる。
なお、図4では、撮像素子13の右側の長方形40は、ML領域の一部である13ML1ないし13ML7を模式的に表しており、各ML領域での光の集光する位置を黒色で塗り潰すことによって、図5で上述した説明を補足して概念的に説明するためのものである。すなわち、本実施の形態では、7×7個のML領域の例を取り上げているので、縦方向に7個ある各ML領域13ML1ないし13ML7を模式的に示し、それぞれのML領域に集光(結像)した光の様子が示されている。図4aにおいては、物体面P02からの線は、CCD(撮像素子13)上の各ML領域の中央に集光(結像)する。また、図4bに示したように、物体面P0よりも対物レンズ11に近い物体面P1からの光は、中央のML領域では中央に集光し(完全には結像しないが、MLの開口が小さいので、焦点深度の深い状態が実現されている)、それ以外のML領域では図4aの場合と比べて外側へ集光する。さらに、図4cに示したように、物体面P0よりも対物レンズ11から遠い物体面P2からの光は、中央のML領域では中央に集光し(完全には結像しないが、MLの開口が小さいので、焦点深度の深い状態が実現されている)、それ以外の領域では図4aの場合と比べて内側へ集光する。
さらに捕捉すれば、本実施の形態においては、前側物体面P1や後側物体面P2は、実際には、対物レンズ11の位置で決まる物体面P0(図4では物体面P0が撮像素子13の受光面と共役となる)以外の、対物レンズ11を動かすことなく得られるいわば仮想的な合焦面である。
以上のように、物体面P0,P1,P2のように、物体の光軸方向の位置を物体面P0から変えた場合でも、対物レンズ11の中心のML(図2のMLbに相当する)によって結像される像は、焦点もほぼ合ったまま像の位置がずれないことになる。
すなわち、図3bに示した光学系の構成のレンズ中心のML(図2のMLbに相当する)によって結像される画像(図2のP2bに相当する)は、対物レンズ11に対して垂直に入ってくる光線からなり、被検物を正面から捉えた像となる。したがって、物体位置が光軸方向に移動しても、像はずれない。そして、分割された小さな瞳からの像なのでF値が大きく、被写界深度(焦点深度)は非常に深くなる。つまり、被検物の光軸方向の位置が変わっても、像はほとんど変化しない。したがって、物体側の奥行きに関係なく、ほとんど焦点の合った像、いわゆる全焦点画像となっている。
(2−2)MLA12を対物レンズ11の結像面に配置した場合
ところで、上記の(2−1)においては、光学系として、図1aの構成を採用した場合の例、つまり、MLA12が対物レンズ11の瞳面に設定された場合について説明した。常に焦点の合った全焦点画像を取得する方法としては、(2−1)の方法に限らず、図1bに示したように、MLA12を対物レンズ11の焦点(結像)面、すなわち、物体面と共役の位置に設定した場合でも同等の効果を得ることができる。そこで、次に、全焦点画像を取得する方法の第2の例として、(2−2)MLA12が対物レンズ11の結像面に設定された場合について説明する。この場合、(2−1)の方法と比べて、異なる物体面での画像の作成手順が異なるため、ここでは、図6ないし図8を参照して、その作成手順を中心に説明する。
図6ないし図8においては説明を分かり易くするために、撮像素子13において直線上に並んだ5つの画素a,b,c,d,eに入射する各光線(対応するマイクロレンズMLの中心を通る主光線のみ)を示している。また、各図中の各要素には、光軸と垂直な面内における座標を示すための添字(1,2,3,・・・)を付している。
すなわち、図6に示すように、不図示の対物レンズ11による被検物の像がMLA12上(Z=0)で結像(各MLへ入射する領域を破線で示し、その中心の座標をX1ないしX7で示している)する場合、不図示の対物レンズ11からの光線r1,r2,r3,r4,r5は、結像面(Z=0面上)、すなわちMLの表面の1点に集まる。中心座標をX1ないしX7で示した各領域は、同じ作用を受けるから、以下、中央の領域について説明する。中央の領域の中心X4を出た光は、マイクロレンズML4のレンズ作用によって、撮像素子13の面上ではそれぞれの画素に対応して、a4,b4,c4,d4,e4の画素信号となる。したがって、結像面(Z=0)での各画像信号は、これらの和となる。すなわち、画像信号をLとすれば、Lは下記の式(2)で求めることができる。
L(i)=(ai+bi+ci+di+ei) ・・・(2)
ただし、上記の通り、iは光軸と垂直な面内におけるX方向の座標(i=1〜7)を示しており、例えば、座標X4の場合には、L(4)=(a4+b4+c4+d4+e4)となる。なお、実際には、2次元的に考える必要があるので、X方向以外にY方向についても考えなければならないが、ここでは、説明を簡略化するためにX方向についてのみ述べる。
一方、図7に示すように、結像面が各MLの表面からずれたZ=h1の位置での中央の領域の中心座標X4の画像信号は、下記の式(3)から求めることができる。ただし、i=1〜7であり、座標の添数字が1〜7から外れた値は使用されない値である。
L(i)=(ai-2+bi-1+ci+di+1+ei+2) ・・・(3)
座標X4の場合にはi=4となるので、L(4)=(a2+b3+c4+d5+e6)となる。このことからも明らかなように、撮像素子13の撮像面のそれぞれの領域での中央の画素信号ci(この例の場合にはc4)は、焦点位置によらず常に存在する。つまり、この信号だけを集めた画像は、物体側の位置にかかわらず一定で、焦点ボケのない像となる。
したがって、図8に示すように、下記の式(4)の関係を有する信号で構成される画像は、結像面がどこにあっても(逆の言い方をすれば、結像面が一定で被検物がどこにあっても)常に焦点の合った全焦点画像となる。ただし、図8ではより実際的な応用を説明するために、図6,7に対して、フィールドレンズ(以下、FLという)を付加した図面としている。このFLを配置することで、像高の高い位置に配置されたMLに入射する光束の角度を抑えられるため、先述した例では述べていないが、FLを設けたほうが好ましい。
L(i)=ci ・・・(4)
すなわち、例えば、図8において、撮像素子13の撮像面のそれぞれの領域での中央の画素信号c1,c2,c3,c4,c5,c6,c7を集めた画像は、焦点の合った全焦点画像となる。
以上のようにして、図1a又は図1bの構成を採用することで、焦点画像生成の手順は異なるが、異なる角度からの光線を再構成して、焦点面の異なる複数の画像が生成される。
[3.測定の信号処理手順]
次に、上記の手順で生成される仮想的な焦点位置での画像群から、測定のための画像データを得るために実行される信号処理について説明する。かかる信号処理では、常に焦点の合った全焦点画像を用いる点に特徴があり、焦点面を光軸方向へ少しずつずらしながら取得した各画像データに対してエッジ処理を施すことにより、焦点の合った画像を選択する。
(3−1)多焦点逐次処理法
上記のエッジ処理としては、いくつかの方法が考えられるが、ここではまず、画像のエッジを検出する方法として、多焦点逐次処理法を用いた場合について説明する。また、この多焦点逐次処理におけるエッジ処理として、フーリエ変換(ウェーブレット変換)法を用いた場合を一例にして説明する。
上記の[2.焦点画像生成の手順]により、複数の異なる物体面での画像群が形成された後、先述したSFFと同様の処理によって、各々の画像の同じ画素エリアの位置において、下記の方法でフォーカス情報を検出することができる。
すなわち、かかる信号処理では、図9に示すように、距離の異なる複数の物体面(・・・,Z-1,Z0,Z1,・・・)の画像群について、それぞれFFT(Fast Fourier Transform)により画像信号をフーリエ変換(又はウェーブレット変換)し、空間周波数空間内(フーリエ面上)で高周波成分のみをハイパスフィルタ(High Pass Filter)にて抽出した後、逆フーリエ変換(又は逆ウェーブレット変換)する。この処理によって、ほぼエッジ(輪郭)部分のみの画像となる。次に、これらの画像でエッジのある各点の位置(Xi,Yi)に着目して、複数の物体面(・・・,Z-1,Z0,Z1,・・・)の画像群の中から、最もエッジの鋭い(傾き成分の最も高い)画像をベストフォーカス(Best Focus)として、選択する。
図10は、各焦点面の画像群におけるサンプリング点のエッジの傾き成分をグラフ化したものである。図10において、横軸Zは物体面の位置(被検物からの距離)を表し、縦軸αはエッジの傾き成分を表し、図中上方向にいくほど、その値が大きくなる(焦点の合っている程度(フォーカスの程度)が高い)ことを意味する。
図10に示すように、Z方向のサンプリング点は、各物体面毎の値となっているために離散的なものとなっているが、図中の曲線で表しているように、関数近似によってピーク(図中の点線)を求めることで、補間処理による小数点以下の値を持つ位置Zが求められ、その精度は向上する。
しかしながら、この手順ではZの位置を求めることができるものの、次に示すような問題が残る。
すなわち、焦点の違う画像からエッジを検出する場合、物体の距離に応じて、ピント(焦点)の合っている所と、合っていない所とが存在する。このとき、明るさ(信号強度)が極端に違うエッジが隣接している場合、焦点の合っていない明るいエッジが、隣接する焦点の合った暗いエッジを覆ってしまい、エッジの位置を誤認識する恐れがある。
かかる問題を解決するためには、全てのエッジで焦点の合った画像を用いて、画素単位での微分値を求め、正しいエッジ位置を先に検出しておけばよい。
そこで、本実施の形態においては、MLA12の中央のML(図2のMLbに相当する)で結像される、対物レンズ11の中心(軸上)の画像が物体面の位置が変わっても(Zの方向が変わっても)変化のない画像であって、かつ、被写界深度が深く、物体側の距離によらず常にほぼ完全にピントの合った、像ずれがなく、かつボケのない画像(全焦点画像)となることに着目し、この画像を用いる。
本発明の信号処理においては、この全焦点画像を用いて、上記のように、フーリエ変換及びハイパスフィルタ処理をすることによって、正しいエッジ位置(Xi,Yi)を得て、同時にその近傍画像のコントラスト信号(画像の濃度値)を登録する。次に、それらのエッジについて、多数物体面(・・・,Z-1,Z0,Z1,・・・)の画像群の中から、着目するエッジ位置(Xi,Yi)とその近傍の画像信号が、登録したコントラスト信号と最も相関の高い画像におけるZを求める。
すなわち、全焦点画像から得られた各エッジ位置(Xi,Yi)について、物体位置(Z)の異なる複数の(ボケを含む)画像から、同じ座標(Xi,Yi)のエッジ位置の画素信号における、ボケのない全焦点画像のエッジ信号と最も類似性(相関)の高い物体位置(Z)を求める。これにより、エッジ各点(Xi,Yi)でのZを検出することができる。
具体的には、まず、注目しているエッジ位置である注目エッジ位置(Xi,Yi)と、その近傍画素の信号強度fi,jを検出する。次に、それらのエッジについて、多数の物体面(・・・,Z-1,Z0,Z1,・・・)の画像群の中から、同じエッジ位置(Xi,Yi)と、その近傍信号gi,j(Z)が、fi,jと最も相関の高くなるときのZを求める。
この相関の求め方は、各点の明るさやコントラストの違いを吸収するよく知られた正規化相関法を用いると好適であるが、例えば、計算時間を短縮できる差分絶対値の和、又は差分の二乗和を求める方法など、かかる相関を求めることができる方法であれば他の方法であってもよい
そして、例えば、下記の式(5)又は式(6)の値が最も小さくなるときのZを求める。
Figure 0005369563
Figure 0005369563
これにより、物体の各エッジ座標(Xi,Yi)位置でのZが求められる。
なお、ここでは、撮像素子13から出力される画像信号に対し、直接画像処理を施す例について説明したが、エッジ信号を際立たせ、検出誤差を低減する目的で、画像の前処理を施してもよい。例えば、各画像を、フーリエ変換とハイパスフィルタを組み合わせた処理や、ソーベルフィルタ、あるいはラプラシアンフィルタと呼ばれるデジタル微分フィルタなどの画像処理をすることにより、輪郭部だけを強調した、いわゆるエッジ画像を得ることができるので、その後、上記の相関処理を行えばよい。
また、相関を計算する際には、先述した場合と同様に、図10に示したような補間処理を用いて求めることも可能である。
以上のように、多焦点逐次処理法では、画像信号の強度のみでエッジ位置を特定(光軸方向でピントの合った画像を特定)しようとすると、本来の特定すべきエッジが強いボケ光によって検出できない場合が生じるので、これを避けるために、全焦点画像を用いた相関処理を行っている。
(3−2)全焦点エッジ抽出法
次に、画像のエッジを検出する方法として、全焦点エッジ抽出法を用いた場合について説明する。
上記の(3−1)の多焦点逐次処理法では、一旦、多数の焦点画像群を形成した後に、フーリエ変換などの処理を行うため、どうしても処理時間がかかってしまう。また、エッジを検出する画像として、先の物体面(・・・,Z-1,Z0,Z1,・・・)の画像群では、いずれもどこかに焦点面があり、その焦点からはずれた箇所はボケが生じ、全てのエッジを検出することは困難になる。そこで、全焦点エッジ抽出法では、MLA12の中央のMLで結像される全焦点画像によって予め2次元画像上でエッジ位置が特定できることに着目し、特定したエッジ位置のみで光軸方向へエッジ位置の探索を行なう。つまり、全焦点画像の中の特徴(エッジ)を先に検出しておき、その検出されたエッジ位置に対応する位置の物体面の画像だけを生成し、その位置でのベストフォーカスとなるZを検出すれば、処理する点が少なくて済み、演算の負担が少ないばかりでなく、演算時間が短くて済み、迅速な測定に寄与することができる。
具体的には、MLA12の中央のMLで結像される全焦点画像を用いて、画像処理でよく知られている輪郭抽出のための3×3行列(一般的に微分オペレータと呼ばれる)を使ったエッジ抽出の演算処理を行う。例えば、ソーベルフィルタ(Sobel Filter)などを使って、X方向又はY方向で、画像中のエッジを検出する。なお、この方法は、特に、線のエッジ検出に有効である。また、スポットや交点などの点の検出には、二次微分に相当するラプラシアンフィルタ(Laplace Filter)を使ってもよい。これらは、被検物の段差など、何らかの構造や色、反射率の差などによるものである。全焦点エッジ抽出法では、検出されたエッジや点の位置(Xi,Yi)における、これらのフィルタで処理された値を、デフォーカス量として算出する。
そして、全焦点エッジ抽出法においては、画像のエッジのある各点(位置)に着目して、(3−1)と同様に、上記の多数の物体面(・・・,Z-1,Z0,Z1,・・・)に対応する、このデフォーカス量の変化を算出する。これにより得られる値は、上記の図10と同様のデータとなるため、これから信号のピーク、すなわち、ベストフォーカスとなるZを求める。
以上のように、上記の(3−1)の多焦点逐次処理法や、(3−2)の全焦点エッジ抽出法などのエッジ処理によって、物体の各エッジ座標(Xi,Yi)位置でのZが検出される。なお、その後、検出された値を用いての距離測定処理が行われるが、その処理については、次の[4.距離測定手順]で説明する。
[4.距離測定手順]
(4−1)多数のフォーカス画像から物体位置を求める方法
上記の手順によって求められた、物体の各エッジ座標(Xi,Yi)位置でのZを用いた距離測定が行われるが、その手順にはいくつかの方法があるが、ここではまず、多数のフォーカス画像(焦点面の位置が異なる多数の画像、すなわち、多数の仮想焦点面の画像)を生成し、その中からベストの焦点位置を求める方法について説明する。
ここで、仮想焦点面と共役な被検物像側の物体面の位置(・・・,Z-1,Z0,Z1,・・・)の値は、式(1)に基づき、対物レンズ11と撮像素子13の撮像面との間隔a、若しくは対物レンズ11と仮想的な焦点面との間隔(a1,a2,a3,・・・,an)によって一義的に決まる。
したがって、焦点面の位置(撮像面上にある場合も含む(すなわち、a1,a2,a3,・・・,an))を定めれば、その位置に焦点が合うべき被検物の部位の位置がわかり、その部位までの距離bが式(1)を用いて求めることができる。その結果、求めた距離bの値と撮像素子13から出力される2次元画像の座標(X,Y)情報と合わせて、被検物の上記部分の座標(X,Y,Z)、すなわち、3次元の空間座標を決定することができる。
(4−2)2つの異なる焦点面の画像情報から物体位置を求める方法
上記の(4−1)の方法では、多数のフォーカス画像(多数の異なる焦点面を仮定した場合に得られる画像)を生成して、それぞれのフォーカス画像の中からベストの焦点位置の部分を検出するといった方法で、被検物の各部分までの距離を正確に測定することができる。そのためには、例えば、図10のような多点情報からピークを検出する、というような手順が必要となる。図10において、横軸Zは被検物までの距離、縦軸αは焦点の合っている程度(フォーカスの程度)を示している。この図から2次元画像のある座標(X,Y)における焦点の合っている被検物の部位までの距離がαの最大値となるZの値として求めることができる、ということがわかる。しかしながら、処理の手順が多く、処理に時間がかかる可能性が高い。
そこで、ここでは、別の方法として、少ない処理量で、高速化を図る測定手順について説明する。この方法においては、多数の画像を生成し、そこから得られる図10のような多点情報からピークを検出するのではなく、最低2つの異なる焦点面の画像情報を用いて、両者の差分信号、すなわち、2つの位置でのデフォーカス量の差から、Zの位置を求める。そして、このZは、対物レンズ11から被検物までの距離bに対応するので、この値と撮像素子13の2次元画像の座標(X,Y)情報と合わせて、被検物の座標(X,Y,Z)、すなわち、3次元形状を測定することができる。
しかしながら、この方法で演算した値そのものだけでは、被検物の局所的な反射強度の差が影響する可能性が高い。すなわち、元の照明光の明るさ分布や、被検物の位置による反射率の違いによって信号強度は変化する。特に隣接した領域に明暗の差が著しい箇所があると、デフォーカス状態では両者の信号が混ざり合うため、エッジのピークを誤検出する可能性がある。
そこでかかる演算処理で求められた演算値を、MLA12の中央のMLにより結像された画像の各画素値で除算して規格化しておくことにより、局所エリア毎に、明るさ(光強度)によらない、規格化されたデフォーカスによるボケ量を得ることができる。
以上のようにして、本実施の形態においては、例えば、(4−1)又は(4−2)の方法によって、距離測定の処理が行われることで、被検物の表面の座標(X,Y,Z)が求められ、3次元形状が測定される。
このように、本実施の形態においては、1回の撮像により得られる画像信号を用いて、被検物の3次元形状を計測できるので、従来のSFFのように、複数回の撮像が必要な場合と比べて、高速で計測を行うことが可能である。
[5.形状測定装置]
次に、上述した距離測定の処理を行って、被検物の3次元形状を測定する、本実施の形態に係る形状測定装置の構成について、図11を参照して説明する。
図11に示すように、形状測定装置は、対物レンズ11、MLA12、撮像素子13、制御回路31、ユーザインターフェース32、駆動回路33、演算処理回路34、及び、メモリ35を含むようにして構成される。なお、図11において、対物レンズ11ないし撮像素子13は、先述した図1等の対物レンズ11ないし撮像素子13に対応している。
制御回路31は、ユーザインターフェース32を介してユーザから入力された指示にしたがって、駆動回路33、演算処理回路34、及びメモリ35の制御を行う。また、制御回路31は、図11の形状測定装置の各部の動作を制御する。
駆動回路33は、撮像素子13を駆動する。また、駆動回路33は、撮像素子13からの画像信号を、演算処理回路34に出力する。
演算処理回路34は、駆動回路33からの画像信号に基づいて、所定の演算処理を行う。そして、演算処理回路34は、演算結果をメモリ35に格納する。
演算処理回路34は、MLA12のMLの各々により結像された像を、撮像素子13により撮像することで得られる画像データから、被検物の3次元形状を測定する。かかる処理の詳細については、後述する図12の演算処理回路34の動作の説明の際に併せて説明する。
以上のようにして、形状測定装置は構成される。
次に、図12のフローチャートを参照して、図11の演算処理回路34により行われる3次元形状測定処理について説明する。
演算処理回路34は、ステップS11において、駆動回路33からの画像信号を取得し、ステップS12において、焦点画像を生成する。具体的には、上記の[2.焦点画像生成の手順]で述べたように、演算処理回路34は、図1aの構成の場合には、(2−1)の方法によって、図1bの構成の場合には、(2−2)の方法によって、異なる角度からの光線を再構成して、焦点面の異なる複数の画像を生成する。
ステップS13において、演算処理回路34は、測定の信号処理を行う。具体的には、上記の[3.測定の信号処理手順]で述べたように、演算処理回路34は、(3−1)の「多焦点逐次処理法」又は(3−2)の「全焦点エッジ抽出法」などのエッジ処理によって、常に焦点の合った全焦点画像を用いて、物体の各エッジ座標(Xi,Yi)位置でのZを求める。
そして、演算処理回路34は、ステップS14において、距離測定の処理を行い、ステップS15において、物体の3次元形状を測定し、処理は終了する。具体的には、上記の[4.距離測定手順]で述べたように、演算処理回路34は、(4−1)の「多数のフォーカス画像から物体位置を求める方法」又は(4−2)の「2つの異なる焦点面の画像情報から物体位置を求める方法」によって、被検物の表面の座標(X,Y,Z)が求められ、3次元形状が測定される。
以上のように、図11の形状測定装置においては、演算処理回路34によって、先述した、[2.焦点画像生成の手順]、[3.測定の信号処理手順]、[4.距離測定手順]が順に実行されることで、MLA12の中央のMLによって結像された像から得られる全焦点画像を用いた信号処理が行われ、それにより得られる物体の各エッジ座標(Xi,Yi)位置でのZから、被検物の表面の座標(X,Y,Z)、すなわち、3次元形状が測定される。
すなわち、図1aに示したように、MLA12が対物レンズ11の射出瞳と共役となるように配置されている場合、演算処理回路34は、複数のMLのうちの対物レンズ11の光軸の位置にあるMLA12の中央のMLにより撮像素子13の撮像面上に形成された像から得られる全焦点画像(基準画像)、撮像素子13の出力から得られる焦点面の異なる複数の画像(測定画像)との相関から求められる被検物のZ位置を用いて、その被検物の3次元の形状を測定する。
なお、本実施の形態では、図1aの構成を中心に述べたが、図1bに示したように、撮像素子13の撮像面が対物レンズ11の射出瞳と共役となるように配置されている場合には、演算処理回路34は、対物レンズ11の主光線が交わる撮像素子13の撮像領域を構成する画素から得られる全焦点画像(基準画像)、撮像素子13の出力から得られる焦点面の異なる複数の画像(測定画像)との相関から求められる被検物のZ位置を用いて、その被検物の3次元形状を測定することになる。
[6.レンズ駆動]
次に、被検物が遠くにある場合や近くにある場合についての測定方法について説明する。この場合、レンズ位置aを固定したままでは、測定可能な範囲を超える領域が発生することがある。そこで、本発明の形状測定装置では、測定目的に合わせて必要なときに、対物レンズ11を動かし、レンズ位置aの値を変えて測定を行うようにする。
その具体例として、以下、実際に被検物の3次元形状を計測するときに、測定範囲を考慮した場合の処理の流れについて説明する。
被検物までの距離bは、対物レンズ11と光学系の撮像面(基準焦点面)との距離(レンズ位置a)と焦点距離fの値がわかっていると、上記の光学系のガウスの式(1)の関係から計算することができる。
図13には、横軸をa(レンズ位置)、縦軸をb(物体距離)とした場合において、焦点距離f=25mmとして、レンズ位置aの値を27mmから45mmまで変えたときの物体距離(距離)bの値をグラフ化したものと、焦点距離f=30mmとして、レンズ位置aの値を31mmから45mmまで変えたときの物体距離bの値をグラフ化したものが示されている。図13において、横軸のレンズ位置aは、図中右方向にいくほど、レンズ位置aが大きくなり、縦軸の物体距離bは、図中上方向にいくほど、物体距離bが大きくなる。
この2つのカーブからも明らかなように、焦点の合う被検物までの物体距離bの値は、レンズ位置aの値によって大きく異なる。
具体的には、図13の2つのカーブで示すように、レンズ位置aの値が小さくなると、物体側の焦点の合う位置(物体距離)bは急激に遠ざかる(距離が広がる)とともに、いわゆる被写界深度が深くなり、物体距離bの変化に対するフォーカス情報の感度が低下する。すなわち、物体距離bが遠距離になるにしたがって、物体側の測定範囲は広がるが、精度が劣化することになる。
従って、例えば、精度を考慮して測定する場合には、物体距離bが適当な値になるようにして、測定する必要がある。
一方、測定範囲を広げたいときは、物体距離bが大きくなるようにして測定するのがよいが、物体距離bが遠距離になると、対物レンズ11を移動させて間隔(レンズ位置)aを変化させても、その変化量に対してボケの変化が小さくなるので、測定精度が劣化し、測定には限度がある。そのため、通常は、適当な値、例えば、図13では、焦点距離f=25mmの場合にはa=30mmを中心に27mm〜35mmあたりにレンズ位置aを設定するのが適当であり、焦点距離f=30mmの場合にはa=37mmを中心に33mm〜38mmあたりにレンズ位置aを設定するのが適当である。すなわち、焦点を合わせる距離に応じて感度特性が変化するので、測定を開始する前に作動距離を適切に設定するのがよい。
ところで、先述した、図11の形状測定装置では、被検物への焦点合わせについては述べていないが、焦点合わせ機能があると測定範囲が広がる。本発明の別の実施の形態においては、これまで述べてきた、対物レンズ11から被検物までの距離bに関する距離情報を、焦点合わせを行う場合の距離情報(以下、フォーカス信号という)として使用し、自動合焦を行う。
そこで、次に、図14を参照して、自動合焦機能を備えた形状測定装置について説明する。
図14において、図11と対応する箇所には同一の符号が付してあり、処理が同じ部分に関しては、その説明は省略する。図14の形状測定装置には、対物レンズ11ないし撮像素子13、及び、制御回路31ないしメモリ35の他に、制御回路31からの指示にしたがって対物レンズ11を動かすレンズ駆動装置42が設けられている。また、図14において、対物レンズ11ないし撮像素子13は、測定センサ系41であるとして説明するが、測定センサ系41は、例えば、制御回路31ないしメモリ35の一部をさらに含めた構成などであってもよい。さらに、図14の構成では、CPU43によって、制御回路31と演算処理回路34が構成されているものとする。
CPU43は、ユーザインターフェース32から供給される測定開始命令により、駆動回路33を制御して、撮像素子13から画像信号を取り込み、取り込んだ画像信号から被検物Hまでの距離を測定する。ここでは、最初に、対物レンズ11の光軸と一致する被検物Hの合焦ポイントP1までの距離が測定される。
図13を参照して説明したように、測定センサ系41と被検物Hとの距離(作動距離)には最適な値があるので、CPU43によって演算された合焦ポイントP1までの距離が、この最適な値からずれている場合がある。この場合、CPU43は、そのずれ量をモニタ36に表示し、操作者に対して作動距離が適切でないことを通知する。そうすることで、操作者は、測定センサ系41と被検物Hとを相対的に移動させ、作動距離を適切に設定することが可能となる。
すなわち、測定センサ系41は、例えば、3次元空間内で自由に動作する図不示のロボットハンドに設けられており、このロボットハンドが、操作者によるユーザインターフェース32の操作に応じて、測定センサ系41と被検物Hとの作動距離を最適な値にする。つまり、CPU43において、制御回路31は演算処理回路34の演算結果である測定センサ系41と被検物Hまでの作動距離が最適になるように図不示のロボットハンドの制御回路に制御信号をフィードバックする。
なお、ロボットハンドの代わりに、被検物Hを測定センサ系41の光軸方向へ移動させる図不示の移動テーブルに載置し、この移動テーブルの位置を制御するテーブル移動装置をCPU43が制御するようにしてもよい。
CPU43は、被検物Hが最適な作動距離の位置に置かれると、その基準(通常初めは視野の中心)点でのフォーカス信号を用いて、レンズ駆動装置42によって対物レンズ11を動かして、レンズ位置aを変えながら焦点を合わせる(撮像面が基準焦点面である場合)。これにより、例えば、ある距離に焦点が合っている状態の感度は、その距離が離れるにしたがって低下するものであるが、レンズ位置aを変えながら焦点を合わせ直すことで、低下するはずの感度を上げることが可能となる。
そして、焦点合わせが完了した後、レンズ位置aを測定し、レンズ位置aと焦点距離fとを、上記の式(1)の関係に基づき、被検物Hまでの距離bを求めることができる。なお、通常、レンズ位置aの値は、レンズ駆動装置42に設けられた光学式ロータリエンコーダ等の位置読み取りセンサによって検出することができる。
その後、CPU43では、演算処理回路34によって、被検物H全面の多数点について、先述した仮想焦点面と共役な被検物H側の面の位置(・・・,Z-1,Z0,Z1,・・・)での画像群からのフォーカス情報が取り込まれ、さらに、レンズ位置aから、それぞれの物点距離が求められ、被検物Hの3次元の立体形状が測定される。
この結果、形状測定装置から離れている被検物Hや、近くにある被検物Hに対しても最適な感度で測定することができる。
以上の説明では被検物Hの奥行きがそれほど大きくないものの場合(測定光軸方向での測定範囲が狭い場合)はよいが、測定光軸方向の測定範囲が大きい場合には、同一の被検物Hに対しても焦点を変えながら測定する必要が生ずる場合がある。
このような場合に備えて、例えば、図3bの対物レンズ11の光軸上のMLによって結像される像のような被検物Hが測定光軸方向へ移動しても焦点が合ったまま像のずれない像の画像(全焦点画像)をモニタ36に表示し、モニタ36上で焦点を合わせたい位置を、任意に選択できるようにする。そうすると、操作者がモニタ36を見ながら、被検物H上で焦点を合わせたい位置を選択し、選択された位置に合焦するように演算処理回路34からの信号で制御回路31がレンズ駆動装置42を制御するように構成することができる。
モニタ36上で焦点を合わせたい位置を選択する技術は、一眼レフカメラで用いられている技術を用いることができる。そして、焦点を合わせたい位置が選択された後は、選択した位置を基準点として、先に説明した視野の中心点を基準点とした場合と同様に、この点(位置)に焦点を合わせることができる。
このようにして、被検物Hが測定光軸方向に大きい場合、操作者が全焦点画像を見ながら焦点を合わせたい位置を順次選択しながら測定したり、操作者が全焦点画像を見ながら予め焦点を合わせたいポイントを指示し、CPU43がこれらのポイントに順次焦点を合わせながら測定するように構成したりすることができる。
また、ユーザインターフェース32から予め測定範囲を指示し、演算処理回路34がこの測定範囲を維持しつつ、焦点の合う位置を予め定めた距離ごとにステップ的に焦点の合う範囲を変えつつ、上記測定範囲での測定を実行するようにすることもできる。それによって、予め定めた測定範囲を光軸方向へステップ的に移動させながら、所定の範囲の距離測定、ひいては被検物Hの各測定点での空間座標を求めることができる。
なお、以上の説明は、対物レンズ11の移動を制御回路31からの信号によって自動的に行うことを前提にしたが、対物レンズ11の移動を手動で行ってもよいことは勿論である。この場合は、上記ステップ移動範囲を示すメモリと指標とを対物レンズ11の鏡筒のピントリング(回転側)と本体(固定側)に形成することで、操作者は、指標にメモリをステップ的に合わせながら測定を行えばよい。
なお、本実施の形態においては、レンズ位置aの値を正確に求める手段として、レンズ駆動装置42に付けられる光学式ロータリエンコーダについて説明したが、これに限らず、同等の手段であれば他の手段であってもよい。
また、図14においては、CPU43は、制御回路31と演算処理回路34から構成されるとして説明したが、図14の構成の一部について、CPU43、ユーザインターフェース32、メモリ35、及びモニタ36から構成されるパーソナルコンピュータであると捉えることもできる。その場合、パーソナルコンピュータは、モニタ36に表示された画像を見ながら操作を行う操作者の指示にしたがって、レンズ駆動装置42等を制御することになる。
以上のように、本発明によれば、対物レンズの光軸に沿って、被検物を移動することなく、測定光軸方向での広い範囲の測定を高精度に行うことができる。
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、記録媒体からインストールされる。
この記録媒体は、コンピュータとは別に、利用者にプログラムを提供するために配布される、プログラムが記録されている磁気ディスク、光ディスク、光磁気ディスク、若しくは半導体メモリ等により構成されるだけでなく、コンピュータに予め組み込まれた状態で利用者に提供される、プログラムが記録されているハードディスクドライブやROM(Read Only Memory)等で構成される。
また、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデム等のインターフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。
なお、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した光学系の概要を説明する図である。 光学系のさらに詳細な構成について説明する図である。 ある1つのMLから見た像が、同じ方向からの光線で構成された、方向別に見た像であることを示す図である。 対物レンズとMLAでの光線の追跡結果を示す図である。 MLAで結像された撮像素子面における画素配列を示す図である。 MLAを対物レンズの結像面とした場合(Z=0)の構成の例を示す図である。 MLAを対物レンズの結像面とした場合(Z=h1)の構成の例を示す図である。 全焦点画像の例を示す図である。 画像群のフーリエ変換法を用いた信号処理の流れを示す図である。 サンプリング点のエッジの傾き成分をグラフ化した図である。 本発明を適用した形状測定装置の一実施の形態の構成を示す図である。 3次元形状測定処理について説明するフローチャートである。 レンズ位置と物体位置との関係を示す図である。 本発明を適用した形状測定装置の一実施の形態の他の構成を示す図である。
符号の説明
11 対物レンズ, 12 MLA, 13 撮像素子, 31 制御回路, 32 ユーザインターフェース, 33 駆動回路, 34 演算処理回路, 35 メモリ, 41 測定センサ系, 42 レンズ駆動装置, 43 CPU, ML マイクロレンズ, FL フィールドレンズ

Claims (5)

  1. 対物レンズと、
    前記対物レンズの背後に2次元に配列された複数のレンズを有する光学素子と、
    前記光学素子の背後に配置された2次元の撮像素子と、
    前記対物レンズを光軸方向へ移動させるレンズ移動手段と、
    前記撮像素子の出力から焦点面の異なる複数の測定画像を生成する画像形成手段と、
    前記複数のレンズの各々に対応する前記撮像素子の撮像領域を構成する画素のうち前記対物レンズと前記光学素子との光学配置に応じた所定画素から得られる、全ての画素が合焦した基準画像、前記複数の測定画像との相関から求められる被検物の前記対物レンズの光軸方向の位置を用いて、前記被検物の3次元の形状を測定する3次元形状測定手段と
    を備えることを特徴とする形状測定装置。
  2. 前記3次元形状測定手段は、前記形状の測定の前提として、前記被検物の各測定点までの距離情報を求め、
    前記3次元形状測定手段により測定された距離情報に基づいて、前記被検物に焦点が合うように前記レンズ移動手段を制御する制御手段をさらに備える
    ことを特徴とする請求項1に記載の形状測定装置。
  3. 前記距離情報は、前記基準画像、前記複数の測定画像との相関から求められる前記被検物の前記光軸方向の位置に応じた、前記対物レンズから前記被検物までの距離に関する情報である
    ことを特徴とする請求項2に記載の形状測定装置。
  4. 前記レンズ移動手段によって前記対物レンズを所定の間隔ごとにステップ移動させ、前記対物レンズが停止するごとに、前記画像形成手段に前記複数の測定画像の生成を指示する制御手段をさらに備える
    ことを特徴とする請求項1に記載の形状測定装置。
  5. 前記ステップ移動の間隔は、前記被検物までの距離に応じて変化する測定感度が所定の範囲となるように定められる
    ことを特徴とする請求項4に記載の形状測定装置。
JP2008233494A 2008-09-11 2008-09-11 形状測定装置 Active JP5369563B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008233494A JP5369563B2 (ja) 2008-09-11 2008-09-11 形状測定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008233494A JP5369563B2 (ja) 2008-09-11 2008-09-11 形状測定装置

Publications (2)

Publication Number Publication Date
JP2010066155A JP2010066155A (ja) 2010-03-25
JP5369563B2 true JP5369563B2 (ja) 2013-12-18

Family

ID=42191862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008233494A Active JP5369563B2 (ja) 2008-09-11 2008-09-11 形状測定装置

Country Status (1)

Country Link
JP (1) JP5369563B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9906771B2 (en) 2015-02-17 2018-02-27 Samsung Electronics Co., Ltd. Light-field camera

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102884395B (zh) * 2010-05-07 2016-01-27 株式会社尼康 高度测量方法和高度测量装置
JP2013016555A (ja) * 2011-06-30 2013-01-24 Panasonic Industrial Devices Sunx Co Ltd 測定装置
JP5893412B2 (ja) * 2012-01-13 2016-03-23 キヤノン株式会社 撮像装置およびその制御方法
JP6188290B2 (ja) * 2012-08-03 2017-08-30 キヤノン株式会社 測距装置、撮像装置、ピント評価方法、プログラム及び記憶媒体
EA028418B1 (ru) * 2015-07-14 2017-11-30 Белорусский Государственный Университет (Бгу) Способ измерения профиля микрообъектов для криминалистических экспертиз
WO2018083706A1 (en) 2016-11-04 2018-05-11 Rosemount Analytical Inc. A method of monitoring the components of gas analyser

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2539778B2 (ja) * 1984-11-22 1996-10-02 株式会社日立製作所 検査方法および検査装置
JPH04309804A (ja) * 1991-04-05 1992-11-02 Hitachi Ltd 三次元形状測定装置及び測定方法
JPH07280518A (ja) * 1994-04-14 1995-10-27 Nippon Telegr & Teleph Corp <Ntt> 物体計測装置
JP2960684B2 (ja) * 1996-08-02 1999-10-12 株式会社日立製作所 立体形状検出方法及びその装置
JP2004102032A (ja) * 2002-09-11 2004-04-02 Olympus Corp 走査型共焦点顕微鏡装置
JP4205533B2 (ja) * 2003-08-26 2009-01-07 独立行政法人科学技術振興機構 立体画像構成方法,立体対象の距離導出方法
EP2398223B1 (en) * 2004-10-01 2014-03-19 The Board Of Trustees Of The Leland Stanford Junior University Imaging arrangement and method therefor
JP2006322795A (ja) * 2005-05-18 2006-11-30 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP4650107B2 (ja) * 2005-05-31 2011-03-16 株式会社ニコン 共焦点光学系を有した測定装置
JP4826152B2 (ja) * 2005-06-23 2011-11-30 株式会社ニコン 画像合成方法及び撮像装置
JP5040493B2 (ja) * 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
JP4905326B2 (ja) * 2007-11-12 2012-03-28 ソニー株式会社 撮像装置
JP5354254B2 (ja) * 2008-08-28 2013-11-27 株式会社ニコン 形状測定装置及び方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9906771B2 (en) 2015-02-17 2018-02-27 Samsung Electronics Co., Ltd. Light-field camera

Also Published As

Publication number Publication date
JP2010066155A (ja) 2010-03-25

Similar Documents

Publication Publication Date Title
JP5354254B2 (ja) 形状測定装置及び方法、並びにプログラム
JP5369564B2 (ja) 形状測定装置
JP5369563B2 (ja) 形状測定装置
JP7043085B2 (ja) 視点から距離情報を取得するための装置及び方法
JP4915859B2 (ja) 物体の距離導出装置
CN102687056B (zh) 用于显微镜检查的传感器
US7702229B2 (en) Lens array assisted focus detection
JP5914055B2 (ja) 撮像装置
JP5229541B2 (ja) 距離測定装置、距離測定方法、及び、プログラム
KR101725045B1 (ko) 화상처리장치 및 그 제어방법
CN104282703B (zh) 固态成像装置和电子装置
CN109883391B (zh) 基于微透镜阵列数字成像的单目测距方法
US9438887B2 (en) Depth measurement apparatus and controlling method thereof
JP2014011526A (ja) 画像処理装置、撮像装置および画像処理方法
US9456155B2 (en) Image processing apparatus, method, and program, and image pickup apparatus having image processing apparatus
WO2014011182A1 (en) Convergence/divergence based depth determination techniques and uses with defocusing imaging
KR20150107571A (ko) 깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법
JP2009115541A (ja) 距離測定装置および距離測定方法
CN106233125A (zh) 共聚焦线检验光学系统
JP2023115356A (ja) 計測装置、撮像装置、制御方法及びプログラム
JP2009229125A (ja) 距離測定装置および距離測定方法
JP2017158018A (ja) 画像処理装置およびその制御方法、撮像装置
JP2009109682A (ja) 自動焦点調節装置、および自動焦点調節方法
JP6563517B2 (ja) 顕微鏡観察システム、顕微鏡観察方法、及び顕微鏡観察プログラム
JP3488762B2 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5369563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250