[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH1140491A - Detection of focusing position - Google Patents

Detection of focusing position

Info

Publication number
JPH1140491A
JPH1140491A JP9207403A JP20740397A JPH1140491A JP H1140491 A JPH1140491 A JP H1140491A JP 9207403 A JP9207403 A JP 9207403A JP 20740397 A JP20740397 A JP 20740397A JP H1140491 A JPH1140491 A JP H1140491A
Authority
JP
Japan
Prior art keywords
stage
image
optical system
period
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9207403A
Other languages
Japanese (ja)
Other versions
JP3473820B2 (en
Inventor
Takehiko Iwanaga
武彦 岩永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP20740397A priority Critical patent/JP3473820B2/en
Publication of JPH1140491A publication Critical patent/JPH1140491A/en
Application granted granted Critical
Publication of JP3473820B2 publication Critical patent/JP3473820B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain the focusing position of an optical system in a short measuring time independently of the vibration of a stage by imaging an object at plural times during the movement of the object from one side to the other side of a predetermined range provided by the stage movable in the direction of the optical axis of the optical system to obtain the focusing position of the optical system from a plurality of images for different stage positions. SOLUTION: When a wafer stage is driven from Z1 to Z2, a drive target value in the Z-direction is denoted by 31, an actual position in the Z-direction is denoted by 32, an acceleration is denoted by 33, and an error component between the target value 31 and the actual position 32 is denoted by 34, and for the error components 34, the drive start and end periods, wherein the error is large, are excluded and the uniform motion period is used as a focusing measurement range 35. Measurement for the focusing detection is carried out in the range of ±h μm from a temporary focus center Zc. The data obtained during the part of image capture timing is processed during the period of transfer timing in an image processing part, and the contrast is calculated from the image in the image processing part. This processing is repeatedly carried out in the range of ±h μm from Zc, and a quadratic functional approximation curve is obtained, the peak of which being the focusing position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、光学系の合焦点位
置を検出する方法に関し、例えば半導体製造用露光装置
においてレチクルに形成されたICやLSI等の回路パ
ターンを投影レンズによりウエハ面上に投影する前にウ
エハ面に形成したアライメントマークを投影レンズを介
して観察し、ウエハの位置情報を得る場合に好適な合焦
点位置検出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting a focal position of an optical system, and for example, a circuit pattern such as an IC or LSI formed on a reticle in a semiconductor manufacturing exposure apparatus is projected onto a wafer surface by a projection lens. The present invention relates to an in-focus position detecting method suitable for obtaining position information of a wafer by observing an alignment mark formed on a wafer surface via a projection lens before projecting.

【0002】[0002]

【従来の技術】従来、投影露光装置において、ウエハ面
に形成したアライメントマークを投影レンズを介して観
察し、ウエハの位置情報を得て、ウエハと被露光パター
ンが刻まれたレチクルの位置合わせを行なっている。こ
のためのウエハアライメントマークの観察方式として、
主に非露光光を用いかつ投影レンズを通さない方式(O
FF−AXIS方式)、露光光を用い、かつレチクルと
投影レンズを通す方式(露光光TTR方式)、非露光光
を用い、かつ投影レンズを通す方式(非露光光TTL方
式)の3通りの方式が用いられていた。特に最近は、ア
ライメント光検出系に撮像素子を用い、得られた1次元
もしくは2次元の画像信号をデジタル変換して、これに
フィルタリングやテンプレートマッチングを施すことに
よりさまざまなプロセスのウエハに対応するようになっ
ている。
2. Description of the Related Art Conventionally, in a projection exposure apparatus, an alignment mark formed on a wafer surface is observed through a projection lens to obtain positional information of the wafer, and the alignment between the wafer and a reticle engraved with a pattern to be exposed is performed. I do. As an observation method of the wafer alignment mark for this purpose,
A method that mainly uses non-exposure light and does not pass through a projection lens (O
FF-AXIS method), a method using exposure light and passing through a reticle and a projection lens (exposure light TTR method), and a method using non-exposure light and passing through a projection lens (non-exposure light TTL method). Was used. In particular, recently, an imaging element is used for an alignment light detection system, and the obtained one-dimensional or two-dimensional image signal is converted into a digital signal, which is subjected to filtering and template matching so as to correspond to wafers of various processes. It has become.

【0003】[0003]

【発明が解決しようとする課題】IC、LSIの微細化
が年々進み、これに伴いより高いアライメント精度がも
とめられるようになってくると、アライメント時の撮像
素子に対するアライメントマークのデフォーカスが問題
となってきた。これはアライメントスコープが理想的な
テレセントリック光学系であればデフォーカスはあまり
問題でないが、実際はスコープの調整上の制限や、投影
レンズを介してのウエハマークの計測の場合は投影レン
ズを含んだ収差の補正が容易でないために理想的なテレ
セントリック光学系とはならず、デフォーカスが発生し
た場合にウエハマークの撮像素子上での像高が変化して
しまい、これが計測誤差となってしまってアライメント
誤差が生じてしまう。
As the miniaturization of ICs and LSIs progresses year by year and higher alignment accuracy is required, defocusing of alignment marks with respect to the image sensor during alignment becomes a problem. It has become. This is because defocus is not a problem if the alignment scope is an ideal telecentric optical system.However, in practice, there are restrictions on the adjustment of the scope and aberrations including the projection lens when measuring wafer marks via the projection lens. Is not an ideal telecentric optical system because it is not easy to correct the image.When defocusing occurs, the image height of the wafer mark on the image sensor changes, which results in a measurement error and alignment. An error occurs.

【0004】これを解決するために、ウエハアライメン
トを行なう前にウエハマークのアライメント検出系の撮
像素子上への合焦点位置を求める場合がある。例えば、
ウエハ上のアライメントマークがアライメントスコープ
検出領域内に入ってウエハステージ位置がトレランス内
に入ったら、仮のフォーカス中心を設けてその位置から
投影レンズ光軸方向 (以下Z方向) にウエハを投影レン
ズ側 (以下投影レンズ側をZの+方向、反対側をΖの−
方向とする) に一定量デフォーカスさせアライメントマ
ーク画像を取り、再び一定量Zの+方向にデフォーカス
させてアライメントマーク画像を取り、これをデフォー
カス量が一定に達するまで繰り返したら、今度は前記仮
のフォーカス中心から−のZ方向に同様に駆動、計測を
繰り返し、得られた複数の異なるZ位置のウエハマーク
画像から合焦点位置を求めている。
In order to solve this problem, there is a case where a focus position of a wafer mark on an image pickup device of an alignment detection system is obtained before performing wafer alignment. For example,
When the alignment mark on the wafer enters the alignment scope detection area and the wafer stage position enters the tolerance, a temporary focus center is set, and the wafer is moved from that position in the direction of the projection lens optical axis (hereinafter, Z direction) to the projection lens side. (Hereinafter, the projection lens side is the + direction of Z, and the opposite side is
Direction), a certain amount of defocusing is performed to obtain an alignment mark image, and a certain amount of Z is again defocused in the + direction to obtain an alignment mark image. This is repeated until the defocus amount reaches a certain amount. Driving and measurement are similarly repeated in the negative Z direction from the temporary focus center, and the in-focus position is obtained from the obtained wafer mark images at a plurality of different Z positions.

【0005】しかしながらこの方法では1マークの合焦
点位置を求めるのに時間がかかる、という欠点がある。
これは主にZステージ駆動に伴うステージの整定時間が
長くZステージ位置が一定のトレランス内に入るのを待
つためである。図5はこの様子を示したもので、制御系
が出力する駆動のプロファイルを61のようにステップ
駆動とすると、プロファイルと実際の位置の差分つまり
エラー62はプロファイル61の立上り (ジャーク) で
大きくなり、振動が収束するのにΖステージの固有振動
数の数周期必要となり、通常振動数は数10Hzのた
め、例えばステージが50nmのトレランスに入るのに
約100msecもかかってしまう。計測はさらにこの
トレランスに入って一定時間経過した後に始めるために
計測に必要な時間が長くなってしまう。ウエハグローバ
ルアライメント時に合計12ショットのウエハアライメ
ントマークを計測するとして、各マーク計測毎に合焦点
位置を求めるものとし、1マーク当たり前記仮フォーカ
ス中心位置からZ方向に±10μm駆動し、1μm毎に
合計21点の画像を取り込むものとした場合、Ζ方向の
1μmの駆動開始から整定まで150msec、画像を
取り込むのに待ち時間を含め66msecかかるとし
て、1ショット当たり(150+66)msec×21
=4536msec、1ウエハ当たり4.536sec
×12=54.432secもかかってしまう。これで
は、ほぼ1ウエハを露光する時間に相当する時間をアラ
イメント合焦点位置検出に要していることになり、スル
ープットを低下させてしまう。
[0005] However, this method has a disadvantage that it takes time to find the in-focus position of one mark.
This is mainly because the settling time of the stage associated with the driving of the Z stage is long and it is necessary to wait for the Z stage position to fall within a certain tolerance. FIG. 5 shows this state. When the drive profile output by the control system is step drive as indicated by 61, the difference between the profile and the actual position, that is, the error 62 increases at the rising edge (jerk) of the profile 61. In order for the vibration to converge, several cycles of the natural frequency of the stage are required. Since the frequency is usually several tens of Hz, it takes about 100 msec for the stage to enter the tolerance of 50 nm, for example. Since the measurement is started after a certain period of time after entering the tolerance, the time required for the measurement becomes longer. Assuming that a total of 12 shots of wafer alignment marks are measured during wafer global alignment, the in-focus position is determined for each mark measurement. The mark is driven ± 10 μm in the Z direction from the temporary focus center position for each mark, and the total is calculated for each 1 μm. Assuming that 21 points of images are captured, it is assumed that it takes 150 msec from the start of 1 μm driving in the か ら direction to settling, and 66 msec including a waiting time to capture an image, and (150 + 66) msec × 21 per shot.
= 4536 msec, 4.536 sec per wafer
× 12 = 54.432 sec. In this case, a time corresponding to a time for exposing one wafer is required for the detection of the focus position of the alignment, and the throughput is reduced.

【0006】本発明の第1の目的は、光学系の合焦点位
置を求める方法において、ステージのステップ駆動に伴
うステージの振動による影響を受けること無く短い計測
時間で光学系の合焦点位置を求めることが可能な合焦点
位置検出方法を提供することである。
A first object of the present invention is to provide a method of determining a focal point of an optical system in a short measurement time without being affected by the vibration of the stage accompanying the step driving of the stage. It is an object of the present invention to provide an in-focus position detecting method capable of performing the following.

【0007】本発明の第2の目的は、光学系の合焦点位
置を求める方法において、高精度に光学系の合焦点位置
を求めることが可能な合焦点位置検出方法を提供するこ
とである。
A second object of the present invention is to provide a focusing position detecting method capable of determining the focusing position of the optical system with high accuracy in the method of determining the focusing position of the optical system.

【0008】本発明の第3の目的は、光学系の合焦点位
置を求める方法において、ステージのステップ駆動に伴
うステージの振動による影響を受けること無く簡便な方
法で高精度に光学系の合焦点位置を求めることが可能な
合焦点位置検出方法を提供することである。
A third object of the present invention is to provide a method for determining the focal point of an optical system, which is simple and highly accurate without being affected by the vibration of the stage accompanying the step driving of the stage. It is an object of the present invention to provide a focus position detection method capable of obtaining a position.

【0009】本発明の第4の目的は、光学系の像面を求
める方法において、ステージのステップ駆動に伴うステ
ージの振動による影響を受けること無く短い計測時間で
光学系の像面を求めることが可能な像面検出方法を提供
することである。
A fourth object of the present invention is to provide a method of obtaining an image plane of an optical system in a short measurement time without being affected by the vibration of the stage accompanying the step driving of the stage. It is to provide a possible image plane detection method.

【0010】本発明の第5の目的は、光学系の像面を求
める方法において、高精度に光学系の像面を求めること
が可能な像面検出方法を提供することである。
A fifth object of the present invention is to provide an image plane detecting method capable of obtaining an image plane of an optical system with high accuracy in a method of obtaining an image plane of an optical system.

【0011】本発明の第6の目的は、光学系に照射され
る光がパルス光である場合に、高精度に光学系の像面を
求めることが可能な像面検出方法を提供することであ
る。
A sixth object of the present invention is to provide an image plane detecting method capable of determining the image plane of the optical system with high accuracy when the light irradiated to the optical system is pulsed light. is there.

【0012】本発明の第7の目的は、光学系の像面を求
める方法において、ステージのステップ駆動に伴うステ
ージの振動による影響を受けること無く簡便な方法で高
精度に光学系の像面を求めることが可能な像面検出方法
を提供することである。
A seventh object of the present invention is to provide a method for obtaining an image plane of an optical system, which is capable of accurately and accurately detecting an image plane of an optical system by a simple method without being affected by vibration of a stage accompanying step driving of the stage. An object of the present invention is to provide an image plane detection method that can be obtained.

【0013】[0013]

【課題を解決するための手段および作用】上記第1の目
的を達成するために、本発明の第1の局面では、光学系
の光軸方向に移動可能なステージにより物体を該光学系
の結像面を含む所定の範囲の一方から他方へ移動し、該
移動期間中に該光学系を介して観察される前記物体の像
を撮像素子により複数回撮像し、得られたステージ位置
の異なる複数の画像より該光学系の合焦点位置を求める
ことを特徴とする。
In order to achieve the first object, according to a first aspect of the present invention, an object is connected to a stage by a stage movable in the optical axis direction of the optical system. Moving from one side of the predetermined range including the image plane to the other, capturing the image of the object observed through the optical system a plurality of times by the image sensor during the movement period, and obtaining a plurality of different stage positions. The in-focus position of the optical system is obtained from the above image.

【0014】また、上記第2の目的を達成するために
は、前記第1の局面において、さらに前記移動期間中に
計測タイミング信号を発生し、該計測タイミング信号と
同期して前記ステージの位置を計測するとともに前記撮
像素子の蓄積期間をモニタして該蓄積期間中の該ステー
ジの位置誤差を求め、該撮像素子により得られた画像に
対応する該ステージの位置を該位置誤差に基づいて補正
すればよい。また、前記観察用の光がパルス光である場
合には、前記移動期間中に計測タイミング信号を発生
し、該計測タイミング信号と同期して前記ステージの位
置を計測するとともに前記撮像素子の蓄積期間および前
記パルス光の発光タイミングをモニタして該蓄積期間中
の該発光時、発光前または発光後の該ステージの位置誤
差を求め、該撮像素子により得られた画像に対応する該
ステージの位置を該位置誤差に基づいて補正すればよ
い。
In order to achieve the second object, in the first aspect, a measurement timing signal is generated during the movement period, and the position of the stage is synchronized with the measurement timing signal. Measure and monitor the accumulation period of the image sensor to determine the position error of the stage during the accumulation period, and correct the position of the stage corresponding to the image obtained by the image sensor based on the position error. I just need. Further, when the observation light is pulsed light, a measurement timing signal is generated during the movement period, the position of the stage is measured in synchronization with the measurement timing signal, and an accumulation period of the imaging element is measured. And monitoring the light emission timing of the pulse light to determine the position error of the stage before or after light emission during the light emission during the accumulation period, and determine the position of the stage corresponding to the image obtained by the imaging device. What is necessary is just to correct based on this position error.

【0015】また、上記第3の目的を達成するために
は、前記前記第1の局面において、前記撮像素子の蓄積
期間を前記ステージの移動方向の制御系の振動成分の内
最大のパワーを持つ周波数成分の周期の整数倍にほぼ一
致させるとよい。
[0015] In order to achieve the third object, in the first aspect, the storage period of the image sensor is set to have a maximum power among vibration components of a control system of a movement direction of the stage. It is preferable to make the frequency substantially equal to an integral multiple of the period of the frequency component.

【0016】上記第4の目的を達成するため本発明の第
2の局面では、光学系の光軸方向または該光軸方向およ
び該光軸を法線とする平面上の直交する軸に平行な軸の
回りの回転方向に移動可能なステージにより物体を該光
学系の結像面を含む所定の範囲の一方から他方へ移動
し、該移動期間中に該光学系を介して観察される前記物
体の像を単数または複数の撮像素子により撮像し、得ら
れたステージ位置または姿勢および像高の異なる複数の
画像より該光学系の像面を求めることを特徴とする。
In order to achieve the fourth object, according to a second aspect of the present invention, in the optical axis direction of the optical system, or in the direction parallel to the axis orthogonal to the optical axis direction and a plane normal to the optical axis. An object which is moved from one side of a predetermined range including the image forming surface of the optical system to the other by a stage movable in a rotational direction about an axis, and which is observed via the optical system during the moving period; Is captured by a single or a plurality of image sensors, and an image plane of the optical system is obtained from a plurality of obtained images having different stage positions or postures and different image heights.

【0017】また、上記第5の目的を達成するために
は、前記第2の局面において、さらに前記移動期間中に
計測タイミング信号を発生し、該計測タイミング信号と
同期して前記ステージの位置および姿勢を計測するとと
もに前記撮像素子の蓄積期間をモニタして該蓄積期間中
の該ステージの位置および姿勢誤差を求め、該撮像素子
により得られた画像に対応する該ステージの位置および
姿勢を該位置および姿勢誤差に基づいて補正すればよ
い。
In order to achieve the fifth object, in the second aspect, a measurement timing signal is generated during the movement period, and the position and the position of the stage are synchronized with the measurement timing signal. The posture is measured and the accumulation period of the image sensor is monitored to determine the position and orientation error of the stage during the accumulation period, and the position and orientation of the stage corresponding to the image obtained by the image sensor are determined by the position. The correction may be made based on the position error and the posture error.

【0018】また、上記第6の目的を達成するために
は、前記第2の局面において、さらに前記移動期間中に
計測タイミング信号を発生し、該計測タイミング信号と
同期して前記ステージの位置および姿勢を計測するとと
もに前記撮像素子の蓄積期間および前記パルス光の発光
タイミングをモニタして該蓄積期間中の該発光時、発光
前または発光後の該ステージの位置および姿勢誤差を求
め、該撮像素子により得られた画像に対応する該ステー
ジの位置および姿勢を該位置および姿勢誤差に基づいて
補正するとよい。
In order to achieve the sixth object, in the second aspect, a measurement timing signal is generated during the movement period, and the position and the position of the stage are synchronized with the measurement timing signal. The position of the stage and the position error of the stage before or after the light emission during the accumulation period and the light emission timing of the pulse light are monitored by measuring the posture and monitoring the accumulation period of the image sensor and the light emission timing of the pulsed light. The position and orientation of the stage corresponding to the image obtained by the above may be corrected based on the position and orientation errors.

【0019】また、上記第7の目的を達成するために
は、前記第2の局面において、前記撮像素子の蓄積期間
を前記ステージの移動方向の制御系の振動成分の内最大
のパワーを持つ周波数成分の周期の整数倍にほぼ一致さ
せるとよい。
In order to achieve the seventh object, in the second aspect, the accumulation period of the image pickup device is set to a frequency having a maximum power of a vibration component of a control system of a moving direction of the stage. It is good to make it substantially equal to an integral multiple of the cycle of the component.

【0020】[0020]

【発明の実施の形態】次に、本発明の実施の形態を述べ
る。本発明の第1の実施の形態は、レンズの合焦点位置
を求める方法において、該レンズの結像面近傍に配置さ
れた少なくとも該レンズの光軸方向に移動可能なステー
ジを移動し、該ステージの移動期間の中の等速度期間に
該レンズを介して観察される該ステージ上に配置された
物体の像を撮像素子により観察し、得られた複数の画像
より該レンズの合焦点位置を求めることにより、ステー
ジのステップ駆動に伴うステージの振動による影響を受
けること無く短い計測時間でレンズの合焦点位置を求め
ることを可能としたものである。
Next, an embodiment of the present invention will be described. According to a first embodiment of the present invention, in a method of determining a focal point position of a lens, a stage, which is disposed near an imaging plane of the lens and is movable in at least an optical axis direction of the lens, is moved. An image of an object placed on the stage, which is observed through the lens during the constant velocity period during the moving period, is observed by the imaging device, and the in-focus position of the lens is obtained from the obtained images. Thus, the in-focus position of the lens can be obtained in a short measurement time without being affected by the vibration of the stage accompanying the step driving of the stage.

【0021】また、本発明の第2の実施の形態は、レン
ズの合焦点位置を求めるために、該レンズの結像面近傍
ヘステージ上の基板を移動できる、少なくとも該レンズ
の光軸方向に移動可能なステージを移動し、該レンズを
介して観察される該ステージ上に配置された物体の像を
撮像素子により観察し得られた異なる該ステージ位置の
複数の画像より該レンズの合焦点位置を求める合焦点位
置検出方法において、該ステージの位置を計測するため
の計測タイミング発生部を持ち、該タイミング発生部か
らの信号と同期して該ステージの位置を計測すると共
に、前記撮像素子の蓄積期間をモニタして該蓄積期間中
の該ステージの位置誤差を求め、該撮像素子により得ら
れた画像に対応する該ステージ位置を補正することによ
り高精度にレンズの合焦点位置を求めることを可能とし
たものである。
In the second embodiment of the present invention, the substrate on the stage can be moved to a position near the image forming plane of the lens in order to obtain the focal point of the lens. Moving a possible stage, the focal point position of the lens is determined from a plurality of images at different stage positions obtained by observing an image of an object placed on the stage observed through the lens by an image sensor. In the method for detecting the in-focus position to be obtained, a measurement timing generator for measuring the position of the stage is provided, the position of the stage is measured in synchronization with a signal from the timing generator, and an accumulation period of the image sensor is stored. Is monitored to determine the position error of the stage during the accumulation period, and the stage position corresponding to the image obtained by the image pickup device is corrected, so that the lens position can be accurately determined. It is obtained by enabling the determination of the focal position.

【0022】また、本発明の第3の実施の形態は、レン
ズの像面を求めるために、該レンズの結像面近傍へステ
ージ上の基板を移動できる、少なくとも該レンズの光軸
方向または光軸方向および光軸を法線とする平面上の直
交する軸に平行な軸の回りの回転方向に移動可能なステ
ージを移動し、該ステージの移動期間の中の等速度期間
に該レンズを介して観察される該ステージ上に配置され
た物体の像を一つまたは複数の撮像素子により観察し得
られた複数の画像より該レンズの像面を求めることによ
り、ステージのステップ駆動に伴うステージの振動によ
る影響を受けること無く短い計測時間でレンズの合焦点
位置を求めることを可能としたものである。
In a third embodiment of the present invention, in order to obtain an image plane of a lens, a substrate on a stage can be moved to a position near an imaging plane of the lens. Moving a stage movable in a rotation direction about an axis parallel to an orthogonal axis on a plane having a normal to the axial direction and the optical axis, and moving the stage through the lens during a constant velocity period in the moving period of the stage. By obtaining the image plane of the lens from a plurality of images obtained by observing an image of an object placed on the stage observed by the one or more imaging devices, the stage of the stage accompanying the step driving of the stage is observed. The in-focus position of the lens can be obtained in a short measurement time without being affected by vibration.

【0023】また、本発明の第4の実施の形態は、レン
ズの像面を求めるために、該レンズの結像面近傍へステ
ージ上の基板を移動できる、少なくとも該レンズの光軸
方向または光軸方向および光軸を法線とする平面上の直
交する軸に平行な軸の回りの回転方向に移動可能なステ
ージを移動し、該レンズを介して観察される該ステージ
上に配置された物体の像を一つまたは複数の撮像素子に
より観察し得られた異なる該ステージ位置の複数の画像
より該レンズの像面を求める合焦点位置検出方法におい
て、該ステージの位置を計測するための計測タイミング
発生部を持ち、該タイミング発生部からの信号と同期し
て該ステージの位置を計測すると共に、前記撮像素子の
蓄積期間をモニタして該蓄積期間中の該ステージの位置
誤差を求め、該撮像素子により得られた画像に対応する
該ステージ位置を補正することにより高精度にレンズの
像面を求めることが可能としたものである。
Further, in the fourth embodiment of the present invention, in order to obtain the image plane of the lens, the substrate on the stage can be moved to the vicinity of the imaging plane of the lens. An object placed on the stage that moves through a stage that is movable in a direction of rotation about an axis parallel to an orthogonal axis on a plane having a normal to the axial direction and the optical axis, and that is observed through the lens Measurement timing for measuring the position of the stage in the in-focus position detection method for obtaining the image plane of the lens from a plurality of images at different stages obtained by observing the image of the stage with one or more imaging devices A timing generator for measuring the position of the stage in synchronization with the signal from the timing generator, and monitoring the accumulation period of the image sensor to determine the position error of the stage during the accumulation period; It is obtained by possible to obtain the image surface of the lens with high accuracy by correcting the stage position corresponding to the obtained image by the element.

【0024】また、本発明の第5の実施の形態は、レン
ズの像面を求めるために、該レンズの結像面近傍へステ
ージ上の基板を移動できる、少なくとも該レンズの光軸
方向または光軸方向および光軸を法線とする平面上の直
交する軸に平行な軸の回りの回転方向に移動可能なステ
ージを移動し、該レンズを介して観察される該ステージ
上に配置された物体の像を一つまたは複数の撮像素子に
より観察し得られた異なる該ステージ位置の複数の画像
より該レンズの像面を求める合焦点位置検出方法におい
て、該レンズに照射される光がパルス光であり、該ステ
ージの位置を計測するための計測タイミング発生部を持
ち、該タイミング発生部からの信号と同期して該ステー
ジの位置を計測すると共に、前記撮像素子の蓄積期間お
よび前記パルス光の発光タイミングをモニタして該蓄積
期間中の該発光時のまたは発光前のもしくは発光後の該
ステージの位置誤差を求め、該撮像素子により得られた
画像に対応する該ステージ位置を補正することにより、
高精度にレンズの像面を求めることを可能としたもので
ある。
In a fifth embodiment of the present invention, in order to obtain an image plane of a lens, a substrate on a stage can be moved to a position near an imaging plane of the lens. An object placed on the stage that moves through a stage that is movable in a direction of rotation about an axis parallel to an orthogonal axis on a plane having a normal to the axial direction and the optical axis, and that is observed through the lens In the in-focus position detection method for obtaining the image plane of the lens from a plurality of images at different stage positions obtained by observing the image by one or a plurality of imaging devices, light irradiated to the lens is pulsed light. A measurement timing generator for measuring the position of the stage; measuring the position of the stage in synchronization with a signal from the timing generator; By monitoring the light emission timing to determine a position error of the stage at the time of the light emission or before or after the light emission during the accumulation period, and correcting the stage position corresponding to the image obtained by the imaging device. ,
This makes it possible to obtain the image plane of the lens with high accuracy.

【0025】また、本発明の第6の実施の形態は、レン
ズの合焦点位置を求める方法において、該レンズの結像
面近傍へステージ上の基板を移動できる少なくとも該レ
ンズの光軸方向または光軸方向および光軸を法線とする
平面上の直交する軸に平行な軸の回りの回転方向に移動
可能なステージを移動し、該ステージの移動期間の中の
等速度期間に該レンズを介して観察される該ステージ上
に配置された物体の像を、蓄積期間が前記ステージの移
動方向の制御系の振動成分の内最大のパワーを持つ周波
数成分の周期の整数倍にほぼ一致した撮像素子により観
察し得られた複数の画像より該レンズの合焦点位置を求
めることにより、簡便な構成でステージのステップ駆動
に伴うステージの振動による影響を受けること無く短い
計測時間でレンズの合焦点位置を求めることを可能とし
たものである。
According to a sixth embodiment of the present invention, there is provided a method for determining a focal point position of a lens, wherein at least an optical axis direction of the lens or an optical axis capable of moving a substrate on a stage near an imaging plane of the lens. Moving a stage movable in a rotation direction about an axis parallel to an orthogonal axis on a plane having a normal to the axial direction and the optical axis, and moving the stage through the lens during a constant velocity period in the moving period of the stage. An image of an object placed on the stage observed by the imaging device, the accumulation period of which substantially coincides with an integral multiple of the cycle of the frequency component having the maximum power among the vibration components of the control system in the moving direction of the stage. The in-focus position of the lens is obtained from a plurality of images obtained by observation, and the lens can be measured in a short time with a simple configuration without being affected by the vibration of the stage accompanying the step driving of the stage. It is obtained by enabling the determination of the focus position.

【0026】また、本発明の第7の実施の形態は、レン
ズの像面を求めるために、該レンズの結像面近傍へステ
ージ上の基板を移動できる、少なくとも該レンズの光軸
方向または光軸方向および光軸を法線とする平面上の直
交する軸に平行な軸の回りの回転方向に移動可能なステ
ージを移動し、該ステージの移動期間の中の等速度期間
に該レンズを介して観察される該ステージ上に配置され
た物体の像を蓄積期間が前記ステージの移動方向の制御
系の振動成分の内最大のパワーを持つ周波数成分の周期
の整数倍にほぼ一致した一つまたは複数の撮像素子によ
り観察し得られた複数の画像より該レンズの像面を求め
ることにより、簡便な構成でステージのステップ駆動に
伴うステージの振動による影響を受けること無く短い計
測時間でレンズの合焦点位置を求めることを可能とした
ものである。
In a seventh embodiment of the present invention, in order to obtain an image plane of a lens, a substrate on a stage can be moved to a position near an imaging plane of the lens. Moving a stage movable in a rotation direction about an axis parallel to an orthogonal axis on a plane having a normal to the axial direction and the optical axis, and moving the stage through the lens during a constant velocity period in the moving period of the stage. The accumulation period of an image of an object placed on the stage observed by one or more of the vibration components of the control system for the movement direction of the stage substantially coincides with an integral multiple of the cycle of the frequency component having the maximum power. By obtaining the image plane of the lens from a plurality of images obtained by observation by a plurality of image sensors, the lens can be measured in a short time with a simple configuration without being affected by the vibration of the stage accompanying the step driving of the stage. It is obtained by enabling the determination of the focal position.

【0027】[0027]

【実施例】以下、図面を用いて本発明の実施例を説明す
る。第1の実施例 図1は本発明の第1の実施例に係る合焦点位置検出方法
が適用される投影露光装置の部分概略図である。
Embodiments of the present invention will be described below with reference to the drawings. First Embodiment FIG. 1 is a partial schematic view of a projection exposure apparatus to which a focus position detecting method according to a first embodiment of the present invention is applied.

【0028】図1において、1は縮小投影レンズであ
り、その光軸は図中AXで示され、またその像面は図中
AX方向と垂直な関係にある。照明系11はi線、エキ
シマレーザ光等の紫外光を照射する。
In FIG. 1, reference numeral 1 denotes a reduction projection lens whose optical axis is indicated by AX in the figure, and whose image plane is perpendicular to the AX direction in the figure. The illumination system 11 emits ultraviolet light such as i-line and excimer laser light.

【0029】レチクル2はレチクルステージ3上に保持
され、レチクル2のパターンは縮小投影レンズ1の倍率
で1/5ないし1/2に縮小投影されその像面に像を形
成する。4は表面にレジストが塗布されたウエハであり
先の露光工程で形成された多数個の被露光領域(ショッ
ト)が配列されている。
The reticle 2 is held on a reticle stage 3, and the pattern of the reticle 2 is reduced and projected to 1/5 to 1/2 at the magnification of the reduction projection lens 1 to form an image on its image plane. Reference numeral 4 denotes a wafer having a surface coated with a resist, on which a plurality of exposure regions (shots) formed in the previous exposure step are arranged.

【0030】5はウエハを載置するステージで、ウエハ
4をウエハステージ5に吸着・固定するチャック、X軸
方向とY軸方向に各々水平移動可能なXYステージ、3
軸のΖ方向アクチエーター7やZ方向位置検出センサ6
により制御され投影レンズ1の光軸方向であるΖ軸方向
への移動およびX軸、Y軸方向に水平な軸の回りに回転
可能なレベリングステージ、前記Ζ軸に水平な軸の回り
に回転可能な回転ステージにより構成されており、レチ
クルパターン像をウエハ上の被露光領域に合致させるた
めの6軸補正系を構成している。また、ウエハステージ
上にはアライメントマーク等が刻まれたステージマーク
8が構成される。
Reference numeral 5 denotes a stage on which the wafer is placed, a chuck for attracting and fixing the wafer 4 to the wafer stage 5, an XY stage which can be moved horizontally in the X-axis direction and the Y-axis direction,
Ζ-axis actuator 7 and Z-direction position detection sensor 6
A leveling stage that is controlled by the optical axis of the projection lens 1 and is rotatable about an axis that is horizontal in the X-axis and Y-axis directions, and is rotatable about an axis that is horizontal to the axis. And a six-axis correction system for matching a reticle pattern image to a region to be exposed on a wafer. A stage mark 8 having an alignment mark or the like is formed on the wafer stage.

【0031】図1においては3つのアライメントスコー
プがあり、TTRアライメントスコープ10は露光光と
同じかもしくはほぼ同じ波長のTTRアライメント照明
系12からの光によってレチクル2と投影レンズ1を介
してウエハ4上のウエハマークまたはステージマーク8
を照明し、該マークからの反射光は同じ経路を通りTT
Rアライメントスコープ10に戻る。TTRアライメン
トスコープ10内には偏光子が入っているために照明光
と反射光は干渉しない。反射光は撮像素子13上に結像
し画像として画像処理部20に取り込まれる。切り替え
ミラー17はウエハ露光中は照明系の露光域外に逃げ、
TTRアライメントスコープ10から投影レンズ1を介
してウエハステージ5上を観測する時のみ露光域内に移
動する。オフアクシスアライメントスコープ9は図示し
ない光源からの非露光光により照明されたウエハ4上の
ウエハマークまたはステージマーク8の像を撮像素子1
4上に結像する。この像は画像として画像処理部20に
取り込まれる。また、TTLオフアクシスアライメント
スコープ15は投影レンズ1を介して図示しない光源か
らの非露光光により照明されたウエハ4上のウエハマー
クまたはステージマーク8の像を撮像素子16上に結像
する。この像も同様に画像として画像処理部20に取り
込まれる。
In FIG. 1, there are three alignment scopes, and a TTR alignment scope 10 is provided on a wafer 4 via a reticle 2 and a projection lens 1 by light from a TTR alignment illumination system 12 having the same or substantially the same wavelength as exposure light. Wafer mark or stage mark 8
And the reflected light from the mark follows the same path as TT
Return to the R alignment scope 10. Since a polarizer is contained in the TTR alignment scope 10, the illumination light and the reflected light do not interfere with each other. The reflected light forms an image on the image sensor 13 and is taken into the image processing unit 20 as an image. The switching mirror 17 escapes outside the exposure area of the illumination system during wafer exposure,
Only when observing the wafer stage 5 from the TTR alignment scope 10 via the projection lens 1, it moves into the exposure area. The off-axis alignment scope 9 captures an image of a wafer mark or a stage mark 8 on the wafer 4 illuminated by non-exposure light from a light source (not shown).
4. This image is taken into the image processing unit 20 as an image. The TTL off-axis alignment scope 15 forms an image of the wafer mark or the stage mark 8 on the wafer 4 illuminated by the non-exposure light from a light source (not shown) via the projection lens 1 on the image sensor 16. This image is similarly captured by the image processing unit 20 as an image.

【0032】図1に示すメイン制御部24はレチクル2
の像をウエハ4の所定領域にXY面内の位置(X,Yの
位置、およびΖ軸に平行な軸の回りの回転Θ) とΖ方向
の位置(X,Y各軸に平行な軸の回りの回転α,βおよ
びΖ軸上の高さΖ)を調整しながら露光を行なうように
全系をコントロールしている。すなわち、レチクルパタ
ーンのXY面内での位置合わせはレチクルステージ3上
の図示しない干渉計とウエハステージ5上の図示しない
干渉計の位置データとアライメントスコープ9,10,
15から得られるウエハ4の位置データから制御データ
を算出し、レチクル位置制御系23およびウエハ位置制
御系22をコントロールすることにより実現している。
The main control unit 24 shown in FIG.
Is placed in a predetermined area of the wafer 4 at a position in the XY plane (the position of X and Y, and {rotation around an axis parallel to the axis}) and the position in the Ζ direction (of the axis parallel to each of the X and Y axes). The entire system is controlled so as to perform exposure while adjusting the rotations α, β and {height on the axis}). That is, the alignment of the reticle pattern in the XY plane is performed by the position data of the interferometer (not shown) on the reticle stage 3 and the interferometer (not shown) on the wafer stage 5 and the alignment scopes 9, 10, and 10.
This is realized by calculating control data from the position data of the wafer 4 obtained from 15 and controlling the reticle position control system 23 and the wafer position control system 22.

【0033】以下、本発明の第1の実施例に係る合焦点
位置検出方法によりオフアクシスアライメントスコープ
9の合焦点位置を検出する方法を述べる。図2は横軸を
時間にとったときの、ウエハステージ5をΖ方向にΖ1
からΖ2まで駆動した時のウエハステージ制御系22が
生成するΖ方向駆動目標位置31、Ζ方向位置センサ6
が検出した実際のΖ方向の位置32、センサ検出に基づ
く加速度33、目標位置31と実際に駆動された位置3
2の誤差成分34を示す。誤差成分34を見ると、駆動
開始と終了時点では誤差が大きいので、計測にはこの部
分を除く等速移動期間を合焦点計測範囲35として使用
する。仮フォーカス中心をΖcとしてこのΖcから±h
μmの範囲で合焦点検出のための計測を行なうとする。
図3は図2のAの部分を拡大したものに、撮像素子によ
る画像取り込みタイミングIgと転送タイミングItを
追記したものである。Igの部分で得られたデータはI
tの期間に画像処理部20に転送され、処理される。こ
の場合、Igで蓄積された画像に対応するウエハステー
ジのΖ方向位置Ζkは、Ig間にΖ方向位置測定系が間
隔tdでn回計測するとして、各Ζ方向位置測定サンプ
リング位置での誤差をδiとすると、
Hereinafter, a method of detecting the focus position of the off-axis alignment scope 9 by the focus position detection method according to the first embodiment of the present invention will be described. FIG. 2 shows that the wafer stage 5 is moved in the Ζ direction by Ζ1 when the horizontal axis represents time.
Drive target position 31 and ウ エ ハ direction position sensor 6 generated by wafer stage control system 22 when driven from to Ζ2
, The actual position 32 in the Ζ direction, the acceleration 33 based on the sensor detection, the target position 31, and the position 3 actually driven.
2 shows an error component 34. Looking at the error component 34, since the error is large at the start and end of driving, the constant velocity movement period excluding this part is used as the in-focus measurement range 35 for measurement. Assuming that the temporary focus center is Δc, ± h from this Δc
It is assumed that measurement for focus detection is performed in the range of μm.
FIG. 3 is an enlarged view of the portion A in FIG. 2, in which an image capture timing Ig and a transfer timing It by the image sensor are additionally written. The data obtained in the Ig part is I
The image data is transferred to the image processing unit 20 and processed in the period of t. In this case, the Ζ-direction position Ζk of the wafer stage corresponding to the image accumulated in Ig is determined by measuring the error at each Ζ-direction position measurement sampling position on the assumption that the Ζ-direction position measurement system measures n times at intervals of td between Ig. If δi,

【0034】[0034]

【数1】 で与えられる。このIgの期間に得られた画像から画像
処理部20にてコントラスト計算を行なう。コントラス
ト評価値は、例えば画像中のウエハマークの範囲を微分
してその微分値のヒストグラムからP−タイル法で求め
る。
(Equation 1) Given by A contrast calculation is performed by the image processing unit 20 from the image obtained during the Ig period. The contrast evaluation value is obtained, for example, by differentiating the range of the wafer mark in the image from the histogram of the differential value by the P-tile method.

【0035】以上の処理を、ウエハステージ5が図2中
のΖc−hからΖc+hの位置までの等速移動期間内に
繰り返し行ない、各ウエハΖ方向位置に対するコントラ
スト評価値をプロットしたものが図4である。各Ζ位置
におけるデータ38から最小自乗法による2次関数近似
曲線39を求めてこのピークΖtcを合焦点位置とす
る。最小自乗法以外に、重心計算値や対象度等によりピ
ークを求めてもよい。
The above processing is repeated during the constant speed movement period of the wafer stage 5 from the position Ζc−h to the position Ζc + h in FIG. 2, and the contrast evaluation value for each wafer Ζ direction position is plotted in FIG. It is. A quadratic function approximation curve 39 is obtained by the least squares method from the data 38 at each 法 position, and this peak Ζtc is set as the focal point position. In addition to the least squares method, the peak may be obtained based on the calculated value of the center of gravity or the degree of object.

【0036】本実施例によれば、Ζステージのステップ
駆動による振動収束をまつ必要が無いので、高速でアラ
イメントスコープの合焦点位置の検出が可能となる。例
えば仮フォーカス中心から±10μmの範囲を1sec
でスキャンしたとしても1ショット1秒でフォーカス計
測を終えることになり、1ウエハ12ショットでも12
secしかかからない。また、蓄積時間を33msec
としても33msec中に移動するZステージの量は
0.66μmとなり、通常のオフアクシスアライメント
スコープの焦点深度は数μmあるのでボケた画像となら
ず、コントラスト処理を行なっても図4のようなはっき
りとした近似関数のピークが得られる。
According to the present embodiment, it is not necessary to wait for the vibration convergence due to the step driving of the Ζ stage, so that the in-focus position of the alignment scope can be detected at high speed. For example, a range of ± 10 μm from the temporary focus center is 1 sec.
Even if the scanning is performed in the same way, the focus measurement is completed in one second per one shot, and even if 12 shots per wafer
It only takes seconds. In addition, the accumulation time is 33 msec.
Even so, the amount of the Z stage that moves during 33 msec is 0.66 μm, and the depth of focus of a normal off-axis alignment scope is several μm. Is obtained.

【0037】なお、Z方向走査範囲Zscan、検出時
間Tmeas、撮像素子蓄積時間Igおよび検出Z方向
分解能Zresは次の式を満足するように設定した方が
高精度な検出が期待できる。
It should be noted that if the Z-direction scanning range Zscan, the detection time Tmeas, the image pickup device accumulation time Ig, and the detection Z-direction resolution Zres are set so as to satisfy the following equations, high-precision detection can be expected.

【0038】[0038]

【数2】 以上は、オフアクシススコープ9の合焦点位置を検出す
る実施例を述べたが、TTRオフアクシススコープ15
や、照明系11がCW光源の場合のTTLアライメント
スコープ10の合焦点位置も同様に求めることができ
る。
(Equation 2) In the above, the embodiment in which the focus position of the off-axis scope 9 is detected has been described.
Alternatively, the in-focus position of the TTL alignment scope 10 when the illumination system 11 is a CW light source can be similarly obtained.

【0039】第2の実施例 また、第1の実施例においては、ウエハステージ5をZ
方向に等速移動させながら合焦点計測を実行する例を示
したが、本発明によれば、計測期間中のウエハ位置を図
5のような階段(ステップ)状に送っていった場合でも
高速に合焦点位置を検出することができる。図5におい
て、61はZステージをΔhピッチで高さ0から高さΖ
hに送った時のステップパターン、62は誤差成分であ
る。Igは画像の取り込み期間で、従来は一定の小さな
トレランスZtに入って一定時間td経過してから時刻
t1で取り込みを開始していたが、本発明を適用すれば
図5のようにトレランスに入っていない時間t2から取
り込み始めても、このIgで蓄積された画像に対応する
ウエハステージのZ方向位置Ζk′は図3の場合と同様
に各Ζ方向位置測定サンプリング位置での誤差をδiと
すると、
Second Embodiment In the first embodiment, the wafer stage 5 is
Although an example in which the in-focus measurement is performed while moving at a constant speed in the direction has been described, according to the present invention, even if the wafer position during the measurement period is sent in a staircase (step) shape as shown in FIG. The in-focus position can be detected. In FIG. 5, reference numeral 61 denotes a Z stage at a Δh pitch from height 0 to height Ζ.
The step pattern when sent to h, 62 is an error component. Ig is an image capture period. Conventionally, capture has started at time t1 after a certain time td has elapsed after entering a small tolerance Zt. However, if the present invention is applied, the tolerance enters the tolerance as shown in FIG. Even when the capture is started at time t2 when the image is not captured, the Z-direction position Ζk 'of the wafer stage corresponding to the image accumulated by Ig is the error at each Ζ-direction position measurement sampling position as in FIG.

【0040】[0040]

【数3】 として誤差分が補正できるのでステージの整定を待たず
してデータの取り込みが可能となる。
(Equation 3) Since the error can be corrected, data can be captured without waiting for the stage to settle.

【0041】図3の場合と同様にウエハΖ方向位置を仮
フォーカス点Zcを中心にZc±hの範囲でステップ状
に送って行き、図5と同じ取り込みタイミングで画像取
り込みして前述のコントラスト処理をすれば、図3の場
合と同様に図4のデータが得られ、このデータから合焦
点位置を求めることができる。
As in the case of FIG. 3, the position in the wafer Ζ direction is sent stepwise within the range of Zc ± h around the temporary focus point Zc, and the image is fetched at the same fetch timing as in FIG. Then, the data of FIG. 4 is obtained as in the case of FIG. 3, and the in-focus position can be obtained from this data.

【0042】第3の実施例 図6は本発明の第3の実施例に係る制御系を示すブロッ
ク図である。図6ではウエハステージ制御系22はΖ方
向(X,Y各軸に平行な軸の回りの回転α,βおよびZ
軸上の高さZ)の制御系のみ記載してある。Ζ方向を駆
動する場合は、同期信号発生部84からの計測パルス8
5に同期してウエハΖ方向位置計測部82が計測したΖ
方向センサ6の値と、演算装置81で演算して算出する
Ζ方向駆動プロファイルとの差分を演算装置81がZ方
向駆動装置83に出力してΖ方向アクチエータ7を駆動
する。撮像素子13から得られた画像は画像処理部20
で取り込む。この時に撮像素子13の蓄積期間をしめす
GATE信号86をウエハZ方向計測部82に送ってど
のタイミングで画像が蓄積されているかをウエハΖ方向
計測部82が知ることが出来るようにする。もしくは、
同期信号発生部84から画像処理部へ同期信号87を出
してもよいが、通常、画像処理部20は内部で発生する
信号で処理した方が設計的に容易なのでGATE信号8
6をウエハΖ方向計測部82に送りPPLやデジタルP
LLで同期をとる。これにより本実施例の処理が可能と
なる。
Third Embodiment FIG. 6 is a block diagram showing a control system according to a third embodiment of the present invention. In FIG. 6, the wafer stage control system 22 includes rotations α, β, and Z around axes parallel to the Ζ direction (X and Y axes).
Only the control system of the height Z) on the axis is shown. When driving in the を direction, the measurement pulse 8 from the synchronization signal generation unit 84 is used.
5, the wafer {direction measured by the position measurement unit 82}
The arithmetic unit 81 outputs the difference between the value of the direction sensor 6 and the Ζ direction drive profile calculated and calculated by the arithmetic unit 81 to the Z direction drive unit 83 to drive the Ζ direction actuator 7. The image obtained from the imaging device 13 is
Take in. At this time, a GATE signal 86 indicating the accumulation period of the image sensor 13 is sent to the wafer Z direction measurement unit 82 so that the wafer Ζ direction measurement unit 82 can know at what timing an image is accumulated. Or
The synchronizing signal 87 may be output from the synchronizing signal generator 84 to the image processor. However, the GATE signal 8 is usually used because it is easier for the image processor 20 to process with a signal generated internally.
6 to the wafer Ζ direction measuring unit 82 to send PPL or digital P
Synchronize with LL. As a result, the processing of the present embodiment becomes possible.

【0043】第4の実施例 投影レンズはウエハ露光中に露光光やウエハからの反射
光による熱的影響によりレンズ像面が変化したり、像面
湾曲を生じたりする。これを防ぐために、露光量やウエ
ハの反射率、レチクル透過率をパラメータとして計算に
より像面変化を求めたり、ウエハの交換中などに投影レ
ンズの像面を測定したりしてウエハ高さをレンズ像面に
追従させる方法があるが、前者は計算により像面変化に
追従するのは難しく実際には誤差が生じてしまう、後者
は投影レンズのフォーカスを検出するのに時間がかかっ
てしまう、という問題がある。
Fourth Embodiment The projection lens changes the lens image surface or causes a curvature of field due to the thermal effect of exposure light or light reflected from the wafer during wafer exposure. In order to prevent this, the exposure height, the reflectance of the wafer, and the reticle transmittance are used as parameters to calculate the image plane change, or the image plane of the projection lens is measured during wafer replacement, etc. There is a method to follow the image plane, but the former is difficult to follow the change in the image plane by calculation, and it actually causes an error, and the latter takes time to detect the focus of the projection lens. There's a problem.

【0044】本発明によればアライメントスコープの合
焦点位置のみならず、投影レンズ1の合焦点位置(投影
レンズの像面)の変化も高速に検出することができる。
According to the present invention, not only the change of the focal point of the alignment scope but also the change of the focal point of the projection lens 1 (image plane of the projection lens) can be detected at high speed.

【0045】図1にて本発明により投影レンズの像面変
化を検出する方法を述べる。TTRアライメント光源1
2より照射された露光光と等しい波長、もしくは露光波
長近傍の波長のCW光はTTRアライメントスコープ1
0を通って切り替えミラー17で投影レンズ1の露光域
に入りレチクル2、投影レンズ1を通る。この時、該ア
ライメント光がウエハステージ5に照射される位置に投
影レンズ1の解像限界に近いピッチのサジ・メリ方向の
マークが入ったステージマーク8を置く。ステージマー
ク8はマーク以外の部分は該アライメント光に対して反
射面となっているので、投影レンズ1のNA内の反射光
は投影レンズ1およびレチクル2を通り、切り替えミラ
ー17を通ってTTRアライメントスコープ10に入
り、撮像素子13上にステージマーク8の画像が形成さ
れる。
A method for detecting a change in the image plane of the projection lens according to the present invention will be described with reference to FIG. TTR alignment light source 1
CW light having a wavelength equal to or near the exposure light emitted from the exposure light from the TTR alignment scope 1
The light passes through the reticle 2 and the projection lens 1 through the switching mirror 17 to enter the exposure area of the projection lens 1. At this time, a stage mark 8 having a mark in a sagittal direction with a pitch close to the resolution limit of the projection lens 1 is placed at a position where the alignment light is irradiated on the wafer stage 5. Since the portion other than the mark of the stage mark 8 is a reflection surface for the alignment light, the reflected light in the NA of the projection lens 1 passes through the projection lens 1 and the reticle 2 and passes through the switching mirror 17 to perform the TTR alignment. The image enters the scope 10 and the image of the stage mark 8 is formed on the image sensor 13.

【0046】アライメントスコープ9の場合と同様にウ
エハステージ5をΖ方向にスキャンしながら画像のコン
トラストを計測すると図4の様な計測結果が得られるの
で、これからアライメントスコープ9の場合と同じ手法
で合焦点位置を求める。通常、像面位置を求める場合は
像面湾曲が生じている場合が多いので、対物ミラー17
を移動させながら像高の異なる複数の点での合焦点位置
を求めこれらのデータから像面を求める。像面湾曲が小
さい場合は一つの像高のデータから像面を求めてもよ
い。この像面を制御部24に接続された図示しない記憶
装置に記憶して装置オフセットとして管理する。この記
録された像面と新たに計測した像面と比較して像面変化
を検出することができる。ウエハステージ5のZ方向を
この像面に合わせる場合には像面の最小自乗平面を求め
てこの平面にウエハ面を合わせる。図1ではTTRアラ
イメントスコープ10、撮像素子13およびTTRアラ
イメント光源12は1組しか構成されていないが、投影
レンズ光軸AXを中心とした対称な位置にも同様にTT
R観察系を設けて同時に複数の撮像素子で複数の像高の
合焦点位置を求めることもできる。この場合、複数の撮
像素子に加える同期信号は同じものか、他方のものをP
LL等で同期したものとし、複数の撮像素子で同時に計
測を行なう。
When the contrast of the image is measured while scanning the wafer stage 5 in the Ζ direction in the same manner as in the case of the alignment scope 9, a measurement result as shown in FIG. 4 is obtained. Find the focal position. Normally, when the image plane position is obtained, the curvature of the field often occurs.
Is moved, the in-focus positions at a plurality of points having different image heights are obtained, and the image plane is obtained from these data. When the curvature of field is small, the image plane may be obtained from data of one image height. This image plane is stored in a storage device (not shown) connected to the control unit 24 and managed as a device offset. The image plane change can be detected by comparing the recorded image plane with the newly measured image plane. When aligning the Z direction of the wafer stage 5 with this image plane, the least square plane of the image plane is determined, and the wafer plane is aligned with this plane. In FIG. 1, only one set of the TTR alignment scope 10, the image pickup device 13, and the TTR alignment light source 12 is formed, but the TT is similarly placed at a symmetric position about the projection lens optical axis AX.
By providing an R observation system, a plurality of image pickup devices can simultaneously obtain a plurality of image focus in-focus positions. In this case, the synchronization signal applied to the plurality of image sensors is the same or the other is P
Synchronization is performed by LL or the like, and measurement is performed simultaneously by a plurality of image sensors.

【0047】第5の実施例 露光光源がパルス光の場合でも本発明を適用することが
できる。この場合もシーケンスは前述のCW光の場合と
同じだが撮像素子が取り込んでいるのはパルスが発光し
た時の画像の積算なので、画像取り込み時のZk位置は
図7より、
Fifth Embodiment The present invention can be applied even when the exposure light source is pulse light. Also in this case, the sequence is the same as that of the above-described CW light, but the image pickup element captures the image when the pulse is emitted. Therefore, the Zk position at the time of image capture is based on FIG.

【0048】[0048]

【数4】 但し、δjはパルス発光時の (あるいは前の) サンプリ
ングデータで与えられる。これにより、パルスが出てい
ない時の誤差分について除くことができる。
(Equation 4) Here, δj is given by sampling data at (or before) the pulse emission. As a result, it is possible to eliminate an error when no pulse is output.

【0049】この場合の制御系の構成は図6において露
光制御部88から出した発光タイミング信号90をウエ
ハΖ方向計測系82で受け、どのタイミングでパルスが
発光しているかをウエハΖ方向計測部82が知ることが
出来るようにする。89はパルス光源である。この場
合、発光タイミング信号90をウエハΖ方向計測部82
で受け、PLLやデジタルPLLで同期をとる。もしく
は、同期信号発生部84から露光制御部へ同期信号91
を出してもよい。
The configuration of the control system in this case is such that the light emission timing signal 90 output from the exposure control unit 88 in FIG. 6 is received by the wafer Ζ direction measurement system 82, and the timing at which the pulse is emitted is determined by the wafer に お い て direction measurement unit. 82 to know. 89 is a pulse light source. In this case, the light emission timing signal 90 is transmitted to the wafer
And synchronize with a PLL or digital PLL. Alternatively, the synchronizing signal 91 is sent from the synchronizing signal generator 84 to the exposure controller.
May be issued.

【0050】第6の実施例 上述においては、撮像素子のタイミングを例えばNTS
C準拠のCCDカメラ等の固定としていたが、CCDラ
インセンサや電子シャッタ搭載のCCDカメラなど撮像
素子の蓄積時間を変えることができるならば、蓄積時間
をウエハステージの制御系の振動成分の内最大のパワー
を持つ周波数成分の周期の整数倍にすることによって精
度良く検出することができる。
Sixth Embodiment In the above description, the timing of the image sensor is set to, for example, NTS.
Although a CCD camera or the like compliant with C was fixed, if the storage time of an image pickup device such as a CCD line sensor or a CCD camera with an electronic shutter can be changed, the storage time is set to the maximum of the vibration components of the control system of the wafer stage. Can be detected with high precision by making the frequency component an integral multiple of the period of the frequency component having the power.

【0051】図8にこの様子を示す。ステージのZ方向
の位置の誤差成分71はウエハステージのZ方向の固有
振動数で振動しており、これは装置固有の振動数であ
る。72は誤差成分71のパワースペクトルであり、周
波数fcにて最大のパワーを持っている。この制御系の
振動成分の最大のパワーを持つ周波数成分は例えばステ
ージをステップさせた時のウエハステージの実際の位置
を測定すれば求めることができるので、予めこの周波数
成分を求めておき、撮像素子の蓄積期間Tigを下式に
示すように、この周波数成分の周期の整数倍にする。
FIG. 8 shows this state. The error component 71 of the position of the stage in the Z direction oscillates at the natural frequency of the wafer stage in the Z direction, which is a natural frequency of the apparatus. Reference numeral 72 denotes a power spectrum of the error component 71, which has the maximum power at the frequency fc. The frequency component having the maximum power of the vibration component of the control system can be obtained by measuring the actual position of the wafer stage when the stage is stepped, for example. Is set to an integral multiple of the cycle of this frequency component as shown in the following equation.

【0052】[0052]

【数5】 こうすれば、振動の位相に係わらずn周期の平均値の画
像が得られることになり、位置精度が向上する。この場
合は(1)式における誤差成分δiの加算をしなくても
よい。
(Equation 5) In this case, an image having an average value of n periods can be obtained regardless of the phase of the vibration, and the position accuracy is improved. In this case, it is not necessary to add the error component δi in the equation (1).

【0053】[0053]

【発明の効果】以上説明したように、本発明の第1の局
面によれば、光学系の合焦点位置を求める方法におい
て、該光学系の光軸方向に移動可能なステージにより物
体を該光学系の結像面を含む所定の範囲の一方から他方
へ移動し、該移動期間中に該光学系を介して観察される
前記物体の像を撮像素子により複数回撮像し、得られた
ステージ位置の異なる複数の画像より該光学系の合焦点
位置を求めることにより、ステージのステップ駆動に伴
うステージの振動による影響を受けること無く短い計測
時間で光学系の合焦点位置を求めることができる。
As described above, according to the first aspect of the present invention, in the method of determining the in-focus position of the optical system, the object is moved by the stage movable in the optical axis direction of the optical system. Moving from one side of the predetermined range including the imaging plane of the system to the other, and taking an image of the object observed through the optical system a plurality of times by an image sensor during the movement period, and obtaining the obtained stage position. By obtaining the in-focus position of the optical system from a plurality of images different from each other, the in-focus position of the optical system can be obtained in a short measurement time without being affected by the vibration of the stage accompanying the step driving of the stage.

【0054】また、上記第1の局面において、さらに、
前記移動期間中に計測タイミング信号を発生し、該計測
タイミング信号と同期して前記ステージの位置を計測す
るとともに前記撮像素子の蓄積期間をモニタして該蓄積
期間中の該ステージの位置誤差を求め、該撮像素子によ
り得られた画像に対応する該ステージの位置を該位置誤
差に基づいて補正することにより高精度に光学系の合焦
点位置を求めることができる。
[0054] In the first aspect, further,
A measurement timing signal is generated during the movement period, the position of the stage is measured in synchronization with the measurement timing signal, and an accumulation period of the image sensor is monitored to determine a position error of the stage during the accumulation period. By correcting the position of the stage corresponding to the image obtained by the imaging device based on the position error, the focal point position of the optical system can be obtained with high accuracy.

【0055】また、上記第1の局面において、前記撮像
素子の蓄積期間を前記ステージの移動方向の制御系の振
動成分の内最大のパワーを持つ周波数成分の周期の整数
倍にほぼ一致させ、該撮像素子により観察し得られた複
数の画像より該光学系の合焦点位置を求めることによ
り、簡便な構成でステージのステップ駆動に伴うステー
ジの振動による影響を受けること無く短い計測時間で光
学系の合焦点位置を求めることができる。
Further, in the first aspect, the accumulation period of the image sensor is made substantially coincident with an integral multiple of a cycle of a frequency component having a maximum power among vibration components of a control system for moving the stage. By obtaining the in-focus position of the optical system from a plurality of images obtained by observation by the imaging device, the optical system can be measured in a short time with a simple configuration without being affected by the vibration of the stage accompanying the step driving of the stage. The in-focus position can be obtained.

【0056】本発明の第2の局面によれば、光学系の光
軸方向または該光軸方向および該光軸を法線とする平面
上の直交する軸に平行な軸の回りの回転方向に移動可能
なステージにより物体を該光学系の結像面を含む所定の
範囲の一方から他方へ移動し、該移動期間中に該光学系
を介して観察される前記物体の像を単数または複数の撮
像素子により撮像し、得られたステージ位置または姿勢
および像高の異なる複数の画像より該光学系の像面を求
めることにより、ステージのステップ駆動に伴うステー
ジの振動による影響を受けること無く短い計測時間で光
学系の合焦点位置を求めることが出来る。
According to the second aspect of the present invention, in the direction of the optical axis of the optical system, or in the direction of rotation about an axis parallel to the axis perpendicular to the direction of the optical axis and a plane normal to the optical axis. An object is moved by a movable stage from one side of the predetermined range including the imaging plane of the optical system to the other, and one or more images of the object observed through the optical system during the movement period are displayed. By measuring the image plane of the optical system from a plurality of images with different stage positions or postures and image heights obtained by imaging with an image sensor, short measurement without being affected by the vibration of the stage accompanying the step driving of the stage The focal point position of the optical system can be obtained in time.

【0057】また、上記第2の局面において、さらに、
前記移動期間中に計測タイミング信号を発生し、該計測
タイミング信号と同期して前記ステージの位置および姿
勢を計測するとともに前記撮像素子の蓄積期間をモニタ
して該蓄積期間中の該ステージの位置および姿勢誤差を
求め、該撮像素子により得られた画像に対応する該ステ
ージの位置および姿勢を該位置および姿勢誤差に基づい
て補正することにより高精度に光学系の像面を求めるこ
とができる。
Further, in the second aspect, further,
A measurement timing signal is generated during the movement period, and the position and orientation of the stage are measured in synchronization with the measurement timing signal and the accumulation period of the imaging device is monitored to monitor the position and the position of the stage during the accumulation period. An image plane of the optical system can be obtained with high accuracy by obtaining a posture error and correcting the position and posture of the stage corresponding to the image obtained by the image sensor based on the position and posture errors.

【0058】また、上記第2の局面において、前記観察
用の光がパルス光である場合には、前記移動期間中に計
測タイミング信号を発生し、該計測タイミング信号と同
期して前記ステージの位置および姿勢を計測するととも
に前記撮像素子の蓄積期間および前記パルス光の発光タ
イミングをモニタして該蓄積期間中の該発光時、発光前
または発光後の該ステージの位置および姿勢誤差を求
め、該撮像素子により得られた画像に対応する該ステー
ジの位置および姿勢を該位置および姿勢誤差に基づいて
補正することにより、高精度に光学系の像面を求めるこ
とができる。
In the second aspect, when the observation light is pulse light, a measurement timing signal is generated during the movement period, and the position of the stage is synchronized with the measurement timing signal. Monitoring the accumulation period of the imaging device and the emission timing of the pulsed light to determine the position and orientation error of the stage during, before, or after the light emission during the accumulation period. By correcting the position and posture of the stage corresponding to the image obtained by the element based on the position and posture errors, the image plane of the optical system can be obtained with high accuracy.

【0059】さらに、上記第2の局面において、蓄積期
間が前記ステージの移動方向の制御系の振動成分の内最
大のパワーを持つ周波数成分の周期の整数倍にほぼ一致
した一つまたは複数の撮像素子により観察し得られた複
数の画像より該光学系の像面を求めることにより、簡便
な構成でステージのステップ駆動に伴うステージの振動
による影響を受けること無く短い計測時間で光学系の合
焦点位置を求めることができる。
Further, in the second aspect, one or a plurality of imagings whose accumulation period substantially coincides with an integral multiple of the cycle of the frequency component having the maximum power among the vibration components of the control system in the moving direction of the stage. By obtaining the image plane of the optical system from a plurality of images obtained by observing with the element, the focusing of the optical system can be performed in a short time with a simple configuration without being affected by the vibration of the stage accompanying the step driving of the stage The position can be determined.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1の実施例に係る合焦点位置検出
方法を用いる投影露光装置の部分的概略図である。
FIG. 1 is a partial schematic view of a projection exposure apparatus using a focus position detection method according to a first embodiment of the present invention.

【図2】 本発明の第1の実施例に係る合焦点位置検出
方法を用いる場合のウエハ高さと加速度と誤差成分の関
係を示した説明図である。
FIG. 2 is an explanatory diagram showing a relationship between a wafer height, an acceleration, and an error component when the in-focus position detecting method according to the first embodiment of the present invention is used.

【図3】 本発明の第1の実施例に係る合焦点位置検出
方法を用いる場合のウエハ高さと撮像素子蓄積時間と高
さ制御系サンプリングタイミングの関係を示した説明図
である。
FIG. 3 is an explanatory diagram showing a relationship among a wafer height, an image pickup device accumulation time, and a height control system sampling timing when the in-focus position detecting method according to the first embodiment of the present invention is used.

【図4】 本発明の第1の実施例におけるウエハZ方向
位置とコントラスト評価値の関係を示した説明図であ
る。
FIG. 4 is an explanatory diagram showing a relationship between a wafer Z direction position and a contrast evaluation value in the first embodiment of the present invention.

【図5】 本発明の第2の実施例においてウエハ高さを
ステップ駆動した場合のウエハ高さと誤差成分とサンプ
リングタイミングの関係を示した説明図である。
FIG. 5 is an explanatory diagram showing a relationship among a wafer height, an error component, and a sampling timing when the wafer height is step-driven in the second embodiment of the present invention.

【図6】 本発明の第3の実施例に係る合焦点位置検出
方法を実施するための制御系の概略図である。
FIG. 6 is a schematic diagram of a control system for implementing a focus position detection method according to a third embodiment of the present invention.

【図7】 本発明の第3の実施例に係る合焦点位置検出
方法を用いる場合のウエハ高さと撮像素子蓄積時間と高
さ制御系サンプリングタイミングとパルス発光タイミン
グの関係を示した説明図である。
FIG. 7 is an explanatory diagram showing a relationship among a wafer height, an image pickup device accumulation time, a height control system sampling timing, and a pulse emission timing when the in-focus position detection method according to the third embodiment of the present invention is used. .

【図8】 本発明の第6の実施例に係る合焦点位置検出
方法を用いる場合のウエハ高さの誤差成分とその周波数
成分の説明図である。
FIG. 8 is an explanatory diagram of an error component of a wafer height and a frequency component thereof when a focus position detection method according to a sixth embodiment of the present invention is used.

【符号の説明】[Explanation of symbols]

1:縮小投影レンズ、2:レチクル、3:レチクルステ
ージ、4:ウエハ、5:ウエハステージ、8:ステージ
マーク、9:オフアクシスアライメントスコープ、1
0:TTLアライメントスコープ、11:照明系、1
3、14、16:撮像素子、15:TTRアライメント
スコープ、20:画像処理部、22:ウエハ位置制御
系、23:レチクル位置制御系、24:メイン制御部。
1: Reduction projection lens, 2: Reticle, 3: Reticle stage, 4: Wafer, 5: Wafer stage, 8: Stage mark, 9: Off-axis alignment scope, 1
0: TTL alignment scope, 11: illumination system, 1
3, 14, 16: imaging device, 15: TTR alignment scope, 20: image processing unit, 22: wafer position control system, 23: reticle position control system, 24: main control unit.

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 光学系の光軸方向に移動可能なステージ
により物体を該光学系の結像面を含む所定の範囲の一方
から他方へ移動し、該移動期間中に該光学系を介して観
察される前記物体の像を撮像素子により複数回撮像し、
得られたステージ位置の異なる複数の画像より該光学系
の合焦点位置を求めることを特徴とする合焦点位置検出
方法。
An object is moved from one side to another of a predetermined range including an image forming plane of the optical system by a stage movable in an optical axis direction of the optical system, and is moved through the optical system during the moving period. The image of the object to be observed is imaged a plurality of times by an image sensor,
A focus position detection method, wherein a focus position of the optical system is obtained from a plurality of images obtained at different stage positions.
【請求項2】 前記移動期間中に計測タイミング信号を
発生し、該計測タイミング信号と同期して前記ステージ
の位置を計測するとともに前記撮像素子の蓄積期間をモ
ニタして該蓄積期間中の該ステージの位置誤差を求め、
該撮像素子により得られた画像に対応する該ステージの
位置を該位置誤差に基づいて補正することを特徴とする
請求項1に記載の合焦点位置検出方法。
2. A stage for generating a measurement timing signal during the movement period, measuring a position of the stage in synchronization with the measurement timing signal, and monitoring an accumulation period of the image pickup device. Find the position error of
The in-focus position detecting method according to claim 1, wherein a position of the stage corresponding to an image obtained by the imaging device is corrected based on the position error.
【請求項3】 前記観察用の光がパルス光であり、前記
移動期間中に計測タイミング信号を発生し、該計測タイ
ミング信号と同期して前記ステージの位置を計測すると
ともに前記撮像素子の蓄積期間および前記パルス光の発
光タイミングをモニタして該蓄積期間中の該発光時、発
光前または発光後の該ステージの位置誤差を求め、該撮
像素子により得られた画像に対応する該ステージの位置
を該位置誤差に基づいて補正することを特徴とする請求
項1に記載の合焦点位置検出方法。
3. The observation light is pulsed light, a measurement timing signal is generated during the movement period, the position of the stage is measured in synchronization with the measurement timing signal, and the accumulation period of the imaging element is measured. And monitoring the light emission timing of the pulse light to determine the position error of the stage before or after light emission during the light emission during the accumulation period, and determine the position of the stage corresponding to the image obtained by the imaging device. 2. The in-focus position detecting method according to claim 1, wherein the correction is performed based on the position error.
【請求項4】 前記撮像素子の蓄積期間を前記ステージ
の移動方向の制御系の振動成分の内最大のパワーを持つ
周波数成分の周期の整数倍にほぼ一致させることを特徴
とする請求項1に記載の合焦点位置検出方法。
4. The apparatus according to claim 1, wherein the accumulation period of the image sensor is made substantially equal to an integral multiple of a cycle of a frequency component having a maximum power among vibration components of a control system in a moving direction of the stage. The focus position detection method described in the above.
【請求項5】 前記移動が等速移動である請求項1〜4
のいずれかに記載の合焦点位置検出方法。
5. The movement according to claim 1, wherein the movement is a uniform movement.
The focus position detection method according to any one of the above.
【請求項6】 前記移動が微小ピッチのステップ移動で
ある請求項1〜4のいずれかに記載の合焦点位置検出方
法。
6. The in-focus position detecting method according to claim 1, wherein the movement is a fine pitch step movement.
【請求項7】 前記撮像素子により得られた複数の画像
それぞれのコントラストを評価し、該評価値が最大の位
置を前記光学系の合焦点位置とする請求項1〜6のいず
れかに記載の合焦点位置検出方法。
7. The optical system according to claim 1, wherein the contrast of each of the plurality of images obtained by the image sensor is evaluated, and a position where the evaluation value is maximum is set as a focal point position of the optical system. In-focus position detection method.
【請求項8】 光学系の光軸方向または該光軸方向およ
び該光軸を法線とする平面上の直交する軸に平行な軸の
回りの回転方向に移動可能なステージにより物体を該光
学系の結像面を含む所定の範囲の一方から他方へ移動
し、該移動期間中に該光学系を介して観察される前記物
体の像を単数または複数の撮像素子により撮像し、得ら
れたステージ位置または姿勢および像高の異なる複数の
画像より該光学系の像面を求めることを特徴とする合焦
点位置検出方法。
8. An optical system comprising: a stage movable in an optical axis direction of an optical system or a rotation direction about an axis parallel to a direction perpendicular to the optical axis direction and a plane normal to the optical axis; Moving from one of the predetermined ranges including the imaging surface of the system to the other, and capturing an image of the object observed through the optical system by one or more imaging elements during the movement period, and obtained. An in-focus position detecting method, wherein an image plane of the optical system is obtained from a plurality of images having different stage positions or postures and image heights.
【請求項9】 前記移動期間中に計測タイミング信号を
発生し、該計測タイミング信号と同期して前記ステージ
の位置および姿勢を計測するとともに前記撮像素子の蓄
積期間をモニタして該蓄積期間中の該ステージの位置お
よび姿勢誤差を求め、該撮像素子により得られた画像に
対応する該ステージの位置および姿勢を該位置および姿
勢誤差に基づいて補正することを特徴とする請求項8に
記載の合焦点位置検出方法。
9. A measurement timing signal is generated during the movement period, and a position and an orientation of the stage are measured in synchronization with the measurement timing signal, and an accumulation period of the image sensor is monitored to monitor the stage. The position and orientation error of the stage is obtained, and the position and orientation of the stage corresponding to an image obtained by the imaging device are corrected based on the position and orientation error. Focus position detection method.
【請求項10】 前記観察用の光がパルス光であり、前
記移動期間中に計測タイミング信号を発生し、該計測タ
イミング信号と同期して前記ステージの位置および姿勢
を計測するとともに前記撮像素子の蓄積期間および前記
パルス光の発光タイミングをモニタして該蓄積期間中の
該発光時、発光前または発光後の該ステージの位置およ
び姿勢誤差を求め、該撮像素子により得られた画像に対
応する該ステージの位置および姿勢を該位置および姿勢
誤差に基づいて補正することを特徴とする請求項8に記
載の合焦点位置検出方法。
10. The observation light is pulsed light, a measurement timing signal is generated during the movement period, and the position and orientation of the stage are measured in synchronization with the measurement timing signal. The accumulation period and the light emission timing of the pulse light are monitored to determine the position and orientation errors of the stage before and after the light emission during the accumulation period and before and after the light emission. 9. The method according to claim 8, wherein the position and orientation of the stage are corrected based on the position and orientation errors.
【請求項11】 前記撮像素子の蓄積期間を前記ステー
ジの移動方向の制御系の振動成分の内最大のパワーを持
つ周波数成分の周期の整数倍にほぼ一致させることを特
徴とする請求項8に記載の合焦点位置検出方法。
11. The apparatus according to claim 8, wherein the accumulation period of the image sensor is made substantially equal to an integral multiple of a cycle of a frequency component having a maximum power among vibration components of a control system in a movement direction of the stage. The focus position detection method described in the above.
JP20740397A 1997-07-17 1997-07-17 Focusing position detection method and exposure apparatus Expired - Fee Related JP3473820B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20740397A JP3473820B2 (en) 1997-07-17 1997-07-17 Focusing position detection method and exposure apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20740397A JP3473820B2 (en) 1997-07-17 1997-07-17 Focusing position detection method and exposure apparatus

Publications (2)

Publication Number Publication Date
JPH1140491A true JPH1140491A (en) 1999-02-12
JP3473820B2 JP3473820B2 (en) 2003-12-08

Family

ID=16539170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20740397A Expired - Fee Related JP3473820B2 (en) 1997-07-17 1997-07-17 Focusing position detection method and exposure apparatus

Country Status (1)

Country Link
JP (1) JP3473820B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009182334A (en) * 2009-03-04 2009-08-13 Canon Inc Aligner and device manufacturing method
KR20190041516A (en) 2016-09-14 2019-04-22 캐논 가부시끼가이샤 Detection device, detection method, patterning device, and manufacturing method of article
KR20190079518A (en) * 2017-12-27 2019-07-05 캐논 가부시끼가이샤 Alignment apparatus, lithography apparatus, and article manufacturing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009182334A (en) * 2009-03-04 2009-08-13 Canon Inc Aligner and device manufacturing method
KR20190041516A (en) 2016-09-14 2019-04-22 캐논 가부시끼가이샤 Detection device, detection method, patterning device, and manufacturing method of article
CN109690419A (en) * 2016-09-14 2019-04-26 佳能株式会社 Detection device, detection method, patterning apparatus and article manufacturing method
CN109690419B (en) * 2016-09-14 2021-09-14 佳能株式会社 Detection device, detection method, patterning device, and article manufacturing method
KR20190079518A (en) * 2017-12-27 2019-07-05 캐논 가부시끼가이샤 Alignment apparatus, lithography apparatus, and article manufacturing method

Also Published As

Publication number Publication date
JP3473820B2 (en) 2003-12-08

Similar Documents

Publication Publication Date Title
JP3572430B2 (en) Exposure method and apparatus
US5815594A (en) Semiconductor exposure method and apparatus
JP4323608B2 (en) Exposure apparatus and device manufacturing method
JP2000021766A (en) Position measuring apparatus and manufacture of device using the apparatus
WO2002093253A9 (en) Backside alignment system and method
EP3096346A1 (en) Exposure apparatus, exposure method, and device manufacturing method
JP2002202220A (en) Position detection method, position detector, optical characteristic measuring method, optical characteristic measuring device, exposure device, and device manufacturing method
JP2008151689A (en) Position measuring apparatus, imaging device, exposure device, and device manufacturing method
JP3303329B2 (en) Focus detection device, exposure apparatus and method
JP2001217174A (en) Position detection method, position detection device, exposure method and aligner
JPH1097083A (en) Projection aligner and its method
JP3335126B2 (en) Surface position detecting apparatus and scanning projection exposure apparatus using the same
JP6700932B2 (en) Detecting apparatus, detecting method, program, lithographic apparatus, and article manufacturing method
JPH1140491A (en) Detection of focusing position
JP2010258085A (en) Surface position detecting method
JP6779721B2 (en) Detection equipment, detection methods, lithography equipment, and manufacturing methods for articles
JP2001338870A (en) Scanning aligner and method, controlling device and method, and device-manufacturing method
JP3854734B2 (en) Surface position detection apparatus and device manufacturing method using the same
JP2873748B2 (en) Semiconductor manufacturing equipment
JP2006078262A (en) Position detection device, exposure device, measuring system and position detection method
JP2009300798A (en) Exposure apparatus and method for manufacturing device
JP4332891B2 (en) Position detection apparatus, position detection method, exposure method, and device manufacturing method
JP2006073932A (en) Focal state detecting method and its equipment, focal adjustment method and its equipment, position detecting method and its equipment, and exposing method and its equipment
EP4361728A1 (en) Exposure apparatus and article manufacturing method
TWI824145B (en) Alignment apparatus, alignment method, lithography apparatus, and method of manufacturing article

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070919

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080919

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090919

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090919

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100919

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100919

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130919

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees