[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004146702A - Method for measuring optical characteristic, exposure method and method for manufacturing device - Google Patents

Method for measuring optical characteristic, exposure method and method for manufacturing device Download PDF

Info

Publication number
JP2004146702A
JP2004146702A JP2002311936A JP2002311936A JP2004146702A JP 2004146702 A JP2004146702 A JP 2004146702A JP 2002311936 A JP2002311936 A JP 2002311936A JP 2002311936 A JP2002311936 A JP 2002311936A JP 2004146702 A JP2004146702 A JP 2004146702A
Authority
JP
Japan
Prior art keywords
area
pattern
image
exposure
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002311936A
Other languages
Japanese (ja)
Inventor
Kazuyuki Miyashita
宮下 和之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2002311936A priority Critical patent/JP2004146702A/en
Publication of JP2004146702A publication Critical patent/JP2004146702A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To measure an optical characteristic of a projection optical system quickly, surely, in high accuracy and reproductivity. <P>SOLUTION: According to a photographed data of an area on an entirely square wafer including a plurality of partitioned areas wherein patterns for measurement are transferred under different conditions, part of a side of an outer frame in the square area is an object to be detected, and a window area is scanned crossing almost orthogonally the side as an detection object, and then the position of the side as an object is detected during the scanning on the basis of a pixel data in the window area (steps 504 to 508). Next, the detection result on the position of the side is used to calculate part of the partitioned area in the outer frame (step 516), and the formation condition of an image in the partitioned area is detected in a short time by using the contrast of an objective and quantitative image. Then, the detected result is used to find out the optical characteristic of a projection optical system. In this case, the optical characteristic can be obtained by using such a mechanism that the exposure condition during transfer of the pattern for measurement varies depending on the partitioned areas. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、光学特性計測方法、露光方法及びデバイス製造方法に係り、更に詳しくは、投影光学系の光学特性を計測する光学特性計測方法、該光学特性計測方法によって計測された光学特性を考慮して調整された投影光学系を用いて露光を行う露光方法、及び該露光方法を利用したデバイスの製造方法に関する。
【0002】
【従来の技術】
従来より、半導体素子、液晶表示素子等を製造するためのリソグラフィ工程では、マスク又はレチクル(以下、「レチクル」と総称する)に形成されたパターンを投影光学系を介してレジスト等が塗布されたウエハ又はガラスプレート等の基板(以下、適宜「ウエハ」ともいう)上に転写する露光装置が用いられている。この種の装置としては、近年では、スループットを重視する観点から、ステップ・アンド・リピート方式の縮小投影露光装置(いわゆる「ステッパ」)や、このステッパを改良したステップ・アンド・スキャン方式の走査型露光装置などの逐次移動型の露光装置が、比較的多く用いられている。
【0003】
また、半導体素子(集積回路)等は年々高集積化しており、これに伴い半導体素子等の製造装置である投影露光装置には、一層の高解像力、すなわちより微細なパターンを精度良く転写できることが要求されるようになってきた。投影露光装置の解像力を向上させるためには、投影光学系の光学特性を向上させることが必要であり、従って投影光学系の光学特性(結像特性を含む)を正確に計測し、評価することが重要となっている。
【0004】
投影光学系の光学特性、例えばパターンの像面の正確な計測は、投影光学系の視野内の各評価点(計測点)における最適なフォーカス位置(最良フォーカス位置)を正確に計測できることが前提となる。
【0005】
従来の投影露光装置における最良フォーカス位置の計測方法としては、主として以下の2つが知られている。
【0006】
1つは、いわゆるCD/フォーカス法として知られている計測方法である。ここでは、所定のレチクルパターン(例えば、ラインアンドスペースパターン等)をテストパターンとして、このテストパターンを投影光学系の光軸方向に関する複数のウエハ位置でテスト用ウエハに転写する。そして、そのテスト用ウエハを現像して得られるレジスト像(転写されたパターンの像)の線幅値を走査型電子顕微鏡(SEM)等を用いて計測し、その線幅値と投影光学系の光軸方向に関するウエハ位置(以下、適宜「フォーカス位置」ともいう)との相関関係に基づいて最良フォーカス位置を判断する。
【0007】
他の1つは、いわゆるSMPフォーカス計測法として知られている計測方法である。ここでは、複数のフォーカス位置で、くさび形マークのレジスト像をウエハ上に形成し、フォーカス位置の違いによるレジスト像の線幅値の変化を長手方向の寸法変化に増幅させて置き換え、ウエハ上のマークを検出するアライメント系などのマーク検出系を用いてレジスト像の長手方向の長さを計測する。そして、フォーカス位置とレジスト像の長さとの相関関係を示す近似曲線の極大値近傍を所定のスライスレベルでスライスし、得られたフォーカス位置の範囲の中点を最良フォーカス位置と判断する。
【0008】
そして、種々のテストパターンについて、このようにして得られた最良フォーカス位置に基づいて、投影光学系の光学特性である非点収差や像面湾曲等を計測している。
【0009】
しかし、上述したCD/フォーカス法では、例えばレジスト像の線幅値をSEMで計測するために、SEMのフォーカス合わせを厳密に行う必要があり、1点当たりの計測時間が非常に長く、多数点での計測をするためには数時間から数十時間が必要とされていた。また、投影光学系の光学特性を計測するためのテスト用パターンも微細化するとともに、投影光学系の視野内での評価点の数も増加することが予想される。従って、SEMを用いた従来の計測方法では、計測結果が得られるまでのスループットが大幅に低下するという不都合があった。また、測定誤差や測定結果の再現性についても、より高いレベルが要求されるようになり、従来の計測方法ではその対応が困難となってきた。さらに、フォーカス位置と線幅値の相関関係を示す近似曲線は、誤差を小さくするために4次以上の近似曲線が用いられており、それには、評価点毎に少なくとも5種類のフォーカス位置に関する線幅値が求められなければならないという制約があった。また、最良フォーカス位置からずれたフォーカス位置(投影光学系の光軸方向に関する+方向と−方向との両方を含む)での線幅値と最良フォーカス位置での線幅値との差は、誤差を小さくするために10%以上であることが要求されているが、この条件を満足させることが困難となってきた。
【0010】
また、上述したSMPフォーカス計測法では、通常、計測を単色光で行うために、レジスト像の形状の違いにより干渉の影響が異なり、それが計測誤差(寸法オフセット)につながることが考えられる。さらに、画像処理にてくさび形マークのレジスト像の長さ計測を行うには、レジスト像の最も細くなる長手方向の両端部分までの情報を詳細に取り込む必要が有り、現状の画像取り込み機器(CCDカメラ等)の分解能では未だ十分ではないという問題点がある。また、テストパターンが大きいために、投影光学系の視野内での評価点の数を増加させることが困難であった。
【0011】
この他、主として上述のCD/フォーカス法の欠点を改善するものとして、測定用感応基板(以下、ウエハと呼ぶ)の投影光学系の光軸方向に関する位置又は露光エネルギ量を変化させつつ、測定用パターンをウエハ上に順次転写して測定用パターンの像が転写された複数の区画領域がマトリクス状に配置された矩形の領域を形成し、そのウエハを現像後にウエハ上の矩形の領域に形成される測定用パターンのレジスト像を撮像し、その撮像データを用いて所定のテンプレートとのパターンマッチングを行い、その結果に基づいて最良フォーカス位置などの最良露光条件を決定する発明が、知られている(特許文献1、特許文献2等参照)。これらの特許文献に開示される発明によると、SMP計測法のような現状の画像取り込み機器(CCDカメラ等)の分解能不足や、投影光学系の視野内での評価点の数の増加が困難であるという不都合もない。
【0012】
【特許文献1】
特開平11−233434号公報
【特許文献2】
国際公開第02/29870号パンフレット
【0013】
【発明が解決しようとする課題】
テンプレートマッチング法を採用して、かつこれを自動化する場合には、そのテンプレートマッチングを容易にするためにパターンとともにマッチングの基準となる枠(パターン)がウエハ上に形成されるのが通常である。
【0014】
しかしながら、上述のようなテンプレートマッチングを用いた最良露光条件の決定方法にあっては、多種多用なプロセス条件の中にはパターンの近傍に形成されるテンプレートマッチングの基準となる枠の存在により、画像処理方式のウエハアライメント系、例えばFIA(field image alignment)系のアライメントセンサなどで画像取り込みを行った場合に、パターン部のコントラストが著しく低下して計測が不可能になる場合があった。
【0015】
かかる不都合を改善するための手法として、テンプレートマッチングによらず、各区画領域の画像データの代表値(例えば、コントラスト値)などに基づいて各区画領域の像の形成状態(例えば像の有無など)を検出することにより、投影光学系の光学特性あるいは最良露光条件などを決定することも考えられる。この場合、各区画領域の位置を正確に検出することが重要となり、そのための一つの方法として、前述の矩形領域の輪郭を検出し、必要な区画領域の位置をその輪郭の一部を基準として設計値に基づいて算出する方法を採用しても良い。このようにすると、上記の輪郭さえ検出すれば任意の区画領域の位置を求めることが可能となる。
【0016】
ところで、前述の測定用感応基板としては、ベアシリコンの表面に反射防止膜(ARC:Antireflection Coating)を下地として形成し、その上にレジスト(感光剤)を塗布したウエハが一般的に用いられている。しかるに、現実には、多種多様なレジストとレジストの下地として形成される反射防止膜(BARK(Bottom ARC);以下、「バーク」と呼ぶ)との組み合わせがあり、これらの組み合わせの全ての場合で、理想的な信号を得て、前述の外枠を正確かつ確実に検出することは容易なことではなく、この結果、レジストとバークとの組み合わせによっては、投影光学系の光学特性を正確に計測できなくなる蓋然性が高くなっている。
【0017】
本発明は、かかる事情の下になされたものであり、その第1の目的は、短時間で確実に、かつ精度及び再現性良く投影光学系の光学特性を計測することができる光学特性計測方法を提供することにある。
【0018】
また、本発明の第2の目的は、高精度な露光を実現できる露光方法を提供することにある。
【0019】
また、本発明の第3の目的は、高集積度のデバイスの生産性を向上させることができるデバイス製造方法を提供することにある。
【0020】
【課題を解決するための手段】
請求項1に記載の発明は、第1面上のパターンを第2面上に投影する投影光学系(PL)の光学特性を計測する光学特性計測方法であって、異なる露光条件下で前記投影光学系を介して物体(W)上に転写された計測用パターンの転写領域から成る複数の区画領域(DAi,j)を含みその輪郭の少なくとも一部が直線部である所定の領域(DB)を撮像する第1工程と;前記撮像により得られた撮像データに基づき、前記所定の領域の輪郭から成る外枠を構成する前記直線部を検出対象とし、所定大きさの窓領域(WD1、WD2等)を前記検出対象の直線部にほぼ直交する走査方向に走査し、該走査中に前記窓領域内のピクセルデータに基づいて前記検出対象の直線部の位置を検出する第2工程と;前記第2工程における前記検出対象の直線部の位置の検出結果を利用し、前記複数の区画領域の少なくとも一部の複数の区画領域における像の形成状態を、前記撮像データを用いて検出する第3工程と;前記第3工程における検出結果に基づいて前記投影光学系の光学特性を求める第4工程と;を含む光学特性計測方法である。
【0021】
本明細書において、「露光条件」とは、照明条件(マスクの種別を含む)、像面上における露光ドーズ量等狭義の露光条件の他、投影光学系の光学特性など露光に関連する全ての構成部分の設定条件を含む広義の露光条件を意味する。
【0022】
これによれば、異なる露光条件下で前記投影光学系を介して物体上に転写された計測用パターンの転写領域から成る複数の区画領域を含みその輪郭の少なくとも一部が直線部である所定の領域を撮像する(第1工程)。
【0023】
次いで、撮像により得られた撮像データに基づき、所定の領域の輪郭から成る外枠を構成する前記直線部を検出対象とし、所定大きさの窓領域を検出対象の直線部にほぼ直交する走査方向に走査し、該走査中に窓領域内のピクセルデータに基づいて検出対象の直線部の位置を検出する(第2工程)。
【0024】
ここで、外枠の部分のピクセルデータは、その他の部分のピクセルデータと明らかにピクセル値(画素値)が異なるので、例えば窓領域の走査方向の位置が1画素ずつ変化するのに応じた窓領域内のピクセルデータの変化に基づき、検出対象の直線部(外枠の一部)の位置が確実に検出される。
【0025】
次に、第2工程における前記検出対象の直線部の位置の検出結果を利用し、前記複数の区画領域の少なくとも一部の複数の区画領域における像の形成状態を、撮像データを用いて検出する(第3工程)。この場合、外枠を構成する任意の直線部と、像の形成状態を検出すべき複数の区画領域(以下、「検出対象領域」とも記述する)との設計上の位置関係は既知であるから、その位置関係を考慮することにより、検出対象領域を見つけることができ、見つけた検出対象領域のそれぞれについて、撮像データを用いて画像処理を行うことにより、検出対象領域の像の形成状態を検出することができる。
【0026】
ここで、像の形成状態の検出は、物体が感光物体である場合に、その物体を現像することなく物体上に形成された潜像に対して行っても良いし、上記像が形成された物体を現像した後、物体上に形成されたレジスト像、あるいはレジスト像が形成された物体をエッチング処理して得られる像(エッチング像)などに対して行っても良い。ここで、物体上における像の形成状態を検出するための感光層は、フォトレジストに限らず、光(エネルギ)の照射によって像(潜像及び顕像)が形成されるものであれば良い。例えば、感光層は、光記録層、光磁気記録層などであっても良く、従って、感光層が形成される物体もウエハ又はガラスプレート等に限らず、光記録層、光磁気記録層が形成可能な板等であっても良い。
【0027】
例えば、像の形成状態の検出をレジスト像、エッチング像などに対して行う場合には、SEMなどの顕微鏡は勿論、例えば露光装置のアライメント検出系、例えばアライメントマークの像を撮像素子上に結像する画像処理方式のアライメント検出系、いわゆるFIA(Field Image Alignment)系のアライメントセンサを用いることができる。また、像の形成状態の検出を潜像に対して行う場合には、FIA系などを用いることができる。
【0028】
いずれにしても、前述の如く、外枠の少なくとも一部の直線部の位置を確実に検出し、その検出結果を利用して検出対象の複数の区画領域における像の形成状態を画像処理の手法で検出することができ、例えばそれぞれの区画領域における像のコントラストなどを検出することにより、パターン像の形成状態を短時間で検出することが可能になる。
【0029】
そして、その検出結果に基づいて投影光学系の光学特性を求める(第4工程)。ここでは、客観的かつ定量的な像のコントラストなどを用いた検出結果に基づいて光学特性が求められるために、従来の方法と比較して光学特性を精度及び再現性良く計測することができる。
【0030】
また、従来の寸法を計測する方法に比べて、計測用パターンを小さくすることができるため、マスクのパターン領域内に多くの計測用パターンを配置することが可能となる。従って、評価点の数を増加させることができるとともに、各評価点間の間隔を狭くすることができ、結果的に光学特性計測の測定精度を向上させることが可能となる。
【0031】
従って、請求項1に記載の光学特性計測方法によれば、短時間で、確実にかつ精度及び再現性良く投影光学系の光学特性を計測することができる。
【0032】
上記請求項1に記載の光学特性計測方法において、請求項2に記載の光学特性計測方法の如く、前記走査方向は、前記外枠の内側から外側に向かう方向であることとすることができる。かかる場合には、最初に前述の窓領域内のピクセルデータに対応するピクセル値のピークが求められたとき、その位置が外枠の位置に確実に一致するので、外枠検出をより確実に行うことができる。
【0033】
上記請求項1に記載の光学特性計測方法において、請求項3に記載の光学特性計測方法の如く、前記所定の領域は、その輪郭に少なくとも一組の相互に平行な直線部を含む場合、前記第2工程では、前記撮像データに基づき、前記外枠の設計値に応じた所定距離だけ離れて配置された一組の所定大きさの窓領域を、前記外枠を構成する相互に平行な組の直線部のそれぞれを検出対象として該検出対象の直線部にほぼ直交する走査方向に同時に走査し、該走査中に前記一組の窓領域内のピクセルデータに基づいて前記検出対象の直線部の位置を検出することとすることができる。
【0034】
上記請求項1〜3に記載の各光学特性計測方法において、請求項4に記載の光学特性計測方法の如く、前記第2工程では、前記窓領域内のピクセルデータの代表値が最大又は最小となる位置を、前記検出対象の辺の位置として検出することとすることができる。
【0035】
この場合において、請求項5に記載の光学特性計測方法の如く、前記窓領域のサイズは、前記ピクセルデータの代表値が検出対象である外枠上と前記所定の領域内とで、その差が所定値以上となるようなサイズに設定されていることとすることができる。例えば、ピクセルデータの代表値として、窓領域内のピクセルデータに対応するピクセル値の分散を用いる場合、外枠上で十分分散が大きくなり、パターン部で分散が小さくなるように窓領域のサイズを設定しても良い。
【0036】
上記請求項4及び5に記載の各光学特性計測方法において、ピクセルデータの代表値としては、種々の値を用いることができ、例えば請求項6に記載の光学特性計測方法の如く、前記ピクセルデータの代表値は前記窓領域内の中心を含む少なくとも一部の領域内のピクセルデータに対応するピクセル値の分散、標準偏差、加算値、及び微分総和値のいずれかであることとすることができる。
【0037】
上記請求項1〜6に記載の各光学特性計測方法において、請求項7に記載の光学特性計測方法の如く、前記撮像データは、2より大きい複数ビットのデータであり、前記第2工程では、前記複数ビットのデータから最上位2ビットを含む上位複数ビット以外の下位ビットのデータを0又は1にしたデータを前記ピクセルデータとして用いることとすることができる。
【0038】
請求項1〜7に記載の各光学特性計測方法において、請求項8に記載の光学特性計測方法の如く、前記第1工程に先立って、少なくとも1つの露光条件を変更しながら、矩形枠状のパターンと該矩形枠状のパターンの内部に位置する前記計測用パターンとを含む対象パターンを前記第1面上に配置し、かつ前記投影光学系の第2面側に配置された物体を所定のステップピッチで順次移動して前記対象パターンを前記物体上に順次転写することにより、マトリックス状配置の複数の区画領域を前記物体上に形成する工程を含む、転写工程を、更に含むこととすることができる。
【0039】
ここで、「矩形枠状のパターン」は、文字通りの矩形の枠のような形状をしたパターンのみならず、外形線が矩形の枠となるパターン、例えば外縁の形状が矩形状と成る遮光パターン、内縁の形状が矩形状となる遮光パターンの内部に形成された開口パターンなどを含む概念である。
【0040】
この場合において、請求項9に記載の光学特性計測方法の如く、前記ステップピッチは、前記矩形枠状のパターンのサイズに対応する距離以下に設定されていることとすることができる。かかる場合には、物体上には、区画領域相互間の境界に従来のような枠線が存在しない複数のマトリックス状配置の複数の区画領域(計測用パターンの像が投影された領域)が形成される。また、この場合、前記所定の領域を構成する複数の区画領域の少なくとも一部の複数の区画領域における像の形成状態を画像処理の手法により検出する際に、隣接する区画領域間に枠線が存在しない。このため、検出対象領域(主として計測用パターンの像の残存する区画領域)において、計測用パターンの像のコントラストが枠線の存在により低下することがない。このため、それらの複数の検出対象領域の撮像データとしてパターン部と非パターン部のS/N比の良好なデータを得ることができ、これらのデータを用いてコントラスト検出法あるいはテンプレートマッチング法などの画像処理の手法により、像の形成状態を精度良く検出することができる。
【0041】
請求項8に記載の光学特性計測方法において、請求項10に記載の光学特性計測方法の如く、前記所定の領域は、前記複数の区画領域のみから成る場合、前記転写工程では、前記所定の領域内の最外周部に位置する複数の区画領域の少なくとも一部の特定の複数の区画領域が過露光の領域となるように前記露光条件の一部として前記物体上に照射されるエネルギビームのエネルギ量を変更することとすることができる。かかる場合には、前述の外枠の検出に際してのS/N比が向上し、外枠の検出を高精度に行うことが可能となる。
【0042】
上記請求項1〜10に記載の各光学特性計測方法において、請求項11に記載の光学特性計測方法の如く、前記計測用パターンは、マルチバーパターンを含み、前記複数の区画領域のそれぞれに転写された前記マルチバーパターンとこれに隣接するパターンとが、前記マルチバーパターンの像のコントラストが前記隣接するパターンによる影響を受けない距離L以上離れていることとすることができる。
【0043】
ここで、マルチバーパターンは、複数本のバーパターン(ラインパターン)が所定間隔で配置されたパターンを意味する。また、マルチバーパターンに隣接するパターンは、該マルチバーパターンが形成された区画領域の境界に存在する枠パターン、及び隣接する区画領域のマルチバーパターンのいずれをも含む。
【0044】
かかる場合には、各区画領域に転写されたマルチバーパターンとこれに隣接するパターンとが、マルチバーパターンの像のコントラストが隣接するパターンによる影響を受けない距離L以上離れているので、それぞれの区画領域に転写されたマルチバーパターンの像のS/N比が良好な撮像信号を得ることができ、この撮像信号に基づいて、コントラスト検出、あるいはテンプレートマッチングなどの画像処理手法により各区画領域に形成されたマルチバーパターンの像の形成状態を精度良く検出することができる。
【0045】
例えば、テンプレートマッチングによる場合には、客観的、定量的な相関値の情報が区画領域毎に得られ、コントラスト検出の場合には、客観的、定量的なコントラスト値の情報が区画領域毎に得られるので、いずれにしても、得られた情報を、それぞれの閾値と比較することにより、マルチバーパターンの像の形成状態を二値化情報(像の有無情報)に変換することにより、各区画領域毎のマルチバーパターンの形成状態を精度、再現性良く検出することが可能となる。
【0046】
上記請求項1〜11に記載の各光学特性計測方法において、請求項12に記載の光学特性計測方法の如く、前記第3工程は、前記検出対象の直線部の位置の検出結果に基づいて、その検出された外枠部分を基準として前記所定の領域を構成する少なくとも一部の複数の区画領域それぞれの位置を算出する工程を含むこととすることができる。
【0047】
上記請求項1〜12に記載の各光学特性計測方法において、請求項13に記載の光学特性計測方法の如く、前記所定の領域は、その輪郭が直線部のみから成る領域であることとすることができる。
【0048】
上記請求項12に記載の光学特性計測方法において、この場合において、請求項14に記載の光学特性計測方法の如く、前記所定の領域は、その輪郭が4つの直線部から成る矩形領域であり、前記第3工程は、前記算出する工程に先立って、前記検出対象の直線部である辺の位置の検出結果に基づいて、前記矩形の外枠を構成する第1辺から第4辺の各辺上でそれぞれ少なくとも2点を求め、前記求めた少なくとも8点に基づいて前記外枠を算出する外枠算出工程を更に含み、前記算出する工程では、既知の区画領域の配列情報を用いて前記外枠の内部領域を等分割して、前記所定の領域を構成する複数の区画領域それぞれの位置を算出することとすることができる。
【0049】
この場合において、請求項15に記載の光学特性計測方法の如く、前記外枠算出工程では、前記求めた第1ないし第4辺上の各2点の点に基づいて定まる4本の直線同士の交点として矩形領域である前記所定の領域の4頂点を求め、前記求めた4頂点に基づいて最小二乗法による長方形近似を行い、回転を含めた前記所定の領域の矩形の外枠を算出することとすることができる。
【0050】
上記請求項1〜15に記載の各光学特性計測方法において、請求項16に記載の光学特性計測方法の如く、前記第3工程における、前記少なくとも一部の複数の区画領域における像の形成状態の検出は、各区画領域のピクセルデータに関する代表値を判定値として行われることとすることができる。
【0051】
この場合において、各区画領域のピクセルデータに関する代表値は種々考えられ、例えば請求項17に記載の光学特性計測方法の如く、前記代表値は、各区画領域内の少なくとも一部の範囲内におけるピクセルデータに対応するピクセル値の加算値、微分総和値、分散及び標準偏差のいずれかであることとすることができる。あるいは、請求項18に記載の光学特性計測方法の如く、前記代表値は、平均値として前記計測用パターンの像が残存しないと予想される任意の区画領域内におけるピクセル値の平均値を用いて求められた、前記各区画領域内の少なくとも一部の範囲内におけるピクセルデータに対応するピクセル値の分散及び標準偏差のいずれかであることとすることができる。
【0052】
なお、本明細書において、上記の代表値として用いられるピクセル値の加算値微分総和値、分散あるいは標準偏差などを、適宜、「スコア」あるいは「コントラストの指標値」などとも呼ぶものとする。
【0053】
上記請求項1〜15に記載の各光学特性計測方法において、請求項19に記載の光学特性計測方法の如く、前記第3工程における、前記少なくとも一部の複数の区画領域における像の形成状態の検出は、テンプレートマッチングの手法により行われることとすることができる。
【0054】
上記請求項1〜19に記載の各光学特性計測方法において、請求項20に記載の光学特性計測方法の如く、前記露光条件は、前記投影光学系の光軸方向に関する前記物体の位置及び前記物体上に照射されるエネルギビームのエネルギ量の少なくとも一方を含むこととすることができる。
【0055】
上記請求項1〜20に記載の各光学特性計測方法において、請求項21に記載の光学特性計測方法の如く、前記露光条件は、前記投影光学系の光軸方向に関する前記物体の位置と前記物体上に照射されるエネルギビームのエネルギ量とを含み、前記物体上に形成されたマトリックス状配置の複数の区画領域は、前記露光条件を変更しながら前記投影光学系を介して前記物体上に順次転写された計測用パターンの転写領域から成り、前記第3工程における、像の形成状態の検出は、前記検出対象の区画領域における前記計測用パターンの像の有無の検出であり、前記第4工程では、その像が検出された複数の区画領域に対応する前記エネルギビームのエネルギ量と前記投影光学系の光軸方向に関する前記物体の位置との相関関係により最良フォーカス位置を決定することとすることができる。
【0056】
かかる場合には、計測用パターンの転写に際しては、2つの露光条件、すなわち投影光学系の光軸方向に関する物体の位置と物体上に照射されるエネルギビームのエネルギ量を変更しながら計測用パターンの像を物体上の複数の領域に順次転写する。この結果、物体上の各領域には、それぞれ転写時の投影光学系の光軸方向に関する物体の位置及び物体上に照射されるエネルギビームのエネルギ量が異なる計測用パターンの像が転写される。そして、像の形成状態の検出に際しては、物体上の前記少なくとも一部の複数の区画領域について、例えば投影光学系の光軸方向に関する位置毎に計測用パターンの像の有無を検出する。この結果、投影光学系の光軸方向に関する位置毎に、その像が検出されたエネルギビームのエネルギ量を求めることができる。
【0057】
そこで、前記光学特性を求めるに際しては、その像が検出されたエネルギビームのエネルギ量と投影光学系の光軸方向に関する位置との相関関係を示す近似曲線を求め、例えば、その近似曲線の極値から最良フォーカス位置を求めることができる。
【0058】
請求項22に記載の発明は、第1面上のパターンを第2面上に投影する投影光学系の光学特性を計測する光学特性計測方法であって、少なくとも1つの露光条件を変更しながら、前記第1面上に配置された計測用パターンを前記投影光学系の第2面側に配置された物体上の複数の領域に順次転写する第1工程と;前記計測用パターンが異なる露光条件で転写された前記物体上の複数の区画領域のうちの少なくとも一部の複数の区画領域から成る所定形状の領域を含む領域を撮像し、その撮像データ中の前記所定形状の領域の所定方向のピクセル列毎のピクセルデータの加算値の分布状況を検出する第2工程と;前記検出結果に基づいて前記投影光学系の光学特性を求める第3工程と;を含む光学特性計測方法である。
【0059】
これによれば、少なくとも1つの露光条件を変更しながら、第1面上に配置された計測用パターンを投影光学系の第2面側に配置された物体上の複数の領域に順次転写する(第1工程)。この結果、物体上には、計測用パターンが異なる露光条件で転写された複数の区画領域が形成される。
【0060】
次に、計測用パターンが異なる露光条件で転写された物体上の複数の区画領域のうちの少なくとも一部の複数の区画領域から成る所定形状の領域を含む領域を撮像し、その撮像データ中の前記所定形状の領域の所定方向のピクセル列毎のピクセルデータの加算値の分布状況を検出する(第2工程)。ここで、所定方向は、所定形状の領域を構成する一部の区画領域の配列方向などに定められ、例えば、分布状況に基づいて、分布曲線のデータが得られる。この場合、所定方向のピクセル列毎のピクセルデータの加算値の分布状況を算出するという簡単な画像処理により、前述の区画領域毎の像の形成状態(例えば有無検出)の検出結果と実質的に等価な分布状況のデータを得ることができる。従って、客観的かつ定量的な撮像データを用いて、前述の区画領域毎の像の形成状態(例えば有無検出)の検出結果を得る場合と同程度の検出精度及び再現性で、より簡易な手法により像の形成状態を検出することができる。
【0061】
そして、上記の分布状況のデータに基づいて投影光学系の光学特性を求める(第3工程)。ここでは、客観的かつ定量的な撮像データを用いた検出結果に基づいて光学特性が求められるため、従来の方法と比較して光学特性を精度及び再現性良く計測することができる。
【0062】
請求項23に記載の発明は、露光用のエネルギビームをマスクに照射し、前記マスクに形成されたパターンを投影光学系を介して物体上に転写する露光方法であって、請求項1〜22のいずれか一項に記載の光学特性計測方法によって計測された前記光学特性を考慮して前記投影光学系を調整する工程と;前記調整された投影光学系を介して前記マスクに形成されたパターンを前記物体上に転写する工程と;を含む露光方法である。
【0063】
これによれば、請求項1〜22に記載の各光学特性計測方法によって計測された投影光学系の光学特性を考慮して最適な転写が行えるように投影光学系が調整され、その調整された投影光学系を介してマスクに形成されたパターンを物体上に転写するので、微細パターンを物体上に高精度に転写することができる。
【0064】
請求項24に記載の発明は、リソグラフィ工程を含むデバイス製造方法であって、前記リソグラフィ工程では、請求項23に記載の露光方法を用いることを特徴とするデバイス製造方法である。
【0065】
これによれば、リソグラフィ工程で、請求項23に記載の露光方法により微細パターンを物体上に精度良く転写することができるので、結果的に高集積度のデバイスの生産性(歩留まりを含む)を向上させることが可能となる。
【0066】
【発明の実施の形態】
以下、本発明の一実施形態を図1〜図23に基づいて説明する。
【0067】
図1には、本発明に係る光学特性計測方法及び露光方法を実施するのに好適な一実施形態に係る露光装置100の概略的な構成が示されている。この露光装置100は、ステップ・アンド・スキャン方式の縮小投影露光装置(いわゆるスキャニング・ステッパ(スキャナーとも呼ばれる))である。
【0068】
この露光装置100は、照明系IOP、マスクとしてのレチクルRを保持するレチクルステージRST、レチクルRに形成されたパターンの像を感光剤(フォトレジスト)が塗布された物体としてのウエハW上に投影する投影光学系PL、ウエハWを保持して2次元平面(XY平面内)を移動するXYステージ20、XYステージ20を駆動する駆動系22、及びこれらの制御系等を備えている。この制御系は装置全体を統括制御するマイクロコンピュータ(あるいはワークステーション)などから成る主制御装置28を中心として構成されている。
【0069】
前記照明系IOPは、図2に示されるように、光源1、ビーム整形光学系2、エネルギ粗調器3、オプティカルインテグレータ(ホモジナイザ)4、照明系開口絞り板5、ビームスプリッタ6、第1リレーレンズ7A、第2リレーレンズ7B、視野絞りとしてのレチクルブラインド8(本実施形態では固定レチクルブラインド8Aと可動レチクルブラインド8Bとを含む)、及び光路折り曲げ用のミラーM等を備えている。なお、オプティカルインテグレータ4としては、フライアイレンズ、ロッド型(内面反射型)インテグレータ、あるいは回折光学素子などを用いることができる。本実施形態では、オプティカルインテグレータ4としてフライアイレンズが用いられているので、以下では、フライアイレンズ4とも呼ぶ。
【0070】
ここで、この照明系IOPの上記構成各部について説明する。光源1としては、KrFエキシマレーザ(発振波長248nm)やArFエキシマレーザ(発振波長193nm)等が使用される。光源1は、実際には、露光装置本体が設置されるクリーンルーム内の床面、あるいは該クリーンルームとは別のクリーン度の低い部屋(サービスルーム)等に設置され、不図示の引き回し光学系を介してビーム整形光学系2の入射端に接続されている。
【0071】
前記ビーム整形光学系2は、光源1からパルス発光されたレーザビームLBの断面形状を、該レーザビームLBの光路後方に設けられたフライアイレンズ4に効率よく入射するように整形するもので、例えばシリンダレンズやビームエキスパンダ(いずれも図示省略)等で構成される。
【0072】
前記エネルギ粗調器3は、ビーム整形光学系2後方のレーザビームLBの光路上に配置され、ここでは、回転板31の周囲に透過率(=1−減光率)の異なる複数個(例えば6個)のNDフィルタ(図2ではその内の2個のNDフィルタ32A、32Dのみが示されている)を配置し、その回転板31を駆動モータ33で回転することにより、入射するレーザビームLBに対する透過率を100%から等比級数的に複数段階で切り換えることができるようになっている。駆動モータ33は、主制御装置28によって制御される。
【0073】
前記フライアイレンズ4は、エネルギ粗調器3後方のレーザビームLBの光路上に配置され、レチクルRを均一な照度分布で照明するためにその射出側焦点面に多数の点光源(光源像)から成る面光源、すなわち2次光源を形成する。この2次光源から射出されるレーザビームを以下においては、「照明光IL」と呼ぶものとする。
【0074】
前記フライアイレンズ4の射出側焦点面の近傍に、円板状部材から成る照明系開口絞り板5が配置されている。この照明系開口絞り板5には、ほぼ等角度間隔で、例えば通常の円形開口より成る開口絞り、小さな円形開口より成りコヒーレンスファクタであるσ値を小さくするための開口絞り(小σ絞り)、輪帯照明用の輪帯状の開口絞り(輪帯絞り)、及び変形光源法用に複数の開口を偏心させて配置して成る変形開口絞り(図2ではこのうちの2種類の開口絞りのみが図示されている)等が配置されている。この照明系開口絞り板5は、主制御装置28により制御されるモータ等の駆動装置51により回転されるようになっており、これによりいずれかの開口絞りが照明光ILの光路上に選択的に設定される。なお、開口絞り板5の代わりに、あるいはそれと組み合わせて、例えば照明光学系内に交換して配置される複数の回折光学素子、照明光学系の光軸に沿って可動なプリズム(円錐プリズム、多面体プリズムなど)、及びズーム光学系の少なくとも1つを含む光学ユニットを、光源1(具体的にはエネルギ粗調器3)とオプティカルインテグレータ4との間に配置し、オプティカルインテグレータ4がフライアイレンズであるときはその入射面上での照明光ILの強度分布、オプティカルインテグレータ4が内面反射型インテグレータであるときはその入射面に対する照明光ILの入射角度範囲などを可変とすることで、照明光学系の瞳面上での照明光ILの光量分布(2次光源の大きさや形状)、すなわち照明条件の変更に伴なう光量損失を抑えることが望ましい。
【0075】
照明系開口絞り板5後方の照明光ILの光路上に、反射率が小さく透過率の大きなビームスプリッタ6が配置され、更にこの後方の光路上に、前述のレチクルブラインド8を介在させて第1リレーレンズ7A及び第2リレーレンズ7Bから成るリレー光学系が配置されている。
【0076】
前記レチクルブラインド8を構成する固定レチクルブラインド8Aは、レチクルRのパターン面に対する共役面から僅かにデフォーカスした面に配置され、レチクルR上で照明領域を規定する矩形開口が形成されている。また、この固定レチクルブラインド8Aの近傍に走査方向(本実施形態では、図1及び図2における紙面内左右方向であるY軸方向とする)に対応する方向の位置及び幅が可変の開口部を有する可動レチクルブラインド8Bが配置され、走査露光の開始時及び終了時にその可動レチクルブラインド8Bを介して照明領域を更に制限することによって、不要な部分の露光が防止されるようになっている。さらに、可動レチクルブラインド8Bは走査方向と直交する非走査方向に対応する方向に関しても開口部の幅が可変であり、ウエハ上に転写すべきレチクルRのパターンに応じて照明領域の非走査方向の幅を調整できるようになっている。
【0077】
リレー光学系を構成する第2リレーレンズ7B後方の照明光ILの光路上には、当該第2リレーレンズ7Bを通過した照明光ILをレチクルRに向けて反射する折り曲げミラーMが配置されている。
【0078】
一方、ビームスプリッタ6による反射光路上には、集光レンズ52を介して光電変換素子よりなるインテグレータセンサ53が配置されている。このインテグレータセンサ53としては、例えば遠紫外域で感度があり、且つ光源ユニット1のパルス発光を検出するために高い応答周波数を有するPIN型のフォトダイオード等が使用できる。このインテグレータセンサ53の出力DPと、ウエハW表面上での照明光ILの照度(強度)との相関係数(又は相関関数)は予め求められて、主制御装置28内部のメモリ内に記憶されている。
【0079】
このようにして構成された照明系IOPの作用を簡単に説明すると、光源1からパルス発光されたレーザビームLBは、ビーム整形光学系2に入射して、ここで後方のフライアイレンズ4に効率よく入射するようにその断面形状が整形された後、エネルギ粗調器3に入射する。そして、このエネルギ粗調器3のいずれかのNDフィルタを透過したレーザビームLBは、フライアイレンズ4に入射する。これにより、フライアイレンズ4の射出側焦点面に前述の2次光源が形成される。この2次光源から射出された照明光ILは、照明系開口絞り板5上のいずれかの開口絞りを通過した後、透過率が大きく反射率が小さなビームスプリッタ6に至る。このビームスプリッタ6を透過した照明光ILは、第1リレーレンズ7Aを経てレチクルブラインド8の開口部を通過した後、第2リレーレンズ7Bを通過してミラーMによって光路が垂直下方に折り曲げられた後、レチクルステージRST上に保持されたレチクルR上の矩形の照明領域を均一な照度分布で照明する。
【0080】
一方、ビームスプリッタ6で反射された照明光ILは、集光レンズ52を介してインテグレータセンサ53で受光され、インテグレータセンサ53の光電変換信号が、不図示のピークホールド回路及びA/D変換器を介して出力DP(digit/pulse)として主制御装置28に供給される。
【0081】
図1に戻り、前記レチクルステージRSTは、照明系IOPの図1における下方に配置されている。このレチクルステージRST上にレチクルRが載置され、不図示のバキュームチャック等を介して吸着保持されている。レチクルステージRSTは、不図示のレチクルステージ駆動部によって、水平面(XY平面)内で微小駆動可能であるとともに、走査方向(ここでは図1の紙面左右方向であるY軸方向とする)に所定ストローク範囲で走査されるようになっている。この走査中のレチクルステージRSTの位置は、レチクルステージRST上に固定された移動鏡12を介して外部のレーザ干渉計14によって計測され、このレーザ干渉計14の計測値が主制御装置28に供給されるようになっている。なお、レチクルステージRSTの端面を鏡面加工してレーザ干渉計14の反射面(前述の移動鏡12の反射面に相当)を形成しても良い。
【0082】
前記投影光学系PLは、レチクルステージRSTの図1における下方に、その光軸AXpの方向がXY面に直交するZ軸方向となるように配置されている。この投影光学系PLとしては、ここでは両側テレセントリックな縮小系であって、Z軸方向の共通の光軸AXpを有する複数枚のレンズエレメント(図示省略)から成る屈折光学系が用いられている。レンズエレメントのうちの特定の複数枚は、主制御装置28からの指令に基づいて、図示しない結像特性補正コントローラによって制御され、投影光学系PLの光学特性(結像特性を含む)、例えば倍率、ディストーション、コマ収差、及び像面湾曲などを調整できるようになっている。
【0083】
この投影光学系PLの投影倍率は、例えば1/4(あるいは1/5)などとされている。このため、前述の如く照明光ILによりレチクルRが均一な照度で照明されると、レチクルRのパターンが投影光学系PLにより縮小されて、フォトレジストが塗布されたウエハW上に投影され、ウエハW上の被露光領域(照明領域に共役な領域)にパターンの縮小像が形成される。
【0084】
前記XYステージ20は、実際には不図示のベース上をY軸方向に移動するYステージと、このYステージ上をX軸方向に移動するXステージとで構成されているが、図1ではこれらが代表的にXYステージ20として示されている。このXYステージ20上にウエハテーブル18が搭載され、このウエハテーブル18上に不図示のウエハホルダを介してウエハWが真空吸着等によって保持されている。
【0085】
前記ウエハテーブル18は、ウエハWを保持するウエハホルダをZ軸方向及びXY面に対する傾斜方向に微小駆動するもので、Z・チルトステージとも称される。このウエハテーブル18の上面には、移動鏡24が設けられており、この移動鏡24にレーザビームを投射して、その反射光を受光することにより、ウエハテーブル18のXY面内の位置を計測するレーザ干渉計26が移動鏡24の反射面に対向して設けられている。なお、実際には、移動鏡はX軸に直交する反射面を有するX移動鏡と、Y軸に直交する反射面を有するY移動鏡とが設けられ、これに対応してレーザ干渉計もX方向位置計測用のXレーザ干渉計とY方向位置計測用のYレーザ干渉計とが設けられているが、図1ではこれらが代表して移動鏡24、レーザ干渉計26として図示されている。なお、Xレーザ干渉計及びYレーザ干渉計は測長軸を複数有する多軸干渉計であり、ウエハテーブル18のX、Y位置の他、回転(ヨーイング(Z軸回りの回転であるθz回転)、ピッチング(X軸回りの回転であるθx回転)、ローリング(Y軸回りの回転であるθy回転))も計測可能となっている。従って、以下の説明ではレーザ干渉計26によって、ウエハテーブル18のX、Y、θz、θy、θxの5自由度方向の位置が計測されるものとする。また、移動鏡24の代わりにウエハテーブル18の端面を鏡面加工して反射面として用いても良い。
【0086】
レーザ干渉計26の計測値は主制御装置28に供給され、主制御装置28はこのレーザ干渉計26の計測値に基づいて駆動系22を介してXYステージ20を制御することにより、ウエハテーブル18のXY面内の位置(θz回転を含む)を制御する。
【0087】
また、ウエハW表面のZ軸方向の位置及び傾斜量は、例えば特開平6−283403号公報等に開示される送光系50a及び受光系50bを有する斜入射方式の多点焦点位置検出系から成るフォーカスセンサAFSによって計測されるようになっている。このフォーカスセンサAFSの計測値も主制御装置28に供給されており、主制御装置28は、フォーカスセンサAFSの計測値に基づいて駆動系22を介してウエハテーブル18をZ方向、θx方向及びθy方向に駆動して、投影光学系PLの光軸方向に関するウエハWの位置及び傾きを制御するようになっている。
【0088】
このようにしてウエハテーブル18を介してウエハWがX、Y、Z、θx、θyの5自由度方向の位置及び姿勢制御がなされるようになっている。なお、残りのθz(ヨーイング)の誤差については、レーザ干渉計26で計測されたウエハテーブル18のヨーイング情報に基づいてレチクルステージRSTとウエハテーブル18との少なくとも一方を回転させることによって補正される。
【0089】
また、ウエハテーブル18上には、その表面がウエハWの表面と同じ高さになるような基準板FPが固定されている。この基準板FPの表面には、後述するアライメント検出系のいわゆるベースライン計測等に用いられる基準マークを含む各種の基準マークが形成されている。
【0090】
更に、本実施形態では、投影光学系PLの側面に、ウエハWに形成されたアライメントマークを検出するマーク検出系としてのオフ・アクシス方式のアライメント検出系ASが設けられている。このアライメント検出系ASとしては、一例としてハロゲンランプ等のブロードバンド(広帯域)光でマークを照明し、このマーク画像を画像処理することによってマーク位置を計測する画像処理方式の結像式アライメントセンサの一種であるFIA(Field Image Alignment)系が用いられており、基準板FP上の基準マーク及びウエハ上のアライメントマークのX、Y2次元方向の位置計測を行なうことが可能である。
【0091】
アライメント制御装置16は、アライメント検出系ASからの情報DSをA/D変換し、このデジタル化された波形信号を演算処理してマーク位置を検出する。この結果は、アライメント制御装置16から主制御装置28に供給されるようになっている。
【0092】
なお、アライメント検出系ASは、上述のFIA系の他、コヒーレントな検出光を対象に照射し、その対象から発生する散乱光又は回折光を検出するアライメントセンサや、その対象から発生する2つの回折光(例えば同次数)を干渉させて検出するアライメントセンサなどの各種のアライメントセンサを、単独で、あるいは適宜組み合わせて用いることもできる。
【0093】
さらに、本実施形態の露光装置100では、図示が省略されているが、レチクルRの上方に、例えば特開平7−176468号公報等に開示される、投影光学系PLを介してレチクルR上のレチクルマーク又はレチクルステージRST上の基準マーク(共に図示省略)と基準板FP上のマークとを同時に観察するための露光波長の光を用いたTTR(Through The Reticle)アライメント系から成る一対のレチクルアライメント検出系が設けられている。これらのレチクルアライメント検出系の検出信号は、アライメント制御装置16を介して主制御装置28に供給されるようになっている。
【0094】
次に、本発明に係る投影光学系の光学特性を計測するのに用いられるレチクルの一例について説明する。
【0095】
図3には、投影光学系の光学特性を計測するのに用いられるレチクルRの一例が示されている。この図3は、レチクルRをパターン面側(図1における下面側)から見た平面図である。この図3に示されるように、レチクルRは、ほぼ長方形のマスク基板としてのガラス基板42の中央に、クロム等の遮光部材から成るパターン領域PAが形成されている。このパターン領域PAの中心(すなわちレチクルRの中心(レチクルセンタ)に一致)及びパターン領域PAのY軸方向の中央部に位置する仮想の矩形領域IAR’内部の4隅の部分の合計5箇所に、例えば20μm角の開口パターン(透過領域)AP〜APが形成され、当該各開口パターンの中央部にラインアンドスペースパターン(L/Sパターン)から成る計測用パターンMP〜MPがそれぞれ形成されている。なお、矩形領域IAR’は、前述の照明領域IARにほぼ一致する大きさ及び形状となっている。
【0096】
計測用パターンMP(n=1〜5)のそれぞれは、一例としてX軸方向を周期方向とし、線幅約1.3μm、長さ約12μm程度の5本のラインパターンが、ピッチ約2.6μmで配列されたマルチバーパターンによって構成されている。このため、本実施形態では、開口パターンAPと中心を同じくする、該各開口パターンAPの約60%の縮小領域部分に計測用パターンMPがそれぞれ配置されている。
【0097】
また、前述のレチクルセンタを通るパターン領域PAのX軸方向の両側には、一対のレチクルアライメントマークRM1,RM2が形成されている。
【0098】
次に、本実施形態の露光装置100における投影光学系PLの光学特性の計測方法について、主制御装置28内のCPUの処理アルゴリズムを簡略化して示す図4及び図5のフローチャートに沿って、かつ適宜他の図面を用いて説明する。
【0099】
先ず、図4のステップ402において、不図示のレチクルローダを介してレチクルステージRST上にレチクルRをロードするとともに、不図示のウエハローダを介してウエハWをウエハテーブル18上にロードする。
【0100】
次のステップ404において、レチクルRの投影光学系PLに対する位置合わせ、レチクルブラインドの設定などの所定の準備作業を行う。具体的には、まず、ウエハテーブル18上に設けられた基準板FPの表面に形成されている一対の基準マーク(不図示)の中点が投影光学系PLの光軸とほぼ一致するように、レーザ干渉計26の計測結果をモニタしつつ駆動系22を介してXYステージ20を移動する。次いで、レチクルRの中心(レチクルセンタ)が投影光学系PLの光軸とほぼ一致するように、レーザ干渉計14の計測値に基づいて、レチクルステージRSTの位置を不図示のレチクルステージ駆動部を介して調整する。このとき、例えば、前述のレチクルアライメント検出系(不図示)により投影光学系PLを介してレチクルアライメントマークRM1,RM2と対応する前記基準マークとの相対位置を検出する。そして、レチクルアライメント検出系によって検出された前記相対位置の検出結果に基づいてレチクルアライメントマークRM1,RM2と対応する前記基準マークとの相対位置誤差がともに最小となるように不図示のレチクルステージ駆動部を介してレチクルステージRSTのXY面内の位置を調整する。これにより、レチクルRの中心(レチクルセンタ)が投影光学系PLの光軸と正確にほぼ一致するとともにレチクルRの回転角もレーザ干渉計26の測長軸で規定される直交座標系の座標軸に正確に一致する。
【0101】
また、例えば照明光ILの照射領域が非走査方向に関してレチクルRのパターン領域PAにほぼ一致するように、照明系IOP内の可動レチクルブラインド8Bの非走査方向の開口幅を調整する。
【0102】
このようにして、所定の準備作業が終了すると、次のステップ406に移行して、後述する第1領域の露光終了判定用のフラグFを立てる(F←1)。
【0103】
次のステップ408では、露光エネルギ量の目標値を初期化する。すなわち、カウンタjに初期値「1」を設定して露光エネルギ量の目標値PをPに設定する(j←1)。本実施形態では、カウンタjは、露光エネルギ量の目標値の設定とともに、露光の際のウエハWの行方向の移動目標位置の設定にも用いられる。なお、本実施形態では、ウエハWの表面にポジ型レジストが塗布され、例えばポジ型レジストに関する既知の最適露光量を中心として、露光エネルギ量をPからΔP刻みでP(一例としてN=23)まで変化させる(P=P〜P23)。
【0104】
次のステップ410では、ウエハWのフォーカス位置(Z軸方向の位置)の目標値を初期化する。すなわち、カウンタiに初期値「1」を設定してウエハWのフォーカス位置の目標値ZをZに設定する(i←1)。本実施形態では、カウンタiは、ウエハWのフォーカス位置の目標値の設定とともに、露光の際のウエハWの列方向の移動目標位置の設定にも用いられる。なお、本実施形態では、例えば投影光学系PLに関する既知の最良フォーカス位置(設計値など)を中心として、ウエハWのフォーカス位置をZからΔZ刻みでZ(一例としてM=13)まで変化させる(Z=Z〜Z13)。
【0105】
従って、本実施形態では、投影光学系PLの光軸方向に関するウエハWの位置とウエハW上に照射される照明光ILのエネルギ量をそれぞれ変更しながら、計測用パターンMP(n=1〜5)をウエハW上に順次転写するための、N×M(一例として23×13=299)回の露光が行われることになる。投影光学系PLの視野内の各評価点に対応するウエハW上の領域(以下「評価点対応領域」という)DB〜DBの内の後述する第1領域DC〜DC(図7及び図8参照)には、N×M個の計測用パターンMPが転写されることとなる。
【0106】
ここで、評価点対応領域DB(n=1〜5)内の第1領域DCとしているのは、本実施形態では、各評価点対応領域DBは、上記のN×M個の計測用パターンMPが転写される矩形の第1領域DCと、該第1領域を囲む矩形枠状の第2領域DDとによって構成されるからである(図8参照)。
【0107】
なお、この評価点対応領域DB(すなわち第1領域DC)は、投影光学系PLの視野内でその光学特性を検出すべき複数の評価点に対応している。
【0108】
ここで、説明は前後するが、便宜上、後述する露光によって、計測用パターンMPが転写されるウエハW上の各第1領域DCについて、図6を用いて説明する。この図6に示されるように、本実施形態では、M行N列(13行23列)のマトリックス状に配置されたM×N(=13×23=299)個の仮想の区画領域DAi,j(i=1〜M、j=1〜N)に計測用パターンMPがそれぞれ転写され、これら計測用パターンMPがそれぞれ転写されたM×N個の区画領域DAi,jから成る第1領域DCがウエハW上に形成される。なお、仮想の区画領域DAi,jは、図6に示されるように、+X方向が行方向(jの増加方向)となり、+Y方向が列方向(iの増加方向)となるように配列されている。また、以下の説明において用いられる添え字i,j、及びM,Nは、上述と同じ意味を有するものとする。
【0109】
図4に戻り、次のステップ412では、ウエハW上の各評価点対応領域DB内の仮想の区画領域DAi,j(ここではDA1,1(図7参照))に計測用パターンMPの像がそれぞれ転写される位置に、レーザ干渉計26の計測値をモニタしつつ駆動系22を介してXYステージ20(ウエハW)を移動する。
【0110】
次のステップ414では、ウエハWのフォーカス位置が設定された目標値Z(この場合Z)と一致するように、フォーカスセンサAFSからの計測値をモニタしながらウエハテーブル18をZ軸方向及び傾斜方向に微少駆動する。
【0111】
次のステップ416では、露光を実行する。このとき、ウエハW上の一点における露光エネルギ量(積算露光量)が設定された目標値(この場合P)となるように、露光量制御を行う。この露光エネルギ量の制御方法としては、例えば、次の第1〜第3の方法を、単独で、あるいは適宜組み合わせて用いることができる。
【0112】
すなわち、第1の方法として、パルスの繰り返し周波数を一定に維持し、エネルギ粗調器3を用いてレーザビームLBの透過率を変化させ像面(ウエハ面)に与えられる照明光ILのエネルギ量を調整する。第2の方法として、パルスの繰り返し周波数を一定に維持し、光源1に指示を与えてレーザビームLBの1パルス当たりのエネルギを変化させることにより像面(ウエハ面)に与えられる照明光ILのエネルギ量を調整する。第3の方法として、レーザビームLBの透過率及びレーザビームLBの1パルス当たりのエネルギを一定に維持し、パルスの繰り返し周波数を変更することによって、像面(ウエハ面)に与えられる照明光ILのエネルギ量を調整する。
【0113】
これにより、図7に示されるように、ウエハW上の各第1領域DCの区画領域DA1,1にそれぞれ計測用パターンMP及び開口パターンAPの像が転写される。
【0114】
図4に戻り、上記ステップ416の露光が終了すると、ステップ418において、前述のフラグFが立っているか、すなわちF=1であるか否かを判断する。この場合、前述したステップ406でフラグFが立てられているので、ここでの判断は肯定され、次のステップ420に移行する。
【0115】
ステップ420では、ウエハWのフォーカス位置の目標値がZ以上であるか否かを判断することにより、所定のZ範囲での露光が終了したか否かを判断する。ここでは、最初の目標値Zでの露光が終了しただけなので、ステップ422に移行し、カウンタiを1インクリメントする(i←i+1)とともに、ウエハWのフォーカス位置の目標値にΔZを加算する(Z←Z+ΔZ)。ここでは、フォーカス位置の目標値をZ(=Z+ΔZ)に変更した後、ステップ412に戻る。このステップ412において、ウエハW上の各第1領域DCの区画領域DA2,1に計測用パターンMPの像がそれぞれ転写される位置にウエハWが位置決めされるように、XYステージ20を所定のステップピッチSPだけXY面内で所定方向(この場合−Y方向)に移動する。ここで、本実施形態では、上記のステップピッチSPが、各開口パターンAPのウエハW上の投影像の寸法とほぼ一致する約5μmに設定されている。なお、ステップピッチSPは、約5μmに限らないが、5μmすなわち各開口パターンAPのウエハW上の投影像の寸法以下であることが望ましい。この理由については後述する。
【0116】
次のステップ414では、ウエハWのフォーカス位置が目標値(この場合Z)と一致するように、ウエハテーブル18をΔZだけ光軸AXpの方向にステップ移動し、ステップ416において前述と同様にして露光を行い、ウエハW上の各第1領域DCの区画領域DA2,1に計測用パターンMP及び開口パターンAPをそれぞれ転写する。但し、ステップピッチSPが開口パターンAPのウエハW上の投影像の寸法以下となっているので、各第1領域DCの区画領域DA2,1と区画領域DA2,1との境界部分に開口パターンAPの像の一部によって形成される枠線は存在しない。
【0117】
以後、ステップ420における判断が肯定されるまで、すなわちそのとき設定されているウエハWのフォーカス位置の目標値がZであると判断されるまで、ステップ418→420→422→412→414→416のループの処理(判断を含む)を繰り返す。これにより、ウエハW上の各第1領域DCの区画領域DAi,1(i=3〜M)に計測用パターンMP及び開口パターンAPがそれぞれ転写される。但し、この場合も、隣接する区画領域間の境界には、前述と同様の理由により枠線が存在しない。
【0118】
一方、区画領域DAM,1に対する露光が終了し、上記ステップ420における判断が肯定されると、ステップ424に移行し、そのとき設定されている露光エネルギ量の目標値がP以上であるか否かを判断する。ここでは、そのとき設定されている露光エネルギ量の目標値はPであるため、このステップ424における判断は、否定され、ステップ426に移行する。
【0119】
ステップ426では、カウンタjを1インクリメントする(j←j+1)とともに、露光エネルギ量の目標値にΔPを加算する(P←P+ΔP)。ここでは、露光エネルギ量の目標値をP(=P+ΔP)に変更した後、ステップ410に戻る。
【0120】
その後、ステップ410においてウエハWのフォーカス位置の目標値が初期化された後、ステップ412→414→416→418→420→422のループの処理(判断を含む)を繰り返す。このループの処理は、ステップ420における判断が肯定されるまで、すなわち露光エネルギ量の目標値Pでの、所定のウエハWのフォーカス位置範囲(Z〜Z)についての露光が終了するまで、繰り返される。これにより、ウエハW上の各第1領域DCの区画領域DAi,2(i=1〜M)に計測用パターンMP及び開口パターンAPがそれぞれ転写される。但し、この場合も、隣接する区画領域間の境界には、前述と同様の理由により枠線が存在しない。
【0121】
一方、露光エネルギ量の目標値Pでの、所定のウエハWのフォーカス位置範囲(Z〜Z)についての露光が終了すると、ステップ420における判断が肯定され、ステップ424に移行し、設定されている露光エネルギ量の目標値がP以上であるか否かを判断する。この場合、露光エネルギ量の目標値はPであるため、このステップ424における判断は、否定され、ステップ426に移行する。ステップ426において、カウンタjを1インクリメントするとともに、露光エネルギ量の目標値にΔPを加算する(P←P+ΔP)。ここでは、露光エネルギ量の目標値をPに変更した後、ステップ410に戻る。以後、上記と同様の処理(判断を含む)を繰り返す。
【0122】
このようにして、所定の露光エネルギ量の範囲(P〜P)についての露光が終了すると、ステップ424における判断が肯定され、図5のステップ428に移行する。これにより、ウエハW上の各第1領域DCには、図7に示されるように、それぞれ露光条件が異なるN×M(一例として23×13=299)個の計測用パターンMPの転写像(潜像)が形成される。なお、実際には、上述のようにして、ウエハW上に計測用パターンMPの転写像(潜像)が形成されたN×M(一例として23×13=299)個の区画領域が形成された段階で、各第1領域DCが形成されるのであるが、上記の説明では、説明を分かり易くするために、第1領域DCが予めウエハW上にあるかのような説明方法を採用したものである。
【0123】
図5のステップ428では、前述のフラグFが降ろされているか、すなわちF=0であるか否かを判断する。ここでは、前記ステップ406においてフラグFが立てられているので、このステップ428における判断は否定され、ステップ430に移行して、カウンタi、jをそれぞれ1インクリメントする(i←i+1、j←j+1)。これにより、カウンタi=M+1、J=N+1となり、露光対象の領域が、図8に示される区画領域DAM+1、N+1=DA14,24となる。
【0124】
次のステップ432では、フラグFを降ろし(F←0)、図4のステップ412に戻る。ステップ412では、ウエハW上の各第1領域DCの区画領域DAM+1、N+1=DA14,24に計測用パターンMPの像がそれぞれ転写される位置にウエハWを位置決めし、次のステップ414に進む。但し、このとき、ウエハWのフォーカス位置の目標値はZのままなので、特に動作を行うことなく、ステップ416に進んで、区画領域DA14,24に対する露光を行う。このとき露光エネルギ量Pは、最大露光量Pで露光が行われる。
【0125】
次のステップ418では、フラグF=0となっているので、ステップ420、424をスキップして、ステップ428に移行する。このステップ428では、フラグFが降ろされているか否かを判断するが、ここでは、F=0であるので、この判断は肯定され、ステップ434に移行する。
【0126】
ステップ434では、カウンタi=M+1、かつカウンタj>0を満足するか否かが判断されるが、このとき、i=M+1、j=N+1であるので、ここでの判断は肯定され、ステップ436に移行して、カウンタjを1デクリメントし(j←j−1)、ステップ412に戻る。以後、ステップ412→414→416→418→428→434→436のループの処理(判断を含む)を、ステップ434における判断が否定されるまで、繰り返し行う。これにより、図8に示される区画領域DA14,23からDA14,0まで前述の最大露光量での露光が順次行われる。
【0127】
そして、区画領域DA14,0に対する露光が終了すると、i=M+1(=14)、j=0となるので、ステップ434における判断が否定され、ステップ438に移行する。このステップ438では、カウンタi>0、かつカウンタj=0を満足するか否かを判断するが、このとき、i=M+1、j=0であるので、ここでの判断は肯定され、ステップ440に移行して、カウンタiを1デクリメントし(i←i−1)、ステップ412に戻る。以後、ステップ412→414→416→418→428→434→438→440のループの処理(判断を含む)を、ステップ438における判断が否定されるまで、繰り返し行う。これにより、図8の区画領域DA13,0からDA0,0まで前述の最大露光量で露光が順次行われる。
【0128】
そして、区画領域DA0,0に対する露光が終了すると、i=0、j=0となるので、ステップ438における判断が否定され、ステップ442に移行する。このステップ442では、カウンタj=N+1であるか否かが判断されるが、このとき、j=0であるので、ここでの判断は否定され、ステップ444に移行して、カウンタjをインクリメントし(j←j+1)、ステップ412に戻る。以後、ステップ412→414→416→418→428→434→438→442→444のループの処理(判断を含む)を、ステップ442における判断が肯定されるまで、繰り返し行う。これにより、図8の区画領域DA0,1からDA0,24まで前述の最大露光量で露光が順次行われる。
【0129】
そして、区画領域DA0,24に対する露光が終了すると、j=N+1(=24)となるので、ステップ442における判断が肯定され、ステップ446に移行する。このステップ446では、カウンタi=Mであるか否かが判断されるが、このとき、i=0であるので、ここでの判断は否定され、ステップ448に移行して、カウンタiを1インクリメントし(i←i+1)、ステップ412に戻る。以後、ステップ412→414→416→418→428→434→438→442→446→448のループの処理(判断を含む)を、ステップ446における判断が肯定されるまで、繰り返し行う。これにより、図8の区画領域DA1,24からDA13,24まで前述の最大露光量で露光が順次行われる。
【0130】
そして、区画領域DA13,24に対する露光が終了すると、i=M(=23)となるので、ステップ446における判断が肯定され、これにより、ウエハWに対する露光が終了する。これにより、ウエハW上には、図8に示されるような矩形(長方形)の第1領域DCと、これを取り囲む矩形枠状の第2領域DDとから成る、評価点対応領域DB(n=1〜5)の潜像が形成される。この場合、第2領域DDを構成する各区画領域は、明らかに過露光(オーバードーズ)状態となっている。
【0131】
このようにしてウエハWに対する露光が終了すると、図5のステップ450に移行する。このステップ450では、不図示のウエハアンローダを介してウエハWをウエハテーブル18上からアンロードするとともに不図示のウエハ搬送系を用いてウエハWを露光装置100にインラインにて接続されている不図示のコータ・デベロッパに搬送する。
【0132】
上記のコータ・デベロッパに対するウエハWの搬送後に、ステップ452に進んでウエハWの現像が終了するのを待つ。このステップ452における待ち時間の間に、コータ・デベロッパによってウエハWの現像が行われる。この現像の終了により、ウエハW上には、図8に示されるような矩形(長方形)の第1領域DCと、これを取り囲む矩形枠状の第2領域DDとから成る、評価点対応領域DB(n=1〜5)のレジスト像が形成され、このレジスト像が形成されたウエハWが投影光学系PLの光学特性を計測するための試料となる。図9には、ウエハW上に形成された評価点対応領域DBのレジスト像の一例が示されている。
【0133】
この図9では、評価点対応領域DBは、(N+2)×(M+2)=25×15=375個の区画領域DAi,j(i=0〜M+1、j=0〜N+1)によって構成され、隣接する区画領域相互間に仕切りの枠のレジスト像が存在するかのように図示されているが、これは個々の区画領域を分かり易くするためにこのようにしたものである。しかし、実際には、隣接する区画領域相互間に仕切りの枠のレジスト像は存在しない。このように枠を無くすことにより、従来問題となっていた、FIA系のアライメントセンサなどによる画像取り込みに際して、枠による干渉に起因してパターン部のコントラスト低下が生じるのを防止できる。このため、本実施形態では、前述のステップピッチSPを、各開口パターンAPのウエハW上の投影像の寸法以下となるように設定したのである。
【0134】
また、この場合、隣接する区画領域間のマルチバーパターンから成る計測用パターンMPのレジスト像同士の距離をLとすると、この距離Lは、一方の計測用パターンMPの像のコントラストに他方の計測用パターンMPの像の存在が影響を与えない程度の距離とされている。この距離Lは、区画領域を撮像する撮像装置(本実施形態の場合、アライメント検出系AS(FIA系のアライメントセンサ))の解像度をR、計測用パターンの像のコントラストをC、レジストの反射率、屈折率などを含むプロセスによって定まるプロセスファクタをP、アライメント検出系AS(FIA系のアライメントセンサ)の検出波長をλとした場合に、一例として、L=f(C、R、P、λ)なる関数で表すことができる。
【0135】
なお、プロセスファクタPは、像のコントラストに影響を与えるので、プロセスファクタを含まない関数L’=f’(C、R、λ)なる関数によって距離Lを規定しても良い。
【0136】
また、図9からもわかるように、矩形(長方形)の第1領域DCを取り囲む矩形枠状の第2領域DDには、パターン残存領域が見当たらない。これは、前述の如く、第2領域DDを構成する各区画領域の露光の際に過露光となる露光エネルギを設定したためである。このようにしたのは、後述する外枠検出の際にその外枠部のコントラストを向上させ、検出信号のS/N比を高くするためである。
【0137】
上記ステップ452の待ち状態で、不図示のコータ・デベロッパの制御系からの通知によりウエハWの現像が終了したことを確認すると、ステップ454に移行し、不図示のウエハローダに指示を出して、前述のステップ402と同様にしてウエハWをウエハテーブル18上に再度ロードした後、ステップ456の投影光学系の光学特性を算出するサブルーチン(以下、「光学特性計測ルーチン」とも呼ぶ)に移行する。
【0138】
この光学特性計測ルーチンでは、まず、図10のステップ502において、カウンタnを参照して、ウエハW上の評価点対応領域DBのレジスト像がアライメント検出系ASで検出可能となる位置にウエハWを移動する。この移動、すなわち位置決めは、レーザ干渉計26の計測値をモニタしつつ、駆動系22を介してXYステージ20を制御することにより行う。ここで、カウンタnは、n=1に初期化されているものとする。従って、ここでは、図9に示されるウエハW上の評価点対応領域DBのレジスト像がアライメント検出系ASで検出可能となる位置にウエハWが位置決めされる。なお、以下の光学特性計測ルーチンの説明では、評価点対応領域DBのレジスト像を、適宜「評価点対応領域DB」と略述するものとする。
【0139】
次のステップ504では、ウエハW上の評価点対応領域DB(ここでは、DB)のレジスト像をアライメント検出系ASを用いて撮像し、その撮像データを取り込む。なお、アライメント検出系ASは、レジスト像を自身の有する撮像素子(CCD等)のピクセル単位に分割し、ピクセル毎に対応するレジスト像の濃淡を8ビットのデジタルデータ(ピクセルデータ)として主制御装置28に供給するようになっている。すなわち、前記撮像データは、複数のピクセルデータで構成されている。なお、ここでは、レジスト像の濃度が高くなる(黒に近くなる)につれてピクセルデータの値は大きくなるものとする。
【0140】
次のステップ506では、アライメント検出系ASからの評価点対応領域DB(ここでは、DB)に形成されたレジスト像の撮像データを整理し、撮像データファイルを作成する。
【0141】
次のステップ508〜ステップ516では、以下に説明するようにして、評価点対応領域DB(ここでは、DB)の外縁である長方形(矩形)の外枠を検出する。図14(A)〜図14(C)及び図15(A)、図15(B)には、外枠検出の様子が順番に示されている。これらの図において、符号DBが付された矩形領域が、外枠検出の対象となる評価点対応領域DBに相当する。
【0142】
まず、ステップ508において、次のようにして、評価点対応領域DBの上辺及び下辺の大まかな位置を検出する。
【0143】
すなわち、このステップ508では、図14(A)に示されるように、評価点対応領域DB(ここでは、DB)の設計値に基づいて、該評価点対応領域DB(ここでは、DB)の上辺及び下辺の設計上の位置をそれぞれ含むY軸方向の長さSL(SLは例えば20μm)かつX軸方向の長さB(Bは例えば10μm)の検出領域を設定し、一組の窓領域WD1,WD2を、矢印A1、A2でそれぞれ示されるように−Y方向(外枠の上辺、下辺とほぼ直交する方向)にスキャン(走査)する。窓領域WD1,WD2は、スキャン方向の長さT(Tは例えば3μm)かつ非スキャン方向の長さBとなっている。また、窓領域WD1,WD2相互の間隔LLは、評価点対応領域DB上辺、下辺間の設計上の距離に等しく定められている。
【0144】
そして、上記の窓領域WD1,WD2のスキャン中に、窓領域WD1,WD2内のピクセルデータの代表値、例えばそれぞれの窓領域WD1、WD2内のピクセル値の分散(又は標準偏差)の加算値を、所定のサンプリング間隔、例えば窓領域WD1、WD2のスキャン方向の位置が1ピクセル変化する毎に、順次算出し、各算出結果を、窓領域WD1、WD2のスキャン方向の位置と対応させてメモリに記憶する。そして、スキャン終了後に、前記の算出結果が最大となる窓領域WD1、WD2のスキャン方向の位置(Y軸方向の位置)を、評価点対応領域DB(この場合評価点対応領域DB)の上辺、下辺の概略位置として検出する。これは、外枠部分が窓領域WD1、WD2内に完全に含まれたときに、各窓領域内のピクセル値の分散及び標準偏差が最も大きくなり、かつ、一方の窓領域WD1は外枠の外側から内側に向かってスキャンされ、他方の窓領域WD2は外枠の内側から外側に向かってスキャンされるので、窓領域WD1、WD2内のピクセル値の分散(又は標準偏差)の加算値が最大となる窓領域WD1、WD2のスキャン方向の位置は、外枠の上辺、下辺の位置の近傍であることは間違いないからである。
【0145】
但し、窓領域は、2つ同時にスキャンさせる必要は必ずしもなく、図14(A)と同様の検出領域を個別に設定して、窓領域WD1、WD2を別々にスキャンしても良い。この場合には、窓領域WD1、WD2それぞれについて、領域内のピクセル値の分散(又は標準偏差)がそれぞれ最大となる窓領域WD1、WD2のスキャン方向の位置(Y軸方向の位置)を、評価点対応領域DB(この場合評価点対応領域DB)の上辺、下辺の概略位置として検出すれば良い。この場合において、本実施形態では、前述の如く評価点対応領域DBの最外周に過露光の第2領域DD(すなわち、パターンの残存しない領域)が存在していることを考慮すれば、窓領域WD1、WD2の両者を、図16に簡略化して示されるように、評価点対応領域DB(この場合評価点対応領域DB)の外枠に対して内側から外側にスキャンすることとしても良い。このようにすると、スキャンの途中で、ピクセル値の分散(又は標準偏差)のピークが最初に検出された位置を、外枠の上辺、下辺の概略位置として検出することができる。その理由は、窓領域WD1、WD2ともに、スキャンの開始直後には、窓領域が過露光の第2領域DDに完全に含まれているので、窓領域内のピクセル値の分散(又は標準偏差)はほぼ零であり、その後窓領域が外枠に掛かるまでその状態が続く。そして、窓領域が外枠に掛かった時点で分散(又は標準偏差)が大きくなり、窓領域内に外枠が完全に含まれた時点で分散(又は標準偏差)がピークになるからである。このようにすることにより、外枠の位置検出に要する時間を短縮することができる。
【0146】
さらに、図16に示されるように、窓領域WD1、WD2と同一サイズで90°回転させたような窓領域WD3を、矢印A3で示されるように図16中の左から右に向かって走査することにより、評価点対応領域DBの外枠の右辺の概略位置を前述と同様にして検出しても良い。また、この外枠の上辺、下辺、及び右辺のうちの少なくとも1辺の概略位置検出に際し、その辺上の複数箇所で窓領域を前述と同様にスキャンして、同一辺上の複数の点の概略位置を検出することも勿論可能である。
【0147】
いずれにしても、窓領域WD1、WD2などの大きさは、スキャン中に窓領域内のピクセル値の分散(又は標準偏差)が、評価点対応領域DBの外枠上とそれ以外の場所とで、差が所定値以上となるように、シミュレーション又は実験等に基づいて定めることが重要である。本実施形態では、このようにして、前述のサイズを定めている。なお、本実施形態では外枠の各辺とほぼ平行な方向を長手方向とする窓領域WD1〜WD3を設定するものとしたが、これらの窓領域WD1〜WD3は各辺とほぼ直交する方向を長手方向とする矩形領域としても良い。
【0148】
図17(A)〜図18(D)には、発明者が行った実験結果の一例が示されている。図17(A)には、1つの評価点対応領域DBの外枠の4辺を検出するためにそれぞれ設定された4つの検出領域が示されている。
【0149】
図17(B)には、一組の窓領域を図17(A)中の右から左に(+X側から−X側に)同時に設定された検出領域内でスキャンした際に得られたピクセル値の分散信号の和信号が横軸をX位置として示されている。また、図17(C)には、本実施形態と同様に、一組の窓領域を図17(A)中の上から下に(+Y側から−Y側に)同時に設定された検出領域内でスキャンした際に得られたピクセル値の分散信号の和信号が横軸をY位置として示されている。
【0150】
また、図18(A)には、外枠の上辺を検出対象として、窓領域を図17(A)中の下から上に(−Y側から+Y側に)、設定された検出領域内でスキャンした際に得られたピクセル値の分散信号が横軸をY位置として示されている。同様に、図18(B)には、外枠の下辺を検出対象として、窓領域を図17(A)中の下から上に(−Y側から+Y側に)、設定された検出領域内でスキャンした際に得られたピクセル値の分散信号が横軸をY位置として示されている。
【0151】
また、図18(C)には、外枠の右辺を検出対象として、窓領域を図17(A)中の右から左に(+X側から−X側に)、設定された検出領域内でスキャンした際に得られたピクセル値の分散信号が横軸をX位置として示されている。同様に、図18(D)には、外枠の左辺を検出対象として、窓領域を図17(A)中の左から右に(−X側から+X側に)、設定された検出領域内でスキャンした際に得られたピクセル値の分散信号が横軸をX位置として示されている。
【0152】
例えば、図18(A)の場合には、スキャン方向が、窓領域が外枠の内側から外側に向かって移動する方向に定められていることから、分散信号の最初のピークの位置が、外枠の位置にほぼ一致しているので、この位置を外枠の概略位置として検出できる。これに対して、図18(B)の場合には、スキャン方向が、窓領域が外枠の外側から内側に向かって移動する方向に定められていることから、分散信号の最初のピークの位置が外枠の概略位置と一致していないので、その位置を外枠の概略位置として検出することができない。このように、実際の実験結果からも、前述したように、窓領域WD1、WD2の両者を、評価点対応領域DBの外枠に対して内側から外側にスキャンする方が、外枠の概略位置をより短時間で検出できることが裏付けられている。
【0153】
発明者は、ウエハ上に下地として形成されたバークと、その上に塗布されたレジストとの組み合わせが異なる種々のウエハについて、上述と同様の手順で、評価点対応領域を形成後、上述した窓領域のスキャン方法により評価点対応領域の外枠の概略位置検出(ラフ検出)の実験を行った所、殆ど全ての場合に、支障なく評価点対応領域の外枠の概略位置を検出できることが確認された。
【0154】
上述の如くして、評価点対応領域DB(この場合評価点対応領域DB)の上辺、下辺の概略位置を検出すると、図10のステップ510に戻る。このステップ510では、図14(B)に示されるように、上記ステップ508で求めた上辺より少し下側の横方向(X軸方向にほぼ平行な方向)の直線LH1上のピクセル列、及び、求めた下辺より少し上側の横方向の直線LH2上のピクセル列を用いて、境界検出を行い、評価点対応領域DBの左辺及び右辺上の点を各2点、合計4点求めるサブルーチンの処理を行う。なお、図14(B)中には、このステップ510で境界検出に用いられる、上記直線LH1上のピクセル列データのピクセル値に対応する波形データPD1、上記直線LH2上のピクセル列データのピクセル値に対応する波形データPD2がそれぞれ示されている。
【0155】
サブルーチン510では、まず、図12のステップ701において、上記ステップ508で求めた上辺の概略位置に基づいて、その位置より僅かに下側のピクセル列、例えば図14(B)に示される直線LH1に沿う直線状のピクセル列を、第1番目の境界検出用のピクセル列として決定した後、ステップ702の閾値tを決定する処理を行うサブルーチンに移行する。
【0156】
このサブルーチン702では、まず、図13のステップ802において、上記ステップ701で決定された、直線LH1に沿う直線状のピクセル列のデータ(ピクセル列データ)を前述の撮像データファイルの中から抽出する。これにより、例えば図14(B)中の波形データPD1に対応するピクセル値を有するピクセル列データが得られたものとする。
【0157】
次のステップ804では、そのピクセル列のピクセル値(ピクセルデータの値)の平均値と標準偏差(又は分散)を求める。
【0158】
次のステップ806では、求めた平均値と標準偏差とに基づいて閾値(スレッショルドレベルライン)SLの振り幅を設定する。
【0159】
次のステップ808では、図19に示されるように、上で設定した振り幅で閾値(スレッショルドレベルライン)SLを所定ピッチで変化させ、変化位置毎に波形データPD1と閾値(スレッショルドレベルライン)SLとの交点数を求め、その処理結果の情報(各閾値の値と交点数)を不図示の記憶装置に記憶する。
【0160】
次のステップ810では、上記ステップ808で記憶した上記処理結果の情報に基づいて、求めた交点数が、対象パターン(この場合は、評価点対応領域DB)によって定まる交点数に一致する閾値(仮閾値と呼ぶ)tを求める。
【0161】
次のステップ812では、上記仮閾値tを含み、交点数が同じである閾値範囲を求める。
【0162】
次のステップ814では、上記ステップ812で求めた閾値範囲の所定値(本実施形態では、例えば中心とする)を最適な閾値tとして決定した後、図12のステップ704にリターンする。
【0163】
なお、ここでは、高速化を目的としてピクセル列のピクセル値の平均値と標準偏差(又は分散)を基に、離散的に(所定ステップピッチで)閾値を変化させているが、閾値の変化方法は、これに限定されるものではなく、例えば連続的に変化させるなどしても良いことは勿論である。
【0164】
図12のステップ704では、上で決定した閾値(スレッショルドレベルライン)tと、前述の波形データPD1との交点(すなわち、閾値tが波形データPD1を横切る点)を求める。なお、この交点の検出は、図19中に矢印A、A’で示されるように、実際にはピクセル列を外側から内側に走査することによって行われる。従って、交点は、少なくとも2点検出される。
【0165】
図12に戻り、次のステップ706では、求めた各交点の位置からそれぞれ双方向にピクセル列を走査し、各交点の近傍のピクセル値の極大値及び極小値を、それぞれ求める。
【0166】
次のステップ708では、求めた極大値及び極小値の平均値を算出し、これを新たな閾値t’とする。この場合、交点が少なくとも2点あるので、新たな閾値t’も交点毎に求められることになる。
【0167】
次のステップ710では、上記ステップ708で求めた交点毎の、極大値と極小値との間で、閾値t’と波形データPD1との交点(すなわち、閾値t’が波形データPD1を横切る点)をそれぞれ求め、その求めた2点(ピクセル)の位置をそれぞれ境界点とする。すなわち、このようにして境界点(この場合、評価点対応領域DBの左辺及び右辺上の点)を算出した後、ステップ712に進んで境界点を4点検出したか否かを判断する。ここでは、境界点は、2点検出したのみなので、ここでの判断は否定され、ステップ718に移行し、上記ステップ508で求めた下辺の概略位置に基づいて、その位置より僅かに上側のピクセル列、例えば14(B)に示される直線LH2に沿う直線状のピクセル列を、第2番目の境界検出用のピクセル列として決定した後、ステップ702のサブルーチンに戻る。このサブルーチン702では、まず、図13の802において、上記ステップ718で決定された、直線LH2に沿う直線状のピクセル列のデータ(ピクセル列データ)を前述の撮像データファイルの中から抽出する。これにより、例えば図14(B)中の波形データPD2に対応するピクセル値を有するピクセル列データが得られたものとする。その後、波形データPD2に対応するピクセル値を有するピクセル列データを用いて、前述したステップ804〜814の処理を行い、最適な閾値tを決定した後、ステップ704にリターンする。その後、ステップ704〜ステップ710の処理を前述と同様にして行い、閾値t’と波形データPD1との2点の交点(すなわち、閾値t’が波形データPD2を横切る点)をそれぞれ求め、その求めた2点(ピクセル)の位置をそれぞれ境界点とする。
【0168】
次のステップ712で、境界点を4点検出したか否かを再度判断するが、ここでは、境界点を4点検出しているので、ここでの判断は肯定され、図10のステップ510にリターンする。図14(B)中には、上記ステップ510で求められた4点の境界点Q〜Qが併せて示されている。
【0169】
図10に戻り、次のステップ512では、図14(C)に示されるように、上記ステップ510で求めた左辺上の2点Q、Qより少し右側の縦方向の直線LV1上のピクセル列、及び、求めた右辺上の2点Q、Qより少し左側の縦方向の直線LV2上のピクセル列を用いて、前述のステップ508と同様の手法で境界検出を行い、評価点対応領域DBの上辺及び下辺上の境界点を各2点、合計4点求める。図14(C)中には、このステップ512における境界検出に用いられる、上記直線LV1上のピクセル列データのピクセル値に対応する波形データPD3、上記直線LV2上のピクセル列データのピクセル値に対応する波形データPD4がそれぞれ示されている。また、この図14(C)中には、ステップ512で求められた境界点Q〜Qも併せて示されている。
【0170】
ところで、評価点対応領域DB(この場合DB)の低ドーズ(低露光量)側の境界点、例えば境界点Q、Qの検出に際して、ウエハW上のバークとレジストとの組み合わせによっては、境界点Q、Qの候補点がそれぞれ複数点検出される場合が起こり得る。このような場合、本実施形態では、前述のステップ508において、評価点対応領域DB(この場合DB)の外枠の上辺、下辺の概略位置(ピクセル単位)を、前述の窓領域WD1、WD2のスキャンにより検出しているので、この値に最も近い点を、候補点の中から択一的に選択することにより、境界点Q、Qを確実に検出することができる。この意味では、ステップ508において、外枠の左辺及び右辺の少なくとも一方、例えば評価点対応領域DB(この場合DB)の低ドーズ側に相当する左辺の概略位置(ピクセル単位)を、前述と同様に、窓領域のスキャンにより求めておくこととしても良い。このようにすると、レジスト像においてパターンが残存し、場合によってはその候補点が複数出現することが予想される、境界点Q、Qについても、前述と同様にして確実に検出することが可能となる。
【0171】
図10に戻り、次のステップ514では、図15(A)に示されるように、上記ステップ510、512においてそれぞれ求めた、評価点対応領域DBの左辺、右辺、上辺及び下辺上の各2点(Q,Q)、(Q,Q)、(Q,Q)、(Q,Q)に基づいて、各辺上の2点で決まる直線同士の交点として、矩形領域(長方形領域)である評価点対応領域DBの外枠の4頂点p’、p’、p’、p’を求める。ここで、この頂点の算出方法について、頂点p’を算出する場合を例にとって、図20に基づいて詳述する。
【0172】
図17に示されるように、頂点p’が、境界位置QからQへ向かうベクトルK1のα倍(α>0)の位置にあり、同時にQからQへ向かうベクトルK2のβ倍(β<0)の位置にあるとするとき、次の連立方程式(1)が成り立つ。(ここで、添え字x,yは、それぞれ各点のx座標、y座標を表す。)
【0173】
【数1】

Figure 2004146702
【0174】
上記の連立方程式(1)を解けば、頂点p’の位置(p0x’,p0y’)が求められる。
【0175】
残りの頂点p’、p’、p’についても、同様の連立方程式を立て、それを解くことにより、それぞれの位置を求めることができる。
【0176】
図10に戻り、次のステップ516では、図15(B)に示されるように、上で求めた4頂点p’〜p’の座標値に基づいて、最小二乗法による長方形近似を行い、回転を含めた評価点対応領域DBの外枠DBFを算出する。
【0177】
ここで、このステップ516における処理を、図21に基づいて詳述する。すなわち、このステップ516では、4頂点p〜pの座標値を用いて、最小二乗法による長方形近似を行い、評価点対応領域DBの外枠DBFの幅w、高さh、及び回転量θを求めている。なお、図21において、y軸は紙面の下側が正となっている。
【0178】
中心pの座標を(pcx,pcy)とすると、長方形の4頂点(p,p,p,p)はそれぞれ次式(2)〜(5)のように表せる。
【0179】
【数2】
Figure 2004146702
【0180】
上記ステップ514で求めた4頂点p’,p’,p’,p’の各点とそれぞれ対応する上式(2)〜(5)でそれぞれ表される頂点p,p,p,pとの距離の総和を誤差Eとする。誤差Eは、次式(6)、(7)で表せる。
【0181】
【数3】
Figure 2004146702
【0182】
上記式(6)、(7)を、未知変数pcx,pcy,w,h,θでそれぞれ偏微分し、その結果が0になるように連立方程式を立て、その連立方程式を解くことによって長方形近似結果が得られる。
【0183】
この結果、評価点対応領域DBの外枠DBFが求められた様子が、図15(B)に実線にて示されている。
【0184】
図10に戻り、次のステップ518では、上で検出した評価点対応領域DBの外枠DBFを、既知の区画領域の縦方向の数=(M+2)=15、区画領域の横方向の数=(N+2)=25を用いて、等分割し、各区画領域DAi,j(i=0〜14、j=0〜24)を求める。すなわち、外枠DBFを基準として、各区画領域(位置情報)を求める。
【0185】
図15(C)には、このようにして求められた、第1領域DCを構成する各区画領域DAi,j(i=1〜13、j=1〜23)が示されている。
【0186】
図10に戻り、次のステップ520では、各区画領域DAi,j(i=1〜M、j=1〜N)について、ピクセルデータに関する代表値(以下、適宜「スコア」とも呼ぶ)を算出する。
【0187】
以下、スコアEi,j(i=1〜M、j=1〜N)の算出方法について詳述する。
【0188】
通常、撮像された計測対象において、パターン部分と非パターン部分にはコントラスト差がある。パターンが消失した領域内には非パターン領域輝度をもつピクセルだけが存在し、一方、パターンが残存する領域内にはパターン領域輝度をもつピクセルと非パターン領域輝度を持つピクセルとが混在する。従って、パターン有無判別を行うための代表値(スコア)として、各区画領域内でのピクセル値のばらつきを用いることができる。
【0189】
本実施形態では、一例として、区画領域内の指定範囲のピクセル値の分散(又は標準偏差)を、スコアEとして採用するものとする。
【0190】
指定範囲内のピクセルの総数をS、k番目のピクセルの輝度値をIとすると、スコアEは次式(8)で表せる。
【0191】
【数4】
Figure 2004146702
【0192】
本実施形態の場合、前述の如く、レチクルR上で、開口パターンAP(n=1〜5)と中心を同じくする、該各開口パターンの約60%の縮小領域部分に計測用パターンMPがそれぞれ配置されている。また、前述の露光の際のステップピッチSPが、各開口パターンAPのウエハW上への投影像の寸法とほぼ一致する約5μmに設定されている。従って、パターン残存区画領域において、計測用パターンMPは、区画領域DAi,jと中心を同じくし、該区画領域DAi,jをほぼ60%に縮小した範囲(領域)に存在することとなる。
【0193】
かかる点を考慮すると、上記の指定範囲として、例えば区画領域DAi,j(i=1〜M、j=1〜N)と中心を同じくし、その領域を縮小した範囲をスコア算出に用いることができる。但し、その縮小率A(%)は以下のように制限される。
【0194】
まず、下限については、範囲が狭すぎるとスコア算出に用いる領域が、パターン部分のみになってしまい、そうするとパターン残存部でもばらつきが小さくなってパターン有無判別には利用できなくなる。この場合には、上述のパターンの存在範囲から明らかなように、A>60%である必要がある。また、上限については、当然100%以下だが、検出誤差などを考慮して100%より小さい比率にすべきである。これより、縮小率Aは、60%<A<100%に定める必要がある。
【0195】
本実施形態の場合、パターン部が区画領域の約60%を占めているため、スコア算出に用いる領域(指定範囲)の区画領域に対する比を上げるほどS/N比が上がるものと予想される。
【0196】
しかるに、スコア算出に用いる領域内でのパターン部と非パターン部の領域サイズが同じになれば、パターン有無判別のS/N比を最大にすることができる。本実施形態では、幾つかの比率を実験的に確認した結果、例えばA=90%の場合に最も安定した結果が得られたので、A=90%という比率を採用するものとする。勿論Aは、90%に限定されるものではなく、計測用パターンMPと開口パターンAPとの関係、及びステップピッチSPによって決定されるウエハ上の区画領域を考慮して、区画領域に対する計測用パターンMPの像が占める割合を考慮して定めれば良い。また、スコア算出に用いる指定範囲は、区画領域と中心を同じくする領域に限定されるものではなく、計測用パターンMPの像が区画領域内のどの位置に存在するかを考慮して定めれば良い。
【0197】
ところで、ウエハW上のバークとレジストとの組み合わせによっては、上述した式(8)で表されるスコアEが、一部の区画領域では、パターン有無判別を行うためのスコアとして必ずしも適当でない場合があり得る。そこで、パターンが消失した領域内には非パターン領域輝度をもつピクセルだけが存在することに着目し、上式(8)の一部を変更した、次式(9)で表される各区画領域の指定範囲内におけるピクセル値のばらつきの指標を、スコアE’として採用しても良い。
【0198】
【数5】
Figure 2004146702
【0199】
上式(9)において、Iは、計測用パターンの像が残存しない(消失した)と予想される任意の区画領域内におけるピクセル値の平均値である。従って、上式(9)で表されるスコアE’は、平均値としてIを用いて求められた、各区画領域内の指定範囲におけるピクセルデータに対応するピクセル値の分散であると言える。
【0200】
従って、ステップ520では、前記撮像データファイルから、各区画領域DAi,jの前記指定範囲内の撮像データを抽出し、上式(8)又は(9)を用いて、各区画領域DAi,j(i=1〜M、j=1〜N)のスコアEi,j又はE’i,j(i=1〜M、j=1〜N)を算出する。
【0201】
上記の方法で求めたスコアE又はE’は、パターンの有無具合を数値として表しているので、所定の閾値で二値化することによってパターン有無の判別を自動的にかつ安定して行うことが可能である。
【0202】
そこで、次のステップ522(図11)において、区画領域DAi,j毎に上で求めたスコアEi,j又はE’i,jと所定の閾値SHとを比較して、各区画領域DAi,jにおける計測用パターンMPの像の有無を検出し、検出結果としての判定値Fi,j(i=1〜M、j=1〜N)を図示しない記憶装置に保存する。すなわち、このようにして、スコアEi,j又はE’i,jに基づいて、区画領域DAi,j毎に計測用パターンMPの像の形成状態を検出する。なお、像の形成状態としては、種々のものが考えられるが、本実施形態では、上述の如く、スコアE又はE’がパターンの有無具合を数値として表すものであるという点に基づいて、区画領域内にパターンの像が形成されているか否かに着目することとしたものである。
【0203】
ここでは、スコアEi,j又はE’i,jが閾値SH以上の場合には、計測用パターンMPの像が形成されていると判断し、検出結果としての判定値Fi,jを「0」とする。一方、スコアEi,j又はE’i,jが閾値SH未満の場合には、計測用パターンMPの像が形成されていないと判断し、検出結果としての判定値Fi,jを「1」とする。図22には、この検出結果の一例がテーブルデータとして示されている。この図22は、前述の図9に対応するものである。
【0204】
図22において、例えば、F12,16は、ウエハWのZ軸方向の位置がZ12で、露光エネルギ量がP16のときに転写された計測用パターンMPの像の形成状態の検出結果を意味し、一例として、図22の場合には、F12,16は、「1」という値になっており、計測用パターンMPの像が形成されていないと判断されたことを示している。
【0205】
なお、閾値SHは、予め設定されている値であり、オペレータが図示しない入出力装置を用いて変更することも可能である。
【0206】
次のステップ524では、上述の検出結果に基づいて、フォーカス位置毎にパターンの像が形成されている区画領域の数を求める。すなわち、フォーカス位置毎に判定値「0」の区画領域が何個あるかを計数し、その計数結果をパターン残存数T(i=1〜M)とする。この際に、周囲の領域と異なる値を持ついわゆる跳び領域は無視する。例えば、図22の場合には、ウエハWのフォーカス位置がZではパターン残存数T=8、ZではT=11、ZではT=14、ZではT=16、ZではT=16、ZではT=13、ZではT=11、ZではT=8、ZではT=5、Z10ではT10=3、Z11ではT11=2、Z12ではT12=2、Z13ではT13=2である。このようにして、フォーカス位置とパターン残存数Tとの関係を求めることができる。
【0207】
なお、上記の跳び領域が生ずる原因として、計測時の誤認識、レーザのミスファイヤ、ゴミ、ノイズ等が考えられるが、このようにして生じた跳び領域がパターン残存数Tの検出結果に与える影響を軽減するために、フィルタ処理を行っても良い。このフィルタ処理としては、例えば評価する区画領域を中心とする3×3の区画領域のデータ(判定値Fi,j)の平均値(単純平均値又は重み付け平均値)を求めることが考えられる。なお、フィルタ処理は、形成状態の検出処理前のデータ(スコアEi,j又はE’i,j)に対して行っても勿論良く、この場合には、より有効に跳び領域の影響を軽減できる。
【0208】
次のステップ526では、パターン残存数からベストフォーカス位置を算出するためのn次の近似曲線(例えば4〜6次曲線)を求める。
【0209】
具体的には、上記ステップ524で検出されたパターンの残存数を、横軸をフォーカス位置とし、縦軸をパターン残存数Tとする座標系上にプロットする。この場合、図23に示されるようになる。ここで、本実施形態の場合、ウエハWの露光にあっては、各区画領域DAi,jを同一の大きさとし、かつ、行方向で隣接する区画領域間の露光エネルギの差を一定値(=ΔP)とし、列方向で隣接する区画領域間のフォーカス位置の差を一定値(=ΔZ)としたので、パターン残存数Tが露光エネルギ量に比例するものとして扱うことができる。すなわち、図23において、縦軸は露光エネルギ量Pであると考えることもできる。
【0210】
上記のプロット後、各プロット点をカーブフィットすることによりn次の近似曲線(最小自乗近似曲線)を求める。これにより、例えば図23に点線で示されるような曲線P=f(Z)が求められる。
【0211】
図11に戻り、次のステップ528では、上記曲線P=f(Z)の極値(極大値又は極小値)の算出を試みるとともに、その結果に基づいて極値が存在するか否かを判断する。そして、極値が算出できた場合には、ステップ530に移行して極値におけるフォーカス位置を算出して、その算出結果を光学特性の一つである最良フォーカス位置とするとともに、該最良フォーカス位置を図示しない記憶装置に保存する。
【0212】
一方、上記ステップ528において、極値が算出されなかった場合には、ステップ532に移行して、ウエハWの位置変化(Zの変化)に対応する曲線P=f(Z)の変化量が最も小さいフォーカス位置の範囲を算出し、その範囲の中間の位置を最良フォーカス位置として算出し、その算出結果を最良フォーカス位置とするとともに、該最良フォーカス位置を図示しない記憶装置に保存する。すなわち、曲線P=f(Z)の最も平坦な部分に基づいてフォーカス位置を算出する。
【0213】
ここで、このステップ532のようなベストフォーカス位置の算出ステップを設けたのは、計測用パターンMPの種類やレジストの種類その他の露光条件によっては、例外的に上述の曲線P=f(Z)が明確なピークを持たないような場合がある。このような場合にも、ベストフォーカス位置をある程度の精度で算出できるようにしたものである。
【0214】
次のステップ534において、前述のカウンタnを参照して、全ての評価点対応領域DB〜DBについて処理が終了したか否かを判断する。ここでは、評価点対応領域DBについての処理が終了しただけであるため、このステップ534における判断は否定され、ステップ536に進んでカウンタnをインクリメント(n←n+1)した後、図10のステップ502に戻り、評価点対応領域DBがアライメント検出系ASで検出可能となる位置に、ウエハWを位置決めする。
【0215】
そして、上述したステップ504〜534までの処理(判断を含む)を再度行い、上述した評価点対応領域DBの場合と同様にして、評価点対応領域DBについて最良フォーカス位置を求める。
【0216】
そして、評価点対応領域DBについて最良フォーカス位置の算出が終了すると、ステップ534で全ての評価点対応領域DB〜DBについて処理が終了したか否かを再度判断するが、ここでの判断は否定される。以後、ステップ534における判断が肯定されるまで、上記ステップ502〜536の処理(判断を含む)が繰り返される。これにより、他の評価点対応領域DB〜DBについて、前述した評価点対応領域DBの場合と同様にして、それぞれ最良フォーカス位置が求められることとなる。
【0217】
このようにして、ウエハW上の全ての評価点対応領域DB〜DBについて最良フォーカス位置の算出、すなわち投影光学系PLに関して照明領域IAR’と共役な被露光領域内で5つの計測用パターンMP〜MPの投影位置となる前述した各評価点での最良フォーカス位置の算出がなされると、ステップ534での判断が肯定され、ステップ538に移行して、上で求めた最良フォーカス位置データに基づいて他の光学特性を算出する。
【0218】
例えば、このステップ538では、一例として、評価点対応領域DB〜DBにおける最良フォーカス位置のデータに基づいて、投影光学系PLの像面湾曲を算出する。また、前述した被露光領域内の各評価点での焦点深度などを求めても良い。
【0219】
ここで、本実施形態では、説明の簡略化のため、投影光学系PLの視野内の各評価点に対応するレチクルR上の領域に計測用パターンとして前述のパターンMPのみが形成されていることを前提として、説明を行った。しかし、本発明がこれに限定されないことは勿論である。例えば、レチクルR上に、例えば各評価点に対応するレチクルR上の領域の近傍に、前述したステップピッチSPの整数倍、例えば8倍、12倍などの間隔で複数の開口パターンAPを配置し、各開口パターンAPの内部に、周期方向が異なるL/Sパターンや、ピッチが異なるL/Sパターンなど複数種類の計測用パターンをそれぞれ配置しても良い。このようにすると、例えば、各評価点に対応する位置に近接して配置された周期方向が直交する1組のL/Sパターンを計測用パターンとして得られた最良フォーカス位置から各評価点における非点収差を求めることができる。さらに、投影光学系PLの視野内の各評価点について、上述のようにして算出された非点収差に基づいて最小二乗法による近似処理を行うことにより非点収差面内均一性を求めるとともに、非点収差面内均一性と像面湾曲とから総合焦点差を求めることも可能となる。
【0220】
そして、上述のようにして求められた投影光学系PLの光学特性データは、図示しない記憶装置に保存されるとともに、不図示の表示装置の画面上に表示される。これにより、図11のステップ538の処理、すなわち図5のステップ456の処理を終了し、一連の光学特性の計測処理を終了する。
【0221】
次に、デバイス製造の場合における、本実施形態の露光装置100による露光動作を説明する。
【0222】
前提として、上述のようにして決定された最良フォーカス位置の情報、あるいはこれに加えて像面湾曲の情報が、不図示の入出力装置を介して主制御装置28に入力されているものとする。
【0223】
例えば、像面湾曲の情報が入力されている場合には、主制御装置28は、露光に先立って、この光学特性データに基づいて、図示しない結像特性補正コントローラに指示し、例えば投影光学系PLの少なくとも1つの光学素子(本実施形態では、レンズエレメント)の位置(他の光学素子との間隔を含む)あるいは傾斜などを変更することにより、その像面湾曲が補正されるように投影光学系PLの結像特性を可能な範囲で補正する。なお、投影光学系PLの結像特性の調整に用いる光学素子は、レンズエレメントなどの屈折光学素子だけでなく、例えば凹面鏡などの反射光学素子、あるいは投影光学系PLの収差(ディストーション、球面収差など)、特にその非回転対称成分を補正する収差補正板などでも良い。さらに、投影光学系PLの結像特性の補正方法は光学素子の移動に限られるものではなく、例えば光源1を制御して照明光ILの中心波長を僅かにシフトさせる方法、又は投影光学系PLの一部で屈折率を変化させる方法などを単独、あるいは光学素子の移動との組み合わせで採用しても良い。
【0224】
そして、主制御装置28からの指示に応じて、不図示のレチクルローダにより転写対象となる所定の回路パターン(デバイスパターン)が形成されたレチクルRがレチクルステージRST上にロードされる。同様に、不図示のウエハローダにより、ウエハWがウエハテーブル18上にロードされる。
【0225】
次に、主制御装置28により、不図示のレチクルアライメント検出系、ウエハテーブル18上の基準マーク板FP、アラインメント検出系AS等を用いて、レチクルアラインメント、ベースライン計測などの準備作業が所定の手順で行われ、これに続いてEGA(エンハンスト・グローバル・アラインメント)方式などのウエハアライメントが行われる。なお、上記のレチクルアライメント、ベースライン計測等の準備作業については、例えば特開平7−176468号公報(対応米国特許第5,646,413号)に詳細に開示され、また、これに続くEGAについては、特開昭61−44429号公報(対応米国特許第4,780,617号)に詳細に開示されているので、ここではこれ以上の詳細説明は省略する。
【0226】
上記のウエハアライメントが終了すると、以下のようにしてステップ・アンド・スキャン方式の露光動作が行われる。
【0227】
まず、主制御装置28は、レチクルRとウエハW、すなわちレチクルステージRSTとXYステージ20とのY軸方向の相対走査を開始する。両ステージRST、20がそれぞれの目標走査速度に達し、等速同期状態に達すると、照明系IOPからの紫外パルス光によってレチクルRのパターン領域が照明され始め、走査露光が開始される。上記の相対走査は、主制御装置28が、前述したレーザ干渉計26及びレーザ干渉計14の計測値をモニタしつつ、レチクルステージ駆動部(不図示)及び駆動系22を制御することにより行われる。
【0228】
主制御装置28は、特に上記の走査露光時には、レチクルステージRSTのY軸方向の移動速度VrとXYステージ20のY軸方向の移動速度Vwとが、投影光学系PLの投影倍率(1/4倍あるいは1/5倍)に応じた速度比に維持されるように同期制御を行う。また、主制御装置28は、走査露光中に、フォーカスセンサAFSによって検出されたウエハWのZ軸方向の位置情報に基づき、前述した光学特性補正後の投影光学系PLの像面の焦点深度の範囲内にウエハW(ショット領域)表面の露光領域が収まるように、駆動系22を介してウエハテーブル18をZ軸方向及び傾斜方向に駆動し、ウエハWのフォーカス・レベリング制御を行う。なお、本実施形態では、ウエハWの露光動作に先立って、前述した各評価点における最良フォーカス位置に基づいて投影光学系PLの像面を算出し、この像面がフォーカスセンサAFSの検出基準となるようにフォーカスセンサAFSの光学的なキャリブレーション(例えば、受光系50b内に配置される平行平面板の傾斜角度の調整など)が行われている。勿論、光学的なキャリブレーションを必ずしも行う必要はなく、例えば先に算出した像面とフォーカスセンサAFSの検出基準との偏差に応じたオフセットを考慮して、フォーカスセンサAFSの出力に基づいてウエハW表面を像面に一致させるフォーカス動作(及びレベリング動作)を行うようにしても良い。
【0229】
そして、レチクルRのパターン領域の異なる領域が紫外パルス光で逐次照明され、パターン領域全面に対する照明が完了することにより、ウエハW上の第1ショット領域の走査露光が終了する。これにより、レチクルRのパターンが投影光学系PLを介して第1ショット領域に縮小転写される。
【0230】
上述のようにして、第1ショット領域の走査露光が終了すると、主制御装置28により、駆動系22を介してXYステージ20がX、Y軸方向にステップ移動され、第2ショット領域の露光のための走査開始位置(加速開始位置)に移動される。
【0231】
そして、主制御装置28により、上述と同様に各部の動作が制御され、ウエハW上の第2ショット領域に対して上記と同様の走査露光が行われる。
【0232】
このようにして、ウエハW上のショット領域の走査露光とショット間のステッピング動作とが繰り返し行われ、ウエハW上の露光対象ショットの全てにレチクルRのパターンが順次転写される。
【0233】
ウエハW上の全露光対象ショットへのパターン転写が終了すると、次のウエハと交換され、上記と同様にアライメント、露光動作が繰り返される。
【0234】
以上詳細に説明したように、本実施形態に係る露光装置における、投影光学系PLの光学特性計測方法によると、矩形枠状の開口パターンAPと該開口パターンAPの内部に位置する計測用パターンMPとが形成されたレチクルRを、投影光学系の物体面側に配置されたレチクルステージRST上に搭載し、投影光学系PLの像面側に配置されたウエハWの投影光学系PLの光軸方向に関する位置(Z)とウエハW上に照射される照明光ILのエネルギ量Pをそれぞれ変更しながら、ウエハWを開口パターンAPのサイズに対応する距離、すなわち開口パターンAPのウエハW上への投影像のサイズ以下のステップピッチで順次XY面内で移動して計測用パターンMPをウエハW上に順次転写する。これにより、ウエハW上には、マトリックス状に配置された複数の区画領域DAi,j(i=0〜M+1、j=0〜N+1)から成る全体として矩形の評価点対応領域DBが形成される。この場合、前述した理由により、ウエハW上には、区画領域相互間の境界に従来のような枠線が存在しない複数のマトリックス状配置の複数の区画領域(計測用パターンの像が投影された領域)が形成される。
【0235】
そして、ウエハWの現像後に、主制御装置28が、FIA系のアライメントセンサから成るアライメント検出系ASを用いてウエハW上の評価点対応領域DBを撮像する。次いで、主制御装置28は、取り込んだレジスト像の撮像データに基づき、評価点対応領域DBの輪郭から成る矩形の外枠DBFを構成する少なくとも1辺、例えば上辺、下辺を検出対象とし、所定大きさの窓領域WD1、WD2をそれぞれの検出対象の辺にほぼ直交する走査方向に走査し、該走査中に窓領域WD1、WD2それぞれの内部のピクセルデータの代表値、すなわちピクセル値の分散(又は標準偏差)がそれぞれ最大となる位置を、それぞれの検出対象の辺である上辺、下辺の位置として検出する。すなわち、本実施形態では、このようにして、外枠DBFの一部のラフ検出が行われる。
【0236】
ここで、検出領域は、検出対象の辺の設計値に基づいて、その辺が必ず含まれるように容易に設定することができる。また、外枠DBFの部分は、その他の部分と明らかにピクセル値(画素値)が異なるので、窓領域WD1、WD2内のピクセル値の分散(又は標準偏差)の大小に基づき、検出対象の辺(外枠の一部)の位置が確実に検出される。
【0237】
次に、主制御装置28は、前記撮像データに基づき、前記検出対象の辺、すなわち上辺及び下辺の位置の検出結果(ラフ検出の結果)を利用して、上辺より僅かに下のピクセル列データのピクセル値に対応する波形データPD1、下辺より僅かに上のピクセル列データのピクセル値に対応する波形データPD2を用いて、左辺、右辺上の境界点を各2点検出することによって左辺、右辺を検出する。次いで、主制御装置28は、検出した左辺の僅かに右側のピクセル列データのピクセル値に対応する波形データPD3、右辺の僅かに左側のピクセル列データのピクセル値に対応する波形データPD4を用いて、上辺、下辺上の境界点を各2点検出することによって上辺、下辺(の詳細位置)を検出する。
【0238】
次に、主制御装置28は、検出した外枠部分(上辺、下辺、左辺、右辺)を基準として評価点対応領域DBを構成する複数の区画領域のうち、第2領域DDを除く第1領域DCを構成するM×N個の区画領域それぞれの位置を算出する。この算出は、外枠内の区画領域の数及び配置の情報に基づいて行われる。
【0239】
次いで、前記撮像データに基づき、第1領域DCを構成するM×N個の区画領域における像の形成状態を画像処理の手法、すなわち前述の各区画領域DAi,jのスコア(Ei,j又はE’i,j)と閾値SHとを比較した二値化の手法により検出する。
【0240】
いずれにしても、前述の如く、外枠の少なくとも1辺の位置をラフ検出し、その検出結果を利用して外枠DBFの詳細位置を検出するという、2段階の検出により外枠の少なくとも一部の位置を確実にかつ精度良く検出することができ、その検出した外枠部分を基準として設計値に基づき少なくとも一部の複数の区画領域の位置を算出するので、その複数の区画領域のほぼ正確な位置を求めることが可能となる。
【0241】
また、本実施形態の場合、隣接する区画領域間に枠線が存在しないので、像形成状態の検出対象である複数の区画領域(主として計測用パターンの像の残存する区画領域)において、計測用パターンの像のコントラストが枠線の干渉に起因して低下することがない。このため、それらの複数の区画領域の撮像データとしてパターン部と非パターン部のS/N比の良好なデータを得ることができる。従って、区画領域毎の計測用パターンMPの形成状態を精度、再現性良く検出することが可能となる。しかも、像の形成状態を客観的、定量的なスコア(Ei,j又はE’i,j)を閾値SHと比較してパターンの有無情報(二値化情報)に変換して検出するので、区画領域毎の計測用パターンMPの形成状態を、再現性良く検出することができるとともに、パターン有無の判別を自動的にかつ安定して行うことができる。従って、本実施形態では、二値化に際して、閾値は一つだけで足り、複数の閾値を設定しておいて閾値毎にパターンの有無具合を判別するような場合に比べて、像の形成状態の検出に要する時間を短縮することができるとともに、その検出アルゴリズムも簡略化することができる。
【0242】
また、主制御装置28は、上述した区画領域毎の像の形成状態の検出結果、すなわち客観的かつ定量的な上記のスコア(Ei,j又はE’i,j)、すなわち画像のコントラストの指標値を用いた検出結果に基づいて最良フォーカス位置などの投影光学系PLの光学特性を求めている。このため、短時間で精度良く最良フォーカス位置などを求めることが可能となる。従って、この最良フォーカス位置に基づいて決定される光学特性の測定精度及び測定結果の再現性を向上させることができるとともに、結果的に光学特性計測のスループットを向上させることが可能となる。
【0243】
また、本実施形態では、上述の如く、像の形成状態をパターンの有無情報(二値化情報)に変換して検出するので、レチクルRのパターン領域PA内に計測用パターンMP以外のパターン(例えば、比較用の基準パターンや、位置決め用マークパターン等)を配置する必要がない。また、従来の寸法を計測する方法(CD/フォーカス法、SMPフォーカス計測法など)に比べて、計測用パターンを小さくすることができる。このため、評価点の数を増加させることができるとともに、評価点間の間隔を狭くすることが可能となる。結果的に、光学特性の測定精度及び測定結果の再現性を向上させることができる。
【0244】
また、本実施形態では、ウエハW上に形成される隣接する区画領域間に枠線が存在しないことに鑑み、各評価点対応領域DBの外周縁である外枠DBFを基準として各区画領域DAi,jの位置を算出する手法を採用している。そして、各評価点対応領域DB内の最外周部に位置する複数の区画領域から成る第2領域DDを構成する各区画領域が過露光の領域となるように露光条件の一部としてウエハW上に照射される照明光ILのエネルギ量を変更している。これにより、前述の外枠DBFの検出に際してのS/N比が向上し、外枠DBFの検出を高精度に行うことができ、この結果、これを基準として各第1領域DCを構成する各区画領域DAi,j(i=1〜M、j=1〜N)の位置を精度良く検出することができる。
【0245】
また、本実施形態に係る光学特性計測方法によると、統計処理による近似曲線の算出という客観的、かつ確実な方法を基礎として最良フォーカス位置を算出しているので、安定して高精度かつ確実に光学特性を計測することができる。なお、近似曲線の次数によっては、その変曲点、あるいはその近似曲線と所定のスライスレベルとの複数の交点等に基づいて最良フォーカス位置を算出することは可能である。
【0246】
また、本実施形態の露光装置によると、前述の光学特性計測方法により精度良く計測された投影光学系PLの光学特性を考慮して最適な転写が行えるように投影光学系PLが露光に先立って調整され、その調整された投影光学系PLを介してレチクルRに形成されたパターンがウエハW上に転写される。更に、上述のようにして決定された最良フォーカス位置を考慮して露光の際のフォーカス制御目標値の設定が行われるので、デフォーカスによる色むらの発生を効果的に抑制することができる。従って、本実施形態に係る露光方法によると、微細パターンをウエハ上に高精度に転写することが可能となる。
【0247】
なお、上記実施形態では、投影光学系PLの光学特性の計測方法の一部として、矩形枠状の開口パターンAPと該開口パターンAPの内部に位置する計測用パターンMPとが形成されたレチクルRを、投影光学系の物体面側に配置されたレチクルステージRST上に搭載し、投影光学系PLの像面側に配置されたウエハWの投影光学系PLの光軸方向に関する位置(Z)とウエハW上に照射される照明光ILのエネルギ量Pをそれぞれ変更しながら、ウエハWを所定のステップピッチで移動して、計測用パターンMPをウエハW上に順次転写する転写工程が含まれるものとしたが、本発明がこれに限定されるものではない。すなわち、異なる露光条件下で投影光学系PLを介して転写された計測用パターンの転写領域から成るマトリックス状配置の複数の区画領域を含む全体として矩形の所定の領域が予め形成されたウエハなどの物体を予め用意し、このウエハに対して、前述の実施形態と同様にアライメント検出系ASによる撮像処理以後の各処理を行うことによっても、マトリックス状配置の複数の区画領域が異なる露光条件下で投影光学系PLを介して転写された計測用パターンの転写領域である限り、換言すれば、区画領域に形成された像が、投影光学系PLの光学特性の影響を受けた像を含む限り、上記実施形態と同様に投影光学系の光学特性を計測することができる。
【0248】
従って、第2領域、すなわち矩形枠状の領域、あるいはその一部の領域を形成する方法は、上記実施形態で説明した計測用パターンを過露光の状態でウエハ上に転写する、ステップ・アンド・リピート方式の露光方法以外の方法を採用しても良い。例えば、露光装置100のレチクルステージRST上に例えば矩形枠状の開口パターン(第2領域DDと同様の形状のパターン)、あるいはその一部のパターンなどが形成されたレチクルを搭載し、そのレチクルのパターンを1回の走査露光で、投影光学系PLの像面側に配置されたウエハ上に転写して、過露光の第2領域をウエハ上に形成することとしても良い。この他、前述した開口パターンAPと同様の開口パターンが形成されたレチクルをレチクルステージRST上に搭載して、ステップ・アンド・リピート方式又はステップ・アンド・スキャン方式で、その開口パターンを過露光の露光エネルギ量でウエハ上に転写することにより、過露光の第2領域をウエハ上に形成することとしても良い。また、例えば上記の開口パターンを用いてステップ・アンド・スティッチ方式で露光を行い、ウエハ上に開口パターンの複数の像を隣接してあるいは繋ぎ合わせて形成することによって、過露光の第2領域をウエハ上に形成しても良い。この他、レチクルステージRSTを静止させた状態でそのレチクルステージRST上に搭載されたレチクルに形成された開口パターンを照明光で照明しながらウエハW(ウエハテーブル18)を所定方向に移動して過露光の第2領域を形成しても良い。いずれにしても、上記実施形態と同様に、過露光の第2領域の存在により、その第2領域の外縁をS/N比の良好な検出信号に基づいて精度良く検出することが可能となる。
【0249】
これらの場合において、マトリックス状に配置された複数の区画領域DAi,jから成る全体として矩形の第1領域DCをウエハW上に形成する工程と、第1領域の周囲の少なくとも一部のウエハ上の領域に過露光の第2領域(例えばDDなど)を形成する工程とは、上記実施形態の場合と反対であっても良い。特に、像形成状態の検出の対象となる第1区画領域の形成のための露光を、後で行うようにした場合には、例えば感光剤として、化学増幅型レジストなどの高感度レジストを用いる場合に、計測用パターンの像の形成(転写)から現像までの時間を短くできるので、特に好適である。
【0250】
なお、上記実施形態では、評価点対応領域DBの外枠DBFの概略位置検出に際して、窓領域WD1,WD2内のピクセルデータの代表値として、例えばそれぞれの窓領域WD1、WD2内のピクセルデータに対応するピクセル値の分散(又は標準偏差)、又は2つの窓領域WD1、WD2を同時にスキャンする場合には、それらの加算値を用いる場合について説明した。しかし、これに限らず、前記ピクセルデータの代表値は前記窓領域内の中心を含む一部の領域内のピクセルデータに対応するピクセル値の分散又は標準偏差、又は2つの窓領域WD1、WD2を同時にスキャンする場合には、それらの加算値であっても良い。あるいは、上記各場合において、ピクセル値の分散又は標準偏差に代えて、ピクセル値の加算値又は微分総和値を用いても良い。加算値又は微分総和値などを用いる場合、ピクセル値の定義の仕方に応じて、その加算値又は微分総和値が最大又は最小となる位置を、外枠の概略位置として検出することになる。いずれにしても、窓領域内のピクセルデータに基づいて、外枠の概略位置を検出すれば良い。
【0251】
なお、上記実施形態では、計測用パターンMPの像の形成状態を、スコア(Ei,j又はE’i,j)と閾値SHとを比較してパターンの有無情報(二値化情報)に変換して検出する場合について説明したが、本発明がこれに限定されるものではない。上記実施形態では、評価点対応領域DBの外枠DBFを精度良く検出し、この外枠を基準として各区画領域DAi,jを演算により算出するので、各区画領域の位置を正確に求めることができる。従って、この正確に求められた各区画領域に対してテンプレートマッチングを行うこととしても良い。このようにすれば、短時間にテンプレートマッチングを行うことができる。この場合、テンプレートパターンとして、例えば像が形成された区画領域あるいは像が形成されなかった区画領域の撮像データを用いることができる。このようにしても、客観的、定量的な相関値の情報が区画領域毎に得られるので、得られた情報を、所定の閾値と比較することにより、計測用パターンMPの形成状態を二値化情報(像の有無情報)に変換することにより、上記実施形態と同様に像の形成状態を精度、再現性良く検出することができる。
【0252】
また、上記実施形態では、評価点対応領域DBを構成する第2領域が正確な矩形枠状である場合について説明したが、本発明がこれに限定されるものではない。すなわち、第2領域は、その外縁が少なくとも第1領域を構成する各区画領域の位置算出の基準にできれば良いので、矩形枠状の区画領域の一部の例えばコ字状(U字状)部分、あるいはL字状部分であっても良い。この場合、第1領域とその外側の第2領域とで構成される評価点対応領域は、全体として矩形の領域となる。
【0253】
また、過露光の第2領域は、必ずしもなくても良い。かかる場合であっても、第1領域の輪郭が矩形の外枠となり、第1領域内の最外周部に位置する区画領域(以下、「外縁部区画領域」と呼ぶ)の一部には、パターン像が形成されない領域が存在するので、上記実施形態と同様の手法により、その外枠の一部、すなわち第1領域とその外側の領域の境界線をS/N比良く検出することが可能となり、その境界線を基準として設計値に基づき他の区画領域(第1領域を構成する各区画領域)の位置を算出することができ、他の区画領域のほぼ正確な位置を求めることが可能である。同様に、過露光の第2領域は、上記実施形態のような矩形枠状あるいはその一部のような形状に限定されるものではない。例えば、第2領域の形状は、第1領域との境界線(内縁)のみが矩形枠状の形状を有し、外縁は任意形状であっても良い。かかる場合であっても、第1領域の外側に過露光の第2領域(パターン像が形成されない領域)が存在するので、外縁部区画領域の像の形成状態の検出の際に、隣接する外側の領域のパターン像の存在によりその外縁部区画領域の像のコントラストが低下するのが防止される。従って、前記外縁部区画領域と第2領域の境界線をS/N比良く検出することが可能となり、その境界線を基準として設計値に基づき他の区画領域(第1領域を構成する各区画領域)の位置を算出することができ、他の区画領域のほぼ正確な位置を求めることが可能である。
【0254】
従って、これらの場合にも、第1領域内の複数の区画領域それぞれの位置をほぼ正確に知ることができるので、例えばそれぞれの区画領域に対して、上記実施形態と同様のスコア(像のコントラストの指標値)を用いた方法、あるいはテンプレートマッチング法を適用して像の形成状態を検出することにより、上記実施形態と同様に、パターン像の形成状態を短時間で検出することが可能になる。
【0255】
そして、その検出結果に基づいて投影光学系の光学特性を求めることにより、客観的かつ定量的な像のコントラスト又は相関値を用いた検出結果に基づいて光学特性を求めることができる。従って、上記実施形態と同等の効果を得ることができる。
【0256】
また、上記実施形態では、各区画領域の検出の基準となる外枠DBFの検出、及び各区画領域の像の形成状態の検出にFIA系のアライメントセンサを用いるものとしたが、本発明がこれに限定されるものではない。すなわち、外枠DBFあるいは上述した前記外縁部区画領域と第2領域の境界線の検出、及び各区画領域の像の形成状態の検出の少なくとも一方に、SEM(走査型電子顕微鏡)などの他の撮像装置(画像計測装置)を用いても良い。かかる場合であっても、第2領域の外枠又は内縁部を基準として、第1領域内の各区画領域の位置を精度良く求めることが可能である。
【0257】
また、上記実施形態と同様に、各評価点対応領域を第1領域とその周囲の第2領域とで形成する場合には、前述のステップピッチSPを、前述した開口パターンAPの投影領域サイズ以下に必ずしも設定しなくても良い。その理由は、これまでに説明した方法で、第2領域の一部を基準として、第1領域を構成する各区画領域の位置がほぼ正確に求まるので、その位置の情報を用いることにより、例えばテンプレートマッチングや、上記実施形態の場合を含むコントラスト検出をある程度の精度でかつ短時間で行うことができるからである。
【0258】
一方、前述のステップピッチSPを、前述した開口パターンAPの投影領域サイズ以下に設定する場合において、第1領域の外側に前述の第2領域を必ずしも形成しなくても良い。かかる場合であっても、上記実施形態と同様にして第1領域の外枠を検出することが可能であり、この検出した外枠を基準として第1領域内の各区画領域の位置を正確に求めることが可能だからである。そして、このようにして求められた各区画領域の位置の情報を用いて、例えばテンプレートマッチングや、上記実施形態のようなスコアを用いた検出(コントラスト検出)により像形成状態を検出する場合に、枠の干渉に起因するパターン部と非パターン部のコントラスト低下のないS/N比の良好な画像データを用いて像形成状態を精度良く検出することが可能となる。
【0259】
但し、この場合には、第1領域内の最外周の区画領域でパターンが残っている区画領域が並ぶ辺上では境界の誤検出を起こし易くなる。このため、誤検出を起こし難い境界の検出情報を用いて、誤検出を起こし易い境界の検出範囲を限定することによって対処することが望ましい。上記実施形態に則して説明すれば、誤検出を起こし難い区画領域が並ぶ右辺で検出した境界の情報を基に、誤検出を起こし易い区画領域が並ぶ左辺上の境界位置の検出範囲を限定する。また、第1領域の上下辺上の境界検出では、誤検出を起こし難い右側の検出情報を用いて左側の境界位置の検出範囲を限定することとすれば良い(図9参照)。
【0260】
また、この場合、8ビットの撮像データの内の例えば最上位2ビット以外の下位ビットのデータを0クリアしたデータ(又は全て「1」にしたデータ)を前記ピクセルデータとして用いて、前述の実施形態と同様の手法により外枠を検出しても良い。例えば、外枠の上辺及び右辺を検出対象の辺とする場合を考えると、例えば図9の第1領域DCを見るとわかるように、検出対象の辺近傍の外枠の内側はパターンの像が残存していない露光済みの領域であるのに対し、検出対象の辺近傍の外枠の外側はレジストがそのまま残存する未露光領域となる。従って、外枠内の各区画領域のピクセル値は、零に近い一定値以下であり、外枠の外側の領域のピクセル値はある一定値以上となっている。従って、これら2つの領域の撮像データにおける最上位2ビット以外の下位ビットのデータを0クリアしたデータは、外枠内の各区画領域の画素のピクセル値が零、外部の領域では全ての画素のピクセル値が2+2=192となる。このため、外枠を境界として、外側と内側でピクセル値が大きく異なるので、前述と同様の窓領域のスキャンその他の方法により、外枠を構成する検出対象の辺の概略位置検出をより確実に行うことが可能となる。
【0261】
同様に、上述の実施形態においても、8ビットの撮像データの内の例えば最上位2ビット以外の下位ビットのデータを0クリアしたデータを前記ピクセルデータとして用いて、前述と同様の手法により外枠を検出しても良い。この場合には、図9から明らかなように、外枠DBFの全周に渡ってその内側に過露光の第2領域DDが存在するので、外枠のいずれの辺を検出対象の辺とする場合にも、外枠内の各区画領域の画素のピクセル値が零、外部の領域では全ての画素のピクセル値が192となる。このため、外枠のいずれの辺を検出対象の辺としてもその概略位置を確実に検出することができる。
【0262】
また、上記実施形態では、全体として矩形の第1領域を構成するN×M個の区画領域を全て露光するものとしたが、N×M個の区画領域の少なくとも1個、すなわち曲線P=f(Z)の決定に明らかに寄与しない露光条件が設定される区画領域(例えば、図9で右上隅及び右下隅に位置する区画領域など)についてはその露光を行わなくても良い。すなわち、計測用パターンMPを転写すべき複数の区画領域(ショット領域)は全体として矩形(マトリックス)となっていなくても良い。このとき、第1領域の外側に形成される第2領域はその形状が矩形でなくその一部に凹凸を持つ、換言すればN×M個の区画領域のうち露光された区画領域のみを囲む、あるいはその周囲の一部のみに第2領域を形成しても良い。
【0263】
なお、上記実施形態では、ウエハWのステップピッチSPを、通常より狭く設定することにより、ウエハW上に形成された評価点対応領域を構成する区画領域間に枠が残存しないようにして、枠の干渉によるパターン部のコントラスト低下を防止する場合について説明した。しかし、枠の存在によるパターン部のコントラスト低下は、以下のようにしても防止することができる。
【0264】
すなわち、前述の計測用パターンMPと同様にマルチバーパターンを含む計測用パターンが形成されたレチクルを用意し、該レチクルをレチクルステージRST上に搭載し、ステップ・アンド・リピート方式などで前記計測用パターンをウエハ上に転写し、これにより、隣接する複数の区画領域から成り、各区画領域に転写されたマルチバーパターンとこれに隣接するパターンとが、マルチバーパターンの像のコントラストが前記隣接するパターンによる影響を受けない距離L以上離れている所定の領域をウエハ上に形成することとしても良い。
【0265】
この場合、各区画領域に転写されたマルチバーパターンとこれに隣接するパターンとが、マルチバーパターンの像のコントラストが隣接するパターンによる影響を受けない距離L以上離れているので、前記所定の領域を構成する複数の区画領域の少なくとも一部の複数の区画領域における像の形成状態を、画像処理の手法、テンプレートマッチング、あるいはスコア検出を含むコントラスト検出などの画像処理手法により検出する際に、それぞれの区画領域に転写されたマルチバーパターンの像のS/N比が良好な撮像信号を得ることができる。従って、この撮像信号に基づいて、テンプレートマッチング、あるいはスコア検出を含むコントラスト検出などの画像処理手法により各区画領域に形成されたマルチバーパターンの像の形成状態を精度良く検出することができる。
【0266】
例えば、テンプレートマッチングによる場合には、客観的、定量的な相関値の情報が区画領域毎に得られ、コントラスト検出の場合には、客観的、定量的なコントラスト値の情報が区画領域毎に得られるので、いずれにしても、得られた情報を、それぞれの閾値と比較することにより、マルチバーパターンの像の形成状態を二値化情報(像の有無情報)に変換することにより、各区画領域毎のマルチバーパターンの形成状態を精度、再現性良く検出することが可能となる。
【0267】
従って、かかる場合にも上記実施形態と同様に、上記の検出結果に基づいて投影光学系の光学特性を求めることにより、客観的かつ定量的な相関値、コントラストなどを用いた検出結果に基づいて光学特性が求められる。従って、従来の方法と比較して光学特性を精度及び再現性良く計測することができる。また、評価点の数を増加させることができるとともに、各評価点間の間隔を狭くすることができ、結果的に光学特性計測の測定精度を向上させることが可能となる。
【0268】
なお、上記実施形態では、レチクルR上の計測用パターンMPとして開口パターンAP内の中央部に配置された1種類のL/Sパターン(マルチバーパターン)を用いる場合について説明したが、本発明がこれに限定されないことは言うまでもない。計測用パターンとしては、周期方向が異なる少なくとも2種類のL/Sパターンや、孤立線やコンタクトホールなどを用いても良い。計測用パターンMPとしてL/Sパターンを用いる場合には、デューティ比及び周期方向は、任意で良い。また、計測用パターンMPとして周期パターンを用いる場合、その周期パターンは、L/Sパターンだけではなく、例えばドットマークを周期的に配列したパターンでも良い。これは、像の線幅等を計測する従来の方法とは異なり、像の形成状態をスコア(コントラスト)で検出しているからである。
【0269】
また、上記実施形態では、1種類のスコアに基づいて最良フォーカス位置を求めているが、これに限らず、複数種類のスコアを設定しこれらに基づいて、それぞれ最良フォーカス位置を求めても良く、あるいはこれらの平均値(あるいは重み付け平均値)に基づいて最良フォーカス位置を求めても良い。
【0270】
また、上記実施形態では、ピクセルデータを抽出するエリアを矩形としているが、これに限定されるものではなく、例えば、円形や楕円形、あるいは三角形などであっても良い。また、その大きさも任意に設定することができる。すなわち、計測用パターンMPの形状に合わせて抽出エリアを設定することによりノイズを減少させ、S/N比を高くすることが可能である。
【0271】
また、上記実施形態では、像の形成状態の検出に1種類の閾値を用いているが、これに限らず、複数の閾値を用いても良い。複数の閾値を求める場合、それぞれの閾値を、スコアと比較することで、区画領域の像の形成状態を検出することとしても良い。この場合、例えば第1の閾値での検出結果から最良フォーカス位置が算出困難な場合に、第2の閾値での形成状態の検出を行い、その検出結果から最良フォーカス位置を求めることなどが可能となる。
【0272】
また、予め複数の閾値を設定しておき、閾値毎に最良フォーカス位置を求め、それらの平均値(単純平均値あるいは重み付け平均値)を最良フォーカス位置としても良い。例えば、各閾値に応じて、露光エネルギ量Pが極値を示すときのフォーカス位置を順次算出する。そして、各フォーカス位置の平均値を最良フォーカス位置とする。なお、露光エネルギ量Pとフォーカス位置Zとの関係を示す近似曲線と適当なスライスレベル(露光エネルギ量)との2つの交点(フォーカス位置)を求め、両交点の平均値を、各閾値毎に算出し、それらの平均値(単純平均値あるいは重み付け平均値)を最良フォーカス位置としても良い。
【0273】
あるいは、各閾値毎に最良フォーカス位置を算出し、閾値と最良フォーカス位置との関係において、閾値の変動に対して、最良フォーカス位置の変化が最も小さい区間における最良フォーカス位置の平均値(単純平均値あるいは重み付け平均値)を最良フォーカス位置としても良い。
【0274】
また、上記実施形態では、予め設定されている値を閾値として用いているが、これに限定されるものではない。例えば、ウエハW上の計測用パターンMPが転写されていない領域を撮像し、得られたスコアを閾値としても良い。
【0275】
さらに、例えば前述の第1領域と第2領域とで、アライメント検出系ASによる画像の取り込み回数を異ならせても良く、このようにすることにより計測時間の短縮などを図ることができる。
【0276】
なお、上記実施形態の露光装置100では、主制御装置28は、図示しない記憶装置に格納されている処理プログラムに従って、前述した投影光学系の光学特性の計測を行うことにより、計測処理の自動化を実現することができる。勿論、この処理プログラムは、他の情報記録媒体(CD−ROM、MO等)に保存されていても良い。さらに、計測を行う時に、図示しないサーバから処理プログラムをダウンロードしても良い。また、計測結果を、図示しないサーバに送付したり、インターネットやイントラネットを介して電子メール及びファイル転送により、外部に通知することも可能である。
【0277】
なお、上記実施形態では、計測用パターンMPをウエハW上の各区画領域DAi,jに転写した後、現像後にウエハW上の各区画領域DAi,jに形成されるレジスト像をアライメント検出系ASによって撮像し、その撮像データに対して画像処理を行う場合について説明したが、本発明に係る光学特性の計測方法はこれに限定されるものではない。例えば、撮像の対象は、露光の際にレジストに形成された潜像であっても良く、上記像が形成されたウエハを現像し、さらにそのウエハをエッチング処理して得られる像(エッチング像)などに対して行っても良い。また、ウエハなどの物体上における像の形成状態を検出するための感光層は、フォトレジストに限らず、光(エネルギ)の照射によって像(潜像及び顕像)が形成されるものであれば良い。例えば、感光層は、光記録層、光磁気記録層などであっても良く、従って、感光層が形成される物体もウエハ又はガラスプレート等に限らず、光記録層、光磁気記録層などが形成可能な板等であっても良い。
【0278】
また、オペレータなどが介在することなく、前述の計測結果(最良フォーカス位置など)に基づいて投影光学系PLの光学特性を調整することができる。すなわち、露光装置に自動調整機能を持たせることが可能となる。
【0279】
また、上記実施形態では、パターンの転写の際に変更される露光条件が、投影光学系の光軸方向に関するウエハWの位置及びウエハWの面上に照射されるエネルギビームのエネルギ量(露光ドーズ量)である場合について説明したが、本発明がこれに限定されるものではない。例えば、照明条件(マスクの種別を含む)、投影光学系の結像特性など露光に関連する全ての構成部分の設定条件などの何れかであれば良く、また、必ずしも2種類の露光条件を変更しながら露光を行う必要もない。すなわち、一種類の露光条件、例えば投影光学系の光軸方向に関するウエハWの位置のみを変更しながら、計測用マスクのパターンを感光物体上の複数の領域に転写し、その転写像の形成状態を検出する場合であっても、上記実施形態と同様のスコアを用いたコントラスト計測、あるいはテンプレートマッチングの手法により、その検出を迅速に行うことができるという効果がある。
【0280】
また、上記実施形態において、最良フォーカス位置とともに最良露光量を決定することができる。すなわち、露光エネルギ量を低エネルギ量側にも設定して、上記実施形態と同様の処理を行い、露光エネルギ量毎に、その像が検出されたフォーカス位置の幅を求め、該幅が最大となるときの露光エネルギ量を算出し、その場合の露光量を最良露光量とする。
【0281】
また、上記実施形態では、一例として、区画領域内の指定範囲のピクセル値の分散(又は標準偏差)を、スコアEとして採用するものとしたが、本発明がこれに限定されるものではなく、区画領域内又はその一部(例えば、前述の指定範囲)のピクセル値の加算値、微分総和値をスコアEとしても良い。また、上記実施形態中で説明した外枠検出のアルゴリズムは一例であって、これに限らず、例えば前述した境界検出と同様の手法により、評価点対応領域DBの4辺(上辺、下辺、左辺及び右辺)でそれぞれ少なくとも2点を検出することとしても良い。このようにしても、検出された少なくとも8点に基づいて例えば前述と同様の頂点検出、長方形近似などが可能である。また、上記実施形態では、図3に示されるように、開口パターンの内部に遮光部によって計測用パターンMPが形成された場合について説明したが、これに限らず、図3の場合と反対に、遮光部内に光透過性のパターンから成る計測用パターンを形成しても良い。さらに、上記実施形態ではレチクルのパターン領域PAを遮光部としたが、パターン領域PAは光透過部でも良く、この場合は前述の計測用パターンMPを設けるだけでも良いし、あるいは計測用パターンMPを囲む遮光性の枠状パターンを一緒に形成しても良い。また、ウエハに塗布するレジストはポジ型に限られるものではなくネガ型でも良い。
【0282】
また、上記実施形態では、各区画領域DAi,jの計測用パターンの像の有無を、スコアを閾値と比較することで検出するものとしたが、この代わりに、次のようにして、前述の図23の曲線P=f(Z)と同様の近似曲線を算出しても良い。
【0283】
すなわち、前述の外枠検出及びその検出結果を利用した各区画領域の位置の算出により、撮像データ上における第1領域DCの範囲を容易に求めることができる。そして、この第1領域DCに対応する撮像データの所定方向、例えば前述のマトリックスの行方向(X軸方向)のピクセル列毎のピクセルデータの加算値(X軸方向の走査線上の輝度値の積算信号)の分布状況を検出する。図24には、このようにして得られた図9の第1領域DCの撮像データにおけるピクセル列毎のピクセルデータ(ピクセル値)の加算値Gの分布曲線G=g(Z)の一例が示されている。そこで、この曲線G=g(Z)における各ピーク点(図24中に●で示される)を、カーブフィットすることによりn次の近似曲線(最小自乗近似曲線)を求める。これにより、例えば図24に点線で示されるような曲線G=h(Z)が求められる。この曲線G=h(Z)と前述の曲線P=f(Z)とを比べると明からなように、両者はほぼ同様の形状をしていることがわかる。この場合、所定方向のピクセル列毎のピクセルデータの加算値の分布状況を算出するという簡単な画像処理により、前述の区画領域毎の像の形成状態(例えば有無検出)の検出結果と実質的に等価な分布状況のデータを得ることができる。従って、客観的かつ定量的な撮像データを用いて、前述の区画領域毎の像の形成状態(例えば有無検出)の検出結果を得る場合と同程度の検出精度及び再現性で、より簡易な手法により像の形成状態を検出することができる。
【0284】
そして、上記の曲線G=h(Z)を用いて、上記実施形態と同様の処理を行うことにより、投影光学系PLの光学特性、例えばベストフォーカス位置などを求めることとすれば良い。このようにしても、上記実施形態と同様に、客観的かつ定量的な撮像データを用いた検出結果に基づいて光学特性が求められるため、従来の方法と比較して光学特性を精度及び再現性良く計測することができる。
【0285】
さらに、上記実施形態では、結像特性補正コントローラを介して投影光学系PLの結像特性を調整するものとしたが、例えば、結像特性補正コントローラだけでは結像特性を所定の許容範囲内に制御することができないときなどは、投影光学系PLの少なくとも一部を交換しても良いし、あるいは投影光学系PLの少なくとも1つの光学素子を再加工(非球面加工など)しても良い。また、特に光学素子がレンズエレメントであるときはその偏芯を変更したり、あるいは光軸を中心として回転させても良い。このとき、露光装置100のアライメントセンサを用いてレジスト像などを検出する場合、主制御装置28はディスプレイ(モニタ)への警告表示、あるいはインターネット又は携帯電話などによって、オペレータなどにアシストの必要性を通知しても良いし、投影光学系PLの交換箇所や再加工すべき光学素子など、投影光学系PLの調整に必要な情報を一緒に通知すると良い。これにより、光学特性の計測などの作業時間だけでなく、その準備期間も短縮でき、露光装置の停止期間の短縮、すなわち稼働率の向上を図ることが可能となる。また、本実施形態では計測用パターンを静止露光方式でウエハに転写するものとしたが、静止露光方式の代わりに、あるいはそれに加えて走査露光方式で、上記実施形態と全く同様に少なくとも1つの露光条件を変えながら計測用パターンをウエハに転写することでダイナミックな光学特性を求めるようにしても良い。
【0286】
さらに、本発明が適用される露光装置の光源は、KrFエキシマレーザやArFエキシマレーザに限らず、Fレーザ(波長157nm)、あるいは他の真空紫外域のパルスレーザ光源であっても良い。この他、露光用照明光として、例えば、DFB半導体レーザ又はファイバーレーザから発振される赤外域、又は可視域の単一波長レーザ光を、例えばエルビウム(又はエルビウムとイッテルビウムの両方)がドープされたファイバーアンプで増幅し、非線形光学結晶を用いて紫外光に波長変換した高調波を用いても良い。また、紫外域の輝線(g線、i線等)を出力する超高圧水銀ランプ等を用いても良い。この場合には、ランプ出力制御、NDフィルタ等の減光フィルタ、光量絞り等によって露光エネルギの調整を行えば良い。また、EUV光、X線、あるいは電子線及びイオンビームなどの荷電粒子線を露光ビームとして用いる露光装置に本発明を適用しても良い。
【0287】
なお、上記実施形態では、本発明がステップ・アンド・スキャン方式の縮小投影露光装置に適用された場合について説明したが、本発明の適用範囲がこれに限定されないのは勿論である。すなわち、ステップ・アンド・リピート方式、ステップ・アンド・スティッチ方式又はプロキシミティ方式などの露光装置、あるいはミラープロジェクション・アライナー、及びフォトリピータなどにも好適に適用することができる。
【0288】
さらに、投影光学系PLは、屈折系、反射屈折系、及び反射系のいずれでもよいし、縮小系、等倍系、及び拡大系のいずれでも良い。
【0289】
さらに、本発明は、半導体素子の製造に用いられる露光装置だけでなく、液晶表示素子、プラズマディスプレイなどを含むディスプレイの製造に用いられる、デバイスパターンをガラスプレート上に転写する露光装置、薄膜磁気へッドの製造に用いられる、デバイスパターンをセラミックウエハ上に転写する露光装置、撮像素子(CCDなど)、マイクロマシン、及びDNAチップなどの製造、さらにはマスク又はレチクルの製造に用いられる露光装置などにも適用することができる。
【0290】
《デバイス製造方法》
次に、上記説明した露光装置及び方法を使用したデバイスの製造方法の実施形態を説明する。
【0291】
図25には、デバイス(ICやLSI等の半導体チップ、液晶パネル、CCD、薄膜磁気ヘッド、DNAチップ、マイクロマシン等)の製造例のフローチャートが示されている。図25に示されるように、まず、ステップ301(設計ステップ)において、デバイスの機能・性能設計(例えば、半導体デバイスの回路設計等)を行い、その機能を実現するためのパターン設計を行う。引き続き、ステップ302(マスク製作ステップ)において、設計した回路パターンを形成したマスクを製作する。一方、ステップ303(ウエハ製造ステップ)において、シリコン等の材料を用いてウエハを製造する。
【0292】
次に、ステップ304(ウエハ処理ステップ)において、ステップ301〜ステップ303で用意したマスクとウエハを使用して、後述するように、リソグラフィ技術によってウエハ上に実際の回路等を形成する。次いで、ステップ305(デバイス組立ステップ)において、ステップ304で処理されたウエハを用いてデバイス組立を行う。このステップ305には、ダイシング工程、ボンディング工程、及びパッケージング工程(チップ封入)等の工程が必要に応じて含まれる。
【0293】
最後に、ステップ306(検査ステップ)において、ステップ305で作製されたデバイスの動作確認テスト、耐久性テスト等の検査を行う。こうした工程を経た後にデバイスが完成し、これが出荷される。
【0294】
図26には、半導体デバイスの場合における、上記ステップ304の詳細なフロー例が示されている。図26において、ステップ311(酸化ステップ)においてはウエハの表面を酸化させる。ステップ312(CVDステップ)においてはウエハ表面に絶縁膜を形成する。ステップ313(電極形成ステップ)においてはウエハ上に電極を蒸着によって形成する。ステップ314(イオン打込みステップ)においてはウエハにイオンを打ち込む。以上のステップ311〜ステップ314それぞれは、ウエハ処理の各段階の前処理工程を構成しており、各段階において必要な処理に応じて選択されて実行される。
【0295】
ウエハプロセスの各段階において、上述の前処理工程が終了すると、以下のようにして後処理工程が実行される。この後処理工程では、まず、ステップ315(レジスト形成ステップ)において、ウエハに感光剤を塗布する。引き続き、ステップ316(露光ステップ)において、上記各実施形態の露光装置及び露光方法によってマスクの回路パターンをウエハに転写する。次に、ステップ317(現像ステップ)においては露光されたウエハを現像し、ステップ318(エッチングステップ)において、レジストが残存している部分以外の部分の露出部材をエッチングにより取り去る。そして、ステップ319(レジスト除去ステップ)において、エッチングが済んで不要となったレジストを取り除く。
【0296】
これらの前処理工程と後処理工程とを繰り返し行うことによって、ウエハ上に多重に回路パターンが形成される。
【0297】
以上のような、本実施形態のデバイス製造方法を用いれば、露光ステップで、上記実施形態の露光装置及び露光方法が用いられるので、前述した光学特性計測方法で精度良く求められた光学特性を考慮して調整された投影光学系を介して高精度な露光が行われ、高集積度のデバイスを生産性良く製造することが可能となる。
【0298】
【発明の効果】
以上説明したように、本発明に係る光学特性計測方法によれば、短時間で、精度及び再現性良く投影光学系の光学特性を求めることができるという効果がある。
【0299】
また、本発明に係る露光方法によれば、高精度な露光を実現できるという効果がある。
【0300】
また、本発明に係るデバイス製造方法によれば、高集積度のデバイスを製造することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の一実施形態の露光装置の概略構成を示す図である。
【図2】図1の照明系IOPの具体的構成の一例を説明するための図である。
【図3】投影光学系の光学特性の計測に用いられるレチクルの一例を示す図である。
【図4】光学特性の計測方法を説明するためのフローチャート(その1)である。
【図5】光学特性の計測方法を示すフローチャート(その2)である。
【図6】区画領域の配列を説明するための図である。
【図7】ウエハW上に第1領域DCが形成された状態を示す図である。
【図8】ウエハW上に評価点対応領域DBが形成された状態を示す図である。
【図9】ウエハWを現像後にウエハW上に形成された評価点対応領域DBのレジスト像の一例を示す図である。
【図10】図5のステップ456(光学特性の算出処理)の詳細を示すフローチャート(その1)である。
【図11】図5のステップ456(光学特性の算出処理)の詳細を示すフローチャート(その2)である。
【図12】図10のステップ510の詳細を示すフローチャートである。
【図13】図12のステップ702の詳細を示すフローチャートである。
【図14】図14(A)は、ステップ508の処理を説明するための図、図14(B)は、ステップ510の処理を説明するための図、図14(C)はステップ512の処理を説明するための図である。
【図15】図15(A)は、ステップ514の処理を説明するための図、図15(B)は、ステップ516の処理を説明するための図、図15(C)は、ステップ518の処理を説明するための図である。
【図16】窓領域の評価点対応領域DBの外枠に対するスキャン方向の他の例を簡略化して示す図である。
【図17】図17(A)は、1つの評価点対応領域DBの外枠の4辺を検出するためにそれぞれ設定された4つの検出領域を示す図、図17(B)は、一組の窓領域を図17(A)中の右から左に、図17(C)は一組の窓領域を図17(A)中の上から下に、同時に設定された検出領域内でスキャンした際に得られたピクセル値の分散信号の和信号をそれぞれ示す図である。
【図18】また、図18(A)は、外枠の上辺を検出対象として、窓領域を図17(A)中の下から上に、図18(B)は、外枠の下辺を検出対象として、窓領域を図17(A)中の下から上に、図18(C)は、外枠の右辺を検出対象として、窓領域を図17(A)中の右から左に、図18(D)は、外枠の左辺を検出対象として、窓領域を図17(A)中の左から右に、設定された検出領域内でスキャンした際に得られたピクセル値の分散信号を、それぞれ示す図である。
【図19】外枠検出における境界検出処理を説明するための図である。
【図20】ステップ514の頂点検出を説明するための図である。
【図21】ステップ516の長方形検出を説明するための図である。
【図22】検出結果の一例を示すテーブルデータ形式の図である。
【図23】パターン残存数(露光エネルギ量)とフォーカス位置との関係を示す図である。
【図24】図9の第1領域DCの撮像データにおけるピクセル列毎のピクセルデータ(ピクセル値)の加算値Gの分布曲線の一例を示す図である。
【図25】本発明に係るデバイス製造方法の実施形態を説明するためのフローチャートである。
【図26】図25のステップ304における処理のフローチャートである。
【符号の説明】
MP…計測用パターン、DB…評価点対応領域(所定領域)、DC…第1領域、DD…第2領域、PL…投影光学系、W…ウエハ(物体)、W…ウエハ(物体)。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an optical property measuring method, an exposure method, and a device manufacturing method, and more particularly, to an optical property measuring method for measuring optical properties of a projection optical system, and taking into account optical properties measured by the optical property measuring method. The present invention relates to an exposure method for performing exposure using a projection optical system adjusted by the method, and a device manufacturing method using the exposure method.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in a lithography process for manufacturing a semiconductor element, a liquid crystal display element, or the like, a resist or the like is applied to a pattern formed on a mask or a reticle (hereinafter, collectively referred to as a “reticle”) via a projection optical system. 2. Description of the Related Art An exposure apparatus is used for transferring an image onto a substrate such as a wafer or a glass plate (hereinafter, also appropriately referred to as a “wafer”). In recent years, as this type of apparatus, from the viewpoint of emphasizing throughput, a step-and-repeat type reduced projection exposure apparatus (so-called “stepper”) or a step-and-scan type scanning type apparatus which is an improvement on this stepper has been used. 2. Description of the Related Art A sequentially moving type exposure apparatus such as an exposure apparatus is relatively frequently used.
[0003]
In addition, semiconductor elements (integrated circuits) and the like are becoming highly integrated year by year. Accordingly, projection exposure apparatuses, which are apparatuses for manufacturing semiconductor elements and the like, require higher resolution, that is, transfer of finer patterns with high precision. It has come to be required. In order to improve the resolving power of a projection exposure apparatus, it is necessary to improve the optical characteristics of the projection optical system. Therefore, it is necessary to accurately measure and evaluate the optical characteristics (including the imaging characteristics) of the projection optical system. Is important.
[0004]
The accurate measurement of the optical characteristics of the projection optical system, for example, the image plane of the pattern, is based on the premise that the optimum focus position (best focus position) at each evaluation point (measurement point) in the field of view of the projection optical system can be accurately measured. Become.
[0005]
As a method of measuring the best focus position in a conventional projection exposure apparatus, mainly the following two methods are known.
[0006]
One is a measurement method known as a so-called CD / focus method. Here, a predetermined reticle pattern (for example, a line and space pattern) is used as a test pattern, and the test pattern is transferred to the test wafer at a plurality of wafer positions in the optical axis direction of the projection optical system. Then, the line width value of the resist image (transferred pattern image) obtained by developing the test wafer is measured using a scanning electron microscope (SEM) or the like, and the line width value and the projection optical system are measured. The best focus position is determined based on a correlation with the wafer position in the optical axis direction (hereinafter, also appropriately referred to as “focus position”).
[0007]
The other is a measurement method known as a so-called SMP focus measurement method. Here, a resist image of a wedge-shaped mark is formed on the wafer at a plurality of focus positions, and a change in the line width value of the resist image due to the difference in the focus position is amplified and replaced by a change in the longitudinal dimension, and is replaced on the wafer. The length of the resist image in the longitudinal direction is measured using a mark detection system such as an alignment system for detecting a mark. Then, the vicinity of the maximum value of the approximate curve indicating the correlation between the focus position and the length of the resist image is sliced at a predetermined slice level, and the middle point of the obtained focus position is determined as the best focus position.
[0008]
For various test patterns, astigmatism, field curvature, and the like, which are optical characteristics of the projection optical system, are measured based on the best focus position obtained in this manner.
[0009]
However, in the above-described CD / focus method, for example, in order to measure the line width value of a resist image by SEM, it is necessary to strictly adjust the focus of SEM, and the measurement time per point is extremely long. It took several hours to several tens of hours to perform the measurement at. Further, it is expected that a test pattern for measuring the optical characteristics of the projection optical system will be miniaturized, and the number of evaluation points in the field of view of the projection optical system will also increase. Therefore, the conventional measurement method using the SEM has a disadvantage that the throughput until a measurement result is obtained is significantly reduced. In addition, higher levels of measurement errors and reproducibility of measurement results have been required, and it has been difficult to cope with the conventional measurement methods. Further, as an approximation curve indicating the correlation between the focus position and the line width value, an approximation curve of the fourth order or higher is used to reduce the error. There was a constraint that a width value had to be determined. The difference between the line width value at the focus position (including both the + direction and the − direction with respect to the optical axis direction of the projection optical system) deviated from the best focus position and the line width value at the best focus position is an error. Is required to be 10% or more in order to reduce the value, but it has become difficult to satisfy this condition.
[0010]
In addition, in the above-described SMP focus measurement method, since the measurement is usually performed with monochromatic light, the influence of interference varies depending on the shape of the resist image, which may lead to a measurement error (dimensional offset). Furthermore, in order to measure the length of the resist image of the wedge-shaped mark by image processing, it is necessary to capture in detail information up to both ends in the longitudinal direction where the resist image becomes thinnest. However, there is a problem that the resolution of a camera or the like is not yet sufficient. In addition, since the test pattern is large, it has been difficult to increase the number of evaluation points in the field of view of the projection optical system.
[0011]
In addition, as a measure for improving the above-mentioned drawbacks of the CD / focus method, the position of the measurement-sensitive substrate (hereinafter, referred to as a wafer) in the optical axis direction of the projection optical system or the amount of exposure energy is changed. The pattern is sequentially transferred onto the wafer to form a rectangular area in which a plurality of partitioned areas on which the image of the measurement pattern is transferred are arranged in a matrix, and after developing the wafer, the rectangular area is formed on the wafer. There is known an invention which captures a resist image of a measurement pattern to be measured, performs pattern matching with a predetermined template using the captured data, and determines the best exposure condition such as the best focus position based on the result. (See Patent Document 1, Patent Document 2, etc.). According to the inventions disclosed in these patent documents, it is difficult to increase the number of evaluation points in the field of view of the projection optical system due to insufficient resolution of the current image capturing device (such as a CCD camera) such as the SMP measurement method. There is no inconvenience.
[0012]
[Patent Document 1]
JP-A-11-233434
[Patent Document 2]
WO 02/29870 pamphlet
[0013]
[Problems to be solved by the invention]
When a template matching method is adopted and automated, a frame (pattern) serving as a reference for matching is usually formed on a wafer together with a pattern in order to facilitate the template matching.
[0014]
However, in the method for determining the best exposure condition using the template matching as described above, the presence of a frame serving as a reference for template matching formed in the vicinity of the pattern in the various process conditions causes When an image is captured by a wafer alignment system of a processing method, for example, an alignment sensor of a FIA (field image alignment) system or the like, the contrast of a pattern portion is significantly reduced, and measurement may not be performed.
[0015]
As a method for improving such inconvenience, an image formation state (for example, the presence or absence of an image, etc.) of each partitioned area is determined based on a representative value (for example, a contrast value) of image data of each partitioned area without using template matching. , It may be conceivable to determine the optical characteristics of the projection optical system or the best exposure conditions. In this case, it is important to accurately detect the position of each partitioned area. One method for that is to detect the contour of the above-described rectangular area and determine the position of the required partitioned area based on a part of the contour. A method of calculating based on a design value may be adopted. By doing so, it is possible to obtain the position of an arbitrary partitioned area if only the above-described contour is detected.
[0016]
Incidentally, as the above-mentioned sensitive substrate for measurement, a wafer in which an antireflection film (ARC: Antireflection Coating) is formed as a base on the surface of bare silicon and a resist (photosensitive agent) is applied thereon is generally used. I have. However, in reality, there is a combination of various kinds of resists and an antireflection film (BARK (Bottom ARC); hereinafter, referred to as “bark”) formed as a base of the resist, and in all cases of these combinations. It is not easy to obtain the ideal signal and detect the above-mentioned outer frame accurately and reliably. As a result, depending on the combination of resist and bark, the optical characteristics of the projection optical system can be accurately measured. The probability of being unable to do so is increasing.
[0017]
The present invention has been made under such circumstances, and a first object of the present invention is to provide an optical characteristic measuring method capable of measuring the optical characteristics of a projection optical system reliably, accurately, and reproducibly in a short time. Is to provide.
[0018]
A second object of the present invention is to provide an exposure method capable of realizing highly accurate exposure.
[0019]
A third object of the present invention is to provide a device manufacturing method capable of improving the productivity of a highly integrated device.
[0020]
[Means for Solving the Problems]
The invention according to claim 1 is an optical characteristic measuring method for measuring an optical characteristic of a projection optical system (PL) for projecting a pattern on a first surface onto a second surface, wherein the projection is performed under different exposure conditions. Object (W T ) Are divided into a plurality of divided areas (DAs) i, j ) And at least a part of the outline is a straight line (DB) n A) capturing an image of the window area (WD1, WD1, WD2) in a scanning direction substantially orthogonal to the linear portion to be detected, and detecting the position of the linear portion to be detected based on pixel data in the window area during the scanning; Utilizing the detection result of the position of the linear portion of the detection target in the second step, detecting a formation state of an image in at least a part of the plurality of divided areas using the imaging data. An optical characteristic measuring method comprising: three steps; and a fourth step of obtaining optical characteristics of the projection optical system based on a detection result in the third step.
[0021]
In this specification, “exposure conditions” include all conditions related to exposure, such as illumination conditions (including the type of mask), exposure conditions in a narrow sense such as an exposure dose on an image plane, and optical characteristics of a projection optical system. This means a broadly defined exposure condition including a setting condition of a component.
[0022]
According to this, a predetermined pattern in which at least a part of the outline includes a plurality of divided regions including a transfer region of the measurement pattern transferred onto the object via the projection optical system under different exposure conditions, and at least a part of the outline is a linear portion An area is imaged (first step).
[0023]
Then, based on the imaging data obtained by the imaging, the linear portion forming the outer frame formed by the contour of the predetermined region is set as a detection target, and the window region having a predetermined size is set in a scanning direction substantially orthogonal to the detection target linear portion. And the position of the linear portion to be detected is detected based on the pixel data in the window area during the scanning (second step).
[0024]
Here, the pixel data of the outer frame portion clearly has a different pixel value (pixel value) from the pixel data of the other portions, and thus, for example, a window corresponding to a change in the position of the window region in the scanning direction by one pixel. Based on the change in the pixel data in the area, the position of the linear portion (part of the outer frame) to be detected is reliably detected.
[0025]
Next, using a detection result of the position of the linear portion to be detected in the second step, an image formation state in at least a part of the plurality of divided areas of the plurality of divided areas is detected using imaging data. (3rd process). In this case, the design positional relationship between an arbitrary straight line portion forming the outer frame and a plurality of partitioned areas (hereinafter, also referred to as “detection target areas”) in which an image formation state is to be detected is known. By considering the positional relationship, the detection target area can be found, and for each of the found detection target areas, the image formation state is detected by performing image processing using the imaging data. can do.
[0026]
Here, the detection of the image formation state may be performed on a latent image formed on the object without developing the object, if the object is a photosensitive object, or the image may be formed. After the object is developed, the process may be performed on a resist image formed on the object, or an image (etched image) obtained by etching the object on which the resist image is formed. Here, the photosensitive layer for detecting the formation state of the image on the object is not limited to the photoresist, and may be any as long as an image (a latent image and a visible image) is formed by irradiation of light (energy). For example, the photosensitive layer may be an optical recording layer, a magneto-optical recording layer, or the like. Therefore, the object on which the photosensitive layer is formed is not limited to a wafer or a glass plate, and the optical recording layer and the magneto-optical recording layer are formed. A possible plate or the like may be used.
[0027]
For example, when detecting the image formation state with respect to a resist image, an etching image, and the like, not only a microscope such as an SEM but also an alignment detection system of an exposure apparatus, for example, an image of an alignment mark is formed on an image sensor. An alignment sensor based on an image processing method, that is, a so-called FIA (Field Image Alignment) -based alignment sensor can be used. Further, when the formation state of an image is detected for a latent image, an FIA system or the like can be used.
[0028]
In any case, as described above, the position of at least a part of the linear portion of the outer frame is reliably detected, and the detection results are used to determine the image formation state in a plurality of divided areas to be detected. For example, by detecting the contrast or the like of the image in each of the divided areas, it is possible to detect the formation state of the pattern image in a short time.
[0029]
Then, the optical characteristics of the projection optical system are obtained based on the detection result (fourth step). Here, since the optical characteristics are obtained based on the detection result using the objective and quantitative image contrast, the optical characteristics can be measured with higher accuracy and reproducibility than the conventional method.
[0030]
Further, since the measurement pattern can be made smaller as compared with the conventional method of measuring dimensions, it is possible to arrange many measurement patterns in the pattern region of the mask. Therefore, the number of evaluation points can be increased, and the interval between each evaluation point can be narrowed. As a result, the measurement accuracy of the optical characteristic measurement can be improved.
[0031]
Therefore, according to the optical characteristic measuring method of the first aspect, the optical characteristics of the projection optical system can be measured in a short time, reliably, with high accuracy and reproducibility.
[0032]
In the optical characteristic measuring method according to the first aspect, as in the optical characteristic measuring method according to the second aspect, the scanning direction may be a direction from the inside to the outside of the outer frame. In such a case, when the peak of the pixel value corresponding to the pixel data in the above-described window area is first obtained, the position surely matches the position of the outer frame, so that the outer frame detection is more reliably performed. be able to.
[0033]
In the optical characteristic measuring method according to claim 1, as in the optical characteristic measuring method according to claim 3, when the predetermined region includes at least one set of mutually parallel linear portions in an outline thereof, In the second step, based on the imaging data, a set of window regions of a predetermined size arranged at a predetermined distance according to a design value of the outer frame is formed by a set of mutually parallel sets constituting the outer frame. Of each of the linear portions of the detection target are simultaneously scanned in a scanning direction substantially orthogonal to the linear portion of the detection target, and the linear portion of the detection target is determined based on pixel data in the set of window regions during the scanning. The position can be detected.
[0034]
In each of the optical characteristic measuring methods according to claims 1 to 3, as in the optical characteristic measuring method according to claim 4, in the second step, a representative value of pixel data in the window region is set to a maximum or a minimum. Is detected as the position of the side to be detected.
[0035]
In this case, as in the optical characteristic measuring method according to claim 5, the size of the window region is such that the difference between the outer frame on which the representative value of the pixel data is a detection target and the predetermined region is different. The size may be set to be equal to or larger than a predetermined value. For example, when the variance of the pixel values corresponding to the pixel data in the window area is used as the representative value of the pixel data, the size of the window area is set so that the variance is sufficiently large on the outer frame and the variance is small in the pattern portion. May be set.
[0036]
In each of the optical characteristic measuring methods according to claims 4 and 5, various values can be used as representative values of the pixel data. For example, as in the optical characteristic measuring method according to claim 6, the pixel data May be any of the variance, standard deviation, addition value, and differential sum value of the pixel values corresponding to the pixel data in at least a part of the area including the center in the window area. .
[0037]
In each of the optical characteristic measuring methods according to the first to sixth aspects, as in the optical characteristic measuring method according to the seventh aspect, the imaging data is data of a plurality of bits larger than 2, and in the second step, Data obtained by changing lower bit data other than the higher-order plural bits including the most significant two bits from the plural-bit data to 0 or 1 may be used as the pixel data.
[0038]
In each of the optical characteristic measuring methods according to the first to seventh aspects, as in the optical characteristic measuring method according to the eighth aspect, prior to the first step, while changing at least one exposure condition, a rectangular frame-like shape is formed. A target pattern including a pattern and the measurement pattern located inside the rectangular frame-shaped pattern is arranged on the first surface, and an object arranged on the second surface side of the projection optical system is moved to a predetermined position. The method further includes a transfer step including a step of forming a plurality of partitioned regions in a matrix arrangement on the object by sequentially moving the target pattern on the object by sequentially moving at a step pitch. Can be.
[0039]
Here, the “rectangular frame-shaped pattern” is not only a pattern having a shape like a literally rectangular frame, but also a pattern in which the outline is a rectangular frame, for example, a light-shielding pattern in which the outer edge has a rectangular shape, This is a concept including an opening pattern formed inside a light-shielding pattern having a rectangular inner edge.
[0040]
In this case, as in the optical characteristic measuring method according to the ninth aspect, the step pitch may be set to be equal to or less than a distance corresponding to the size of the rectangular frame-shaped pattern. In such a case, a plurality of divided regions (regions on which the image of the measurement pattern is projected) are formed on the object in a plurality of matrix arrangements in which there is no conventional frame at the boundary between the divided regions. Is done. Further, in this case, when detecting the image formation state in at least some of the plurality of divided areas constituting the predetermined area by an image processing method, a frame line is formed between adjacent divided areas. not exist. For this reason, in the detection target area (mainly, a section area where the image of the measurement pattern remains), the contrast of the image of the measurement pattern does not decrease due to the presence of the frame line. For this reason, it is possible to obtain good data of the S / N ratio of the pattern portion and the non-pattern portion as the imaging data of the plurality of detection target regions, and use such data to perform a contrast detection method or a template matching method. The state of image formation can be accurately detected by the image processing technique.
[0041]
In the optical characteristic measuring method according to claim 8, as in the optical characteristic measuring method according to claim 10, when the predetermined area includes only the plurality of divided areas, the predetermined area is included in the transfer step. The energy of the energy beam irradiated onto the object as a part of the exposure condition such that at least a part of the plurality of divided regions located at the outermost peripheral portion is a region of overexposure. The amount can be changed. In such a case, the S / N ratio at the time of detecting the outer frame is improved, and the outer frame can be detected with high accuracy.
[0042]
In each of the optical characteristic measuring methods according to claims 1 to 10, as in the optical characteristic measuring method according to claim 11, the measurement pattern includes a multi-bar pattern and is transferred to each of the plurality of divided regions. The multi-bar pattern and the pattern adjacent thereto may be separated by a distance L or more that does not affect the contrast of the image of the multi-bar pattern by the adjacent pattern.
[0043]
Here, the multi-bar pattern means a pattern in which a plurality of bar patterns (line patterns) are arranged at predetermined intervals. Further, the pattern adjacent to the multi-bar pattern includes both a frame pattern existing at the boundary of the divided area where the multi-bar pattern is formed and a multi-bar pattern of the adjacent divided area.
[0044]
In such a case, the multi-bar pattern transferred to each partitioned area and the adjacent pattern are separated by a distance L or more that does not affect the contrast of the image of the multi-bar pattern by the adjacent pattern. An imaging signal having a good S / N ratio of the image of the multi-bar pattern transferred to the divided area can be obtained, and based on this imaging signal, an image processing method such as contrast detection or template matching is applied to each divided area. The formation state of the formed image of the multi-bar pattern can be accurately detected.
[0045]
For example, in the case of template matching, objective and quantitative correlation value information is obtained for each sectioned area, and in the case of contrast detection, objective and quantitative contrast value information is obtained for each sectioned area. In any case, by comparing the obtained information with the respective thresholds, the formation state of the image of the multi-bar pattern is converted into binarized information (information on the presence or absence of an image). It is possible to detect the formation state of the multi-bar pattern for each area with high accuracy and reproducibility.
[0046]
In each of the optical characteristic measuring methods according to claims 1 to 11, as in the optical characteristic measuring method according to claim 12, the third step is based on a detection result of a position of the linear portion of the detection target. The method may include a step of calculating a position of each of at least some of the plurality of divided regions constituting the predetermined region with reference to the detected outer frame portion.
[0047]
In each of the optical characteristic measuring methods according to the first to twelfth aspects, as in the optical characteristic measuring method according to the thirteenth aspect, the predetermined area is an area whose contour is formed only of a linear portion. Can be.
[0048]
In the optical characteristic measuring method according to the twelfth aspect, in this case, as in the optical characteristic measuring method according to the fourteenth aspect, the predetermined area is a rectangular area whose outline is composed of four linear portions, In the third step, prior to the calculating step, based on the detection result of the position of the side that is the linear portion to be detected, each of the first to fourth sides forming the outer frame of the rectangle The method further includes an outer frame calculation step of calculating at least two points on each of the above, and calculating the outer frame based on the obtained at least eight points. In the calculating step, the outer frame is calculated using array information of a known partitioned area. The position of each of the plurality of partitioned areas constituting the predetermined area may be calculated by equally dividing the internal area of the frame.
[0049]
In this case, as in the optical characteristic measuring method according to claim 15, in the outer frame calculation step, four straight lines determined based on each of the two points on the first to fourth sides are obtained. Calculating four vertices of the predetermined area which is a rectangular area as an intersection, performing a rectangle approximation by the least squares method based on the obtained four vertices, and calculating an outer frame of a rectangle of the predetermined area including rotation. It can be.
[0050]
In each of the optical characteristic measuring methods according to any one of the first to fifteenth aspects, as in the optical characteristic measuring method according to the sixteenth aspect, the image forming state in the at least some of the plurality of divided regions in the third step is changed. The detection may be performed using a representative value regarding the pixel data of each partitioned area as the determination value.
[0051]
In this case, various representative values regarding the pixel data of each partitioned area can be considered. For example, as in the optical characteristic measuring method according to claim 17, the representative value is a pixel within at least a part of the range within each partitioned area. It can be one of the sum of the pixel values corresponding to the data, the differential sum, the variance, and the standard deviation. Alternatively, as in the optical characteristic measuring method according to claim 18, the representative value is obtained by using, as an average value, an average value of pixel values in an arbitrary partitioned area where an image of the measurement pattern is not expected to remain. The obtained variance and standard deviation of the pixel value corresponding to the pixel data in at least a part of the range within each of the divided areas may be determined.
[0052]
In the present specification, the sum of the pixel values, the differential sum, the variance, or the standard deviation of the pixel values used as the representative values will be referred to as “score” or “contrast index value” as appropriate.
[0053]
In each of the optical characteristic measuring methods according to the first to fifteenth aspects, as in the optical characteristic measuring method according to the nineteenth aspect, the image forming state in the at least some of the plurality of divided regions in the third step is changed. The detection can be performed by a template matching method.
[0054]
In each of the optical characteristic measuring methods according to any one of claims 1 to 19, as in the optical characteristic measuring method according to claim 20, the exposure condition includes the position of the object and the object in the optical axis direction of the projection optical system. It may include at least one of the energy amounts of the energy beam irradiated thereon.
[0055]
In each of the optical characteristic measuring methods according to claims 1 to 20, as in the optical characteristic measuring method according to claim 21, the exposure condition includes a position of the object with respect to an optical axis direction of the projection optical system and the object. And the energy amount of the energy beam irradiated on the object, a plurality of partitioned areas in a matrix arrangement formed on the object are sequentially formed on the object via the projection optical system while changing the exposure conditions. The detection of the state of image formation in the third step is detection of the presence or absence of the image of the measurement pattern in the detection target partitioned area, and the fourth step includes detecting the transferred area of the transferred measurement pattern. Then, the best focus is obtained based on the correlation between the energy amount of the energy beam corresponding to the plurality of divided areas where the images are detected and the position of the object in the optical axis direction of the projection optical system. It may be able to determine the scum position.
[0056]
In such a case, when transferring the measurement pattern, two exposure conditions, that is, the position of the object in the optical axis direction of the projection optical system and the energy amount of the energy beam irradiated on the object are changed while changing the measurement pattern. The image is sequentially transferred to a plurality of areas on the object. As a result, the image of the measurement pattern in which the position of the object in the optical axis direction of the projection optical system at the time of transfer and the energy amount of the energy beam irradiated onto the object are different is transferred to each region on the object. Then, when detecting the image formation state, the presence or absence of the image of the measurement pattern is detected for each of the at least some of the plurality of divided areas on the object, for example, for each position in the optical axis direction of the projection optical system. As a result, for each position of the projection optical system in the optical axis direction, the energy amount of the energy beam whose image has been detected can be obtained.
[0057]
Therefore, when obtaining the optical characteristics, an approximate curve indicating the correlation between the energy amount of the energy beam from which the image is detected and the position of the projection optical system in the optical axis direction is determined. For example, the extreme value of the approximate curve is determined. To find the best focus position.
[0058]
The invention according to claim 22 is an optical characteristic measuring method for measuring an optical characteristic of a projection optical system for projecting a pattern on a first surface onto a second surface, wherein at least one exposure condition is changed. A first step of sequentially transferring a measurement pattern arranged on the first surface to a plurality of regions on an object arranged on the second surface side of the projection optical system; and An image is captured of an area including a predetermined-shaped area composed of at least a part of a plurality of divided areas of the transferred plurality of divided areas, and pixels in a predetermined direction of the predetermined-shaped area in the imaged data are captured. An optical characteristic measuring method comprising: a second step of detecting a distribution state of an added value of pixel data for each column; and a third step of obtaining an optical characteristic of the projection optical system based on the detection result.
[0059]
According to this, the measurement pattern arranged on the first surface is sequentially transferred to a plurality of regions on the object arranged on the second surface side of the projection optical system while changing at least one exposure condition ( First step). As a result, a plurality of divided areas where the measurement pattern is transferred under different exposure conditions are formed on the object.
[0060]
Next, an image is captured of an area including a predetermined-shaped area composed of at least some of the plurality of divided areas on the object onto which the measurement pattern has been transferred under different exposure conditions. A distribution state of an added value of pixel data for each pixel row in a predetermined direction in the predetermined shape area is detected (second step). Here, the predetermined direction is determined as an arrangement direction of a part of the divided regions constituting the region of the predetermined shape, and data of a distribution curve is obtained based on, for example, a distribution situation. In this case, the detection result of the image formation state (for example, presence / absence detection) of each of the above-described divided areas is substantially obtained by a simple image processing of calculating the distribution state of the added value of the pixel data for each pixel row in the predetermined direction. Data of an equivalent distribution situation can be obtained. Therefore, a simpler method with the same level of detection accuracy and reproducibility as the case of using the objective and quantitative imaging data to obtain a detection result of the image formation state (for example, presence / absence detection) of each of the above-described divided areas. Thus, the state of image formation can be detected.
[0061]
Then, the optical characteristics of the projection optical system are obtained based on the data of the distribution state (third step). Here, since the optical characteristics are obtained based on the detection result using the objective and quantitative imaging data, the optical characteristics can be measured with higher accuracy and reproducibility than the conventional method.
[0062]
The invention according to claim 23 is an exposure method for irradiating a mask with an energy beam for exposure and transferring a pattern formed on the mask onto an object via a projection optical system. Adjusting the projection optical system in consideration of the optical characteristics measured by the optical characteristic measurement method according to any one of the preceding claims; and a pattern formed on the mask via the adjusted projection optical system. Transferring the image onto the object.
[0063]
According to this, the projection optical system is adjusted so that optimal transfer can be performed in consideration of the optical characteristics of the projection optical system measured by the optical characteristic measurement methods according to claims 1 to 22, and the adjustment is performed. Since the pattern formed on the mask is transferred onto the object via the projection optical system, the fine pattern can be transferred onto the object with high accuracy.
[0064]
An invention according to claim 24 is a device manufacturing method including a lithography step, wherein the lithography step uses the exposure method according to claim 23.
[0065]
According to this, in the lithography process, a fine pattern can be accurately transferred onto an object by the exposure method according to claim 23, and as a result, the productivity (including the yield) of a highly integrated device can be improved. It can be improved.
[0066]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
[0067]
FIG. 1 shows a schematic configuration of an exposure apparatus 100 according to an embodiment suitable for carrying out the optical characteristic measuring method and the exposure method according to the present invention. The exposure apparatus 100 is a step-and-scan type reduction projection exposure apparatus (a so-called scanning stepper (also called a scanner)).
[0068]
The exposure apparatus 100 projects an illumination system IOP, a reticle stage RST holding a reticle R as a mask, and a pattern image formed on the reticle R onto a wafer W as an object coated with a photosensitive agent (photoresist). A projection optical system PL, an XY stage 20 that holds a wafer W and moves on a two-dimensional plane (within an XY plane), a drive system 22 that drives the XY stage 20, and a control system for these components. This control system is mainly composed of a main controller 28 composed of a microcomputer (or a workstation) for controlling the whole apparatus.
[0069]
As shown in FIG. 2, the illumination system IOP includes a light source 1, a beam shaping optical system 2, an energy rough adjuster 3, an optical integrator (homogenizer) 4, an illumination system aperture stop plate 5, a beam splitter 6, a first relay. A lens 7A, a second relay lens 7B, a reticle blind 8 (including a fixed reticle blind 8A and a movable reticle blind 8B in this embodiment) as a field stop, a mirror M for bending an optical path, and the like are provided. In addition, as the optical integrator 4, a fly-eye lens, a rod type (internal reflection type) integrator, a diffractive optical element, or the like can be used. In the present embodiment, since a fly-eye lens is used as the optical integrator 4, it is also referred to as a fly-eye lens 4 below.
[0070]
Here, each component of the illumination system IOP will be described. As the light source 1, a KrF excimer laser (oscillation wavelength 248 nm), an ArF excimer laser (oscillation wavelength 193 nm), or the like is used. The light source 1 is actually installed on a floor surface in a clean room in which the exposure apparatus main body is installed, or on a room (service room) having a low degree of cleanness different from the clean room, and is connected via a drawing optical system (not shown). Connected to the incident end of the beam shaping optical system 2.
[0071]
The beam shaping optical system 2 shapes the cross-sectional shape of the laser beam LB pulsed from the light source 1 so as to efficiently enter a fly-eye lens 4 provided behind the optical path of the laser beam LB. For example, it is composed of a cylinder lens, a beam expander (both not shown), and the like.
[0072]
The energy rough adjuster 3 is disposed on the optical path of the laser beam LB behind the beam shaping optical system 2. Here, a plurality of energy rough adjusters 3 (e.g. 6), ND filters (only two ND filters 32A and 32D are shown in FIG. 2) are arranged, and the rotating plate 31 is rotated by a drive motor 33, so that the incident laser beam The transmittance for LB can be switched from 100% in geometric progression in a plurality of steps. Drive motor 33 is controlled by main controller 28.
[0073]
The fly-eye lens 4 is disposed on the optical path of the laser beam LB behind the energy coarse adjuster 3, and has a large number of point light sources (light source images) on its emission-side focal plane to illuminate the reticle R with a uniform illuminance distribution. , Ie, a secondary light source. Hereinafter, the laser beam emitted from the secondary light source is referred to as “illumination light IL”.
[0074]
An illumination system aperture stop plate 5 made of a disc-shaped member is arranged near the exit-side focal plane of the fly-eye lens 4. The illumination system aperture stop plate 5 is provided at substantially equal angular intervals, for example, an aperture stop composed of a normal circular aperture, an aperture stop composed of a small circular aperture, and a small coherence factor σ value (small σ stop); A ring-shaped aperture stop (ring-shaped stop) for annular illumination, and a modified aperture stop in which a plurality of apertures are eccentrically arranged for the modified light source method (only two of these aperture stops are shown in FIG. 2). Etc.) are arranged. The illumination system aperture stop plate 5 is configured to be rotated by a driving device 51 such as a motor controlled by the main controller 28, so that one of the aperture stops is selectively placed on the optical path of the illumination light IL. Is set to Instead of the aperture stop plate 5 or in combination therewith, for example, a plurality of diffractive optical elements that are exchangeably arranged in the illumination optical system, a prism (cone prism, polyhedron, movable along the optical axis of the illumination optical system) An optical unit including at least one of a prism and a zoom optical system is disposed between the light source 1 (specifically, the energy rough adjuster 3) and the optical integrator 4, and the optical integrator 4 is a fly-eye lens. In some cases, the intensity distribution of the illumination light IL on the incident surface is varied, and when the optical integrator 4 is an internal reflection type integrator, the incident angle range of the illumination light IL on the incident surface is variable, so that the illumination optical system is changed. Of the illumination light IL (the size and shape of the secondary light source) on the pupil plane of the pupil plane, that is, the light amount loss accompanying the change of the illumination condition. Obtaining it is desirable.
[0075]
A beam splitter 6 having a small reflectance and a large transmittance is arranged on the optical path of the illumination light IL behind the illumination system aperture stop plate 5, and the reticle blind 8 is interposed on the optical path behind the first. A relay optical system including a relay lens 7A and a second relay lens 7B is arranged.
[0076]
The fixed reticle blind 8A constituting the reticle blind 8 is disposed on a plane slightly defocused from a conjugate plane with respect to the pattern plane of the reticle R, and has a rectangular opening that defines an illumination area on the reticle R. In addition, an opening having a variable position and width in a direction corresponding to the scanning direction (in the present embodiment, the Y-axis direction, which is the horizontal direction in the drawing of FIGS. 1 and 2) is provided near the fixed reticle blind 8A. A movable reticle blind 8B is provided, and at the start and end of the scanning exposure, the illumination area is further limited via the movable reticle blind 8B, thereby preventing unnecessary portions from being exposed. Further, the width of the opening of the movable reticle blind 8B is variable also in the direction corresponding to the non-scanning direction orthogonal to the scanning direction, and the width of the opening in the non-scanning direction of the illumination area is changed according to the pattern of the reticle R to be transferred onto the wafer. The width can be adjusted.
[0077]
A bending mirror M that reflects the illumination light IL that has passed through the second relay lens 7B toward the reticle R is disposed on the optical path of the illumination light IL behind the second relay lens 7B that constitutes the relay optical system. .
[0078]
On the other hand, on the light path reflected by the beam splitter 6, an integrator sensor 53 composed of a photoelectric conversion element is disposed via a condenser lens 52. As the integrator sensor 53, for example, a PIN photodiode having sensitivity in the deep ultraviolet region and having a high response frequency for detecting pulse light emission of the light source unit 1 can be used. The correlation coefficient (or correlation function) between the output DP of the integrator sensor 53 and the illuminance (intensity) of the illumination light IL on the surface of the wafer W is obtained in advance and stored in a memory inside the main controller 28. ing.
[0079]
The operation of the illumination system IOP configured as described above will be briefly described. The laser beam LB pulse-emitted from the light source 1 enters the beam shaping optical system 2 where the laser beam LB is efficiently transmitted to the rear fly-eye lens 4. After its cross-sectional shape is shaped so as to be incident well, it is incident on the energy rough adjuster 3. Then, the laser beam LB transmitted through any of the ND filters of the energy rough adjuster 3 enters the fly-eye lens 4. Thus, the above-mentioned secondary light source is formed on the exit-side focal plane of the fly-eye lens 4. The illumination light IL emitted from the secondary light source passes through one of the aperture stops on the illumination system aperture stop plate 5 and thereafter reaches a beam splitter 6 having a large transmittance and a small reflectance. The illumination light IL transmitted through the beam splitter 6 passes through the opening of the reticle blind 8 via the first relay lens 7A, passes through the second relay lens 7B, and the optical path is bent vertically downward by the mirror M. Thereafter, a rectangular illumination area on reticle R held on reticle stage RST is illuminated with a uniform illuminance distribution.
[0080]
On the other hand, the illumination light IL reflected by the beam splitter 6 is received by an integrator sensor 53 via a condenser lens 52, and a photoelectric conversion signal of the integrator sensor 53 is transmitted to a peak hold circuit and an A / D converter (not shown). The output is supplied to the main controller 28 as an output DP (digit / pulse).
[0081]
Returning to FIG. 1, the reticle stage RST is arranged below the illumination system IOP in FIG. The reticle R is mounted on the reticle stage RST, and is held by suction via a vacuum chuck (not shown). The reticle stage RST can be finely driven in a horizontal plane (XY plane) by a reticle stage driving unit (not shown), and has a predetermined stroke in a scanning direction (here, the Y-axis direction which is the horizontal direction in FIG. 1). It is designed to be scanned in a range. The position of the reticle stage RST during the scanning is measured by an external laser interferometer 14 via a movable mirror 12 fixed on the reticle stage RST, and the measured value of the laser interferometer 14 is supplied to a main controller 28. It is supposed to be. Note that the end surface of reticle stage RST may be mirror-finished to form a reflection surface of laser interferometer 14 (corresponding to the reflection surface of movable mirror 12 described above).
[0082]
The projection optical system PL is arranged below the reticle stage RST in FIG. 1 so that the direction of the optical axis AXp is the Z-axis direction orthogonal to the XY plane. Here, as the projection optical system PL, a refracting optical system which is a double-sided telecentric reduction system and includes a plurality of lens elements (not shown) having a common optical axis AXp in the Z-axis direction is used. Specific plural lenses among the lens elements are controlled by an imaging characteristic correction controller (not shown) based on a command from the main controller 28, and optical characteristics (including imaging characteristics) of the projection optical system PL, for example, magnification. , Distortion, coma, curvature of field, and the like can be adjusted.
[0083]
The projection magnification of the projection optical system PL is, for example, 1/4 (or 1/5). For this reason, when the reticle R is illuminated with the uniform illuminance by the illumination light IL as described above, the pattern of the reticle R is reduced by the projection optical system PL and projected onto the wafer W coated with the photoresist, and A reduced image of the pattern is formed in the area to be exposed on W (the area conjugate to the illumination area).
[0084]
The XY stage 20 is actually composed of a Y stage that moves on a base (not shown) in the Y-axis direction and an X stage that moves on the Y stage in the X-axis direction. Are representatively shown as an XY stage 20. A wafer table 18 is mounted on the XY stage 20, and a wafer W is held on the wafer table 18 by vacuum suction or the like via a wafer holder (not shown).
[0085]
The wafer table 18 minutely drives a wafer holder that holds the wafer W in the Z-axis direction and the tilt direction with respect to the XY plane, and is also called a Z-tilt stage. A movable mirror 24 is provided on the upper surface of the wafer table 18, and the position of the wafer table 18 in the XY plane is measured by projecting a laser beam onto the movable mirror 24 and receiving the reflected light. A laser interferometer 26 is provided to face the reflecting surface of the movable mirror 24. Actually, the moving mirror is provided with an X moving mirror having a reflecting surface orthogonal to the X axis and a Y moving mirror having a reflecting surface orthogonal to the Y axis. Although an X laser interferometer for measuring the direction position and a Y laser interferometer for measuring the Y direction position are provided, these are representatively shown as a movable mirror 24 and a laser interferometer 26 in FIG. The X laser interferometer and the Y laser interferometer are multi-axis interferometers having a plurality of measurement axes, and in addition to the X and Y positions of the wafer table 18, rotation (yaw (θz rotation which is rotation about the Z axis)) , Pitching (θx rotation around the X axis) and rolling (θy rotation around the Y axis) can also be measured. Therefore, in the following description, it is assumed that the position of the wafer table 18 in the directions of five degrees of freedom of X, Y, θz, θy, and θx is measured by the laser interferometer 26. Further, instead of the movable mirror 24, the end surface of the wafer table 18 may be mirror-finished and used as a reflection surface.
[0086]
The measurement value of the laser interferometer 26 is supplied to a main controller 28, and the main controller 28 controls the XY stage 20 via the drive system 22 based on the measurement value of the laser interferometer 26, so that the wafer table 18 (Including θz rotation) in the XY plane is controlled.
[0087]
Further, the position and the amount of tilt in the Z-axis direction of the surface of the wafer W can be determined, for example, from the oblique incidence type multi-point focal position detection system having the light transmission system 50a and the light reception system 50b disclosed in Japanese Patent Application Laid-Open No. 6-283403. Is measured by the focus sensor AFS. The measurement value of the focus sensor AFS is also supplied to the main controller 28. The main controller 28 moves the wafer table 18 via the drive system 22 in the Z direction, the θx direction, and the θy based on the measurement value of the focus sensor AFS. In the direction of the optical axis of the projection optical system PL to control the position and inclination of the wafer W.
[0088]
In this way, the position and orientation of the wafer W in the directions of five degrees of freedom of X, Y, Z, θx, and θy are controlled via the wafer table 18. The remaining error of θz (yaw) is corrected by rotating at least one of reticle stage RST and wafer table 18 based on yaw information of wafer table 18 measured by laser interferometer 26.
[0089]
On the wafer table 18, a reference plate FP whose surface is the same as the surface of the wafer W is fixed. On the surface of the reference plate FP, various reference marks including a reference mark used for so-called baseline measurement of an alignment detection system described later are formed.
[0090]
Further, in the present embodiment, an off-axis type alignment detection system AS as a mark detection system for detecting an alignment mark formed on the wafer W is provided on a side surface of the projection optical system PL. As an example of the alignment detection system AS, a kind of an image processing type alignment sensor of an image processing method of illuminating a mark with broadband (broadband) light such as a halogen lamp and measuring a mark position by processing the mark image. The FIA (Field Image Alignment) system is used, and it is possible to measure the positions of the reference marks on the reference plate FP and the alignment marks on the wafer in the X and Y two-dimensional directions.
[0091]
The alignment control device 16 performs A / D conversion of information DS from the alignment detection system AS, and performs arithmetic processing on the digitized waveform signal to detect a mark position. This result is supplied from the alignment control device 16 to the main control device 28.
[0092]
The alignment detection system AS includes, in addition to the above-described FIA system, an alignment sensor that irradiates a target with coherent detection light and detects scattered light or diffracted light generated from the target, and two diffraction lights generated from the target. Various alignment sensors such as an alignment sensor that detects light by interference with light (for example, the same order) can be used alone or in an appropriate combination.
[0093]
Further, in the exposure apparatus 100 of the present embodiment, although not shown, the reticle R is disposed above the reticle R via a projection optical system PL disclosed in, for example, JP-A-7-176468. A pair of reticle alignments composed of a TTR (Through The Reticle) alignment system using light of an exposure wavelength for simultaneously observing a reticle mark or a reference mark on the reticle stage RST (both not shown) and a mark on the reference plate FP. A detection system is provided. The detection signals of these reticle alignment detection systems are supplied to main controller 28 via alignment controller 16.
[0094]
Next, an example of a reticle used for measuring the optical characteristics of the projection optical system according to the present invention will be described.
[0095]
FIG. 3 shows a reticle R used for measuring the optical characteristics of the projection optical system. T An example is shown. FIG. 3 shows a reticle R T 2 is a plan view as viewed from a pattern surface side (a lower surface side in FIG. 1). As shown in FIG. 3, reticle R T In the figure, a pattern area PA made of a light shielding member such as chrome is formed in the center of a glass substrate 42 as a substantially rectangular mask substrate. The center of the pattern area PA (that is, the reticle R T At the four corners inside a virtual rectangular area IAR ′ located at the center of the pattern area PA in the Y-axis direction (corresponding to the reticle center), for example, a 20 μm square aperture pattern (transmission area). ) AP 1 ~ AP 5 Is formed, and a measurement pattern MP composed of a line and space pattern (L / S pattern) is formed at the center of each of the opening patterns. 1 ~ MP 5 Are formed respectively. Note that the rectangular area IAR ′ has a size and a shape that substantially match the illumination area IAR described above.
[0096]
Measurement pattern MP n In each of (n = 1 to 5), for example, the X-axis direction is a periodic direction, and five line patterns having a line width of about 1.3 μm and a length of about 12 μm are arranged at a pitch of about 2.6 μm. It is composed of a multi-bar pattern. For this reason, in the present embodiment, the opening pattern AP n Each opening pattern AP having the same center as n Measurement pattern MP in a reduced area of about 60% of n Are arranged respectively.
[0097]
A pair of reticle alignment marks RM1 and RM2 are formed on both sides of the pattern area PA passing through the reticle center in the X-axis direction.
[0098]
Next, a method for measuring the optical characteristics of the projection optical system PL in the exposure apparatus 100 of the present embodiment will be described with reference to FIGS. 4 and 5, which show simplified processing algorithms of the CPU in the main controller 28, and Description will be made with reference to other drawings as appropriate.
[0099]
First, in step 402 of FIG. 4, the reticle R is placed on the reticle stage RST via a reticle loader (not shown). T Is loaded, and the wafer W is loaded through a wafer loader (not shown). T Is loaded on the wafer table 18.
[0100]
In the next step 404, reticle R T Preparatory work such as alignment with the projection optical system PL and setting of a reticle blind is performed. Specifically, first, the midpoint of a pair of fiducial marks (not shown) formed on the surface of the fiducial plate FP provided on the wafer table 18 substantially coincides with the optical axis of the projection optical system PL. The XY stage 20 is moved via the drive system 22 while monitoring the measurement result of the laser interferometer 26. Then, reticle R T The position of reticle stage RST is adjusted via a reticle stage drive unit (not shown) based on the measurement value of laser interferometer 14 so that the center of reticle (reticle center) substantially matches the optical axis of projection optical system PL. . At this time, for example, the relative position between the reticle alignment marks RM1 and RM2 and the corresponding reference mark is detected by the reticle alignment detection system (not shown) via the projection optical system PL. A reticle stage driving unit (not shown) based on the detection result of the relative position detected by the reticle alignment detection system, so that the relative position error between the reticle alignment marks RM1 and RM2 and the corresponding reference mark is minimized. The position of the reticle stage RST in the XY plane is adjusted via. Thereby, the reticle R T (Reticle center) exactly coincides with the optical axis of the projection optical system PL, and the reticle R T Also accurately coincides with the coordinate axes of the rectangular coordinate system defined by the length measurement axes of the laser interferometer 26.
[0101]
In addition, for example, the irradiation area of the illumination light IL is in the reticle R T The opening width of the movable reticle blind 8B in the non-scanning direction in the illumination system IOP is adjusted so as to substantially coincide with the pattern area PA.
[0102]
When the predetermined preparation work is completed in this way, the process proceeds to the next step 406, in which a flag F for determining the end of exposure of the first area described later is set (F ← 1).
[0103]
In the next step 408, the target value of the exposure energy amount is initialized. That is, the initial value “1” is set in the counter j and the target value P of the exposure energy amount is set. j To P 1 (J ← 1). In the present embodiment, the counter j sets the target value of the exposure energy amount and sets the wafer W during the exposure. T Is also used to set the movement target position in the row direction. In the present embodiment, the wafer W T A positive resist is applied to the surface of the substrate. For example, the exposure energy amount is set to P around a known optimum exposure amount for the positive resist. 1 From P in ΔP increments N (For example, N = 23) (P j = P 1 ~ P 23 ).
[0104]
In the next step 410, the wafer W T The target value of the focus position (position in the Z-axis direction) is initialized. That is, the initial value “1” is set in the counter i and the wafer W T Focus position target value Z i To Z 1 (I ← 1). In the present embodiment, the counter i is T The target value of the focus position is set, and the wafer W at the time of exposure is set. T Is also used to set the movement target position in the column direction. In the present embodiment, for example, the wafer W is centered on a known best focus position (design value or the like) related to the projection optical system PL. T The focus position of 1 To Z in ΔZ increments M (For example, M = 13) (Z i = Z 1 ~ Z Thirteen ).
[0105]
Therefore, in the present embodiment, the wafer W in the optical axis direction of the projection optical system PL is T Position and wafer W T While changing the amount of energy of the illumination light IL illuminated above, the measurement pattern MP n (N = 1 to 5) for the wafer W T N × M (for example, 23 × 13 = 299) exposures are performed for sequential transfer to the upper side. Wafer W corresponding to each evaluation point in the field of view of projection optical system PL T Upper area (hereinafter referred to as “evaluation point corresponding area”) DB 1 ~ DB 5 Of the first area DC to be described later 1 ~ DC 5 (See FIGS. 7 and 8) include N × M measurement patterns MP. n Will be transferred.
[0106]
Here, the evaluation point corresponding area DB n First area DC in (n = 1 to 5) n In the present embodiment, each evaluation point corresponding area DB n Is the above-mentioned N × M measurement patterns MP n Is transferred to a rectangular first area DC n And a rectangular frame-shaped second region DD surrounding the first region. n (See FIG. 8).
[0107]
In addition, this evaluation point corresponding area DB n (That is, the first area DC n ) Correspond to a plurality of evaluation points whose optical characteristics are to be detected in the field of view of the projection optical system PL.
[0108]
Here, although the description is before and after, for convenience, the measurement pattern MP n Wafer W to which is transferred T Each first area DC above n Will be described with reference to FIG. As shown in FIG. 6, in the present embodiment, M × N (= 13 × 23 = 299) virtual partitioned areas DA arranged in a matrix of M rows and N columns (13 rows and 23 columns) i, j (I = 1 to M, j = 1 to N) and the measurement pattern MP n Are transferred respectively, and these measurement patterns MP n Are respectively transferred to the M × N divided areas DA i, j 1st area DC which consists of n Is wafer W T Formed on top. Note that the virtual partitioned area DA i, j Are arranged such that the + X direction is the row direction (j increasing direction) and the + Y direction is the column direction (i increasing direction), as shown in FIG. The subscripts i and j and M and N used in the following description have the same meaning as described above.
[0109]
Returning to FIG. 4, in the next step 412, the wafer W T Each evaluation point corresponding area DB above n Virtual partitioned area DA within i, j (Here DA 1,1 (See FIG. 7)) n XY stage 20 (wafer W) via drive system 22 while monitoring the measurement value of laser interferometer 26 at the positions where the images of T Move).
[0110]
In the next step 414, the wafer W T Target value Z at which the focus position is set i (In this case Z 1 The wafer table 18 is minutely driven in the Z-axis direction and the tilt direction while monitoring the measurement value from the focus sensor AFS so as to coincide with (2).
[0111]
In the next step 416, exposure is performed. At this time, the wafer W T The target value (in this case, P 1 The exposure amount control is performed so that As a method of controlling the amount of exposure energy, for example, the following first to third methods can be used alone or in an appropriate combination.
[0112]
That is, as a first method, the energy amount of the illumination light IL given to the image plane (wafer plane) by maintaining the pulse repetition frequency constant and changing the transmittance of the laser beam LB using the energy coarse adjuster 3 To adjust. As a second method, by maintaining the pulse repetition frequency constant and giving an instruction to the light source 1 to change the energy per pulse of the laser beam LB, the illumination light IL given to the image plane (wafer plane) is changed. Adjust the amount of energy. As a third method, the transmittance of the laser beam LB and the energy per pulse of the laser beam LB are kept constant, and the illumination light IL applied to the image plane (wafer plane) by changing the pulse repetition frequency. Adjust the energy amount of.
[0113]
As a result, as shown in FIG. T Each first area DC above n Area DA 1,1 Each for measurement pattern MP n And opening pattern AP n Is transferred.
[0114]
Referring back to FIG. 4, when the exposure in step 416 is completed, it is determined in step 418 whether the flag F is set, that is, whether F = 1. In this case, since the flag F is set in the above-described step 406, the determination here is affirmed, and the process proceeds to the next step 420.
[0115]
In step 420, the wafer W T The target value of the focus position is Z M By judging whether or not this is the case, it is determined whether or not exposure in a predetermined Z range has been completed. Here, the first target value Z 1 Since the exposure in the step (b) is only completed, the process proceeds to step 422, where the counter i is incremented by one (i ← i + 1), and the wafer W T Is added to the target value of the focus position (Z i ← Z + ΔZ). Here, the target value of the focus position is Z 2 (= Z 1 + ΔZ), and then returns to step 412. In this step 412, the wafer W T Each first area DC above n Area DA 2,1 Measurement pattern MP n Wafers W at the positions where the images of T The XY stage 20 is moved in a predetermined direction (in this case, the −Y direction) within the XY plane by a predetermined step pitch SP so that is positioned. Here, in the present embodiment, the above-described step pitch SP is determined by each opening pattern AP. n Wafer W T The size is set to about 5 μm, which substantially matches the size of the projected image above. The step pitch SP is not limited to about 5 μm, but is 5 μm, that is, each opening pattern AP. n Wafer W T It is desirable that the size be equal to or smaller than the size of the above projected image. The reason will be described later.
[0116]
In the next step 414, the wafer W T Is the target value (in this case, Z 2 The wafer table 18 is step-moved by ΔZ in the direction of the optical axis AXp so as to coincide with the above. T Each first area DC above n Area DA 2,1 Measurement pattern MP n And opening pattern AP n Are transferred respectively. However, the step pitch SP is equal to the opening pattern AP. n Wafer W T Each of the first regions DC n Area DA 2,1 And partition area DA 2,1 Pattern AP at the boundary with n There is no frame formed by a part of the image.
[0117]
Thereafter, until the determination in step 420 is affirmed, that is, the wafer W set at that time is set. T The target value of the focus position is Z M Until it is determined that, the loop processing (including the determination) of steps 418 → 420 → 422 → 412 → 414 → 416 is repeated. Thereby, the wafer W T Each first area DC above n Area DA i, 1 (I = 3 to M) for the measurement pattern MP n And opening pattern AP n Are respectively transcribed. However, also in this case, no border line exists at the boundary between adjacent partitioned areas for the same reason as described above.
[0118]
On the other hand, the partition area DA M, 1 Is completed, and if the determination in step 420 is affirmative, the process proceeds to step 424 where the target value of the exposure energy amount set at that time is P N It is determined whether or not this is the case. Here, the target value of the exposure energy amount set at that time is P 1 Therefore, the determination in step 424 is denied, and the process proceeds to step 426.
[0119]
In step 426, the counter j is incremented by 1 (j ← j + 1), and ΔP is added to the target value of the exposure energy amount (P j ← P j + ΔP). Here, the target value of the exposure energy amount is P 2 (= P 1 + ΔP), and then returns to step 410.
[0120]
Thereafter, in step 410, the wafer W T After the target value of the focus position is initialized, the loop processing (including the determination) of steps 412 → 414 → 416 → 418 → 420 → 422 is repeated. The processing of this loop is performed until the determination in step 420 is affirmed, that is, the target value P of the exposure energy amount. 2 Predetermined wafer W T Focus position range (Z 1 ~ Z M This is repeated until the exposure for ()) is completed. Thereby, the wafer W T Each first area DC above n Area DA i, 2 (I = 1 to M) for the measurement pattern MP n And opening pattern AP n Are respectively transcribed. However, also in this case, no border line exists at the boundary between adjacent partitioned areas for the same reason as described above.
[0121]
On the other hand, the target value P of the exposure energy amount 2 Predetermined wafer W T Focus position range (Z 1 ~ Z M When the exposure of ()) is completed, the determination in step 420 is affirmed, and the flow shifts to step 424 where the target value of the set exposure energy amount is P. N It is determined whether or not this is the case. In this case, the target value of the exposure energy amount is P 2 Therefore, the determination in step 424 is denied, and the process proceeds to step 426. In step 426, the counter j is incremented by one, and ΔP is added to the target value of the exposure energy amount (P j ← P j + ΔP). Here, the target value of the exposure energy amount is P 3 After that, the process returns to step 410. Thereafter, the same processing (including determination) as above is repeated.
[0122]
Thus, the range of the predetermined exposure energy amount (P 1 ~ P N When the exposure of ()) is completed, the determination in step 424 is affirmed, and the flow shifts to step 428 in FIG. Thereby, the wafer W T Each first area DC above n As shown in FIG. 7, N × M (23 × 13 = 299 as an example) measurement patterns MP with different exposure conditions n Is formed. In practice, as described above, the wafer W T Measurement pattern MP on top n When N × M (for example, 23 × 13 = 299) divided areas in which transfer images (latent images) are formed, each first area DC n Is formed, but in the above description, the first region DC is used to make the description easy to understand. n Is the wafer W T An explanation method as if it is above is adopted.
[0123]
In step 428 in FIG. 5, it is determined whether the flag F has been set, that is, whether F = 0. Here, since the flag F is set in the step 406, the determination in the step 428 is denied, and the process shifts to the step 430 to increment the counters i and j by 1 (i ← i + 1, j ← j + 1). . As a result, the counters i = M + 1 and J = N + 1, and the area to be exposed is divided area DA shown in FIG. M + 1, N + 1 = DA 14,24 It becomes.
[0124]
In the next step 432, the flag F is lowered (F ← 0), and the process returns to step 412 in FIG. In step 412, the wafer W T Each first area DC above n Area DA M + 1, N + 1 = DA 14,24 Measurement pattern MP n Wafers W at the positions where the images of T And proceeds to the next step 414. However, at this time, the wafer W T The target value of the focus position is Z M Therefore, the process proceeds to step 416 without performing any operation, and the partition area DA 14,24 Is exposed. At this time, the exposure energy amount P is the maximum exposure amount P N Exposure is performed.
[0125]
In the next step 418, since the flag F = 0, steps 420 and 424 are skipped, and the process proceeds to step 428. In this step 428, it is determined whether or not the flag F has been lowered. Here, since F = 0, this determination is affirmative, and the flow proceeds to step 434.
[0126]
In step 434, it is determined whether or not the counter i = M + 1 and the counter j> 0 are satisfied. At this time, since i = M + 1 and j = N + 1, the determination here is affirmed, and step 436 is performed. Then, the counter j is decremented by 1 (j ← j−1), and the process returns to step 412. Thereafter, the loop processing (including the determination) of steps 412 → 414 → 416 → 418 → 428 → 434 → 436 is repeated until the determination in step 434 is denied. Thus, the partition area DA shown in FIG. 14,23 From DA 14,0 Exposure at the maximum exposure amount described above is performed sequentially.
[0127]
And the partition area DA 14,0 When the exposure for is completed, i = M + 1 (= 14) and j = 0, so the determination in step 434 is denied, and the flow shifts to step 438. In this step 438, it is determined whether or not the counter i> 0 and the counter j = 0 are satisfied. At this time, since i = M + 1, j = 0, the determination here is affirmed, and step 440 is performed. Then, the counter i is decremented by 1 (i ← i−1), and the process returns to step 412. Thereafter, the loop processing (including the determination) of steps 412 → 414 → 416 → 418 → 428 → 434 → 438 → 440 is repeated until the determination in step 438 is denied. Thereby, the partition area DA of FIG. 13,0 From DA 0,0 Exposure is performed sequentially with the maximum exposure amount until the above.
[0128]
And the partition area DA 0,0 When the exposure for is completed, i = 0 and j = 0, so the determination in step 438 is denied, and the flow shifts to step 442. In this step 442, it is determined whether or not the counter j = N + 1. At this time, since j = 0, the determination here is denied, and the process proceeds to step 444 to increment the counter j. (J ← j + 1), and the process returns to step 412. Thereafter, the loop processing (including the determination) of steps 412 → 414 → 416 → 418 → 428 → 434 → 438 → 442 → 444 is repeated until the determination in step 442 is affirmed. Thereby, the partition area DA of FIG. 0,1 From DA 0,24 Exposure is performed sequentially with the maximum exposure amount until the above.
[0129]
And the partition area DA 0,24 Is completed, j = N + 1 (= 24), so the determination in step 442 is affirmative, and the flow shifts to step 446. In this step 446, it is determined whether or not the counter i = M. At this time, since i = 0, the determination here is denied, and the routine proceeds to step 448, where the counter i is incremented by one. (I ← i + 1), and the process returns to step 412. Thereafter, the loop processing (including the determination) of steps 412 → 414 → 416 → 418 → 428 → 434 → 438 → 442 → 446 → 448 is repeated until the determination in step 446 is affirmed. Thereby, the partition area DA of FIG. 1,24 From DA 13,24 Exposure is performed sequentially with the maximum exposure amount until the above.
[0130]
And the partition area DA 13,24 Is completed, i = M (= 23), so that the determination in step 446 is affirmative, whereby the wafer W T Is completed. Thereby, the wafer W T Above, a rectangular (rectangular) first area DC as shown in FIG. n And a rectangular frame-shaped second region DD surrounding the second region DD n Evaluation point corresponding area DB consisting of n (N = 1 to 5) latent images are formed. In this case, the second area DD n Are clearly overexposed (overdose).
[0131]
Thus, the wafer W T When the exposure for is completed, the process proceeds to step 450 in FIG. In this step 450, the wafer W is transferred via a wafer unloader (not shown). T Is unloaded from above the wafer table 18 and the wafer W is T Is transported to a coater / developer (not shown) connected inline to the exposure apparatus 100.
[0132]
Wafer W for the above coater / developer T After the transfer of the wafer W, the process proceeds to step 452, where the wafer W T Wait for the development to finish. During the waiting time in this step 452, the wafer W T Is developed. Upon completion of this development, the wafer W T Above, a rectangular (rectangular) first area DC as shown in FIG. n And a rectangular frame-shaped second region DD surrounding the second region DD n Evaluation point corresponding area DB consisting of n (N = 1 to 5) resist image is formed, and the wafer W on which the resist image is formed T Is a sample for measuring the optical characteristics of the projection optical system PL. FIG. 9 shows the wafer W T Evaluation point corresponding area DB formed above 1 Is shown as an example.
[0133]
In FIG. 9, the evaluation point corresponding area DB 1 Is (N + 2) × (M + 2) = 25 × 15 = 375 divided areas DA i, j (I = 0 to M + 1, j = 0 to N + 1), and is illustrated as if a resist image of a partition frame exists between adjacent partitioned areas. This is done for clarity. However, in practice, there is no resist image of a partition frame between adjacent partitioned areas. By eliminating the frame in this manner, it is possible to prevent a decrease in the contrast of the pattern portion due to interference caused by the frame when capturing an image using an FIA-based alignment sensor, which has conventionally been a problem. For this reason, in the present embodiment, the above-described step pitch SP is set to each opening pattern AP. n Wafer W T The size was set to be smaller than the size of the projected image above.
[0134]
In this case, the measurement pattern MP composed of a multi-bar pattern between adjacent partitioned areas is used. n Let L be the distance between the resist images of FIG. n The other measurement pattern MP n The distance is set to such an extent that the presence of the image does not affect the image. This distance L is determined by the resolution of an imaging device (in this embodiment, an alignment detection system AS (an FIA alignment sensor)) for imaging a partitioned area. f , The contrast of the image of the measurement pattern f , The process factor determined by the process including the reflectivity and the refractive index of the resist f , The detection wavelength of the alignment detection system AS (the alignment sensor of the FIA system) is λ f If, for example, L = f (C f , R f , P f , Λ f ).
[0135]
Note that the process factor P f Affects the image contrast, so the function L ′ = f ′ (C f , R f , Λ f ) May be used to define the distance L.
[0136]
Further, as can be seen from FIG. 9, the rectangular (rectangular) first region DC 1 Frame-shaped second area DD surrounding 1 No pattern remaining area is found. This is, as described above, the second area DD. 1 This is because the exposure energy that causes overexposure during the exposure of each of the divided regions that constitutes. The reason for this is to improve the contrast of the outer frame portion at the time of detecting the outer frame, which will be described later, and to increase the S / N ratio of the detection signal.
[0137]
In the waiting state of the step 452, the wafer W is notified by a notification from the control system of the coater / developer (not shown). T Is completed, the process proceeds to step 454, where an instruction is issued to a wafer loader (not shown), and the wafer W T Is loaded onto the wafer table 18 again, and the process proceeds to a subroutine for calculating the optical characteristics of the projection optical system in step 456 (hereinafter, also referred to as an “optical characteristic measurement routine”).
[0138]
In this optical characteristic measurement routine, first, in step 502 of FIG. T Upper evaluation point corresponding area DB n Wafer W at a position where the resist image can be detected by alignment detection system AS. T To move. This movement, that is, positioning, is performed by controlling the XY stage 20 via the drive system 22 while monitoring the measurement value of the laser interferometer 26. Here, it is assumed that the counter n has been initialized to n = 1. Therefore, here, the wafer W shown in FIG. T Upper evaluation point corresponding area DB 1 Wafer W at a position where the resist image can be detected by alignment detection system AS. T Is positioned. In the following description of the optical characteristic measurement routine, the evaluation point corresponding area DB n The resist image of “Evaluation point corresponding area DB” n ".
[0139]
In the next step 504, the wafer W T Upper evaluation point corresponding area DB n (Here, DB 1 ) Is captured using the alignment detection system AS, and the captured data is captured. The alignment detection system AS divides the resist image into pixels of an image pickup device (CCD or the like) of its own, and converts the density of the resist image corresponding to each pixel into 8-bit digital data (pixel data). 28. That is, the imaging data is composed of a plurality of pixel data. Here, it is assumed that the value of the pixel data increases as the density of the resist image increases (closes to black).
[0140]
In the next step 506, the evaluation point corresponding area DB from the alignment detection system AS n (Here, DB 1 The image data of the resist image formed in the step (1) is arranged and an image data file is created.
[0141]
In the next steps 508 to 516, the evaluation point corresponding area DB n (Here, DB 1 ) Is detected. FIGS. 14 (A) to 14 (C), FIGS. 15 (A) and 15 (B) show states of outer frame detection in order. In these figures, the code DB n The rectangular area marked with is an evaluation point corresponding area DB for which an outer frame is to be detected. n Is equivalent to
[0142]
First, in step 508, the evaluation point corresponding area DB n Approximate positions of the upper side and lower side of are detected.
[0143]
That is, in this step 508, as shown in FIG. n (Here, DB 1 ) Based on the design value of the evaluation point corresponding area DB n (Here, DB 1 ), A detection area having a length SL in the Y-axis direction (SL is, for example, 20 μm) and a length B in the X-axis direction (B is, for example, 10 μm) including the design positions of the upper side and the lower side are set. The window regions WD1 and WD2 are scanned (scanned) in the −Y direction (direction substantially perpendicular to the upper side and the lower side of the outer frame) as indicated by arrows A1 and A2, respectively. The window regions WD1 and WD2 have a length T in the scanning direction (T is, for example, 3 μm) and a length B in the non-scanning direction. The interval LL between the window regions WD1 and WD2 is determined by the evaluation point corresponding region DB. n It is set equal to the design distance between the upper side and the lower side.
[0144]
During the scanning of the window regions WD1 and WD2, the representative value of the pixel data in the window regions WD1 and WD2, for example, the added value of the variance (or standard deviation) of the pixel values in the window regions WD1 and WD2 is calculated. , At each predetermined sampling interval, for example, every time the position of the window area WD1 or WD2 in the scanning direction changes by one pixel, the calculation result is stored in the memory in association with the position of the window area WD1 or WD2 in the scanning direction. Remember. Then, after the end of the scan, the positions in the scanning direction (the positions in the Y-axis direction) of the window regions WD1 and WD2 in which the above-described calculation result is maximum are stored in the evaluation point corresponding region DB n (In this case, the evaluation point corresponding area DB 1 ) Is detected as the approximate position of the upper and lower sides. This is because, when the outer frame portion is completely included in the window regions WD1 and WD2, the variance and the standard deviation of the pixel values in each window region are the largest, and one of the window regions WD1 is in the outer frame. Since the scanning is performed from the outside to the inside and the other window area WD2 is scanned from the inside to the outside of the outer frame, the sum of the variances (or standard deviations) of the pixel values in the window areas WD1 and WD2 is maximum. This is because there is no doubt that the positions of the window regions WD1 and WD2 in the scanning direction are near the positions of the upper side and the lower side of the outer frame.
[0145]
However, it is not always necessary to scan two window regions at the same time, and the detection regions similar to those in FIG. 14A may be individually set, and the window regions WD1 and WD2 may be separately scanned. In this case, for each of the window regions WD1 and WD2, the position in the scanning direction (the position in the Y-axis direction) of the window regions WD1 and WD2 in which the variance (or standard deviation) of the pixel values in the region is maximum is evaluated. Point corresponding area DB n (In this case, the evaluation point corresponding area DB 1 ) May be detected as approximate positions of the upper side and the lower side. In this case, in this embodiment, as described above, the evaluation point corresponding area DB n Overexposed second area DD n Considering the existence of a region (that is, a region where no pattern remains), both of the window regions WD1 and WD2 are converted to the evaluation point corresponding region DB as shown in FIG. n (In this case, the evaluation point corresponding area DB 1 The scanning may be performed from inside to outside with respect to the outer frame of ()). In this way, the position where the peak of the variance (or standard deviation) of the pixel value is first detected during the scan can be detected as the approximate position of the upper side and the lower side of the outer frame. The reason is that immediately after the start of scanning, both the window areas WD1 and WD2 have the overexposed second area DD. n , The variance (or standard deviation) of the pixel values in the window region is almost zero, and then remains until the window region is overlaid with the outer frame. This is because the variance (or standard deviation) increases when the window region reaches the outer frame, and the variance (or standard deviation) peaks when the outer frame is completely included in the window region. By doing so, the time required for detecting the position of the outer frame can be reduced.
[0146]
Further, as shown in FIG. 16, a window region WD3, which is the same size as the window regions WD1 and WD2 and is rotated by 90 °, is scanned from left to right in FIG. 16 as indicated by an arrow A3. The evaluation point corresponding area DB 1 May be detected in the same manner as described above. In addition, upon detecting the approximate position of at least one of the upper side, the lower side, and the right side of the outer frame, the window area is scanned at a plurality of points on the side in the same manner as described above, and a plurality of points on the same side are detected. Of course, it is also possible to detect the approximate position.
[0147]
In any case, the size of the window regions WD1 and WD2 is determined by the variance (or standard deviation) of the pixel values in the window region during the scan, and the evaluation point corresponding region DB. 1 It is important to determine the difference based on a simulation or an experiment or the like so that the difference between the outer frame and the other place becomes a predetermined value or more. In the present embodiment, the above-described size is determined in this manner. In the present embodiment, the window regions WD1 to WD3 whose longitudinal directions are substantially parallel to the respective sides of the outer frame are set. However, these window regions WD1 to WD3 correspond to directions substantially orthogonal to the respective sides. It may be a rectangular area that is set in the longitudinal direction.
[0148]
FIGS. 17A to 18D show examples of the results of experiments performed by the inventor. FIG. 17A shows one evaluation point corresponding area DB k 4 shows four detection areas set to detect the four sides of the outer frame.
[0149]
FIG. 17B shows pixels obtained by scanning a set of window regions from the right to the left in FIG. 17A (from the + X side to the −X side) within the simultaneously set detection regions. The sum signal of the variance signals of the values is shown with the horizontal axis as the X position. Also, in FIG. 17C, similarly to the present embodiment, a set of window regions is set in a detection region set simultaneously from top to bottom (from + Y side to −Y side) in FIG. 17A. , The sum signal of the variance signals of the pixel values obtained when scanning is performed is shown with the horizontal axis as the Y position.
[0150]
In FIG. 18A, with the upper side of the outer frame as a detection target, the window area is set from bottom to top (from −Y side to + Y side) in FIG. The variance signal of the pixel value obtained at the time of scanning is shown with the horizontal axis as the Y position. Similarly, in FIG. 18B, the window area is set from the bottom to the top (from −Y side to + Y side) in FIG. The variance signal of the pixel value obtained when scanning is performed is shown with the horizontal axis as the Y position.
[0151]
Also, in FIG. 18C, the window area is set from the right side to the left side (from + X side to −X side) in FIG. The variance signal of the pixel value obtained at the time of scanning is shown with the horizontal axis as the X position. Similarly, FIG. 18 (D) shows the window region from left to right (from −X side to + X side) in FIG. 17 (A) with the left side of the outer frame as a detection target, The variance signal of the pixel value obtained when scanning is performed is shown with the horizontal axis as the X position.
[0152]
For example, in the case of FIG. 18A, since the scanning direction is set to the direction in which the window region moves from the inside to the outside of the outer frame, the position of the first peak of the dispersion signal is set to the outside. Since the position substantially matches the position of the frame, this position can be detected as the approximate position of the outer frame. On the other hand, in the case of FIG. 18B, since the scanning direction is set to the direction in which the window region moves from the outside to the inside of the outer frame, the position of the first peak of the dispersion signal is set. Does not match the approximate position of the outer frame, the position cannot be detected as the approximate position of the outer frame. As described above, from the actual experimental results, as described above, both of the window regions WD1 and WD2 are set in the evaluation point corresponding region DB. n It is supported that scanning from the inside to the outside with respect to the outer frame can detect the approximate position of the outer frame in a shorter time.
[0153]
The inventor of the present invention has formed an evaluation point corresponding area on various wafers having different combinations of a bark formed as a base on a wafer and a resist applied thereon, in the same procedure as described above, and then formed the window described above. An experiment was performed on the approximate position detection (rough detection) of the outer frame of the evaluation point corresponding area using the area scanning method. In almost all cases, it was confirmed that the approximate position of the outer frame of the evaluation point corresponding area could be detected without any problem. Was done.
[0154]
As described above, the evaluation point corresponding area DB n (In this case, the evaluation point corresponding area DB 1 When the approximate positions of the upper and lower sides are detected, the process returns to step 510 in FIG. In this step 510, as shown in FIG. 14B, a pixel row on a horizontal line LH1 in a horizontal direction (direction substantially parallel to the X-axis direction) slightly lower than the upper side obtained in step 508, and Boundary detection is performed using the pixel row on the horizontal straight line LH2 slightly above the lower side thus obtained, and the evaluation point corresponding area DB n A subroutine process for obtaining a total of four points, two points each on the left side and the right side, is performed. In FIG. 14B, waveform data PD1 corresponding to the pixel value of the pixel row data on the straight line LH1 and pixel value of the pixel row data on the straight line LH2 used for the boundary detection in step 510 are shown. Are respectively shown.
[0155]
In the subroutine 510, first, in step 701 of FIG. 12, based on the approximate position of the upper side obtained in step 508, a pixel row slightly lower than that position, for example, a straight line LH1 shown in FIG. After determining the linear pixel row along the pixel row as the first boundary detection pixel row, the process proceeds to a subroutine for performing the process of determining the threshold value t in step 702.
[0156]
In this subroutine 702, first, in step 802 of FIG. 13, the data of the linear pixel row (pixel row data) along the straight line LH1 determined in step 701 is extracted from the above-described imaging data file. Thus, for example, it is assumed that pixel row data having a pixel value corresponding to the waveform data PD1 in FIG. 14B is obtained.
[0157]
In the next step 804, the average value and standard deviation (or variance) of the pixel values (pixel data values) of the pixel row are obtained.
[0158]
In the next step 806, the swing width of the threshold (threshold level line) SL is set based on the obtained average value and standard deviation.
[0159]
In the next step 808, as shown in FIG. 19, the threshold value (threshold level line) SL is changed at a predetermined pitch with the swing width set above, and the waveform data PD1 and the threshold value (threshold level line) SL are changed for each change position. And the information of the processing result (the value of each threshold value and the number of intersections) is stored in a storage device (not shown).
[0160]
In the next step 810, the number of intersections obtained based on the information of the processing result stored in the step 808 is set to the target pattern (in this case, the evaluation point corresponding area DB n ), A threshold value (referred to as a provisional threshold value) t that matches the number of intersections 0 Ask for.
[0161]
In the next step 812, the provisional threshold value t 0 And a threshold range in which the number of intersections is the same.
[0162]
In the next step 814, after a predetermined value (for example, in the present embodiment, for example, the center) of the threshold range determined in step 812 is determined as the optimum threshold t, the process returns to step 704 in FIG.
[0163]
Here, the threshold value is discretely changed (at a predetermined step pitch) based on the average value and the standard deviation (or variance) of the pixel values of the pixel row for the purpose of speeding up. Is not limited to this, and may be, for example, continuously changed.
[0164]
In step 704 of FIG. 12, an intersection between the threshold value (threshold level line) t determined above and the above-described waveform data PD1 (that is, a point where the threshold value t crosses the waveform data PD1) is obtained. Note that this intersection is actually detected by scanning the pixel row from outside to inside as indicated by arrows A and A 'in FIG. Therefore, at least two intersections are detected.
[0165]
Returning to FIG. 12, in the next step 706, a pixel row is bidirectionally scanned from the obtained position of each intersection, and the maximum value and the minimum value of the pixel values near each intersection are obtained.
[0166]
In the next step 708, the average value of the obtained maximum value and minimum value is calculated, and this is set as a new threshold value t '. In this case, since there are at least two intersections, a new threshold value t 'is also obtained for each intersection.
[0167]
In the next step 710, the intersection between the threshold value t 'and the waveform data PD1 between the maximum value and the minimum value for each intersection point obtained in step 708 (that is, the point at which the threshold value t' crosses the waveform data PD1) Are obtained, and the positions of the obtained two points (pixels) are defined as boundary points. That is, the boundary point (in this case, the evaluation point corresponding area DB n After calculating the points on the left side and the right side, the process proceeds to step 712 to determine whether four boundary points have been detected. In this case, since only two boundary points have been detected, the determination here is denied, and the process proceeds to step 718, and based on the approximate position of the lower side obtained in step 508, a pixel slightly above the position is determined. After determining a column, for example, a linear pixel column along the straight line LH2 shown in FIG. 14 (B) as the second pixel line for boundary detection, the process returns to the subroutine of step 702. In this subroutine 702, first, in 802 of FIG. 13, the data of the linear pixel row (pixel row data) along the straight line LH2 determined in the step 718 is extracted from the above-described imaging data file. Thus, for example, it is assumed that pixel row data having a pixel value corresponding to the waveform data PD2 in FIG. 14B is obtained. After that, the processing of the above-described steps 804 to 814 is performed using the pixel column data having the pixel value corresponding to the waveform data PD2, and the optimum threshold value t is determined. Thereafter, the processing of steps 704 to 710 is performed in the same manner as described above, and the intersection of two points of the threshold value t 'and the waveform data PD1 (that is, the point at which the threshold value t' crosses the waveform data PD2) is obtained. The positions of the two points (pixels) are defined as boundary points.
[0168]
In the next step 712, it is determined again whether or not four boundary points have been detected. Here, since four boundary points have been detected, the determination here is affirmative, and the process returns to step 510 in FIG. . In FIG. 14B, the four boundary points Q obtained in step 510 are shown. 1 ~ Q 4 Are also shown.
[0169]
Returning to FIG. 10, in the next step 512, as shown in FIG. 14C, the two points Q 1 , Q 2 A pixel row on the vertical straight line LV1 slightly to the right and two points Q on the right side obtained 3 , Q 4 Using a pixel row on the vertical straight line LV2 slightly to the left, boundary detection is performed in the same manner as in step 508 described above, and the evaluation point corresponding area DB n The boundary points on the upper side and the lower side are each 2 points, that is, 4 points in total are obtained. In FIG. 14C, waveform data PD3 corresponding to the pixel value of the pixel row data on the straight line LV1 and pixel value of the pixel row data on the straight line LV2 used for the boundary detection in this step 512 are shown. Are shown, respectively. Also, in FIG. 14 (C), the boundary point Q obtained in step 512 5 ~ Q 8 Are also shown.
[0170]
By the way, the evaluation point corresponding area DB n (In this case DB 1 ), The boundary point on the low dose (low exposure amount) side, for example, the boundary point Q 5 , Q 7 When detecting the wafer W T Depending on the combination of the above bark and resist, the boundary point Q 5 , Q 7 May be detected at each of a plurality of candidate points. In such a case, in the present embodiment, the evaluation point corresponding area DB n (In this case DB 1 ), The approximate positions (pixel units) of the upper side and the lower side of the outer frame are detected by scanning the window regions WD1 and WD2, and the point closest to this value is selected from the candidate points. By selecting, the boundary point Q 5 , Q 7 Can be reliably detected. In this sense, in step 508, at least one of the left side and the right side of the outer frame, for example, the evaluation point corresponding area DB n (In this case DB 1 ), The approximate position (pixel unit) of the left side corresponding to the low dose side may be obtained by scanning the window area in the same manner as described above. In this case, the pattern remains in the resist image, and in some cases, a plurality of candidate points are expected to appear. 1 , Q 2 Can be reliably detected in the same manner as described above.
[0171]
Returning to FIG. 10, in the next step 514, as shown in FIG. 15A, the evaluation point corresponding area DB obtained in the above steps 510 and 512, respectively. n Two points (Q on the left, right, upper, and lower sides of 1 , Q 2 ), (Q 3 , Q 4 ), (Q 5 , Q 6 ), (Q 7 , Q 8 ), An intersection between straight lines determined by two points on each side is an evaluation point corresponding area DB which is a rectangular area (rectangular area). n 4 vertices p of the outer frame of 0 ', P 1 ', P 2 ', P 3 Ask for '. Here, regarding the method of calculating the vertex, the vertex p 0 'Will be described as an example with reference to FIG.
[0172]
As shown in FIG. 0 'Is the boundary position Q 2 To Q 1 Α (α> 0) of the vector K1 toward 5 To Q 6 Assuming that it is at a position β times (β <0) of the vector K2 heading toward, the following simultaneous equation (1) holds. (Here, the subscripts x and y represent the x and y coordinates of each point, respectively.)
[0173]
(Equation 1)
Figure 2004146702
[0174]
Solving the above simultaneous equation (1) gives the vertex p 0 'Position (p 0x ', P 0y ') Is required.
[0175]
Remaining vertex p 1 ', P 2 ', P 3 With regard to ', the same system of equations can be established and solved to find the respective positions.
[0176]
Returning to FIG. 10, in the next step 516, as shown in FIG. 0 '~ P 3 Based on the coordinate value of ', a rectangle approximation by the least squares method is performed, and the evaluation point corresponding area DB including the rotation n Is calculated.
[0177]
Here, the processing in step 516 will be described in detail with reference to FIG. That is, in this step 516, four vertices p 0 ~ P 3 Is approximated by the least squares method using the coordinate values of n The width w, the height h, and the rotation amount θ of the outer frame DBF are obtained. In FIG. 21, the y-axis is positive on the lower side of the paper.
[0178]
Center p c Coordinates of (p cx , P cy ), The four vertices of the rectangle (p 0 , P l , P 2 , P 3 ) Can be expressed as the following equations (2) to (5).
[0179]
(Equation 2)
Figure 2004146702
[0180]
Four vertices p obtained in the above step 514 0 ', P l ', P 2 ', P 3 'And vertices p corresponding to the above equations (2) to (5), respectively. 0 , P l , P 2 , P 3 Error E p And Error E p Can be expressed by the following equations (6) and (7).
[0181]
[Equation 3]
Figure 2004146702
[0182]
Equations (6) and (7) are converted to the unknown variable p cx , P cy , W, h, and θ, a simultaneous equation is established such that the result is 0, and a rectangular approximation result is obtained by solving the simultaneous equation.
[0183]
As a result, the evaluation point corresponding area DB n 15B is shown by a solid line in FIG. 15B.
[0184]
Returning to FIG. 10, in the next step 518, the evaluation point corresponding area DB n Is equally divided using the known number of partitioned areas in the vertical direction = (M + 2) = 15 and the number of known partitioned areas in the horizontal direction = (N + 2) = 25, and the respective partitioned areas DA i, j (I = 0 to 14, j = 0 to 24) are obtained. That is, each section area (position information) is obtained based on the outer frame DBF.
[0185]
FIG. 15C shows the first area DC obtained in this manner. n Areas DA that configure i, j (I = 1 to 13, j = 1 to 23) are shown.
[0186]
Returning to FIG. 10, in the next step 520, each partitioned area DA i, j For (i = 1 to M, j = 1 to N), a representative value (hereinafter, also appropriately referred to as “score”) regarding the pixel data is calculated.
[0187]
Below, score E i, j The calculation method of (i = 1 to M, j = 1 to N) will be described in detail.
[0188]
Usually, in a captured measurement target, there is a contrast difference between a pattern portion and a non-pattern portion. Only the pixels having the non-pattern area luminance exist in the area where the pattern has disappeared, while the pixels having the pattern area luminance and the pixels having the non-pattern area luminance coexist in the area where the pattern remains. Therefore, as a representative value (score) for determining the presence / absence of a pattern, a variation in pixel value within each partitioned area can be used.
[0189]
In the present embodiment, as an example, the variance (or standard deviation) of the pixel values in the specified range in the defined area is adopted as the score E.
[0190]
S is the total number of pixels within the specified range, and I is the luminance value of the kth pixel. k Then, the score E can be expressed by the following equation (8).
[0191]
(Equation 4)
Figure 2004146702
[0192]
In the case of the present embodiment, as described above, the reticle R T Above, the opening pattern AP n (N = 1 to 5), the measurement pattern MP is placed in a reduced area portion of about 60% of each opening pattern. n Are arranged respectively. Further, the step pitch SP at the time of the above-described exposure is different from that of each opening pattern AP. n Wafer W T It is set to about 5 μm, which substantially matches the size of the projected image upward. Therefore, in the pattern remaining section area, the measurement pattern MP n Is the partition area DA i, j And the center of the area DA i, j Exists in a range (region) reduced to approximately 60%.
[0193]
In consideration of such a point, for example, the specified area i, j (I = 1 to M, j = 1 to N), the center is the same, and a reduced area of the area can be used for score calculation. However, the reduction rate A (%) is limited as follows.
[0194]
First, as for the lower limit, if the range is too narrow, the area used for score calculation is only the pattern part, and if this is the case, the variation is reduced even in the remaining part of the pattern, making it unusable for pattern presence determination. In this case, it is necessary that A> 60%, as is apparent from the above-described pattern existence range. Although the upper limit is naturally 100% or less, the upper limit should be smaller than 100% in consideration of a detection error and the like. Thus, the reduction ratio A needs to be set to 60% <A <100%.
[0195]
In the case of the present embodiment, since the pattern portion occupies about 60% of the defined area, it is expected that the S / N ratio will increase as the ratio of the area (designated range) used for score calculation to the defined area increases.
[0196]
However, if the area size of the pattern part and the non-pattern part in the area used for score calculation become the same, the S / N ratio of the pattern presence / absence determination can be maximized. In the present embodiment, as a result of experimentally confirming some ratios, for example, the most stable result is obtained when A = 90%, the ratio A = 90% is adopted. Of course, A is not limited to 90%, and the measurement pattern MP n And opening pattern AP n Of the measurement pattern MP for the divided area in consideration of the relation between the pattern and the divided area on the wafer determined by the step pitch SP. n May be determined in consideration of the ratio occupied by the image. Further, the designated range used for calculating the score is not limited to an area having the same center as the divided area, and the measurement pattern MP n May be determined in consideration of where in the partitioned area the image is located.
[0197]
By the way, the wafer W T Depending on the combination of the above bark and resist, the score E represented by the above equation (8) may not always be appropriate as a score for performing pattern presence / absence determination in some of the divided regions. Therefore, focusing on the fact that only pixels having the non-pattern area luminance exist in the area where the pattern has disappeared, each section area expressed by the following equation (9) is obtained by partially changing the above equation (8). May be adopted as the score E ′.
[0198]
(Equation 5)
Figure 2004146702
[0199]
In the above equation (9), I * Is an average value of pixel values in an arbitrary partitioned area where the image of the measurement pattern is not expected to remain (disappear). Accordingly, the score E ′ represented by the above equation (9) is expressed as an average value of I * Can be said to be the variance of the pixel values corresponding to the pixel data in the specified range in each of the divided areas, obtained by using.
[0200]
Therefore, in step 520, the respective segment areas DA are read from the image data file. i, j The imaging data within the specified range is extracted, and each partitioned area DA is extracted using the above equation (8) or (9). i, j Score E of (i = 1 to M, j = 1 to N) i, j Or E ' i, j (I = 1 to M, j = 1 to N) are calculated.
[0201]
Since the score E or E ′ obtained by the above method expresses the presence or absence of a pattern as a numerical value, it is possible to automatically and stably determine the presence or absence of a pattern by binarizing it with a predetermined threshold. It is possible.
[0202]
Therefore, in the next step 522 (FIG. 11), the partition area DA i, j Score E obtained above for each i, j Or E ' i, j Is compared with a predetermined threshold value SH. i, j The presence or absence of an image of the measurement pattern MP in the above, and a determination value F as a detection result i, j (I = 1 to M, j = 1 to N) are stored in a storage device (not shown). That is, in this way, the score E i, j Or E ' i, j Based on the partition area DA i, j Measurement pattern MP for each n Is detected. Note that various image forming states are conceivable. In the present embodiment, as described above, based on the point that the score E or E ′ represents the presence or absence of a pattern as a numerical value, This is to pay attention to whether or not an image of the pattern is formed in the region.
[0203]
Here, the score E i, j Or E ' i, j Is greater than or equal to the threshold SH, the measurement pattern MP n Is determined to be formed, and a determination value F as a detection result is determined. i, j Is set to “0”. On the other hand, score E i, j Or E ' i, j Is less than the threshold value SH, the measurement pattern MP n Is not formed, and the determination value F as a detection result is determined. i, j Is “1”. FIG. 22 shows an example of this detection result as table data. FIG. 22 corresponds to FIG. 9 described above.
[0204]
In FIG. 22, for example, F 12,16 Is the wafer W T Is in the Z-axis direction 12 And the exposure energy amount is P 16 Measurement pattern MP transferred at the time of n 22 indicates the detection result of the image formation state. For example, in the case of FIG. 12,16 Has a value of “1”, and the measurement pattern MP n Is determined not to have been formed.
[0205]
The threshold value SH is a preset value and can be changed by an operator using an input / output device (not shown).
[0206]
In the next step 524, based on the above-described detection results, the number of divided areas where a pattern image is formed for each focus position is determined. That is, the number of partitioned areas having the determination value “0” is counted for each focus position, and the counting result is used as the pattern remaining number T i (I = 1 to M). At this time, a so-called jump area having a different value from the surrounding area is ignored. For example, in the case of FIG. T Focus position of Z 1 Then the number of remaining patterns T 1 = 8, Z 2 Then T 2 = 11, Z 3 Then T 3 = 14, Z 4 Then T 4 = 16, Z 5 Then T 5 = 16, Z 6 Then T 6 = 13, Z 7 Then T 7 = 11, Z 8 Then T 8 = 8, Z 9 Then T 9 = 5, Z 10 Then T 10 = 3, Z 11 Then T 11 = 2, Z 12 Then T 12 = 2, Z Thirteen Then T Thirteen = 2. Thus, the focus position and the number of remaining patterns T i You can ask for the relationship.
[0207]
The jump area may be caused by erroneous recognition at the time of measurement, laser misfire, dust, noise, and the like. i Filter processing may be performed to reduce the influence on the detection result. As this filter processing, for example, data of a 3 × 3 section area centered on the section area to be evaluated (judgment value F i, j ) May be calculated (simple average or weighted average). Note that the filter processing is performed on the data (score E) before the formation state detection processing. i, j Or E ' i, j ) May be performed, and in this case, the effect of the jump area can be more effectively reduced.
[0208]
In the next step 526, an nth-order approximate curve (for example, a 4th to 6th-order curve) for calculating the best focus position from the number of remaining patterns is obtained.
[0209]
Specifically, the horizontal axis indicates the focus position, and the vertical axis indicates the pattern remaining number T, where the number of remaining patterns detected in step 524 is set as the focus position. i Is plotted on a coordinate system. In this case, the result is as shown in FIG. Here, in the case of the present embodiment, the wafer W T In the exposure of i, j Are the same size, the difference between the exposure energies between the adjacent divided areas in the row direction is a constant value (= ΔP), and the difference between the focus positions between the adjacent divided areas in the column direction is a constant value (= ΔZ). , The remaining pattern number T i Can be treated as being proportional to the amount of exposure energy. That is, in FIG. 23, the vertical axis can be considered to be the exposure energy amount P.
[0210]
After the above plotting, an nth-order approximate curve (least squares approximate curve) is obtained by curve fitting each plot point. Thereby, for example, a curve P = f (Z) shown by a dotted line in FIG. 23 is obtained.
[0211]
Returning to FIG. 11, in the next step 528, calculation of an extreme value (maximum value or minimum value) of the curve P = f (Z) is attempted, and it is determined whether or not an extreme value exists based on the result. I do. If the extreme value can be calculated, the process proceeds to step 530 to calculate the focus position at the extreme value, and to use the result of calculation as the best focus position, which is one of the optical characteristics. Is stored in a storage device (not shown).
[0212]
On the other hand, if the extreme value has not been calculated in step 528, the process proceeds to step 532, where the change amount of the curve P = f (Z) corresponding to the change in the position of the wafer W (change in Z) is the smallest. The range of the small focus position is calculated, the middle position of the range is calculated as the best focus position, the calculation result is set as the best focus position, and the best focus position is stored in a storage device (not shown). That is, the focus position is calculated based on the flattest part of the curve P = f (Z).
[0213]
Here, the calculation step of the best focus position such as step 532 is provided because the measurement pattern MP n In some cases, the above-mentioned curve P = f (Z) does not have a clear peak depending on the type of the resist, the type of the resist, and other exposure conditions. Even in such a case, the best focus position can be calculated with a certain degree of accuracy.
[0214]
In the next step 534, referring to the aforementioned counter n, all the evaluation point corresponding areas DB 1 ~ DB 5 It is determined whether or not the processing has been completed for. Here, the evaluation point corresponding area DB 1 Since the processing of step 534 has only been completed, the determination in step 534 is denied, the processing proceeds to step 536, and the counter n is incremented (n ← n + 1). Thereafter, the processing returns to step 502 in FIG. 2 At a position where the wafer W can be detected by the alignment detection system AS. T Position.
[0215]
Then, the processing (including determination) of steps 504 to 534 described above is performed again, and the above-described evaluation point corresponding area DB 1 In the same manner as in the case of 2 For the best focus position.
[0216]
And evaluation point corresponding area DB 2 When the calculation of the best focus position is completed for all the evaluation point corresponding areas DB in step 534 1 ~ DB 5 It is determined again whether or not the processing has been completed, but this determination is denied. Thereafter, the processing (including the determination) of steps 502 to 536 is repeated until the determination in step 534 is affirmed. Thereby, another evaluation point corresponding area DB 3 ~ DB 5 The evaluation point corresponding area DB described above 1 In the same manner as in the above case, the best focus position is obtained.
[0217]
Thus, the wafer W T All evaluation point corresponding area DB above 1 ~ DB 5 Calculation of the best focus position, that is, five measurement patterns MP in the exposure area conjugate with the illumination area IAR ′ with respect to the projection optical system PL. 1 ~ MP 5 After the calculation of the best focus position at each of the evaluation points described above, which is the projection position, the determination in step 534 is affirmed, and the flow shifts to step 538 to execute other calculations based on the best focus position data obtained above. Is calculated.
[0218]
For example, in this step 538, as an example, the evaluation point corresponding area DB 1 ~ DB 5 The field curvature of the projection optical system PL is calculated based on the data of the best focus position in. Further, the depth of focus or the like at each evaluation point in the above-described exposed area may be obtained.
[0219]
Here, in the present embodiment, for simplicity of description, the reticle R corresponding to each evaluation point in the field of view of the projection optical system PL. T The above pattern MP is used as a measurement pattern in the upper area. n The description has been made on the assumption that only the first electrode is formed. However, it goes without saying that the present invention is not limited to this. For example, reticle R T Above, for example, the reticle R corresponding to each evaluation point T In the vicinity of the upper region, a plurality of opening patterns AP are provided at intervals of an integral multiple of the step pitch SP, for example, 8 times, 12 times, or the like. n And arrange each opening pattern AP n , A plurality of types of measurement patterns such as L / S patterns having different periodic directions or L / S patterns having different pitches may be arranged. In this way, for example, a set of L / S patterns arranged in close proximity to the position corresponding to each evaluation point and having a periodic direction orthogonal to each other is obtained from the best focus position obtained as a measurement pattern and the non- Point aberration can be determined. Further, for each evaluation point in the field of view of the projection optical system PL, an astigmatism in-plane uniformity is obtained by performing an approximation process by the least square method based on the astigmatism calculated as described above, It is also possible to obtain the total focus difference from the astigmatism in-plane uniformity and the field curvature.
[0220]
The optical characteristic data of the projection optical system PL obtained as described above is stored in a storage device (not shown) and displayed on a screen of a display device (not shown). As a result, the process of step 538 in FIG. 11, that is, the process of step 456 in FIG. 5, ends, and a series of optical characteristic measurement processes ends.
[0221]
Next, an exposure operation by the exposure apparatus 100 of the present embodiment in the case of device manufacturing will be described.
[0222]
It is assumed that the information on the best focus position determined as described above or the information on the curvature of field in addition to the information is input to the main controller 28 via an input / output device (not shown). .
[0223]
For example, when information on the curvature of field is input, the main controller 28 instructs an imaging characteristic correction controller (not shown) based on the optical characteristic data before the exposure, for example, before the exposure. By changing the position (including the distance from another optical element) or the inclination of at least one optical element (lens element in the present embodiment) of the PL, the projection optics is corrected so that its field curvature is corrected. The imaging characteristics of the system PL are corrected within a possible range. The optical elements used for adjusting the imaging characteristics of the projection optical system PL are not only refractive optical elements such as lens elements, but also reflective optical elements such as concave mirrors, or aberrations (distortion, spherical aberration, etc.) of the projection optical system PL. ), Especially an aberration correction plate for correcting the non-rotationally symmetric component may be used. Further, the method of correcting the image forming characteristics of the projection optical system PL is not limited to the movement of the optical element. For example, the method of controlling the light source 1 to slightly shift the center wavelength of the illumination light IL, or the method of correcting the projection optical system PL The method of changing the refractive index in a part of the method may be used alone or in combination with the movement of the optical element.
[0224]
Then, in response to an instruction from main controller 28, reticle R on which a predetermined circuit pattern (device pattern) to be transferred is formed by reticle loader (not shown) is loaded onto reticle stage RST. Similarly, the wafer W is loaded on the wafer table 18 by a wafer loader (not shown).
[0225]
Next, the main controller 28 uses a reticle alignment detection system (not shown), a reference mark plate FP on the wafer table 18, an alignment detection system AS, and the like to perform a preparation operation such as reticle alignment and baseline measurement in a predetermined procedure. Subsequently, wafer alignment such as an EGA (Enhanced Global Alignment) method is performed. The above-mentioned preparation work such as reticle alignment and baseline measurement is disclosed in detail, for example, in JP-A-7-176468 (corresponding US Pat. No. 5,646,413). Is disclosed in detail in JP-A-61-44429 (corresponding to U.S. Pat. No. 4,780,617), and will not be described in further detail here.
[0226]
When the above wafer alignment is completed, the exposure operation of the step-and-scan method is performed as follows.
[0227]
First, main controller 28 starts relative scanning of reticle R and wafer W, ie, reticle stage RST and XY stage 20, in the Y-axis direction. When the two stages RST and 20 reach their respective target scanning speeds and reach a constant speed synchronization state, the pattern area of the reticle R starts to be illuminated by the ultraviolet pulse light from the illumination system IOP, and scanning exposure is started. The relative scanning is performed by the main controller 28 controlling the reticle stage driving unit (not shown) and the driving system 22 while monitoring the measured values of the laser interferometer 26 and the laser interferometer 14 described above. .
[0228]
Main controller 28 determines that the moving speed Vr of reticle stage RST in the Y-axis direction and the moving speed Vw of XY stage 20 in the Y-axis direction particularly at the time of the scanning exposure described above are the projection magnification (倍率) of projection optical system PL. (Or 1/5 times). The main controller 28 also determines the depth of focus of the image plane of the projection optical system PL after the above-described optical characteristic correction based on the position information in the Z-axis direction of the wafer W detected by the focus sensor AFS during the scanning exposure. The wafer table 18 is driven via the drive system 22 in the Z-axis direction and the tilt direction so that the exposure area on the surface of the wafer W (shot area) falls within the range, and focus / leveling control of the wafer W is performed. Note that, in the present embodiment, prior to the exposure operation of the wafer W, the image plane of the projection optical system PL is calculated based on the above-described best focus position at each evaluation point, and this image plane is used as a detection reference of the focus sensor AFS. Optical calibration of the focus sensor AFS (for example, adjustment of the inclination angle of a plane-parallel plate disposed in the light receiving system 50b) is performed so as to be as follows. Of course, it is not always necessary to perform optical calibration, and for example, taking into account an offset corresponding to a deviation between the previously calculated image plane and the detection reference of the focus sensor AFS, the wafer W is output based on the output of the focus sensor AFS. A focus operation (and a leveling operation) for matching the surface to the image plane may be performed.
[0229]
Then, the different areas of the pattern area of the reticle R are sequentially illuminated with the ultraviolet pulse light, and the illumination of the entire pattern area is completed, thereby completing the scanning exposure of the first shot area on the wafer W. Thus, the pattern of the reticle R is reduced and transferred to the first shot area via the projection optical system PL.
[0230]
As described above, when the scanning exposure of the first shot area is completed, the XY stage 20 is step-moved in the X and Y axes directions by the main controller 28 via the drive system 22 so that the exposure of the second shot area is performed. Is moved to the scanning start position (acceleration start position).
[0231]
Then, the operation of each section is controlled by the main controller 28 in the same manner as described above, and the same scanning exposure as described above is performed on the second shot area on the wafer W.
[0232]
In this manner, the scanning exposure of the shot area on the wafer W and the stepping operation between shots are repeatedly performed, and the pattern of the reticle R is sequentially transferred to all the exposure target shots on the wafer W.
[0233]
When the pattern transfer to all the shots to be exposed on the wafer W is completed, the wafer is replaced with the next wafer, and the alignment and exposure operations are repeated in the same manner as described above.
[0234]
As described above in detail, according to the optical characteristic measuring method of the projection optical system PL in the exposure apparatus according to the present embodiment, the rectangular frame-shaped opening pattern AP n And the opening pattern AP n For measurement MP located inside n Reticle R formed with T Is mounted on a reticle stage RST arranged on the object plane side of the projection optical system, and a wafer W arranged on the image plane side of the projection optical system PL T (Z) of the projection optical system PL in the optical axis direction and the wafer W T The wafer W is changed while changing the energy amount P of the illumination light IL irradiated thereon. T The opening pattern AP n , That is, the opening pattern AP n Wafer W T The measurement pattern MP is sequentially moved in the XY plane at a step pitch equal to or smaller than the size of the projected image upward. n The wafer W T Transfer sequentially on top. Thereby, the wafer W T On the top, a plurality of divided areas DA arranged in a matrix i, j (I = 0 to M + 1, j = 0 to N + 1) as a whole rectangular evaluation point corresponding area DB n Is formed. In this case, the wafer W T On the upper side, a plurality of divided regions (regions on which the images of the measurement patterns are projected) are formed in a plurality of matrix arrangements in which no border lines exist as in the related art at boundaries between the divided regions.
[0235]
Then, the wafer W T After the development of the wafer W, the main controller 28 uses the alignment detection system AS including an FIA-based alignment sensor to T Upper evaluation point corresponding area DB n Is imaged. Next, the main controller 28 determines the evaluation point corresponding area DB based on the captured image data of the resist image. n At least one side, for example, an upper side and a lower side, which constitute a rectangular outer frame DBF having the outline of, is to be detected, and the window regions WD1 and WD2 of a predetermined size are scanned in a scanning direction substantially orthogonal to the respective sides to be detected. During the scanning, the representative value of the pixel data inside each of the window regions WD1 and WD2, that is, the position where the variance (or the standard deviation) of the pixel value is the maximum is determined by the upper side and the lower side which are the sides to be detected. Detect as position. That is, in the present embodiment, a part of the outer frame DBF is roughly detected in this manner.
[0236]
Here, the detection area can be easily set based on the design value of the side to be detected so that the side is always included. Also, since the pixel value (pixel value) of the outer frame DBF is clearly different from the other portions, the detection target edge is determined based on the magnitude of the variance (or standard deviation) of the pixel values in the window regions WD1 and WD2. The position of (part of the outer frame) is reliably detected.
[0237]
Next, based on the image data, the main control device 28 uses the detection results of the sides to be detected, that is, the positions of the upper side and the lower side (rough detection results), to obtain pixel row data slightly lower than the upper side. The left and right sides are detected by detecting two boundary points on the left and right sides, respectively, using the waveform data PD1 corresponding to the pixel values of the above and the waveform data PD2 corresponding to the pixel values of the pixel row data slightly above the lower side. Is detected. Next, the main controller 28 uses the detected waveform data PD3 corresponding to the pixel value of the slightly right pixel row data on the left side and the waveform data PD4 corresponding to the pixel value of the slightly left pixel row data on the right side. , The upper side and the lower side (detailed position) are detected by detecting two boundary points on the upper side and the lower side.
[0238]
Next, main controller 28 sets evaluation point corresponding area DB based on the detected outer frame portion (upper side, lower side, left side, right side) as a reference. n Area DD among the plurality of divided areas constituting n 1st area DC excluding n Is calculated for each of the M × N divided areas. This calculation is performed based on information on the number and arrangement of the divided areas in the outer frame.
[0239]
Next, based on the imaging data, the first area DC n The image formation state in the M × N divided areas constituting the image is determined by an image processing method, that is, the above-described divided areas DA i, j Score (E i, j Or E ' i, j ) Is compared with the threshold value SH by a binarization method.
[0240]
In any case, as described above, the position of at least one side of the outer frame is roughly detected, and the detailed position of the outer frame DBF is detected by using the detection result. Position can be reliably and accurately detected, and the positions of at least some of the plurality of divided regions are calculated based on the design values based on the detected outer frame portion. An accurate position can be obtained.
[0241]
Further, in the case of the present embodiment, since there is no frame line between the adjacent divided areas, the plurality of divided areas (mainly the area where the image of the measurement pattern remains) for which the image forming state is to be detected are measured. The contrast of the pattern image does not decrease due to the interference of the frame lines. For this reason, it is possible to obtain, as the imaging data of the plurality of divided areas, data having a good S / N ratio between the pattern portion and the non-pattern portion. Therefore, the measurement pattern MP for each partitioned area n Can be detected with high accuracy and reproducibility. In addition, an objective and quantitative score (E i, j Or E ' i, j ) Is compared with the threshold value SH and converted into the presence / absence information of the pattern (binary information) and detected. n Can be detected with good reproducibility, and the presence or absence of a pattern can be automatically and stably determined. Therefore, in the present embodiment, when binarizing, only one threshold is sufficient, and compared to a case where a plurality of thresholds are set and the presence or absence of a pattern is determined for each threshold, the image forming state Can be shortened and the detection algorithm can be simplified.
[0242]
In addition, the main control device 28 detects the above-described detection result of the image formation state for each of the divided areas, that is, the objective and quantitative score (E i, j Or E ' i, j ), That is, the optical characteristics of the projection optical system PL such as the best focus position are obtained based on the detection result using the index value of the contrast of the image. For this reason, the best focus position and the like can be accurately obtained in a short time. Therefore, it is possible to improve the measurement accuracy of the optical characteristic determined based on the best focus position and the reproducibility of the measurement result, and as a result, it is possible to improve the throughput of the optical characteristic measurement.
[0243]
Further, in the present embodiment, as described above, since the image formation state is converted into the presence / absence information of the pattern (binary information) and detected, the reticle R T Measurement pattern MP in the pattern area PA n There is no need to arrange other patterns (for example, a reference pattern for comparison, a mark pattern for positioning, etc.). In addition, the measurement pattern can be made smaller as compared with conventional methods for measuring dimensions (CD / focus method, SMP focus measurement method, etc.). Therefore, the number of evaluation points can be increased, and the interval between the evaluation points can be narrowed. As a result, the measurement accuracy of the optical characteristics and the reproducibility of the measurement result can be improved.
[0244]
In the present embodiment, the wafer W T In view of the fact that no frame line exists between adjacent partitioned areas formed above, each evaluation point corresponding area DB n Area DA with respect to outer frame DBF which is the outer peripheral edge of i, j The method of calculating the position of is adopted. And each evaluation point corresponding area DB n Area DD consisting of a plurality of partitioned areas located at the outermost periphery n Wafer W as a part of the exposure conditions so that each of the divided regions constituting T The amount of energy of the illumination light IL irradiated upward is changed. As a result, the S / N ratio at the time of detecting the outer frame DBF is improved, and the outer frame DBF can be detected with high precision. As a result, each first region DC n Areas DA that configure i, j The position of (i = 1 to M, j = 1 to N) can be accurately detected.
[0245]
In addition, according to the optical characteristic measurement method according to the present embodiment, since the best focus position is calculated based on an objective and reliable method of calculating an approximate curve by statistical processing, stable high accuracy and reliability are ensured. Optical characteristics can be measured. Note that, depending on the order of the approximate curve, it is possible to calculate the best focus position based on the inflection point or a plurality of intersections between the approximate curve and a predetermined slice level.
[0246]
Further, according to the exposure apparatus of the present embodiment, the projection optical system PL is subjected to the exposure before the exposure so that the optimal transfer can be performed in consideration of the optical characteristics of the projection optical system PL accurately measured by the above-described optical characteristic measurement method. The adjusted pattern formed on the reticle R is transferred onto the wafer W via the adjusted projection optical system PL. Furthermore, since the focus control target value at the time of exposure is set in consideration of the best focus position determined as described above, it is possible to effectively suppress the occurrence of color unevenness due to defocus. Therefore, according to the exposure method according to the present embodiment, a fine pattern can be transferred onto a wafer with high accuracy.
[0247]
In the above embodiment, as a part of the method of measuring the optical characteristics of the projection optical system PL, a rectangular frame-shaped opening pattern AP is used. n And the opening pattern AP n For measurement MP located inside n Reticle R formed with T Is mounted on a reticle stage RST arranged on the object plane side of the projection optical system, and a wafer W arranged on the image plane side of the projection optical system PL T (Z) of the projection optical system PL in the optical axis direction and the wafer W T The wafer W is changed while changing the energy amount P of the illumination light IL irradiated thereon. T Is moved at a predetermined step pitch, and the measurement pattern MP is moved. n The wafer W T Although a transfer step of sequentially transferring the above is included, the present invention is not limited to this. That is, such as a wafer in which a predetermined rectangular area as a whole including a plurality of divided areas in a matrix arrangement composed of transfer areas of the measurement pattern transferred via the projection optical system PL under different exposure conditions is formed in advance. By preparing an object in advance and performing each processing after the imaging processing by the alignment detection system AS on the wafer in the same manner as in the above-described embodiment, a plurality of divided areas in a matrix arrangement can be exposed under different exposure conditions. As long as it is the transfer area of the measurement pattern transferred via the projection optical system PL, in other words, as long as the image formed in the partitioned area includes the image affected by the optical characteristics of the projection optical system PL, The optical characteristics of the projection optical system can be measured as in the above embodiment.
[0248]
Therefore, the method of forming the second region, that is, the rectangular frame-shaped region or a part of the region is performed by transferring the measurement pattern described in the above embodiment onto the wafer in an over-exposed state. A method other than the repeat type exposure method may be employed. For example, a rectangular frame-shaped opening pattern (second region DD) is formed on reticle stage RST of exposure apparatus 100, for example. n Or a reticle on which a pattern of the reticle is formed, and the reticle pattern is formed on a wafer arranged on the image plane side of the projection optical system PL by one scanning exposure. To form a second overexposed area on the wafer. In addition, the opening pattern AP n A reticle having an opening pattern similar to that described above is mounted on a reticle stage RST, and the opening pattern is transferred onto a wafer by a step-and-repeat method or a step-and-scan method with an exposure energy amount of overexposure. By doing so, the second region of overexposure may be formed on the wafer. In addition, for example, by performing exposure by the step-and-stitch method using the above-described opening pattern and forming a plurality of images of the opening pattern adjacent to or joined to each other on the wafer, the second region of overexposure is formed. It may be formed on a wafer. In addition, while the reticle stage RST is stationary, the wafer W (wafer table 18) is moved in a predetermined direction while illuminating an opening pattern formed on the reticle mounted on the reticle stage RST with illumination light. A second region for exposure may be formed. In any case, as in the above embodiment, the presence of the overexposed second region makes it possible to accurately detect the outer edge of the second region based on a detection signal having a good S / N ratio. .
[0249]
In these cases, a plurality of partitioned areas DA arranged in a matrix i, j As a whole, a first rectangular region DC n The wafer W T Forming an over-exposed second region (for example, DD) on at least a part of the wafer around the first region. n ) May be opposite to the case of the above embodiment. In particular, when the exposure for forming the first partitioned area for which the image formation state is to be detected is performed later, for example, when a highly sensitive resist such as a chemically amplified resist is used as a photosensitive agent In particular, the time from the formation (transfer) of the image of the measurement pattern to the development can be shortened, which is particularly preferable.
[0250]
In the above embodiment, the evaluation point corresponding area DB n When the approximate position of the outer frame DBF is detected, as a representative value of the pixel data in the window regions WD1 and WD2, for example, the variance (or standard deviation) of the pixel values corresponding to the pixel data in the window regions WD1 and WD2, or In the case where the two window regions WD1 and WD2 are simultaneously scanned, the case of using the added value of them has been described. However, the present invention is not limited to this, and the representative value of the pixel data is the variance or standard deviation of the pixel values corresponding to the pixel data in a part of the area including the center in the window area, or the two window areas WD1 and WD2. In the case of scanning at the same time, the sum of them may be used. Alternatively, in each of the above cases, instead of the variance or the standard deviation of the pixel values, the sum of the pixel values or the differential sum may be used. When the addition value or the differential sum is used, the position where the addition value or the differential sum is maximum or minimum is detected as the approximate position of the outer frame in accordance with the definition method of the pixel value. In any case, the approximate position of the outer frame may be detected based on the pixel data in the window area.
[0251]
In the above embodiment, the measurement pattern MP n The formation state of the image of i, j Or E ' i, j ) Is compared with the threshold value SH to convert to pattern presence / absence information (binary information) for detection, but the present invention is not limited to this. In the above embodiment, the evaluation point corresponding area DB n Is accurately detected, and each of the divided areas DA is determined based on the outer frame DBF. i, j Is calculated by calculation, the position of each partitioned area can be accurately obtained. Therefore, the template matching may be performed on each of the precisely determined divided areas. By doing so, template matching can be performed in a short time. In this case, as the template pattern, for example, imaging data of a partitioned area where an image is formed or a partitioned area where no image is formed can be used. Even in this case, objective and quantitative information of the correlation value is obtained for each sectioned area. By comparing the obtained information with a predetermined threshold value, the measurement pattern MP n Is converted to binary information (image presence / absence information), the image formation state can be detected with high accuracy and reproducibility as in the above embodiment.
[0252]
In the above embodiment, the evaluation point corresponding area DB n Has been described in the case where the second region constituting is exactly a rectangular frame, but the present invention is not limited to this. In other words, the second region only needs to be such that its outer edge can be used as a reference for calculating the position of at least each of the divided regions constituting the first region. Therefore, for example, a U-shaped (U-shaped) portion of a part of the rectangular frame-shaped divided region Or an L-shaped portion. In this case, the evaluation point corresponding area including the first area and the second area outside the first area is a rectangular area as a whole.
[0253]
Further, the second region of overexposure is not necessarily required. Even in such a case, the outline of the first area is a rectangular outer frame, and a part of the outermost peripheral area in the first area (hereinafter referred to as “outer edge area”) includes: Since there is an area where no pattern image is formed, it is possible to detect a part of the outer frame, that is, the boundary between the first area and the area outside the area, with a good S / N ratio by the same method as in the above embodiment. Then, the position of another partitioned area (each of the partitioned areas constituting the first area) can be calculated based on the design value based on the boundary line, and an almost accurate position of the other partitioned area can be obtained. It is. Similarly, the second region of overexposure is not limited to a rectangular frame or a part thereof as in the above embodiment. For example, as for the shape of the second region, only the boundary (inner edge) with the first region may have a rectangular frame shape, and the outer edge may have an arbitrary shape. Even in such a case, since the overexposed second region (region where the pattern image is not formed) exists outside the first region, the adjacent outer region is detected when the image forming state of the outer edge section region is detected. The contrast of the image in the outer edge region is prevented from being reduced due to the presence of the pattern image in the region. Therefore, it is possible to detect the boundary between the outer edge sectioned area and the second area with a good S / N ratio, and to set another sectioned area (each area constituting the first area) based on the boundary line based on a design value. Area) can be calculated, and an almost accurate position of another sectioned area can be obtained.
[0254]
Therefore, also in these cases, since the positions of the plurality of divided regions in the first region can be almost accurately known, for example, for each of the divided regions, the same score (contrast of image as in the above embodiment) is obtained. And the template matching method is used to detect the image formation state, so that the pattern image formation state can be detected in a short time as in the above embodiment. .
[0255]
Then, by obtaining the optical characteristics of the projection optical system based on the detection result, it is possible to obtain the optical characteristics based on an objective and quantitative detection result using the image contrast or correlation value. Therefore, the same effect as in the above embodiment can be obtained.
[0256]
In the above-described embodiment, the FIA-based alignment sensor is used for detecting the outer frame DBF as a reference for detecting each of the divided areas and for detecting the image formation state of each of the divided areas. However, the present invention is not limited to this. That is, at least one of the detection of the boundary between the outer frame DBF or the outer edge section area and the second area and the detection of the image formation state of each section area is performed by another method such as SEM (scanning electron microscope). An imaging device (image measuring device) may be used. Even in such a case, it is possible to accurately determine the position of each partitioned area in the first area based on the outer frame or inner edge of the second area.
[0257]
Further, similarly to the above embodiment, when each evaluation point corresponding area is formed by the first area and the surrounding second area, the above-described step pitch SP is changed to the above-described opening pattern AP. n May not necessarily be set to be equal to or smaller than the projection area size. The reason is that, with the method described above, the position of each of the divided regions constituting the first region can be almost accurately determined based on a part of the second region. For example, by using the position information, for example, This is because template matching and contrast detection including the case of the above embodiment can be performed with a certain degree of accuracy and in a short time.
[0258]
On the other hand, the aforementioned step pitch SP is changed to the aforementioned opening pattern AP. n When the size is set to be equal to or smaller than the projection area size, the second area need not always be formed outside the first area. Even in such a case, it is possible to detect the outer frame of the first area in the same manner as in the above-described embodiment, and accurately determine the position of each of the divided areas in the first area based on the detected outer frame. Because it is possible to ask. Then, when the image formation state is detected by using, for example, template matching or detection using a score (contrast detection) as in the above-described embodiment using the information on the position of each of the divided areas obtained in this manner, It is possible to accurately detect an image forming state using image data having a good S / N ratio without a decrease in contrast between a pattern portion and a non-pattern portion caused by interference of a frame.
[0259]
However, in this case, erroneous detection of the boundary is likely to occur on the side of the outermost peripheral region in the first region where the region where the pattern remains remains. For this reason, it is desirable to cope with the problem by limiting the detection range of the boundary where the erroneous detection is likely to occur using the detection information of the boundary where the erroneous detection is unlikely to occur. According to the above embodiment, based on the information on the boundary detected on the right side where the erroneous detection is unlikely to occur, the detection range of the boundary position on the left side where the erroneous detection is liable is limited. I do. Further, in the boundary detection on the upper and lower sides of the first area, the detection range of the left boundary position may be limited using the right detection information that is unlikely to cause erroneous detection (see FIG. 9).
[0260]
In this case, for example, data obtained by clearing, for example, data of lower-order bits other than the most significant 2 bits of the 8-bit image data to 0 (or data in which all bits are set to “1”) is used as the pixel data. The outer frame may be detected by a method similar to the embodiment. For example, considering the case where the upper side and the right side of the outer frame are the sides to be detected, for example, the first area DC in FIG. 1 As can be seen from the figure, the inside of the outer frame near the side of the detection target is an exposed area where the pattern image does not remain, while the resist remains as it is outside the outer frame near the side of the detection target. This is a remaining unexposed area. Therefore, the pixel value of each partitioned area in the outer frame is equal to or less than a certain value close to zero, and the pixel value of the area outside the outer frame is equal to or more than a certain value. Therefore, the data in which the lower bits of the imaging data of these two areas other than the most significant two bits are cleared to 0 is the pixel value of the pixel of each partitioned area in the outer frame is zero, and in the outer area, the pixel value of all the pixels is zero. Pixel value is 2 7 +2 6 = 192. For this reason, the pixel value greatly differs between the outside and the inside with the outer frame as a boundary, so that the approximate position detection of the detection target side constituting the outer frame can be performed more reliably by scanning the window area or other methods similar to the above. It is possible to do.
[0261]
Similarly, also in the above-described embodiment, data obtained by clearing, for example, lower-bit data other than the most significant 2 bits of the 8-bit imaging data to 0 is used as the pixel data, and the outer frame is formed in the same manner as described above. May be detected. In this case, as is apparent from FIG. 9, the over-exposed second region DD is provided around the entire periphery of the outer frame DBF. 1 Therefore, when any side of the outer frame is set as the detection target side, the pixel value of the pixel in each partitioned area in the outer frame is zero, and the pixel value of all the pixels in the outer area is 192. Become. Therefore, the approximate position can be reliably detected regardless of which side of the outer frame is the detection target side.
[0262]
Further, in the above embodiment, all the N × M divided areas constituting the first rectangular area are exposed, but at least one of the N × M divided areas, that is, the curve P = f It is not necessary to perform the exposure for a section area where an exposure condition that does not clearly contribute to the determination of (Z) is set (for example, a section area located at the upper right corner and the lower right corner in FIG. 9). That is, the measurement pattern MP n The plurality of divided areas (shot areas) to which the image is to be transferred need not be rectangular (matrix) as a whole. At this time, the second region formed outside the first region is not rectangular in shape but has irregularities in a part thereof. In other words, the second region surrounds only the exposed divided region among the N × M divided regions. Alternatively, the second region may be formed only in a part of the periphery.
[0263]
In the above embodiment, the wafer W T Of the wafer W by setting the step pitch SP of T The case has been described in which the frame is prevented from remaining between the divided areas constituting the evaluation point corresponding area formed above to prevent the pattern portion from lowering in contrast due to the interference of the frame. However, a decrease in the contrast of the pattern portion due to the presence of the frame can be prevented as follows.
[0264]
That is, the aforementioned measurement pattern MP n Prepare a reticle on which a measurement pattern including a multibar pattern is formed in the same manner as above, mount the reticle on a reticle stage RST, and transfer the measurement pattern onto a wafer by a step-and-repeat method or the like. Thus, the multi-bar pattern formed of a plurality of adjacent divided areas and transferred to each divided area and the adjacent pattern are separated by a distance L at which the contrast of the image of the multi-bar pattern is not affected by the adjacent pattern. The predetermined areas separated from each other may be formed on the wafer.
[0265]
In this case, the multi-bar pattern transferred to each partitioned area and the adjacent pattern are separated from each other by a distance L that does not affect the contrast of the image of the multi-bar pattern by the adjacent pattern. When detecting the image formation state in at least some of the plurality of divided areas constituting the divided areas by an image processing method such as an image processing method, template matching, or contrast detection including score detection, It is possible to obtain an imaging signal having a good S / N ratio of the image of the multi-bar pattern transferred to the divided area. Therefore, based on the image pickup signal, it is possible to accurately detect the formation state of the image of the multi-bar pattern formed in each partitioned area by an image processing method such as template matching or contrast detection including score detection.
[0266]
For example, in the case of template matching, objective and quantitative correlation value information is obtained for each sectioned area, and in the case of contrast detection, objective and quantitative contrast value information is obtained for each sectioned area. In any case, by comparing the obtained information with the respective thresholds, the formation state of the image of the multi-bar pattern is converted into binarized information (information on the presence or absence of an image). It is possible to detect the formation state of the multi-bar pattern for each area with high accuracy and reproducibility.
[0267]
Therefore, in such a case, similarly to the above-described embodiment, by obtaining the optical characteristics of the projection optical system based on the above-described detection result, an objective and quantitative correlation value, based on the detection result using the contrast, etc. Optical characteristics are required. Therefore, the optical characteristics can be measured with high accuracy and reproducibility as compared with the conventional method. In addition, the number of evaluation points can be increased, and the interval between the evaluation points can be narrowed. As a result, the measurement accuracy of the optical characteristic measurement can be improved.
[0268]
In the above embodiment, the reticle R T Upper measurement pattern MP n Opening pattern AP n Although the case where one kind of L / S pattern (multi-bar pattern) arranged at the center of the inside is used has been described, it is needless to say that the present invention is not limited to this. As the measurement pattern, at least two types of L / S patterns having different periodic directions, an isolated line, a contact hole, or the like may be used. Measurement pattern MP n When the L / S pattern is used, the duty ratio and the period direction may be arbitrary. Also, the measurement pattern MP n When a periodic pattern is used, the periodic pattern may be not only an L / S pattern but also a pattern in which dot marks are periodically arranged, for example. This is because, unlike the conventional method of measuring the line width or the like of an image, the state of image formation is detected by a score (contrast).
[0269]
Further, in the above embodiment, the best focus position is obtained based on one type of score. However, the present invention is not limited to this. A plurality of types of scores may be set and the best focus position may be obtained based on these. Alternatively, the best focus position may be obtained based on these average values (or weighted average values).
[0270]
Further, in the above embodiment, the area from which pixel data is extracted is rectangular, but is not limited to this, and may be, for example, a circle, an ellipse, or a triangle. Also, the size can be arbitrarily set. That is, the measurement pattern MP n By setting the extraction area in accordance with the shape of, the noise can be reduced and the S / N ratio can be increased.
[0271]
In the above-described embodiment, one type of threshold is used for detecting the state of image formation. However, the present invention is not limited to this, and a plurality of thresholds may be used. When a plurality of threshold values are obtained, each threshold value may be compared with a score to detect the image formation state of the partitioned area. In this case, for example, when it is difficult to calculate the best focus position from the detection result at the first threshold, the formation state is detected at the second threshold, and the best focus position can be obtained from the detection result. Become.
[0272]
Alternatively, a plurality of thresholds may be set in advance, the best focus position may be determined for each threshold, and their average value (simple average value or weighted average value) may be used as the best focus position. For example, the focus position when the exposure energy amount P shows an extreme value is sequentially calculated according to each threshold value. Then, the average value of each focus position is set as the best focus position. Note that two intersections (focus positions) between an approximate curve indicating the relationship between the exposure energy amount P and the focus position Z and an appropriate slice level (exposure energy amount) are obtained, and an average value of both intersection points is calculated for each threshold value. Calculated values and their average value (simple average value or weighted average value) may be used as the best focus position.
[0273]
Alternatively, the best focus position is calculated for each threshold value, and in the relationship between the threshold value and the best focus position, the average value of the best focus position in the section where the change in the best focus position is the smallest (simple average value) Alternatively, a weighted average value may be used as the best focus position.
[0274]
In the above embodiment, a preset value is used as the threshold, but the present invention is not limited to this. For example, wafer W T Upper measurement pattern MP n May be imaged in an area where is not transferred, and the obtained score may be used as a threshold.
[0275]
Further, for example, the number of times the image is taken in by the alignment detection system AS may be made different between the first area and the second area. By doing so, the measurement time can be reduced.
[0276]
In the exposure apparatus 100 of the above embodiment, the main controller 28 measures the optical characteristics of the projection optical system described above according to a processing program stored in a storage device (not shown), thereby automating the measurement process. Can be realized. Of course, this processing program may be stored in another information recording medium (CD-ROM, MO, etc.). Further, when performing the measurement, a processing program may be downloaded from a server (not shown). It is also possible to send the measurement result to a server (not shown), or to notify the outside of the measurement result by e-mail and file transfer via the Internet or an intranet.
[0277]
In the above embodiment, the measurement pattern MP n The wafer W T Upper section area DA i, j To the wafer W after development. T Upper section area DA i, j Although the description has been given of the case where the resist image formed in the image is captured by the alignment detection system AS and the image data is subjected to image processing, the method for measuring the optical characteristics according to the present invention is not limited to this. For example, the object to be imaged may be a latent image formed on a resist at the time of exposure, and an image (etched image) obtained by developing the wafer on which the image is formed and further etching the wafer. It may be performed for such as. In addition, the photosensitive layer for detecting the state of image formation on an object such as a wafer is not limited to a photoresist, but may be any as long as images (latent image and visible image) are formed by irradiation of light (energy). good. For example, the photosensitive layer may be an optical recording layer, a magneto-optical recording layer, and the like. Therefore, the object on which the photosensitive layer is formed is not limited to a wafer or a glass plate, but may be an optical recording layer, a magneto-optical recording layer, or the like. It may be a plate that can be formed.
[0278]
Further, the optical characteristics of the projection optical system PL can be adjusted based on the above-described measurement results (such as the best focus position) without the intervention of an operator or the like. That is, the exposure apparatus can have an automatic adjustment function.
[0279]
Further, in the above embodiment, the exposure condition changed at the time of pattern transfer is the same as the wafer W in the optical axis direction of the projection optical system. T Position and wafer W T Although the description has been given of the case where the energy amount (exposure dose) of the energy beam applied to the surface is described, the present invention is not limited to this. For example, any condition such as an illumination condition (including a type of a mask), a setting condition of all components related to exposure such as an image forming characteristic of a projection optical system, or the like may be used. It is not necessary to perform exposure while performing. That is, one kind of exposure condition, for example, the wafer W in the optical axis direction of the projection optical system T While changing only the position, the pattern of the measurement mask is transferred to a plurality of areas on the photosensitive object, and even when the state of formation of the transferred image is detected, the same score as in the above embodiment was used. There is an effect that the detection can be quickly performed by the method of the contrast measurement or the template matching.
[0280]
In the above embodiment, the best exposure amount can be determined together with the best focus position. That is, the exposure energy amount is also set on the low energy amount side, the same processing as in the above embodiment is performed, and for each exposure energy amount, the width of the focus position where the image is detected is obtained, and the width is determined as the maximum. Is calculated, and the exposure amount in that case is set as the best exposure amount.
[0281]
Further, in the above embodiment, as an example, the variance (or standard deviation) of the pixel values in the specified range in the defined area is adopted as the score E, but the present invention is not limited to this. The score E may be the sum of the pixel values in the divided area or a part thereof (for example, the specified range described above) and the differential sum. Further, the algorithm for detecting the outer frame described in the above embodiment is an example, and is not limited to this. For example, the evaluation point corresponding area DB n At least two points may be detected on each of the four sides (upper side, lower side, left side, and right side). Even in this case, for example, vertex detection and rectangle approximation similar to those described above can be performed based on at least eight detected points. Further, in the above embodiment, as shown in FIG. 3, the measurement pattern MP n However, the present invention is not limited to this, and a measurement pattern composed of a light-transmitting pattern may be formed in the light-shielding portion, contrary to the case of FIG. Further, in the above embodiment, the pattern area PA of the reticle is a light-shielding part, but the pattern area PA may be a light-transmitting part. In this case, the measurement pattern MP n May be provided, or the measurement pattern MP n May be formed together. The resist applied to the wafer is not limited to the positive type, but may be a negative type.
[0282]
Further, in the above embodiment, each partitioned area DA i, j The presence or absence of the image of the measurement pattern is detected by comparing the score with a threshold value. Instead of this, the same as the curve P = f (Z) in FIG. An approximate curve may be calculated.
[0283]
That is, by detecting the outer frame and calculating the position of each partitioned area using the detection result, the first area DC on the imaging data is obtained. n Can easily be determined. Then, the first area DC n Is detected, for example, the distribution state of the sum of pixel data (integrated signal of luminance values on scanning lines in the X-axis direction) of each pixel column in the row direction (X-axis direction) of the above-described matrix is detected. I do. FIG. 24 shows the first region DC of FIG. 9 obtained in this manner. 1 An example of a distribution curve G = g (Z) of an added value G of pixel data (pixel value) for each pixel column in the imaging data of FIG. Therefore, an n-th-order approximation curve (least square approximation curve) is obtained by curve fitting each peak point (indicated by ● in FIG. 24) on the curve G = g (Z). Thereby, for example, a curve G = h (Z) shown by a dotted line in FIG. 24 is obtained. When this curve G = h (Z) is compared with the above-mentioned curve P = f (Z), it is apparent that both have almost the same shape. In this case, the detection result of the image formation state (for example, presence / absence detection) of each of the above-described divided areas is substantially obtained by a simple image processing of calculating the distribution state of the added value of the pixel data for each pixel row in the predetermined direction. Data of an equivalent distribution situation can be obtained. Therefore, a simpler method with the same level of detection accuracy and reproducibility as the case of using the objective and quantitative imaging data to obtain a detection result of the image formation state (for example, presence / absence detection) of each of the above-described divided areas. Thus, the state of image formation can be detected.
[0284]
Then, by performing the same processing as in the above embodiment using the above curve G = h (Z), the optical characteristics of the projection optical system PL, such as the best focus position, may be obtained. Even in this case, similarly to the above-described embodiment, since the optical characteristics are determined based on the detection result using the objective and quantitative imaging data, the optical characteristics can be compared with the conventional method in accuracy and reproducibility. You can measure well.
[0285]
Further, in the above embodiment, the imaging characteristic of the projection optical system PL is adjusted via the imaging characteristic correction controller. However, for example, only the imaging characteristic correction controller sets the imaging characteristic within a predetermined allowable range. When the control cannot be performed, at least a part of the projection optical system PL may be replaced, or at least one optical element of the projection optical system PL may be reworked (aspherical processing or the like). In particular, when the optical element is a lens element, the eccentricity may be changed or the optical element may be rotated about the optical axis. At this time, when detecting a resist image or the like using the alignment sensor of the exposure apparatus 100, the main control device 28 displays a warning on a display (monitor) or informs the operator or the like of necessity of assistance to the operator through the Internet or a mobile phone. The notification may be made, or information necessary for adjusting the projection optical system PL, such as a replacement portion of the projection optical system PL and an optical element to be reworked, may be notified together. As a result, not only the operation time for measuring the optical characteristics and the like but also the preparation period can be shortened, and the stop period of the exposure apparatus can be shortened, that is, the operation rate can be improved. Further, in this embodiment, the measurement pattern is transferred to the wafer by the static exposure method. However, instead of or in addition to the static exposure method, at least one exposure method is used in the scanning exposure method just as in the above embodiment. Dynamic optical characteristics may be obtained by transferring the measurement pattern to the wafer while changing the conditions.
[0286]
Further, the light source of the exposure apparatus to which the present invention is applied is not limited to a KrF excimer laser or an ArF excimer laser, 2 A laser (wavelength: 157 nm) or another pulsed laser light source in the vacuum ultraviolet region may be used. In addition, a fiber doped with, for example, erbium (or both erbium and ytterbium) is used as the illumination light for exposure, for example, a single-wavelength laser beam in the infrared or visible range oscillated from a DFB semiconductor laser or a fiber laser. A harmonic that has been amplified by an amplifier and wavelength-converted to ultraviolet light using a nonlinear optical crystal may be used. Further, an ultra-high pressure mercury lamp or the like that outputs an ultraviolet bright line (g line, i line, etc.) may be used. In this case, the exposure energy may be adjusted by lamp output control, a dimming filter such as an ND filter, a light amount aperture, and the like. Further, the present invention may be applied to an exposure apparatus that uses a charged particle beam such as an EUV light, an X-ray, or an electron beam and an ion beam as an exposure beam.
[0287]
In the above embodiment, the case where the present invention is applied to the step-and-scan type reduction projection exposure apparatus has been described, but the scope of the present invention is not limited to this. That is, the present invention can be suitably applied to an exposure apparatus such as a step-and-repeat method, a step-and-stitch method or a proximity method, a mirror projection aligner, and a photo repeater.
[0288]
Further, the projection optical system PL may be any one of a refraction system, a catadioptric system, and a reflection system, and may be any one of a reduction system, an equal magnification system, and an enlargement system.
[0289]
Furthermore, the present invention is not limited to an exposure apparatus used for manufacturing a semiconductor element, but also an exposure apparatus used for manufacturing a display including a liquid crystal display element and a plasma display, which transfers a device pattern onto a glass plate, and a thin film magnet. For exposure equipment used to manufacture device masks, such as exposure devices that transfer device patterns onto ceramic wafers, imaging devices (such as CCDs), micromachines, and DNA chips, as well as exposure devices that are used to manufacture masks or reticles. Can also be applied.
[0290]
《Device manufacturing method》
Next, an embodiment of a device manufacturing method using the above-described exposure apparatus and method will be described.
[0291]
FIG. 25 shows a flowchart of an example of manufacturing devices (semiconductor chips such as ICs and LSIs, liquid crystal panels, CCDs, thin-film magnetic heads, DNA chips, micromachines, etc.). As shown in FIG. 25, first, in step 301 (design step), a function / performance design of a device (for example, a circuit design of a semiconductor device) is performed, and a pattern design for realizing the function is performed. Subsequently, in step 302 (mask manufacturing step), a mask on which the designed circuit pattern is formed is manufactured. On the other hand, in step 303 (wafer manufacturing step), a wafer is manufactured using a material such as silicon.
[0292]
Next, in step 304 (wafer processing step), actual circuits and the like are formed on the wafer by lithography using the mask and the wafer prepared in steps 301 to 303, as described later. Next, in step 305 (device assembly step), device assembly is performed using the wafer processed in step 304. Step 305 includes processes such as a dicing process, a bonding process, and a packaging process (chip encapsulation) as necessary.
[0293]
Finally, in step 306 (inspection step), inspections such as an operation confirmation test and a durability test of the device manufactured in step 305 are performed. After these steps, the device is completed and shipped.
[0294]
FIG. 26 shows a detailed flow example of step 304 in the case of a semiconductor device. In FIG. 26, in step 311 (oxidation step), the surface of the wafer is oxidized. In step 312 (CVD step), an insulating film is formed on the wafer surface. In step 313 (electrode forming step), electrodes are formed on the wafer by vapor deposition. In step 314 (ion implantation step), ions are implanted into the wafer. Each of the above steps 311 to 314 constitutes a pre-processing step in each stage of wafer processing, and is selected and executed according to a necessary process in each stage.
[0295]
In each stage of the wafer process, when the above-described pre-processing step is completed, the post-processing step is executed as follows. In this post-processing step, first, in step 315 (resist forming step), a photosensitive agent is applied to the wafer. Subsequently, in step 316 (exposure step), the circuit pattern of the mask is transferred to the wafer by the exposure apparatus and the exposure method of each of the above embodiments. Next, in Step 317 (development step), the exposed wafer is developed, and in Step 318 (etching step), the exposed members other than the portion where the resist remains are removed by etching. Then, in step 319 (resist removing step), unnecessary resist after etching is removed.
[0296]
By repeating these pre-processing and post-processing steps, multiple circuit patterns are formed on the wafer.
[0297]
As described above, if the device manufacturing method of the present embodiment is used, the exposure apparatus and the exposure method of the above embodiment are used in the exposure step, so that the optical characteristics accurately determined by the optical characteristic measurement method described above are taken into account. High-precision exposure is performed via the projection optical system adjusted as described above, and a device with a high degree of integration can be manufactured with high productivity.
[0298]
【The invention's effect】
As described above, according to the optical characteristic measuring method of the present invention, there is an effect that the optical characteristics of the projection optical system can be obtained in a short time with high accuracy and reproducibility.
[0299]
Further, according to the exposure method of the present invention, there is an effect that highly accurate exposure can be realized.
[0300]
Further, according to the device manufacturing method of the present invention, there is an effect that a highly integrated device can be manufactured.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a schematic configuration of an exposure apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining an example of a specific configuration of the illumination system IOP of FIG.
FIG. 3 is a diagram illustrating an example of a reticle used for measuring optical characteristics of a projection optical system.
FIG. 4 is a flowchart (part 1) for describing a method for measuring optical characteristics.
FIG. 5 is a flowchart (part 2) illustrating a method for measuring optical characteristics.
FIG. 6 is a diagram for explaining the arrangement of partitioned areas.
FIG. 7 shows a wafer W T Above the first area DC n It is a figure showing the state where was formed.
FIG. 8 shows a wafer W T Evaluation point corresponding area DB on top n It is a figure showing the state where was formed.
FIG. 9 shows a wafer W T After developing T Evaluation point corresponding area DB formed above 1 FIG. 3 is a diagram showing an example of a resist image of FIG.
FIG. 10 is a flowchart (part 1) showing details of step 456 (processing for calculating optical characteristics) in FIG. 5;
FIG. 11 is a flowchart (part 2) showing details of step 456 (optical characteristic calculation processing) in FIG. 5;
FIG. 12 is a flowchart showing details of step 510 in FIG. 10;
FIG. 13 is a flowchart showing details of step 702 in FIG. 12;
14A is a diagram for explaining the process of step 508, FIG. 14B is a diagram for explaining the process of step 510, and FIG. 14C is a diagram for explaining the process of step 512; FIG.
15A is a diagram for explaining the process of step 514, FIG. 15B is a diagram for explaining the process of step 516, and FIG. 15C is a diagram for explaining the process of step 518. It is a figure for explaining processing.
FIG. 16 is an evaluation point corresponding area DB of a window area. 1 FIG. 13 is a diagram schematically illustrating another example of the scanning direction with respect to the outer frame of FIG.
FIG. 17A shows one evaluation point corresponding region DB; k FIG. 17B shows four detection areas set to detect the four sides of the outer frame of FIG. 17B. FIG. 17B shows one set of window areas from right to left in FIG. FIG. 17C is a diagram showing the sum signal of the variance signals of the pixel values obtained when scanning a set of window regions from the top to the bottom in FIG. 17A and within the detection region set at the same time. is there.
18 (A) shows the upper side of the outer frame as a detection target, and the window region from the bottom in FIG. 17 (A) to the upper side. FIG. 18 (B) shows the lower side of the outer frame. As a target, the window region is shown from the bottom to the top in FIG. 17A, and FIG. 18C is a diagram showing the window region from the right to the left in FIG. 18 (D) shows the variance signal of the pixel value obtained when the window area is scanned from left to right in FIG. 17 (A) within the set detection area with the left side of the outer frame as the detection target. , Respectively.
FIG. 19 is a diagram for describing a boundary detection process in outer frame detection.
FIG. 20 is a diagram for explaining vertex detection in step 514.
FIG. 21 is a diagram for explaining rectangle detection in step 516.
FIG. 22 is a diagram of a table data format showing an example of a detection result.
FIG. 23 is a diagram showing a relationship between the number of remaining patterns (exposure energy amount) and a focus position.
24 is a first area DC in FIG. 9; 1 FIG. 8 is a diagram showing an example of a distribution curve of an added value G of pixel data (pixel value) for each pixel column in the imaging data of FIG.
FIG. 25 is a flowchart illustrating an embodiment of a device manufacturing method according to the present invention.
FIG. 26 is a flowchart of a process in step 304 of FIG. 25.
[Explanation of symbols]
MP n … Measurement pattern, DB n ... Evaluation point corresponding area (predetermined area), DC n ... First area, DD n ... Second region, PL: Projection optical system, W: Wafer (object), W T ... wafer (object).

Claims (24)

第1面上のパターンを第2面上に投影する投影光学系の光学特性を計測する光学特性計測方法であって、
異なる露光条件下で前記投影光学系を介して物体上に転写された計測用パターンの転写領域から成る複数の区画領域を含みその輪郭の少なくとも一部が直線部である所定の領域を撮像する第1工程と;
前記撮像により得られた撮像データに基づき、前記所定の領域の輪郭から成る外枠を構成する前記直線部を検出対象とし、所定大きさの窓領域を前記検出対象の直線部にほぼ直交する走査方向に走査し、該走査中に前記窓領域内のピクセルデータに基づいて前記検出対象の直線部の位置を検出する第2工程と;
前記第2工程における前記検出対象の直線部の位置の検出結果を利用し、前記複数の区画領域の少なくとも一部の複数の区画領域における像の形成状態を、前記撮像データを用いて検出する第3工程と;
前記第3工程における検出結果に基づいて前記投影光学系の光学特性を求める第4工程と;を含む光学特性計測方法。
An optical characteristic measuring method for measuring an optical characteristic of a projection optical system that projects a pattern on a first surface onto a second surface,
A second image capturing a predetermined area including a plurality of divided areas including a transfer area of a measurement pattern transferred onto an object via the projection optical system under different exposure conditions, at least a part of the outline of which is a linear part. One step;
On the basis of the imaging data obtained by the imaging, the linear portion forming the outer frame formed by the contour of the predetermined region is set as a detection target, and a window region having a predetermined size is scanned substantially orthogonal to the detection target linear portion. Scanning in the direction, and detecting the position of the linear portion to be detected based on the pixel data in the window area during the scanning;
Utilizing the detection result of the position of the linear portion of the detection target in the second step, detecting a formation state of an image in at least a part of the plurality of divided areas using the imaging data. Three steps;
A fourth step of obtaining optical characteristics of the projection optical system based on the detection result in the third step.
前記走査方向は、前記外枠の内側から外側に向かう方向であることを特徴とする請求項1に記載の光学特性計測方法。2. The method according to claim 1, wherein the scanning direction is a direction from the inside to the outside of the outer frame. 前記所定の領域は、その輪郭に少なくとも一組の相互に平行な直線部を含み、
前記第2工程では、前記撮像データに基づき、前記外枠の設計値に応じた所定距離だけ離れて配置された一組の所定大きさの窓領域を、前記外枠を構成する相互に平行な一組の直線部のそれぞれを検出対象として該検出対象の直線部にほぼ直交する走査方向に同時に走査し、該走査中に前記一組の窓領域内のピクセルデータに基づいて前記検出対象の直線部の位置を検出することを特徴とする請求項1に記載の光学特性計測方法。
The predetermined region includes at least one set of mutually parallel straight portions in the contour thereof,
In the second step, based on the imaging data, a set of window regions of a predetermined size arranged at a predetermined distance according to a design value of the outer frame are formed in parallel with each other to form the outer frame. Each of the set of linear portions is a detection target, and is simultaneously scanned in a scanning direction substantially orthogonal to the detection target linear portion. During the scanning, the detection target straight line is determined based on pixel data in the set of window regions. The method according to claim 1, wherein the position of the portion is detected.
前記第2工程では、前記窓領域内のピクセルデータの代表値が最大又は最小となる位置を、前記検出対象の直線部の位置として検出することを特徴とする請求項1〜3のいずれか一項に記載の光学特性計測方法。4. The method according to claim 1, wherein, in the second step, a position where a representative value of pixel data in the window area is maximum or minimum is detected as a position of the linear portion to be detected. 5. The optical characteristic measuring method according to the paragraph. 前記窓領域のサイズは、前記ピクセルデータの代表値が検出対象である外枠上と前記所定の領域内とで、その差が所定値以上となるようなサイズに設定されていることを特徴とする請求項4に記載の光学特性計測方法。The size of the window area is set to a size such that the difference between the representative value of the pixel data on the outer frame to be detected and the predetermined area is equal to or larger than a predetermined value. The method for measuring optical characteristics according to claim 4. 前記ピクセルデータの代表値は前記窓領域内の中心を含む少なくとも一部の領域内のピクセルデータに対応するピクセル値の分散、標準偏差、加算値、及び微分総和値のいずれかであることを特徴とする請求項4又は5に記載の光学特性計測方法。The representative value of the pixel data is one of a variance, a standard deviation, an addition value, and a differential sum value of a pixel value corresponding to the pixel data in at least a part of the area including the center in the window area. The optical characteristic measuring method according to claim 4 or 5, wherein 前記撮像データは、2より大きい複数ビットのデータであり、
前記第2工程では、前記複数ビットのデータから最上位2ビットを含む上位複数ビット以外の下位ビットのデータを0又は1にしたデータを前記ピクセルデータとして用いることを特徴とする請求項1〜6のいずれか一項に記載の光学特性計測方法。
The imaging data is a plurality of bits of data larger than 2,
7. The method according to claim 1, wherein the second step uses, as the pixel data, data in which low-order bit data other than high-order plural bits including the most significant two bits from the plural-bit data is set to 0 or 1. The optical characteristic measuring method according to any one of the above.
前記第1工程に先立って、少なくとも1つの露光条件を変更しながら、矩形枠状のパターンと該矩形枠状のパターンの内部に位置する前記計測用パターンとを含む対象パターンを前記第1面上に配置し、かつ前記投影光学系の第2面側に配置された物体を所定のステップピッチで順次移動して前記対象パターンを前記物体上に順次転写することにより、前記複数の区画領域を前記物体上に形成する工程を含む、転写工程を、更に含むことを特徴とする請求項1〜7のいずれか一項に記載の光学特性計測方法。Prior to the first step, while changing at least one exposure condition, a target pattern including a rectangular frame-shaped pattern and the measurement pattern located inside the rectangular frame-shaped pattern is placed on the first surface. And sequentially transferring the object pattern on the object by sequentially moving the object arranged on the second surface side of the projection optical system at a predetermined step pitch, thereby forming the plurality of partitioned areas into The method for measuring optical characteristics according to claim 1, further comprising a transfer step including a step of forming on an object. 前記ステップピッチは、前記矩形枠状のパターンのサイズに対応する距離以下に設定されていることを特徴とする請求項8に記載の光学特性計測方法。The optical characteristic measuring method according to claim 8, wherein the step pitch is set to be equal to or smaller than a distance corresponding to a size of the rectangular frame-shaped pattern. 前記所定の領域は、前記複数の区画領域のみから成り、前記転写工程では、前記所定の領域内の最外周部に位置する複数の区画領域の少なくとも一部の特定の複数の区画領域が過露光の領域となるように前記露光条件の一部として前記物体上に照射されるエネルギビームのエネルギ量を変更することを特徴とする請求項8に記載の光学特性計測方法。The predetermined region includes only the plurality of divided regions, and in the transfer step, at least a part of a plurality of the divided regions located at the outermost peripheral portion of the predetermined region is overexposed. 9. The optical characteristic measuring method according to claim 8, wherein the amount of energy of the energy beam applied to the object is changed as a part of the exposure condition so as to be a region of the exposure condition. 前記計測用パターンは、マルチバーパターンを含み、
前記複数の区画領域のそれぞれに転写された前記マルチバーパターンとこれに隣接するパターンとが、前記マルチバーパターンの像のコントラストが前記隣接するパターンによる影響を受けない距離L以上離れていることを特徴とする請求項1〜10のいずれか一項に記載の光学特性計測方法。
The measurement pattern includes a multi-bar pattern,
The multi-bar pattern transferred to each of the plurality of divided areas and the pattern adjacent thereto are separated by a distance L or more that does not affect the contrast of the image of the multi-bar pattern by the adjacent pattern. The optical characteristic measuring method according to any one of claims 1 to 10, wherein:
前記第3工程は、前記検出対象の直線部の位置の検出結果に基づいて、その検出された外枠部分を基準として前記所定の領域を構成する少なくとも一部の複数の区画領域それぞれの位置を算出する工程を含むことを特徴とする請求項1〜11のいずれか一項に記載の光学特性計測方法。In the third step, based on the detection result of the position of the linear portion to be detected, the position of each of at least some of the plurality of divided regions constituting the predetermined region is determined with reference to the detected outer frame portion. The optical characteristic measuring method according to claim 1, further comprising a calculating step. 前記所定の領域は、その輪郭が直線部のみから成る領域であることを特徴とする請求項1〜12のいずれか一項に記載の光学特性計測方法。The optical characteristic measuring method according to claim 1, wherein the predetermined area is an area having an outline including only a straight line portion. 前記所定の領域は、その輪郭が4つの直線部から成る矩形領域であり、
前記第3工程は、前記算出する工程に先立って、前記検出対象の直線部である辺の位置の検出結果に基づいて、前記矩形の外枠を構成する第1辺から第4辺の各辺上でそれぞれ少なくとも2点を求め、前記求めた少なくとも8点に基づいて前記外枠を算出する外枠算出工程を更に含み、
前記算出する工程では、既知の区画領域の配列情報を用いて前記外枠の内部領域を等分割して、前記所定の領域を構成する複数の区画領域それぞれの位置を算出することを特徴とする請求項12に記載の光学特性計測方法。
The predetermined area is a rectangular area whose outline is composed of four linear portions,
In the third step, prior to the calculating step, based on the detection result of the position of the side that is the linear portion to be detected, each of the first to fourth sides forming the outer frame of the rectangle Further including an outer frame calculation step of calculating at least two points above and calculating the outer frame based on the obtained at least eight points,
In the calculating step, an inner region of the outer frame is equally divided using arrangement information of a known divided region, and a position of each of the plurality of divided regions constituting the predetermined region is calculated. An optical characteristic measuring method according to claim 12.
前記外枠算出工程では、前記求めた第1ないし第4辺上の各2点の点に基づいて定まる4本の直線同士の交点として矩形領域である前記所定の領域の4頂点を求め、前記求めた4頂点に基づいて最小二乗法による長方形近似を行い、回転を含めた前記所定の領域の矩形の外枠を算出することを特徴とする請求項14に記載の光学特性計測方法。In the outer frame calculation step, four vertices of the predetermined area, which is a rectangular area, are obtained as intersections of four straight lines determined based on the two points on the first to fourth sides obtained, 15. The optical characteristic measuring method according to claim 14, wherein a rectangle approximation by the least square method is performed based on the obtained four vertices, and a rectangular outer frame of the predetermined area including rotation is calculated. 前記第3工程における、前記少なくとも一部の複数の区画領域における像の形成状態の検出は、各区画領域のピクセルデータに関する代表値を判定値として行われることを特徴とする請求項1〜15のいずれか一項に記載の光学特性計測方法。16. The method according to claim 1, wherein in the third step, the detection of an image formation state in the at least some of the plurality of divided areas is performed using a representative value regarding pixel data of each divided area as a determination value. The method for measuring optical characteristics according to any one of the preceding claims. 前記代表値は、各区画領域内の少なくとも一部の範囲内におけるピクセルデータに対応するピクセル値の加算値、微分総和値、分散及び標準偏差のいずれかであることを特徴とする請求項16に記載の光学特性計測方法。17. The method according to claim 16, wherein the representative value is one of an addition value, a differential sum value, a variance, and a standard deviation of a pixel value corresponding to pixel data in at least a part of a range within each of the divided areas. The described optical property measurement method. 前記代表値は、平均値として前記計測用パターンの像が残存しないと予想される任意の区画領域内におけるピクセル値の平均値を用いて求められた、前記各区画領域内の少なくとも一部の範囲内におけるピクセルデータに対応するピクセル値の分散及び標準偏差のいずれかであることを特徴とする請求項16に記載の光学特性計測方法。The representative value is obtained by using an average value of pixel values in an arbitrary partitioned area in which it is expected that the image of the measurement pattern does not remain as an average value. The optical characteristic measuring method according to claim 16, wherein one of the variance and the standard deviation of a pixel value corresponding to pixel data in the pixel data is included. 前記第3工程における、前記少なくとも一部の複数の区画領域における像の形成状態の検出は、テンプレートマッチングの手法により行われることを特徴とする請求項1〜15のいずれか一項に記載の光学特性計測方法。16. The optical device according to claim 1, wherein the detection of an image formation state in the at least some of the plurality of divided regions in the third step is performed by a template matching technique. Characteristics measurement method. 前記露光条件は、前記投影光学系の光軸方向に関する前記物体の位置及び前記物体上に照射されるエネルギビームのエネルギ量の少なくとも一方を含むことを特徴とする請求項1〜19のいずれか一項に記載の光学特性計測方法。20. The exposure condition according to claim 1, wherein the exposure condition includes at least one of a position of the object with respect to an optical axis direction of the projection optical system and an energy amount of an energy beam irradiated on the object. The optical characteristic measuring method according to the paragraph. 前記露光条件は、前記投影光学系の光軸方向に関する前記物体の位置と前記物体上に照射されるエネルギビームのエネルギ量とを含み、
前記物体上に形成された複数の区画領域は、前記露光条件を変更しながら前記投影光学系を介して前記物体上に順次転写された計測用パターンの転写領域から成り、
前記第3工程における、像の形成状態の検出は、前記検出対象の区画領域における前記計測用パターンの像の有無の検出であり、
前記第4工程では、その像が検出された複数の区画領域に対応する前記エネルギビームのエネルギ量と前記投影光学系の光軸方向に関する前記物体の位置との相関関係により最良フォーカス位置を決定することを特徴とする請求項1〜20のいずれか一項に記載の光学特性計測方法。
The exposure conditions include a position of the object with respect to an optical axis direction of the projection optical system and an energy amount of an energy beam irradiated on the object,
The plurality of divided areas formed on the object are formed of transfer areas of a measurement pattern sequentially transferred onto the object via the projection optical system while changing the exposure condition,
In the third step, detection of an image formation state is detection of the presence or absence of an image of the measurement pattern in the detection target partitioned area,
In the fourth step, a best focus position is determined based on a correlation between an energy amount of the energy beam corresponding to a plurality of divided areas where the images are detected and a position of the object in an optical axis direction of the projection optical system. The optical characteristic measuring method according to any one of claims 1 to 20, wherein:
第1面上のパターンを第2面上に投影する投影光学系の光学特性を計測する光学特性計測方法であって、
少なくとも1つの露光条件を変更しながら、前記第1面上に配置された計測用パターンを前記投影光学系の第2面側に配置された物体上の複数の領域に順次転写する第1工程と;
前記計測用パターンが異なる露光条件で転写された前記物体上の複数の区画領域のうちの少なくとも一部の複数の区画領域から成る所定形状の領域を含む領域を撮像し、その撮像データ中の前記所定形状の領域の所定方向のピクセル列毎のピクセルデータの加算値の分布状況を検出する第2工程と;
前記検出結果に基づいて前記投影光学系の光学特性を求める第3工程と;を含む光学特性計測方法。
An optical characteristic measuring method for measuring an optical characteristic of a projection optical system that projects a pattern on a first surface onto a second surface,
A first step of sequentially transferring a measurement pattern arranged on the first surface to a plurality of regions on an object arranged on a second surface side of the projection optical system while changing at least one exposure condition; ;
The measurement pattern is imaged at a region including a region having a predetermined shape composed of a plurality of divided regions of at least a part of the plurality of divided regions on the object to which the measurement pattern has been transferred under different exposure conditions. A second step of detecting a distribution state of an added value of pixel data for each pixel row in a predetermined direction in an area having a predetermined shape;
A third step of obtaining optical characteristics of the projection optical system based on the detection result.
露光用のエネルギビームをマスクに照射し、前記マスクに形成されたパターンを投影光学系を介して物体上に転写する露光方法であって、
請求項1〜22のいずれか一項に記載の光学特性計測方法によって計測された前記光学特性を考慮して前記投影光学系を調整する工程と;
前記調整された投影光学系を介して前記マスクに形成されたパターンを前記物体上に転写する工程と;を含む露光方法。
An exposure method of irradiating a mask with an energy beam for exposure, and transferring a pattern formed on the mask onto an object via a projection optical system,
A step of adjusting the projection optical system in consideration of the optical characteristics measured by the optical characteristic measurement method according to any one of claims 1 to 22;
Transferring the pattern formed on the mask onto the object via the adjusted projection optical system.
リソグラフィ工程を含むデバイス製造方法であって、
前記リソグラフィ工程では、請求項23に記載の露光方法を用いることを特徴とするデバイス製造方法。
A device manufacturing method including a lithography step,
A device manufacturing method using the exposure method according to claim 23 in the lithography step.
JP2002311936A 2002-10-25 2002-10-25 Method for measuring optical characteristic, exposure method and method for manufacturing device Withdrawn JP2004146702A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002311936A JP2004146702A (en) 2002-10-25 2002-10-25 Method for measuring optical characteristic, exposure method and method for manufacturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002311936A JP2004146702A (en) 2002-10-25 2002-10-25 Method for measuring optical characteristic, exposure method and method for manufacturing device

Publications (1)

Publication Number Publication Date
JP2004146702A true JP2004146702A (en) 2004-05-20

Family

ID=32456973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002311936A Withdrawn JP2004146702A (en) 2002-10-25 2002-10-25 Method for measuring optical characteristic, exposure method and method for manufacturing device

Country Status (1)

Country Link
JP (1) JP2004146702A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043535A1 (en) * 2005-10-07 2007-04-19 Nikon Corporation Optical characteristic measuring method, exposure method, device manufacturing method, inspecting apparatus and measuring method
US7948616B2 (en) 2007-04-12 2011-05-24 Nikon Corporation Measurement method, exposure method and device manufacturing method
US20130271945A1 (en) 2004-02-06 2013-10-17 Nikon Corporation Polarization-modulating element, illumination optical apparatus, exposure apparatus, and exposure method
US9341954B2 (en) 2007-10-24 2016-05-17 Nikon Corporation Optical unit, illumination optical apparatus, exposure apparatus, and device manufacturing method
US9423698B2 (en) 2003-10-28 2016-08-23 Nikon Corporation Illumination optical apparatus and projection exposure apparatus
US9678437B2 (en) 2003-04-09 2017-06-13 Nikon Corporation Illumination optical apparatus having distribution changing member to change light amount and polarization member to set polarization in circumference direction
US9678332B2 (en) 2007-11-06 2017-06-13 Nikon Corporation Illumination apparatus, illumination method, exposure apparatus, and device manufacturing method
US9885872B2 (en) 2003-11-20 2018-02-06 Nikon Corporation Illumination optical apparatus, exposure apparatus, and exposure method with optical integrator and polarization member that changes polarization state of light
US9891539B2 (en) 2005-05-12 2018-02-13 Nikon Corporation Projection optical system, exposure apparatus, and exposure method
US10101666B2 (en) 2007-10-12 2018-10-16 Nikon Corporation Illumination optical apparatus, exposure apparatus, and device manufacturing method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9678437B2 (en) 2003-04-09 2017-06-13 Nikon Corporation Illumination optical apparatus having distribution changing member to change light amount and polarization member to set polarization in circumference direction
US9885959B2 (en) 2003-04-09 2018-02-06 Nikon Corporation Illumination optical apparatus having deflecting member, lens, polarization member to set polarization in circumference direction, and optical integrator
US9423698B2 (en) 2003-10-28 2016-08-23 Nikon Corporation Illumination optical apparatus and projection exposure apparatus
US9760014B2 (en) 2003-10-28 2017-09-12 Nikon Corporation Illumination optical apparatus and projection exposure apparatus
US9885872B2 (en) 2003-11-20 2018-02-06 Nikon Corporation Illumination optical apparatus, exposure apparatus, and exposure method with optical integrator and polarization member that changes polarization state of light
US10281632B2 (en) 2003-11-20 2019-05-07 Nikon Corporation Illumination optical apparatus, exposure apparatus, and exposure method with optical member with optical rotatory power to rotate linear polarization direction
US10241417B2 (en) 2004-02-06 2019-03-26 Nikon Corporation Polarization-modulating element, illumination optical apparatus, exposure apparatus, and exposure method
US20130271945A1 (en) 2004-02-06 2013-10-17 Nikon Corporation Polarization-modulating element, illumination optical apparatus, exposure apparatus, and exposure method
US10234770B2 (en) 2004-02-06 2019-03-19 Nikon Corporation Polarization-modulating element, illumination optical apparatus, exposure apparatus, and exposure method
US10007194B2 (en) 2004-02-06 2018-06-26 Nikon Corporation Polarization-modulating element, illumination optical apparatus, exposure apparatus, and exposure method
US9891539B2 (en) 2005-05-12 2018-02-13 Nikon Corporation Projection optical system, exposure apparatus, and exposure method
WO2007043535A1 (en) * 2005-10-07 2007-04-19 Nikon Corporation Optical characteristic measuring method, exposure method, device manufacturing method, inspecting apparatus and measuring method
JPWO2007043535A1 (en) * 2005-10-07 2009-04-16 株式会社ニコン Optical characteristic measuring method, exposure method, device manufacturing method, inspection apparatus and measuring method
US7948616B2 (en) 2007-04-12 2011-05-24 Nikon Corporation Measurement method, exposure method and device manufacturing method
US10101666B2 (en) 2007-10-12 2018-10-16 Nikon Corporation Illumination optical apparatus, exposure apparatus, and device manufacturing method
US9857599B2 (en) 2007-10-24 2018-01-02 Nikon Corporation Optical unit, illumination optical apparatus, exposure apparatus, and device manufacturing method
US9341954B2 (en) 2007-10-24 2016-05-17 Nikon Corporation Optical unit, illumination optical apparatus, exposure apparatus, and device manufacturing method
US9678332B2 (en) 2007-11-06 2017-06-13 Nikon Corporation Illumination apparatus, illumination method, exposure apparatus, and device manufacturing method

Similar Documents

Publication Publication Date Title
US6706456B2 (en) Method of determining exposure conditions, exposure method, device manufacturing method, and storage medium
JPWO2002091440A1 (en) Optical property measuring method, exposure method and device manufacturing method
US7948616B2 (en) Measurement method, exposure method and device manufacturing method
US20080208499A1 (en) Optical characteristics measurement method, exposure method and device manufacturing method, and inspection apparatus and measurement method
JPWO2008038751A1 (en) Line width measurement method, image formation state detection method, adjustment method, exposure method, and device manufacturing method
US20110242520A1 (en) Optical properties measurement method, exposure method and device manufacturing method
JPWO2005008754A1 (en) Flare measurement method, exposure method, and mask for flare measurement
JP2004146702A (en) Method for measuring optical characteristic, exposure method and method for manufacturing device
JP2005030963A (en) Position detecting method
JP2004289119A (en) Method of determining stray radiation and lithographic projection apparatus
JP2005337912A (en) Position measuring apparatus, exposure apparatus, and device manufacturing method
JP2007281126A (en) Method and device for measuring position, and exposure device
US20100296074A1 (en) Exposure method, and device manufacturing method
JP2004207521A (en) Optical characteristic measuring method, exposure method, and device manufacturing method
JP2004165307A (en) Image detecting method, optical characteristic measuring method, exposure method, and method of manufacturing device
JP2004146703A (en) Method of measuring optical characteristics, method for exposure, and method of manufacturing device
JP2008016828A (en) Exposure apparatus and device manufacturing method
JP2004163313A (en) Method and device for detecting contour, method and device for detecting position, and aligner
JP2011009411A (en) Optical characteristic measuring method, exposure method, and device manufacturing method
JP2004165483A (en) Method and device for data extraction, method and device for position detection and aligner
JP2006120660A (en) Position correction method and device, exposing device, and device manufacturing method
JP2004158670A (en) Optical characteristics measuring method, exposure method, and device manufacturing method
JP2006313815A (en) Method and apparatus of simulating image formation performance, and exposure method and apparatus
JP2003021914A (en) Optical characteristic measuring method, optical characteristic measuring device, and exposure device
JP2002260986A (en) Method of measuring optical characteristic, method for exposure, and method of manufacturing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050606

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20061003