[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2013122022A1 - 画像評価装置及びパターン形状評価装置 - Google Patents

画像評価装置及びパターン形状評価装置 Download PDF

Info

Publication number
WO2013122022A1
WO2013122022A1 PCT/JP2013/053175 JP2013053175W WO2013122022A1 WO 2013122022 A1 WO2013122022 A1 WO 2013122022A1 JP 2013053175 W JP2013053175 W JP 2013053175W WO 2013122022 A1 WO2013122022 A1 WO 2013122022A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
image
contour
model
unit
Prior art date
Application number
PCT/JP2013/053175
Other languages
English (en)
French (fr)
Inventor
篠田 伸一
康隆 豊田
皆川 剛
松岡 良一
Original Assignee
株式会社 日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立ハイテクノロジーズ filed Critical 株式会社 日立ハイテクノロジーズ
Priority to US14/377,728 priority Critical patent/US9830705B2/en
Priority to JP2013558679A priority patent/JP6043735B2/ja
Publication of WO2013122022A1 publication Critical patent/WO2013122022A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical, image processing or photographic arrangements associated with the tube
    • H01J37/222Image processing arrangements associated with the tube
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • H01J37/28Electron or ion microscopes; Electron or ion diffraction tubes with scanning beams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/221Image processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/245Detection characterised by the variable being measured
    • H01J2237/24571Measurements of non-electric or non-magnetic variables
    • H01J2237/24578Spatial variables, e.g. position, distance
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/245Detection characterised by the variable being measured
    • H01J2237/24592Inspection and quality control of devices
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2801Details
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2813Scanning microscopes characterised by the application
    • H01J2237/2817Pattern inspection
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • H01L2924/0001Technical content checked by a classifier
    • H01L2924/0002Not covered by any one of groups H01L24/00, H01L24/00 and H01L2224/00

Definitions

  • the present invention relates to an apparatus for evaluating a pattern shape of a semiconductor pattern.
  • the present invention also relates to an apparatus or the like for evaluating the pattern shape of a semiconductor pattern, and in particular, a pattern shape suitable for finding an appropriate semiconductor manufacturing condition or extracting parameters for finding an appropriate semiconductor manufacturing condition. It relates to an evaluation device.
  • a length measurement SEM is used as a means for evaluating whether a formed pattern is as designed, and the width of a line pattern, the size of the diameter of a hole, etc. are measured, and the pattern shape is determined by the dimensions.
  • I was managing. With the miniaturization of semiconductors, it is common to form patterns below the exposure wavelength, and super resolution techniques such as proof of deformation and optical proximity correction have been introduced. It is difficult to measure with the dimensions of the pattern, such as the inclination of the pattern side wall, the rounding and constriction of the corner of the pattern, and the deformation of the pattern due to the change of the aberration of the exposure device. For this reason, there is known a technique (see Patent Document 1) for generating the upper and lower contour lines of the pattern side wall and evaluating the inclination of the pattern side wall from the two-dimensional shape of the pattern and the width of the white band.
  • the projection exposure method for transferring a semiconductor pattern onto a wafer exposure light is applied to a photomask of a shielding material on which a pattern to be printed is written, and a photomask image is projected onto a resist on the wafer through a lens system.
  • the exposure and exposure are determined by determining the focus and exposure amount.
  • the focus and exposure amount will shift and the dimensions and shape of the transferred pattern will be transferred. May change and the normal pattern may not be obtained. Further, the focus may be lost due to non-flatness or lens aberration caused by the photomask.
  • Astigmatism causes a phenomenon in which the condensing position differs between the horizontal direction and the vertical direction.
  • Astigmatism causes a phenomenon in which the condensing position differs between the horizontal direction and the vertical direction.
  • the pattern becomes an elliptical pattern with vertical and horizontal dimensions different.
  • a method of obtaining a focus value using a line pattern see Patent Document 2
  • a horizontal focus value is obtained using a vertical line pattern
  • a vertical focus is obtained using the horizontal line pattern.
  • JP 2004-228394 A JP 2005-64023 A (corresponding US Pat. No. 6,929,892) JP 2008-140911 A (corresponding US Pat. No. 8,023,759)
  • the exposure conditions in the X direction and / or the Y direction are evaluated, the exposure conditions can be evaluated, the exposure conditions, Alternatively, a pattern shape evaluation apparatus is proposed in which output of adjustment conditions for exposure conditions is a second purpose.
  • an image evaluation apparatus for obtaining an exposure condition of a semiconductor pattern from an image photographed using an electron beam is obtained by generating a plurality of contour lines from an SEM image.
  • a storage unit storing a model indicating the relationship between the feature amount and the exposure condition, contour generation parameter information corresponding to the model, and generating a plurality of contour lines from the SEM image using the contour generation parameter information
  • Proposing an image evaluation apparatus comprising: an outline generation unit that performs an exposure condition using a feature amount obtained from a plurality of outlines generated by the outline generation unit and the model, and the model To do.
  • an image evaluation apparatus in which the contour generation unit generates three or more contour lines.
  • the contour generation parameter information is information for generating a contour line by the contour generation unit, and is information for generating the number of contour lines and each contour line corresponding to the number.
  • An image evaluation apparatus is proposed.
  • an image evaluation apparatus that creates a model using a plurality of SEM images
  • an outline generation unit that generates a plurality of outlines from an SEM image using outline generation parameter information
  • a plurality of lines generated by the outline generation unit Using a plurality of the contour generation parameter information, a model generation unit that creates a model expression from the feature amount obtained from the contour line and the exposure condition corresponding to the SEM image, and through the contour generation unit and the model generation unit
  • the image processing apparatus includes a plurality of image processing apparatuses. For the direction, feature quantities in a plurality of directions of the target pattern are obtained, weights assigned to the plurality of directions are assigned to the feature quantities in the plurality of directions, and based on the weights, the exposure condition in a specific direction is determined.
  • a pattern shape evaluation apparatus for obtaining parameters required for adjustment is proposed.
  • the parameters required for the exposure conditions in the X direction and / or the Y direction can be obtained based on feature amounts in a plurality of directions other than the X direction and the Y direction. It is possible to appropriately perform exposure condition adjustment using an actual pattern in which the amount of edges in the X direction and the Y direction may not be sufficient as in a dedicated pattern. In addition, since feature amounts in the X direction and the Y direction can be extracted using edges other than the X direction and the Y direction, it is possible to perform highly accurate evaluation based on a sufficient amount of information.
  • the figure which shows the Example of an image evaluation apparatus The figure which shows the Example of an outline generation part.
  • the figure which shows the Example of GUI of a display means The figure which shows the space
  • the figure which shows the direction and feature-value of an outline The figure which shows the Example of a horizontal direction estimation part and a vertical direction estimation part.
  • the image evaluation apparatus exemplified in the embodiments described below relates to a pattern image evaluation method and apparatus for monitoring process fluctuations from pattern image data obtained by SEM imaging.
  • process variation is detected from the image data using the two-dimensional shape of a plurality of contour lines of the pattern is shown.
  • a charged particle beam apparatus is illustrated as an apparatus for forming an image, and an example using an SEM is described as one aspect thereof.
  • a focused ion beam (FIB) apparatus that scans the beam to form an image may be employed as the charged particle beam apparatus.
  • FIB focused ion beam
  • FIG. 19 is a schematic explanatory diagram of a measurement / inspection system in which a plurality of measurement or inspection devices are connected to a network.
  • the system mainly includes a CD-SEM 2401 for measuring pattern dimensions of a semiconductor wafer, a photomask, etc., and irradiating a sample with an electron beam to acquire an image and compare the image with a pre-registered reference image.
  • the defect inspection apparatus 2402 for extracting defects based on the above is connected to the network.
  • the network also includes a condition setting device 2403 for setting the measurement position and measurement conditions on the design data of the semiconductor device, and the pattern quality based on the design data of the semiconductor device and the manufacturing conditions of the semiconductor manufacturing device.
  • a simulator 2404 for simulation and a storage medium 2405 for storing design data in which layout data and manufacturing conditions of semiconductor devices are registered are connected.
  • the design data is expressed in, for example, the GDS format or the OASIS format, and is stored in a predetermined format.
  • the design data can be of any type as long as the software that displays the design data can display the format and can handle the data as graphic data.
  • the storage medium 2405 may be built in the measuring device, the control device of the inspection device, the condition setting device 2403, and the simulator 2404.
  • the CD-SEM 2401 and the defect inspection device 2402 are provided with respective control devices, and necessary control is performed for each device. In these control devices, the functions of the simulator, measurement conditions, etc. are set. You may make it mount a function.
  • an electron beam emitted from an electron source is focused by a plurality of lenses, and the focused electron beam is scanned one-dimensionally or two-dimensionally on a sample by a scanning deflector.
  • SE Secondary Electron
  • BSE backscattered electrons
  • the image signals stored in the frame memory are integrated by an arithmetic device mounted in the control device. Further, scanning by the scanning deflector is possible for any size, position, and direction.
  • control and the like are performed by the control device of each SEM, and images and signals obtained as a result of scanning with the electron beam are sent to the condition setting device 2403 via the communication line network.
  • the control device that controls the SEM and the condition setting device 2403 are described as separate units.
  • the present invention is not limited to this, and the condition setting device 2403 controls and measures the device. Processing may be performed in a lump, or SEM control and measurement processing may be performed together in each control device.
  • condition setting device 2403 or the control device stores a program for executing a measurement process, and measurement or calculation is performed according to the program.
  • the condition setting device 2403 has a function of creating a program (recipe) for controlling the operation of the SEM based on semiconductor design data, and functions as a recipe setting unit. Specifically, positions for performing processing necessary for SEM such as desired measurement points, autofocus, autostigma, and addressing points on design data, pattern outline data, or design data that has been simulated And a program for automatically controlling the sample stage, deflector, etc. of the SEM is created based on the setting. Also, in order to create a template, which will be described later, information on a region serving as a template is extracted from design data, and a processor for creating a template based on the extracted information, or a program for creating a template for a general-purpose processor, or It is remembered.
  • a program for controlling the operation of the SEM based on semiconductor design data
  • a recipe setting unit Specifically, positions for performing processing necessary for SEM such as desired measurement points, autofocus, autostigma, and addressing points on design data, pattern outline data, or design data that
  • FIG. 20 is a schematic configuration diagram of a scanning electron microscope.
  • An electron beam 2503 extracted from an electron source 2501 by an extraction electrode 2502 and accelerated by an acceleration electrode (not shown) is focused by a condenser lens 2504 which is a form of a focusing lens, and then is scanned on a sample 2509 by a scanning deflector 2505.
  • the electron beam 2503 is decelerated by a negative voltage applied to an electrode built in the sample stage 2508 and is focused by the lens action of the objective lens 2506 and irradiated onto the sample 2509.
  • secondary electrons and electrons 2510 such as backscattered electrons are emitted from the irradiated portion.
  • the emitted electrons 2510 are accelerated in the direction of the electron source by the acceleration action based on the negative voltage applied to the sample, collide with the conversion electrode 2512, and generate secondary electrons 2511.
  • the secondary electrons 2511 emitted from the conversion electrode 2512 are captured by the detector 2513, and the output I of the detector 2513 changes depending on the amount of captured secondary electrons. Depending on the output I, the brightness of a display device (not shown) changes.
  • an image of the scanning region is formed by synchronizing the deflection signal to the scanning deflector 2505 and the output I of the detector 2513.
  • the scanning electron microscope illustrated in FIG. 20 includes a deflector (not shown) that moves the scanning region of the electron beam.
  • the present invention is not limited to such a configuration. It is possible to adopt a configuration in which the detection surface of the electron multiplier tube or the detector is arranged on the orbit.
  • the control device 2514 controls each component of the scanning electron microscope, and forms a pattern on the sample based on a function of forming an image based on detected electrons and an intensity distribution of detected electrons called a line profile. It has a function to measure the pattern width.
  • the image evaluation device 1 can be built in the control device 2514, or can be executed by a computing device with built-in image processing, or can be executed by an external computing device (for example, a condition setting device 2403) via a network. It is also possible to perform image evaluation at.
  • FIG. 1A is a diagram illustrating an example of a model creation unit 1 of an image evaluation apparatus that creates a model for obtaining a relationship between an SEM image and an exposure condition and outputs an outline generation parameter used for the model.
  • An FEM (Focus Exposure Matrix) wafer on which a pattern is printed by changing the exposure conditions (focus, exposure amount) for each shot (one exposure unit) in advance is photographed using SEM, and depending on the position on the photographed wafer, This information is used as exposure condition information 30 because the correspondence of which exposure condition shot can be taken.
  • the plurality of different exposure condition (focus, exposure amount) information 30 and a photographed SEM image 31 are used.
  • the contour line generation unit 11 generates a plurality of contour lines from the SEM image 31 based on the contour line generation parameter 32.
  • the contour generation parameter 32 is information on the number of contour lines generated by the contour line generation unit 11 and parameters for generating each contour line.
  • a model that uses a plurality of contour data generated by the contour generation unit 11 to obtain a feature amount by the model generation unit 12 and corresponds to information on exposure conditions (focus, dose), and shows a relationship between the feature amount and the exposure condition Create Using the model created by the model generation unit 12, the evaluation unit 13 evaluates the model.
  • FIG. 13 shows an example of changes in the pattern side wall depending on the focus.
  • the focus changes to F1, F2, and F3
  • the upper part of the photoconductor shrinks and the upper PA point of the photoconductor moves to the right, but the lower PB point of the photoconductor is not so much. It does not change.
  • FIG. 14 shows the relationship between the threshold of the contour line and the pattern side wall.
  • This is a hole pattern
  • (a) is a cross section of the pattern side wall portion of the i line of the SEM image of (b).
  • the pattern shape appears as a white band as shown in FIG.
  • the white band increases in the amount of secondary electrons reflected on the pattern side wall, thereby increasing the brightness, and appears as a white band along the pattern shape.
  • the portion where the inclination of the cross section of the pattern side wall is the largest corresponds to the position Pp of the luminance peak of the white band in the profile (c).
  • the pattern upper part PA and lower part PB correspond to the skirts Pa and Pb at both ends of the peak of the white band luminance profile. Which of the two ends of the white band is the upper part or the lower part of the pattern can be determined by using information such as whether the inner side or the outer side of the pattern is concave or convex.
  • both ends of the white band are inside and outside and here is a hole pattern
  • the circle inside the white band is concave and corresponds to the bottom.
  • the outer circle of the white band corresponds to the upper part.
  • the upper and lower portions of the pattern, the position between them, and the like can be captured from the luminance profile.
  • the white band peak is defined as 100%
  • the contour line point that generates 50% of the position inside the white band (on the right side of the peak position) is used.
  • a line created by connecting a point at a position of 50% inside each white band (on the right side of the peak position) along the pattern shape from the luminance profile is defined as an outline created at 50% inside.
  • four contour lines can be similarly created using four points of 30%, 70%, and 90%.
  • th (threshold) 30, th (threshold) 50, th (threshold) 70, th (threshold) 90 are set as parameters for generating the contour line, and the peak is set to 100%.
  • “outside, threshold value 50” may be set.
  • the parameter for generating each contour line for the number of contour lines of the contour generation parameter 32 is information on this threshold.
  • a contour line is created with an arbitrary threshold corresponding to the height position of the pattern side wall.
  • contour lines As described above, by using three or more contour lines, it is possible to obtain the amount of change at the height position of a plurality of resists, and the focus value estimation accuracy is improved. However, if too many contour lines are used, processing time is required and it is impractical, so 10 or less lines are considered sufficient. Further, if the number is large, it is considered that a fixed threshold value may be used without adjusting the threshold value. Further, when the number of contour lines is small due to processing time, it is considered effective to obtain the height position of the resist that changes depending on the focus. For example, using the contour lines created with threshold values for many different resist height positions in advance, each threshold value between points with a large amount of change by focusing is examined, and the selected threshold value is used for actual evaluation. It is conceivable to use a contour line at.
  • the evaluation unit 13 evaluates the model obtained as a result. That is, the contour generation parameter 32 with a good model evaluation is a parameter for generating a contour that more effectively represents the feature for obtaining the exposure condition, and a parameter for generating a contour that better captures the shape change of the pattern side wall. I think.
  • FIG. 11 (a) shows an example of a plurality of contour generation parameters.
  • the contour generation parameter 32 is information on the number of contour lines and the height position (threshold value) corresponding to the number of contour lines. Information on the inside and outside of the band and information on the unevenness of the pattern may be added.
  • One contour line generation parameter is indicated for each line, and a list of a plurality of lines is processed in order from the top. Further, since the number of contour lines can be determined from the information on the number of height positions (thresholds) without explicitly indicating the number of contour lines as shown in FIG. 11B, a plurality of heights for generating contour lines can be determined.
  • the position (threshold value) information may be used.
  • FIG. 2 shows an example of the contour line generator.
  • the contour generation unit 11 generates a plurality of contour data 11 a for the SEM image 31 based on the contour generation parameter 32.
  • the parameters for generating the respective contour lines are read into the n contour line creation units 1101 to 11n. Then, n contour lines are generated from the SEM images by the contour creating units 1101 to 11n.
  • the generated contour data may be stored in the contour storage unit 1100.
  • n contour line creation units are used, but one contour line creation unit may be used and created n times.
  • Fig. 3 shows an example of the model generation unit.
  • a feature amount is obtained from the contour line data generated by the contour generation unit 11, and a model indicating the relationship between the Focus value, Dose value information, and the feature amount is created.
  • the feature amount calculation unit 121 aligns the contour line data and the reference pattern, and obtains the distance between each pixel of the contour line and the pixel position of the reference pattern corresponding thereto.
  • the alignment of the contour line data and the reference pattern is performed by imaging the contour line data and the reference pattern, expanding each of them, and performing a matching process using normalized correlation. It is also conceivable that after the image is formed, the center of gravity of the image is obtained and the center of gravity is aligned.
  • the present invention is not limited to this, and the alignment of the contour line data and the reference pattern can be performed by a known matching technique.
  • the reference pattern may be design data, simulation data, or image data or contour line data created from one or a plurality of SEM images.
  • One of the plurality of contour data generated by the contour generation unit 11 may be used as the reference pattern.
  • the pixel of the reference pattern corresponding to the pixel closest to the distance among the pixels of the reference pattern with respect to the pixel of the contour line is the correspondence between the pixel of the contour line and the pixel of the reference pattern after alignment. And the distance between the corresponding pixels is obtained.
  • the distances from the corresponding reference pattern pixels are obtained for all the pixels of the contour line, and the statistical values of the distances obtained for all the pixels, for example, the average value and the variance value are obtained as the feature values. You may obtain
  • a plurality of feature quantities may be used. Further, this feature amount is obtained for each contour line.
  • the association is obtained based on the pixels of the contour line, but may be obtained based on the pixels of the reference pattern.
  • the line edge roughness changes depending on the exposure conditions. Since the line edge roughness has periodicity, the spatial frequency such as Fourier transform (FFT) is obtained to show the periodicity of the line edge roughness. It is also conceivable to determine the focus value using the quantity.
  • FFT Fourier transform
  • a model is created by the modeling unit 122 using the feature amount for each contour line obtained by the feature amount calculation unit 121 and the exposure condition (Focus value, Dose value) information 30.
  • the model may be created by obtaining a regression equation or may be obtained by using linear programming.
  • the exposure condition Y can be expressed by a linear sum of the weighting factors X1, X2,... Xn to the feature amounts A1, A2,.
  • the model has values of weighting factors X1, X2,.
  • the modeling unit 122 is provided with a storage unit such as a memory, and the feature amount obtained from the exposure condition information and the contour line of the SEM image is stored.
  • Fig. 4 shows an example of the evaluation unit.
  • the evaluation unit 13 evaluates a plurality of models obtained by the model creation unit 1, and selects the best model and contour generation parameters from among the models based on the evaluation values.
  • the model evaluation unit 131 evaluates the fit of the model. For the evaluation of the fit, for example, the determination coefficient of the degree of freedom adjusted may be obtained and used as the evaluation value of the fit. Further, the evaluation value may be determined based on the evaluation standard of the Akaike information criterion (AIC), or other known techniques may be used.
  • the evaluation value obtained by the model evaluation unit 131, the model, and the contour generation parameter are stored in the storage / selection unit 132, and the model 34 and the contour generation parameter 35 having a good evaluation value are output from the plurality of stored model evaluation values. To do. In addition, since the processing time for generating the number of contour lines is long, the evaluation value is not only applied to the model, but the evaluation value is decreased as the number of contour lines increases. A smaller number of lines may improve the evaluation value.
  • FIG. 1B is a diagram illustrating an example of the exposure condition estimation unit 2 of the image evaluation apparatus that estimates the exposure condition from the SEM image using the model 34 and the contour generation parameter 35 obtained by the image evaluation apparatus 1.
  • the contour creation unit 21 Based on the contour generation parameter 35 obtained by the model creation unit 1, the contour creation unit 21 generates a plurality of contour lines from the SEM image, obtains feature amounts from the generated plurality of contour lines, and the model creation unit 1
  • the estimation unit 22 estimates the exposure condition using the obtained model.
  • the contour generation unit 21 is the same as the contour generation unit 21 shown in FIG. FIG. 5 shows an embodiment of the estimation unit.
  • the feature amount is calculated by the feature amount calculation unit 221 from the plurality of contour lines generated by the contour line generation unit 21.
  • the feature quantity calculation unit 221 is the same as the feature quantity calculation unit 121 described with reference to FIG.
  • the model calculation unit 222 estimates the exposure amount from the feature amount obtained by the feature amount calculation unit 221 using the model obtained by the model creation unit 1.
  • the exposure amount can be estimated.
  • the estimated result may be displayed by displaying the result of the exposure condition estimated and obtained from the SEM image corresponding to the position indicated by the wafer map 386 on the GUI screen 38 as shown in FIG.
  • the difference between the exposure condition of the pattern and the exposure condition estimated by the model may be indicated. It is also possible to change the color depending on the size of the difference.
  • a setting unit 381 is provided for setting parameters for generating three or more contour lines for obtaining feature quantities used in the estimation unit. This setting may be input manually by the user, or may be stored in advance as a file when the model is created or the file may be read.
  • the contour line generation parameters are the number of contour lines to be generated and the respective threshold values.
  • the exposure condition model shown in FIG. 1A when the exposure condition model shown in FIG. 1A is created, the exposure condition and the exposure condition estimated by the model are arranged and displayed from the SEM image corresponding to the position indicated by the wafer map 386 as shown in FIG. May be. At that time, a window 383 for displaying each model obtained using a plurality of contour generation parameters and its evaluation value may be provided. In addition, one model is selected from the plurality of models, and the exposure condition and the exposure condition estimated by the selected model are displayed side by side at a position corresponding to the SEM imaging position on the wafer when the model is used. May be. Further, although the description has been given of the case where the exposure condition model shown in FIG. 1A is created, it can be considered that the exposure condition model shown in FIG.
  • a setting unit 382 that sets the maximum number of contour lines in accordance with an allowable processing time is provided, and a number less than the set maximum number of contour lines is provided. It is also conceivable to generate a contour line by a contour line generation unit and obtain a model having a good evaluation value and its contour line generation parameter.
  • the contour generation parameters may be determined automatically by generating a plurality of contour generation parameters without setting the contour generation parameters from the outside. In that case, for example, it may be possible to set the automatic mode in the setting unit 382.
  • the increment value of the height position (threshold value) may be set to 10, and 11 parameters from 0 to 10 increments may be automatically generated up to the maximum value of 100. It is conceivable to obtain a model having a good evaluation value and its contour line generation parameter by changing the threshold values of a plurality of contour lines including the inner and outer sides of the pattern (upper and lower portions of the pattern side wall), respectively.
  • FIG. 6 shows a processing flow of an image evaluation method for obtaining exposure conditions.
  • a model for estimating the exposure condition is created in the model creation stage of S10, and the exposure condition is estimated from the SEM image using the model created in the exposure condition estimation stage of S20.
  • Fig. 7 shows the processing flow of the model creation unit.
  • the model creation unit sets a plurality of contour generation parameters in the contour generation parameter setting in S11.
  • a contour line is generated based on one contour line generation parameter among the plurality of contour line generation parameters set in the contour line generation step of S12.
  • the contour generation step is repeated until contour generation is performed for all SEM images in S13.
  • the model creation stage is entered in S14.
  • a feature amount is obtained from each of a plurality of contour lines generated from all SEM images, and a model indicating the relationship with the exposure condition is created.
  • the application of the model created in S15 is evaluated, and the evaluation result, the model, and its outline generation parameter are stored.
  • FIG. 8 shows a processing flow in the contour generation stage.
  • a contour generation parameter is read in S121, and a plurality of contour lines are generated in S122 based on the number of contour lines of the contour generation parameter and the respective threshold values.
  • the generated contour data is stored in the storage means.
  • Figure 9 shows the processing flow at the model creation stage.
  • the contour line data corresponding to the SEM image and the information of the exposure conditions are read.
  • the contour line and the reference pattern are aligned.
  • the distance from the pixel of the reference pattern corresponding to each pixel of the contour line is obtained, and the statistic of the distance value obtained in S144 is calculated and stored in the storage means as a feature value.
  • the model is obtained using a regression equation, linear programming, or the like based on the feature amount and the exposure condition.
  • FIG. 10 shows a processing flow of the exposure amount estimation stage.
  • the contour generation parameter and the model obtained in the model creation step S10 are set, and a plurality of contour lines are determined based on the number of contour lines of the contour generation parameter set in the contour generation step in S22 and their respective threshold values.
  • step S23 a feature amount is obtained from a plurality of contour lines, and an exposure strip is estimated using a model based on the feature amount.
  • the contour generation stage of S22 is the same process as the contour generation stage of S21.
  • Fig. 11 shows the processing flow in the estimation stage.
  • step S231 the contour line and the reference pattern are aligned.
  • step S232 the distance from the pixel of the reference pattern corresponding to each pixel of the contour line is obtained.
  • step S233 the statistic (feature amount) of the distance value of all pixels is obtained.
  • the model is calculated with the feature amount obtained in S234, and the exposure condition is obtained.
  • the model is created by regression or linear programming, but for example, a table that draws exposure conditions using the feature values obtained from multiple contours as addresses is created, and the created table is used for evaluation.
  • the exposure condition may be obtained by subtracting the address of the table having the closest feature value based on the feature values obtained from a plurality of contour lines.
  • the diameter K of the hole pattern is smaller than a certain threshold value, it is conceivable to set a threshold value for a plurality of contour lines by narrowing down to the lower part of the pattern when setting the contour line generation parameter.
  • FIG. 17 shows the change in focus at the line end (end point) part of the pattern. This is seen from above, and the magnitude of the change in the shape of the focus FA and the shape of the focus FB differs between the center portion LC and the end portion L of the end points. Since the light intensity varies depending on the part of the pattern due to the wraparound of the exposure light, the change in the side wall of the pattern is considered to be different for each part such as the corner part, the straight line part, and the line end (end point) part. Therefore, when obtaining the exposure conditions with various patterns, it is conceivable to generate a plurality of contour lines for each part from the SEM image, and to create a model for each part by obtaining the feature amount.
  • a contour generation parameter is obtained for each part.
  • the models of the line end portions 151c and 152c are divided into line end portions, 151a, 152a, 154a and 153a are straight portions, and 15b is divided into corner portions. It is conceivable that the model and the evaluation of the model are performed for each part, and the model and the contour generation parameter are obtained for each part.
  • a feature quantity for obtaining a feature quantity from a pattern image including a closed curve
  • a pattern shape evaluation apparatus including an extraction unit and an estimation unit that estimates exposure conditions in at least two directions of vertical and horizontal using the feature amount obtained by the feature amount extraction unit will be described.
  • the feature amount extraction unit includes a feature amount extraction unit that obtains at least two vertical and horizontal feature amounts based on the direction information obtained by the direction detection unit that obtains the direction information of the white band, pattern edge, or outline.
  • a pattern shape evaluation apparatus characterized by this is proposed.
  • the feature amount extraction unit proposes a pattern shape evaluation device including a feature amount extraction unit that obtains a feature amount separately for each region designated by the user for each of two or more directions.
  • the estimation unit when estimating by the estimation unit, it is estimated using a model or table indicating a relationship between the feature amount for each direction obtained by the feature amount extraction unit and the exposure condition, and pattern shape evaluation Propose the device.
  • a pattern shape evaluation apparatus comprising a direction-specific feature calculation unit for calculating a ratio for dividing at least two directions of vertical and horizontal from the direction information obtained by the direction detection unit.
  • a pattern shape evaluation apparatus for obtaining a feature amount
  • a feature amount extraction unit for obtaining feature amounts in at least two directions, vertical and horizontal, from a pattern image including a closed curve, a feature amount for each direction obtained by the feature amount extraction unit, and an SEM image
  • a pattern shape evaluation apparatus including a model creation unit that creates a model using exposure conditions corresponding to the above is proposed.
  • a pattern shape evaluation apparatus in which the model creating unit creates a model showing a relationship between a feature amount and an exposure amount in at least two directions of vertical and horizontal directions.
  • a pattern shape evaluation apparatus including a display unit capable of switching and displaying exposure conditions for each direction on a wafer map is proposed below. To do.
  • a pattern shape evaluation apparatus includes an instruction unit that allows a user to specify an area for obtaining a feature value for each direction.
  • a pattern shape evaluation apparatus for obtaining an exposure condition of a semiconductor pattern from an image taken using an electron beam, direction detection for obtaining direction information of a white band, a pattern edge, or a contour from a pattern image including a closed curve
  • a feature amount extraction unit that obtains at least two vertical and horizontal feature amounts based on direction information of the direction detection unit, a feature amount for each direction obtained by the feature amount extraction unit, and a feature amount for each direction
  • a pattern shape evaluation apparatus includes an estimation unit that estimates at least focus values in two directions, vertical and horizontal, based on a model or table indicating the relationship between the focus value and the focus value.
  • a pattern shape evaluation apparatus for obtaining an exposure condition of a semiconductor pattern from an image photographed using an electron beam
  • the feature amount extracting unit for obtaining a feature amount from a pattern image including a closed curve, and the direction of the edge of the image
  • a contribution rate calculation unit for calculating a contribution rate for dividing the feature amount into at least two directions of vertical and horizontal, and a model or table indicating a relationship between the feature amount, the contribution rate, a feature amount for each direction, and a focus value
  • a pattern shape evaluation apparatus which includes an estimation unit that estimates at least two vertical and horizontal focus values.
  • a semiconductor pattern from an image photographed using an electron beam is described below.
  • a feature amount extraction unit for obtaining a feature amount in at least two directions of vertical and horizontal from a pattern image including a closed curve, and a feature amount for each direction obtained by the feature amount extraction unit A pattern shape evaluation apparatus including a model creating unit that creates a model indicating a relationship between a feature value and a focus value for each direction from an exposure condition corresponding to an SEM image is proposed.
  • a pattern shape evaluation apparatus exemplified in the embodiments described below is a pattern image evaluation method and apparatus for monitoring exposure conditions including horizontal and vertical focus from image data of a curved pattern obtained by SEM imaging. It is about. As a specific example, an example in which exposure conditions including horizontal and vertical focus are detected from the image data of a curve pattern using the two-dimensional shape of the contour line is shown.
  • FIGS. 21A and 21B illustrate an example of an image processing apparatus 2102 that detects exposure conditions including horizontal and vertical focus from image data of a pattern including a closed curve using a two-dimensional shape of a contour line.
  • FIG. An FEM (Focus Exposure Matrix) wafer on which a pattern is printed in advance by changing the exposure conditions (focus, exposure amount) for each shot (one exposure unit) is SEM-photographed, and the photographed image is based on the position on the photographed wafer. Therefore, this information is referred to as exposure condition information 7.
  • an SEM image 2105 including the plurality of different exposure condition (focus, exposure amount) information 7 and a target pattern to be measured is used. Also, an SEM image whose pattern is broken is not suitable for creating a model and may be removed in advance.
  • the feature quantity extraction unit 2124 uses the SEM image 2105 and the reference pattern 2103 to extract feature quantities that change in accordance with the exposure conditions. Then, the direction-specific exposure condition model creation unit 2123 uses the feature amount obtained by the feature amount extraction unit 2124 and the exposure condition information 2107 to determine the relationship between the feature amount and the exposure condition for each direction such as the horizontal direction and the vertical direction. A direction-specific model 2104 to be shown is created.
  • an exposure condition including a focus value for each direction such as a horizontal direction and a vertical direction may be given as information. Further, a dimension value when the focus value is optimum may be given. Further, with reference to the focus value in one direction, the focus value in the other direction may be given a value indicated by a ratio or a difference.
  • the feature amount extraction unit 2121 extracts the feature amount, and the direction-specific model obtained in (b)
  • the direction-specific exposure condition estimation unit 2122 uses the feature amount obtained by the feature amount extraction unit 2121 to estimate the direction-specific exposure condition.
  • the estimated direction-specific exposure condition information can be fed back to the exposure device to correct the exposure condition for each direction.
  • the reference pattern may be image data obtained by drawing design data, image data obtained from a photographed pattern image with good quality, or image data obtained from a plurality of photographed pattern images.
  • image data obtained from a simulation image may be used.
  • FIG. 22 shows an example of the feature quantity extraction unit.
  • the feature amount extraction unit 2121 extracts, from the SEM image 2101 and the reference pattern 2103, feature amounts that change in accordance with the contour line of the SEM image 2101 and the exposure conditions.
  • the feature quantity extraction units 2121 and 2124 in FIGS. 21A and 21B can have the same configuration.
  • the contour line extraction unit 211 extracts the contour line of the SEM image 2101
  • the registration unit 212 performs alignment with the image data of the reference pattern 2103 and the contour line data obtained by the contour line extraction unit 211, and performs alignment.
  • the distance value calculation unit 213 obtains a distance value from the corresponding pixel position of the reference pattern.
  • the distance value obtained by the distance value calculation unit 213 is used as a feature amount.
  • associating the pixels of the contour line with the pixels of the reference pattern may be performed by searching for a pixel on the vertical line with respect to the direction of the pixel of the contour line, or by obtaining a pixel having the closest distance. You can also.
  • FIG. 23 shows an example of the contour line extraction unit.
  • An edge image is obtained from the SEM image 1 by filter processing for extracting an edge such as a Laplacian filter by the edge detection unit 2111, binarized by an arbitrary threshold value by the binarization unit 2112, and thinned by the thinning unit 2113.
  • a line is obtained.
  • the white band may be smoothed, binarized, and thinned to obtain a contour line, or any other method may be used as long as a contour line whose pattern shape can be obtained is obtained.
  • the alignment unit 212 expands the contour pixels and overlaps the images to shift the position, and obtains the position where the correlation value of the normalized correlation is the highest, or obtains the center of gravity position of each image and aligns the center of gravity position. This is possible by a general method of aligning two images or the like, and will not be described.
  • FIG. 27 shows an example of an image obtained by aligning and superimposing two images of the contour line image and the reference pattern image.
  • the reference pattern is a circle
  • the outline of the SEM image 1 is an alignment example in images having different shapes such as an ellipse.
  • the A point pixel of the contour line corresponds to the A ′ point pixel of the reference pattern, and the distance values of all the pixels such as the distance value of the A point pixel and the A ′ point pixel and the distance value of the B point pixel and the B ′ point pixel
  • the value is obtained as a feature value.
  • FIG. 24 shows an example of the direction-specific exposure condition estimation unit.
  • the direction-specific exposure condition estimation unit 2422 calculates the feature amount for each pixel obtained by the feature amount extraction unit 2121 by dividing it into feature amounts for each direction by the direction-specific feature separation unit 2401 using the contour line data. Using the model, the horizontal direction estimation unit 2402 and the vertical direction estimation unit 2403 estimate the exposure conditions in the respective directions.
  • FIG. 25 shows an example of the direction-specific feature separation unit.
  • the direction-specific feature separation unit 211 obtains the feature amount for each pixel obtained by the feature amount extraction unit 2121 separately for each direction.
  • the direction detection unit 2211 obtains the direction of the target contour pixel using the contour line data around the target contour pixel obtained by the feature amount extraction unit 2121.
  • the horizontal / vertical ratio determination unit 2212 determines the rate of change in the exposure condition in the horizontal direction and the vertical direction of the feature amount.
  • the horizontal ratio multiplying unit 2213 and the vertical ratio multiplying unit 2214 multiply the respective ratios obtained by the horizontal / vertical ratio determining unit 2212 with the feature quantity for each pixel to obtain the feature quantity for each direction in the horizontal direction and the vertical direction.
  • the direction detection unit 2211 obtains the direction of the contour pixel using the contour line data around the target contour pixel from which the feature amount is obtained.
  • the direction may be detected by pattern matching with the arrangement of contour pixels of a matrix of 3 pixels ⁇ 3 pixels as shown in FIG.
  • the directions (angle ⁇ ) are 0 °, 22.5 °, 45 °, 67.5 °, 90 °, 112.5 °, 135 °, and 157.5 °, respectively.
  • More detailed directions can be obtained by increasing the size of the number of pixels to be referenced to 5 pixels ⁇ 5 pixel matrix or the like and increasing the number of patterns in the direction to be obtained.
  • the horizontal / vertical ratio determining unit 2212 determines the ratio of the feature amount that affects the horizontal and vertical focus according to the direction of the outline obtained by the direction detecting unit 2211. For example, at point A shown in FIG. 27, the direction of the contour line is 0 °. In this case, the ratio of the feature amount affecting the vertical focus is 1.0, and the ratio of the feature affecting the horizontal focus is 0.0. At point B, the direction of the contour line is 90 °. In this case, the ratio of the feature amount affecting the vertical focus is 0.0, and the ratio of the feature affecting the horizontal focus is 1.0. To do. At point C, the direction of the contour line is 45 °.
  • the ratio of the feature amount that affects the vertical focus is 0.5
  • the ratio of the feature that affects the horizontal focus is 0.5.
  • the formula for obtaining the ratio uses the angle ⁇ (°) of the direction obtained by the direction detection unit 2211, and obtains the ratio of the feature amount affecting the vertical focus by cos ⁇ / (sin ⁇ + cos ⁇ ), and affects the horizontal focus. It is conceivable that the ratio of the feature quantity to be calculated is sin ⁇ / (sin ⁇ + cos ⁇ ).
  • an approximate straight line may be created using a plurality of sample pixels around the target contour pixel to determine the direction. It is also conceivable to extract the contour line by sufficiently smoothing the SEM image 2101.
  • the ratios of the respective feature values for each direction are sent to the horizontal ratio multiplication unit 2213 and the vertical ratio multiplication unit 2214, and are multiplied by the feature values for each pixel to output the feature values for each direction.
  • the horizontal ratio multiplier 2213 and the vertical ratio multiplier 2214 can be realized by a multiplier.
  • the horizontal direction estimation unit 2402 contains the feature amount obtained by the horizontal ratio multiplication unit 2213
  • the vertical direction estimation unit 2403 contains the feature amount obtained by the vertical ratio multiplication unit 2214.
  • FIG. 28 shows an example of the horizontal direction estimation unit and the vertical direction estimation unit.
  • the statistic calculation unit 2221 of the horizontal direction estimation unit 2402 in FIG. 28A the total value of the feature values of all the contour pixels obtained by the horizontal ratio multiplication unit 2213 is obtained, and the statistic such as the average value and the variance value is obtained. Ask for. Further, the skewness and the saliency may be obtained.
  • the model calculation unit 2222 obtains the horizontal focus value and the exposure amount using the obtained statistical values and the model for each direction.
  • the model calculation unit 2222 performs calculation using a model corresponding to the horizontal exposure condition of the direction-specific model. For example, it is conceivable to calculate the exposure condition by multiplying weights corresponding to a plurality of statistics in the calculation of the model.
  • the vertical direction estimation unit 2403 in FIG. 28B can determine the exposure condition in the vertical direction.
  • the exposure conditions obtained in the horizontal direction and the vertical direction are output as the exposure condition information 8 by direction.
  • the direction-specific feature separation unit 231 is the same as the direction-specific feature separation unit 2401 of the direction-specific exposure condition estimation unit 2122 in FIG. 21A, and outputs the feature amount separately for each horizontal direction and vertical direction.
  • the horizontal model creation unit 232 creates a model using the exposure condition information 2107 and the horizontal feature amount.
  • the vertical model creation unit 233 creates a model using the exposure condition information 7 and the feature amount in the vertical direction.
  • FIG. 30 shows an example of a horizontal model creation unit and a vertical model creation unit.
  • the statistic calculation unit 2321 of the horizontal direction estimation unit 232 in FIG. 30A the total value of the feature values of all the contour pixels obtained by the horizontal ratio multiplication unit 2313 is obtained, and the average value, variance value, and skewness are obtained. Or statistics such as saliency may be obtained.
  • a model indicating the relationship between the statistical quantity obtained by the model creating unit 2322 and the exposure condition in the horizontal direction is created.
  • the model may be a regression equation that obtains the exposure condition by a linear sum obtained by multiplying a plurality of statistical values by a coefficient.
  • the exposure condition Y can be expressed by a linear sum of weight coefficients X1, X2,... Xn for a plurality of statistical values A1, A2,.
  • the model has values of weight coefficients X1, X2,. Further, it may be obtained by nonlinear regression, or linear programming may be used. The weight may be obtained by learning using a plurality of statistical values and the exposure conditions.
  • the statistic calculation unit 2331 of the vertical direction estimation unit 233 in FIG. 10B calculates the total value of the feature values of all the contour pixels calculated by the vertical ratio multiplication unit 2314, and calculates the average value, variance value, and the like. Find statistics. Then, a model indicating the relationship between the statistic obtained by the model creation unit 2332 and the exposure condition in the horizontal direction is created using the obtained statistical values and the exposure condition information 7.
  • Each model created by the model creation units 2322 and 2332 is output as a direction-specific model 2104.
  • weighting is performed on the statistical amount of the feature amount for each of a plurality of angles (directions), and the exposure condition in the X direction or the Y direction (specific direction) is obtained by adding the statistic. Rather, it is possible to obtain the exposure conditions at that time by referring to the feature quantities in a plurality of directions. Even if the amount of information in a specific direction is insufficient, information in a plurality of directions can be referred to, so that the shortage of information can be compensated and appropriate exposure conditions can be obtained. Further, exposure conditions can be determined with reference to the performance of patterns other than the X and Y directions. Furthermore, in the above formula, the exposure condition Y is obtained by adding weighted results of measurement values in a plurality of directions, but may be a statistical value (average value).
  • the exposure conditions referred to here may be parameters required for adjusting the exposure conditions in a specific direction.
  • the exposure conditions of the exposure apparatus at the time of monitoring and the adjustment amount for example, ideal conditions-exposure conditions at the time of monitoring.
  • the adjustment distance of the scale bar for adjusting the exposure condition on the GUI screen may be obtained by the regression equation, the table or the like.
  • the direction-specific feature separation unit 2401 described in FIG. 25 uses a direction detection unit 2211 and a horizontal / vertical ratio determination unit 2212 as a vertical line / horizontal line detection unit 2215 as shown in FIG.
  • a horizontal line (horizontal line) and a vertical line (vertical line) linear pattern are detected to be changed, and in the case of a pixel detected as a horizontal line, the ratio of the horizontal ratio multiplier is 1.0, and the vertical ratio multiplier In the case of a pixel detected as a horizontal line, the ratio of the horizontal ratio multiplier is 0.0 and the ratio of the vertical ratio multiplier is 1.0.
  • the ratio of the horizontal ratio multiplication unit may be 0.0, and the ratio of the vertical ratio multiplication unit may be 0.0.
  • the direction is obtained from the contour line.
  • the direction of the reference pattern is obtained by changing the contour line to be entered into the direction detection unit 2211 in FIG. 25 or the vertical / horizontal line detection unit 2215 in FIG. It is also conceivable to obtain the ratio of the feature amount in the horizontal direction and the vertical direction. Further, when the configuration is changed in FIGS. 25 and 31, the direction-specific exposure condition model creation unit in FIG.
  • FIG. 32 shows an example of an image evaluation apparatus when the user designates a region for which a feature amount is to be obtained for each direction.
  • a direction-specific area designation unit 3209 is added to the image evaluation apparatus in FIG.
  • the direction area designating unit 3209 is provided with a means for displaying and a means for designating an area, and represents a horizontal characteristic area for a contour line obtained from an SEM image or a line A displaying a reference pattern as shown in FIG.
  • This is a GUI that allows a user to freely specify a rectangle representing a rectangle (1) and a feature region (2) in the vertical direction.
  • Information on the region specified by the direction-specific region specifying unit 9 enters the feature amount extracting unit 25.
  • FIG. 34 shows an example of the feature quantity extraction unit.
  • a contour line is extracted from the SEM image 1 by the contour line extraction unit 211, and alignment is performed by the reference pattern and alignment unit 212. Up to this point, the feature extraction unit 2121 is the same.
  • the vertical / horizontal direction region determination unit 216 determines whether the target pixel is a pixel included in the horizontal feature region specified by the user or a pixel included in the vertical feature region. If it is a pixel in the horizontal feature region, the feature amount (distance value between the target contour pixel and the corresponding reference pattern pixel) corresponding to the target pixel after alignment is the value of the horizontal direction distance value calculation unit 214 ( Output as horizontal feature).
  • the feature value obtained from the target pixel is output as the value (vertical feature value) of the vertical distance value calculation unit 215. It is conceivable to exclude a feature region that is neither a horizontal feature region nor a vertical feature region.
  • the target pixel determined by the vertical / horizontal direction region determination unit 216 may be a contour pixel or a pixel of a corresponding reference pattern as a target pixel.
  • the value of the horizontal direction distance value calculation unit 214 and the value of the vertical direction distance value calculation unit 215 enter the direction-specific exposure condition estimation unit 3226.
  • FIG. 35 shows an example of the direction-specific exposure condition estimation unit.
  • the horizontal direction estimation unit 261 estimates the exposure condition in the horizontal direction using the value of the horizontal direction distance value calculation unit 214 and the model for each direction.
  • the vertical direction estimation unit 262 estimates the exposure condition in the horizontal direction using the value of the horizontal direction distance value calculation unit 215 and the model for each direction.
  • the horizontal direction estimation unit 261 and the vertical direction estimation unit 262 can be realized with the same configuration as the horizontal direction estimation unit 2402 and the horizontal direction estimation unit 2403 described in FIG.
  • the direction-specific exposure condition model creation unit 3228 will be described with reference to FIG.
  • the feature quantity in the horizontal direction and the feature quantity in the vertical direction obtained by the direction-specific exposure condition estimation unit 3227 enter the horizontal direction model creation unit 281 and the vertical direction model creation unit 282, respectively, and use the exposure condition information 7 to A model for obtaining the exposure condition in the horizontal direction is created by the model creating unit 281, and a model for obtaining the exposure condition in the vertical direction is created by the vertical direction model creating unit 282.
  • the horizontal direction model creation unit 281 and the vertical direction model creation unit 282 can be realized with the same configuration as the horizontal direction model creation unit 231 and the vertical direction model creation unit 232 described with reference to FIG.
  • the feature amount extraction unit 2121 of FIGS. 21 and 32 the feature amount is obtained by extracting a contour line from the SEM image and comparing it with the reference pattern. It is conceivable to use information as a feature quantity.
  • the binarization unit 291 binarizes the SEM image with an arbitrary threshold, and the white band along the pattern shape of the SEM image is binarized into white pixels, and the other is binarized into black pixels. Is done.
  • the binarized image is thinned by the thinning unit 293 to obtain an outline image.
  • the binary image and the contour image enter the direction-specific feature separation unit of the direction-specific exposure condition estimation unit shown in FIG.
  • FIG. A direction-specific width detection unit 2216 is added to the direction-specific exposure condition estimation unit shown in FIG. Then, instead of the feature value output from the distance value calculation unit 213, the output from the direction width detection unit 2216 is used as the feature value.
  • the width of the white band in the direction perpendicular to that direction is obtained.
  • the width of the white band (white pixel) of W1 in the vertical direction is set.
  • the width of the white band (white pixel) of W1 in the vertical direction is set.
  • the contour line direction is vertical at the point B pixel
  • the width of the white pixel in the horizontal direction is obtained.
  • the obtained white pixel width is obtained.
  • the exposure conditions for each direction can be obtained by using the characteristics for each direction.
  • FIG. 40 shows an example of a GUI for displaying input / output. It is conceivable to display the exposure image by switching the direction. For example, when the exposure condition is displayed on the wafer map 4004, an instruction unit 4001 for switching the display of the exposure condition for each direction is provided. For example, the horizontal exposure condition and the vertical exposure condition are displayed on the wafer map 4004. It is possible to switch and display. It is also conceivable to provide an instruction unit 4002 for instructing that the maximum value, minimum value, average value, etc. of the exposure conditions can be obtained and displayed in each direction or in all directions. It is also conceivable to provide an instruction unit 4003 for instructing and displaying model information for estimating the exposure condition for each direction, for example, a coefficient corresponding to the feature amount.
  • the exposure conditions in the vertical direction and the horizontal direction it may be determined in the same way in all directions such as 45 ° and 30 ° obliquely.
  • the user can specify an area for each direction.
  • a display unit 4005 for displaying a reference pattern or an outline of an SEM image when a display unit 4005 for displaying a reference pattern or an outline of an SEM image is provided and a region is specified by direction, a rectangular b region indicating a horizontal region and a rectangular a region indicating a vertical region
  • a rectangular c region indicating an oblique 45 ° region and a d region indicating a 60 ° region.
  • the user can also assign an omnidirectional area.
  • the above apparatus may be performed by software processing using a personal computer. It is also conceivable to use LSI.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manufacturing & Machinery (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Power Engineering (AREA)
  • Quality & Reliability (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

 本発明は、SEM画像から半導体パターンの2次元形状及びパターン側壁の形状変化を評価して露光条件を推定する画像評価方法、及び画像評価装置の提供を目的とする。 上記目的を達成するために、SEM像から複数の輪郭線を生成して得た特徴量と露光条件との関係を示すモデルと、前記モデルに対応する輪郭線生成パラメータ情報とを格納する記憶部と、前記輪郭線生成パラメータ情報を用いてSEM画像から複数の輪郭線を生成する輪郭線生成部と前記輪郭線生成部で生成した複数の輪郭線から求めた特徴量と、前記モデルを用いて、露光条件を求める推定部を備えた方法、及び装置を提案する。

Description

[規則37.2に基づきISAが決定した発明の名称] 画像評価装置及びパターン形状評価装置
 本発明は、半導体パターンのパターン形状を評価する装置等に関する。また、本発明は、半導体パターンのパターン形状を評価する装置等に係り、特に半導体の適正な製造条件を見出す、或いは半導体の適正な製造条件を見出すためのパラメータを抽出するのに好適なパターン形状評価装置に関する。
 従来、半導体プロセスにおいては、形成されたパターンが設計通りであるかを評価する手段として測長SEMを用いて、ラインパターンの幅やホールの径の寸法等を計測して、寸法でパターン形状を管理していた。半導体の微細化に伴い、露光波長以下のパターンを形成することが一般的になり、変形証明、光近接効果補正などの超解像技術を導入しているが、プロセス変動によるパターン形状の変化は、パターン側壁の傾斜やパターンのコーナー部の丸まりやくびれ、露光器の収差の変化によるパターンの変形など、パターンの寸法では計測が困難である。そのため、パターン側壁の上部と下部の輪郭線を生成してパターンの2次元形状とホワイトバンドの幅からパターン側壁の傾斜を評価する手法(特許文献1参照)が知られている。
 この方法によれば、パターンの2次元形状やパターンの高さ方向の傾斜度合いを用いて評価することが可能である。
 また、半導体パターンをウエハ上に転写する投影露光法は、焼き付けたいパターンの書いてある遮蔽材のフォトマスクに露光の光を当てレンズ系を通してウエハ上のレジストにフォトマスクの像を投影する。露光の際、露光条件であるフォーカス及び露光量を決めて露光するが、レジスト塗布のムラにより、レジストの表面に凹凸があると、フォーカス及び露光量がずれて、転写されるパターンの寸法や形状が変わり,正常なパターンにならない場合がある。また、フォトマスクに起因する非平坦性やレンズの収差等によってもフォーカスはずれる。
 これらレジスト塗布、フォトマスク、レンズの収差で起こるフォーカスと露光量のズレは,再現性があるため、半導体計測装置によるフォーカスと露光量の補正値を求めて,補正値を露光機にフィードバックする方法(特許文献2参照)が知られている。この方法によれば、レジスト塗布、フォトマスク、レンズの収差で起こるフォーカスと露光量のズレを補正でき、パターンの寸法のバラツキを抑えることが可能である。
 また、レンズの収差としてはコマ収差や非点収差がある。非点収差は水平方向と垂直方向で集光位置が異なる現象を起こす。例えば、非点収差があるとホールパターンを作成する際に、縦横同じ寸法の円パターンをウエハに転写してもパターンは縦横で寸法が異なる楕円パターンになってしまう。これを補正するために、ラインパターンを使用してフォーカス値を求める手法(特許文献2参照)を用いて、垂直ラインパターンを用いて水平方向のフォーカス値を求め、水平ラインパターンで垂直方向のフォーカス値を求めて、それぞれフォーカス値に基づいて補正することで、水平方向と垂直方向で最適な露光条件にすることができる。
 また、ウエハの凹凸によりフォーカス値がずれるため、同位置で水平、垂直のフォーカス値が得たい。そのため、垂直ラインパターンと水平ラインパターンが一緒に取れるような十字パターンや楔形のパターン等、専用のパターンを用いる方法(特許文献3参照)もある。
特開2004-228394号公報 特開2005-64023号公報(対応米国特許USP6,929,892) 特開2008-140911号公報(対応米国特許USP8,023,759)
 ホワイトバンド幅を見てもフォーカスがマイナスかプラスかの切り分けができない場合がある。また、プロセス変動の管理はパターンの微細化に伴い、例えばフォーカスでは数nmの変動を検出する必要がある。そのような微小なプロセス変動を求めるにはパターン側壁の上部の丸まりや下部の裾引きを高精度に捉える必要がある。プロセス変動により起きる上部の丸まりや下部の裾引きの形状変化は、パターン形状やパターン間隔の大小、感光体の材質や膜厚等にも関係して、様々であり、ホワイトバンド幅から側壁の傾斜を求めても、局所的な変化を捉えることはできない。
 以下に、局所的な変化を高精度に捉えることを第1の目的とする画像評価装置を提案する。
 また、水平、垂直のラインパターンや十字パターン、楔形のパターン等の専用のパターンをウエハ内に作り込み、それら専用パターンを撮影するための準備が必要となるため作業時間がかかる。更に、CD-SEM等を用いて特定部位或いは特定方向だけでパターンを評価すると、例えばSEM画像上に部分的にノイズが載っていたりする場合に、誤った評価結果を導き出してしまうことになる。また、十字パターン等の大きさによっては測定値を出力するための信号の絶対量が不足し、十分な精度での測定に基づく露光条件評価ができなくなることも考えられる。
 以下に、X方向、Y方向以外の複数方向の測定結果含む複数の測定結果に基づいて、X方向、及び/又はY方向の露光条件を評価、露光条件評価を可能とするパラメータ、露光条件、或いは露光条件の調整条件の出力を第2の目的とするパターン形状評価装置を提案する。
 上記第1の目的を達成するための一態様として、以下に、電子線を用いて撮影した画像から半導体パターンの露光条件を求める画像評価装置において、SEM像から複数の輪郭線を生成して得た特徴量と露光条件との関係を示すモデルと、前記モデルに対応する輪郭線生成パラメータ情報とを格納する記憶部と、前記輪郭線生成パラメータ情報を用いてSEM画像から複数の輪郭線を生成する輪郭線生成部と前記輪郭線生成部で生成した複数の輪郭線から求めた特徴量と、前記モデルを用いて、露光条件を求める推定部を備えたことを特徴とする画像評価装置を提案する。
 また前記輪郭線生成部は3つ以上の輪郭線を生成することを特徴とする画像評価装置を提案する。また、前記輪郭線生成パラメータ情報は前記輪郭線生成部で輪郭線を生成するための情報であり、輪郭線の数とその数に対応した輪郭線各々を生成するための情報であることを特徴とする画像評価装置を提案する。
 また、上記SEM像から複数の輪郭線を生成して得た特徴量と露光条件との関係を示すモデルを作成するための一態様として、以下に、複数の半導体パターンの露光条件とそれに対応する複数のSEM画像を用いてモデルを作成する画像評価装置において、輪郭線生成パラメータ情報を用いて、SEM像から複数の輪郭線を生成する輪郭線生成部と、前記輪郭線生成部で生成した複数の輪郭線から得た特徴量とSEM画像に対応する露光条件からモデル式を作成するモデル生成部と、前記輪郭線生成パラメータ情報を複数用いて、前記輪郭線生成部と前記モデル生成部を経てそれぞれのモデルを求め、求めた複数のモデルの中から評価の良いモデル及びそれに対応する輪郭線生成パラメータ情報を求める評価部を備えたことを特徴とする画像評価装置を提案する。
 上記第2の目的を達成するための一態様として、画像取得装置によって形成される画像に含まれる対象パターンを評価する画像処理装置を備えたパターン形状評価装置において、前記画像処理装置は、複数の方向について、前記対象パターンの複数の方向の特徴量を求め、当該複数の方向の特徴量に対し、前記複数の方向について割り当てられた重み付けを行い、当該重み付けに基づいて、特定方向の露光条件の調整に要するパラメータを求めるパターン形状評価装置を提案する。
 上記構成によれば、傾斜では検出できないパターン側壁上部の丸まりや下部の裾引きの曲線的な形状や局部的な側壁の形状の変化を捉えることが可能となり、微小なプロセス変動を検出することが可能となる。
 また、上記構成によれば、X方向、及び/又はY方向(特定方向)の露光条件に要するパラメータを、X方向、及びY方向以外の複数方向の特徴量に基づいて求めることができるため、専用パターンのようにX方向、Y方向のエッジ量が十分ではない場合がある実パターンを用いた露光条件調整を適正に行うことが可能となる。また、X方向、及びY方向以外のエッジも用いてX方向、Y方向の特徴量の抽出を行うことができるため、十分な情報量に基づく高精度な評価を行うことが可能となる。
画像評価装置の実施例を示す図。 輪郭線生成部の実施例を示す図。 モデル生成部の実施例を示す図。 評価部の実施例を示す図。 推定部の実施例を示す図。 画像評価方法の処理フローを示す図。 モデル作成部の処理フローを示す図。 輪郭線生成段階の処理フローを示す図。 モデル作成段階の処理フローを示す図。 露光量推定段階の処理フローを示す図。 推定段階の処理フローを示す図。 輪郭線生成パラメータの一例を示す図。 フォーカスによりパターン側壁の変化を示す図。 輪郭線の閾値とパターン側壁の関係。 表示手段のGUIの実施例を示す図。 パターンの間隔やホールの径の大きさ示す図。 端点部位のパターン側壁変化を示す図。 部位毎に分ける一例を説明する図。 半導体計測システムの一例を説明する図。 走査電子顕微鏡の概略説明図。 画像評価装置の実施例を示す図。 特徴量抽出部の実施例を示す図。 輪郭線抽出部の実施例を示す図。 方向別露光条件推定部の実施例を示す図。 方向別特徴分離部の実施例を示す図。 方向検出部で用いる方向毎のパターンを示す図。 輪郭線の方向と特徴量を示す図。 水平方向推定部及び垂直方向推定部の実施例を示す図。 方向別露光条件モデル作成部の実施例を示す図。 水平方向モデル作成部及び垂直方向モデル作成部の実施例を示す図。 方向別特徴分離部の実施例を示す図。 画像評価装置の実施例を示す図。 方向別領域指定部の領域指定の一例を示す図。 特徴量抽出部の実施例を示す図。 方向別露光条件推定部の実施例を示す図。 方向別露光条件モデル作成部の実施例を示す図。 特徴量抽出部の実施例を示す図。 方向別特徴分離部の実施例を示す図。 輪郭線の方向と特徴量を示す図。 入力出力のGUIの実施例を示す図。 方向別の領域指定の一例を示す図。
 以下に説明する実施例にて例示する画像評価装置は、SEM撮影によるパター画像データからプロセス変動をモニタするためのパターン画像の評価手法、および装置に関するものである。また、その具体的な一例として、画像データからパターンの複数の輪郭線の2次元形状を用いてプロセス変動を検出する例を示す。
 また、画像データからパターンの複数の輪郭線の2次元形状を用いてプロセス変動を検出するためのモデル及び輪郭線の生成パラメータを求める例を示す。
 以下に、画像データからパターンの輪郭線の2次元形状を用いてプロセス変動を検出する機能を備えた装置、測定検査システムについて、図面を用いて説明する。より具体的には、測定装置の一種である測長用走査電子顕微鏡(Critical Dimension-Scanning Electron Microscope:CD-SEM)を含む装置、システムについて説明する。
 なお、以下の説明では、画像を形成する装置として荷電粒子線装置を例示すると共に、その一態様として、SEMを用いた例を説明するが、これに限られることはなく、例えば試料上にイオンビームを走査して画像を形成する集束イオンビーム(Focused Ion Beam:FIB)装置を荷電粒子線装置として採用するようにしても良い。但し、微細化が進むパターンを高精度に測定するためには、極めて高い倍率が要求されるため、一般的に分解能の面でFIB装置に勝るSEMを用いることが望ましい。
 図19は、複数の測定、或いは検査装置がネットワークに接続された測定、検査システムの概略説明図である。当該システムには、主に半導体ウエハやフォトマスク等のパターン寸法を測定するCD-SEM2401、試料に電子ビームを照射することによって、画像を取得し当該画像と予め登録されている参照画像との比較に基づいて欠陥を抽出する欠陥検査装置2402がネットワークに接続された構成となっている。また、ネットワークには、半導体デバイスの設計データ上で、測定位置や測定条件等を設定する条件設定装置2403、半導体デバイスの設計データと、半導体製造装置の製造条件等に基づいて、パターンの出来栄えをシミュレーションするシミュレーター2404、及び半導体デバイスのレイアウトデータや製造条件が登録された設計データが記憶される記憶媒体2405が接続されている。
 設計データは例えばGDSフォーマットやOASISフォーマットなどで表現されており、所定の形式にて記憶されている。なお、設計データは、設計データを表示するソフトウェアがそのフォーマット形式を表示でき、図形データとして取り扱うことができれば、その種類は問わない。また、記憶媒体2405は測定装置、検査装置の制御装置、或いは条件設定装置2403、シミュレーター2404内蔵するようにしても良い。なお、CD-SEM2401、及び欠陥検査装置2402、には、それぞれの制御装置が備えられ、各装置に必要な制御が行われるが、これらの制御装置に、上記シミュレーターの機能や測定条件等の設定機能を搭載するようにしても良い。
 SEMでは、電子源より放出される電子ビームが複数段のレンズにて集束されると共に、集束された電子ビームは走査偏向器によって、試料上を一次元的、或いは二次元的に走査される。
 電子ビームの走査によって試料より放出される二次電子(Secondary Electron:SE)或いは後方散乱電子(Backscattered Electron:BSE)は、検出器により検出され、前記走査偏向器の走査に同期して、フレームメモリ等の記憶媒体に記憶される。このフレームメモリに記憶されている画像信号は、制御装置内に搭載された演算装置によって積算される。また、走査偏向器による走査は任意の大きさ、位置、及び方向について可能である。
 以上のような制御等は、各SEMの制御装置にて行われ、電子ビームの走査の結果、得られた画像や信号は、通信回線ネットワークを介して条件設定装置2403に送られる。なお、本例では、SEMを制御する制御装置と、条件設定装置2403を別体のものとして、説明しているが、これに限られることはなく、条件設定装置2403にて装置の制御と測定処理を一括して行うようにしても良いし、各制御装置にて、SEMの制御と測定処理を併せて行うようにしても良い。
 また、上記条件設定装置2403或いは制御装置には、測定処理を実行するためのプログラムが記憶されており、当該プログラムに従って測定、或いは演算が行われる。
 また、条件設定装置2403は、SEMの動作を制御するプログラム(レシピ)を、半導体の設計データに基づいて作成する機能が備えられており、レシピ設定部として機能する。具体的には、設計データ、パターンの輪郭線データ、或いはシミュレーションが施された設計データ上で所望の測定点、オートフォーカス、オートスティグマ、アドレッシング点等のSEMにとって必要な処理を行うための位置等を設定し、当該設定に基づいて、SEMの試料ステージや偏向器等を自動制御するためのプログラムを作成する。また、後述するテンプレートの作成のために、設計データからテンプレートとなる領域の情報を抽出し、当該抽出情報に基づいてテンプレートを作成するプロセッサ、或いは汎用のプロセッサをテンプレートを作成させるプログラムが内蔵、或いは記憶されている。
 図20は、走査電子顕微鏡の概略構成図である。電子源2501から引出電極2502によって引き出され、図示しない加速電極によって加速された電子ビーム2503は、集束レンズの一形態であるコンデンサレンズ2504によって、絞られた後に、走査偏向器2505により、試料2509上を一次元的、或いは二次元的に走査される。電子ビーム2503は試料台2508に内蔵された電極に印加された負電圧により減速されると共に、対物レンズ2506のレンズ作用によって集束されて試料2509上に照射される。
 電子ビーム2503が試料2509に照射されると、当該照射個所から二次電子、及び後方散乱電子のような電子2510が放出される。放出された電子2510は、試料に印加される負電圧に基づく加速作用によって、電子源方向に加速され、変換電極2512に衝突し、二次電子2511を生じさせる。変換電極2512から放出された二次電子2511は、検出器2513によって捕捉され、捕捉された二次電子量によって、検出器2513の出力Iが変化する。この出力Iに応じて図示しない表示装置の輝度が変化する。例えば二次元像を形成する場合には、走査偏向器2505への偏向信号と、検出器2513の出力Iとの同期をとることで、走査領域の画像を形成する。また、図20に例示する走査電子顕微鏡には、電子ビームの走査領域を移動する偏向器(図示せず)が備えられている。
 なお、図20の例では試料から放出された電子を変換電極にて一端変換して検出する例について説明しているが、無論このような構成に限られることはなく、例えば加速された電子の軌道上に、電子倍像管や検出器の検出面を配置するような構成とすることも可能である。制御装置2514は、走査電子顕微鏡の各構成を制御すると共に、検出された電子に基づいて画像を形成する機能や、ラインプロファイルと呼ばれる検出電子の強度分布に基づいて、試料上に形成されたパターンのパターン幅を測定する機能を備えている。
 次に、画像認識を行うための画像評価装置1の一態様を説明する。画像評価装置1は、制御装置2514内に内蔵、或いは画像処理を内蔵された演算装置にて実行することも可能であるし、ネットワークを経由して、外部の演算装置(例えば条件設定装置2403)にて画像評価を実行することも可能である。
 図1(a)はSEM画像と露光条件の関係を求めるモデルの作成とそれに用いる輪郭線生成パラメータを出力する画像評価装置のモデル作成部1の一例を説明する図である。
 予めショット(1回の露光単位)ごとに露光条件(フォーカス、露光量)を変えてパターンを焼き付けたFEM(Focus Exposure Matrix)ウエハをSEMを用いて撮影し、その撮影したウエハ上の位置により、どの露光条件のショットかの対応がとれるので、この情報を露光条件情報30とする。図1(a)では、それら複数の異なる露光条件(フォーカス、露光量)情報30と撮影したSEM画像31を用いる。また、パターンが崩れているようなモデル作成に適さないSEM画像は予め除いておく必要がある。
 輪郭線生成部11ではSEM画像31から輪郭線生成パラメータ32に基づいて複数の輪郭線を生成する。輪郭線生成パラメータ32は輪郭線生成部11で生成する輪郭線の数とその各々の輪郭線を生成するためのパラメータの情報である。
 輪郭線生成部11で生成した複数の輪郭線のデータを用いてモデル生成部12で特徴量を求め、露光条件(フォーカス、ドーズ)の情報に対応させ、特徴量と露光条件の関係を示すモデルを作成する。モデル生成部12で作成したモデルを用いて評価部13でモデルの評価を行う。
 モデルを作成する際、露光条件によるパターンの側壁の変化を捉えるのに適した複数の輪郭線を生成するパラメータを求めることが重要になる。なぜなら、プロセス変動により起こる上部の丸まりや下部の裾引きの形状変化は、パターン形状やパターン間隔の大小、感光体の材質や膜厚等によって、様々であり、側壁のどの高さのポイント(高さ位置)で見るかによって変化の大きさが変わる。図13にフォーカスによりパターン側壁の変化の例を示す。図13(a)の例ではフォーカスがF1,F2,F3と変わると感光体の上部が縮んで感光体の上部PAの点が右に移動していくが、感光体の下部PBの点はあまり変化しない。
 図13(b)の例ではフォーカスがF1,F2,F3と変わると感光体の上部PAの点は変化が小さいが、感光体の下部が縮んで感光体の下部PBの点が左に移動していく。
 図13(c)の例ではフォーカスがF1,F2,F3と変わると感光体の上部PAの点、感光体の下部PBの点は変化が小さいが、感光体の上部PAと下部PBの間のPC点では感光体が縮んで右に移動していく。
 また、輪郭線の閾値とパターン側壁の関係について図14に示す。これはホールパターンであり、(a)は(b)のSEM画像のiラインのパターン側壁部の断面である。SEM画像では(b)に示すようにパターンの形状がホワイトバンドとして現れる。ホワイトバンドはパターンをSEMで撮影する際、パターン側壁で反射する2次電子の量が増えて、輝度が高くなり、パターン形状に沿って白い帯のように現れる。このホワイトバンドはパターン側壁の断面の傾きが最も大きい個所がプロファイル(c)のホワイトバンドの輝度のピークの位置Ppに相当する。また、パターン上部PAと下部PBは、ホワイトバンドの輝度のプロファイルの山の両端の裾野Pa、Pbに相当する。ホワイトバンドの両端のどちらがパターンの上部と下部かは、パターンの内側若しくは外側が凹か凸か等の情報を用いれば判る。
 ホワイトバンドの両端を内側と外側として、ここではホールパターンなのでホワイトバンドの内側の円は凹で下部に相当する。逆にホワイトバンドの外側の円は上部に相当する。このように輝度のプロファイルからパターンの上部や下部、またその間の位置等を捉えることができる。このプロファイルから輪郭線を生成する際、例えば、ホワイトバンドのピークを100%としてホワイトバンドの内側(ピーク位置の右側)50%の位置を生成する輪郭線の点とする。輝度のプロファイルから同様にパターン形状に沿ってそれぞれのホワイトバンドの内側(ピーク位置の右側)50%の位置の点を結んで作成した線を内側、50%で作成した輪郭線とする。例えば50%以外にも30%、70%、90%の4つの点を用いて、同様に4つの輪郭線を作成することができる。
 その場合、輪郭線を生成するパラメータとして例えば、“内側、th(閾値)30、th(閾値)50、th(閾値)70、th(閾値)90”と設定し、ピークを100%としてホワイトバンドの外側(ピーク位置の左側)50%の位置で同様に輪郭線を作成する場合は“外側、閾値50”と設定することが考えられる。また、輪郭線生成パラメータ32の輪郭線の本数分の各の輪郭線を生成するパラメータはこの閾値の情報である。
 上記のようにパターン側壁の高さ位置の情報を含むホワイトバンドのプロファイルを用いて、パターン側壁の高さ位置相当する任意の閾値で輪郭線を作成する。
 パターン側壁の変化が殆ど無いと、プロセス変動を捉えることはできない。逆に変化の大きい高さ位置を求めることができれば、プロセス変動を精度よく捉えることができると考える。また、パターン側壁の変化の大きい高さ位置を見ても高さ位置が1点だとフォーカスのベスト位置から対象的に変化が同じになり、フォーカスを推定する際のプラスかマイナスの符号の判別ができない。また、高さ位置が2点では曲線的な形状の変化は捉えられないため、精度の良い判別は難しい。そこで、3点以上の高さ位置で見て、曲線的な形状の変化が大きく捉えられるそれぞれの高さ位置を求めることを考えた。これにより、上部の丸まりや下部の裾引きの曲線的な形状変化の大きい個所を捉えることができ、フォーカスを推定する際も精度のよい符号の判別及び露光条件の推定が可能となる。
 輪郭線2本による2点を用いて変化を求める場合と、輪郭線3本による3点を用いて変化を求める場合の違いについて説明する。
 例えば、輪郭線2本による2点をA点とB点とした場合、この2点では、A-B間の1つの変化しか捉えられないが、輪郭線3本によるA,B,Cの3点あれば、A-B間,B-C間,A-C間の3つの変化を、つまり複数個所の変化を捉える事が出来る。ちなみに、輪郭線4本でA,B,C,Dの4点あればA-B間,B-C間,C-D間,A-C間,A-D間,B-D間の6つの変化を捉える事が出来る。
 フォーカスによって変化が見えるレジストの高さ位置が変わると、2本の輪郭線による2点から得られる1つの変化量だけを用いてもフォーカス値を精度よく求めることは難しい。
 局所的な変化が1か所でなく、2か所、複数個所で起きる場合、2点では1つの変化量でしか捉えられないため、1か所の変化のみを捉えるか、若しくは、複数の変化を1つに纏めて捉えることしかできない。例えば、フォーカスのプラス側ではA点付近が変化し、マイナス側ではB点付近の変化が大きいとすると、輪郭線2本による2点を用いて変化を求める場合は、A点付近か、B点付近のどちらかの変化のみを求めるか、若しくは、A点付近とB点付近の両方を挟んで変化を求めるしかない。両方を含む場合、A点付近とB点付近のどちらが変化したのか分からない。変化の方向が逆の場合も有る可能性もありえる。しかし、輪郭線3本による3点を用いることで、A点付近、B点付近のどちらかの変化も捉えることが可能となり、3つの変化量からマイナス側の推定ができ、精度の向上が期待できる。さらに、4つの輪郭線での4点を用いると6つの変化を捉えることができ、より複数のレジストの高さ位置の変化を捉えることができる。また、1つの変化量ではその絶対値のみであるが、3つの変化量を用いれば、それぞれの絶対値だけでなく、相対値、差分値の変化量も用いることが可能となる。
 以上、3つ以上の輪郭線を用いることで、複数のレジストの高さ位置での変化量を求めることが可能となり、フォーカス値の推定精度が向上する。ただし、あまり多くの輪郭線を用いると処理時間がかかり、実用的でないため、10本以内で充分と考える。また、本数が多ければ、閾値を調整しなくても、固定の閾値でいいと考えられる。また、処理時間の問題で、輪郭線の本数が少ない場合は、フォーカスにより変化するレジストの高さ位置を求めておくことが有効と考える。例えば、予め、多くの異なるレジストの高さ位置の閾値で作成した輪郭線を用いて、フォーカスにより変化量の大きい点間のそれぞれの閾値を調べておき、実際に評価する際は、選んだ閾値での輪郭線を用いることが考えられる。
 パターン側壁を複数の高さ位置で見た場合に、形状の変化が大きく捉えられるそれぞれの高さ位置を求める際、特徴量の取り方やモデルにより、どの高さ位置がよいか判断するのが難しいため、結果的に得られたモデルを評価部13で評価することで判断する。つまり、モデルの評価が良い輪郭線生成パラメータ32は露光条件を求めるモデルに有効な特徴をより現す輪郭線を生成するパラメータであり、また、パターン側壁の形状変化をより捉える輪郭線を生成するパラメータと考える。
 そのため、複数の輪郭線生成パラメータ32を用いて、上記処理により複数のモデルを作成し、評価部13で評価したモデルの当てはまりの評価での最も評価値の高いモデル34及び輪郭線生成パラメータ35を出力する。
 これにより、パターン形状やパターン間隔の大小、感光体の材質や膜厚等によって、様々なパターン側壁の変化に対応できる輪郭線生成パラメータとモデルを生成することが可能となる。
 図11(a)に複数の輪郭線生成パラメータの一例を示す。図11(a)のように輪郭線生成パラメータ32は輪郭線数とその輪郭線数分の高さ位置(閾値)の情報であり、パターン側壁の上部か下部かを示す情報、例えばパターンのホワイトバンドの内側、外側に関する情報やパターンの凹凸に関する情報も加えてもよく、1行ごとに1つの輪郭線生成パラメータを示し、複数行のリストにして、上から順に処理することが考えられる。また、図11(b)のように輪郭線の数は明示しなくても、高さ位置(閾値)の数の情報から輪郭線の数を判定できるので、輪郭線を生成する複数個の高さ位置(閾値)の情報であってもよい。
 図2に輪郭線生成部の実施例を示す。輪郭線生成部11はSEM画像31に対して輪郭線生成パラメータ32に基づいて複数の輪郭線データ11aを生成する。
 輪郭線生成パラメータ32の生成する輪郭線の本数、例えばn本であれば、n個の輪郭線作成部1101~11nにそれぞれの輪郭線を生成するパラメータを読み込む。そしてSEM像から輪郭線作成部1101~11nでn個の輪郭線を生成する。生成した輪郭線データは輪郭線記憶部1100に記憶しておいてもよい。ここでは輪郭線作成部をn個用いているが、輪郭線作成部を1個にしてn回作成してもよい。
 図3にモデル生成部の実施例を示す。輪郭線生成部11で生成した輪郭線データから特徴量を求めて、Focus値、Dose値情報と特徴量との関係を示すモデルを作成する。
 特徴量算出部121では輪郭線データと基準パターンの位置合わせを行い、輪郭線の各画素とそれに対応する基準パターンの画素位置の距離を求める。輪郭線データと基準パターンの位置合わせは輪郭線データと基準パターンを画像化し、それぞれを膨張処理し、正規化相関を用いたマッチング処理を行い位置合わせする。また、画像化した後に画像の重心を求めて重心位置が合うように位置合わせを行うことも考えられる。これに限らず、公知のマッチング技術で輪郭線データと基準パターンの位置合わせを行うことができる。また、基準パターンについては、設計データでも良いし、シミュレーションデータでも良いし、1枚若しくは複数のSEM像から作成した画像データや輪郭線データでも良い。また、輪郭線生成部11で生成した複数の輪郭線データの中の1つを基準パターンとしても良い。位置合わせを行った後の輪郭線の画素と基準パターンの画素との対応付けは、輪郭線の画素を基準にして基準パターンの各画素の中で最も距離の近い画素を対応する基準パターンの画素とし、その対応する画素間の距離を求める。輪郭線の全ての画素において対応する基準パターンの画素との距離を求め、全画素で求めた距離の統計量、例えば平均値や分散値等を求めて特徴量とする。全画素でなくても複数の画素で求めてもよい。また、特徴量は複数でもよい。また、この特徴量はそれぞれ輪郭線毎に求める。対応付けはここでは輪郭線の画素を基準にして求めたが、基準パターンの画素を基準にして求めてもよい。また、ラインエッジラフネスは露光条件により変化することが知られており、ラインエッジラフネスは周期性が有るため、フーリエ変換(FFT)等の空間周波数を求めて、ラインエッジラフネスの周期性を示す特徴量を用いて、フォーカス値を求めることも考えられる。
 特徴量算出部121で求めた輪郭線毎の特徴量と、露光条件(Focus値、Dose値)情報30を用いてモデル化部122でモデルを作成する。モデルは回帰式を求めて作成してもよいし、線形計画法を用いて求めてもよい。例えば回帰式では、特徴量A1、A2、…Anに、それぞれ重み係数X1、X2、…Xnの線形和で露光条件Yを表すことができる。
  Y=X1A1+X2A2+・・・XnAn+b
 この場合、モデルは各特徴量の重み係数X1、X2、…Xn、bの値となる。図示しないが、モデル化部122にメモリ等の記憶部を設けておき、露光条件の情報とSEM像の輪郭線から得た特徴量は記憶しておく。
 図4に評価部の実施例を示す。
 評価部13ではモデル作成部1で求めた複数のモデルについて評価を行い、評価値に基づいてその中から最も良いモデルと輪郭線生成パラメータを選出する。
 モデル評価部131ではモデルの当てはまりを評価する。当てはまりの評価には例えば、自由度調整済決定係数を求めて当てはまりの評価値としてもよい。また、赤池情報量基準(AIC)の評価基準に基づいて評価値を決めてもよいし、その他の公知技術を用いても良い。モデル評価部131で求めた評価値及びモデルと輪郭線生成パラメータを記憶/選択部132で記憶し、記憶した複数のモデル評価値の中から評価値の良いモデル34と輪郭線生成パラメータ35を出力する。また、輪郭線の数を生成する処理時間がかかるため、評価値はモデルの当てはまりだけでなく、輪郭線の数が増えるに合わせて評価値を下げるようにして、同じ評価値であれば用いる輪郭線の数が小さい方が評価値を良くすることも考えられる。
 図1(b)は画像評価装置1で求めたモデル34と輪郭線生成パラメータ35を用いてSEM像から露光条件を推定する画像評価装置の露光条件推定部2の一例を説明する図である。
 モデル作成部1で求めた輪郭線生成パラメータ35に基づいて輪郭線生成部21でSEM像から複数の輪郭線を生成し、生成した複数の輪郭線から特徴量を求めて、モデル作成部1で求めたモデルを用いて推定部22で露光条件を推定する。輪郭線生成部21は図1(a)に示した輪郭線生成部21と同じである。図5に推定部の実施例を示す。
 輪郭線生成部21で生成した複数の輪郭線から特徴量算出部221で特徴量を算出する。この特徴量算出部221は図3で説明した特徴量算出部121と同じであり、説明は省く。
 モデル演算部222ではモデル作成部1で求めたモデルを用いて特徴量算出部221で得た特徴量から露光量を推定する。
 モデルが各特徴量の重み係数X1、X2、…Xn、bの値で、特徴量算出部221で得た特徴量A1、A2、…Anであれば、
  Y=X1A1+X2A2+・・・XnAn+b
で露光量を推定することができる。
 推定した結果は表示手段を用いて図15に示すようなGUI画面38に例えばウエハマップ386の示す位置に対応するSEM画像から推定して求めた露光条件の結果を配置して表示させてもよし、そのパターンの露光条件とモデルで推定した露光条件の差分を示してもよい。その差分の大きさによって色を変えることも考えられる。また、推定部で用いる特徴量を得るための3つ以上の輪郭線を生成するパラメータを設定する設定部381を設ける。この設定は、ユーザーが手で入力しても良いし、モデル作成時や予めファイルにしておき、そのファイルを読み込むようにしてもよい。
 また、用いたモデル384や輪郭線生成パラメータ385を表示させることも考えられる。モデルが重み係数の場合は、その重みを表示させる。輪郭線生成パラメータは、生成する輪郭線の本数とそれぞれの閾値である。
 また、図1(a)の露光条件のモデルを作成する際も図15に示すようなウエハマップ386の示す位置に対応するSEM画像から露光条件とモデルで推定した露光条件を配置して表示してもよい。また、その際、複数の輪郭線生成パラメータを用いて得たそれぞれのモデルとその評価値を表示する窓383を設けてもよい。また、その複数のモデルの中から1つのモデルを選択し、そのモデルを使用した際のウエハ上のSEMの撮影位置に相当する位置にその露光条件と選択したモデルで推定した露光条件を並べて表示してもよい。また、上記の図1(a)の露光条件のモデルを作成する際について説明したが、図1(b)の露光条件を推定する際にも同様に行うことが考えられる。また、輪郭線を生成するのに処理時間がかかるため、予め許容できる処理時間に合わせて最大の輪郭線数を設定する設定部382を設けて、設定された最大の輪郭線数未満の数の輪郭線を輪郭線生成部で生成して評価値の良いモデル及びその輪郭線生成パラメータを求めることも考えられる。また、輪郭線生成パラメータは外部から設定せずに自動で複数の輪郭線生成パラメータを生成してモデル及び輪郭線生成パラメータを求めてもよい。その場合は、例えば設定部382に自動モードを設定できるようにしておくことが考えられる。また、高さ位置(閾値)の刻み値を10と設定し、0から10刻みで増やして最大値の100までの11個のパラメータを自動で生成してもよい。パターンの内側外側(パターン側壁の上部下部)も含めて複数の輪郭線の閾値を各々その刻み値で変えて評価値の良いモデル及びその輪郭線生成パラメータを求めることが考えられる。
 図6に露光条件を求める画像評価方法の処理フローを示す。
 S10のモデル作成段階で露光条件を推定するためのモデルを作成し、S20の露光条件推定段階で作成したモデルを用いてSEM画像から露光条件推定する。
 図7にモデル作成部の処理フローを示す。モデル作成部では、S11の輪郭線生成パラメータ設定で複数の輪郭線生成パラメータを設定する。S12の輪郭線生成段階で設定された複数の輪郭線生成パラメータの中の1つの輪郭線生成パラメータに基づいて輪郭線を生成する。S13で全てのSEM画像について輪郭線の生成が行われるまで輪郭線生成段階を繰り返す。全てのSEM画像について輪郭線の生成が済むとS14でモデル作成段階に入る。モデル作成段階では、全てのSEM画像から生成したそれぞれ複数の輪郭線から特徴量を求めて、露光条件との関係を示すモデルを作成する。そして、S15で作成したモデルの当てはまりの評価を行い、その評価結果及びモデルとその輪郭線生成パラメータを記憶する。S16で全ての輪郭線生成パラメータについてモデルを作成が済んだかを確認し、済んでいなければ、S17でまだモデルを作成していない輪郭線生成パラメータに更新して読み込み、全ての輪郭線生成パラメータについてモデルを作成するまで上記処理を繰り返す。全ての輪郭線生成パラメータについてモデルが作成できたら、S18で作成したモデルの中から評価値の最も良いモデル及び輪郭線生成パラメータを選出する。図8に輪郭線生成段階の処理フローを示す。輪郭線生成段階ではS121で輪郭線生成パラメータを読み込んでS122でその輪郭線生成パラメータの輪郭線の数及びその各々の閾値に基づいて複数の輪郭線を生成する。S123では生成した輪郭線のデータを記憶手段に記憶する。
 図9にモデル作成段階の処理フローを示す。S141でSEM画像に対応する輪郭線データと露光条件(フォーカス、露光量)の情報を読み込む。S142で輪郭線と基準パターンの位置合わせを行う。そして、S143で輪郭線の各画素に対応する基準パターンの画素との距離を求め、S144で求めた距離値の統計量を計算して特徴量として記憶手段に格納する。S145でモデル作成に使用する全てのSEM画像について特徴量を求めたか確認し、求めていなければ、残っているSEM画像の特徴量を求めてS146のモデル化でモデルを作成する。モデルは特徴量とその露光条件に基づいて回帰式や線形計画法等を用いて求める。
 図10に露光量推定段階の処理フローを示す。
 S21でモデル作成段階S10で求めた輪郭線生成パラメータ及びモデルを設定し、S22の輪郭線生成段階で設定した輪郭線生成パラメータの輪郭線の数及びその各々の閾値に基づいて複数の輪郭線を生成し、S23の推定段階で複数の輪郭線から特徴量を求めて、その特徴量に基づいてモデルを用いて露光条を推定する。S22の輪郭線生成段階はS21の輪郭線生成段階と同じ処理である。
 図11に推定段階の処理フローを示す。S231で輪郭線と基準パターンの位置合わせを行い、S232で輪郭線の各画素に対応する基準パターンの画素との距離を求め、S233で全画素の距離値の統計量(特徴量)を求めて、S234で求めた特徴量でモデルを計算し、露光条件を求める。
 S231の位置合わせとS232の距離の求める詳細は、図3のモデル生成部の実施例で説明したので省く。
 また、上記ではモデルを回帰式や線形計画法で作成したが、例えば複数の輪郭線から得た特徴量をアドレスとして露光条件を引くようなテーブルを作成し、評価時は作成したテーブルを用いて複数の輪郭線から得た特徴量を基に、最も特徴量の値が近いテーブルのアドレスを引いて、露光条件を求めるようにしてもよい。
 また、図16のようにホールパターンの間隔やホールの径の大きさによる、パターン側壁の変化を考えてみる。パターンを露光した際、パターン間隔Lが狭いとパターン間隔が広い場合に対して、パターン上部は多く縮み、変化が大きくなると考えられる。そのため、例えば、ある特定の値よりパターン間隔が小さい場合は、輪郭線生成パラメータを設定する際、パターン上部に絞り、複数の輪郭線の閾値を設定することが考えられる。また、ホールパターンの径Kが小さい場合は、大きい場合に比べてパターン下部の変化が大きくなると考えられる。
 そのため、ある特定の閾値よりホールパターンの直径Kが小さい場合は輪郭線生成パラメータを設定する際、パターン下部に絞り、複数の輪郭線の閾値を設定することが考えられる。
 図17にパターンのラインエンド(端点)部のフォーカスによる変化を示す。これは上から見たものでフォーカスFAの形状とフォーカスFBの形状の変化の大きさが端点の中央の部分LCと端の部分Lで異なる。露光の光の回り込みにより、パターンの部位で光強度に違いがあるので、パターンの側壁の変化もコーナー部や直線部、ラインエンド(端点)部等の部位毎に異なると考えられる。そのため、様々なパターンで露光条件を求める際はSEM画像から部位毎に分けて複数の輪郭線を生成し、特徴量を求めて部位毎のモデルを作成することが考えられる。その場合は、部位毎に輪郭線生成パラメータを求めることになる。例えば、図18に示すようなパターンを用いる場合、ラインエンド部の151c、152cの領域はラインエンド部として、151a、152a、154a、153aは直線部として、15bはコーナー部としてそれぞれ分けてモデルを作成し、モデルの評価も部位ごとに行って、それぞれの部位でモデルと輪郭線生成パラメータを求めることが考えられる。
 尚、ここでは輪郭線を用いて評価しているが、輪郭線という連続した点でなくても、同様にして求めた複数の点として用いることも考えられる。
 以下に説明する実施例では、荷電粒子線の一態様である電子線を用いて撮影した画像から半導体パターンの露光条件を求めるパターン形状評価装置において、閉曲線を含むパターン画像から特徴量を求める特徴量抽出部と、前記特徴量抽出部で求めた特徴量を用いて、少なくとも垂直と水平の2方向の露光条件を推定する推定部を備えたパターン形状評価装置について説明する。
 また、電子線を用いて撮影した画像から半導体パターン形成時のフォーカス値を含む露光条件を求めるパターン形状評価装置において、閉曲線を含むパターン画像から方向別に特徴量を求める特徴量抽出部と、前記特徴量抽出部で求めた特徴量を用いて、少なくとも垂直と水平の2方向の露光条件を推定する推定部を備えることを特徴とする画像評価装置を提案する。
 また、前記特徴量抽出部では、ホワイトバンド又はパターンエッジ又は輪郭線の方向情報を求める方向検出部で得た方向情報により、少なくとも垂直と水平の2方向の特徴量を求める特徴量抽出部を備えることを特徴とするパターン形状評価装置を提案する。
 また、前記、特徴量抽出部では、ユーザが2方向以上の方向毎に指定した領域毎に分けて特徴量を求める特徴量抽出部を備えることを特徴とするパターン形状評価装置を提案する。
 さらに、前記推定部で推定する際に、前記特徴量抽出部で求めた方向毎の特徴量と露光条件の関係を示すモデル又はテーブルを用いて推定することを備えることを特徴とするパターン形状評価装置を提案する。
 また、前記方向検出部で得た方向情報から、少なくとも垂直と水平の2方向に分けるための割合を算出する方向別特徴算出部を備えることを特徴とするパターン形状評価装置を提案する。
 また、上記SEM像から水平、垂直の方向毎に特徴量と露光条件との関係を示すモデルを作成するための一態様として、以下に、電子線を用いて撮影した画像から半導体パターンの露光条件を求めるパターン形状評価装置において、閉曲線を含むパターン画像から、少なくとも垂直と水平の2方向の特徴量を求める特徴量抽出部と、前記特徴量抽出部で求めた方向毎の特徴量と、SEM画像に対応する露光条件を用いてモデルを作成するモデル作成部を備えることを特徴とするパターン形状評価装置を提案する。
 また、前記モデル作成部では少なくとも垂直と水平の2方向の方向毎に特徴量と露光量の関係を示すモデルを作成することを特徴とするパターン形状評価装置を提案する。
 また、上記画像評価装置のユーザーインターフェースの一態様として、以下に、ウエハマップ上に露光条件を方向毎に切り替えて表示することができる表示部を備えたことを特徴とするパターン形状評価装置を提案する。
 また、方向毎の特徴量を求める領域をユーザが指定できる指示部を備えたことを特徴とするパターン形状評価装置を提案する。
 更に他の態様として、電子線を用いて撮影した画像から半導体パターンの露光条件を求めるパターン形状評価装置において、閉曲線を含むパターン画像から、ホワイトバンド又はパターンエッジ又は輪郭線の方向情報を求める方向検出部と、前記方向検出部の方向情報により、少なくとも垂直と水平の2方向の特徴量を求める特徴量抽出部と、前記特徴量抽出部で求めた方向毎の特徴量と、方向毎の特徴量とフォーカス値の関係を示すモデル又はテーブルに基づいて、少なくとも垂直と水平の2方向のフォーカス値を推定する推定部を備えることを特徴とするパターン形状評価装置を提案する。
 また、電子線を用いて撮影した画像から半導体パターンの露光条件を求めるパターン形状評価装置において、閉曲線を含むパターン画像から、特徴量を求める特徴量抽出部と、画像のエッジの方向に基づいて前記特徴量を、少なくとも垂直と水平の2方向に分けるための寄与率を算出する寄与率算出部と、前記特徴量と前記寄与率及び方向毎の特徴量とフォーカス値の関係を示すモデル又はテーブルに基づいて、少なくとも垂直と水平の2方向のフォーカス値を推定する推定部を備えることを特徴とするパターン形状評価装置を提案する。
 また、上記SEM像から複数の輪郭線を生成して得た特徴量と露光条件との関係を示すモデルを作成するための一態様として、以下に、電子線を用いて撮影した画像から半導体パターンの露光条件を求めるパターン形状評価装置において、閉曲線を含むパターン画像から、少なくとも垂直と水平の2方向の特徴量を求める特徴量抽出部と、前記特徴量抽出部で求めた方向毎の特徴量と、SEM画像に対応する露光条件から方向毎の特徴量とフォーカス値の関係を示すモデルを作成するモデル作成部を備えることを特徴とするパターン形状評価装置を提案する。
 上記構成によれば、垂直線、水平線のパターンに限らず、ホール等の曲線パターンの画像から方向別の特徴量を検出し、それぞれの方向のフォーカス値を得ることが可能となる。
 以下に説明する実施例にて例示するパターン形状評価装置は、SEM撮影による曲線パターンの画像データから水平方向、垂直方向のフォーカスを含めた露光条件をモニタするためのパターン画像の評価手法、および装置に関するものである。また、その具体的な一例として、曲線パターンの画像データから輪郭線の2次元形状を用いて水平方向、垂直方向のフォーカスを含めた露光条件を検出する例を示す。
 また、曲線パターンの画像データからパターンの輪郭線の2次元形状を用いて水平方向、垂直方向のフォーカスを含めた露光条件を検出するためのモデル及び輪郭線の生成パラメータを求める例を示す。
 以下に、曲線パターンの輪郭線の2次元形状を用いて水平方向、垂直方向のフォーカスを含めた露光条件を検出する機能を備えた装置、測定検査システムについて、図面を用いて説明する。より具体的には、測定装置の一種であるCD-SEMを含む装置、システムについて説明する。
 図21(a)(b)は閉曲線を含むパターンの画像データから輪郭線の2次元形状を用いて水平方向、垂直方向のフォーカスを含めた露光条件を検出する画像処理装置2102の一例を説明する図である。予めショット(1回の露光単位)ごとに露光条件(フォーカス、露光量)を変えてパターンを焼き付けたFEM(Focus Exposure Matrix)ウエハをSEM撮影し、その撮影したウエハ上の位置により、撮影した画像と露光条件の対応がとれるので、この情報を露光条件情報7とする。
 図21(b)では、それら複数の異なる露光条件(フォーカス、露光量)情報7と撮影した測定対象となる対象パターンを含むSEM画像2105を用いる。また、パターンが崩れているようなSEM画像はモデルの作成に適さないため、予め除いておいてもよい。
 特徴量抽出部2124ではSEM画像2105と基準パターン2103を用いて、露光条件に対応して変化する特徴量を抽出する。そして、方向別露光条件モデル作成部2123では特徴量抽出部2124で求めた特徴量と、露光条件情報2107を用いて、特徴量と水平方向、垂直方向等の方向別の露光条件との関係を示す方向別モデル2104を作成する。
 露光条件情報2107では水平方向、垂直方向等の方向別のフォーカス値を含む露光条件を情報として与えても良い。また、フォーカス値が最適な場合の寸法値を与えても良い。また、一つの方向のフォーカス値を基準として、他方向のフォーカス値は比率や差分で示す値を与えても良い。
 図21(a)では、露光条件を評価するSEM画像2101と、基準パターン(参照パターン)を用いて、特徴量抽出部2121で特徴量を抽出し、(b)で得た方向別モデルと、特徴量抽出部2121で得た特徴量を用い、方向別露光条件推定部2122で方向別露光条件を推定する。推定した方向別露光条件情報を露光器にフィードバックして方向別に露光条件を補正することが可能となる。
 ここで、基準パターンは設計データを描画した画像データでもよいし、撮影した出来栄えのよいパターン画像から得た画像データでもよいし、複数の撮影したパターン画像から得た画像データでもよい。また、シミュレーション画像から得た画像データでもよい。
 図22に特徴量抽出部の一例を示す。特徴量抽出部2121ではSEM画像2101と基準パターン2103から、SEM画像2101の輪郭線と露光条件に対応して変化する特徴量を抽出する。図21の(a),(b)の特徴量抽出部2121、2124は同じ構成でできる。輪郭線抽出部211でSEM画像2101の輪郭線を抽出し、位置合わせ部212で基準パターン2103の画像データと輪郭線抽出部211で得た輪郭線データとで位置合わせを行い、位置合わせを行った後のSEM画像2101の輪郭線の画素毎に、それに対応する基準パターンの画素位置との距離値を距離値計算部213で求める。この距離値計算部213で求めた距離値を特徴量とする。また、輪郭線の画素と基準パターンの画素の対応付けは、輪郭線の画素の方向に対して垂直線上にある画素を探して対応させても良いし、距離が最も近い画素を求めて対応させることもできる。
 図23に輪郭線抽出部の一例を示す。SEM画像1からエッジ検出部2111でラプラシアンフィルタ等のエッジを抽出するフィルタ処理でエッジ画像を求め、2値化部2112で任意の閾値で2値化し、細線化部2113で細線化することで輪郭線が得られる。また、ホワイトバンドを平滑化して2値化し、細線化して輪郭線を得ても良いし、それ以外の方法でもパターン形状が判る輪郭線が得られる方法であればよい。位置合わせ部212ではそれぞれ輪郭画素を膨張させて画像を重ねて位置をずらし、正規化相関の相関値が最も高くなる位置を求める方法や、それぞれ画像の重心位置を求めて重心位置を合わせることで2つの画像の位置合わせを行う等一般的な位置を合わせる方法で可能であり、説明は省く。
 図27に輪郭線の画像と基準パターンの画像の2つの画像の位置合わせを行い重ねた画像例を示す。基準パターンは円で、SEM画像1の輪郭線は楕円となるような形状が異なる画像での位置合わせ例である。輪郭線のA点画素と基準パターンのA’点画素が対応しており、A点画素とA’点画素の距離値やB点画素とB’点画素の距離値等、全ての画素について距離値、これを特徴量として求める。
 図24に方向別露光条件推定部の一例を示す。方向別露光条件推定部2422では、特徴量抽出部2121で得た画素毎の特徴量について、輪郭線データを用いて方向別特徴分離部2401で方向別の特徴量に分けて算出し、方向別モデルを用いて、水平方向推定部2402と垂直方向推定部2403でそれぞれの方向の露光条件を推定する。
 図25に方向別特徴分離部の一例を示す。方向別特徴分離部211では特徴量抽出部2121で得た画素毎の特徴量について、方向別に特徴量を分けて求める。特徴量抽出部2121で特徴量を得た対象の輪郭線画素周辺の輪郭線データを用いて方向検出部2211で対象の輪郭線画素の方向を求める。そして、方向検出部221で求めた方向を用いて、水平垂直割合決定部2212で特徴量の水平方向、垂直方向の露光条件の変化の割合を決定する。そして、水平割合乗算部2213と垂直割合乗算部2214で水平垂直割合決定部2212で求めたそれぞれの割合を画素毎の特徴量に掛けあわせて、水平方向、垂直方向の方向別に特徴量を求める。
 方向検出部2211では特徴量を得た対象の輪郭線画素周辺の輪郭線データを用いて輪郭画素の向きを求める。例えば図6に示すような3画素×3画素のマトリクスの輪郭画素の並びでパターンマッチングし方向を検出してもよい。ここでは、黒画素が輪郭画素に相当し、(a)から(h)のパターンで一致するか見る。(a)から(h)で、それぞれ方向(角度θ)を0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°とする。さらに細かく方向を求める場合は参照する画素数を5画素×5画素マトリクス等にサイズを大きくして求める方向のパターンを増やすことで対応できる。
 水平垂直割合決定部2212では、方向検出部2211で求めた輪郭線の方向によって特徴量の水平方向、垂直方向のフォーカスに影響する割合を決定する。例えば、図27に示すA点では輪郭線の方向は0°である。この場合、垂直方向のフォーカスに影響する特徴量の割合は1.0で、水平方向のフォーカスに影響する特徴の割合は0.0とする。またB点では、輪郭線の方向は90°であり、この場合、垂直方向のフォーカスに影響する特徴量の割合は0.0で、水平方向のフォーカスに影響する特徴の割合は1.0とする。C点では、輪郭線の方向は45°であり、この場合、垂直方向のフォーカスに影響する特徴量の割合は0.5で、水平方向のフォーカスに影響する特徴の割合は0.5とする。割合を求める式は、方向検出部2211で求めた方向の角度θ(°)を用いて、垂直方向のフォーカスに影響する特徴量の割合はcosθ/(sinθ+cosθ)で求め、水平方向のフォーカスに影響する特徴量の割合はsinθ/(sinθ+cosθ)で求めることが考えられる。
 輪郭線のラフネスが大きい場合は、対象となる輪郭画素の周辺の複数のサンプル画素を用いて近似直線を作り、方向を求めてもよい。また、SEM画像2101を充分に平滑化して輪郭線を抽出することも考えられる。
 方向別のそれぞれの特徴量の割合は水平割合乗算部2213と垂直割合乗算部2214に送られ、画素毎の特徴量に掛けあわせて、方向別に特徴量を出力する。水平割合乗算部2213と垂直割合乗算部2214は乗算機で実現できる。図24の水平方向推定部2402には、水平割合乗算部2213で求めた特徴量が入り、垂直方向推定部2403には垂直割合乗算部2214で求めた特徴量が入る。
 図28に水平方向推定部及び垂直方向推定部の一例を示す。図28(a)の水平方向推定部2402の統計量算出部2221では、水平割合乗算部2213で求めた全ての輪郭画素の特徴量の合計値を求め、その平均値や分散値等の統計量を求める。また、歪度や突度等を求めてもよい。そして、それら求めた複数の統計値と方向別モデルを用いて、モデル演算部2222で水平方向のフォーカス値と露光量を求める。モデル演算部2222では方向別モデルの水平方向の露光条件に対応したモデルを用いて演算する。モデルの演算は例えば、複数の統計量に対応した重みを掛け合わせて露光条件を求めることが考えられる。図28(b)の垂直方向推定部2403でも同様にして垂直方向の露光条件を求めることができる。これら水平方向、垂直方向で求めた露光条件を方向別露光条件情報8として出力する。
 図21(b)の方向別露光条件モデル作成部2123の一例を、図29を用いて説明する。方向別特徴分離部231は、図21(a)の方向別露光条件推定部2122の方向別特徴分離部2401と同じであり、水平方向、垂直方向毎に特徴量を分けて出力する。水平方向モデル作成部232では露光条件情報2107と水平方向の特徴量を用いてモデルを作成する。垂直方向モデル作成部233では露光条件情報7と垂直方向の特徴量を用いてモデルを作成する。
 図30に水平方向モデル作成部と垂直方向モデル作成部の一例を示す。図30(a)の水平方向推定部232の統計量算出部2321では、水平割合乗算部2313で求めた全ての輪郭画素の特徴量の合計値を求め、その平均値や分散値また、歪度や突度等の統計量を求めてもよい。そして、それら求めた複数の統計値と露光条件情報2107を用いて、モデル作成部2322で求めた統計量と水平方向の露光条件の関係を示すモデルを作成する。モデルは例えば、複数の統計値にそれぞれ係数を掛け合わせた線形和で露光条件を求める回帰式としてもよい。例えば回帰式では、複数の統計値A1、A2、・・・Anに、それぞれ重み係数X1、X2、・・・Xnの線形和で露光条件Yを表すことができる。
 Y=X1A1+X2A2+・・・XnAn+b
 この場合、モデルは各統計値の重み係数X1、X2、・・・Xn、bの値となる。また、非線形の回帰で求めてもよいし、線形計画法を用いても良い。複数の統計値とその露光条件を用いて学習させて重みを求めてもよい。同様に図10(b)の垂直方向推定部233の統計量算出部2331では、垂直割合乗算部2314で求めた全ての輪郭画素の特徴量の合計値を求め、その平均値や分散値等の統計量を求める。そして、それら求めた複数の統計値と露光条件情報7を用いて、モデル作成部2332で求めた統計量と水平方向の露光条件の関係を示すモデルを作成する。モデル作成部2322、2332で作成したそれぞれのモデルは方向別モデル2104として出力する。
 上記のように、複数の角度(方向)ごとの特徴量の統計量に重みを付け、その加算等によって、X方向、或いはY方向(特定方向)の露光条件を求めることによって、一方向だけではなく、複数方向の特徴量を参照して、その際の露光条件を求めることができる。特定方向の情報量が不十分であっても、複数方向の情報を参照できるため、その情報不足を補い、適正な露光条件を求めることができる。また、X、Y方向以外のパターンの出来栄えも参照して露光条件を決めることができる。更に、上記式では露光条件Yは複数方向の測定値の重み付け結果を加算したものとなっているが、統計値(平均値)であっても良い。
 なお、ここで言うところの露光条件とは、特定方向の露光条件の調整に要するパラメータであれば良く、例えばモニタ時の露光装置の露光条件、調整量(例えば理想条件-モニタ時の露光条件)等がある。また、GUI画面上の露光条件を調整するためのスケールバーの調整距離を上記回帰式やテーブル等によって求めるようにしても良い。
 また、図25で説明した方向別特徴分離部2401は、曲線が少ないパターンを用いる場合、方向検出部2211及び水平垂直割合決定部2212を、例えば図31に示すように縦線横線検出部2215に変えて水平の線(横線)及び垂直の線(縦線)の直線パターンを検出するようにし、横線と検出した画素の場合は、水平割合乗算部の割合は1.0とし、垂直割合乗算部の割合は0.0とし、横線と検出した画素の場合は、水平割合乗算部の割合は0.0とし、垂直割合乗算部の割合は1.0とすることが考えられる。この場合、横線及び縦線とも異なる場合は水平割合乗算部の割合は0.0とし、垂直割合乗算部の割合は0.0とすることが考えられる。ここでは輪郭線から方向を求めているが、図25の方向検出部2211または、図31の縦横線検出部2215に入れる輪郭線を基準パターンに変えて、基準パターンの方向を求めて、同様に水平方向、垂直方向の特徴量の割合を求めることも考えられる。また、図25、図31で構成を変えた場合は、図21(b)の方向別露光条件モデル作成部も同様に変える必要がある。
 また、方向別にユーザが特徴量を求める領域を指定する場合の画像評価装置の一例を図32に示す。図21の画像評価装置に対して方向別領域指定部3209が加わる構成となる。方向領域指定部3209は、表示する手段と領域を指示する手段を設け、図33に示すようにSEM像から得た輪郭線、若しくは基準パターンを表示した線Aについて、水平方向の特徴領域を表す矩形(1)と垂直方向の特徴領域(2)を表す矩形の指定をユーザが自由に指定できるGUIである。この方向別領域指定部9で指定された領域の情報は特徴量抽出部25に入る。
 図34に特徴量抽出部の一例を示す。SEM画像1から輪郭線抽出部211で輪郭線を抽出し基準パターンと位置合わせ部212で位置合わせを行う。ここまでは特徴量抽出部2121と同じである。そして、縦横方向領域判定部216で対象画素についてユーザが指定した水平方向の特徴領域に含まれる画素か、垂直方向の特徴領域に含まれる画素かを判定する。水平方向の特徴領域の画素であれば位置合わせ後の対象画素に対応する特徴量(対象輪郭画素と、それに対応する基準パターンの画素との距離値)は水平方向距離値計算部214の値(水平方向の特徴量)として出力する。また、垂直方向の特徴領域の画素であれば、その対象画素で得た特徴量は垂直方向距離値計算部215の値(垂直方向の特徴量)として出力する。水平方向の特徴領域でも垂直方向の特徴領域でもない場合は除外することが考えられる。ここで、縦横方向領域判定部216で判定する対象画素は、輪郭線画素でもよいし、対応する基準パターンの画素を対象画素としても良い。
 この水平方向距離値計算部214の値と垂直方向距離値計算部215の値は方向別露光条件推定部3226へ入る。図35に方向別露光条件推定部の一例を示す。水平方向推定部261では水平方向距離値計算部214の値と方向別モデルを用いて水平方向の露光条件を推定する。垂直方向推定部262では水平方向距離値計算部215の値と方向別モデルを用いて水平方向の露光条件を推定する。水平方向推定部261、垂直方向推定部262は図28で説明した水平方向推定部2402及び水平方向推定部2403と同じ構成で実現できる。
 図32(b)の特徴量抽出部3227は図34と同じ構成で実現できる。方向別露光条件モデル作成部3228は図36を用いて説明する。方向別露光条件推定部3227で得た水平方向の特徴量及び垂直方向の特徴量は、それぞれ水平方向モデル作成部281と垂直方向モデル作成部282に入り、露光条件情報7を用いて、水平方向モデル作成部281で水平方向の露光条件を求めるモデルを作成し、垂直方向モデル作成部282で垂直方向の露光条件を求めるモデルを作成する。
 水平方向モデル作成部281と垂直方向モデル作成部282は図30を用いて説明した水平方向モデル作成部231と垂直方向モデル作成部232と同じ構成で実現できる。
 また、図21及び図32の特徴量抽出部2121に関して、特徴量はSEM画像から輪郭線を抽出し、基準パターンと比較して求めていたが、それに限らず、SEM像のホワイトバンドの幅の情報を特徴量として用いることが考えられる。その場合、図37に示すように、SEM画像を2値化部291で任意の閾値で2値化し、SEM画像のパターン形状に沿った白い帯が白画素、それ以外が黒画素に2値化される。2値化した画像を細線化部293で細線化し輪郭線画像を得る。この2値画像及び輪郭線の画像は図24の方向別露光条件推定部の方向別特徴分離部に入る。この場合の方向別特徴分離部の一例を図38に示す。図24の方向別露光条件推定部に対して、方向別幅検出部2216が加わる。そして、距離値計算部213の出力の特徴量に変わり、この方向別幅検出部2216の出力を特徴量とするものである。方向別特徴分離部で求めた輪郭線の対象画素の方向を用いて、その方向に対して垂直方向のホワイトバンドの幅を求める。
 例えば、図39のようなホールパターンの2値画像でホワイトバンドの幅を求める場合、A点画素の輪郭線の方向が水平方向なので、その垂直方向のW1のホワイトバンド(白画素)の幅を求める。B点画素では輪郭線の方向が垂直なので水平方向の白画素の幅を求める。そして求めた白画素の幅を特徴量とすることも考えられる。また、それ以外にも2値化せずに、ホワイトバンドの微分値や特定の2つの閾値での傾き等を用いることが考えられる。それら様々な特徴量について、輪郭線または基準パターンを用い、上記の手法により、方向別に特徴量を分けて求めることが可能となる。また、それら、方向別の特徴を用いることで、方向別の露光条件を求めることができる。
 図40に入出力を表示するGUIの一例を示す。露光像件を方向別に切り替えて表示することが考えられる。例えばウエハマップ4004に露光条件を表示する際に、方向別の露光条件の表示を切り変える指示部4001を設けておき、例えば、水平方向の露光条件、垂直方向の露光条件をウエハマップ4004上に切り替えて表示することが考えられる。また、露光条件の最大値、最小値、平均値等を、方向別にまたは、全ての方向の中で求めて表示出来るように指示する指示部4002を設けることも考えられる。また、方向別に露光条件を推定するモデルの情報、例えば、特徴量に対応する係数等を指示して表示させる指示部4003を設けることも考えられる。
 また、上記は垂直方向と水平方向の露光条件を求めているが述べたが、それ以外にも斜め45°や30°等、全方位で同様に求めることも考えられる。その場合も、例えばユーザが方向別に領域を指示できるようにすることが考えられる。例えば、図41に示すように基準パターン又はSEM画像の輪郭線を表示させる表示部4005を設けて、方向別に領域を指定する際に、水平領域を示す矩形b領域、垂直領域を示す矩形a領域のみでなく、斜め45°の領域を示す矩形c領域、60°の領域を示すd領域を指定することも考えられる。また、これらの領域と角度の指定を設定する設定部4102を設けることも考えられる。また、ユーザが全方位の領域を割り当てることもできる。上記の装置は、パソコンを用いてソフト処理で行うことも考えられる。また、LSI化することも考えられる。
1 モデル作成部
2 露光条件推定部
11、21 輪郭線生成部
11n、1101、1102 輪郭線作成部
12 モデル生成部
13 評価部
22 推定部
30、37 露光条件情報
31、36 SEM画像
32、35 輪郭線生成パラメータ
33 基準パターン
34 モデル
121、221 特徴量算出部
122 モデル化部
131 モデル評価部
132 記憶/選択部
222 モデル演算部
1100 輪郭線記憶部

Claims (26)

  1.  電子線を用いて撮影した画像から半導体パターンの露光条件を求める画像評価装置において、
     SEM画像から3つ以上の輪郭線を生成するためのパラメータを設定する設定部と、
     前記設定部に設定されたパラメータを用いてSEM画像から3つ以上の輪郭線を生成する輪郭線生成部と、
     基準パターンと前記輪郭線生成部で生成した3つ以上の輪郭線から求めた特徴量を用いて、露光条件を求める推定部を備えたことを特徴とする画像評価装置。
  2.  前記特徴量は、基準パターンと生成した各輪郭線との間の距離に関する統計量であることを特徴とする請求項1記載の画像評価装置。
  3.  前記基準パターンは設計データに基づくパターン又は、シミュレーションパターン又は撮影した1枚若しくは複数のSEM像から作成したパターンであることを特徴とする請求項2記載の画像評価装置。
  4.  電子線を用いて撮影した画像から半導体パターンの露光条件を求める画像評価装置において、
     SEM像から3つ以上の輪郭線を生成して得た特徴量と露光条件との関係を示すモデルと、前記モデルに対応する3つ以上の輪郭線を生成する輪郭線生成パラメータ情報を格納する記憶部と、
     前記輪郭線生成パラメータ情報を用いてSEM画像から3つ以上の輪郭線を生成する輪郭線生成部と、
     基準パターンと前記輪郭線生成部で生成した3つ以上の輪郭線とから求めた特徴量と、前記モデルを用いて、露光条件を求める推定部を備えたことを特徴とする画像評価装置。
  5.  前記輪郭線生成パラメータ情報は前記輪郭線生成部で輪郭線を生成するための情報であり、輪郭線の数とその数に対応した輪郭線各々を生成するための情報であることを特徴とする請求項4記載の画像評価装置。
  6.  前記特徴量は、基準パターンと生成した各輪郭線との間の距離に関する統計量であることを特徴とする請求項5記載の画像評価装置。
  7.  前記基準パターンは設計データに基づくパターン又は、シミュレーションパターン又は撮影した1枚若しくは複数のSEM像から作成したパターンであることを特徴とする請求項6記載の画像評価装置。
  8.  前記推定部で求めた露光条件に関する値をモニタ上に表示するモニタ手段を備え、前記SEM像の撮影位置に対応する位置に露光条件に関する値を表示することを特徴とする請求項7記載の画像評価装置。
  9.  複数の半導体パターンの露光条件とそれに対応する複数のSEM画像を用いてモデルを作成する画像評価装置において、
     輪郭線生成パラメータ情報を用いて、SEM像から複数の輪郭線を生成する輪郭線生成部と、
     前記輪郭線生成部で生成した複数の輪郭線から得た特徴量とSEM画像に対応する露光条件からモデルを作成するモデル生成部と、
     前記輪郭線生成パラメータ情報を複数用いて、前記輪郭線生成部と前記モデル生成部を経てそれぞれのモデルを求め、求めた複数のモデルの中から評価の良いモデル及びそれに対応する輪郭線生成パラメータ情報を求める評価部を備えたことを特徴とする画像評価装置。
  10.  前記輪郭線生成部は3つ以上の輪郭線を生成することを特徴とする請求項9記載の画像評価装置。
  11.  前記輪郭線生成パラメータ情報は前記輪郭線生成部で輪郭線を生成するための情報であり、輪郭線の数とその数に対応した輪郭線各々を生成するための情報であることを特徴とする請求項10記載の画像評価装置。
  12.  前記輪郭線生成パラメータ情報の輪郭線の数は3つ以上であることを特徴とする請求項11記載の画像評価装置。
  13.  前記特徴量は、基準パターンと生成した各輪郭線との間の距離に関する統計量であることを特徴とする請求項12記載の画像評価装置。
  14.  前記基準パターンは設計データに基づくパターン又は、シミュレーションパターン又は撮影した1枚若しくは複数のSEM像から作成したパターンであることを特徴とする請求項13記載の画像評価装置。
  15.  前記評価部での評価はモデルの当てはまりの良さの評価を行うことを特徴とする請求項14記載の画像評価装置。
  16.  電子線を用いて撮影した画像から半導体パターンの露光条件を求める画像評価装置において、複数の輪郭線を生成し、複数の輪郭線について基準パターンとの寸法を測定し、測定結果に基づく値と露光条件との関連性を示すと共に前記複数の輪郭線毎の測定結果に基づく値に異なる重みの設定が可能なモデルを参照して、露光条件を出力する画像評価装置。
  17.  画像取得装置によって形成される画像に含まれる対象パターンを評価する画像処理装置を備えたパターン形状評価装置において、
     前記画像処理装置は、複数の方向について、前記対象パターンの複数の方向の特徴量を求め、当該複数の方向の特徴量に対し、前記複数の方向について割り当てられた重み付けを行い、当該重み付けに基づいて、特定方向の露光条件の調整に要するパラメータを求めることを特徴とするパターン形状評価装置。
  18.  請求項17において、
     前記画像処理装置は、前記対象パターンのホワイトバンド、パターンエッジ、又は輪郭線の方向ごとに前記特徴量を求めることを特徴とするパターン形状評価装置。
  19.  請求項17において、
     前記特定方向は、X方向、及びY方向の2方向であって、前記画像処理装置は、当該当該X方向、及びY方向以外の方向の特徴量を含む複数の特徴量に基づいて、前記パラメータを求めることを特徴とするパターン形状評価装置。
  20.  請求項17において、
     前記画像処理装置は、前記複数の方向の特徴量と、前記パラメータの関係を示すモデル、又はテーブルを用いて前記パラメータを求めることを特徴とするパターン形状評価装置。
  21.  請求項17において、
     前記画像処理装置は、前記特定方向の方向に基づいて、前記重み付けの係数を算出することを特徴とするパターン形状評価装置。
  22.  請求項17において、
     前記画像処理装置は、前記画像取得装置によって形成される画像に含まれる前記対象パターンと、予め記憶された参照パターンを比較して、前記画像に含まれるパターンを評価することを特徴とするパターン形状評価装置。
  23.  請求項17において、
     前記画像処理装置は、ウエハマップ上に露光条件を方向毎に切り替えて表示することができる表示部を備えたことを特徴とするパターン形状評価装置。
  24.  請求項17において、
     前記画像処理装置は、方向毎の特徴量を求める領域をユーザが指定できる指示部を備えたことを特徴とするパターン形状評価装置。
  25.  画像取得装置によって形成される画像に含まれる対象パターンを評価する画像処理装置を備えたパターン形状評価装置において、
     前記画像処理装置は、複数の方向について、前記対象パターンの複数の方向の特徴量を求め、当該特徴量と特定方向の露光条件の調整に要するパラメータとの関係を示すモデルを作成することを特徴とするパターン形状評価装置。
  26.  請求項25において、
     前記画像処理装置は、前記特定方向は垂直と水平の2方向であって、当該特定毎に特徴量と露光量の関係を示すモデルを作成することを特徴とするパターン形状評価装置。
PCT/JP2013/053175 2012-02-14 2013-02-12 画像評価装置及びパターン形状評価装置 WO2013122022A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/377,728 US9830705B2 (en) 2012-02-14 2013-02-12 Image evaluation apparatus and pattern shape evaluation apparatus
JP2013558679A JP6043735B2 (ja) 2012-02-14 2013-02-12 画像評価装置及びパターン形状評価装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012029058 2012-02-14
JP2012-029058 2012-02-14
JP2012274191 2012-12-17
JP2012-274191 2012-12-17

Publications (1)

Publication Number Publication Date
WO2013122022A1 true WO2013122022A1 (ja) 2013-08-22

Family

ID=48984133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/053175 WO2013122022A1 (ja) 2012-02-14 2013-02-12 画像評価装置及びパターン形状評価装置

Country Status (3)

Country Link
US (1) US9830705B2 (ja)
JP (1) JP6043735B2 (ja)
WO (1) WO2013122022A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104342A1 (ja) * 2014-12-26 2016-06-30 株式会社 日立ハイテクノロジーズ 露光条件評価装置
JP2020173904A (ja) * 2019-04-08 2020-10-22 株式会社日立ハイテク パターン断面形状推定システム、およびプログラム
KR20210099998A (ko) * 2020-02-05 2021-08-13 가부시끼가이샤 히다치 세이사꾸쇼 화상을 생성하는 시스템
JP2021135893A (ja) * 2020-02-28 2021-09-13 株式会社東芝 検査装置、検査方法、及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10102619B1 (en) * 2011-03-28 2018-10-16 Hermes Microvision, Inc. Inspection method and system
KR20170019236A (ko) * 2015-08-11 2017-02-21 삼성전자주식회사 특이 부분의 검출 방법 및 이를 이용한 측정 장치의 ap 설정 방법
US10790114B2 (en) * 2017-06-29 2020-09-29 Kla-Tencor Corporation Scanning electron microscope objective lens calibration using X-Y voltages iteratively determined from images obtained using said voltages
JP2019204618A (ja) * 2018-05-22 2019-11-28 株式会社日立ハイテクノロジーズ 走査型電子顕微鏡
JP7187384B2 (ja) * 2019-05-17 2022-12-12 株式会社日立製作所 検査装置
US11854184B2 (en) * 2021-01-14 2023-12-26 Applied Materials Israel Ltd. Determination of defects and/or edge roughness in a specimen based on a reference image
KR20230037102A (ko) * 2021-09-08 2023-03-16 삼성전자주식회사 주사 전자 현미경 장치, 반도체 생산 장치, 및 그 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003059813A (ja) * 2001-08-20 2003-02-28 Hitachi Ltd 電子線を用いたプロセス変動監視システムおよび方法
JP2005123318A (ja) * 2003-10-15 2005-05-12 Tokyo Seimitsu Co Ltd 解像性評価方法及び装置、並びに電子線露光システム
JP2005286095A (ja) * 2004-03-30 2005-10-13 Hitachi High-Technologies Corp 露光プロセスモニタ方法及びその装置
JP2007129059A (ja) * 2005-11-04 2007-05-24 Hitachi High-Technologies Corp 半導体デバイス製造プロセスモニタ装置および方法並びにパターンの断面形状推定方法及びその装置
JP2008205017A (ja) * 2007-02-16 2008-09-04 Hitachi High-Tech Science Systems Corp 露光状態表示方法及びシステム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004228394A (ja) 2003-01-24 2004-08-12 Hitachi High-Technologies Corp 半導体ウェーハのパターン形状評価システム
JP4065817B2 (ja) 2003-08-12 2008-03-26 株式会社日立ハイテクノロジーズ 露光プロセスモニタ方法
JP2006234588A (ja) * 2005-02-25 2006-09-07 Hitachi High-Technologies Corp パターン測定方法、及びパターン測定装置
JP2008140911A (ja) 2006-11-30 2008-06-19 Toshiba Corp フォーカスモニタ方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003059813A (ja) * 2001-08-20 2003-02-28 Hitachi Ltd 電子線を用いたプロセス変動監視システムおよび方法
JP2005123318A (ja) * 2003-10-15 2005-05-12 Tokyo Seimitsu Co Ltd 解像性評価方法及び装置、並びに電子線露光システム
JP2005286095A (ja) * 2004-03-30 2005-10-13 Hitachi High-Technologies Corp 露光プロセスモニタ方法及びその装置
JP2007129059A (ja) * 2005-11-04 2007-05-24 Hitachi High-Technologies Corp 半導体デバイス製造プロセスモニタ装置および方法並びにパターンの断面形状推定方法及びその装置
JP2008205017A (ja) * 2007-02-16 2008-09-04 Hitachi High-Tech Science Systems Corp 露光状態表示方法及びシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHIE SHISHIDO ET AL.: "Dose and focus estimation using top-down SEM images", PROCEEDINGS OF SPIE, vol. 5038, 2 June 2003 (2003-06-02), pages 1071 - 1079 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104342A1 (ja) * 2014-12-26 2016-06-30 株式会社 日立ハイテクノロジーズ 露光条件評価装置
US10558127B2 (en) 2014-12-26 2020-02-11 Hitachi High-Technologies Corporation Exposure condition evaluation device
JP2020173904A (ja) * 2019-04-08 2020-10-22 株式会社日立ハイテク パターン断面形状推定システム、およびプログラム
JP7199290B2 (ja) 2019-04-08 2023-01-05 株式会社日立ハイテク パターン断面形状推定システム、およびプログラム
KR20210099998A (ko) * 2020-02-05 2021-08-13 가부시끼가이샤 히다치 세이사꾸쇼 화상을 생성하는 시스템
KR102502486B1 (ko) 2020-02-05 2023-02-23 가부시끼가이샤 히다치 세이사꾸쇼 화상을 생성하는 시스템
JP2021135893A (ja) * 2020-02-28 2021-09-13 株式会社東芝 検査装置、検査方法、及びプログラム
US11587223B2 (en) 2020-02-28 2023-02-21 Kabushiki Kaisha Toshiba Inspection apparatus that detects defect in image and inspection method and storage medium thereof
JP7273748B2 (ja) 2020-02-28 2023-05-15 株式会社東芝 検査装置、検査方法、及びプログラム

Also Published As

Publication number Publication date
US20150287201A1 (en) 2015-10-08
US9830705B2 (en) 2017-11-28
JPWO2013122022A1 (ja) 2015-05-11
JP6043735B2 (ja) 2016-12-14

Similar Documents

Publication Publication Date Title
JP6043735B2 (ja) 画像評価装置及びパターン形状評価装置
US10937146B2 (en) Image evaluation method and image evaluation device
JP7144244B2 (ja) パターン検査システム
JP5639797B2 (ja) パターンマッチング方法,画像処理装置、及びコンピュータプログラム
US20150212019A1 (en) Pattern inspection device and pattern inspection method
JP2009198338A (ja) 電子顕微鏡システム及びそれを用いたパターン寸法計測方法
JP2009222454A (ja) パターン測定方法及びパターン測定装置
JP5966087B2 (ja) パターン形状評価装置及び方法
JP2011165479A (ja) パターン検査方法、パターン検査プログラム、電子デバイス検査システム
JP2011137901A (ja) パターン計測条件設定装置
JP2005322423A (ja) 電子顕微鏡装置およびそのシステム並びに電子顕微鏡装置およびそのシステムを用いた寸法計測方法
JP6286544B2 (ja) パターン測定条件設定装置、及びパターン測定装置
TW202418220A (zh) 圖像處理程式、圖像處理裝置、圖像處理方法及缺陷檢測系統
US10558127B2 (en) Exposure condition evaluation device
JP2013200319A (ja) 電子顕微鏡システム及びそれを用いたパターン寸法計測方法
JP5604208B2 (ja) 欠陥検出装置及びコンピュータプログラム
WO2013180043A1 (ja) 計測方法、画像処理装置、及び荷電粒子線装置
JP4700772B2 (ja) 画像照合方法および画像照合プログラム
JP2006029891A (ja) パターン画像計測方法及びその方法を用いたパターン画像計測装置
JP2023001367A (ja) 画像処理システムおよび画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13749530

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013558679

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14377728

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13749530

Country of ref document: EP

Kind code of ref document: A1