[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2017130304A1 - 計測装置、方法および表示装置 - Google Patents

計測装置、方法および表示装置 Download PDF

Info

Publication number
WO2017130304A1
WO2017130304A1 PCT/JP2016/052225 JP2016052225W WO2017130304A1 WO 2017130304 A1 WO2017130304 A1 WO 2017130304A1 JP 2016052225 W JP2016052225 W JP 2016052225W WO 2017130304 A1 WO2017130304 A1 WO 2017130304A1
Authority
WO
WIPO (PCT)
Prior art keywords
reference image
image
pattern
difference
past
Prior art date
Application number
PCT/JP2016/052225
Other languages
English (en)
French (fr)
Inventor
裕治 高木
文彦 福永
泰範 後藤
Original Assignee
株式会社日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテクノロジーズ filed Critical 株式会社日立ハイテクノロジーズ
Priority to PCT/JP2016/052225 priority Critical patent/WO2017130304A1/ja
Priority to KR1020187016965A priority patent/KR102278879B1/ko
Priority to US16/070,708 priority patent/US10996569B2/en
Publication of WO2017130304A1 publication Critical patent/WO2017130304A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/70625Dimensions, e.g. line width, critical dimension [CD], profile, sidewall angle or edge roughness
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/70633Overlay, i.e. relative alignment between patterns printed by separate exposures in different layers, or in the same layer in multiple exposures or stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical, image processing or photographic arrangements associated with the tube
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/244Detectors; Associated components or circuits therefor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • H01J37/28Electron or ion microscopes; Electron or ion diffraction tubes with scanning beams
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L23/00Details of semiconductor or other solid state devices
    • H01L23/544Marks applied to semiconductor devices or parts, e.g. registration marks, alignment structures, wafer maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/221Image processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2813Scanning microscopes characterised by the application
    • H01J2237/2817Pattern inspection

Definitions

  • the present invention relates to an apparatus, a method, and a display device for measuring an overlay generated during manufacturing of a semiconductor wafer.
  • a semiconductor product requires a plurality of exposure processes in order to form a circuit pattern necessary for operation.
  • an exposure process for forming holes connecting the layers is required in addition to an exposure process for forming the circuit patterns of the respective layers.
  • circuit pattern misalignment overlay
  • Patent Document 1 a reference image of a measurement location is captured in advance, a circuit pattern formed in each layer is recognized for both of the measurement images captured for measurement, and the reference image and the measurement image for each pattern are recognized.
  • a method is disclosed in which the amount of misregistration is independently calculated and an overlay is calculated from the difference in the calculated misregistration amounts.
  • the method of measuring the overlay using the reference image is an effective method for overlay measurement in the product circuit, but in the process of making a prototype, there is an early stage of the process where the overlay and pattern quality varies, Even in such a case, an ideal reference image cannot always be obtained. Thus, there is a further problem that it is desired to calculate an overlay even when an ideal reference image cannot be obtained.
  • the present invention makes it possible to calculate an overlay without an appropriate reference image in an overlay measurement method using a reference image.
  • a measuring device is a measuring device that uses a light beam or an electron beam as a circuit pattern on the surface of an inspection object.
  • a first reference image is synthesized using an imaging unit that captures an image, a pattern recognition unit that extracts a first pattern and a second pattern from an image captured by the imaging unit, and a first pattern extracted from a plurality of images.
  • a reference image generation unit that synthesizes a second reference image using a second pattern extracted from the first image, a first difference that is a difference between the first reference image and the first pattern, and a second reference image and a second pattern
  • a quantification unit that quantifies the second difference
  • a calculation unit that calculates an offset amount included in the circuit pattern using the first difference and the second difference.
  • the first step of capturing the circuit pattern on the surface of the inspection object using a light beam or an electron beam, and the first pattern and the second pattern are extracted from the image captured in the first step.
  • a fourth step of quantifying the first difference that is the difference between the reference image and the first pattern and the second difference that is the difference between the second reference image and the second pattern, and the first difference and the second difference are used.
  • a fifth step of calculating an offset amount included in the circuit pattern is used.
  • standard image update operation screen. 2 is a diagram illustrating details of an image processing unit 110. FIG.
  • the automatic image classification apparatus according to the present invention will be described.
  • a case where overlay measurement is performed using an image captured by an image capturing apparatus equipped with a scanning electron microscope (SEM) will be described.
  • the image capturing apparatus according to the present invention may be other than SEM, such as ions.
  • An imaging device using a charged particle beam may be used.
  • FIG. 1 shows an overall configuration diagram of an overlay measuring apparatus according to the present invention.
  • the scanning electron microscope apparatus 100 detects a stage 106 on which a wafer 107 is placed, an irradiation optical system that controls the electron beam 101 emitted from the electron gun 102, and secondary electrons emitted from the sample. And a detection signal processing system.
  • the irradiation optical system includes an electron gun 102, a condenser lens 103, a deflection coil 104, and an objective lens 105 on the path of the electron beam 101.
  • the electron beam 101 is condensed by this optical system in a predetermined area of the overlay measurement target on the wafer 107.
  • Secondary electrons detected by the detector 108 are converted into digital signals by the A / D converter 109.
  • the converted digital signal is sent to the image processing unit 110.
  • the image processing unit 110 extracts the digital signal stored in the memory as necessary, performs image processing, and performs measurement processing and the like.
  • 111 is a stage controller
  • 112 is an electron optical system control unit
  • 113 is a control unit for the entire apparatus
  • 114 is an input / output display terminal connected to the control unit, and displays measurement results and the like. .
  • a recording medium (not shown) can be connected to the image processing unit 110, the overall control unit 113, and the control terminal 114.
  • a program executed by the image processing unit 110 is read from the recording medium, and an image is displayed.
  • the processing unit 110 can be loaded.
  • the A / D converter 109, the image processing unit 110, and the overall control unit 113 are connected by a bus or network indicated by 115.
  • processing is performed on an image captured by an electron microscope, but the present invention can be similarly applied to an image optically captured by an optical microscope or the like.
  • FIG. 2 is an overhead view of the device pattern, and shows a state in which a lower layer pattern 201 that is a first pattern and an upper layer pattern 202 that is a second pattern are formed on a base substrate 200.
  • the patterns 201 and 202 are formed by different lithography processes.
  • patterns 201 and 202 are shown as being formed in different layers. However, even if the patterns are formed in the same layer, as long as they are misaligned with each other, overlay measurement is possible.
  • the first pattern and the second pattern are defined as patterns formed by different lithography processes.
  • FIG. 3 and 4 are examples of captured images of the pattern shown in FIG.
  • FIG. 3 shows an example of an image in which the upper layer pattern 202 is formed without misalignment with respect to the lower layer pattern 201
  • FIG. 4 shows an example of an image in which misalignment occurs between the lower layer pattern 201 and the upper layer pattern 202. It is.
  • Fig. 5 shows the overall flowchart for measurement.
  • a wafer to be observed is loaded onto the stage 106 of the scanning electron microscope apparatus 100 shown in FIG. 1 (S500).
  • measurement position coordinate data including the number N of measurement points is read via an external input / output I / F (not shown) of the overall control unit 113 (S501).
  • reference data is read (S502).
  • the reference data is composed of an upper layer reference image and a lower layer reference image, an offset between both images, or a combination of the upper layer reference image and the lower layer reference image into one reference image using the offset between both images.
  • wafer alignment is performed (S503). This is because when the stage 106 is moved based on the position of the measurement position coordinates described in the coordinates on the wafer, the target measurement point is located in the center of the field of view, so that the coordinates on the wafer are known. Using the positioning mark on the wafer, the wafer coordinate and the stage coordinate are associated with each other.
  • overlay measurement is performed by repeating a series of steps shown in S505 to S508 in order for all measurement points.
  • the stage is moved to the nth measurement point position (S505).
  • the field of view of the measurement point may be obtained by moving the beam.
  • circuit pattern recognition processing (S601) and image difference quantification processing (S602, S603) executed in S507 are the processing units 2001 in the image processing unit 110 in FIG. To 2004.
  • the stage movement to the next measurement point may be executed without waiting for the end of the overlay measurement process (S507). If the measurement process is completed within the stage movement time to the next measurement point, the measurement process is performed during the movement. If the measurement process cannot be completed within the stage movement time to the next measurement point, the imaging and measurement process can be made asynchronous and the captured images can be processed sequentially, or the captured images can be temporarily stored and separately batch processed offline. . If there is a next measurement point, the process moves to the next measurement point and repeats S505 to S508. When the acquisition of all the defect observation images is completed, the wafer is unloaded from the stage 106 and the process ends.
  • Fig. 6 shows the flow of overlay calculation.
  • 6a is an example of a measurement image captured in S506 of FIG.
  • the pattern recognition unit 2001 performs circuit pattern recognition processing of the measurement image 6a (S601), and obtains an upper layer measurement image (6d) and a lower layer measurement image (6f).
  • the upper layer measurement image (6d) obtained as a result of the circuit pattern recognition process is an image obtained by taking out the upper layer portion of the measurement image
  • the lower layer measurement image (6f) is obtained by leaving other than the upper layer portion of the measurement image.
  • the upper layer image and the lower layer image obtained as a result of the circuit pattern recognition process have similar properties.
  • the reference data 6b includes an upper layer reference image (6c) and a lower layer reference image (6e) to be compared with the measurement image, and offsets between the images (inter-image offset_x, inter-image offset_y).
  • the reference data 6b is generated in advance prior to measurement, and is read in S502 of FIG.
  • a reference data generation method performed by the reference image generation unit 2002 will be described with reference to FIG.
  • the quantification unit 2003 quantifies the difference between the upper layer pattern image 6d of the measurement image and the upper layer reference image 6c (S602), and obtains the upper layer pattern position shift amount ( ⁇ Ux, ⁇ Uy) (6g).
  • the difference between the lower layer pattern image 6f and the lower layer reference image 6e of the measurement image is quantified (S603), and the lower layer pattern position shift amount ( ⁇ Lx, ⁇ Ly) (6h) is obtained.
  • a method for quantifying the difference a method is conceivable in which a correlation value is calculated while shifting the overlapping position of two images, and the position having the maximum correlation value is used as a positional deviation amount. That is, a method is conceivable in which the other image is aligned with respect to one of the two images, and the amount of movement of the other image obtained at that time is used as the displacement amount.
  • the overlay amount ⁇ x, ⁇ y Is obtained (S604).
  • the overlay amount calculation (S604) is performed by the calculation unit 2004.
  • a storage unit 2005 in FIG. 20 stores image data and numerical data input / output by the processing units 2001, 2002, 2003, and 2004 for processing.
  • An input / output I / F indicated by 2006 is an A / D converter 109.
  • Input image data receive various processing commands from the overall control unit 113, output processing results to the overall control unit 113, and output information to be displayed on the display terminal 114.
  • a bus 2007 connects the processing units in the image processing unit 100 so that information can be exchanged alternately.
  • Fig. 7 explains the method for generating the reference data. Images are taken at N locations (S700). The part to be imaged is a part to be imaged at the time of overlay measurement. S700 may be executed excluding S502 and S507 in the flow shown in FIG. The wafer to be imaged may be the same as or different from the wafer to be measured. An image (m) that is a temporary reference image is selected from the N captured images (S701). m is the image number selected from 1 to N.
  • the operator selects an image that is determined to be relatively suitable for the alignment processing results in S706 and S709, which will be described later, such as the pattern contrast and the positional relationship between the upper layer and the lower layer.
  • an image that is determined to be relatively suitable for the alignment processing results in S706 and S709 which will be described later, such as the pattern contrast and the positional relationship between the upper layer and the lower layer.
  • a plurality of images may be selected from the N images, and the addition average image may be used instead of the image (m).
  • the temporary reference image is a reference image that is temporarily used when positioning is performed in subsequent steps S706 and S709, and is different from a reference image that is finally obtained by pattern or integrated.
  • the S / N of the image is improved by the averaging and that the alignment processing in S706 and S709 is stabilized.
  • the part of the image (m) is read as this averaged added image.
  • Circuit pattern recognition of the image (m) is performed to generate an upper layer image (m), a lower layer image (m), an upper layer binary image (m), and a lower layer binary image (m) (S702).
  • the upper layer binary image is an image in which only the upper layer pattern has a non-zero pixel value.
  • the lower layer binary image is an image having non-zero pixel values in portions other than the upper layer pattern.
  • the circuit pattern of the image (n) is recognized, and an upper layer image (n) and a lower layer image (n) are generated (S705).
  • the upper layer image (n) is aligned with the upper layer reference image (m) (S706), and the upper layer image (n) after alignment is added to the upper layer reference image (S707). Further, 1 is added to the pixel value of the upper layer count image corresponding to the pixel to be added in the upper layer reference image (S708).
  • the pixel to be added is a pixel having a non-zero pixel value. Pixels whose pixel values are extracted as a result of each layer are zero are not subject to addition. For example, in the upper layer measurement image (6d), a portion drawn in white is a pixel to be added.
  • the upper layer image (n) is IU (n) (x, y)
  • the upper layer reference image (m) is IU (m) (x, y)
  • the upper layer reference image is RU (x, y)
  • the upper layer count image is CU ( x, y).
  • x and y are coordinate values representing the position in the image. If the amount of positional deviation between the upper layer image (n) and the upper layer reference image (m) obtained as a result of aligning the upper layer image (n) and the upper layer reference image (m) is ( ⁇ x, ⁇ y),
  • the lower layer image (n) is aligned with the lower layer reference image (m) (S709), and the lower layer image (n) after alignment is added to the lower layer reference image (S710). Further, 1 is added to the pixel value of the lower layer count image corresponding to the pixel to be added in the lower layer reference image (S711).
  • the pixel to be added is a pixel having a non-zero pixel value as in the upper layer.
  • the pixel value of the upper layer reference image is divided by the corresponding pixel value of the upper layer count image to obtain the pixel of the upper layer reference image. Level the values. This processing is performed for a pixel (x, y) where CU (x, y) ⁇ 0.
  • RU (x, y) is also 0.
  • the pixel value of the lower layer reference image is divided by the corresponding pixel value of the lower layer count image (S714).
  • the weight of the pixel filling the missing portion can be increased.
  • the weight is reduced by dividing by the number of additions. By doing so, it is possible to generate a reference image that effectively compensates for the missing portion even with a small number of sheets.
  • the method using addition averaging has been shown, but the combining method is not limited to this method.
  • FIG. 8 schematically shows an image processed according to the flow shown in FIG. A captured image is shown in the first row.
  • Reference numeral 800 denotes the selected image (m).
  • m the selected image
  • FIG. 8 schematically shows an image processed according to the flow shown in FIG. A captured image is shown in the first row.
  • Reference numeral 800 denotes the selected image (m).
  • the lower layer is assumed to be the same as the image (m) for simplicity of explanation.
  • the example of the upper layer image obtained by the circuit pattern recognition with respect to the first-stage original image is shown in the second stage.
  • 805 to 809 are drawn with outlines, and an upper layer image (n) 806, an upper layer image (n2) 807, an upper layer image (n3) 808, and an upper layer image are formed on the upper layer pattern of the upper layer image (m) 805.
  • N4 Each of the upper layer patterns of 809 is aligned. This is a schematic representation of the portion corresponding to S706 in FIG. After aligning 805 to 809, the addition average processing shown in Expression (2), Expression (3), and Expression (4) is performed to obtain an upper layer reference image.
  • the upper layer reference image obtained in this way may be biased toward the image S / N improvement by averaging and the pattern shape and brightness of a specific image, as compared with the upper layer reference image obtained from one image. The effect that there is no can be expected.
  • the example of the lower layer image obtained by the circuit pattern recognition with respect to the first stage original image is shown in the fourth stage.
  • 810 is the lower layer image (m)
  • 811 to 814 are the image (n1), the image (n2), the image (n3), the lower layer image corresponding to the image (n4)
  • An image (n3) and a lower layer image (n4) are shown. Since the pixels of the upper layer pattern portion have been extracted, a lower layer image in which the upper layer pattern portion is missing, such as 810 to 814, is obtained.
  • the fifth-stage images 815 to 818 are obtained by drawing the lower layer pattern of the images 811 to 814 with outlines, and the image 816 is obtained by superimposing the images 815 to 818. Defects corresponding to each image are located at four locations in the image. For example, 815 is a portion corresponding to the upper layer pattern portion 815 of the lower layer image (n + 4) shown in the image 814, but a portion corresponding to 815 of the image (n1), the image (n2), and the image (n3) 811 to 813. Is an effective pixel portion in which the lower layer pattern is imaged.
  • the portion corresponding to the area 815 is supplemented with the image data 811 to 813, and no defect remains. The same applies to the missing portions of the image 811 to the image 813.
  • the position of the lower layer pattern in the image is the same between the image 800 and the image 801 to the image 804. However, even if they are different, the image 800 and the image 801 to the image 804 are changed to S709. Similar effects can be obtained by aligning the positions as shown.
  • FIG. 9 is an operation screen for generating the reference image 1200, which is the display content of the display terminal 114 in FIG. The operator instructs the execution of the flow shown in FIG. 7 on this screen.
  • Reference numeral 901 denotes a temporary reference image selection window.
  • the image file name displayed in the list box 902 is an image file used for generating a reference image.
  • the operator designates a temporary reference image from the image file in the list box 902. By clicking a file name in the list box 902, the designated image is displayed in the image display window 907.
  • Image file names outside the list box 902 can be displayed using the slider bar next to the list box 902. Alternatively, a pointer may be placed in the list box 902, and the name of the image file outside the list box 902 may be displayed with a mouse wheel of a computer or the like.
  • the illustrated list box 902 shows that the image file name “ID0057” is selected. In this state, by clicking “OK” 904, the designated image is selected, and the selected image list 903 is selected. Moved to.
  • the name of the image file selected as the temporary reference image is displayed.
  • the selected temporary reference image is displayed in the image display window 907.
  • the user can click the file name in the selected image list box 903 and click the “return” button 906 to cancel the selection and return the target image to the list box 902.
  • Reference numeral 909 denotes an offset adjustment window.
  • the “upper layer reference image” button 910 When the “upper layer reference image” button 910 is clicked, the generated lower layer reference image is displayed in the image window 907 and the sub image window 916.
  • a sub-image window 916 enlarges and displays the portion of the image displayed at 907.
  • the “lower layer reference image” button 911 When the “lower layer reference image” button 911 is clicked, the generated upper layer reference image is displayed in the image window 907 and the sub image window 916.
  • the “upper layer reference image” button 910, the “lower layer reference image” button 911, the “cursor setting” button 912, the “offset setting” button 913, the “OK” button 914, and the movement key 915 are displayed in the sub image window 916.
  • a cursor 1300 in FIG. 13 is an example of a cursor that is superimposed on the upper layer reference image and has a center position 1301.
  • a cursor 1400 in FIG. 14 is an example of a cursor that is superimposed on the lower layer reference image, and the center position is 1401.
  • the “upper layer reference image” button 910 displays the upper layer reference image in the sub-image window 916
  • the “cursor setting” button 912 displays the cursor superimposed on the upper layer reference image. Since the center of the upper layer pattern of the upper layer reference image and the center 1301 of the upper layer cursor do not coincide with each other at the initial stage, the operator moves the upper layer cursor 1300 superimposed on the upper layer reference image using the movement key 915. The pattern is moved so that the center of the pattern coincides with the center 1301 of the upper cursor. If they match, an “OK” button 914 is clicked to fix the positional relationship between the upper layer reference image and the upper layer cursor. The same applies to the lower layer reference image.
  • the result obtained by image processing may be displayed as the initial position, and the operator may confirm by clicking the “OK” button 914.
  • FIG. 16 and 17 show the results of fixing the positional relationship between the upper layer reference image and the upper layer cursor, and the lower layer reference image and the lower layer cursor.
  • FIG. 16 and FIG. 17 the patterns in the upper layer reference image and the lower layer reference image are drawn with broken lines for easy viewing.
  • the “set offset” button 913 causes the upper layer reference image to be superimposed on the lower layer reference image, and an image in which the upper layer cursor and the lower layer cursor are further superimposed thereon is displayed on the sub image window 916.
  • the positional relationship between the upper layer cursor and the lower layer cursor is fixed with respect to the upper layer reference image and the lower layer reference image, respectively.
  • an “OK” button 914 is clicked and ( ⁇ X, ⁇ Y) is registered as the reference data together with the upper layer reference image and the lower layer reference image as the offset values of the upper layer reference image and the lower layer reference image.
  • the fixed position of the cursor may be registered in the reference data.
  • the registered offset value is used in the overlay calculation in S604 of the overlay measurement process (FIG. 6).
  • an image used for overlay calculation an image in which the deviation between the upper layer and lower layer reference images is eliminated, that is, an image 1200 shown in FIG. 12, may be registered as reference data.
  • an image 1200 shown in FIG. 12 may be registered as reference data.
  • circuit pattern recognition is performed on the reference image included in the read reference data, and an upper layer reference image (6c) and a lower layer reference image (6e) may be generated. It may be recorded as offset (0, 0) in the reference data. A fixed position of the cursor may be registered in the reference data.
  • the reference image update operation screen 1900 in FIG. 19 is a screen example of a transition destination to which transition is made by clicking a “use registered data” button 917.
  • Reference numeral 1901 denotes a newly generated upper layer reference image
  • 1902 denotes a newly generated lower layer reference image.
  • a window 1903 displays registered reference data generated in the past
  • 1904 is a list box of registered reference data.
  • the image window 1915 includes an image obtained by overlapping a new upper layer reference image 1901 and a previously registered upper layer reference image 1905
  • the image window 1916 includes an image obtained by overlapping a new lower layer reference image 1902 and a previously registered lower layer reference image 1906. Is displayed.
  • the method of the overlap display 1910 can be “image” and “cursor”.
  • “Image” in the overlap display 1910 is selected by clicking, the gray value of one image is made to correspond to a pixel value of a specific color, and the gray value of the other image is changed to a pixel value of another specific color.
  • the images are displayed in the image windows 1915 to 1916 so as to overlap with each other.
  • the newly generated upper layer reference image 1901 is the past registered upper layer reference image 1905
  • the newly generated lower layer reference image 1902 is the past registered lower layer reference image. Align to 1906.
  • an OK button 1913 is clicked to determine the offset (OFFSET_X, OFFSET_Y) between the new reference image and the previously registered reference image.
  • Alignment of the newly generated upper layer reference image 1901 and the previously registered upper layer reference image 1905 may be automatically performed by pattern matching processing using image correlation calculation or the like. In this case, after clicking the upper layer reference image button 1908, the automatic adjustment button 1914 is clicked. Automatic alignment of the lower layer reference image 1902 and the previously registered lower layer reference image 1906 is performed in the same manner. This automatic alignment process is performed by the quantification unit.
  • the overlay calculation method is as shown in S604 of FIG. 6. If (offset_x, offset_y) shown in S604 is a registered offset, the overlay calculation after updating the reference data is
  • the measurement apparatus described in the present embodiment is configured to capture the first pattern 6d from the imaging unit 100 that images the circuit pattern on the surface of the inspection target 200 using a light beam or an electron beam, and the image captured by the imaging unit 100.
  • the first reference image is synthesized using the pattern recognition unit 2001 that extracts the second pattern 6f and the first pattern 6d extracted from the plurality of images, and the second pattern 6f is extracted using the second pattern 6f extracted from the plurality of images.
  • a reference image generation unit 2002 that combines reference images, a first difference that is a difference between the first reference image and the first pattern 6d, and a second difference that is a difference between the second reference image and the second pattern 6f.
  • a quantification unit 2003 for quantification and a calculation unit 2004 for calculating an overlay amount included in the circuit pattern using the first difference and the second difference.
  • the measuring method described in the present embodiment uses a first step (S506) in which the circuit pattern on the surface of the inspection object is imaged using light rays or an electron beam, and the first pattern 6d from the image captured in the first step.
  • a second step (S601) for extracting the second pattern 6f a first reference image is synthesized using the first pattern 6d extracted from the plurality of images, and the second pattern 6f extracted from the plurality of images is used.
  • the third step (S700 to S715) for synthesizing the second reference image, the first difference that is the difference between the first reference image and the first pattern 6d, and the difference between the second reference image and the second pattern 6f.
  • a reference image for each layer can be obtained, and the offset amount thereof Can be obtained. If the deviation amount between the upper layer reference image and the lower layer reference image is known, it is possible to calculate the overlay using the upper layer reference image, the lower layer reference image, and the offset amount even in the initial stage of the process.
  • the display device 114 described in the present embodiment includes a first display area 907 that displays a circuit pattern image on the surface of the measurement target 200, a first pattern image extracted from the circuit pattern image, a second pattern image, or the first pattern image.
  • a second display area 916 that displays one of the superimposed images obtained by superimposing the first pattern on two patterns, and an input means for inputting the relative positions of the first pattern and the second pattern displayed in the superimposed display area.
  • a setting area 909 for displaying is a setting area 909 for displaying.
  • DESCRIPTION OF SYMBOLS 100 ... Scanning electron microscope apparatus, 101 ... Electron beam, 102 ... Electron gun, 103 ... Condenser lens, 104 ... Deflection coil, 105 ... Objective lens, 106 ... Stage 107 ... Wafer 108 ... Detector 109 ... A / D converter 110 ... Image processing unit 111 ... Stage controller 112 ... Electro-optical system processing unit 113 ..Total control unit, 114... Display terminal, 200. Image update operation screen.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Power Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

基準画像を利用したオーバーレイ計測方法において、理想的な基準画像がなくともオーバーレイ量を算出する、という課題がある。本発明の特定の実施例に記載の計測装置は、半導体ウェーハ表面の回路パターンを光学顕微鏡あるいは電子顕微鏡によって撮像する撮像部と、撮像部が撮像した画像から、第1パターンおよび第2パターンを抽出するパターン認識部(2001)と、複数の前記画像から抽出した第1パターンを用いて第1基準画像を合成し、複数の前記画像から抽出した第2パターンを用いて第2基準画像を合成する基準画像生成部(2002)と、第1基準画像と第1パターンとの差異である第1差異および、前記第2基準画像と第2パターンとの差異である第2差異を定量化する定量化部(2003)と、第1差異および第2差異を用いて回路パターンに含まれるオーバーレイ量を算出する算出部(2004)と、を有することを特徴とする。

Description

計測装置、方法および表示装置
 本発明は半導体ウェーハの製造中において生じるオーバーレイを計測する装置、方法および表示装置に関するものである。
 一般的に半導体製品は,動作に必要な回路パターンを形成するために複数回の露光工程が必要である。例えば,複数層の回路パターンからなる半導体製品の製造では,各層の回路パターンを形成するための露光工程のほか,各層を接続するホールを形成するための露光工程が必要となる。
 半導体製造においては,複数回の露光工程により形成される回路パターンの位置を許容される範囲内に合わせることが重要となる。許容範囲内に収まらない場合,適切な電気特性が得られず,歩留まりが低下する。そのため,露光間の回路パターンの合わせずれ(オーバーレイ)を計測し,露光装置にフィードバックする事が行われている。
 従来オーバーレイ計測はチップ周辺に設けられた専用マークを光学的に計測し、チップ内部のオーバーレイ計測結果をその補間により得ていたが、半導体プロセスの微細化に伴い,オーバーレイの許容範囲も小さくなっており,オーバーレイ計測をデバイスの製品回路パターンの任意の位置で直接計測する必要性が高まっている。
 特許文献1には、計測箇所の基準画像を予め撮像しておき、計測のために撮像した計測画像の双方に対し、各層に形成される回路パターンを認識し、各パターンについて基準画像と計測画像の位置ずれ量を独立に算出し、算出された位置ずれ量の差分からオーバーレイを算出する方法が開示されている。
特開2013-168595号公報
 基準画像を利用してオーバーレイを計測する方法は製品回路内のオーバーレイ計測に有効な方法であるが、試作する過程においては、オーバーレイやパターンの出来栄えにバラツキのあるプロセス初期段階の段階が存在し、このような場合にも常に理想的な基準画像が得られるわけではない。このように、理想的な基準画像が得られない場合においてもオーバーレイを算出したいというさらなる課題がある。
 本発明は,基準画像を利用したオーバーレイ計測方法において、適切な基準画像が無くともオーバーレイを算出することを可能とするものである。
 上記課題を解決するために,例えば特許請求の範囲に記載の構成を採用するが、その一例を挙げるならば,計測装置であって、検査対象物表面の回路パターンを光線あるいは電子線を用いて撮像する撮像部と、撮像部が撮像した画像から、第1パターンおよび第2パターンを抽出するパターン認識部と、複数の画像から抽出した第1パターンを用いて第1基準画像を合成し、複数の画像から抽出した第2パターンを用いて第2基準画像を合成する基準画像生成部と、第1基準画像と第1パターンとの差異である第1差異および、第2基準画像と第2パターンとの差異である第2差異を定量化する定量化部と、第1差異および第2差異を用いて回路パターンに含まれるオフセット量を算出する算出部と、を有することを特徴とする。
 あるいは、計測方法であって、検査対象物表面の回路パターンを光線あるいは電子線を用いて撮像する第1ステップと、第1ステップで撮像した画像から、第1パターンおよび第2パターンを抽出する第2ステップと、複数の画像から抽出した第1パターンを用いて第1基準画像を合成し、複数の画像から抽出した第2パターンを用いて第2基準画像を合成する第3ステップと、第1基準画像と第1パターンとの差異である第1差異および、第2基準画像と第2パターンとの差異である第2差異を定量化する第4ステップと、第1差異および第2差異を用いて回路パターンに含まれるオフセット量を算出する第5ステップと、を有することを特徴とする。
 本発明では基準画像を用いた製品回路内でのオーバーレイ計測方法及び装置において、プロセス初期段階でもオーバーレイを算出することが可能となる。
 上記した課題,構成及び効果の詳細、および上記以外の課題,構成及び効果は,以下の実施形態の説明により明らかにされる。
オーバーレイ計測装置の構成図である。 計測対象となる半導体装置の斜視図である。 合わせずれの無いデバイスの撮像画像例である。 合わせずれのあるデバイスの撮像画像例である。 オーバーレイ計測装置の動作の全体フロー図である。 オーバーレイ算出のフロー図である。 基準データの生成フロー図である 処理された画像の例を示す図である 基準画像生成のための操作画面例である。 上層基準画像の画像例である。 下層基準画像の画像例である。 基準データの画像例である。 上層基準画像に重畳表示される上層カーソルの例である。 下層基準画像に重畳表示される下層カーソルの例である。 上層カーソルと下層カーソルの中心が一致した状態を示す図である。 上層基準画像に上層カーソルの位置を固定して表示した表示例である。 下層基準画像に下層カーソルの位置を固定して表示した表示例である。 カーソル付きの上層基準画像と下層基準画像を位置合わせして表示した表示例である。 基準画像更新操作画面の画面例である。 画像処理部110の詳細を示す図である。
 以下に,本発明に関わる画像自動分類装置について説明する。本実施例では走査型電子顕微鏡(SEM)を備えた撮像装置で撮像した画像を用いてオーバーレイ計測を行う場合を対象に説明するが,本発明に関わる撮像装置はSEM以外でも良く,イオンなどの荷電粒子線を用いた撮像装置でも良い。
 図1に本発明に関わるオーバーレイ計測装置の全体構成図を示す。本実施形態である走査型電子顕微鏡装置100は、ウェーハ107を載置するステージ106、電子銃102より放出された電子ビーム101を制御する照射光学系、試料上から放出される2次電子を検出する検出器108、検出信号の信号処理系より構成される。照射光学系は、電子銃102、および、電子ビーム101の経路上にあるコンデンサレンズ103、偏向コイル104、対物レンズ105により構成される。電子ビーム101はこの光学系によりウェーハ107上のオーバーレイ計測対象の所定領域で集光される。
 検出器108により検出された2次電子はA/Dコンバータ109によりデジタル信号に変換される。変換後のデジタル信号は画像処理部110に送られ、画像処理部110では、メモリ内に格納されたデジタル信号を必要に応じて取り出し、画像処理を行い、計測処理等を行なう。111はステージコントローラを、112は電子光学系制御部を、113は装置全体の制御部であり、114は制御部に接続されている入出力用の表示端末であり、計測結果の表示なども行う。
 画像処理部110乃至、全体制御部113乃至、制御端末114へは記録媒体(図示せず)が接続可能となっており、画像処理部110で実行されるプログラムを、この記録媒体から読み出し、画像処理部110にロードできる構成となっている。A/Dコンバータ109、画像処理部110、全体制御部113は115に示すバスあるいはネットワークにより繋がれている。なお、本実施例では電子顕微鏡による撮像画像について処理を行っているが、光学顕微鏡などで光学的に撮像した画像についても同様に本発明を適用することが可能である。
 以降の説明において、計測の対象となるデバイスパターンの例を図2で、その撮像画像例を図3、図4で説明する。図2はデバイスパターンの俯瞰図であり、下地基材200の上に第1のパターンである下層パターン201および、第2のパターンである上層パターン202が形成された状態を示す。パターン201と202は異なるリソグラフィプロセスにて形成されたものである。
 図2ではパターン201と202は異なる層に形成された状態を示しているが、同じ層に形成されたパターンであっても、相互のパターンに合わせずれが生じるものであれば、オーバーレイ計測の対象となる場合もあり、この場合第1のパターンと、第2のパターンは、異なるリソグラフィプロセスにて形成されたパターンと定義される。
 図3と図4は、図2で示したパターンの撮像画像例である。図3は下層のパターン201に対して、上層のパターン202が合わせずれなく形成された状態の画像例、図4は下層のパターン201と上層のパターン202の間に合わせずれが生じた状態の画像例である。
 図5に計測時の全体フローチャートを示す。まず、観察対象であるウェーハを図1に示した走査型電子顕微鏡装置100のステージ106にロードする(S500)。次に計測点数Nからなる計測位置座標データを全体制御部113の外部入出力I/F(図示せず)を介して読み込む(S501)。同様にして基準データを読み込む(S502)。
 基準データは上層基準画像と下層基準画像、両画像間のオフセットから構成されるもの、あるいは両画像間のオフセットを使って上層基準画像と下層基準画像を1枚の基準画像に合成したものであるが、詳細は図7以降で述べる。次にウェーハのアライメントを行う(S503)。これは、ウェーハ上の座標で記述されている計測位置座標の位置に基づいてステージ106を移動したとき、目標である計測点が視野の中央にくるようにするため、ウェーハ上の座標が既知のウェーハ上の位置決めマークを用いて、ウェーハ座標とステージ座標とを関連付けるものである。
 以降、全ての計測点について順次S505からS508で示す一連の手順を繰り返し、オーバーレイ計測を行う。まずn番目の計測点位置にステージ移動する(S505)。図には示さないが、計測点近傍にステージ移動し詳細な座標補正を行った後に、ビーム移動によって計測点の視野出しを行ってもかまわない。
 次に計測点において計測パターンを撮像し(S506)、オーバーレイ計測処理を行う(S507)。S507については図6で詳細に説明するが、S507内で実行される回路パターン認識処理(S601)、画像差異定量化処理(S602,S603)は図1の画像処理部110内の各処理部2001から2004で実行される。
 次の計測点へのステージ移動は、オーバーレイ計測処理(S507)の終了を待たずに実行してもかまわない。次の計測点へのステージ移動の時間内に計測処理が終了するのであれば、移動中に計測処理を行う。次の計測点へのステージ移動時間内に計測処理が終了できない場合は、撮像と計測処理を非同期化し、撮像画像を逐次処理するか、撮像画像を一旦蓄積し別途オフラインでバッチ処理を行えばよい。次の計測点がある場合は次の計測点に移動し、S505からS508を繰り返す。全ての欠陥観察像の取得を終了したら、ウェーハをステージ106からアンロードして終了する。
 図6にオーバーレイ算出のフローを示す。6aは図5のS506で撮像した計測画像の例である。まずパターン認識部2001が計測画像6aの回路パターン認識処理を行い(S601)、上層計測画像(6d)、下層計測画像(6f)を得る。回路パターン認識処理の結果得られる、上層計測画像(6d)は、計測画像の上層部分を取り出したものであり、下層計測画像(6f)は計測画像の上層部分以外を残したものである。以降も回路パターン認識処理の結果得られる、上層画像、下層画像は同様の性質を持つものである。基準データ6bは、計測画像の比較対象となる上層基準画像(6c)、下層基準画像(6e)と、両画像間のオフセット(画像間offset_x、画像間offset_y)から構成される。
 基準データ6bは、計測に先立ち予め生成さており、図5のS502で読み込まれる。基準画像生成部2002が行う基準データの生成方法については図7で説明する。
 次に定量化部2003が計測画像の上層パターン画像6dと上層基準画像6cの差異を定量化し(S602)、上層パターン位置ずれ量(△Ux,△Uy)(6g)を求める。同様にして、計測画像の下層パターン画像6fと下層基準画像6eの差異を定量化し(S603)、下層パターン位置ずれ量(△Lx,△Ly)(6h)を求める。
 差異の定量化方法としては、二つの画像の重ね合わせる位置をずらしながら相関値を計算し、相関値最大の位置を位置ずれ量とする方法が考えられる。即ち、二つの画像のうち一方に対して他方を位置合わせし、そのとき得られる他方の画像の移動量を位置ずれ量とする方法が考えられる。求めた上層パターン位置ずれ量、下層パターン位置ずれ量、および、基準データ(6b)の上層および下層画像のオフセット(画像間offset_x、画像間offset_y)を用いて、オーバーレイ量(△x、△y)を求める(S604)。上層基準画像と下層基準画像のオフセットを使って1枚の基準画像に合成している場合は、オーバーレイ計測時に読み出した基準データに含まれる基準画像に対し回路パターン認識を行い、上層基準画像(6c)と下層基準画像(6e)を生成すればよい。
 オーバーレイ量計算(S604)は算出部2004が行う。図20の記憶部2005は各処理部2001,2002,2003,2004が処理のため入出力する画像データ、数値データを記憶するものであり、2006で示す入出力I/FはA/Dコンバータ109からの画像データ入力、全体制御部113からの各種処理命令受信、全体制御部113への処理結果出力、また表示端末114に表示する情報を出力する。バス2007は画像処理部100内の各処理部を接続し交互に情報に授受を可能とするものである。
 図7で基準データの生成方法について説明する。N箇所で画像を撮像する(S700)。撮像する箇所は、オーバーレイ計測時に撮像する箇所である。S700は、図5で示したフローのS502,S507を除いて実行すればよい。撮像対象とするウェーハは、計測対象とするウェーハと同一のものでもよいし、異なるものでもかまわない。撮像したN枚の画像より仮基準画像である画像(m)を選択する(S701)。mは1からNの内の選択した画像番号である。
 画像(m)の選択は、パターンのコントラスト、上層、下層の位置関係など、後述するS706、S709での位置合わせ処理結果に相対的に好適と判断される画像を操作者が選択する。画像(m)を選択する代わりにN枚の画像より複数枚選択して、その加算平均画像を画像(m)の代わりに用いてもよい。仮基準画像とは以降のS706,S709で位置合わせを行う際に一時的に用いる基準画像のことであり、最終的に得るパターン別の、あるいはそれを統合した基準画像とは異なるものである。
 加算平均により画像のS/Nが向上しS706、S709での位置合わせ処理が安定するという効果が期待できる。複数枚を平均加算した場合は画像(m)の部分を、この平均加算画像として読み替えることとする。画像(m)の回路パターン認識を行い上層画像(m)、下層画像(m)、上層2値像(m)、下層2値像(m)を生成する(S702)。上層2値像は上層パターンのみが非ゼロの画素値を持つ画像である。下層2値像は上層パターン以外の部分が非ゼロの画素値を持つ画像である。S703で上層基準画像、下層基準画像、上層計数画像、下層計数画像の画素値をゼロクリアする。続いて、画像n(n=1、…、N)をS705からS711により処理する。
 画像(n)を回路パターン認識し、上層画像(n)、下層画像(n)を生成する(S705)。上層画像(n)を上層基準画像(m)に位置合わせし(S706)、位置合わせ後の上層画像(n)を上層基準画像に加算する(S707)。また、上層基準画像で加算対象となった画素に対応する上層計数画像の画素値を1加算する(S708)。加算対象となる画素は、非ゼロの画素値を持つ画素である。層ごとに抽出された結果画素値がゼロとなった画素は加算対象とはならない。例えば上層計測画像(6d)では、白く描画されている部分が加算対象となる画素である。
 上層画像(n)をIU(n)(x,y)、上層基準画像(m)をIU(m)(x,y)、上層基準画像をRU(x,y)、上層計数画像をCU(x,y)とする。x,yは画像内の位置を表すの座標値である。上層画像(n)と上層基準画像(m)を位置合わせした結果得られる、上層画像(n)と上層基準画像(m)の位置ずれ量を(△x,△y)とすれば、
Figure JPOXMLDOC01-appb-M000001
位置合わせ後の上層画像(n)の上層基準画像への加算(S707)は、
Figure JPOXMLDOC01-appb-M000002
上層基準画像で加算対象となった画素に対応する上層計数画像の画素値を1加算する(S708)は、
Figure JPOXMLDOC01-appb-M000003
と書ける。下画像に対しても同様に、下層画像(n)を下層基準画像(m)に位置合わせし(S709)、位置合わせ後の下層画像(n)を下層基準画像に加算する(S710)。また、下層基準画像で加算対象となった画素に対応する下層計数画像の画素値を1加算する(S711)。加算対象となる画素は、上層と同様に、非ゼロの画素値を持つ画素である。
 以上、画像n(n=1、…、N)に対し、S705からS711の処理を終えた後、上層基準画像の画素値を上層計数画像の対応する画素値で除算し、上層基準画像の画素値の平準化を図る。この処理はCU(x,y)≠0の画素(x,y)において、
Figure JPOXMLDOC01-appb-M000004
で行われる。CU(x,y)が0の場合はRU(x,y)も0とする。下層基準画像に対しても同様に、下層基準画像の画素値を下層計数画像の対応する画素値で除算する(S714)。
 このように、加算対象となる画素を加算しつつ、加算した回数を意味するCU(x,y)で割ることにより、欠損部分を埋める画素の重みづけを高くすることができる。逆に、何度も加算されている画素は、欠損していない部分であるため加算した回数で割ることで重みづけを低くするような式となっている。こうすることで少ない枚数でも効果的に欠損部分を補った基準画像を生成することができる。
 以上、複数画像の合成により上層基準画像および下層基準画像を得る方法として、加算平均による方法を示したが合成方法はこの方法に限られるものではない。
 最後に上層基準画像、下層基準画像を生成後、両画像のパターン間のずれ量をoffsetとして取得する(S715)。Offsetの取得方法は図9で述べる。
 図7で示したフローに従い処理される画像を図8に模式的に示した。1段目に撮像画像を示す。800は選択された画像(m)である。801から804に複数の画像の例として、上層パターンの位置、サイズが異なる画像(n1)、画像(n2)、画像(n3)、画像(n4)の4枚の画像を掲げた。下層は説明の簡単化のために画像(m)と変わらないものとした。2段目に1段目の原画像に対し回路パターン認識で得られた上層画像の例を示す。805に上層画像(m)、806から809に画像(n1)、画像(n2)、画像(n3)、画像(n4)に対応する上層画像、上層画像(n1)、上層画像(n2)、上層画像(n3)、上層画像(n4)を示す。3段目は805から809を輪郭線で描いたもので、上層画像(m)805の上層パターンに、上層画像(n1)806、上層画像(n2)807、上層画像(n3)808、上層画像(n4)809の上層パターンをそれぞれ位置合わせしたものである。これは図7のS706に対応する部分を模式的に表したものである。805から809を位置合わせした後、式(2)、式(3)、式(4)で示した加算平均処理を行い、上層基準画像を得る。
 このようにして得られた上層基準画像は、1枚の画像から得た上層基準画像に比べて、平均演算による画像S/N向上、特定の画像におけるパターンの形状や明るさなどに偏ることが無いという効果が期待できる。
 4段目に1段目の原画像に対し回路パターン認識で得られた下層画像の例を示す。810に下層画像(m)、811から814に画像(n1)、画像(n2)、画像(n3)、画像(n4)に対応する下層画像、下層画像(n1)、下層画像(n2)、下層画像(n3)、下層画像(n4)を示す。上層パターン部分の画素は抽出してしまったため、810から814のような上層パターン部分が欠損した下層画像が得られる。
 5段目の画像815から818は、画像811から814の下層パターンを輪郭線で描いたものであり、画像816は画像815から818を重畳したものである。各画像に対応する欠損部分が画像内の4箇所に位置する。例えば815は画像814に示した下層画像(n+4)の上層パターン部815に対応する部分であるが、811から813の画像(n1)、画像(n2)、画像(n3)の815に対応する部分は下層パターンが撮像された有効画素部分である。よって、811から814の加算平均を取った下層基準画像817では、領域815に対応する部分は811から813の画像データで補われ、欠損は残らない。画像811から画像813の欠損部分も同様である。
 説明の簡便化のために、画像内の下層パターンの位置は画像800と、画像801から画像804の間で同一としたが、異なっていても、画像800と、画像801から画像804をS709に示したように各々位置合わせすれば同様の効果を得ることができる。
 画像801から画像804の欠損部分で重なりが生じる場合、画像801から画像804のいずれの画像を持ってきても有効画素の無い部分が生じる。しかしながら、1枚の画像では、例えば画像810のような下層画像しか得られないのに対して、複数の画像を用いる場合はより欠損部の少ない画像を得ることが期待できる。例えば、図6のS603の差異定量化処理を相関計算で行う場合、残された欠損部分を無視して計算すれば、従来に比べてより多くの有効画素を使って計算ができるので、相関値を安定に計算でき、これによりオーバーレイ計算結果の安定性、再現性を高めることができる。また、上層パターンと同様、生成した下層基準画像は、S/Nに優れ、特定の画像におけるパターンの形状や明るさなどに偏ることが無いという効果も得られる。
 図9の900は基準画像1200を生成するための操作画面であり、図1の表示端末114の表示内容である。この画面により図7で示したフローの実行を操作者は指示する。
 まず図7のS701の画像(m)、すなわち仮基準画像の選択に関する操作について説明する。901は仮基準画像の選択ウィンドウである。リストボックス902に表示される画像ファイル名は基準画像生成に使用される画像ファイルである。操作者はリストボックス902内の画像ファイルより仮基準画像を指示する。リストボックス902内のファイル名をクリックすることにより、画像表示ウィンドウ907に指示した画像が表示される。
 リストボックス902欄外にある画像ファイル名はリストボックス902の横のスライダーバーを用いて表示可能である。あるいはリストボックス902内にポインタを置き、コンピュータのマウスホイールなどでリストボックス902欄外にある画像ファイル名を表示させてもよい。図示したリストボックス902は画像ファイル名「ID0057」が選択対象となっている様子を表しており、この状態で904の「OK」をクリックすることにより、指示した画像が選択され、選択画像リスト903に移される。
 選択画像リストボックス903には、仮基準画像として選択した画像ファイル名が表示される。選択画像リストボックス903内のファイル名をクリックすることにより、画像表示ウィンドウ907に選択された仮基準画像が表示される。選択を取り消す場合は、選択画像リストボックス903内のファイル名をクリックし、906の「戻す」ボタンをクリックすることで選択を取り消し、対象画像をリストボックス902戻すことができる。
 図7のS702からS714は、基準画像生成ウィンドウ908の実行ボタンをクリックすることで実行され、上層基準画像と下層基準画像が生成される。基準画像生成に適さない画像が含まれる場合は、基準画像生成を実行する前に、リストボックス902で画像ファイルを指示し、「削除」905をクリックし、基準画像生成に使用する画像の対象からはずしておく。
 図7のS715、上層基準画像と下層基準画像のオフセット取得に関する操作について説明する。909はオフセット調整ウィンドウである。「上層基準画像」ボタン910をクリックすると、生成された下層基準画像が画像ウィンドウ907と、サブ画像ウィンドウ916に表示される。サブ画像ウィンドウ916は907で表示された画像の部分を拡大表示するものである。「下層基準画像」ボタン911をクリックすると、生成された上層基準画像が画像ウィンドウ907と、サブ画像ウィンドウ916に表示される。「上層基準画像」ボタン910、「下層基準画像」ボタン911、「カーソル設定」ボタン912、「オフセット設定」ボタン913、「OK」ボタン914、移動キー915について、サブ画像ウィンドウ916に表示される画像とともに図10から図18で説明する。
 図10の1000は上層基準画像、図11の1100は下層基準画像である。図13のカーソル1300は上層基準画像に重畳して表示するためのカーソルの一例であり、中心位置を1301としている。図14のカーソル1400は下層基準画像に重畳して表示するためのカーソルの一例であり、中心位置を1401としている。
 「上層基準画像」ボタン910により上層基準画像をサブ画像ウィンドウ916に表示し、「カーソル設定」ボタン912により、上層基準画像にカーソルを重畳して表示させる。初期の段階では上層基準画像の上層パターンの中心と、上層カーソルの中心1301は一致していないので、操作者が上層基準画像に重畳表示された上層カーソル1300を、移動キー915を用いて、上層パターンの中心と、上層カーソルの中心1301とが一致するように移動させる。一致したら「OK」ボタン914をクリックし、上層基準画像と上層カーソルの位置関係を固定する。下層基準画像についても同様である。
 パターン中心が画像処理などで求めることができる場合は、初期位置として画像処理で求めた結果を表示し、操作者が「OK」ボタン914のクリックで確認してもよい。
 上層基準画像と上層カーソル、下層基準画像と下層カーソルの位置関係を固定した結果を図16、図17に示す。図16、図17では見易さのために上層基準画像、下層基準画像にあるパターンを破線で描いている。「オフセット設定」ボタン913により、上層基準画像を下層基準画像に重畳し、更にその上に上層カーソル及び下層カーソルを重畳した画像をサブ画像ウィンドウ916に表示させる。上層カーソル及び下層カーソルは、それぞれ上層基準画像、下層基準画像に対する位置関係は固定されている。この時点で上層基準画像の下層基準画像に対する移動量は(△x,△y)=(0,0)である。続いて移動キー915により上層基準画像を下層基準画像に対して相対的に動かす(上層カーソルも下層カーソルに対して同様に動くことに留意されたい)。
 操作者は移動キー915により上層基準画像を動かしながら、上層と下層のカーソルが図15に示すように、その中心が一致する状態になるまで移動させる。図18は上層画像を(△x,△y)=(△X,△Y)だけ移動させた結果、上層と下層の基準画像のずれが解消した状態を示している。この状態で「OK」ボタン914をクリックし(△X,△Y)を上層基準画像と下層基準画像のオフセット値を、上層基準画像、下層基準画像とともに基準データとして登録する。カーソルの固定位置を基準データに登録してもよい。登録したオフセット値はオーバーレイ計測処理(図6)のS604のオーバーレイ算出で使用される。
 なお、オーバーレイ算出に用いる画像としては、上層と下層の基準画像のずれが解消した状態の画像、すなわち図12に示す画像1200を基準データとして登録してもよい。この場合は、オーバーレイ計測処理(図6)において、読み出した基準データに含まれる基準画像に対し回路パターン認識を行い、上層基準画像(6c)と下層基準画像(6e)を生成すればよい。基準データにオフセット(0,0)として記録しておいてもよい。基準データにカーソルの固定位置を登録しておいてもよい。
 図19の基準画像更新操作画面1900は「登録データ利用」ボタン917をクリックすることで遷移する遷移先の画面例である。1901は新たに生成した上層基準画像、1902は新たに生成した下層基準画像である。1903は過去に生成した登録済みの基準データを表示するウィンドウで、1904は登録済み基準データのリストボックスである。
 1904のリストより登録済み基準データを選択し、1903内のOKボタンをクリックし確定すると、登録済み基準データに記録されている上層基準画像1905と下層基準画像1906が表示される。画像ウィンドウ1915には新規上層基準画像1901と、過去登録の上層基準画像1905をオーバーラップした画像が、画像ウィンドウ1916には新規下層基準画像1902と、過去登録の下層基準画像1906をオーバーラップした画像が表示される。
 オーバーラップ表示1910の方法は、「画像」と、「カーソル」が考えられる。オーバーラップ表示1910の「画像」をクリックして選択した場合は、一方の画像の濃淡値を特定の色の画素値に対応させ、他方の画像の濃淡値を別の特定の色の画素値に対応させてオーバーラップさせて画像ウィンドウ1915ないし1916に表示する。
 オーバーラップ表示1910の「カーソル」をクリックして選択した場合は、各画像に対し登録されているカーソルのみを表示し、オーバーラップさせる。オーバーラップ表示された上層基準画像1915、および下層基準画像1916により、新規に生成した上層基準画像1901を過去登録の上層基準画像1905に、新規に生成した下層基準画像1902を過去登録の下層基準画像1906に位置合わせする。上層基準画像の位置合わせは、上層基準画像ボタン1908をクリックし、移動キー1912をクリックして、新規に生成した上層基準画像1901を、過去登録の上層基準画像1905に対し上下左右に移動させて行う。下層基準画像の位置合わせも同様である。
 位置合わせが完了したらOKボタン1913をクリックし、新規の基準画像と過去登録の基準画像間のオフセット(OFFSET_X,OFFSET_Y)を確定する。
 新規に生成した上層基準画像1901と、過去登録の上層基準画像1905の位置合わせを画像相関計算などを用いたパターンマッチング処理にて自動位置合わせを行ってもよい。この場合は上層基準画像ボタン1908をクリックした後、自動調整ボタン1914をクリックする。下層基準画像1902と、過去登録の下層基準画像1906の自動位置合わせも同様に実行される。この自動位置合わせの処理は定量化部が行うものである。
 オーバーレイの算出方法は図6のS604に示した通りであるが、S604に示した(offset_x,offset_y)を登録済みのオフセットとすれば、基準データ更新後のオーバーレイ算出は、
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
となるので、新たなオフセット(new_offset_x,new_offset_y)は、
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
と計算でき、これをオフセットとして登録すればよい。
 このようにして、プロセス変更時に新規に基準データを作成しても、過去の基準データを利用して作成しているため、過去の基準データのオフセットのとの一貫性を保つことができる。そのため、プロセス変更などに伴い基準データを再作成した場合でも、過去に取得した基準データのオフセットを補正することで計測値の一貫性を保てるという効果がある。
 以上を踏まえると本実施例に記載の計測装置は、検査対象物200表面の回路パターンを光線あるいは電子線を用いて撮像する撮像部100と、撮像部100が撮像した画像から、第1パターン6dおよび第2パターン6fを抽出するパターン認識部2001と、複数の画像から抽出した第1パターン6dを用いて第1基準画像を合成し、複数の画像から抽出した第2パターン6fを用いて第2基準画像を合成する基準画像生成部2002と、第1基準画像と前記第1パターン6dとの差異である第1差異および、第2基準画像と第2パターン6fとの差異である第2差異を定量化する定量化部2003と、第1差異および第2差異を用いて回路パターンに含まれるオーバーレイ量を算出する算出部2004と、を有することを特徴とする。
 また、本実施例に記載の計測方法は、検査対象物表面の回路パターンを光線あるいは電子線を用いて撮像する第1ステップ(S506)と、第1ステップで撮像した画像から、第1パターン6dおよび第2パターン6fを抽出する第2ステップ(S601)と、複数の画像から抽出した第1パターン6dを用いて第1基準画像を合成し、複数の画像から抽出した第2パターン6fを用いて第2基準画像を合成する第3ステップ(S700~S715)と、第1基準画像と第1パターン6dとの差異である第1差異および、第2基準画像と第2パターン6fとの差異である第2差異を定量化する第4ステップ(S602、S603)と、第1差異および第2差異を用いて回路パターンに含まれるオーバーレイ量を算出する第5ステップ(S604)と、を有することを特徴とする。
 このように、回路パターンを第1パターン6dと第2パターン6fとに分け、各パターン同士で複数枚の画像から基準画像を合成することで、層別の基準画像を取得でき、これらのオフセット量を取得することが可能となる。上層基準画像と下層基準画像のずれ量が分かれば、プロセス初期段階であってもこ上層基準画像、下層基準画像およびオフセット量を用いてオーバーレイを算出することが可能となる。
 また、本実施例に記載の表示装置114は、計測対象200表面の回路パターン画像を表示する第1表示領域907と、回路パターン画像から抽出した第1パターン画像、第2パターン画像あるいは、前記第2パターン上に前記第1パターンを重畳した重畳画像のいずれかを表示する第2表示領域916と、重畳表示領域に表示される第1パターンおよび第2パターンの相対位置を入力するための入力手段を表示する設定領域909と、を有することを特徴とする。
 このように、第1パターンと第2パターンとの相対位置の調整を表示することで、ユーザが簡便に上層基準画像と下層基準画像とのオフセット量を算出するための画面を提供することができる。
100・・・走査型電子顕微鏡装置,101・・・電子ビーム,102・・・電子銃,103・・・コンデンサレンズ,104・・・偏向コイル,105・・・対物レンズ,106・・・ステージ,107・・・ウェーハ,108・・・検出器,109・・・A/Dコンバータ,110・・・画像処理部,111・・・ステージコントローラ,112・・・電子光学系処理部,113・・・全体制御部,114・・・表示端末,200・・・下地基材、201・・・下層パターン,202・・・上層パターン、900・・・基準画像生成操作画面、1900・・・基準画像更新操作画面。

Claims (15)

  1.  検査対象物表面の回路パターンを光学顕微鏡あるいは電子顕微鏡によって撮像する撮像部と、
     前記撮像部が撮像した画像から、第1パターンおよび第2パターンを抽出するパターン認識部と、
     複数の前記画像から抽出した前記第1パターンを用いて第1基準画像を合成し、複数の前記画像から抽出した前記第2パターンを用いて第2基準画像を合成する基準画像生成部と、
     前記第1基準画像と前記第1パターンとの差異である第1差異および、前記第2基準画像と前記第2パターンとの差異である第2差異を定量化する定量化部と、
     前記第1差異および前記第2差異を用いて前記回路パターンに含まれるオーバーレイ量を算出する算出部と、を有することを特徴とする計測装置。
  2.  請求項1に記載の計測装置であって,
     前記第1基準画像と前記第2基準画像の相対位置を調整するオフセット調整手段を有することを特徴とする計測装置。
  3.  請求項1に記載の計測装置であって,
     過去に生成された前記第1基準画像および前記第2基準画像を過去第1基準画像および過去第2基準画像として記憶する記憶部を有し、
     前記定量化部は、新たに生成された前記第1基準画像と前記過去第1基準画像との位置合わせを行い、新たに生成された前記第2基準画像と前記過去第2基準画像との位置合わせを行うことを特徴とする計測装置。
  4.  請求項3に記載の計測装置であって,
     前記算出部は、前記第1基準画像と前記過去第1基準画像との差異である第3差異、および前記第2基準画像と前記過去第2基準画像との差異である第4差異を用いて、前記過去第1基準画像と前記過去第2基準画像のオフセット量を更新し、記憶することを特徴とする計測装置。
  5.  請求項1に記載の計測装置であって、
     前記基準画像生成部は、複数枚の前記画像から1枚の画像を仮基準画像として選択し、前記仮基準画像から抽出したパターンに対して前記画像から抽出したパターンを加算することにより、前記第1基準画像および前記第2基準画像を合成することを特徴とする計測装置。
  6.  請求項1に記載の計測装置であって,
     前記基準画像生成部で用いた検査対象と、前記定量化部で用いた検査対象とは異なることを特徴とする計測装置。
  7.  検査対象物表面の回路パターンを光線あるいは電子線を用いて撮像する第1ステップと、
     前記第1ステップで撮像した画像から、第1パターンおよび第2パターンを抽出する第2ステップと、
     複数の前記画像から抽出した前記第1パターンを用いて第1基準画像を合成し、複数の前記画像から抽出した前記第2パターンを用いて第2基準画像を合成する第3ステップと、
     前記第1基準画像と前記第1パターンとの差異である第1差異および、前記第2基準画像と前記第2パターンとの差異である第2差異を定量化する第4ステップと、
     前記第1差異および前記第2差異を用いて前記回路パターンに含まれるオーバーレイ量を算出する第5ステップと、を有することを特徴とする計測方法。
  8.  請求項7に記載の計測方法であって,
     前記第1基準画像と前記第2基準画像の相対位置を調整するオフセット調整ステップを有することを特徴とする計測方法。
  9.  請求項7に記載の計測方法であって,
     過去に生成された前記第1基準画像および前記第2基準画像を過去第1基準画像および過去第2基準画像として記憶する第6ステップと、
     新たに生成された前記第1基準画像と前記過去第1基準画像との位置合わせを行い、新たに生成された前記第2基準画像と前記過去第2基準画像との位置合わせを行う第7ステップとを有することを特徴とする計測方法。
  10.  請求項9に記載の計測方法であって,
     前記第7ステップでは、前記第1基準画像と前記過去第1基準画像との差異である第3差異、および前記第2基準画像と前記過去第2基準画像との差異である第4差異を用いて、前記過去第1基準画像と前記過去第2基準画像のオフセット量を更新し、記憶することを特徴とする計測方法。
  11.  請求項7に記載の計測方法であって,
     前記第3ステップで用いた検査対象と、前記第4ステップで用いた検査対象とは異なることを特徴とする計測方法。
  12.  請求項7に記載の計測方法であって、
     前記第3ステップでは、複数枚の前記画像から1枚の画像を仮基準画像として選択し、前記仮基準画像から抽出したパターンに対して前記画像から抽出したパターンを加算することにより、前記第1基準画像および前記第2基準画像を合成することを特徴とする計測方法。
  13.  異なる位置で撮像した計測対象表面の複数枚の回路パターン画像から抽出した第1パターン画像、第2パターン画像あるいは、前記第2パターン上に前記第1パターンを重畳した重畳画像のいずれかを表示する第1表示領域と、
     前記第1表示領域に表示される前記第1パターンおよび前記第2パターンの相対位置を入力するための入力手段を表示する設定領域と、を有することを特徴とする表示装置。
  14.  請求項13に記載の表示装置であって,
     前記第1表示領域は、前記第1パターン画像に対して相対位置が固定された第1カーソル表示手段と、前記第2パターン画像に対して相対位置が固定された第2カーソル表示手段を有し、
     前記入力手段からの指示に従い、前記第1カーソル表示手段あるいは前記第2カーソル表示手段の表示位置を調整することを特徴とする表示装置。
  15.  請求項13に記載の表示装置であって、
     複数枚の前記回路パターン画像の情報と、複数枚の前記回路パターン画像から仮基準画像を選択するための選択手段とを表示する第2表示領域と、前記仮基準画像と前記複数枚の回路パターン画像から前記第1パターン画像および前記第2パターン画像の生成実行入力部と、を有することを特徴とする表示装置。
PCT/JP2016/052225 2016-01-27 2016-01-27 計測装置、方法および表示装置 WO2017130304A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2016/052225 WO2017130304A1 (ja) 2016-01-27 2016-01-27 計測装置、方法および表示装置
KR1020187016965A KR102278879B1 (ko) 2016-01-27 2016-01-27 계측 장치, 방법 및 표시 장치
US16/070,708 US10996569B2 (en) 2016-01-27 2016-01-27 Measurement device, method and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/052225 WO2017130304A1 (ja) 2016-01-27 2016-01-27 計測装置、方法および表示装置

Publications (1)

Publication Number Publication Date
WO2017130304A1 true WO2017130304A1 (ja) 2017-08-03

Family

ID=59397911

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/052225 WO2017130304A1 (ja) 2016-01-27 2016-01-27 計測装置、方法および表示装置

Country Status (3)

Country Link
US (1) US10996569B2 (ja)
KR (1) KR102278879B1 (ja)
WO (1) WO2017130304A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109752390A (zh) * 2017-11-03 2019-05-14 三星电子株式会社 用于检测光掩模和裸片中的缺陷的检查设备及检查方法
CN110060936A (zh) * 2018-01-19 2019-07-26 三星电子株式会社 晶圆测量设备、晶圆测量系统以及制造半导体装置的方法
JP7490094B2 (ja) 2020-06-24 2024-05-24 ケーエルエー コーポレイション 機械学習を用いた半導体オーバーレイ測定

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3543791A1 (en) * 2018-03-23 2019-09-25 ASML Netherlands B.V. Method of metrology and associated apparatuses
US11921052B2 (en) * 2022-03-31 2024-03-05 Kla Corporation Inspection with previous step subtraction
US11922619B2 (en) 2022-03-31 2024-03-05 Kla Corporation Context-based defect inspection
CN115390374B (zh) * 2022-11-01 2023-04-04 睿力集成电路有限公司 套刻误差的量测方法以及控制半导体制造过程的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194051A (ja) * 2008-02-13 2009-08-27 Hitachi High-Technologies Corp パターン生成装置およびパターン形状評価装置
JP2013168595A (ja) * 2012-02-17 2013-08-29 Hitachi High-Technologies Corp オーバーレイ計測方法、計測装置、走査型電子顕微鏡およびgui

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007094470A1 (ja) * 2006-02-16 2007-08-23 Nikon Corporation 露光装置、露光方法及びデバイス製造方法
JP4065893B1 (ja) * 2006-12-04 2008-03-26 東京エレクトロン株式会社 欠陥検出装置、欠陥検出方法、情報処理装置、情報処理方法及びそのプログラム
JP5393550B2 (ja) * 2010-03-18 2014-01-22 株式会社日立ハイテクノロジーズ 走査荷電粒子顕微鏡を用いた画像生成方法及び装置、並びに試料の観察方法及び観察装置
JP5743958B2 (ja) 2012-05-30 2015-07-01 キヤノン株式会社 計測方法、露光方法および装置
WO2016084310A1 (ja) * 2014-11-27 2016-06-02 パナソニックIpマネジメント株式会社 画像取得装置、画像形成システムおよび画像形成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194051A (ja) * 2008-02-13 2009-08-27 Hitachi High-Technologies Corp パターン生成装置およびパターン形状評価装置
JP2013168595A (ja) * 2012-02-17 2013-08-29 Hitachi High-Technologies Corp オーバーレイ計測方法、計測装置、走査型電子顕微鏡およびgui

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109752390A (zh) * 2017-11-03 2019-05-14 三星电子株式会社 用于检测光掩模和裸片中的缺陷的检查设备及检查方法
US11727557B2 (en) 2017-11-03 2023-08-15 Samsung Electronics Co., Ltd. Inspection apparatus for detecting defects in photomasks and dies
CN109752390B (zh) * 2017-11-03 2023-11-14 三星电子株式会社 用于检测光掩模和裸片中的缺陷的检查设备及检查方法
CN110060936A (zh) * 2018-01-19 2019-07-26 三星电子株式会社 晶圆测量设备、晶圆测量系统以及制造半导体装置的方法
CN110060936B (zh) * 2018-01-19 2024-06-07 三星电子株式会社 晶圆测量设备、晶圆测量系统以及制造半导体装置的方法
JP7490094B2 (ja) 2020-06-24 2024-05-24 ケーエルエー コーポレイション 機械学習を用いた半導体オーバーレイ測定

Also Published As

Publication number Publication date
US10996569B2 (en) 2021-05-04
KR102278879B1 (ko) 2021-07-19
KR20180082575A (ko) 2018-07-18
US20190033728A1 (en) 2019-01-31

Similar Documents

Publication Publication Date Title
WO2017130304A1 (ja) 計測装置、方法および表示装置
JP4554691B2 (ja) 補正パターン画像生成装置、パターン検査装置および補正パターン画像生成方法
JP5030906B2 (ja) 走査荷電粒子顕微鏡を用いたパノラマ画像合成方法およびその装置
US9343264B2 (en) Scanning electron microscope device and pattern dimension measuring method using same
JP4223979B2 (ja) 走査型電子顕微鏡装置及び走査型電子顕微鏡装置における装置としての再現性能評価方法
JP4988274B2 (ja) パターンのずれ測定方法、及びパターン測定装置
US7888638B2 (en) Method and apparatus for measuring dimension of circuit pattern formed on substrate by using scanning electron microscope
US8581187B2 (en) Method for measuring sample and measurement device
KR101623135B1 (ko) 패턴 평가 장치 및 패턴 평가 방법
WO2013187343A1 (ja) オーバーレイ誤差測定装置、及びコンピュータープログラム
WO2011013317A1 (ja) マッチング用テンプレートの作成方法、及びテンプレート作成装置
JP2009157543A (ja) 画像生成方法及びその画像生成装置
JP2011137901A (ja) パターン計測条件設定装置
JP2006093251A (ja) 寸法計測方法及びその装置
JP2014099568A (ja) 画像処理装置、自己組織化リソグラフィ技術によるパターン生成方法、及びコンピュータープログラム
US20110249885A1 (en) Mask inspection apparatus and image generation method
TWI809432B (zh) 圖案匹配裝置、圖案測定系統、圖案匹配程式
JP2006214816A (ja) 半導体検査装置
JP5674868B2 (ja) 走査荷電粒子顕微鏡装置を用いたパターン撮像方法
JP2010283088A (ja) ウェーハ外観検査装置
JP6207893B2 (ja) 試料観察装置用のテンプレート作成装置
KR20190086730A (ko) 하전 입자선 장치
JP4456613B2 (ja) 補正パターン画像生成装置及び補正パターン画像生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16887891

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20187016965

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020187016965

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16887891

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP