JP2024087006A - Method and apparatus for judging defect quality - Google Patents
Method and apparatus for judging defect quality Download PDFInfo
- Publication number
- JP2024087006A JP2024087006A JP2024069810A JP2024069810A JP2024087006A JP 2024087006 A JP2024087006 A JP 2024087006A JP 2024069810 A JP2024069810 A JP 2024069810A JP 2024069810 A JP2024069810 A JP 2024069810A JP 2024087006 A JP2024087006 A JP 2024087006A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- height
- evaluation value
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007547 defect Effects 0.000 title claims abstract description 124
- 238000000034 method Methods 0.000 title claims abstract description 79
- 239000010409 thin film Substances 0.000 claims abstract description 30
- 238000007689 inspection Methods 0.000 claims abstract description 28
- 238000012634 optical imaging Methods 0.000 claims abstract description 6
- 238000011156 evaluation Methods 0.000 claims description 203
- 238000003860 storage Methods 0.000 claims description 64
- 238000000605 extraction Methods 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 47
- 238000005401 electroluminescence Methods 0.000 claims description 44
- 238000007789 sealing Methods 0.000 claims description 35
- 239000000758 substrate Substances 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 18
- 238000005286 illumination Methods 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000002950 deficient Effects 0.000 claims description 4
- 230000000737 periodic effect Effects 0.000 claims description 4
- 239000010408 film Substances 0.000 description 39
- 238000012545 processing Methods 0.000 description 32
- 239000000126 substance Substances 0.000 description 31
- 238000010586 diagram Methods 0.000 description 27
- 238000005259 measurement Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 238000004519 manufacturing process Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 8
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 7
- 239000001301 oxygen Substances 0.000 description 7
- 229910052760 oxygen Inorganic materials 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- 229910052581 Si3N4 Inorganic materials 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- HQVNEWCFYHHQES-UHFFFAOYSA-N silicon nitride Chemical compound N12[Si]34N5[Si]62N3[Si]51N64 HQVNEWCFYHHQES-UHFFFAOYSA-N 0.000 description 5
- 239000002245 particle Substances 0.000 description 4
- 229920001721 polyimide Polymers 0.000 description 4
- 230000008439 repair process Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000012466 permeate Substances 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 239000004642 Polyimide Substances 0.000 description 2
- 238000001069 Raman spectroscopy Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005229 chemical vapour deposition Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 229910010272 inorganic material Inorganic materials 0.000 description 2
- 239000011147 inorganic material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000011368 organic material Substances 0.000 description 2
- 229920000139 polyethylene terephthalate Polymers 0.000 description 2
- 239000005020 polyethylene terephthalate Substances 0.000 description 2
- 235000012431 wafers Nutrition 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000012298 atmosphere Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007641 inkjet printing Methods 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000012299 nitrogen atmosphere Substances 0.000 description 1
- 238000000206 photolithography Methods 0.000 description 1
- 229920000515 polycarbonate Polymers 0.000 description 1
- 239000004417 polycarbonate Substances 0.000 description 1
- -1 polyethylene terephthalate Polymers 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/956—Inspecting patterns on the surface of objects
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10K—ORGANIC ELECTRIC SOLID-STATE DEVICES
- H10K71/00—Manufacture or treatment specially adapted for the organic devices covered by this subclass
- H10K71/70—Testing, e.g. accelerated lifetime tests
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/06—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B9/00—Measuring instruments characterised by the use of optical techniques
- G01B9/04—Measuring microscopes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8806—Specially adapted optical and illumination features
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/94—Investigating contamination, e.g. dust
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/9501—Semiconductor wafers
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L22/00—Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
- H01L22/10—Measuring as part of the manufacturing process
- H01L22/12—Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B2210/00—Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
- G01B2210/56—Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8806—Specially adapted optical and illumination features
- G01N2021/8822—Dark field detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8854—Grading and classifying of flaws
- G01N2021/8858—Flaw counting
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8887—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N2021/9513—Liquid crystal panels
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2201/00—Features of devices classified in G01N21/00
- G01N2201/12—Circuits of general importance; Signal processing
- G01N2201/127—Calibration; base line adjustment; drift compensation
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10K—ORGANIC ELECTRIC SOLID-STATE DEVICES
- H10K77/00—Constructional details of devices covered by this subclass and not covered by groups H10K10/80, H10K30/80, H10K50/80 or H10K59/80
- H10K77/10—Substrates, e.g. flexible substrates
- H10K77/111—Flexible substrates
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02E—REDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
- Y02E10/00—Energy generation through renewable energy sources
- Y02E10/50—Photovoltaic [PV] energy
- Y02E10/549—Organic PV cells
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Biochemistry (AREA)
- Chemical & Material Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Health & Medical Sciences (AREA)
- Analytical Chemistry (AREA)
- Manufacturing & Machinery (AREA)
- Power Engineering (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Electroluminescent Light Sources (AREA)
- Testing Or Measuring Of Semiconductors Or The Like (AREA)
- Instruments For Measurement Of Length By Optical Means (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、多層の薄膜を使用した半導体ウェハーや薄膜トランジスタ表示デバイス等の検査対象物の製造時に発生した欠陥の高さ情報を光学式撮像手段によって測定し、欠陥発生部位の高さ情報と欠陥の発生した層を特定して欠陥の良否を判定する欠陥良否判定方法及び装置に関する。 The present invention relates to a defect quality determination method and device that uses an optical imaging means to measure height information of defects that occur during the manufacture of inspection objects such as semiconductor wafers and thin-film transistor display devices that use multi-layer thin films, and identifies the height information of the defect-occurring portion and the layer in which the defect occurred to determine the quality of the defect.
多層の薄膜を使用した半導体や薄膜トランジスタ表示及びその同類のデバイスの製造ではフォトリソグラフィを用いて微小なパターンが形成されている。それらの製造工程において、様々な要因によってパターン異常、ピンホール等の欠陥が発生し、歩留まりを落とす原因となっている。歩留まり低下の要因を取り除いて生産効率を高めるために、これらの製造工程を管理することによって発生した欠陥を検査し、要因を特定する作業が行われている。 In the manufacture of semiconductors, thin-film transistor displays, and similar devices that use multiple thin films, minute patterns are formed using photolithography. During these manufacturing processes, defects such as pattern anomalies and pinholes can occur due to a variety of factors, resulting in reduced yields. In order to eliminate factors that reduce yields and increase production efficiency, work is being carried out to manage these manufacturing processes, inspect the defects that occur, and identify the causes.
そのような製造工程のうち、複数の層を連続的に形成する工程において、各層形成の工程途中にてパターン異常、ピンホール及びその同類の欠陥の検査ができないケースがある。このため、唯一の手段として、最終層の形成の後に欠陥の検査を行い、欠陥の高さ位置情報から該当欠陥を発生させた工程を特定する必要がある。例えば、フレキシブル有機EL(Electro-Luminescence)の封止工程においては、窒化ケイ素などの無機薄膜とポリイミドなどの有機薄膜を多重に積層して、大気中の酸素や水分が装置内に進入することを防止する技術が用いられている。しかし、各層に発生する微小なピンホールの存在は装置の寿命にとって致命的である。特に、異なる層に発生したピンホールが近接して存在する位置を正確に測定し、製品の良否を判定する必要がある。しかしながら、これらの層の形成は、真空中あるいは窒素雰囲気中にて短時間に行う必要があり、途中で工程を止めて対象物を検査することができない。 In such manufacturing processes, in processes in which multiple layers are formed continuously, there are cases in which it is not possible to inspect for pattern abnormalities, pinholes, and similar defects during the process of forming each layer. Therefore, the only way is to inspect for defects after the formation of the final layer and identify the process that caused the defect from the height position information of the defect. For example, in the sealing process of flexible organic EL (Electro-Luminescence), a technology is used to prevent oxygen and moisture in the atmosphere from entering the device by laminating inorganic thin films such as silicon nitride and organic thin films such as polyimide in multiple layers. However, the presence of tiny pinholes that occur in each layer is fatal to the life of the device. In particular, it is necessary to accurately measure the positions of pinholes that occur in different layers and are close to each other to judge the quality of the product. However, these layers must be formed in a vacuum or nitrogen atmosphere in a short time, and it is not possible to stop the process and inspect the target object midway.
図1は、一般的なフレキシブル有機EL表示デバイスの断面構造を示しており、有機ELは、電気回路パターン1によって発光する。また、電気回路パターン1は、第1の基材5及び第2の基材6から成る基材の上に形成され、第1の封止層(無機膜)2と、第2の封止層(有機膜)3と、第3の封止層(無機膜)4とから成る透明膜によって封止されている。通常、第1の封止層2及び第3の封止層4は無機物質であるシリコン窒化膜であり、化学蒸着(Chemical Vapor Deposition、(CVD))プロセスによって形成される。第2の封止層3には有機物質であるポリイミドが使われ、第2の封止層3は、例えば、インクジェット印刷装置の使用によって形成される。第1の基材5は透明基板である。第1の基材5として、例えば、ポリエチレンテレフタレート(PET),ポリカーボネート(PC)等の樹脂基板が用いられる。 Figure 1 shows the cross-sectional structure of a typical flexible organic EL display device, where the organic EL emits light by an electric circuit pattern 1. The electric circuit pattern 1 is formed on a substrate consisting of a first substrate 5 and a second substrate 6, and is sealed by a transparent film consisting of a first sealing layer (inorganic film) 2, a second sealing layer (organic film) 3, and a third sealing layer (inorganic film) 4. Usually, the first sealing layer 2 and the third sealing layer 4 are silicon nitride films, which are inorganic materials, and are formed by a chemical vapor deposition (CVD) process. The second sealing layer 3 is made of polyimide, which is an organic material, and is formed, for example, by using an inkjet printing device. The first substrate 5 is a transparent substrate. For example, a resin substrate such as polyethylene terephthalate (PET) or polycarbonate (PC) is used as the first substrate 5.
図2は、封止層(例えば、有機材料又は無機材料の封止用透明膜)を形成する工程において、封止層4に2個のピンホール7A、7Bが形成された様子を示している。ピンホール7A、7Bは、第3の封止層4のシリコン窒化膜に存在している。空気中の酸素(O2)や水(H2O)がポリイミド膜に浸透したとしても、空気中の酸素(O2)や水(H2O)は第1の封止層2(シリコン窒化膜)によって遮断される。そして、ピンホール7A、7B直下のEL素子は直ちには破壊されず、ピンホール7A、7Bは、有機EL表示デバイスに致命的な欠陥ではない。 2 shows a state where two pinholes 7A and 7B are formed in the sealing layer 4 during the process of forming a sealing layer (e.g., a transparent film for sealing made of an organic or inorganic material). The pinholes 7A and 7B are present in the silicon nitride film of the third sealing layer 4. Even if oxygen (O 2 ) or water (H 2 O) in the air permeates the polyimide film, the oxygen (O 2 ) or water (H 2 O) in the air is blocked by the first sealing layer 2 (silicon nitride film). The EL elements directly below the pinholes 7A and 7B are not immediately destroyed, and the pinholes 7A and 7B are not a fatal defect for the organic EL display device.
一方、図3は、同様にフレキシブル有機EL表示デバイスの封止層の形成工程において、欠陥であるピンホール8A、8Bが第1の封止層2と第3の封止層4の各シリコン窒化膜の近接(垂直方向を軸として)した部位に存在する様子を示している。この場合には、空気に接する封止層4のピンホール8Aから侵入した酸素や水が、時間経過につれてポリイミド膜(封止層3)に浸透する。そして、遂には酸素や水が封止層2のピンホール8Bまで到達し、ピンホール8Bの直下にあるEL素子が破壊される。このようにEL素子が破壊されて、有機EL表示デバイスの寿命が縮まることは、表示デバイスにとって致命的なことである。 On the other hand, FIG. 3 similarly shows a state in which defective pinholes 8A and 8B are present in adjacent (vertical) locations of the silicon nitride films of the first sealing layer 2 and the third sealing layer 4 during the process of forming the sealing layer of a flexible organic EL display device. In this case, oxygen and water that have entered through pinhole 8A in sealing layer 4, which is in contact with air, permeate the polyimide film (sealing layer 3) over time. Eventually, the oxygen and water reach pinhole 8B in sealing layer 2, destroying the EL element directly below pinhole 8B. The destruction of the EL element in this way, shortening the lifespan of the organic EL display device, is fatal to the display device.
有機ELの例を挙げて説明したように、表示デバイスの封止層上の欠陥(例えば、ピンホール及び異物)が、図3に示すように表示デバイスにとって致命的であるか否かが判定される必要がある。しかしながら、封止層の厚みは、数μm程度であるから、欠陥が発生した封止用透明膜を特定するためには、サブミクロンオーダーの分解能で、欠陥の高さが測定される必要がある。そのような精密な測定精度を満たすような技術として、例えば、レーザによる三角測距方式による距離測定装置、白色干渉計(特開2013-19767号公報(特許文献1))及び共焦点顕微鏡(特開2012-237647号公報(特許文献2))及びその同類のものが知られている。 As explained using the example of an organic electroluminescence display, it is necessary to determine whether defects (e.g., pinholes and foreign matter) on the sealing layer of a display device are fatal to the display device as shown in FIG. 3. However, since the thickness of the sealing layer is about a few μm, in order to identify the transparent sealing film in which the defect has occurred, it is necessary to measure the height of the defect with a resolution on the order of submicrons. Known technologies that meet such precise measurement accuracy include, for example, a distance measuring device using a laser triangulation method, a white light interferometer (JP Patent Publication No. 2013-19767 (Patent Document 1)), a confocal microscope (JP Patent Publication No. 2012-237647 (Patent Document 2)), and similar devices.
日本国公開特許公報2014-148735号(特許文献3)には、多焦点共焦点ラマン分光顕微鏡が開示され、そこではレーザ観察光学系を用いてサンプルからのラマン散乱光が観察されている。さらに、3次元プロファイルマップの作成において、光学顕微鏡などのカメラ装置手段によって、立体サンプルに対して焦点距離に応じた複数の画像を得て、これらの画像を組み合わせて、光の強さと輝度コントラストが最大となる合焦度を評価し、サンプルの3次元プロファイルマップ(高さ地図)を生成する技術が日本国公開特許公報2012-220490号(特許文献4)に開示されている。更に、日本国公開特許公報2005-172805号(特許文献5)には、走査型共焦点顕微鏡において、Zレボルバを移動ピッチΔZで移動し、Z相対位置毎に取得された共焦点画像の最大強度点に基づいて、サンプルに関する輝度・高さ情報(3次元情報)を生成する技術が開示されている。 Japanese Patent Publication No. 2014-148735 (Patent Document 3) discloses a multifocal confocal Raman spectroscopic microscope, in which Raman scattered light from a sample is observed using a laser observation optical system. Furthermore, Japanese Patent Publication No. 2012-220490 (Patent Document 4) discloses a technique for creating a three-dimensional profile map by obtaining multiple images of a three-dimensional sample according to the focal length using a camera device such as an optical microscope, combining these images to evaluate the degree of focus at which the light intensity and brightness contrast are maximized, and generating a three-dimensional profile map (height map) of the sample. Furthermore, Japanese Patent Publication No. 2005-172805 (Patent Document 5) discloses a technique for moving a Z revolver at a moving pitch ΔZ in a scanning confocal microscope, and generating brightness and height information (three-dimensional information) about the sample based on the maximum intensity point of the confocal image acquired for each Z relative position.
レーザによる三角測距方式による距離測定装置、白色干渉計、共焦点顕微鏡などの高さ測定技術は、10μm以上の平坦なパターン状欠陥の高さを測定することができる。しかし、数μmの大きさの欠陥(例えば、ピンホールや異物)や平坦でない異物の高さ情報を正確に測定することはできない。特に、1μm以下の欠陥を測定することができない。 Height measurement technologies such as distance measuring devices using laser triangulation, white light interferometers, and confocal microscopes can measure the height of flat pattern defects of 10 μm or more. However, they cannot accurately measure the height information of defects of a few μm in size (e.g., pinholes and foreign objects) or foreign objects that are not flat. In particular, they cannot measure defects of 1 μm or less.
対象物によって反射される光と参照光との間の干渉による測定方法、或いは対象物によって反射された反射光を、共焦点光学系を用いて集光させることによる検出方法は、大きさが1μm以下の欠陥を検出することができるものではない。対象物の大きさが1μm以下である場合や、対象物の表面に凹凸があって観察に用いる照明光を、鏡面反射せず、散乱してしまうような物体である場合には、反射光そのものを観察できないため欠陥を検出することができない。そして、従来の高さ測定装置では、1μm以下の欠陥を検出することができない。 Measurement methods that rely on interference between light reflected by an object and a reference light, or detection methods that use a confocal optical system to focus the light reflected by an object, are not capable of detecting defects that are 1 μm or smaller in size. If the size of the object is 1 μm or smaller, or if the object has an uneven surface that scatters the illumination light used for observation rather than reflecting it specularly, the reflected light itself cannot be observed and defects cannot be detected. Furthermore, conventional height measurement devices cannot detect defects that are 1 μm or smaller.
特許文献3に開示されたレーザ観察光学系には、半導体ウェハーや薄膜トランジスタ、特にフレキシブル有機EL表示デバイスの封止層(封止用透明膜)等の対象物の欠陥を検査し、欠陥の高さ情報を算出するような機能がない。 The laser observation optical system disclosed in Patent Document 3 does not have the functionality to inspect defects in objects such as semiconductor wafers and thin-film transistors, and in particular the sealing layers (sealing transparent films) of flexible organic EL display devices, and to calculate height information of the defects.
更に、焦点位置を変えながら画像を取得して、急峻な輝度変化をする部分における輝度変化量に基づいて、対象物の高さ情報を抽出するDepth From Defocus(DFD)、あるいはDepth From Focus(DFF)が知られている(日本国公開特許公報平11-337313号(特許文献6))。しかし、特許文献6に示されるような従来のDFD処理においては、画像間の位置ずれや画像の画素ノイズによる誤差によって、1μm以下の大きさを有するパターン欠陥や層上の微小欠陥(ピンホールや異物)等の撮像画素が1画素程度の対象物に対しては、画像の位置ずれや画素ノイズの誤差のため高さ情報を正確に測定することができない。DFD又はDFFを用いた高さ情報の測定における、高さ方向の絶対位置は、基板と顕微鏡とを接続する機械の精度に依存している。 Furthermore, Depth From Defocus (DFD) or Depth From Focus (DFF) is known, which acquires images while changing the focal position and extracts height information of an object based on the amount of change in brightness in areas where the brightness changes sharply (JP Patent Publication No. 11-337313 (Patent Document 6)). However, in conventional DFD processing as shown in Patent Document 6, due to errors caused by misalignment between images and pixel noise in images, height information cannot be accurately measured for objects with an imaging pixel size of about one pixel, such as pattern defects with a size of 1 μm or less or minute defects on a layer (pinholes and foreign objects), due to errors caused by image misalignment and pixel noise. The absolute position in the height direction in measuring height information using DFD or DFF depends on the accuracy of the machine connecting the substrate and the microscope.
現在、EL素子を用いた表示デバイスにおいては、製造上の効率を上げるため、G6サイズ、(1500×1850mm)のガラス基板が用いられる。そして、検査装置内部に設けられる基板を載荷(搭載)するステージがG6サイズに合わせてより大きくなるため、基板表面の高さ方向の絶対位置を1μm以内に調整することは現実的ではない。このため、ガラス基板上に形成されたパターンに発生する欠陥の高さ情報(高さ方向の絶対位置)を1μm単位で測定することは、非常に困難である。 Currently, in order to increase manufacturing efficiency, G6 size (1500 x 1850 mm) glass substrates are used in display devices that use EL elements. And because the stage on which the substrate is loaded (mounted) inside the inspection device becomes larger to accommodate the G6 size, it is not realistic to adjust the absolute height position of the substrate surface to within 1 μm. For this reason, it is very difficult to measure the height information (absolute height position) of defects that occur in patterns formed on glass substrates in 1 μm units.
特許文献4及び特許文献5に開示された技術は、サンプルの3次元プロファイルマップ(高さ地図)を生成するものの、μm単位以下の分解能を用いて、フレキシブル有機EL表示デバイス等の封止用透明膜の欠陥の高さ情報を算出するような機能を持たない。 The techniques disclosed in Patent Documents 4 and 5 generate a three-dimensional profile map (height map) of a sample, but do not have the functionality to calculate height information of defects in transparent sealing films of flexible organic electroluminescence display devices and the like using a resolution of μm or less.
本発明は上述のような事情に基づいてなされたものであり、本発明の目的は、1μm未満の大きさのパターン欠陥や膜(層)の微小なピンホール等の欠陥を対象にしても、3次元構造の高さ方向の発生位置を正確に計測し、背景のパターンとの相対的な高さを判定することにより、発生した欠陥の良否を正確に判定する欠陥良否判定方法及び装置を提供することにある。 The present invention was made based on the above-mentioned circumstances, and the object of the present invention is to provide a defect quality determination method and device that can accurately determine the quality of a defect by accurately measuring the position in the height direction of a three-dimensional structure where the defect occurs, even for defects such as pattern defects less than 1 μm in size or minute pinholes in a film (layer), and determining the height relative to the background pattern.
本発明の上記目的は、以下のステップを含むことにより達成される。すなわち、多層の透明薄膜に使用される検査対象物に対して、光学式撮像手段によって、高さ方向に所定の刻み幅の複数の画像を取得することと、前記複数の画像の各画素に対して隣接画素との輝度差から部分画像の鮮鋭度を算出することと、前記複数の画像の全画像の中で同一画素位置における前記鮮鋭度の算出結果が最大の画像番号から前記部分画像の高さ情報を算出することと、前記高さ情報の算出から前記全画像の3次元情報を得ることと、及び、前記3次元情報に基づいて前記検査対象物の欠陥良否を判定することを含むことによって本発明の目的は達成される。 The above object of the present invention is achieved by including the following steps. That is, the object of the present invention is achieved by including: acquiring a plurality of images of an object to be inspected, which is used for a multi-layer transparent thin film, by an optical imaging means, at a predetermined interval in the height direction; calculating the sharpness of a partial image from the brightness difference between adjacent pixels for each pixel of the plurality of images; calculating height information of the partial image from the image number which has the maximum sharpness calculation result at the same pixel position among all the images of the plurality of images; obtaining three-dimensional information of the entire image from the calculation of the height information; and judging the defect quality of the object to be inspected based on the three-dimensional information.
本発明の上記目的は、以下のステップをさらに含むことにより効率的に達成される。すなわち、前記鮮鋭度が最大の前記画像のパターン欠陥を検出することと、前記複数の画像から前記鮮鋭度の高い部分画像の密度が最大の画像を抽出することと、前記画像を3次元パターン構造の高さ方向の基準位置1とすることと、及び、前記パターン欠陥の前記高さ情報と前記基準位置1との関係から発生した前記パターン欠陥の前記3次元パターン構造中での高さを測定することとをさらに含むことにより、或いは以下のステップ、すなわち、前記鮮鋭度が最大の画像のパターン欠陥を検出することと、前記複数の画像で、前記透明薄膜の端部に発生する干渉縞の干渉画像が最も鮮鋭になる画像を抽出することと、前記画像を3次元パターン構造の高さ方向の基準位置2とすることと、及び、前記パターン欠陥の高さ情報と前記基準位置2との関係から発生した前記パターン欠陥の前記3次元パターン構造中での高さを測定することとをさらに含むことにより、或いは、以下のステップ、すなわち、前記パターン欠陥の前記高さ情報を用いて、前記パターン欠陥を修復することをさらに含むことにより本発明の目的は効率的に達成される。 The above object of the present invention is efficiently achieved by further including the following steps. That is, by further including the steps of detecting a pattern defect in the image with the maximum sharpness, extracting an image with the maximum density of partial images with high sharpness from the multiple images, setting the image as a reference position 1 in the height direction of a three-dimensional pattern structure, and measuring the height of the pattern defect in the three-dimensional pattern structure generated from the relationship between the height information of the pattern defect and the reference position 1, or by further including the steps of detecting a pattern defect in the image with the maximum sharpness, extracting an image in the multiple images in which an interference image of interference fringes generated at the edge of the transparent thin film is the sharpest, setting the image as a reference position 2 in the height direction of a three-dimensional pattern structure, and measuring the height of the pattern defect in the three-dimensional pattern structure generated from the relationship between the height information of the pattern defect and the reference position 2, or by further including the steps of repairing the pattern defect using the height information of the pattern defect.
本発明の上記目的は、以下の構成を備えることにより達成される。すなわち、所定の刻み幅で上下動可能な光学式撮像手段によって、多層の透明薄膜を有する検査対象物の複数の画像データを画像番号を付して取得する撮像手段と、前記画像データの特徴を抽出する抽出部と、前記特徴に基づいて評価値を算出する評価値算出部と、前記画像データにおいて前記評価値との位置関係が一致する前回評価値と前記評価値とを比較し、かつ比較結果を生成する評価値比較部と、前記比較結果に基づいて前記評価値を記憶する評価値記憶部と、前記比較結果に基づいて前記画像番号を記憶する画像番号記憶部と、前記画像番号記憶部に記憶された前記画像番号に基づいて前記検査対象物の3次元情報を抽出する3次元情報抽出部と、前記3次元情報に基づいて前記検査対象物に存在する欠陥の高さ情報を抽出する3次元情報抽出部と、及び、前記欠陥が複数存在する場合に前記欠陥間の前記高さ情報の差分に基づいて前記検査対象物の良否を判定する良否判定部とを備えることにより本発明の目的は、達成される。 The above object of the present invention is achieved by providing the following configuration. That is, the object of the present invention is achieved by providing an imaging means that acquires multiple image data of an object having a multi-layer transparent thin film by using an optical imaging means that can move up and down at a predetermined interval, and assigns image numbers to the image data; an extraction unit that extracts features of the image data; an evaluation value calculation unit that calculates an evaluation value based on the features; an evaluation value comparison unit that compares the evaluation value with a previous evaluation value that matches the positional relationship with the evaluation value in the image data and generates a comparison result; an evaluation value storage unit that stores the evaluation value based on the comparison result; an image number storage unit that stores the image number based on the comparison result; a three-dimensional information extraction unit that extracts three-dimensional information of the object based on the image number stored in the image number storage unit; a three-dimensional information extraction unit that extracts height information of defects present in the object based on the three-dimensional information; and a pass/fail judgment unit that judges the pass/fail of the object based on the difference in height information between the defects when there are multiple defects.
本発明の上記目的は、以下の構成を備えることにより効率的に達成される。すなわち、前記3次元情報抽出部は前記評価値が最も高い前記画像番号に基づいて前記3次元情報を抽出するものであることにより、或いは前記評価値は注目画素と前記注目画素に隣接する隣接画素との輝度差に基づいて算出されるものであることにより、或いは前記3次元情報抽出部は前記検査対象物の電極パターン及び前記検査対象物の封止層の干渉縞が撮影された前記画像データの前記評価値に基づいて前記高さ情報の基準を決定するものであることにより、或いは前記欠陥はパターン欠陥、ピンホール又は異物であることにより、或いは前記評価値は前記隣接画素の輝度値に対する前記注目画素の輝度値の差に基づいて算出された鮮鋭度であることにより、或いは前記検査対象物は有機EL表示デバイスであることにより、或いは前記検査対象物がフレキシブル基板上に形成されたフレキシブル有機EL表示デバイスであることにより、或いは前記3次元情報抽出部が算出した前記高さ情報に基づいて前記欠陥を修復する機能を少なくとも1つさらに備えるものであることにより、或いは前記高さ情報に応じて前記機能を選択する機能をさらに含むことにより、本発明の目的は効率的に達成される。 The above object of the present invention is efficiently achieved by providing the following configuration. That is, the three-dimensional information extraction unit extracts the three-dimensional information based on the image number with the highest evaluation value, or the evaluation value is calculated based on the luminance difference between the pixel of interest and the adjacent pixel adjacent to the pixel of interest, or the three-dimensional information extraction unit determines the standard of the height information based on the evaluation value of the image data in which the electrode pattern of the inspection object and the interference fringes of the sealing layer of the inspection object are photographed, or the defect is a pattern defect, a pinhole, or a foreign object, or the evaluation value is a sharpness calculated based on the difference in luminance value of the pixel of interest relative to the luminance value of the adjacent pixel, or the inspection object is an organic EL display device, or the inspection object is a flexible organic EL display device formed on a flexible substrate, or the object further includes at least one function of repairing the defect based on the height information calculated by the three-dimensional information extraction unit, or further includes a function of selecting the function according to the height information.
本発明によれば、微小なパターンや異物の高さは、それら自体の反射光に限らず、パターンのエッジ部分や異物の近傍を通過する観察光の減少の観察によって観測される。これによって、従来の技術では計測不可能であった直径1μm程度のピンホールや異物などの高さ情報を正確に計測することが可能となる。 According to the present invention, the height of minute patterns and foreign objects is observed not only by the reflected light from the patterns themselves, but also by observing the reduction in observation light passing through the edge of the pattern or near the foreign object. This makes it possible to accurately measure the height information of pinholes and foreign objects with a diameter of about 1 μm, which was impossible to measure with conventional technology.
本発明においては、複数画像を取得して処理する工程で、取得された画像間に装置自体又は床の振動によって水平方向の位置誤差が引き起こされるとしても、画像間の水平方向の振幅を考慮することにより、発生する微細な欠陥がある高さ情報を誤差なく正確に測定することができる。パターンエッジや異物の画像鮮鋭度を画像間で比較する際には注目画素位置の隣接画素位置間の鮮鋭度の値を比較し、周囲に記憶された画像番号は最も高い鮮鋭度を持つ画像番号で置き換える。こうして、装置全体の耐振動特性を向上でき、上記のプロセスは検査装置の低廉化に大きく寄与する。 In the present invention, even if horizontal positional errors occur between the acquired images due to vibrations of the device itself or the floor in the process of acquiring and processing multiple images, the height information of any minute defects that occur can be measured accurately and without error by taking into account the horizontal amplitude between the images. When comparing the image sharpness of pattern edges or foreign objects between images, the sharpness values between adjacent pixel positions of the pixel of interest are compared, and the image numbers stored around them are replaced with the image number with the highest sharpness. In this way, the vibration resistance characteristics of the entire device can be improved, and the above process contributes greatly to reducing the cost of inspection devices.
また、本発明によれば、薄膜多層のデバイス製造において、従来の技術では測定不可能であった直径1μm程度のピンホールの発生した層を特定できるため、その層を形成する膜の物質に合わせて最適な修復手段を選択することが可能となる。 In addition, according to the present invention, in the manufacture of thin-film, multi-layer devices, it is possible to identify layers in which pinholes with diameters of approximately 1 μm occur, which were impossible to measure using conventional techniques, and therefore it is possible to select the most suitable repair method for the material of the film that forms that layer.
本発明では、多層の透明薄膜を使用した半導体や表示デバイス及びその同類の製造において、成膜時に発生した微小なパターン欠陥の高さ情報を光学式検査手段によって測定する。欠陥発生部位の高さ情報と欠陥の発生した膜種が特定されて、欠陥の良否が判定される。より詳細には、顕微鏡撮像装置は焦点位置を高さ方向に機械的に走査する機構を持ち、高さ方向に走査しながら連続的に複数の画像を撮像して記憶し、画像情報の隣接する画素間のコントラスト差を数値の評価値として算出する。得られた評価値について各画素毎に画像間で大小判定することによって、パターンエッジ画像の最も鮮鋭な画像の番号を選択し、画像の番号を該画像の取得された垂直方向高さ位置へ変換して該当画像部分の垂直方向の高さとして計測する。高さの基準となる位置は、コントラストの最大評価値の密度か、あるいは透明膜の端部に発生する干渉縞画像によって得られる。パターン異常、ピンホール及び異物などの微小画像点として抽出される欠陥点の画像についても同様な手法によって評価値を計算し、基準高さとの相対位置関係によって欠陥点の高さを計測する。欠陥の発生した垂直方向の高さから、欠陥点の発生した層を特定し、欠陥の良否が判定される。 In the present invention, in the manufacture of semiconductors, display devices, and the like using multi-layer transparent thin films, the height information of minute pattern defects that occur during film formation is measured by an optical inspection means. The height information of the defect occurrence site and the type of film in which the defect occurs are identified, and the quality of the defect is judged. More specifically, the microscope imaging device has a mechanism for mechanically scanning the focal position in the height direction, and while scanning in the height direction, it continuously captures and stores multiple images, and calculates the contrast difference between adjacent pixels of the image information as a numerical evaluation value. By judging the magnitude of the obtained evaluation value between the images for each pixel, the number of the sharpest image of the pattern edge image is selected, and the image number is converted to the vertical height position where the image was obtained and measured as the vertical height of the corresponding image part. The position that serves as the reference for the height is obtained from the density of the maximum contrast evaluation value or the interference fringe image generated at the edge of the transparent film. The evaluation value is also calculated by a similar method for images of defect points extracted as minute image points such as pattern abnormalities, pinholes, and foreign objects, and the height of the defect point is measured based on the relative positional relationship with the reference height. The layer where the defect occurred is identified based on the vertical height at which the defect occurred, and the quality of the defect is determined.
以下に、本発明の実施形態を図面を参照して説明する。 An embodiment of the present invention will be described below with reference to the drawings.
先ず、本発明の実施形態の構成例を図4A及び図4Bに示して説明する。 First, an example of the configuration of an embodiment of the present invention will be described with reference to Figures 4A and 4B.
本実施形態では、フレキシブル有機EL表示デバイス10が、検査対象物であり、表示デバイス10は所定のステージ(図示せず)上にマウントされ、顕微鏡20の下方に設置されている。顕微鏡20の鏡筒部の検査対象側には対物レンズ21が装着され、反対側には撮像カメラ21が装着されている。シーケンス制御部30は、高さ方向駆動モータ23及び画像取得部31を制御する。高さ方向駆動モータ23は、顕微鏡20にラック・ピニオン又はその同類のものを介して連結されており、モータ23がシーケンス制御部30で駆動されることにより顕微鏡20は上下動する。カメラ22はフレキシブル有機EL表示デバイス10を連続的に撮像し、シーケンス制御部30の指示に応じて画像取得部31は、カメラ22から画像データを取得する。画像メモリ32は画像取得部31から送られた画像を記憶する。シーケンス制御部30は、高さ方向駆動モータ23を介して所定の刻み幅(上下量)で顕微鏡20の高さを制御し、対物レンズ21の合焦位置を調整して、検査対象である表示デバイス10を撮像することができる。所定の刻み幅は、高さ方向の解像度であるから、所定の刻み幅が小さいほど、測定範囲内で高さ方向毎の画像を多く取得できる。逆に、所定の刻み幅が大きいほど、測定範囲内で取得する高さ方向毎の画像を減らすことができる。所定の刻み幅を調整することによって、高さ方向の画像の分解能を調整することができる。このようにして、測定範囲の高さを顕微鏡20が移動すると、所定の刻み幅に対応する全ての画像が画像メモリ32に記憶される。顕微鏡20の光学系が無限遠補正光学系で構成された場合には、モータ23が顕微鏡20を上下駆動する代わりに、モータ23が対物レンズ21のみを上下駆動してもよい。 In this embodiment, the flexible organic EL display device 10 is the object to be inspected, and the display device 10 is mounted on a predetermined stage (not shown) and installed below the microscope 20. An objective lens 21 is attached to the object to be inspected side of the lens barrel of the microscope 20, and an image capturing camera 21 is attached to the opposite side. The sequence control unit 30 controls the height direction drive motor 23 and the image acquisition unit 31. The height direction drive motor 23 is connected to the microscope 20 via a rack and pinion or the like, and the microscope 20 moves up and down when the motor 23 is driven by the sequence control unit 30. The camera 22 continuously captures the flexible organic EL display device 10, and the image acquisition unit 31 acquires image data from the camera 22 in response to an instruction from the sequence control unit 30. The image memory 32 stores the images sent from the image acquisition unit 31. The sequence control unit 30 controls the height of the microscope 20 in a predetermined increment (up and down amount) via the height direction drive motor 23, adjusts the focal position of the objective lens 21, and can capture the display device 10 to be inspected. The predetermined increment is the resolution in the height direction, so the smaller the predetermined increment, the more images can be acquired for each height direction within the measurement range. Conversely, the larger the predetermined increment, the fewer images can be acquired for each height direction within the measurement range. By adjusting the predetermined increment, the resolution of the image in the height direction can be adjusted. In this way, when the microscope 20 moves in the height of the measurement range, all images corresponding to the predetermined increment are stored in the image memory 32. When the optical system of the microscope 20 is configured as an infinity correction optical system, the motor 23 may drive only the objective lens 21 up and down instead of driving the microscope 20 up and down.
画像メモリ32に格納されたデータは、以下に説明する判定処理部で処理される。判定処理部はパターンエッジを抽出するエッジ処理部40と、微小異物を抽出して処理する異
物処理部50と、エッジ処理部40からの3次元情報ED及び異物処理部50からの異物3次元情報FMに基づいて欠陥の良否を判定する良否判定部60とで構成されている。
The data stored in the image memory 32 is processed by a judgment processing section, which will be described below. The judgment processing section is composed of an edge processing section 40 which extracts pattern edges, a foreign matter processing section 50 which extracts and processes minute foreign matters, and a pass/fail judgment section 60 which judges the pass/fail quality of defects based on the three-dimensional information ED from the edge processing section 40 and the three-dimensional foreign matter information FM from the foreign matter processing section 50.
エッジ処理部40は、パターンのエッジを抽出するパターンエッジ抽出部41と、エッジ評価値を算出するエッジ評価値算出部42と、エッジ評価値を比較するエッジ評価値比較部43と、エッジ評価値を記憶するエッジ評価値記憶部44と、エッジ画像の番号(記号及びその同類を含む)を記憶するエッジ画像番号記憶部45と、エッジ評価値記憶部44及びエッジ画像番号記憶部45の情報に基づいて、エッジ3次元情報EDを抽出するエッジ3次元情報抽出部46とで構成されている。異物処理部50は、微小異物抽出部51と、異物評価値を算出する異物評価値算出部52と、異物評価値を比較する異物評価値比較部53と、異物評価値を記憶する異物評価値記憶部54と、異物画像の番号(記号及びその同類を含む)を記憶する異物画像番号記憶部55と、異物評価値記憶部54及び異物画像番号記憶部55の情報に基づいて異物3次元情報FMを抽出する異物3次元情報抽出部56とで構成されている。 The edge processing unit 40 is composed of a pattern edge extraction unit 41 that extracts pattern edges, an edge evaluation value calculation unit 42 that calculates edge evaluation values, an edge evaluation value comparison unit 43 that compares edge evaluation values, an edge evaluation value memory unit 44 that stores edge evaluation values, an edge image number memory unit 45 that stores edge image numbers (including symbols and the like), and an edge 3D information extraction unit 46 that extracts edge 3D information ED based on the information in the edge evaluation value memory unit 44 and the edge image number memory unit 45. The foreign matter processing unit 50 is made up of a minute foreign matter extraction unit 51, a foreign matter evaluation value calculation unit 52 that calculates a foreign matter evaluation value, a foreign matter evaluation value comparison unit 53 that compares foreign matter evaluation values, a foreign matter evaluation value storage unit 54 that stores foreign matter evaluation values, a foreign matter image number storage unit 55 that stores foreign matter image numbers (including symbols and the like), and a foreign matter 3D information extraction unit 56 that extracts foreign matter 3D information FM based on the information in the foreign matter evaluation value storage unit 54 and the foreign matter image number storage unit 55.
このような構成において、その動作例は図5にフローチャートに示される。先ず、シーケンス制御部30の駆動により顕微鏡20を用いて、検査対象物であるフレキシブル有機EL表示デバイス10が撮像される(ステップS100)、次いで、エッジ処理部40で画像のパターンエッジの抽出を行い(ステップS200)、異物処理部50で画像の微小異物の抽出を行う(ステップS300)。エッジ抽出処理と異物抽出処理の順番は変更可能であってもよい。エッジ処理部40内のエッジ3次元情報抽出部46と、異物処理部50内の異物3次元情報抽出部56は3次元情報の抽出処理を行う(ステップS400)。エッジ3次元情報抽出部46からの3次元情報ED及び異物3次元情報抽出部56からの異物3次元情報FMは良否判定部60に入力され、欠陥の良否が判定される(ステップS500)。 In such a configuration, an example of the operation is shown in the flowchart in FIG. 5. First, the microscope 20 is driven by the sequence control unit 30 to capture an image of the flexible organic EL display device 10, which is the object to be inspected (step S100). Next, the edge processing unit 40 extracts the pattern edge of the image (step S200), and the foreign matter processing unit 50 extracts minute foreign matters from the image (step S300). The order of the edge extraction process and the foreign matter extraction process may be changed. The edge three-dimensional information extraction unit 46 in the edge processing unit 40 and the foreign matter three-dimensional information extraction unit 56 in the foreign matter processing unit 50 perform the extraction process of three-dimensional information (step S400). The three-dimensional information ED from the edge three-dimensional information extraction unit 46 and the foreign matter three-dimensional information FM from the foreign matter three-dimensional information extraction unit 56 are input to the pass/fail judgment unit 60, which judges the pass/fail of the defect (step S500).
先ず、測定範囲内に取得された画像についてパターン及び欠陥等のエッジ画素を抽出する方法を説明する。 First, we will explain how to extract edge pixels of patterns, defects, etc. from images acquired within the measurement range.
原理的には、画像情報において、注目する注目画素と、注目画素に隣接する隣接画素との輝度値の差に基づいて、注目画素が評価された評価値を算出する。そして、評価値と所定の基準閾値とを比較して、注目画素周辺の部分画像についてのデフォーカス度を判定する。装置は、デフォーカス度の判定結果に基づいて、注目画素がパターン及び欠陥等のエッジ画素であるか否かを判定する。部分画像がデフォーカスしていない場合には、その部分画像は鮮鋭度が高い。部分画像がデフォーカスしている場合には、その部分画像は鮮鋭度が低い。後述するように、微小異物画素を抽出する場合においても、同様の方法を用いて、異物の可能性がある画素のデフォーカス度が判定される。 In principle, an evaluation value for a pixel of interest is calculated based on the difference in luminance between the pixel of interest and the adjacent pixels adjacent to the pixel of interest in the image information. The evaluation value is then compared with a predetermined reference threshold value to determine the degree of defocus for the partial image around the pixel of interest. Based on the result of the defocus degree determination, the device determines whether the pixel of interest is an edge pixel of a pattern, defect, or the like. If the partial image is not defocused, the partial image has a high degree of sharpness. If the partial image is defocused, the partial image has a low degree of sharpness. As will be described later, a similar method is used to determine the degree of defocus for pixels that may contain foreign matter, even when extracting minute foreign matter pixels.
画像情報として画像に存在し、抽出の対象となるパターン及び欠陥等としては、例えば、フレキシブル有機EL表示デバイス10の電極パターン、有機膜、無機膜及びその同類のパターン、ピンホール及びその同類の欠陥の類を考慮することができる。そして、注目画素を評価するために、画素を表す変数を次のように定義する。すなわち、画像を構成する各画素の位置を、画像における横位置i及び縦位置jとしたとき、画像の任意の画素のグレイ値(輝度値)はG(i,j)で表わされる。 Examples of patterns and defects that exist in an image as image information and are subject to extraction include the electrode pattern of the flexible organic EL display device 10, organic films, inorganic films and similar patterns, and pinholes and similar defects. In order to evaluate a pixel of interest, a variable representing the pixel is defined as follows. That is, when the position of each pixel that constitutes an image is horizontal position i and vertical position j in the image, the gray value (brightness value) of any pixel in the image is represented by G(i,j).
次に、関数を用いて、エッジ評価値E(i,j)を算出する方法について説明する。用いる関数は、XとYとを比較し、大きい方の値を出力する関数MAX(X,Y)、及びXの絶対値を出力する関数ABS(X)である。これらの関数を用いて、エッジ評価値E(i,j)を算出することができる。そして、エッジ評価値E(i,j)とエッジ閾値を比較して、パターンのエッジ画素(エッジ部分画像)を抽出することができる。算出された
エッジ評価値E(i,j)がエッジ閾値より大きければ、G(i,j)を有する画素はエッジ画素であるとみなされる。算出されたエッジ評価値E(i,j)がエッジ閾値より大きくないものは、エッジ画素ではないとみなされる。より詳細には、エッジ評価値E(i,j)は数式1のように与えられる。そして、G(i,j)を有する画素がエッジ画素であるか否かは、数式2を用いて判断される。
[数1]
エッジ評価値E(i,j)=MAX(MAX(ABS(G(i,j)-G(i+1,j)),ABS(G(i,j)-G(i,j+1))),
MAX(ABS(G(i,j)-G(i-1,j)),ABS(G(i,j)-G(i,j-1)))
[数2]
エッジ評価値E(i,j)>エッジ閾値
パターン及び欠陥等のエッジ画素を抽出するエッジ処理部40の処理は以下のように行われる。
Next, a method of calculating the edge evaluation value E(i,j) using a function will be described. The functions used are a function MAX(X,Y) which compares X and Y and outputs the larger value, and a function ABS(X) which outputs the absolute value of X. Using these functions, the edge evaluation value E(i,j) can be calculated. Then, the edge evaluation value E(i,j) can be compared with an edge threshold value to extract edge pixels (edge portion images) of a pattern. If the calculated edge evaluation value E(i,j) is greater than the edge threshold value, the pixel having G(i,j) is considered to be an edge pixel. If the calculated edge evaluation value E(i,j) is not greater than the edge threshold value, it is considered not to be an edge pixel. More specifically, the edge evaluation value E(i,j) is given as in Equation 1. Then, whether or not a pixel having G(i,j) is an edge pixel is determined using Equation 2.
[Equation 1]
Edge evaluation value E(i,j)=MAX(MAX(ABS(G(i,j)-G(i+1,j)), ABS(G(i,j)-G(i,j+1))),
MAX(ABS(G(i,j)-G(i-1,j)), ABS(G(i,j)-G(i,j-1)))
[Equation 2]
Edge evaluation value E(i, j)>edge threshold
The process of the edge processing unit 40 for extracting edge pixels of patterns, defects, etc. is performed as follows.
先ず、パターンエッジ抽出部41は、画像メモリ32から、画像の任意の画素のグレイ値G(i,j)、任意の画素の横方向に隣接する画素のグレイ値G(i-1,j)及びG(i+1,j)、画像の任意の縦方向に隣接する画素のグレイ値G(i,j-1)及びG(i,j+1)を取得する。そして、エッジ評価値算出部42は、数式1に示された算出方法を用いて、エッジ評価値E(i,j)を算出すると共に、エッジ評価値E(i,j)とエッジ閾値とを比較する。比較の結果、エッジ評価値E(i,j)がエッジ閾値より大きければ、G(i,j)を有する画素はエッジ画素であるとみなされる。エッジ評価値E(i,j)がエッジ閾値より大きくなければ、G(i,j)を有する画素はエッジ画素とはみなされない。 First, the pattern edge extraction unit 41 acquires from the image memory 32 the gray value G(i,j) of an arbitrary pixel in the image, the gray values G(i-1,j) and G(i+1,j) of pixels adjacent to the arbitrary pixel in the horizontal direction, and the gray values G(i,j-1) and G(i,j+1) of pixels adjacent to the arbitrary pixel in the vertical direction. Then, the edge evaluation value calculation unit 42 calculates the edge evaluation value E(i,j) using the calculation method shown in Equation 1, and compares the edge evaluation value E(i,j) with the edge threshold value. If the edge evaluation value E(i,j) is greater than the edge threshold value as a result of the comparison, the pixel having G(i,j) is considered to be an edge pixel. If the edge evaluation value E(i,j) is not greater than the edge threshold value, the pixel having G(i,j) is not considered to be an edge pixel.
エッジ評価値比較部43は、次に取得されたエッジ評価値E(i,j)と、その対応する位置(横位置i、縦位置j)のエッジ評価値記憶部44に記憶されているエッジ評価記憶値EM(i,j)とを比較する。エッジ評価記憶値EM(i,j)は、エッジ評価値E(i,j)を引き続いて取得されるよりも以前に取得された前回のエッジ評価値E(i,j)である。比較の結果、エッジ評価値E(i,j)が、エッジ評価記憶値EM(i,j)より大きい場合には、エッジ評価値記憶部44は、エッジ評価記憶値EM(i,j)をエッジ評価値E(i,j)に書き換える。書き換えが行われた場合には、エッジ画像番号記憶部45は、対応する位置要素であるエッジ画像番号EN(i,j)を現在処理中の画像番号に更新し、エッジ評価値E(i,j)と画像番号とを関連づける。番号は数字でなくても、他と区別できる記号であってもよい。このようにして、現在処理中の画像番号の全ての画素に対して、順次エッジ画素であるか否かの判定を行う。その判定に応じて、エッジ評記憶値EM(i,j)及びエッジ画像番号EN(i,j)は、それぞれ現在処理中のエッジ評価値E(i,j)及び画像番号Nに書き換えられる。 The edge evaluation value comparison unit 43 compares the next acquired edge evaluation value E(i,j) with the edge evaluation storage value EM(i,j) stored in the edge evaluation value storage unit 44 at the corresponding position (horizontal position i, vertical position j). The edge evaluation storage value EM(i,j) is the previous edge evaluation value E(i,j) acquired before the edge evaluation value E(i,j) is acquired subsequently. If the comparison result shows that the edge evaluation value E(i,j) is greater than the edge evaluation storage value EM(i,j), the edge evaluation value storage unit 44 rewrites the edge evaluation storage value EM(i,j) to the edge evaluation value E(i,j). When rewriting is performed, the edge image number storage unit 45 updates the edge image number EN(i,j), which is the corresponding position element, to the image number currently being processed, and associates the edge evaluation value E(i,j) with the image number. The number does not have to be a number, but may be a symbol that can be distinguished from others. In this way, all pixels of the image number currently being processed are sequentially judged as to whether they are edge pixels. Depending on the judgment, the edge evaluation value EM(i,j) and edge image number EN(i,j) are rewritten to the edge evaluation value E(i,j) and image number N currently being processed, respectively.
現在処理中の画像番号Nの画像における全ての画素に対する上記処理を完了すると、次の画像番号の画像に対して同様の処理が行われる。そして、全ての画像番号の画像に対する処理が完了すると、エッジ3次元情報抽出部46は、エッジ画像番号記憶部45に記憶されている画像番号EN(i,j)に基づいて、パターン及び欠陥等のエッジ画素の高さ情報を生成する。 When the above process is completed for all pixels in the image with image number N currently being processed, a similar process is performed on the image with the next image number. Then, when the process is completed for all images with image numbers, the edge 3D information extraction unit 46 generates height information for edge pixels of patterns, defects, etc., based on the image numbers EN(i,j) stored in the edge image number storage unit 45.
次に、微小異物の画像を抽出し、微小異物の3次元情報を抽出する異物処理部50を説明する。微小異物の画像を抽出する処理は、パターンエッジ高さ情報を生成する処理後に行うようにしてもよいし、処理前に行っても良く、また、同時並行に行うようにしてもよい。 Next, we will explain the foreign matter processing unit 50, which extracts images of minute foreign matters and extracts three-dimensional information about the minute foreign matters. The process of extracting images of minute foreign matters may be performed after the process of generating pattern edge height information, may be performed before the process, or may be performed simultaneously in parallel.
パターン及び欠陥等のエッジ画素の抽出処理の場合と同様に、画像を構成する各画素の位置を画像における横位置i及び縦位置jと仮定したとき、画像の任意の画素のグレイ値(輝度値)をG(i,j)のように表す。異物評価値F(i,j)を算出する方法に用いる関数は、XとYとを比較し、小さい方の値を与える関数MIN(X,Y)である。この関数を用いて、異物評価値F(i,j)を算出することができる。 As with the process of extracting edge pixels of patterns and defects, if we assume that the position of each pixel that composes an image is horizontal position i and vertical position j in the image, the gray value (brightness value) of any pixel in the image is expressed as G(i,j). The function used in the method of calculating the foreign matter evaluation value F(i,j) is the function MIN(X,Y), which compares X and Y and gives the smaller value. Using this function, the foreign matter evaluation value F(i,j) can be calculated.
異物評価値F(i,j)と微小異物閾値を比較して、パターンの微小異物画素 (微小異物部分画像)を抽出することができる。算出された異物評価値F(i,j)が微小異物閾値より大きければ、G(i,j)を有する画素は微小異物画素であるとみなされ、算出された異物評価値F(i,j)が微小異物閾値より大きくなければ、G(i,j)を有する画素は微小異物画素でないとみなされる。より詳細には、異物評価値F(i,j)は数式3のように与えられる。そして、G(i,j)を有する画素が微小異物画素であるか否かは、数式4を用いて決定される。
[数3]
異物評価値F(i,j)
=MIN(G(i-1,j)+G(i+1,j)-G(i,j)*2,G(i,j-1)+
G(i,j+1)-G(i,j)*2)
[数4]
異物評価値F(i,j)>微小異物閾値
数式4を用いることによって、画像上で横、縦方向ともに周囲画素より輝度の低い画素、つまり1画素程度のサイズの暗点を抽出することが出来る。
By comparing the foreign matter evaluation value F(i,j) with the micro foreign matter threshold, micro foreign matter pixels (micro foreign matter partial images) of the pattern can be extracted. If the calculated foreign matter evaluation value F(i,j) is greater than the micro foreign matter threshold, the pixel having G(i,j) is deemed to be a micro foreign matter pixel, and if the calculated foreign matter evaluation value F(i,j) is not greater than the micro foreign matter threshold, the pixel having G(i,j) is deemed not to be a micro foreign matter pixel. More specifically, the foreign matter evaluation value F(i,j) is given by Equation 3. Then, whether or not the pixel having G(i,j) is a micro foreign matter pixel is determined using Equation 4.
[Equation 3]
Foreign matter evaluation value F(i, j)
=MIN(G(i-1,j)+G(i+1,j)-G(i,j)*2,G(i,j-1)+
G(i,j+1)-G(i,j)*2)
[Equation 4]
Foreign matter evaluation value F(i, j)>micro-foreign matter threshold
By using Equation 4, it is possible to extract pixels that are lower in luminance than the surrounding pixels in both the horizontal and vertical directions on the image, that is, dark spots with a size of about one pixel.
微小異物画素を抽出する異物処理部50の処理は、以下のように行われる。 The process of the foreign matter processing unit 50 to extract minute foreign matter pixels is performed as follows:
先ず、微小異物抽出部51は、画像メモリ32から、画像の任意の画素のグレイ値G(i,j)、横方向に隣接する任意の画素のグレイ値G(i‐1,j)及びG(i+1,j)、さらに縦方向に隣接する任意の画素のグレイ値G(i,j‐1)及びG(i,j+1)を取得する。そして、異物評価値算出部52は、数式3に示した算出方法を用いて、異物評価値F(i,j)を算出すると共に、異物評価値F(i,j)と微小異物閾値とを比較する。比較の結果、微小異物評価値F(i,j)が異物閾値より大きければ、G(i,j)を有する画素は微小異物画素であるとみなされ、微小異物評価値F(i,j)が異物閾値より大きくなければ、G(i,j)を有する画素は微小異物画素とみなされない。 First, the minute foreign matter extraction unit 51 obtains from the image memory 32 the gray value G(i,j) of an arbitrary pixel in the image, the gray values G(i-1,j) and G(i+1,j) of arbitrary horizontally adjacent pixels, and the gray values G(i,j-1) and G(i,j+1) of arbitrary vertically adjacent pixels. The foreign matter evaluation value calculation unit 52 then calculates the foreign matter evaluation value F(i,j) using the calculation method shown in Equation 3, and compares the foreign matter evaluation value F(i,j) with the minute foreign matter threshold value. If the comparison result shows that the minute foreign matter evaluation value F(i,j) is greater than the foreign matter threshold value, the pixel having G(i,j) is deemed to be a minute foreign matter pixel, and if the minute foreign matter evaluation value F(i,j) is not greater than the foreign matter threshold value, the pixel having G(i,j) is not deemed to be a minute foreign matter pixel.
異物評価値比較部53は、次に取得された異物評価値F(i,j)と、異物評価値記憶部54に記憶されている対応位置(横位置i、縦位置j)の異物評価記憶値FM(i,j)とを比較する。異物評価記憶値FM(i,j)は、異物評価値F(i,j)を次に取得する以前に取得された異物評価値F(i,j)である。比較の結果、異物評価値F(i,j)が異物評価記憶値FM(i,j)より大きい場合には、異物評価値記憶部54は異物評価記憶値FM(i,j)を次に取得された異物評価値F(i,j)に書き換える。異物評価記憶値FM(i,j)の書き換えが行われた場合には、異物画像番号記憶部55は対応位置の要素である異物画像番号FN(i,j)を現在処理中の画像番号Nに更新し、異物評価値F(i,j)と画像番号Nとを関連づける。 The foreign matter evaluation value comparison unit 53 compares the next acquired foreign matter evaluation value F(i,j) with the foreign matter evaluation memory value FM(i,j) of the corresponding position (horizontal position i, vertical position j) stored in the foreign matter evaluation value memory unit 54. The foreign matter evaluation memory value FM(i,j) is the foreign matter evaluation value F(i,j) acquired before the next acquisition of the foreign matter evaluation value F(i,j). If the comparison result shows that the foreign matter evaluation value F(i,j) is greater than the foreign matter evaluation memory value FM(i,j), the foreign matter evaluation value memory unit 54 rewrites the foreign matter evaluation memory value FM(i,j) to the next acquired foreign matter evaluation value F(i,j). When the foreign substance evaluation storage value FM(i,j) is rewritten, the foreign substance image number storage unit 55 updates the foreign substance image number FN(i,j), which is the element at the corresponding position, to the image number N currently being processed, and associates the foreign substance evaluation value F(i,j) with the image number N.
現在処理中の画像番号Nの全ての画素に対して、順次、異物画素であるか否かの判定が行われる。その判定に応じて、異物評価記憶値FM(i,j)及び異物画像番号FN(i,j)は、それぞれ現在処理中のエッジ評価値E(i,j)及び画像番号Nに書き換えられる。そして、現在処理中の画像番号Nの画像における全ての画素に対する処理を完了すると、次の画像番号(N+1)の画像に対して同様の処理が行われる。 All pixels of the image number N currently being processed are sequentially judged as to whether they are foreign object pixels. Depending on the judgment, the foreign object evaluation memory value FM(i,j) and foreign object image number FN(i,j) are rewritten to the edge evaluation value E(i,j) and image number N currently being processed, respectively. Then, when processing of all pixels in the image currently being processed with image number N has been completed, the same processing is performed on the image with the next image number (N+1).
全ての画像番号の画像に対する処理が完了すると、異物3次元情報抽出部56は、異物画像番号記憶部55に記憶された異物画像番号FN(i,j)に基づいて、微小異物の高さ情報を生成する。 When processing for all images with image numbers is completed, the foreign object 3D information extraction unit 56 generates height information for the micro foreign object based on the foreign object image number FN(i, j) stored in the foreign object image number storage unit 55.
良否判定部60は、エッジ3次元情報抽出部46からのエッジ3次元情報ED(パターンのエッジ画素の高さ情報)と、異物3次元情報抽出部56からの異物3次元情報FM(微小異物の高さ情報)との相対的な高さに基づいて、サンプルであるフレキシブル有機EL表示デバイス10について良否判定を行い、判定結果を出力する。 The pass/fail judgment unit 60 judges the pass/fail quality of the sample flexible organic EL display device 10 based on the relative height between the edge 3D information ED (height information of the edge pixels of the pattern) from the edge 3D information extraction unit 46 and the foreign matter 3D information FM (height information of minute foreign matters) from the foreign matter 3D information extraction unit 56, and outputs the judgment result.
先ず、検査対象物(サンプル)の例として、フレキシブル有機EL表示デバイス10の1画素に2つの微小異物101と102が発生している様子を図6に示す。後述するように、30枚目の画像が合焦している平面10-30に第1の微小異物101が位置し、40枚目の画像が合焦している平面10-40に第2の微小異物102が、それぞれ位置している。そして、高さの基準面は電極パターン103である。本実施形態では、画像は0.1μmおきに取得されているので、微小異物101はパターン上方2.0μmの位置にあり、微小異物102は3.0μmの位置にあると検出される。 First, as an example of an inspection target (sample), FIG. 6 shows two minute foreign bodies 101 and 102 occurring in one pixel of a flexible organic EL display device 10. As described later, the first minute foreign body 101 is located on the plane 10-30 on which the 30th image is focused, and the second minute foreign body 102 is located on the plane 10-40 on which the 40th image is focused. The reference plane for height is the electrode pattern 103. In this embodiment, since images are acquired every 0.1 μm, the minute foreign body 101 is detected to be located 2.0 μm above the pattern, and the minute foreign body 102 is detected to be located 3.0 μm above the pattern.
次に、3次元情報(構造)の高さの基準について説明する。フレキシブル有機ELの回路のパターンエッジが検出しにくい構造として、発光層107の形状が、図7に示されるように、カソード電極104を覆う有機膜105で形成された矩形(窓)状である場合がある。以下の説明では、発光部分を窓と表記する。窓を形成する有機膜105と透明膜106との界面によって、照明光が反射される。同軸落射照明を用いる照明光によって、窓の周囲には環状の干渉縞が形成される。干渉縞は、画像処理を用いて観察することができる。最も内側に存在する干渉縞107Aは、有機膜105の窓107の端部(エッジ)である。結果的に、このエッジのある領域で検出されるエッジ評価値E(i,j)が、3次元情報(構造)における高さの基準に適している。つまり、フレキシブル有機EL基板の回路のパターンエッジは、その構造が原因で検出され難いが、有機膜105の窓107の端部(エッジ)は、3次元情報(構造)の高さの基準に適している。さらに、フレキシブル有機EL基板の垂直方向からフレキシブル有機EL基板を(例えば、顕微鏡を用いて)観察すると、カソード電極104が鏡面のように作用し、窓を形成する有機膜105と透明膜106の界面で逆方向に反射する照明光によって、窓の周囲に環状の強い干渉縞が観測される。その様子を図8に示す。図8には、カソード電極104のエッジ画像104A、有機EL発光層107のエッジ画像107A、そして窓を形成する有機膜105の端部に発生する干渉像107Bが描かれている。 Next, the height standard of the three-dimensional information (structure) will be described. As a structure in which the pattern edge of the flexible organic EL circuit is difficult to detect, the shape of the light-emitting layer 107 may be a rectangle (window) formed by the organic film 105 covering the cathode electrode 104, as shown in FIG. 7. In the following description, the light-emitting part is referred to as a window. The illumination light is reflected by the interface between the organic film 105 and the transparent film 106 that form the window. The illumination light using the coaxial epi-illumination forms a ring-shaped interference pattern around the window. The interference pattern can be observed using image processing. The innermost interference pattern 107A is the end (edge) of the window 107 of the organic film 105. As a result, the edge evaluation value E(i, j) detected in the area with this edge is suitable as the height standard in the three-dimensional information (structure). That is, the pattern edges of the circuit of the flexible organic EL substrate are difficult to detect due to its structure, but the end (edge) of the window 107 of the organic film 105 is suitable as a reference for the height of the three-dimensional information (structure). Furthermore, when the flexible organic EL substrate is observed from the vertical direction of the flexible organic EL substrate (for example, using a microscope), the cathode electrode 104 acts like a mirror, and strong ring-shaped interference fringes are observed around the window due to the illumination light reflected in the opposite direction at the interface between the organic film 105 that forms the window and the transparent film 106. This is shown in FIG. 8. FIG. 8 shows an edge image 104A of the cathode electrode 104, an edge image 107A of the organic EL light-emitting layer 107, and an interference image 107B that occurs at the end of the organic film 105 that forms the window.
以上で説明された各動作の詳細をフローチャートを参照して説明する。 The details of each operation described above will be explained with reference to the flowchart.
撮像(図5のステップS100)の詳細な動作例を図9のフローチャートを参照して説明する。先ず、シーケンス制御部30は画像番号を初期化し(ステップS101)、高さ方向駆動モータ23の駆動によって顕微鏡20の高さを測定開始位置に調整する(ステップS102)。この状態では対物レンズ10とカメラ22が合焦位置の関係にあり、表示デバイス10の画像は画像読取部31を介して撮像され(ステップS103)、画像データは画像メモリ32に格納される(ステップS104)。次に、顕微鏡20を所定の刻み幅分だけ高さ方向に移動し(ステップS105)、顕微鏡20の高さが測定範囲内にあるか否かを判定する(ステップS106)。顕微鏡20の高さが測定範囲内である場合には、表示デバイス10の画像は繰り返し撮像され、順次画像データが格納される。顕微鏡20の高さが測定範囲外であれば、現在処理中の画像番号Nを画像番号最大値Nmaxとして画像メモリ32に格納し(ステップS107)、そして、撮像は完了する。 A detailed example of the operation of the imaging (step S100 in FIG. 5) will be described with reference to the flowchart in FIG. 9. First, the sequence control unit 30 initializes the image number (step S101), and adjusts the height of the microscope 20 to the measurement start position by driving the height direction drive motor 23 (step S102). In this state, the objective lens 10 and the camera 22 are in a focused position relationship, and the image of the display device 10 is captured via the image reading unit 31 (step S103), and the image data is stored in the image memory 32 (step S104). Next, the microscope 20 is moved in the height direction by a predetermined interval (step S105), and it is determined whether the height of the microscope 20 is within the measurement range (step S106). If the height of the microscope 20 is within the measurement range, the image of the display device 10 is repeatedly captured, and the image data is stored sequentially. If the height of the microscope 20 is outside the measurement range, the image number N currently being processed is stored in the image memory 32 as the maximum image number Nmax (step S107), and imaging is completed.
次に、表示デバイス10のパターンエッジ抽出動作(図5のステップS200)の詳細を図10A及び図10Bのフローチャートを参照し説明する。先ず、画像番号N、顕微鏡20の鏡筒部の高さ、横位置i及び縦位置j、エッジ画素数EC(N)を示す値を初期化する(ステップS201)。次に、エッジ評価値算出部42は、画像メモリ16から現在処理中の画像番号Nのグレイ値G(i,j),G(i+1,j),G(i,j+1),G(i-1,j),G(i,j-1)を取得し(ステップS202)、該グレイ値から数式1に基づいてエッジ評価値E(i,j)を算出する(ステップS203)。エッジ評価値比較部43は、エッジ評価値E(i,j)とエッジ閾値とを比較する(ステップS204)。エッジ評価値E(i,j)がエッジ閾値より大きい場合には、エッジ評価値比較部43はエッジ評価値記憶部44のエッジ評価記憶値EM(i,j)を算出されたエッジ評価値E(i,j)に書き換え(ステップS205)、エッジ画像番号記憶部45のエッジ画像番号EN(i,j)を現在処理中の画像番号Nに書き換える(ステップS206)。更に、画像番号Nの画素をエッジ画素と判定した画素数を示すエッジ画素数EC(N)をカウントアップ(「+1」)し(ステップS207)、画素の横位置iをカウントアップする(「+1」)する(ステップS208)。また、上記ステップS204において、エッジ評価値E(i,j)がエッジ閾値以下である場合には、画素の横位置iの1つの増加(「+1」)のみ行われる(ステップS208)。 Next, the details of the pattern edge extraction operation (step S200 in FIG. 5) of the display device 10 will be described with reference to the flowcharts of FIGS. 10A and 10B. First, values indicating the image number N, the height of the lens barrel of the microscope 20, the horizontal position i and the vertical position j, and the edge pixel count EC(N) are initialized (step S201). Next, the edge evaluation value calculation unit 42 acquires the gray values G(i,j), G(i+1,j), G(i,j+1), G(i-1,j), and G(i,j-1) of the image number N currently being processed from the image memory 16 (step S202), and calculates the edge evaluation value E(i,j) from the gray values based on Equation 1 (step S203). The edge evaluation value comparison unit 43 compares the edge evaluation value E(i,j) with the edge threshold value (step S204). If the edge evaluation value E(i,j) is greater than the edge threshold, the edge evaluation value comparison unit 43 rewrites the edge evaluation storage value EM(i,j) in the edge evaluation value storage unit 44 to the calculated edge evaluation value E(i,j) (step S205), and rewrites the edge image number EN(i,j) in the edge image number storage unit 45 to the image number N currently being processed (step S206). Furthermore, the edge pixel number EC(N), which indicates the number of pixels in the image number N that are determined to be edge pixels, is counted up ("+1") (step S207), and the horizontal position i of the pixel is counted up ("+1") (step S208). Also, in the above step S204, if the edge evaluation value E(i,j) is equal to or less than the edge threshold, only the horizontal position i of the pixel is increased by one ("+1") (step S208).
その後、画素の横位置iと最大横位置imax(横位置が画像の端の位置)とを比較し(ステップS209)、画素の横位置iが最大横位置imax以上の場合には、縦位置jをカウントアップ(「+1」)し(ステップS210)、横位置iを初期化する(ステップS210)。画素の横位置iが最大横位置imaxに満たない場合には上記ステップS202に戻り、画素のグレイ値G(i,j),G(i+1,j),G(i,j+1),G(i-1,j),G(i,j-1)が再取得され、パターンのエッジ画素を抽出する処理が行なわれる。 Then, the horizontal position i of the pixel is compared with the maximum horizontal position imax (the horizontal position is the position of the edge of the image) (step S209), and if the horizontal position i of the pixel is equal to or greater than the maximum horizontal position imax, the vertical position j is counted up ("+1") (step S210), and the horizontal position i is initialized (step S210). If the horizontal position i of the pixel is less than the maximum horizontal position imax, the process returns to step S202, and the gray values G(i,j), G(i+1,j), G(i,j+1), G(i-1,j), and G(i,j-1) of the pixel are reacquired, and the process of extracting edge pixels of the pattern is performed.
次に、画素の縦位置jと最大縦位置jmaxとを比較し(ステップS211)、画素の縦位置jが最大縦位置jmax以上の場合には、画像番号Nをカウントアップ(「+1」)し、縦位置jを初期化する(ステップS212)。画素の縦位置jが最大縦位置jmaxに満たない場合には、処理は上記ステップS202に戻され、同様に、画素のグレイ値G(i,j),G(i+1,j),G(i,j+1),G(i-1,j),G(i,j-1)が同様に取得され、パターンのエッジ画素を抽出する処理が行なわれる。 Next, the vertical position j of the pixel is compared with the maximum vertical position jmax (step S211), and if the vertical position j of the pixel is equal to or greater than the maximum vertical position jmax, the image number N is counted up ("+1") and the vertical position j is initialized (step S212). If the vertical position j of the pixel is less than the maximum vertical position jmax, the process returns to step S202, and the gray values G(i,j), G(i+1,j), G(i,j+1), G(i-1,j), and G(i,j-1) of the pixels are similarly obtained, and the process of extracting edge pixels of the pattern is performed.
その後、画像番号Nと画像番号最大値Nmaxとを比較し(ステップS213)、画像番号Nが画像番号最大値Nmax以上の場合には、パターンのエッジ画素の抽出処理を終了する。また、画像番号Nが画像番号最大値Nmax未満の場合には、処理は上記ステップS202に戻され、パターンのエッジ画素抽出の処理が行なわれる。 Then, the image number N is compared with the maximum image number Nmax (step S213), and if the image number N is equal to or greater than the maximum image number Nmax, the process of extracting edge pixels of the pattern is terminated. If the image number N is less than the maximum image number Nmax, the process returns to step S202, and the process of extracting edge pixels of the pattern is performed.
次に、表示デバイス10の微小異物画像抽出動作(図5のステップS300)の詳細を図11A及び図11Bのフローチャートを参照して説明する。先ず、画像番号N、顕微鏡の高さ、横位置i及び縦位置j、異物画素数FC(N)を示す値を初期化する(ステップS301)。次に、異物評価値算出部52は、画像のグレイ値G(i-1,j),G(i,j),G(i+1,j),G(i,j-1),G(i,j+1)を取得し(ステップS302)、次に、数式3に従って、異物評価値F(i,j)を算出する(ステップS303)。そして、異物評価値比較部53は、異物評価値F(i,j)と微小異物閾値とを比較する(ステップS304)。異物評価値F(i,j)が微小異物閾値より大きい場合には、異物値比較部53は異物評価値記憶部54の異物評価記憶値FM(i,j)を微小異物評価値F(i,j)に書き換え(ステップS305)、異物画像番号記憶部55の異物画像番号FN(i,j)は現在処理中の画像番号Nに書き換えられる(ステップS306)。画像番号Nの画素を異物と判定された個数を示す異物画素数FC(N)がカウントアップ(「+1」)され(ステップS307)、かつ画素の横位置iはカウントアップ(「+1」)される(ステップS308)。異物評価値F(i,j)が微小異物閾値以下である場合には、画素の横位置iの1つの増加(「+1」)のみが行なわれる(ステップS308)。 Next, the details of the display device 10's micro-foreign substance image extraction operation (step S300 in FIG. 5) will be described with reference to the flowcharts of FIGS. 11A and 11B. First, values indicating the image number N, the microscope height, the horizontal position i and vertical position j, and the number of foreign substance pixels FC(N) are initialized (step S301). Next, the foreign substance evaluation value calculation unit 52 obtains the gray values G(i-1,j), G(i,j), G(i+1,j), G(i,j-1), and G(i,j+1) of the image (step S302), and then calculates the foreign substance evaluation value F(i,j) according to Equation 3 (step S303). Then, the foreign substance evaluation value comparison unit 53 compares the foreign substance evaluation value F(i,j) with the micro-foreign substance threshold value (step S304). If the foreign substance evaluation value F(i,j) is greater than the micro foreign substance threshold, the foreign substance value comparison unit 53 rewrites the foreign substance evaluation storage value FM(i,j) in the foreign substance evaluation value storage unit 54 to the micro foreign substance evaluation value F(i,j) (step S305), and the foreign substance image number FN(i,j) in the foreign substance image number storage unit 55 is rewritten to the image number N currently being processed (step S306). The foreign substance pixel count FC(N), which indicates the number of pixels of image number N that have been determined to be foreign substances, is counted up ("+1") (step S307), and the horizontal position i of the pixel is counted up ("+1") (step S308). If the foreign substance evaluation value F(i,j) is equal to or less than the micro foreign substance threshold, only the horizontal position i of the pixel is incremented by one ("+1") (step S308).
次に、画素の横位置iと最大横位置imax(横位置が画像の端の位置)とを比較し(ステップS309)、画素の横位置iが最大横位置imax以上の場合には、画素の縦位置jがカウントアップ(「+1」)され、横位置iは初期化される(ステップS310)。画素の横位置iが最大横位置imax未満の場合には、処理は上記ステップS302に戻され、画素のグレイ値G(i-1,j),G(i,j),G(i+1,j),G(i,j-1),G(i,j+1)が再取得され(ステップS302)、微小異物画像の抽出処理が行なわれる。画素の縦位置jと最大縦位置jmaxとを比較し(ステップS311)、画素の縦位置jが最大縦位置jmax以上の場合、画像番号Nがカウントアップ(「+1」)され、縦位置jは初期化される(ステップS312)。画素の縦位置jが最大縦位置jmaxに未満の場合には、処理は上記ステップS302に戻され、画素のグレイ値G(i-1,j),G(i,j),G(i+1,j),G(i,j-1),G(i,j+1)を同様に取得し、微小異物画像を抽出する処理が行なわれる。画像番号と画像番号最大値とを比較し(ステップS313)、画像番号Nが画像番号最大値Nmax以上の場合には、微小異物画像抽出の処理を終了する。また、画像番号Nが画像番号最大値Nmax未満の場合には、処理は上記ステップS302に戻され、微小異物画像抽出の処理が行なわれる。 Next, the horizontal position i of the pixel is compared with the maximum horizontal position imax (the horizontal position is the position of the edge of the image) (step S309), and if the horizontal position i of the pixel is equal to or greater than the maximum horizontal position imax, the vertical position j of the pixel is counted up ("+1") and the horizontal position i is initialized (step S310). If the horizontal position i of the pixel is less than the maximum horizontal position imax, the process returns to the above step S302, and the gray values G(i-1,j), G(i,j), G(i+1,j), G(i,j-1), and G(i,j+1) of the pixel are reacquired (step S302), and the extraction process of the minute foreign object image is performed. The vertical position j of the pixel is compared with the maximum vertical position jmax (step S311), and if the vertical position j of the pixel is equal to or greater than the maximum vertical position jmax, the image number N is counted up ("+1") and the vertical position j is initialized (step S312). If the vertical position j of the pixel is less than the maximum vertical position jmax, the process returns to step S302, where the pixel gray values G(i-1,j), G(i,j), G(i+1,j), G(i,j-1), and G(i,j+1) are similarly obtained, and a process of extracting a minute foreign object image is performed. The image number is compared with the maximum image number (step S313), and if the image number N is equal to or greater than the maximum image number Nmax, the process of extracting a minute foreign object image is terminated. If the image number N is less than the maximum image number Nmax, the process returns to step S302, and a process of extracting a minute foreign object image is performed.
次に、エッジ3次元情報抽出部46及び異物3次元情報抽出部56における3次元情報抽出動作(図5のステップS400)の詳細を図12A及び図12Bのフローチャートを参照して説明する。ここでは、最初にエッジの処理を行い、次いで異物の処理を行う例を説明するが、順序は変更可能であり、両処理は同時並行処理も可能である。 Next, the details of the 3D information extraction operation (step S400 in FIG. 5) in the edge 3D information extraction unit 46 and the foreign object 3D information extraction unit 56 will be described with reference to the flowcharts in FIGS. 12A and 12B. Here, an example will be described in which edge processing is performed first, and then foreign object processing is performed, but the order can be changed, and both processes can also be performed simultaneously in parallel.
最初に、エッジ画素数の最も多い画像番号Nを検出する。先ず、画像番号N及びエッジ画素数最大値ECmaxを初期化し(ステップS401)、エッジ画素数EC(N)を取得する(ステップS402)。次に、エッジ画素数EC(N)が、エッジ画素数最大値ECmaxより大きいか否かを判定する(ステップS403)。エッジ画素数EC(N)がエッジ画素数最大値ECmaxより大きい場合には、装置はエッジ画素数最大値画像番号ECNmaxを画像番号Nに置き換え(ステップS404)、画像番号Nはカウントアップ(「+1」)される(ステップS405)。エッジ画素数EC(N)がエッジ画素数最大値ECmax以下の場合には、画像番号Nのカウントアップ(「+1」)のみが行なわれる(ステップS405)。その後、画像番号Nが画像番号最大Nmax以上であるか否かを判定する(ステップS406)。画像番号Nが画像番号最大Nmaxに未満の場合には、処理は上記ステップS403に戻され、上記処理が繰り返される。このようにして、装置はエッジ画素数の最も多い画像番号を検出し、表示デバイス10の電極パターンが合焦している画像番号を検出する。 First, the image number N with the largest number of edge pixels is detected. First, the image number N and the maximum edge pixel number ECmax are initialized (step S401), and the edge pixel number EC(N) is obtained (step S402). Next, it is determined whether the edge pixel number EC(N) is greater than the maximum edge pixel number ECmax (step S403). If the edge pixel number EC(N) is greater than the maximum edge pixel number ECmax, the device replaces the image number ECNmax with the image number N (step S404), and the image number N is counted up ("+1") (step S405). If the edge pixel number EC(N) is equal to or less than the maximum edge pixel number ECmax, only the image number N is counted up ("+1") (step S405). Then, it is determined whether the image number N is equal to or greater than the maximum image number Nmax (step S406). If the image number N is less than the maximum image number Nmax, the process returns to step S403 and the above process is repeated. In this way, the device detects the image number with the largest number of edge pixels and detects the image number on which the electrode pattern of the display device 10 is in focus.
次のステップでは、異物画素数の最も多い画像番号Nを検出する。先ず、画像番号N、第1異物画素数最大値FCN1max、第2異物画素数最大値FCN2maxが初期化され(ステップS407)、異物画素数FC(N)が取得される(ステップS408)。次に、装置は、異物画素数FC(N)が、第1異物画素数最大値FCN1maxより大きいか否かを判定する(ステップS409)。異物画素数FC(N)が第1異物画素数最大値FCN1maxより大きい場合には、装置は、第1異物画素数画像番号FCN1maxの値を第2異物画素数画像番号FCN2maxの値に書き換え、第1異物画素数画像番号の値を画像番号Nに書き換える(ステップS410)。画像番号Nは、カウントアップ(「+1」)される(ステップS411)。また、異物画素数FC(N)が、第1異物画素数最大値FCN1max以下と判定される場合には、画像番号Nを1つだけ増加(「+1」)させる(ステップS411)。その後、装置は、画像番号Nが画像番号最大Nmax以上であるか否かを判定する(ステップS412)。画像番号Nが画像番号最大Nmax未満の場合には、処理は上記ステップS409に戻され、上記処理は繰り返し実行される。このようにして、最大異物画素数を有する画像番号、すなわち第1異物画素数画像番号FCN1maxが検出され、かつ最大の異物書き換え画素数の画像番号又は二番目に多い画像番号、すなわち、第2異物画素数画像番号FCN2maxが検出される。異物が合焦する画像番号が検出される。 In the next step, the image number N with the largest number of foreign matter pixels is detected. First, the image number N, the first maximum foreign matter pixel number FCN1max, and the second maximum foreign matter pixel number FCN2max are initialized (step S407), and the foreign matter pixel number FC(N) is obtained (step S408). Next, the device determines whether the foreign matter pixel number FC(N) is greater than the first maximum foreign matter pixel number FCN1max (step S409). If the foreign matter pixel number FC(N) is greater than the first maximum foreign matter pixel number FCN1max, the device rewrites the value of the first foreign matter pixel number image number FCN1max to the value of the second foreign matter pixel number image number FCN2max, and rewrites the value of the first foreign matter pixel number image number to the image number N (step S410). The image number N is counted up ("+1") (step S411). Also, if it is determined that the foreign substance pixel count FC(N) is equal to or less than the first maximum foreign substance pixel count FCN1max, the image number N is increased by one ("+1") (step S411). After that, the device determines whether the image number N is equal to or greater than the maximum image number Nmax (step S412). If the image number N is less than the maximum image number Nmax, the process returns to step S409, and the process is repeated. In this way, the image number with the maximum foreign substance pixel count, i.e., the first foreign substance pixel count image number FCN1max, is detected, and the image number with the maximum foreign substance rewritten pixel count or the image number with the second highest number, i.e., the second foreign substance pixel count image number FCN2max, is detected. The image number on which the foreign substance is in focus is detected.
最後に、第1異物画素数画像番号FCN1maxとエッジ画素数最大画像番号ECNmaxの第1の差分、第2異物画素数画像番号FCN2maxとエッジ画素数最大値画像番号ECNmaxの第2の差分が算出される。そして、第1の差分と第2の差分に基づいて異物の高さ情報が抽出される(ステップS413)。 Finally, a first difference between the first foreign object pixel count image number FCN1max and the maximum edge pixel count image number ECNmax, and a second difference between the second foreign object pixel count image number FCN2max and the maximum edge pixel count image number ECNmax are calculated. Then, foreign object height information is extracted based on the first difference and the second difference (step S413).
次に、実際にフレキシブル有機EL(1画素分)のサンプルを撮像した画像に基づいて、サンプルのエッジと微小異物の3次元情報(高さ情報)が抽出される処理の様子を、順を追って説明する。 Next, we will explain step by step how the process of extracting three-dimensional information (height information) of the sample edge and minute foreign objects based on an image actually captured of a flexible organic EL sample (one pixel).
先ず、顕微鏡の高さを高さ方向に等間隔(所定の刻み幅、例えば、0.1μm)で変化させ、検査対象物であるフレキシブル有機EL(1画素サイズ)の40枚の画像が取得される。そして、取得された40枚中の1枚目、10枚目、30枚目及び40枚目の画像を、図13に示すように、高さ方向に配列する。図13に示すように、1枚目の画像10-1は、電極パターン103の下方1μmの高さから取得した画像である。電極パターン103の下方1μmの高さから、上方に向かって0.1μm毎に画像が取得される。電極パターン103が完全に合焦する画像10-10は、10枚目に取得される。第1の異物101が合焦する画像10-30は、30枚目に取得される。第2の異物102が合焦する画像10-40は、40枚目に取得される。合焦する画像は、注目する画素と隣接する画素との輝度値の差が大きく、画像の鮮鋭度が高いという特徴がある。例えば、合焦する画像におけるサンプルの干渉像や膜の欠陥及びその同類は、周囲に対して明度差(輝度差)が大きい細い線又は点として画像、即ち高い鮮鋭度の(デフォーカスしていない)部分画像として存在する。 First, the height of the microscope is changed at equal intervals (predetermined intervals, for example, 0.1 μm) in the height direction, and 40 images of the flexible organic EL (one pixel size) to be inspected are acquired. Then, the first, tenth, thirtieth, and fortieth images of the 40 acquired images are arranged in the height direction as shown in FIG. 13. As shown in FIG. 13, the first image 10-1 is an image acquired from a height of 1 μm below the electrode pattern 103. From a height of 1 μm below the electrode pattern 103, images are acquired every 0.1 μm upward. Image 10-10, in which the electrode pattern 103 is completely in focus, is acquired in the tenth image. Image 10-30, in which the first foreign object 101 is in focus, is acquired in the 30th image. Image 10-40, in which the second foreign object 102 is in focus, is acquired in the 40th image. A focused image is characterized by a large difference in brightness between the pixel of interest and the adjacent pixels, and high image sharpness. For example, interference images of samples, film defects, and the like in a focused image are present as thin lines or dots with a large brightness difference (brightness difference) compared to the surroundings, that is, as a (non-defocused) partial image with high sharpness.
ここでは、フレキシブル有機EL(1画素サイズ)が、縦方向に20画素配列され、横方向に20画素配列された領域に撮像されており、輝度値の配列データに変換された様子を、図14から図17に示す。図14から図17には、それぞれ1枚目の画像36の輝度値(グレイ値)の配列データ、10枚目の画像37の輝度値(グレイ値)の配列データ、30枚目の画像38の輝度値(グレイ値)を配列データ、40枚目の画像39の輝度値(グレイ値)の配列データを示す。図14から図17で、横方向の位置は横方向の位置iに対応し、縦方向の位置は縦方向位置jに対応する。画像の位置と配列データとの位置関係は、後述する輝度値の配列データについても適用可能である。 Here, flexible organic EL (one pixel size) is imaged in an area with 20 pixels arranged vertically and 20 pixels arranged horizontally, and the state in which it is converted into luminance value array data is shown in Figs. 14 to 17. Figs. 14 to 17 respectively show array data of luminance values (gray values) of the first image 36, array data of luminance values (gray values) of the tenth image 37, array data of luminance values (gray values) of the 30th image 38, and array data of luminance values (gray values) of the 40th image 39. In Figs. 14 to 17, the horizontal position corresponds to horizontal position i, and the vertical position corresponds to vertical position j. The positional relationship between the image position and the array data can also be applied to the luminance value array data described later.
次に、数式1を用いて各画像のエッジ評価値E(i,j)を算出する。そして、検査対象物のフレキシブル有機EL(1画素サイズ)は縦方向に画素が20個配列され、横方向に画素が20個配列された領域における、エッジ評価値E(i,j)の分布を図18から図21に示す。図18から図21には、それぞれ1枚目の画像36のエッジ評価値E(i,j)、10枚目の画像37のエッジ評価値E(i,j)、30枚目の画像38のエッジ評価値E(i,j)、40枚目の画像39のエッジ評価値E(i,j)が示されている。同様に、数式3を用いて各画像の異物評価値F(i,j)を算出可能である。 Next, the edge evaluation value E(i,j) of each image is calculated using Equation 1. The distribution of edge evaluation values E(i,j) in an area where 20 pixels are arranged vertically and 20 pixels are arranged horizontally on the flexible organic EL (one pixel size) of the inspection object is shown in Figures 18 to 21. Figures 18 to 21 respectively show the edge evaluation value E(i,j) of the first image 36, the edge evaluation value E(i,j) of the tenth image 37, the edge evaluation value E(i,j) of the 30th image 38, and the edge evaluation value E(i,j) of the 40th image 39. Similarly, the foreign matter evaluation value F(i,j) of each image can be calculated using Equation 3.
1枚目から40枚目の全ての画像番号(N=1から40)に対応するエッジ評価値E(i,j)が算出された後、評価値記憶部44において、エッジ評価記憶値EM(i,j)が更新される様子を図22から25に示す。図22から図25には、それぞれ1枚目の画像36のエッジ評価値E(i,j)を用いてエッジ評価記憶値EM(i,j)が更新される様子、10枚目の画像37のエッジ評価値E(i,j)を用いてエッジ評価記憶値EM(i,j)が更新される様子、30枚目の画像38のエッジ評価値E(i,j)及び異物評価値F(i,j)を用いて、エッジ評価記憶値EM(i,j)が更新される様子、最後に40枚目の画像39のエッジ評価値E(i,j)及び異物評価値F(i,j)を用いて、エッジ評価記憶値EM(i,j)が更新された様子を示す。 After the edge evaluation values E(i,j) corresponding to all image numbers (N=1 to 40) from the first to the fortieth sheets are calculated, the edge evaluation storage value EM(i,j) is updated in the evaluation value storage unit 44 as shown in Figs. 22 to 25. Figs. 22 to 25 respectively show how the edge evaluation storage value EM(i,j) is updated using the edge evaluation value E(i,j) of the first image 36, how the edge evaluation storage value EM(i,j) is updated using the edge evaluation value E(i,j) of the tenth image 37, how the edge evaluation storage value EM(i,j) is updated using the edge evaluation value E(i,j) and foreign matter evaluation value F(i,j) of the 30th image 38, and finally how the edge evaluation storage value EM(i,j) is updated using the edge evaluation value E(i,j) and foreign matter evaluation value F(i,j) of the 40th image 39.
このようにして、エッジ評価値E(i,j)を用いたエッジ評価記憶値EM(i,j)の更新(以後、「評価値更新」と呼称する)が終了した後、エッジ画像番号記憶部45において、画像番号Nが更新される様子を図28から図31に示す。 After the edge evaluation storage value EM(i,j) is updated using the edge evaluation value E(i,j) in this manner (hereinafter referred to as "evaluation value update"), the image number N is updated in the edge image number storage unit 45 as shown in Figures 28 to 31.
異物を検出する処理において、30枚目の画像の異物評価値F(i,j)を用いて異物評価記憶値FM(i,j)が更新される様子を図26に示す。40枚目の画像の異物評価値F(i,j)を用いて異物評価記憶値FM(i,j)が更新される様子を図27に示す。1枚目及び10枚目の画像の異物評価値F(i,j)は異物閾値以下のため、0(零)に設定される。 In the process of detecting foreign matter, FIG. 26 shows how the foreign matter evaluation memory value FM(i,j) is updated using the foreign matter evaluation value F(i,j) of the 30th image. FIG. 27 shows how the foreign matter evaluation memory value FM(i,j) is updated using the foreign matter evaluation value F(i,j) of the 40th image. The foreign matter evaluation values F(i,j) of the 1st and 10th images are below the foreign matter threshold value, so are set to 0 (zero).
次に、エッジを検出する処理において、1枚目の画像についての評価値更新が完了した後、画像番号記憶部45における画像番号Nが更新された様子、同様に、10枚目の画像についての評価値更新が完了した後、画像番号記憶部45において画像番号Nが更新される様子、30枚目の画像についての評価値更新が完了した後、画像番号記憶部45における画像番号Nが更新される様子、40枚目の画像についての評価値更新が完了した後、画像番号記憶部45における画像番号Nが更新される様子を図28から図31に示す。 Next, in the process of detecting edges, Figures 28 to 31 show how the image number N in the image number storage unit 45 is updated after the evaluation value update for the first image is completed, how the image number N is updated in the image number storage unit 45 after the evaluation value update for the 10th image is completed, how the image number N is updated in the image number storage unit 45 after the evaluation value update for the 30th image is completed, and how the image number N is updated in the image number storage unit 45 after the evaluation value update for the 40th image is completed.
次に、異物を検出する処理において、30枚目の画像についての評価値更新が完了した後、異物画像番号記憶部55における画像番号が更新される様子を図32に示す。40枚目の画像についての評価値更新が完了した後、異物画像番号記憶部55における画像番号が更新される様子を図33に示す。異物3次元情報抽出部56は、異物が表示されている画素が、図33に示すように画像番号30(30枚目の画像)における位置(5,14)及び画像番号40(40枚目の画像)における位置(15,4)に存在すると判定する。なお、1枚目及び10枚目の画像の異物評価値F(i,j)は、異物閾値以下で、0に設定されているため、1枚目及び10枚目の画像においては、評価値更新は行われず、異物を表示する画素は検出されない。 Next, in the process of detecting foreign objects, FIG. 32 shows how the image number in the foreign object image number storage unit 55 is updated after the evaluation value update for the 30th image is completed. FIG. 33 shows how the image number in the foreign object image number storage unit 55 is updated after the evaluation value update for the 40th image is completed. The foreign object 3D information extraction unit 56 determines that the pixel displaying the foreign object is present at position (5, 14) in image number 30 (30th image) and position (15, 4) in image number 40 (40th image) as shown in FIG. 33. Note that the foreign object evaluation value F(i, j) for the first and tenth images is set to 0, which is less than the foreign object threshold, so the evaluation value update is not performed in the first and tenth images, and no pixel displaying a foreign object is detected.
このようにして、エッジ及び異物を検出した画像番号を更新する処理が完了すると、最後に、図31に示される画像番号の配列データに基づいて、装置は、検査対象物に関する等高線グラフを作成する。そして、図34に示されるように、等高線グラフからサンプルの3次元情報(高さ情報)を解析することができる。図34に基づいて、検査対象物についての3次元情報が詳細に判断される。 When the process of updating the image numbers in which edges and foreign objects are detected is thus completed, the device finally creates a contour graph for the inspection object based on the image number array data shown in FIG. 31. Then, as shown in FIG. 34, three-dimensional information (height information) of the sample can be analyzed from the contour graph. Based on FIG. 34, the three-dimensional information for the inspection object is determined in detail.
図19に示される10枚目の画像のエッジ評価値E(i,j)の配列が、最も密度が高いといえるから、10枚目の画像は、対象物の3次元情報(構造)の基準である対象物の最下部に存在する薄膜トランジスタ(TFT)回路部分に合焦した画像であると判定できる。したがって、10枚目の画像の高さを基準高さ(0μm)とする。3次元情報の基準の高さに対応する画像番号は10である。即ち、10枚目の画像の高さを基準として設定可能である。 The arrangement of edge evaluation values E(i,j) of the 10th image shown in FIG. 19 can be said to be the densest, so the 10th image can be determined to be an image focused on the thin film transistor (TFT) circuit portion at the bottom of the object, which is the reference for the object's three-dimensional information (structure). Therefore, the height of the 10th image is set as the reference height (0 μm). The image number corresponding to the reference height of the three-dimensional information is 10. In other words, the height of the 10th image can be set as the reference.
第1の微小異物101が合焦する画像の画像番号は30であるから、装置は、第1の微小異物101が基準から上方2.0μmの高さに存在すると判定することができる。第2の微小異物102が合焦する画像の画像番号40であるから、装置は、第2の微小異物102が基準から上方3.0μmの高さに存在すると判定することができる。そして、装置は、電極パターン103の2μm上方に第1の微小異物101が存在していると判定できる。さらに、装置は、第1の異物の3μm上方に、つまり電極パターン103の5μm上方に第2の微小異物102が存在していると判定できる。また、図34に示される等高線グラフのピークの高さは、検査対象物における微小異物の3次元情報を示している。 Since the image number of the image on which the first minute foreign matter 101 is focused is 30, the device can determine that the first minute foreign matter 101 is present at a height of 2.0 μm above the reference. Since the image number of the image on which the second minute foreign matter 102 is focused is 40, the device can determine that the second minute foreign matter 102 is present at a height of 3.0 μm above the reference. The device can then determine that the first minute foreign matter 101 is present 2 μm above the electrode pattern 103. Furthermore, the device can determine that the second minute foreign matter 102 is present 3 μm above the first foreign matter, that is, 5 μm above the electrode pattern 103. The height of the peak in the contour graph shown in FIG. 34 indicates three-dimensional information about the minute foreign matter in the inspection object.
微小異物又はピンホール等の欠陥が検出された場合には、良否判定部60は、欠陥の3次元情報を解析する。解析結果から、装置は、欠陥が同一の封止層上に存在するか否かを判定する。欠陥が同一の封止層上に存在する場合には、対象物である有機EL表示デバイスは良品として判定される。それから、装置は、複数の欠陥が異なる高さ(厚み方向)に存在するか否かを判定する。複数の欠陥が異なる高さ(厚み方向)に存在する場合には、対象物は不良品として判定される。上述のように、時間経過につれて、有機膜の上に存在する欠陥から侵入した酸素や水が有機膜に浸透する。さらに酸素や水が有機膜の下の欠陥まで到達すると、欠陥の直下にある測定対象物(例えば、EL表示デバイス)は破壊される。その結果、測定対象物の寿命は短縮される。 When a defect such as a minute foreign object or a pinhole is detected, the pass/fail judgment unit 60 analyzes the three-dimensional information of the defect. From the analysis result, the device judges whether the defect exists on the same sealing layer. If the defect exists on the same sealing layer, the organic EL display device, which is the object, is judged as a good product. Then, the device judges whether multiple defects exist at different heights (thickness direction). If multiple defects exist at different heights (thickness direction), the object is judged as a defective product. As described above, oxygen and water that have entered through defects on the organic film permeate the organic film over time. If the oxygen and water reach the defects below the organic film, the measurement object (e.g., the EL display device) directly below the defects is destroyed. As a result, the life of the measurement object is shortened.
さらに、本発明の欠陥良否判定装置に欠陥を修復する手段を付加してもよい。例えば、有機EL表示デバイスのような薄膜多層のデバイス製造において、直径1μm以下の欠陥(例えば、ピンホール又は異物)を有する層を、本発明の欠陥良否判定装置は特定することができるが、従来の技術では判定できない。このため、本発明の欠陥良否判定装置を用いることによって、欠陥の存在する層を形成する封止膜の材質に応じた最適な修復手段を選択することができる。欠陥が有機膜の異物である場合には、レーザを用いることによって異物を除去して、それから膜は修復可能である。さらに、レーザ光の波長[nm]及びエネルギー密度[J/cm2]を選択することによって、最適な修復を実施可能である。レーザ光を用いることができない場合には、異物を下方に押し込むという、修復方法が選択可能である。欠陥がピンホールである場合には、以下の方法を採用することができる。その方法は、微細な先端処理チューブ(マイクロディススぺンサー)を装填したカートリッジを用いて、欠陥であるピンホールに微小量の膜材料を塗布後、焼成又は紫外線照射によって硬化させるという方法である。 Furthermore, a means for repairing defects may be added to the defect quality determination device of the present invention. For example, in the manufacture of thin-film multi-layer devices such as organic EL display devices, the defect quality determination device of the present invention can identify a layer having a defect (e.g., a pinhole or foreign matter) with a diameter of 1 μm or less, but the conventional technology cannot determine it. Therefore, by using the defect quality determination device of the present invention, it is possible to select an optimal repair means according to the material of the sealing film forming the layer in which the defect exists. If the defect is a foreign matter in the organic film, the foreign matter can be removed by using a laser, and then the film can be repaired. Furthermore, by selecting the wavelength [nm] and energy density [J/cm 2 ] of the laser light, optimal repair can be performed. If it is not possible to use a laser light, a repair method in which the foreign matter is pushed downward can be selected. If the defect is a pinhole, the following method can be adopted. This method is a method in which a small amount of film material is applied to the defective pinhole using a cartridge equipped with a fine tip processing tube (microdispenser), and then cured by baking or ultraviolet irradiation.
本実施形態では、パターンのエッジ画素数最大の画像番号を1つ検出すること、また異物画素数最大の画像番号及び2番目に大きな異物画素数の画像番号(異物画素数最大と同数の場合を含む)を検出することを示したが、しかしながら、上記実施形態に限定されるものではない。例えば、サンプルを構成する有機膜、無機膜、電極パターンに応じて、或いは、異物や欠陥のサイズ、密度、発生位置及びその同類に応じて、適宜変更を加えることができる。 In this embodiment, one image number with the maximum number of edge pixels of the pattern is detected, and also the image number with the maximum number of foreign matter pixels and the image number with the second largest number of foreign matter pixels (including the case where the number is the same as the maximum number of foreign matter pixels) are detected, however, this is not limited to the above embodiment. For example, appropriate changes can be made depending on the organic film, inorganic film, and electrode pattern that make up the sample, or depending on the size, density, location of occurrence, and the like of the foreign matter or defect.
エッジ評価値E(i,j)と異物評価値F(i,j)とはエッジ評価値記憶値EM(i,j)に格納可能である。エッジ評価値E(i,j)と異物評価値F(i,j)との何れを優先するかは、例えば、エッジ評価値E(i,j)と異物評価値F(i,j)値のサイズや部分画像の鮮鋭度に基づいて、決定されてよい。 The edge evaluation value E(i,j) and the foreign matter evaluation value F(i,j) can be stored in the edge evaluation value memory value EM(i,j). Which of the edge evaluation value E(i,j) and the foreign matter evaluation value F(i,j) is to be prioritized may be determined based on, for example, the size of the edge evaluation value E(i,j) and the foreign matter evaluation value F(i,j) and the sharpness of the partial image.
本発明に係る欠陥良否判定方法及び装置では、撮像工程において、装置自体又は床の振動によって取得された画像間に水平方向の位置誤差が生じる。最も鮮鋭度の高い画像番号を検出することによって、水平方向の位置誤差の影響を受けることなく、微小な欠陥の発生している高さ情報を誤差なく正確に計測することができる。そして、欠陥良否判定装置の耐振動特性を向上することができ、上記の処理は装置の低廉化に大きく寄与する。 In the defect quality determination method and device according to the present invention, horizontal positional errors occur between the images acquired during the imaging process due to vibration of the device itself or the floor. By detecting the image number with the highest sharpness, it is possible to accurately measure the height information at which minute defects occur without being affected by horizontal positional errors. This also improves the vibration resistance characteristics of the defect quality determination device, and the above process contributes greatly to reducing the cost of the device.
上述の実施形態では、パターンのエッジ画素の高さ測定と微小異物の高さ測定を独立に実行している例を示したが、パターンのエッジ評価値と微小異物評価値を同程度のオーダーの大きさに値変換される場合には、エッジ評価値比較部43からエッジ3次元情報抽出部46までの処理と、異物評価値比較部53から異物3次元情報抽出部56までの処理とを共通の処理として扱うことが可能である。このような処理部の共通化によって、本発明の欠陥良否判定装置を単純化することができる。そのような例として、パターンエッジ抽出部41と微小異物抽出部51とを統合した特徴抽出部、エッジ評価値算出部42と異物評価値算出部52とを統合した評価値算出部、エッジ評価値比較部43と異物評価値比較部53とを統合した評価値比較部、エッジ評価値記憶部44と異物評価値記憶部54とを統合した評価値記憶部、エッジ画像番号記憶部45と異物画像番号記憶部55とを統合した画像番号記憶部、エッジ3次元情報抽出部46と異物3次元情報抽出部56とを統合した3次元情報抽出部のように構成することによって、本発明の欠陥良否判定装置の構成を単純化することができる。エッジ処理部40、異物処理部50、及び良否判定部60は、記憶部を除いて、ソフトウェアによる処理で実行可能である。 In the above embodiment, an example was shown in which height measurement of edge pixels of a pattern and height measurement of a minute foreign particle were performed independently, but when the edge evaluation value of a pattern and the minute foreign particle evaluation value are converted to values of the same order of magnitude, it is possible to treat the processing from the edge evaluation value comparison unit 43 to the edge 3D information extraction unit 46 and the processing from the foreign particle evaluation value comparison unit 53 to the foreign particle 3D information extraction unit 56 as a common processing. By sharing the processing units in this way, it is possible to simplify the defect pass/fail determination device of the present invention. As such examples, the configuration of the defect quality determination device of the present invention can be simplified by configuring it as follows: a feature extraction section that integrates the pattern edge extraction section 41 and the minute foreign matter extraction section 51; an evaluation value calculation section that integrates the edge evaluation value calculation section 42 and the foreign matter evaluation value calculation section 52; an evaluation value comparison section that integrates the edge evaluation value comparison section 43 and the foreign matter evaluation value comparison section 53; an evaluation value storage section that integrates the edge evaluation value storage section 44 and the foreign matter evaluation value storage section 54; an image number storage section that integrates the edge image number storage section 45 and the foreign matter image number storage section 55; and a three-dimensional information extraction section that integrates the edge three-dimensional information extraction section 46 and the foreign matter three-dimensional information extraction section 56. The edge processing section 40, the foreign matter processing section 50, and the quality determination section 60 can be executed by software processing, except for the storage section.
[本発明の代替実施形態]
図35は、本発明の一実施形態に係る、サンプル502内の特徴をマッピングする検査装置500の模式側面図である。装置500は、以下に説明される追加および変形を伴って、上記の実施形態と同様の原理に基づいて動作する。前述の実施形態、例えば、図1及び図3に説明されているように、サンプル502は、典型的には透明層を含む複数の薄膜層を含み、それらはサンプルの表面上にオーバーレイされている。
Alternative Embodiments of the Invention
35 is a schematic side view of an inspection apparatus 500 for mapping features in a sample 502, according to one embodiment of the present invention. The apparatus 500 operates based on similar principles to the previous embodiments, with additions and modifications as described below. As described in previous embodiments, e.g., in Figures 1 and 3, the sample 502 typically includes multiple thin film layers, including a transparent layer, that are overlaid on the surface of the sample.
装置500は、ビデオカメラ506を含み、当該ビデオカメラ506は、レンズ508、典型的には高倍率、高開口数、および浅い焦点深度を有する顕微鏡レンズを介してサンプル502の電子画像をキャプチャーする。カメラ506が画像をキャプチャーする間、照明源504はサンプル502を照明する。本実施形態では、照明源504は、単色光、すなわち40nm以下の帯域幅(半値全幅)を有する光を放射する。エンハンスされたこのような単色照明は、カメラ506によってキャプチャーされた画像における色収差の影響を排除するのに有利である。画像特徴のコントラストをエンハンスするために、照明源504が暗視野モードでサンプル506を照明することもまた有利である。しかしながら、代替として、照明源504は、白色光または他の広帯域光を放射してもよく、また、明視野照明を提供してもよい。 The apparatus 500 includes a video camera 506 that captures an electronic image of the sample 502 through a lens 508, typically a microscope lens with high magnification, high numerical aperture, and shallow depth of focus. An illumination source 504 illuminates the sample 502 while the camera 506 captures the image. In this embodiment, the illumination source 504 emits monochromatic light, i.e. light having a bandwidth (full width at half maximum) of 40 nm or less. Such enhanced monochromatic illumination is advantageous for eliminating the effects of chromatic aberration in the image captured by the camera 506. It is also advantageous for the illumination source 504 to illuminate the sample 506 in a dark field mode to enhance the contrast of image features. However, alternatively, the illumination source 504 may emit white light or other broadband light, or may provide bright field illumination.
モータ510は、サンプル502の表面に垂直な方向にカメラ506の前側焦点面を走査する。走査は連続的でも段階的でもよい。図示の実施形態では、モータ510はカメラ506とレンズ508を上下に平行移動する。代替的に、あるいは、追加的に、モータは焦点面を走査するため、サンプル502の垂直位置をシフト可能であり、又は、レンズ508の焦点設定を調整可能である。走査コースで、カメラ506は、サンプル502上の薄膜層の一連の画像を、サンプル内のそれぞれ異なる焦点深度でキャプチャーする。結果として、サンプル内の異なる深さに位置する特徴は、一連の異なる画像に焦点が合っており、ここで、最も鮮明な焦点は、カメラの前側焦点面が特徴の位置と一致するときに生じる。深さ次元(すなわち、サンプル502の表面に垂直の次元)の範囲にわたって広がる特徴については、特徴の上端は1つの画像で鮮明に焦点が合い、下端はもう一つの画像で鮮明に焦点が合う。 A motor 510 scans the front focal plane of the camera 506 in a direction perpendicular to the surface of the sample 502. The scan can be continuous or stepwise. In the illustrated embodiment, the motor 510 translates the camera 506 and the lens 508 up and down. Alternatively, or in addition, the motor can shift the vertical position of the sample 502 or adjust the focus setting of the lens 508 to scan the focal plane. Over the course of the scan, the camera 506 captures a series of images of the thin film layer on the sample 502, each at a different focal depth within the sample. As a result, features located at different depths within the sample are in focus in a series of different images, where the sharpest focus occurs when the front focal plane of the camera coincides with the location of the feature. For features that span a range in the depth dimension (i.e., the dimension perpendicular to the surface of the sample 502), the top of the feature will be in sharp focus in one image and the bottom will be in sharp focus in the other image.
プロセッサ512は、画像内に注目する特徴を識別するために、モータ510の走査コースにわたってカメラ506によりキャプチャーされた一連の画像を処理する。このような特徴は、例えば、上記で説明したように薄膜層内の欠陥を含み得る。プロセッサ512は、概して汎用コンピュータプロセッサを含み、カメラ506からの電子画像と装置500の他の構成要素からの信号とを受信するための好適なインターフェースを有し、ソフトウェアでプログラムされており、本明細書に記載の機能を実行する。代替的または追加的に、プロセッサ512の少なくともいくつかの機能は、プログラマブル又はハードワイヤードロジックで実装されてもよい。注目する特徴を識別すると、プロセッサ512は、一連の画像内にあるその特徴の最適光学焦点深度を計算し、次に、薄膜層内で、その特徴の位置、特に深さ(垂直)次元の位置を推定する。この目的のために、これまで詳細に説明されたように、プロセッサ512は画像内の特徴のエッジの鮮明度の尺度を計算し、鮮明度を最大にする深さを見つける。 The processor 512 processes the sequence of images captured by the camera 506 over the course of the motor 510 to identify features of interest in the images. Such features may include, for example, defects in the thin film layer, as described above. The processor 512 generally comprises a general-purpose computer processor, has suitable interfaces for receiving electronic images from the camera 506 and signals from other components of the device 500, and is programmed with software to perform the functions described herein. Alternatively or additionally, at least some of the functions of the processor 512 may be implemented in programmable or hardwired logic. Having identified a feature of interest, the processor 512 calculates the optimum optical focal depth of that feature in the sequence of images and then estimates the location of that feature, particularly the location of the depth (vertical) dimension, within the thin film layer. To this end, as described in detail above, the processor 512 calculates a measure of the sharpness of the edges of the feature in the images and finds the depth that maximizes the sharpness.
本実施形態では、装置500は、レーザ514および検出器516を含む距離計を備え、カメラ506とサンプル502との間の距離を測定する。図示の距離計は、カメラとサンプルとの間の距離が変化するにつれて、サンプル502から検出器516上に反射されるレーザスポットの位置のシフトを感知することによって動作する。代替的に、超音波距離計又は干渉距離計など、当該技術分野で知られている他の種類の距離計を使用することができる。プロセッサ512は、注目する特徴の位置を推定する際に距離計によって測定された距離を適用し、より詳細には、例えばサンプルの振動が原因で起こり得るサンプル502上の薄膜層内でのカメラ506の前側焦点面の位置の変動を補正する。プロセッサ512は、経時的に距離計によって測定された距離の周期的な変化に基づいてこの振動を検出可能であり、そして、次に、キャプチャーされた画像内において、この振動を補償するように深度測定値を補正可能であり、かようにしてサンプル502の特徴の位置をより高い精度で推定する。 In this embodiment, the device 500 includes a range finder including a laser 514 and a detector 516 to measure the distance between the camera 506 and the sample 502. The illustrated range finder operates by sensing the shift in the position of the laser spot reflected from the sample 502 onto the detector 516 as the distance between the camera and the sample changes. Alternatively, other types of range finders known in the art can be used, such as ultrasonic or interferometric range finders. The processor 512 applies the distance measured by the range finder in estimating the position of the feature of interest, and more specifically corrects for variations in the position of the front focal plane of the camera 506 within a thin film layer on the sample 502 that may occur, for example, due to vibration of the sample. The processor 512 can detect this vibration based on the periodic change in the distance measured by the range finder over time, and can then correct the depth measurements in the captured images to compensate for this vibration, thus estimating the position of the feature of the sample 502 with greater accuracy.
図36は、本発明の一実施形態に係る装置500において測定された振動を模式的に示すプロット図である。プロット内の複数のデータ点520は、サンプル502の上方のカメラ506の基準線高さに対する相対高さ(単位ミクロン)を、時間(単位秒)の関数として振動がないと推定されるものとして示す。各データ点520は、距離計検出器516によってされた読みに対応する。プロセッサ512は周期関数をデータ点520にフィットさせて曲線522を生成し、これは任意の時点における振動の推定振幅を与える。カメラ506は、曲線522上の複数のマーク524によって示される時間で画像をキャプチャーする。このような各時間において、プロセッサ512は、曲線522の値を読み取って高さ補正を提供し、補正後の焦点深度を計算するためにモータ510の走査によって与えられる名目深度にこの補正値を加算(または減算)する。したがって、プロセッサ512は、サンプル502の振動を補償可能であり、画像内に現れる特徴の位置をより正確に推定することができる。 36 is a schematic plot of vibrations measured in an apparatus 500 according to an embodiment of the invention. A number of data points 520 in the plot indicate the relative height (in microns) of the camera 506 above the sample 502 relative to the baseline height as a function of time (in seconds) in the absence of vibration. Each data point 520 corresponds to a reading made by the range finder detector 516. The processor 512 fits a periodic function to the data points 520 to generate a curve 522, which gives the estimated amplitude of vibration at any time. The camera 506 captures images at times indicated by a number of marks 524 on the curve 522. At each such time, the processor 512 reads the values of the curve 522 to provide a height correction, which it adds (or subtracts) to the nominal depth provided by the scan of the motor 510 to calculate the corrected depth of focus. Thus, the processor 512 can compensate for the vibrations of the sample 502 and can more accurately estimate the location of features appearing in the image.
図37は、本発明の一実施形態に係る装置500によってされた焦点品質の測定値を示す模式プロット図である。データ点530は、所与の特徴について計算された焦点スコアに対応し、サンプル502上の薄膜層内のカメラ506の焦点深度の関数としてプロットされている。名目焦点深度は、上記で説明したようにサンプルの振動について補正されてもよい。焦点スコアは、例えば派生画像に基づいて、注目する特徴のエッジの鮮明度を測定する。データ点530のZ位置は、測定された振動に対して補正されており、したがって、プロット図内で不均等間隔である場合もあり得る。焦点スコアは、カメラ506の前側焦点面の深さの関数として逆放物線形を呈する。したがって、プロセッサ512は、好適な曲線532をデータ点530にフィットさせ、曲線532のピークを見つけ、これはサンプル502内の特徴の深さを示す。 37 is a schematic plot showing measurements of focus quality made by the apparatus 500 according to an embodiment of the present invention. The data points 530 correspond to the calculated focus scores for a given feature, plotted as a function of the focal depth of the camera 506 in the thin film layer on the sample 502. The nominal focal depth may be corrected for sample vibration as explained above. The focus score measures the sharpness of the edges of the feature of interest, for example based on the derived image. The Z positions of the data points 530 have been corrected for the measured vibration and may therefore be unevenly spaced in the plot. The focus score is inverse parabolic as a function of the depth of the front focal plane of the camera 506. The processor 512 therefore fits a suitable curve 532 to the data points 530 and finds the peak of the curve 532, which indicates the depth of the feature in the sample 502.
図38は、本発明の一実施形態係るサンプル中の特徴をマッピングする方法を模式的に示すフローチャートである。当該方法は、便宜上及び明確のために、装置500(図35参照)の特徴を参照しながら、以下に説明される。代替的に、当該方法は、本明細書を読んだ後に当業者に明らかで、かつ必要な変更を加え、前掲の実施形態の装置を使用して、あるいは任意の他の好適な検査システムを使用して、実施されてもよい。 Figure 38 is a flow chart that illustrates, in a schematic manner, a method for mapping features in a sample according to an embodiment of the present invention. The method is described below for convenience and clarity with reference to features of apparatus 500 (see Figure 35). Alternatively, the method may be performed using the apparatus of the previous embodiment, or using any other suitable inspection system, mutatis mutandis, as will be apparent to those skilled in the art after reading this specification.
距離測定ステップ540において、プロセッサ512は、レーザ514やセンサ516などの距離計を使用して、サンプル502からのカメラ506及びレンズ508の距離を測定する。概して、走査ステップ542において、装置500は、モータ510がサンプル502上の薄膜層を介してカメラの前側焦点面の深さを走査する間、この距離が(振動による微動以外)略一定に留まるように構成される。代替的に、このステップにおいて、距離計はモータ510の動作によって引き起こされるシフトを測定してもよい。モータ510がカメラの焦点を深さ次元に走査するにしたがって、プロセッサ512はカメラ506からサンプル502の画像を取得する。 In a distance measurement step 540, the processor 512 measures the distance of the camera 506 and lens 508 from the sample 502 using a range finder, such as a laser 514 or sensor 516. Generally, in a scanning step 542, the apparatus 500 is configured so that this distance remains approximately constant (other than slight movements due to vibration) while the motor 510 scans the depth of the front focal plane of the camera through the thin film layer on the sample 502. Alternatively, in this step, the range finder may measure the shift caused by the operation of the motor 510. As the motor 510 scans the focal point of the camera in the depth dimension, the processor 512 acquires an image of the sample 502 from the camera 506.
ステップ540で行われた距離計測定に基づいて、図36に示されるように、例えば、振動再構成ステップ544において、プロセッサ512はサンプル502の振動パターンを再構成する。次に、深度補正ステップ546において、プロセッサ512は、ステップ542で取得した画像の名目焦点深度を補正して、振動によって引き起こされる誤差を補償することができる。プロセッサ512は、画像内の1つまたは複数の注目する特徴、例えば潜在的な欠陥を識別し、焦点採点ステップ548において、これらの特徴についての焦点スコアを補正後深さの関数として計算する。位置計算ステップ550において、このような各特徴について、プロセッサ512は、計算焦点スコアに曲線をフィットさせ、次に、特徴の3次元座標を見つける。 Based on the range finder measurements made in step 540, the processor 512 reconstructs the vibration pattern of the sample 502, for example, in a vibration reconstruction step 544, as shown in FIG. 36. The processor 512 can then correct the nominal focus depth of the image acquired in step 542, in a depth correction step 546, to compensate for errors caused by vibration. The processor 512 identifies one or more features of interest in the image, e.g., potential defects, and calculates focus scores for these features as a function of corrected depth, in a focus scoring step 548. For each such feature, the processor 512 fits a curve to the calculated focus scores and then finds the three-dimensional coordinates of the feature, in a position calculation step 550.
上記の実施形態は例として引用されており、かつ本発明は上記に特定され、記載されたものに限定されないことが理解されるであろう。むしろ、本発明の範囲は、上述のとおり記載された様々な機能の組み合わせおよび部分的な組み合わせ、ならびに上述の説明を読むと当業者に見出されるであろう従来技術には開示されていないこれらの変形および修正も含む。 It will be understood that the above embodiments are cited by way of example, and that the present invention is not limited to what has been specified and described above. Rather, the scope of the present invention includes combinations and subcombinations of the various features described above, as well as variations and modifications thereof not disclosed in the prior art that would occur to one of ordinary skill in the art upon reading the above description.
1 電気回路パターン
2 第1の封止層
3 第2の封止層
4 第3の封止層
5 第1の基材
6 第2の基材
10 フレキシブル有機EL表示装置
20 顕微鏡(鏡筒部)
21 対物レンズ
22 カメラ
23 高さ方向駆動モータ
30 シーケンス制御部
31 画像取得部
32 画像メモリ
40 エッジ処理部
41 パターンエッジ抽出部
42 エッジ評価値算出部
43 エッジ評価値比較部
44 エッジ評価値記憶部
45 エッジ画像番号記憶部
46 エッジ3次元情報抽出部
50 異物処理部
51 微小異物抽出部
52 異物値算出部
53 異物値比較部
54 異物値記憶部
55 異物画像番号記憶部
56 異物3次元情報抽出部
60 良否判定部
101 第1の微小異物
102 第2の微小異物
103 電極パターン
104 カソード電極
105 有機膜
106 透明膜
107 発光層
500 検査装置
502 サンプル
504 照明光源
506 カメラ
508 顕微鏡レンズ
510 焦点調整モータ
512 プロセッサ
514 距離計レーザ
516 距離計検出器
REFERENCE SIGNS LIST 1 Electric circuit pattern 2 First sealing layer 3 Second sealing layer 4 Third sealing layer 5 First substrate 6 Second substrate 10 Flexible organic EL display device 20 Microscope (lens barrel)
21 Objective lens 22 Camera 23 Height direction drive motor 30 Sequence control unit 31 Image acquisition unit 32 Image memory 40 Edge processing unit 41 Pattern edge extraction unit 42 Edge evaluation value calculation unit 43 Edge evaluation value comparison unit 44 Edge evaluation value storage unit 45 Edge image number storage unit 46 Edge three-dimensional information extraction unit 50 Foreign matter processing unit 51 Micro foreign matter extraction unit 52 Foreign matter value calculation unit 53 Foreign matter value comparison unit 54 Foreign matter value storage unit 55 Foreign matter image number storage unit 56 Foreign matter three-dimensional information extraction unit 60 Good/bad judgment unit 101 First micro foreign matter 102 Second micro foreign matter 103 Electrode pattern 104 Cathode electrode 105 Organic film 106 Transparent film 107 Light-emitting layer 500 Inspection device 502 Sample 504 Illumination light source 506 Camera 508 Microscope lens 510 Focus adjustment motor 512 Processor 514 Distance Meter Laser 516 Distance Meter Detector
Claims (25)
前記複数の画像の各画素に対して、隣接画素との輝度差から部分画像の鮮鋭度を算出するステップであり、前記部分画像は、前記複数の画像の各画素と、前記各画素の横方向に隣接する画素と、前記各画素の縦方向に隣接する画素から構成される、ステップと、
前記複数の画像の全画像の中で、同一画素位置における前記鮮鋭度の算出結果が最大の画像番号から前記部分画像の高さ情報を算出するステップと、
前記高さ情報の算出から前記全画像の3次元情報を得るステップであり、前記3次元情報が前記全画像のエッジ3次元情報と前記全画像の異物3次元情報の少なくとも1つを含む、ステップと、及び、
前記エッジ3次元情報と前記異物3次元情報に基づいて前記検査対象物の欠陥良否を判定するステップを含み、
前記検査対象物は有機ELデバイスであり、前記有機ELデバイスの電極パターンのエッジを前記3次元情報の高さの基準とするとともに、前記電極パターンのエッジが検出され難い場合に前記有機ELデバイスの発光部分のエッジを前記3次元情報の高さの基準とする、
欠陥良否判定方法。 A step of acquiring a plurality of images of an object to be inspected, the image having a predetermined interval in a height direction, by an optical imaging means, for the object to be inspected, the image having a multi-layer transparent thin film;
a step of calculating a sharpness of a partial image from a luminance difference between each pixel of the plurality of images and adjacent pixels, the partial image being composed of each pixel of the plurality of images, pixels adjacent to each pixel in the horizontal direction, and pixels adjacent to each pixel in the vertical direction;
calculating height information of the partial image from an image number having a maximum calculation result of the sharpness at a single pixel position among all of the plurality of images;
A step of obtaining three-dimensional information of the entire image from the calculation of the height information, the three-dimensional information including at least one of three-dimensional information of an edge of the entire image and three-dimensional information of a foreign object of the entire image; and
determining whether the inspection object is defective or not based on the edge three-dimensional information and the foreign matter three-dimensional information;
the object to be inspected is an organic EL device, an edge of an electrode pattern of the organic EL device is used as a reference for the height of the three-dimensional information, and when the edge of the electrode pattern is difficult to detect, an edge of a light-emitting portion of the organic EL device is used as a reference for the height of the three-dimensional information;
Method for determining whether defects are acceptable or not.
前記複数の画像から前記鮮鋭度の高い部分画像の密度が最大の画像を抽出するステップと、
前記画像を3次元パターン構造の高さ方向の基準位置1とするステップと、及び、
前記パターン欠陥の前記高さ情報と前記基準位置1との関係から、発生した前記パターン欠陥の前記3次元パターン構造中での高さを測定するステップとをさらに含む請求項1に記載の欠陥良否判定方法。 detecting a pattern defect in the image having the greatest sharpness;
extracting an image having a maximum density of the partial images with high sharpness from the plurality of images;
A step of setting the image as a reference position 1 in the height direction of a three-dimensional pattern structure; and
2. The defect quality determination method according to claim 1, further comprising the step of measuring a height of the generated pattern defect in the three-dimensional pattern structure from a relationship between the height information of the pattern defect and the reference position 1.
前記複数の画像で、前記透明薄膜の端部に発生する干渉縞の干渉画像が最も鮮鋭になる画像を抽出するステップと、
前記画像を3次元パターン構造の高さ方向の基準位置2とするステップと、及び、
前記パターン欠陥の高さ情報と前記基準位置2との関係から、発生した前記パターン欠陥の前記3次元パターン構造中での高さを測定するステップとをさらに含む請求項1に記載の欠陥良否判定方法。 detecting pattern defects in the image with the greatest sharpness;
extracting an image from the plurality of images in which an interference image of interference fringes occurring at an edge of the transparent thin film is sharpest;
A step of setting the image as a reference position 2 in the height direction of a three-dimensional pattern structure; and
2. The defect quality determination method according to claim 1, further comprising the step of measuring a height of the generated pattern defect in the three-dimensional pattern structure from a relationship between height information of the pattern defect and the reference position (2).
前記画像データの特徴を抽出する抽出部と、
前記特徴に基づいて評価値を算出する評価値算出部であり、前記評価値は、注目画素と前記注目画素に隣接する隣接画素との輝度差を表す、評価値算出部と、
前記画像データにおいて、位置関係が一致する前回の評価値と前記評価値とを比較し、かつ比較結果を生成する評価値比較部と、
前記比較結果に基づいて、前記評価値を記憶する評価値記憶部と、
前記比較結果に基づいて、前記画像番号を記憶する画像番号記憶部と、
前記画像番号記憶部に記憶された前記画像番号に基づいて前記検査対象物のエッジ3次元情報を抽出するエッジ3次元情報抽出部と、
前記エッジ3次元情報に基づいて、前記検査対象物に存在する欠陥の高さ情報を抽出する異物3次元情報抽出部と、及び、
前記複数の欠陥が存在する場合に、前記欠陥間の前記高さ情報の差分に基づいて、前記検査対象物の良否を判定する良否判定部と、
を具備し、前記検査対象物は有機ELデバイスであり、前記有機ELデバイスの電極パターンのエッジを前記3次元情報の高さの基準とするとともに、前記電極パターンのエッジが検出され難い場合に前記有機ELデバイスの発光部分のエッジを前記3次元情報の高さの基準とする欠陥良否判定装置。 an imaging means for acquiring a plurality of image data of an inspection object having a multi-layer transparent thin film by using an optical imaging means that can be moved up and down at a predetermined interval, and assigning image numbers to the image data;
An extraction unit that extracts features of the image data;
an evaluation value calculation unit that calculates an evaluation value based on the features, the evaluation value representing a luminance difference between a pixel of interest and an adjacent pixel adjacent to the pixel of interest;
an evaluation value comparison unit that compares the evaluation value with a previous evaluation value that matches a positional relationship in the image data and generates a comparison result;
an evaluation value storage unit that stores the evaluation value based on the comparison result;
an image number storage unit that stores the image number based on the comparison result;
an edge three-dimensional information extraction unit that extracts edge three-dimensional information of the inspection object based on the image number stored in the image number storage unit;
a foreign matter three-dimensional information extraction unit that extracts height information of a defect present in the inspection object based on the edge three-dimensional information; and
a quality determination unit that determines quality of the inspection object based on a difference in height information between the defects when the plurality of defects are present;
the object to be inspected is an organic EL device, and an edge of an electrode pattern of the organic EL device is used as a reference for the height of the three-dimensional information, and when the edge of the electrode pattern is difficult to detect, an edge of a light-emitting portion of the organic EL device is used as the reference for the height of the three-dimensional information.
前記サンプルの表面に対して垂直な方向に前記カメラの前側焦点面を走査し、それによって前記サンプル内のそれぞれ異なる焦点深度で薄膜層の一連の画像を取り込むように結合されているモータと、及び、
前記一連の画像内の画像を処理し、画像内で注目する特徴を識別し、前記一連の画像内の前記注目する特徴の最適焦点深度を計算し、前記注目する特徴の位置を推定するように、前記一連の画像を処理するように構成されたプロセッサと、
を備え、
前記プロセッサは、さらに、前記注目する特徴の最適焦点深度の計算に、前記注目する特徴のエッジの鮮鋭度を計算し、前記鮮鋭度を最大にする深度を見つけることを含むように構成され、
前記サンプルは有機ELデバイスであり、前記有機ELデバイスの電極パターンのエッジを前記3次元情報の高さの基準とするとともに、前記電極パターンのエッジが検出され難い場合に前記有機ELデバイスの発光部分のエッジを前記注目する特徴の高さの基準とする、
検査装置。 a camera configured to capture an image of a sample including a plurality of thin film layers overlaid on a surface thereof;
a motor coupled to scan a front focal plane of the camera in a direction perpendicular to a surface of the sample, thereby capturing a series of images of a thin film layer at different focal depths within the sample; and
a processor configured to process images in the series of images to identify features of interest in the images, calculate an optimum depth of focus for the features of interest in the series of images, and estimate a location of the features of interest;
Equipped with
the processor is further configured such that calculating the optimum focal depth for the feature of interest includes calculating a sharpness of an edge of the feature of interest and finding the depth that maximizes the sharpness;
the sample is an organic EL device, an edge of an electrode pattern of the organic EL device is used as a reference for the height of the three-dimensional information, and when the edge of the electrode pattern is difficult to detect, an edge of a light-emitting portion of the organic EL device is used as a reference for the height of the feature of interest;
Inspection equipment.
前記画像内の注目する特徴を識別し、
前記一連の前記画像内の前記注目する特徴の最適焦点深度を計算し、そして
前記最適焦点深度に基づいて、前記薄膜層内の注目する特徴の位置を推定すること、
を含み、
前記最適焦点深度の計算は、前記注目する特徴のエッジの鮮鋭度を計算し、前記鮮鋭度を最大にする深度を見つけることを含み、
前記サンプルは有機ELデバイスであり、前記有機ELデバイスの電極パターンのエッジを前記3次元情報の高さの基準とするとともに、前記電極パターンのエッジが検出され難い場合に前記有機ELデバイスの発光部分のエッジを前記注目する特徴の高さの基準とする、
検査方法。 capturing a series of images of a sample, the sample including a plurality of thin film layers overlaid on a surface of the sample, at different respective focal depths within the sample;
Identifying features of interest within the image;
calculating an optimal depth of focus of the feature of interest in the series of images; and estimating a location of the feature of interest within the thin film layer based on the optimal depth of focus.
Including,
Calculating the optimum depth of focus includes calculating the sharpness of edges of the feature of interest and finding the depth that maximizes the sharpness;
the sample is an organic EL device, an edge of an electrode pattern of the organic EL device is used as a reference for the height of the three-dimensional information, and when the edge of the electrode pattern is difficult to detect, an edge of a light-emitting portion of the organic EL device is used as a reference for the height of the feature of interest;
Inspection method.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016237642A JP2018091807A (en) | 2016-12-07 | 2016-12-07 | Defective flaw determination method and device |
JP2016237642 | 2016-12-07 | ||
PCT/IL2017/051303 WO2018104931A1 (en) | 2016-12-07 | 2017-11-30 | Method and apparatus for judging defect quality |
JP2019529631A JP2020501144A (en) | 2016-12-07 | 2017-11-30 | Defect quality judgment method and device |
JP2022129601A JP2022176404A (en) | 2016-12-07 | 2022-08-16 | Method and apparatus for judging defect quality |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022129601A Division JP2022176404A (en) | 2016-12-07 | 2022-08-16 | Method and apparatus for judging defect quality |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024087006A true JP2024087006A (en) | 2024-06-28 |
Family
ID=62490833
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016237642A Pending JP2018091807A (en) | 2016-12-07 | 2016-12-07 | Defective flaw determination method and device |
JP2019529631A Pending JP2020501144A (en) | 2016-12-07 | 2017-11-30 | Defect quality judgment method and device |
JP2022129601A Pending JP2022176404A (en) | 2016-12-07 | 2022-08-16 | Method and apparatus for judging defect quality |
JP2024069810A Pending JP2024087006A (en) | 2016-12-07 | 2024-04-23 | Method and apparatus for judging defect quality |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016237642A Pending JP2018091807A (en) | 2016-12-07 | 2016-12-07 | Defective flaw determination method and device |
JP2019529631A Pending JP2020501144A (en) | 2016-12-07 | 2017-11-30 | Defect quality judgment method and device |
JP2022129601A Pending JP2022176404A (en) | 2016-12-07 | 2022-08-16 | Method and apparatus for judging defect quality |
Country Status (5)
Country | Link |
---|---|
JP (4) | JP2018091807A (en) |
KR (2) | KR102719211B1 (en) |
CN (1) | CN110178019A (en) |
TW (1) | TWI848902B (en) |
WO (1) | WO2018104931A1 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109585325B (en) * | 2018-12-05 | 2021-02-02 | 上海华力集成电路制造有限公司 | Method for detecting crystal edge washing boundary |
CN110298834B (en) * | 2019-07-01 | 2021-03-23 | 中国电子科技集团公司第十三研究所 | Correction method of pixel-level edge effect and terminal equipment |
KR20220137634A (en) * | 2020-02-16 | 2022-10-12 | 오르보테크 엘티디. | Systems and methods for inspection of multiple features of patterned objects in the manufacture of electrical circuits |
KR102196350B1 (en) * | 2020-06-30 | 2020-12-29 | 파워오토메이션 주식회사 | Inspection Apparatus for Hybrid Multi Insertion Robot Machine |
CN112463424B (en) * | 2020-11-13 | 2023-06-02 | 扬州大学 | Graph-based end-to-end program repairing method |
CN115835820A (en) * | 2021-04-23 | 2023-03-21 | 深圳帧观德芯科技有限公司 | Imaging method using image sensor having a plurality of radiation detectors |
KR102650432B1 (en) | 2021-05-13 | 2024-03-25 | (주)피아이이 | 3-Dimension image defect measurement system and method |
CN113189612A (en) * | 2021-05-17 | 2021-07-30 | 长安大学 | Gravel seal quality detection device based on depth camera |
KR102710538B1 (en) * | 2021-07-21 | 2024-09-26 | 주식회사 에스엔디솔루션 | Apparatus for outer inspection of inspecting object using cad file |
CN113566730B (en) * | 2021-07-29 | 2023-09-08 | 广东电网有限责任公司 | Battery expansion deformation detection system and method |
CN113759435A (en) * | 2021-08-19 | 2021-12-07 | 常州捷佳创精密机械有限公司 | Device and method for detecting foreign matters on processing table board |
CN114778514B (en) * | 2022-03-30 | 2024-04-09 | 清华大学 | Measuring device and method for nondestructive high aspect ratio structure based on Raman analysis |
CN115049643A (en) * | 2022-08-11 | 2022-09-13 | 武汉精立电子技术有限公司 | Near-to-eye display module interlayer foreign matter detection method, device, equipment and storage medium |
CN116759326B (en) * | 2023-08-23 | 2024-01-26 | 深圳超盈智能科技有限公司 | Chip appearance detection method, device, equipment and storage medium |
CN117330521B (en) * | 2023-12-01 | 2024-02-20 | 黑龙江中医药大学 | Clinical laboratory uses blood smear system |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2963990B1 (en) * | 1998-05-25 | 1999-10-18 | 京都大学長 | Distance measuring device and method, image restoring device and method |
JP2004340680A (en) * | 2003-05-14 | 2004-12-02 | Toray Eng Co Ltd | Method for measuring surface profile and/or film thickness, and its apparatus |
US7115869B2 (en) * | 2003-09-30 | 2006-10-03 | The Boeing Company | Method for measurement of composite heat damage with infrared spectroscopy |
JP2005172805A (en) | 2003-11-21 | 2005-06-30 | Olympus Corp | Sample information measuring method and scanning type confocal microscope |
KR100809346B1 (en) * | 2006-07-03 | 2008-03-05 | 삼성전자주식회사 | Apparatus and method for correcting edge |
KR101254161B1 (en) * | 2007-12-14 | 2013-04-18 | 지고 코포레이션 | Analyzing surface structure using scanning interferometry |
JP2009288162A (en) * | 2008-05-30 | 2009-12-10 | Hitachi Kokusai Electric Inc | Three-dimensional measuring device |
JP2011033507A (en) * | 2009-08-03 | 2011-02-17 | Renesas Electronics Corp | Three-dimensional measuring apparatus |
JP5605097B2 (en) * | 2010-09-03 | 2014-10-15 | ソニー株式会社 | Manufacturing method of electronic device |
KR101226913B1 (en) | 2011-04-12 | 2013-01-28 | 주식회사 휴비츠 | Method for preparing three dimensional profile map for composing images |
JP2012237647A (en) | 2011-05-11 | 2012-12-06 | Univ Of Tokyo | Multifocal confocal raman spectroscopic microscope |
JP5740230B2 (en) * | 2011-07-12 | 2015-06-24 | 株式会社アルバック | Measuring method of surface shape of sample by scanning white interferometer |
KR101272520B1 (en) | 2011-08-17 | 2013-06-10 | 현대자동차주식회사 | Member for reinforcing lateral crash |
CN103188432B (en) * | 2011-12-29 | 2016-05-25 | 汉王科技股份有限公司 | A kind of quantitative judgement apparatus and method of focusing accuracy |
JP6041087B2 (en) * | 2012-03-22 | 2016-12-07 | 株式会社Joled | Display panel manufacturing method, inspection apparatus and inspection method thereof |
DE102012104086A1 (en) * | 2012-05-09 | 2013-11-28 | Isra Vision Ag | Method and device for electroluminescent inspection and / or photoluminescence inspection |
JP2014130068A (en) * | 2012-12-28 | 2014-07-10 | Nippon Electric Glass Co Ltd | Resist pattern measuring device, resist pattern measuring method, and management method for concentration of resist developing solution |
JP6022372B2 (en) | 2013-02-04 | 2016-11-09 | 株式会社アルバック | Thin substrate processing equipment |
TWI582256B (en) * | 2013-02-04 | 2017-05-11 | 愛發科股份有限公司 | Thin substrate processing apparatus |
US9696264B2 (en) * | 2013-04-03 | 2017-07-04 | Kla-Tencor Corporation | Apparatus and methods for determining defect depths in vertical stack memory |
KR20140122608A (en) * | 2013-04-10 | 2014-10-20 | 삼성전자주식회사 | Apparatus and method for extracting depth information of defect, and method for improving semiconductor process using the depth information of defect |
CN106030275A (en) * | 2013-12-23 | 2016-10-12 | 倍耐力轮胎股份公司 | Method and apparatus for detecting defects on tyres in tyre production process |
JP2015175629A (en) * | 2014-03-13 | 2015-10-05 | 株式会社日立ハイテクノロジーズ | Distance measuring apparatus, and distance measuring system |
CN103945123B (en) * | 2014-04-03 | 2017-01-18 | 北京大恒图像视觉有限公司 | Method for adjusting level angle of industrial camera |
JP6310814B2 (en) * | 2014-08-22 | 2018-04-11 | 株式会社日立パワーソリューションズ | Image processing method and ultrasonic inspection method and apparatus using the same |
TWI567383B (en) * | 2015-02-17 | 2017-01-21 | 國立中山大學 | Method for measuring smooth object by fringe projection |
CN104732227B (en) * | 2015-03-23 | 2017-12-26 | 中山大学 | A kind of Location Method of Vehicle License Plate based on definition and luminance evaluation |
CN105277569B (en) * | 2015-11-26 | 2018-11-27 | 凌云光技术集团有限责任公司 | Route board detecting method based on three-dimensional feature |
-
2016
- 2016-12-07 JP JP2016237642A patent/JP2018091807A/en active Pending
-
2017
- 2017-11-30 JP JP2019529631A patent/JP2020501144A/en active Pending
- 2017-11-30 WO PCT/IL2017/051303 patent/WO2018104931A1/en active Application Filing
- 2017-11-30 KR KR1020237025231A patent/KR102719211B1/en active IP Right Grant
- 2017-11-30 KR KR1020197019598A patent/KR20190093618A/en active Application Filing
- 2017-11-30 CN CN201780083330.3A patent/CN110178019A/en active Pending
- 2017-12-06 TW TW106142714A patent/TWI848902B/en active
-
2022
- 2022-08-16 JP JP2022129601A patent/JP2022176404A/en active Pending
-
2024
- 2024-04-23 JP JP2024069810A patent/JP2024087006A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN110178019A (en) | 2019-08-27 |
TWI848902B (en) | 2024-07-21 |
KR20230116951A (en) | 2023-08-04 |
JP2018091807A (en) | 2018-06-14 |
KR102719211B1 (en) | 2024-10-18 |
JP2020501144A (en) | 2020-01-16 |
WO2018104931A1 (en) | 2018-06-14 |
TW201826222A (en) | 2018-07-16 |
JP2022176404A (en) | 2022-11-28 |
KR20190093618A (en) | 2019-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2024087006A (en) | Method and apparatus for judging defect quality | |
KR100924986B1 (en) | Defect detecting apparatus, defect detecting method, information processing apparatus, information processing method, and program therefor | |
CN105301865B (en) | Automatic focusing system | |
KR101735403B1 (en) | Inspection method, templet substrate and focus offset method | |
TWI837190B (en) | Macro inspection systems, apparatus and methods | |
US20050280807A1 (en) | Method and system for inspecting a wafer | |
KR20090074245A (en) | Defect detecting apparatus, defect detecting method, information processing apparatus, information processing method, and program therefor | |
KR20090018711A (en) | Method and apparatus for auto-focussing infinity corrected microscopes | |
US7247825B2 (en) | Method and apparatus for scanning a specimen using an optical imaging system | |
US20090316981A1 (en) | Method and device for inspecting a disk-shaped object | |
CN114096368B (en) | Laser repairing method and laser repairing device | |
KR100926019B1 (en) | Defective particle measuring apparatus and defective particle measuring method | |
CN111337516B (en) | Glass cover plate inspection device | |
JP6574674B2 (en) | Coating inspection device and inspection method | |
JP2009150718A (en) | Inspecting device and inspection program | |
JP5868203B2 (en) | Inspection device | |
KR100913508B1 (en) | Confocal three-dimensional scanning apparatus and scanning method for the same | |
CN113966527B (en) | Laser repairing method and laser repairing device | |
JP2006003168A (en) | Measurement method for surface shape and device therefor | |
JP7310423B2 (en) | Film-coated substrate inspection method, film-coated substrate manufacturing method, and film-coated substrate inspection apparatus | |
JP2004101428A (en) | Laser microscope | |
JP4679995B2 (en) | Defect detection method and apparatus | |
KR20090111780A (en) | Repair apparatus, repair method, and control apparatus | |
JP2009210300A (en) | Observation method and observation device | |
JP2018096892A (en) | Inclination detection method, optical axis adjustment method, optical axis adjustment method for measurement device, optical axis adjustment method for manufacturing apparatus, optical axis adjustment method for exposure device, and optical axis adjustment method for inspection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240423 |